প্রশ্ন ট্যাগ «natural-language»

প্রাকৃতিক ভাষা প্রক্রিয়াকরণ ভাষাবিজ্ঞান, কৃত্রিম বুদ্ধিমত্তা, মেশিন লার্নিং এবং পরিসংখ্যানগুলির কৌশলগুলির একটি সেট যা মানব ভাষাগুলি প্রসেসিং এবং বোঝার লক্ষ্য।

3
পুনরাবৃত্ত বনাম রিকার্সিভ নিউরাল নেটওয়ার্ক: এনএলপির জন্য কোনটি ভাল?
এখানে পুনরাবৃত্ত নিউরাল নেটওয়ার্ক এবং রিকার্সিভ নিউরাল নেটওয়ার্ক রয়েছে। দুটিই সাধারণত একই সংক্ষিপ্ত বিবরণ দ্বারা চিহ্নিত করা হয়: আরএনএন। উইকিপিডিয়া অনুসারে , পুনরাবৃত্তি হওয়া এনএন আসলে পুনরাবৃত্ত এনএন, তবে আমি আসলে ব্যাখ্যাটি বুঝতে পারি না। তদুপরি, প্রাকৃতিক ভাষা প্রসেসিংয়ের জন্য কোনটি ভাল (উদাহরণ বা তাই সহ) খুঁজে পাচ্ছি বলে মনে …

7
নতুনদের জন্য নিউরাল নেটওয়ার্ক রেফারেন্স (পাঠ্যপুস্তক, অনলাইন কোর্স)
আমি নিউরাল নেটওয়ার্ক শিখতে চাই আমি একজন গণনীয় ভাষাবিদ। আমি স্ট্যাটিস্টিকাল মেশিন লার্নিং পদ্ধতির জানি এবং পাইথনে কোড করতে পারে। আমি এর ধারণাগুলি দিয়ে শুরু করতে চাই এবং একটি বা দুটি জনপ্রিয় মডেল জানি যা একটি গণনীয় ভাষাতত্ত্বের দৃষ্টিকোণ থেকে কার্যকর হতে পারে know আমি রেফারেন্সের জন্য ওয়েব ব্রাউজ করেছি …

5
এলডিএ বনাম word2vec
শব্দের মিলের জন্য গণ্য করার জন্য লেটেন্ট ডিরিচলেট বরাদ্দ এবং ওয়ার্ড 2vec এর মধ্যে মিল কী তা আমি বুঝতে চেষ্টা করছি । আমি যেমন বুঝতে পেরেছি, এলডিএ প্রচ্ছন্ন বিষয়গুলির সম্ভাবনার একটি ভেক্টরকে শব্দের মানচিত্র দেয়, যখন ওয়ার্ড 2vec এগুলি প্রকৃত সংখ্যার ভেক্টরের কাছে মানচিত্র করে (পয়েন্টওয়াইস পারস্পরিক তথ্যের একক মান …

3
কোনও বৈশিষ্ট্য ভেক্টর পেতে পুরো নথিতে শব্দ এম্বেডিং প্রয়োগ করুন
তত্ত্বাবধানে থাকা শিক্ষার সাথে ব্যবহারের জন্য কোনও বৈশিষ্ট্য ভেক্টরটিতে নথির মানচিত্র তৈরি করতে আমি কী শব্দ এম্বেডিং ব্যবহার করব? একটি শব্দ এমবেডিং প্রতিটি শব্দ মানচিত্র একটি ভেক্টর করার , যেখানে কিছু না খুব-সংখ্যক (যেমন, 500) হয়। জনপ্রিয় শব্দ এম্বেডিংগুলিতে ওয়ার্ড 2vec এবং গ্লোভ অন্তর্ভুক্ত রয়েছে ।বনাম ∈ আর ঘ ঘwwwv∈Rdv∈Rdv …

1
ওয়ার্ড টুভেকের শব্দ ভেক্টরগুলিকে ব্যবহার করার আগে আমি কি তাদের স্বাভাবিক করতে পারি?
ওয়ার্ড ভেক্টরগুলিকে ওয়ার্ড টু ওয়েভকে প্রশিক্ষণ দেওয়ার পরে, কিছু স্ট্রিম অ্যাপ্লিকেশনগুলির জন্য সেগুলি ব্যবহার করার আগে এগুলি স্বাভাবিক করা ভাল? অর্থাৎ এগুলি স্বাভাবিক করার পক্ষে কি কি?

3
লুকানো মার্কভ মডেল এবং শর্তসাপেক্ষ র্যান্ডম ক্ষেত্রগুলির মধ্যে স্বজ্ঞাত পার্থক্য
আমি বুঝতে পেরেছি যে এইচএমএস (লুকানো মার্কভ মডেল) জেনারেটরি মডেল এবং সিআরএফ বৈষম্যমূলক মডেল। আমি বুঝতে পারি কীভাবে সিআরএফ (শর্তসাপেক্ষ র্যান্ডম ক্ষেত্রগুলি) ডিজাইন এবং ব্যবহার করা হয়। যা আমি বুঝতে পারি না তারা কীভাবে এইচএমএম থেকে আলাদা? আমি পড়েছি যে এইচএমএম-এর ক্ষেত্রে আমরা কেবলমাত্র আমাদের পরবর্তী অবস্থাটি পূর্ববর্তী নোড, বর্তমান …

3
আর: র‌্যান্ডম ফরেস্ট ডায়েসেটে কোনও এনএএন না থাকা সত্ত্বেও "বিদেশী ফাংশন কল" ত্রুটিতে NaN / Inf নিক্ষেপ করছে [বন্ধ]
বন্ধ থাকে। এই প্রশ্নটি অফ-টপিক । এটি বর্তমানে উত্তর গ্রহণ করছে না। এই প্রশ্নটি উন্নত করতে চান? প্রশ্নটি আপডেট করুন যাতে এটি ক্রস ভ্যালিডেটের জন্য অন-বিষয় । 2 বছর আগে বন্ধ । আমি একটি ডেটাসেটের উপরে ক্রস বৈধতাযুক্ত এলোমেলো বন চালানোর জন্য ক্যারেট ব্যবহার করছি। Y পরিবর্তনশীল একটি ফ্যাক্টর। আমার …

2
L2- নরমালাইজড ইউক্লিডিয়ান দূরত্বের সাথে কোসাইন মিল কি মিল?
আসল অর্থ, এটি কোনও ভেক্টর ইউ এবং ভেক্টর ভি এর সেট এর মধ্যে সাদৃশ্য র‌্যাঙ্কিংয়ের জন্য অভিন্ন ফলাফল আনবে । আমার কাছে একটি ভেক্টর স্পেস মডেল রয়েছে যার পরামিতি হিসাবে দূরত্ব পরিমাপ (ইউক্লিডিয়ান দূরত্ব, কোসাইন অনুরূপতা) এবং নরমালাইজেশন কৌশল (কোনওটি নয়, এল 1, এল 2) রয়েছে। আমার বোধগম্যতা থেকে, সেটিংসের …

3
বিষয়গুলির মডেল এবং শব্দের সহ-উপস্থিতি পদ্ধতি
এলডিএর মতো জনপ্রিয় টপিক মডেলগুলি সাধারণত ক্লাস্টার শব্দের সাথে একই বিষয়ের (ক্লাস্টার) একসাথে হয়ে থাকে। এই জাতীয় বিষয়গুলির মডেল এবং পিএমআইয়ের মতো অন্যান্য সাধারণ সহ-ঘটনা ভিত্তিক ক্লাস্টারিং পদ্ধতির মধ্যে প্রধান পার্থক্য কী? (পিএমআই মানে পয়েন্টওয়্যার মিউচুয়াল ইনফরমেশন, এবং এটি কোনও প্রদত্ত শব্দের সাথে সহজাত হওয়া শব্দগুলি সনাক্ত করতে ব্যবহৃত হয়))

1
অনুভূতি বিশ্লেষণের জন্য অনুচ্ছেদে ভেক্টর ব্যবহার করার প্রতিবেদন করা অত্যাধুনিক পারফরম্যান্সটির প্রতিরূপ তৈরি করা হয়েছে?
লে এবং মিকোলোভের আইসিএমএল ২০১৪ পত্রিকায় " বিতরণ উপস্থাপনাগুলি ও নথিপত্র " এর ফলাফলগুলিতে আমি মুগ্ধ হয়েছি। "প্যারাগ্রাফ ভেক্টর" নামক তারা যে কৌশলটি বর্ণনা করেন, শব্দ 2vec মডেলের বর্ধনের উপর ভিত্তি করে নির্বিচারে দীর্ঘ অনুচ্ছেদ / নথিগুলির নিরীক্ষণ উপস্থাপনা শিখেন। এই কৌশলটি ব্যবহার করে সংবেদন বিশ্লেষণে কাগজটি অত্যাধুনিক পারফরম্যান্সের প্রতিবেদন …

3
সিবিডাব্লু এর চেয়ে বিরল শব্দগুলির জন্য স্কিপ-গ্রাম কেন ভাল?
আমি অবাক হয়েছি কেন ওয়ার্ড টু ওয়েভের সিবিডাব্লু এর চেয়ে বিরল শব্দগুলির জন্য স্কিপ-গ্রাম ভাল। আমি https://code.google.com/p/word2vec/ এ দাবিটি পড়েছি ।

2
প্রাকৃতিক ভাষা প্রসেসিং কেন মেশিন লার্নিং ডোমেনের আওতায় পড়ে না? [বন্ধ]
যেমনটি বর্তমানে দাঁড়িয়ে আছে, এই প্রশ্নটি আমাদের প্রশ্নোত্তর বিন্যাসের জন্য উপযুক্ত নয়। আমরা উত্তরগুলি তথ্য, তথ্যসূত্র বা দক্ষতার দ্বারা সমর্থন করা আশা করি তবে এই প্রশ্নটি সম্ভবত বিতর্ক, যুক্তি, পোলিং বা বর্ধিত আলোচনার জন্য অনুরোধ করবে। আপনি যদি মনে করেন যে এই প্রশ্নটি উন্নত এবং সম্ভবত পুনরায় খোলা যেতে পারে …

3
Kneser-Ney স্মুথিংয়ে, অদেখা শব্দগুলি কীভাবে পরিচালনা করা হয়?
আমি যা দেখেছি তা থেকে, (দ্বিতীয়-ক্রম) কানসার-নে স্মুথিং সূত্রটি কোনও উপায়ে বা অন্য হিসাবে দেওয়া হয়েছে P2KN(wn|wn−1)=max{C(wn−1,wn)−D,0}∑w′C(wn−1,w′)+λ(wn−1)×Pcont(wn)PKN2(wn|wn−1)=max{C(wn−1,wn)−D,0}∑w′C(wn−1,w′)+λ(wn−1)×Pcont(wn) \begin{align} P^2_{KN}(w_n|w_{n-1}) &= \frac{\max \left\{ C\left(w_{n-1}, w_n\right) - D, 0\right\}}{\sum_{w'} C\left(w_{n-1}, w'\right)} + \lambda(w_{n-1}) \times P_{cont}(w_n) \end{align} নর্মালাইজিং ফ্যাক্টর সহ λ(wn−1)λ(wn−1)\lambda(w_{n-1}) হিসাবে দেওয়া হয়েছে λ(wn−1)=D∑w′C(wn−1,w′)×N1+(wn−1∙)λ(wn−1)=D∑w′C(wn−1,w′)×N1+(wn−1∙) \begin{align} \lambda(w_{n-1}) &= \frac{D}{\sum_{w'} C\left(w_{n-1}, w'\right)} \times N_{1+}\left(w_{n-1}\bullet\right) …

3
সংক্ষিপ্ত নথিগুলির জন্য বিষয়গুলির মডেল
এই প্রশ্নের দ্বারা অনুপ্রাণিত হয়ে আমি ভাবছি যে খুব ছোট সংক্ষিপ্ত পাঠগুলির বৃহত সংগ্রহের জন্য টপিক মডেলগুলিতে কোনও কাজ করা হয়েছে কিনা। আমার স্বজ্ঞাততা হ'ল এই জাতীয় মডেলগুলির জন্য টুইটারের একটি প্রাকৃতিক অনুপ্রেরণা হওয়া উচিত। তবে কিছু সীমিত পরীক্ষা-নিরীক্ষার থেকে দেখে মনে হচ্ছে স্ট্যান্ডার্ড টপিক মডেলগুলি (এলডিএ ইত্যাদি) এই জাতীয় …

2
কোন এন-এ এন-গ্রামগুলি প্রতিরক্ষামূলক হয়?
প্রাকৃতিক ভাষা প্রক্রিয়াকরণ করার সময়, কেউ একটি কর্পাস নিতে পারে এবং n এর ক্রমতে পরবর্তী শব্দের সম্ভাব্যতার মূল্যায়ন করতে পারে। n সাধারণত 2 বা 3 (বিগ্রাম এবং ট্রিগ্রাম) হিসাবে বেছে নেওয়া হয়। সেই স্তরে একটি নির্দিষ্ট কর্পাসকে একবার শ্রেণিবদ্ধ করার জন্য যে পরিমাণ সময় লাগে তাতে নবম চেইনের ডেটা ট্র্যাকিং …

আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.