প্রশ্ন ট্যাগ «word2vec»

ওয়ার্ড টুভেক হ'ল একটি নিউরাল নেটওয়ার্ক যা উচ্চ মাত্রিক জায়গাতে শব্দগুলিকে ভেক্টর হিসাবে প্রতিনিধিত্ব করে।

5
এলডিএ বনাম word2vec
শব্দের মিলের জন্য গণ্য করার জন্য লেটেন্ট ডিরিচলেট বরাদ্দ এবং ওয়ার্ড 2vec এর মধ্যে মিল কী তা আমি বুঝতে চেষ্টা করছি । আমি যেমন বুঝতে পেরেছি, এলডিএ প্রচ্ছন্ন বিষয়গুলির সম্ভাবনার একটি ভেক্টরকে শব্দের মানচিত্র দেয়, যখন ওয়ার্ড 2vec এগুলি প্রকৃত সংখ্যার ভেক্টরের কাছে মানচিত্র করে (পয়েন্টওয়াইস পারস্পরিক তথ্যের একক মান …

3
কোনও বৈশিষ্ট্য ভেক্টর পেতে পুরো নথিতে শব্দ এম্বেডিং প্রয়োগ করুন
তত্ত্বাবধানে থাকা শিক্ষার সাথে ব্যবহারের জন্য কোনও বৈশিষ্ট্য ভেক্টরটিতে নথির মানচিত্র তৈরি করতে আমি কী শব্দ এম্বেডিং ব্যবহার করব? একটি শব্দ এমবেডিং প্রতিটি শব্দ মানচিত্র একটি ভেক্টর করার , যেখানে কিছু না খুব-সংখ্যক (যেমন, 500) হয়। জনপ্রিয় শব্দ এম্বেডিংগুলিতে ওয়ার্ড 2vec এবং গ্লোভ অন্তর্ভুক্ত রয়েছে ।বনাম ∈ আর ঘ ঘwwwv∈Rdv∈Rdv …

1
ওয়ার্ড টুভেকের শব্দ ভেক্টরগুলিকে ব্যবহার করার আগে আমি কি তাদের স্বাভাবিক করতে পারি?
ওয়ার্ড ভেক্টরগুলিকে ওয়ার্ড টু ওয়েভকে প্রশিক্ষণ দেওয়ার পরে, কিছু স্ট্রিম অ্যাপ্লিকেশনগুলির জন্য সেগুলি ব্যবহার করার আগে এগুলি স্বাভাবিক করা ভাল? অর্থাৎ এগুলি স্বাভাবিক করার পক্ষে কি কি?

3
আর: র‌্যান্ডম ফরেস্ট ডায়েসেটে কোনও এনএএন না থাকা সত্ত্বেও "বিদেশী ফাংশন কল" ত্রুটিতে NaN / Inf নিক্ষেপ করছে [বন্ধ]
বন্ধ থাকে। এই প্রশ্নটি অফ-টপিক । এটি বর্তমানে উত্তর গ্রহণ করছে না। এই প্রশ্নটি উন্নত করতে চান? প্রশ্নটি আপডেট করুন যাতে এটি ক্রস ভ্যালিডেটের জন্য অন-বিষয় । 2 বছর আগে বন্ধ । আমি একটি ডেটাসেটের উপরে ক্রস বৈধতাযুক্ত এলোমেলো বন চালানোর জন্য ক্যারেট ব্যবহার করছি। Y পরিবর্তনশীল একটি ফ্যাক্টর। আমার …

1
নেতিবাচক নমুনা ওয়ার্ড টুভেচে কীভাবে কাজ করে?
আমি ওয়ার্ড টুভেকের প্রসঙ্গে নেতিবাচক নমুনার ধারণাটি বোঝার চেষ্টা করছি। আমি [নেতিবাচক] স্যাম্পলিংয়ের ধারণাটি হজম করতে অক্ষম। উদাহরণস্বরূপ , মিকোলভের কাগজগুলিতে নেতিবাচক নমুনা প্রত্যাশা হিসাবে সূত্রিত হয় logσ(⟨w,c⟩)+k⋅EcN∼PD[logσ(−⟨w,cN⟩)].log⁡σ(⟨w,c⟩)+k⋅EcN∼PD[log⁡σ(−⟨w,cN⟩)].\log \sigma(\langle w,c\rangle ) + k \cdot \mathbb E_{c_N\sim PD}[\log\sigma(−\langle w,c_N\rangle)]. আমি বাম শব্দটি বুঝতে , কিন্তু আমি নেতিবাচক শব্দ-প্রসঙ্গ জোড়া স্যাম্পলিং ধারণা …

3
সিবিডাব্লু এর চেয়ে বিরল শব্দগুলির জন্য স্কিপ-গ্রাম কেন ভাল?
আমি অবাক হয়েছি কেন ওয়ার্ড টু ওয়েভের সিবিডাব্লু এর চেয়ে বিরল শব্দগুলির জন্য স্কিপ-গ্রাম ভাল। আমি https://code.google.com/p/word2vec/ এ দাবিটি পড়েছি ।

4
নেতিবাচক কোসাইন অনুরূপ ব্যাখ্যা
আমার প্রশ্নটি মূর্খ হতে পারে। তাই আমি আগেই ক্ষমা চাইব। আমি স্ট্যানফোর্ড এনএলপি গ্রুপ ( লিঙ্ক ) দ্বারা প্রাক প্রশিক্ষিত GLOVE মডেলটি ব্যবহার করার চেষ্টা করছিলাম । তবে, আমি লক্ষ্য করেছি যে আমার মিলের ফলাফলগুলি কিছু নেতিবাচক সংখ্যা দেখিয়েছে। এটি অবিলম্বে আমাকে শব্দ-ভেক্টর ডেটা ফাইলটি দেখার জন্য অনুরোধ করেছিল। স্পষ্টতই, …

2
স্পাসি-র মধ্যে কীভাবে একইতা পদ্ধতি গণনা করা হয়?
এটি সঠিক স্ট্যাক সাইট কিনা তা নিশ্চিত নয়, তবে এখানে রয়েছে। .সিমরিটিসিটি পদ্ধতি কীভাবে কাজ করে? বাহ স্পাইসি দুর্দান্ত! এর টিডিআইডিএফ মডেলটি আরও সহজ হতে পারে, তবে কেবলমাত্র এক লাইনের কোডের সাথে ডাব্লু 2 ভি ?! স্পাইসি অ্যান্ড্রাজিবার্নিকের তাঁর 10 লাইনের টিউটোরিয়ালে আমাদের .s মিলিটির পদ্ধতিটি টোকেন, সেন্ট, শব্দ শঙ্ক …

3
বিরল শব্দের জন্য কেন হায়ারারিকিকাল সফটম্যাক্স ভাল, যখন ঘন ঘন শব্দের জন্য নেতিবাচক নমুনা আরও ভাল?
আমি অবাক হই যে কেন হায়ারারিকিকাল সফটম্যাক্স অপ্রতুল শব্দের জন্য আরও ভাল, অন্যদিকে শব্দ 2vec এর সিবিওউ এবং স্কিপ-গ্রাম মডেলগুলিতে ঘন ঘন শব্দের জন্য নেতিবাচক নমুনা আরও ভাল। আমি https://code.google.com/p/word2vec/ এ দাবিটি পড়েছি ।

3
ওয়ার্ড 2ভেকের স্কিপ-গ্রাম মডেল কীভাবে আউটপুট ভেক্টর তৈরি করে?
ওয়ার্ড 2 ভেক অ্যালগরিদমের স্কিপ-গ্রাম মডেলটি বুঝতে আমার সমস্যা হচ্ছে। অবিচ্ছিন্ন ব্যাগ-অফ-শব্দের মধ্যে নিউরাল নেটওয়ার্কে প্রসঙ্গের শব্দগুলি কীভাবে "ফিট" হতে পারে তা সহজেই দেখা যায়, যেহেতু আপনি ইনপুট ম্যাট্রিক্স ডাব্লু দিয়ে এক-হট এনকোডিং উপস্থাপনাগুলির প্রতিটি গুন করার পরে মূলত এগুলি গড় করেন since তবে, স্কিপ-গ্রামের ক্ষেত্রে, আপনি কেবল ইনপুট ম্যাট্রিক্সের …

1
পারফরম্যান্সের ক্ষেত্রে শব্দ এম্বেডিং অ্যালগরিদম
আমি প্রায় 60 মিলিয়ন বাক্যাংশ ভেক্টর স্পেসে এম্বেড করার চেষ্টা করছি , তারপরে তাদের মধ্যে কোজিনের মিলের গণনা করুন। আমি CountVectorizerএকটি কাস্টম বিল্ট টোকেনাইজার ফাংশন দিয়ে ইউনিট এবং বিগ্রাম তৈরির জন্য স্ক্লার্নস ব্যবহার করছি । সক্রিয় হয় যে অর্থবহ উপস্থাপনা পেতে আমাকে সারি সংখ্যায় লিনিয়ার, প্রচুর পরিমাণে কলামের অনুমতি দিতে …

2
মাত্রা হ্রাস করার জন্য টি-এসএনইর জন্য পরামিতিগুলি কীভাবে নির্ধারণ করবেন?
আমি শব্দ এম্বেডিং খুব নতুন। আমি কীভাবে দস্তাবেজগুলি শেখার পরে নজর রাখছি তা কল্পনা করতে চাই ize আমি পড়েছি যে টি-এসএনই হ'ল এটি করার পন্থা। এম্বেডিংয়ের আকার হিসাবে 250 টি মাত্রা সহ আমার কাছে 100K ডকুমেন্ট রয়েছে। পাশাপাশি বেশ কয়েকটি প্যাকেজ উপলব্ধ রয়েছে। তবে, টি-এসএনই-র জন্য, আমি জানি না কতটা …

2
LSTM ব্যবহার করে ভাষা মডেলিংয়ের কার্যগুলিতে অজানা শব্দগুলি পরিচালনা করা ling
প্রাকৃতিক ভাষা প্রক্রিয়াকরণ (এনএলপি) কার্যের জন্য একটি শব্দ শব্দের এম্বেডিং হিসাবে প্রায়শই ওয়ার্ড 2vec ভেক্টর ব্যবহার করে। যাইহোক, অনেক অজানা শব্দ থাকতে পারে যা শব্দ 2vec ভেক্টর দ্বারা ধরা পড়ে না কেবল এই কারণে যে এই শব্দগুলি প্রায়শই প্রশিক্ষণের ডেটাতে যথেষ্ট পরিমাণে দেখা যায় না (অনেকগুলি বাস্তবায়ন শব্দভাণ্ডারে কোনও শব্দ …

1
ওয়ার্ড টুভেচে ক্রস এনট্রপি ক্ষতি ডেরাইভেটিভ
আমি CS224d অনলাইন স্ট্যানফোর্ড ক্লাস কোর্স উপাদানটির প্রথম সমস্যা সেটটি দিয়ে আমার পথে কাজ করার চেষ্টা করছি এবং 3A সমস্যা নিয়ে আমার কিছু সমস্যা হচ্ছে: সফটম্যাক্স প্রেডিকেশন ফাংশন এবং ক্রস এন্ট্রপি ক্ষতি ফাংশন সহ স্কিপ গ্রাম ওয়ার্ড 2 ওয়েভ মডেলটি ব্যবহার করার সময়, আমরা পূর্বাভাসযুক্ত শব্দ ভেক্টরগুলির সাথে সম্মানের সাথে …

1
স্কিপগ্রাম ওয়ার্ড 2 ওয়েভের জন্য গ্রেডিয়েন্টস
স্ট্যানফোর্ড এনএলপি গভীর শিক্ষার শ্রেণীর লিখিত কার্যনির্বাহী সমস্যাগুলির মধ্যে আমি যাচ্ছি http://cs224d.stanford.edu/assignment1/assignment1_soln আমি 3a এর উত্তরটি বোঝার চেষ্টা করছি যেখানে তারা কেন্দ্রের শব্দের জন্য ভেক্টর থেকে ডাইরিভেটিভ খুঁজছেন। ধরুন আপনাকে স্কিপগ্রামের কেন্দ্রের শব্দ সি এর সাথে সম্পর্কিত একটি পূর্বাভাসযুক্ত ভেক্টর given দেওয়া হয়েছে, এবং ওয়ার্ড টুভেক মডেলগুলিতে পাওয়া সফটম্যাক্স ফাংশন …
আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.