প্রশ্ন ট্যাগ «word-embeddings»

শব্দ এম্বেডিং হ'ল এনএলপিতে ভাষা মডেলিং এবং বৈশিষ্ট্য শেখার কৌশলগুলির সেটগুলির সম্মিলিত নাম যেখানে শব্দভাণ্ডারের আকারের সাথে সামঞ্জস্য রেখে শব্দগুলি একটি কম মাত্রিক স্থানে প্রকৃত সংখ্যার ভেক্টরগুলিতে ম্যাপ করা হয়।

2
নিউরাল নেটওয়ার্কে এমবেডিং স্তর কী?
অনেক নিউরাল নেটওয়ার্ক লাইব্রেরিতে কেরাস বা লাসাগেনের মতো 'এম্বেডিং স্তর' রয়েছে । ডকুমেন্টেশন পড়েও আমি এর ফাংশনটি বুঝতে পেরেছি তা নিশ্চিত নই। উদাহরণস্বরূপ, কেরাস ডকুমেন্টেশনে এটি বলে: ধনাত্মক পূর্ণসংখ্যার (সূচকগুলি) স্থির আকারের ঘন ভেক্টরগুলিতে পরিণত করুন, যেমন। [[4], [20]] -> [[0.25, 0.1], [0.6, -0.2]] কোনও জ্ঞানী ব্যক্তি কী এটি ব্যাখ্যা …

2
কেরাস 'এম্বেডিং' স্তর কীভাবে কাজ করে?
কেরাস লাইব্রেরিতে 'এম্বেডিং' স্তরটির কাজ বোঝার প্রয়োজন। আমি পাইথনে নিম্নলিখিত কোডটি কার্যকর করি import numpy as np from keras.models import Sequential from keras.layers import Embedding model = Sequential() model.add(Embedding(5, 2, input_length=5)) input_array = np.random.randint(5, size=(1, 5)) model.compile('rmsprop', 'mse') output_array = model.predict(input_array) যা নিম্নলিখিত আউটপুট দেয় input_array = [[4 1 3 …

3
কোনও বৈশিষ্ট্য ভেক্টর পেতে পুরো নথিতে শব্দ এম্বেডিং প্রয়োগ করুন
তত্ত্বাবধানে থাকা শিক্ষার সাথে ব্যবহারের জন্য কোনও বৈশিষ্ট্য ভেক্টরটিতে নথির মানচিত্র তৈরি করতে আমি কী শব্দ এম্বেডিং ব্যবহার করব? একটি শব্দ এমবেডিং প্রতিটি শব্দ মানচিত্র একটি ভেক্টর করার , যেখানে কিছু না খুব-সংখ্যক (যেমন, 500) হয়। জনপ্রিয় শব্দ এম্বেডিংগুলিতে ওয়ার্ড 2vec এবং গ্লোভ অন্তর্ভুক্ত রয়েছে ।বনাম ∈ আর ঘ ঘwwwv∈Rdv∈Rdv …

1
ওয়ার্ড টুভেকের শব্দ ভেক্টরগুলিকে ব্যবহার করার আগে আমি কি তাদের স্বাভাবিক করতে পারি?
ওয়ার্ড ভেক্টরগুলিকে ওয়ার্ড টু ওয়েভকে প্রশিক্ষণ দেওয়ার পরে, কিছু স্ট্রিম অ্যাপ্লিকেশনগুলির জন্য সেগুলি ব্যবহার করার আগে এগুলি স্বাভাবিক করা ভাল? অর্থাৎ এগুলি স্বাভাবিক করার পক্ষে কি কি?

3
আর: র‌্যান্ডম ফরেস্ট ডায়েসেটে কোনও এনএএন না থাকা সত্ত্বেও "বিদেশী ফাংশন কল" ত্রুটিতে NaN / Inf নিক্ষেপ করছে [বন্ধ]
বন্ধ থাকে। এই প্রশ্নটি অফ-টপিক । এটি বর্তমানে উত্তর গ্রহণ করছে না। এই প্রশ্নটি উন্নত করতে চান? প্রশ্নটি আপডেট করুন যাতে এটি ক্রস ভ্যালিডেটের জন্য অন-বিষয় । 2 বছর আগে বন্ধ । আমি একটি ডেটাসেটের উপরে ক্রস বৈধতাযুক্ত এলোমেলো বন চালানোর জন্য ক্যারেট ব্যবহার করছি। Y পরিবর্তনশীল একটি ফ্যাক্টর। আমার …

1
অনুভূতি বিশ্লেষণের জন্য অনুচ্ছেদে ভেক্টর ব্যবহার করার প্রতিবেদন করা অত্যাধুনিক পারফরম্যান্সটির প্রতিরূপ তৈরি করা হয়েছে?
লে এবং মিকোলোভের আইসিএমএল ২০১৪ পত্রিকায় " বিতরণ উপস্থাপনাগুলি ও নথিপত্র " এর ফলাফলগুলিতে আমি মুগ্ধ হয়েছি। "প্যারাগ্রাফ ভেক্টর" নামক তারা যে কৌশলটি বর্ণনা করেন, শব্দ 2vec মডেলের বর্ধনের উপর ভিত্তি করে নির্বিচারে দীর্ঘ অনুচ্ছেদ / নথিগুলির নিরীক্ষণ উপস্থাপনা শিখেন। এই কৌশলটি ব্যবহার করে সংবেদন বিশ্লেষণে কাগজটি অত্যাধুনিক পারফরম্যান্সের প্রতিবেদন …

1
নেতিবাচক নমুনা ওয়ার্ড টুভেচে কীভাবে কাজ করে?
আমি ওয়ার্ড টুভেকের প্রসঙ্গে নেতিবাচক নমুনার ধারণাটি বোঝার চেষ্টা করছি। আমি [নেতিবাচক] স্যাম্পলিংয়ের ধারণাটি হজম করতে অক্ষম। উদাহরণস্বরূপ , মিকোলভের কাগজগুলিতে নেতিবাচক নমুনা প্রত্যাশা হিসাবে সূত্রিত হয় logσ(⟨w,c⟩)+k⋅EcN∼PD[logσ(−⟨w,cN⟩)].log⁡σ(⟨w,c⟩)+k⋅EcN∼PD[log⁡σ(−⟨w,cN⟩)].\log \sigma(\langle w,c\rangle ) + k \cdot \mathbb E_{c_N\sim PD}[\log\sigma(−\langle w,c_N\rangle)]. আমি বাম শব্দটি বুঝতে , কিন্তু আমি নেতিবাচক শব্দ-প্রসঙ্গ জোড়া স্যাম্পলিং ধারণা …

3
সিবিডাব্লু এর চেয়ে বিরল শব্দগুলির জন্য স্কিপ-গ্রাম কেন ভাল?
আমি অবাক হয়েছি কেন ওয়ার্ড টু ওয়েভের সিবিডাব্লু এর চেয়ে বিরল শব্দগুলির জন্য স্কিপ-গ্রাম ভাল। আমি https://code.google.com/p/word2vec/ এ দাবিটি পড়েছি ।

2
এম্বেডিং স্তরটি কেরাস এম্বেডিং স্তরটিতে কীভাবে প্রশিক্ষিত হয়
কেরাস এম্বেডিং স্তরটিতে এম্বেডিং স্তরটি কীভাবে প্রশিক্ষিত হয়? (টেনসরফ্লো ব্যাকএন্ড ব্যবহার করে বলুন, এর অর্থ এটি ওয়ার্ড টুভেক, গ্লোভ বা ফাস্টটেক্সটের সমান) ধরে নিন আমরা একটি পূর্বনির্ধারিত এম্বেডিং ব্যবহার করি না।

3
বিরল শব্দের জন্য কেন হায়ারারিকিকাল সফটম্যাক্স ভাল, যখন ঘন ঘন শব্দের জন্য নেতিবাচক নমুনা আরও ভাল?
আমি অবাক হই যে কেন হায়ারারিকিকাল সফটম্যাক্স অপ্রতুল শব্দের জন্য আরও ভাল, অন্যদিকে শব্দ 2vec এর সিবিওউ এবং স্কিপ-গ্রাম মডেলগুলিতে ঘন ঘন শব্দের জন্য নেতিবাচক নমুনা আরও ভাল। আমি https://code.google.com/p/word2vec/ এ দাবিটি পড়েছি ।

3
ওয়ার্ড 2ভেকের স্কিপ-গ্রাম মডেল কীভাবে আউটপুট ভেক্টর তৈরি করে?
ওয়ার্ড 2 ভেক অ্যালগরিদমের স্কিপ-গ্রাম মডেলটি বুঝতে আমার সমস্যা হচ্ছে। অবিচ্ছিন্ন ব্যাগ-অফ-শব্দের মধ্যে নিউরাল নেটওয়ার্কে প্রসঙ্গের শব্দগুলি কীভাবে "ফিট" হতে পারে তা সহজেই দেখা যায়, যেহেতু আপনি ইনপুট ম্যাট্রিক্স ডাব্লু দিয়ে এক-হট এনকোডিং উপস্থাপনাগুলির প্রতিটি গুন করার পরে মূলত এগুলি গড় করেন since তবে, স্কিপ-গ্রামের ক্ষেত্রে, আপনি কেবল ইনপুট ম্যাট্রিক্সের …

1
পারফরম্যান্সের ক্ষেত্রে শব্দ এম্বেডিং অ্যালগরিদম
আমি প্রায় 60 মিলিয়ন বাক্যাংশ ভেক্টর স্পেসে এম্বেড করার চেষ্টা করছি , তারপরে তাদের মধ্যে কোজিনের মিলের গণনা করুন। আমি CountVectorizerএকটি কাস্টম বিল্ট টোকেনাইজার ফাংশন দিয়ে ইউনিট এবং বিগ্রাম তৈরির জন্য স্ক্লার্নস ব্যবহার করছি । সক্রিয় হয় যে অর্থবহ উপস্থাপনা পেতে আমাকে সারি সংখ্যায় লিনিয়ার, প্রচুর পরিমাণে কলামের অনুমতি দিতে …

2
মাত্রা হ্রাস করার জন্য টি-এসএনইর জন্য পরামিতিগুলি কীভাবে নির্ধারণ করবেন?
আমি শব্দ এম্বেডিং খুব নতুন। আমি কীভাবে দস্তাবেজগুলি শেখার পরে নজর রাখছি তা কল্পনা করতে চাই ize আমি পড়েছি যে টি-এসএনই হ'ল এটি করার পন্থা। এম্বেডিংয়ের আকার হিসাবে 250 টি মাত্রা সহ আমার কাছে 100K ডকুমেন্ট রয়েছে। পাশাপাশি বেশ কয়েকটি প্যাকেজ উপলব্ধ রয়েছে। তবে, টি-এসএনই-র জন্য, আমি জানি না কতটা …

1
এসভিডি-এর আগে কোকক্রিয়েন্স ম্যাট্রিক্স শব্দের উপর পয়েন্টওয়াইজ মিউচুয়াল তথ্য প্রয়োগ করার পক্ষে কি কি?
শব্দ এম্বেডিংগুলি তৈরি করার একটি উপায় নিম্নরূপ ( আয়না ): কর্পোরো পান, যেমন "আমি উড়ন্ত উপভোগ করি I আমি এনএলপি পছন্দ করি I এটি থেকে কোকোরিয়েন্স ম্যাট্রিক্স শব্দটি তৈরি করুন: তে এসভিডি করুন , এবং ইউ এর প্রথম কলামগুলি রাখুনXXXkkk সাবম্যাট্রিক্স প্রতিটি সারিটি সেই শব্দের এম্বেডিং শব্দ হবে যা সারিটি …

2
শব্দগুলির অবিচ্ছিন্ন ব্যাগ সম্পর্কে প্রশ্ন
এই বাক্যটি বুঝতে আমার সমস্যা হচ্ছে: প্রথম প্রস্তাবিত আর্কিটেকচারটি ফিডফোর্ড এনএনএলএম এর অনুরূপ, যেখানে অ-রৈখিক লুকানো স্তর সরানো হয় এবং প্রজেকশন স্তরটি সমস্ত শব্দের জন্য ভাগ করা হয় (কেবলমাত্র প্রক্ষেপণ ম্যাট্রিক্স নয়); সুতরাং, সমস্ত শব্দ একই অবস্থানে প্রজেক্ট হয় (তাদের ভেক্টরগুলির গড় হয়)। প্রোজেকশন স্তর বনাম প্রজেকশন ম্যাট্রিক্স কী? সমস্ত …

আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.