প্রশ্ন ট্যাগ «word-embeddings»

শব্দ এম্বেডিং হ'ল এনএলপিতে ভাষা মডেলিং এবং বৈশিষ্ট্য শেখার কৌশলগুলির সেটগুলির সম্মিলিত নাম যেখানে শব্দভাণ্ডারের আকারের সাথে সামঞ্জস্য রেখে শব্দগুলি একটি নিম্ন মাত্রিক স্থানে প্রকৃত সংখ্যার ভেক্টরগুলিতে ম্যাপ করা হয়।

4
নয়েজ কনট্রাস্টিভ এস্টিমেশন (এনসিই) ক্ষতির স্বজ্ঞাত ব্যাখ্যা?
আমি এই দুটি উত্স থেকে এনসিই (প্রার্থী নমুনার একটি ফর্ম) সম্পর্কে পড়েছি: টেনসরফ্লো রাইটিংআপ মূল কাগজ নিম্নলিখিত কেউ আমাকে কেউ সাহায্য করতে পারে: এনসিই কীভাবে কাজ করে তার একটি সহজ ব্যাখ্যা (আমি উপরেরটিকে পার্স করা এবং একটি বোঝার পক্ষে জটিল ধারণা পেয়েছি, সুতরাং এমন কোনও স্বজ্ঞাত যা এখানে উপস্থাপনিত গণিতের …

3
ওয়ার্ড 2ভেকের জন্য আরও ভাল ইনপুট কী?
এটি আরও একটি সাধারণ এনএলপি প্রশ্নের মতো। ওয়ার্ড 2 ভেক এমবেডিং শব্দের প্রশিক্ষণের জন্য উপযুক্ত ইনপুট কী? কোনও নিবন্ধের সাথে সম্পর্কিত সমস্ত বাক্যগুলি কর্পাসের আলাদা দলিল হওয়া উচিত? বা প্রতিটি নিবন্ধটি কর্পাসের ডকুমেন্ট হওয়া উচিত? এটি পাইথন এবং জিনসিম ব্যবহারের উদাহরণ মাত্র। কার্পাস বাক্য দ্বারা বিভক্ত: SentenceCorpus = [["first", "sentence", …

2
ওয়ার্ড 2vec মডেল ব্যবহার করে কোনও শব্দের পূর্বাভাস
"যখন আমি খোলা: একটি বাক্য দেওয়া ?? দরজা এটি স্বয়ংক্রিয়ভাবে গরম শুরু হয়" আমি সম্ভাব্য শব্দের তালিকা পেতে চাই ?? একটি সম্ভাবনা সঙ্গে। ওয়ার্ড টুভেক মডেলে ব্যবহৃত মূল ধারণাটি আশেপাশের প্রসঙ্গে প্রদত্ত একটি শব্দটির "পূর্বাভাস" দেওয়া। একবার মডেলটি তৈরি হয়ে গেলে, নতুন বাক্যে আমার ভবিষ্যদ্বাণীটি কার্য সম্পাদন করতে সঠিক প্রসঙ্গ …

4
আমি কীভাবে শব্দের অর্থগত মিলের পরিমাপ করতে পারি?
শব্দের অর্থগত মিল খুঁজে বের করার সেরা উপায় কী? ওয়ার্ড টুভেক ঠিক আছে, তবে আদর্শ নয়: # Using the 840B word Common Crawl GloVe vectors with gensim: # 'hot' is closer to 'cold' than 'warm' In [7]: model.similarity('hot', 'cold') Out[7]: 0.59720456121072973 In [8]: model.similarity('hot', 'warm') Out[8]: 0.56784095376659627 # Cold is …

2
ডক 2ভেক - অনুচ্ছেদগুলি কীভাবে লেবেল করবেন (জেনসিম)
আমি ভাবছি কীভাবে জেনসিম-এ ডকুমেন্টের সাথে বাক্য / অনুচ্ছেদ / দস্তাবেজগুলি লেবেল করতে হবে - ব্যবহারিক দৃষ্টিকোণ থেকে। আপনার কি প্রতিটি বাক্য / অনুচ্ছেদ / ডকুমেন্টের নিজস্ব অনন্য লেবেল (যেমন "প্রেরণ করা হয়েছে 23") থাকা দরকার? আপনি যদি "সেন্টেন্ট_২৩" লেবেলযুক্ত একটি নির্দিষ্ট বাক্যটির সাথে কী শব্দ বা বাক্যগুলির সাদৃশ্যপূর্ণ তা …

5
সামুদ্রিক হটম্যাপটি আরও বড় করুন
আমি corr()একটি আসল df এর বাইরে একটি df তৈরি করি । corr()Df প্রয়োগ আউট 70 এক্স 70 এসে তা হিটম্যাপ ঠাহর করা অসম্ভব ... sns.heatmap(df)। যদি আমি এটি প্রদর্শনের চেষ্টা করি corr = df.corr(), টেবিলটি স্ক্রিনের সাথে খাপ খায় না এবং আমি সমস্ত সম্পর্কিততা দেখতে পাচ্ছি। dfএটির আকার নির্বিশেষে পুরো …
17 visualization  pandas  plotting  machine-learning  neural-network  svm  decision-trees  svm  efficiency  python  linear-regression  machine-learning  nlp  topic-model  lda  named-entity-recognition  naive-bayes-classifier  association-rules  fuzzy-logic  kaggle  deep-learning  tensorflow  inception  classification  feature-selection  feature-engineering  machine-learning  scikit-learn  tensorflow  keras  encoding  nlp  text-mining  nlp  rnn  python  neural-network  feature-extraction  machine-learning  predictive-modeling  python  r  linear-regression  clustering  r  ggplot2  neural-network  neural-network  training  python  neural-network  deep-learning  rnn  predictive-modeling  databases  sql  programming  distribution  dataset  cross-validation  neural-network  deep-learning  rnn  machine-learning  machine-learning  python  deep-learning  data-mining  tensorflow  visualization  tools  sql  embeddings  orange  feature-extraction  unsupervised-learning  gan  machine-learning  python  data-mining  pandas  machine-learning  data-mining  bigdata  apache-spark  apache-hadoop  deep-learning  python  convnet  keras  aggregation  clustering  k-means  r  random-forest  decision-trees  reference-request  visualization  data  pandas  plotting  neural-network  keras  rnn  theano  deep-learning  tensorflow  inception  predictive-modeling  deep-learning  regression  sentiment-analysis  nlp  encoding  deep-learning  python  scikit-learn  lda  convnet  keras  predictive-modeling  regression  overfitting  regression  svm  prediction  machine-learning  similarity  word2vec  information-retrieval  word-embeddings  neural-network  deep-learning  rnn 

4
প্রাক-প্রশিক্ষিত মডেল ওজন সহ একটি নতুন ওয়ার্ড টুভেল মডেলকে কীভাবে সূচনা করবেন?
ওয়ার্ড টু ওয়েક્ટર মডেলটি ব্যবহার এবং প্রশিক্ষণের জন্য আমি পাইথনে জেনসিম লাইব্রেরিটি ব্যবহার করছি। সম্প্রতি, আমি কিছু প্রাক প্রশিক্ষিত ওয়ার্ড টু ওয়েভ মডেল (গুগল নিউডাটাসেট প্রিটেইনড মডেল) দিয়ে আমার মডেল ওজন সূচনা করার দিকে তাকিয়ে ছিলাম। আমি কয়েক সপ্তাহ ধরে এটির সাথে লড়াই করে যাচ্ছি। এখন, আমি সবেমাত্র অনুসন্ধান করেছি …

3
অজগরটির জন্য কি বাক্সের বাইরে খুব ভাল ভাষার মডেল রয়েছে?
আমি একটি অ্যাপ্লিকেশন প্রোটোটাইপ করছি এবং কিছু উত্পন্ন বাক্যগুলিতে বিভ্রান্তি গণনা করতে আমার একটি ভাষা মডেল প্রয়োজন। অজগরটিতে কি আমি সহজেই ব্যবহার করতে পারি এমন কোনও প্রশিক্ষিত ভাষার মডেল রয়েছে? কিছু সাধারণ মত model = LanguageModel('en') p1 = model.perplexity('This is a well constructed sentence') p2 = model.perplexity('Bunny lamp robert junior …
11 python  nlp  language-model  r  statistics  linear-regression  machine-learning  classification  random-forest  xgboost  python  sampling  data-mining  orange  predictive-modeling  recommender-system  statistics  dimensionality-reduction  pca  machine-learning  python  deep-learning  keras  reinforcement-learning  neural-network  image-classification  r  dplyr  deep-learning  keras  tensorflow  lstm  dropout  machine-learning  sampling  categorical-data  data-imputation  machine-learning  deep-learning  machine-learning-model  dropout  deep-network  pandas  data-cleaning  data-science-model  aggregation  python  neural-network  reinforcement-learning  policy-gradients  r  dataframe  dataset  statistics  prediction  forecasting  r  k-means  python  scikit-learn  labels  python  orange  cloud-computing  machine-learning  neural-network  deep-learning  rnn  recurrent-neural-net  logistic-regression  missing-data  deep-learning  autoencoder  apache-hadoop  time-series  data  preprocessing  classification  predictive-modeling  time-series  machine-learning  python  feature-selection  autoencoder  deep-learning  keras  tensorflow  lstm  word-embeddings  predictive-modeling  prediction  machine-learning-model  machine-learning  classification  binary  theory  machine-learning  neural-network  time-series  lstm  rnn  neural-network  deep-learning  keras  tensorflow  convnet  computer-vision 

4
শব্দ 2vec কীভাবে অদেখা শব্দগুলি সনাক্ত করতে এবং ইতিমধ্যে প্রশিক্ষিত ডেটার সাথে তাদের সম্পর্কিত করতে ব্যবহার করা যেতে পারে
আমি ওয়ার্ড টুভেক জেনসিম মডেলটিতে কাজ করছিলাম এবং এটি সত্যিই আকর্ষণীয় মনে হয়েছিল। মডেলটির সাথে চেক করার সময় কোনও অজানা / অদেখা শব্দটি প্রশিক্ষিত মডেল থেকে কীভাবে অনুরূপ পদ পেতে সক্ষম হবে তা সন্ধান করতে আমি ছেদ করছি am এটা কি সম্ভব? এর জন্য কি ওয়ার্ড টুভেক করা যায়? বা …

3
ওয়ার্ড 2ভেক এবং ডক 2 ভেক কি বিতরণের উপস্থাপনা বা বিতরণ উপস্থাপনা উভয়ই?
আমি পড়েছি যে বিতরণের উপস্থাপনা বন্টনমূলক অনুমানের উপর ভিত্তি করে যে অনুরূপ প্রসঙ্গে বর্ণিত শব্দগুলির একই অর্থ হয়। ওয়ার্ড টুভেক এবং ডক 2ভেক উভয়ই এই অনুমান অনুসারে মডেল করা হয়েছে। কিন্তু, মূল কাগজে, এমনকি তারা খেতাবধারী হয় Distributed representation of words and phrasesএবং Distributed representation of sentences and documents। সুতরাং, …

1
পাঠ্য-শ্রেণিবদ্ধকরণ-সমস্যা: ওয়ার্ড 2ভেক / এনএন কি সেরা পদ্ধতির?
আমি এমন একটি সিস্টেম ডিজাইন করতে চাই যা পাঠ্যের অনুচ্ছেদে দেওয়া হয়েছে এটি শ্রেণীবদ্ধ করতে এবং প্রসঙ্গটি সনাক্ত করতে সক্ষম হবে: ব্যবহারকারী উত্পন্ন পাঠ্য অনুচ্ছেদ (মতামত / প্রশ্ন / উত্তর মত) দিয়ে প্রশিক্ষিত প্রশিক্ষণ সেটের প্রতিটি আইটেম ট্যাগ করা হবে। যেমন উদাহরণস্বরূপ ("বিভাগ 1", "পাঠ্য অনুচ্ছেদ") শত শত বিভাগ থাকবে …

1
ওয়ার্ড 2vec কত প্রশিক্ষণের ডেটা প্রয়োজন?
আমি বিভিন্ন উত্সে উল্লিখিত একই শব্দের মধ্যে পার্থক্যটি তুলনা করতে চাই। এটি হ'ল লেখকরা কীভাবে তাদের "গণতন্ত্র" এর মতো সংজ্ঞায়িত শব্দের ব্যবহারের ক্ষেত্রে পৃথক হন fer একটি সংক্ষিপ্ত পরিকল্পনা ছিল "গণতন্ত্র" শব্দের উল্লেখ করা বইগুলি সরল পাঠ হিসাবে বিবেচনা করুন প্রতিটি বইয়ের democracyসাথে প্রতিস্থাপন করুনdemocracy_%AuthorName% word2vecএই বইগুলিতে একটি মডেল প্রশিক্ষণ …

2
Word2vec এ শব্দের ভেক্টরের বৈশিষ্ট্য
আমি অনুভূতি বিশ্লেষণ করার চেষ্টা করছি। শব্দগুলিকে শব্দ ভেক্টরগুলিতে রূপান্তর করার জন্য আমি word2vec মডেলটি ব্যবহার করছি। ধরা যাক 'বাক্য' নামের একটি তালিকায় আমার সমস্ত বাক্য রয়েছে এবং আমি এই বাক্যগুলিকে নীচে ওয়ার্ড টুভেচ করে দিচ্ছি: model = word2vec.Word2Vec(sentences, workers=4 , min_count=40, size=300, window=5, sample=1e-3) আমি যেহেতু ভেক্টর শব্দের কাছে …
আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.