প্রশ্ন ট্যাগ «python»

প্রোগ্রামিং ভাষা পাইথন সম্পর্কিত তথ্য বিজ্ঞানের প্রশ্নের জন্য ব্যবহার করুন। সাধারণ কোডিং প্রশ্নের জন্য উদ্দিষ্ট নয় (-> স্ট্যাকওভারফ্লো)।

4
প্রাক-প্রশিক্ষিত মডেল ওজন সহ একটি নতুন ওয়ার্ড টুভেল মডেলকে কীভাবে সূচনা করবেন?
ওয়ার্ড টু ওয়েક્ટર মডেলটি ব্যবহার এবং প্রশিক্ষণের জন্য আমি পাইথনে জেনসিম লাইব্রেরিটি ব্যবহার করছি। সম্প্রতি, আমি কিছু প্রাক প্রশিক্ষিত ওয়ার্ড টু ওয়েভ মডেল (গুগল নিউডাটাসেট প্রিটেইনড মডেল) দিয়ে আমার মডেল ওজন সূচনা করার দিকে তাকিয়ে ছিলাম। আমি কয়েক সপ্তাহ ধরে এটির সাথে লড়াই করে যাচ্ছি। এখন, আমি সবেমাত্র অনুসন্ধান করেছি …

8
পাইথন কি বড় ডেটার জন্য উপযুক্ত?
আমি এই পোস্টে পড়েছি বড় ডেটা যে বিগ ডেটা গঠনের জন্য উপযুক্ত ভাষা5TB এবং এটি যখন এই ধরণের ডেটা নিয়ে কাজ করার সম্ভাব্যতা সম্পর্কে তথ্য সরবরাহ করার একটি ভাল কাজ করে তবে সে সম্পর্কে Rখুব কম তথ্য সরবরাহ করে Python। আমি ভাবছিলাম যে Pythonএই আরও ডেটা পাশাপাশি কাজ করতে পারেন।
14 bigdata  python 

3
মডেল.পরেডিক্ট ফাংশনটির কেরাস থেকে আউটপুট বলতে কী বোঝায়?
আমি কোওর অফিসিয়াল ডেটাসেটে সদৃশ প্রশ্নের পূর্বাভাস দেওয়ার জন্য একটি এলএসটিএম মডেল তৈরি করেছি। পরীক্ষার লেবেল 0 বা 1. হয় 1 টি প্রশ্নের জোড় নকল কিনা তা নির্দেশ করে। মডেলটি ব্যবহার করে নির্মাণের পরে model.fit, আমি model.predictপরীক্ষার ডেটা ব্যবহার করে মডেলটি পরীক্ষা করি । আউটপুট হ'ল নীচের মত মানগুলির একটি …

6
পাইথনে ভাল "ঘন ঘন ক্রম খনন" প্যাকেজগুলি?
এমএললিবের এফপিএম ব্যতীত পাইথনে অন্য কেউ "ঘন ঘন সিকোয়েন্স মাইনিং" প্যাকেজ ব্যবহার করেছেন (এবং পছন্দ করেছেন)? আমি একটি স্থিতিশীল প্যাকেজ খুঁজছি, লোকেরা দ্বারা রক্ষণাবেক্ষণের চেয়ে পছন্দসই স্তিমিত। ধন্যবাদ!

1
এক্সজিবিগ্রিজার বনাম xgboost.train বিশাল গতির পার্থক্য?
আমি যদি নিম্নলিখিত কোডগুলি ব্যবহার করে আমার মডেলটিকে প্রশিক্ষণ দিই: import xgboost as xg params = {'max_depth':3, 'min_child_weight':10, 'learning_rate':0.3, 'subsample':0.5, 'colsample_bytree':0.6, 'obj':'reg:linear', 'n_estimators':1000, 'eta':0.3} features = df[feature_columns] target = df[target_columns] dmatrix = xg.DMatrix(features.values, target.values, feature_names=features.columns.values) clf = xg.train(params, dmatrix) এটি প্রায় 1 মিনিটের মধ্যে শেষ হয়। আমি যদি সায়-কিট শিখার …

1
টাইমস্ট্যাম্প ডেটাটাইপের জন্য ইন্টের একটি পান্ডাস কলাম রূপান্তর করুন
আমার কাছে একটি ডেটাফ্রেম রয়েছে যে অন্যান্য জিনিসের মধ্যে, 1970-1-1-এর পরে পাস করা মিলিসেকেন্ডের সংখ্যার কলাম রয়েছে। আমাকে ইনটসের এই কলামটি টাইমস্ট্যাম্প ডেটাতে রূপান্তর করতে হবে, তাই আমি শেষ পর্যন্ত এটি 1970-1-1-এর জন্য ডেটটাইম মানগুলি সম্পূর্ণরূপে একটি সিরিজে টাইমস্ট্যাম্প কলাম সিরিজ যুক্ত করে ডেটটাইম ডেটা কলামে রূপান্তর করতে পারি। আমি …

5
সাইকিট-লার্ন র্যান্ডম ফরেস্টের সাথে বৈশিষ্ট্যটির গুরুত্বটি খুব উচ্চমানের বিচ্যুতি দেখায়
আমি সাইকিট-লার্ন র্যান্ডম ফরেস্ট ক্লাসিফায়ার ব্যবহার করছি এবং আমি উদাহরণটির মতো বৈশিষ্ট্যটির গুরুত্বকে প্লট করতে চাই । তবে আমার ফলাফলটি সম্পূর্ণ আলাদা, এই অর্থে যে বৈশিষ্ট্যটির গুরুত্ব স্ট্যান্ডার্ড বিচ্যুতি বৈশিষ্ট্যটির গুরুত্বের চেয়ে প্রায় সর্বদা বড় (সংযুক্ত চিত্র দেখুন)। এই জাতীয় আচরণ করা কি সম্ভব, বা এটির পরিকল্পনা করার সময় আমি …

1
মাল্টি-ডাইমেনশনাল এবং মাল্টিভিয়ারেট টাইম-সিরিজ পূর্বাভাস (আরএনএন / এলএসটিএম) কেরাস
আমি কেরাস (বা টেনসরফ্লো) ব্যবহার করে বহুমাত্রিক এবং বহুবিধ সময় সিরিজের পূর্বাভাস তৈরি করতে কীভাবে ডেটা উপস্থাপন এবং আকার তৈরি করতে হবে তা বোঝার চেষ্টা করছি তবে কীভাবে ডেটা উপস্থাপন করবেন সে সম্পর্কে অনেকগুলি ব্লগ পোস্ট / টিউটোরিয়াল / ডকুমেন্টেশন পড়ার পরেও আমি খুব অস্পষ্ট am সঠিক আকার (বেশিরভাগ উদাহরণগুলি …
12 python  keras  rnn  lstm 

2
বৈধতা হ্রাস এবং নির্ভুলতা স্থির থাকে remain
আমি এই কাগজটি মেডিকেল ইমেজের সেটগুলিতে প্রয়োগ করার চেষ্টা করছি । আমি কেরাসে এটি করছি। নেটওয়ার্কটিতে মূলত 4 টি রূপান্তর এবং সর্বাধিক-পুল স্তর থাকে যার পরে একটি সম্পূর্ণ সংযুক্ত স্তর এবং নরম সর্বাধিক শ্রেণিবদ্ধ হয়। আমি যতদূর জানি, আমি কাগজে উল্লিখিত আর্কিটেকচারটি অনুসরণ করেছি। যাইহোক, বৈধতা হ্রাস এবং নির্ভুলতা কেবল …

3
এনএলটিকে এনইআর সম্পর্কিত সহায়তা
আমি পাইথনটি ব্যবহার করার জন্য কিছুক্ষণ NLTK এ কাজ করছি। আমি যে সমস্যার মুখোমুখি হচ্ছি তা হ'ল এগুলি আমার কাস্টম ডেটা দিয়ে NLTK এ NER প্রশিক্ষণ দেওয়ার জন্য কোনও সহায়তা পাওয়া যায় না। তারা ম্যাক্সেন্ট ব্যবহার করেছে এবং এটি ACE কর্পাসে প্রশিক্ষিত করেছে। আমি ওয়েবে প্রচুর অনুসন্ধান করেছি কিন্তু এনএলটিকে'র …

1
আমার কয়টি এলএসটিএম সেল ব্যবহার করা উচিত?
আমার ব্যবহার করা উচিত ন্যূনতম, সর্বাধিক এবং "যুক্তিসঙ্গত" পরিমাণগুলির সাথে সম্পর্কিত কোনও নিয়ামক (বা প্রকৃত নিয়ম) কি আছে? বিশেষত আমি টেনসরফ্লো এবং num_unitsসম্পত্তি থেকে বেসিকএলএসটিএমসেল সম্পর্কিত করছি । অনুগ্রহ করে ধরে নিই যে আমার দ্বারা শ্রেণিবদ্ধকরণের সমস্যা রয়েছে: t - number of time steps n - length of input vector …
12 rnn  machine-learning  r  predictive-modeling  random-forest  python  language-model  sentiment-analysis  encoding  machine-learning  deep-learning  neural-network  dataset  caffe  classification  xgboost  multiclass-classification  unbalanced-classes  time-series  descriptive-statistics  python  r  clustering  machine-learning  python  deep-learning  tensorflow  machine-learning  python  predictive-modeling  probability  scikit-learn  svm  machine-learning  python  classification  gradient-descent  regression  research  python  neural-network  deep-learning  convnet  keras  python  tensorflow  machine-learning  deep-learning  tensorflow  python  r  bigdata  visualization  rstudio  pandas  pyspark  dataset  time-series  multilabel-classification  machine-learning  neural-network  ensemble-modeling  kaggle  machine-learning  linear-regression  cnn  convnet  machine-learning  tensorflow  association-rules  machine-learning  predictive-modeling  training  model-selection  neural-network  keras  deep-learning  deep-learning  convnet  image-classification  predictive-modeling  prediction  machine-learning  python  classification  predictive-modeling  scikit-learn  machine-learning  python  random-forest  sampling  training  recommender-system  books  python  neural-network  nlp  deep-learning  tensorflow  python  matlab  information-retrieval  search  search-engine  deep-learning  convnet  keras  machine-learning  python  cross-validation  sampling  machine-learning 

2
বড় ডেটাসেটের জন্য দক্ষ মাত্রিকতা হ্রাস
আমার কাছে M 1M সারি এবং ~ 500K স্পার্স বৈশিষ্ট্যযুক্ত একটি ডেটাসেট রয়েছে। আমি 1K-5K ঘন বৈশিষ্ট্যগুলির ক্রম অনুসারে মাত্রাটি কোথাও কমাতে চাই। sklearn.decomposition.PCAবিরল ডেটাতে কাজ করে না, এবং আমি ব্যবহার করার চেষ্টা করেছি sklearn.decomposition.TruncatedSVDতবে খুব দ্রুত একটি স্মৃতি ত্রুটি পেয়েছি । এই স্কেলে দক্ষ মাত্রিকতা হ্রাসের জন্য আমার বিকল্পগুলি …

1
সিপিইউ ব্যবহার এবং মেমরির উপর বিজ্ঞান-শিখুন n_jobs পরামিতি
সাইকিট-লার্ন সম্পর্কে বেশিরভাগ অনুমানকারীতে, সমান্তরাল কাজ ব্যবহার করে তৈরি করার জন্য / পদ্ধতিগুলির একটি n_jobsপরামিতি রয়েছে । আমি লক্ষ্য করেছি যে এটি সেট করা মাত্র 1 পাইথন প্রক্রিয়া তৈরি করে এবং কোরগুলি সর্বাধিক করে তোলে, ফলে সিপিইউ ব্যবহার 2500% শীর্ষে পৌঁছে যায়। এটি কিছু ধনাত্মক পূর্ণসংখ্য> 1 এ সেট করা …

2
এলোমেলো বন শ্রেণিবদ্ধকরণের জন্য আমি কীভাবে শ্রেণিবদ্ধ ডেটা ফিট করতে পারি?
র‌্যান্ডম ফরেস্ট অ্যালগরিদম প্রয়োগ করে আমার প্রশিক্ষণের ডেটাসেটের যথার্থতা খুঁজে পাওয়া দরকার। তবে আমার ডেটা সেটের ধরণটি উভয় শ্রেণিবদ্ধ এবং সংখ্যাসূচক। আমি যখন এই ডেটা ফিট করার চেষ্টা করেছি, তখন আমি একটি ত্রুটি পেয়েছি। 'ইনপুটটিতে NaN, অনন্ত বা dtype (' float32 ')' এর চেয়ে খুব বড় একটি মান রয়েছে। সমস্যা …

3
একটি পাইপার্ড ডাটাফ্রেমে সমস্ত সংখ্যাসূচক মানকে একটি ধ্রুবক মান দ্বারা প্রতিস্থাপন করুন
'নাল' উপাদান এবং সংখ্যাসূচক উপাদান সমন্বিত একটি পাইপর্ক ডেটা ফ্রেম বিবেচনা করুন। সাধারণভাবে, সংখ্যার উপাদানগুলির বিভিন্ন মান থাকে। ধ্রুবক সংখ্যাসূচক মান দ্বারা উদাহরণস্বরূপ ডাটাফ্রেমের সমস্ত সংখ্যাসূচক মানগুলি কীভাবে প্রতিস্থাপন করা সম্ভব (উদাহরণস্বরূপ মান 1 দিয়ে)? আগাম ধন্যবাদ! পাইস্পার্ক ডেটাফ্রেমের উদাহরণ: 123c10.04−1nullc21null1.2c31.35−1.2nullc1c2c310.0411.352−1null−1.23null1.2null \begin{array}{c|lcr} & \text{c1} & \text{c2} & \text{c3} \\ \hline …

আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.