প্রশ্ন ট্যাগ «xgboost»

এক্সট্রিম গ্রেডিয়েন্ট বুস্টিং অ্যালগরিদম সম্পর্কিত প্রশ্নের জন্য।

5
জিবিএম বনাম এক্সজিবিওএসটি? মূল পার্থক্য?
আমি GBM এবং XGBOOST এর মধ্যে মূল পার্থক্য বোঝার চেষ্টা করছি। আমি এটি গুগল করার চেষ্টা করেছি, তবে দুটি অ্যালগরিদমের মধ্যে পার্থক্য এবং xgboost প্রায় সবসময় GBM এর চেয়ে আরও ভাল পারফর্ম করে কেন এমন কোনও ভাল উত্তর খুঁজে পাইনি could এক্সবিজিওএসটি এত দ্রুত কী করে?

2
এক্সজিবিস্টের গুরুত্বের আউটপুটটি কীভাবে ব্যাখ্যা করবেন?
আমি এক্সজিবিস্ট মডেল চালিয়েছিলাম। কিভাবে আউটপুট ব্যাখ্যা করতে হয় আমি ঠিক জানি না xgb.importance। লাভ, কভার এবং ফ্রিকোয়েন্সিটির অর্থ কী এবং আমরা কীভাবে তাদের ব্যাখ্যা করব? এছাড়াও, স্প্লিট, রিয়েলকভার এবং রিয়েলকভার% এর অর্থ কী? আমার এখানে কিছু অতিরিক্ত পরামিতি রয়েছে অন্য কোনও প্যারামিটার রয়েছে যা আমাকে বৈশিষ্ট্য আমদানি সম্পর্কে আরও …

1
এক্সজিবিস্ট স্কলারন গ্রেডিয়েন্টবুস্টিং ক্লাসিফায়ারের চেয়ে এত দ্রুত কেন?
আমি 100 সংখ্যার বৈশিষ্ট্য সহ 50 কে উদাহরণের মাধ্যমে গ্রেডিয়েন্ট বুস্টিং মডেলটি প্রশিক্ষণের চেষ্টা করছি। XGBClassifierআমার মেশিনে 43 সেকেন্ডের মধ্যে 500 গাছ হ্যান্ডল করে, যখন GradientBoostingClassifier1 মিনিট 2 সেকেন্ডের মধ্যে কেবল 10 টি গাছ (!) পরিচালনা করে :( আমি কয়েক ঘন্টা লাগবে বলে 500 গাছ বাড়ানোর চেষ্টা করতে বিরক্ত করিনি। …
29 scikit-learn  xgboost  gbm  data-mining  classification  data-cleaning  machine-learning  reinforcement-learning  data-mining  bigdata  dataset  nlp  language-model  stanford-nlp  machine-learning  neural-network  deep-learning  randomized-algorithms  machine-learning  beginner  career  xgboost  loss-function  neural-network  software-recommendation  naive-bayes-classifier  classification  scikit-learn  feature-selection  r  random-forest  cross-validation  data-mining  python  scikit-learn  random-forest  churn  python  clustering  k-means  machine-learning  nlp  sentiment-analysis  machine-learning  programming  python  scikit-learn  nltk  gensim  visualization  data  csv  neural-network  deep-learning  descriptive-statistics  machine-learning  supervised-learning  text-mining  orange  data  parameter-estimation  python  pandas  scraping  r  clustering  k-means  unsupervised-learning 

3
হাইপারটুনিং এক্সজিবিস্ট পরামিতি
শ্রেণিবদ্ধ এবং ধারাবাহিকভাবে নির্ভরশীল ভেরিয়েবল উভয়ের সাথে কাজ করার ক্ষেত্রে এক্সজিবিস্ট একটি দুর্দান্ত কাজ করে চলেছে। তবে, আমি কীভাবে এক্সজিবিস্ট সমস্যার জন্য অনুকূলিত পরামিতিগুলি নির্বাচন করব? সাম্প্রতিক কাগল সমস্যার জন্য আমি এইভাবে পরামিতি প্রয়োগ করেছি: param <- list( objective = "reg:linear", booster = "gbtree", eta = 0.02, # 0.06, #0.01, …
27 r  python  xgboost 

2
লাইটজিবিএম বনাম এক্সজিবিস্ট
আমি কোনটি আরও ভাল তা বোঝার চেষ্টা করছি (আরও নির্ভুল, বিশেষত শ্রেণিবদ্ধকরণের সমস্যায়) আমি লাইটজিবিএম এবং এক্সজিবিস্টের তুলনা করে নিবন্ধগুলি সন্ধান করেছি তবে কেবল দুটি পেয়েছি: https://medium.com/implodinggradients/benchmarking-lightgbm-how-fast-is-lightgbm-vs-xgboost-15d224568031 - যা কেবল গতি সম্পর্কে কিন্তু নির্ভুলতার জন্য নয়। https://github.com/Mic Microsoft/LightGBM/wiki/Experiments - যা লাইটজিবিএম-র লেখকগণের এবং কোনও আশ্চর্য লাইটজিবিএম সেখানে জিততে পারে না। …
25 xgboost 

3
কেন আমাদের এক্সজিবিস্ট এবং র্যান্ডম ফরেস্টের প্রয়োজন?
আমি কয়েকটি ধারণা সম্পর্কে পরিষ্কার ছিল না: এক্সজিবিস্ট দুর্বল শিক্ষার্থীদের শক্তিশালী শিক্ষায় রূপান্তর করে। এটি করার সুবিধা কী? কেবল একটি গাছ ব্যবহারের পরিবর্তে অনেক দুর্বল শিক্ষার্থীদের সংমিশ্রণ? র্যান্ডম ফরেস্ট গাছ তৈরির জন্য গাছ থেকে বিভিন্ন নমুনা ব্যবহার করে। কেবলমাত্র একক গাছ ব্যবহারের পরিবর্তে এই পদ্ধতির সুবিধা কী?

4
এক্সজিবিস্ট নিজে থেকেই বহুবিধ লাইন পরিচালনা করে?
আমি বর্তমানে 21 টি বৈশিষ্ট্য (প্রায় 150 টি বৈশিষ্ট্যের তালিকা থেকে নির্বাচিত) সহ ডেটা-সেটে এক্সজিবিস্ট ব্যবহার করছি, তারপরে এক-হট তাদের কোডড করে ~ 98 বৈশিষ্ট্যগুলি প্রাপ্ত করতে। এই 98 বৈশিষ্ট্য কয়েক উদাহরণস্বরূপ, কিছুটা অপ্রয়োজনীয় আছেন: একটি পরিবর্তনশীল (বৈশিষ্ট) এছাড়াও হিসাবে প্রদর্শিত হবে এবং ।একজনএকজনAবিএকজনবিএকজন\frac{B}{A}সিএকজনসিএকজন\frac{C}{A} আমার প্রশ্নগুলি হ'ল: কীভাবে ( যদি? …


4
এক্সজিবিস্টের সাথে ভারসাম্যহীন মাল্টিক্লাস ডেটা
এই বিতরণ সহ আমার 3 টি ক্লাস রয়েছে: Class 0: 0.1169 Class 1: 0.7668 Class 2: 0.1163 এবং আমি xgboostশ্রেণিবদ্ধকরণের জন্য ব্যবহার করছি। আমি জানি যে সেখানে একটি প্যারামিটার বলা হয়েছে scale_pos_weight। তবে কীভাবে এটি 'মাল্টিক্লাস' কেসের জন্য পরিচালিত হয় এবং আমি কীভাবে এটি সঠিকভাবে সেট করতে পারি?

1
সিদ্ধান্ত গাছ: পাতা-ভিত্তিক (সেরা-প্রথম) এবং স্তর-ভিত্তিক গাছের ট্রাসস
সংখ্যা 1: লাইটজিবিএমের বর্ণনাটি যেভাবে গাছটি প্রসারিত করা হয়েছে সে সম্পর্কে আমি বিভ্রান্ত হয়ে পড়েছি । তারা বলে: বেশিরভাগ সিদ্ধান্ত গাছ শেখার অ্যালগরিদমগুলি নীচের চিত্রের মতো স্তর (গভীরতা) অনুসারে গাছ বৃদ্ধি করে: প্রশ্ন 1 : কোন "সর্বাধিক" অ্যালগরিদমগুলি এভাবে প্রয়োগ করা হয়? যতদূর আমি জানি সি 4.5 এবং কার্ট ডিএফএস …

2
এক্সজি বুস্টে জুটিওয়ালা র‌্যাঙ্কিং মডেলগুলি কীভাবে ফিট?
আমি যতদূর জানি, মডেলগুলি র‌্যাঙ্কে শেখার প্রশিক্ষণ নিতে আপনার ডেটাসেটে তিনটি জিনিস থাকা দরকার: লেবেল বা প্রাসঙ্গিকতা গোষ্ঠী বা কোয়েরি আইডি বৈশিষ্ট্য ভেক্টর উদাহরণস্বরূপ, মাইক্রোসফ্ট লার্নিং টু র্যাঙ্ক ডেটাसेट এই ফর্ম্যাটটি ব্যবহার করে (লেবেল, গ্রুপ আইডি এবং বৈশিষ্ট্য)) 1 qid:10 1:0.031310 2:0.666667 ... 0 qid:10 1:0.078682 2:0.166667 ... আমি এক্সজিস্টেস্ট …
14 search  ranking  xgboost  gbm 

3
পান্ডাস ডেটাফ্রেমে টু ডিএম্যাট্রিক্স
আমি সাইকিট শিখতে এক্সজিবিস্ট চালানোর চেষ্টা করছি। এবং আমি কেবল ডেটা ফ্রেমে ডেটা লোড করতে পান্ডাস ব্যবহার করি। এক্সজিবিস্টের সাথে আমার কীভাবে পান্ডাস ডিএফ ব্যবহার করার কথা। এক্সজিবিস্ট আলগো চালানোর জন্য ডিএম্যাট্রিক্স রুটিন দ্বারা আমি বিভ্রান্ত হয়ে পড়েছি।

1
এক্সজিবিগ্রিজার বনাম xgboost.train বিশাল গতির পার্থক্য?
আমি যদি নিম্নলিখিত কোডগুলি ব্যবহার করে আমার মডেলটিকে প্রশিক্ষণ দিই: import xgboost as xg params = {'max_depth':3, 'min_child_weight':10, 'learning_rate':0.3, 'subsample':0.5, 'colsample_bytree':0.6, 'obj':'reg:linear', 'n_estimators':1000, 'eta':0.3} features = df[feature_columns] target = df[target_columns] dmatrix = xg.DMatrix(features.values, target.values, feature_names=features.columns.values) clf = xg.train(params, dmatrix) এটি প্রায় 1 মিনিটের মধ্যে শেষ হয়। আমি যদি সায়-কিট শিখার …

1
রিগ্রেশনের জন্য উচ্চ কার্ডিনালিটি শ্রেণিবদ্ধ বৈশিষ্ট্যগুলির সাথে বৈশিষ্ট্যটির গুরুত্ব (সংখ্যাসূচক নিম্নোক্ত পরিবর্তনশীল)
রিগ্রেশন সমস্যার জন্য কিছু অভিজ্ঞতাবাদী বৈশিষ্ট্য নির্বাচন করার জন্য আমি র্যান্ডম অরণ্য থেকে বৈশিষ্ট্য আমদানি ব্যবহার করার চেষ্টা করছিলাম যেখানে সমস্ত বৈশিষ্ট্যগুলি শ্রেণিবদ্ধ এবং তাদের অনেকের অনেকগুলি স্তর রয়েছে (100-1000 এর ক্রম অনুসারে)। এক-হট এনকোডিং প্রতিটি স্তরের জন্য একটি ডামি ভেরিয়েবল তৈরি করে এই বৈশিষ্ট্যটি আমদানি প্রতিটি স্তরের জন্য এবং …

3
এক্সবিস্টের আনুমানিক বিভাজন পয়েন্ট প্রস্তাব বুঝতে সহায়তা প্রয়োজন
পটভূমি: মধ্যে xgboost টিটিt পুনরাবৃত্তির চেষ্টা একটি গাছ মাপসই চটিচটিf_t সর্বাঙ্গে এনএনn উদাহরণ যা উদ্দেশ্য নিম্নলিখিত ছোট করায়: Σi = 1এন[ ছআমিচটি( এক্সআমি) + 12জআমিচ2টি( এক্সআমি) ]Σআমি=1এন[ছআমিচটি(এক্সআমি)+ +12জআমিচটি2(এক্সআমি)]\sum_{i=1}^n[g_if_t(x_i) + \frac{1}{2}h_if_t^2(x_i)] যেখানে ছআমি, এইচআমিছআমি,জআমিg_i, h_i প্রথম অর্ডার ও আমাদের পূর্ববর্তী সেরা মূল্যায়নের উপর দ্বিতীয় ক্রম ডেরাইভেটিভস হয় Y (পুনরাবৃত্তির থেকে টি …
12 xgboost  gbm 

আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.