প্রশ্ন ট্যাগ «xgboost»

একটি জনপ্রিয় বুস্টিং অ্যালগরিদম এবং সফ্টওয়্যার লাইব্রেরি ("চূড়ান্ত গ্রেডিয়েন্ট বুস্টিং" এর অর্থ দাঁড়ায়)। বুস্টিং দুর্বল ভবিষ্যদ্বাণীপূর্ণ মডেলগুলিকে দৃ strongly় ভবিষ্যদ্বাণীপূর্ণ মডেলের সাথে একত্রিত করে।

4
এক্সজিবিস্ট গাছের হাইপারপ্যারামিটার টিউন করবেন কীভাবে?
আমার একটি শ্রেণির ভারসাম্যহীন ডেটা রয়েছে এবং আমি এক্সজিবিস্ট ব্যবহার করে উত্সাহিত ট্রেসের হাইপারপ্যারামিটারগুলি টিউন করতে চাই। প্রশ্নাবলি Xbboost এর জন্য গ্রিডসার্কভি বা র্যান্ডমসার্কসিভের সমতুল্য কি আছে? যদি না হয় তবে এক্সজিবিস্টের প্যারামিটারগুলি টিউন করার জন্য প্রস্তাবিত পদ্ধতিটি কী?

1
জিবিএম, এক্সজিবিস্ট, লাইটজিবিএম, ক্যাটবুস্টের মধ্যে গাণিতিক পার্থক্য?
মডেলটির জিবিডিটি পরিবারের বেশ কয়েকটি বাস্তবায়ন রয়েছে যেমন: GBM XGBoost LightGBM Catboost। এই বিভিন্ন বাস্তবায়নের মধ্যে গাণিতিক পার্থক্যগুলি কী কী ? এই বেঞ্চ চিহ্ন অনুসারে কেবলমাত্র তার ডিফল্ট প্যারামিটার ব্যবহার করেও ক্যাটবুস্ট অন্যান্য প্রয়োগগুলি কার্যকর করেছে বলে মনে হয় তবে এটি এখনও খুব ধীর। আমার অনুমান যে ক্যাটবুস্ট ডামিফায়েড ভেরিয়েবল …
33 boosting  xgboost 

1
টেলর এক্সপেনশন সহ এক্সজিবিস্ট লস ফাংশন আনুমানিক
উদাহরণস্বরূপ, উপর XGBoost মডেল উদ্দেশ্য ফাংশন নিতে 'ম পুনরাবৃত্তির:ttt L(t)=∑i=1nℓ(yi,y^(t−1)i+ft(xi))+Ω(ft)L(t)=∑i=1nℓ(yi,y^i(t−1)+ft(xi))+Ω(ft)\mathcal{L}^{(t)}=\sum_{i=1}^n\ell(y_i,\hat{y}_i^{(t-1)}+f_t(\mathbf{x}_i))+\Omega(f_t) যেখানে ক্ষতি ফাংশন, হয় 'ম গাছ আউটপুট এবং নিয়মিতকরণ হয়। দ্রুত গণনার জন্য (অনেকগুলি) গুরুত্বপূর্ণ পদক্ষেপগুলির মধ্যে একটি হল আনুমানিক:ℓℓ\ellftftf_ttttΩΩ\Omega L(t)≈∑i=1nℓ(yi,y^(t−1)i)+gtft(xi)+12hif2t(xi)+Ω(ft),L(t)≈∑i=1nℓ(yi,y^i(t−1))+gtft(xi)+12hift2(xi)+Ω(ft),\mathcal{L}^{(t)}\approx \sum_{i=1}^n\ell(y_i,\hat{y}_i^{(t-1)})+g_tf_t(\mathbf{x}_i)+\frac{1}{2}h_if_t^2(\mathbf{x}_i)+\Omega(f_t), যেখানে এবং হ্রাস ফাংশনের প্রথম এবং দ্বিতীয় ডেরাইভেটিভ।gigig_ihihih_i আমি যা জিজ্ঞাসা করছি তা হল উপরোক্ত আনুমানিকতা কেন কাজ …

4
ভারসাম্যহীন ডেটাসেটের জন্য xgboost এ স্কেল_পোস_ওয়েটের সঠিক ব্যবহার কী?
আমার খুব ভারসাম্যহীন ডেটাসেট রয়েছে। আমি টিউনিংয়ের পরামর্শ অনুসরণ এবং ব্যবহার করার চেষ্টা করছি scale_pos_weightতবে কীভাবে এটি টিউন করব তা নিশ্চিত নই। আমি দেখতে পাচ্ছি RegLossObj.GetGradient: if (info.labels[i] == 1.0f) w *= param_.scale_pos_weight সুতরাং একটি ধনাত্মক নমুনার গ্রেডিয়েন্ট আরও প্রভাবশালী হবে। তবে, xgboost কাগজ অনুসারে , গ্রেডিয়েন্ট পরিসংখ্যান সর্বদা স্থানীয়ভাবে …

1
এক্সজিবিস্ট অ্যালগরিদমে মিনি_চিল্ড_ওয়েটের ব্যাখ্যা
সংজ্ঞা xgboost মধ্যে min_child_weight প্যারামিটারের হিসেবে দেওয়া হয়: কোনও বাচ্চার জন্য ন্যূনতম পরিমাণের ওজন (হেসিয়ান) প্রয়োজন। যদি গাছের বিভাজনের পদক্ষেপের ফলাফলটি একটি পাতার নোডে উদাহরণস্বরূপ ওজনের যোগফলের সাথে মিনি_চাইল্ডওয়েটের চেয়ে কম হয়, তবে বিল্ডিং প্রক্রিয়াটি আরও বিভাজন ছেড়ে দেবে। লিনিয়ার রিগ্রেশন মোডে এটি প্রতিটি নোডে থাকা ন্যূনতম সংখ্যার সাথে সামঞ্জস্য …

3
এক্সজিবিস্ট বনাম পাইথন স্ক্লায়ারেন গ্রেডিয়েন্ট গাছগুলি বাড়িয়েছে
আমি এক্সজিবিস্ট কীভাবে কাজ করে তা বোঝার চেষ্টা করছি। আমি ইতিমধ্যে বুঝতে পেরেছি যে পাইথন স্কলারনে গ্রেডিয়েন্ট বুস্টেড গাছগুলি কীভাবে কাজ করে। আমার কাছে যা স্পষ্ট নয় তা হ'ল এক্সজিবিস্ট একইভাবে কাজ করে তবে দ্রুততর, বা যদি পাইথন বাস্তবায়নের মধ্যে মৌলিক পার্থক্য রয়েছে। আমি যখন এই কাগজ পড়ি http://learningsys.org/papers/LearningSys_2015_paper_32.pdf এটি …

3
এসভিএমের পাশাপাশি ফিচার স্কেলিংয়ের জন্য কোন অ্যালগরিদমগুলির প্রয়োজন?
আমি অনেক অ্যালগরিদম নিয়ে কাজ করছি: র‌্যান্ডমফোরস্ট, ডিসিশনট্রিজ, নাইভবেইস, এসভিএম (কার্নেল = লিনিয়ার এবং আরবিএফ), কেএনএন, এলডিএ এবং এক্সজিবিস্ট। এসভিএম বাদে সকলেই বেশ দ্রুত ছিল। এটি যখন আমি জানতে পারলাম দ্রুত কাজ করার জন্য এটির বৈশিষ্ট্য স্কেলিং প্রয়োজন। তারপরে আমি ভাবতে শুরু করি যে অন্য অ্যালগরিদমের জন্য আমারও একই করা …

1
বুস্টিং এবং ব্যাগিং ট্রি (এক্সজিবিস্ট, লাইটজিবিএম)
ব্যাগিং বা গাছ বৃদ্ধির ধারণা সম্পর্কে অনেকগুলি ব্লগ পোস্ট, ইউটিউব ভিডিও ইত্যাদি রয়েছে etc. আমার সাধারণ উপলব্ধি হ'ল প্রত্যেকটির সিউডো কোডটি হ'ল: ব্যাগিং: নমুনাগুলির x% এবং বৈশিষ্ট্যগুলির y% এর এন এলোমেলো নমুনা নিন প্রতিটি এন এ আপনার মডেল (উদাহরণস্বরূপ, সিদ্ধান্ত গাছ) ফিট করুন প্রতিটি এন সঙ্গে ভবিষ্যদ্বাণী চূড়ান্ত পূর্বাভাস পাওয়ার …

4
অ-রৈখিক মডেলগুলি ব্যবহার করার সময় কি কোনও একাধিক কলিনারিটির বিষয়ে উদ্বিগ্ন হওয়া উচিত?
বলুন আমাদের বেশিরভাগ শ্রেণিবদ্ধ বৈশিষ্ট্যযুক্ত বাইনারি শ্রেণিবদ্ধকরণ সমস্যা রয়েছে। আমরা এটি শিখতে কিছু অ-লিনিয়ার মডেল (যেমন এক্সজিবিস্ট বা র্যান্ডম বন) ব্যবহার করি। এখনও কি বহু-তাত্পর্য সম্পর্কে উদ্বিগ্ন হওয়া উচিত? কেন? যদি উপরের উত্তরটি সত্য হয় তবে কোনওরাই কী এই লড়াইয়ের সাথে বিবেচনা করবেন যে এই ধরণের নন-লিনিয়ার মডেল ব্যবহার করা …

1
এক্সজিবিস্ট পূর্বাভাসের পর্যায়ে হারিয়ে যাওয়া ডেটা পরিচালনা করতে পারে
সম্প্রতি আমি এক্সজিবিস্ট আলগোরিদিম পর্যালোচনা করেছি এবং আমি লক্ষ্য করেছি যে এই অ্যালগরিদম প্রশিক্ষণের পর্যায়ে অনুপস্থিত ডেটা (অভিশংসনের প্রয়োজন ছাড়াই) পরিচালনা করতে পারে। আমি ভাবছিলাম যে এক্সজি বুস্ট যখন নতুন পর্যবেক্ষণের পূর্বাভাস দেওয়ার জন্য ব্যবহার করা হয় বা অনুপস্থিত ডেটা গণনার প্রয়োজন হয় তখন কি অনুপস্থিত ডেটা (অভিশংসনের প্রয়োজন ছাড়াই) …

1
লিনিয়ার বেস লার্নার কীভাবে বাড়াতে কাজ করে? এবং এটি কীভাবে এক্সজিস্ট লাইব্রেরিতে কাজ করে?
আমি জানি যে কীভাবে এক্সজিবিস্টে লিনিয়ার অবজেক্টিভ ফাংশন এবং লিনিয়ার বুস্টগুলি প্রয়োগ করা যায়। আমার কংক্রিট প্রশ্নটি হল: যখন অ্যালগরিদম এটি অবশিষ্ট (বা নেতিবাচক গ্রেডিয়েন্ট) ফিট করে এটি প্রতিটি পদক্ষেপে (যেমন অবিভাজনীয় মডেল) বা সমস্ত বৈশিষ্ট্য (মাল্টিভারিয়েট মডেল) ব্যবহার করে? এক্সজিবিস্টে রৈখিক বুস্ট সম্পর্কে ডকুমেন্টেশনের কোনও রেফারেন্স প্রশংসা করা হবে। …
আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.