উন্নত সিদ্ধান্তের গাছগুলি প্রশিক্ষণের জন্য কি কোনও অজগর পাঠাগার রয়েছে?
উন্নত সিদ্ধান্তের গাছগুলি প্রশিক্ষণের জন্য কি কোনও অজগর পাঠাগার রয়েছে?
উত্তর:
আপডেট উত্তর
ল্যান্ডস্কেপ অনেক পরিবর্তন হয়েছে এবং উত্তর আজকাল পরিষ্কার:
আপডেট 1
আমার প্রথম চেহারাটি অরেঞ্জে থাকবে যা এমএল এর জন্য একটি সম্পূর্ণ বৈশিষ্ট্যযুক্ত অ্যাপ্লিকেশন, পাইথনের ব্যাকএন্ডে। উদাহরণস্বরূপ orngEnsemble দেখুন ।
অন্যান্য প্রতিশ্রুতিবদ্ধ প্রকল্পগুলি হ'ল এমপিপি এবং সাইকেট.লার্ন ।
আমি জানি যে পাইসিভিতে বেশ কয়েকটি বুস্টিং পদ্ধতি অন্তর্ভুক্ত রয়েছে, তবে দৃশ্যত কার্টের জন্য নয়। এমএলবুস্টটি একবার দেখুন
আপনি আরপিপি (http://rpy.sourceforge.net/) ব্যবহার করে আর সিদ্ধান্ত ট্রি লাইব্রেরি ব্যবহার করতে পারেন। এছাড়াও "অজগর ব্যবহার করে সিদ্ধান্ত গাছ তৈরি করা" নিবন্ধটি দেখুন (HTTP: //onlamp.com/pub/a/python/2 ...)।
এছাড়াও আছে
পাইথনের জন্য দুধ: মেশিন লার্নিং সরঞ্জামদণ্ডে গাছ-ভিত্তিক শিক্ষার্থীদের সাথে আমার ভাল সাফল্য ছিল । এটি সক্রিয় বিকাশের অধীনে রয়েছে বলে মনে হয়, তবে ডকুমেন্টেশনটি যখন আমি এটি ব্যবহার করছিলাম তখন কিছুটা বিচ্ছিন্ন ছিল। পরীক্ষার স্যুটটিতে (github.com/luispedro/milk/blob/master/tests/test_adaboost.py) একটি "বস্টেড স্টাম্প" রয়েছে, যা আপনাকে বেশ দ্রুত যেতে পারে:
import numpy as np
import milk.supervised.tree
import milk.supervised.adaboost
def test_learner():
from milksets import wine
learner = milk.supervised.adaboost.boost_learner(milk.supervised.tree.stump_learner())
features, labels = wine.load()
features = features[labels < 2]
labels = labels[labels < 2] == 0
labels = labels.astype(int)
model = learner.train(features, labels)
train_out = np.array(map(model.apply, features))
assert (train_out == labels).mean() > .9
সাইকিট শিখতে এখন ভাল রিগ্রেশন (এবং শ্রেণিবিন্যাস) গাছ এবং এলোমেলো বন বাস্তবায়ন রয়েছে । তবে, উত্সাহিত গাছটি এখনও অন্তর্ভুক্ত নেই। লোকেরা এতে কাজ করছে, তবে একটি কার্যকর বাস্তবায়ন পেতে এটি কিছুটা সময় নেয়।
দাবি অস্বীকার: আমি একজন বিজ্ঞানী-শিখার বিকাশকারী।
আমার এখনই একই সমস্যা রয়েছে: আমি প্রতিদিন পাইথনে কোড করি, একবারে আর ব্যবহার করি এবং একটি ভাল উত্সাহিত রিগ্রেশন ট্রি অ্যালগোরিদম প্রয়োজন। উন্নত বিশ্লেষণের জন্য প্রচুর দুর্দান্ত পাইথন প্যাকেজ রয়েছে যদিও, আমার অনুসন্ধানে এই বিশেষ অ্যালগরিদমের জন্য ভাল অফার পাওয়া যায় নি। সুতরাং, আমি যে সপ্তাহে আমি মনে করি আসন্ন সপ্তাহগুলিতে নিয়ে যাব তা হ'ল আরবিতে জিবিএম প্যাকেজটি ব্যবহার করা । এটি ব্যবহারের সাথে ব্যবহারিক সমস্যাগুলি দেখানোর জন্য একটি ভাল কাগজ রয়েছে যা এখানে পাওয়া যাবে । গুরুত্বপূর্ণভাবে, জিবিএম প্যাকেজটি মূলত ২০০৯ কেডিডি কাপে ডাব্লু শেল্ফের বাইরে ব্যবহার করা হত । সুতরাং, আমি সম্ভবত পাইথনে আমার সমস্ত পূর্ব ও পোস্ট মডেলিং করব এবং আরপি / জিবিএম ব্যবহার করে পিছনে যেতে ব্যবহার করব।
আমি আপনার সাথে একই পরিস্থিতিটি অনুভব করেছি, আমি দেখতে পাই কমলা সুর করা শক্ত (সম্ভবত এটি আমার সমস্যা)। শেষ পর্যন্ত, আমি পিটার নরভিগের কোডটি তার বিখ্যাত বইয়ের জন্য ব্যবহার করেছি, সেখানে তিনি গাছের জন্য একটি ভাল লিখিত কোড ফ্রেমওয়ার্ক সরবরাহ করেছিলেন, আপনার যা দরকার তা হ'ল এতে উত্সাহ যোগ করা। এইভাবে, আপনি নিজের পছন্দ মতো যে কোনও কোড করতে পারেন।
সিদ্ধান্ত গাছ - অ্যাডা বুস্টিং
from sklearn.tree import DecisionTreeClassifier
from sklearn.ensemble import AdaBoostClassifier
from sklearn.metrics import accuracy_score
কোনও বুস্টিংয়ের সাথে সিদ্ধান্তের গাছগুলি
clf_entropy_no_ada = DecisionTreeClassifier(criterion = "entropy", random_state = 100,
max_depth=5, min_samples_leaf=5)
clf_entropy_no_ada.fit(X_train, y_train)
অ্যাডা বুস্টিংয়ের সাথে সিদ্ধান্তের গাছগুলি
clf_entropy_ada = AdaBoostClassifier(base_estimator= clf_entropy_no_ada,n_estimators=400,learning_rate=1)
clf_entropy_ada.fit(X_train, y_train)
ফিটিং মডেল এবং নির্ভুলতার গণনা করা
y_predict_no_ada = clf_entropy_no_ada.predict(X_test)
print ("Accuracy is ", accuracy_score(y_test,y_predict_no_ada)*100)
y_predict_ada = clf_entropy_ada.predict(X_test)
print ("Accuracy is ", accuracy_score(y_test,y_predict_ada)*100)