অজগরের সিদ্ধান্ত গাছ বাড়িয়েছে? [বন্ধ]


13

উন্নত সিদ্ধান্তের গাছগুলি প্রশিক্ষণের জন্য কি কোনও অজগর পাঠাগার রয়েছে?


3
আরপি, অবশ্যই ;-)

আমি এমবিকিউর সাথে একমত পাইথনে আপনাকে এটি করার খুব ভাল কারণ আছে কি? অন্যথায় আমি ওয়ার্কহর্স আরকেও ব্যাক-এন্ড হিসাবে ব্যবহার করব।
জোরিস মেজ

একমাত্র কারণ হ'ল আমি এক বছর বা তার আগে বেশ কয়েকবার আর ব্যবহার করেছি এবং অজগর আমি প্রতিদিন ব্যবহার করছি ...
আন্দ্রে হল্জনার

2
আরপি একটি সত্যই বাজে নির্ভরতা। আর এর বিশাল বৈশিষ্ট্য রয়েছে এবং আরপি ব্যবহার করে এগুলি খনন করতে পেরে ভাল লাগছে, তবে আপনাকে যদি সেই কাজটি ভাগ করে নিতে হয় তবে আপনি সমস্যায় পড়তে পারেন, এমনকি এটি একই ল্যাবের বিভিন্ন কম্পিউটার জুড়ে থাকলেও, যদি আপনার ল্যাবটি ভিন্ন ভিন্ন কম্পিউটারের পরিবেশে থাকে। এটি এই সত্যের কারণে যে আরপিটি পাইথন, নম্পি এবং আর এর সঠিক ছোটখাটো সংস্করণ রাখার উপর নির্ভর করে For উদাহরণস্বরূপ, এটি লিনাক্সের প্রধান বিতরণগুলিতে ভাঙতে থাকে।
গ্যায়েল ভারাকোয়াক্স

3
এখানে উত্তরগুলি পুরানো বলে মনে হচ্ছে - এগুলি সেকিট.লার্নের শুরুতে এসেছিল বলে মনে হয়। আমি মনে করি পাঠকদের এবং সাইটটি উপকৃত হবে যদি কোনও জ্ঞানসম্পন্ন কেউ আপডেট উত্তর দেয়।
পেরে

উত্তর:


5

আপডেট উত্তর

ল্যান্ডস্কেপ অনেক পরিবর্তন হয়েছে এবং উত্তর আজকাল পরিষ্কার:

  • scikit-শিখতে হয় পাইথন মধ্যে গ্রন্থাগারের চালচিত্রকে সিদ্ধান্ত গাছ জন্য বিভিন্ন মহান আলগোরিদিম হয়েছে
  • পাইথনের "সেরা" বর্ধিত সিদ্ধান্ত গাছ হ'ল এক্সজিবিস্ট বাস্তবায়ন।

আপডেট 1


12

আমার প্রথম চেহারাটি অরেঞ্জে থাকবে যা এমএল এর জন্য একটি সম্পূর্ণ বৈশিষ্ট্যযুক্ত অ্যাপ্লিকেশন, পাইথনের ব্যাকএন্ডে। উদাহরণস্বরূপ orngEnsemble দেখুন ।

অন্যান্য প্রতিশ্রুতিবদ্ধ প্রকল্পগুলি হ'ল এমপিপি এবং সাইকেট.লার্ন

আমি জানি যে পাইসিভিতে বেশ কয়েকটি বুস্টিং পদ্ধতি অন্তর্ভুক্ত রয়েছে, তবে দৃশ্যত কার্টের জন্য নয়। এমএলবুস্টটি একবার দেখুন


7

আপনি আরপিপি (http://rpy.sourceforge.net/) ব্যবহার করে আর সিদ্ধান্ত ট্রি লাইব্রেরি ব্যবহার করতে পারেন। এছাড়াও "অজগর ব্যবহার করে সিদ্ধান্ত গাছ তৈরি করা" নিবন্ধটি দেখুন (HTTP: //onlamp.com/pub/a/python/2 ...)।

এছাড়াও আছে

http://opencv.willowgarage.com/documentation/index.html

http://research.engineering.wustl.edu/~amohan/


6

পাইথনের জন্য দুধ: মেশিন লার্নিং সরঞ্জামদণ্ডে গাছ-ভিত্তিক শিক্ষার্থীদের সাথে আমার ভাল সাফল্য ছিল । এটি সক্রিয় বিকাশের অধীনে রয়েছে বলে মনে হয়, তবে ডকুমেন্টেশনটি যখন আমি এটি ব্যবহার করছিলাম তখন কিছুটা বিচ্ছিন্ন ছিল। পরীক্ষার স্যুটটিতে (github.com/luispedro/milk/blob/master/tests/test_adaboost.py) একটি "বস্টেড স্টাম্প" রয়েছে, যা আপনাকে বেশ দ্রুত যেতে পারে:

import numpy as np
import milk.supervised.tree
import milk.supervised.adaboost

def test_learner():
    from milksets import wine
    learner = milk.supervised.adaboost.boost_learner(milk.supervised.tree.stump_learner())
    features, labels = wine.load()
    features = features[labels < 2]
    labels = labels[labels < 2] == 0
    labels = labels.astype(int)
    model = learner.train(features, labels)
    train_out = np.array(map(model.apply, features))
    assert (train_out == labels).mean() > .9

4
আমি দুধের বিকাশ করি। আপনারা কেউ যদি কোনও সমস্যায় পড়ে থাকেন তবে দয়া করে আমাকে ইমেলের মাধ্যমে জানান (সিএমএম ডট এডুতে এলপিসি)। বাগ রিপোর্টগুলি সাধারণত 24 ঘন্টাের মধ্যে স্থির হয়ে যায়।
লুসিপড্রো

এদিকে, আমি adaboost উপর একটি বিট আরো ডকুমেন্টেশন জুড়েছেন: packages.python.org/milk/adaboost.html তাই উপরে মন্তব্য কম বৈধ তুলনায় এটি আগে ছিল হতে পারে।
লুইস্প্রেডো

4

সাইকিট শিখতে এখন ভাল রিগ্রেশন (এবং শ্রেণিবিন্যাস) গাছ এবং এলোমেলো বন বাস্তবায়ন রয়েছে । তবে, উত্সাহিত গাছটি এখনও অন্তর্ভুক্ত নেই। লোকেরা এতে কাজ করছে, তবে একটি কার্যকর বাস্তবায়ন পেতে এটি কিছুটা সময় নেয়।

দাবি অস্বীকার: আমি একজন বিজ্ঞানী-শিখার বিকাশকারী।


1

জবুস্ট একটি দুর্দান্ত লাইব্রেরি। এটি অবশ্যই পাইথনে লিখিত হয়নি, তবে এটি কিছুটা ভাষা অজ্ঞানী, কারণ এটি কমান্ড লাইন থেকে কার্যকর করা যেতে পারে এবং এর ফলে পাইথন থেকে এটি "চালিত" হতে পারে। আমি এটি অতীতে ব্যবহার করেছি এবং এটি অনেক পছন্দ করেছি, বিশেষত ভিজ্যুয়ালাইজেশনের স্টাফ।


1

আমার এখনই একই সমস্যা রয়েছে: আমি প্রতিদিন পাইথনে কোড করি, একবারে আর ব্যবহার করি এবং একটি ভাল উত্সাহিত রিগ্রেশন ট্রি অ্যালগোরিদম প্রয়োজন। উন্নত বিশ্লেষণের জন্য প্রচুর দুর্দান্ত পাইথন প্যাকেজ রয়েছে যদিও, আমার অনুসন্ধানে এই বিশেষ অ্যালগরিদমের জন্য ভাল অফার পাওয়া যায় নি। সুতরাং, আমি যে সপ্তাহে আমি মনে করি আসন্ন সপ্তাহগুলিতে নিয়ে যাব তা হ'ল আরবিতে জিবিএম প্যাকেজটি ব্যবহার করা । এটি ব্যবহারের সাথে ব্যবহারিক সমস্যাগুলি দেখানোর জন্য একটি ভাল কাগজ রয়েছে যা এখানে পাওয়া যাবে । গুরুত্বপূর্ণভাবে, জিবিএম প্যাকেজটি মূলত ২০০৯ কেডিডি কাপে ডাব্লু শেল্ফের বাইরে ব্যবহার করা হত । সুতরাং, আমি সম্ভবত পাইথনে আমার সমস্ত পূর্ব ও পোস্ট মডেলিং করব এবং আরপি / জিবিএম ব্যবহার করে পিছনে যেতে ব্যবহার করব।


0

আমি আপনার সাথে একই পরিস্থিতিটি অনুভব করেছি, আমি দেখতে পাই কমলা সুর করা শক্ত (সম্ভবত এটি আমার সমস্যা)। শেষ পর্যন্ত, আমি পিটার নরভিগের কোডটি তার বিখ্যাত বইয়ের জন্য ব্যবহার করেছি, সেখানে তিনি গাছের জন্য একটি ভাল লিখিত কোড ফ্রেমওয়ার্ক সরবরাহ করেছিলেন, আপনার যা দরকার তা হ'ল এতে উত্সাহ যোগ করা। এইভাবে, আপনি নিজের পছন্দ মতো যে কোনও কোড করতে পারেন।


0

সিদ্ধান্ত গাছ - অ্যাডা বুস্টিং

from sklearn.tree import DecisionTreeClassifier
from sklearn.ensemble import AdaBoostClassifier
from sklearn.metrics import accuracy_score

কোনও বুস্টিংয়ের সাথে সিদ্ধান্তের গাছগুলি

clf_entropy_no_ada = DecisionTreeClassifier(criterion = "entropy", random_state = 100,
 max_depth=5, min_samples_leaf=5)
clf_entropy_no_ada.fit(X_train, y_train)

অ্যাডা বুস্টিংয়ের সাথে সিদ্ধান্তের গাছগুলি

clf_entropy_ada = AdaBoostClassifier(base_estimator= clf_entropy_no_ada,n_estimators=400,learning_rate=1)
clf_entropy_ada.fit(X_train, y_train)

ফিটিং মডেল এবং নির্ভুলতার গণনা করা

y_predict_no_ada = clf_entropy_no_ada.predict(X_test)
print ("Accuracy is ", accuracy_score(y_test,y_predict_no_ada)*100)

y_predict_ada = clf_entropy_ada.predict(X_test)
print ("Accuracy is ", accuracy_score(y_test,y_predict_ada)*100)
আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.