এমএনআইএসটি, সিআইএফএআর, এসটিএল -10 ইত্যাদিতে র্যান্ডম ফরেস্টের প্রয়োগের জন্য আমি কোনও সাহিত্যের সন্ধান পাইনি তাই আমি ভেবেছিলাম যে আমি নিজেই সেগুলি ক্রম- আক্রমণকারী এমএনআইএসটি দিয়ে চেষ্টা করব।
ইন আর , আমি চেষ্টা:
randomForest(train$x, factor(train$y), test$x, factor(test$y), ntree=500)
এটি ২ ঘন্টা চালিয়েছে এবং ২.৮% পরীক্ষার ত্রুটি পেয়েছে।
আমিও চেষ্টা scikit-শিখতে , সঙ্গে
RandomForestClassifier(n_estimators=2000,
max_features="auto",
max_depth=None)
70 মিনিটের পরে, আমি একটি 2.9% পরীক্ষার ত্রুটি পেয়েছি, তবে এর পরিবর্তে এন_স্টিমেটারগুলি = ২০০ দিয়ে আমি মাত্র 7 মিনিটের পরে একটি 2.8% পরীক্ষার ত্রুটি পেয়েছি।
সঙ্গে OpenCV , আমি চেষ্টা
rf.train(images.reshape(-1, 28**2),
cv2.CV_ROW_SAMPLE,
labels.astype('int'))
এটি 6.5 মিনিটের জন্য চলল, এবং rf
পূর্বাভাসের জন্য ব্যবহার করে একটি পরীক্ষার ত্রুটি 15% দেওয়া হয়েছিল। আমি জানি না যে এটি কতগুলি গাছ প্রশিক্ষিত করেছে, কারণ এলোমেলো বনগুলির জন্য পাইথন বাঁধাই params
যুক্তিটিকে উপেক্ষা করে বলে মনে হচ্ছে , কমপক্ষে সংস্করণ ২.৩.১ এ। আমিও চিন্তা করতে পারেনি তা কিভাবে OpenCV সাফ যে, আমি একজন শ্রেণীবিন্যাস সমস্যা সমাধান করতে চান, বরং রিগ্রেশন চেয়ে করা - আমি আমার সন্দেহ হচ্ছে, কারণ প্রতিস্থাপন astype('int')
সঙ্গে astype('float32')
একই ফলাফল দেয়।
ইন স্নায়ুর নেটওয়ার্ক , জন্য বিন্যাস-পরিবর্তিত MNIST বেঞ্চমার্ক, শিল্প রাজ্যের 0.8% পরীক্ষা ত্রুটি, যদিও প্রশিক্ষণ সম্ভবত এক CPU তে চেয়ে বেশি 2 ঘন্টা লাগবে।
এলোমেলো বন ব্যবহার করে কি এমএনআইএসটিতে 2.8% পরীক্ষার ত্রুটির চেয়ে আরও ভাল কিছু করা সম্ভব? আমি ভেবেছিলাম যে সাধারণ sensকমত্যটি ছিল এলোমেলো বনগুলি সাধারণত কার্নেল এসভিএমগুলির চেয়ে কম ভাল, যা আমি বিশ্বাস করি যে পরীক্ষার ত্রুটিটি 1.4% পেতে পারে।