র্যান্ডম বন একাধিক সিদ্ধান্ত গাছ যা একটি সংগ্রহ স্বাধীনভাবে পরস্পর এর প্রশিক্ষণ দেওয়া হয় । সুতরাং অনুক্রমিকভাবে নির্ভর প্রশিক্ষণের কোনও ধারণা নেই (যা অ্যালগরিদমগুলি উত্সাহ দেওয়ার ক্ষেত্রে এটি )। এর ফলস্বরূপ, অন্য উত্তরে উল্লিখিত হিসাবে, গাছগুলির সমান্তরাল প্রশিক্ষণ করা সম্ভব।
আপনি এলোমেলো বনের "এলোমেলো" কোথা থেকে এসেছে তা জানতে আপনি পছন্দ করতে পারেন: দুটি উপায় রয়েছে যা দিয়ে বৃক্ষগুলি শেখার প্রক্রিয়াটিতে এলোমেলোভাবে প্রবেশ করা হয়। প্রথমটি প্রতিটি গাছকে প্রশিক্ষণের জন্য ব্যবহৃত ডেটা পয়েন্টগুলির এলোমেলো নির্বাচন এবং দ্বিতীয়টি প্রতিটি গাছ তৈরিতে ব্যবহৃত বৈশিষ্ট্যগুলির এলোমেলো নির্বাচন। যেহেতু একক সিদ্ধান্তের গাছটি সাধারণত ডেটাগুলিতে বেশি পরিমাণে প্রবণতা অর্জন করে, তাই এলোমেলোভাবে ইনজেকশনের ফলে এমন একগুচ্ছ গাছ পাওয়া যায় যেখানে তাদের প্রত্যেকের উপলব্ধ প্রশিক্ষণের ডেটার আলাদা উপসেটে ভাল যথার্থতা (এবং সম্ভবত অতিরিক্ত পরিমাণে) থাকে । অতএব, যখন আমরা সমস্ত গাছ দ্বারা করা পূর্বাভাসের গড় গ্রহণ করি, তখন আমরা ওভারফিটিং হ্রাস লক্ষ্য করব ( সমস্ত উপলব্ধ ডেটাতে একটি একক সিদ্ধান্ত গাছ প্রশিক্ষণের ক্ষেত্রে তুলনা করা )।
এটি আরও ভালভাবে বুঝতে, এখানে প্রশিক্ষণ প্রক্রিয়াটির মোটামুটি স্কেচটি ধরে নেওয়া হয়েছে যে সমস্ত ডেটা পয়েন্টগুলি দ্বারা চিহ্নিত একটি সেটে সংরক্ষণ করা হয়েছে এবং বনের গাছের সংখ্যা হ'ল :এমএন
- i = 0
- একটি নিন boostrap নমুনা এর (অর্থাত স্যাম্পলিং প্রতিস্থাপন এবং হিসাবে একই আকার সঙ্গে ) যা দ্বারা প্রকাশ করা হয় ।এমএমএসআমি
- ট্রেন -th গাছ, যেমন প্রকাশ ব্যবহার ইনপুট ডেটা হিসাবে।
আমিটিআমিএসআমি
- প্রশিক্ষণের প্রক্রিয়াটি সিদ্ধান্তের গাছকে প্রশিক্ষণের মতোই the গাছের প্রতিটি নোডে n নোডে বিভাজনের জন্য বৈশিষ্ট্যগুলির একটি এলোমেলো নির্বাচন ব্যবহৃত হয় difference
- i = i + 1
- যদি পদক্ষেপ 2 এ যান, অন্যথায় সমস্ত গাছ প্রশিক্ষিত হয়েছে, তাই এলোমেলো বন প্রশিক্ষণ শেষ হয়েছে।i < এন
নোট করুন যে আমি অ্যালগরিদমকে একটি অনুক্রমিক অ্যালগরিদম হিসাবে বর্ণনা করেছি, তবে যেহেতু গাছের প্রশিক্ষণ একে অপরের উপর নির্ভর করে না তাই আপনি এটি সমান্তরালেও করতে পারেন। এখন পূর্বাভাসের পদক্ষেপের জন্য, প্রথমে প্রতিটি গাছের (যেমন , , ..., ) এবং তারপরে:টি1টি2TN
যদি এটি কোনও রিগ্রেশন টাস্কের জন্য ব্যবহৃত হয়, তবে এলোমেলো বনের চূড়ান্ত পূর্বাভাস হিসাবে ভবিষ্যদ্বাণীগুলির গড়কে গ্রহণ করুন।
যদি এটি কোনও শ্রেণিবদ্ধকরণের কাজে ব্যবহার করা হয়, তবে নরম ভোটদানের কৌশলটি ব্যবহার করুন : প্রতিটি শ্রেণীর জন্য গাছ দ্বারা পূর্বাভাস দেওয়া সম্ভাবনার গড়পড়তা নিন, তারপরে এলোমেলো বনের চূড়ান্ত পূর্বাভাস হিসাবে সর্বোচ্চ গড় সম্ভাব্যতা সহ শ্রেণিকে ঘোষণা করুন।
আরও, এটি উল্লেখ করার মতো যে, ধারাগুলি নির্ভরশীল পদ্ধতিতে গাছগুলি প্রশিক্ষণ দেওয়া সম্ভব এবং গ্রেডিয়েন্ট বুস্টেড ট্রি অ্যালগোরিদম ঠিক এটিই বানাচ্ছে , যা এলোমেলো বন থেকে সম্পূর্ণ ভিন্ন পদ্ধতি।