জিজ্ঞাসা করার জন্য অনেকগুলি প্রশ্ন রয়েছে:
- আপনার কি প্রতিটি স্তরে যথাযথ সংখ্যক নিউরন রয়েছে?
- আপনি কি উপযুক্ত ধরণের ট্রান্সফার ফাংশন ব্যবহার করছেন?
- আপনি কি উপযুক্ত ধরণের শিখার অ্যালগরিদম ব্যবহার করছেন?
- আপনার কি যথেষ্ট পরিমাণে নমুনা আকার আছে?
- আপনি কি নিশ্চিত করতে পারেন যে আপনার নমুনাগুলির একে অপরের সাথে তথ্যবহুল হওয়ার জন্য সঠিক ধরণের সম্পর্ক রয়েছে? (অপ্রয়োজনীয় নয়, প্রাসঙ্গিক মাত্রা ইত্যাদি) ...
মহামারী হিসাবে আপনি কি দিতে পারেন? আপনি কি আমাদের তথ্যের প্রকৃতি সম্পর্কে কিছু বলতে পারেন?
আপনি নিউরাল নেটওয়ার্কগুলির গ্রেডিয়েন্ট বুস্টড ট্রি তৈরি করতে পারেন।
আপনি জিজ্ঞাসা করেছিলেন আপনি তাড়াতাড়ি থামলে কী হয়?
আপনি নিজে চেষ্টা করতে পারেন 300x চালান যেখানে আপনি এলোমেলোভাবে প্রাথমিক ওজন দিয়ে শুরু করেন, এবং তারপরে একটি নির্দিষ্ট সংখ্যক পুনরাবৃত্তি থামিয়ে 100 বলুন that সেই সময়ে আপনার জমায়েত ত্রুটি, আপনার প্রশিক্ষণ-সাবসেট ত্রুটি এবং আপনার পরীক্ষার সেট ত্রুটি গণনা করুন। পদ্ধতি পুনরাবৃত্তি করুন। ত্রুটিটি কী তা বলার জন্য আপনার কাছে 300 মান রয়েছে তার পরে, 100 টি শিখার পুনরাবৃত্তি দেওয়া আপনার ত্রুটি বিতরণ সম্পর্কে একটি ধারণা পেতে পারেন। আপনি যদি পছন্দ করেন তবে আপনি সেই ডিস্ট্রিবিউশনটি শিখার কয়েকটি অন্যান্য মানের নমুনা করতে পারেন। আমি 200, 500 এবং 1000 পুনরাবৃত্তির পরামর্শ দিই। এটি আপনাকে কীভাবে আপনার এসএনআর সময়ের সাথে পরিবর্তন করতে পারে তা ধারণা দেবে। এসএনআর বনাম পুনরাবৃত্তি গণনার একটি প্লট আপনাকে "ক্লিফস" বা "যথেষ্ট ভাল" সম্পর্কে ধারণা দিতে পারে। কখনও কখনও এমন সমস্যা রয়েছে যেখানে ত্রুটি ধসে পড়ে। কখনও কখনও ত্রুটিটি এই সময়ে গ্রহণযোগ্য হয়।
আপনার সিস্টেমে ধারাবাহিকভাবে 100 টি পুনরাবৃত্তির মধ্যে রূপান্তর করতে এটি "তুলনামূলক সহজ" ডেটা বা "বেশ ভাল" ভাগ্য লাগে। উভয়ই পুনরাবৃত্তিযোগ্যতা সম্পর্কে নয় বা সেগুলি সাধারণীকরণযোগ্যও নয়।
কেন আপনি ওজন রূপান্তরকারী এবং কোনও নির্দিষ্ট প্রান্তিকের নীচে থাকার কারণে ত্রুটি নয় শর্তে বিবেচনা করছেন। আপনি কি কখনও ভোটিং প্যারাডক্সের কথা শুনেছেন? ( লিঙ্ক ) আপনার সিস্টেমে যখন চক্রীয় মিথস্ক্রিয়া হয় (যেমন নিউরাল নেটওয়ার্কগুলির মতামত) তখন আপনার ভোটিং প্যারাডক্স - যুগল পরিবর্তন হতে পারে। আমি জানি না ওজন একাই নেটওয়ার্কের রূপান্তরকরণের জন্য পর্যাপ্ত সূচক কিনা।
আপনি ওজনকে একটি স্থান হিসাবে ভাবতে পারেন। এটিতে 3 টিরও বেশি মাত্রা রয়েছে তবে এটি এখনও একটি স্থান। সেই জায়গার "সেন্ট্রয়েড" এ আপনার "সেরা ফিট" অঞ্চল। সেন্ট্রয়েড থেকে দূরে কম ভাল ফিট। আপনি আপনার ওজনের বর্তমান সেটিংটিকে সেই জায়গার একক পয়েন্ট হিসাবে ভাবতে পারেন।
"ভাল" আসলে কোথায় তা আপনি জানেন না। আপনার কাছে যা আছে তা স্থানীয় "opeাল"। আপনার পয়েন্ট এখনই যেখানে দেওয়া আছে আপনি সেখানে স্থানীয় "আরও ভাল" এর দিকে গ্রেডিয়েন্ট ডিসেন্ট সম্পাদন করতে পারেন perform এটি আপনাকে "সার্বজনীন" আরও ভাল বলে না, তবে স্থানীয় কোনও কিছুর চেয়ে ভাল।
সুতরাং আপনি পুনরাবৃত্তি শুরু করুন, বেতারতার উপত্যকার দিকে উতরাই পথে হাঁটুন। আপনি শেষ না হওয়া পর্যন্ত আপনি পুনরাবৃত্তি করুন। হতে পারে আপনার ওজনের মূল্য বড়। সম্ভবত তারা পুরো জায়গা জুড়ে বাড়াচ্ছে। সম্ভবত গণনাটি "খুব বেশি সময় নিচ্ছে"। আপনি করতে চান।
সুতরাং আপনি কোথায় আছেন যেখানে আপনি "যথেষ্ট ভাল" আছেন তা কীভাবে জানবেন?
আপনি করতে পারেন তা এখানে একটি দ্রুত পরীক্ষা:
30 টি অভিন্ন এলোমেলো উপসাগর নিন (প্রতিটি তথ্যের কয়েক শতাংশের মতো) এবং সেগুলিতে নেটওয়ার্কটি পুনরায় প্রশিক্ষণ করুন। এটি আরও দ্রুত হওয়া উচিত। বড় সেটটির রূপান্তর ইতিহাসের সাথে এটিকে রূপান্তর করতে এবং তুলনা করতে তাদের কতক্ষণ সময় নেয় তা পর্যবেক্ষণ করুন। এই উপগ্রহের পুরো ডেটার জন্য নেটওয়ার্কের ত্রুটিটি পরীক্ষা করুন এবং দেখুন যে কীভাবে ত্রুটির বিতরণ আপনার বড় ত্রুটির সাথে তুলনা করে। আপনার উপাত্তের 5% অবধি সাবসেটের আকারগুলি বার করুন এবং পুনরাবৃত্তি করুন। এটি আপনাকে কী শিক্ষা দেয় তা দেখুন।
মধুবী কীভাবে স্কাউটিংয়ের উপর ভিত্তি করে সিদ্ধান্ত নেয় তার ভিত্তিতে তৈরি কণা ঝাঁক অপটিমাইজেশন (রেফারেন্স দেখুন) এর একটি ভিন্নতা।
আপনি জিজ্ঞাসা করেছেন যে ওজন একত্রিত না হলে কী ঘটে।
নিউরাল নেটওয়ার্কগুলি একটি সরঞ্জাম। এগুলি একমাত্র হাতিয়ার নয়। অন্যরাও আছেন। আমি তাদের মধ্যে একটি ব্যবহার তাকান।
আমি তথ্যের মানদণ্ডের ক্ষেত্রে কাজ করি, তাই আমি ওজন (প্যারামিটার গণনা) এবং ত্রুটি উভয়ই দেখি। আপনি তাদের মধ্যে একটি চেষ্টা করতে পারেন।
কিছু প্রিপ্রোসেসিং রয়েছে যা কার্যকর হতে পারে। কেন্দ্র এবং স্কেল প্রধান উপাদান ব্যবহার করে ঘোরান। আপনি যদি আপনার মূল উপাদানগুলির ইগেনভ্যালুগুলি লক্ষ্য করেন তবে আপনি আপনার ডেটার মাত্রা অনুমান করতে স্ক্রি প্লটের নিয়ম ব্যবহার করতে পারেন। মাত্রা হ্রাস করণীয় উন্নতি করতে পারে। আপনি যদি 'অন্তর্নিহিত পদার্থবিজ্ঞান' সম্পর্কে কিছু জানেন তবে আপনি শব্দটি সরাতে ডেটা মসৃণ করতে বা ফিল্টার করতে পারেন। কখনও কখনও রূপান্তর সিস্টেমের মধ্যে শব্দ সম্পর্কে হয়।
আমি সংবেদনশীল সংবেদনের ধারণাটি আকর্ষণীয় বলে মনে করি। এটি সাধারণীকরণের ক্ষতি না করে কিছু সিস্টেমে র্যাডিকাল সাব-স্যাম্পলিংয়ের অনুমতি দিতে পারে। আমি কিছু বুটস্ট্র্যাপ পুনরায় স্যাম্পলড পরিসংখ্যান এবং আপনার ডেটা বিতরণ দেখে নেব এবং প্রশিক্ষণের সেটটি কী কী স্তরে উপ-নমুনা গ্রহণের প্রতিনিধিত্ব করে তা নির্ধারণ করতে। এটি আপনাকে আপনার ডেটার "স্বাস্থ্য" এর কিছু পরিমাপ দেয়।
কখনও কখনও এটি একটি ভাল জিনিস যা তারা রূপান্তর করে না
আপনি কি কখনও ভোটিং প্যারাডক্সের কথা শুনেছেন? আপনি এটিকে দ্বি-দ্বি সংঘাতের জন্য উচ্চ-গণনা চাচাত ভাই হিসাবে ভাবতে পারেন। এটি একটি লুপ। ২-ব্যক্তির ভোটের বিপরীতে প্রথম ব্যক্তি প্রার্থী "এ" চান এবং দ্বিতীয় প্রার্থী "বি" (বা না-এ বা এই জাতীয়) প্রার্থী চান। গুরুত্বপূর্ণ অংশটি হ'ল আপনি এটিকে একটি লুপ হিসাবে ভাবতে পারেন।
লুপগুলি নিউরাল নেটওয়ার্কগুলিতে গুরুত্বপূর্ণ। প্রতিক্রিয়া। Recursion। এটি এক্সওআর-এর মতো সমস্যাগুলি সমাধান করতে পার্সেপট্রনকে সক্ষম করেছে। এটি লুপগুলি তৈরি করে এবং কখনও কখনও লুপগুলি ভোটদানের প্যারাডক্সের মতো কাজ করতে পারে, যেখানে আপনার যদি অসীম পুনরাবৃত্তি থাকে তবে তারা ওজন পরিবর্তন করতে থাকবে। এগুলি রূপান্তর করতে বোঝানো হয়নি কারণ এটি পৃথক ওজন নয় যা লুপের ওজনের পারস্পরিক ক্রিয়া matters
বিঃদ্রঃ:
কেবল 500 টি পুনরাবৃত্তি ব্যবহার করা সমস্যা হতে পারে। আমার কাছে এনএন রয়েছে যেখানে 10,000 পুনরাবৃত্তি সবে যথেষ্ট ছিল। "পর্যাপ্ত" হওয়ার জন্য পুনরাবৃত্তির সংখ্যা নির্ভরশীল, যেমনটি আমি ইতিমধ্যে ডেটা, এনএন-টপোলজি, নোড-ট্রান্সফার ফাংশন, শেখা / প্রশিক্ষণ ফাংশন এবং এমনকি কম্পিউটার হার্ডওয়্যার হিসাবে ইঙ্গিত করেছি। "যথেষ্ট" বা "অত্যধিক" পুনরাবৃত্তি হয়েছে তা বলার আগে তারা আপনার পুনরাবৃত্তির গণনার সাথে কীভাবে ইন্টারঅ্যাক্ট করে সে সম্পর্কে আপনার ভাল ধারণা থাকতে হবে। সময়, বাজেট এবং আপনি প্রশিক্ষণ সম্পন্ন করার পরে এনএন এর সাথে আপনি কী করতে চান সে সম্পর্কিত অন্যান্য বিষয়গুলিও বিবেচনা করা উচিত।
চেন, আরবি, চ্যাং, এসপি, ওয়াং, ডাব্লু। ও ওং, ডব্লু কে, (২০১১, সেপ্টেম্বর)। কণা ঝাঁক অপটিমাইজেশন পদ্ধতিগুলির (প্রিপ্রিন্ট) মাধ্যমে সর্বোত্তম পরীক্ষামূলক ডিজাইনগুলি, http://www.math.ntu.edu.tw/~mathlib/preprint/2011-03.pdf থেকে ২৫ শে মার্চ, ২০১২ পুনরুদ্ধার করা হয়েছে