আমি একটি কথা শুনছিলাম এবং এই স্লাইডটি দেখেছি:
এটা কতটা সত্য?
আমি একটি কথা শুনছিলাম এবং এই স্লাইডটি দেখেছি:
এটা কতটা সত্য?
উত্তর:
আমি এআই স্ট্যাকএক্সচেঞ্জটি ব্রাউজ করছিলাম এবং খুব অনুরূপ একটি প্রশ্ন জুড়েছিলাম : অন্যান্য স্নায়ুবিক নেটওয়ার্কগুলির থেকে "ডিপ লার্নিং" কে কী আলাদা করে?
যেহেতু এআই স্ট্যাকএক্সচেঞ্জ আগামীকাল (আবার) বন্ধ হবে, আমি এখানে দুটি শীর্ষ উত্তর অনুলিপি করব (ব্যবহারকারীর অবদানগুলি সিসি বাই-সা 3.0 এর অধীন লাইসেন্সযুক্ত অ্যাট্রিবিউশন সহ):
লেখক: mommi84less
দুটি প্রশংসিত 2006 সালের গবেষণাপত্র গবেষণা আগ্রহকে গভীর শিক্ষায় ফিরিয়ে এনেছিল। "গভীর বিশ্বাসের জালগুলির জন্য একটি দ্রুত শিক্ষার অ্যালগরিদম" -তে , লেখকগণ একটি গভীর বিশ্বাসের জালকে এভাবে সংজ্ঞায়িত করেছেন:
[...] ঘন-সংযুক্ত বিশ্বাসের জাল রয়েছে যার অনেকগুলি গোপন স্তর রয়েছে।
" গভীর নেটওয়ার্কের লোভী স্তর-বুদ্ধিমান প্রশিক্ষণ " তে গভীর নেটওয়ার্কগুলির জন্য আমরা প্রায় একই বর্ণনা পাই :
গভীর মাল্টি-লেয়ার নিউরাল নেটওয়ার্কগুলিতে অনেকগুলি স্তরবিহীন স্তর রয়েছে [...]
তারপরে, জরিপ গবেষণাপত্রে "প্রতিনিধিত্ব শিক্ষা: একটি পর্যালোচনা এবং নতুন দৃষ্টিভঙ্গি" , গভীর কৌশলগুলি সমস্ত কৌশলকে আবদ্ধ করতে ব্যবহৃত হয় ( এই আলোচনাটিও দেখুন ) এবং এটি সংজ্ঞায়িত হয়েছে:
[...] উপস্থাপনের একাধিক স্তর তৈরি করা বা বৈশিষ্ট্যগুলির একটি শ্রেণিবিন্যাস শেখা।
উপরের লেখকরা একাধিক অ-রৈখিক লুকানো স্তরগুলির হাইলাইট করার জন্য "গভীর" বিশেষণটি ব্যবহার করেছিলেন ।
লেখক: লেজলট
শুধু @ mommi84 উত্তর যুক্ত করতে।
গভীর শেখা স্নায়বিক নেটওয়ার্কের মধ্যে সীমাবদ্ধ নয় । এটি কেবল হিন্টনের ডিবিএন ইত্যাদির চেয়ে আরও বিস্তৃত ধারণা Deep
উপস্থাপনের একাধিক স্তর গঠন বা বৈশিষ্ট্যগুলির শ্রেণিবদ্ধতা শিখতে।
সুতরাং এটি শ্রেণিবিন্যাসিক উপস্থাপনা শেখার অ্যালগরিদমগুলির একটি নাম । লুকানো মার্কভ মডেলস, শর্তসাপেক্ষ র্যান্ডম ফিল্ডস, সাপোর্ট ভেক্টর মেশিন ইত্যাদির উপর ভিত্তি করে গভীর মডেল রয়েছে common কেবলমাত্র সাধারণ বিষয়টি হ'ল ('90 এর দশকে জনপ্রিয়) ফিচার ইঞ্জিনিয়ারিংয়ের পরিবর্তে , যেখানে গবেষকরা বৈশিষ্ট্যগুলির সেট তৈরি করার চেষ্টা করছেন, যা হ'ল কিছু শ্রেণিবদ্ধকরণ সমস্যা সমাধানের জন্য সেরা - এই মেশিনগুলি কাঁচা ডেটা থেকে তাদের নিজস্ব উপস্থাপনা তৈরি করতে পারে। বিশেষত - চিত্র স্বীকৃতিতে প্রয়োগ করা (কাঁচা চিত্র) তারা পিক্সেল সমন্বিত একাধিক স্তরের উপস্থাপনা উত্পাদন করে, তারপরে লাইনগুলি, তারপরে নাক, চোখ এবং অবশেষে - সাধারণযুক্ত মুখগুলির মতো বৈশিষ্ট্যগুলি (যদি আমরা মুখের সাথে কাজ করছি)। যদি প্রাকৃতিক ভাষা প্রক্রিয়াকরণের ক্ষেত্রে প্রয়োগ করা হয় - তারা ভাষার মডেল তৈরি করে, যা শব্দগুলিকে খণ্ডগুলিতে, বাক্যগুলিকে বাক্যগুলিতে সংযুক্ত করে etc.
আরও একটি আকর্ষণীয় স্লাইড:
২০০ 2006 সালে হিন্টন থেকে আসা ড্রপআউটকে গত দশ বছরের গভীর জ্ঞানার্জনের ক্ষেত্রে সবচেয়ে বড় উন্নতি হিসাবে বলা হয়, কারণ এটি অনেক বেশি উত্সাহ হ্রাস করে।
এটি অবশ্যই একটি প্রশ্ন যা বিতর্ককে উস্কে দেবে।
যখন নিউরাল নেটওয়ার্কগুলি গভীর শিক্ষায় ব্যবহৃত হয় তখন তারা সাধারণত সেই পদ্ধতিতে প্রশিক্ষিত হয় যা 1980 এর দশকে ব্যবহৃত হয়নি। বিশেষ কৌশলগুলিতে যে নিউরাল নেটওয়ার্কের পৃথক স্তরগুলি বিভিন্ন স্তরে বৈশিষ্ট্যগুলি সনাক্ত করতে প্রেট্রাইন করে, দাবি করা হয় যে বেশ কয়েকটি স্তর সহ নেটওয়ার্কগুলি প্রশিক্ষণ করা সহজ করে তোলে। এটি অবশ্যই 1980 এর দশকের পর থেকে একটি নতুন বিকাশ।
মূলটি গভীর শিক্ষায় "গভীর" শব্দটি। 80 এর দশকে কেউ (ভুলে গেছেন রেফ) প্রমাণ করেছেন যে সমস্ত অ-রৈখিক ক্রিয়াকলাপগুলি একটি একক স্তর নিউরাল নেটওয়ার্ক দ্বারা অবশ্যই যথেষ্ট পরিমাণে গোপন ইউনিটগুলির সাথে সংযুক্ত করা যেতে পারে। আমি মনে করি এই পরিণতি সম্ভবত পূর্ববর্তী যুগে গভীর নেটওয়ার্ক অনুসন্ধান করা থেকে নিরুৎসাহিত করেছিল।
তবে নেটওয়ার্কের গভীরতা হ'ল শ্রেণিবিন্যাসের প্রতিনিধিত্বের ক্ষেত্রে গুরুত্বপূর্ণ উপাদান হিসাবে প্রমাণিত যা আজকের অনেক অ্যাপ্লিকেশনগুলির সাফল্যকে চালিত করে।
ঠিক নয়, এএনএন 50 এর দশকে শুরু হয়। একটি খাঁটি এবং বিস্তৃত পরিচয়ের জন্য এমএল রক স্টার ইয়ান লেকুনের স্লাইডগুলির মধ্যে একটি দেখুন। http://www.cs.nyu.edu/~yann/talks/lecun-ranzato-icml2013.pdf