নিউরাল নেটওয়ার্কগুলি কি ভয়াবহ ভুলে যাওয়ার প্রবণতা রয়েছে?


37

কল্পনা করুন আপনি একটি নিউরাল নেটওয়ার্ক 100 বার সিংহের একটি ছবি দেখিয়েছেন এবং "বিপজ্জনক" লেবেল দিয়েছেন, সুতরাং এটি শিখেছে যে সিংহগুলি বিপজ্জনক।

এখন কল্পনা করুন যে এর আগে আপনি এটি সিংহের লক্ষ লক্ষ চিত্র দেখিয়েছেন এবং বিকল্পভাবে এটিকে "বিপজ্জনক" এবং "বিপজ্জনক নয়" হিসাবে চিহ্নিত করেছেন, যেমন সিংহের বিপজ্জনক হওয়ার সম্ভাবনা 50%।

তবে শেষবারের মতো 100 বার স্নায়ুটিকে "বিপজ্জনক" হিসাবে সম্পর্কিত সম্পর্কে খুব ইতিবাচক হওয়ার দিকে স্নায়বিক নেটওয়ার্ককে ঠেলে দিয়েছে, এভাবে শেষ মিলিয়ন পাঠকে উপেক্ষা করে।

সুতরাং, মনে হচ্ছে স্নায়ু নেটওয়ার্কগুলির মধ্যে একটি ত্রুটি রয়েছে, সাম্প্রতিক প্রমাণগুলির ভিত্তিতে তারা খুব দ্রুত তাদের মন পরিবর্তন করতে পারে। বিশেষত যদি সেই আগের প্রমাণটি মাঝখানে ছিল।

এমন কোনও নিউরাল নেটওয়ার্ক মডেল রয়েছে যা এটি কতটা প্রমাণ দেখেছে তার উপর নজর রাখে? (বা এই দ্বারা লার্নিং হার হ্রাস লেট সমতূল্য হবে 1/T যেখানে T বিচারের সংখ্যা?)


আমি তত্ত্বাবধানে থাকা শিক্ষার বিষয়ে বলছি যেখানে ব্যবহারকারী এনএনকে বলে যে সিংহটি বিপজ্জনক।
চিড়িয়াখানা

যদিও এই ধরনের লোকদের ক্ষেত্রেও ঘটে। এটি সত্যই ভীতিকর যে কোনও "ফলসজ্জা" করতে পারে যে কোনও কিছু পরিণতি ছাড়াই বেশ কয়েকবার করার পরে বিপজ্জনক, যা আপনি এআই এর সাথে বর্ণিত দৃশ্যের সমান।
টোম জ্যাটো

2
খুব বিস্তৃত হিসাবে চিহ্নিত করা হয়েছে। নেটওয়ার্কটি কী স্বীকৃতি কৌশল ব্যবহার করছে তার উপর এটি নির্ভরশীল। স্পষ্টতই, নিশ্চিত, কিছু ক্ষেত্রে নেটওয়ার্ক "ভুলে যাবে" তবে অন্য ক্ষেত্রে এটি অভ্যাস করবে না। এটি অত্যন্ত স্পষ্ট হওয়া উচিত যে এই প্রশ্নের যে কোনও উত্তরই "এটি নির্ভর করে" দিয়ে শুরু এবং শেষ হওয়া উচিত।
প্রোটন

3
সত্য কথা বলতে গেলে, এটি "আপনার বিষ বাছাই করুন" ধরণের কারবারগুলির মধ্যে একটি। Nতিহাসিক অভিজ্ঞতাগুলির তুলনায় সাম্প্রতিক অভিজ্ঞতার পক্ষে এমন একটি এনএন অতীতকে অগ্রাহ্য করার ঝুঁকিপূর্ণ তবে এটি সাম্প্রতিক ঘটনার প্রতিক্রিয়া জানাতে সক্ষম। উদাহরণস্বরূপ, ধরুন যে সমস্ত সিংহ হঠাৎ করেই রাতারাতি ম্যানকিলার ঘুরিয়ে দেয়, তবে আপনার এনএন যে সাম্প্রতিক অভিজ্ঞতার পক্ষে রয়েছে তা নতুন ধমকি তুলতে আরও দ্রুত হবে, ধীরে ধীরে এনএন এর বিপরীতে যা বেসিকালি বলে যে "সিংহ অতীতে সবসময় বিপজ্জনক ছিল না, আমি এই সিদ্ধান্তে পৌঁছুন যে নতুন কিছু ঘটছে না "যতক্ষণ না সিংহগুলি আপনার চেয়ে বেশি সময়ের জন্য 100% বিপজ্জনক হয়ে থাকে (এবং পরে অনেক মানুষের মৃত্যু)
ফ্ল্যাটার

1
এছাড়াও, এজিআই-তে প্রাসঙ্গিক ত্রুটি ওজন থাকবে - দুটি ত্রুটি ফলাফলের ক্ষেত্রে সমানভাবে খারাপ নয়।
এমসাল্টার

উত্তর:


38

হ্যাঁ, প্রকৃতপক্ষে, নিউরাল নেটওয়ার্কগুলি বিপর্যয় ভুলে যাওয়ার (বা হস্তক্ষেপ) খুব প্রবণ । বর্তমানে, এই সমস্যাটি প্রায়শই উপেক্ষা করা হয় কারণ নিউরাল নেটওয়ার্কগুলি মূলত অফলাইনে প্রশিক্ষিত হয় (কখনও কখনও ব্যাচ প্রশিক্ষণও বলা হয় ), যেখানে এই সমস্যা প্রায়শই দেখা দেয় না, এবং অনলাইনে বা ক্রমবর্ধমান হয় না , যা কৃত্রিম সাধারণ বুদ্ধি বিকাশের জন্য মৌলিক

কিছু লোক রয়েছে যারা নিউরাল নেটওয়ার্কগুলিতে নিয়মিত আজীবন শিক্ষার উপর কাজ করেন , যা নিয়মিত নেটওয়ার্কগুলি নিয়মিত আজীবন শেখার সাথে খাপ খাইয়ে নেওয়ার চেষ্টা করে, যা নিয়মিতভাবে ডেটা স্ট্রিম থেকে শেখার মডেলটির দক্ষতা, যাতে তারা পূর্বে অর্জিত অর্থে সম্পূর্ণ ভুলে না যায় নতুন তথ্য শেখার সময় জ্ঞান উদাহরণস্বরূপ, নিউরাল নেটওয়ার্কগুলির সাথে কাগজটি ক্রমাগত আজীবন শিক্ষা: জার্মান আই প্যারিসি, রোনাল্ড কেমকার, জোস এল পার্ট, ক্রিস্টোফার কানান, স্টেফান ওয়ার্মটারের একটি পর্যালোচনা (2019), যা বিপর্যয়ের সাথে সম্পর্কিত সমস্যা এবং বিদ্যমান সমাধানের সংক্ষিপ্তসার দেয়। নিউরাল নেটওয়ার্ক ভুলে যাওয়া।


1
ধন্যবাদ! আপনার প্রস্তাবিত কাগজটি আমার একটি পঠন হবে।
চিড়িয়াখানা

7
মাইক্রোসফ্টের "টেই" চ্যাটবোটের কুখ্যাত দুর্নীতি কি সর্বনাশা ভুলে যাওয়ার উদাহরণ?
ইউ

4
@ টি কে কে আমি মনে করি এটি ওয়েবসাইটে একটি ভাল নতুন প্রশ্ন হবে!
এনবিরো

2
@ টি কে কে আপনি কি এটি জিজ্ঞাসা করতে যাচ্ছেন ? যদি না হয়, অন্য কেউ কি এমন করতে পারে? আমি সত্যিই উত্তর জানতে চাই।
wizzwizz4

2
আমি নিশ্চিত যে "এমন কিছু লোক আছে যা নিউরাল নেটওয়ার্কগুলিতে নিয়মিত আজীবন শিক্ষার উপর কাজ করে, যা নিউরাল নেটওয়ার্কগুলি ক্রমাগত আজীবন শিক্ষার সাথে খাপ খাইয়ে নেওয়ার চেষ্টা করে" একটি নিউরাল নেটওয়ার্ক লিখেছিল।
ময়লি

16

হ্যাঁ, পুরানো প্রশিক্ষণের উদাহরণগুলি ভুলে যাওয়ার সমস্যাটি নিউরাল নেটওয়ার্কগুলির একটি বৈশিষ্ট্য। যদিও আমি এটিকে "ত্রুটি" বলব না কারণ এটি তাদের আরও অভিযোজিত হতে সহায়তা করে এবং ট্রান্সফার শেখার মতো আকর্ষণীয় অ্যাপ্লিকেশনগুলিকে মঞ্জুরি দেয় (যদি কোনও নেটওয়ার্ক পুরানো প্রশিক্ষণটি খুব ভালভাবে স্মরণ করে তবে এটি নতুন ডেটাতে সূক্ষ্ম সুরকরণ অর্থহীন হবে)।

অনুশীলনে আপনি যা করতে চান তা হ'ল বিপজ্জনক এবং বিপজ্জনক নয় এমন প্রশিক্ষণের উদাহরণগুলি মিশ্রন করা যাতে এটি শুরুতে একটি বিভাগ এবং শেষে একটি দেখতে না পায়।

একটি স্ট্যান্ডার্ড প্রশিক্ষণ পদ্ধতি এইভাবে কাজ করবে:

for e in epochs:
    shuffle dataset
    for x_batch, y_batch in dataset:
        train neural_network on x_batxh, y_batch

নোট করুন যে প্রতিটি যুগের রদবদল গ্যারান্টি দেয় যে নেটওয়ার্ক প্রতিটি যুগের একই ক্রমে একই প্রশিক্ষণের উদাহরণ দেখতে পাবে না এবং ক্লাসগুলি মিশ্রিত হবে

এখন আপনার প্রশ্নের উত্তর দেওয়ার জন্য, হ্যাঁ শিক্ষার হার হ্রাস করা নেটওয়ার্কটিকে তার আগের প্রশিক্ষণটি ভুলে যাওয়ার প্রবণতা কমিয়ে দেবে , তবে কীভাবে এটি অন-অনলাইন সেটিংয়ে কাজ করবে? কোনও নেটওয়ার্ককে রূপান্তর করার জন্য এটির একাধিক যুগের প্রশিক্ষণের প্রয়োজন (যেমন ডেটাসেটে প্রতিটি নমুনা বহুবার দেখে)।


4

আপনি যে শব্দগুলির বর্ণনা দিচ্ছেন তা জরিমানা-সুরকরণের একটি ইচ্ছাকৃত ঘটনা হতে পারে ।

একটা মৌলিক ধৃষ্টতা করে তোলে minibatch গ্রেডিয়েন্ট বংশদ্ভুত সমস্যার শেখার জন্য কাজ: এটা ধারণা করা হয় যে কোন ব্যাচ বা পরপর ব্যাচ সময়গত জানালা সত্য একটি শালীন পড়তা ফর্ম বিশ্বব্যাপীমডেলের কোনও প্যারামিটারাইজেশন সম্পর্কিত ত্রুটি ফাংশনের গ্রেডিয়েন্ট। যদি ত্রুটি পৃষ্ঠটি নিজেই একটি বড় পথে চলতে থাকে তবে এটি গ্রেডিয়েন্ট বংশোদ্ভূত উদ্দেশ্যগুলি ব্যর্থ করে দেয় - যেহেতু গ্রেডিয়েন্ট বংশোদ্ভূত স্থানীয় পরিশোধন অ্যালগরিদম হয়, আপনি যখন হঠাৎ অন্তর্নিহিত বিতরণটি পরিবর্তন করেন তখন সমস্ত বেট বন্ধ থাকে। উদাহরণ হিসাবে আপনি উদ্ধৃত করেছেন, বিপর্যয় ভুলে যাওয়া দেখে মনে হচ্ছে এটি "ভুলে যাওয়া" ডেটা পয়েন্টগুলি আগে দেখা হওয়ার পরে-প্রভাব হিসাবে দেখাবে এবং এটি হয় বিতরণের পরিবর্তনের লক্ষণ, বা কোনও গুরুত্বপূর্ণ ঘটনার উপাত্তের নিম্ন-উপস্থাপনের যেমন এর গুরুত্বের সাথে এটি খুব কমই দেখা যায়।

শক্তিবৃদ্ধি শেখার অভিজ্ঞতা থেকে রিপ্লে একটি প্রাসঙ্গিক ধারণা যা এই ডোমেনে ভাল স্থানান্তর করে। এখানে এমন একটি কাগজ যা বিপর্যয়মূলক ভুলে যাওয়ার ক্ষেত্রে এই ধারণাটি অন্বেষণ করে। যতক্ষণ স্যাম্পলিং সত্যিকার গ্রেডিয়েন্টগুলি যথেষ্ট পরিমাণে উপস্থাপন করে ( প্রশিক্ষণের জন্য নমুনা ভারসাম্য বজায় রাখার দিকে নজর দিন ) এবং মডেলটির যথেষ্ট পরামিতি রয়েছে, ততক্ষণে বিপর্যয় ভুলে যাওয়ার সমস্যা হওয়ার সম্ভাবনা কম। প্রতিস্থাপনের সাথে এলোমেলোভাবে ডেটাসেটগুলিতে পরিবর্তন হওয়া, এটি সম্ভবত সবচেয়ে সম্ভবত ঘটে থাকে যেখানে নির্দিষ্ট শ্রেণির ডেটাপয়েন্টগুলি এত বিরল হয় যে তারা প্রশিক্ষণের সময় দীর্ঘ সময় অন্তর্ভুক্ত হওয়ার সম্ভাবনা নেই, কার্যকরভাবে কোনও মডেলকে একটি ভিন্ন সমস্যার সাথে মিলে যাওয়ার নমুনা পর্যন্ত সূক্ষ্মভাবে সুর করে ing আবার দেখা হয়।


1

আপনার প্রশ্নের উত্তর দেওয়ার জন্য আমি বলব: সম্ভবত তত্ত্বের সাথে, তবে বাস্তবে নয়।


সমস্যাটি হ'ল আপনি কেবল কালানুক্রমিক / অনুক্রমিক প্রশিক্ষণ বিবেচনা করেন।

আমি কেবল একবার এই জাতীয় ক্রমিক প্রশিক্ষণ পদ্ধতি ব্যবহার করেছি যা অনলাইন-প্রশিক্ষণ বা অনলাইন মেশিন লার্নিং বলে । যে woppal wabbit লাইব্রেরি ব্যবহার করা হয়েছিল । এটা একটা হয় বৈশিষ্ট্য এই লাইব্রেরি এর (না একটি বিষয় মত আপনি বিবেচনা) ইনপুট এটা দিয়ে খাওয়ানো হয় কালানুক্রমে মানিয়ে।

আমি জোর দিয়ে বলছি : সেই লাইব্রেরির Woppal Wabbit এর ক্ষেত্রে, কালানুক্রমিকভাবে মানিয়ে নেওয়া একটি বৈশিষ্ট্য। এটি চাওয়া হয়েছিল যে যখন আপনি কেবল তাকে বলতে শুরু করেন যে সিংহগুলি বিপজ্জনক, তখন ফলস্বরূপ এটি খাপ খায়।


তবে কোর্স অনুশীলন থেকে শুরু করে প্রতিযোগিতাগুলি কাগল পর্যন্ত অন্য যে কোনও ক্ষেত্রে আমি প্রশিক্ষণের সেট হিসাবে আমার ইনপুট ডেটার একটি এলোমেলোভাবে উপসেট ব্যবহার করেছি। এবং এটি সত্যই গুরুত্বপূর্ণ :

এটি মেশিন লার্নিংয়ের একটি গুরুত্বপূর্ণ অঙ্গ যা ক্রস ভ্যালিডেশন বলে । প্রশিক্ষিত নিউরাল নেটওয়ার্কটি আসলে কতটা ভাল তা অনুমান করার উপায়।

সুতরাং আপনার নিউরাল নেটওয়ার্কের বৈধতা সম্পর্কে একটি ভাল অনুমান করার জন্য আপনি আপনার প্রশিক্ষণ ডেটার একটি এলোমেলো উপসেট গ্রহণ করেন, সংক্ষেপে, আপনি প্রশিক্ষণের জন্য আপনার 80% ডেটার মতো কিছু নেন, এবং বাকি 20% এর সাথে আপনি কতবার মূল্যায়ন করেন প্রশিক্ষিত নিউরাল নেটওয়ার্ক ভাল পূর্বাভাস দেয়।

ওভারফিটিং (যা অন্য উদ্বেগের বিষয়) এটি সনাক্ত করার প্রয়োজনীয়তার কারণে ক্রস বৈধকরণ ছাড়াও কেউ সহজেই চলে যেতে পারে না।

এটি আপনার কাছে একটি সম্ভাব্য তাত্ত্বিক সমস্যার মতো মনে হতে পারে তবে আমি বলতে চাই যে ক্রস বৈধকরণের বর্তমান ব্যবহারগুলি আপনার উদ্বেগকে অপ্রাসঙ্গিক করে তুলেছে।

আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.