নিউরাল নেটওয়ার্কগুলিতে বায়াস নোড কেন ব্যবহার করা হয়?


29
  1. নিউরাল নেটওয়ার্কগুলিতে বায়াস নোড কেন ব্যবহার করা হয়?
  2. আপনার কতগুলি ব্যবহার করা উচিত?
  3. কোন স্তরগুলিতে আপনার সেগুলি ব্যবহার করা উচিত: সমস্ত লুকানো স্তর এবং আউটপুট স্তর?

1
এই ফোরামটির জন্য এই প্রশ্নটি কিছুটা বিস্তৃত। আমি মনে করি যে প্যাটার্ন রিকগনিশন বা হাগান নিউরাল নেটওয়ার্ক ডিজাইনের জন্য বিশপ নিউরাল নেটওয়ার্কগুলির মতো নিউরাল নেটওয়ার্কগুলি নিয়ে আলোচনা করা কোনও পাঠ্যপুস্তকের সাথে পরামর্শ করা ভাল ।
সাইকোরাক্স মনিকাকে

2
এফটিআর, আমি মনে করি এটি খুব বিস্তৃত নয়।
গুং - মনিকা পুনরায়

উত্তর:


24

নিউরাল নেটওয়ার্কের বায়াস নোড একটি নোড যা সর্বদা 'চালু থাকে'। অর্থাত, প্রদত্ত প্যাটার্নে ডেটা বিবেচনা না করে এর মান সেট করা আছে । এটি একটি রিগ্রেশন মডেলের ইন্টারসেপ্টের সাথে সাদৃশ্যপূর্ণ এবং একই ফাংশনটি সরবরাহ করে। যদি কোনও নিউরাল নেটওয়ার্কের একটি প্রদত্ত স্তরে বায়াস নোড না থাকে তবে এটি পরবর্তী স্তরটিতে আউটপুট উত্পাদন করতে সক্ষম হবে না যা 0 থেকে আলাদা হয় (লিনিয়ার স্কেলে, অথবা যে মানটি 0 এর রূপান্তরের সাথে মিলে যায় যখন পাস করা হয়) অ্যাক্টিভেশন ফাংশন) যখন বৈশিষ্ট্যের মান 0 হয়1000

এখানে চিত্র বর্ণনা লিখুন

একটি সাধারণ উদাহরণ বিবেচনা করুন: আপনার কাছে 2 ইনপুট নোড x 1 এবং x 2 , এবং 1 আউটপুট নোড y সহ ফিড ফরোয়ার্ড পার্সেপেট্রন রয়েছে । এক্স 1 এবং এক্স 2 বাইনারি বৈশিষ্ট্য এবং তাদের রেফারেন্স স্তরে সেট করা হয়, x 1 =এক্স1এক্স2Yএক্স1এক্স2 । গুন যারা 2 0 ', যাই হোক না কেন ওজন আপনার মত দ্বারা গুলি W 1 এবং W 2 , পণ্য যোগফল এবং যাই হোক না কেন অ্যাক্টিভেশন ফাংশন আপনি পছন্দ মাধ্যমে এটি পাস। বায়াস নোড ছাড়া, কেবলএকটি oneএক্স1=এক্স2=00W1W2আউটপুট মান সম্ভব, যা খুব খারাপ ফিট অর্জন করতে পারে। উদাহরণস্বরূপ, একটি লজিস্টিক অ্যাক্টিভেশন ফাংশন ব্যবহার করে, অবশ্যই 5 .5 হওয়া উচিত যা বিরল ইভেন্টগুলিকে শ্রেণিবদ্ধ করার জন্য ভয়াবহ হবে।Y.5

একটি বায়াস নোড নিউরাল নেটওয়ার্ক মডেলটিতে যথেষ্ট নমনীয়তা সরবরাহ করে। উপরের উদাহরণে উদাহরণ হিসাবে, বায়াস নোড ছাড়া সম্ভাব্য একমাত্র অনুমানের পরিমাণটি ছিল , তবে বায়াস নোডের সাথে, ( 0 , 1 ) এর যে কোনও অনুপাত x 1 = x 2 = 0 এর নিদর্শনগুলির জন্য উপযুক্ত হতে পারে । প্রতিটি স্তর জন্য, জে50%(0,1)এক্স1=এক্স2=0 , যা একটি পক্ষপাত নোড যোগ করা হয়, পক্ষপাত নোড যোগ হবে অতিরিক্তি প্যারামিটার / ওজন আনুমানিক করা (যেখানে এন + + 1 স্তরে নোড সংখ্যা এন+ +1এন+ +1 )। আরও পরামিতি লাগানো মানে নিউরাল নেটওয়ার্ক প্রশিক্ষণের জন্য আনুপাতিকভাবে বেশি সময় লাগবে। এটি ওভারফিট করার সম্ভাবনাও বাড়িয়ে তোলে, যদি আপনার শেখা ওজনের চেয়ে যথেষ্ট পরিমাণে ডেটা না থাকে। + +1

এই বোঝার বিষয়টি মাথায় রেখে আমরা আপনার স্পষ্ট প্রশ্নের উত্তর দিতে পারি:

  1. ডেটা মাপসই মডেলের নমনীয়তা বাড়াতে বায়াস নোড যুক্ত করা হয়। বিশেষত, যখন সমস্ত ইনপুট বৈশিষ্ট্যগুলি এর সমান হয় তখন এটি নেটওয়ার্ককে ডেটা ফিট করতে দেয় এবং খুব সম্ভবত ডেটা স্পেসের অন্য কোথাও লাগানো মানগুলির পক্ষপাত হ্রাস করে। 0
  2. সাধারণত, একটি ফিডফোর্ড নেটওয়ার্কে ইনপুট স্তর এবং প্রতিটি লুকানো স্তরের জন্য একটি একক বায়াস নোড যুক্ত করা হয়। আপনি কখনই কোনও প্রদত্ত স্তরে দুটি বা ততোধিক সংযোজন করবেন না, তবে আপনি শূন্য যোগ করতে পারেন। মোট বিবেচনাটি এইভাবে আপনার নেটওয়ার্কের কাঠামোর দ্বারা নির্ধারিত হয়, যদিও অন্যান্য বিবেচ্যতা প্রয়োগ করতে পারে। (ফিডফোরওয়ার্ড ব্যতীত নিউরাল নেটওয়ার্ক স্ট্রাকচারে কীভাবে পক্ষপাত নোড যুক্ত করা হয় সে সম্পর্কে আমি কম স্পষ্ট))
  3. বেশিরভাগ ক্ষেত্রে এটি আচ্ছাদিত করা হয়েছে তবে এটি স্পষ্ট করে বলা যায়: আপনি কখনই আউটপুট স্তরে বায়াস নোড যুক্ত করবেন না; যে কোন মানে হবে না।

সিএনএন কি এক্ষেত্রে আলাদা? যেহেতু আমি যখন আমার কনভের স্তরগুলিতে পক্ষপাতিত্ব যুক্ত করি তখন পারফরম্যান্স (নির্ভুলতা) হ্রাস পায়! এবং যখন আমি এগুলি সরিয়ে ফেলি, এটি আসলে উচ্চতর হয়!
রিকা

@ হোসেইন, আমি জানি না, তবে আপনি একটি নতুন প্রশ্ন জিজ্ঞাসা করতে পারেন। আমি সেখানে খুব বেশি বিশেষজ্ঞ নই।
গুং - মনিকা পুনরায়

আমার ইনপুটগুলি 0 এ না গেলে কি এখনও আমার পক্ষপাতিত্বের নোড লাগবে?
alec_djinn

1
@ আলেক_ডিজিন, হ্যাঁ আপনার অবশ্যই ইনপুট মানের জন্য 0 না থাকলেও প্রায় অবশ্যই মডেলটি তাদের ব্যতীত পক্ষপাতদুষ্ট হবে। সাদৃশ্য অনুসারে, এটি পড়তে সাহায্য করতে পারে: লিনিয়ার রিগ্রেশন মডেলটির ইন্টারসেপ্ট সরিয়ে ফেলা কখন ঠিক হবে?
গুং - মনিকা পুনরায় স্থাপন করুন

1
@ কৃপেশআনাডক্যাট, "নিউরাল নেটওয়ার্কের বায়াস নোড হ'ল নোড যা সর্বদা 'চালু' থাকে is অর্থ, প্রদত্ত প্যাটার্নে ডেটা বিবেচনা না করে এর মান 1 নির্ধারণ করা হয়।" সুতরাং আপনি যদি চান তবে আপনি সংযোগ স্থাপন করতে পারেন, ওজন দ্বারা গুণনের আগে নোডের ফলাফলের মানটি সর্বদা ফিরে যান , যেহেতু বায়াস নোড এমন নোড যার মান সর্বদা 1 থাকে1
গুং - মনিকা পুনরায়

2

সহজ, সংক্ষিপ্ত উত্তর:

  1. ইনপুট ফাংশনটি স্থানান্তর করতে / শিখে ফাংশনটি সম্পর্কে আরও নমনীয় হন।
  2. প্রতি স্তরে একটি একক পক্ষপাত নোড।
  3. এগুলি সমস্ত লুকানো স্তর এবং ইনপুট স্তরে যুক্ত করুন - কিছু পাদটীকা দিয়ে

আমার মাস্টার্স থিসিসের কয়েকটি পরীক্ষায় (উদাহরণস্বরূপ পৃষ্ঠা 59), আমি খুঁজে পেয়েছি যে পক্ষপাত প্রথম স্তর (গুলি) এর জন্য গুরুত্বপূর্ণ হতে পারে তবে বিশেষত সম্পূর্ণরূপে সংযুক্ত স্তরগুলিতে এটি কোনও বড় ভূমিকা পালন করবে না বলে মনে হয়। অতএব তাদের প্রথম কয়েকটি স্তরে থাকতে পারে এবং শেষেরগুলিতে নয়। কেবল কোনও নেটওয়ার্ককে প্রশিক্ষণ দিন, বায়াস নোডগুলির ওজন বিতরণের প্লট করুন এবং ওজনগুলি শূন্যের খুব কাছাকাছি মনে হয় তবে এগুলি ছাঁটাই করুন।

এটি নেটওয়ার্ক আর্কিটেকচার / ডেটাসেটের উপর নির্ভরশীল হতে পারে।


বায়াস নোডের কি পূর্ববর্তী স্তর থেকে এটিতে সংযোগ স্থাপন করা উচিত? অথবা এটি কেবলমাত্র সক্রিয়করণে উত্তোলিত ওজনের যোগফলের ওজনের সাথে এর মান "1" গুণ করে পরবর্তী স্তরতে অবদান রাখে। এর
উত্তরে

1
পক্ষপাতটি পরবর্তী স্তরগুলির সক্রিয়করণের জন্য কেবল একটি যুক্ত সংখ্যা। এটি দেখার জন্য একটি উপায় হ'ল 1পূর্ববর্তী স্তরে ধ্রুবক মান এবং পরবর্তী প্রতিটি স্তরীয় নিউরনের জন্য একটি ওজন (একটি পক্ষপাত মান)।
মার্টিন থোমা

2

নিউরাল নেটওয়ার্কগুলির প্রসঙ্গে, ব্যাচ নরমালাইজেশন হ'ল স্মার্ট "বায়াস নোডস" তৈরির জন্য সোনার মান। একটি নিউরনের পক্ষপাতিত্ব মান চাপড়ানোর পরিবর্তে, আপনি পরিবর্তে নিউরনের ইনপুট এর covariance জন্য সামঞ্জস্য করুন। সুতরাং একটি সিএনএন-তে আপনি কনভ্যুশনাল স্তর এবং পরবর্তী সম্পূর্ণ সংযুক্ত স্তরের (বলতে গেলে, রিলাস) মাঝামাঝি ব্যাচের সাধারণকরণ প্রয়োগ করবেন। তত্ত্ব অনুসারে, সমস্ত সম্পূর্ণ সংযুক্ত স্তরগুলি ব্যাচ নরমালাইজেশন থেকে উপকৃত হতে পারে তবে বাস্তবে এটি প্রয়োগ করা খুব ব্যয়বহুল হয়ে যায় কারণ প্রতিটি ব্যাচের সাধারণীকরণের নিজস্ব প্যারামিটার থাকে।

কেন সম্পর্কিত, ইতিমধ্যে বেশিরভাগ উত্তর ইতিমধ্যে ব্যাখ্যা করেছে যে, বিশেষত, নিউরনগুলি স্যাচুরেটেড গ্রেডিয়েন্টগুলির পক্ষে সংবেদনশীল যখন ইনপুটটি সক্রিয়করণটিকে চূড়ান্ত দিকে ঠেলে দেয়। রেলুর ক্ষেত্রে এটি 0 এর গ্রেডিয়েন্ট দিয়ে বাম দিকে ঠেলাঠেলি করা হবে general সাধারণভাবে, আপনি যখন কোনও মডেলকে প্রশিক্ষণ দেন, আপনি প্রথমে নিউরাল নেটওয়ার্কে ইনপুটগুলিকে স্বাভাবিক করেন। ব্যাচ স্বাভাবিক ইনপুট স্বাভাবিক একটি উপায় ভিতরে স্নায়ুর নেটওয়ার্ক, স্তর মধ্যে।

আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.