নিউরাল নেটওয়ার্কগুলিতে পক্ষপাতিত্বের ভূমিকা কী?


805

আমি গ্রেডিয়েন্ট বংশদ্ভুত এবং ব্যাক-প্রসারণ অ্যালগরিদম সম্পর্কে সচেতন। যা আমি পাই না তা হ'ল: কখন পক্ষপাতটি গুরুত্বপূর্ণ এবং আপনি এটি কীভাবে ব্যবহার করবেন?

উদাহরণস্বরূপ, ANDফাংশনটি ম্যাপিংয়ের সময় , আমি যখন 2 ইনপুট এবং 1 আউটপুট ব্যবহার করি তখন এটি সঠিক ওজন দেয় না, তবে আমি যখন 3 ইনপুট (যার মধ্যে 1 একটি পক্ষপাত) ব্যবহার করি তখন এটি সঠিক ওজন দেয়।


17
এই প্রশ্নটি দেখুন: স্ট্যাকওভারফ্লো / প্রশ্নগুলি / ১69 247৪২৪ / হেল্প- উইথ-সুপারিপট্রন একটি বাস্তব সমস্যার উদাহরণ হিসাবে যেখানে ওপি পক্ষপাতিত্ব শব্দটি ব্যবহার করছে না
আম্রো

6
পক্ষপাত কেন গুরুত্বপূর্ণ তা এর পাইথনের একটি চমৎকার উদাহরণ এখানে :) স্ট্যাকওভারফ্লো.com
খনিজগুলি

3
এখানে ব্যাকপ্রপ গণিত পূর্ণ একটি দুর্দান্ত নিবন্ধ রয়েছে, এছাড়াও পক্ষপাতিত্বের আপডেটগুলিও : েকে দেয়
অ্যান্ডি

উত্তর:


1358

আমি মনে করি যে পক্ষপাত প্রায় সবসময় সহায়ক। কার্যত, একটি পক্ষপাত মান আপনাকে অ্যাক্টিভেশন ফাংশনটি বাম বা ডানে স্থানান্তরিত করতে দেয় , যা সফল শেখার জন্য জটিল হতে পারে।

এটি একটি সহজ উদাহরণ তাকান সাহায্য করতে পারে। এই 1 ইনপুটটি বিবেচনা করুন, 1-আউটপুট নেটওয়ার্ক যার কোনও পক্ষপাত নেই:

সাধারণ নেটওয়ার্ক

নেটওয়ার্কের আউটপুটটি ওজন (ডাব্লু 0 ) দ্বারা ইনপুট (এক্স) গুন করে এবং কোনও ধরণের অ্যাক্টিভেশন ফাংশন (যেমন সিগময়েড ফাংশন function

এই নেটওয়ার্কটি এমন ফাংশনটি দেয় যা ডাব্লু 0 এর বিভিন্ন মানের জন্য গণনা করে :

নেটওয়ার্ক আউটপুট, বিভিন্ন ডাব্লু0 ওজন দেওয়া

ওজন ডাব্লু 0 পরিবর্তন করা মূলত সিগময়েডের "খাড়া" পরিবর্তন করে। এটি দরকারী, তবে আপনি যদি এক্সটি 2 করার সময় নেটওয়ার্কটি 0 আউটপুট করতে চান? কেবল সিগময়েডের খাড়াতা পরিবর্তন করা সত্যিই কাজ করবে না - আপনি পুরো বাঁকটিকে ডানে সরিয়ে দিতে সক্ষম হতে চান

পক্ষপাতিত্ব আপনাকে ঠিক তা করতে দেয়। আমরা যদি সেই নেটওয়ার্কটিতে পক্ষপাত যুক্ত করি তবে:

একটি পক্ষপাত সহ সহজ নেটওয়ার্ক

... তারপরে নেটওয়ার্কের আউটপুট সিগ হয়ে যায় (w 0 * x + w 1 * 1.0)। নেটওয়ার্কের আউটপুটটি ডাব্লু 1 এর বিভিন্ন মানের জন্য দেখতে কেমন :

নেটওয়ার্ক আউটপুট, বিভিন্ন ডাব্লু 1 ওজন দেওয়া

ডাব্লু 1 এর জন্য -5 এর ওজন হ'ল বাঁকটি ডানদিকে সরিয়ে দেয়, যা আমাদের এমন একটি নেটওয়ার্ক রাখতে দেয় যা এক্স 2 হলে 0 আউটপুট দেয়।


6
@ ব্যবহারকারী 1621769: সবচেয়ে সহজ পদ্ধতির একটি একক বায়াস নোডযুক্ত একটি নেটওয়ার্ক যা নেটওয়ার্কের সমস্ত নন-ইনপুট নোডের সাথে সংযুক্ত থাকে।
নাট কোহল

65
@ ব্যবহারকারী 1621769: পক্ষপাতিত্বের মূল কাজটি হ'ল প্রতিটি নোডকে একটি প্রশিক্ষণযোগ্য ধ্রুবক মান প্রদান করা (নোডের প্রাপ্ত সাধারণ ইনপুটগুলির সাথেও)। আপনি এটি অর্জন করতে পারেন যে এন নোডের সংযোগগুলির সাথে একটি একক পক্ষপাতী নোডের সাথে, বা এন বায়াস নোডের সাথে প্রতিটি একক সংযোগ সহ; ফলাফল একই হওয়া উচিত।
নাট কোহল

4
@ ইউজার 1621769: আপনি ওয়েটগুলি অ্যাকাউন্টে নিতে ব্যর্থ হতে পারেন? প্রতিটি সংযোগের একটি প্রশিক্ষণের যোগ্য ওজন থাকে এবং বায়াস নোডের একটি নির্দিষ্ট মান থাকে।
ডিম্পল

4
@ ব্যবহারকারী 132458, যদি প্রশিক্ষণ অ্যালগরিদমটি যদি নির্ধারণ করে যে আপনার পক্ষপাতদণ্ড শিফ্টের প্রয়োজন নেই, তবে পক্ষপাতদু ওজন সম্ভবত 0 এ পৌঁছে যাবে।
jorgenkg

8
@ গ্যাব্রিয়েল: লুকানো নিউরনের প্রতি একটি পক্ষপাত থাকতে হবে।

341

শুধু আমার দুটি সেন্ট যোগ করতে।

একটি সহজতর উপায় বুঝতে কি পক্ষপাত: এটি একরকম ধ্রুবক অনুরূপ একটি রৈখিক ফাংশন

y = কুড়াল + খ

এটি আপনাকে ডেটা দিয়ে ভবিষ্যদ্বাণী আরও ভালভাবে ফিট করার জন্য লাইনটি উপরে এবং নীচে সরানোর অনুমতি দেয়। ছাড়াই লাইন সর্বদা উত্সের মধ্য দিয়ে যায় (0, 0) এবং আপনি একটি দরিদ্র ফিট পেতে পারেন।


5
সুন্দর অ্যানোলজি তবে যদি আমরা পক্ষপাতদুষ্টতা 1 এ সেট করি তবে এখন প্রতিটি লাইনে (0,0) এর পরিবর্তে (0,1) এর মধ্য দিয়ে যাওয়া এখন কেন এটি ফিটের সাথে পৃথক হবে? সমস্ত লাইনে এখন y = 1 y = 0 এর পরিবর্তে কেন এটি সহায়ক?
নীল-আকাশ

36
@ নীল-আকাশ কারণ ওজন দ্বারা একটি পক্ষপাতিত্বকে গুণ করে, আপনি এটিকে নির্বিচারে পরিমাণে স্থানান্তর করতে পারেন।
কারসিজিনিট

3
একে ডাকতে সঠিক হয় একটি "সহগ"? একটি "সহগ" একটি সংখ্যাটি ভেরিয়েবলকে গুণ করতে ব্যবহৃত হয় না?
বেন

7
বি "সহগ" নয় বরং এটি বিরতি।
এস্পান্ত

22
খ $ x ^ 0 of এর সহগ হয় e a $ x ^ 1 $ এর সহগ

64

এই থ্রেডটি আমাকে সত্যই আমার নিজস্ব প্রকল্প বিকাশে সহায়তা করেছিল। এখানে আরও কয়েকটি চিত্র রয়েছে যা একটি দ্বি-ভেরিয়েবল রিগ্রেশন সমস্যায় পক্ষপাত ইউনিট সহ এবং না করে একটি সাধারণ 2-স্তর ফিড ফরোয়ার্ড নিউরাল নেটওয়ার্কের ফলাফল দেখায়। ওজন এলোমেলোভাবে শুরু হয় এবং স্ট্যান্ডার্ড রিলু অ্যাক্টিভেশন ব্যবহৃত হয়। আমার আগে উত্তরগুলি শেষ হওয়ার সাথে সাথে, পক্ষপাতিত্ব ছাড়া রেলু-নেটওয়ার্ক শূন্য থেকে (0,0) এ বিভ্রান্ত করতে সক্ষম হয় না।

এখানে চিত্র বর্ণনা লিখুন

এখানে চিত্র বর্ণনা লিখুন


1
অক্ষর লেবেলযুক্ত প্লট করা ফাংশনটি আপনি দয়া করে যুক্ত করতে পারেন?
কোমল-স্কাইনেট

46

একটি এএনএন প্রশিক্ষণ চলাকালীন দুটি বিভিন্ন ধরণের পরামিতি সামঞ্জস্য করা যেতে পারে, অ্যাক্টিভেশন ফাংশনগুলিতে ওজন এবং মান। এটি অবৈধ এবং এটি কেবলমাত্র পরামিতিগুলির মধ্যে একটি সমন্বয় করা সহজ হবে। এই সমস্যাটি মোকাবেলায় একটি পক্ষপাতী নিউরন উদ্ভাবিত হয়। বায়াস নিউরন একটি স্তরে থাকে, পরবর্তী স্তরের সমস্ত নিউরনের সাথে সংযুক্ত থাকে তবে পূর্ববর্তী স্তরের কোনওটিই থাকে না এবং এটি সর্বদা 1 অনুভূত হয়। যেহেতু পক্ষপাত নিউরন 1 টি ওজন নির্গত করে, বায়াস নিউরনের সাথে সংযুক্ত থাকে, সরাসরি যুক্ত হয় অ্যাক্টিভেশন ফাংশনগুলির টি-টির মতো অন্যান্য ওজনের সম্মিলিত সমষ্টি (সমীকরণ 2.1)) 1

এটি অযৌক্তিক হওয়ার কারণ হ'ল আপনি একই সাথে ওজন এবং মানকে সামঞ্জস্য করছেন, সুতরাং ওজনের যে কোনও পরিবর্তন পূর্বের ডেটা দৃষ্টান্তের জন্য দরকারী যে মূল্যটিতে পরিবর্তনকে নিরপেক্ষ করতে পারে ... পরিবর্তিত মান ছাড়াই বায়াস নিউরন যুক্ত করার অনুমতি দেয় আপনি স্তর আচরণ নিয়ন্ত্রণ করতে।

তদুপরি পক্ষপাত আপনাকে অনুরূপ ক্ষেত্রে প্রতিনিধিত্ব করতে একটি একক নিউরাল নেট ব্যবহার করতে দেয়। নিম্নলিখিত নিউরাল নেটওয়ার্ক দ্বারা প্রতিনিধিত্ব করা এবং বুলিয়ান ফাংশনটি বিবেচনা করুন:

ANN
(সূত্র: আইহরিজন ডটকম )

  • w0 সাথে সঙ্গতিপূর্ণ
  • W1 সাথে সঙ্গতিপূর্ণ X1
  • W2 সাথে সঙ্গতিপূর্ণ x2

অনেকগুলি বুলিয়ান ক্রিয়াকলাপ উপস্থাপন করতে একটি একক পার্সপেট্রন ব্যবহার করা যেতে পারে।

উদাহরণস্বরূপ, যদি আমরা 1 (সত্য) এবং -1 (মিথ্যা) এর বুলিয়ান মানগুলি ধরে নিই, তবে AND ফাংশনটি বাস্তবায়নের জন্য দ্বি-ইনপুট পার্সেপট্রন ব্যবহারের এক উপায় হ'ল w0 = -3, এবং w1 = w2 = সেট করা way .5। এই পার্সেপট্রনটি থ্রোসোল্ডটি w0 = -.3 এ পরিবর্তন করে OR ফাংশন উপস্থাপন করতে তৈরি করা যেতে পারে। প্রকৃতপক্ষে, এবং এবং ওআর-কে এম-অফ-এন ফাংশনগুলির বিশেষ কেস হিসাবে দেখা যেতে পারে: এটি এমন ফাংশন যেখানে কমপক্ষে এন পার্টসেপ্ট্রনের ইনপুটগুলি সত্য হওয়া উচিত। OR ফাংশনটি মি = 1 এবং AND ফাংশনটি মি = এন এর সাথে সম্পর্কিত। যে কোনও মি-অফ-এন ফাংশন সহজেই সমস্ত ইনপুট ওয়েট একই মান (যেমন, 0.5) সেট করে এবং তারপরে থ্রেশহোল্ড ডব্লিউ 0 সেট করে সহজেই পার্সপিট্রন ব্যবহার করে প্রতিনিধিত্ব করা হয়।

পারসেপ্টরনগুলি আদিম বুলেটিয়ান ফাংশনগুলির সমস্ত, এবং, ও, নান্দ (1 এবং), এবং উত্তর (1 বা) এর প্রতিনিধিত্ব করতে পারে। মেশিন লার্নিং- টম মিশেল)

প্রান্তিকতাটি বায়াস এবং ডাব্লু0 ওজন হ'ল বায়াস / থ্রেশহোল্ড নিউরনের সাথে যুক্ত।


8
এটিকে থাম্বের একটি সাধারণ নিয়ম হিসাবে ভাবেন: পক্ষপাত! নিউরাল নেটওয়ার্কগুলি একটি নির্দিষ্ট পরিমাণে "অপ্রত্যাশিত" তাই আপনি যদি কোনও পক্ষপাতিক নিউরন যুক্ত করেন তবে আপনি যদি দ্রুত পক্ষপাত ব্যবহার না করেন তবে দ্রুত সমাধানের সম্ভাবনা বেশি। অবশ্যই এটি গাণিতিকভাবে প্রমাণিত নয়, তবে এটি আমি সাহিত্যে এবং সাধারণ ব্যবহারে লক্ষ্য করেছি।
কিরিল

25

পক্ষপাত কোনও NNশব্দ নয়, বিবেচনা করার জন্য এটি একটি জেনেরিক বীজগণিত শব্দ।

Y = M*X + C (সরলরেখার সমীকরণ)

এখন যদি C(Bias) = 0তাই হয় তবে লাইনটি সর্বদা উত্সের মধ্য দিয়ে চলে যাবে, অর্থাত্‍ (0,0), এবং এটি কেবলমাত্র একটি প্যারামিটারের উপর নির্ভর করে M, যা opeাল, তাই আমাদের খেলতে কম জিনিস রয়েছে।

C, যা পক্ষপাত হ'ল কোনও সংখ্যা নেয় এবং গ্রাফটি স্থানান্তর করার ক্রিয়াকলাপ থাকে এবং তাই আরও জটিল পরিস্থিতিতে প্রতিনিধিত্ব করতে সক্ষম।

একটি লজিস্টিক রিগ্রেশনে, লক্ষ্যটির প্রত্যাশিত মানটিকে একটি লিঙ্ক ফাংশন দ্বারা এর মানটিকে ইউনিটের বিরতিতে সীমাবদ্ধ করতে রূপান্তরিত হয়। এইভাবে, মডেল পূর্বাভাসগুলি প্রাথমিক ফলাফলের সম্ভাব্যতা হিসাবে দেখানো যেতে পারে: উইকিপিডিয়ায় সিগময়েড ফাংশন

এটি এনএন মানচিত্রে চূড়ান্ত অ্যাক্টিভেশন স্তর যা নিউরনটি চালু এবং বন্ধ করে দেয়। এখানেও পক্ষপাতদুটির ভূমিকা রাখার ভূমিকা রয়েছে এবং এটি মডেলটি মানচিত্র করতে আমাদের সহায়তা করতে এটি বক্ররেখাকে নমনীয়ভাবে স্থানান্তরিত করে।


1
সুতরাং যখন পক্ষপাত ব্যবহার করা হয় না তখন স্নায়ু নেটওয়ার্ক ট্রেনিং / শেখার ক্ষেত্রে কোন সমস্যা দেখা দেয়?
দানিয়াল জাওয়াইদ

@ দানিয়াল জায়েদ এটি সমস্যা এবং সমস্যা নাও হতে পারে
প্রাদি কেএল

23

পক্ষপাতবিহীন নিউরাল নেটওয়ার্কের একটি স্তর ম্যাট্রিক্স সহ একটি ইনপুট ভেক্টরকে গুণ করা ছাড়া আর কিছুই নয়। (আউটপুট ভেক্টরটি সিগময়েড ক্রিয়াকলাপের মাধ্যমে সাধারণীকরণের জন্য এবং পরে বহু-স্তরযুক্ত এএনএন ব্যবহারের জন্য যেতে পারে তবে এটি গুরুত্বপূর্ণ নয়))

এর অর্থ হল যে আপনি একটি লিনিয়ার ফাংশন ব্যবহার করছেন এবং এইভাবে সমস্ত শূন্যের একটি ইনপুট সর্বদা সমস্ত শূন্যের আউটপুটে ম্যাপ করা হবে। এটি কিছু সিস্টেমের জন্য একটি যুক্তিসঙ্গত সমাধান হতে পারে তবে সাধারণভাবে এটি খুব সীমাবদ্ধ।

পক্ষপাতিত্ব ব্যবহার করে আপনি কার্যকরভাবে আপনার ইনপুট স্পেসে অন্য একটি মাত্রা যুক্ত করছেন, যা সর্বদা মানটি গ্রহণ করে, তাই আপনি সমস্ত শূন্যের একটি ইনপুট ভেক্টর এড়িয়ে চলেছেন। আপনি এর দ্বারা কোনও সাধারণতা হারাবেন না কারণ আপনার প্রশিক্ষিত ওজন ম্যাট্রিক্সকে সার্জেক্টিভ করার দরকার নেই, তাই এটি পূর্বে সম্ভব সমস্ত মানগুলিতে মানচিত্র তৈরি করতে পারে।

2 ডি এএনএন:

একটি এএনএন একটি মাত্রায় দুটি মাত্রা ম্যাপিংয়ের জন্য, যেমন AND বা OR (বা XOR) ফাংশনগুলি পুনরায় উত্পাদন করতে, আপনি নিম্নলিখিত হিসাবে কাজ করে নিউরোনাল নেটওয়ার্ক সম্পর্কে ভাবতে পারেন:

2 ডি প্লেনে ইনপুট ভেক্টরগুলির সমস্ত অবস্থান চিহ্নিত করুন। সুতরাং, বুলিয়ান মানগুলির জন্য, আপনি (-1, -1), (1,1), (-1,1), (1, -1) চিহ্নিত করতে চান। আপনার এএনএন এখন যা করে তা হ'ল ধনাত্মক আউটপুটটিকে নেতিবাচক আউটপুট মানকে আলাদা করে 2 ডি প্লেনে সোজা লাইন আঁকছে।

পক্ষপাতহীন, এই সরল রেখাটি শূন্যের মধ্য দিয়ে যেতে হবে, পক্ষপাত সহ, আপনি এটিকে যে কোনও জায়গায় রাখতে পারবেন না। সুতরাং, আপনি দেখতে পাবেন যে পক্ষপাতিত্ব ছাড়াই আপনি AND ফাংশনটিতে কোনও সমস্যার মুখোমুখি হচ্ছেন, যেহেতু আপনি উভয় (1, -1) এবং (-1,1) নেতিবাচক দিকটিতে রাখতে পারবেন না । (তারা হতে অনুমতি দেওয়া হয় না উপর লাইন।) সমস্যা বা ফাংশন জন্য সমান। পক্ষপাতিত্ব সহ, তবে লাইনটি আঁকানো সহজ।

মনে রাখবেন যে এই পরিস্থিতিতে XOR ক্রিয়াকলাপ এমনকি পক্ষপাতিত্বের সাথেও সমাধান করা যায় না।


4
আপনি যদি সিগময়েড ট্রান্সফার ফাংশন ব্যবহার করেন তবে আপনি অ-লিনিয়ারিটি প্রবর্তন করেন। এটি একটি লিনিয়ার ফাংশন উল্লেখ করে ভুল এবং একরকম বিপজ্জনক কারণ সিগময়েডের অ-লিনিয়ারিটি বেশ কয়েকটি সমস্যার সমাধানের মূল কারণ। এছাড়াও, সিগময়েড (0) = 0.5, এবং এমন কোনও এক্স নেই যার জন্য সিগময়েড (এক্স) = 0.
বায়ার

2
হ্যাঁ, তবে লিনিয়ার ফাংশনটির মতো দেখতে আগে নির্বিশেষে এটি কোনও পক্ষপাত ছাড়া 0 এর কোনও ইনপুটের জন্য 0.5 0.5 এবং যে বিষয়টি। আপনি সাধারণত আপনার সিগময়েড ফাংশনটি প্রশিক্ষণ দেন না, আপনি কেবল এটির সাথেই থাকেন। সিগময়েড ফাংশনের আগে লিনিয়ারিটি সমস্যাটি ভালভাবে ঘটে।
দেবিলস্কি

আমি আপনার বক্তব্যটি পেয়েছি: স্তরটি যেটির সাথে শুরু হয়েছিল তার চেয়ে 0 আলাদা আলাদা আউটপুট শিখতে সক্ষম নয়। এটা সঠিক এবং গুরুত্বপূর্ণ। তবে, "লিনিয়ার ফাংশন আর্গুমেন্ট" কেবল আমার মতে প্রযোজ্য নয়। এমনকি একটি পক্ষপাতিত্ব সহ, ফাংশনটি এখনও লিনিয়ার। লিনিয়ারিটি সম্পত্তি এখানে বিভ্রান্ত করছে। (হ্যাঁ, আমি সম্ভবত
নিটপিকিং করছি

আমি বলতে চাই, যে একটি পক্ষপাত সঙ্গে এটা অ্যাফিন । ( En.wikipedia.org/wiki/Affine_transformation#Representation )
Debilski

হ্যাঁ, আপনি ঠিক বলেছেন। আমাকে এই পার্থক্যটি নির্দেশ করার জন্য ধন্যবাদ। (আমরা তখন কেন একে লিনিয়ার রেগ্রেশন বলি, বিটিডব্লিউ, যদিও এটি অ্যাফাইন?)
বায়ার

20

আপনি যখন এএনএন ব্যবহার করেন, আপনি যে সিস্টেমগুলি শিখতে চান তার অভ্যন্তরগুলি সম্পর্কে খুব কমই জানেন। পক্ষপাতিত্ব ছাড়া কিছু জিনিস শেখা যায় না। উদাহরণস্বরূপ, নিম্নলিখিত ডেটাটি দেখুন: (0, 1), (1, 1), (2, 1), মূলত এমন একটি ফাংশন যা কোনও এক্স থেকে 1 এর মানচিত্র করে।

আপনার যদি একটি স্তরযুক্ত নেটওয়ার্ক (বা লিনিয়ার ম্যাপিং) থাকে তবে আপনি কোনও সমাধান খুঁজে পাবেন না। যাইহোক, যদি আপনার পক্ষপাত হয় তবে এটি তুচ্ছ!

একটি আদর্শ সেটিংয়ে, একটি পক্ষপাতদুটি লক্ষ্য পয়েন্টগুলির গড় পর্যন্ত সমস্ত পয়েন্টকে ম্যাপ করতে পারে এবং লুকানো নিউরনকে সেই বিন্দু থেকে পার্থক্যের মডেল করতে দেয়।


18

কেবলমাত্র নিউরন ওয়েটগুলির পরিবর্তন কেবল আপনার স্থানান্তর ফাংশনের আকৃতি / বক্ররেখা পরিচালনা করতে পারে, এবং এর ভারসাম্য / শূন্য ক্রসিং পয়েন্ট নয়।

পক্ষপাত নিউরনগুলির ভূমিকা আপনাকে আকার / বক্রতা আনলটার্ট ছাড়াকালীন ইনপুট অক্ষ বরাবর স্থানান্তর ফাংশন কার্ভ অনুভূমিকভাবে (বাম / ডান) স্থানান্তরিত করতে দেয়। এটি নেটওয়ার্ককে ডিফল্ট থেকে আলাদাভাবে স্বেচ্ছাসেবী আউটপুট উত্পাদন করতে দেয় এবং সেইজন্য আপনি আপনার নির্দিষ্ট প্রয়োজন অনুসারে ইনপুট-টু-আউটপুট ম্যাপিংকে কাস্টমাইজ / শিফট করতে পারেন।

গ্রাফিকাল ব্যাখ্যার জন্য এখানে দেখুন: http://www.heatonresearch.com/wiki/Bias


16

এই সমস্ত কিছু যুক্ত করার জন্য যা খুব বেশি অনুপস্থিত এবং যা সম্ভবত খুব সম্ভবত জানা ছিল না।

আপনি যদি চিত্রগুলির সাথে কাজ করছেন তবে আপনি সম্ভবত কোনও পক্ষপাতিত্ব ব্যবহার না করা পছন্দ করতে পারেন। তাত্ত্বিকভাবে, সেই চিত্রটি অন্ধকার, বা উজ্জ্বল এবং উজ্জ্বল কিনা সে হিসাবে আপনার নেটওয়ার্ক ডেটা প্রস্থের চেয়ে আরও স্বাধীন হবে। এবং নেট আপনার ডেটার অভ্যন্তরে আপেক্ষিকতা অধ্যয়নের মাধ্যমে এটি কাজ করতে শিখতে চলেছে। প্রচুর আধুনিক নিউরাল নেটওয়ার্ক এটি ব্যবহার করে।

অন্যান্য ডেটা বায়াসগুলি সমালোচনা করতে পারে be এটি নির্ভর করে আপনি কী ধরণের ডেটা নিয়ে কাজ করছেন। যদি আপনার তথ্যটি দৈর্ঘ্য-আক্রমণকারী হয় --- যদি [1,0,0.1] ইনপুট করা একই ফলাফলের দিকে নিয়ে যায় যেমন [100,0,10] ইনপুট করা হয় তবে আপনি পক্ষপাত ছাড়াই ভাল হতে পারেন।


আপনি সম্ভবত নরমালাইজেশন সঙ্গে ভাল। আধুনিক নেটওয়ার্কের উদাহরণ কী যা "পক্ষপাতের অভাব" ব্যবহার করে বিশালতা হ্রাস তৈরি করে?
0-09

@ অওকনকুনিং, আমি বিশ্বাস করি, সাধারণ রেসনেট এটি "আরম্ভের" অংশ হিসাবে এটি ব্যবহার করে, তবে আমি ঠিক নিশ্চিত নই যে তারা এ উদ্দেশ্যে কঠোরভাবে এই কাজটি করেছে, অথবা, সম্ভবত মডেলের আকার / দক্ষতার বিবেচনার জন্য এবং আমি ' আমি নিশ্চিত নই যে এই ধারণাটি কোথাও প্রকাশিত হয়েছে। তবে আমি মনে করি এটি একটি তত্ত্বের স্তরে সম্পূর্ণ বোধগম্য। যদি আপনার কোনও পক্ষপাত না থাকে যা স্কেল করে না, যখন আপনি মানগুলি স্কেল করেন, সমস্ত আউটপুট কেবল সেই অনুযায়ী স্কেল করে। এই ধারণা সম্পর্কে সচেতন, বা না, আধুনিক স্থাপত্যগুলির বৃহত অংশের কাঠামোর কমপক্ষে একটি বড় অংশে পক্ষপাতিত্ব নেই।
orhor Mé

16

আমার মাস্টার্স থিসিসের কয়েকটি পরীক্ষায় (উদাহরণস্বরূপ পৃষ্ঠা 59), আমি খুঁজে পেয়েছি যে পক্ষপাত প্রথম স্তর (গুলি) এর জন্য গুরুত্বপূর্ণ হতে পারে, তবে বিশেষত সম্পূর্ণরূপে সংযুক্ত স্তরগুলিতে এটি বড় ভূমিকা নিতে পারে না বলে মনে হয়।

এটি নেটওয়ার্ক আর্কিটেকচার / ডেটাসেটের উপর নির্ভরশীল হতে পারে।


এটি লিনিয়ার রিগ্রেশন সহ "হাত ধরে" মডেলিংয়ের প্রক্রিয়াটির সাথে সম্পূর্ণ অভিন্ন বলে মনে হচ্ছে। সবচেয়ে সহজ মডেলটি হবে Y_bar = গড় (Y)। তারপরে আপনি বিভিন্ন এক্স শর্তাদি অন্তর্ভুক্ত করে জটিলতা যুক্ত করেন, যখন কোনও উল্লেখযোগ্য তথ্য লাভ না হয় তখন থামিয়ে দিন।
আইআরটিএফএম

15

বায়াস সিদ্ধান্ত নেয় যে আপনি কতটা কোণে আপনার ওজনটি ঘোরতে চান।

দ্বিমাত্রিক চার্টে ওজন এবং পক্ষপাত আমাদের আউটপুটগুলির সিদ্ধান্তের সীমানা খুঁজে পেতে সহায়তা করে। বলুন আমাদের তৈরি এবং ফাংশন করা দরকার, ইনপুট (পি)-আউটপুট (টি) জোড়া হওয়া উচিত

{পি = [0,0], টি = 0}, {পি = [1,0], টি = 0}, {পি = [0,1], টি = 0}, {পি = [1,1] , টি = 1

এখানে চিত্র বর্ণনা লিখুন

এখন আমাদের সিদ্ধান্তের সীমানা সন্ধান করতে হবে, ধারণা সীমাটি হওয়া উচিত:

এখানে চিত্র বর্ণনা লিখুন

দেখা? ডব্লিউটি আমাদের সীমানায় লম্ব। সুতরাং, আমরা বলি ডাব্লু সীমানার দিকটি স্থির করে নিল।

তবে, প্রথমবারে সঠিক ডাব্লু খুঁজে পাওয়া শক্ত। বেশিরভাগ ক্ষেত্রে, আমরা এলোমেলোভাবে মূল ডাব্লু মান পছন্দ করি। সুতরাং, প্রথম সীমানা এটি হতে পারে: এখানে চিত্র বর্ণনা লিখুন

এখন সীমানা y অক্ষের প্যারেল্লার is

আমরা বাউন্ডারি ঘুরতে চাই, কীভাবে?

ডাব্লু পরিবর্তন করে।

সুতরাং, আমরা শেখার নিয়ম ফাংশনটি ব্যবহার করি: ডাব্লু '= ডাব্লু + পি: এখানে চিত্র বর্ণনা লিখুন

ডাব্লু '= ডাব্লু + পি ডাব্লু' = ডাব্লু + বিপি সমতুল্য, যখন বি = 1।

সুতরাং, বি (পক্ষপাত) এর মান পরিবর্তন করে আপনি ডাব্লু এবং ডব্লু এর মধ্যে কোণ নির্ধারণ করতে পারেন এটি "এএনএন শেখার নিয়ম"।

আপনি মার্টিন টি.হাগান / হাওয়ার্ড বি। ডেমুথ / মার্ক এইচ বিলে, চতুর্থ অধ্যায় "পারসেপ্ট্রন লার্নিং বিধি" দ্বারা নিউরাল নেটওয়ার্ক ডিজাইনও পড়তে পারেন


1
সহায়ক ব্যাখ্যা / চিত্র
জাভাদবা

10

বিশেষত, নেটের উত্তর , জাইফাইয়ের উত্তর এবং প্রাদির উত্তর দুর্দান্ত।

সহজ শর্তে, পক্ষপাতিত্ব আরও এবং আরও বিভিন্ন প্রকারের জন্য অনুমতি দেয় ওজনকে শিখতে / সঞ্চয় করতে দেয় ... ( পার্শ্ব-নোট : কখনও কখনও কিছু প্রান্তিকতা দেওয়া হয়)। যাইহোক, আরও বৈচিত্রের অর্থ হচ্ছে বায়াসগুলি মডেলের শিখানো / সঞ্চিত ওজনগুলিতে ইনপুট স্পেসের আরও বেশি উপস্থাপনা যুক্ত করে । (যেখানে আরও ভাল ওজন নিউরাল নেট এর অনুমান ক্ষমতা বাড়িয়ে তুলতে পারে)

উদাহরণস্বরূপ, শেখার মডেলগুলিতে, অনুমান / অনুমানগুলি অবশ্যই কিছু ইনপুট দেওয়া y = 0 বা y = 1 দ্বারা আবদ্ধ হয়, সম্ভবত কিছু শ্রেণিবিন্যাসের কার্যে ... যেমন কিছু x = (1,1) এর জন্য কিছু y = 0 এবং কিছু y = 1 কিছু x = (0,1) এর জন্য। (হাইপোথিসিস / ফলাফলের শর্তটি আমি উপরে উল্লিখিত প্রান্তিকতা that দ্রষ্টব্য যে আমার উদাহরণগুলি সেটআপটি X- কে প্রতিটি x = একটি ডাবল বা 2 মূল্যবান ভেক্টর হিসাবে রাখে, কিছু সংগ্রহের X এর একক মূল্যবান এক্স ইনপুটগুলির পরিবর্তে)।

আমরা যদি পক্ষপাতদুটি উপেক্ষা করি, অনেকগুলি উপকরণ সমান ওজন দ্বারা উপস্থাপিত হতে পারে (অর্থাত শিখানো ওজন বেশিরভাগ উত্সের কাছাকাছি হয় (0,0) The মডেলটি তখন ভাল ওজনের দরিদ্র পরিমাণে সীমাবদ্ধ থাকবে, আরও অনেক ভাল ওজনের পরিবর্তে এটি পক্ষপাতিত্বের সাথে আরও ভালভাবে শিখতে পারে Where (যেখানে খুব কম শেখা ওজনগুলি দরিদ্র অনুমান বা নিউরাল নেট অনুমানের ক্ষমতাকে কমিয়ে দেয়)

সুতরাং, এটি সর্বোত্তম যে মডেল উভয়ই উত্সের কাছাকাছি, তবে থ্রেশহোল্ড / সিদ্ধান্তের সীমানার ভিতরে যতগুলি সম্ভব স্থানেও শিখেছে। পক্ষপাতদুষ্ট দিয়ে আমরা উত্সের কাছাকাছি স্বাধীনতার ডিগ্রি সক্ষম করতে পারি তবে এটি উত্সের নিকটবর্তী অঞ্চলে সীমাবদ্ধ নয়।


9

@ জাইফাই ব্যাখ্যায় প্রসারিত হচ্ছে ... একটি ইনপুট, একটি নিউরন, একটি আউটপুট সমীকরণটি দেখতে হবে:

y = a * x + b * 1    and out = f(y)

যেখানে এক্স ইনপুট নোড থেকে মান এবং 1 হল বায়াস নোডের মান; y সরাসরি আপনার আউটপুট হতে পারে বা কোনও ফাংশনে যেতে পারে, প্রায়শই সিগময়েড ফাংশন। এছাড়াও লক্ষ করুন যে পক্ষপাতটি কোনও ধ্রুবক হতে পারে তবে সবকিছুকে সহজ করার জন্য আমরা সর্বদা 1 টি বাছাই করি (এবং সম্ভবত এটি এত সাধারণ যে @zfy এটি প্রদর্শন না করে এবং ব্যাখ্যা না করেই এটি করেছিলেন)।

আপনার নেটওয়ার্কটি আপনার ডেটাতে খাপ খাইয়ে নিতে সহগ এবং a এবং b শিখার চেষ্টা করছে। সুতরাং আপনি দেখতে পাচ্ছেন যে উপাদানটি যুক্ত করা কেন b * 1এটি আরও ডেটার সাথে আরও ভাল ফিট করতে দেয়: এখন আপনি opeাল এবং আটকানো উভয় পরিবর্তন করতে পারেন।

আপনার যদি একাধিক ইনপুট থাকে তবে আপনার সমীকরণটি দেখতে পাবেন:

y = a0 * x0 + a1 * x1 + ... + aN * 1

নোট করুন যে সমীকরণটি এখনও একটি নিউরন, একটি আউটপুট নেটওয়ার্ক বর্ণনা করে; আপনার যদি আরও নিউরোন থাকে তবে আপনি কেবল নোডেন ম্যাট্রিক্সে একটি মাত্রা যুক্ত করুন, সমস্ত নোডের ইনপুটগুলি মাল্টিপ্লেক্সে এবং প্রতিটি নোডের অবদানের যোগফল যোগ করেন।

যে হিসাবে আপনি ভেক্টরাইজড ফর্ম্যাটে লিখতে পারেন

A = [a0, a1, .., aN] , X = [x0, x1, ..., 1]
Y = A . XT

অর্থাত্ একটি অ্যারেতে সহগ এবং অন্য ইনপুট + বায়াস লাগানো আপনার দুটি পছন্দসই এর ডট পণ্য হিসাবে আপনার পছন্দসই সমাধান রয়েছে (আকৃতিটি সঠিক হওয়ার জন্য আপনাকে এক্স ট্রান্সপোস করা দরকার, আমি এক্সটি কে একটি 'এক্স ট্রান্সপোজড' লিখেছিলাম)

সুতরাং শেষ পর্যন্ত আপনি নিজের পক্ষপাতও দেখতে পাবেন যেমন আউটপুটটির অংশটিকে আপনার ইনপুট থেকে স্বতন্ত্রভাবে উপস্থাপন করতে কেবল আরও একটি ইনপুট।


আমি অ্যান্ড্রু এনজির ক্লাস থেকে মনে হচ্ছে যে প্রশিক্ষণ প্রক্রিয়া অংশে পক্ষপাতিত্ব বাদ ছিল। এটি "কেবলমাত্র অন্য একটি ইনপুট" হিসাবে উপসংহারটি বিবেচনা করে আপনি নিজের উত্তরটি আপডেট করতে পারবেন?
32-

@ অওককেন্নিং আমাকে অ্যান্ড্রু এনগের ক্লাস থেকে মনে নেই, তবে কয়েক বছর আগে এটি ছিল। এছাড়াও আপনি কী শিখতে চাইছেন তা নির্ভর করে বায়াস চালু বা বন্ধ হতে পারে। আমি পড়েছি যে চিত্র প্রক্রিয়াকরণে তারা স্কেলিংয়ের অনুমতি দেওয়ার জন্য এটি ব্যবহার করে না। আমার কাছে আপনি যদি এটি ব্যবহার করেন তবে আপনি এটি প্রশিক্ষণেও ব্যবহার করেন। প্রভাবগুলি সহ বা স্থির হয় যখন ইনপুটগুলির সমস্ত বা অংশ নাল বা প্রায় নাল হয়। প্রশিক্ষণের সময় আপনি পক্ষপাতিত্ব কেন ব্যবহার করবেন না এবং তারপরে নতুন ইনপুটগুলির আউটপুটগুলি পূর্বাভাস দেওয়ার জন্য এনএন ব্যবহার করবেন না কেন? কীভাবে এটি কার্যকর হতে পারে?
রবএমসিজেগ

না, এটি আরও ভালো লেগেছে, ফরোয়ার্ড পাসে এটি ব্যবহার করুন, তবে ব্যাকপ্রপের জন্য গ্রেডিয়েন্ট বা এটির মতো কিছু গণনার সময় ব্যবহার করবেন না।
18:37

@ অওককেন্নিং আমি মনে করি এটি কিছু স্মৃতি এবং সময় বাঁচানোর উপায়। আপনি সিদ্ধান্ত নিতে পারেন যে আপনি পক্ষপাতের ইউনিটগুলির জন্য সহগগুলি শেখার যত্ন নেই। এটি আপনার পক্ষে কমপক্ষে একটি গোপন স্তর থাকে তবে তা ঠিক হতে পারে কারণ পক্ষপাত সেই স্তরটিকে কিছু ইনপুট সরবরাহ করবে এবং আউটপুট সহগের দ্বারা প্রথম থেকে দ্বিতীয় স্তর পর্যন্ত শিখতে পারে। কনভার্জেন্সের গতি পরিবর্তন হবে কিনা তা আমি নিশ্চিত নই। আমার এক স্তরের উদাহরণে আপনি আউটপুটটিতে প্রয়োগ হওয়ার সাথে সাথে বায়াস সহগও শিখতে বাধ্য হন।
রবএমসিজেগ

অনেকগুলি সাধারণ সমস্যার মধ্যে, টার্গেটের ডেটাগুলি বিবেচ্য ও আকারযুক্ত করা হয়, সুতরাং কোনও পক্ষপাতের প্রয়োজন হয় না and এবং বড় পরিসীমাগুলির সাথে ভেরিয়েবলগুলিতে অতিরিক্ত বাহ্যিক প্রভাবের সম্ভাবনা হ্রাস পায়।
আইআরটিএফএম

9

উল্লিখিত উত্তর ব্যতীত..আমি আরও কিছু পয়েন্ট যুক্ত করতে চাই।

বায়াস আমাদের অ্যাঙ্কর হিসাবে কাজ করে। আমাদের এক ধরণের বেসলাইন রাখার উপায় এটি যেখানে আমরা এর নীচে যাই না। গ্রাফের ক্ষেত্রে, y = mx + b এর মতো ভাবুন এটি এই ফাংশনের y- ইন্টারসেপ্টের মতো।

আউটপুট = ইনপুট ওজনের মানকে বার করে দেয় এবং একটি পক্ষপাত মান যুক্ত করে এবং তারপরে একটি অ্যাক্টিভেশন ফাংশন প্রয়োগ করে।


8

সহজ উপায়ে চিন্তা করতে, আপনার যদি y = w1 * x থাকে যেখানে y আপনার আউটপুট এবং ডাব্লু 1 এর ওজন হ'ল এমন এক অবস্থার কল্পনা করুন যেখানে x = 0 তারপর y = w1 * x সমান 0 , আপনি যদি নিজের ওজন আপডেট করতে চান তবে ডেলউ = টার্গেট-ওয়াই দ্বারা লক্ষ্যমাত্রাটি আপনার টার্গেট আউটপুট যেখানে কত পরিবর্তন হয়েছে তা গণনা করতে , এই ক্ষেত্রে 'ডেলো' পরিবর্তন হবে না যেহেতু y কে 0 হিসাবে গণনা করা হয়েছে, সুতরাং ধরুন আপনি যদি কিছু অতিরিক্ত মান যোগ করতে পারেন তবে y = w1 সহায়তা করবে * x + w0 * 1 , যেখানে বায়াস = 1 এবং ওজন সঠিক বায়াস পেতে সামঞ্জস্য করা যায় below নীচের উদাহরণটি বিবেচনা করুন।

রেখার ক্ষেত্রে স্লোপ-ইন্টারসেপ্ট হ'ল লিনিয়ার সমীকরণের একটি নির্দিষ্ট রূপ।

Y = MX + খ

ছবিটি পরীক্ষা করুন

ভাবমূর্তি

এখানে খ (0,2)

আপনি যদি এটির (0,3) বাড়াতে চান তবে আপনি কীভাবে খ এর মান পরিবর্তন করে এটি করবেন যা আপনার পক্ষপাতিত্ব হবে


7

আমি অধ্যয়নরত সমস্ত এমএল বইগুলির জন্য ডাব্লু সর্বদা দুটি নিউরনের মধ্যে সংযোগ সূচক হিসাবে সংজ্ঞায়িত করা হয় যার অর্থ দুটি নিউরনের মধ্যে উচ্চতর সংযোগশীলতা, দৃ stronger়তর সংকেতগুলি ফায়ারিং নিউরন থেকে লক্ষ্য নিউরন বা ওয়াই = ডাব্লু * তে সঞ্চারিত হবে stronger নিউ নিউরনের জৈবিক চরিত্র বজায় রাখার জন্য এক্স হিসাবে আমাদের 1> = ডাব্লু> = -1 রাখা দরকার, তবে আসল প্রতিরোধে ডাব্লু | ডাব্লু | > = 1 যা নিউরনরা কীভাবে কাজ করছে তার সাথে বিরোধিতা করে, ফলস্বরূপ আমি ডাব্লু = কোস (থিটা) প্রস্তাব করি, যখন 1> = | cos (theta) | , এবং Y = a * X = W * X + b যখন a = b + W = b + cos (theta) হয়, খ পূর্ণসংখ্যা হয়


7

নিউরাল নেটওয়ার্কগুলিতে:

  1. প্রতিটি নিউরনের একটি পক্ষপাত রয়েছে
  2. আপনি পক্ষপাতটিকে থ্রেশহোল্ড হিসাবে দেখতে পারেন (সাধারণত প্রান্তিকের বিপরীত মান)
  3. ইনপুট স্তরগুলি থেকে ওজনযুক্ত সমষ্টি + পক্ষপাত নিউরনের সক্রিয়করণের সিদ্ধান্ত নেয়
  4. বায়াস মডেলের নমনীয়তা বাড়ায়।

পক্ষপাতের অনুপস্থিতিতে, ইনপুট স্তর থেকে কেবলমাত্র ওজনযুক্ত যোগফল বিবেচনা করে নিউরন সক্রিয় করা যাবে না। যদি নিউরনটি সক্রিয় না হয়, তবে এই নিউরন থেকে প্রাপ্ত তথ্যগুলি নিউরাল নেটওয়ার্কের বাকী অংশের মধ্য দিয়ে যায় না।

পক্ষপাতের মান শিখতে সক্ষম।

এখানে চিত্র বর্ণনা লিখুন

কার্যকরভাবে, পক্ষপাত = - প্রান্তিক। আপনি পক্ষপাত সম্পর্কে ভাবতে পারেন যে নিউরনের একটি 1 আউটপুট পাওয়া কত সহজ - সত্যই বড় পক্ষপাত সহ, নিউরনের পক্ষে একটি 1 আউটপুট করা খুব সহজ, তবে যদি পক্ষপাতটি খুব নেতিবাচক হয় তবে এটি কঠিন difficult

সংক্ষেপে: পক্ষপাত মানটি নিয়ন্ত্রণ করতে সহায়তা করে যেখানে অ্যাক্টিভেশন ফাংশনটি ট্রিগার করবে।

আরও তথ্যের জন্য এই ভিডিও অনুসরণ করুন

আরও কিছু দরকারী লিঙ্ক:

geeksforgeeks

towardsdatascience


1
সুন্দর ব্যাখ্যা। তবে পক্ষপাত কীভাবে শিখতে সক্ষম (বা প্রশিক্ষণযোগ্য?) তা আমি স্পষ্ট নই। একটি সাধারণ ক্ষেত্রে যেখানে লোকসান = আরএলইউ (ওমেগা * এক্স + এ), ওজন ওমেগাকে চেইন-রুলের মাধ্যমে প্রশিক্ষণ দেওয়া যেতে পারে, তবে aযখন গ্রেডিয়েন্ট aসবসময় ধ্রুব থাকে তখন পক্ষপাত কীভাবে প্রশিক্ষিত হতে পারে ?
লিবিন ওয়েইন

4

বায়াস ইন্টারসেপ্ট যেমন করে চূড়ান্ত আউটপুট ম্যাট্রিক্স সামঞ্জস্য করতে বায়াস শব্দটি ব্যবহৃত হয়। উদাহরণস্বরূপ, ক্লাসিক সমীকরণে, y = mx + c, যদি c = 0 হয় তবে লাইনটি সর্বদা 0 দিয়ে অতিক্রম করবে। পক্ষপাতিত্ব শব্দটি যুক্ত করা আমাদের নিউরাল নেটওয়ার্কের মডেলকে আরও নমনীয়তা এবং আরও ভাল জেনারালাইজেশন সরবরাহ করে।


0

সাধারণভাবে, মেশিন লার্নিংয়ে আমাদের এই বেস সূত্রটি বায়াস-ভারিয়েন্স ট্রেড অফ রয়েছে কারণ এনএন-তে আমাদের ওভারফিটিংয়ের সমস্যা রয়েছে (মডেল জেনারালাইজেশনের সমস্যা যেখানে ডেটাগুলিতে ছোট পরিবর্তনগুলি মডেলের ফলাফলের ক্ষেত্রে বড় পরিবর্তন আনতে পারে) এবং এর কারণেই আমাদের বড় বৈকল্পিক রয়েছে, একটি প্রবর্তন ছোট পক্ষপাত অনেক সাহায্য করতে পারে। বায়াস-ভেরিয়েন্স ট্রেড অফের উপরে সূত্র বিবেচনা করে , যেখানে পক্ষপাতিত্ব বর্গক্ষেত্রযুক্ত , তাই ছোট পক্ষপাত প্রবর্তন করলে বৈকল্পিকতা অনেকটা হ্রাস পেতে পারে। সুতরাং, পক্ষপাতিত্ব পরিচয় করান, যখন আপনার মধ্যে বড় বৈকল্পিক এবং অতিমাত্রায় বিপদ থাকে।


3
বায়াস ইউনিট এবং বায়াস-ভেরিয়েন্স ট্রেড অফ পৃথক ধারণা। প্রশ্নটি প্রাক্তন সম্পর্কে।
সিগম্যাক্স

0

পক্ষপাতটি আরও ভাল সমীকরণ পেতে সহায়তা করে

কোনও ফাংশনের মতো ইনপুট এবং আউটপুটটি কল্পনা করুন এবং y = ax + bপ্রতিটি পয়েন্ট এবং লাইনের মধ্যে বিশ্বব্যাপী ত্রুটি হ্রাস করার জন্য আপনাকে ইনপুট (এক্স) এবং আউটপুট (y) এর মধ্যে সঠিক লাইন স্থাপন করতে হবে, যদি আপনি এই সমীকরণটি রাখেন তবে আপনার y = axঅবশ্যই শুধুমাত্র অভিযোজনের জন্য একটি প্যারামিটার, এমনকি যদি আপনি aবিশ্বব্যাপী ত্রুটিটি সবচেয়ে ভাল হ্রাস করতে পারেন তবে এটি পছন্দসই মান থেকে দূরে থাকবে kind

আপনি বলতে পারেন যে পক্ষপাতটি সর্বোত্তম মানগুলির সাথে মানিয়ে নেওয়ার জন্য সমীকরণটিকে আরও নমনীয় করে তোলে

আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.