পার্সেপট্রন বিধি থেকে গ্রেডিয়েন্ট বংশোদ্ভূত: সিগময়েড অ্যাক্টিভেশন ফাংশন সহ পার্সেপ্টরন কীভাবে লজিস্টিক রিগ্রেশন থেকে আলাদা?


21

মূলত, আমার প্রশ্নটি হ'ল মাল্টিলেয়ার পারসেপ্ট্রনগুলিতে পার্সেপট্রনগুলি সিগময়েড অ্যাক্টিভেশন ফাংশন সহ ব্যবহৃত হয়। যাতে আপডেটের নিয়মে হিসাবে গণনা করা হয়y^

y^=11+exp(wTxi)

এই "সিগময়েড" পারসেপ্ট্রন তখন লজিস্টিক রিগ্রেশন থেকে কীভাবে আলাদা?

আমি বলব যে একটি একক স্তর সিগময়েড পার্সেপট্রন লজিস্টিক রিগ্রেশনের সমান, এই অর্থে যে উভয়ই আপডেট নিয়মে। এছাড়াও, উভয়ই পূর্বাভাসে করে। তবে মাল্টিলেয়ার পারসেপ্ট্রনগুলিতে সিগময়েড অ্যাক্টিভেশন ফাংশনটি লজিস্টিক রিগ্রেশন এবং একটি একক-স্তর পারসেপ্ট্রনের বিপরীতে কোনও অন অফ সিগন্যাল নয়, সম্ভাব্যতা ফিরিয়ে আনতে ব্যবহৃত হয়।y^=11+exp(wTxi)sign(y^=11+exp(wTxi))

আমি মনে করি "পারসেপ্ট্রন" শব্দটির ব্যবহারটি কিছুটা অস্পষ্ট হতে পারে, সুতরাং আমাকে একক-স্তর পার্সেপ্টরন সম্পর্কে আমার বর্তমান বোঝার উপর ভিত্তি করে কিছু ব্যাকগ্রাউন্ড সরবরাহ করতে দিন:

ক্লাসিক পারসেপ্ট্রন নিয়ম

প্রথমত, এফ রোজেনব্ল্যাট দ্বারা ক্লাসিক অনুধাবন যেখানে আমাদের একটি পদক্ষেপ রয়েছে:

Δwd=η(yiyi^)xidyi,yi^{1,1}

ওজন আপডেট করতে

wk:=wk+Δwk(k{1,...,d})

যাতে as হিসাবে গণনা করা হয়y^

y^=sign(wTxi)=sign(w0+w1xi1+...+wdxid)


গ্রেডিয়েন্ট বংশোদ্ভূত

গ্রেডিয়েন্ট বংশদ্ভুত ব্যবহার করে, আমরা ব্যয়টির কার্যকারিতাটি অনুকূলকরণ (ছোট করে) করব

J(w)=i12(yiyi^)2yi,yi^R

যেখানে আমাদের "প্রকৃত" সংখ্যা রয়েছে, তাই আমি আমাদের শ্রেণিবিন্যাসের আউটপুট থ্রেশহোল্ডের পার্থক্যের সাথে লিনিয়ার রিগ্রেশনটির সাথে এটি মূলত অভিন্ন দেখি।

এখানে, আমরা যখন ওজন আপডেট করি তখন গ্রেডিয়েন্টের নেতিবাচক দিকের দিকে পদক্ষেপ নিই

Δwk=ηJwk=ηi(yiyi^)(xik)=ηi(yiyi^)xik

তবে এখানে, আমাদের পরিবর্তেy^=wTxiy^=sign(wTxi)

wk:=wk+Δwk(k{1,...,d})

এছাড়াও, আমরা ক্লাসিক পার্সেপট্রন নিয়মের বিপরীতে পুরো প্রশিক্ষণ ডেটাসেটের (ব্যাচ লার্নিং মোডে) সম্পূর্ণ পাসের জন্য স্কোয়ার ত্রুটির সমষ্টি গণনা করি যা নতুন প্রশিক্ষণের নমুনাগুলি আসার সাথে সাথে ওজনকে আপডেট করে (স্টোকাস্টিক গ্রেডিয়েন্ট বংশোদ্ভূত - অ্যানালগ শেখার)।


সিগময়েড অ্যাক্টিভেশন ফাংশন

এখন, এখানে আমার প্রশ্ন:

মাল্টিলেয়ার পারসেপ্ট্রনগুলিতে পার্সেসেপ্টরনগুলি সিগময়েড অ্যাক্টিভেশন ফাংশন সহ ব্যবহৃত হয়। যাতে আপডেটের নিয়মে হিসাবে গণনা করা হয়y^

y^=11+exp(wTxi)

এই "সিগময়েড" পারসেপ্ট্রন তখন লজিস্টিক রিগ্রেশন থেকে কীভাবে আলাদা?


4
আশ্চর্যজনকভাবে, এই প্রশ্নটি আমাকে নিজেই আমার মেশিন লার্নিং এবং নিউরাল নেট বেসিকগুলি ঘনীভূত করার অনুমতি দিয়েছে!
varun

উত্তর:


4

গ্রেডিয়েন্ট বংশদ্ভুত ব্যবহার করে, আমরা ব্যয়টির কার্যকারিতাটি অনুকূলকরণ (ছোট করে) করব

J(w)=i12(yiyi^)2yi,yi^R

যদি আপনি গড় স্কোয়ার ত্রুটিটি হ্রাস করেন তবে এটি লজিস্টিক রিগ্রেশন থেকে আলাদা। লজিস্টিক রিগ্রেশন সাধারণত ক্রস এনট্রপি হ্রাসের সাথে সম্পর্কিত, এখানে সাইকিট-লার্ন লাইব্রেরির একটি সূচনা পৃষ্ঠা রয়েছে ।


(আমি ধরে নেব মাল্টিলেয়ার পারসেপ্টরন একই জিনিসকে নিউরাল নেটওয়ার্ক বলে।

যদি আপনি একক-স্তরীয় নিউরাল নেটওয়ার্কের জন্য ক্রস এনট্রপি ক্ষতি (নিয়মিতকরণের) ব্যবহার করেন তবে এটি লজিস্টিক রিগ্রেশন হিসাবে একই মডেল (লগ-লিনিয়ার মডেল) হতে চলেছে। আপনি যদি এর পরিবর্তে কোনও মাল্টি-লেয়ার নেটওয়ার্ক ব্যবহার করেন তবে এটি প্যারামেট্রিক ননলাইনার ভিত্তিক ফাংশনগুলির সাথে লজিস্টিক রিগ্রেশন হিসাবে ভাবা যেতে পারে।


তবে মাল্টিলেয়ার পারসেপ্ট্রনগুলিতে সিগময়েড অ্যাক্টিভেশন ফাংশনটি লজিস্টিক রিগ্রেশন এবং একটি একক-স্তর পারসেপ্ট্রনের বিপরীতে কোনও অন অফ সিগন্যাল নয়, সম্ভাব্যতা ফিরিয়ে আনতে ব্যবহৃত হয়।

সিগময়েড অ্যাক্টিভেশন ফাংশন সহ লজিস্টিক রিগ্রেশন এবং নিউরাল নেটওয়ার্ক উভয়ের আউটপুট সম্ভাব্যতা হিসাবে ব্যাখ্যা করা যেতে পারে। যেহেতু ক্রস এন্ট্রপি ক্ষতি আসলে বার্নোল্লি বিতরণের মাধ্যমে সংজ্ঞাযুক্ত নেতিবাচক লগ সম্ভাবনা।


2

কারণ গ্রেডিয়েন্ট বংশোদ্ভূত প্রতিটি প্যারামিটারকে এমনভাবে আপডেট করে যে এটি আউটপুট ত্রুটি হ্রাস করে যা অবশ্যই সমস্ত পরামিতিগুলির ক্রিয়াকলাপ অব্যাহত রাখতে হবে। থ্রেশহোল্ড ভিত্তিক অ্যাক্টিভেশন পার্থক্যযোগ্য নয় এজন্য সিগময়েড বা তানহ অ্যাক্টিভেশন ব্যবহৃত হয়।

এখানে একটি একক স্তর এনএন

dJ(w,b)dωkj=dJ(w,b)dzkdzkdωkj

জে(W,)z- র=(একটি-Y)(একটি(1-একটি))

z- রω=এক্স

জে(W,)=12(Y-একটি)2

একটি=গুলিআমিমি(z- র)=গুলিআমিমি(ওয়াট*এক্স+ +)

জেz- র

এখানে একটি লিঙ্ক রয়েছে যা এটি সাধারণভাবে ব্যাখ্যা করে।

সম্পাদনা: হতে পারে, পারসেপ্ট্রনের মাধ্যমে আপনি কী বোঝাতে চেয়েছেন তা আমি ভুল বুঝেছি। যদি আমি ভুল না হয়ে থাকি তবে পার্সেপট্রনকে ইনপুটগুলির যোগফলের ওজন দেওয়া হয়। আপনি যদি লজিস্টিক ফাংশন সহ থ্রোলডিং পরিবর্তন করেন তবে এটি লজিস্টিক রিগ্রেশন-এ পরিণত হয়। সিগময়েড (লজিস্টিক) অ্যাক্টিভেশন ফাংশন সহ মাল্টি-লেয়ার এনএন হ'ল লজিস্টিক রিগ্রেশনগুলির সমন্বয়ে গঠিত ক্যাসকেড স্তরগুলি।


3
এটি প্রশ্নের উত্তর দেয় না।
নীল জি

এই দুর্দান্ত মন্তব্যটি লেখার জন্য ধন্যবাদ, তবে এটি আমি যা চেয়েছিলাম তা ছিল না। আমার প্রশ্নটি "কেন গ্রেডিয়েন্ট বংশোদ্ভূত" ছিল না তবে "সিগময়েড অ্যাক্টিভেশন ফাংশনটির মাধ্যমে

Y=ওয়াটটিএক্স

1
Y=Wটিএক্সআমি

η(Y-গুলিআমিএন(Wটিএক্সআমি))এক্সη(Y-Wটিএক্সআমি)এক্সআমি

2

স্বজ্ঞাতভাবে, আমি আমার ইনপুট বৈশিষ্ট্যগুলিতে ননলাইনার ট্রান্সফর্মেশন গণনা হিসাবে মাল্টিলেয়ার পারসেপ্ট্রনের কথা ভাবি এবং তারপরে এই রূপান্তরিত ভেরিয়েবলগুলিকে লজিস্টিক রিগ্রেশন হিসাবে খাওয়াই।

βআমিএক্সআমিβআমিএক্সΣβএক্স

আমি আপনার সম্পর্কে জানি না, তবে আমার মডেলিং কোর্স এবং গবেষণায়, আমি তাদের তাত্পর্য এবং সামগ্রিক মডেল পূর্বাভাস উন্নত করতে ইনপুট বৈশিষ্ট্যের সমস্ত ধরণের বুদ্ধিমান এবং বোকা রূপান্তর চেষ্টা করেছি tried জিনিস স্কোয়ার করা, লগগুলি নেওয়া, দুটি হারকে একত্রিত করা ইত্যাদি etc. আমার কোনও লজ্জা নেই, তবে আমার ধৈর্য সীমিত ছিল।

এক্সβআমি

আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.