আমার পিএইচডি গবেষণার বিষয়টি হ'ল এক বা দুটি লুকানো স্তর সহ নিউরাল নেটওয়ার্কগুলির ব্ল্যাক-বক্স বৈশিষ্ট্যগুলি বিশেষত ফিড-ফরোয়ার্ড নিউরাল নেটওয়ার্কগুলি প্রকাশ করা।
ওয়ান এবং বায়াস শর্তাবলী কী বোঝায় তা এক স্তরের ফিড-ফরোয়ার্ড নিউরাল নেটওয়ার্কে প্রত্যেককে বোঝানোর জন্য আমি চ্যালেঞ্জটি গ্রহণ করব। দুটি পৃথক দৃষ্টিকোণকে সম্বোধন করা হবে: একটি প্যারামেট্রিক এবং একটি সম্ভাব্য।
নিম্নলিখিতটিতে, আমি ধরে নিচ্ছি যে প্রতিটি ইনপুট নিউরনের সরবরাহ করা ইনপুট মানগুলি সমস্ত ( ) দ্বারা ব্যবধানে (0,1) স্বাভাবিক করা হয়েছে , যেখানে দুটি সহগ এবং প্রতিটি ইনপুট ভেরিয়েবল হিসাবে বেছে নেওয়া হয়, যেমন । আমি আসল-সংখ্যাযুক্ত ভেরিয়েবল এবং গণিত ভেরিয়েবলগুলির মধ্যে একটি বিশেষ পার্থক্য তৈরি করেছি (একটি বিশেষ ক্ষেত্রে উল্লিখিত ভেরিয়েবল হিসাবে বুলিয়ান ভেরিয়েবল সহ):xinput=α⋅x+βαβxinput∈(0,1)
- লিনিয়ার স্কেলিংয়ের পরে একটি আসল সংখ্যাযুক্ত ভেরিয়েবল এবং মধ্যে দশমিক সংখ্যা হিসাবে সরবরাহ করা হয় ।01
- একটি গণিত পরিবর্তনশীল, সপ্তাহের দিন (সোমবার, মঙ্গলবার, ইত্যাদি) দ্বারা প্রতিনিধিত্ব করা হয় নিতে সঙ্গে, ইনপুট নোড , enurable ফলাফল সংখ্যা, অর্থাত হচ্ছে এক সপ্তাহের মধ্যে দিনের সংখ্যা জন্য।vv7
ইনপুট স্তরের ওজনগুলির (পরম মান) আকারটি ব্যাখ্যা করতে সক্ষম হওয়ার জন্য আপনার ইনপুট ডেটার যেমন প্রতিনিধিত্ব প্রয়োজন।
প্যারামেট্রিক অর্থ:
- বৃহত্তর পরম মান ওজন একটি ইনপুট স্নায়ুর এবং একটি লুকানো স্নায়ুর মধ্যে, আরো গুরুত্বপূর্ণ পরিবর্তনশীল যে, ঐ বিশেষ লুকানো নোডের 'fireing' এর জন্য। কাছাকাছি ওজন
নির্দেশ করে যে একটি ইনপুট মান অপেক্ষাকৃত ভাল। 0
- কোনও আড়াল নোড থেকে আউটপুট নোড পর্যন্ত ওজন নির্দেশ করে যে ইনপুট ভেরিয়েবলগুলির ভারিত প্রশস্তকরণ যা নিখুঁত অর্থে সেই লুকানো নিউরনের দ্বারা প্রসারিত হয়, তারা নির্দিষ্ট আউটপুট নোডকে প্রচার বা স্যাঁতসেঁতে দেয়। ওজনের চিহ্নটি পদোন্নতি (ধনাত্মক) বা বাধা (negativeণাত্মক) নির্দেশ করে।
- নিউরাল নেটওয়ার্কের প্যারামিটারগুলিতে স্পষ্টভাবে প্রতিনিধিত্ব না করা তৃতীয় অংশটি হ'ল ইনপুট ভেরিয়েবলগুলির মাল্টিভারিয়েট বিতরণ। এটি হ'ল কতবার ঘটে যায় যে ইনপুট নোড - লুকানো নোড সত্যই বড় ওজন সহ ?132
- পক্ষপাতিত্ব শব্দটি কেবল একটি অনুবাদ ধ্রুবক যা কোনও লুকানো (বা আউটপুট) নিউরনের গড় পরিবর্তন করে। এটি উপরে উপস্থাপিত শিফট- মতো কাজ করে ।β
একটি আউটপুট নিউরন থেকে ফিরে যুক্তি : কোন লুকানো নিউরনগুলির আউটপুট নিউরনের সংযোগের ক্ষেত্রে সর্বাধিক পরম ওজনের মান রয়েছে? প্রতিটি লুকানো নোডের সক্রিয়তা কত ঘন ঘন কাছাকাছি হয়ে যায় (সিগময়েড অ্যাক্টিভেশন কার্যগুলি গ্রহণ করে)। আমি ফ্রিকোয়েন্সি সম্পর্কে বলছি, প্রশিক্ষণের সেট উপর পরিমাপ। ভালো হবে: ফ্রিকোয়েন্সি যা দিয়ে লুকানো নোড কি এবং , ইনপুট ভেরিয়েবল বড় ওজন সঙ্গে এবং , যে এই গোপন নোড এবং কাছাকাছি1iltsil1? প্রতিটি লুকানো নোড সংজ্ঞা অনুসারে এর ইনপুট মানগুলির একটি ভারিত গড় প্রচার করে। প্রতিটি লুকানো নোড মূলত কোন ইনপুট ভেরিয়েবলগুলি প্রচার করে - বা বাধা দেয়? এছাড়াও অনেক কিছু ব্যাখ্যা করে, ওজনগুলির মধ্যে পার্থক্যের পার্থক্য যা লুকানো নোড থেকে দুটি আউটপুট নোডে ফ্যান আউট এবং ।Δj,k=∣wi,j−wi,k∣ijk
আরও গুরুত্বপূর্ণ লুকানো নোডগুলি একটি আউটপুট নোডের জন্য (ট্রেনিংয়ের উপর দিয়ে ফ্রিকোয়েন্সিতে কথা বলা), কোন 'ইনপুট ওয়েটের বার ইনপুট ফ্রিকোয়েন্সি' সবচেয়ে গুরুত্বপূর্ণ? তারপরে আমরা ফিড-ফরোয়ার্ড নিউরাল নেটওয়ার্কগুলির পরামিতিগুলির তাত্পর্যটি বন্ধ করে দিই।
সম্ভাব্য ব্যাখ্যা:
সম্ভাব্য দৃষ্টিভঙ্গির অর্থ একটি শ্রেণিবিন্যাস নিউরাল নেটওয়ার্ককে বয়েস শ্রেণিবদ্ধ হিসাবে বিবেচনা করা (তাত্ত্বিকভাবে সংজ্ঞায়িত সর্বনিম্ন ত্রুটি-হার সহ অনুকূল শ্রেণিবদ্ধ)। কোন ইনপুট ভেরিয়েবলের নিউরাল নেটওয়ার্কের ফলাফলের উপর প্রভাব রয়েছে - এবং কতবার? এটি একটি সম্ভাব্য সংবেদনশীলতা বিশ্লেষণ হিসাবে বিবেচনা করুন। একটি ইনপুট ভেরিয়েবলের পরিবর্তিতকরণের ফলে কতগুলি পৃথক শ্রেণিবিন্যাস হতে পারে? কতবার করে ইনপুট স্নায়ুর আছে সম্ভাব্য প্রভাব যা শ্রেণীবিন্যাস ফলাফল, সম্ভবত হয়ে implying যে সংশ্লিষ্ট আউটপুট স্নায়ুর সর্বোচ্চ মান অর্জন করা?xinput
স্বতন্ত্র কেস - প্যাটার্ন
যখন একটি আসল সংখ্যাযুক্ত ইনপুট নিউরন পরিবর্তিত হয় খুব সম্ভবত শ্রেণিবিন্যাস পরিবর্তিত হতে পারে, আমরা বলি যে এই পরিবর্তনশীলটির সম্ভাব্য প্রভাব রয়েছে । একটি গণিত ভেরিয়েবলের ফলাফলের পরিবর্তনের সময় (সোমবার থেকে মঙ্গলবার বা অন্য কোনও সপ্তাহের দিন পরিবর্তনের জন্য) ), এবং সর্বাধিক সম্ভাব্য ফলাফল পরিবর্তন হয়, তারপরে সেই গণিতের পরিবর্তনশীল শ্রেণিবিন্যাসের ফলাফলের উপর সম্ভাব্য প্রভাব ফেলে।xinput[1,0,0,0,0,0,0][0,1,0,0,0,0,0]
যখন আমরা এখন সেই পরিবর্তনের সম্ভাবনাটি অ্যাকাউন্টে নিয়ে যাই, তখন আমরা প্রত্যাশিত প্রভাবের কথা বলি । অন্যান্য ইনপুটগুলির মানগুলি দিয়ে একটি ইনপুট কেস পরিবর্তিত ফলাফল পরিবর্তিত ইনপুট ভেরিয়েবল করার সম্ভাবনা কী ? প্রত্যাশিত প্রভাব বোঝায় প্রত্যাশিত মান , এর , যথা । এখানে সমস্ত ইনপুট মান ভেক্টর, ইনপুট থেকে ছাড়া হয় । মনে রাখবেন যে একটি এনুমারেটেড ভেরিয়েবলটি বেশ কয়েকটি ইনপুট নিউরন দ্বারা প্রতিনিধিত্ব করা হয়। এই সম্ভাব্য ফলাফলগুলি এখানে একটি পরিবর্তনশীল হিসাবে বিবেচিত হয়। এক্স আমি এন পি ইউ টি ই ( এক্স আমি এন পি ইউ টি | এক্স - আমি এন পি ইউ টি ) এক্স - আমি এন পি ইউ টি এক্স আমি এন পি ইউ টিxinputxinputE(xinput∣x−input)x−inputxinput
গভীর হেলান দেওয়া - এবং এনএন পরামিতিগুলির অর্থ
কম্পিউটার দর্শনে প্রয়োগ করা হলে, নিউরাল নেটওয়ার্কগুলি গত দশকে উল্লেখযোগ্য অগ্রগতি দেখিয়েছে। 1989 সালে লেকন দ্বারা প্রবর্তিত কনভোলশনাল নিউরাল নেটওয়ার্কগুলি চিত্রের স্বীকৃতির ক্ষেত্রে অবশেষে সত্যই দুর্দান্ত পারফরম্যান্সে পরিণত হয়েছে। জানা গেছে যে তারা বেশিরভাগ কম্পিউটার-ভিত্তিক স্বীকৃতি পদ্ধতিকে ছাড়িয়ে যেতে পারে।
আকর্ষণীয় উত্থাপিত বৈশিষ্ট্যগুলি উপস্থিত হয় যখন কনভ্যুশনাল নিউরাল নেটওয়ার্কগুলি অবজেক্টের স্বীকৃতির জন্য প্রশিক্ষণ দেওয়া হয়। লুকানো নোডগুলির প্রথম স্তরটি নিম্ন-স্তরের বৈশিষ্ট্য সনাক্তকারীকে উপস্থাপন করে, স্কেল-স্পেস অপারেটর টি। লিন্ডবার্গের মতো, স্বয়ংক্রিয় স্কেল নির্বাচনের সাথে বৈশিষ্ট্য সনাক্তকরণ, 1998 । এই স্কেল-স্পেস অপারেটরগুলি সনাক্ত করে
- লাইন,
- কোণ,
- টি-সংযোগস্থলের
এবং কিছু অন্যান্য প্রাথমিক চিত্র বৈশিষ্ট্য।
আরও মজার বিষয়টি হ'ল স্তন্যপায়ী মস্তিষ্কের অনুধাবনকারী নিউরনগুলি (জৈবিক) চিত্র প্রক্রিয়াকরণের প্রথম ধাপগুলিতে এই ধরণের কাজ করার অনুরূপ বলে দেখা গেছে। সিএনএন-এর সাথে বৈজ্ঞানিক সম্প্রদায় কীভাবে মানুষের উপলব্ধি এতটাই অভূতপূর্ব করে তোলে তা বন্ধ করে দিচ্ছে। এটি গবেষণার এই লাইনটি আরও অনুসরণ করা খুব সার্থক করে তোলে।