নিউরাল নেটওয়ার্কগুলির ওজন এলোমেলো সংখ্যায় কেন করা উচিত? [বন্ধ]


105

আমি স্ক্র্যাচ থেকে একটি নিউরাল নেটওয়ার্ক তৈরি করার চেষ্টা করছি। সমস্ত এআই সাহিত্য জুড়ে একটি sensক্যমত্য রয়েছে যে নেটওয়ার্কটি দ্রুত রূপান্তর করার জন্য এলোমেলো সংখ্যায় ওজনকে সূচনা করা উচিত।

তবে কেন নিউরাল নেটওয়ার্কগুলির প্রাথমিক ওজন এলোমেলো সংখ্যা হিসাবে শুরু করা হয়?

আমি কোথাও পড়েছি যে এটি "প্রতিসাম্যতা ভাঙ্গার" জন্য করা হয় এবং এটি নিউরাল নেটওয়ার্কটি দ্রুত শিখতে সক্ষম করে। প্রতিসাম্যতা ভাঙ্গা কীভাবে এটি দ্রুত শিখতে পারে?

ওজন 0 থেকে আরম্ভ করা কি আরও ভাল ধারণা হবে না? এইভাবে ওজনগুলি তাদের মানগুলি (ধনাত্মক বা নেতিবাচক) দ্রুত আবিষ্কার করতে সক্ষম হবে?

ওজন এলোমেলোকরণের পিছনে আরও কিছু অন্তর্নিহিত দর্শন রয়েছে যে আশা করা বাদ দিয়ে তারা তাদের সর্বোত্তম মানগুলির কাছাকাছি থাকবে?


8
এটি ক্রস যাচাইয়ের জন্য আরও ভাল ফিট বলে মনে হচ্ছে ।
সাইকোরাক্স

2
আমি এই প্রশ্নটি বন্ধ করতে ভোট দিচ্ছি কারণ এটি সহায়তা কেন্দ্রের সংজ্ঞায়িত প্রোগ্রামিং সম্পর্কে নয় তবে সাধারণ এমএল তত্ত্ব এবং পদ্ধতি সম্পর্কে।
মরুভূমি

উত্তর:


140

পারফরম্যান্সের কারণে নয়, এখানে প্রতিসাম্যতা ভাঙা অপরিহার্য। মাল্টিলেয়ার পারসেপ্ট্রনের প্রথম 2 স্তর (ইনপুট এবং লুকানো স্তর) কল্পনা করুন:

এখানে চিত্র বর্ণনা লিখুন

এগিয়ে প্রচারের সময় গোপন স্তরের প্রতিটি ইউনিট সংকেত পায়:

এখানে চিত্র বর্ণনা লিখুন

অর্থাত, প্রতিটি লুকানো ইউনিট সংশ্লিষ্ট ওজন দ্বারা গুণিত ইনপুটগুলির যোগফল পায়।

এখন কল্পনা করুন যে আপনি সমস্ত ওজনকে একই মানের (যেমন শূন্য বা এক) দিয়ে শুরু করেন। এই ক্ষেত্রে, প্রতিটি লুকানো ইউনিট ঠিক একই সংকেত পাবে । উদাহরণস্বরূপ, যদি সমস্ত ওজন 1-এ শুরু করা হয় তবে প্রতিটি ইউনিট ইনপুটগুলির সমষ্টি (এবং আউটপুট sigmoid(sum(inputs))) এর সমান সংকেত পায় । যদি সমস্ত ওজন শূন্য হয় তবে এটি আরও খারাপ, প্রতিটি লুকানো ইউনিট শূন্য সংকেত পাবে। ইনপুট কী ছিল তা বিবেচ্য নয় - যদি সমস্ত ওজন একই হয় তবে গোপন স্তরের সমস্ত ইউনিটও একই রকম হবে

এলোমেলোভাবে কেন আপনার ওজনকে এলোমেলোভাবে করা উচিত (বা কমপক্ষে বিভিন্ন মান সহ) কেন এটি সমমিতি এবং কারণ নিয়েই মূল সমস্যা। দ্রষ্টব্য, এই সমস্যাটি প্রতিটি আর্কিটেকচারকে প্রভাবিত করে যা প্রতিটি সংযোগ প্রতিটি সংযোগ ব্যবহার করে।


1
দুর্দান্ত ব্যাখ্যা। তবে শব্দটি ব্যবহার করবেন symmetryনা কেন correlation? শব্দটি প্রথমে কে ব্যবহার করেছেন?
nn0p

1
@ nn0p: পারস্পরিক সম্পর্ক বলতে বোঝায় যে 2 সংকেত একই ধরণের পরিবর্তিত হয় তবে সর্বদা এবং ঠিক একই মাত্রার সাথে হয় না। অন্তত যতদূর আমি জানি, প্রতিসাম্য আনুষ্ঠানিক সংজ্ঞা নেই এবং প্রতিনিধিত্ব করার জন্য এখানে ব্যবহার করা হয় ঠিক নোডের মধ্যে সমস্ত লিঙ্কের, যা কোন কাজে প্রশিক্ষণ তোলে একই সংকেত।
বন্ধু

@ ড্রপআউট ব্যবহারের চেয়ে বন্ধু, এলোমেলোকরণের বেশি প্রয়োজন নেই। আমি কি ভূল?
emanuele

1
@ ইমানুয়েল ড্রপআউট নিজেই একধরণের র্যান্ডমাইজেশন, সুতরাং হ্যাঁ, এটি কাজ করা উচিত। তবুও, সমস্ত সংযোগ যা প্রতিটি পুনরাবৃত্তিতে "বাদ পড়ে" না, সেগুলি এখনও প্রতিসাম্প্রতিক আপডেট পাবে, তাই আমার ধারণা লার্নিংটি বেশ ধীর হবে এবং এইভাবে কোনও ব্যবহারিক নেটওয়ার্কে এলোমেলো সূচনা ব্যবহার করার পরামর্শ দেয়।
ফ্রেন্ড

এটি ফরোয়ার্ডপ্রপকে ভালভাবে ব্যাখ্যা করে, তবে ব্যাকপ্রপ কী?
জেল

74

সাদৃশ্য:

আমি এটি একটি ভাল উপমা আশা করি। আমি এটি যথাসম্ভব সহজ ব্যাখ্যা করার চেষ্টা করেছি।

কল্পনা করুন যে কেউ আপনাকে একটি হেলিকপ্টার থেকে অজানা পাহাড়ের শীর্ষে ফেলেছে এবং আপনি সেখানে আটকা পড়েছেন। সর্বত্র কুয়াশাচ্ছন্ন। আপনি কেবলমাত্র জানেন যে আপনার কোনও উপায়ে সমুদ্রের তলে নামা উচিত। সর্বনিম্ন পয়েন্টে নামার জন্য আপনার কোন দিকটি নেওয়া উচিত?

আপনি যদি সমুদ্রপৃষ্ঠের কোনও পথ খুঁজে না পান এবং হেলিকপ্টারটি আপনাকে আবার নিয়ে যায় এবং আপনাকে একই পর্বত শীর্ষ অবস্থানে ফেলে দেয়। আপনাকে আবার একই দিকনির্দেশনা নিতে হবে কারণ আপনি একই শুরুর অবস্থানগুলিতে নিজেকে "আরম্ভ" করছেন ।

তবে, যতবারই হেলিকপ্টারটি আপনাকে পাহাড়ের কোথাও এলোমেলোভাবে ফেলে দেয় আপনি বিভিন্ন দিকনির্দেশ এবং পদক্ষেপ গ্রহণ করবেন। সুতরাং, আপনার পক্ষে সবচেয়ে নিম্নতম পয়েন্টে পৌঁছানোর আরও ভাল সুযোগ থাকতে পারে ।

প্রতিসাম্যতা ভাঙার অর্থ এটিই । ইনিশিয়েশনটি অসমমিত ( যা আলাদা ) তাই আপনি একই সমস্যার বিভিন্ন সমাধান খুঁজে পেতে পারেন।

এই সাদৃশ্যটিতে, আপনি যেখানে অবতরণ করেন সেটি হল ওজন । সুতরাং, বিভিন্ন ওজন সহ, সর্বনিম্ন ( বা নিম্ন ) পয়েন্টে পৌঁছানোর আরও ভাল সম্ভাবনা রয়েছে ।

এছাড়াও, এটি সিস্টেমে এনট্রপি বাড়িয়ে তোলে যাতে নিম্ন পয়েন্টগুলি ( স্থানীয় বা বৈশ্বিক ন্যূনতম ) খুঁজে পেতে সহায়তা করার জন্য সিস্টেম আরও তথ্য তৈরি করতে পারে ।

এখানে চিত্র বর্ণনা লিখুন


10
দেখে মনে হচ্ছে যে হেলিকপ্টারটি আপনাকে বেশ কয়েকবার পাহাড়ের উপরে এলোমেলোভাবে ফেলেছে, তবে গভীর জ্ঞানার্জনে আমরা কেবলমাত্র ওজন এলোমেলোভাবে শুরু করেছি মাত্র একবার।
ইউফেং শেন

1
এটি একটি আসল স্বজ্ঞাত ব্যাখ্যা। আমাদের এও লক্ষ করা উচিত যে এনএনগুলি প্রায় কখনই উত্তল হয় না - তাই এলোমেলোকরণ হ'ল আদর্শ উপায় - তবে যদি আপনার উত্তল ক্ষতি হয় তবে অবশ্যই আপনি আপনার ওজন কীভাবে শুরু করবেন তা বিবেচ্য নয়।
কিংজ

4
এটি একটি ভাল উপমা - তবে আপনার এবং আপনার বন্ধুরা পর্বতের উপরে (যেমন কোনও নেটওয়ার্কে নোডগুলি) ফেলে দেওয়া হচ্ছে - এটি একই জায়গায় বা বিভিন্ন স্থানে বিভিন্ন লোকের দ্বারা ফেলে দেওয়া হচ্ছে তা আরও ধারণা দেয়। এবং ধরে নিন আপনি সকলেই একে অপরের সাথে যোগাযোগ করতে পারবেন। যোগাযোগের সাথে বিভিন্ন স্পটগুলি একটি দ্রুত অবতরণের অনুমতি দেবে। একই স্পট এর অর্থ সবাই সম্ভবত একই পথে নেমেছে।
আহেমেডোসনি

26

উত্তরটি বেশ সহজ। প্রাথমিক প্রশিক্ষণ অ্যালগরিদমগুলি প্রকৃতির লোভী - তারা বৈশ্বিক সর্বোত্তম নয়, বরং - "নিকটতম" স্থানীয় সমাধান আবিষ্কার করে। ফলস্বরূপ, কোনও স্থির সূচনা থেকে শুরু করা আপনার সমাধানটিকে কয়েকটি ওজনের একটি নির্দিষ্ট সেটের দিকে পক্ষপাত দেয়। যদি আপনি এলোমেলোভাবে (এবং সম্ভবত বেশ কয়েকবার) এটি করেন তবে আপনার ত্রুটি পৃষ্ঠের কিছু অদ্ভুত অংশে আটকে যাওয়ার খুব কম সম্ভাবনা রয়েছে।

একই যুক্তি অন্যান্য অ্যালগরিদমগুলিতে প্রযোজ্য, যা কোনও বৈশ্বিক অনুকূল (কে-মানে, ইএম, ইত্যাদি) সন্ধান করতে সক্ষম নয় এবং বৈশ্বিক অপ্টিমাইজেশান কৌশলগুলিতে প্রয়োগ হয় না (যেমন এসভিএমের জন্য এসএমও অ্যালগরিদম)।


সুতরাং, এটি নিশ্চিত নয় যে এটি কেবল এলোমেলো করে স্থানীয় মিনিমাতে আটকে যাবে না? কিন্তু বিভিন্ন এলোমেলো ওজন সহ একাধিক রান করার পরে এটি বৈশ্বিক সর্বনিম্ন পেতে পারে?
শায়ান আরসি

1
কোনও গ্যারান্টি নেই, তবে একাধিক সূচনা কমপক্ষে প্রকৃত সর্বোত্তমের কাছাকাছি যেতে সহায়তা করতে পারে।
লেজলট

ওজন শুরুর জন্য মান নির্ধারণের কোনও মানক সূত্র বা নিয়ম আছে কি ?? আমার ফিড-ফরোয়ার্ড, মাল্টি-লেয়ার, ব্যাক-প্রসারণ নিউরাল নেটওয়ার্ক রয়েছে, যেখানে সিগময়েড ফাংশন ব্যবহৃত হয়।
lkkkk

এস হাইকিন বই "নিউরাল নেটওয়ার্ক"
লেজলট

3
এই কারণেই লোকেরা এলোমেলো ইনিশিয়ালাইজেশন ব্যবহার করে কারণ বেশিরভাগ লোক বিভিন্ন র্যান্ডম ইনিশিয়ালাইজেশন দিয়ে প্রশিক্ষণটি পুনরায় আরম্ভ করে না এবং নেট এখনও একটি ভাল স্থানীয় অপটিমা পেতে সক্ষম হয়।
সিজারসালগাদো

4

যেমনটি আপনি উল্লেখ করেছেন, মূল পয়েন্টটি প্রতিসাম্যতা ভঙ্গ করছে । কারণ আপনি যদি সমস্ত ওজন শূন্যে শুরু করেন তবে আপনার নিউরাল নেটওয়ার্কের সমস্ত লুকানো নিউরন (ইউনিট) ঠিক একই গণনা করবে। এটি আমাদের ইচ্ছা এমন কিছু নয় কারণ আমরা বিভিন্ন ফাংশন গণনা করতে বিভিন্ন গোপন ইউনিট চাই। তবে, আপনি যদি একই মান দিয়ে আরম্ভ করেন তবে এটি সম্ভব নয়।


2
  1. ওজন 0 থেকে আরম্ভ করা কি আরও ভাল ধারণা হবে না? এইভাবে ওজনগুলি তাদের মানগুলি (ধনাত্মক বা নেতিবাচক) দ্রুত আবিষ্কার করতে সক্ষম হবে?

  2. প্রতিসাম্যতা ভাঙ্গা কীভাবে এটি দ্রুত শিখতে পারে?

আপনি যদি সমস্ত ওজন শূন্য হতে শুরু করেন তবে সমস্ত স্তরগুলির সমস্ত নিউরন একই হিসাব করে, একই আউটপুট দেয় এবং সেখানে পুরো গভীর নেটকে অকেজো করে । ওজন যদি শূন্য হয় তবে পুরো গভীর জালের জটিলতা একক নিউরনের মতোই হবে এবং ভবিষ্যদ্বাণীগুলি এলোমেলোভাবে ভাল আর কিছু হতে পারে না।

একই ইনপুটগুলির সাথে সংযুক্ত কোনও গোপন স্তরের পাশাপাশি নোডগুলির ওজন আপডেট করার জন্য শিখার অ্যালগরিদমটির জন্য আলাদা ওজন থাকতে হবে।

শূন্যহীন হিসাবে ওজন তৈরি করে (তবে ০% এর মতো ০.০ ইত্যাদি), অ্যালগরিদম পরবর্তী পুনরাবৃত্তিতে ওজন শিখবে এবং আটকে থাকবে না। এইভাবে, প্রতিসাম্যতা ভাঙ্গা ঘটে।

  1. ওজন এলোমেলোকরণের পিছনে আরও কিছু অন্তর্নিহিত দর্শন রয়েছে যে আশা করা বাদ দিয়ে তারা তাদের সর্বোত্তম মানগুলির কাছাকাছি থাকবে?

স্টোচাস্টিক অপ্টিমাইজেশন অ্যালগরিদম যেমন স্টোকাস্টিক গ্রেডিয়েন্ট বংশোদ্ভূত অনুসন্ধানের জন্য একটি সূচনা পয়েন্ট নির্বাচন করতে এবং অনুসন্ধানের অগ্রগতিতে এলোমেলোভাবে ব্যবহার করে।

নিউরাল নেটওয়ার্কের অনুসন্ধান বা শেখার অগ্রগতি কনভার্জেন্স হিসাবে পরিচিত। একটি উপ-অনুকূল সমাধান বা স্থানীয় অপটিমা ফলাফল অকাল একীকরণের ফলাফল।

একটি স্থানীয় অপটিমের উপর নির্ভর করার পরিবর্তে, আপনি যদি বিভিন্ন এলোমেলো ওজন সহ একাধিকবার অ্যালগরিদম চালান, স্থানীয় অপটিমায় আটকে না গিয়ে বিশ্বব্যাপী অপটিমা সন্ধানের সর্বোত্তম সম্ভাবনা রয়েছে।

২০১৫-এর পরে, মেশিন লার্নিং গবেষণায় অগ্রগতির কারণে, হ্যান্ড -এ্যাট-আল ইরিঞ্জালিটিও এন এলোমেলো সূচনা প্রতিস্থাপনের জন্য প্রবর্তিত হয়েছিল

w=np.random.randn(layer_size[l],layer_size[l-1])*np.sqrt(2/layer_size[l-1])

ওজনগুলি এখনও এলোমেলো তবে নিউরনের আগের স্তরের আকারের উপর নির্ভর করে পরিসরে ভিন্ন fer

সংক্ষেপে, অ-শূন্য র্যান্ডম ওজন আমাদের সহায়তা করে

  1. স্থানীয় অপটিমা থেকে বেরিয়ে আসুন
  2. প্রতিসাম্যতা ভঙ্গ করা
  3. আরও পুনরাবৃত্তিতে গ্লোবাল অপটিমা পৌঁছান

1

এলোমেলো মান সহ আরম্ভের পাশাপাশি, প্রাথমিক ওজন বড় মান সহ শুরু করা উচিত নয়। এটি কারণ আমরা প্রায়শই লুকানো স্তর এবং আউটপুট স্তরগুলিতে টান এবং সিগময়েড ফাংশন ব্যবহার করি। আপনি যদি দুটি ফাংশনের গ্রাফটি দেখেন তবে প্রথম পুনরাবৃত্তির অগ্রগতি প্রচারের পরে উচ্চতর মান পাওয়া যায় এবং এই মানগুলি সিগময়েড এবং তানহ ফাংশনের জায়গাগুলির সাথে মিলে যায় যা ডেরাইভেটিভকে শূন্যে রূপান্তরিত করে। এটি শেখার প্রক্রিয়াটির শীতল সূচনা এবং শেখার সময় বাড়ানোর দিকে পরিচালিত করে। ফলস্বরূপ, যদি আপনি এলোমেলোভাবে ওজন শুরু করেন, আপনি "0.01" বা "0.001" এর মতো মানের দ্বারা এই মানগুলিকে গুণ করে এই সমস্যাগুলি এড়াতে পারেন।


1

প্রথমত, কিছু অ্যালগরিদম এমনকি শূন্য প্রাথমিক ওজন সহ একত্রিত হয়। একটি সাধারণ উদাহরণ একটি লিনিয়ার পারসেপ্ট্রন নেটওয়ার্ক। অবশ্যই, অনেকগুলি লার্নিং নেটওয়ার্কের এলোমেলো প্রাথমিক ওজন প্রয়োজন (যদিও এটি দ্রুত এবং সর্বোত্তম হওয়ার গ্যারান্টি নয় উত্তর )।

নিউরাল নেটওয়ার্কগুলি ওজন শিখতে এবং আপডেট করতে ব্যাক-প্রসারণ ব্যবহার করে এবং সমস্যাটি হ'ল এই পদ্ধতিতে ওজন স্থানীয় সর্বোত্তম (স্থানীয় সর্বনিম্ন ব্যয় / ক্ষতি) এ রূপান্তর করে , বৈশ্বিক অনুকূল নয়।

এলোমেলো ওজন নেটওয়ার্ক উপলব্ধ স্থানে প্রতিটি দিকের জন্য সম্ভাবনা নিতে এবং ধীরে ধীরে তাদের আরও ভাল উত্তরে পৌঁছাতে উন্নত করে এবং এক দিক বা উত্তরের মধ্যে সীমাবদ্ধ না থেকে সহায়তা করে

[নীচের চিত্রটি কীভাবে সংমিশ্রণের এক-মাত্রিক উদাহরণ দেখায়। প্রাথমিক অবস্থান দেওয়া, স্থানীয় অপ্টিমাইজেশন অর্জন করা হয়েছে তবে বৈশ্বিক অপ্টিমাইজেশন নয়। উচ্চ মাত্রায়, এলোমেলো ওজন সঠিক জায়গায় থাকার বা আরও ভাল শুরু করার সম্ভাবনা বাড়িয়ে তুলতে পারে, যার ফলে ওজনকে আরও ভাল মানের রূপান্তরিত করা যায় in] [1]

[1]: https://i.stack.imgur.com/2dioT.png [কালহোর, এ। (2020)। শ্রেণিবদ্ধকরণ এবং রিগ্রেশন এনএনএস বক্তৃতা।]

সহজতম ক্ষেত্রে, নতুন ওজন নিম্নরূপ:

W_new = W_old + D_loss

এখানে নতুন ওজন পেতে ব্যয় ফাংশন গ্রেডিয়েন্টটি পূর্বের ওজনের সাথে যুক্ত করা হয়েছে। পূর্ববর্তী সমস্ত ওজন যদি একই হয় তবে পরবর্তী ধাপে সমস্ত ওজন সমান হতে পারে। ফলস্বরূপ, এক্ষেত্রে জ্যামিতিক দৃষ্টিকোণ থেকে, নিউরাল নেটওয়ার্ক এক দিকে ঝুঁকছে এবং সমস্ত ওজন একই the তবে যদি ওজন আলাদা হয় তবে বিভিন্ন পরিমাণে ওজন আপডেট করা সম্ভব। (ফলাফলের প্রতিটি ওজনের যে প্রভাবের ফ্যাক্টর রয়েছে তার উপর নির্ভর করে এটি ব্যয় এবং ওজনের আপডেটগুলিকে প্রভাবিত করে So তাই প্রাথমিক এলোমেলো ওজনে একটি ছোট ত্রুটিও সমাধান করা যেতে পারে)।

এটি একটি খুব সাধারণ উদাহরণ, তবে এটি শেখার উপর এলোমেলো ওজন সূচনার প্রভাব দেখায়। এটি নিউরাল নেটওয়ার্কটিকে একপাশে না গিয়ে বিভিন্ন জায়গায় যেতে সক্ষম করে। ফলস্বরূপ, শেখার প্রক্রিয়াতে, এই জায়গাগুলির সেরাটিতে যান


0

আরও গাণিতিক হতে দিন। আসলে, আমি উত্তর দেওয়ার কারণটি হ'ল আমি এই উত্তরটি অন্য উত্তরগুলিতে অভাব পেয়েছি। ধরে নিন আপনার 2 স্তর রয়েছে। আমরা যদি পিছনের প্রসারণের অ্যালগরিদমকে দেখি তবে এর গণনা

dZ2 = A2 - Y

dW2 = (1 / মি) * dZ2 * A2.T

আসুন db2 উপেক্ষা করুন। (দুঃখিত দুঃখিত না;))

dZ1 = W2.T * dZ2। * g1 '(জেড 1)

...

আপনি যে সমস্যাটি দেখছেন তা সাহসী। কম্পিউটিং ডিজেড 1 (যা ডিডাব্লু 1 গণনা করা প্রয়োজন) এর মধ্যে ডাব্লু 2 রয়েছে যা 0 হয়। আমরা কখনও ওজন 0-এর বাইরে কোনও পরিবর্তন করার সুযোগ পাইনি এবং আমরা কখনই করব না। তাই মূলত, নিউরাল নেটওয়ার্ক কিছু শিখতে পারে না। আমি মনে করি এটি লজিস্টিক রিগ্রেশন (একক ইউনিট) এর চেয়েও খারাপ। লজিস্টিক রিগ্রেশনের ক্ষেত্রে, আপনি এক্সকে বিভিন্ন ইনপুট ধন্যবাদ পাওয়ার কারণে আপনি আরও পুনরাবৃত্তির সাথে শিখবেন this এই ক্ষেত্রে, অন্যান্য স্তরগুলি সর্বদা একই আউটপুট দেয় যাতে আপনি কিছুটা শিখেন না।


0

আমি একটি জিনিস শিখেছি: আপনি যদি ওজনকে শূন্য থেকে শুরু করেন, তবে স্পষ্টতই যে একই স্তরের অ্যাক্টিভেশন ইউনিটগুলি একই হবে, তার মানে তাদের একই মান থাকবে। যখন আপনি ব্যাকব্রপ করবেন, আপনি দেখতে পাবেন যে গ্রেডিয়েন্ট ডিডাব্লু এর সমস্ত সারিও একই রকম, অতএব ওজন ম্যাট্রিক্সের সমস্ত সারি গ্রেডিয়েন্ট বংশোদ্ভূত আপডেটের পরে একই are সাধারণভাবে, সমস্ত ওজন শূন্যের ফলাফলের সূচনা করে প্রতিসাম্যতা ভাঙতে ব্যর্থ হয়। এর অর্থ হ'ল প্রতিটি স্তরের প্রতিটি নিউরন একই জিনিস শিখতে পারে এবং আপনি n[l]=1n[l]=1প্রতিটি স্তরের জন্য একটি নিউরাল নেটওয়ার্ক প্রশিক্ষণও নিতে পারেন এবং লজিস্টিক রিগ্রেশন যেমন লিনিয়ার শ্রেণিবদ্ধের চেয়ে নেটওয়ার্ক আর শক্তিশালী নয়। অ্যান্ড্রু এনজি কোর্স:

আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.