প্রশ্ন ট্যাগ «deep-learning»

মেশিন লার্নিংয়ের একটি ক্ষেত্র যা ডেটাগুলির শ্রেণিবিন্যাসের উপস্থাপনা শেখার সাথে সম্পর্কিত, যা গভীরভাবে নিউরাল নেটওয়ার্কগুলির সাহায্যে সম্পন্ন হয়।

3
অপ্রয়োজনীয় লগ সম্ভাব্যতাকে লিনিয়ার দিয়ে শুরু করে নিউরাল নেটওয়ার্কগুলিতে সিগময়েড আউটপুট ইউনিটকে অনুপ্রাণিত করা
পটভূমি: আমি ইয়ান গুডফেলো এবং যোশুয়া বেনজিও এবং অ্যারন কউরভিলের ডিপ লার্নিংয়ের chapter ষ্ঠ অধ্যায়টি অধ্যয়ন করছি। বিভাগে .2.২.২.২ (183 এর 182 পৃষ্ঠাগুলি যা এখানে দেখা যায় ) সিগময়েডের আউটপুট ব্যবহার অনুপ্রাণিত করা হয়।P(y=1|x)পি(Y=1|এক্স)P(y=1|x) কিছু উপাদান সংক্ষিপ্তসার হিসাবে তারা কে একটি অ্যাক্টিভেশন প্রয়োগ করার আগে একটি আউটপুট নিউরন হতে দেয় …

2
'নিয়মিত' লিনিয়ার রিগ্রেশন এবং গভীর লার্নিং লিনিয়ার রিগ্রেশন এর মধ্যে পার্থক্য কী?
আমি নিয়মিত মেশিন লার্নিং বিশ্লেষণে লিনিয়ার রিগ্রেশন এবং "গভীর শেখার" সেটিংসে লিনিয়ার রিগ্রেশন মধ্যে পার্থক্য জানতে চাই know গভীর শিক্ষার সেটিং-এ লিনিয়ার রিগ্রেশন-এর জন্য কি অ্যালগরিদম ব্যবহার করা হয়।

1
ডিপ লার্নিংয়ের ডিপ রেসিডুয়াল নেটওয়ার্কগুলির প্রসঙ্গে একটি রেসিডুয়াল লার্নিং ব্লক আসলে কী?
আমি চিত্র স্বীকৃতির জন্য ডিপ রেসিডুয়াল লার্নিং পত্রিকাটি পড়ছিলাম এবং আমার 100% নিশ্চিততা সহ বুঝতে সমস্যা হয়েছিল যে একটি রেসিডুয়াল ব্লকটি গণনামূলকভাবে আবশ্যক। তাদের কাগজ পড়া তাদের চিত্র 2: যা একটি রেসিডুয়াল ব্লক অনুমান করা যায় তা চিত্রিত করে। একটি অবশিষ্টাংশের ব্লকটির গণনা কি কেবল একইরকম: Y =σ( ডাব্লু2σ( ডাব্লু1x …

2
মেশিন লার্নিংয়ে অপ্টিমাইজেশনের লক্ষ্য হিসাবে পিয়ারসনের পারস্পরিক সম্পর্ক সহগ ব্যবহার করুন
মেশিন লার্নিংয়ে (রিগ্রেশন সমস্যার জন্য), আমি প্রায়শই দেখি গড়-স্কোয়ার্ড-ত্রুটি (এমএসই) বা গড়-পরম-ত্রুটি (এমএই) ত্রুটি ফাংশন হিসাবে ব্যবহার করা হচ্ছে হ্রাস করতে (আরও নিয়মিতকরণের মেয়াদ)। আমি ভাবছি যদি এমন পরিস্থিতি রয়েছে যেখানে পারস্পরিক সম্পর্ক সহগ ব্যবহার করা আরও উপযুক্ত হবে? যদি এইরকম পরিস্থিতি বিদ্যমান থাকে তবে: কোন পরিস্থিতিতে এমএসই / এমএইয়ের …

3
নিউরাল নেটওয়ার্কগুলির জন্য এনকোডিংয়ের তারিখ / সময় (চক্রীয় তথ্য)
নিউরাল নেটওয়ার্কের জন্য কোনও ইভেন্টের তারিখ এবং সময় কীভাবে এনকোড করা যায়? আমার একটি অবিচ্ছিন্ন সময় সিরিজ নেই, তবে তারিখ এবং সময় সহ কিছু ইভেন্ট এবং আমি একরকমের আগ্রহ বিশ্লেষণ করি। এই আগ্রহটি সকাল এবং সন্ধ্যার মধ্যে পৃথক এবং সপ্তাহের দিনগুলির মধ্যে এবং গ্রীষ্ম এবং শীতের মধ্যে এবং ক্রিসমাস এবং …

3
গাণিতিকভাবে নিউরাল নেটওয়ার্কগুলিকে গ্রাফিকাল মডেল হিসাবে মডেলিং করা হচ্ছে
আমি নিউরাল নেটওয়ার্ক এবং গ্রাফিকাল মডেলের মধ্যে গাণিতিক সংযোগ তৈরির জন্য সংগ্রাম করছি। গ্রাফিক্যাল মডেলগুলিতে ধারণাটি সহজ: সম্ভাব্যতাগুলি সাধারণত গ্রহীতা পরিবারের হয়ে গ্রাফের চক্র অনুসারে সম্ভাব্যতা বন্টনকে কারণ হিসাবে চিহ্নিত করে। নিউরাল নেটওয়ার্কের জন্য কি সমতুল্য যুক্তি আছে? সীমাবদ্ধ বল্টজম্যান মেশিনে কোনও ইউনিট (ভেরিয়েবল) বা একটি সিএনএন তাদের শক্তির কার্যকারিতা …

2
সিএনএন-তে ফিল্টার আকার, ধাপ ইত্যাদি চয়ন করছেন?
আমি স্ট্যানফোর্ডের সিএস 231 এন লেকচারের দিকে তাকিয়ে আছি এবং আমি সিএনএন আর্কিটেকচারের কয়েকটি বিষয় ঘিরে আমার মাথা গুটিয়ে দেওয়ার চেষ্টা করছি। আমি যা বোঝার চেষ্টা করছি তা হল যদি কনভলিউশন ফিল্টার আকার এবং ধাপের মতো জিনিস বাছাই করার জন্য কিছু সাধারণ নির্দেশিকা থাকে বা এটি কি বিজ্ঞানের চেয়ে আরও …

4
গভীর শিক্ষায় এমএলই এবং ক্রস এনট্রপির মধ্যে সংযোগ কতটা অর্থপূর্ণ?
আমি বুঝি যে একটি সেট দেওয়া mmm স্বাধীন পর্যবেক্ষণ সর্বাধিক সম্ভাবনা মূল্নির্ধারক (অথবা এবং, equivalently, ফ্ল্যাট দিয়ে মানচিত্রে / অভিন্ন পূর্বে) যে শনাক্ত পরামিতি যে মডেল বন্টন উত্পাদন যা এই পর্যবেক্ষণগুলির সাথে সবচেয়ে ভাল মেলেO={o(1),...,o(m)}O={o(1),...,o(m)}\mathbb{O}=\{\mathbf{o}^{(1)}, . . . , \mathbf{o}^{(m)}\} পি এম ও ডি ই এল (θθ\mathbf{θ}pmodel(⋅;θ)pmodel(⋅;θ)p_{model}\left(\,\cdot\, ; \mathbf{θ}\right) θML(O)=pmodel(O;θ)=argmaxθ‎‎∏i=1mpmodel(o(i);θ)θML(O)=pmodel(O;θ)=arg⁡maxθ‎‎∏i=1mpmodel(o(i);θ)\mathbf{θ}_{ML}(\mathbb{O})= …

3
গেম তত্ত্ব এবং পুনর্বহাল শেখার মধ্যে কী সম্পর্ক?
আমি (ডিপ) শক্তিবৃদ্ধি শিক্ষা (আরএল) এ আগ্রহী । এই ক্ষেত্রে ডুব দেওয়ার আগে আমি গেম থিওরি (জিটি) কোর্স করা উচিত ? জিটি এবং আরএল কীভাবে সম্পর্কিত?

3
কনভোলশনাল নিউরাল নেটওয়ার্কে চূড়ান্ত সফটম্যাক্স লেয়ারের আগে অ-রৈখিকতা
আমি অবিচ্ছিন্ন নিউরাল নেটওয়ার্কগুলি অধ্যয়ন করছি এবং বাস্তবায়নের চেষ্টা করছি, তবে আমি মনে করি এই প্রশ্নটি সাধারণভাবে মাল্টিলেয়ার পারসেপ্ট্রনগুলির ক্ষেত্রে প্রযোজ্য। আমার নেটওয়ার্কের আউটপুট নিউরনগুলি প্রতিটি শ্রেণীর সক্রিয়করণের প্রতিনিধিত্ব করে: সর্বাধিক সক্রিয় নিউরন একটি প্রদত্ত ইনপুটটির জন্য পূর্বাভাসীকৃত বর্গের সাথে মিল রাখে। প্রশিক্ষণের জন্য ক্রস-এনট্রপি ব্যয় বিবেচনা করার জন্য, আমি …

4
গভীর শেখার মডেলগুলি প্যারামেট্রিক? নাকি নন-প্যারামেট্রিক?
আমি মনে করি না সমস্ত গভীর শিক্ষার মডেলের একটি উত্তর থাকতে পারে। গভীর শেখার মডেলগুলির মধ্যে কোনটি প্যারামেট্রিক এবং কোনটি প্যারামেট্রিক এবং কেন?

4
অটোরকোডার এবং টি-এসএনইয়ের মধ্যে পার্থক্য কী?
যতদূর আমি জানি, অটোইনকোডার এবং টি-এসএনই উভয়ই অরৈখিক মাত্রিকতা হ্রাস করার জন্য ব্যবহৃত হয়। তাদের মধ্যে পার্থক্যগুলি কী এবং কেন আমি অন্যকে বনাম ব্যবহার করব?

5
সিএনএন-এর মুখ / মুখবিহীন সনাক্তকরণে বাইনারি সনাক্তকরণের জন্য আমার কোন ক্ষতির ফাংশন ব্যবহার করা উচিত?
আমি মুখ / নন-ফেস বাইনারি সনাক্তকরণ প্রশিক্ষণের জন্য গভীর শিক্ষার ব্যবহার করতে চাই, আমার কী ক্ষতি ব্যবহার করা উচিত, আমি মনে করি এটি সিগময়েডক্রস এন্ট্রোপিওলস বা কব্জি -ক্ষতি । এটি কি ঠিক, তবে আমিও ভাবছি যে আমার সফটম্যাক্স ব্যবহার করা উচিত তবে কেবল দুটি ক্লাস?

1
ক্ষতির ক্রিয়াকলাপের দ্বিতীয় আদেশের সমাপ্তি (গভীর শিখনের বই, .3.৩৩)
গভীর শিক্ষার বিষয়ে গুডফেলিজ (২০১ 2016) বইয়ে তিনি এল 2 নিয়মিতকরণের ( https://www.DPlearningbook.org/contents/regulariization.html পৃষ্ঠা 247) এর দিকে দ্রুত থামার সমতুল্যতার বিষয়ে কথা বলেছেন talked চার্জ ক্রম এর চতুর্ভুজ অনুমান দেওয়া হয়েছে:jjj জে^( θ ) = জে( ডাব্লু*) + 12( ডাব্লু - ডাব্লু)*)টিএইচ( ডাব্লু - ডাব্লু)*)J^(θ)=J(w∗)+12(w−w∗)TH(w−w∗)\hat{J}(\theta)=J(w^*)+\frac{1}{2}(w-w^*)^TH(w-w^*) যেখানে হেসিয়ান ম্যাট্রিক্স (সম। 7.33)। …

4
সম্ভাবনা-মুক্ত অনুমান - এর অর্থ কী?
সাম্প্রতিক সময়ে আমি সাহিত্যে 'সম্ভাবনা-মুক্ত' পদ্ধতিগুলি সম্পর্কে জোরদার হয়েছি aware তবে আমি অনুমান বা অপ্টিমাইজেশন পদ্ধতির সম্ভাবনা-মুক্ত হওয়ার অর্থ কী তা সম্পর্কে আমি পরিষ্কার নই । মেশিন লার্নিংয়ে লক্ষ্যটি সাধারণত কোনও ফাংশন ফিট করার জন্য কিছু পরামিতিগুলির সম্ভাবনা সর্বাধিক করে তোলা হয় যেমন একটি নিউরাল নেটওয়ার্কের ওজন। তাহলে সম্ভাবনা-মুক্ত পদ্ধতির …

আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.