প্রশ্ন ট্যাগ «regularization»

মডেল ফিটিং প্রক্রিয়ায় অতিরিক্ত বাধা (সাধারণত জটিলতার জন্য জরিমানা) অন্তর্ভুক্ত করা। পূর্বাভাসমূলক নির্ভুলতা বাড়াতে / প্রতিরোধ করতে ব্যবহৃত হয়।

6
কেন বিরল মডেলগুলির জন্য এল 1 আদর্শ
আমি লিনিয়ার রিগ্রেশন সম্পর্কিত বইগুলি পড়ছি। এল 1 এবং এল 2 আদর্শ সম্পর্কে কিছু বাক্য রয়েছে। আমি তাদের জানি, কেন বিরল মডেলগুলির জন্য L1 আদর্শ m কেউ ব্যবহার করতে পারেন কি একটি সহজ ব্যাখ্যা দিতে?


3
লাসো কেন পরিবর্তনীয় নির্বাচন সরবরাহ করে?
আমি পরিসংখ্যানগত শিক্ষার উপাদানগুলি পড়ছি এবং আমি জানতে চাইছি কেন লাসো পরিবর্তনশীল নির্বাচন এবং রিজ রিগ্রেশনটি সরবরাহ করে না। উভয় পদ্ধতি স্কোয়ারের অবশিষ্টাংশকে ছোট করে এবং পরামিতিগুলির সম্ভাব্য মানগুলি একটি সীমাবদ্ধতা রাখে । লাসোর জন্য, প্রতিবন্ধকতা হ'ল , অন্যদিকে কিছুটা জন্য এটি ।ββ\beta||β||1≤t||β||1≤t||\beta||_1 \le t||β||2≤t||β||2≤t||\beta||_2 \le tttt আমি বইটিতে হীরা …

5
সরল ইংরেজিতে নিয়মিতকরণ কী?
অন্যান্য নিবন্ধগুলির মতো নয়, আমি এই বিষয়টির উইকিপিডিয়া এন্ট্রিটি অ গণিতবিহীন ব্যক্তির জন্য (আমার মতো) অপঠনযোগ্য দেখতে পেয়েছি। আমি প্রাথমিক ধারণাটি বুঝতে পেরেছি, আপনি কম নিয়ম সহ মডেলদের পক্ষে favor আমি যা পাই না তা হ'ল আপনি কীভাবে নিয়মের একটি সেট থেকে 'নিয়মিতকরণ স্কোর'-এ যাবেন যা আপনি মডেলগুলিকে কমপক্ষে সর্বাধিক …

6
এল 2 নিয়মিতকরণ গাউসিয়ান পূর্বের সমতুল্য
আমি এটি পড়তে থাকি এবং স্বজ্ঞাতভাবে আমি এটি দেখতে পারি তবে এল 2 নিয়মিতকরণ থেকে কেউ কীভাবে বলতে পারেন যে এটি বিশ্লেষণাত্মকভাবে গাউসিয়ান প্রাইমার? একইভাবে এল 1 বলার আগে ল্যাপলেশনের সমান। পরবর্তী কোনও রেফারেন্স দুর্দান্ত হবে।

2
সংকোচনের কাজ কেন?
মডেল নির্বাচনের সমস্যাগুলি সমাধান করার জন্য, প্রচুর পদ্ধতি (এলএএসএসও, রিজ রিগ্রেশন ইত্যাদি) প্রেডিক্টর ভেরিয়েবলের সহগগুলি শূন্যের দিকে সঙ্কুচিত করবে। কেন এটি ভবিষ্যদ্বাণীপূর্ণ সক্ষমতা উন্নত করে তার একটি স্বজ্ঞাত ব্যাখ্যা খুঁজছি। যদি ভেরিয়েবলের আসল প্রভাবটি আসলে খুব বড় ছিল তবে পরামিতি সঙ্কুচিত হওয়ার কারণে আরও খারাপ ভবিষ্যদ্বাণী হবে না কেন?

7
কেন নিয়মিতকরণ শব্দটি ব্যয় কার্যক্রমে (বহুগুণ ইত্যাদির পরিবর্তে) যুক্ত করা হয়?
যখনই নিয়মিতকরণ ব্যবহৃত হয়, এটি প্রায়শই ব্যয় ফাংশনে যেমন নিম্নলিখিত ব্যয় ফাংশনে যুক্ত করা হয়। এটি আমার কাছে স্বজ্ঞাততা বোধ করে যেহেতু ন্যূনতম ব্যয় কার্যকারিতা অর্থ ত্রুটি (বাম শব্দ) হ্রাস করা এবং একই সময়ে (সহ সঠিক দুটি শব্দকে সামঞ্জস্য করা) সহগের (ডান শব্দ) এর দৈর্ঘ্যকে হ্রাস করা।J(θ)=12(y−θXT)(y−θXT)T+α∥θ∥22J(θ)=12(y−θXT)(y−θXT)T+α‖θ‖22 J(\theta)=\frac 1 2(y-\theta …

6
রিজ রিগ্রেশন কি উচ্চ মাত্রায় ( ) অকার্যকর ? ওএলএস কীভাবে অতিরিক্ত সাফল্য পেতে ব্যর্থ হতে পারে?
পূর্বাভাসকারী এবং নমুনা আকার সহ একটি ভাল পুরানো রিগ্রেশন সমস্যা বিবেচনা করুন । সাধারন জ্ঞান হ'ল ওএলএসের অনুমানকারী বেশি পরিমাণে আসবে এবং সাধারণত রিজ রিগ্রেশন অনুমানকারীকে ছাড়িয়ে যাবে:এটা তোলে ক্রস বৈধতা ব্যবহার করার জন্য একটি অনুকূল নিয়মিতকরণ প্যারামিটার এটি মান । এখানে আমি 10-গুণ সিভি ব্যবহার করি। স্পেসিফিকেশন আপডেট: যখন …

6
আধুনিক পরিসংখ্যান / মেশিন লার্নিংয়ে মাল্টিকোলাইনারিটি কেন পরীক্ষা করা হয় না
Traditionalতিহ্যগত পরিসংখ্যানগুলিতে, একটি মডেল তৈরি করার সময়, আমরা বৈকল্পিক মূল্যস্ফীতি ফ্যাক্টর (ভিআইএফ) এর প্রাক্কলন হিসাবে পদ্ধতি ব্যবহার করে বহুবিধ লাইনটি পরীক্ষা করে দেখি, তবে মেশিন লার্নিংয়ে আমরা পরিবর্তে বৈশিষ্ট্য নির্বাচনের জন্য নিয়মিতকরণ ব্যবহার করি এবং বৈশিষ্ট্যগুলি পরস্পর সম্পর্কিত কিনা তা পরীক্ষা করে দেখে মনে হয় না features মোটেই আমরা কেন …

3
লজিস্টিক রিগ্রেশন নিয়মিতকরণ পদ্ধতি
রিজ, লাসো, ইলাস্টিক নেট এর মতো পদ্ধতি ব্যবহার করে নিয়মিতকরণ লিনিয়ার রিগ্রেশন-এর জন্য বেশ সাধারণ। আমি নিম্নলিখিতটি জানতে চেয়েছিলাম: এই পদ্ধতিগুলি কি লজিস্টিক রিগ্রেশনের জন্য প্রযোজ্য? যদি তা হয় তবে লজিস্টিক রিগ্রেশনের জন্য তাদের যেভাবে ব্যবহার করা দরকার তাতে কি কোনও পার্থক্য রয়েছে? যদি এই পদ্ধতিগুলি প্রযোজ্য না হয়, তবে …

1
নিউরাল নেটওয়ার্ক: ওজন পরিবর্তনের গতি এবং ওজন ক্ষয়
মোমেন্টাম একটানা পুনরাবৃত্তির সাথে ওজন পরিবর্তনের ওঠানামা হ্রাস করতে ব্যবহৃত হয়:αα\alpha যেখানেই(W)ত্রুটি ফাংশন হয়,W- ওজন ভেক্টর,η- শেখার হার।Δωi(t+1)=−η∂E∂wi+αΔωi(t),Δωi(t+1)=−η∂E∂wi+αΔωi(t),\Delta\omega_i(t+1) = - \eta\frac{\partial E}{\partial w_i} + \alpha \Delta \omega_i(t),E(w)E(w)E({\bf w})ww{\bf w}ηη\eta ওজন ক্ষয় ওজন পরিবর্তনের দণ্ড দেয়:λλ\lambda Δωi(t+1)=−η∂E∂wi−ληωiΔωi(t+1)=−η∂E∂wi−ληωi\Delta\omega_i(t+1) =- \eta\frac{\partial E}{\partial w_i} - \lambda\eta\omega_i প্রশ্নটি হ'ল যদি পিছনের প্রচারের সময় উভয় কৌশলকে …

5
কীভাবে রিজ রিগ্রেশন সলিউশন পাবেন?
রিজ রিগ্রেশনটির জন্য সমাধানটির ব্যয় নিয়ে আমার কিছু সমস্যা রয়েছে। আমি নিয়মিতকরণ শব্দটি ছাড়াই রিগ্রেশন সমাধানটি জানি: β=(XTX)−1XTy.β=(XTX)−1XTy.\beta = (X^TX)^{-1}X^Ty. তবে ব্যয় কার্যক্রমে L2 শব্দটি করার পরে সমাধান কীভাবে আসেλ∥β∥22λ‖β‖22\lambda\|\beta\|_2^2 β=(XTX+λI)−1XTy.β=(XTX+λI)−1XTy.\beta = (X^TX + \lambda I)^{-1}X^Ty.

3
ক্রস-বৈধতা ব্যবহার করার সময় এক মান ত্রুটির নিয়মের জন্য অভিজ্ঞতাগত ন্যায়সঙ্গততা
পার্সিমোনির পক্ষে একক স্ট্যান্ডার্ড ত্রুটি বিধি ব্যবহারকে ন্যায্যতা প্রমাণ করার জন্য কি কোন অভিজ্ঞতামূলক গবেষণা রয়েছে? স্পষ্টতই এটি ডেটা ডেটা-প্রজন্মের প্রক্রিয়ার উপর নির্ভর করে, তবে যে কোনও কিছু যা ডেটাসেটের একটি বৃহত কর্পাস বিশ্লেষণ করে তা খুব আকর্ষণীয় পঠনযোগ্য হবে। "এক স্ট্যান্ডার্ড ত্রুটি বিধি" প্রয়োগ করা হয় যখন ক্রস-বৈধকরণের মাধ্যমে …

7
নিয়মিতকরণ কেন ডেটার জন্য গভীর নিউরাল নেট ক্ষুধা সমাধান করে না?
সাধারণভাবে নিউরাল নেটওয়ার্ক এবং বিশেষত ডিপ নিউরাল নেটওয়ার্কগুলির প্রসঙ্গে যে বিষয়টি আমি প্রায়শই সামনে এনেছি তা হ'ল তারা "ডেটা ক্ষুধার্ত" - এটি হ'ল আমাদের কাছে একটি বড় ডেটা সেট না করা পর্যন্ত তারা ভাল পারফর্ম করবেন না is নেটওয়ার্ক প্রশিক্ষণ যা দিয়ে। আমার বোধগম্যতা হ'ল এননেটস, বিশেষত ডিপ এননেটসের বিপুল …

2
যদি কেবল ভবিষ্যদ্বাণী করা আগ্রহী হয় তবে লসো ওভার রিজটি কেন ব্যবহার করবেন?
পরিসংখ্যানগত শিক্ষার পরিচিতির 223 পৃষ্ঠায় , লেখকরা রিজ রিগ্রেশন এবং লাসোর মধ্যে পার্থক্যগুলির সংক্ষিপ্তসার জানিয়েছেন। তারা যখন "লাসো পক্ষপাতিত্ব, বৈকল্পিকতা এবং এমএসই-র ক্ষেত্রে রিজ রিগ্রেশনকে ছাড়িয়ে যায়" এর একটি উদাহরণ দেয় (চিত্র 6..৯)। আমি বুঝতে পারি যে লাসো কেন আকাঙ্ক্ষিত হতে পারে: এর ফলে বিরাট সমাধান পাওয়া যায় কারণ এটি …

আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.