প্রশ্ন ট্যাগ «ridge-regression»

রিগ্রেশন মডেলগুলির জন্য একটি নিয়মিতকরণ পদ্ধতি যা গুণাগুণগুলি শূন্যের দিকে সঙ্কুচিত করে।

1
এল 1 নিয়ন্ত্রণের সাথে রিগ্রেশন কি লাসোর মতো এবং এল 2 নিয়মিতকরণের সাথে রিজ রিগ্রেশন একই? এবং কিভাবে "লাসো" লিখবেন?
আমি একটি সফটওয়্যার ইঞ্জিনিয়ার লার্নিং মেশিন লার্নিং, বিশেষত অ্যান্ড্রু এনগের মেশিন লার্নিং কোর্সের মাধ্যমে । নিয়মিতকরণের সাথে লিনিয়ার রিগ্রেশন অধ্যয়ন করার সময় , আমি এমন পদ পেয়েছি যা বিভ্রান্তিকর: এল 1 নিয়মিতকরণ বা এল 2 নিয়ন্ত্রণের সাথে রিগ্রেশন ফাঁস-দড়ি রিজ রিগ্রেশন সুতরাং আমার প্রশ্নগুলি: এল 1 নিয়মিতকরণের সাথে রিগ্রেশন কি …

2
টিখোনভ নিয়মিতকরণ কি রিজ রিগ্রেশন-এর মতো?
টিখনোভ নিয়মিতকরণ এবং রিজ রিগ্রেশন এমন শব্দগুলি প্রায়শই ব্যবহৃত হয় যেমন তারা অভিন্ন। পার্থক্যটি কী তা নির্দিষ্ট করে বলা সম্ভব?

4
রিজ, লাসো এবং ইলাস্টিক নেট
রিজ, লাসো এবং ইলাস্টিকনেট নিয়ন্ত্রণের পদ্ধতিগুলি কীভাবে তুলনা করতে পারে? তাদের সম্পর্কিত সুবিধা এবং অসুবিধাগুলি কী কী? যে কোনও ভাল প্রযুক্তিগত কাগজ, বা বক্তৃতা নোট পাশাপাশি প্রশংসা করা হবে।

2
এল 1 এর নিয়মিতকরণ কখন এল 2 এর থেকে আরও বিপরীতে কাজ করবে?
দ্রষ্টব্য: আমি জানি যে এল 1 এর বৈশিষ্ট্য নির্বাচনের সম্পত্তি রয়েছে। বৈশিষ্ট্য নির্বাচন সম্পূর্ণ অপ্রাসঙ্গিক হলে আমি কোনটি বেছে নেব তা বোঝার চেষ্টা করছি। কোন নিয়মিতকরণ (এল 1 বা এল 2) ব্যবহার করবেন তা কীভাবে সিদ্ধান্ত নেবেন? এল 1 / এল 2 নিয়মিতকরণের প্রতিটিের পক্ষে কী কী? L1 ব্যবহার করে …

2
গ্ল্যামনেট রিজ রিগ্রেশন আমাকে ম্যানুয়াল গণনার চেয়ে আলাদা উত্তর দিচ্ছে কেন?
রিজ রিগ্রেশন অনুমান গণনা করতে আমি গ্ল্যামনেট ব্যবহার করছি। আমি এমন কিছু ফলাফল পেয়েছি যা আমাকে সন্দেহজনক করে তুলেছিল যে গ্ল্যামনেট সত্যই আমার মনে হয় যা এটি করে। এটি যাচাই করার জন্য আমি একটি সাধারণ আর স্ক্রিপ্ট লিখেছিলাম যেখানে আমি সমাধানের মাধ্যমে রিজ রিগ্রেশন এবং গ্ল্যামনেটের একটির ফলাফলের সাথে তুলনা …

3
রিগ্রেশনে রিজ নিয়মিতকরণের ব্যাখ্যা
ন্যূনতম স্কোয়ার্স প্রসঙ্গে রিজ পেনাল্টি সম্পর্কে আমার বেশ কয়েকটি প্রশ্ন রয়েছে: βr i dছই= ( λ আইডি+ এক্স'এক্স)−1X′yβridge=(λID+X′X)−1X′y\beta_{ridge} = (\lambda I_D + X'X)^{-1}X'y 1) অভিব্যক্তিটি সূচিত করে যে এক্স এর কোভারিয়েন্স ম্যাট্রিক্সটি একটি তির্যক ম্যাট্রিক্সের দিকে সঙ্কুচিত হয়েছে, যার অর্থ (প্রক্রিয়াটির আগে ভেরিয়েবলগুলি মানক হিসাবে ধরে নেওয়া হয়) ইনপুট ভেরিয়েবলগুলির …

4
এল 1 রিগ্রেশন মিডিয়ান অনুমান করে যেখানে এল 2 রিগ্রেশন অনুমানের অর্থ?
সুতরাং আমাকে একটি প্রশ্ন জিজ্ঞাসা করা হয়েছিল যার ভিত্তিতে এল 1 (অর্থাত্ লাসো) এবং এল 2 (অর্থাত্ রিজ রিগ্রেশন) কী পরিমাণে পরিমাপ করে। উত্তরটি এল 1 = মিডিয়ান এবং এল 2 = গড়। এটিতে কোনও ধরণের স্বজ্ঞাত যুক্তি রয়েছে কি? নাকি এটি বীজগণিতভাবে নির্ধারণ করতে হবে? যদি তা হয় তবে …

1
ব্রিজ পেনাল্টি বনাম ইলাস্টিক নেট নিয়মিতকরণ
কিছু শাস্তি ফাংশন এবং অনুমান ভাল যেমন Lasso (যেমন চর্চিত হয়, L1L1L_1 ) এবং রিজ ( ) এবং কিভাবে এইসব রিগ্রেশনে তুলনা করুন।L2L2L_2 আমি ব্রিজ পেনাল্টি সম্পর্কে পড়ছি, যা the জেনারেলাইজড পেনাল্টি। এটিকে লাসো-এর সাথে তুলনা করুন, যার এবং রিজকে, সাথে তুলনা করুন, যাতে তাদের বিশেষ কেস তৈরি করে।∑∥βj∥γ∑‖βj‖γ\sum \|\beta_{j}\|^{\gamma}γ=1γ=1\gamma …

2
"ইউনিট-ভেরিয়েন্স" রিজ রিগ্রেশন অনুমানের সীমা যখন
অতিরিক্ত বাধা নিয়ে রিজ রিগ্রেশন বিবেচনা করুন যা ; এর বর্গাকার ইউনিটের সমষ্টি (সমানভাবে, ইউনিটের বৈকল্পিক) প্রয়োজন; প্রয়োজনে, কেউ ধরে নিতে পারেন যে এর সাথে বর্গক্ষেত্রের একক রয়েছে:y^y^\hat{\mathbf y}yy\mathbf y β^∗λ=argmin{∥y−Xβ∥2+λ∥β∥2}s.t.∥Xβ∥2=1.β^λ∗=arg⁡min{‖y−Xβ‖2+λ‖β‖2}s.t.‖Xβ‖2=1.\hat{\boldsymbol\beta}_\lambda^* = \arg\min\Big\{\|\mathbf y - \mathbf X \boldsymbol \beta\|^2+\lambda\|\boldsymbol\beta\|^2\Big\} \:\:\text{s.t.}\:\: \|\mathbf X \boldsymbol\beta\|^2=1. β^∗λβ^λ∗\hat{\boldsymbol\beta}_\lambda^* যখন \ ল্যাম্বদা \ থেকে \ …

2
নিয়মিত অনুমান সহ আত্মবিশ্বাসের বিরতি 'কভারেজ
ধরুন আমি কিছু ধরণের নিয়মিত অনুমান ব্যবহার করে কিছু উচ্চ-মাত্রিক ডেটা থেকে প্রচুর পরিমাণে পরামিতি অনুমান করার চেষ্টা করছি। নিয়ন্ত্রক অনুমানের মধ্যে কিছু পক্ষপাতিত্ব পরিচয় করিয়ে দেয়, তবে এটি এখনও একটি ভাল বাণিজ্য বন্ধ হতে পারে কারণ বৈকল্পিকতা হ্রাস করার জন্য এটির চেয়ে বেশি হওয়া উচিত। আমি যখন আত্মবিশ্বাসের ব্যবধানগুলি …

5
রিগ্রেশনে পক্ষপাত (ইন্টারসেপ্ট) শব্দটি সঙ্কুচিত না করার কারণ
একটি রৈখিক মডেল জন্য , সংকোচন শব্দটি সর্বদা ।পি ( β )y=β0+xβ+εy=β0+xβ+εy=\beta_0+x\beta+\varepsilonP(β)P(β)P(\beta) কী কারণে আমরা বায়াস (ইন্টারসেপ্ট) শব্দটি সঙ্কুচিত করি না ? নিউরাল নেটওয়ার্ক মডেলগুলিতে কি আমাদের পক্ষপাতের শব্দটি সঙ্কুচিত করা উচিত?β0β0\beta_0

2
রিজ নিগ্রহের অনুমানগুলি কী কী এবং সেগুলি কীভাবে পরীক্ষা করা যায়?
একাধিক রিগ্রেশন জন্য আদর্শ মডেল বিবেচনা করুন যেখানে ε ~ এন ( 0 , σ 2 আমি এন ) , তাই স্বাভাবিক, homoscedasticity এবং সব হোল্ড ত্রুটি uncorrelatedness।Y=Xβ+εY=Xβ+εY=X\beta+\varepsilonε∼N(0,σ2In)ε∼N(0,σ2In)\varepsilon \sim \mathcal N(0, \sigma^2I_n) ধরুন যে আমরা এর তির্যকের সমস্ত উপাদানগুলিতে একই অল্প পরিমাণ যুক্ত করে একটি রিজ রিগ্রেশন করব :XXX βridge=[X′X+kI]−1X′Yβridge=[X′X+kI]−1X′Y\beta_\mathrm{ridge}=[X'X+kI]^{-1}X'Y …

1
"বর্ণাল পচন" এর মাধ্যমে রিজ রিগ্রেশন ব্যবহার করে সঙ্কুচিত সহগের প্রমাণ
আমি বুঝতে পেরেছি যে রিজ রিগ্রেশন কীভাবে গুণাগুণকে শূন্য জ্যামিতিক দিকে সঙ্কুচিত করে। তবুও আমি জানি যে বিশেষ "অর্থনোরমাল কেস" এ কীভাবে প্রমাণ করতে হয় তবে আমি বিভ্রান্ত হয়ে পড়েছি যে "স্পেকট্রাল পচন" এর মাধ্যমে সাধারণ ক্ষেত্রে এটি কীভাবে কাজ করে।

2
দণ্ডিত রিগ্রেশন মডেল থেকে আর-স্কোয়ার এবং পরিসংখ্যানিক তাত্পর্য নির্ধারণ করা
আমি একটি ডেটাসেটের জন্য সহগের সঙ্কুচিত প্রাক্কলনগুলি পেতে দন্ডিত আর প্যাকেজটি ব্যবহার করছি যেখানে আমার প্রচুর ভবিষ্যদ্বাণী রয়েছে এবং কোনটি গুরুত্বপূর্ণ তা সম্পর্কে খুব কম জ্ঞান। আমি এল 1 এবং এল 2 টিউনিংয়ের প্যারামিটারগুলি বেছে নেওয়ার পরে এবং আমি আমার গুণাগুণগুলি নিয়ে সন্তুষ্ট হয়েছি, আর-স্কোয়ারের মতো কোনও কিছুর সাথে মডেল …

3
রিজ রিগ্রেশন এবং পিসিএ রিগ্রেশন মধ্যে সম্পর্ক
আমি (সঙ্গে শৈলশিরা রিগ্রেশন মধ্যে একটি সংযোগ ওয়েবে পঠিত কোথাও থাকার স্মরণ এবং পিসিএ রিগ্রেশন নিয়মিতকরণ): ব্যবহার করার সময় ℓ 2 hyperparameter সঙ্গে -regularized রিগ্রেশন λ , যদিℓ2ℓ2\ell_2ℓ2ℓ2\ell_2λλ\lambda , তারপর রিগ্রেশন সঙ্গে পিসি পরিবর্তনশীল সরানোর সমতূল্য সবচেয়ে ছোট এগেনুয়ালু।। → 0λ→0\lambda \to 0 এটা সত্য কেন? অপ্টিমাইজেশন প্রক্রিয়াটির সাথে এর …

আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.