প্রশ্ন ট্যাগ «least-squares»

একটি সাধারণ অনুমানের কৌশলকে বোঝায় যে দুটি পরিমাণের মধ্যে বর্গক্ষেত্রের পার্থক্য হ্রাস করার জন্য প্যারামিটার মানটি নির্বাচন করে, যেমন একটি ভেরিয়েবলের পর্যবেক্ষণকৃত মান এবং সেই পর্যবেক্ষণের প্রত্যাশিত মানটি প্যারামিটার মানের শর্তযুক্ত। গাউসীয় লিনিয়ার মডেলগুলি সর্বনিম্ন স্কোয়ার দ্বারা মাপসই হয় এবং সর্বনিম্ন স্কোয়ারগুলি একটি অনুমানকারীকে মূল্যায়নের উপায় হিসাবে গড়-স্কোয়ার্ড-ত্রুটি (এমএসই) ব্যবহারের অন্তর্নিহিত ধারণা।

1
গাউসীয় মডেলটিতে কমপক্ষে স্কোয়ার এবং এমএলইয়ের মধ্যে সমতা
আমি মেশিন লার্নিংয়ে নতুন, এবং নিজে থেকে এটি শেখার চেষ্টা করছি। সম্প্রতি আমি কিছু বক্তৃতা নোটের মাধ্যমে পড়ছিলাম এবং একটি প্রাথমিক প্রশ্ন ছিল। স্লাইড 13 বলছে যে "একটি গাউসির মডেলের অধীনে সর্বনিম্ন সম্ভাবনা প্রাক্কলনের সমান হ'ল" সর্বনিম্ন স্কোয়ার অনুমান। দেখে মনে হচ্ছে এটি সাধারণ কিছু, তবে আমি এটি দেখতে অক্ষম। …

2
বিরতি এবং opeালের জন্য ওএলএস অনুমানের মধ্যে সম্পর্ক Cor
একটি সাধারণ রিগ্রেশন মডেলে, y=β0+β1x+ε,y=β0+β1x+ε, y = \beta_0 + \beta_1 x + \varepsilon, ওএলএস অনুমানকারী এবং পরস্পর সম্পর্কযুক্ত।ββ^OLS0β^0OLS\hat{\beta}_0^{OLS}β^OLS1β^1OLS\hat{\beta}_1^{OLS} দুটি অনুমানকারীদের মধ্যে সম্পর্কের সূত্রটি হ'ল (যদি আমি এটি সঠিকভাবে উত্পন্ন করেছি): Corr(β^OLS0,β^OLS1)=−∑ni=1xin−−√∑ni=1x2i−−−−−−−√.Corr⁡(β^0OLS,β^1OLS)=−∑i=1nxin∑i=1nxi2. \operatorname{Corr}(\hat{\beta}_0^{OLS},\hat{\beta}_1^{OLS}) = \frac{-\sum_{i=1}^{n}x_i}{\sqrt{n} \sqrt{\sum_{i=1}^{n}x_i^2} }. প্রশ্নাবলী: পারস্পরিক সম্পর্কের উপস্থিতির স্বজ্ঞাত ব্যাখ্যা কী? পারস্পরিক সম্পর্কের উপস্থিতি কি কোনও গুরুত্বপূর্ণ জড়িত? …

4
আনোভা বনাম একাধিক লিনিয়ার রিগ্রেশন? আনোভা কেন এত বেশি পরীক্ষামূলক গবেষণায় ব্যবহৃত হয়?
আনোভা বনাম একাধিক লিনিয়ার রিগ্রেশন? আমি বুঝতে পারি যে এই দুটি পদ্ধতিই একই পরিসংখ্যানের মডেলটি ব্যবহার করেছে বলে মনে হচ্ছে। তবে কোন পরিস্থিতিতে আমার কোন পদ্ধতিটি ব্যবহার করা উচিত? তুলনা করার সময় এই পদ্ধতির সুবিধা এবং অসুবিধাগুলি কী কী? আনোভা কেন এত বেশি পরীক্ষামূলক গবেষণায় ব্যবহৃত হয় এবং আমি খুব …

1
লিনিয়ার রিগ্রেশন প্রেডিকশন ইন্টারভাল
যদি আমার ডাটা পয়েন্টগুলির মধ্যে সর্বোত্তম রৈখিক আনুমানিকতা (সর্বনিম্ন স্কোয়ার ব্যবহার করে) লাইন হয় তবে আমি কীভাবে আনুমানিক ত্রুটি গণনা করতে পারি? যদি আমি পর্যবেক্ষণ এবং পূর্বাভাসগুলির মধ্যে পার্থক্যগুলির স্ট্যান্ডার্ড বিচ্যুতি গণনা করি , তবে আমি পরে বলতে পারি যে একটি বাস্তব (তবে পর্যবেক্ষণ করা হয়নি) মান অন্তর অন্তর্গত ( …

1
ওএলএস একাধিক রিগ্রেশন এর পূর্বাভাস ব্যবধান কীভাবে গণনা করব?
একাধিক প্রতিরোধের জন্য পূর্বাভাস ব্যবধান গণনা করার জন্য বীজগণিত স্বরলিপিটি কী? এটি নির্বোধ শোনায়, তবে আমি এর একটি পরিষ্কার বীজগণিত স্বীকৃতি খুঁজে পেতে সমস্যায় পড়ছি।

6
আমরা কেন কোনও মডেল ফিট করার সময় সাধারণত বর্গ ত্রুটির সমষ্টি (এসএসই) হ্রাস করতে বেছে নিই?
প্রশ্নটি খুব সহজ: কেন আমরা যখন আমাদের ডেটা, লিনিয়ার বা নন-লিনিয়ার সাথে একটি মডেল ফিট করার চেষ্টা করি, আমরা সাধারণত মডেল প্যারামিটারের জন্য আমাদের অনুমানকারীটি পেতে ত্রুটিগুলির স্কোয়ারের যোগফলকে হ্রাস করার চেষ্টা করি? হ্রাস করতে অন্য কিছু উদ্দেশ্যমূলক কার্যকারিতাটি বেছে নিচ্ছেন না কেন? আমি বুঝতে পারি যে প্রযুক্তিগত কারণে, চতুর্ভুজ …

3
একাধিক প্রতিরোধের অর্থ "সমস্ত সমান সমান" এর অর্থ কী?
যখন আমরা একাধিক প্রতিক্রিয়া করি এবং বলি যে আমরা এক্স এর পরিবর্তনের জন্য yyy পরিবর্তনশীলের গড় পরিবর্তনের দিকে তাকিয়ে আছিxxx ভেরিয়েবলের , অন্য সমস্ত ভেরিয়েবলকে ধ্রুবক ধরে রেখেছি, তখন আমরা অন্যান্য ভেরিয়েবলকে ধ্রুবক হিসাবে ধরে রাখছি? তাদের মানে? জিরো? কোন মূল্য? আমি এটিকে কোনও মূল্যেই ভাবিতে ঝোঁক; শুধু স্পষ্টতা খুঁজছি। …

5
কোয়ান্টাইল রিগ্রেশন কখন ওএলএসের চেয়ে খারাপ হয়?
কিছু অনন্য পরিস্থিতি বাদে যেখানে আমাদের অবশ্যই শর্তাধীন মধ্যস্থ সম্পর্কের বিষয়টি বুঝতে হবে, কোয়ান্টাইল রিগ্রেশন নিয়ে কোনও গবেষকের ওএলএস বাছাই করা পরিস্থিতি কী? আমি "লেজের সম্পর্কগুলি বোঝার কোনও ব্যবহার না হলে" এর উত্তরটি চাই না, কারণ আমরা কেবল ওএলএস বিকল্প হিসাবে মিডিয়ান রিগ্রেশনকে ব্যবহার করতে পারি।

4
ন্যূনতম বর্গক্ষেত্র সমাধান কেন এই ক্ষেত্রে খারাপ ফলাফল দেয়?
বিশপের "প্যাটার্ন স্বীকৃতি এবং মেশিন লার্নিং" এর অধ্যায় 4 পৃষ্ঠায় 204 নম্বরে একটি চিত্র রয়েছে যেখানে আমি বুঝতে পারি না কেন ন্যূনতম বর্গক্ষেত্র সমাধান এখানে খারাপ ফলাফল দেয়: পূর্ববর্তী অনুচ্ছেদে এই বিষয়টি ছিল যে ন্যূনতম স্কোয়ারের সমাধানগুলির মধ্যে নীচের চিত্রটিতে আপনি যেমন দেখেন ততক্ষণে বিদেশিদের কাছে দৃust়তার ঘাটতি নেই, তবে …

2
প্রমাণ যে এফ-পরিসংখ্যানগুলি এফ-বিতরণ অনুসরণ করে
এই প্রশ্নের আলোকে: প্রমাণ যে কোনও ওএলএস মডেলের সহগগুলি স্বাধীনতার (এনকে) ডিগ্রি সহ টি-বিতরণ অনুসরণ করে আমি কেন বুঝতে চাই এফ= ( টিএসএস - আরএসএস ) / ( পি - 1 )আরএসএস / ( এন - পি ),এফ=(TSS-আরএসএস)/(পি-1)আরএসএস/(এন-পি), F = \frac{(\text{TSS}-\text{RSS})/(p-1)}{\text{RSS}/(n-p)}, যেখানে হল মডেল প্যারামিটারের সংখ্যা এবং পর্যবেক্ষণের সংখ্যা এবং …

2
পিসিএর চেয়ে এসভিডি-র কোনও সুবিধা আছে কি?
আমি জানি যে কীভাবে পিসিএ এবং এসভিডি গণিত হিসাবে গণনা করতে হয় এবং আমি জানি যে উভয়ই লিনিয়ার লেস্ট স্কোয়ার্স রিগ্রেশন-এ প্রয়োগ করা যেতে পারে। এসভিডি গাণিতিকভাবে প্রধান সুবিধাটি মনে হয় এটি নন-স্কোয়ার ম্যাট্রিকগুলিতে প্রয়োগ করা যেতে পারে। উভয়ই ম্যাট্রিক্সের পচনকে কেন্দ্র করে । উল্লিখিত এসভিডি সুবিধা ব্যতীত, পিসিএর উপরে …
20 pca  least-squares  svd 

2
লাসো পরিবর্তনশীল নির্বাচনের পরে ওএলএস করতে কীভাবে বোঝায়?
সম্প্রতি আমি আবিষ্কার করেছি যে প্রয়োগকৃত একনোমেট্রিক্স সাহিত্যে, বৈশিষ্ট্য নির্বাচনের সমস্যাগুলি মোকাবেলা করার সময়, নির্বাচিত ভেরিয়েবলগুলি ব্যবহার করে ওএলএস রিগ্রেশন অনুসরণ করার পরে ল্যাসো সম্পাদন করা অস্বাভাবিক কিছু নয়। আমি ভাবছিলাম যে কীভাবে আমরা এই জাতীয় পদ্ধতির বৈধতা অর্জন করতে পারি? এটি কি বাদ দেওয়া ভেরিয়েবলের মতো ঝামেলা সৃষ্টি করবে? …

2
আমি যখন আমার রিগ্রেশনে স্কোয়ার ভেরিয়েবল অন্তর্ভুক্ত করি তখন কী হয়?
আমি আমার ওএলএস রিগ্রেশন দিয়ে শুরু করি: যেখানে ডি একটি ডামি ভেরিয়েবল, অনুমানগুলি কম পি-মান দিয়ে শূন্যের থেকে আলাদা হয়ে যায়। আমি তারপরে একটি র‌্যামসে রিসেট পরীক্ষা করলাম এবং সমীকরণটির কিছু ভুল বানান রয়েছে তা আমি খুঁজে পেয়েছি, আমি এইভাবে x: y=β0+β1x1+β2D+εy=β0+β1x1+β2D+ε y = \beta _0 + \beta_1x_1+\beta_2 D + …

3
যখন আমরা লিনিয়ার রিগ্রেশনটি সমাধান করি তখন কি একাধিক স্থানীয় সর্বোত্তম সমাধান হতে পারে?
আমি একটি পুরানো সত্য / মিথ্যা পরীক্ষায় এই বিবৃতিটি পড়েছি: গ্রেডিয়েন্ট ডেসেন্ট ব্যবহার করে স্কোয়ারড ত্রুটির যোগফলকে হ্রাস করে যদি আমরা লিনিয়ার রিগ্রেশন সমস্যার সমাধান করি তবে আমরা একাধিক স্থানীয় সর্বোত্তম সমাধান পেতে পারি। সমাধান: মিথ্যা আমার প্রশ্ন, এই প্রশ্নের কোন অংশটি ভুল? কেন এই বিবৃতি মিথ্যা?

6
স্বজ্ঞাত ব্যাখ্যা)
তাহলে XXX পূর্ণ র্যাঙ্ক হয়, বিপরীত XTXXTXX^TX বিদ্যমান এবং আমরা লিস্ট স্কোয়ার অনুমান β^=(XTX)−1XYβ^=(XTX)−1XY\hat\beta = (X^TX)^{-1}XY এবং Var(β^)=σ2(XTX)−1Var⁡(β^)=σ2(XTX)−1\operatorname{Var}(\hat\beta) = \sigma^2(X^TX)^{-1} ভেরিয়েন্স সূত্রে আমরা কীভাবে স্বজ্ঞাতভাবে ব্যাখ্যা করতে পারি (XTX)−1(XTX)−1(X^TX)^{-1}? ডেরাইভেশনের কৌশলটি আমার পক্ষে পরিষ্কার।

আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.