প্রশ্ন ট্যাগ «least-squares»

একটি সাধারণ অনুমানের কৌশলকে বোঝায় যে দুটি পরিমাণের মধ্যে বর্গক্ষেত্রের পার্থক্য হ্রাস করার জন্য প্যারামিটার মানটি নির্বাচন করে, যেমন একটি ভেরিয়েবলের পর্যবেক্ষণকৃত মান এবং সেই পর্যবেক্ষণের প্রত্যাশিত মানটি প্যারামিটার মানের শর্তযুক্ত। গাউসীয় লিনিয়ার মডেলগুলি সর্বনিম্ন স্কোয়ার দ্বারা মাপসই হয় এবং সর্বনিম্ন স্কোয়ারগুলি একটি অনুমানকারীকে মূল্যায়নের উপায় হিসাবে গড়-স্কোয়ার্ড-ত্রুটি (এমএসই) ব্যবহারের অন্তর্নিহিত ধারণা।

3
ফ্রিচ-ওয়াহ উপপাদ্যের ইউটিলিটি
আমার একনোমেট্রিক্সে ফ্রিশ ওয়া প্রপঞ্চটি শেখানোর কথা, যা আমি অধ্যয়ন করি নি। আমি এর পেছনের গণিতগুলি বুঝতে পেরেছি এবং আমি আশা করি যে এই ধারণাটিও "একাধিক লিনিয়ার মডেল থেকে আপনি একটি নির্দিষ্ট সহগের জন্য যে সহগ অর্জন করবেন আপনি যদি" ​​অন্য রেজিস্ট্রারদের প্রভাব "বাদ দেন তবে সাধারণ রিগ্রেশন মডেলের সহগের …

2
প্রভাব কার্য এবং ওএলএস
আমি প্রভাবগুলি কীভাবে কাজ করে তা বোঝার চেষ্টা করছি। কোনও সাধারণ ওএলএস রিগ্রেশন প্রসঙ্গে ব্যাখ্যা করতে পারে yi=α+β⋅xi+εiyi=α+β⋅xi+εi\begin{equation} y_i = \alpha + \beta \cdot x_i + \varepsilon_i \end{equation} যেখানে আমি জন্য প্রভাব ফাংশন চাই ।ββ\beta

4
কেন হয়
দ্রষ্টব্য: SSTSSTSST = স্কোয়ারের মোটের সমষ্টি, SSESSESSE = = স্কোয়ার ত্রুটির সমষ্টি , এবং SSRSSRSSR = = স্কোয়ারগুলির রেজিস্ট্রেশন সমষ্টি। শিরোনামে সমীকরণটি প্রায়শই এইভাবে লেখা হয়: ∑i=1n(yi−y¯)2=∑i=1n(yi−y^i)2+∑i=1n(y^i−y¯)2∑i=1n(yi−y¯)2=∑i=1n(yi−y^i)2+∑i=1n(y^i−y¯)2\sum_{i=1}^n (y_i-\bar y)^2=\sum_{i=1}^n (y_i-\hat y_i)^2+\sum_{i=1}^n (\hat y_i-\bar y)^2 খুব সোজা প্রশ্ন, কিন্তু আমি একটি স্বজ্ঞাত ব্যাখ্যা খুঁজছি। Intuitively, এটা আমার মনে হচ্ছে মত SST≥SSE+SSRSST≥SSE+SSRSST\geq …

3
ওএলএসের অনুমানকারীকে অনুমান করার জন্য অনুমান
কেউ কি আমার জন্য সংক্ষেপে ব্যাখ্যা করতে পারেন, কেন ওএলএসের অনুমানকারীকে গণনা করার জন্য ছয়টি অনুমানের প্রতিটি প্রয়োজন? আমি কেবল বহুবিধ লাইনারিটি সম্পর্কেই পেয়েছি it এটি উপস্থিত থাকলে আমরা ম্যাট্রিক্সকে (X'X) বিপরীত করতে পারি না এবং পরিবর্তে সামগ্রিক অনুমানকটি অনুমান করতে পারি। অন্যদের সম্পর্কে কী (যেমন, রৈখিকতা, শূন্যের অর্থ ত্রুটি …

1
লিনিয়ার মডেলের আয়াতগুলিতে আর-স্কোয়ারটি সাধারণ রেখাযুক্ত মডেলটির বিচ্যুতি?
এই প্রশ্নের জন্য এখানে আমার প্রসঙ্গ: আমি যা বলতে পারি তা থেকে, ভারী ডেটা এবং surveyপ্যাকেজটি ব্যবহার করার সময় আমরা আর মধ্যে কোনও সাধারণ সর্বনিম্ন স্কোয়ার রিগ্রেশন চালাতে পারি না । এখানে, আমাদের ব্যবহার করতে হবে svyglm(), যা পরিবর্তে একটি সাধারণীকরণীয় রৈখিক মডেল চালায় (যা একই জিনিস হতে পারে? আমি …

5
সর্বনিম্ন স্কোয়ারের ক্ষেত্রে প্রাকৃতিক সংখ্যার দিকে বায়াস
কেন আমরা কমান করতে চাইছ x^2পরিবর্তে কমানোর এর |x|^1.95বা |x|^2.05। সংখ্যাটি ঠিক দুটি হওয়ার কেন কারণ রয়েছে বা এটি কেবল একটি সম্মেলন যা গণিতকে সরল করার সুবিধা রয়েছে?

1
আন্ডারডিটারিনাইমড সিস্টেমগুলির জন্য নুমপি কীভাবে ন্যূনতম স্কোয়ারগুলি সমাধান করে?
ধরা যাক যে আমাদের আকৃতির X (2, 5) এবং আকারের y (2,) রয়েছে এইটা কাজ করে: np.linalg.lstsq(X, y) আমরা কেবলমাত্র এক্সটি আকৃতির (এন, 5) যেখানে এন> = 5 তবে কেন এবং কীভাবে এটি কাজ করবে তা আশা করব? আমরা প্রত্যাশা অনুযায়ী 5 ওজন ফিরে পাই তবে এই সমস্যাটি কীভাবে সমাধান …

4
ল্যাগস এবং টাইম সিরিজের সাথে একাধিক লিনিয়ার রিগ্রেশন এর মধ্যে "মেকানিকাল" পার্থক্য কী?
আমি ব্যবসায় এবং অর্থনীতি থেকে স্নাতক যারা বর্তমানে তথ্য ইঞ্জিনিয়ারিংয়ে স্নাতকোত্তর ডিগ্রি অর্জন করছে। লিনিয়ার রিগ্রেশন (এলআর) এবং তারপরে টাইম সিরিজ অ্যানালাইসিস (টিএস) অধ্যয়নকালে, আমার মনে একটি প্রশ্ন ছড়িয়ে পড়ে। একাধিক লিনিয়ার রিগ্রেশন এবং এটিতে লেগ ভেরিয়েবল যুক্ত করার পরিবর্তে (এসিএফ এবং পিএসিএফ ব্যবহার করে নির্ধারিত ল্যাগের ক্রম সহ) কেন …

3
লিনিয়ার রিগ্রেশন সঞ্চালন করুন, তবে কিছু নির্দিষ্ট ডেটা পয়েন্টের মধ্য দিয়ে যেতে সমাধানকে বাধ্য করুন
আমি জানি যে কীভাবে পয়েন্টগুলির একটি সেটে লিনিয়ার রিগ্রেশন করা যায়। এটি হল, আমি জানি যে কীভাবে আমার পছন্দের একটি বহুপদী, কোনও প্রদত্ত ডেটা সেট, (এলএসই অর্থে) মাপসই করা যায়। যাইহোক, আমি যা জানি না, তা হল কীভাবে আমার সমাধানটিকে আমার পছন্দের কিছু নির্দিষ্ট পয়েন্টগুলিতে যেতে বাধ্য করা। আমি এটি …

6
লিনিয়ার রিগ্রেশন যখন ওয়াই আবদ্ধ এবং বিচ্ছিন্ন থাকে
প্রশ্নটি সোজাসুজি: ওয়াইয়ের সাথে আবদ্ধ এবং বিযুক্ত হয়ে গেলে লিনিয়ার রিগ্রেশন ব্যবহার করা কি উপযুক্ত (যেমন পরীক্ষার স্কোর 1 ~ 100, কিছু প্রাক-সংজ্ঞায়িত র‌্যাঙ্কিং 1 ~ 17)? এই ক্ষেত্রে, লিনিয়ার রিগ্রেশন ব্যবহার করা কি "ভাল নয়", বা এটি ব্যবহার করা সম্পূর্ণ ভুল?

3
উচ্চ-অর্ডার বহুপদী জন্য কেন এখানে বৃহত্তর সহগ আছে?
বিশপ এর মেশিন লার্নিংয়ের বইয়ে, এটি একটি বহুবচনীয় ফাংশনটিকে ডেটা পয়েন্টগুলির একটি সেটে বক্ররেখা-ফিটিংয়ের সমস্যা নিয়ে আলোচনা করেছে। এমটি বহুবর্ষের জন্য লাগানো অর্ডার হোক। এটি যে হিসাবে জানায় আমরা দেখতে পাই যে এম বাড়ার সাথে সাথে সহগের পরিমাণগুলি সাধারণত আরও বড় হয়। বিশেষত এম = 9 বহুবর্ষের জন্য, গুণাগুণগুলি বড় …

3
লিনিয়ার রিগ্রেশন: ওএলএস এবং এমএলইয়ের কোনও অস্বাভাবিক বিতরণ পরিচয় দেয়?
এই প্রশ্নটি এখানে মন্তব্যে দীর্ঘ আলোচনা থেকে অনুপ্রাণিত: লিনিয়ার রিগ্রেশন কীভাবে সাধারণ বিতরণ ব্যবহার করে? সাধারণ লিনিয়ার রিগ্রেশন মডেলটিতে সরলতার জন্য এখানে কেবলমাত্র একজন ভবিষ্যদ্বাণী দিয়ে লেখা হয়: যেখানে পরিচিত ধ্রুবক এবং শূন্য-স্বতন্ত্র ত্রুটি শর্তাবলী। যদি আমরা ত্রুটিগুলির জন্য অতিরিক্ত ধরে নিই, তবে স্বাভাবিকের সর্বনিম্ন স্কোয়ারের অনুমানকারী এবং এর সর্বাধিক …

3
কেন ট্রেস হয় অন্তত বর্গ রিগ্রেশনে প্যারামিটার ভেক্টর যখন পি মাত্রার হয়?
মডেলটিতে আমরা অনুমান করতে পারি the সাধারণ সমীকরণটি ব্যবহার করে:y=Xβ+ϵy=Xβ+ϵ{y} = X \beta + \epsilonββ\beta β^=(X′X)−1X′y,β^=(X′X)−1X′y,\hat{\beta} = (X'X)^{-1}X'y, এবং আমরা could পেতে পারিy^=Xβ^.y^=Xβ^.\hat{y} = X \hat{\beta}. অবশিষ্টাংশের ভেক্টর দ্বারা অনুমান করা হয় ϵ^=y−Xβ^=(I−X(X′X)−1X′)y=Qy=Q(Xβ+ϵ)=Qϵ,ϵ^=y−Xβ^=(I−X(X′X)−1X′)y=Qy=Q(Xβ+ϵ)=Qϵ,\hat{\epsilon} = y - X \hat{\beta} = (I - X (X'X)^{-1} X') y = Q y = Q …

1
এমএলই বনাম ওএলএস ব্যবহার করে
সাধারণ ন্যূনতম স্কোয়ারগুলির পরিবর্তে সর্বাধিক সম্ভাবনার প্রাক্কলনটি কখন ব্যবহার করা ভাল? প্রত্যেকের শক্তি এবং সীমাবদ্ধতাগুলি কী কী? আমি সাধারণ পরিস্থিতিতে প্রতিটি কোথায় ব্যবহার করতে পারি সে সম্পর্কে ব্যবহারিক জ্ঞান সংগ্রহ করার চেষ্টা করছি।

1
সমকামিতা অনুমান লঙ্ঘন করা হয়েছে এমন পরিস্থিতিতে কি বুটস্ট্র্যাপিং স্ট্যান্ডার্ড ত্রুটি এবং আত্মবিশ্বাসের ব্যবধানগুলি উপযুক্ত?
যদি স্ট্যান্ডার্ড ওএলএস রেগ্রেশনগুলিতে দুটি অনুমান লঙ্ঘিত হয় (ত্রুটির স্বাভাবিক বন্টন, সমকামিতা), বুটস্ট্র্যাপিং কি স্ট্যান্ডার্ড ত্রুটিগুলি এবং আত্মবিশ্বাসের বিরতি হ'ল রেজিস্ট্রার সহগের তাত্পর্যকে বিবেচনা করে অর্থবহ ফলাফলে পৌঁছানোর উপযুক্ত বিকল্প? বুটস্ট্র্যাপড স্ট্যান্ডার্ড ত্রুটি এবং আত্মবিশ্বাসের অন্তরগুলির সাথে তাত্পর্যপূর্ণ পরীক্ষা এখনও কি হেটেরোসেসটাস্টিকটির সাথে "কাজ" করে? যদি হ্যাঁ, তবে এই দৃশ্যে …

আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.