প্রশ্ন ট্যাগ «regression»

একটি (বা আরও) "নির্ভরশীল" ভেরিয়েবল এবং "স্বতন্ত্র" ভেরিয়েবলের মধ্যে সম্পর্ক বিশ্লেষণের কৌশল

1
টাইম সিরিজের মডেলগুলিতে আর-স্কোয়ার ব্যবহারে সমস্যা কী?
আমি পড়েছি যে টাইম সিরিজের জন্য আর-স্কোয়ার ব্যবহার করা উপযুক্ত নয় কারণ একটি সময়ের সিরিজের প্রসঙ্গে (আমি জানি যে অন্যান্য প্রসঙ্গ আছে) আর-স্কোয়ার আর অনন্য নয় unique কেন? আমি এটি সন্ধান করার চেষ্টা করেছি, কিন্তু কিছুই পাইনি। সাধারণত আমি যখন আমার মডেলগুলি মূল্যায়ন করি তখন আমি আর-স্কোয়ার্ড (বা অ্যাডজাস্টেড আর-স্কোয়ার্ড) …

2
একাধিক রৈখিক প্রতিরোধের জন্য সর্বনিম্ন পর্যবেক্ষণের সংখ্যা
আমি একাধিক লিনিয়ার রিগ্রেশন করছি। আমার 21 টি পর্যবেক্ষণ এবং 5 ভেরিয়েবল রয়েছে। আমার উদ্দেশ্যটি কেবল ভেরিয়েবলের মধ্যে সম্পর্ক সন্ধান করা আমার ডেটা একাধিক রিগ্রেশন করার জন্য যথেষ্ট সেট? টি-পরীক্ষার ফলাফলটি প্রকাশ করেছে আমার ভেরিয়েবলগুলির মধ্যে 3 টি উল্লেখযোগ্য নয়। উল্লেখযোগ্য ভেরিয়েবলগুলি (বা আমার প্রথম প্রতিরোধের উপসংহারটি পাওয়ার জন্য যথেষ্ট) …

3
দুটি opালু পার্থক্য গণনা কিভাবে?
দুটি লাইন (কম বেশি) সমান্তরাল কিনা তা বোঝার কোনও পদ্ধতি আছে? লিনিয়ার রিগ্রেশনগুলি থেকে আমার দুটি লাইন উত্পন্ন হয়েছে এবং আমি বুঝতে চাই তারা সমান্তরাল কিনা। অন্য কথায়, আমি এই দুটি লাইনের opালুগুলির বিভিন্ন পেতে চাই। এটি গণনা করার জন্য কোনও আর ফাংশন আছে? সম্পাদনা: ... এবং আমি কীভাবে একটি …

1
আর-তে এআইসি () এবং এক্সট্র্যাকএইসি () এর মধ্যে পার্থক্য কী?
উভয়ের জন্য আর ডকুমেন্টেশন খুব বেশি আলো দেয় না। এই লিঙ্কটি থেকে আমি যা কিছু পেতে পারি তা হ'ল যে কোনও একটি ব্যবহার করা ভাল। আমি যা পাই না তা কেন তারা সমান নয়। ঘটনা: আরে ধাপে ধাপে রিগ্রেশন ফাংশন step()ব্যবহার করে extractAIC()। মজার বিষয় হল, আর এর 'এম্টকার্স' ডেটা …

2
কেন "এক্স-এ ত্রুটি" মডেলগুলি আরও ব্যাপকভাবে ব্যবহৃত হয় না?
আমরা যখন কোনও রিগ্রেশন সহগের স্ট্যান্ডার্ড ত্রুটি গণনা করি, তখন আমরা নকশার ম্যাট্রিক্স এর এলোমেলোতার জন্য অ্যাকাউন্ট করি না । উদাহরণস্বরূপ OLS ঔজ্জ্বল্যের প্রেক্ষাপটে, আমরা নিরূপণ হিসাবেXXXvar(β^)var(β^)\text{var}(\hat{\beta})var((XTX)−1XTY)=σ2(XTX)−1var((XTX)−1XTY)=σ2(XTX)−1\text{var}((X^TX)^{-1}X^TY) = \sigma^2(X^TX)^{-1} যদি এলোমেলো বিবেচনা করা হয়, তবে সম্পূর্ণ ভিন্নতার আইনটি এক অর্থে, ভিন্নতার অতিরিক্ত অবদানেরও দাবি করবে। অর্থাতXXXXXX var ( β^) = …

3
ডাটা লিনিয়ার না হলে লিনিয়ার রিগ্রেশন কি তাৎপর্যপূর্ণ হতে পারে?
আমি একটি লিনিয়ার রিগ্রেশন সম্পাদন করেছি যা একটি উল্লেখযোগ্য ফলাফলের সাথে বেরিয়ে এসেছিল আমি যখন লিনিয়ারির জন্য বিক্ষিপ্ত-প্লটটি পরীক্ষা করেছিলাম তখন আমি বিশ্বাস করি না যে ডেটা লিনিয়ার ছিল was স্ক্যাটারপ্লট পরীক্ষা না করেই লিনিয়ারিটির জন্য পরীক্ষা করার অন্য কোনও উপায় আছে কি? লিনিয়ার রিগ্রেশনটি লিনিয়ার না হলে তা কি …
11 regression 

2
বহুবর্ষীয় রিগ্রেশন (এমএলআর) এর জন্য আত্মবিশ্বাসের ব্যবধানের আকার বোঝা
বহুবর্ষীয় রিগ্রেশনের আত্মবিশ্বাসের ব্যবধানের আকারটি বুঝতে আমার অসুবিধা হয়। এখানে একটি কৃত্রিম উদাহরণ, । বাম চিত্রটি ইউপিভি (চিত্রবিহীন পূর্বাভাসের বৈকল্পিক) চিত্রিত করে এবং ডান গ্রাফটি আত্মবিশ্বাসের বিরতি এবং (কৃত্রিম) পরিমাপক বিন্দুগুলিকে X = 1.5, X = 2 এবং X = 3 দেখায়।Y^=a+b⋅X+c⋅X2Y^=a+b⋅X+c⋅X2\hat{Y}=a+b\cdot X+c\cdot X^2 অন্তর্নিহিত তথ্য বিশদ: ডেটা সেটটিতে তিনটি …

1
জিএলএম পরামিতিগুলির অনুমানের জন্য স্বাধীনতার সংশোধনের ডিগ্রিগুলি ব্যবহার করা উচিত?
এই প্রশ্নটি এখানে মার্তিজানের উত্তর দ্বারা অনুপ্রাণিত । ধরা যাক আমরা একটি প্যারামিটার পরিবারের জন্য বাইনোমিয়াল বা পোইসন মডেলের মতো একটি জিএলএম ফিট করি এবং এটি একটি সম্পূর্ণ সম্ভাবনা পদ্ধতি (কাসিপোসাইসনের বিপরীতে)। তারপরে, প্রকরণটি গড়ের একটি ক্রিয়া of দ্বিপদী সহ: এবং পোইসন ।var [ এক্স] = ই[ এক্স] ই[ 1 …

1
মাল্টিভারিয়েট লিনিয়ার রিগ্রেশন বনাম বেশ কয়েকটি অবিভাজনিত রিগ্রেশন মডেল
অবিচ্ছিন্ন রিগ্রেশন সেটিংসে আমরা মডেল করার চেষ্টা করি y=Xβ+noisey=Xβ+noisey = X\beta +noise যেখানে পর্যবেক্ষণগুলির একটি ভেক্টর এবং প্রেডিক্টরগুলির সাথে ডিজাইন ম্যাট্রিক্স । সমাধানটি হ'ল ।y∈Rny∈Rny \in \mathbb{R}^nnnnX∈Rn×mX∈Rn×mX \in \mathbb{R}^{n \times m}mmmβ0=(XTX)−1Xyβ0=(XTX)−1Xy\beta_0 = (X^TX)^{-1}Xy মাল্টিভারিয়েট রিগ্রেশন সেটিংসে আমরা মডেল করার চেষ্টা করি Y=Xβ+noiseY=Xβ+noiseY = X\beta +noise যেখানে হল পর্যবেক্ষণ এবং বিভিন্ন …

2
কেন এই রিগ্রেশন আনোভা টেবিলগুলি অভিন্ন?
আমার একই গ্রুপ এবং তিন স্তরের এক্সের দুটি সংক্ষেপ রয়েছে, সামগ্রিকভাবে এন = 15, প্রতিটি গ্রুপ বা এক্সের স্তরে এন = 5 সহ প্রথম রেগ্রেশন এক্সকে শ্রেণীবদ্ধ হিসাবে গণ্য করে, সূচক ভেরিয়েবলগুলি স্তর 2 এবং 3 স্তরের সাথে নির্ধারিত করে একটি হচ্ছে রেফারেন্স। সূচক / ডামিগুলি এর মতো: X1 = …
11 regression  anova 

4
বহুবর্ষীয় বৈশিষ্ট্যগুলির সাথে রৈখিক প্রতিরোধের জন্য কৃত্রিম নিউরাল নেটওয়ার্কগুলি EQUIVALENT?
অন্যান্য মেশিন লার্নিং অ্যালগরিদমের তুলনায় আমি নিউরাল নেটওয়ার্কগুলি এবং তাদের সুবিধাগুলি সম্পর্কে আমার বোঝার উন্নতি করতে চাই। আমার বোঝা নীচের মত এবং আমার প্রশ্নটি হ'ল: আপনি দয়া করে আমার বোঝার সংশোধন ও পরিপূরক করতে পারেন? :) আমার বোঝার: (1) কৃত্রিম নিউরাল নেটওয়ার্কগুলি = একটি ফাংশন, যা ইনপুট মানগুলি থেকে আউটপুট …

2
ডেটাটিকে পরীক্ষা এবং প্রশিক্ষণে বিভক্ত করা কি নিখুঁতভাবে একটি "পরিসংখ্যান" জিনিস সেট করে?
আমি একজন পদার্থবিজ্ঞানের ছাত্র যিনি মেশিন লার্নিং / ডেটা সায়েন্স অধ্যয়ন করে যাচ্ছি তাই আমি এই প্রশ্নটির কোনও বিবাদ শুরু করার অর্থ বোঝাতে চাই না :) যাইহোক, কোনও পদার্থবিজ্ঞানের আন্ডারগ্রাজুয়েট প্রোগ্রামের একটি বড় অংশ ল্যাব / পরীক্ষা-নিরীক্ষা করা, যার অর্থ প্রচুর ডেটা প্রক্রিয়াজাতকরণ এবং পরিসংখ্যান বিশ্লেষণ। তবে পদার্থবিজ্ঞানীরা যেভাবে ডেটা …

1
ফলাফলগুলি কীভাবে ব্যাখ্যা করতে হয় যখন উভয় রিজ এবং লাসো পৃথকভাবে ভাল সম্পাদন করে তবে বিভিন্ন সহগ উত্পাদন করে
আমি লাসো এবং রিজ উভয়ের সাথেই একটি রিগ্রেশন মডেল চালাচ্ছি (0-5 এর মধ্যে একটি পৃথক ফলাফলের পরিবর্তনশীল ভবিষ্যদ্বাণী করতে)। মডেলটি চালানোর আগে, আমি বৈশিষ্ট্যটি সেটটি 250 থেকে 25 এ হ্রাস করার SelectKBestপদ্ধতি ব্যবহার করি । প্রাথমিক বৈশিষ্ট্য নির্বাচন ছাড়া লাসো এবং রিজ উভয়ই যথাযথ স্কোরকে কমিয়ে দেয় [যা ছোট নমুনার …

2
আপনি যদি এটি orthogonally না করতে পারেন তবে এটি কাঁচা করুন (বহুপদী রিগ্রেশন)
জন্য বহুপদী রিগ্রেশন সম্পাদন সম্মুখের , মানুষ কখনো কখনো কাঁচা polynomials, কখনও কখনও লম্ব polynomials ব্যবহার করুন। কিন্তু যখন তারা সম্পূর্ণ স্বেচ্ছাচারী বলে মনে হয় তা ব্যবহার করে।ওয়াইওয়াইYএক্সএক্সX এখানে এবং এখানে কাঁচা বহুপদী ব্যবহার করা হয়। তবে এখানে এবং এখানে , অরথোগোনাল বহুপথগুলি সঠিক ফলাফল দেয় বলে মনে হয়। কি, …

2
সঙ্কুচিততা যদি কোনও চতুর উপায়ে প্রয়োগ করা হয়, তবে এটি কি আরও দক্ষ অনুমানের জন্য সবসময় আরও ভাল কাজ করে?
ধরুন আমি দুই estimators আছে বিটা 1 এবং β 2 যে একই প্যারামিটারের সামঞ্জস্যপূর্ণ estimators হয় β 0 এবং এই ধরনের যে √βˆ1β^1\widehat{\beta}_1βˆ2β^2\widehat{\beta}_2β0β0\beta_0n−−√(βˆ1−β0)→dN(0,V1),n−−√(βˆ2−β0)→dN(0,V2)n(β^1−β0)→dN(0,V1),n(β^2−β0)→dN(0,V2)\sqrt{n}(\widehat{\beta}_1 -\beta_0) \stackrel{d}\rightarrow \mathcal{N}(0, V_1), \quad \sqrt{n}(\widehat{\beta}_2 -\beta_0) \stackrel{d}\rightarrow \mathcal{N}(0, V_2) সঙ্গেV1≤V2V1≤V2V_1 \leq V_2পিএসডি অর্থে। সুতরাং, এসিম্পটোটিকভাবে β 1থেকে অধিক কার্যকরী β 2। এই দুটি অনুমানকারী বিভিন্ন ক্ষতি …

আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.