কখন আমি একটি পোশাকের শ্রেণিবদ্ধ ব্যবহার করব না?


17

সাধারণভাবে, একটি শ্রেণিবিন্যাসের সমস্যা যেখানে লক্ষ্যটি হ'ল নমুনা বহির্ভূত শ্রেণীর সদস্যতার পূর্বাভাস দেওয়া, আমি কখন একটি সাজানো শ্রেণিবদ্ধ ব্যবহার করব না ?

এই প্রশ্নটি ঘনিষ্ঠভাবে জড়িত কেন সর্বদা জড়ো শেখা ব্যবহার করবেন না? । এই প্রশ্নটি জিজ্ঞাসা করে যে আমরা কেন সারাক্ষণ জুটি ব্যবহার করি না। আমি জানতে চাই যে এমন কোনও মামলা রয়েছে যেখানে দোসরগুলিকে একটি নন-এনামেবল সমতুল্যর চেয়ে আরও খারাপ (কেবল "ভাল নয় এবং সময়ের অপচয় নয়") বলে জানা যায়।

এবং "এনসেম্বল ক্লাসিফায়ার" দ্বারা আমি বিশেষত অ্যাডাবুস্ট এবং এলোমেলো বন হিসাবে শ্রেণিবদ্ধের উল্লেখ করছি, যেমন একটি রোল আপনার নিজের উত্সাহিত সমর্থন ভেক্টর মেশিনের বিপরীতে।


2
যদি আপনার পৃথক পদ্ধতির মধ্যে বৈচিত্র না থাকে তবে আমি জমায়েত পদ্ধতিগুলি ব্যবহার করব না। অন্য কথায়, যখন আপনি বিভিন্ন পদ্ধতির সেট সংযুক্ত করেন তখন পোশাকগুলি কার্যকর।
পূর্বাভাসকারী

2
@ ফরেস্ট কাস্টমারদের প্রবন্ধে লেখকরা কীভাবে "ভাল" এবং "খারাপ" বৈচিত্র্য পৃষ্ঠাগুলি ডেকে থাকেন সে সম্পর্কে খুব ভাল কাগজ যুক্ত করতে আমি সাহায্য করতে পারিনি
ভ্লাদিসালভস ডভগ্যালিক্স

@ এক্সন চমৎকার নিবন্ধ। মেশিন লার্নিং পদ্ধতিগুলি নির্বিশেষে এটি এলোমেলো বন বা জড়ো করা (সংমিশ্রণ) বিভিন্ন পদ্ধতি, বৈচিত্র্য অবশ্যই সহায়তা করে। এই পিছনে শক্তিশালী তত্ত্ব এবং এটি বলা হয় এবং আমি আমি একটি Y আমি এন গুলি পি আমি r naturebiologically inspired
পূর্বাভাসকারী

উত্তর:


7

সত্য উপাত্ত তৈরির প্রক্রিয়াটির নিকটতম যে মডেলটি সর্বদা সেরা এবং বেশিরভাগ জড়ো পদ্ধতিতে পরাজিত করবে। সুতরাং যদি কোনও লিনিয়ার প্রক্রিয়া থেকে ডেটা আসে lm () এলোমেলো বনগুলির থেকে অনেক উন্নত হবে, যেমন:

    set.seed(1234)
p=10
N=1000
#covariates
x = matrix(rnorm(N*p),ncol=p)
#coefficients:
b = round(rnorm(p),2)
y = x %*% b + rnorm(N)
train=sample(N, N/2)
data = cbind.data.frame(y,x)
colnames(data) = c("y", paste0("x",1:p))
#linear model
fit1 = lm(y ~ ., data = data[train,])
summary(fit1)
yPred1 =predict(fit1,data[-train,])
round(mean(abs(yPred1-data[-train,"y"])),2)#0.79

library(randomForest)
fit2 = randomForest(y ~ ., data = data[train,],ntree=1000)
yPred2 =predict(fit2,data[-train,])
round(mean(abs(yPred2-data[-train,"y"])),2)#1.33

13

যখন আপনার মডেলটি ব্যাখ্যাযোগ্য এবং ব্যাখ্যাযোগ্য হওয়া প্রয়োজন তখন আমি কোনও সাজানো শ্রেণিবদ্ধ ব্যবহার করার পরামর্শ দিই না। কখনও কখনও আপনার ভবিষ্যদ্বাণীগুলির অনুমান এবং ব্যাখ্যা প্রয়োজন ।

আপনার যখন লোকদের বোঝানোর দরকার হয় যে ভবিষ্যদ্বাণীগুলি বিশ্বাসযোগ্য, তবে একটি অত্যন্ত নির্ভুল মডেল খুব প্ররোচিত হতে পারে, তবে যখন পদ্ধতিগুলি তাদের স্বাচ্ছন্দ্যের স্তরের পক্ষে খুব জটিল হয় তখন লোকেদের ভবিষ্যদ্বাণীগুলিতে কাজ করতে রাজি করার জন্য আমি সংগ্রাম করেছি।

আমার অভিজ্ঞতায়, বেশিরভাগ লোক লিনিয়ার অ্যাডিটিভ মডেলগুলি, তারা যে মডেলগুলি হাতে স্কোর করতে পারে তা নিয়ে স্বাচ্ছন্দ্য বোধ করে এবং আপনি যদি অভিযোজিত বৃদ্ধিকরণ, হাইপার-প্লেন এবং 5 তম স্তরের ইন্টারঅ্যাকশন প্রভাবগুলি ব্যাখ্যা করার চেষ্টা করেন তবে তারা প্রতিক্রিয়া জানাবে যেন আপনি তাদের কালো যাদুতে বেঁধছেন।

অন্যদিকে, মডেলগুলির জটিলতায় লোকেরা স্বাচ্ছন্দ্য বোধ করতে পারে তবে তবুও কিছু অন্তর্দৃষ্টি অভ্যন্তরীণ করতে চায়। উদাহরণস্বরূপ, বিজ্ঞানীরা ব্ল্যাক-বক্স মডেলটিকে মানব জ্ঞানের অগ্রিম হিসাবে বিবেচনা করবেন না, এমনকি মডেলটি অত্যন্ত সঠিক হলেও।

পরিবর্তনশীল গুরুত্ব বিশ্লেষণ অন্তর্দৃষ্টিগুলির সাথে সহায়তা করতে পারে, তবে যদি টীকাগুলি একটি লিনিয়ার সংযোজনীয় মডেলের চেয়ে আরও সঠিক হয়, তবে সম্ভবত এই সংগ্রহটি কিছু অ-রৈখিক এবং মিথস্ক্রিয়া প্রতিক্রিয়া ব্যবহার করছে যা ভেরিয়েবলের গুরুত্ব বিশ্লেষণের জন্য পুরোপুরি হিসাব করতে পারে না।


আমি যা পরে ছিল তা নয়, তবে ভাল পয়েন্ট। +1
21

3

আমি ব্র্যাঙ্কোর উত্তর যুক্ত করতে চাই নকশাগুলি অত্যন্ত প্রতিযোগিতামূলক হতে পারে এবং খুব ভাল ফলাফল সরবরাহ করতে পারে। উদাহরণস্বরূপ শিক্ষাবিদগুলিতে, এটি গণনা করে। শিল্পে, ensembles বাস্তবায়ন / রক্ষণাবেক্ষণ / সংশোধন / পোর্ট করা খুব কঠিন হতে পারে। "অন্ধকার জ্ঞান" সম্পর্কে গিফ হিন্টনের কাজটি ঠিক এই সম্পর্কে: কীভাবে একটি বৃহত আকারের "জ্ঞান" মডেলটির আশেপাশে স্থানান্তরিত করতে সহজভাবে রূপান্তর করা যায়। তিনি বলেছিলেন যে পরীক্ষার সময় নকশাগুলি খারাপ হয়: এগুলি অত্যন্ত অপ্রয়োজনীয় এবং গণনার সময় উদ্বেগের কারণ হতে পারে।

তার দলটি কিছু আকর্ষণীয় ফলাফল পেয়েছে, আমি তার প্রকাশনাগুলি বা কমপক্ষে স্লাইডগুলি পরীক্ষা করে দেখার পরামর্শ দিই। আমার স্মৃতি যদি ভাল থাকে তবে এটি 2013 বা 2014 এর অন্যতম জনপ্রিয় বিষয় ছিল।

অন্ধকার জ্ঞান সম্পর্কিত স্লাইডগুলি এখানে পাওয়া যাবে: http://www.ttic.edu/dl/dark14.pdf

আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.