প্যারামিটারগুলি অনুমানের জন্য মেশিন লার্নিংয়ের 'মৌলিক' ধারণা কী?


19

প্যারামিটারগুলি অনুমানের জন্য পরিসংখ্যানগুলির 'মৌলিক' ধারণাটি সর্বাধিক সম্ভাবনা । আমি ভাবছি মেশিন লার্নিংয়ে সম্পর্কিত ধারণাটি কী?

কিউন ১। এটা বলা কি ন্যায়সঙ্গত হবে যে প্যারামিটারগুলি অনুমানের জন্য মেশিন লার্নিংয়ের 'মৌলিক' ধারণাটি হ'ল: 'লোকসান ফাংশন'

[দ্রষ্টব্য: এটি আমার ধারণা যে মেশিন লার্নিং অ্যালগরিদমগুলি প্রায়শই একটি ক্ষতির ফাংশন অনুকূল করে এবং তাই উপরের প্রশ্নটি]]

কিউএন 2: এমন কোনও সাহিত্য আছে যা পরিসংখ্যান এবং মেশিন লার্নিংয়ের মধ্যে ব্যবধানটি সরিয়ে দেওয়ার চেষ্টা করে?

[দ্রষ্টব্য: সম্ভবত, ক্ষতির কার্যগুলি সর্বাধিক সম্ভাবনার সাথে সম্পর্কিত করে। (যেমন, ওলিএস সাধারণত বিতরণ ত্রুটি ইত্যাদির সর্বাধিক সম্ভাবনার সমতুল্য)]


3
একটি কল্পিত ফাঁক কাটাতে চেষ্টা করার বিষয়ে এই প্রশ্নের আগ্রহ আমি দেখছি না। সব কিসের লক্ষ্য? এছাড়াও অন্য অনেকের ধারণা রয়েছে যা পরিসংখ্যানগুলির জন্য মৌলিক ... এবং ক্ষতির ফাংশন কমপক্ষে 100 বছর পুরানো। আপনি কি এর মতো পরিসংখ্যান কমাতে পারেন? আপনার প্রশ্নটি ডাটামাইনিং / স্ট্যাটিস্টিক / মেশিন লার্নিংয়ের কল্পিত ধারণা সম্পর্কে যদিও আপনি এটি কল করেন ... তবে প্রশ্নটি ইতিমধ্যে বিদ্যমান এবং এটি খুব বিস্তৃত stats.stackexchange.com/questions/372/…
রবিন গিরার্ড

ভাল, আমি মেশিন লার্নিং বা পরিসংখ্যানগুলির সাথে এর সংযোগ সম্পর্কে খুব বেশি জানি না। যাই হোক না কেন, এই প্রশ্নটি দেখুন: stats.stackexchange.com/questions/6/… যা সূচিত করে যে খুব কমপক্ষে একই প্রশ্নের উত্তর দেওয়ার পন্থা আলাদা। তাদের মধ্যে কোনও রকম যোগসূত্র রয়েছে কিনা তা অবাক করা কি 'অপ্রাকৃত'? হ্যাঁ, আমি সম্মত হই যে পরিসংখ্যানগুলিতে প্রচুর ধারণা রয়েছে। সে কারণেই আমার কাছে উদ্ধৃতিগুলিতে মৌলিকতা রয়েছে এবং আগ্রহের পরামিতিগুলি অনুমান করার সুযোগটি সীমাবদ্ধ।

@ শ্রীকান্ত লিংক কিসের মধ্যে? নোট করুন যে আমি ভাল সংজ্ঞায়িত অবজেক্টের মধ্যে লিঙ্কটি অনুসন্ধান করতে চাই, আমি এটি সত্যই প্রাকৃতিক বলে মনে করি।
রবিন গিরার্ড

6
তর্কযোগ্যভাবে, একজন মেশিন লার্নার, আমি আপনাকে বলার জন্য এখানে এসেছি আমরা সম্ভাবনার বাইরে হ্যাককে সর্বোচ্চ করে তুলি। সব সময়. লোড মেশিন লার্নিং পেপারগুলি "আরে আমার সম্ভাবনা দেখুন, এটি কীভাবে অনুভূত হয় দেখুন, আমাকে সর্বাধিক দেখান" দিয়ে শুরু হয়। আমি পরামর্শ দিচ্ছি যে অনুমানের কৌশলগুলির ক্ষেত্রে উভয়ই শৃঙ্খলার মৌলিক ভিত্তি দাবি করা বিপজ্জনক। আপনি কোন সম্মেলনে যাবেন সে সম্পর্কে এটি আরও বেশি!
মাইক দেওয়র

6
আমি মনে করি না যে বায়েশিয়ানরা পরিসংখ্যানের মৌলিক ধারণা হওয়ার সর্বাধিক সম্ভাবনার সাথে একমত হবেন।
মার্ক ক্লেসেন

উত্তর:


17

যদি পরিসংখ্যানগুলি সম্ভাবনা সর্বাধিক করার বিষয়ে হয় তবে মেশিন লার্নিং হ্রাস হ্রাস করার বিষয়ে। যেহেতু আপনি ভবিষ্যতের ডেটাতে যে ক্ষতি করবেন তা আপনি জানেন না, তাই আপনি একটি আনুমানিক পরিমাণ হ্রাস করেন, অর্থাত্ত অভিজ্ঞতাগত ক্ষতি।

উদাহরণস্বরূপ, যদি আপনার পূর্বাভাস টাস্ক থাকে এবং ভুল শৃঙ্খলাগুলির সংখ্যা দ্বারা মূল্যায়ন করা হয় তবে আপনি পরামিতিগুলি প্রশিক্ষণ দিতে পারতেন যাতে ফলস্বরূপ মডেল প্রশিক্ষণের ডেটাতে সংক্ষিপ্ত সংখ্যক ভুল সংস্থান তৈরি করে। "ভুল সংখ্যার সংখ্যা" (যেমন, 0-1 ক্ষতি) এটির সাথে কাজ করা একটি শক্ত ক্ষতি ফাংশন কারণ এটি পৃথক নয়, তাই আপনি এটি একটি মসৃণ "সারোগেট" দিয়ে আনুমানিক। উদাহরণস্বরূপ, লগ লস 0-1 লোকসানের উপরের বাউন্ড হয়, সুতরাং আপনি এটির পরিবর্তে এটি হ্রাস করতে পারেন এবং এটি ডেটার সর্বাধিক শর্তযুক্ত সম্ভাবনা সর্বাধিকরূপে পরিণত হবে। প্যারামেট্রিক মডেলের সাথে এই পদ্ধতিটি লজিস্টিক রিগ্রেশনের সমতুল্য হয়ে ওঠে।

কাঠামোগত মডেলিংয়ের কার্য এবং লগ-ক্ষতি প্রায় ১-১ ক্ষতি হিসাবে, আপনি সর্বাধিক শর্তাধীন সম্ভাবনা থেকে আলাদা কিছু পান, আপনি পরিবর্তে (শর্তাধীন) প্রান্তিক সম্ভাবনার পণ্যকে সর্বাধিক করে তুলবেন।

লোকসানের আরও ভাল অনুমানের জন্য, লোকেরা লক্ষ্য করেছে যে লোকসান হ্রাস করতে প্রশিক্ষণ মডেল এবং ভবিষ্যতে লোকসানের অনুমান হিসাবে এই ক্ষতিটি ব্যবহার করা অত্যধিক আশাবাদী অনুমান। সুতরাং আরও সঠিক (সত্য ভবিষ্যতের ক্ষতি) হ্রাসের জন্য তারা অনুভূতিগত ক্ষতিতে পক্ষপাত সংশোধন শব্দ যুক্ত করে এবং এটি হ্রাস করে, এটি কাঠামোগত ঝুঁকি হ্রাসকরণ হিসাবে পরিচিত।

অনুশীলনে, সঠিক পক্ষপাত সংশোধন শব্দটি সন্ধান করা খুব কঠিন হতে পারে, সুতরাং আপনি পক্ষপাত সংশোধন শর্তের "আত্মার মধ্যে" একটি অভিব্যক্তি যুক্ত করুন, উদাহরণস্বরূপ, পরামিতিগুলির বর্গের যোগফল। শেষ পর্যন্ত, প্রায় সমস্ত প্যারামেট্রিক মেশিন লার্নিং তদারকি করা শ্রেণিবিন্যাসের নীচে নীচে হ্রাস করার জন্য মডেলটিকে প্রশিক্ষণ দেওয়া হয়

iL(m(xi,w),yi)+P(w)

যেখানে আপনার মডেল ভেক্টর দ্বারা parametrized হয় W , আমি সব datapoints অধিগৃহীত হয় { এক্স আমি , Y আমি } , এলmwi{xi,yi}L আপনার প্রকৃত কমে যাওয়া এবং কিছু গণনা চমৎকার পড়তা হয় কিছু পক্ষপাত সংশোধন / নিয়মিতকরণ মেয়াদP(w)

উদাহরণ হিসেবে বলা যায় আপনার যদি , Y { - 1 , 1 } , একটি সাধারন পদ্ধতির দিন হবে মি ( এক্স ) = চিহ্ন ( W এক্স ) , এল ( মি ( এক্স ) , Y ) = - লগ ( y × ( x ডাব্লু ) ) , পি (x{1,1}dy{1,1}m(x)=sign(wx)L(m(x),y)=log(y×(xw))P(w)=q×(ww) , এবং ক্রস বৈধতা দ্বারা চয়ন করুনq


3
আমি এই ক্ষতি ক্লাস্টারিং, kNN বা র্যান্ডম ফার্ন মধ্যে কমানোর দেখতে ভালোবাসতাম ...

ঠিক আছে, কে-মানে নিকটতম প্রতিবেশী লোকসানের ফাংশন বৈশিষ্ট্যের জন্য, এই কাগজের প্রাসঙ্গিক উপধারা (2.5) দেখুন: hpl.hp.com/conferences/icML2003/papers/21.pdf
জন এল টেলর

@ জন এখনও, এটি কারণগুলির সাথে লক্ষ্য মিশ্রিত করছে। আপনি যথেষ্ট পরিমাণে প্রতিটি অ্যালগরিদমকে কিছু হ্রাস করার ক্ষেত্রে ব্যাখ্যা করতে পারেন এবং এটিকে কিছু "ক্ষতি" হিসাবে অভিহিত করতে পারেন। কেএনএন এইভাবে আবিষ্কার করা হয়নি: বন্ধুরা, আমি এরকম ক্ষতির কথা ভেবেছি, আসুন এটি অপ্টিমাইজ করুন এবং দেখুন কী হবে !; বরং ছেলেরা, আসুন আমরা বলে রাখি যে বৈশিষ্ট্যটির জায়গার তুলনায় সিদ্ধান্তটি আরও কম ক্রমাগত হয়, তবে যদি আমাদের একটি ভাল মিলের পরিমাপ হয় ... ইত্যাদি।

2
"যদি পরিসংখ্যানগুলি সম্ভাব্যতা সর্বাধিকীকরণের বিষয়ে হয় তবে মেশিন লার্নিং হ্রাস হ্রাস সম্পর্কেই হয়" আমি আপনার দৃise়তার সাথে একমত নই - দৃ .়তার সাথে এবং পুরোপুরি। 1920 সালে এটি পরিসংখ্যানের সত্যই ছিল তবে এটি আজকের দিনে অবশ্যই নেই।
জেএমএস

19

আমি একটি আইটেমযুক্ত উত্তর দিতে হবে। দাবিতে আরও উদ্ধৃতি সরবরাহ করতে পারে, যদিও এটি সত্যই বিতর্কিত নয়।

  • পরিসংখ্যান সর্বাধিক (লগ)-সম্ভাবনা সম্পর্কে নয় । প্রিন্সিপাল বেইসিয়ানদের কাছে এটি অ্যানথেমা যাঁরা কেবল তাদের পোস্টারিয়র আপডেট করেন বা উপযুক্ত মডেলের মাধ্যমে তাদের বিশ্বাস প্রচার করেন।
  • পরিসংখ্যান অনেক হয় ক্ষয় কম সম্পর্কে। এবং তাই মেশিন লার্নিং অনেক। এমপিআরএলিকাল লস মিনিমাইজেশন এর এমএলতে আলাদা অর্থ রয়েছে। একটি পরিষ্কার, আখ্যান দেখার জন্য, ভ্যাপনিকের "পরিসংখ্যান শেখার প্রকৃতি" দেখুন
  • মেশিন লার্নিং হ্রাস হ্রাস সম্পর্কে নয় । প্রথমত, কারণ এমএলে প্রচুর পরিমাণে বায়শিয়ান রয়েছে; দ্বিতীয়ত, কারণ এমএলে বেশ কয়েকটি অ্যাপ্লিকেশনগুলির সাথে টেম্পোরাল লার্নিং এবং আনুমানিক ডিপি করতে হয়। অবশ্যই, একটি উদ্দেশ্যমূলক কার্য রয়েছে তবে "পরিসংখ্যান" শেখার চেয়ে এটির একটি আলাদা অর্থ রয়েছে।

আমি মনে করি না ক্ষেত্রগুলির মধ্যে কোনও ফাঁক রয়েছে, কেবলমাত্র অনেকগুলি ভিন্ন পদ্ধতি, কিছুটা ডিগ্রীতে ওভারল্যাপিং। আমি তাদের সুসংজ্ঞাত পার্থক্য এবং সাদৃশ্যগুলির সাথে নিয়মতান্ত্রিক শাখায় পরিণত করার প্রয়োজনীয়তা অনুভব করি না এবং তারা যে গতিতে বিকশিত হয় তা প্রদত্ত, আমি মনে করি এটি যাইহোক একটি ধ্বংসপ্রাপ্ত উদ্যোগ।


8

আমার যথেষ্ট খ্যাতি না থাকায় আমি কোনও মন্তব্য (এই মন্তব্যের উপযুক্ত স্থান) পোস্ট করতে পারি না, তবে প্রশ্নের মালিকের সেরা উত্তর হিসাবে গৃহীত উত্তরটি বিষয়টি মিস করে না।

"যদি পরিসংখ্যানগুলি সম্ভাবনা সর্বাধিক করার বিষয়ে হয় তবে মেশিন লার্নিং হ্রাস হ্রাস করার বিষয়ে।"

সম্ভাবনা হ'ল লোকসানের কাজ। সম্ভাবনা সর্বাধিকীকরণ হ্রাস ফাংশন হ্রাস করার সমান: ডেভিয়েশন, যা লগ-সম্ভাবনা কার্যের মাত্র -2 গুণ। একইভাবে স্কোয়ারের অবশিষ্টাংশের পরিমাণের বর্ণনা দিয়ে ক্ষতির ফাংশন হ্রাস করার বিষয়ে একটি ন্যূনতম স্কোয়ার সমাধান সন্ধান করা।

এমএল এবং পরিসংখ্যান উভয়ই কিছু ফাংশন (বিস্তৃত ভাষায়) উপাত্তের সাথে মানিয়ে নেওয়ার জন্য অ্যালগরিদম ব্যবহার করে। অপ্টিমাইজেশন অগত্যা কিছু ক্ষতির ফাংশন হ্রাস করা জড়িত।


1
ভাল কথা, এখনও মূল পার্থক্য অন্য কোথাও; প্রথমত, পরিসংখ্যানগুলি কোনও একটিতে থাকা একটি মডেলকে ফিট করার বিষয়ে, এমএল একটি ডেটাতে একটি মডেল ফিটিং করবে; দ্বিতীয়ত, পরিসংখ্যানগুলি বিশ্বাস করুন যে একটি প্রক্রিয়াটি পর্যবেক্ষণ করে তারা সম্পূর্ণরূপে কিছু খাঁজকাটা "লুকানো" মডেল দ্বারা চালিত হয় যা তারা খনন করতে চায়, যখন এমএল ট্রাইস কিছুটা জটিল করে তোলে যে সমস্যা-স্বতন্ত্র মডেল বাস্তবতার মতো আচরণ করে।

@mbq। এটি পরিসংখ্যানের পরিবর্তে কঠোর ক্যারিকেচার। আমি পাঁচটি বিশ্ববিদ্যালয়ের পরিসংখ্যান বিভাগে কাজ করেছি এবং আমি মনে করি না যে আমি এমন কারও সাথে দেখা করেছি যারা এই জাতীয় পরিসংখ্যান সম্পর্কে ভাবেন।
রব হ্যান্ডম্যান

1
@ রব ক্যারিকেচার? আমি মনে করি এটিই পরিসংখ্যানকে সুন্দর করে তোলে! আপনি এই সমস্ত গাউসিয়ান এবং লিনিয়ারিটি ধরে নিয়েছেন এবং এটি কেবল কাজ করে - এবং এর একটি কারণ রয়েছে যার নাম টেলর সম্প্রসারণ। বিশ্ব একটি জটিল জাহান্নাম, তবে প্রায় লিনিয়ার। (যা প্রায়শই নব্বই-কিছু জটিলতার%) বিব্রতকরভাবে তুচ্ছ। এমএল (এবং ননপ্যারমেট্রিক পরিসংখ্যান) এই কয়েক শতাংশ পরিস্থিতিতে আসে যেখানে আরও কিছু সূক্ষ্ম পদ্ধতির প্রয়োজন হয়। এটি কেবল নিখরচায় দুপুরের খাবার নয় - আপনি যদি উপপাদাগুলি চান তবে আপনার অনুমানের প্রয়োজন; আপনি যদি অনুমানগুলি না চান তবে আপনার আনুমানিক পদ্ধতি প্রয়োজন।

@mbq। যথেষ্ট ফর্সা। আমি অবশ্যই আপনার মন্তব্য ভুল ব্যাখ্যা করা উচিত।
রব হেন্ডম্যান

4

একটি তুচ্ছ উত্তর আছে - মেশিন লার্নিংয়ে কোনও পরামিতি অনুমান নেই! আমরা ধরে নিই না যে আমাদের মডেলগুলি কিছু লুকানো ব্যাকগ্রাউন্ড মডেলের সমতুল্য; আমরা বাস্তবতা এবং মডেল উভয়কেই কালো বাক্স হিসাবে গণ্য করি এবং আমরা মডেল বক্সটি (অফিসিয়াল টার্মিনোলজিতে ট্রেন) কাঁপানোর চেষ্টা করি যাতে এর আউটপুট বাস্তবতা বাক্সের মতো হয়।

অদৃশ্য তথ্যগুলিতে কেবল সম্ভাবনাই নয়, প্রশিক্ষণের ডেটা ভিত্তিক পুরো মডেল নির্বাচনটি যথাযথতার (যে কোনও সংজ্ঞায়িত; নীতিগতভাবে পছন্দসই ব্যবহারের সদর্থকতা) অনুকূলকরণের মাধ্যমে প্রতিস্থাপন করা হয়েছে; এটি মিলিত পদ্ধতিতে যথার্থতা এবং পুনরুদ্ধার উভয়কেই অনুকূলিত করতে সহায়তা করে। এটি সাধারণকরণের একটি দক্ষতার ধারণার দিকে পরিচালিত করে, যা বিভিন্ন ধরণের শিক্ষার্থীর উপর নির্ভর করে অর্জন করা হয়।

দুটি প্রশ্নের উত্তর সংজ্ঞাগুলির উপর নির্ভর করে; তবুও আমি মনে করি যে ননপ্যারমেট্রিকের পরিসংখ্যান এমন দুটি জিনিস যা দুটিকে সংযুক্ত করে।


আমি নিশ্চিত নই যে এটি পুরোপুরি সঠিক। কোন অর্থে মেশিন শেখার পদ্ধতিগুলি প্যারামিটারের প্রাক্কলন ছাড়াই (মডেলগুলির একটি প্যারামেট্রিক বা বিতরণ-মুক্ত সেট এর মধ্যে) কাজ করে?
জন এল টেইলর

1
আপনি কোনও কিছুর অনুমান / গণনা করছেন (সঠিক শব্দটি আলাদা হতে পারে)। উদাহরণস্বরূপ, একটি নিউরাল নেটওয়ার্ক বিবেচনা করুন। আপনি যখন কোনও কিছুর পূর্বাভাস দেওয়ার চেষ্টা করছেন তখন আপনি কি নেট জন্য ওজন গণনা করছেন না? তদতিরিক্ত, যখন আপনি বলছেন যে আপনি আউটপুটকে বাস্তবের সাথে মেলে ধরতে প্রশিক্ষণ দিচ্ছেন, আপনি কোনওরকম ক্ষতির ফাংশন সম্পর্কে স্পষ্টভাবে কথা বলছেন বলে মনে হয়।

@ জন, @ শ্রীকান্ত লার্নার্সের প্যারামিটার রয়েছে তবে এটি পরিসংখ্যানগত দিক থেকে পরামিতি নয়। লিনিয়ার রিগ্রেশন y = একটি এক্স বিবেচনা করুন (সহজ জন্য নিখরচায় শব্দ ছাড়া)। a হল এমন একটি প্যারামিটার যা পরিসংখ্যানগত পদ্ধতিগুলি উপযুক্ত হবে, y = a x এই ধারণাটি দিয়ে খাওয়ানট্রেনের সীমার মধ্যে x জানতে চাইলে মেশিন লার্নিং কেবল এক্স তৈরি করার চেষ্টা করবে (এটি বোঝা যায়, যেহেতু এটি y = a x ধরে নি ); এটি করতে এটি কয়েকশ পরামিতি ফিট করতে পারে।

3
[হদফ ঘ]. অন্য কথায়, আকর্ষণীয় উত্তর, যদিও এটি এমএল সাহিত্যের প্রচুর পরিমাণে কমপক্ষে (কমপক্ষে) প্রাণবন্ত হয় না।
gappy

1
ক্লাসিকাল এক হ'ল ব্রেইমের "পরিসংখ্যানের মডেলিং: দ্য দুটি সংস্কৃতি"।

2

আমি মনে করি না যে মেশিন লার্নিংয়ে প্যারামিটার অনুমানের চারপাশে একটি মৌলিক ধারণা আছে। এমএল জনতা যতক্ষণ না অ্যালগরিদমগুলি দক্ষ এবং "নির্ভুলভাবে" ভবিষ্যদ্বাণী করবে ততদিন সুখীভাবে সম্ভাবনা বা উত্তরোত্তর বৃদ্ধি করবে। ফোকাসটি গণনার উপর রয়েছে এবং পরিসংখ্যান থেকে প্রাপ্ত ফলাফলগুলি ব্যাপকভাবে ব্যবহৃত হয়।

যদি আপনি সাধারণভাবে মৌলিক ধারণাগুলি সন্ধান করেন, তবে গণনা শিক্ষার তত্ত্বে, পিএসি কেন্দ্রীয়; পরিসংখ্যান শেখার তত্ত্বে, কাঠামোগত ঝুঁকি হ্রাস ; এবং অন্যান্য ক্ষেত্রগুলি রয়েছে (উদাহরণস্বরূপ, জন ল্যাংফোর্ডের প্রেডিকশন সায়েন্স পোস্ট দেখুন)।

ব্রিজিং পরিসংখ্যান / এমএল-তে, এই বিভাজনটি অতিমাত্রায় মনে হচ্ছে। আমি "দুটি সংস্কৃতি" প্রশ্নের গ্যাপির উত্তরটি পছন্দ করেছি ।


পছন্দসই পি-মানটি উপস্থিত না হওয়া পর্যন্ত পরিসংখ্যান জনতা এসপিএসএস এ এলোমেলোভাবে ক্লিক করছে ...

1

ক্ষতিটিকে নেতিবাচক লগ হওয়ার সম্ভাবনা হিসাবে সংজ্ঞা দিয়ে আপনি সম্ভাবনা-সর্বাধিক সমস্যাটিকে ক্ষয়-হ্রাসকরণ সমস্যা হিসাবে পুনরায় লিখতে পারেন। সম্ভাবনা যদি স্বাধীন সম্ভাবনা বা সম্ভাবনা ঘনত্বের একটি পণ্য হয়, ক্ষতিটি স্বতন্ত্র পদগুলির যোগফল হবে, যা দক্ষতার সাথে গণনা করা যেতে পারে। তদ্ব্যতীত, যদি স্টোকাস্টিক ভেরিয়েবলগুলি সাধারণত বিতরণ করা হয় তবে সংশ্লিষ্ট ক্ষতি-কমানোর সমস্যাটি সর্বনিম্ন স্কোয়ারের সমস্যা হবে।

সম্ভাবনা-সর্বাধিকীকরণ পুনর্লিখন করে যদি ক্ষয়-হ্রাসের সমস্যা তৈরি করা সম্ভব হয় তবে এটিকে স্ক্র্যাচ থেকে ক্ষয়-হ্রাসকরণ সমস্যা তৈরি করার পক্ষে অগ্রাধিকার দেওয়া উচিত, যেহেতু এটি ক্ষতি-কমানোর সমস্যার জন্ম দেবে যা (আশাবাদী) আরও তাত্ত্বিকভাবে প্রতিষ্ঠিত এবং কম অ্যাডহক। উদাহরণস্বরূপ, ওজন যেমন ওজনযুক্ত সর্বনিম্ন বর্গক্ষেত্রগুলির জন্য, যার জন্য সাধারণত আপনার অনুমানের মূল্যায়ন করতে হয়, কেবল আসল সম্ভাবনা-সর্বাধিকীকরণ সমস্যার পুনর্লিখনের প্রক্রিয়া থেকে উদ্ভূত হবে এবং ইতিমধ্যে (আশাবাদী) অনুকূল মান রয়েছে।

আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.