প্রশ্ন ট্যাগ «hyperparameter»

একটি প্যারামিটার যা পরিসংখ্যানের মডেল (বা ডেটা উত্পন্ন প্রক্রিয়া) এর জন্য কঠোর নয়, তবে পরিসংখ্যানগত পদ্ধতির জন্য একটি প্যারামিটার। এটি এর জন্য প্যারামিটার হতে পারে: পূর্ববর্তী বিতরণ, স্মুথিং, নিয়মিতকরণ পদ্ধতিতে একটি জরিমানা বা একটি অপ্টিমাইজেশন অ্যালগরিদমের পরিবার।

1
স্টোকাস্টিক গ্রেডিয়েন্ট বংশোদ্ভূত (এসজিডি) জন্য উপযুক্ত মিনিব্যাচ আকার নির্বাচন করা
এমন কোনও সাহিত্য আছে যা স্টোকাস্টিক গ্রেডিয়েন্ট বংশোদ্ভূত হওয়ার সময় মিনিবেচের আকারের পছন্দটি পরীক্ষা করে? আমার অভিজ্ঞতাকে, এটি একটি অভিজ্ঞতাগত পছন্দ বলে মনে হয়, সাধারণত ক্রস-বৈধতা বা থাম্বের বিভিন্ন নিয়ম ব্যবহার করে পাওয়া যায়। বৈধতা ত্রুটি হ্রাস হওয়ায় আস্তে আস্তে মিনিব্যাচের আকার বাড়ানো কি ভাল ধারণা? এটি সাধারণকরণের ত্রুটিতে কী …

1
শ্রেণিবদ্ধ গামা-পোইসন মডেলের জন্য হাইপারপ্রিয়র ঘনত্ব
ডেটা এর একটি শ্রেণিবিন্যাসের মডেল যেখানে এটি মানগুলির ( যেমন গামা বিতরণের গড় এবং প্রকরণটি প্রায় এর সাথে ডেটা এর প্রকৃতির এবং তারতম্যের সাথে মেলে (উদাহরণস্বরূপ, ক্লেটন এবং কালডোর, 1987 "ডিজাইজ ম্যাপিংয়ের জন্য বয়স-মানক সম্পর্কিত সম্পর্কিত ঝুঁকির" " বায়োমেট্রিক্স ) এর অনুশীলনমূলক বয়েস অনুমান" । স্পষ্টতই এটি কেবলমাত্র একটি অ্যাডহক …

4
কেন আমরা কেবল হাইপার প্যারামিটারগুলি শিখি না?
আমি একটি চমত্কার জনপ্রিয় কাগজ " এক্সপ্ল্লেইং অ্যান্ড হার্নেসিং অ্যাডভারসারিয়াল উদাহরণ " প্রয়োগ করছিলাম এবং কাগজে, এটি একটি প্রতিকূল উদ্দেশ্যমূলক ফাংশন প্রশিক্ষণ দেয় জ '' (θ) = αজে (θ) + (1 - α) জ '(θ)। এটি হাইপারপ্যারামিটার হিসাবে আচরণ করে। 0.1 0.1, 0.2, 0.3, ইত্যাদি হতে পারে etc. এই নির্দিষ্ট …

1
শেখার হার এবং লুকানো স্তরগুলির সংখ্যার মধ্যে সম্পর্ক?
নিউরাল নেটওয়ার্কের গভীরতা এবং শেখার হারের মধ্যে কোনও থাম্বের কোনও নিয়ম আছে? আমি লক্ষ্য করছি যে নেটওয়ার্কটি যত গভীর, তত শিক্ষার হার কম হবে। যদি এটি সঠিক হয় তবে তা কেন?

2
নেস্টেড ক্রস-বৈধকরণ - প্রশিক্ষণ সেটের কেফোল্ড সিভি এর মাধ্যমে মডেল নির্বাচন থেকে এটি কীভাবে আলাদা?
আমি প্রায়শই লোককে নেস্টেড ক্রস বৈধকরণের একটি বিশেষ ক্ষেত্রে হিসাবে 5x2 ক্রস-বৈধতা সম্পর্কে কথা বলতে দেখি । আমি ধরে নিলাম প্রথম সংখ্যাটি (এখানে: 5) অভ্যন্তরীণ লুপের ভাঁজগুলির সংখ্যা এবং দ্বিতীয় সংখ্যাটি (এখানে: 2) বাহ্যিক লুপের ভাঁজগুলির সংখ্যা বোঝায়? সুতরাং, এটি কীভাবে "traditionalতিহ্যবাহী" মডেল নির্বাচন এবং মূল্যায়নের পদ্ধতির থেকে আলাদা? "ট্র্যাডিশনাল" …

1
লিনিয়ার রিগ্রেশন কেন নিয়মিতকরণ প্যারামিটারের মানগুলিকেও শাস্তি দেয়?
বর্তমানে রিজ রিগ্রেশন শিখছি এবং আরও জটিল মডেলগুলির শাস্তি (বা আরও জটিল মডেলের সংজ্ঞা) সম্পর্কে আমি কিছুটা বিভ্রান্ত হয়ে পড়েছিলাম। আমি যা বুঝতে পারি তা থেকে মডেল জটিলতা অগত্যা বহুবর্ষীয় ক্রমের সাথে সম্পর্কিত হতে পারে না। তাই:2 + 3 + 4এক্স2+ 5এক্স3+ 6এক্স42+3+4x2+5x3+6x4 2 + 3+ 4x^2 + 5x^3 + …

1
হাইপারপ্যারামিটারগুলি টিউন করার সময় যদি আমি বৈধতা ডেটাতে মডেল পারফরম্যান্সের মূল্যায়ন করি তবে কেন বৈধতা ডেটা সম্পর্কিত তথ্য ফাঁস হবে?
পাইথনের সাথে ফ্রেঞ্চোইস চোল্টের ডিপ লার্নিংয়ে এটি বলে: ফলস্বরূপ, বৈধতা সেটটিতে পারফরম্যান্সের ভিত্তিতে মডেলটির কনফিগারেশনটি টিউন করার ফলে খুব শীঘ্রই বৈধতা সেটটিতে অতিরিক্ত মানানসই ফলাফল আসতে পারে যদিও আপনার মডেলটি এতে সরাসরি প্রশিক্ষণপ্রাপ্ত না হয়। এই ঘটনার কেন্দ্রবিন্দু হ'ল তথ্য ফাঁসের ধারণা। যখনই আপনি বৈধতা সেটটিতে মডেলটির পারফরম্যান্সের ভিত্তিতে আপনার …
আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.