অনুশীলনে কেন "স্যাডল-ফ্রি নিউটন" বংশদ্ভুত অ্যালগরিদম ব্যবহার করা হচ্ছে না?


13

সম্প্রতি আমি ইয়ান ডাউফিন এট আল-র একটি কাগজ পড়েছি। হাই-ডাইমেনশনাল নন-কনভেক্স অপটিমাইজেশনে স্যাডল পয়েন্ট সমস্যার সনাক্তকরণ এবং আক্রমণ করা , যেখানে তারা স্যাডল-ফ্রি নিউটন নামে একটি আকর্ষণীয় বংশদ্ভুত অ্যালগরিদম প্রবর্তন করে , যা ঠিক নিউরাল নেটওয়ার্ক অপ্টিমাইজেশনের জন্য উপযুক্ত বলে মনে হয় এবং স্যাডল পয়েন্টগুলিতে আটকা পড়তে হবে না ভ্যানিলা এসজিডি হিসাবে প্রথম অর্ডার পদ্ধতিগুলির মতো।

কাগজটি ২০১৪ সালের পুরানো, সুতরাং এটি একেবারেই নতুন কিছু নয় তবে, "বুনোতে" এটি ব্যবহার করতে দেখিনি। কেন এই পদ্ধতি ব্যবহার করা হচ্ছে না? বাস্তব বিশ্বের আকারের সমস্যা / নেটওয়ার্কগুলির জন্য কি হেসিয়ান গণনা খুব নিষিদ্ধ? এই অ্যালগরিদমের কিছু উন্মুক্ত উত্স বাস্তবায়নও সম্ভবত কিছু বড় গভীর শেখার ফ্রেমওয়ার্কের সাথে ব্যবহার করা যেতে পারে?

ফেব্রুয়ারী 2019 আপডেট করুন: এখন একটি বাস্তবায়ন উপলব্ধ: https://github.com/dave-fernandes/SaddleFreeOptimizer )


ভাল প্রশ্ন, আমি কিছুই খুঁজে পেলাম না। তবে সিউডোকোডটি খুব সহজ তাই আপনি নিজে চেষ্টা করে দেখতে পারেন, এই ক্ষেত্রে লেখকের একটি ডক্টরাল থিসিসের কয়েকটি কার্যকর প্রয়োগের বিশদ রয়েছে (পৃষ্ঠা 103, পেপিরাস.বিব.মন্ট্রিয়াল.সিএ / এক্সম্লুই / বিট্রিম / হ্যান্ডল /
1866/13710

1
আমি একটি উবার ডিপ-নিউরোইভোলিউশন ব্লগ পোস্টে এই একই কাগজের উল্লেখ পেয়েছি। লিঙ্ক: eng.uber.com / প্রদীপ - নুরোভোলিউশন আপনি লেখককে জিজ্ঞাসা করতে পারেন যদি তাদের কোনও প্রয়োগায়ন অনলাইনে / গিটহাবের মাধ্যমে ভাগ করে নেওয়া হয়েছে।
ক্যান্ট্রেন


যদি আমার অনুমান করতে হয় তবে আমার ধারণাটি হবে যে যখন আপনার মডেলটিতে কয়েক মিলিয়ন প্যারামিটার থাকে তখন হেসিয়ানকে ইনভার্ট করা অবৈজ্ঞানিক।
সাইকোরাক্স মনিকাকে

1
"আপনি কি বাস্তবায়ন আছে" থেকে আপনার প্রশ্নটিকে পরিমার্জন করতে পারেন? এটি সামর্থ্যজনক বলে মনে হচ্ছে, হ্যাঁ / কোনও উত্তর নেই এবং / অথবা কোনও সফ্টওয়্যার অনুরোধের মতো শোনায় (যা এখানে বিষয় বন্ধ রয়েছে)। আপনার প্রশ্নটি কি এমন কিছু দিয়ে ব্যাখ্যা করা যেতে পারে যে, 'আরও বেশি বাস্তবায়ন হয়েছে বলে মনে হয় না কেন এমন অসুবিধাগুলি বোঝায়'?
গুং - মনিকা পুনরায়

উত্তর:


2

উন্নততর অপ্টিমাইজেশনের অর্থ আরও ভাল একটি মডেল নয়। পরিশেষে আমরা কী যত্ন নিই তা হ'ল মডেলটি কতটা ভাল জেনারেলাইজ করে, এবং প্রশিক্ষণ সেটটিতে পারফরম্যান্স কতটা ভাল তা অগত্যা। ফ্যানসিয়ার অপ্টিমাইজেশান কৌশলগুলি সাধারণত প্রশিক্ষণ সেটে আরও ভাল পারফরম্যান্স করে এবং দ্রুত রূপান্তর করে তবে বুনিয়াদি অ্যালগরিদমের পাশাপাশি সর্বদা সাধারণকরণ হয় না। উদাহরণস্বরূপ এই কাগজটি দেখায় যে এসজিডি অ্যাডাম অপ্টিমাইজারের চেয়ে আরও ভাল সাধারণকরণ করতে পারে। এটি কিছু দ্বিতীয় অর্ডার অপ্টিমাইজেশন অ্যালগরিদমের ক্ষেত্রেও হতে পারে।


[সম্পাদনা] এটি এখানে প্রয়োগ না হওয়ায় প্রথম পয়েন্টটি সরানো হয়েছে। এটি নির্দেশ করার জন্য বৈয়ারজকে ধন্যবাদ।


1
যদিও আমি দ্বিতীয় দফার সাথে একমত, প্রথমটি এখানে বৈধ নয়। লেখকরা কেবলমাত্র ক্রিলোভ সাবস্পেসে অপ্টিমাইজেশন করার প্রস্তাব দেন, যার জন্য চতুর্ভুজ জটিলতার প্রয়োজন হয় না।
বায়ারজ
আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.