সংক্ষিপ্ত উত্তর:
হ্যাঁ, সমান্তরালে লিনিয়ার রিগ্রেশন চালানো হয়েছে। উদাহরণস্বরূপ, জিয়াংরুই মেনগ এট আল। (2016) অ্যাপাচি স্পার্কে মেশিন লার্নিংয়ের জন্য। এটি যেভাবে কাজ করে তা হ'ল স্টোকাস্টিক গ্রেডিয়েন্ট ডেসেন্ট (এসজিডি)। বিভাগ 3, মূল বৈশিষ্ট্যগুলিতে, লেখক উল্লেখ করেছেন:
জেনারাইজড লিনিয়ার মডেলগুলি অপ্টিমাইজেশন অ্যালগরিদমগুলির মাধ্যমে শিখে নেওয়া হয় যা কর্মী গণনের জন্য দ্রুত সি ++ - ভিত্তিক লিনিয়ার বীজগণিত গ্রন্থাগারগুলি ব্যবহার করে গ্রেডিয়েন্ট গণনার সমান্তরাল করে।
এসজিডি কীভাবে কাজ করে তার একটি উদাহরণ এখানে আমার উত্তরে পাওয়া যাবে: স্টকাস্টিক গ্রেডিয়েন্ট বংশোদ্ভূত মান কিভাবে গ্রেডিয়েন্ট বংশোদ্ভূত অবতরণের সাথে তুলনা করে সময় বাঁচাতে পারে?
দীর্ঘ উত্তর:
দ্রষ্টব্য, স্বরলিপিটি আমার দেওয়া লিঙ্কটির সাথে সামঞ্জস্যপূর্ণ নয়, আমি মনে করি এই প্রশ্নের মধ্যে ম্যাট্রিক্স স্বরলিপি আরও ভাল।
লিনিয়ার রিগ্রেশন করতে আমরা চেষ্টা করছি
মিনিট কম করুন এক্স β- y∥2
ডেরাইভেটিভ হয়
2 এক্সটি( এক্সβ- y)
ছোট ডেটা সেটিংসে আমরা ডেরাইভেটিভ তে সেট করতে পারি এবং এটি সরাসরি সমাধান করতে পারি। (উদাহরণস্বরূপ, আর। এ কিউআর পচে যাওয়া) বড় ডেটা সেটিংসে ম্যাট্রিক্স ডেটা মেমরির মধ্যে সঞ্চয়যোগ্য নয় এবং সরাসরি সমাধান করা শক্ত হতে পারে। (কীভাবে বিপুল ম্যাট্রিকের জন্য কিউআর পচন বা কোলেস্কি পচন করতে পারি তার সাথে আমি পরিচিত নই)।এক্স0এক্স
এর সমান্তরাল করার একটি উপায় একটি পুনরাবৃত্ত পদ্ধতিটি ব্যবহার করার চেষ্টা করা হচ্ছে: স্টোকাস্টিক গ্রেডিয়েন্ট বংশোদ্ভূত, যেখানে আমরা ডেটার একটি উপসেট ব্যবহার করে গ্রেডিয়েন্টটি আনুমানিক করতে পারি। (আমরা যদি ডেটার উপসেট উপস্থাপনের জন্য , ব্যবহার তবে গ্রেডিয়েন্টটি দ্বারা প্রায় করা , এবং আমরা আনুমানিক গ্রেডিয়েন্টের সাথে আপডেট করতে পারি )।y s 2 X T s ( X s β - y s ) βএক্সগুলিYগুলি2 এক্সটিগুলি( এক্সগুলিβ- yগুলি)β
এছাড়াও, পরিসংখ্যানগুলির জন্য, আমরা সমান্তরালভাবে বা উপাত্তের একটি উপসেট ব্যবহার করে এটি প্রায় আনুমানিক সমস্ত ডেটার জন্য গণনা করতে পারি ।আর 2আর2আর2
এটি কীভাবে কাজ করে তা সম্পর্কে অনুপ্রেরণা (ম্যাপ্রেডিজ প্যারাডাইম):
আমি একটি উপসেট ব্যবহার করে আনুমানিকতা বলতে থাকি; এই কাজগুলির জন্য অন্তর্দৃষ্টিটি নিম্নলিখিত উদাহরণে বর্ণিত হতে পারে: ধরুন আমার কাছে 100 বিলিয়ন ডেটা পয়েন্ট রয়েছে এবং আমরা সমস্ত ডেটা পয়েন্টের গড় গণনা করতে চাই। মনে করুন যে এই ধরণের অপারেশন পরিচালনা করতে খুব দীর্ঘ সময় লাগে, এবং আরও পুরো তথ্য মেমরিতে সংরক্ষণ করা যায় না।
আমরা যা করতে পারি তা হ'ল কেবল একটি উপসেট নেওয়া, 1 বিলিয়ন আইটেম বলুন এবং এগুলির গড় গণনা করুন। এইভাবে উত্পাদিত আনুমানিকতা সত্য থেকে খুব বেশি দূরে থাকা উচিত নয় (অর্থাত্, পুরো ডেটা ব্যবহার করে)।
সমান্তরাল করতে, আমরা 100 টি কম্পিউটার ব্যবহার করতে পারি, যার মধ্যে প্রতিটি 1 বিলিয়ন ডেটা পয়েন্টের আলাদা উপসেট নিয়ে থাকে এবং এর গড় গণনা করে। (সাধারণত এমএপি পদক্ষেপ হিসাবে পরিচিত)। অবশেষে, এই 100 টি সংখ্যার উপর আরও একটি গড় চালান (ওরফে রেডইউএসইসি পদক্ষেপ)।
নোট করুন "ম্যাপ্রেডস দৃষ্টান্ত" কিছু ক্ষেত্রে ভাল কাজ করবে তবে অন্যের ক্ষেত্রে ভাল হয় না। উদাহরণস্বরূপ, পূর্বে উল্লিখিত "গড়" অপারেশনটি খুব সহজ, কারণ আমরা জানি , ( এবং এর দৈর্ঘ্য সমান বলে ধরে নেওয়া)। কিছু পুনরাবৃত্ত পদ্ধতির জন্য, যেমন, বর্তমান পুনরাবৃত্তি পূর্ববর্তী পুনরাবৃত্তির ফলাফলের উপর নির্ভরশীল, এটি সমান্তরাল করা শক্ত। স্টোকাস্টিক গ্রেডিয়েন্ট বংশোদ্ভূত ডেটাগুলির একটি উপসেট ব্যবহার করে গ্রেডিয়েন্টটি প্রায় অনুমান করে এই সমস্যাটি সমাধান করে। এবং বিশদটি @ ব্যবহারকারী20160 এর উত্তরে পাওয়া যাবে।x yগড় ( < x , y)> ) = গড় ( এক্স ) + গড় (y)এক্সY
তথ্যসূত্র:
জিয়াংরুই মেং এট। (2016) । এমএলিব: অ্যাপাচি স্পার্কে মেশিন লার্নিং