পুনরাবৃত্ত (অনলাইন) সর্বনিম্ন স্কোয়ার অ্যালগরিদমকে নিয়মিত করে


12

টিখনভ নিয়মিতকরণ (ন্যূনতম স্কোয়ারগুলি নিয়মিত করা) এর জন্য কোনও অনলাইন (পুনরাবৃত্ত হওয়া) অ্যালগরিদমের দিকে আমাকে কী নির্দেশ করতে পারে?

একটি অফলাইন সেটিং, আমি নিরূপণ করবে আমার মূল ডেটা সেট যেখানে ব্যবহার λ ক্রস বৈধতা এন-ভাঁজ ব্যবহার পাওয়া যায়। Y = x ^ T \ hat \ বিটা ব্যবহার করে প্রদত্ত এক্সের জন্য একটি নতুন y মানের পূর্বাভাস দেওয়া যেতে পারে ।λYএক্সY=এক্সটি ββ^=(XTX+λI)1XTYλyxy=xTβ^

একটি অনলাইন সেটিংয়ে আমি ক্রমাগতভাবে নতুন ডেটা পয়েন্ট আঁকি। পুরো ডেটা সেটটিতে (আসল + নতুন) সম্পূর্ণ পুনরুদ্ধার না করে যখন আমি নতুন অতিরিক্ত ডেটা নমুনাগুলি আঁকি তখন আমি কীভাবে \ টুপি \ বিটা আপডেট করতে পারি β^?


1
আপনার তিখোনভ-নিয়ন্ত্রিত সর্বনিম্ন স্কোয়ারগুলিকে সম্ভবত পরিসংখ্যানগত বৃত্তগুলিতে লেভেনবার্গ-মার্কোয়ার্ড বলা হয় , এমনকি শুদ্ধ-লিনিয়ার সমস্যাগুলির ক্ষেত্রে প্রয়োগ করা হয় (যেমন এখানে)। অনলাইনে Levenberg Marquardt সম্পর্কে একটি কাগজ এর এখানে । আমি জানি না যে এটি কোনও সহায়তা কিনা।
গ্লেন_বি -রিনস্টেট মনিকা 10'14

উত্তর:


11

β^n=(XXT+λI)1i=0n1xiyi

যাক , তারপরMn1=(XXT+λI)1

β^n+1=Mn+11(i=0n1xiyi+xnyn) , এবং

Mn+1Mn=xnxnT , আমরা পেতে পারি

β^n+1=β^n+Mn+11xn(ynxnTβ^n)

উডবারি সূত্র অনুসারে , আমাদের রয়েছে

Mn+11=Mn1Mn1xnxnTMn1(1+xnTMn1xn)

ফলস্বরূপ,

β^n+1=β^n+Mn11+xnTMn1xnxn(ynxnTβ^n)

গড় গড় নির্দেশ করে আপনি আনুমানিক রেঞ্জের সাথে ব্যবহার করতে পারেন থেকে । আপনার ক্ষেত্রে আপনার পুনরাবৃত্তির জন্য সেরা নির্বাচন করার চেষ্টা করতে পারেন ।এম - 1 এনηn=nα α0.51α αMn11+xnTMn1xnα0.51α


আমি মনে করি আপনি যদি ব্যাচের গ্রেডিয়েন্ট অ্যালগরিদম প্রয়োগ করেন তবে এটি কাজ করে:

β^n+1=β^n+ηnni=0n1xi(yixiTβ^n)


যদি আমি প্রতিবার নতুন ডেটার ব্যাচের নমুনাগুলি সহ আমার রেজিস্টার আপডেট করি তবে যেখানে প্রতিটি ধারাবাহিক ব্যাচ কিছুটা আলাদা বিতরণ থেকে আঁকা হয়? অর্থাত্ নন আইআইডি। এক্ষেত্রে আমি চাইব যে রেজিস্ট্রার নতুন ডেটা আমলে নেবে, তবে পুরাতন ডেটা (পূর্ববর্তী ব্যাচগুলি) এর স্থানীয় অঞ্চলে এর ভবিষ্যদ্বাণীগুলিকে প্রভাবিত করবে না? আপনি যে কোনও সাহিত্যে আপনাকে দরকারী বোধ করতে পারেন তা কি আমাকে নির্দেশ করতে পারেন?
rnoodle

ভাল প্রশ্ন, তবে দুঃখিত বর্তমানে আমি উত্তরটিতে ব্যাচ গ্রেডিয়েন্ট ফর্মুলা ব্যবহার করতে বা সরাসরি ম্যাট্রিক্স ফর্ম প্রয়োগ করে আনতে পারলে এটি আপনার মডেলটিকে কতটা প্রভাব ফেলবে তা বলতে পারি না: এবং ta (- আলফা) * এক্স (ওয়াই-এক্স) 'বিটা_এন) যেখানে এক্স, ওয়াই আপনার নতুন ব্যাচের নমুনাগুলি
লেনন 310

হাই, মনে হচ্ছে নিয়মিতকরণের সহগ পুনরাবৃত্তির আপডেট সূত্রে জড়িত নয়? বা এটি কেবল এম ম্যাট্রিক্সের বিপরীতটি শুরু করার ক্ষেত্রে গুরুত্বপূর্ণ?
পেং ঝাও

4

একটি পয়েন্ট যা এখনও পর্যন্ত কেউ সম্বোধন করেছে তা হ'ল ডেটা পয়েন্ট যুক্ত হওয়ার সাথে সাথে নিয়মিতকরণ পরামিতি- ধ্রুবক রাখা মনে হয় না। এর কারণ হ'ল সাধারণত নিয়মিতভাবে ডেটা পয়েন্টের সংখ্যার সাথে রৈখিকভাবে বৃদ্ধি পাবে, যখন নিয়মিতকরণের মেয়াদ করবে না। λλ β 2Xβy2λβ2


এটি একটি আকর্ষণীয় বিষয়। তবে ঠিক কেন এটি "বোধ হয় না"? ধ্রুবক রাখা অবশ্যই গাণিতিকভাবে বৈধ, সুতরাং "বুদ্ধিমান হবেন না" কোনও প্রকার পরিসংখ্যানিক প্রসঙ্গে বুঝতে হবে। তবে কী প্রসঙ্গে? কি ভুল হয়? কোনও ধরণের সহজ ফিক্স যেমন, স্কোয়ারের যোগফলকে গড় স্কোয়ারের সাথে প্রতিস্থাপনের মতো হতে পারে? λ
শুক্র

স্কোলেড ভার্সনটি (উদাহরণস্বরূপ গড় স্কোয়ারড ত্রুটি) দিয়ে স্কোয়ারের যোগফলটি প্রতিস্থাপন করা অর্থপূর্ণ হবে, তবে কেবল পুনরাবৃত্তিযোগ্য কমপক্ষে স্কোয়ারগুলি ব্যবহার করলে তা পরিপূর্ণ হবে না।
ব্রায়ান বোর্চারস

কি ভুল যেতে হবে হিসাবে, আপনার পছন্দ উপর নির্ভর করে , আপনি ডাটা পয়েন্টের সংখ্যক বা ডাটা পয়েন্টের অল্প সংখ্যক সঙ্গে একটি খুব overregularized সমাধান সঙ্গে একটি খুব underregularized সমাধান পেতে চাই। λ
ব্রায়ান বোর্চারস

কেউ সন্দেহ করে যে, তবে যদি ডাটা পয়েন্ট পাওয়ার পরে প্রাথমিকভাবে টিউন করা হয় এবং তারপরে আরও ডেটা পয়েন্ট যুক্ত করা হয়, তবে আরও ডেটা পয়েন্ট এবং একই ফলে প্রাপ্ত সমাধানগুলি অতিরিক্ত -বা নিয়ন্ত্রিত কিনা তা নতুনগুলির উপর নির্ভর করবে datapoints। এই datapoints একটি বহুচলকীয় বন্টন থেকে একটি IID নমুনা, যে ক্ষেত্রে দেখা মত আচরণ অভিমানী দ্বারা বিশ্লেষন করা যায় এ সেট করা উচিত পর্যায়ে । এটি আপডেট করার সূত্রগুলিকে পরিবর্তন করবে, তবে এমন একটি নিয়মিত এবং সাধারণ উপায়ে যাতে দক্ষ গণনা এখনও সম্ভব। (+1)n λ λ এন / এন এনλnλλN/nN
শুক্রবার

3

সম্ভবত স্টোকাস্টিক গ্রেডিয়েন্ট বংশদ্ভুত কিছু এখানে কাজ করতে পারে। প্রাথমিক ডেটাসেটের উপরে আপনার সমীকরণটি ব্যবহার করে গণনা করুন ,, এটি আপনার প্রারম্ভিক অনুমান হবে। প্রতিটি নতুন ডেটা পয়েন্টের জন্য আপনি আপনার প্যারামিটারের প্রাক্কলন আপডেট করতে গ্রেডিয়েন্ট বংশোদ্ভূত এক ধাপ সম্পাদন করতে পারেন।β^


আমি তখন থেকেই বুঝতে পেরেছি যে এসজিডি (সম্ভবত মিনিব্যাচ) এই জাতীয় সমস্যার জন্য অর্থাত্ ফাংশন আনুমানিক আপডেট করা the
rnoodle

1

লিনিয়ার রিগ্রেশন-এ, একটি সম্ভাবনা হ'ল কিউআর পচন সরাসরি আপডেট করা হচ্ছে , যা এখানে বর্ণিত হয়েছে । আমি অনুমান করি যে, প্রতিটি নতুন ডেটাপয়েন্ট যুক্ত হওয়ার পরে -পুনর্নির্মাণ করতে না চাইলে রিজ রিগ্রেশন দিয়ে খুব অনুরূপ কিছু করা যেতে পারে।λXλ


0

উডবারি সূত্রটি ব্যবহারের তুলনায় এখানে একটি বিকল্প (এবং কম জটিল) পদ্ধতি রয়েছে। লক্ষ্য করুন এবং হিসেবে লেখা যেতে পারে অঙ্কের । যেহেতু আমরা অনলাইনে জিনিসগুলি গণনা করছি এবং যোগফলটি প্রসারিত হওয়া চাই না, তাই আমরা বিকল্পভাবে উপায়গুলি ( এবং ) ব্যবহার করতে পারি।XTXXTyXTX/nXTy/n

আপনি যদি এবং লিখেন তবে :Xy

X=(x1TxnT),y=(y1yn),

আমরা এবং ( তম সারি পর্যন্ত গণনা করা ) হিসাবে অনলাইন আপডেটগুলি লিখতে পারি :XTX/nXTy/nt

At=(11t)At1+1txtxtT,

bt=(11t)bt1+1txtyt.

আপনার online অনলাইন অনুমান তখন হয়ে যায়β

β^t=(At+λI)1bt.

দ্রষ্টব্য যে এটি পর্যবেক্ষণগুলি যুক্ত করার সাথে সাথে ধ্রুবক হিসাবে থাকা বিশ্লেষণেও সহায়তা করে!λ

এই পদ্ধতিটি কীভাবে https://github.com/joshday/OnlineStats.jl লিনিয়ার / রিজ রিগ্রেশন সম্পর্কিত অনলাইন অনুমান গণনা করে।

আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.