যেমনটি আপনি বলেছিলেন, কোনও সিদ্ধান্ত নেওয়ার সিদ্ধান্ত নেই, সুতরাং নতুন জটিলতা ক্লাস এবং নতুন ধরণের হ্রাসের প্রয়োজনীয়তা অপ্টিমাইজেশন-সমস্যার জন্য এনপি-কঠোরতার উপযুক্ত সংজ্ঞাতে পৌঁছানোর প্রয়োজন ।
এটি করার একটি উপায় হ'ল দুটি নতুন ক্লাস এনপিও এবং পিও করা যাতে অপ্টিমাইজেশনের সমস্যা থাকে এবং তারা সিদ্ধান্তের সমস্যার জন্য অবশ্যই এনপি এবং পি ক্লাসগুলি নকল করে । পাশাপাশি নতুন কমানোর প্রয়োজন। তারপরে আমরা সিদ্ধান্তের সমস্যার জন্য সফল ছিল এমন লাইন বরাবর অপ্টিমাইজেশান সমস্যার জন্য এনপি-কঠোরতার একটি সংস্করণ পুনরায় তৈরি করতে পারি । তবে প্রথমে আমাদের একমত হতে হবে একটি অপ্টিমাইজেশন-সমস্যা কী।
সংজ্ঞা: O=(X,L,f,opt) একটি অপ্টিমাইজেশন-সমস্যা হতে দিন । স্ট্রিং হিসাবে এনকোড করা উপযুক্ত ইনপুট বা উদাহরণগুলিরX সেট the এল একটি ফাংশন প্রতিটি ইনস্ট্যান্স মানচিত্র হয় এক্স ∈ এক্স স্ট্রিং একটি সেট, সম্মুখের সম্ভবপর সমাধান দৃষ্টান্ত এক্স । এটি একটি সেট কারণ একটি অপ্টিমাইজেশন-সমস্যার অনেকগুলি সমাধান রয়েছে। সুতরাং আমরা আশ্রয়স্থল একটি উদ্দেশ্য ফাংশন চ যে প্রতি যুগল জন্য আমাদের বলে (Lx∈Xx f(x,y) y∈L(x) উদাহরণ এবং এরব্যয়বামানসমাধান করে। opt আমাদের জানায় যে আমরা সর্বাধিক বা কমিয়ে আছি কিনা।
এই সংজ্ঞায়িত করতে কি একটি আমাদের অনুমতি দেয় সন্তোষজনক সমাধান হয়: যাক হতে সন্তোষজনক সমাধান একটি দৃষ্টান্ত এর এক্স ∈ এক্স একটি অপ্টিমাইজেশান-সমস্যার হে = ( এক্স , এল , চ , ণ পি টি ) সঙ্গে f ( x , y o p t ) = o p t { f ( x , y)yopt∈L(x)x∈XO=(X,L,f,opt)সন্তোষজনক সমাধান প্রায়ই দ্বারা চিহ্নিত করা হয় Y * ।
f(x,yopt)=opt{f(x,y′)∣y′∈L(x)}.
y∗
এখন আমরা এনপিও ক্লাসটি সংজ্ঞায়িত করতে পারি : এর সাথে সমস্ত অপ্টিমাইজেশন-সমস্যা ও = ( এক্স , এল , এফ , ও পি টি ) এর সেট হতে দিন:NPOO=(X,L,f,opt)
- X∈P
- | এর সাথে একটি বহুপদী রয়েছে y | ≤ পি ( | এক্স | ) সমস্ত উদাহরণ জন্য এক্স ∈ এক্স এবং সমস্ত সম্ভবপর সমাধান Y ∈ এল ( এক্স ) । তদুপরি একটি ডিস্ট্রিমেন্টিক অ্যালগরিদম রয়েছে যা বহুকালের মধ্যে সিদ্ধান্ত নেয় যে Y ∈ L ( x ) হবে ।p|y|≤p(|x|)x∈Xy∈L(x)y∈L(x)
- বহুপদী সময় মূল্যায়ন করা যাবে।f
এর পিছনে স্বজ্ঞাততা হ'ল:
- যদি আমাদের অপটিমাইজেশন সমস্যার একটি বৈধ উদাহরণ হয় তবে আমরা দক্ষতার সাথে যাচাই করতে পারি ।x
- সম্ভাব্য সমাধানগুলির আকারটি ইনপুটগুলির আকারে বহুপদীভাবে আবদ্ধ হয় , এবং যদি উদাহরণ x এর একটি সম্ভাব্য সমাধান হয় তবে আমরা দক্ষতার সাথে যাচাই করতে পারি ।y∈L(x)x
- সমাধানের মান দক্ষতার সাথে নির্ধারণ করা যেতে পারে।y∈L(x)
এই আয়না কিভাবে জন্য সংজ্ঞায়িত করা হয়, এখন পোঃ : আসুন পি হে থেকে সব সমস্যার সেট হতে এন পি হে যে বহুপদী সময় একটি নির্ণায়ক আলগোরিদিম দ্বারা সমাধান করা যেতে পারে।NPPONPO
এখন আমরা কি আমরা কল করতে চান সংজ্ঞায়িত করতে পারবেন পড়তা-অ্যালগরিদম : একটি পড়তা-অ্যালগরিদম একটি অপ্টিমাইজেশান-সমস্যার একটি আলগোরিদিম যে একটি সম্ভবপর সমাধান নির্ণয় হয় Y ∈ এল ( এক্স ) একটি উদাহরণস্বরূপ এক্স ∈ এক্স ।O=(X,L,f,opt)y∈L(x)x∈X
দ্রষ্টব্য: আমরা সর্বোত্তম সমাধানের জন্য জিজ্ঞাসা করি না যে কেবলমাত্র একটি সম্ভাব্য সমাধান কী আছে ।
এখন আমরা এরর দুই ধরনের আছে: পরম ত্রুটি একটি সম্ভবপর সমাধান একটি দৃষ্টান্ত এর এক্স ∈ এক্স অপ্টিমাইজেশান-সমস্যার হে = ( এক্স , এল , চ , ণ পি টি ) হল | f ( x , y ) - f ( x , y ∗ ) | ।y∈L(x)x∈XO=(X,L,f,opt)|f(x,y)−f(x,y∗)|
আমরা কে দ্বারা সীমাবদ্ধ অপ্টিমাইজেশান-সমস্যা ও -এর জন্য একটি আনুমানিক-অ্যালগরিদম এর পরম ত্রুটি বলে থাকি যদি অ্যালগরিদম A প্রতিটি উদাহরণের জন্য x ∈ X কে কে দ্বারা আবদ্ধ একটি সম্পূর্ণ ত্রুটিযুক্ত একটি সম্ভাব্য সমাধান বলে ।AOkAx∈Xk
উদাহরণ: গ্রাফের ক্রোমাটিক ইনডেক্সকে ভাইজিংয়ের উপপাদ্য অনুসারে (ব্যবহারযোগ্য কয়েকটি সংখ্যক রঙের সাথে প্রান্তে বর্ণের সংখ্যা) হয় হয় বা Δ + 1 , যেখানে Δ সর্বাধিক নোড ডিগ্রি। উপপাদ্য প্রমাণ থেকে একটি পড়তা-অ্যালগরিদম যে নির্ণয় একটি প্রান্ত সঙ্গে শোভা চিন্তিত যাবে Δ + + 1 রং। তদনুসারে আমরা জন্য একটি পড়তা-এলগরিদম আছে এম আমি এন আমি আছি তোমার দর্শন লগ করা মি - ই ঘ ছ ই সি ণ ঠ ণ r আমি এনΔΔ+1ΔΔ+1 প্রব্লেম যেখানে পরম ত্রুটি 1 দ্বারা আবদ্ধ হয়।Minimum−EdgeColoring1
এই উদাহরণটি একটি ব্যতিক্রম, ছোট পরম ত্রুটিগুলি বিরল, সুতরাং আমরা অপটিমাইজেশন-সমস্যা ও = ( এক্স , এল , এফ , ও পি টি ) এর উদাহরণ x এর অনুমান-অ্যালগরিদম এ এর আপেক্ষিক ত্রুটি সংজ্ঞা করি ( সঙ্গে চ ( এক্স , Y ) > 0 সবার জন্য এক্স ∈ এক্স এবং ওয়াই ∈ এল ( এক্স ) হতেϵA(x)AxO=(X,L,f,opt)f(x,y)>0x∈XY∈ এল ( এক্স )
εএকজন( x ) : = { 0| চ( এক্স , এ ( এক্স ) ) - এফ( x , y)*) |সর্বোচ্চ { চ( এক্স , এ ( এক্স ) ) , এফ( x , y)*) }চ( এক্স , এ ( এক্স ) ) = এফ( x , y)*)চ( এক্স , এ ( এক্স ) ) ≠ চ( x , y)*)
যেখানে হল সম্ভাব্য সমাধান যা অনুমান-অ্যালগরিদম এ দ্বারা গণনা করা হয় ।ক ( x ) = y∈ এল ( এক্স )একজন
আমরা এখন পড়তা-অ্যালগরিদম বর্ণনা করতে পারেন অপ্টিমাইজেশান-সমস্যার জন্য হে = ( এক্স , এল , চ , ণ পি টি ) একটি হতে δ -approximation-অ্যালগরিদম জন্য হে যদি আপেক্ষিক ত্রুটি ε একজন ( এক্স ) দ্বারা বেষ্টিত δ ≥ 0 প্রতিটি উদাহরণের জন্য এক্স ∈ এক্স , এইভাবে
ε একজন ( এক্স ) ≤ δএকজনও = ( এক্স, এল , এফ, ও পি টি )δহেεএকজন( এক্স )δ≥ 0x ∈ এক্স
εএকজন( x ) ≤ δ∀ x ∈ এক্স।
পছন্দমত আপেক্ষিক ত্রুটির সংজ্ঞার হর মধ্যে maximizing এবং কমানোর জন্য সংজ্ঞা প্রতিসম করতে নির্বাচিত করা হয়েছিল। আপেক্ষিক ত্রুটির মান ϵ A ( x ) ∈ [ 0 , 1 ] । সর্বাধিক সমস্যার ক্ষেত্রে সমাধানের মান কখনই ( 1 - ϵ এ ( এক্স ) এর চেয়ে কম হয় নাসর্বোচ্চ { চ( এক্স , এ ( এক্স ) ) , এফ( x , y)*) }εএকজন( x ) ∈ [ 0 , 1 ] এবং কোনওক্ষুদ্রতর সমস্যার জন্য 1 / ( 1 - ϵ A ( x ) ) ⋅ f ( x , y ∗ ) এর চেয়ে বড় কখনও হবে না।( 1 - ϵ)একজন( x ) ) ⋅ চ( x , y)*)1 / ( 1 - ϵএকজন( x ) ) ⋅ চ( x , y)*)
এখন আমরা একটি অপ্টিমাইজেশান-সমস্যা কল করতে পারেন যদি একটি হয় -approximable δ -approximation-অ্যালগরিদম একটি জন্য হে যে বহুপদী সময় রান।δδএকজনহে
আমরা প্রতিটি উদাহরণ জন্য ত্রুটিটি দেখতে চাই না , আমরা কেবলমাত্র নিকৃষ্টতম অবস্থার দিকে লক্ষ্য করি। সুতরাং আমরা সংজ্ঞায়িত ε একজন ( এন ) , সর্বোচ্চ relativ ত্রুটি পড়তা-আলগোরিদিম একটি অপ্টিমাইজেশান-সমস্যার জন্য হে হতে
ε একজন ( এন ) = চুমুক দিয়া পান { ε একজন ( এক্স ) | | এক্স | ≤ এন } ।এক্সεএকজন( এন )একজনহে
εএকজন( n ) = সুপার { ϵ ϵএকজন( এক্স ) | | এক্স | ≤ এন } ।
কোথায় উদাহরণ আকার হতে হবে ।| এক্স |
উদাহরণ: গ্রাফের সর্বাধিক মিলটি ভার্চেক্স কভারের সাথে ম্যাচিং থেকে সমস্ত ঘটনা নোড যুক্ত করে একটি ন্যূনতম নোড কভার রূপান্তরিত হতে পারে । এভাবে 1 / 2 ⋅ | সি | প্রান্তগুলি আচ্ছাদিত অনুকূল এক প্রতিটি কভার্ড প্রান্ত নোড এক থাকতে হবে সহ প্রতিটি প্রান্তবিন্দু কভার, অন্যথায় এটি উন্নত করা যেতে পারে হিসাবে, আমরা আছে 1 / 2 ⋅ | সি | ⋅ চ ( এক্স , Y * ) । এটি অনুসরণ করে | সি | - চ ( x , y ∗)সি1 / 2 ⋅ | সি|1 / 2 ⋅ | সি| ⋅চ( x , y)*)
তাই একজন সর্বোচ্চ মিলের জন্য লোভী অ্যালগোরিদম একটি হল1/2জন্য -approximatio-অ্যালগরিদমএমআমিএনআমিআছিএকটিঠ-ভীইদটিইএক্সসিণবনামইদ। অত: পরMআমিএনআমিআছিএকটিঠ-ভীইদটিইএক্সসিণবনামইদহয়1/2-approximable।
| সি| -চ( x , y)*)| সি|। 12
1 / 2Minimal−VertexCoverMinimal−VertexCover1/2
দুর্ভাগ্যক্রমে নিম্নোক্ত উদাহরণটি যেমন দেখায় যে তুলনামূলকভাবে ত্রুটি প্রায়শই মানের জন্য সর্বোত্তম ধারণা নয়:
উদাহরণ: একটি সরল লোভী-অ্যালগরিদম অনুমান করতে পারে । একটি বিশ্লেষণ দেখায় যে | সি |Minimum−SetCoverএবং এইভাবেএমআমিএনআমিআছিতোমার দর্শন লগ করামি-SইটিসিণবনামইদহবেLn(এন)
|C||C∗|≤Hn≤1+ln(n)
Minimum−SetCover -প্রশংসযোগ্য।
ln(n)1+ln(n)
আপেক্ষিক ত্রুটি যদি এর কাছাকাছি হয় তবে নিম্নলিখিত সংজ্ঞাটি সুবিধাজনক।1
যাক সঙ্গে একটি অপ্টিমাইজেশান-সমস্যা হতে চ ( এক্স , Y ) > 0 সবার জন্য এক্স ∈ এক্স এবং ওয়াই ∈ এল ( এক্স ) এবং একটি জন্য একটি পড়তা-অ্যালগরিদম হে । পড়তা-অনুপাত R একজন ( এক্স ) সম্ভবপর সমাধান একজন ( এক্স ) = YO=(X,L,f,opt)f(x,y)>0x ∈ এক্সY∈ এল ( এক্স )একজনহে Rএকজন( এক্স )উদাহরণের x ∈ X এর ∈ এল ( এক্স ) হ'ল
আর এ ( এক্স ) = { 1 ফ ( এক্স , এ ( এক্স ) ) = ফ ( এক্স , ওয়াই ∗ ) সর্বাধিক { ফ ( এক্স , এ ( এক্স ) )ক ( x ) = y∈ এল ( এক্স )x ∈ এক্স
Rএকজন( এক্স ) = { 1সর্বোচ্চ { চ( এক্স , এ ( এক্স ) )চ( x , y)*), চ( x , y)*)চ( এক্স , এ ( এক্স ) )}চ( এক্স , এ ( এক্স ) ) = এফ( x , y)*)চ( এক্স , এ ( এক্স ) ) ≠ চ( x , y)*)
হিসাবে আগে আমরা একটি পড়তা-অ্যালগরিদম কল একটি দ অপ্টিমাইজেশান-সমস্যার জন্য -approximation-অ্যালগরিদম হে যদি পড়তা-অনুপাত R একজন ( এক্স ) দ্বারা বেষ্টিত দ ≥ 1 যে ইনপুট জন্য এক্স ∈ এক্স ।
r A ( x ) ≤ r
এবং তবুও যদি আমাদের অপটিমাইজেশন-সমস্যা O এর জন্য একটি r -approximation-algorithm A থাকে তবে O কে r -approximable বলা হয়একজনRহেRএকজন( এক্স )r ≥ 1x ∈ এক্স
Rএকজন( x ) ≤ r
RএকজনহেহেR। আবার আমরা কেবলমাত্র নিকৃষ্টতম ক্ষেত্রেই যত্ন নিই এবং
সর্বাধিক অনুমান-অনুপাত হতে
আর এ ( এন ) = সুপার { আর এ ( এক্স ) ∣ | এক্স | ≤ এন } ।
তদনুসারে suboptimal সমাধানের জন্য আনুমানিক অনুপাত
1 এর চেয়ে বড় । এইভাবে আরও ভাল সমাধানের অনুপাত কম থাকে। জন্য
এম আমি এন আমি আছি তোমার দর্শন লগ করা মি - এস ই টি সি ণRএকজন( এন )Rএকজন( এন ) = সুপার { আরএকজন( এক্স ) | | এক্স | ≤ এন } ।
1 আমরা এখন এটি লিখতে পারি যে এটি
( 1 + ln ( n ) ) -প্রশংসযোগ্য। আর ক্ষেত্রে
এম আমি এন আমি আছি তোমার দর্শন লগ করা মি - ভী ই দ টি ই এক্স সি ণ বনাম ই দ আমরা পূর্ববর্তী উদাহরণ থেকে জানি যে এটা
2 -approximable। আপেক্ষিক ত্রুটি এবং আনুমানিক অনুপাতের মধ্যে আমাদের সহজ সম্পর্ক রয়েছে:
আর এ ( এক্স ) = 1এম আই এন আমি মি তোমার দর্শন লগ করা মি - S ই টি সি ণ বনাম ই দ( 1 + এলএন)( ঢ ) )এম আই এন আমি মি তোমার দর্শন লগ করা মি - ভী ই দ টি ই এক্স সি ণ বনাম ই দ2Rএকজন( এক্স ) = 11 - ϵএকজন( এক্স )εএকজন( এক্স ) = 1 - 1Rএকজন( এক্স )।
ε < 1 / 2r < 2ε ≥ 1 / 2r ≥ 2
α। ≤ 1। ≥ 1α = 1
হেএনপিহেRr ≥ 1
আমরা প্রায় মাধ্যমে হয়। আমরা সফল ধারনা কপি করতে চাই কমানোর এবং completness জটিলতা তত্ত্ব থেকে। পর্যবেক্ষণটি হ'ল অপটিমাইজেশন-সমস্যার অনেকগুলি এনপি-হার্ড সিদ্ধান্তের রূপগুলি একে অপরের কাছে হ্রাসযোগ্য হয় তবে তাদের অপ্টিমাইজেশনের বৈকল্পিকগুলির নিকটবর্তীতা সম্পর্কিত বিভিন্ন বৈশিষ্ট্য রয়েছে। এটি এনপি-সম্পূর্ণতা হ্রাস ব্যবহৃত বহুভিত্তিক-কার্প-হ্রাস কারণে, যা উদ্দেশ্যমূলক কাজটি সংরক্ষণ করে না। এমনকি যদি উদ্দেশ্যমূলক ফাংশনগুলি বহনযোগ্য-সময়-কার্প-হ্রাস রক্ষা করা হয় তবে সমাধানের মানের পরিবর্তন হতে পারে।
হে1হে2হে2হে1
হে1= ( এক্স1, এল1, চ1, ও পি টি1)হে2= ( এক্স2, এল2, চ2, ও পি টি2)এনপিহেহে1 এ পিহে2হে1≤এ পিহে2ছজগ
- ছ( এক্স1, r ) ∈ এক্স2এক্স1। এক্স1r > 1
- এল2( ছ( এক্স , আর1) ) ≠ ∅এল1( এক্স1) ≠ ∅এক্স1। এক্স1r > 1
- এইচ ( এক্স)1, y2, r ) ∈ এল1( এক্স1)এক্স1। এক্স1r > 1Y2। এল2( ছ( এক্স1, আর ) )
- Rছজ
চ2( ছ( এক্স1, r ) , y2) ≤ r ⇒ f1( এক্স1, এইচ ( এক্স)1, y2, দ ) ) ≤ 1 + + গ ⋅ ( দ - 1 )
এক্স1। এক্স1r > 1Y2। এল2( ছ( এক্স1, আর ) )
ছজRছ( এক্স1)এইচ ( এক্স)1, y2)
হে2∈ এ পিএক্সহে1≤এ পিহে2হে1∈ এ পিএক্স
সিসি
হেএনপিহেসিএনপিহেহেসি≤এ পিহে'। সি হে'≤এ পিহে
সিসি≤এ পিসি
এনপিহেএ পিএক্সএনপিহেএস এ টিWeighted−SatisfiabilityNPOMaximum−3SATAPX