সিদ্ধান্তগুলি বনাম "বাস্তব" সমস্যাগুলি হ্যাঁ বা না-নয় vs


36

আমি অনেক জায়গায় পড়ি যে কিছু সমস্যা আনুমানিক করা কঠিন (এটা হল দ্বারা NP-হার্ড সূক্ষ পরিমাপক তাদের)। তবে আনুমানিক সিদ্ধান্ত গ্রহণের সমস্যা নয়: উত্তরটি একটি আসল সংখ্যা এবং হ্যাঁ বা না নয় এছাড়াও প্রতিটি পছন্দসই অনুমানের ফ্যাক্টরের জন্য, অনেক উত্তর রয়েছে যা সঠিক এবং অনেকগুলি ভুল, এবং এটি পছন্দসই আনুমানিক ফ্যাক্টরের সাথে পরিবর্তন করে!

সুতরাং কেউ কীভাবে বলতে পারে যে এই সমস্যাটি এনপি-হার্ড?

(দ্বিতীয় বুলেট দ্বারা অনুপ্রাণিত একটি নির্দেশক গ্রাফের দুটি নোডের মধ্যে সহজ পাথের সংখ্যা গণনা কতটা কঠিন? )

উত্তর:


27

যেমনটি আপনি বলেছিলেন, কোনও সিদ্ধান্ত নেওয়ার সিদ্ধান্ত নেই, সুতরাং নতুন জটিলতা ক্লাস এবং নতুন ধরণের হ্রাসের প্রয়োজনীয়তা অপ্টিমাইজেশন-সমস্যার জন্য এনপি-কঠোরতার উপযুক্ত সংজ্ঞাতে পৌঁছানোর প্রয়োজন ।

এটি করার একটি উপায় হ'ল দুটি নতুন ক্লাস এনপিও এবং পিও করা যাতে অপ্টিমাইজেশনের সমস্যা থাকে এবং তারা সিদ্ধান্তের সমস্যার জন্য অবশ্যই এনপি এবং পি ক্লাসগুলি নকল করে । পাশাপাশি নতুন কমানোর প্রয়োজন। তারপরে আমরা সিদ্ধান্তের সমস্যার জন্য সফল ছিল এমন লাইন বরাবর অপ্টিমাইজেশান সমস্যার জন্য এনপি-কঠোরতার একটি সংস্করণ পুনরায় তৈরি করতে পারি । তবে প্রথমে আমাদের একমত হতে হবে একটি অপ্টিমাইজেশন-সমস্যা কী।

সংজ্ঞা: O=(X,L,f,opt) একটি অপ্টিমাইজেশন-সমস্যা হতে দিন স্ট্রিং হিসাবে এনকোড করা উপযুক্ত ইনপুট বা উদাহরণগুলিরX সেট the এল একটি ফাংশন প্রতিটি ইনস্ট্যান্স মানচিত্র হয় এক্স এক্স স্ট্রিং একটি সেট, সম্মুখের সম্ভবপর সমাধান দৃষ্টান্ত এক্স । এটি একটি সেট কারণ একটি অপ্টিমাইজেশন-সমস্যার অনেকগুলি সমাধান রয়েছে। সুতরাং আমরা আশ্রয়স্থল একটি উদ্দেশ্য ফাংশন যে প্রতি যুগল জন্য আমাদের বলে (LxXx f(x,y) yL(x) উদাহরণ এবং এরব্যয়বামানসমাধান করে। opt আমাদের জানায় যে আমরা সর্বাধিক বা কমিয়ে আছি কিনা।

এই সংজ্ঞায়িত করতে কি একটি আমাদের অনুমতি দেয় সন্তোষজনক সমাধান হয়: যাক হতে সন্তোষজনক সমাধান একটি দৃষ্টান্ত এর এক্স এক্স একটি অপ্টিমাইজেশান-সমস্যার হে = ( এক্স , এল , , পি টি ) সঙ্গে f ( x , y o p t ) = o p t { f ( x , y)yoptL(x)xXO=(X,L,f,opt)সন্তোষজনক সমাধান প্রায়ই দ্বারা চিহ্নিত করা হয় Y *

f(x,yopt)=opt{f(x,y)yL(x)}.
y

এখন আমরা এনপিও ক্লাসটি সংজ্ঞায়িত করতে পারি : এর সাথে সমস্ত অপ্টিমাইজেশন-সমস্যা = ( এক্স , এল , এফ , পি টি ) এর সেট হতে দিন:NPOO=(X,L,f,opt)

  1. XP
  2. | এর সাথে একটি বহুপদী রয়েছে y | পি ( | এক্স | ) সমস্ত উদাহরণ জন্য এক্স এক্স এবং সমস্ত সম্ভবপর সমাধান Y এল ( এক্স ) । তদুপরি একটি ডিস্ট্রিমেন্টিক অ্যালগরিদম রয়েছে যা বহুকালের মধ্যে সিদ্ধান্ত নেয় যে Y L ( x ) হবেp|y|p(|x|)xXyL(x)yL(x)
  3. বহুপদী সময় মূল্যায়ন করা যাবে।f

এর পিছনে স্বজ্ঞাততা হ'ল:

  1. যদি আমাদের অপটিমাইজেশন সমস্যার একটি বৈধ উদাহরণ হয় তবে আমরা দক্ষতার সাথে যাচাই করতে পারি ।x
  2. সম্ভাব্য সমাধানগুলির আকারটি ইনপুটগুলির আকারে বহুপদীভাবে আবদ্ধ হয় , এবং যদি উদাহরণ x এর একটি সম্ভাব্য সমাধান হয় তবে আমরা দক্ষতার সাথে যাচাই করতে পারি ।yL(x)x
  3. সমাধানের মান দক্ষতার সাথে নির্ধারণ করা যেতে পারে।yL(x)

এই আয়না কিভাবে জন্য সংজ্ঞায়িত করা হয়, এখন পোঃ : আসুন পি হে থেকে সব সমস্যার সেট হতে এন পি হে যে বহুপদী সময় একটি নির্ণায়ক আলগোরিদিম দ্বারা সমাধান করা যেতে পারে।NPPONPO

এখন আমরা কি আমরা কল করতে চান সংজ্ঞায়িত করতে পারবেন পড়তা-অ্যালগরিদম : একটি পড়তা-অ্যালগরিদম একটি অপ্টিমাইজেশান-সমস্যার একটি আলগোরিদিম যে একটি সম্ভবপর সমাধান নির্ণয় হয় Y এল ( এক্স ) একটি উদাহরণস্বরূপ এক্স এক্সO=(X,L,f,opt)yL(x)xX

দ্রষ্টব্য: আমরা সর্বোত্তম সমাধানের জন্য জিজ্ঞাসা করি না যে কেবলমাত্র একটি সম্ভাব্য সমাধান কী আছে ।

এখন আমরা এরর দুই ধরনের আছে: পরম ত্রুটি একটি সম্ভবপর সমাধান একটি দৃষ্টান্ত এর এক্স এক্স অপ্টিমাইজেশান-সমস্যার হে = ( এক্স , এল , , পি টি ) হল | f ( x , y ) - f ( x , y ) | yL(x)xXO=(X,L,f,opt)|f(x,y)f(x,y)|

আমরা কে দ্বারা সীমাবদ্ধ অপ্টিমাইজেশান-সমস্যা -এর জন্য একটি আনুমানিক-অ্যালগরিদম এর পরম ত্রুটি বলে থাকি যদি অ্যালগরিদম A প্রতিটি উদাহরণের জন্য x X কে কে দ্বারা আবদ্ধ একটি সম্পূর্ণ ত্রুটিযুক্ত একটি সম্ভাব্য সমাধান বলে ।AOkAxXk

উদাহরণ: গ্রাফের ক্রোমাটিক ইনডেক্সকে ভাইজিংয়ের উপপাদ্য অনুসারে (ব্যবহারযোগ্য কয়েকটি সংখ্যক রঙের সাথে প্রান্তে বর্ণের সংখ্যা) হয় হয় বা Δ + 1 , যেখানে Δ সর্বাধিক নোড ডিগ্রি। উপপাদ্য প্রমাণ থেকে একটি পড়তা-অ্যালগরিদম যে নির্ণয় একটি প্রান্ত সঙ্গে শোভা চিন্তিত যাবে Δ + + 1 রং। তদনুসারে আমরা জন্য একটি পড়তা-এলগরিদম আছে এম আমি এন আমি আছি তোমার দর্শন লগ করা মি - সি r আমি এনΔΔ+1ΔΔ+1 প্রব্লেম যেখানে পরম ত্রুটি 1 দ্বারা আবদ্ধ হয়।MinimumEdgeColoring1

এই উদাহরণটি একটি ব্যতিক্রম, ছোট পরম ত্রুটিগুলি বিরল, সুতরাং আমরা অপটিমাইজেশন-সমস্যা = ( এক্স , এল , এফ , পি টি ) এর উদাহরণ x এর অনুমান-অ্যালগরিদম এর আপেক্ষিক ত্রুটি সংজ্ঞা করি ( সঙ্গে ( এক্স , Y ) > 0 সবার জন্য এক্স এক্স এবং ওয়াই এল ( এক্স ) হতেϵA(x)AxO=(X,L,f,opt)f(x,y)>0xXyL(x)

ϵA(x):={0f(x,A(x))=f(x,y)|f(x,A(x))f(x,y)|max{f(x,A(x)),f(x,y)}f(x,A(x))f(x,y)

যেখানে হল সম্ভাব্য সমাধান যা অনুমান-অ্যালগরিদম দ্বারা গণনা করা হয় ।A(x)=yL(x)A

আমরা এখন পড়তা-অ্যালগরিদম বর্ণনা করতে পারেন অপ্টিমাইজেশান-সমস্যার জন্য হে = ( এক্স , এল , , পি টি ) একটি হতে δ -approximation-অ্যালগরিদম জন্য হে যদি আপেক্ষিক ত্রুটি ε একজন ( এক্স ) দ্বারা বেষ্টিত δ 0 প্রতিটি উদাহরণের জন্য এক্স এক্স , এইভাবে ε একজন ( এক্স ) δAO=(X,L,f,opt)δOϵA(x)δ0xX

ϵA(x)δxX.

পছন্দমত আপেক্ষিক ত্রুটির সংজ্ঞার হর মধ্যে maximizing এবং কমানোর জন্য সংজ্ঞা প্রতিসম করতে নির্বাচিত করা হয়েছিল। আপেক্ষিক ত্রুটির মান ϵ A ( x ) [ 0 , 1 ] । সর্বাধিক সমস্যার ক্ষেত্রে সমাধানের মান কখনই ( 1 - ϵ ( এক্স ) এর চেয়ে কম হয় নাmax{f(x,A(x)),f(x,y)}ϵA(x)[0,1] এবং কোনওক্ষুদ্রতর সমস্যার জন্য 1 / ( 1 - ϵ A ( x ) ) f ( x , y ) এর চেয়ে বড় কখনও হবে না।(1ϵA(x))f(x,y)1/(1ϵA(x))f(x,y)

এখন আমরা একটি অপ্টিমাইজেশান-সমস্যা কল করতে পারেন যদি একটি হয় -approximable δ -approximation-অ্যালগরিদম একটি জন্য হে যে বহুপদী সময় রান।δδAO

আমরা প্রতিটি উদাহরণ জন্য ত্রুটিটি দেখতে চাই না , আমরা কেবলমাত্র নিকৃষ্টতম অবস্থার দিকে লক্ষ্য করি। সুতরাং আমরা সংজ্ঞায়িত ε একজন ( এন ) , সর্বোচ্চ relativ ত্রুটি পড়তা-আলগোরিদিম একটি অপ্টিমাইজেশান-সমস্যার জন্য হে হতে ε একজন ( এন ) = চুমুক দিয়া পান { ε একজন ( এক্স ) | | এক্স | এন } xϵA(n)AO

ϵA(n)=sup{ϵA(x)|x|n}.

কোথায় উদাহরণ আকার হতে হবে ।|x|

উদাহরণ: গ্রাফের সর্বাধিক মিলটি ভার্চেক্স কভারের সাথে ম্যাচিং থেকে সমস্ত ঘটনা নোড যুক্ত করে একটি ন্যূনতম নোড কভার রূপান্তরিত হতে পারে । এভাবে 1 / 2 | সি | প্রান্তগুলি আচ্ছাদিত অনুকূল এক প্রতিটি কভার্ড প্রান্ত নোড এক থাকতে হবে সহ প্রতিটি প্রান্তবিন্দু কভার, অন্যথায় এটি উন্নত করা যেতে পারে হিসাবে, আমরা আছে 1 / 2 | সি | ( এক্স , Y * ) । এটি অনুসরণ করে | সি | - ( x , y ∗)C1/2|C|1/2|C|f(x,y) তাই একজন সর্বোচ্চ মিলের জন্য লোভী অ্যালগোরিদম একটি হল1/2জন্য -approximatio-অ্যালগরিদমএমআমিএনআমিআছিএকটি-ভীটিএক্সসিবনাম। অত: পরMআমিএনআমিআছিএকটি-ভীটিএক্সসিবনামহয়1/2-approximable।

|C|f(x,y)|C|12
1/2MinimalVertexCoverMinimalVertexCover1/2

দুর্ভাগ্যক্রমে নিম্নোক্ত উদাহরণটি যেমন দেখায় যে তুলনামূলকভাবে ত্রুটি প্রায়শই মানের জন্য সর্বোত্তম ধারণা নয়:

উদাহরণ: একটি সরল লোভী-অ্যালগরিদম অনুমান করতে পারে । একটি বিশ্লেষণ দেখায় যে | সি |MinimumSetCoverএবং এইভাবেএমআমিএনআমিআছিতোমার দর্শন লগ করামি-SটিসিবনামহবেLn(এন)

|C||C|Hn1+ln(n)
MinimumSetCover -প্রশংসযোগ্য।ln(n)1+ln(n)

আপেক্ষিক ত্রুটি যদি এর কাছাকাছি হয় তবে নিম্নলিখিত সংজ্ঞাটি সুবিধাজনক।1

যাক সঙ্গে একটি অপ্টিমাইজেশান-সমস্যা হতে ( এক্স , Y ) > 0 সবার জন্য এক্স এক্স এবং ওয়াই এল ( এক্স ) এবং একটি জন্য একটি পড়তা-অ্যালগরিদম হেপড়তা-অনুপাত R একজন ( এক্স ) সম্ভবপর সমাধান একজন ( এক্স ) = YO=(X,L,f,opt)f(x,y)>0xXyL(x)AO rA(x)উদাহরণের x X এরএল ( এক্স ) হ'ল আর ( এক্স ) = { 1 ( এক্স , ( এক্স ) ) = ( এক্স , ওয়াই ) সর্বাধিক { ( এক্স , ( এক্স ) )A(x)=yL(x)xX

rA(x)={1f(x,A(x))=f(x,y)max{f(x,A(x))f(x,y),f(x,y)f(x,A(x))}f(x,A(x))f(x,y)

হিসাবে আগে আমরা একটি পড়তা-অ্যালগরিদম কল একটি অপ্টিমাইজেশান-সমস্যার জন্য -approximation-অ্যালগরিদম হে যদি পড়তা-অনুপাত R একজন ( এক্স ) দ্বারা বেষ্টিত 1 যে ইনপুট জন্য এক্স এক্সr A ( x ) r এবং তবুও যদি আমাদের অপটিমাইজেশন-সমস্যা O এর জন্য একটি r -approximation-algorithm A থাকে তবে O কে r -approximable বলা হয়ArOrA(x)r1xX

rA(x)r
rAOOr। আবার আমরা কেবলমাত্র নিকৃষ্টতম ক্ষেত্রেই যত্ন নিই এবং সর্বাধিক অনুমান-অনুপাত হতে আর ( এন ) = সুপার { আর ( এক্স ) | এক্স | এন } তদনুসারে suboptimal সমাধানের জন্য আনুমানিক অনুপাত 1 এর চেয়ে বড় । এইভাবে আরও ভাল সমাধানের অনুপাত কম থাকে। জন্য এম আমি এন আমি আছি তোমার দর্শন লগ করা মি - এস টি সি rA(n)
rA(n)=sup{rA(x)|x|n}.
1 আমরা এখন এটি লিখতে পারি যে এটি ( 1 + ln ( n ) ) -প্রশংসযোগ্য। আর ক্ষেত্রে এম আমি এন আমি আছি তোমার দর্শন লগ করা মি - ভী টি এক্স সি বনাম আমরা পূর্ববর্তী উদাহরণ থেকে জানি যে এটা 2 -approximable। আপেক্ষিক ত্রুটি এবং আনুমানিক অনুপাতের মধ্যে আমাদের সহজ সম্পর্ক রয়েছে: আর ( এক্স ) = 1MinimumSetCover(1+ln(n))MinimumVertexCover2
rA(x)=11ϵA(x)ϵA(x)=11rA(x).

ϵ<1/2r<2ϵ1/2r2

αα1α1α=1

ONPOrr1

আমরা প্রায় মাধ্যমে হয়। আমরা সফল ধারনা কপি করতে চাই কমানোর এবং completness জটিলতা তত্ত্ব থেকে। পর্যবেক্ষণটি হ'ল অপটিমাইজেশন-সমস্যার অনেকগুলি এনপি-হার্ড সিদ্ধান্তের রূপগুলি একে অপরের কাছে হ্রাসযোগ্য হয় তবে তাদের অপ্টিমাইজেশনের বৈকল্পিকগুলির নিকটবর্তীতা সম্পর্কিত বিভিন্ন বৈশিষ্ট্য রয়েছে। এটি এনপি-সম্পূর্ণতা হ্রাস ব্যবহৃত বহুভিত্তিক-কার্প-হ্রাস কারণে, যা উদ্দেশ্যমূলক কাজটি সংরক্ষণ করে না। এমনকি যদি উদ্দেশ্যমূলক ফাংশনগুলি বহনযোগ্য-সময়-কার্প-হ্রাস রক্ষা করা হয় তবে সমাধানের মানের পরিবর্তন হতে পারে।

O1O2O2O1

O1=(X1,L1,f1,opt1)O2=(X2,L2,f2,opt2)NPOO1 APO2O1APO2ghc

  1. g(x1,r)X2x1X1r>1
  2. L2(g(x,r1))L1(x1)x1X1r>1
  3. h(x1,y2,r)L1(x1)x1X1r>1y2L2(g(x1,r))
  4. rgh
  5. f2(g(x1,r),y2)rf1(x1,h(x1,y2,r))1+c(r1)
    x1X1r>1y2L2(g(x1,r))

ghrg(x1)h(x1,y2)

O2APXO1APO2O1APX

CC

ONPOCNPOOCAPOC OAPO

CCAPC

NPOAPXNPOSATWeightedSatisfiabilityNPOMaximum3SATAPX


11
ওহ এবং তুলনামূলক দীর্ঘ পোস্টের জন্য দয়া করে আমার ক্ষমা প্রার্থনা করুন, তবে আমার একটি ছোট লেখার সময় হয়নি।
uli

1
অবশ্যই পঞ্চ লাইনটি হ'ল পিসিপি উপপাদ্য দ্বারা আপনি MAX3SAT এবং স্যাটকে সংযুক্ত করতে পারেন, এটি দেখায় যে এটি কোনও ধ্রুবকের চেয়ে আনুমানিক MAX 3SAT এর এনপি-হার্ড। এটি এক অর্থে কুক-লেভিন উপপাদ্যের সমতুল্য।
সুরেশ

1
@ সুরেশ অবশ্যই, তবে আপনি যে ফলাফলটির কথা উল্লেখ করেছেন তাতে আমার যতদূর মনে পড়ে ব্যবধান-সংরক্ষণ হ্রাস দরকার। এবং যেমন আপনি ইতিমধ্যে আপনার পোস্টে তাদের সম্পর্কে লিখেছেন, আমি তাদের এখানে নকল করতে চাই না।
uli

দুর্দান্ত উত্তর, +1! আমি ভাবছি আপনার উত্তরটি কিছু রেফারেন্সের ভিত্তিতে থাকলে?
টিম

@ টিম অবশ্যই বই আছে, আমি অন্য উত্তরের
uli

19

সাধারণত যা দেখানো হয় তা হ'ল সমস্যাটির "গ্যাপ" সংস্করণটির এনপি-কঠোরতা। উদাহরণস্বরূপ, ধরুন যে আপনি এটি দেখাতে চান যে এটি 2 এর ফ্যাক্টরের মধ্যে প্রায় SEV কভারটি নির্ধারণ করা শক্ত।

আপনি সেট কভারের নিম্নলিখিত "প্রতিশ্রুতি" উদাহরণটি সংজ্ঞায়িত করেছেন যে আমরা 2-গ্যাপ-সেট-কভারটি কল করব:

  • 2

ধরা যাক আমরা দেখাই যে দুটি ক্ষেত্রে কোনটির মধ্যে একটি সমস্যা পড়ে তা সিদ্ধান্ত নেওয়ার বিষয়টি এনপি-সম্পূর্ণ। তারপরে আমরা দেখিয়েছি যে সেট কভারকে 2 এর একটি ফ্যাক্টরের সাথে আনুমানিক করা হ'ল এনপি-হার্ড, কারণ আমরা এই দুটি ক্ষেত্রে পৃথক করার জন্য এই জাতীয় অ্যালগরিদম ব্যবহার করতে পারি।


4

দুটি বিদ্যমান উত্তর খুব তথ্যবহুল তবে আমি মনে করি না যে এগুলির দু'টিই সত্যই প্রশ্নের জবাব দেয়, যা হ'ল এনপি-ক্লাস হওয়া যখন এমন একটি সমস্যা যা সিদ্ধান্তের সমস্যা এমনকি এনপি-হার্ডও হতে পারে? ? "

LLL

কিছু উদাহরণ.

  1. LLLL
  2. # এসএটি হ'ল সিএনএফ সূত্রে সন্তুষ্টিজনক কার্যের সংখ্যা গণনা করার সমস্যা। এটি পরিষ্কারভাবে এনপিতে নেই কারণ আপনারা যেমন পর্যবেক্ষণ করেছেন, এনপি সিদ্ধান্তগত সমস্যাগুলির একটি শ্রেণি এবং # স্যাট সেগুলির মধ্যে একটি নয়। তবে, # এসএটি বহু-সময়কালীন টুরিং হ্রাসের অধীনে এনপি-হার্ড কারণ আমরা এতে স্যাট হ্রাস করতে পারি। একটি স্যাট উদাহরণ দেওয়া হয়েছে, আমরা জিজ্ঞাসা করি কত সন্তোষজনক কার্যভার রয়েছে: যদি কমপক্ষে একটি থাকে, আমরা "সন্তুষ্টযোগ্য" বলি; অন্যথায়, "অসন্তুষ্ট"।
  3. φφφφ=φ(Z1Z10)Ziφφφφφ
আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.