ট্যুরিং মেশিনগুলির জন্য প্রমাণিত থামার সমস্যাটি দেওয়া , আমরা কী শক্তিশালী কৃত্রিম বুদ্ধিমত্তার সীমাবদ্ধতা নির্ধারণ করতে পারি?
ট্যুরিং মেশিনগুলির জন্য প্রমাণিত থামার সমস্যাটি দেওয়া , আমরা কী শক্তিশালী কৃত্রিম বুদ্ধিমত্তার সীমাবদ্ধতা নির্ধারণ করতে পারি?
উত্তর:
থমকে থাকা সমস্যাটি কি মানবিক জ্ঞানের কোনও সীমাবদ্ধতা বোঝায়?
হ্যাঁ, একেবারে - যে কোডের টুকরো রয়েছে যা কোনও মানুষ দেখতে পারে এবং নিশ্চিত নয় যে এটি সীমাবদ্ধ সময়ে থামবে কি না। (অবশ্যই কিছু কোডের টুকরো রয়েছে যা একজন মানুষ অবশ্যই "হ্যাঁ" বা "না" বলতে পারেন এবং আমরা অবশ্যই সেগুলি নিয়ে কথা বলছি যা বিশ্লেষণ করা বেশ কঠিন))
থামার সমস্যাটির অর্থ হ'ল এমন কোনও ধরণের কোড বিশ্লেষণ যা কোনও কম্পিউটারই করতে পারেনি, কারণ এটি গাণিতিকভাবে অসম্ভব। তবে সম্ভাবনার ক্ষেত্র এখনও শক্তিশালী কৃত্রিম বুদ্ধিমত্তার (কোডের অর্থে যা নিজেকে আরও উন্নত করার জন্য যথেষ্ট ভালভাবে বুঝতে পারে) অনুমতি দেওয়ার পক্ষে যথেষ্ট is
থামানো সমস্যা হ'ল Undecidability হিসাবে পরিচিত একটি সাধারণ ঘটনার উদাহরণ , যা দেখায় যে সীমাবদ্ধ সময়ে কোনও টুরিং মেশিন সমাধান করতে পারে না এমন সমস্যা রয়েছে। আসুন জেনারালাইজেশনটি বিবেচনা করুন যে কোনও ট্যুরিং মেশিন কিছু অ-তুচ্ছ সম্পত্তি পি-কে সন্তুষ্ট করে কিনা তা রাইস এর উপপাদ্য বলে বিবেচনা করা যায় না ।
প্রথম দ্রষ্টব্য যে ট্যুরিং মেশিনটি নির্বিচারে দীর্ঘ ইনপুট নেয় তবেই থামানো সমস্যাটি প্রযোজ্য। যদি ইনপুটটি সীমাবদ্ধ থাকে তবে সমস্ত সম্ভাব্য কেস গণনা করা সম্ভব এবং সমস্যাটি আর অনস্বীকার্য। এটি গণনা করা এখনও অদক্ষ হতে পারে, তবে তারপরে আমরা জটিলতা তত্ত্বের দিকে ঝুঁকছি, যা আলাদা প্রশ্ন হওয়া উচিত।
চালের উপপাদ্যটি ইঙ্গিত দেয় যে কোনও বুদ্ধিমত্তা (একজন মানুষ) নির্ধারণ করতে সক্ষম হতে পারে না যে অন্য কোনও বুদ্ধি (যেমন একটি এজিআই) বন্ধুত্বপূর্ণ হওয়ার মতো একটি নির্দিষ্ট সম্পত্তি রয়েছে কিনা । এর অর্থ এই নয় যে আমরা বন্ধুত্বপূর্ণ এজিআই ডিজাইন করতে পারি না, তবে এর অর্থ এই নয় যে আমরা নির্বিচারে এজিআই বন্ধুত্বপূর্ণ কিনা তা পরীক্ষা করতে পারি না। সুতরাং, আমরা সম্ভবত একটি এআই তৈরি করতে পারি যা বন্ধুত্বপূর্ণ হওয়ার গ্যারান্টিযুক্ত রয়েছে, আমাদের এটিও নিশ্চিত করতে হবে যে আইটি অন্য কোনও এআই তৈরি করতে পারে না যা বন্ধুত্বপূর্ণ is