এটি কেবল হকিং নয়, আপনি প্রচুর লোকের কাছ থেকে বিরত থাকুন। এবং প্রদত্ত যে তারা বেশিরভাগই খুব স্মার্ট, সুশিক্ষিত, সুবিদিত মানুষ (উদাহরণস্বরূপ এলন কস্তুরী আরেকজন), সম্ভবত এটি হাতছাড়া করা উচিত নয়।
যাইহোক, প্রাথমিক ধারণাটি এটিকে বলে মনে হয়: আমরা যদি "সত্যিকারের" কৃত্রিম বুদ্ধি তৈরি করি তবে কোনও এক সময় এটি নিজের উন্নতি করতে সক্ষম হবে, যা এটি নিজের উন্নতির দক্ষতার উন্নতি করে, যার অর্থ এটি নিজের উন্নতি করার ক্ষমতাও উন্নত করতে পারে আরও অনেক কিছু ... "অতিমানবিক বুদ্ধি" এর দিকে পরিচালিত একটি পালানো ক্যাসকেড। এর অর্থ হল, এমন কিছু যা আমাদের ক্ষেত্রের চেয়ে বেশি বুদ্ধিমানের দিকে নিয়ে যায়।
তাহলে এই গ্রহে যদি এমন কোনও সত্তা থাকে যা আক্ষরিক অর্থে আমাদের (মানব) চেয়ে আরও বুদ্ধিমান হয় তবে কী ঘটে? এটা কি আমাদের জন্য হুমকি হয়ে থাকবে? ঠিক আছে, অনুমান করা অবশ্যই এটি যুক্তিসঙ্গত বলে মনে হয় যে এটি এমন হতে পারে। ওটো, আমাদের এখনই কোনও বিশেষ কারণ নেই, ভেবে দেখবেন যে এটি হবে ।
সুতরাং দেখে মনে হচ্ছে হকিং, কস্তুরী ইত্যাদি ঠিক তত বেশি সাবধানী / ভয়ঙ্কর দিকে নেমে আসছে। যেহেতু আমরা না জানি একটি অতিমানবীয় এআই বিপজ্জনক বা হবে না, এবং প্রদত্ত যদি এটা দূষিত পরিণত (মনে রাখবেন, এটা দক্ষতা সহকারে তুলনায় আমরা এর!) ছিল এটা থামানো যেত হতে পারে যে, এটা বিবেচনা অধীন গ্রহণ করা একটি যুক্তিসঙ্গত জিনিস।
এলিয়জার ইউদকোভস্কি বিখ্যাত "এআই বাক্স" পরীক্ষার পাশাপাশি এই বিষয়ে বেশ কিছুটা লিখেছেন। আমি মনে করি যে এই বিষয়ে আগ্রহী যে কেউ তার কিছু উপাদান পড়া উচিত।
http://www.yudkowsky.net/singularity/aibox/