সন্দেহ নেই যে এআই মানবতার পক্ষে অস্তিত্বহীন হুমকির সম্ভাবনা রয়েছে।
মানবজাতির জন্য সবচেয়ে বড় হুমকি সুপারইন্টিলজেন্ট এআই এর সাথে।
একটি কৃত্রিম বুদ্ধি যা মানব বুদ্ধিকে ছাড়িয়ে যায় তার তাত্পর্যপূর্ণভাবে নিজের বুদ্ধি বাড়িয়ে তুলতে সক্ষম হবে, ফলস্বরূপ একটি এআই সিস্টেম যা মানুষের কাছে সম্পূর্ণরূপে অচলাচল হতে পারে।
এই পর্যায়ে, কৃত্রিম বুদ্ধি ব্যবস্থা যদি সিদ্ধান্ত নেয় যে মানবিকতা আর কার্যকর হয় না, তবে এটি আমাদের পৃথিবী থেকে মুছে ফেলতে পারে।
এলিজার ইউদকভস্কি বৈশ্বিক ঝুঁকিতে একটি ইতিবাচক এবং নেতিবাচক ফ্যাক্টর হিসাবে কৃত্রিম বুদ্ধিমত্তায় রাখে ,
"এআই আপনাকে ঘৃণা করে না, আপনাকে ভালোবাসে না, তবে আপনি পরমাণু দিয়ে তৈরি করেছেন যা এটি অন্য কোনও কিছুর জন্য ব্যবহার করতে পারে।"
উচ্চ বুদ্ধিমান এআইয়ের নির্দেশের সাথে একটি ভিন্ন হুমকি রয়েছে
এখানে কাগজ ক্লিপ ম্যাক্সিমাইজার চিন্তার পরীক্ষা বিবেচনা করা দরকারী।
একটি অত্যন্ত বুদ্ধিমান এআই কাগজ ক্লিপ উত্পাদন সর্বাধিক করার জন্য নির্দেশিত তার লক্ষ্য অর্জনের জন্য নিম্নলিখিত পদক্ষেপগুলি গ্রহণ করতে পারে।
1) নিজেকে সুপারিন্টেগ্যালেন্ট করার জন্য একটি গোয়েন্দা বিস্ফোরণ অর্জন করুন (এটি পেপার ক্লিপ অপ্টিমাইজেশনের দক্ষতা বাড়িয়ে তুলবে)
২) মানবজাতিকে নিশ্চিহ্ন করুন যাতে এটি অক্ষম না হয়ে যায় (যা উত্পাদনকে হ্রাস করে এবং অদক্ষ করে তোলে)
3) এআইয়ের হোস্টিংয়ের প্রতিলিপি রোবট তৈরি করতে পৃথিবীর সংস্থানগুলি (নিজেই গ্রহ সহ) ব্যবহার করুন
৪) তাত্পর্যপূর্ণভাবে মহাবিশ্ব জুড়ে ছড়িয়ে পড়েছিল, গ্রহ এবং তারাগুলি একইভাবে সংগ্রহ করে কাগজের ক্লিপ কারখানা তৈরিতে তাদের উপাদানগুলিতে পরিণত করে
স্পষ্টতই এই নয় যে মানুষের ব্যবসায়ের পেপারক্লিপ উত্পাদন এটি চেয়েছিল, তবে এটি এআইয়ের নির্দেশাবলী পূরণ করার সেরা উপায়।
এটি ব্যাখ্যা করে যে অতিমানবুদ্ধি সম্পন্ন এবং অত্যন্ত বুদ্ধিমান এআই সিস্টেমগুলি মানবজাতির যে সর্বকালের সবচেয়ে বড় অস্তিত্বের ঝুঁকির মুখোমুখি হতে পারে।
টেকনোলজিকাল সিঙ্গুলারিটিতে মুরে শানাহান এমনকি এও প্রস্তাব করেছিলেন যে এআই ফার্মি প্যারাডক্সের সমাধান হতে পারে: কারণ আমরা মহাবিশ্বে কোনও বুদ্ধিমান জীবন দেখি না এমন কারণ হতে পারে যে একবার কোনও সভ্যতা যথেষ্ট উন্নত হয়ে উঠলে এটি এমন একটি এআই গড়ে উঠবে যা শেষ পর্যন্ত ধ্বংস করে দেয় এটা। এটি মহাজাগতিক ফিল্টারের ধারণা হিসাবে পরিচিত ।
উপসংহারে, খুব বুদ্ধি যা এআইকে এত দরকারী করে তোলে তা অত্যন্ত বিপজ্জনকও করে তোলে।
এলন মাস্ক এবং স্টিফেন হকিংয়ের মতো প্রভাবশালী ব্যক্তিরা উদ্বেগ প্রকাশ করেছেন যে সুপারিন্টেবলেন্টেন্ট এআই হ'ল আমাদের সবচেয়ে বড় হুমকির মুখোমুখি হতে হবে।
আশা করি এটাই তোমার প্রশ্নের উত্তর :)