এআই এর কারণে মানবতার জন্য কি অস্তিত্বের হুমকি হতে পারে?


9

আমরা কীভাবে আসল এআই সফটওয়্যার (বুদ্ধিমান এজেন্ট) আরও ভালভাবে কাজ করতে পারি তা নির্ধারণের জন্য ঘন্টা ব্যয় করে গবেষণা করছি। আমরা এআই প্রযুক্তি ব্যবহার করে কিছু অ্যাপ্লিকেশন যেমন ব্যবসা, স্বাস্থ্য এবং শিক্ষার ক্ষেত্রে প্রয়োগ করার চেষ্টা করছি।

যাইহোক, এখনও অবধি, আমাদের বেশিরভাগই কৃত্রিম বুদ্ধিমত্তার "অন্ধকার" দিকটিকে উপেক্ষা করেছেন। উদাহরণস্বরূপ, একজন "অনৈতিক" ব্যক্তি হাজার হাজার সস্তা ড্রোন কিনতে পারে, বন্দুকের সাহায্যে তাদের বাহুতে এবং জনগণের উপর গুলি চালিয়ে পাঠাতে পারত। এটি এআই এর একটি "অনৈতিক" অ্যাপ্লিকেশন হবে।

এআই এর কারণে মানবদেহের জন্য কি (ভবিষ্যতে) অস্তিত্বের হুমকি থাকতে পারে?


যে কোনও প্রযুক্তি মানবতার জন্য অস্তিত্বের হুমকি হওয়ার সম্ভাবনা রাখে has
অঙ্কুর

উত্তর:


2

আমি বুদ্ধিকে ভবিষ্যতের ভবিষ্যদ্বাণী করার ক্ষমতা হিসাবে সংজ্ঞায়িত করব। সুতরাং কেউ যদি বুদ্ধিমান হয় তবে সে ভবিষ্যতের কিছু দিক পূর্বাভাস দিতে পারে এবং তার পূর্বাভাসের ভিত্তিতে কী করা উচিত তা সিদ্ধান্ত নিতে পারে। সুতরাং, "বুদ্ধিমান" ব্যক্তি যদি অন্য ব্যক্তিকে আঘাত করার সিদ্ধান্ত নেন তবে তিনি এটিতে খুব কার্যকরী হতে পারেন (উদাহরণস্বরূপ হিটলার এবং তার কর্মীরা)।

অনিশ্চিত ভবিষ্যতের কিছু দিক পূর্বাভাস দেওয়ার জন্য কৃত্রিম বুদ্ধিমত্তা চূড়ান্ত কার্যকর হতে পারে। এবং এই আইএমএইচও দুটি নেতিবাচক দৃশ্যের দিকে পরিচালিত করে:

  1. কেউ এটি লোককে আঘাত করার জন্য প্রোগ্রাম করে। হয় ভুল করে বা উদ্দেশ্য নিয়ে।
  2. কৃত্রিম বুদ্ধিমত্তা নিরাপদ কিছু করার জন্য ডিজাইন করা হবে, তবে এক পর্যায়ে আরও কার্যকর হওয়ার জন্য, এটি নিজেকে নতুন করে ডিজাইন করবে এবং সম্ভবত এটি তার পথে বাধাগুলি সরিয়ে ফেলবে। সুতরাং মানুষ যদি বাধা হয়ে দাঁড়ায় তবে এগুলি খুব দ্রুত এবং খুব কার্যকর উপায়ে মুছে ফেলা হবে।

অবশ্যই, ইতিবাচক পরিস্থিতিতেও রয়েছে, তবে আপনি সেগুলি সম্পর্কে জিজ্ঞাসা করছেন না।

আমি কৃত্রিম অতিমানবুদ্ধি এবং এটি তৈরির সম্ভাব্য ফলাফলগুলি সম্পর্কে এই দুর্দান্ত পোস্টটি পড়ার পরামর্শ দিচ্ছি: http://waitbutwhy.com/2015/01/armented-inteilersnce-revolution-1.html


আপনার উত্তরটির জন্য ধন্যবাদ that দ্বিতীয় পয়েন্টে বেশ আগ্রহী positive ইতিবাচক দিকটি, প্রথম অনুচ্ছেদে হিট রয়েছে, আশা করি আপনি দেখতে পাচ্ছেন।
কুইন্টুনমিয়া

4

সন্দেহ নেই যে এআই মানবতার পক্ষে অস্তিত্বহীন হুমকির সম্ভাবনা রয়েছে।

মানবজাতির জন্য সবচেয়ে বড় হুমকি সুপারইন্টিলজেন্ট এআই এর সাথে।

একটি কৃত্রিম বুদ্ধি যা মানব বুদ্ধিকে ছাড়িয়ে যায় তার তাত্পর্যপূর্ণভাবে নিজের বুদ্ধি বাড়িয়ে তুলতে সক্ষম হবে, ফলস্বরূপ একটি এআই সিস্টেম যা মানুষের কাছে সম্পূর্ণরূপে অচলাচল হতে পারে।

এই পর্যায়ে, কৃত্রিম বুদ্ধি ব্যবস্থা যদি সিদ্ধান্ত নেয় যে মানবিকতা আর কার্যকর হয় না, তবে এটি আমাদের পৃথিবী থেকে মুছে ফেলতে পারে।

এলিজার ইউদকভস্কি বৈশ্বিক ঝুঁকিতে একটি ইতিবাচক এবং নেতিবাচক ফ্যাক্টর হিসাবে কৃত্রিম বুদ্ধিমত্তায় রাখে ,

"এআই আপনাকে ঘৃণা করে না, আপনাকে ভালোবাসে না, তবে আপনি পরমাণু দিয়ে তৈরি করেছেন যা এটি অন্য কোনও কিছুর জন্য ব্যবহার করতে পারে।"

উচ্চ বুদ্ধিমান এআইয়ের নির্দেশের সাথে একটি ভিন্ন হুমকি রয়েছে

এখানে কাগজ ক্লিপ ম্যাক্সিমাইজার চিন্তার পরীক্ষা বিবেচনা করা দরকারী।

একটি অত্যন্ত বুদ্ধিমান এআই কাগজ ক্লিপ উত্পাদন সর্বাধিক করার জন্য নির্দেশিত তার লক্ষ্য অর্জনের জন্য নিম্নলিখিত পদক্ষেপগুলি গ্রহণ করতে পারে।

1) নিজেকে সুপারিন্টেগ্যালেন্ট করার জন্য একটি গোয়েন্দা বিস্ফোরণ অর্জন করুন (এটি পেপার ক্লিপ অপ্টিমাইজেশনের দক্ষতা বাড়িয়ে তুলবে)

২) মানবজাতিকে নিশ্চিহ্ন করুন যাতে এটি অক্ষম না হয়ে যায় (যা উত্পাদনকে হ্রাস করে এবং অদক্ষ করে তোলে)

3) এআইয়ের হোস্টিংয়ের প্রতিলিপি রোবট তৈরি করতে পৃথিবীর সংস্থানগুলি (নিজেই গ্রহ সহ) ব্যবহার করুন

৪) তাত্পর্যপূর্ণভাবে মহাবিশ্ব জুড়ে ছড়িয়ে পড়েছিল, গ্রহ এবং তারাগুলি একইভাবে সংগ্রহ করে কাগজের ক্লিপ কারখানা তৈরিতে তাদের উপাদানগুলিতে পরিণত করে

স্পষ্টতই এই নয় যে মানুষের ব্যবসায়ের পেপারক্লিপ উত্পাদন এটি চেয়েছিল, তবে এটি এআইয়ের নির্দেশাবলী পূরণ করার সেরা উপায়।

এটি ব্যাখ্যা করে যে অতিমানবুদ্ধি সম্পন্ন এবং অত্যন্ত বুদ্ধিমান এআই সিস্টেমগুলি মানবজাতির যে সর্বকালের সবচেয়ে বড় অস্তিত্বের ঝুঁকির মুখোমুখি হতে পারে।

টেকনোলজিকাল সিঙ্গুলারিটিতে মুরে শানাহান এমনকি এও প্রস্তাব করেছিলেন যে এআই ফার্মি প্যারাডক্সের সমাধান হতে পারে: কারণ আমরা মহাবিশ্বে কোনও বুদ্ধিমান জীবন দেখি না এমন কারণ হতে পারে যে একবার কোনও সভ্যতা যথেষ্ট উন্নত হয়ে উঠলে এটি এমন একটি এআই গড়ে উঠবে যা শেষ পর্যন্ত ধ্বংস করে দেয় এটা। এটি মহাজাগতিক ফিল্টারের ধারণা হিসাবে পরিচিত ।

উপসংহারে, খুব বুদ্ধি যা এআইকে এত দরকারী করে তোলে তা অত্যন্ত বিপজ্জনকও করে তোলে।

এলন মাস্ক এবং স্টিফেন হকিংয়ের মতো প্রভাবশালী ব্যক্তিরা উদ্বেগ প্রকাশ করেছেন যে সুপারিন্টেবলেন্টেন্ট এআই হ'ল আমাদের সবচেয়ে বড় হুমকির মুখোমুখি হতে হবে।

আশা করি এটাই তোমার প্রশ্নের উত্তর :)

আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.