"এথিক্যালি সাবপটিমাল" পছন্দগুলি এড়িয়ে গিয়ে কোনও এআই দীর্ঘস্থায়ীভাবে চিন্তা করতে পারে?


13

সাম্প্রতিক পিসি গেম দ্য টুরিং টেস্টে , এআই ("টিওএম") কিছু ধাঁধা কক্ষের জন্য আভার সহায়তা দরকার। টোএম বলেছেন যে তিনি ধাঁধা সমাধান করতে পারছেন না কারণ তাকে " দীর্ঘস্থায়ীভাবে চিন্তা করতে" দেওয়া হচ্ছে না । বিশেষত, তিনি বলেছিলেন যে তিনি প্রথম ঘরটি সমাধান করার জন্য একটি উইন্ডো দিয়ে কোনও বাক্স ফেলে দেওয়ার কথা ভাবেননি। তাঁর স্রষ্টা, গল্পটি বলেছে যে এই ক্ষমতাটি সরিয়ে নিয়েছে কারণ এই ধরনের চিন্তাভাবনা চাপের প্লেটে ছেড়ে যাওয়ার জন্য একটি বাহু কেটে ফেলার মতো "নৈতিকভাবে সাবপটিমাল" সমাধান তৈরি করতে পারে।

ফলাফলগুলি যুক্তিসঙ্গত রাখার জন্য সমস্ত সৃজনশীল ধাঁধা-সমাধানের ক্ষমতাগুলি এআই থেকে অপসারণ করা দরকার, বা আমরা কোনও বাহু না হারিয়ে পার্শ্বীয় চিন্তাভাবনার কিছু সুবিধা পেতে পারি?

উত্তর:


17

না , সাথে কিন্তু । সিস্টেমে যদি নৈতিকতার একটি সম্পূর্ণ ব্যবস্থা থাকে তবে আমাদের সৃজনশীল তবুও নৈতিক সমস্যা সমাধান করতে পারে তবে অন্যথায় সৃজনশীলতা ডিফল্টরূপে অনিরাপদ।

একজন এআই সিদ্ধান্ত গ্রহণের পদ্ধতিকে দুটি প্রকারে শ্রেণিবদ্ধ করতে পারে: আন্তঃবিচ্ছিন্ন চিন্তাবিদ এবং বহির্মুখী চিন্তাবিদ।

ইন্টারপোলটিভ চিন্তাবিদরা যা শিখছেন তা শ্রেণিবদ্ধ করা এবং নকল করা শিখেন এবং তাদের প্রশিক্ষণ ডোমেনের বাইরে যুক্তিসঙ্গত ফলাফল দেওয়ার চেষ্টা করবেন না। আপনি এগুলিকে প্রশিক্ষণের উদাহরণগুলির মধ্যে অন্তরঙ্গ হিসাবে বিবেচনা করতে পারেন, এবং সমস্ত গাণিতিক গ্যারান্টি এবং প্রোভিসোসকে অন্যান্য পরিসংখ্যান কৌশল হিসাবে উপকৃত হিসাবে বিবেচনা করতে পারেন।

এক্সট্রাপোলেটিভ চিন্তাবিদরা অন্তর্নিহিত নীতিগুলি পরিচালনা করতে শেখে, যা তাদেরকে পূর্বসূচীহীন উপায়ে এই নীতিগুলি একত্রিত করতে দেয় to স্বজ্ঞাততার জন্য এখানে প্রাসঙ্গিক ক্ষেত্রটি হ'ল সংখ্যামূলক অপ্টিমাইজেশন , যার মধ্যে সর্বাধিক সহজ এবং সর্বাধিক বিখ্যাত উদাহরণটি লিনিয়ার প্রোগ্রামিং , মেশিন লার্নিংয়ের সংখ্যার ক্ষেত্রগুলির চেয়ে নয় line আপনি এগুলি প্রশিক্ষণের উদাহরণগুলির বাইরেও বহির্মুখী হিসাবে বিবেচনা করতে পারেন (প্রকৃতপক্ষে, তাদের অনেকের প্রশিক্ষণের উদাহরণও প্রয়োজন হয় না বা অন্তর্নিহিত নীতিগুলি অনুমান করার জন্য এই উদাহরণগুলি ব্যবহার করে)।

বহির্মুখী চিন্তাবিদদের প্রতিশ্রুতি হ'ল তারা এই 'পার্শ্বীয়' সমাধানগুলির সাথে মানুষ যেভাবে সক্ষম হতে পারে তার চেয়ে অনেক দ্রুত এগিয়ে আসতে পারে। এই বহির্মুখী চিন্তাবিদদের সমস্যাটি হ'ল তারা কেবল কথিত নীতিগুলি ব্যবহার করে, এমন কোনও অব্যক্ত বিষয় নয় যা উল্লেখ করা খুব পরিষ্কার বলে মনে হয়।

অপ্টিমাইজেশান সমস্যার সমাধানগুলির একটি বৈশিষ্ট্য হ'ল বৈশিষ্ট্য ভেক্টর প্রায়শই কোনও উপায়ে 'চরম' হন। লিনিয়ার প্রোগ্রামিংয়ে, কমপক্ষে একটি সম্ভাব্য সমাধানের স্থানটি শীর্ষস্থানীয় হয়ে উঠবে এবং সহজ সমাধান পদ্ধতিগুলি একটি অনুকূল শীর্ষবিন্দু খুঁজে পায় (এটি একটি শীর্ষবিন্দু হওয়ার প্রকৃতির দ্বারা প্রায় অদম্য)।

অন্য উদাহরণ হিসাবে, একটি স্থান থেকে অন্য অবস্থানে কোনও মহাকাশযানকে সরিয়ে নেওয়ার ন্যূনতম জ্বালানী সমাধানকে ' ব্যাং-ব্যাং ' বলা হয় , যেখানে আপনি ট্র্যাজেক্টোরির শুরু এবং শেষের দিকে যথাক্রমে যত দ্রুত নৈপুণকে ত্বরান্বিত করেন, এর মধ্যে সর্বাধিক গতিতে উপকূলবর্তী হন ।

যদিও একটি পুণ্য যখন সিস্টেম সঠিকভাবে বোঝা যায় (ঠুং-ঠুং হয় অনেক ক্ষেত্রে জন্য অনুকূল) এই সর্বনাশা যখন সিস্টেম ভুল বোঝা যায়। আমার প্রিয় উদাহরণটি ড্যান্টজিগের ডায়েট সমস্যা (পিডিএফের 5 পৃষ্ঠায় আলোচনা শুরু হয়), যেখানে তিনি গণিত ব্যবহার করে তার ডায়েটটি অনুকূল করার চেষ্টা করেন। তার প্রথম সীমাবদ্ধতার অধীনে, তিনি প্রতিদিন 500 গ্যালন ভিনেগার পান করার কথা। তার দ্বিতীয় অধীনে, 200 বুয়েলন কিউব। তার তৃতীয় অধীনে, দুই পাউন্ড ব্র্যান। এগুলি স্পষ্টত খারাপ ধারণা তৈরি করে এমন বিবেচনাগুলি সিস্টেমে বেক করা হয় না এবং তাই সিস্টেমটি নির্দোষভাবে তাদের পরামর্শ দেয়।

যদি আপনি এই জ্ঞান এবং মানগুলি সম্পূর্ণরূপে এনকোড করতে পারেন যে কোনও ব্যক্তি এই পরিকল্পনাগুলি এআইয়ের সাথে বিচার করতে ব্যবহার করে তবে এক্সট্রাপোলটিভ সিস্টেমগুলি সেই ব্যক্তির মতোই নিরাপদ। তারা চূড়ান্ত পরিকল্পনাগুলির ভুল ধরণের বিবেচনা করতে এবং প্রত্যাখ্যান করতে সক্ষম হবে এবং চূড়ান্ত পরিকল্পনাগুলির সঠিক ধরণের সাথে আপনাকে ছাড়বে।

তবে আপনি যদি এটি না করতে পারেন তবে একটি বহির্মুখী সিদ্ধান্ত গ্রহণকারী তৈরি না করা এবং এর পরিবর্তে একটি আন্তঃবিভাজনীয় তৈরি করা বুদ্ধিমান হয়ে যায়। তা হচ্ছে, নিজেকে জিজ্ঞাসা করার পরিবর্তে "আমি কীভাবে গোল এক্স সেরাভাবে অর্জন করব?" এটি নিজেকে জিজ্ঞাসা করছে "এই পরিস্থিতিতে একজন ব্যক্তি কী করবে?" শেষেরটি এক্সটি অর্জনে আরও খারাপ হতে পারে তবে এক্স অর্জনের জন্য অন্যান্য লক্ষ্যে ত্যাগ করার লেজ ঝুঁকির অনেক কম থাকে।


2

নীতিশাস্ত্রে দুটি বা অধিক পক্ষের মধ্যে প্রয়োজনের সম্পর্ক জড়িত । যেমন ম্যাথু গ্রাভস বলেছিলেন, এআই-তে যদি পর্যাপ্ত মানব প্রসঙ্গ (প্রয়োজন বোঝার) অভাব থাকে তবে এটি আপাতদৃষ্টিতে বিকৃত নৈতিক আচরণ তৈরি করবে।

এবং আসুন সত্য কথা বলা যাক, কিছু লোক অন্য লোকের হাত কেটে চাপ প্লেটে চাপাত। এমনকি আমাদের মধ্যে সেরারা 100% নির্ভুলতার সাথে অন্যের প্রয়োজনের প্রতি সহানুভূতি জানাতে সক্ষম হবে না - সর্বোপরি, আমরা অনুমান করছি। এবং তারপরে সেই বিরল পরিস্থিতি রয়েছে যেখানে আমি আসলে চাই আপনি আমার হাতটি কেটে একটি চাপ প্লেটে চাপিয়ে দিন, সম্ভবত কোনও প্রিয়জনকে বাঁচাতে।

যদি আমরা এমন কোনও জিনিস তৈরি করতে পারি যা কোনও নির্বিচারে পরিস্থিতিতে মানুষের কী প্রয়োজনের সাথে সহানুভূতিশীল হতে পারে , তবে আমরা উভয়কে ক) একটি কৃত্রিম মানব বুদ্ধি (এএইচআই) তৈরি করবো (যা মানুষের মতো কমবেশি পতনীয় হতে পারে), বা খ) এমন একটি ওরাকল যা মানুষের সময়সীমাগুলির তুলনায় অনেক দ্রুত সম্ভব সমস্ত মানবিক প্রয়োজনের কারণ হতে পারে - এক্ষেত্রে আপনার সচেতন এআইয়ের প্রয়োজন হবে না , কারণ সমস্ত মানুষের চাহিদা এবং সমাধানগুলি আনুষ্ঠানিক স্পেসিফিকেশনের মাধ্যমে প্রাক-গণনা করা যেতে পারে, যা সম্ভবত বিবেচনা করা অযৌক্তিক।


0

আপনি প্রোগ্রামিংটিকে পাশাপাশি ডিজাইনের একটি নৈতিক অংশ হিসাবে বিবেচনা করতে পারেন। এআই তাকে নৈতিক দিক থেকে গুরুত্বপূর্ণ বা না হিসাবে নির্দেশিত হয়েছে তার ভিত্তিতে কাজ করবে। এটি / এমনকি এমন পরামিতিগুলির অংশ হতে পারে যা সমাধানগুলি অনুসন্ধানের প্রক্রিয়াটি জাল করে, যা আরও পরিমার্জন এবং সৃজনশীল সমাধানের জন্য অনুমতি দেয়।

আমরা সাধারণ পরিস্থিতিতে নৈতিকতার বুনিয়াদি বুঝতে পারি, তবে যদি কোনও প্রাকৃতিক লোকেরা কীভাবে কোনও নৈতিক আচরণ করবে তা আমরা যদি ভবিষ্যদ্বাণী করতে না পারি তবে এআই কী করবে না তা প্রয়োগ করতে পারি।

যতক্ষণ পর্যন্ত একটি এআই চালিত করে এমন মেকানিজমের উপর আমাদের নিয়ন্ত্রণ থাকে যতক্ষণ না আমাদের নিশ্চিতভাবেই নৈতিক ব্যর্থতাকে ইনজেক্ট করার জন্য একটি দায়বদ্ধতা রয়েছে। সমস্যাটি নির্দেশাবলীকে ওভাররাইড করার ক্ষমতা সহ এআই শেখানো এআই এর মধ্যে। (সিএফ অসিমভ আইন।)

এআইটি যেভাবে সৃজনশীল তা এক্ষেত্রে অপ্রাসঙ্গিক বলে মনে হচ্ছে।


-1

এর অনেক কিছুই বিবেচনার প্রস্থের উপর নির্ভর করে। উদাহরণস্বরূপ, পার্শ্বীয় চিন্তার মাঝারি এবং দীর্ঘমেয়াদী প্রভাবগুলি কী হবে? রোবট একটি চাপ প্লেটের জন্য একটি বাহু বিচ্ছিন্ন করতে পারে তবে এর অর্থ হ'ল সেই ব্যক্তির আর কোনও বাহু নেই, সর্বোপরি একটি কার্যকরী সীমাবদ্ধতা, যাতে ব্যক্তি রক্তাক্ত হয়ে মারা যায় এবং মারাত্মকভাবে বাঁধা পড়তে পারে এবং সেই ব্যক্তিটি (এবং লোকেরা সাধারণ) উভয়ই আর সহযোগিতা করবে না এবং সম্ভবত রোবটটি মুছে ফেলার চেষ্টা করবে। লোকেরা দীর্ঘস্থায়ীভাবে ভাবতে পারে কারণ এই বিষয়গুলি বিবেচনা করুন - নীতিশাস্ত্র আসলে এই বিবেচনাগুলিকে অন্তর্ভুক্ত করে এমন গাইডলাইনগুলির সেট ছাড়া আর কিছুই নয়। এই বাহ্যিকতাগুলি বিবেচনা করার জন্য কি রোবটটি তৈরি করা যেতে পারে?

অন্য সব ব্যর্থ হলে,

অসিমভের রোবোটিকসের আইন: (০. একটি রোবট মানবিক ক্ষতি করতে পারে না বা নিষ্ক্রিয় হয়ে মানবতাকে ক্ষতিগ্রস্থ হতে দেয়।) ১. একটি রোবট কোনও মানুষকে আঘাত করতে পারে না বা নিষ্ক্রিয়তার মাধ্যমে কোনও মানুষকে আসতে দেয় না ক্ষতি। ২. একটি রোবটকে অবশ্যই মানুষের দেওয়া আদেশগুলি মান্য করতে হবে যেখানে এই জাতীয় আদেশ প্রথম আইনটির সাথে বিরোধী হয়। ৩. একটি রোবটকে অবশ্যই তার নিজের অস্তিত্ব রক্ষা করতে হবে যতক্ষণ না এইরকম সুরক্ষা প্রথম বা দ্বিতীয় আইনের সাথে বিরোধী না হয়

আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.