কৃত্রিমভাবে তৈরি মিডিয়া চিনতে কিছু কৌশল কী কী?


12

সস্তাভাবে জাল ছবি, নকল সাউন্ডবাইট এবং জাল ভিডিও তৈরি করার ক্রমবর্ধমান ক্ষমতার সাথে সত্যিকারের কী এবং কোনটি নয় তা স্বীকৃতি দেওয়ার সাথে ক্রমবর্ধমান সমস্যা দেখা দেয়। এমনকি এখন আমরা বেশ কয়েকটি অ্যাপ্লিকেশনগুলির উদাহরণ দেখতে পাচ্ছি যা অল্প খরচে জাল মিডিয়া তৈরি করে ( ডিপফেক , ফেস অ্যাপ , ইত্যাদি দেখুন)।

স্পষ্টতই, যদি এই অ্যাপ্লিকেশনগুলি ভুল উপায়ে ব্যবহার করা হয় তবে সেগুলি অন্য ব্যক্তির ভাবমূর্তি নষ্ট করতে ব্যবহৃত হতে পারে। ডিপফেক কোনও ব্যক্তিকে তার অংশীদারের প্রতি বিশ্বাসঘাতক দেখানোর জন্য ব্যবহার করা যেতে পারে। কোনও রাজনীতিবিদ বিতর্কিত কিছু বলেছিলেন বলে মনে করার জন্য আরও একটি অ্যাপ্লিকেশন ব্যবহার করা যেতে পারে।

কৃত্রিমভাবে তৈরি মিডিয়াগুলির বিরুদ্ধে চিনতে এবং সুরক্ষা দেওয়ার জন্য কী কী কৌশল ব্যবহার করা যেতে পারে?

উত্তর:


2

ডিজিটাল মিডিয়া ফরেনসিকস (ডিএমএফ) ফিল্ডটি কোনও চিত্র বা ভিডিওর অখণ্ডতার জন্য স্বয়ংক্রিয় মূল্যায়নের জন্য প্রযুক্তিগুলি বিকাশ করে, তাই ডিএমএফ হল ক্ষেত্রটি আপনি সন্ধান করছেন। ডিএমএফ-এ বেশ কয়েকটি পদ্ধতি রয়েছে: উদাহরণস্বরূপ, মেশিন লার্নিং (এমএল) কৌশলগুলির উপর ভিত্তি করে, বিশেষত, কনভ্যুশনাল নিউরাল নেটওয়ার্কগুলি (সিএনএন)।

উদাহরণস্বরূপ, রিটার্নাল নিউরাল নেটওয়ার্কগুলি (2018) ব্যবহার করে ডীপফেক ভিডিও সনাক্তকরণে কাগজটিতে ডেভিড গেরা এবং এডওয়ার্ড জে ডেল্প ফ্রেম স্তরে বৈশিষ্ট্যগুলি আহরণের জন্য সিএনএন সমন্বিত একটি দ্বি-পর্যায়ের বিশ্লেষণের প্রস্তাব করেছিলেন যারপরে সাময়িকভাবে সচেতন আরএনএন ক্যাপচার করতে পারে ডিপফেক সরঞ্জাম দ্বারা প্রবর্তিত ফ্রেমের মধ্যে সাময়িক অসামঞ্জস্যতা। আরও সুনির্দিষ্টভাবে বলা যায়, তারা একটি কনসিভেশনাল এলএসটিএম আর্কিটেকচার (সিএনএন একটি এলএসটিএমের সাথে মিলিত) ব্যবহার করে, যা শেষ থেকে শেষ পর্যন্ত প্রশিক্ষিত হয়, যাতে সিএনএন ভিডিওগুলিতে থাকা বৈশিষ্ট্যগুলি শিখতে পারে, যা আরএনএনকে দেওয়া হয়, যা সম্ভাবনার পূর্বাভাস দেওয়ার চেষ্টা করে এই বৈশিষ্ট্যগুলির একটি নকল ভিডিও বা না সম্পর্কিত of বিভাগ 3 ডিপফেক ভিডিওগুলি তৈরির ব্যাখ্যা করে যা ভিডিও ফ্রেমের মধ্যে অসঙ্গতি সৃষ্টি করে (যা প্রস্তাবিত পদ্ধতিতে ব্যবহার করা হয়) বিভিন্ন দেখার এবং আলোকসজ্জার শর্তযুক্ত চিত্রগুলির ব্যবহারের কারণে।

অনুরূপ অন্যান্য কাজ প্রস্তাব করা হয়েছে। আরও সম্পর্কিত কাগজপত্রের জন্য এই কিউরেটেড তালিকাটি https://github.com/aerophile/awesome- প্রদীপ দেখুন ।


1

আমি মনে করি এখানে প্রসঙ্গটি গুরুত্বপূর্ণ। এক শতাব্দীর বেশি সময় ধরে স্কটল্যান্ড ইয়ার্ডের মতো কৌশলগুলি ব্যবহার করা সম্ভবত সেরা উপায়। অ্যালিবিস স্থাপন, বাস্তবসম্মত সময়লাইন, উদ্দেশ্যগুলি। আইনী সেটিংয়ের জন্য, এই পদ্ধতিগুলি ব্যবহার করে এই চিত্রগুলি ভুয়া ছিল তা প্রমাণ করা সম্ভব। আইটি দৃষ্টিকোণ থেকে, এই চিত্রগুলির জন্য কোনও উত্স চিহ্নিত করা সম্ভব। যদি হাজার হাজার সদৃশ চিত্র একক উত্স থেকে আসে তবে এই উত্স থেকে আসা কোনও চিত্র সন্দেহজনক।

আমি মনে করি, সাধারণভাবে আমরা আমাদের যা দেখি তা বিশ্বাস না করার জন্য নিজেকে পুনরায় প্রশিক্ষণ দেওয়া উচিত। চিত্রগুলি নকল করার জন্য এমন অনেকগুলি পদ্ধতি রয়েছে যে ফটোগ্রাফিটিকে আর কোনও ঘটনার সেরা প্রমাণ হিসাবে বিবেচনা করা যাবে না। আমাদের সমস্ত চিত্র উপেক্ষা করা উচিত নয়, বরং সিদ্ধান্তে ঝাঁপ দেওয়ার আগে তথ্যের বাইরে একত্রীকরণের চেষ্টা করা উচিত। সমস্ত ঘটনা যদি কোনও ঘটনার দিকে ইঙ্গিত করে, তবে সেই চিত্র সম্ভবত আসল হওয়ার সম্ভাবনা রয়েছে।


0

ধরে নিলাম শিল্পকলা এবং অপ্রাকৃত উপাদানগুলি মিডিয়াতে প্রশ্নে নেই এবং মিডিয়া মানব চোখের সাথে আলাদা নয়, এটি করতে সক্ষম হওয়ার একমাত্র উপায় হ'ল চিত্রগুলির উত্সটি ফিরে পাওয়া।

ডস (সার্ভিস অস্বীকৃতি) আক্রমণে একটি উপমা আঁকতে পারে, যেখানে একটি আইপি থেকে একটি অযৌক্তিক সংখ্যার অনুরোধগুলি ক্রাশের কারণ হয়ে থাকে - এটি একটি সাধারণ সমাধান হানিপট, যেখানে একটি থেকে উচ্চ সংখ্যক অনুরোধ রয়েছে আইপিকে একটি ডিকোয়া সার্ভারে পুনঃনির্দেশিত করা হয় যেখানে এটি ক্র্যাশ হলেও, আপটাইম আপোস করা হয় না। কিছু গবেষণায় এই লাইন যেখানে উপর কাজ করা হয়েছে এই কাগজ একটি ইমেজ ডিজিটাল স্বাক্ষর বা যাচাই সম্পর্কে বক্তৃতা এই এক যেখানে তারা ক্ষতিগ্রস্ত ইমেজ সনাক্তকরণ এবং উৎস ক্যামেরা সনাক্তকরণ প্রস্তাব দেয়।

একবার যদি কোনও উত্সে ফিরে পাওয়া যায়, তবে কোনও একক উত্স থেকে যদি কোনও অযৌক্তিক সংখ্যক সম্ভাব্য জাল চিত্র আসে তবে এটি প্রশ্ন করা হবে।

সাধারণ ভয় উত্থাপিত হয় যখন আমরা উপমাটির ভিত্তিতে কোনও ডিডিওএস (ডিস্ট্রিবিউটেড ডিনিয়াল অফ সার্ভিস) আক্রমণ হিসাবে ব্যবহার করি যেখানে প্রতিটি নকল অনুরোধ বিতরণ উত্স থেকে আসে - নেটওয়ার্ক সুরক্ষা এটি মোকাবেলার উপায় খুঁজে পেয়েছে তবে সুরক্ষা এবং এআই এর শর্তাবলী জালিয়াতি সনাক্তকরণ ঠিক এটি প্রতিষ্ঠিত নয়।

মূলত একটি নির্দিষ্ট দূষিত উদ্দেশ্যে একটি সুচিন্তিত কৃত্রিম মিডিয়া জন্য, আজ ধরা খুব শক্ত - তবে এআইয়ের সুরক্ষায় বর্তমানে কাজ চলছে। যদি আপনি দূষিত উদ্দেশ্যে কৃত্রিম মিডিয়া ব্যবহার করার পরিকল্পনা করে থাকেন তবে আমি এখনই বলি সম্ভবত সেরা সময়।

এই সুরক্ষাটি এখন থেকেই কিছুটা উদ্বেগের বিষয়। একটি নিবন্ধ একটি ডাটা বিজ্ঞানী কোট দ্বারা লিখিত

জাল পর্ন ভিডিওগুলির মাধ্যমে নারীদের হয়রানি ও অপমান করার চেষ্টা করতে ইতিমধ্যে ডিপফেকস ব্যবহার করা হয়েছে। শব্দটি আসলে এমন একটি রেডডিট ব্যবহারকারীর ব্যবহারকারীর নাম থেকে এসেছে যিনি টেনসরফ্লো ব্যবহার করে জেনারেটর অ্যাডভারসিয়াল নেটওয়ার্ক (জিএএনএস) তৈরি করে এই ভিডিওগুলি তৈরি করেছিলেন। এখন, গোয়েন্দা কর্মকর্তারা ২০২০ সালের রাষ্ট্রপতি নির্বাচনকে প্রভাবিত করতে ভ্লাদিমির পুতিনকে ভুয়া ভিডিও ব্যবহার করার সম্ভাবনা নিয়ে কথা বলছেন। গণতন্ত্র ও জাতীয় সুরক্ষার হুমকিস্বরূপ, কীভাবে সেগুলি সনাক্ত করা যায়, সে হিসাবে ডিপফেকসের বিষয়ে আরও গবেষণা করা হচ্ছে।

দ্রষ্টব্য - আমি নেটওয়ার্ক সুরক্ষা সম্পর্কে বেশ নির্লিপ্ত, আমার সমস্ত জ্ঞান একটি বন্ধুর সাথে এক কথোপকথন থেকে আসে এবং ভেবেছিলাম এটি এখানে ব্যবহার করার জন্য একটি ভাল উপমা হবে। সাদৃশ্য কোন ত্রুটি ক্ষমা করুন এবং সম্ভব হলে দয়া করে সংশোধন করুন!


আপনি যদি কিছু গবেষণা করতে পারেন এবং কমপক্ষে 1 টি গবেষণা কাজ / কাগজের লিঙ্ক সরবরাহ করতে পারেন তবে সেই লাইনগুলি বরাবর যে কোনও কিছুর উপর ভিত্তি করে (এটি সম্ভাব্য জাল ভিডিওর উত্সটি ব্যবহার করে))
nbro

এছাড়া কাগজপত্র সম্ভাব্য ক্ষতিগ্রস্ত কথা , এবং বেশী সাধারণভাবে নিদর্শন সনাক্ত করার চেষ্টা কম কাগজপত্র যেমন উত্তর বিবৃত কি করছেন এই এক বা এই এক - হিসাবে বললেন, ব্যাপক গবেষণা এই লাইন উপর কাজ করা হয়েছে, কিন্তু এটা অন্বেষণ করা হচ্ছে। আশা করি এই লিঙ্কগুলি সাহায্য করেছে!
ashenoy

-1

আপনি যে কৌশলগুলি উল্লেখ করেছেন সেগুলি জিএএন ব্যবহার করে। জিএএনএস-এর মূল ধারণাটি হ'ল আপনার একটি জেনারেটর এবং বৈষম্যমূলক। জেনারেটর নতুন সামগ্রী তৈরি করে, বৈষম্যবিদকে বলতে হবে যে বিষয়বস্তু আসল ডেটা থেকে এসেছে বা এটি উত্পন্ন হয়েছিল কিনা।

বৈষম্যবাদী উপায় আরও শক্তিশালী। জাল সনাক্তকরণের জন্য কোনও বৈষম্যমূলক প্রশিক্ষককে প্রশিক্ষণ দেওয়া খুব কঠিন হবে না। এমন কোনও মডেলকে প্রশিক্ষণ দেওয়া যা ম্যানিপুলেশনটি চিহ্নিত করতে সক্ষম হয় এবং এটির বোঝা ম্যানিপুলেশনের পক্ষে প্রমাণ করা আরও শক্ত। কোনও জিনিস ম্যানিপুলেটেড নয় এমন প্রমাণ পাওয়া অসম্ভব।

আপনি ফটোশপযুক্ত চিত্রগুলি কীভাবে মোকাবেলা করেন সে প্রশ্ন সম্পর্কে: আপনি চিত্রটিতে সংকোচনের মাত্রার পার্থক্য দেখেন। সন্ধানের মূলশব্দটি হ'ল চিত্র ফরেনসিক: http://fotoforensics.com/tutorial-estq.php

আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.