ডিপফেক: কী ভয়ংকর


কৃত্রিম বুদ্ধিমত্তার সহজলভ্যতা ও জনপ্রিয়তা বাড়ার ফলে ডিপফেক ছবি এবং ভিডিও এখন ট্রেন্ড হয়ে দাঁড়িয়েছে। কিছুদিন আগে দক্ষিণের বলিউড অভিনেত্রী রাশমিকা মান্দানার ডিপফেক ভিডিও সোশ্যাল মিডিয়ায় ভাইরাল হয়ে। শুধু রাশমিকা নন; অভিনেত্রী আলিয়া ভাট, কাজল, ক্যাটরিনা কাইফ, সারা টেন্ডুলকারের মতো তারকার ডিপফেক ভিডিও চারদিকে হইচই ফেলে দিয়েছে। কয়েক বছর আগে বারাক ওবামার ডিপফেক ভিডিও নিয়ে সারাবিশ্বে সমালোচনার ঝড় উঠেছিল।

ডিপফেক কাজ করে যেভাবে
ডিপফেক ভিডিও তৈরির প্রধান প্রযুক্তি হলো মেশিন লার্নিং। যার জেনারেল অ্যাডভারসেরিয়াল নেটওয়ার্কের মাধ্যমে নির্দিষ্ট মানুষের বহুমাত্রিক স্টাইলের ছবি তৈরি করা যায়। ছবিগুলো দিয়েই মেশিন লার্নিং প্রযুক্তির মাধ্যমে শরীরের নানা অংশের অভিব্যক্তির ডামি সিমুলেশন ভিডিওচিত্র বিনির্মাণ করা যায়। কৃত্রিম বুদ্ধিমত্তার অবাধ প্রসার আর প্রযুক্তির বিন্যাস আরও সহজ হয়ে গেছে। এআই মাধ্যমে সুনির্দিষ্ট মানুষের কণ্ঠস্বর হুবহু নকল করা সম্ভব। সিমুলেশন ভিডিওর সঙ্গে কণ্ঠস্বরের অডিও যুক্ত করে বানানো হয় ডিপফেক ভিডিওচিত্র।

ডিপফেক প্রভাব
দ্য গার্ডিয়ান পত্রিকা ২০২০ সালে ডিপফেক নিয়ে বিশদ রিপোর্ট প্রকাশ করে। রিপোর্ট বলছে, কৃত্রিম বুদ্ধিমত্তা নির্মাতা ডিপট্রেস (Deeptrace) অনলাইনে ১৫ হাজার ডিপফেক ভিডিওচিত্র খুঁজে পেয়েছেন; যার বেশির ভাগই ছিল পর্নোগ্রাফি ভিডিওচিত্র। তার মধ্যে শতকরা ৯৯ ভাগ হলো নারী সেলিব্রিটিদের চেহারা পর্নো তারকাদের চেহারায় প্রতিস্থাপন করা।

ডিপফেক মূলত চাইল্ড পর্নো, সেলিব্রিটি পর্নোগ্রাফিক ভিডিওচিত্র, রিভেঞ্জ পর্নো, ভুয়া খবর, প্রতারণা, হুমকি আর আর্থিক জালিয়াতির মতো ডিজিটাল অপরাধ কর্মকাণ্ডে সরাসরি ব্যবহৃত হয়।

সদ্যই অনলাইনে ভাইরাল হয়েছে অভিনেত্রী আলিয়া ভাটের ভুয়া ভিডিওচিত্র। ওই ভুয়া চিত্র বলছে, একজন নারী নীল রঙের ফুল ছাপা কো-অর্ড সেট পরে আধা শোয়া অবস্থায় আছেন। আর নারীটি ক্যামেরার দিকে তাকিয়ে অশ্লীল ইঙ্গিত করছেন। ওই নারীর চেহারা অবিকল আলিয়ার মতো দেখাচ্ছিল। গভীরভাবে দেখলে দৃশ্যমান হবে ওই ভিডিওচিত্রে ধারণকৃত নারীটি আসলে আলিয়া নন।

বাজফিড ভিডিওর ইউটিউব চ্যানেল থেকে ২০১৮ সালে বারাক ওবামার ভিডিওচিত্র প্রকাশ করা হয়। ভিডিওচিত্রে দৃশ্যমান হয়, সাবেক মার্কিন প্রেসিডেন্ট বারাক ওবামা ডোনাল্ড ট্রাম্পকে একজন পরিপূর্ণ বোকা বা অযোগ্য ব্যক্তি বলেন। ওটা মূলত ডিপফেক ভিডিও ছিল।

২০২০ সালে মার্কিন প্রেসিডেন্ট নির্বাচনী প্রচারণায় বর্তমান প্রেসিডেন্ট জো বাইডেনের ডিপফেক প্রকাশ পায়। ওই ভিডিওচিত্রে তাঁকে দেখা যায় সাক্ষাৎকারের সময় ঘুমিয়ে পড়ছেন, ঠিকমতো কথা বলতে পারছেন না ইত্যাদি।

যাচাই-বাছাই
প্রযুক্তির মানোন্নয়নের সঙ্গে ডিপফেক ভিডিও শনাক্তকরণ আগের চেয়ে সহজ এখন। মূলত টুলস দিয়েই তা করা সম্ভব। গেল সেপ্টেম্বরে প্রযুক্তি জায়ান্ট মাইক্রোসফট ভিডিও অথেনটিকেশন টুলস নিয়ে এসেছে। মাইক্রোসফট উদ্ভাবিত টুলস ডিপফেক ভিডিও শনাক্তকরণে সময়োপযোগী ভূমিকা রাখছে। খালি চোখেও অনেক সময় ডিপফেক ভিডিওচিত্র শনাক্ত করা সম্ভব। মুখাবয়ব, চোখের পাতা, ঠোঁট নড়াচড়া বা সামঞ্জস্যহীন গতিবিধি দেখে প্রাথমিকভাবেই ডিপফেক ভিডিও শনাক্ত করা যায়।

 


শর্টলিংকঃ