6 November 2023

BY- Aajtak Bangla

ডিপফেকের শিকার রশ্মিকা-ক্যাটরিনা, সোশ্যালে উদ্বেগ নতুন AI টেকনোলজি

ডিপফেক টেকনোলজি ব্যবহার করে রশ্মিকা মন্দানার আপত্তিকর ভিডিওতে শোরগোল পড়ে গিয়েছিল সোশ্যাল। এবার এই প্রযুক্তির শিকার হলেন ক্যাটরিনা কাইফ।

টাইগার ৩-এ ক্যাটরিনার টাওয়াল দৃশ্যকে এই ডিপফেক প্রযুক্তি ব্যবহার করে এডিট করা হয়েছে, যা এখন ভাইরাল সোশ্যাল মিডিয়ায়। আসল ছবিতে ক্যাটকে দেখা গিয়েছে হলিউডের স্টান্ট মহিলার সঙ্গে মারপিট করতে।

আসল ছবিতে ক্যাটরিনা পরেছিলেন টাওয়াল আর ডিপফেক ইমেজে দেখা গিয়েছে অভিনেত্রীকে লো-কাট সাদা রঙের টপ পরে থাকতে। এইসব ছবিগুলির ক্ষেত্রে ডিপফেক টেকনোলজি ব্যবহার করা হচ্ছে।

পরপর দুটো ঘটনা সামনে আসার পরই এই ডিপফেক নিয়ে উদ্বেগ বেড়েছে। কারণ এই প্রযুক্তি ব্যবহার করে যে কোনও আসল মানুষকে একেবারে বদলে দিতে পারে।

ডিপফেক টেকনোলজিতে আসল মানুষের চেহারা, পোশাক সব এক নিমেষে বদল হয়ে যায়।

ডিপফেক ব্যবহার করেই সম্পূর্ণ অন্য এক মহিলার মুখে রশ্মিকার মুখ বসিয়ে তাঁর সেই ভিডিও নেট দুনিয়ায় ছড়িয়ে দেওয়া হয়। এতে পুষ্পা অভিনেত্রীর ভাবমূর্তি নষ্ট হয়।

এই ভিডিও দেখে অনেক মানুষই বিভ্রান্ত হয়ে পড়েন যে এটা রশ্মিকার আসল নাকি নকল ভিডিও।

এই ডিপফেক টেকনোলজি AI-এর অত্যাধুনিক এক প্রযুক্তি, যা ব্যবহার করে কোনও ব্যক্তির পরিচয়, গলার স্বর বদল করতে সময় লাগে না। এটা রীতিমতো আসল ও নকলের মধ্যে বিভ্রান্ত সৃষ্টি করে।

টেক জগতে ডিপফেকের আলোচনা এই প্রথম নয়। কয়েক বছর আগেই একই পদ্ধতি ব্যবহার করে বারাক ওবামা ও ডোনাল্ড ট্রাম্পের একটি ভুয়ো ভিডিও তৈরি করা হয়েছিল।

২০১৯ সাল থেকে এখনও পর্যন্ত ইন্টারনেটে মোট ১৫০০০ এমন ভিডিও রয়েছে বলে দাবি করেছে AI সংস্থা ডিপট্রেস। এর মধ্যেই অন্যতম অভিনেত্রী রশ্মিকা মন্দার ভাইরাল হওয়া ভিডিও।