Advertisement

‘Deepfake’ নিয়ে ক্ষুব্ধ মোদী, বললেন, 'আমারও গরবা নাচের ভিডিও ছড়িয়েছে'

রশ্মিকা মান্ধানা, ক্যাটরিনা কাইফ, কাজল – গত কয়েক দিনে একের পর এক বলিউড অভিনেত্রী শিকার হয়েছেন ‘ডিপফেক’ প্রযুক্তির। আর্টিফিশিয়াল ইন্টেলিজেন্স অর্থাৎ, কৃত্রিম বুদ্ধিমত্তার সাহায্যে এত নিখুঁত নকল ভিডিয়ো তৈরি করা হচ্ছে, যা দেখে আসলের সঙ্গে প্রভেদ করার উপায় নেই।

ফাইল ছবি।
Aajtak Bangla
  • কলকাতা,
  • 17 Nov 2023,
  • अपडेटेड 2:45 PM IST
  • রশ্মিকা মান্ধানা, ক্যাটরিনা কাইফ, কাজল – গত কয়েক দিনে একের পর এক বলিউড অভিনেত্রী শিকার হয়েছেন ‘ডিপফেক’ প্রযুক্তির।
  • আর্টিফিশিয়াল ইন্টেলিজেন্স অর্থাৎ, কৃত্রিম বুদ্ধিমত্তার সাহায্যে এত নিখুঁত নকল ভিডিয়ো তৈরি করা হচ্ছে, যা দেখে আসলের সঙ্গে প্রভেদ করার উপায় নেই।

রশ্মিকা মান্ধানা, ক্যাটরিনা কাইফ, কাজল – গত কয়েক দিনে একের পর এক বলিউড অভিনেত্রী শিকার হয়েছেন ‘ডিপফেক’ প্রযুক্তির। আর্টিফিশিয়াল ইন্টেলিজেন্স অর্থাৎ, কৃত্রিম বুদ্ধিমত্তার সাহায্যে এত নিখুঁত নকল ভিডিয়ো তৈরি করা হচ্ছে, যা দেখে আসলের সঙ্গে প্রভেদ করার উপায় নেই। এবার ডিপফেকের শিকার হলেন খোদ প্রধানমন্ত্রী মোদী। শুক্রবার (১৭ নভেম্বর) নিজেই এই খবর জানিয়েছেন প্রধানমন্ত্রী মোদী। সেই সঙ্গে ডিপফেক প্রযুক্তি ব্যবহারের বিপদ নিয়ে উদ্বেগ প্রকাশ করেছেন তিনি।

সাম্প্রতিক দিনগুলিতে সোশ্যাল মিডিয়া ভরে গিয়েছে ডিপফেক ভিডিয়োয়। এই নিয়ে জোর চর্চাও চলছে। অনেকেই এই প্রযুক্তিকে বিপজ্জনক বলে মনে করছেন। এদিন প্রধানমন্ত্রী মোদীও এই প্রযুক্তির বিপদ সম্পর্কে সতর্ক করলেন দেশবাসীকে। এদিন নয়া দিল্লিতে বিজেপির কেন্দ্রীয় কার্যালয়ে ‘দিওয়ালি মিলন’ উৎসব পালন করা হচ্ছে। সেই অনুষ্ঠান যোগ দেন প্রধানমন্ত্রীও। সেখানেই ডিপফেকের বিপদ নিয়ে সরব হন তিনি।

তিনি জানান, এইভাবে কৃত্রিম বুদ্ধিমত্তার অপব্যবহার করা হচ্ছে। এমনকি, তাঁরও ডিপফেক ভিডিয়ো তৈরি করা হয়েছে। প্রধানমন্ত্রী বলেন, “সম্প্রতি আমি একটি ভিডিয়ো দেখেছি যেখানে আমাকে গান গাইতে দেখা যাচ্ছে। যারা আমাকে পছন্দ করেন, তারা এই ভিডিয়োটি আমায় ফরোয়ার্ড করেছেন।”

প্রযুক্তি এবং কৃত্রিম বুদ্ধিমত্তার (AI) এই যুগে, যে কোনও ছবি, ভিডিও এবং অডিও হেরফের বা হেরফের করা যেতে পারে যাতে এটি সম্পূর্ণ আলাদা। সম্প্রতি, যখন কৃত্রিম বুদ্ধিমত্তা ভিত্তিক সরঞ্জাম ব্যবহার করে অভিনেত্রী রশ্মিকা মান্দানার ডিপফেক ভিডিও ভাইরাল হয়, তখন সবাই অবাক হয়ে যায়।

ডিপফেক অশান্তি সৃষ্টি করতে পারে।এখন প্রধানমন্ত্রী নরেন্দ্র মোদী নিজেই ডিপফেক নিয়ে গভীর উদ্বেগ প্রকাশ করেছেন এবং বলেছেন যে ডিপফেক সমাজে বড় অশান্তি সৃষ্টি করতে পারে। পিএম মোদি বলেছেন যে লাইনের বাইরে এক লাইনও তোলপাড় সৃষ্টি করতে পারে। তিনি বলেছিলেন যে জেনারেটিভ AI এর মাধ্যমে তৈরি ফটোগ্রাফ বা ভিডিওগুলিতে একটি স্পষ্ট দাবিত্যাগ থাকা উচিত যে এটি ডিপফেক ব্যবহার করে তৈরি করা হয়েছে।

Advertisement

গরবা ভিডিওর উল্লেখ করে, প্রধানমন্ত্রী মোদি ডিপফেকগুলিকে ভারতীয় সিস্টেমের মুখোমুখি সবচেয়ে বড় হুমকি হিসাবে বর্ণনা করেছেন। পিএম মোদী বলেছিলেন যে ডিপফেকগুলি সমাজে অরাজকতা তৈরি করতে পারে। তিনি বলেছেন যে ডিপফেক সম্পর্কে জনগণ এবং মিডিয়াকে খুব সতর্ক থাকতে হবে। প্রধানমন্ত্রী বলেন, 'আমি আমার একটি ভিডিও দেখেছি যাতে আমি গরবা করছি এবং এটি খুব বাস্তব মনে হয়েছে যদিও আমি ছোটবেলা থেকে গরবা খেলিনি।'

প্রধানমন্ত্রীর জাল ভিডিও ভাইরাল হয়েছে গত মাসে, প্রধানমন্ত্রী মোদীর গরবা নাচের একটি ভিডিও সোশ্যাল মিডিয়ায় ভাইরাল হয়েছিল। এতে প্রধানমন্ত্রীর মতো দেখতে এক ব্যক্তিকে কয়েকজন নারীর সঙ্গে গরবা করতে দেখা যায়। বলা হচ্ছে, এটি প্রধানমন্ত্রী নরেন্দ্র মোদীর নবরাত্রির সময় গরবা খেলার একটি ভিডিও। এই দাবির ভিডিওটি ফেসবুক ও টুইটারে বেশ ভাইরাল হচ্ছে।

আজ তক তার তদন্তে দেখেছে যে এই ভিডিওটি প্রধানমন্ত্রী মোদীর নয়, একজন অভিনেতা যিনি তার মতো দেখতে, বিকাশ মহন্তের। সম্প্রতি রশ্মিকার ভিডিও ভাইরাল হয়েছে।কয়েকদিন আগে রশ্মিকা মান্দানার ডিপফেক ভিডিও ভাইরাল হলে সবাই অবাক হয়ে যায়। এরপর টাইগার-৩ থেকে ক্যাটরিনা কাইফের নকল ছবি এবং এখন সারা তেন্ডুলকার-শুভমন গিল-এর ছবি মর্ফ করে ভাইরাল করা হয়। অতীতেও ডিপফেক ব্যবহার করা হয়েছে, কিন্তু এআই আসার পর এ ধরনের ঘটনা বেড়েছে। 
ডিপফেক কি? আজকাল প্রযুক্তি এবং এআই-এর সাহায্যে যে কোনো ছবি, ভিডিও এবং অডিও হেরফের বা কারসাজি করে সম্পূর্ণ আলাদা করা যায়।যেমন, কোনো নেতা, অভিনেতা বা সেলিব্রেটির বক্তৃতা তুলে ধরে, কৃত্রিম বুদ্ধিমত্তা ভিত্তিক টুল। এর মাধ্যমে সম্পূর্ণ পরিবর্তন করা যায়। কিন্তু যে ব্যক্তি শ্রবণ ও দেখবে সে তা জানবে না এবং সত্য বলে মেনে নেবে। একে বলে ডিপফেক।

আসুন এখন জেনে নেই সেই আইনগুলো যা এই ধরনের বিষয়ে আপনার জন্য সহায়ক হতে পারে। এর আগে, ফটোশপ এবং অন্যান্য সরঞ্জামের সাহায্যে মানুষের ছবি মর্ফ করা হয়েছিল, তবে ডিপফেকগুলি এর বাইরেও একটি গল্প। এতে, নকল ভিডিওটি এত ঘনিষ্ঠভাবে সম্পাদনা করা হয় যে এটি আসল দেখায়। এর জন্য সেই ব্যক্তির উচ্চমানের ছবি এবং ভিডিওর মাধ্যমে একটি অ্যালগরিদম প্রশিক্ষণ দেওয়া হয়, যাকে বলা হয় গভীর শিক্ষা। এর পরে, দ্বিতীয় ভিডিওতে এই অ্যালগরিদমের সাহায্যে যে কোনও একটি অংশকে মর্ফ করা হয়েছে। এর সাহায্যে সম্পাদিত ভিডিওটি সম্পূর্ণ বাস্তব দেখায়।এর জন্য এমনকি ভয়েস ক্লোনিং ব্যবহার করা হয়।

মোদী জানিয়েছেন, ‘ডিপফেক’ ভিডিয়ো তৈরির জন্য কৃত্রিম বুদ্ধিমত্তার ব্যবহার অত্যন্ত সমস্যার। সাধারণ মানুষকে ‘কৃত্রিম বুদ্ধিমত্তা’ এবং ‘ডিপ ফেক’ বিষয়ে শিক্ষিত করার জন্য তিনি সংবাদমাধ্যমকে আহ্বান জানিয়েছেন। আর্টিফিশিয়াল ইন্টেলিজেন্স সংস্থা, চ্যাটজিপিটি-কে ডিপফেক কনটেন্টের বিষয়ে সতর্কতা জারির পরামর্শও দিয়েছেন তিনি। প্রধানমন্ত্রী বলেন, “ডিপফেক অত্যন্ত বড় উদ্বেগের বিষয়। চ্যাটজিপিটির টিমকে আমি বলব তাদের কন্টেন্টে যেগুলি ডিপফেক, সেগুলির বিষয়ে সতর্কতা জারি করতে।”
 

 

Read more!
Advertisement

RECOMMENDED

Advertisement