scorecardresearch
 

‘Deepfake’ নিয়ে ক্ষুব্ধ মোদী, বললেন, 'আমারও গরবা নাচের ভিডিও ছড়িয়েছে'

রশ্মিকা মান্ধানা, ক্যাটরিনা কাইফ, কাজল – গত কয়েক দিনে একের পর এক বলিউড অভিনেত্রী শিকার হয়েছেন ‘ডিপফেক’ প্রযুক্তির। আর্টিফিশিয়াল ইন্টেলিজেন্স অর্থাৎ, কৃত্রিম বুদ্ধিমত্তার সাহায্যে এত নিখুঁত নকল ভিডিয়ো তৈরি করা হচ্ছে, যা দেখে আসলের সঙ্গে প্রভেদ করার উপায় নেই।

Advertisement
ফাইল ছবি। ফাইল ছবি।
হাইলাইটস
  • রশ্মিকা মান্ধানা, ক্যাটরিনা কাইফ, কাজল – গত কয়েক দিনে একের পর এক বলিউড অভিনেত্রী শিকার হয়েছেন ‘ডিপফেক’ প্রযুক্তির।
  • আর্টিফিশিয়াল ইন্টেলিজেন্স অর্থাৎ, কৃত্রিম বুদ্ধিমত্তার সাহায্যে এত নিখুঁত নকল ভিডিয়ো তৈরি করা হচ্ছে, যা দেখে আসলের সঙ্গে প্রভেদ করার উপায় নেই।

রশ্মিকা মান্ধানা, ক্যাটরিনা কাইফ, কাজল – গত কয়েক দিনে একের পর এক বলিউড অভিনেত্রী শিকার হয়েছেন ‘ডিপফেক’ প্রযুক্তির। আর্টিফিশিয়াল ইন্টেলিজেন্স অর্থাৎ, কৃত্রিম বুদ্ধিমত্তার সাহায্যে এত নিখুঁত নকল ভিডিয়ো তৈরি করা হচ্ছে, যা দেখে আসলের সঙ্গে প্রভেদ করার উপায় নেই। এবার ডিপফেকের শিকার হলেন খোদ প্রধানমন্ত্রী মোদী। শুক্রবার (১৭ নভেম্বর) নিজেই এই খবর জানিয়েছেন প্রধানমন্ত্রী মোদী। সেই সঙ্গে ডিপফেক প্রযুক্তি ব্যবহারের বিপদ নিয়ে উদ্বেগ প্রকাশ করেছেন তিনি।

সাম্প্রতিক দিনগুলিতে সোশ্যাল মিডিয়া ভরে গিয়েছে ডিপফেক ভিডিয়োয়। এই নিয়ে জোর চর্চাও চলছে। অনেকেই এই প্রযুক্তিকে বিপজ্জনক বলে মনে করছেন। এদিন প্রধানমন্ত্রী মোদীও এই প্রযুক্তির বিপদ সম্পর্কে সতর্ক করলেন দেশবাসীকে। এদিন নয়া দিল্লিতে বিজেপির কেন্দ্রীয় কার্যালয়ে ‘দিওয়ালি মিলন’ উৎসব পালন করা হচ্ছে। সেই অনুষ্ঠান যোগ দেন প্রধানমন্ত্রীও। সেখানেই ডিপফেকের বিপদ নিয়ে সরব হন তিনি।

তিনি জানান, এইভাবে কৃত্রিম বুদ্ধিমত্তার অপব্যবহার করা হচ্ছে। এমনকি, তাঁরও ডিপফেক ভিডিয়ো তৈরি করা হয়েছে। প্রধানমন্ত্রী বলেন, “সম্প্রতি আমি একটি ভিডিয়ো দেখেছি যেখানে আমাকে গান গাইতে দেখা যাচ্ছে। যারা আমাকে পছন্দ করেন, তারা এই ভিডিয়োটি আমায় ফরোয়ার্ড করেছেন।”

আরও পড়ুন

প্রযুক্তি এবং কৃত্রিম বুদ্ধিমত্তার (AI) এই যুগে, যে কোনও ছবি, ভিডিও এবং অডিও হেরফের বা হেরফের করা যেতে পারে যাতে এটি সম্পূর্ণ আলাদা। সম্প্রতি, যখন কৃত্রিম বুদ্ধিমত্তা ভিত্তিক সরঞ্জাম ব্যবহার করে অভিনেত্রী রশ্মিকা মান্দানার ডিপফেক ভিডিও ভাইরাল হয়, তখন সবাই অবাক হয়ে যায়।

ডিপফেক অশান্তি সৃষ্টি করতে পারে।এখন প্রধানমন্ত্রী নরেন্দ্র মোদী নিজেই ডিপফেক নিয়ে গভীর উদ্বেগ প্রকাশ করেছেন এবং বলেছেন যে ডিপফেক সমাজে বড় অশান্তি সৃষ্টি করতে পারে। পিএম মোদি বলেছেন যে লাইনের বাইরে এক লাইনও তোলপাড় সৃষ্টি করতে পারে। তিনি বলেছিলেন যে জেনারেটিভ AI এর মাধ্যমে তৈরি ফটোগ্রাফ বা ভিডিওগুলিতে একটি স্পষ্ট দাবিত্যাগ থাকা উচিত যে এটি ডিপফেক ব্যবহার করে তৈরি করা হয়েছে।

Advertisement

গরবা ভিডিওর উল্লেখ করে, প্রধানমন্ত্রী মোদি ডিপফেকগুলিকে ভারতীয় সিস্টেমের মুখোমুখি সবচেয়ে বড় হুমকি হিসাবে বর্ণনা করেছেন। পিএম মোদী বলেছিলেন যে ডিপফেকগুলি সমাজে অরাজকতা তৈরি করতে পারে। তিনি বলেছেন যে ডিপফেক সম্পর্কে জনগণ এবং মিডিয়াকে খুব সতর্ক থাকতে হবে। প্রধানমন্ত্রী বলেন, 'আমি আমার একটি ভিডিও দেখেছি যাতে আমি গরবা করছি এবং এটি খুব বাস্তব মনে হয়েছে যদিও আমি ছোটবেলা থেকে গরবা খেলিনি।'

প্রধানমন্ত্রীর জাল ভিডিও ভাইরাল হয়েছে গত মাসে, প্রধানমন্ত্রী মোদীর গরবা নাচের একটি ভিডিও সোশ্যাল মিডিয়ায় ভাইরাল হয়েছিল। এতে প্রধানমন্ত্রীর মতো দেখতে এক ব্যক্তিকে কয়েকজন নারীর সঙ্গে গরবা করতে দেখা যায়। বলা হচ্ছে, এটি প্রধানমন্ত্রী নরেন্দ্র মোদীর নবরাত্রির সময় গরবা খেলার একটি ভিডিও। এই দাবির ভিডিওটি ফেসবুক ও টুইটারে বেশ ভাইরাল হচ্ছে।

আজ তক তার তদন্তে দেখেছে যে এই ভিডিওটি প্রধানমন্ত্রী মোদীর নয়, একজন অভিনেতা যিনি তার মতো দেখতে, বিকাশ মহন্তের। সম্প্রতি রশ্মিকার ভিডিও ভাইরাল হয়েছে।কয়েকদিন আগে রশ্মিকা মান্দানার ডিপফেক ভিডিও ভাইরাল হলে সবাই অবাক হয়ে যায়। এরপর টাইগার-৩ থেকে ক্যাটরিনা কাইফের নকল ছবি এবং এখন সারা তেন্ডুলকার-শুভমন গিল-এর ছবি মর্ফ করে ভাইরাল করা হয়। অতীতেও ডিপফেক ব্যবহার করা হয়েছে, কিন্তু এআই আসার পর এ ধরনের ঘটনা বেড়েছে। 
ডিপফেক কি? আজকাল প্রযুক্তি এবং এআই-এর সাহায্যে যে কোনো ছবি, ভিডিও এবং অডিও হেরফের বা কারসাজি করে সম্পূর্ণ আলাদা করা যায়।যেমন, কোনো নেতা, অভিনেতা বা সেলিব্রেটির বক্তৃতা তুলে ধরে, কৃত্রিম বুদ্ধিমত্তা ভিত্তিক টুল। এর মাধ্যমে সম্পূর্ণ পরিবর্তন করা যায়। কিন্তু যে ব্যক্তি শ্রবণ ও দেখবে সে তা জানবে না এবং সত্য বলে মেনে নেবে। একে বলে ডিপফেক।

আসুন এখন জেনে নেই সেই আইনগুলো যা এই ধরনের বিষয়ে আপনার জন্য সহায়ক হতে পারে। এর আগে, ফটোশপ এবং অন্যান্য সরঞ্জামের সাহায্যে মানুষের ছবি মর্ফ করা হয়েছিল, তবে ডিপফেকগুলি এর বাইরেও একটি গল্প। এতে, নকল ভিডিওটি এত ঘনিষ্ঠভাবে সম্পাদনা করা হয় যে এটি আসল দেখায়। এর জন্য সেই ব্যক্তির উচ্চমানের ছবি এবং ভিডিওর মাধ্যমে একটি অ্যালগরিদম প্রশিক্ষণ দেওয়া হয়, যাকে বলা হয় গভীর শিক্ষা। এর পরে, দ্বিতীয় ভিডিওতে এই অ্যালগরিদমের সাহায্যে যে কোনও একটি অংশকে মর্ফ করা হয়েছে। এর সাহায্যে সম্পাদিত ভিডিওটি সম্পূর্ণ বাস্তব দেখায়।এর জন্য এমনকি ভয়েস ক্লোনিং ব্যবহার করা হয়।

মোদী জানিয়েছেন, ‘ডিপফেক’ ভিডিয়ো তৈরির জন্য কৃত্রিম বুদ্ধিমত্তার ব্যবহার অত্যন্ত সমস্যার। সাধারণ মানুষকে ‘কৃত্রিম বুদ্ধিমত্তা’ এবং ‘ডিপ ফেক’ বিষয়ে শিক্ষিত করার জন্য তিনি সংবাদমাধ্যমকে আহ্বান জানিয়েছেন। আর্টিফিশিয়াল ইন্টেলিজেন্স সংস্থা, চ্যাটজিপিটি-কে ডিপফেক কনটেন্টের বিষয়ে সতর্কতা জারির পরামর্শও দিয়েছেন তিনি। প্রধানমন্ত্রী বলেন, “ডিপফেক অত্যন্ত বড় উদ্বেগের বিষয়। চ্যাটজিপিটির টিমকে আমি বলব তাদের কন্টেন্টে যেগুলি ডিপফেক, সেগুলির বিষয়ে সতর্কতা জারি করতে।”
 

 

Advertisement