জনপ্রিয় মেসেজিং অ্যাপ টেলিগ্রাম গত কয়েক মাসে অনেক জনপ্রিয়তা অর্জন করেছে, কারণ এতে করা বার্তাগুলি এবং অন্যান্য মিডিয়াগুলি কেবল গোপনীয়তার নিশ্চয়তাই রাখে না তবে এতে বড় ফাইলগুলি সহজেই শেয়ার করা যায়। কিন্তু এবার এই অ্যাপটি একটি বিতর্কের মধ্যে জড়িয়ে পড়েছে। সমস্যার সৃষ্টি করেছে deepfake tool। এই টুলটির সাহায্যে যে ছবিতে পরে থাকা কাপড় মুছে ফেলে নগ্ন করা যায়। আর এই অ্যাপটির সাহায্যে নাবালিক মেয়েদের টার্গেট করে হয়রান করা হচ্ছে।
ইতিমিধ্যেী লক্ষ মহিলার ভুয়ো নগ্ন ছবি ভাইরাল হয়েছে। এই অ্যাপটির মাধ্যমে এখনও পর্যন্ত ১০ হাজার মেয়ে ও মহিলাদের ছবি তাঁদের বিনা অনুমতিতে নগ্ন ছবি অনলাইনে শেয়ার করা হয়েছে। এই ছবিগুলি জুলাই ২০১৯ থেকে ২০২০ মধ্যে কৃত্রিম বুদ্ধিমত্তা (AI Bot) ব্যবহার করে সোশ্যাল মিডিয়া থেকে ছবি নেওয়া হচ্ছে। এরপর মহিলাদের জামাকাপড় মুছে ফেলা হচ্ছে। তারপরে টেলিগ্রামে অনলাইনে প্রচার করা হচ্ছে। ক্ষতিগ্রস্থদের বেশিরভাগেরই এই ছবিগুলি ব্যক্তিগত ছিল, যা সোশ্যাল মিডিয়া থেকে তোলা হয়েছিল। এঁরদের মধ্যে সবাই মহিলা আর অনেকেরই বয়স কম। এই নামবিহীন ‘বট’ আর্টিফিশিয়াল লার্নিং এবং মেশিন লার্নিং ব্যবহার করে থাকে।
আরও পড়ুন: এবার চাঁদেও মিলবে 4G পরিষেবা! নোকিয়ার সঙ্গে গাঁটছড়া বেঁধে দাবি নাসার
এই বিষয়টি নিয়ে যারা রিপোর্ট করেছেন তাঁদের মতে, এটি যে কারও ছবি নিয়ে সেটিকে নগ্ন করে দেওয়ার আশংকা রয়েছে। তাড়া আরও বলেছেন যে, ইই বট এর সাহায্যে যেই মহিলাদের আর মেয়েদের ছবি ফেক নগ্ন করা হয়েছে, সেগুলি সাধারন মানুষের ব্যক্তিগত ছবি।
সোশ্যাল মিডিয়াতে শেয়ার করা কম বয়েসী মেয়েদের ছবিগুলি মেসেজিং অ্যাপ টেলিগ্রাম অ্যাপে ডিপফেক বটের মাধ্যমে নগ্ন করা হয়েছে। নতুন একটি রিপোর্টে এই কথা সামনে এসেছে। রিপোর্ট অনুযায়ী, এই ছবিগুলি আর্টিফিশিয়াল ইন্টেলিজেন্সের একটি সাধারণ প্রয়োগের উপর ভিত্তি করে তৈরি। কৃত্রিম এই বৃদ্ধিমত্তা পরিচালিত ‘বট’টি থাকে টেলিগ্রাম চ্যানেলের ভিতরে। তাকে ব্যবহারকারী একজন নারীর ছবি পাঠিয়ে দিলেই কয়েক মিনিটের মধ্যে তার একটি নগ্ন ডিজিটাল ছবি বেরিয়ে আসে। এর জন্য বাড়তি খরচ করতে হয় না।
বিষয়টি সম্পর্কে জানতে চেয়ে ইতিমধ্যেই টেলিগ্রাম কতৃপক্ষকে নোটিশ পাঠিয়েছে বম্বে আদালত।
আরও পড়ুন: ফের ধামাকা, মাত্র ২,৫০০ টাকায় 5G স্মার্টফোন দেবে Jio! জানুন বিশদে…