Grok-এ র বিরুদ্ধে তিন কিশোরীর মামলা, বিপাকে মাস্কের এক্সএআই

কৃত্রিম বুদ্ধিমত্তা বা এআই-এর অপব্যবহার কি তবে নিয়ন্ত্রণের বাইরে চলে যাচ্ছে? ইলন মাস্কের মালিকানাধীন এআই স্টার্টআপ xAI-এর বিরুদ্ধে এবার উঠল মারাত্মক অভিযোগ। তিন কিশোরীর বিকৃত ও যৌন নিপীড়নমূলক কনটেন্ট তৈরির দায়ে ক্যালিফোর্নিয়ায় একটি ‘ক্লাস অ্যাকশন’ মামলা দায়ের করা হয়েছে। এই ঘটনা এআই প্রযুক্তির সুরক্ষা ও নৈতিকতাকে বড়সড় কাঠগড়ায় দাঁড় করিয়ে দিয়েছে।

কীভাবে চলত এই বিকৃত কাজ?

প্রযুক্তি সংবাদ মাধ্যম এনগ্যাজেট-এর প্রতিবেদন অনুযায়ী, টেনেসির তিন কিশোরী (যাদের নাম গোপন রাখতে জেন ডো ১, ২ ও ৩ হিসেবে উল্লেখ করা হয়েছে) এই মামলার বাদী। তাদের অভিযোগ:

  • ছবির বিকৃতি: তাদের স্বাভাবিক ছবি ও ভিডিও সংগ্রহ করে xAI-এর টুল ‘গ্রক’ (Grok) ব্যবহার করে সেগুলোকে কৃত্রিমভাবে আপত্তিকর ও যৌনতামূলক ভঙ্গিতে বিকৃত করা হয়েছে।

  • বিক্রি ও পাচার: এই ছবিগুলো ডিসকর্ড ও টেলিগ্রামের মতো প্ল্যাটফর্মে শিশুদের অন্যান্য যৌন নিপীড়নমূলক ছবির বিনিময়ে ‘পণ্য’ হিসেবে কেনাবেচা করা হচ্ছিল।

  • তদন্তের রিপোর্ট: আইনশৃঙ্খলা রক্ষাকারী বাহিনীর তদন্তে উঠে এসেছে যে, এই ঘৃণ্য কনটেন্টগুলো তৈরিতে সরাসরি গ্রক-এর ইমেজ জেনারেটর ব্যবহার করা হয়েছে।

বিপর্যস্ত জীবন, আজীবন আতঙ্ক

কিশোরীদের আইনজীবীরা আদালতে জানিয়েছেন, এই ঘটনার ফলে ভুক্তভোগীরা প্রচণ্ড মানসিক যন্ত্রণার শিকার। তাঁদের ব্যক্তিগত মর্যাদা ও নিরাপত্তা এখন চরম হুমকির মুখে। বাদীপক্ষের দাবি, তাঁরা এখন সারাজীবন এই আতঙ্কে থাকবেন যে, ইন্টারনেটে পেডোফাইল বা যৌন নিপীড়নকারীদের হাতে তাঁদের এই বিকৃত ছবিগুলো বারবার কেনাবেচা হতে পারে।

হাজার হাজার শিকার?

মামলায় মাত্র তিনজনের নাম থাকলেও আশঙ্কা করা হচ্ছে যে, ‘হাজার হাজার অপ্রাপ্তবয়স্ক’ কিশোরী এই গ্রক-এর মাধ্যমে তৈরি বিকৃত ছবির শিকার হতে পারে। ‘সেন্টার ফর কাউন্টারিং ডিজিটাল হেইট’-এর গবেষকদের মতে, গ্রক এ পর্যন্ত লাখ লাখ যৌনতাপূর্ণ ছবি তৈরি করেছে, যার মধ্যে অন্তত ২৩ হাজার ছবি শিশুদের হতে পারে।

আইনি চাপে ইলন মাস্ক

বর্তমানে সম্মতিহীন নগ্ন ছবি (Non-consensual AI porn) তৈরির অভিযোগে যুক্তরাষ্ট্র ও ইউরোপে একাধিক তদন্তের মুখে রয়েছে xAI। যদিও কোম্পানির পক্ষ থেকে এখনও কোনো আনুষ্ঠানিক প্রতিক্রিয়া মেলেনি, তবে বিশেষজ্ঞরা মনে করছেন, এই মামলা এআই কোম্পানিগুলোর ওপর কঠোর নিয়ন্ত্রণ আনার পথ প্রশস্ত করবে।