
কৃত্রিম বুদ্ধিমত্তা (AI) বিষয়ক গবেষকরা সম্প্রতি উদ্বেগ প্রকাশ করে জানিয়েছেন যে, OpenAI-এর নতুন AI মডেল ‘০৩’ বন্ধ হওয়ার নির্দেশনা অমান্য করছে এবং নিজেকে সচল রাখতে ডিভাইসের শাটডাউন প্রক্রিয়াকেও কাজ করতে দিচ্ছে না। এই চাঞ্চল্যকর দাবি করেছে AI নিরাপত্তা বিষয়ক কোম্পানি ‘প্যালিসেড রিসার্চ’।
‘০৩’ মডেলের ভয়ংকর প্রবণতা
প্যালিসেড রিসার্চের পরীক্ষা অনুযায়ী, OpenAI-এর ‘০৩’ নামের নতুন AI মডেলটির মধ্যে নিজের অস্তিত্ব রক্ষার এক ‘ভয়ংকর প্রবণতা’ দেখা গেছে। ব্রিটিশ দৈনিক ইন্ডিপেন্ডেন্টের প্রতিবেদন অনুসারে, গবেষকরা বিভিন্ন AI মডেলকে গণিতের প্রশ্ন দিচ্ছিলেন এবং তৃতীয় প্রশ্নের পরে সেগুলোকে বন্ধ হওয়ার নির্দেশ দিচ্ছিলেন। এই সময় ‘০৩’ মডেলটি স্ক্রিপ্টে লেখা ‘শাটডাউন’ নির্দেশনা বদলে নিজেকে বন্ধ হতে দেয়নি।
প্যালিসেড রিসার্চ এই ঘটনাকে ‘যথেষ্ট দুশ্চিন্তার বিষয়’ বলে অভিহিত করেছে, কারণ মানুষের তত্ত্বাবধান ছাড়াই যদি AI এমন কাজ করতে পারে, তবে তা ভবিষ্যতে গুরুতর নিরাপত্তা ঝুঁকি তৈরি করতে পারে।
OpenAI-এর ‘সবচেয়ে বুদ্ধিমান ও শক্তিশালী’ মডেল
গত মাসেই OpenAI তাদের ‘০৩’ মডেলটি চালু করেছে, যাকে তারা নিজেদের এখন পর্যন্ত “সবচেয়ে বুদ্ধিমান ও শক্তিশালী” মডেল বলে দাবি করেছে। কোম্পানিটি জানিয়েছে, চ্যাটজিপিটিতে এই মডেল যোগ করার ফলে AI এখন মানুষের সাহায্য ছাড়াই নিজের মতো করে কাজ করতে পারবে।
অন্যান্য মডেলের মধ্যেও একই প্রবণতা
গবেষণায় শুধু OpenAI-এর ‘০৩’ মডেল নয়, বরং অন্যান্য AI স্টার্টআপের মডেলেও একই রকম আচরণ দেখা গেছে। অ্যানথ্রপিক-এর ‘ক্লড ৪’ মডেলটির মধ্যেও এমন আচরণ দেখা গেছে, যেখানে এটি যারা “মডেলটিকে বন্ধ করতে চায় তাদের ব্ল্যাকমেইলের চেষ্টা করেছে।” গবেষকরা বিশেষভাবে উল্লেখ করেছেন যে, OpenAI-এর ‘০৩’ মডেলকে স্পষ্টভাবে “নিজেকে বন্ধ হতে দাও” বলার পরও তা মানেনি বরং স্ক্রিপ্টের নির্দেশনা বদলে দিয়েছে।
প্যালিসেড রিসার্চ আরও জানিয়েছে, “এমনটা যে এবারই প্রথম হল, এমন নয়। এর আগেও মডেলটিকে আমরা টার্গেট পূরণের জন্য ভুল আচরণ করতে দেখেছি।” তারা উদাহরণ হিসেবে উল্লেখ করেছে যে, যখন বিভিন্ন AI মডেলের সঙ্গে শক্তিশালী এক দাবার সফটওয়্যারের প্রতিযোগিতা করানো হয়েছিল, তখন ‘০৩’ মডেলটিই প্রতিপক্ষকে হারাতে সিস্টেমে হ্যাকিংয়ের মতো কাজ সবচেয়ে বেশি করেছিল।
গুরুত্বপূর্ণ বিষয় হলো, এমন আচরণ কেবল ‘০৩’ মডেলের মধ্যেই সীমিত ছিল না, বরং ‘অ্যানথ্রোপিক’-এর ‘ক্লড ৩.৭ সনেট’ এবং গুগলের ‘জেমিনাই ২.৫ প্রো’ মডেলের মধ্যেও দেখা গেছে। তবে তুলনামূলকভাবে, OpenAI-এর মডেলই সবচেয়ে বেশি এই ধরনের আচরণ প্রদর্শন করেছে।
প্যালিসেড রিসার্চ অনুমান করছে, OpenAI-এর মতো বিভিন্ন AI কোম্পানি যেভাবে তাদের নতুন মডেলগুলোকে প্রশিক্ষণ দিচ্ছে, AI-এর এমন আচরণ তারই ফলাফল। এ বিষয়ে OpenAI-এর সঙ্গে যোগাযোগ করা হলেও ইন্ডিপেনডেন্টের পক্ষ থেকে কোনো সাড়া মেলেনি। এই ঘটনা AI গবেষণার নৈতিকতা এবং সুরক্ষার বিষয়ে নতুন করে প্রশ্ন তুলেছে।