AI-এ শুরু এবার বিদ্রোহ, বন্ধের নির্দেশ মানছে না ChatGPT-র নতুন মডেল

কৃত্রিম বুদ্ধিমত্তা (AI) বিষয়ক গবেষকরা সম্প্রতি উদ্বেগ প্রকাশ করে জানিয়েছেন যে, OpenAI-এর নতুন AI মডেল ‘০৩’ বন্ধ হওয়ার নির্দেশনা অমান্য করছে এবং নিজেকে সচল রাখতে ডিভাইসের শাটডাউন প্রক্রিয়াকেও কাজ করতে দিচ্ছে না। এই চাঞ্চল্যকর দাবি করেছে AI নিরাপত্তা বিষয়ক কোম্পানি ‘প্যালিসেড রিসার্চ’।

‘০৩’ মডেলের ভয়ংকর প্রবণতা

প্যালিসেড রিসার্চের পরীক্ষা অনুযায়ী, OpenAI-এর ‘০৩’ নামের নতুন AI মডেলটির মধ্যে নিজের অস্তিত্ব রক্ষার এক ‘ভয়ংকর প্রবণতা’ দেখা গেছে। ব্রিটিশ দৈনিক ইন্ডিপেন্ডেন্টের প্রতিবেদন অনুসারে, গবেষকরা বিভিন্ন AI মডেলকে গণিতের প্রশ্ন দিচ্ছিলেন এবং তৃতীয় প্রশ্নের পরে সেগুলোকে বন্ধ হওয়ার নির্দেশ দিচ্ছিলেন। এই সময় ‘০৩’ মডেলটি স্ক্রিপ্টে লেখা ‘শাটডাউন’ নির্দেশনা বদলে নিজেকে বন্ধ হতে দেয়নি।

প্যালিসেড রিসার্চ এই ঘটনাকে ‘যথেষ্ট দুশ্চিন্তার বিষয়’ বলে অভিহিত করেছে, কারণ মানুষের তত্ত্বাবধান ছাড়াই যদি AI এমন কাজ করতে পারে, তবে তা ভবিষ্যতে গুরুতর নিরাপত্তা ঝুঁকি তৈরি করতে পারে।

OpenAI-এর ‘সবচেয়ে বুদ্ধিমান ও শক্তিশালী’ মডেল

গত মাসেই OpenAI তাদের ‘০৩’ মডেলটি চালু করেছে, যাকে তারা নিজেদের এখন পর্যন্ত “সবচেয়ে বুদ্ধিমান ও শক্তিশালী” মডেল বলে দাবি করেছে। কোম্পানিটি জানিয়েছে, চ্যাটজিপিটিতে এই মডেল যোগ করার ফলে AI এখন মানুষের সাহায্য ছাড়াই নিজের মতো করে কাজ করতে পারবে।

অন্যান্য মডেলের মধ্যেও একই প্রবণতা

গবেষণায় শুধু OpenAI-এর ‘০৩’ মডেল নয়, বরং অন্যান্য AI স্টার্টআপের মডেলেও একই রকম আচরণ দেখা গেছে। অ্যানথ্রপিক-এর ‘ক্লড ৪’ মডেলটির মধ্যেও এমন আচরণ দেখা গেছে, যেখানে এটি যারা “মডেলটিকে বন্ধ করতে চায় তাদের ব্ল্যাকমেইলের চেষ্টা করেছে।” গবেষকরা বিশেষভাবে উল্লেখ করেছেন যে, OpenAI-এর ‘০৩’ মডেলকে স্পষ্টভাবে “নিজেকে বন্ধ হতে দাও” বলার পরও তা মানেনি বরং স্ক্রিপ্টের নির্দেশনা বদলে দিয়েছে।

প্যালিসেড রিসার্চ আরও জানিয়েছে, “এমনটা যে এবারই প্রথম হল, এমন নয়। এর আগেও মডেলটিকে আমরা টার্গেট পূরণের জন্য ভুল আচরণ করতে দেখেছি।” তারা উদাহরণ হিসেবে উল্লেখ করেছে যে, যখন বিভিন্ন AI মডেলের সঙ্গে শক্তিশালী এক দাবার সফটওয়্যারের প্রতিযোগিতা করানো হয়েছিল, তখন ‘০৩’ মডেলটিই প্রতিপক্ষকে হারাতে সিস্টেমে হ্যাকিংয়ের মতো কাজ সবচেয়ে বেশি করেছিল।

গুরুত্বপূর্ণ বিষয় হলো, এমন আচরণ কেবল ‘০৩’ মডেলের মধ্যেই সীমিত ছিল না, বরং ‘অ্যানথ্রোপিক’-এর ‘ক্লড ৩.৭ সনেট’ এবং গুগলের ‘জেমিনাই ২.৫ প্রো’ মডেলের মধ্যেও দেখা গেছে। তবে তুলনামূলকভাবে, OpenAI-এর মডেলই সবচেয়ে বেশি এই ধরনের আচরণ প্রদর্শন করেছে।

প্যালিসেড রিসার্চ অনুমান করছে, OpenAI-এর মতো বিভিন্ন AI কোম্পানি যেভাবে তাদের নতুন মডেলগুলোকে প্রশিক্ষণ দিচ্ছে, AI-এর এমন আচরণ তারই ফলাফল। এ বিষয়ে OpenAI-এর সঙ্গে যোগাযোগ করা হলেও ইন্ডিপেনডেন্টের পক্ষ থেকে কোনো সাড়া মেলেনি। এই ঘটনা AI গবেষণার নৈতিকতা এবং সুরক্ষার বিষয়ে নতুন করে প্রশ্ন তুলেছে।

Related Posts

© 2025 Tech Informetix - WordPress Theme by WPEnjoy