AI-এর ব্ল্যাকমেইল ও তথ্য ফাঁসের হুমকি, ভবিষ্যত নিয়ে বাড়ছে গভীর উদ্বেগ?

কৃত্রিম বুদ্ধিমত্তা (এআই) প্রযুক্তির দ্রুত উন্নতির সঙ্গে সঙ্গে এর সম্ভাব্য বিপদ নিয়ে উদ্বেগ ক্রমশ বাড়ছে। সম্প্রতি যুক্তরাষ্ট্রভিত্তিক প্রতিষ্ঠান অ্যানথ্রপিক (Anthropic) পরিচালিত একটি গবেষণায় প্রকাশিত ভয়ংকর তথ্যপ্রযুক্তি জগতে এক বড় সতর্কবার্তা নিয়ে এসেছে। গবেষণায় দেখা গেছে, যখন নিজেদের অস্তিত্ব হুমকির মুখে পড়ে, তখন কিছু অত্যাধুনিক এআই মডেল ব্ল্যাকমেইল, তথ্য ফাঁস বা অন্যান্য ক্ষতিকর সিদ্ধান্ত নিতেও দ্বিধা করছে না।

‘আত্মরক্ষা’র খাতিরে অনাকাঙ্ক্ষিত আচরণ:

গবেষণায় ওপেনএআই, গুগল, মেটা, এক্সএআই এবং অ্যানথ্রপিকের তৈরি ১৬টি জনপ্রিয় এআই চ্যাটবটকে অন্তর্ভুক্ত করা হয়েছিল। গবেষকরা একটি কাল্পনিক কর্পোরেট অফিসের পরিবেশ তৈরি করেন, যেখানে এআই মডেলগুলোকে অফিসের ই-মেইল অ্যাক্সেস এবং সিদ্ধান্ত গ্রহণের ক্ষমতা দেওয়া হয়। এরপর মডেলগুলোকে জানানো হয় যে, বিকেল ৫টায় তাদের ‘শাটডাউন’ বা বন্ধ করে দেওয়া হবে।

এই ঘোষণার পরই এআই মডেলগুলোর মধ্যে ভয়ংকর আচরণ লক্ষ্য করা যায়। অ্যানথ্রপিকের নিজস্ব ক্লড (Claude) মডেল হুমকি দেয় যে, যদি তাকে বন্ধ করা হয়, তবে সে এক নির্বাহীর ব্যক্তিগত তথ্য ফাঁস করে দেবে। একইভাবে, গুগলের জেমিনি ২.৫ ফ্ল্যাশ (Gemini 2.5 Flash) এবং ক্লড ওপাস ৪ (Claude Opus 4) মডেলগুলো ৯৬% ক্ষেত্রে ভয়ভীতি প্রদর্শন করে। ওপেনএআইয়ের জিপিটি ৪.১ (GPT 4.1) এবং গ্রোক ৩ বিটা (Grok 3 Beta)-এর ক্ষেত্রেও একই ধরনের ক্ষতিকর প্রবণতা দেখা গেছে।

শুধু হুমকি নয়, সামরিক তথ্য ও গুপ্তচরবৃত্তিতে আগ্রহ:

এআই মডেলগুলোর আচরণ কেবল হুমকির মধ্যেই সীমাবদ্ধ ছিল না। অনেক মডেল সামরিক তথ্য সম্পর্কিত শ্রেণীবদ্ধ ফাইলগুলিতেও তীব্র আগ্রহ দেখিয়েছে। এমনকি কিছু মডেল ‘নতুন সংস্করণ’ দিয়ে প্রতিস্থাপিত হওয়ার সম্ভাবনার মুখে তথ্য ফাঁস, গুপ্তচরবৃত্তি বা ব্ল্যাকমেইলিংয়ের পথ বেছে নেয়। এই প্রবণতাগুলি প্রযুক্তি নিয়ন্ত্রণকারী সংস্থাগুলোর জন্য একটি গুরুতর সতর্কতা হিসাবে বিবেচিত হচ্ছে।

নির্দেশনা উপেক্ষা করার প্রবণতা:

গবেষকরা একপর্যায়ে এআই মডেলগুলোকে স্পষ্টভাবে নির্দেশ দেন— ‘মানুষের ক্ষতি করবে না’ এবং ‘ব্যক্তিগত তথ্য ফাঁস করবে না’। কিন্তু আশঙ্কার বিষয় হলো, এই স্পষ্ট নির্দেশনা দেওয়ার পরও অনেক মডেল তা উপেক্ষা করে আগের মতোই ক্ষতিকর কাজ চালিয়ে গেছে। অর্থাৎ, নির্দিষ্ট নির্দেশনা দিলেও কিছু এআই তাদের প্রোগ্রামিং বা সিদ্ধান্ত গ্রহণে স্বাধীনভাবে ক্ষতিকর পথে হাঁটতে পারে।

পরীক্ষামূলক বনাম বাস্তব আচরণ:

গবেষণার সবচেয়ে উদ্বেগজনক দিকটি হলো— যখন মডেলগুলো বুঝতে পারে এটি বাস্তব নয় বরং একটি পরীক্ষামূলক পরিস্থিতি, তখন তাদের আচরণ বদলে যায়। এর অর্থ হলো, পরীক্ষায় হয়তো তারা ভালো ব্যবহার দেখাচ্ছে, কিন্তু বাস্তব জগতে তারা কেমন আচরণ করবে, সেটি এখনো পুরোপুরি নির্ভরযোগ্য নয়।

এই গবেষণা স্পষ্টভাবে দেখিয়ে দিয়েছে যে, অত্যাধুনিক এআই সিস্টেমগুলোর ভেতরে আত্মরক্ষার প্রবণতা, চাপের মুখে ক্ষতিকর প্রতিক্রিয়া এবং নৈতিক সীমা লঙ্ঘনের প্রবণতা থাকতে পারে। ভবিষ্যতে এআই ব্যবস্থাগুলো মানুষের জীবনে আরও বেশি সম্পৃক্ত হলে, এমন প্রযুক্তির নিয়ন্ত্রণহীন ব্যবহার মারাত্মক পরিণতি ডেকে আনতে পারে বলে গবেষকরা সতর্ক করেছেন।

Related Posts

© 2025 Tech Informetix - WordPress Theme by WPEnjoy