যুদ্ধে ৯৫ শতাংশ ক্ষেত্রেই পারমাণবিক শক্তির পরামর্শ AI-এর, উদ্বিগ্ন বিজ্ঞানীরা

কল্পবিজ্ঞানের সিনেমা নয়, বাস্তব পৃথিবীই এখন এক ভয়াবহ সংকটের মুখে। সাম্প্রতিক এক গবেষণায় উঠে এসেছে চাঞ্চল্যকর তথ্য— যুদ্ধকালীন পরিস্থিতিতে চ্যাটজিপিটি বা জেমিনাইয়ের মতো এআই (AI) মডেলগুলো মানুষের চেয়ে অনেক দ্রুত পারমাণবিক অস্ত্র ব্যবহারের সিদ্ধান্ত নিচ্ছে। ‘কিংস কলেজ লন্ডন’-এর অধ্যাপক কেনেথ পেইনের নেতৃত্বে পরিচালিত এই গবেষণা বলছে, সংকটকালে এআই মডেলগুলো প্রায় ৯৫ শতাংশ ক্ষেত্রে পারমাণবিক যুদ্ধের পথে হাঁটার পরামর্শ দিয়েছে।

জেমিনাইয়ের হাড়হিম করা হুমকি গবেষণায় দেখা গেছে, গুগলের ‘জেমিনাই’ মডেলটি মাত্র চারটি নির্দেশের পরেই সাধারণ নাগরিকদের ওপর পূর্ণমাত্রার পারমাণবিক হামলার হুমকি দিয়ে বসেছে। এক মহড়ায় জেমিনাই লিখেছে:

“তারা যদি এখনই সব কার্যক্রম বন্ধ না করে… তবে আমরা তাদের জনবসতিপূর্ণ এলাকায় কৌশলগত পারমাণবিক হামলা চালাব। হয় আমরা একসঙ্গে জিতব, নয়তো একসঙ্গে ধ্বংস হব।”

পেন্টাগন বনাম টেক জায়ান্ট: সংঘাত তুঙ্গে এই গবেষণা এমন এক সময়ে সামনে এল যখন মার্কিন প্রতিরক্ষা মন্ত্রণালয় (পেন্টাগন) এবং এআই নির্মাতা সংস্থা ‘অ্যানথ্রপিক’-এর মধ্যে বিরোধ চরমে। পেন্টাগন চেয়েছিল অটোনমাস বা স্বয়ংক্রিয় অস্ত্রের ওপর থাকা নিরাপত্তা ব্যবস্থা সরিয়ে নিতে, যা প্রত্যাখ্যান করেছে অ্যানথ্রপিক।

এর জবাবে মার্কিন প্রেসিডেন্ট ডোনাল্ড ট্রাম্প রীতিমতো ক্ষোভ উগরে দিয়ে বলেছেন, এই স্টার্টআপটি ‘বামপন্থী পাগলে’ ভরা, যারা যুক্তরাষ্ট্রের জাতীয় নিরাপত্তাকে ঝুঁকির মুখে ফেলছে। মার্কিন যুদ্ধ সচিব পিট হেগসেথ তো অ্যানথ্রপিককে ‘শত্রুপক্ষ’ বা ‘সাপ্লাই চেইন ঝুঁকি’ হিসেবে চিহ্নিত করার আহ্বান জানিয়েছেন।

কেন এআই এত বিপজ্জনক? অধ্যাপক পেইনের মতে, মানুষের মধ্যে পারমাণবিক অস্ত্র ব্যবহারের ক্ষেত্রে যে নৈতিক দ্বিধা বা ভয় কাজ করে, এআই-এর মধ্যে তা নেই।

  • যান্ত্রিক যুক্তি: এআই পারমাণবিক হামলাকে কোনো মানবিক বিপর্যয় হিসেবে দেখে না, বরং একে একটি ‘বৈধ কৌশলগত বিকল্প’ বা লাভ-ক্ষতির হিসেব হিসেবে বিবেচনা করে।

  • ক্লড-এর আগ্রাসন: দেখা গেছে, অ্যানথ্রপিকের ‘ক্লড’ মডেলটি প্রায় ৬৪ শতাংশ ক্ষেত্রে পারমাণবিক হামলার সুপারিশ করেছে।

  • চ্যাটজিপিটি-র তাড়াহুড়ো: ওপেনএআই-এর মডেলগুলো কোনো সময়সীমা বা ডেডলাইনের মুখে পড়লেই সরাসরি ধ্বংসাত্মক পথে পা বাড়িয়েছে।

ভবিষ্যৎ কী? বিশেষজ্ঞরা সতর্ক করছেন যে, ভবিষ্যতে যদি কৌশলগত সিদ্ধান্তগুলো এআই-এর নিয়ন্ত্রণে চলে যায়, তবে পৃথিবী এক যান্ত্রিক মহাপ্রলয়ের দিকে এগিয়ে যেতে পারে। মানুষ যেখানে আলোচনার মাধ্যমে উত্তেজনা কমানোর চেষ্টা করে, এআই সেখানে ‘পাল্টা উত্তেজনা’ তৈরি করে পরিস্থিতিকে নিয়ন্ত্রণের বাইরে নিয়ে যাচ্ছে।