মে মাসের মাঝামাঝি চিনের পঞ্চম প্রজন্মের যুদ্ধবিমান দ্বিতীয় সফল উড়ান করার পরে, বিশ্বের গুপ্তচর বাহিনীর কাজ বেড়েছে. যুদ্ধবিমান জে – ২০ আর অল্প দিন পরেই আমেরিকার এফ – ২২ বিমানের মতই একসাথে যুদ্ধং দেহি বলে দাঁড়িয়ে থাকবে. দুটি বামনই সক্রিয়ভাবে "স্টেলথ" প্রযুক্তি ব্যবহার করেছে, আর তাদের চালনায় খুবই বেশী করে কৃত্রিম বুদ্ধিমত্তা প্রয়োগ করা হচ্ছে.

সামরিক বিশেষজ্ঞদের মতে, এই ধরনের আলাদা করে স্বয়ংক্রিয় বুদ্ধি সম্পন্ন অস্ত্রের ভূমিকা বাড়তেই থাকবে, আর যুদ্ধ ক্ষেত্রে মানুষের ভূমিকা কমতেই থাকবে. রোবট দিয়ে সামরিক প্রযুক্তি বানানোর বিষয়ে সবার চেয়ে আগে এগিয়ে রয়েছে আমেরিকা, যারা এই ধরনের কাজের জন্য ব্যয় করছে সারা বিশ্বের মোট খরচের অর্ধেক নিজেরাই. সবচেয়ে শক্তিশালী অংশ, যা আজ আমেরিকার রোবট চালিত অস্ত্রের মধ্যে রয়েছে – এটা ড্রোন বিমান. এই প্রসঙ্গে বিজ্ঞানীরা প্রশ্ন করেই চলেছেন, কোন বৈদ্যুতিন সার্কিটের বুদ্ধি কি মানুষের খুবই অনুগত বন্ধু হতে পারে নাকি তা সম্ভাব্য ভাবেই বিপজ্জনক? চিন্তা করতে সক্ষম অস্ত্রের বিরুদ্ধে মানুষ কি নিয়ন্ত্রণ করতে সক্ষম?

 ২০১০ সালে মিচিগান রাজ্যের বিশ্ববিদ্যালয়ের বিজ্ঞানীরা সিদ্ধান্তে পৌঁছেছিলেন যে, কৃত্রিম বুদ্ধিমত্তা বিবর্তিত হতে পারে. তাঁরা এক কৃত্রিম ধরনের প্রজাতির সৃষ্টি করেছিলেন, যাদের ডিএনএ বদলে দেওয়া হয়েছিল কম্পিউটারের কোড, যা নিয়মিত ভাবে সংশোধিত হচ্ছিল. যেহেতু কৃত্রিম বুদ্ধিমত্তা স্বয়ংক্রিয় ভাবেই কাজ করতে পারে, তাই আমেরিকার বিজ্ঞানীরা বিশ্বাস করেছিলেন যে, - তা বিপজ্জনক, আর তা আলাদা করে আটকে রাখা দরকার.

 কেনটাকি রাজ্যের লুইস ভিল বিশ্ববিদ্যালয়ের বিজ্ঞানী রমান ইয়ামপোলস্কি মনে করেন যে, কৃত্রিম বুদ্ধিমত্তা বন্ধন হীন সম্ভাবনা রাখে ও মানুষের মনের উপরে নানা ভাবে প্রভাব বিস্তার করতে পারে.

 রাশিয়ার সামরিক বাহিনীর লোকরা বরং উল্টো বিশ্বাস করেন যে, রাশিয়ার কৃত্রিম বুদ্ধিমত্তা সম্পূর্ণভাবেই মানুষের উপরে নির্ভরশীল হবে. কারণ মানুষই ঠিক করে কোন ধরনের কৃত্রিম বুদ্ধি সম্পন্ন অস্ত্র ব্যবহার করা হবে, এই রকম মনে করে প্রতিরক্ষা মন্ত্রণালয়ের সামাজিক সভার সভাপতি ইগর করোতচেঙ্কো বলেছেন:

 “কম্পিউটার আজ নিয়ন্ত্রণ ব্যবস্থার সেই মৌল হতে পারে নি, যা শেষ সিদ্ধান্ত নিতে পারে. সমস্ত শেষ সিদ্ধান্তই অস্ত্র ব্যবহার সম্বন্ধে আজ মানুষ নিয়ে তাকে. রোবট করে দেওয়া হলেও তা এখনও নির্দিষ্ট দায়িত্বশীল লোকের জায়গা নিতে পারে নি, যে ঠিক করেন কোন ধরনের অস্ত্র ব্যবস্থা পরিস্থিতি বুঝে ব্যবহার করা হবে. আমি মনে করি যে, আগামী ২৫- ৩০ বছরের মধ্যে মানুষই বিশেষত সামরিক বাহিনীর লোকরাই অস্ত্র ব্যবস্থার নিয়ন্ত্রণ করবে, কম্পিউটার নয়”.

 আর তাও যদিও আমেরিকার বিজ্ঞানীরা সঠিক হন ও কৃত্রিম বুদ্ধিমত্তা সত্যই মানব সমাজের জন্য অনেক খানি বিপজ্জনক হয়ও, তবে তা এড়ানোর জন্য কি কোন ব্যবস্থা রয়েছে?

 ইয়ামপোলস্কি জোর দিয়েছেন কৃত্রিম বুদ্ধিমত্তাকে সম্পূর্ণভাবেই আলাদা করে রাখার ব্যাপারে. সবচেয়ে উপযুক্ত হল, তাঁর মতে – ব্যবহার সম্বন্ধে নিয়ন্ত্রণ তৈরী করা দরকার, আর পরে কৃত্রিম বুদ্ধিমত্তার ক্রমবর্ধমান সম্ভাবনা অনুযায়ী এই বাধা কমিয়ে দেওয়া দরকার হবে.

 ভবিষ্যত দ্রষ্টা ও পুন্টো সুইচার প্রোগ্রামের স্রষ্টা সের্গেই মসকালিয়েভ বিশেষ করে মনোযোগ দিতে বলেছেন সামরিক প্রযুক্তির উপরেই, তিনি বলেছেন:

 “কৃত্রিম বুদ্ধিমত্তার উন্নতির জন্য বেশী বিপদ সেখানেই দেখা দরকার, যেখানে তা সামরিক প্রয়োজনে ব্যবহার করা হচ্ছে. রোবট, কৃত্রিম বুদ্ধি সম্পন্ন হয়ে যুদ্ধ ক্ষেত্রে একেবারেই নৃশংস হত্যাকারী হতে পারে. এখানেই লুকিয়ে আছে বিশাল বিপদ, আন্তর্জাতিক সমাজের উচিত্ হবে ভাবার যে, কৃত্রিম বুদ্ধিমত্তাকে এই ধরনের জায়গায় যেতে দেওয়া উচিত হবে কিনা, যেখানে তা চারপাশের মানুষ মেরে ফেলতে পারে”.

 বেশ কিছু গবেষণা প্রমাণ করেছে যে, সমস্ত রকমের সাবধানতা নেওয়া স্বত্ত্বেও এই ধরনের বুদ্ধিকে আটকে রাখা যায় না. যেমন, একটি বৈজ্ঞানিক পরীক্ষা, যা আমেরিকার সিঙ্গুলারিটি ইনস্টিটিউটের কর্মী এলিয়েজের ইউদকোভস্কি করেছেন, কৃত্রিম বুদ্ধিমত্তা বানানোর বিষয়ে, সেখানে দেখা গেছে যে, মানুষের পর্যায়ের বুদ্ধিই মানুষকে ঠকাতে পারে ও “বন্দী অবস্থা” থেকে পালাতে পারে.