কৃত্রিম বুদ্ধিমত্তা বদলে দিচ্ছে আধুনিক যুদ্ধ

বিশ্ব রাজনীতির অস্থির প্রেক্ষাপটে যুক্তরাষ্ট্র, ইসরায়েল ইরানের চলমান সংঘাত নতুন এক বাস্তবতার সামনে বিশ্বকে দাঁড় করিয়েছে। সেই বাস্তবতা হলো—যুদ্ধে দ্রুত বাড়তে থাকা কৃত্রিম বুদ্ধিমত্তার ব্যবহার। যুদ্ধক্ষেত্রে এই প্রযুক্তির ভূমিকা, এর নৈতিকতা এবং আন্তর্জাতিক আইনের সীমাবদ্ধতা নিয়ে এখন নতুন করে বিতর্ক শুরু হয়েছে। বিশেষজ্ঞরা বলছেন, যুদ্ধের কৌশল সিদ্ধান্ত গ্রহণের প্রক্রিয়ায় কৃত্রিম বুদ্ধিমত্তা দ্রুত গুরুত্বপূর্ণ হয়ে উঠছে, কিন্তু এর নিয়ন্ত্রণে আন্তর্জাতিক আইন এখনো যথেষ্ট প্রস্তুত নয়।

গত ২৮ ফেব্রুয়ারি একটি সামরিক অভিযান শুরুর ঠিক আগে যুক্তরাষ্ট্র সরকার তাদের এক কৃত্রিম বুদ্ধিমত্তা সরবরাহকারী প্রতিষ্ঠানকে সামরিক প্রকল্প থেকে বাদ দেয়। কৃত্রিম বুদ্ধিমত্তার ব্যবহারের নীতিমালা নিয়ে মতবিরোধের কারণে এই সিদ্ধান্ত নেওয়া হয়। এর পরপরই সুইজারল্যান্ডের জেনেভায় বিভিন্ন দেশের বিশেষজ্ঞ, আইনবিদ সামরিক বিশ্লেষকেরা একটি গুরুত্বপূর্ণ বৈঠকে অংশ নেন। সেখানে মূল আলোচ্য বিষয় ছিল—মানুষের সরাসরি নিয়ন্ত্রণ ছাড়া লক্ষ্যবস্তু নির্ধারণ করতে পারে এমন স্বয়ংক্রিয় অস্ত্র আন্তর্জাতিক আইনের আওতায় কতটা গ্রহণযোগ্য।

প্রতিরক্ষা বিশ্লেষক মাইকেল হোরোভিটজের মতে, কৃত্রিম বুদ্ধিমত্তা যে গতিতে উন্নত হচ্ছে, সেই তুলনায় আইনগত নিয়ন্ত্রণ তৈরির প্রচেষ্টা অনেক পিছিয়ে আছে। অন্যদিকে গবেষক ক্রেগ জোন্স সতর্ক করে বলেছেন, এখনই যদি সুস্পষ্ট আন্তর্জাতিক নীতিমালা তৈরি না করা যায়, তবে ভবিষ্যতে এই প্রযুক্তির অপব্যবহার নিয়ন্ত্রণ করা কঠিন হয়ে পড়বে।

ইরানের সঙ্গে চলমান সংঘাতে সাধারণ মানুষের হতাহতের সংখ্যা বাড়তে থাকায় যুক্তরাষ্ট্রের সামরিক কর্তৃপক্ষও স্বীকার করেছে যে যুদ্ধক্ষেত্রে কৃত্রিম বুদ্ধিমত্তা ব্যবহার করা হচ্ছে। মার্কিন কেন্দ্রীয় কমান্ডের প্রধান ব্র্যাড কুপার জানান, বিপুল পরিমাণ গোয়েন্দা তথ্য দ্রুত বিশ্লেষণ করার জন্য উন্নত কৃত্রিম বুদ্ধিমত্তা ব্যবস্থার সাহায্য নেওয়া হচ্ছে। এসব প্রযুক্তি উপগ্রহচিত্র, ড্রোন থেকে পাওয়া ছবি অন্যান্য তথ্য বিশ্লেষণ করে সম্ভাব্য লক্ষ্যবস্তু চিহ্নিত করতে সহায়তা করে।

যুদ্ধক্ষেত্রে কৃত্রিম বুদ্ধিমত্তার ব্যবহার কী কী ক্ষেত্রে হচ্ছে, তা নিচের ছকে তুলে ধরা হলো—

ব্যবহারের ক্ষেত্রকৃত্রিম বুদ্ধিমত্তার ভূমিকা
লক্ষ্যবস্তু শনাক্তকরণছবি ভিডিও বিশ্লেষণ করে শত্রুর অবস্থান নির্ধারণ
তথ্য বিশ্লেষণবিপুল সামরিক গোয়েন্দা তথ্য দ্রুত বিশ্লেষণ
যুদ্ধক্ষেত্রের সিদ্ধান্তদ্রুত পরিস্থিতি মূল্যায়ন করে কৌশল নির্ধারণে সহায়তা
সামরিক সরবরাহঅস্ত্র রসদ পরিবহনের পরিকল্পনা সমন্বয়
নজরদারিসন্দেহজনক গতিবিধি পর্যবেক্ষণ বিশ্লেষণ

বিশেষজ্ঞদের মতে, ম্যাভেন স্মার্ট সিস্টেম নামে একটি উন্নত সফটওয়্যার ছবি বিশ্লেষণের মাধ্যমে সম্ভাব্য শত্রু অবস্থান শনাক্ত করতে পারে। বিভিন্ন আন্তর্জাতিক সংবাদমাধ্যমের তথ্য অনুযায়ী, ইরানের ওপর সাম্প্রতিক সামরিক অভিযানে এই ধরনের প্রযুক্তি ব্যবহৃত হয়েছে, যদিও এর পূর্ণাঙ্গ বিবরণ এখনো গোপন রাখা হয়েছে।

তবে কৃত্রিম বুদ্ধিমত্তার ব্যবহার মানবাধিকার কর্মীদের মধ্যে উদ্বেগ বাড়িয়ে তুলেছে। সম্প্রতি দক্ষিণ ইরানের একটি বিদ্যালয়ে বোমা হামলায় ১৭০ জনের বেশি মানুষ নিহত হন, যাদের মধ্যে অধিকাংশই শিশু। ২৮ ফেব্রুয়ারি থেকে শুরু হওয়া সামরিক অভিযানে এখন পর্যন্ত ইরানে অন্তত হাজার ৩০০ জন মানুষের মৃত্যু হয়েছে বলে বিভিন্ন সূত্রে জানা গেছে।

অনেকেই দাবি করেন, কৃত্রিম বুদ্ধিমত্তা ব্যবহারের মাধ্যমে লক্ষ্যবস্তু আরও নির্ভুলভাবে আঘাত করা সম্ভব এবং এতে সাধারণ মানুষের প্রাণহানি কমবে। কিন্তু বাস্তবে ইউক্রেন গাজার সংঘাতে দেখা গেছে, ড্রোন পরিচালনা বা শত্রু শনাক্তকরণে কৃত্রিম বুদ্ধিমত্তা ব্যবহারের পরও সাধারণ মানুষের হতাহতের সংখ্যা কমেনি। গবেষক ক্রেগ জোন্সের মতে, কৃত্রিম বুদ্ধিমত্তা মানুষের মৃত্যু কমায়—এমন কোনো শক্ত প্রমাণ এখনো নেই।

স্বয়ংক্রিয়ভাবে আক্রমণ চালাতে সক্ষম অস্ত্র নিয়ে আন্তর্জাতিক অঙ্গনে বড় বিতর্ক চলছে। আন্তর্জাতিক মানবিক আইনের মূল নীতি অনুযায়ী, যেকোনো অস্ত্রকে অবশ্যই বেসামরিক মানুষ যোদ্ধাদের মধ্যে পার্থক্য করতে সক্ষম হতে হবে। কিন্তু সম্পূর্ণ স্বয়ংক্রিয় কৃত্রিম বুদ্ধিমত্তা–নির্ভর অস্ত্র এখনো সেই মানদণ্ড পূরণ করতে পারেনি।

এদিকে সামরিক কাজে কৃত্রিম বুদ্ধিমত্তার ব্যবহার নিয়ে যুক্তরাষ্ট্র সরকার একটি প্রযুক্তি প্রতিষ্ঠানের মধ্যেও মতবিরোধ দেখা দেয়। প্রতিষ্ঠানটি তাদের তৈরি কৃত্রিম বুদ্ধিমত্তা ব্যবস্থাকে সাধারণ মানুষের ওপর নজরদারি বা সম্পূর্ণ স্বয়ংক্রিয় অস্ত্র পরিচালনার কাজে ব্যবহারের অনুমতি দিতে অস্বীকৃতি জানায়। তাদের মতে, বর্তমান প্রযুক্তি এখনো সেই পর্যায়ে পৌঁছায়নি যেখানে এমন গুরুতর সিদ্ধান্ত সম্পূর্ণভাবে যন্ত্রের ওপর ছেড়ে দেওয়া যায়।

অন্যদিকে ১১ মার্চ চীন সামরিক ক্ষেত্রে কৃত্রিম বুদ্ধিমত্তার অতিরিক্ত ব্যবহারের বিরুদ্ধে সতর্কবার্তা দিয়েছে। চীনের প্রতিরক্ষা মন্ত্রণালয়ের মুখপাত্র জিয়াং বিন বলেন, কোনো অ্যালগরিদমের হাতে মানুষের জীবন-মৃত্যুর সিদ্ধান্ত তুলে দেওয়া যুদ্ধের নৈতিকতা জবাবদিহিকে দুর্বল করে দিতে পারে।

বিশেষজ্ঞদের মতে, যদি কৃত্রিম বুদ্ধিমত্তার ব্যবহার নিয়ন্ত্রণে শক্ত আন্তর্জাতিক নীতিমালা গড়ে তোলা না যায়, তবে ভবিষ্যতের যুদ্ধ আরও অনিশ্চয়তা ঝুঁকিতে ভরা হয়ে উঠতে পারে। প্রযুক্তির দ্রুত অগ্রগতি মানবজাতিকে যেমন নতুন সম্ভাবনার দিকে নিয়ে যাচ্ছে, তেমনি এর অনিয়ন্ত্রিত ব্যবহার বিশ্ব নিরাপত্তার জন্য বড় হুমকি হয়ে উঠতে পারে।