যুদ্ধক্ষেত্রে কৃত্রিম বুদ্ধিমত্তার বিস্তার 

যুদ্ধক্ষেত্রে কৃত্রিম বুদ্ধিমত্তার বিস্তার 

বিজ্ঞানভাষ সংবাদদাতা
Posted on ১৮ মার্চ, ২০২৬

সম্প্রতি মধ্যপ্রাচ্যে যুক্তরাষ্ট্র, ইসরায়েল এবং ইরানের মধ্যে চলমান উত্তেজনা ও সংঘাত আধুনিক যুদ্ধের একটি অতি গুরুত্বপূর্ণ বাস্তবতা তুলে ধরেছে । সেটা হল যুদ্ধক্ষেত্রে কৃত্রিম বুদ্ধিমত্তার দ্রুত বিস্তার। প্রযুক্তির দ্রুত অগ্রগতি এখন এমন পর্যায়ে পৌঁছেছে যে, সামরিক ক্ষেত্রে এ আই কীভাবে ব্যবহার করা হবে এবং এর নৈতিক ও আইনি সীমা কোথায় হওয়া উচিত তা নিয়ে আন্তর্জাতিক মহলে তীব্র আলোচনা শুরু হয়েছে ।

এই প্রেক্ষাপটে সুইজারল্যান্ডের জেনেভায় বিজ্ঞানী, আইন বিশেষজ্ঞ এবং নীতিনির্ধারকেরা একত্রিত হয়ে প্রাণঘাতী স্বয়ংক্রিয় অস্ত্র ব্যবস্থা এবং সামরিক ক্ষেত্রে এ আই ব্যবহারের নিয়ন্ত্রণ নিয়ে আলোচনা করছেন। কিন্তু প্রযুক্তির অগ্রগতি এত দ্রুত ঘটছে যে আন্তর্জাতিক নিয়মকানুন তৈরির প্রক্রিয়া তার সঙ্গে তাল রাখতে পারছে না। অনেক বিশেষজ্ঞের মতে, যদি এখনই কোনো আন্তর্জাতিক নিয়ন্ত্রণ কাঠামো তৈরি না হয়, তাহলে ভবিষ্যতে এ আই-নির্ভর যুদ্ধের ব্যাপক বিস্তার ঘটতে পারে।

বর্তমানে যুক্তরাষ্ট্রের সামরিক বাহিনী বিভিন্ন কাজে এ আই ব্যবহার করছে। সামরিক লজিস্টিক ব্যবস্থাপনা থেকে শুরু করে গোয়েন্দা বিভাগীয় তথ্য সংগ্রহ ও বিশ্লেষণ, এবং যুদ্ধক্ষেত্রে সিদ্ধান্ত গ্রহণে সহায়তা করার কাজে এ আই এর ব্যবহার উত্তরোত্তর বেড়েই চলেছে। এক্ষেত্রে ম্যামের স্মার্ট সিস্টেম নামের একটি এ আই-নির্ভর মঞ্চ উল্লেখযোগ্য। এটি উপগ্রহ ও অন্যান্য চিত্র বিশ্লেষণ করে সম্ভাব্য লক্ষ্যবস্তু শনাক্ত করতে পারে এবং আক্রমণের অগ্রাধিকার নির্ধারণে সহায়তা করে। ভবিষ্যতে এই প্রযুক্তি যুদ্ধের গতি বাড়াতে এবং লক্ষ্যবস্তু দ্রুত শনাক্ত করতে গুরুত্বপূর্ণ ভূমিকা পালন করবে।

তবে এ আই ব্যবহারের সম্ভাব্য সুবিধার পাশাপাশি গুরুতর উদ্বেগও রয়েছে। কেউ কেউ মনে করেন, এ আই যদি অত্যন্ত নিখুঁতভাবে লক্ষ্যবস্তু নির্ধারণ করতে পারে, তাহলে বেসামরিক মানুষের ক্ষয়ক্ষতি কমতে পারে। কিন্তু ইউক্রেন ও গাজায় চলমান সংঘাতের অভিজ্ঞতা দেখায় যে, এ আই ব্যবহারের পরও বেসামরিক মৃত্যুর সংখ্যা নেহাত কম না। বরং কিছু বিশেষজ্ঞের মতে, ভুল লক্ষ্যবস্তু নির্বাচন বা প্রযুক্তিগত সীমাবদ্ধতার কারণে বিপরীত ফলও হতে পারে। এক্ষেত্রে সবচেয়ে বিতর্কিত বিষয় হলো সম্পূর্ণ স্বয়ংক্রিয় অস্ত্র। যেখানে এ আই নিজেই মানুষের হস্তক্ষেপ ছাড়া শত্রুকে শনাক্ত করে আক্রমণ করতে পারে। আন্তর্জাতিক মানবিক আইন অনুযায়ী যুদ্ধাস্ত্রকে অবশ্যই সামরিক লক্ষ্য ও বেসামরিক মানুষের মধ্যে পার্থক্য করতে সক্ষম হতে হবে। কিন্তু যে কারণেই হোক বর্তমান প্রযুক্তি সেই নির্ভরযোগ্যতা এখনো অর্জন করতে পারেনি।

আবার, ভবিষ্যতে এ আইয়ের সম্ভাব্য ব্যবহারগুলি নিয়ে মার্কিন প্রতিরক্ষা বিভাগ এবং ক্যালিফোর্নিয়ার সান ফ্রান্সিসকোতে অবস্থিত একটি এআই সংস্থা অ্যানথ্রোপিকের মধ্যে মতবিরোধ রয়েছে। ২০২৪ সাল থেকে, প্রতিরক্ষা বিভাগের সাথে ২০০ মিলিয়ন মার্কিন ডলারের এক চুক্তির অংশ হিসাবে মাভেন সিস্টেমটি অ্যানথ্রোপিকের ক্লড এলএলএম দ্বারা সমর্থিত হয়েছে।

জানুয়ারিতে, বিভাগটি একটি মেমো জারি করে ঘোষণা করেছিল যে সরকারের জন্য এআই সংগ্রহের চুক্তি গুলিতে অবশ্যই উল্লেখ করতে হবে যে এআই কোনও সীমাবদ্ধতা ছাড়াই যে কোনও বৈধ ব্যবহারে রাখা যেতে পারে। তবে সুরক্ষাগুলি সরিয়ে নিতে অস্বীকার করে অ্যানথ্রোপিক বলেছে যে ক্লডকে গণ অভ্যন্তরীণ নজরদারির জন্য বা সম্পূর্ণ স্বায়ত্তশাসিত অস্ত্র পরিচালনার জন্য ব্যবহার করা যাবে না । ২৭ ফেব্রুয়ারি, মার্কিন রাষ্ট্রপতি ডোনাল্ড ট্রাম্প অ্যানথ্রপিক থেকে প্রযুক্তি ব্যবহার বন্ধ করার নির্দেশ দিয়েছিলেন সরকারকে। ফিলাডেলফিয়ার পেনসিলভেনিয়া বিশ্ববিদ্যালয়ের রাষ্ট্রবিজ্ঞানী মাইকেল হোরোভিটজ বলেন, এই পুরো বিষয়টি ভবিষ্যত, সম্ভাব্য ব্যবহারের ক্ষেত্রে একটি তাত্ত্বিক বিরোধ হিসাবে বিস্ফোরিত হয়েছিল।

মোটকথা ইরানকে ঘিরে সাম্প্রতিক সংঘাত দেখিয়ে দিয়েছে যে ভবিষ্যতের যুদ্ধ ক্রমশ প্রযুক্তিনির্ভর হয়ে উঠছে। এই প্রযুক্তির ব্যবহার নিয়ন্ত্রণে আন্তর্জাতিক আইন ও নৈতিক নীতিমালা তৈরি করা এখন মানবজাতির সামনে এক বড় চ্যালেঞ্জ।

 

সূত্র: How AI is shaping the war in Iran — and what’s next for future conflictsRapid technological development is prompting urgent discussions on regulating the use and procurement of artificial intelligence for military use By Nicola Jones, 6th March 2026, published in nature journal.

https://doi.org/10.1038/d41586-026-00710-w

Leave a Reply

Your email address will not be published. Required fields are marked *

three + fourteen =