কৃত্রিম বুদ্ধিমত্তার সীমাবদ্ধতা 

কৃত্রিম বুদ্ধিমত্তার সীমাবদ্ধতা 

বিজ্ঞানভাষ সংবাদদাতা
Posted on ২৫ মার্চ, ২০২৬

কৃত্রিম বুদ্ধিমত্তা আজকের বিশ্বের সবচেয়ে আলোচিত প্রযুক্তিগুলোর একটি। ChatGPT-এর মতো কৃত্রিম বুদ্ধিমত্তা আমাদের প্রশ্নের উত্তর দেয় সাবলীল ভাষায়, আত্মবিশ্বাসের সঙ্গে। যেন সবকিছুই সে জানে। কিন্তু সাম্প্রতিক এক গবেষণা এবার সেই আত্মবিশ্বাসের আড়ালে দুর্বলতাকে সামনে নিয়ে এসেছে।

ওয়াশিংটন স্টেট ইউনিভার্সিটিরঅধ্যাপক Mesut Cicek এবং তাঁর সহকর্মীরা ChatGPT-কে ৭০০-র বেশি বৈজ্ঞানিক হাইপোথিসিস দিয়ে পরীক্ষা করেন। প্রতিটি প্রশ্ন ১০ বার করে জিজ্ঞাসা করা হয়, যাতে বোঝা যায়—কৃত্রিম বুদ্ধিমত্তা একই প্রশ্নে কতটা ধারাবাহিক এবং নির্ভুল।

প্রথম নজরে ফলাফল আশাব্যঞ্জক মনে হতে পারে। ২০২৪ সালে ChatGPT প্রায় ৭৬.৫% ক্ষেত্রে সঠিক উত্তর দেয়, যা ২০২৫ সালে বেড়ে দাঁড়ায় ৮০%-এ। কিন্তু এই পরিসংখ্যানের পেছনে লুকিয়ে আছে এক গুরুত্বপূর্ণ সতর্কবার্তা। যখন “র‌্যান্ডম গেসিং’’ বা অনুমানভিত্তিক উত্তরের প্রভাব বাদ দেওয়া হয়, তখন AI-এর প্রকৃত দক্ষতা নেমে আসে প্রায় ৬০%-এ—যা মোটেই সন্তোষজনক নয়।

সবচেয়ে উদ্বেগজনক দিক হলো, ChatGPT-এর মিথ্যা তথ্য শনাক্ত করার ক্ষমতা অত্যন্ত দুর্বল। মাত্র ১৬.৪% ক্ষেত্রে এটি ভুল বক্তব্যকে “মিথ্যা’’ হিসেবে চিহ্নিত করতে পেরেছে। অর্থাৎ, অধিকাংশ সময়েই এটি ভুল তথ্যকে সত্য হিসেবে গ্রহণ করেছে।

এছাড়াও আরেকটি সমস্যা হল অসামঞ্জস্য। একই প্রশ্ন ১০ বার করলে মাত্র ৭৩% ক্ষেত্রে একই উত্তর পাওয়া গেছে। অনেক ক্ষেত্রে দেখা গেছে, একবার “সত্য’’ বলার পর পরেরবার সেটিকেই “মিথ্যা’’ বলা হয়েছে। এমনকি কিছু প্রশ্নে পাঁচবার “সত্য’’ এবং পাঁচবার “মিথ্যা’’ উত্তরও এসেছে। এগুলোই AI-এর নির্ভরযোগ্যতার দিকে আঙ্গুল তুলছে।

এই গবেষণাটি, Rutgers Business Review-এ প্রকাশিত হয়েছে। এটি একটি গুরুত্বপূর্ণ বাস্তবতা তুলে ধরে। কৃত্রিম বুদ্ধিমত্তা আসলে মানুষের মতো করে বোঝে না। এটি মূলত তথ্য মনে রাখে এবং সম্ভাব্য উত্তর অনুমান করে। তাই এর ভাষা যতই মসৃণ ও বিশ্বাসযোগ্য হোক না কেন, তার পেছনে প্রকৃত উপলব্ধি সবসময় থাকে না।

এই প্রেক্ষাপটে গবেষকরা স্পষ্ট জানিয়েছেন কৃত্রিম বুদ্ধিমত্তা একটি শক্তিশালী সহায়ক, কিন্তু সিদ্ধান্ত গ্রহণের ক্ষেত্রে এর ওপর অন্ধভাবে নির্ভর করা বিপজ্জনক। ব্যবসা, শিক্ষা বা নীতিনির্ধারণ—যেখানেই হোক, কৃত্রিম বুদ্ধিমত্তার দেওয়া উত্তরকে যাচাই করা এবং সমালোচনামূলক দৃষ্টিতে দেখা জরুরি।

শেষ পর্যন্ত, প্রযুক্তি যতই উন্নত হোক, মানুষের বিচক্ষণতা এবং সন্দেহপ্রবণ মনোভাবের বিকল্প নেই। কৃত্রিম বুদ্ধিমত্তা আমাদের পথ দেখাতে পারে, কিন্তু চূড়ান্ত সিদ্ধান্ত নেওয়ার দায়িত্ব এখনো আমাদেরই।

 

সূত্র: ChatGPT Was Asked the Same Question 10 Times. The Answers Kept Changing

By Washington State UniversityMarch 18, 2026

Leave a Reply

Your email address will not be published. Required fields are marked *

19 − ten =