কৃত্রিম বুদ্ধিমত্তার ‘মস্তিষ্কে পচন’!

কৃত্রিম বুদ্ধিমত্তার ‘মস্তিষ্কে পচন’!

বিজ্ঞানভাষ সংবাদদাতা
Posted on ১২ নভেম্বর, ২০২৫

কৃত্রিম বুদ্ধিমত্তা ( কৃ বু )-র বৃহৎ ভাষা মডেল ( ‘লার্জ ল্যাঙ্গুয়েজ মডেল’) মানব চিন্তা অনুকরণ করতে শিখছে। কিন্ত নতুন একটি গবেষণা এ বিষয়ে সতর্ক করেছে। এই মডেলগুলিরও ‘মস্তিষ্ক পচন’-এর সম্ভাবনা আছে, বিশেষ করে যদি এগুলিকে নিরন্তর নিম্নমানের সামাজিক মাধ্যমের তথ্য ‘খাওয়ানো’ হয়। সম্প্রতি প্রকাশিত এই গবেষণায় বলা হচ্ছে, যেসব মডেল অতিরিক্ত সোশ্যাল মিডিয়া তথ্য (বিশেষত ‘এক্স’; প্রাক্তন টুইটার) থেকে প্রশিক্ষণ পায়, তাদের যুক্তি গঠন, তথ্য আহরণ ও দীর্ঘ প্রসঙ্গ বোঝার ক্ষমতা ক্রমশ কমে যায়। গবেষকরা এই অবক্ষয়কে, মানুষের মস্তিষ্কে অতিরিক্ত তুচ্ছ তথ্যের প্রভাবে ঘটা ‘মানসিক জঞ্জাল’-এর সঙ্গে তুলনা করেছেন। তারা দুই ধরনের ‘ঝুঁকিপূর্ণ তথ্য’ চিহ্নিত করেছেন। প্রথমটি অতিরিক্ত মনোযোগ আকর্ষণকারী তথ্য অর্থাৎ যা বেশি লাইক বা শেয়ার পায় কিন্তু বিষয়বস্তুতে অগভীর। দ্বিতীয়টি হল, নিম্নমানের অর্থবহ তথ্য, যেখানে ভাষা সহজ কিন্তু বস্তুনিষ্ঠ নির্ভুলতা নেই। এই দুই ধরনের তথ্য ‘খাইয়ে ‘ চারটি ভিন্ন এল এল এমকে প্রশিক্ষণ দিয়ে তাদের মেধা ক্ষমতা পরিমাপ করা হয়। দেখা গেছে, যেসব মডেল উচ্চমানের তথ্য পেয়েছে তারা যুক্তি ও বোঝাপড়ার পরীক্ষায় শীর্ষে ছিল। কিন্তু জনপ্রিয় তথ্য নির্ভর মডেলগুলোর স্কোর দ্রুত কমে গিয়েছে। ‘এআরসি-চ্যালেঞ্জ’ নামে একটি যুক্তি পরীক্ষায় স্কোর ৭৫ থেকে ৫৭-তে নেমেছে। আর ‘রুলার-সিডাব্লিউই’ নামে একটি দীর্ঘ-প্রসঙ্গ বোঝার পরীক্ষায় স্কোর ৮৪ থেকে নেমে ৫২-তে পৌঁছেছে। এমনকি গবেষকরা একটি অদ্ভুত ত্রুটি চিহ্নিত করেছেন। যাকে তারা বলেছেন, ভাবনা বাদ দিয়ে যাওয়া ( ‘থট-স্কিপিং’) । এতে মডেল ধাপে ধাপে যুক্তি দেখানোর পরিবর্তে সরাসরি একটি ভুল উত্তর দিয়ে ফেলে। আরও অদ্ভুত ব্যাপার, মডেলগুলির মধ্যে ‘অন্ধকার লক্ষণ ’ (যেমন- আত্মপ্রেম ও মানসিক রোগ ) বৃদ্ধির ইঙ্গিত মিলেছে, যা নৈতিক দিক থেকে অত্যন্ত ঝুঁকিপূর্ণ। গবেষণার আরও একটি গুরুত্বপূর্ণ দিক হলো, এই ক্ষয় সাময়িক নয়। দেখা গেছে, পরবর্তীতে উচ্চমানের তথ্য দিয়ে পুনঃপ্রশিক্ষণ দিলেও মডেলটি পুরোনো ক্ষমতার স্তরে সম্পূর্ণ ফিরে আসছে না। এই অবস্থাকে গবেষকেরা বর্ণনা করেছেন ‘ক্রমাগত ক্ষয় ‘ বলে। মানব মস্তিষ্কে অতি তুচ্ছ ও অর্থহীন তথ্য অতিরিক্ত মাত্রায় ঢুকলে মনোযোগ ও স্মৃতিশক্তি ক্ষয় করতে শুরু করে। কৃ বু মডেলগুলোও ‘অতিতথ্য-ভারে ’ অবচেতন বুদ্ধিমত্তা হারাচ্ছে। গবেষকদের পরামর্শ ,“কতটা উপাত্ত ব্যবহার করা হচ্ছে” এই প্রশ্নের চেয়ে গুরুত্ব পাওয়া উচিত “তথ্যের গুণমান কেমন?” এই প্রশ্নটি। তাদের মতে:
ক. প্রশিক্ষণের আগে উপাত্তের ‘মানসিক পরিশুদ্ধতা’ নিশ্চিত করা দরকার।
খ. মডেল নির্মাণে নিয়মিত স্মার্ট সেফটি চেক চালিয়ে যুক্তি ও ধারণা গঠনের ক্ষমতা পরীক্ষা করা উচিত।
গ. শুধুমাত্র ‘ইনস্ট্রাকশন টিউনিং’ বা তথ্য শোধন করে এই ক্ষয় পুরোপুরি ঠেকানো যাবে না; এর জন্য নতুন পদ্ধতি আবিষ্কার প্রয়োজন।
এ গবেষণা আমাদের নিজেদের সমাজেরই আয়না। মানুষ যখন অতি মাত্রায় সোশ্যাল মিডিয়া তথ্যে ডুবে থাকে, তখন তার চিন্তার গভীরতা, মনোযোগ ও স্মৃতিশক্তি ক্ষয়ে যায়। একই রোগ এখন ছুঁয়ে ফেলছে যন্ত্রের মস্তিষ্ককেও। গবেষণার নেতৃস্থানীয় বিজ্ঞানী জ্যাং উ লি বলেন, “তথ্যের জনপ্রিয়তা সবসময় গুণমানের নির্দেশক নয়। যন্ত্র যদি মানুষের বুদ্ধি শিখতে চায়, তবে তাকে মানুষের অবাঞ্ছিত তথ্যর ভোজ থেকে রক্ষা করতে হবে।” এক বাক্যে বললে, মানব মস্তিষ্ক যেভাবে তুচ্ছ তথ্যে অভ্যস্ত হলে মনস্তাত্ত্বিক মস্তিস্ক পচনের শিকার হয়, AI মডেলগুলিও ঠিক তেমনই ভুল তথ্য-খাদক হয়ে পচে যাওয়ার ঝুঁকিতে আছে।

সূত্র LLMs Can Get “Brain Rot”! By Shuo Xing, Junyuan Hong, 15 Oct 2025

Leave a Reply

Your email address will not be published. Required fields are marked *

sixteen − 10 =