কৃত্রিম বুদ্ধিমত্তা ( কৃ বু )-র বৃহৎ ভাষা মডেল ( ‘লার্জ ল্যাঙ্গুয়েজ মডেল’) মানব চিন্তা অনুকরণ করতে শিখছে। কিন্ত নতুন একটি গবেষণা এ বিষয়ে সতর্ক করেছে। এই মডেলগুলিরও ‘মস্তিষ্ক পচন’-এর সম্ভাবনা আছে, বিশেষ করে যদি এগুলিকে নিরন্তর নিম্নমানের সামাজিক মাধ্যমের তথ্য ‘খাওয়ানো’ হয়। সম্প্রতি প্রকাশিত এই গবেষণায় বলা হচ্ছে, যেসব মডেল অতিরিক্ত সোশ্যাল মিডিয়া তথ্য (বিশেষত ‘এক্স’; প্রাক্তন টুইটার) থেকে প্রশিক্ষণ পায়, তাদের যুক্তি গঠন, তথ্য আহরণ ও দীর্ঘ প্রসঙ্গ বোঝার ক্ষমতা ক্রমশ কমে যায়। গবেষকরা এই অবক্ষয়কে, মানুষের মস্তিষ্কে অতিরিক্ত তুচ্ছ তথ্যের প্রভাবে ঘটা ‘মানসিক জঞ্জাল’-এর সঙ্গে তুলনা করেছেন। তারা দুই ধরনের ‘ঝুঁকিপূর্ণ তথ্য’ চিহ্নিত করেছেন। প্রথমটি অতিরিক্ত মনোযোগ আকর্ষণকারী তথ্য অর্থাৎ যা বেশি লাইক বা শেয়ার পায় কিন্তু বিষয়বস্তুতে অগভীর। দ্বিতীয়টি হল, নিম্নমানের অর্থবহ তথ্য, যেখানে ভাষা সহজ কিন্তু বস্তুনিষ্ঠ নির্ভুলতা নেই। এই দুই ধরনের তথ্য ‘খাইয়ে ‘ চারটি ভিন্ন এল এল এমকে প্রশিক্ষণ দিয়ে তাদের মেধা ক্ষমতা পরিমাপ করা হয়। দেখা গেছে, যেসব মডেল উচ্চমানের তথ্য পেয়েছে তারা যুক্তি ও বোঝাপড়ার পরীক্ষায় শীর্ষে ছিল। কিন্তু জনপ্রিয় তথ্য নির্ভর মডেলগুলোর স্কোর দ্রুত কমে গিয়েছে। ‘এআরসি-চ্যালেঞ্জ’ নামে একটি যুক্তি পরীক্ষায় স্কোর ৭৫ থেকে ৫৭-তে নেমেছে। আর ‘রুলার-সিডাব্লিউই’ নামে একটি দীর্ঘ-প্রসঙ্গ বোঝার পরীক্ষায় স্কোর ৮৪ থেকে নেমে ৫২-তে পৌঁছেছে। এমনকি গবেষকরা একটি অদ্ভুত ত্রুটি চিহ্নিত করেছেন। যাকে তারা বলেছেন, ভাবনা বাদ দিয়ে যাওয়া ( ‘থট-স্কিপিং’) । এতে মডেল ধাপে ধাপে যুক্তি দেখানোর পরিবর্তে সরাসরি একটি ভুল উত্তর দিয়ে ফেলে। আরও অদ্ভুত ব্যাপার, মডেলগুলির মধ্যে ‘অন্ধকার লক্ষণ ’ (যেমন- আত্মপ্রেম ও মানসিক রোগ ) বৃদ্ধির ইঙ্গিত মিলেছে, যা নৈতিক দিক থেকে অত্যন্ত ঝুঁকিপূর্ণ। গবেষণার আরও একটি গুরুত্বপূর্ণ দিক হলো, এই ক্ষয় সাময়িক নয়। দেখা গেছে, পরবর্তীতে উচ্চমানের তথ্য দিয়ে পুনঃপ্রশিক্ষণ দিলেও মডেলটি পুরোনো ক্ষমতার স্তরে সম্পূর্ণ ফিরে আসছে না। এই অবস্থাকে গবেষকেরা বর্ণনা করেছেন ‘ক্রমাগত ক্ষয় ‘ বলে। মানব মস্তিষ্কে অতি তুচ্ছ ও অর্থহীন তথ্য অতিরিক্ত মাত্রায় ঢুকলে মনোযোগ ও স্মৃতিশক্তি ক্ষয় করতে শুরু করে। কৃ বু মডেলগুলোও ‘অতিতথ্য-ভারে ’ অবচেতন বুদ্ধিমত্তা হারাচ্ছে। গবেষকদের পরামর্শ ,“কতটা উপাত্ত ব্যবহার করা হচ্ছে” এই প্রশ্নের চেয়ে গুরুত্ব পাওয়া উচিত “তথ্যের গুণমান কেমন?” এই প্রশ্নটি। তাদের মতে:
ক. প্রশিক্ষণের আগে উপাত্তের ‘মানসিক পরিশুদ্ধতা’ নিশ্চিত করা দরকার।
খ. মডেল নির্মাণে নিয়মিত স্মার্ট সেফটি চেক চালিয়ে যুক্তি ও ধারণা গঠনের ক্ষমতা পরীক্ষা করা উচিত।
গ. শুধুমাত্র ‘ইনস্ট্রাকশন টিউনিং’ বা তথ্য শোধন করে এই ক্ষয় পুরোপুরি ঠেকানো যাবে না; এর জন্য নতুন পদ্ধতি আবিষ্কার প্রয়োজন।
এ গবেষণা আমাদের নিজেদের সমাজেরই আয়না। মানুষ যখন অতি মাত্রায় সোশ্যাল মিডিয়া তথ্যে ডুবে থাকে, তখন তার চিন্তার গভীরতা, মনোযোগ ও স্মৃতিশক্তি ক্ষয়ে যায়। একই রোগ এখন ছুঁয়ে ফেলছে যন্ত্রের মস্তিষ্ককেও। গবেষণার নেতৃস্থানীয় বিজ্ঞানী জ্যাং উ লি বলেন, “তথ্যের জনপ্রিয়তা সবসময় গুণমানের নির্দেশক নয়। যন্ত্র যদি মানুষের বুদ্ধি শিখতে চায়, তবে তাকে মানুষের অবাঞ্ছিত তথ্যর ভোজ থেকে রক্ষা করতে হবে।” এক বাক্যে বললে, মানব মস্তিষ্ক যেভাবে তুচ্ছ তথ্যে অভ্যস্ত হলে মনস্তাত্ত্বিক মস্তিস্ক পচনের শিকার হয়, AI মডেলগুলিও ঠিক তেমনই ভুল তথ্য-খাদক হয়ে পচে যাওয়ার ঝুঁকিতে আছে।
সূত্র LLMs Can Get “Brain Rot”! By Shuo Xing, Junyuan Hong, 15 Oct 2025
