বিস্ময়ের পরিমাপ!

বিস্ময়ের পরিমাপ!

অভিজিৎ কর গুপ্ত
পদার্থ বিজ্ঞানের অধ্যাপক, পাঁশকুড়া বনমালী কলেজ
Posted on ৭ আগষ্ট, ২০২৫

ইনফরমেশন বা কোনো খবরের কি কোনো পরিমাপ সম্ভব? ইনফরমেশন আমাদের মনে কিভাবে প্রভাব ফেলতে পারে? স্বভাবতই, নতুন কোনো ইনফরমেশন জানলে আমরা বিস্মিত হই। ইনফরমেশন যত নতুন বা আশাতীত হবে ততই আমাদের বিস্ময় বাড়বে! কিন্তু, কোন ইনফরমেশন থেকে কতটা বিস্মিত হচ্ছি তার হিসাব কি করা সম্ভব?

মনে করা যাক, বলা হলো, কাল পূব দিকে সূর্য উঠবে। এ তো নতুন কিছু নয়, এ তো ঘটবেই! এখানে কোন অনিশ্চয়তার ব্যাপার নেই। তাই, আমরা একেবারেই বিস্মিত হব না। সুতরাং, বলা যায়, ইনফরমেশন হিসাবে আমাদের কাছে এর কোন গুরুত্ব নেই। যদি কোনভাবে পরিমাপের কথা ভাবি, তাহলে অঙ্কের স্কেলে তা হবে সবচেয়ে কম কিছু মান অথবা শূন্য।

কিন্তু, যদি বলা হয়, আগামীকাল বৃষ্টি হবে। সেক্ষেত্রে, তা যে ঘটবেই তা একেবারে নিশ্চিত করে কিছু বলা যায় না। হয়ত বৃষ্টি হওয়ার একটা সম্ভাবনা আছে। বোঝা যাচ্ছে, অনিশ্চয়তা থাকলে তবেই বিস্ময় থাকবে। তাহলে, এরকম ইনফরমেশন-এর একটা গুরুত্ব থাকবে। আবার ধরা যাক, এই একই কথা বর্ষাকালে বলা হলো। তাহলে, সেক্ষেত্রে অনিশ্চয়তা আগের তুলনায় কম, বৃষ্টি পড়ার সম্ভাবনা আগের তুলনায় বেশি। তবে, তা পূব দিকে সূর্য ওঠার ঘটনার মতো একশো শতাংশ নিশ্চিত কিছু ব্যাপার নয়। সুতরাং, আমরা এখানে একেবারেই বিস্মিত হবো না একথা বলা যাবে না, তবে নিশ্চয়ই তুলনায় কম বিস্মিত হবো। একটা জিনিস বোঝা যাচ্ছে, অনিশ্চয়তা অথবা বিস্ময় কম বলে এখানে ইনফরমেশন হিসাবে এর গুরুত্ব কিছুটা কম। এখানে ইনফরমেশন-এর মান শূন্য অথবা সর্বোচ্চ কিছু নয়, নিশ্চয়ই এর মাঝখানে কিছু একটা হবে।

কোন ইনফরমেশন, তা সে যাই হোক, তার মধ্যে কতটা অনিশ্চয়তা আছে অথবা তা থেকে কতটা বিস্ময়ের উদ্রেক হয় তাই দিয়ে ইনফরমেশন-এর একটা পরিমাপ করা যেতে পারে। ইনফরমেশন মাপা মানে যেন বিস্ময় মাপা। ইনফরমেশন-এর মতো একটা সাধারণ ধারণাকে অঙ্কের ফর্মূলা দিয়ে কিভাবে হিসাব করা যাবে তা ভাবা যাক।

একটা কয়েন টস-এর ঘটনা দিয়ে বোঝা যাক। এখানে অনিশ্চয়তা আছে। আমরা জানি, সাধারণ একটা কয়েনের ক্ষেত্রে হেড বা টেল পড়ার সম্ভাব্যতা 1/2 বা 50% হবে। যেহেতু অনিশ্চয়তা আছে, তাই আশা করতে পারি, কিছু পরিমাণ ইনফরমেশন এখানে আছে। কিন্তু, এমন একটা কয়েন যদি নেওয়া হয়, যার দুদিকেই হেড (শোলে সিনেমাতে এরকম ছিলো!), তাহলে টস করলে বারবার হেডই আসতে থাকবে শুধু। অর্থাৎ হেড পড়ার সম্ভাব্যতা 1 বা 100% হবে। এক্ষেত্রে ইনফরমেশন হিসাবে এর গুরুত্ব শূন্য, ঠিক পূব দিকে সূর্য ওঠার ঘটনার মতো।

আরেকটু এগোতে গেলে অঙ্কের একটা বিষয়, লগারিদম-এর সাহায্য নিতে হবে। তোমরা হয়ত অঙ্কের বইতে লগারিদম পড়েছ। ধরা যাক, 2-এর পাওয়ার 3 নিলে মান হবে 8, একে আমরা লিখছি 2^3 = 8 হিসাবে। এই এক্সপ্রেশানকে একটু অন্যরকম করে লিখতে গিয়ে লগারিদম চিহ্ণের সাহায্যে log2 (8) = log2(2^3) = 3 লিখছি। [এখানে log হল logarithm-এর সংক্ষিপ্ত নাম আর তার গায়ে লেখা 2-কে আসলে log-এর সাথে একটু নীচের দিকে সাফিক্স হিসাবে লেখা হয়।] এভাবে লিখলে, বলা হবে, লগারিদম-এর বেস হলো 2 (log of base 2)। তার মানে, 2-এর পাওয়ার 3 নিয়ে যেমন 8 পাওয়া যাচ্ছে, তেমনিই সেটাকেই ঘুরিয়ে 8 ( = 2^3)-এর log base 2 নিয়ে পাওয়া যাচ্ছে 3, অর্থাৎ পাওয়ার-টা বেরিয়ে আসছে, তাকে সমান চিহ্ণের অন্যদিকে লেখা হচ্ছে। (চটপট ভেবে নিতে পারো, এদিকে log-এর বেস 2 আবার তার আর্গুমেন্টে আছে 2^3, এ যেন দুজায়গায় 2 কাটাকুটি হয়ে পাওয়ার 3 থেকে যাচ্ছে। যদিও সেরকম নয় মোটেই।) এভাবে লেখার কিছু সুবিধা অবশ্যই আছে। পরে সেটা বোঝা যাবে। একইভাবে, যদি 2^5 = 32-কে লিখতে হয়, তবে আমরা log2(2^5) = 5 লিখব। তার মানে, যেসব সংখ্যাকে 2-এর পাওয়ার হিসাবে লেখা হচ্ছে সেক্ষেত্রে লগ-এর বেস 2 নিলে সরাসরি পাওয়ার-টা বেরিয়ে আসছে। একইভাবে, 10-এর পাওয়ার হিসাবে লেখা কোন সংখ্যা, 10^3 = 1000-কে আমরা বেস 10 ওয়ালা লগ নিয়ে log10(10^3) = 3 লিখব। এখানেও একইরকমভাবে পাওয়ার 3 বেরিয়ে আসছে।

আমরা জানি, একই বেস নিয়ে পাওয়ার হিসাবে লেখা সংখ্যাগুলো গুণ করলে বেসের উপর পাওয়ারগুলো যোগ হয়ে যায়। খাতায় একটু লিখে নিয়ে নিজেই বুঝে নিতে পারো অঙ্কের হিসাবটা। যেমন, 2^3 × 2^5 = 2^(3 + 5) = 2^8, এখানে এই এক্সপ্রেশান-কে লগ-এ লিখলে, log2(2^3 × 2^5) = 8 হতে হবে। যেমন আমরা পাচ্ছি, log2(2^3) + log2(2^5) = 3 + 5 = 8, তাহলে নিশ্চয়ই লেখা যায়, log2(2^3 × 2^5) = log2(2^3) + log2(2^5), তার মানে, log-এর মধ্যে গুণ থাকলে দুটো লগ-টার্মের যোগ হয়ে যাচ্ছে। এ যেন এক নতুন সূত্র। আসলে, ভেবে দ্যাখো, নতুন কিছুই নয়, সংখ্যার পাওয়ার বা ঘাত-কে একটু ঘুরিয়ে লেখা মাত্র। গুণের ক্ষেত্রে যেমন ফর্মূলা লেখা হচ্ছে, তেমনি একইরকম কিছু নিয়ম ভাগের ক্ষেত্রেও খাটবে। দেখা যাক, 2^5/2^3 = 2^(5 – 3) = 2^2, এইরকম একটা ভাগ-এর ক্ষেত্রে লগ নিয়ে লিখলে উত্তর কী হবে। উত্তর হবে, log2(2^5/2^3) = log2(2^2) = 2, যা পেতে গেলে ফর্মূলা হতে হবে,
log2(2^5/2^3) = log2(2^5) – log2(2^3) = 5 – 3 = 2, এখানেও হিসাব করে মিলিয়ে নেওয়া যাবে। মোট কথা, মনে রাখতে হবে, লগের ক্ষেত্রে, আর্গুমেন্টে আইটেমগুলোর গুণ থাকলে লগের টার্মগুলো যোগ হবে, আর ভাগ থাকলে বিয়োগ হবে।

এবার দেখা যাক, এই লগ-এর অঙ্কের সাথে ইনফরমেশন পরিমাপ করার সম্পর্ক কী হতে পারে। ধরো, কয়েকটা ইনফরমেশন তোমার কাছে এসেছে। প্রতিটা খবর শুনেই কমবেশি বিস্মিত হচ্ছ তুমি। প্রাথমিকভাবে ধরে নেওয়া যাক, এই ইনফরমেশনগুলোর একটার সাথে অন্যটার কোনো সম্পর্ক নেই। তাহলে, বলা যেতে পারে, তোমার মোট বিস্ময় প্রতিটা ইনফরমেশন-এর জন্য বিস্ময়ের যোগফল।

আগে জেনেছি , কোনো ইনফরমেশন যত অসম্ভব কিছু (অর্থাৎ ঘটনা ঘটবে কি ঘটবে না) নির্দেশ করছে, তত বেশি বিস্ময় তৈরি হবে আমাদের মনে। কোনো কিছু ঘটার সম্ভাবনা-কে অঙ্কের হিসাবে সম্ভাব্যতা বা প্রোবালিটি দিয়ে মাপা যায়। সম্ভাব্যতা p হলো কতবারের মধ্যে কতবার ঘটনাটা ঘটতে পারে তার অনুপাত-এর একটা হিসাব। স্বভাবতই, এর মান 0 থেকে 1-এর মধ্যে থাকবে। একটা ব্যাপার বলা যায়, সম্ভাব্যতা যত বেশি, বিস্ময় তত কম। অর্থাৎ এদের মধ্যে একটা বিপরীত বা ব্যাস্তানুপাতিক সম্পর্ক আছে, এটা ভাবা যায়। তার মানে, ইনফরমেশন-এর পরিমাণ-কে 1/p দিয়ে মাপা যাবে। তবে, আমরা এর লগ নেব। তার মানে, log2(1/p) = log2(1) – log2(p) = – log2(p) দিয়ে হিসাব করব।

এখানে একটা ব্যাপার খেয়াল করেছো নিশ্চয়ই, log2(1) = 0 হচ্ছে। কারণ, 1-কে আমরা যে কোনো সংখ্যার পাওয়ার জিরো হিসাবে লিখতে পারি। যেমন, এখানে 1 = 2^0 লিখে লগ নিলেই বোঝা যাবে। আরেকটা কথা, বেস যা আছে, সেই সংখ্যার লগ নিলে তার মান 1 হবে। খাতায় 2 = 2^1 লিখে এদের দুপাশে লগ নিলেই হিসাবটা বুঝতে পারবে।

লগ নিয়ে অনেক কথা হলো। মূল কথাটা হলো, ইনফরমেশন-এর ফর্মূলা – log2(p) লেখা যায়। তবে, লগ-এর বেস 2-এর বদলে অন্য কিছুও নিতে পারো। কিন্তু, 2 নিলে পরে হিসাব করতে একটা সুবিধা হবে। যাইহোক, এভাবে লগ-এর সাহায্যে লেখার একটা উদ্দেশ্য হলো, যদি অনেকগুলো ইনফরমেশন থাকে, যারা একে অপরের সাথে সম্পর্কিত নয়, এবং সেই ঘটনাগুলো ঘটার সম্ভাব্যতা যদি p1, p2, p3… এরকম হয়, তবে সম্মিলিতভাবে তাদের সম্ভাব্যতা হবে p1 × p2 × p3 ×…. এটা সম্ভাব্যতার একটা সূত্র। তোমরা, সহজেই কয়েন টস করার খেলা থেকে নিজেরা বুঝে যাবে কী হচ্ছে। মনে করো, একটা কয়েন টস করলে হেড পড়ার সম্ভাব্যতা 1/2 আবার আলাদা করে অন্য একটা কয়েন টস করলেও হেড পড়ার সম্ভাব্যতা 1/2, কিন্তু দুটো কয়েন টস করলে দুটোতেই একসাথে হেড পড়ার সম্ভাব্যতা 1/4 = 1/2 × 1/2.

তাহলে, – log2(p) হলো একটা কোনো ইনফরমেশন-এর মান। কিন্তু, অনেকরকম p-ওয়ালা ইনফরমেশন-এর জন্য একটা গড় মান হিসাব করা যেতে পারে। ইনফরমেশনের গড় পরিমাণ = p1 × – log2(p1) + p2 × – log2(p2) +… = – [ p1 × log2(p1) + p2 × log2(p2) +… ].

একটা কয়েন টস করলে হেড বা টেল পড়তে পারে। তাই এখানে গড় ইনফরমেশন পাওয়া যাবে, – [1/2 × log2(1/2) + 1/2 × log2(1/2)] = 1/2 × log2(2) + 1/2 × log2(2)] = log2(2) = 1. এখন কথা হলো, ইনফরমেশনকে যদি আমরা পদার্থবিজ্ঞানের পরিমাপযোগ্য ভৌতরাশিগুলোর মতো কিছু একটা ভাবি, তাহলে এর একটা একক ঠিক করা দরকার। এই একক হলো ‘বিট’, অর্থাৎ একটা কয়েন টস করলে সেখান থেকে গড় ইনফরমেশন পাওয়া যায় 1 বিট। বিট (bit) হলো binary digit-এর সংক্ষিপ্ত নাম। আসলে, সব ইনফরমেশনই তো শেষ পর্যন্ত 0 এবং 1 এই দুটো বাইনারি ডিজিট দিয়ে তৈরি একেকটা স্ট্রিং!

এতক্ষণ ধরে ইনফরমেশন পরিমাপ করা নিয়ে যা বলা হলো, তা আসলে খুবই গুরুত্বপূর্ণ একটা বিষয়, ইনফরমেশন থিওরি-এর একেবারে গোড়ার কথা। আর, এই বিষয়টাকে এভাবে ভেবেছিলেন ক্লদ শ্যানন। মনে হতে পারে, এ আর এমন কি, এ তো খুব সামান্য ব্যাপার। আসলে, এইরকম একটা ভাবনা যুগান্তকারী।

ইনফরমেশন তো কত ধরণেরই হয়। কিন্তু, যেমনই হোক না কেন, তার পরিমাণ যে একটা সাধারণ ফর্মূলা দিয়ে মাপা যায় এ একটা অসম্ভব ভাবনা। আমরা যখন সামনাসামনি কথা বলছি তখন একজন বলছে, আরেকজন শুনছে, কাজেই এতে তেমন সমস্যা নেই। কিন্তু, যখনই কোনো ইনফরমেশন টেলিফোন, টেলিগ্রাফ, টিভি, রেডিও, কম্পিউটার বা কোনো চ্যানেলের মাধ্যমে পাঠানো হচ্ছে, তখন সেটাকে কোনো চ্যানেল দিয়ে ফ্লুইড পাঠানোর মতো করে ভাবতে হবে। কতটা পরিমাণ ইনফরমেশন পাঠানো হলো কোন চ্যানেলের মধ্যে দিয়ে, সেই চ্যানেলের ধারণ ক্ষমতা কত অর্থাৎ কত পরিমাণ ইনফরমেশন পাঠানো যেতে পারে, কিভাবে কোডিং করে পাঠানো হচ্ছে সিগন্যাল-এর মাধ্যমে এবং অন্যপ্রান্তে কিভাবে তাকে ডিকোডিং করে বুঝে নেওয়া হচ্ছে, তাতে কতটা ভুল থেকে যেতে পারে, সেই ভুল কিভাবে উদ্ধার করা হচ্ছে – এসবই হলো ইনফরমেশন এবং কমিউনিকেশন-এর ক্ষেত্রে গুরুত্বপূর্ণ বিচার্য বিষয়। আর, এসবেরই মূলে আছে একটা প্রাথমিক কাজ, যা হলো ইনফরমেশন কে মাপা!

১৯৪৮ সাল। আমেরিকান ইলেক্ট্রিকাল ইঞ্জিনিয়ার এবং গণিতজ্ঞ ক্লদ শ্যানন-এর একটা ঐতিহাসিক গবেষণা পত্র, “Mathematical Theory of Communication” অসম্ভব সাড়া ফেলে দিয়েছিলো। ইনফরমেশন এবং কমিউনিকেশন সম্পর্কে আমাদের ধারণা চিরকালের জন্য পরিবর্তন করে দিয়েছিলো এই কাজ। ইনফরমেশন মাপার যে ফর্মূলাটা শ্যানন দিলেন, তা অনেকটাই পরিসংখ্যানগত বলবিদ্যা (statistical mechanics)-তে ব্যবহৃত বোলৎজম্যান এন্ট্রপির ফর্মূলারই মতো। সিস্টেম যত বেশি এলোমেলো (disorder) হবে ততই এন্ট্রপি বাড়বে। এক্ষেত্রে, অজানার পরিমাণ যত বেশি বাড়বে বা বিস্ময় বাড়বে, ইনফরমেশনের পরিমাণও ততই বাড়বে। এই কারণেই একে ইনফরমেশন এন্ট্রপি বলা হচ্ছে। এ যেন দুটো আলাদা বিষয়ের ভাবনার মধ্যে এক আশ্চর্য মিল। অথচ বিষয়ের প্রভাব কত আলাদা। যত বেশি জানার পরিমাণ বাড়বে, আর আমরা নি:সন্দেহ হব, ততই ইনফরমেশন এনট্রপি কমতে থাকবে।

ক্লদ শ্যানন তখন প্রিন্সটন ইউনিভার্সিটির ইন্সটিটিউট অফ এডভান্সড স্টাডি-তে পোস্ট ডক্টরাল ফেলো। আর, সেখানে তখন ছিলেন বিখ্যাত গণিতজ্ঞ ফন ন্যয়ম্যান। শ্যাননের ইনফরমেশন-এর ধারণা শুনে উনি বলেছিলেন, পদার্থবিদ্যার এন্ট্রপির সাথে অনেক মিল। তাহলে এখানেও “এনট্রপি” নামটা দাও। কারণ, এন্ট্রপি নিয়ে মানুষের মনে অনেক ধোঁয়াশা থাকে সবসময়। তোমার চিন্তা নেই, এব্যাপারে সবজায়গায় তর্কে জিতে বেরিয়ে আসতে পারবে তুমি!

এই যে ইনফরমেশান পরিমাপের একটা রাস্তা খুলে গেলো, আমরা এর প্রভাব দেখতে পাই , ডাটা ম্যানেজমেন্ট, ক্রিপটো গ্রাফি, মেশিন লার্নিং, এমনকি কোয়ান্টাম কম্পিউটিং, ভাষাতত্ত্ব এরকম আরো হাজারো জায়গায়। সব জায়গাতেই ইনফরমেশন-এর আদানপ্রদান, ইনফরমেশন মজুত করে রাখা, প্রসেস করা এসবের জন্য একটা অমোঘ অস্ত্র যেন আমাদের হাতে তুলে দিলো ক্লদ শ্যাননের ইনফরমেশন থিওরির ধারণা। এই যে শুনতে পাও information age – ইনফরমেশন-এর যুগ, যা আমাদের আধুনিক এই সভ্যতার ভিত্তি- তার মূলে রয়েছে ইনফরমেশন এনট্রপির মতো একটা সহজ আইডিয়া।

Leave a Reply

Your email address will not be published. Required fields are marked *

four + 6 =