ഒരു പുസ്തകം മുഴുവനായി വായിച്ചു തീര്ക്കുക എന്ന സംഭവം നടന്നിട്ട് ഒരു കൊല്ലത്തിലേറെയായിരുന്നു. ഇന്ന് അത് നടന്നു. മാസങ്ങള്ക്കു മുമ്പേ പാതിവഴിയില് നിന്നുപോയ ഒരു പുസ്തകത്തിന് രണ്ടുദിവസം മുമ്പ് വീണ്ടും തുടര്ച്ച കണ്ടെടുക്കുകയായിരുന്നു. പോപ്പുലര് സയന്സ് ഗണത്തില് പെടുന്ന The Information: A History, a Theory, a Flood എന്ന പുസ്തകമായിരുന്നു അത്. ജെയിംസ് ഗ്ലേക്ക് ആണ് എഴുതിയത്. ഇത് പുസ്തക റിവ്യൂ അല്ല. പക്ഷേ എഞ്ചിനീയറിങ്ങ് ക്ലാസ്സില് പറഞ്ഞ് കേള്ക്കാതെ പോകാറുള്ള പലതും ഇതില് കണ്ടു. പ്രത്യേകിച്ചും കണ്ടുപിടുത്തങ്ങളുടെ ചരിത്രവും, സാഹചര്യവും. അദ്ധ്യാപനത്തില് നിന്നും ഒരു ഇടവേളയിലാണ് ഇപ്പോള്. ക്ലാസ്സില് സാധാരണ പറയാറില്ലാത്ത ചില ചരിത്രപാഠങ്ങള് ഈ പുസ്തകത്തോട് ചേര്ത്ത് ഇവിടെ എഴുതുകയാണ്.
അനുദിനം പുതുക്കപ്പെടുന്ന ഡിജിറ്റല് ആശയവിനിമയ സംവിധാനങ്ങളുടെയെല്ലാം സൈദ്ധാന്തികമായ കാതലാണ് ഇന്ഫര്മേഷന് തീയറി. ആശയവിനിമയത്തിന്റെ മാധ്യമം (ടെലിഫോണ് കമ്പി, ഒപ്റ്റിക്കല് ഫൈബര് കേബിള്, വിദ്യുത്കാന്തിക തരംഗങ്ങള്) എന്തുമായിക്കൊള്ളട്ടേ, അതിലൂടെ പങ്കുവെക്കുന്നത് (ഫോണ്കോളോ, ചാറ്റോ, ഈ-മെയിലോ, സിനിമയോ) എന്തുമാകട്ടേ, അതിനെയെല്ലാം ഉള്ക്കൊള്ളുന്ന ലളിതവും സമഗ്രവുമായ ഒരു ഗണിതനിയമമാണിത്. ഈ സിദ്ധാന്തത്തേക്കുറിച്ച് ആദ്യമായി അറിയുന്നത് എഞ്ചിനീയറിങ്ങ് അവസാനവര്ഷത്തിലെ Information Theory and Coding എന്ന പേപ്പറിലായിരുന്നു. 1948ല് Claud E Shannon എന്ന ഒറ്റയാളുടെ ചിന്തയില് വിരിഞ്ഞതാണിത് എന്നതിലൊതുങ്ങിയിരുന്നു അതിനെക്കുറിച്ചുള്ള ചരിത്ര വിജ്ഞാനം.
എന്നാല് അതിന്റെ കഥ അത്ര ചെറുതൊന്നുമായിരുന്നില്ല. വ്യക്തികളുടെ ശാസ്ത്രാന്വേഷണകൗതുകവും യുദ്ധകാലത്തിന്റെ സമ്മര്ദ്ദവും ഇതിനൊക്കെപ്പുറമേ ആകസ്മികതകളും ഒക്കെയായി നൂറ്റാണ്ടുകളിലൂടെ പടര്ന്നു കിടക്കുന്ന ഈ സിദ്ധാന്തത്തിന്റെ കഥയും വര്ത്തമാനവുമാണ് ജെയിംസ് ഗ്ലേക്ക് ഈ പുസ്തകത്തില് വിശാലമായിത്തന്നെ പറഞ്ഞിരിക്കുന്നത്.
ചരിത്രം
ആഫ്രിക്കയിലെ മിണ്ടുന്ന ചെണ്ടകളില് നിന്നാണ് കഥ തുടങ്ങുന്നത്. ചെണ്ടകൊട്ടിന്റെ താളത്തില് വാര്ത്തകള് കൈമാറിയിരുന്ന വിദ്യ. ആശയം ചോരാതെ ഗ്രാമങ്ങളില് നിന്ന് ഗ്രാമങ്ങളിലേയ്ക്ക് കൊട്ടിലൂടെ വാര്ത്തകള് പരന്നു. നാട്ടുഭാഷയിലെ വാക്കുകള് അതേ താളത്തിലും നീളത്തിലും അവര് കൊട്ടി. ഒരേ താളത്തിലുച്ചരിക്കുന്ന വാക്കുകള് ഉണ്ടാവുമല്ലോ, അവയ്ക്കൊക്കെ വിശേഷണങ്ങള് കൂടിച്ചേര്ത്ത് വ്യത്യസ്തത ഉറപ്പുവരുത്തും. വിശേഷണത്തോടു കൂടിയ വാക്കിന് നീളം കൂടും. പക്ഷേ അതില് ചിലതൊക്കെ കേള്ക്കാതെ പോയാല് പോലും കേട്ടതൊക്കെ ചേര്ത്തുവെച്ചാല് ആശയം മാറാതെ കാര്യം മനസ്സിലാകുമെന്ന് സാരം. Redundancy is the key to error correction. കോടിക്കണക്കിനു ബിറ്റുകളിലൂടെ ഡിജിറ്റല് ആശയവിനിമയം നടക്കുമ്പോള് തെറ്റുണ്ടാവാതെ കാക്കാന് നമ്മള് ഇന്ഫര്മേഷന് തിയറിയില് നിന്നും പഠിച്ചു ചെയ്യുന്നതും ഇതുതന്നെയാണ്. അതേറ്റവും കൃത്യതയോടെ ചെയ്യാനുള്ള കണക്ക് നമുക്കിന്ന് വ്യക്തമായി അറിയാമെന്ന് മാത്രം. വാമൊഴിയായി പരക്കുന്ന ഇതിഹാസങ്ങള് കാവ്യങ്ങളായതിന്റെ രഹസ്യം മറ്റൊന്നുമല്ല. ഈണത്തിലും താളത്തിലും വൃത്തത്തിലുമാണ് പാട്ടുകള്. വരികളും കഥകളും തലമുറകള് കഴിഞ്ഞാലും മാറാതെ മറക്കാതെ ആ ഈണം കാത്തുകൊള്ളും.
ഗിയറുകളും ചക്രങ്ങളും ചേര്ന്ന കമ്പ്യൂട്ടിങ്ങ് ഉപകരണങ്ങളുണ്ടാക്കിയ ബാബേജിന്റെ, ആ ഉപകരണത്തിനു പറ്റിയ അല്ഗോരിതങ്ങളുണ്ടാക്കിയ അഡ ലവ് ലേസിന്റെ, കണക്കു കൂട്ടി സൂക്ഷിച്ചിരുന്ന ലോഗരിതം ടേബിളുകളുടെ, അതുപയോഗിച്ചുള്ള ജ്യോതിശാസ്ത്രപഠനങ്ങളുടെ ഒക്കെ കഥ മറ്റൊരു അദ്ധ്യായമാണ്. ഡി മോര്ഗന്, ബൂള് തുടങ്ങിയവരുടെ കയ്യിലൂടെ മാത്തമാറ്റിക്കല് ലോജിക്കിന്റെ വളര്ച്ചയും ഇക്കാലത്തിന്റെ തുടര്ച്ചയായി പത്തൊമ്പതാം നൂറ്റാണ്ടില് നടന്നു.
കമ്പികളിലൂടെ വൈദ്യുതി ഒഴുക്കിയും തടുത്തും കൊണ്ടുള്ള ടെലിഗ്രാഫി സാങ്കേതികവിദ്യ, മോഴ്സ് കോഡ്- ഇതിന്റെയൊക്കെ വളര്ച്ചയുടെ സൂക്ഷ്മാംശങ്ങള് ജെയിംസ് ഗ്ലേക്ക് എഴുതിയിട്ടുണ്ട്. വേഗതയേറിയ ഒരു പുതിയ ആശയവിനിമയ സംവിധാനം കടന്നു വന്നപ്പോള് അതിനെ അന്നത്തെ അച്ചടിപത്രങ്ങള് പേടിയോടെയാണ് കണ്ടത്. തങ്ങളുടെ നിലനില്പ്പ് തന്നെ ഭീഷണിയിലാവുമെന്ന് അവര് ഭയന്നു. വ്യാജവാര്ത്തകള് പരക്കാനിടവരുമെന്ന് ആശങ്കപ്പെട്ടു. പക്ഷേ യഥാര്ത്ഥത്തില് പത്രവാര്ത്തകളുടെ റിപ്പോര്ട്ടിങ്ങ് വേഗത്തിലാക്കുകയും, കാലാവസ്ഥാമാറ്റങ്ങള് ഒക്കെ പെട്ടെന്ന് അറിയാനും അവ പത്രങ്ങളില് വരാനുമൊക്കെ തുടങ്ങുന്നത് ടെലിഗ്രാഫിയുടെ വളര്ച്ചയോടെയാണെന്നതാണ് സത്യം. ടെലിഗ്രാഫിയിലെ മോഴ്സ് കോഡ്, ഓരോ ഇംഗ്ലീഷ് അക്ഷരത്തിനും അക്കത്തിനും കുത്തും വരയും ഉപയോഗിച്ചുള്ള ഒരു കോഡാണ്. ഇംഗ്ലീഷിലെ ഏറ്റവും കൂടുതല് ഉപയോഗിക്കുന്ന e എന്ന അക്ഷരത്തിനു ഏറ്റവും ചെറിയ കോഡ് (ഒരു കുത്ത് മാത്രം) ആണ് ഇതില്. ഉപയോഗം കുറഞ്ഞ q, y പോലുള്ള അക്ഷരങ്ങള്ക്ക് നാല് കുത്തും വരയും ചേര്ന്ന കോഡും. പലകാലങ്ങളിലായി കോഡുകള് മാറിയിട്ടുണ്ട്. മിക്കവാറും സന്ദേശങ്ങളില് ഏറ്റവും കൂടുതലുള്ള e എന്ന അക്ഷരം ഏറ്റവും ചുരുക്കി മോഴ്സ് കോഡിലെഴുതാന് പറ്റുന്നു. അതായത് അയയ്ക്കുന്ന സന്ദേശത്തിന്റെ ആകെ നീളം കുറയ്ക്കാന് ഇത് സഹായിച്ചു. ഇതേ തത്വമാണ് Information Theory പ്രകാരമുള്ള Data compression ന്റെ അടിസ്ഥാനം. അവിടെയും കണിശമായ കണക്കുകള് കൊണ്ട് ഏറ്റവും മികച്ച data compression algorithm പലത് പിന്നീടുണ്ടായി.
ബാബേജിന്റെ കമ്പ്യൂട്ടര് ചക്രവും ചെയിനുമൊക്കെയുള്ള ഒരു യന്ത്രമാണ്. ഇതില് നിന്നും തികച്ചും വ്യത്യസ്തമാണ് ആധുനിക കമ്പ്യൂട്ടിങ്ങ് ഉപകരണങ്ങള് (നമ്മുടെ മൊബൈല് ഫോണും ലാപ്ടോപ്പുകളുമൊക്കെ). അവ പ്രവര്ത്തിക്കുന്നത് Boolean Logic അടിസ്ഥാനമാക്കിയാണ്. അതിന് ചെയ്യാന് കഴിയുന്ന എല്ലാ കാര്യങ്ങളും ഒരുപാട് True/False ഉത്തരങ്ങളുടെ ശ്രേണിയിലൂടെയാണ് നടപ്പിലാകുന്നത് (ലോകത്തിലെ ഏതൊരു വ്യക്തിയേയും 21 Yes/No ഉത്തരങ്ങളിലൂടെ അശ്വമേധം ക്വിസ്സില് കണ്ടെത്തിയിരുന്നത് ഓര്മ്മയുണ്ടല്ലോ). എല്ലാ കമ്പ്യൂട്ടര് പ്രോഗ്രാമും അത്യന്തികമായി ചെയ്യുന്നത് പൂജ്യത്തിന്റെയും ഒന്നിന്റെയും ശ്രേണികളായി നിര്ദ്ദേശങ്ങള് തയ്യാറാക്കുകയാണ്. നമ്മുടെ ഇന്പുട്ടുകളും പൂജ്യത്തിന്റെയും ഒന്നിന്റെയും ശ്രേണികളായിട്ടാണ് പ്രോസസറിലെത്തുക. ഇതിന്റെ ഔട്പുട്ട് ഇത്തരത്തിലുള്ള മറ്റൊരു ശ്രേണിയായിരിക്കും, അതിന്റെ ഫലം നമ്മള് പാട്ടായി കേള്ക്കും, ചിത്രങ്ങളായി കാണും അങ്ങനെയങ്ങനെ. ഏതെങ്കിലും ഇലക്ട്രിക്കല് സര്ക്യൂട്ടിലെ കണക്ഷന് ഓണാക്കണോ വേണ്ടയോ എന്നുള്ള തീരുമാനമായിരിക്കും ഓരോ പൂജ്യവും ഒന്നും സൂചിപ്പിക്കുക.
Boolean Logic എന്ന ഗണിതപരമായ ആശയം ഇലക്ട്രിക്കല് സര്ക്യൂട്ടുകള് വഴി പ്രാവര്ത്തികമാക്കാമെന്നതും ഇന്ഫര്മേഷന് തീയറിയുടെ ഉപജ്ഞാതാവായ ഷാനണിന്റെ ഐഡിയ ആയിരുന്നു.. പിന്നീട് വന്ന കമ്പ്യൂട്ടര് വിപ്ലവങ്ങളുടെ അടിസ്ഥാനം ഇവിടെയാണ്. അദ്ദേഹമിത് അവതരിപ്പിക്കുന്നത് 1937 ല് തന്റെ പോസ്റ്റ് ഗ്രാജുവേറ്റ് തീസീസിലാണ്. ഇലക്ട്രിക്കല് എഞ്ചിനീയറിങ്ങ് മാത്തമാറ്റിക്കല് ലോജിക്കുമായി കൂട്ടുചേരുന്നത് അന്നു മുതലാണ്. 1948ല് ട്രാന്സിസ്റ്ററുകളുടെ കണ്ടുപിടുത്തത്തിനും ശേഷമാണ് സര്ക്യൂട്ടുകള് സിമ്പിള് ആയി ഓണ്/ഓഫ് ചെയ്യാന് പറ്റുമെന്നൊക്കെ വന്നത്. അവിടുന്ന് പിന്നെ ഡിജിറ്റല് ഇലക്ട്രോണിക് സര്ക്യൂട്ടുകളും ഇന്നത്തെ പോലെയുള്ള ഡിജിറ്റല് കമ്പ്യൂട്ടിങ്ങ് ഉപകരണങ്ങളുമൊക്കെ പിറന്നു.
ടെലിഗ്രാഫിനു ശേഷം ടെലിഫോണ് അതിവേഗം വ്യാപിച്ചത് ഇരുപതാം നൂറ്റാണ്ടിന്റെ തുടക്കകാലത്തായിരുന്നു. അമേരിക്കയില് ഉടനീളം ടെലിഫോണ് കമ്പികള്, കോള് റൗട്ടിങ്ങ് കേന്ദ്രങ്ങള് ഒക്കെ വ്യാപകമായി. അത്തരം കേന്ദ്രങ്ങളില് ആളുകള് ഇരുന്ന് കമ്പികള് മാറ്റികുത്തി കോള് കണക്ട് ചെയ്തു. അത് Automate ചെയ്യാന് ഇലക്ട്രിക്കല് സ്വിച്ചുകള് വന്നു. Analog signal നോയിസ് പ്രശ്നങ്ങളുണ്ടാക്കി. നോയിസിന്റെ കാരണങ്ങളെക്കുറിച്ച് പഠനങ്ങള് നടന്നു. അനലോഗ് സിഗ്നലിനെ sample ചെയ്ത് ഡിജിലാക്കാമെന്നു വന്നു. Sampling Theorem പലരായി കണ്ടുപിടിച്ചു. ഷാനണ്, ഹാര്ട്ട്ലി, വീനര്, നിക്വിസ്റ്റ് ഇവരുടെയൊക്കെ പേരിലായി നമ്മള് പരിചയപ്പെട്ടിട്ടുള്ള ഒരുപാട് അടിസ്ഥാന പാഠങ്ങള് ഉരുത്തിരിഞ്ഞു വന്നത് ഇക്കാലത്താണ്. ഇവര്ക്കിടയില് നടന്ന സംഭാഷണങ്ങള്, കത്തുകള്, ചര്ച്ചകള് ഒക്കെയായി നടന്ന ചരിത്രകഥകള് ഈ പുസ്തകത്തില് ജെയിംസ് ഗ്ലേക്ക് കാര്യമായിത്തന്നെ എഴുതിയിട്ടുണ്ട്.
സിദ്ധാന്തം
ചരിത്രത്തോളം രസകരമായി അതിനേക്കാള് പരപ്പില് ഇന്ഫര്മേഷന് തിയറിയേയും വിശദമാക്കുന്നുണ്ട് ഈ പുസ്തകത്തില്. Data Compression, Error Control/Correction Coding, Channel Capacity എന്നീ സങ്കല്പങ്ങള് ഇതുമായി ബന്ധപ്പെട്ട് കമ്മ്യൂണിക്കേഷന് ക്ലാസ്സുകളില് പഠിക്കുന്നതാണ്. എന്നാല് ഇതിന്റെ കണക്കും കളികളും ചെന്നു തൊടാത്ത ജ്ഞാനമേഖലയില്ല എന്നു തന്നെ പറയാം. ഒരു സന്ദേശത്തിലടങ്ങുന്ന ‘ആശയത്തെ’ അളക്കാന് പറ്റുമോ? ആശയം എന്ന വാക്ക് ഞാന് അങ്ങ് പറഞ്ഞെന്നേയുള്ളൂ. How to measure and quantify ‘information’ എന്നതായിരുന്നു ഷാനണ് ഉത്തരം നല്കിയ ചോദ്യം. തത്തുല്യമായി മലയാളത്തില് ഒരു പദം വേറെയില്ല. അളക്കാന് പറ്റുമെന്നാണ് ഷാനണ് വ്യക്തമാക്കിത്തന്നത്. അളന്ന് എത്ര ബിറ്റ് (പൂജ്യവും ഒന്നും ചേര്ന്ന എത്ര നീളമുള്ള ശ്രേണികൊണ്ട് അതിനെ വിശദമാക്കാം എന്ന്) ഇന്ഫര്മേഷന് ഉണ്ടെന്ന് കണ്ടെത്താനും പറ്റും. ഒരു കോയിന് ടോസ്സ് ചെയ്തിട്ട് എന്തു കിട്ടിയെന്ന ചോദ്യത്തിന് രണ്ടുത്തരമേയുള്ളൂ. ആ ഉത്തരമാണ് നമ്മുടെ സന്ദേശമെങ്കില് ഒരു ബിറ്റുപയോഗിച്ച് പറയാം. ആ ബിറ്റ് ഒന്നാണെങ്കില് നാണയത്തിന്റെ തല, അല്ലെങ്കില് വാല് എന്നൊരു നിയമം മുന്കൂട്ടിയുണ്ടാക്കണം എന്ന് മാത്രം. Coin Toss ചെയ്തതിന്റെ ഉത്തരം സന്ദേശമാക്കുവാന് കുറഞ്ഞത് എത്ര ബിറ്റ് വേണമെന്നതിന്റെ അളവിനെയാണ് Entropy എന്ന് ഷാനണ് വിളിച്ചത്. കൂടുതല് അറിയാന് ഞാന് മുമ്പെഴുതിയ ഒരു കുറിപ്പ് വായിക്കാം കേട്ടോ. ഇന്ഫര്മേഷന് തിയറിയെ സ്റ്ററ്റിസ്റ്റിക്കലി വിശദീകരിക്കുകയാണവിടെ.
Entropy എന്ന വാക്ക് വളരെ overloaded ആണ്. Physics ക്ലാസ്സില് പ്രത്യേകിച്ച് thermodynamics ആയി ബന്ധപ്പെട്ടിട്ടാണ് അത് നാം കേട്ടിരിക്കുക. എന്തുകൊണ്ടാകും ആ പദം തന്നെ ഷാനണ് ഉപയോഗിച്ചിരിക്കുക എന്നത് വലിയൊരു സംശയമയിരുന്നു. Statistical physics ലെ ഇക്വേഷനുകളുമായി അതിന്റെ ഘടനാപരമായ ബന്ധം കണക്കിലെടുത്ത്, അതേപോലുള്ള ഇക്വേഷന് കൊണ്ട് നിര്വചിക്കുന്ന ഇന്ഫര്മേഷനും Entropy എന്ന് പേരു വിളിക്കുന്നുവെന്നതാണ് ഷാനന്റെ തന്നെ വിശദീകരണം.
Second law of Thermodynamics ഇത്തിരി രസകരമായ ഒരു സംഭവമാണ്. താപനില കൂടുതലുള്ളിടത്തിനിന്ന് കുറവുള്ളിടത്തേക്കേ ചൂട് ഒഴുകൂ എന്ന് വളരെ ലളിതമായി പറയാം. പ്രപഞ്ചത്തിന്റെയാകെ entropy കാലക്രമേണ കൂടുകയേയുള്ളൂവെന്നും, Perpetual motion machine അസാധ്യമായ കാര്യമാണ് എന്നതും ഈ രണ്ടാം നിയമത്തിന്റെ മറ്റുവ്യാഖ്യാനങ്ങളാണ്. ഒരു വൈദ്യുത ഫാനിന്റെ കാറ്റുകൊണ്ട് ഒരു കാറ്റാടി കറക്കി വൈദ്യുതിയുണ്ടാക്കി, ആ വൈദ്യുതി കൊണ്ട് തന്നെ ഫാന് കറക്കിക്കൊണ്ട് ഈ പ്രവര്ത്തനം തുടര്ച്ചയായി നടത്തികൊണ്ടു പോകാന് പറ്റിയാല് അതാണ് ഈ perpetual motion machine. മാക്സ്വെല് ഇതു താത്വികമായെങ്കിലും സാധ്യമാണോ എന്ന് ഒരു ചിന്താപരീക്ഷണത്തിലൂടെ ചോദിക്കുന്നുണ്ട്. അതായത് രണ്ടാം താപഗതിക നിയമത്തെ ലംഘിക്കുന്ന ഒരു പരീക്ഷണം. ഒരു അടച്ച പെട്ടിയിലെ വായു തന്മാത്രകള് അതിനുള്ളില് യഥേഷ്ടം സഞ്ചരിക്കുമ്പോള് പെട്ടിയിലെല്ലായിടത്തും ഒരേ ചൂടായിരിക്കണമല്ലോ. തണുപ്പുള്ളവയും ചൂടുള്ളവയുമായ തന്മാത്രകള് സ്വയം വേര്തിരിഞ്ഞ് മാറിപ്പോയാല് പെട്ടിയുടെ ഒരു വശത്ത് ചൂടും മറുവശത്ത് തണുപ്പുമാകും. അത് പെട്ടിയുടെ Entropy കുറയുന്ന പ്രവര്ത്തനമാകും, അത് സ്വയമേവ സംഭവിക്കില്ല. അങ്ങനൊക്കെ നടക്കാന് നമ്മള് പുറത്തുനിന്ന് ഊര്ജ്ജം കൊടുക്കേണ്ടി വരും. Air conditioning, Refridgeration ഇതിലൊക്കെ അസ്വാഭാവികമായ ഇത്തരം കാര്യങ്ങള് ഒരുപാട് ഊര്ജ്ജം ചെലവാക്കി നമ്മള് ചെയ്യിക്കുകയാണ്. മാക്സ്വെല് ചോദിച്ചത് തണുത്ത തന്മാത്രകളെ ഒരു വശത്തേക്കും ചൂടുള്ളവയെ തിരിച്ചും മാത്രം സഞ്ചരിക്കാനനുവദിച്ചാല് entropy കുറയ്കാന് സാധിക്കില്ലേ എന്നാണ്. പക്ഷേ അങ്ങനെ നോക്കി കടത്തിവിടാന് ഒരു കുട്ടിച്ചാത്തനുണ്ടാവേണ്ടി വരും.
തന്മാത്രയുടെ ചൂടളക്കുന്ന പ്രക്രിയയ്ക്ക് തന്നെ ഈ ഭൂതത്തിന് ഊര്ജ്ജം ചെലവഴിക്കേണ്ടി വരും. അതുകൊണ്ട് തന്നെ ഭൂതത്തേയും ചേര്ത്തുള്ള പെട്ടിയുടെ Entropy കൂടും. അപ്പോള് രണ്ടാം താപഗതിക നിയമം ലംഘിക്കാന് ഈ ഭൂതത്തിനുമാവില്ല എന്നാണ് 1929ല് ഇതിന് നല്കപ്പെട്ട വിശദീകരണം. എന്നാല് ഇതു മാത്രമല്ല കാരണമെന്ന് ആദ്യം ചൂണ്ടിക്കാണിച്ചത് 1960ല് Rolf Landauer ആണ്. തന്മാത്രകളുടെ ചൂടും സ്ഥാനവും അളന്ന് അതിനനുസരിച്ച് തീരുമാനമെടുക്കാന് ഭൂതത്തിന് ആ വിവരം (information) ശേഖരിച്ചു വെയ്ക്കേണ്ടതുണ്ട്. ശേഖരിക്കുന്ന ഈ വിവരം ഷാനന്റെ കണക്കുപ്രകാരമുള്ള ഒരു information entropy ആണ്. ഈ വിവരം മായ്ക്കുക എന്ന പ്രക്രിയ thermodynamic entropy ആയി ചുറ്റുപാടിലേയ്ക്ക് പടരുന്നു. കേള്ക്കുമ്പോള് അവിശ്വസനീയമെന്ന് പെട്ടെന്ന് തോന്നിച്ചേക്കാമെങ്കിലും irreversible ആയ information processing (eg: memory erasure) physical entropy എത്രമാത്രം കൂട്ടുന്നുവെന്നതിനേക്കുറിച്ച് പഠനങ്ങള് ലഭ്യമാണ്. ചുരുക്കിപ്പറഞ്ഞാല് thermodynamic entropyല് നിന്നും വ്യത്യസ്തമായ സംഗതിയൊന്നുമല്ല, information entropy എന്ന് സാരം. ഷാനണ് ആ പേരിട്ടത് വെറുതേയായില്ല.
കഥ ഇത്ര മതി
ഇന്ഫര്മേഷന് തീയറിയുടെ കഥയും ചരിത്രവും ഇത്രയൊന്നുമല്ല കേട്ടോ പുസ്തകത്തിലുള്ളത്. Molecular Biology, DNAയിലെ genetic information theory, algorithmic information theory, lingustics, quantum computing തുടങ്ങി ഒരുപാട് മേഖലകളുമായി നേരിട്ട് ബന്ധപ്പെട്ടിരിക്കുന്നതാണ് ഇന്ഫര്മേഷന് തീയറി. ഇതിലൊക്കെ എനിയ്ക്ക് ഏറ്റവും കൗതുകം തോന്നിയ ചിലതാണ് ഇവിടെ എഴുതിയത്. ഈ പുസ്തകത്തെപ്പറ്റി ഞാന് അറിയുന്നത് 3 Blue 1 Brown എന്ന Youtube channel നടത്തുന്ന ഗ്രാന്ഡ് ആന്ഡേഴ്സണുമായുള്ള ഒരു ഇന്റര്വ്യൂവില് നിന്നുമായിരുന്നു. രസകരമായ മാത്തമാറ്റിക്കല് അനിമേഷനുകളുമായി നല്ലൊരു Edutainment കൂടിയാണ് ആ ചാനല്, ഒട്ടും മുഷിയില്ല.
മതി. ഇനിയും ഈ പോസ്റ്റിന്റെ നീളം കൂടണ്ട എന്നു തോന്നുന്നതു കൊണ്ട് കഥ ഇവിടെ നിര്ത്തുന്നു. ബാക്കി നിങ്ങള് വായിക്കൂ..