Richard Hamming: Kapitola 13. Teória informácií

Zvládli sme to!

"Účelom tohto kurzu je pripraviť vás na vašu technickú budúcnosť."

Richard Hamming: Kapitola 13. Teória informáciíAhoj Habr. Pamätajte na úžasný článok "Ty a tvoja práca" (+219, 2588 záložiek, 429 XNUMX prečítaní)?

Takže Hamming (áno, áno, sebamonitorovanie a sebaopravovanie Hammingove kódy) existuje celok книга, napísaný na základe jeho prednášok. Prekladáme to, pretože muž hovorí, čo si myslí.

Toto nie je kniha len o IT, je to kniha o štýle myslenia neuveriteľne cool ľudí. „Nie je to len podpora pozitívneho myslenia; popisuje podmienky, ktoré zvyšujú šance na vykonanie skvelej práce.“

Ďakujem Andrey Pakhomov za preklad.

Informačná teória bola vyvinutá C. E. Shannonom koncom 1940. rokov XNUMX. storočia. Vedenie Bell Labs trvalo na tom, aby to nazval „Teória komunikácie“, pretože... toto je oveľa presnejší názov. Z pochopiteľných dôvodov má názov „Teória informácií“ oveľa väčší vplyv na verejnosť, preto si ho Shannon vybral a je to názov, ktorý poznáme dodnes. Už samotný názov napovedá, že teória sa zaoberá informáciami, čo ju robí dôležitou, keď sa posúvame hlbšie do informačného veku. V tejto kapitole sa dotknem niekoľkých hlavných záverov z tejto teórie, uvediem nie strohé, ale skôr intuitívne dôkazy o niektorých jednotlivých ustanoveniach tejto teórie, aby ste pochopili, čo to „teória informácií“ vlastne je, kde ju môžete použiť. a kde nie.

Po prvé, čo je to „informácia“? Shannon prirovnáva informácie k neistote. Ako kvantitatívnu mieru informácií, ktoré dostanete, keď nastane udalosť s pravdepodobnosťou p, zvolil záporný logaritmus pravdepodobnosti udalosti. Napríklad, ak vám poviem, že počasie v Los Angeles je hmlisté, potom sa p blíži k 1, čo nám naozaj veľa informácií nedáva. Ale ak poviem, že v júni v Monterey prší, v správe bude neistota a bude obsahovať viac informácií. Spoľahlivá udalosť neobsahuje žiadne informácie, pretože log 1 = 0.

Pozrime sa na to podrobnejšie. Shannon veril, že kvantitatívna miera informácií by mala byť spojitou funkciou pravdepodobnosti udalosti p a pre nezávislé udalosti by mala byť aditívna - množstvo informácií získaných v dôsledku výskytu dvoch nezávislých udalostí by sa malo rovnať množstvo informácií získaných v dôsledku vzniku spoločnej udalosti. Napríklad výsledok hodu kockou a hodu mincou sa zvyčajne považuje za nezávislé udalosti. Preložme si vyššie uvedené do jazyka matematiky. Ak I (p) je množstvo informácií obsiahnutých v udalosti s pravdepodobnosťou p, potom pre spoločnú udalosť pozostávajúcu z dvoch nezávislých udalostí x s pravdepodobnosťou p1 a y s pravdepodobnosťou p2 dostaneme

Richard Hamming: Kapitola 13. Teória informácií
(x a y sú nezávislé udalosti)

Toto je funkčná Cauchyho rovnica, ktorá platí pre všetky p1 a p2. Na vyriešenie tejto funkčnej rovnice predpokladajme, že

p1 = p2 = p,

toto dáva

Richard Hamming: Kapitola 13. Teória informácií

Ak p1 = p2 a p2 = p, potom

Richard Hamming: Kapitola 13. Teória informácií

atď. Rozšírením tohto procesu pomocou štandardnej metódy pre exponenciály, pre všetky racionálne čísla m/n platí nasledovné

Richard Hamming: Kapitola 13. Teória informácií

Z predpokladanej kontinuity informačnej miery vyplýva, že logaritmická funkcia je jediným spojitým riešením Cauchyho funkcionálnej rovnice.

V teórii informácie je bežné považovať logaritmickú základňu za 2, takže binárny výber obsahuje presne 1 bit informácie. Preto sa informácie merajú podľa vzorca

Richard Hamming: Kapitola 13. Teória informácií

Zastavme sa a pochopme, čo sa stalo vyššie. Predovšetkým sme nedefinovali pojem „informácia“, len sme definovali vzorec pre jej kvantitatívnu mieru.

Po druhé, toto opatrenie podlieha neistote a hoci je primerane vhodné pre stroje – napríklad telefónne systémy, rádio, televíziu, počítače atď. – neodráža bežné ľudské postoje k informáciám.

Po tretie, ide o relatívne meradlo, ktoré závisí od aktuálneho stavu vašich vedomostí. Ak sa pozriete na prúd „náhodných čísel“ z generátora náhodných čísel, predpokladáte, že každé ďalšie číslo je neisté, ale ak poznáte vzorec na výpočet „náhodných čísel“, ďalšie číslo bude známe, a preto nebude obsahovať informácie.

Takže Shannonova definícia informácie je v mnohých prípadoch vhodná pre stroje, ale nezdá sa, že by zapadala do ľudského chápania tohto slova. Z tohto dôvodu by sa „teória informácií“ mala nazývať „teória komunikácie“. Na zmenu definícií (ktoré dali teórii počiatočnú popularitu a vďaka ktorým si ľudia stále myslia, že táto teória sa zaoberá „informáciami“) je však neskoro, takže s nimi musíme žiť, ale zároveň jasne pochopiť, ako ďaleko je Shannonova definícia informácie od jej bežne používaného významu. Shannonove informácie sa zaoberajú niečím úplne iným, a to neistotou.

Tu je niečo na zamyslenie, keď navrhujete akúkoľvek terminológiu. Ako sa navrhovaná definícia, ako napríklad Shannonova definícia informácie, zhoduje s vašou pôvodnou myšlienkou a nakoľko je odlišná? Neexistuje takmer žiadny výraz, ktorý presne odráža vašu predchádzajúcu víziu konceptu, ale v konečnom dôsledku je to použitá terminológia, ktorá odráža význam konceptu, takže formalizácia niečoho prostredníctvom jasných definícií vždy prináša určitý hluk.

Uvažujme systém, ktorého abeceda pozostáva zo symbolov q s pravdepodobnosťou pi. V tomto prípade priemerné množstvo informácií v systéme (jej očakávaná hodnota) sa rovná:

Richard Hamming: Kapitola 13. Teória informácií

Toto sa nazýva entropia systému s rozdelením pravdepodobnosti {pi}. Používame termín "entropia", pretože rovnaký matematický tvar sa objavuje v termodynamike a štatistickej mechanike. To je dôvod, prečo pojem „entropia“ vytvára okolo seba určitú auru dôležitosti, ktorá v konečnom dôsledku nie je opodstatnená. Rovnaká matematická forma zápisu neznamená rovnakú interpretáciu symbolov!

Entropia rozdelenia pravdepodobnosti hrá hlavnú úlohu v teórii kódovania. Gibbsova nerovnosť pre dve rôzne distribúcie pravdepodobnosti pi a qi je jedným z dôležitých dôsledkov tejto teórie. Takže to musíme dokázať

Richard Hamming: Kapitola 13. Teória informácií

Dôkaz je založený na zrejmom grafe, obr. 13.I, čo ukazuje, že

Richard Hamming: Kapitola 13. Teória informácií

a rovnosť sa dosiahne iba vtedy, keď x = 1. Aplikujme nerovnosť na každý člen súčtu z ľavej strany:

Richard Hamming: Kapitola 13. Teória informácií

Ak sa abeceda komunikačného systému skladá z q symbolov, potom ak vezmeme pravdepodobnosť prenosu každého symbolu qi = 1/q a dosadíme q, dostaneme z Gibbsovej nerovnosti

Richard Hamming: Kapitola 13. Teória informácií

Richard Hamming: Kapitola 13. Teória informácií

Obrázok 13.I

To znamená, že ak je pravdepodobnosť prenosu všetkých q symbolov rovnaká a rovná sa - 1 / q, potom sa maximálna entropia rovná ln q, inak nerovnosť platí.

V prípade jedinečne dekódovateľného kódu máme Kraftovu nerovnosť

Richard Hamming: Kapitola 13. Teória informácií

Teraz, ak definujeme pseudopravdepodobnosti

Richard Hamming: Kapitola 13. Teória informácií

kde samozrejme Richard Hamming: Kapitola 13. Teória informácií= 1, čo vyplýva z Gibbsovej nerovnosti,

Richard Hamming: Kapitola 13. Teória informácií

a aplikujte trochu algebry (nezabudnite, že K ≤ 1, takže môžeme vypustiť logaritmický člen a možno neskôr posilniť nerovnosť), dostaneme

Richard Hamming: Kapitola 13. Teória informácií

kde L je priemerná dĺžka kódu.

Entropia je teda minimálna hranica pre akýkoľvek kód po znakoch s priemernou dĺžkou kódového slova L. Toto je Shannonova veta pre kanál bez rušenia.

Teraz zvážte hlavnú vetu o obmedzeniach komunikačných systémov, v ktorých sa informácie prenášajú ako prúd nezávislých bitov a je prítomný šum. Rozumie sa, že pravdepodobnosť správneho prenosu jedného bitu je P > 1/2 a pravdepodobnosť, že hodnota bitu bude počas prenosu invertovaná (vyskytne sa chyba), sa rovná Q = 1 - P. predpokladať, že chyby sú nezávislé a pravdepodobnosť chyby je rovnaká pre každý odoslaný bit - to znamená, že v komunikačnom kanáli je „biely šum“.

Spôsob, akým máme dlhý prúd n bitov zakódovaný do jednej správy, je n-rozmerné rozšírenie jednobitového kódu. Hodnotu n určíme neskôr. Zvážte správu pozostávajúcu z n-bitov ako bod v n-rozmernom priestore. Keďže máme n-rozmerný priestor – a pre jednoduchosť budeme predpokladať, že každá správa má rovnakú pravdepodobnosť výskytu – existuje M možných správ (tiež M bude definované neskôr), preto je pravdepodobnosť odoslanej správy

Richard Hamming: Kapitola 13. Teória informácií

Richard Hamming: Kapitola 13. Teória informácií
(odosielateľ)
Rozvrh 13.II

Ďalej zvážte myšlienku kapacity kanála. Bez toho, aby sme zachádzali do detailov, kapacita kanála je definovaná ako maximálne množstvo informácií, ktoré možno spoľahlivo preniesť cez komunikačný kanál, pričom sa berie do úvahy použitie najefektívnejšieho kódovania. Neexistuje žiadny argument, že cez komunikačný kanál možno preniesť viac informácií, ako je jeho kapacita. Dá sa to dokázať pre binárny symetrický kanál (ktorý používame v našom prípade). Kapacita kanála pri odosielaní bitov je špecifikovaná ako

Richard Hamming: Kapitola 13. Teória informácií

kde, ako predtým, P je pravdepodobnosť žiadnej chyby v žiadnom odoslanom bite. Pri odosielaní n nezávislých bitov je kapacita kanála daná pomocou

Richard Hamming: Kapitola 13. Teória informácií

Ak sa blížime ku kapacite kanála, potom musíme poslať takmer toto množstvo informácií pre každý zo symbolov ai, i = 1, ..., M. Ak vezmeme do úvahy, že pravdepodobnosť výskytu každého symbolu ai je 1 / M, dostaneme

Richard Hamming: Kapitola 13. Teória informácií

keď pošleme ktorúkoľvek z M rovnako pravdepodobných správ ai, máme

Richard Hamming: Kapitola 13. Teória informácií

Keď sa odošle n bitov, očakávame výskyt nQ chýb. V praxi pri správe pozostávajúcej z n-bitov budeme mať v prijatej správe približne nQ chýb. Pre veľké n relatívna variácia (variácia = šírka distribúcie, )
distribúcia počtu chýb sa bude s rastúcim n čoraz viac zužovať.

Takže zo strany vysielača vezmem správu ai na odoslanie a nakreslím okolo nej guľu s polomerom

Richard Hamming: Kapitola 13. Teória informácií

ktorý je o niečo väčší o hodnotu rovnajúcu sa e2 ako očakávaný počet chýb Q, (obrázok 13.II). Ak je n dostatočne veľké, potom existuje ľubovoľne malá pravdepodobnosť, že sa na strane prijímača objaví bod správy bj, ktorý presahuje túto sféru. Načrtnime si situáciu, ako ju vidím z pohľadu vysielača: máme ľubovoľné polomery od prenášanej správy ai po prijatú správu bj s pravdepodobnosťou chyby rovnajúcou sa (alebo takmer rovnej) normálnemu rozdeleniu, dosahujúc max. v nQ. Pre každé dané e2 je n také veľké, že pravdepodobnosť, že výsledný bod bj bude mimo mojej sféry, je taká malá, ako chcete.

Teraz sa pozrime na rovnakú situáciu z vašej strany (obr. 13.III). Na strane prijímača je guľa S(r) s rovnakým polomerom r okolo prijatého bodu bj v n-rozmernom priestore, takže ak je prijatá správa bj v mojej sfére, potom správa ai odoslaná mnou je vo vašej guľa.

Ako môže dôjsť k chybe? Chyba sa môže vyskytnúť v prípadoch opísaných v tabuľke nižšie:

Richard Hamming: Kapitola 13. Teória informácií

Obrázok 13.III

Richard Hamming: Kapitola 13. Teória informácií

Tu vidíme, že ak sa v guli vybudovanej okolo prijatého bodu nachádza ešte aspoň jeden bod zodpovedajúci možnej odoslanej nezakódovanej správe, tak pri prenose nastala chyba, keďže neviete určiť, ktorá z týchto správ bola odoslaná. Odoslaná správa je bezchybná iba vtedy, ak sa jej zodpovedajúci bod nachádza v guli a v danom kóde nie sú možné žiadne ďalšie body, ktoré sa nachádzajú v tej istej guli.

Máme matematickú rovnicu pre pravdepodobnosť chyby Pe, ak bola odoslaná správa ai

Richard Hamming: Kapitola 13. Teória informácií

Prvý faktor môžeme v druhom člene vyhodiť a brať ho ako 1. Tak dostaneme nerovnosť

Richard Hamming: Kapitola 13. Teória informácií

Samozrejme, že

Richard Hamming: Kapitola 13. Teória informácií

teda

Richard Hamming: Kapitola 13. Teória informácií

znovu použiť na posledný termín vpravo

Richard Hamming: Kapitola 13. Teória informácií

Ak vezmeme n dostatočne veľké, prvý člen sa môže brať ako malý, povedzme menší ako nejaké číslo d. Preto máme

Richard Hamming: Kapitola 13. Teória informácií

Teraz sa pozrime na to, ako môžeme skonštruovať jednoduchý substitučný kód na kódovanie M správ skladajúcich sa z n bitov. Keďže Shannon nevedel, ako presne vytvoriť kód (kódy na opravu chýb ešte neboli vynájdené), zvolil si náhodné kódovanie. Hoďte si mincou za každý z n bitov v správe a zopakujte postup pre M správy. Celkovo treba urobiť nM prehodenia mincí, takže je to možné

Richard Hamming: Kapitola 13. Teória informácií

kódové slovníky s rovnakou pravdepodobnosťou ½ nM. Samozrejme, náhodný proces vytvárania číselníka znamená, že existuje možnosť duplikátov, ako aj bodov kódu, ktoré budú blízko seba a budú teda zdrojom pravdepodobných chýb. Treba dokázať, že ak sa to nestane s pravdepodobnosťou väčšou ako akákoľvek malá zvolená chybová úroveň, potom je dané n dostatočne veľké.
Rozhodujúcim bodom je, že Shannon spriemeroval všetky možné číselníky, aby našiel priemernú chybu! Na označenie priemernej hodnoty nad množinou všetkých možných náhodných číselníkov použijeme symbol Av[.]. Spriemerovanie cez konštantu d, samozrejme, dáva konštantu, pretože na spriemerovanie je každý člen rovnaký ako každý iný člen v súčte,

Richard Hamming: Kapitola 13. Teória informácií

ktoré možno zvýšiť (M–1 ide na M)

Richard Hamming: Kapitola 13. Teória informácií

Pre každú danú správu, pri spriemerovaní naprieč všetkými číselníkmi, kódovanie prechádza všetkými možnými hodnotami, takže priemerná pravdepodobnosť, že bod je v guli, je pomer objemu gule k celkovému objemu priestoru. Objem gule je

Richard Hamming: Kapitola 13. Teória informácií

kde s=Q+e2 <1/2 a ns musí byť celé číslo.

Posledný výraz vpravo je v tejto sume najväčší. Najprv odhadnime jeho hodnotu pomocou Stirlingovho vzorca pre faktoriály. Potom sa pozrieme na klesajúci koeficient člena pred ním, všimnime si, že tento koeficient sa zvyšuje, keď sa pohybujeme doľava, a tak môžeme: (1) obmedziť hodnotu súčtu na súčet geometrickej progresie s tento počiatočný koeficient, (2) rozšíriť geometrickú postupnosť z n členov na nekonečný počet členov, (3) vypočítať súčet nekonečnej geometrickej postupnosti (štandardná algebra, nič významné) a nakoniec získať limitnú hodnotu (pre dostatočne veľkú n):

Richard Hamming: Kapitola 13. Teória informácií

Všimnite si, ako sa entropia H(s) objavila v binomickej identite. Všimnite si, že rozšírenie Taylorovho radu H(s)=H(Q+e2) poskytuje odhad získaný s prihliadnutím iba na prvú deriváciu a ignorovaním všetkých ostatných. Teraz dajme dokopy konečný výraz:

Richard Hamming: Kapitola 13. Teória informácií

kde

Richard Hamming: Kapitola 13. Teória informácií

Všetko, čo musíme urobiť, je zvoliť e2 tak, že e3 < e1, a potom bude posledný člen ľubovoľne malý, pokiaľ je n dostatočne veľké. V dôsledku toho možno priemernú chybu PE získať tak malú, ako je požadované, s kapacitou kanála ľubovoľne blízkou C.
Ak má priemer všetkých kódov dostatočne malú chybu, potom musí byť vyhovujúci aspoň jeden kód, teda existuje aspoň jeden vhodný kódovací systém. Toto je dôležitý výsledok získaný Shannonom - "Shannonova veta pre šumový kanál", aj keď je potrebné poznamenať, že to dokázal pre oveľa všeobecnejší prípad ako pre jednoduchý binárny symetrický kanál, ktorý som použil. Vo všeobecnom prípade sú matematické výpočty oveľa komplikovanejšie, ale myšlienky nie sú také odlišné, takže veľmi často na príklade konkrétneho prípadu môžete odhaliť skutočný význam vety.

Poďme kritizovať výsledok. Opakovane sme opakovali: "Pre dostatočne veľké n." Ale aké veľké je n? Veľmi, veľmi veľké, ak naozaj chcete byť blízko kapacite kanála a mať istotu v správnom prenose dát! V skutočnosti také veľké, že budete musieť veľmi dlho čakať, kým sa nazhromaždí správa s dostatočným počtom bitov, aby ste ju mohli neskôr zakódovať. V tomto prípade bude veľkosť slovníka náhodného kódu jednoducho obrovská (nakoniec, takýto slovník nemôže byť reprezentovaný v kratšej forme ako úplný zoznam všetkých bitov Mn, napriek tomu, že n a M sú veľmi veľké)!

Kódy na opravu chýb sa vyhýbajú čakaniu na veľmi dlhú správu a jej následnému kódovaniu a dekódovaniu cez veľmi veľké číselníky, pretože sa vyhýbajú samotným číselníkom a namiesto toho používajú bežné výpočty. Jednoducho povedané, takéto kódy majú tendenciu strácať schopnosť priblížiť sa kapacite kanála a stále si udržiavať nízku chybovosť, ale keď kód opraví veľké množstvo chýb, fungujú dobre. Inými slovami, ak pridelíte určitú kapacitu kanála na opravu chýb, potom musíte väčšinu času používať schopnosť opravy chýb, t. j. v každej odoslanej správe sa musí opraviť veľké množstvo chýb, inak túto kapacitu premrháte.

Zároveň vyššie dokázaná veta stále nie je nezmyselná! Ukazuje, že efektívne prenosové systémy musia používať inteligentné schémy kódovania pre veľmi dlhé bitové reťazce. Príkladom sú satelity, ktoré preleteli za vonkajšie planéty; Ako sa vzďaľujú od Zeme a Slnka, sú nútené opravovať stále viac chýb v dátovom bloku: niektoré satelity využívajú solárne panely, ktoré poskytujú približne 5 W, iné využívajú jadrové zdroje, ktoré poskytujú približne rovnaký výkon. Nízky výkon napájacieho zdroja, malá veľkosť tanierov vysielača a obmedzená veľkosť tanierov prijímača na Zemi, obrovská vzdialenosť, ktorú musí signál prekonať - to všetko si vyžaduje použitie kódov s vysokou úrovňou korekcie chýb na zostavenie efektívny komunikačný systém.

Vráťme sa k n-rozmernému priestoru, ktorý sme použili vo vyššie uvedenom dôkaze. Pri diskusii sme ukázali, že takmer celý objem gule je sústredený v blízkosti vonkajšieho povrchu - je teda takmer isté, že vyslaný signál sa bude nachádzať blízko povrchu gule postavenej okolo prijímaného signálu, a to aj pri relatívne malý polomer takejto gule. Preto nie je prekvapujúce, že prijatý signál sa po oprave ľubovoľne veľkého počtu chýb nQ ukáže byť ľubovoľne blízko signálu bez chýb. Kapacita prepojenia, o ktorej sme hovorili vyššie, je kľúčom k pochopeniu tohto javu. Všimnite si, že podobné gule vytvorené na opravu Hammingových kódov sa navzájom neprekrývajú. Veľký počet takmer ortogonálnych rozmerov v n-rozmernom priestore ukazuje, prečo môžeme umiestniť M gúľ do priestoru s malým prekrytím. Ak pripustíme malé, ľubovoľne malé prekrytie, ktoré môže viesť len k malému počtu chýb pri dekódovaní, môžeme získať husté umiestnenie gúľ v priestore. Hamming zaručoval určitú úroveň korekcie chýb, Shannon - nízku pravdepodobnosť chyby, no zároveň zachovanie skutočnej priepustnosti ľubovoľne blízkej kapacite komunikačného kanála, čo Hammingove kódy nedokážu.

Informačná teória nám nehovorí, ako navrhnúť efektívny systém, ale ukazuje cestu k efektívnym komunikačným systémom. Je to cenný nástroj na budovanie komunikačných systémov medzi strojmi, ale ako už bolo spomenuté, má malý význam pre to, ako ľudia medzi sebou komunikujú. Do akej miery je biologická dedičnosť podobná technickým komunikačným systémom je jednoducho neznáma, takže v súčasnosti nie je jasné, ako sa informačná teória vzťahuje na gény. Nezostáva nám nič iné, len sa o to pokúsiť, a ak nám úspech ukáže strojovú povahu tohto javu, potom neúspech poukáže na ďalšie významné aspekty povahy informácie.

Neodbiehajme príliš. Videli sme, že všetky pôvodné definície vo väčšej či menšej miere musia vyjadrovať podstatu našich pôvodných presvedčení, ale vyznačujú sa určitým stupňom skreslenia, a preto nie sú použiteľné. Tradične sa uznáva, že v konečnom dôsledku definícia, ktorú používame, v skutočnosti definuje podstatu; ale to nám len hovorí, ako veci spracovať a v žiadnom prípade nám to nedáva zmysel. Postulačný prístup, tak silne obľúbený v matematických kruhoch, ponecháva v praxi veľa požiadaviek.

Teraz sa pozrieme na príklad IQ testov, kde je definícia taká kruhová, ako chcete, a v dôsledku toho zavádzajúca. Vzniká test, ktorý má zmerať inteligenciu. Potom sa reviduje, aby bol čo najkonzistentnejší, a potom sa publikuje a jednoduchou metódou sa kalibruje tak, aby sa nameraná „inteligencia“ ukázala ako normálne rozložená (samozrejme na kalibračnej krivke). Všetky definície sa musia prekontrolovať, a to nielen pri ich prvom navrhovaní, ale aj oveľa neskôr, keď sa použijú pri vyvodzovaní záverov. Do akej miery sú definičné hranice vhodné pre riešený problém? Ako často sa definície uvedené v jednom nastavení použijú v úplne odlišných nastaveniach? Toto sa stáva dosť často! V humanitných odboroch, s ktorými sa vo svojom živote nevyhnutne stretnete, sa to stáva častejšie.

Jedným z účelov tejto prezentácie teórie informácie teda okrem demonštrácie jej užitočnosti bolo aj varovať vás pred týmto nebezpečenstvom, prípadne vám presne ukázať, ako ju použiť na dosiahnutie požadovaného výsledku. Už dlho sa uvádza, že počiatočné definície určujú to, čo nakoniec nájdete, v oveľa väčšej miere, ako sa zdá. Počiatočné definície si od vás vyžadujú veľa pozornosti nielen v každej novej situácii, ale aj v oblastiach, s ktorými už dlho pracujete. To vám umožní pochopiť, do akej miery sú získané výsledky tautológiou a nie niečím užitočným.

Slávny príbeh Eddingtona rozpráva o ľuďoch, ktorí lovili v mori sieťou. Po preštudovaní veľkosti rýb, ktoré ulovili, určili minimálnu veľkosť rýb, ktoré sa nachádzajú v mori! Ich záver bol riadený použitým nástrojom, nie realitou.

Ak sa chcete pokračovať ...

Kto chce pomôcť s prekladom, úpravou a vydaním knihy - napíšte osobnú správu alebo email [chránené e-mailom]

Mimochodom, spustili sme aj preklad ďalšej skvelej knihy - „Stroj snov: Príbeh počítačovej revolúcie“)

Hľadáme najmä tí, ktorí pomôžu s prekladom bonusová kapitola, ktorá je len na videu, (prestup na 10 minút, prvých 20 je už zabratých)

Obsah knihy a preložené kapitolyPredslov

  1. Úvod do The Art of Doing Science and Engineering: Learning to Learn (28. marca 1995) Preklad: Kapitola 1
  2. "Základy digitálnej (diskrétnej) revolúcie" (30. marca 1995) Kapitola 2. Základy digitálnej (diskrétnej) revolúcie
  3. "História počítačov - hardvér" (31. marca 1995) Kapitola 3. História počítačov – hardvér
  4. "História počítačov - softvér" (4. apríla 1995) Kapitola 4. História počítačov - Softvér
  5. "História počítačov - aplikácie" (6. apríla 1995) Kapitola 5: História počítačov – praktické aplikácie
  6. "Umelá inteligencia - časť I" (7. apríla 1995) Kapitola 6. Umelá inteligencia - 1
  7. "Umelá inteligencia - časť II" (11. apríla 1995) Kapitola 7. Umelá inteligencia - II
  8. "Umelá inteligencia III" (13. apríla 1995) Kapitola 8. Umelá inteligencia-III
  9. "n-dimenzionálny priestor" (14. apríla 1995) Kapitola 9. N-rozmerný priestor
  10. "Teória kódovania - reprezentácia informácií, časť I" (18. apríla 1995) Kapitola 10. Teória kódovania – I
  11. "Teória kódovania - reprezentácia informácie, časť II" (20. apríla 1995) Kapitola 11. Teória kódovania - II
  12. "Kódy na opravu chýb" (21. apríla 1995) Kapitola 12. Kódy na opravu chýb
  13. "Teória informácií" (25. apríla 1995) Kapitola 13. Teória informácie
  14. "Digitálne filtre, časť I" (27. apríla 1995) Kapitola 14. Digitálne filtre - 1
  15. "Digitálne filtre, časť II" (28. apríla 1995) Kapitola 15. Digitálne filtre - 2
  16. "Digitálne filtre, časť III" (2. mája 1995) Kapitola 16. Digitálne filtre - 3
  17. "Digitálne filtre, časť IV" (4. mája 1995) Kapitola 17. Digitálne filtre - IV
  18. "Simulácia, časť I" (5. mája 1995) Kapitola 18. Modelovanie - I
  19. "Simulácia, časť II" (9. mája 1995) Kapitola 19. Modelovanie - II
  20. "Simulácia, časť III" (11. máj 1995) Kapitola 20. Modelovanie - III
  21. "Vláknová optika" (12. máj 1995) Kapitola 21. Vláknová optika
  22. "Počítačom podporovaná výučba" (16. máj 1995) Kapitola 22: Počítačom podporované inštrukcie (CAI)
  23. "Matematika" (18. mája 1995) Kapitola 23. Matematika
  24. "Kvantová mechanika" (19. máj 1995) Kapitola 24. Kvantová mechanika
  25. "Kreativita" (23. mája 1995). preklad: Kapitola 25. Kreativita
  26. "Odborníci" (25. máj 1995) Kapitola 26. Odborníci
  27. "Nespoľahlivé údaje" (26. máj 1995) Kapitola 27. Nespoľahlivé údaje
  28. "Systémové inžinierstvo" (30. máj 1995) Kapitola 28. Systémové inžinierstvo
  29. "Dostanete, čo meriate" (1. júna 1995) Kapitola 29: Dostanete to, čo meriate
  30. „Ako vieme, čo vieme“ (Jún 2, 1995) preložiť po 10 minútach
  31. Hamming, „Vy a váš výskum“ (6. júna 1995). Preklad: Vy a vaša práca

Kto chce pomôcť s prekladom, úpravou a vydaním knihy - napíšte osobnú správu alebo email [chránené e-mailom]

Zdroj: hab.com

Pridať komentár