Richard Hamming: Poglavlje 13. Teorija informacija

Uspjeli smo!

“Svrha ovog kursa je da vas pripremi za vašu tehničku budućnost.”

Richard Hamming: Poglavlje 13. Teorija informacijaZdravo, Habr. Zapamtite sjajan članak "Ti i tvoj rad" (+219, 2588 obeleživača, 429 hiljada čitanja)?

Dakle, Haming (da, da, samokontrola i samoispravljanje Hamingovi kodovi) postoji cjelina knjiga, napisan na osnovu njegovih predavanja. Mi to prevodimo, jer čovjek govori šta misli.

Ovo je knjiga ne samo o IT-u, to je knjiga o stilu razmišljanja nevjerovatno cool ljudi. “To nije samo poticaj pozitivnom razmišljanju; opisuje uslove koji povećavaju šanse za obavljanje sjajnog posla.”

Hvala Andreju Pakhomovu na prevodu.

Teoriju informacija razvio je C. E. Shannon kasnih 1940-ih. Menadžment Bell Labsa insistirao je da on to nazove "Teorija komunikacije" jer... ovo je mnogo tačnije ime. Iz očiglednih razloga, naziv "Teorija informacija" ima mnogo veći uticaj na javnost, zbog čega ga je Šenon odabrala, a ime je poznato i danas. Samo ime sugerira da se teorija bavi informacijama, što je čini važnom kako ulazimo dublje u informatičko doba. U ovom poglavlju ću se dotaknuti nekoliko glavnih zaključaka iz ove teorije, pružiću ne stroge, već prilično intuitivne dokaze o nekim pojedinačnim odredbama ove teorije, kako biste razumjeli šta je zapravo „Teorija informacija“, gdje je možete primijeniti a gde ne.

Prije svega, šta je „informacija“? Shannon izjednačava informaciju s nesigurnošću. Odabrao je negativni logaritam vjerovatnoće događaja kao kvantitativnu mjeru informacija koje dobijete kada se dogodi događaj s vjerovatnoćom p. Na primjer, ako vam kažem da je vrijeme u Los Angelesu maglovito, onda je p blizu 1, što nam zaista ne daje mnogo informacija. Ali ako kažem da u junu u Montereyu pada kiša, u poruci će biti nesigurnosti i ona će sadržavati više informacija. Pouzdan događaj ne sadrži nikakve informacije, jer je log 1 = 0.

Pogledajmo ovo detaljnije. Shannon je vjerovao da kvantitativna mjera informacije treba biti kontinuirana funkcija vjerovatnoće događaja p, a za nezavisne događaje treba biti aditivna - količina informacija dobijena kao rezultat pojave dva nezavisna događaja treba biti jednaka količina informacija dobijenih kao rezultat nastanka zajedničkog događaja. Na primjer, ishod bacanja kocke i novčića se obično tretiraju kao nezavisni događaji. Prevedimo gore navedeno na jezik matematike. Ako je I (p) količina informacija sadržana u događaju sa vjerovatnoćom p, tada za zajednički događaj koji se sastoji od dva nezavisna događaja x sa vjerovatnoćom p1 i y sa vjerovatnoćom p2 dobijamo

Richard Hamming: Poglavlje 13. Teorija informacija
(x i y su nezavisni događaji)

Ovo je funkcionalna Cauchyeva jednadžba, istinita za sve p1 i p2. Da biste riješili ovu funkcionalnu jednačinu, pretpostavite da

p1 = p2 = p,

ovo daje

Richard Hamming: Poglavlje 13. Teorija informacija

Ako je p1 = p2 i p2 = p onda

Richard Hamming: Poglavlje 13. Teorija informacija

itd. Proširujući ovaj proces koristeći standardnu ​​metodu za eksponencijale, za sve racionalne brojeve m/n vrijedi sljedeće

Richard Hamming: Poglavlje 13. Teorija informacija

Iz pretpostavljenog kontinuiteta informacijske mjere slijedi da je logaritamska funkcija jedino kontinuirano rješenje funkcionalne Cauchyjeve jednadžbe.

U teoriji informacija, uobičajeno je da se baza logaritma uzima kao 2, tako da binarni izbor sadrži tačno 1 bit informacije. Stoga se informacija mjeri formulom

Richard Hamming: Poglavlje 13. Teorija informacija

Hajde da zastanemo i shvatimo šta se gore dogodilo. Prije svega, nismo definirali pojam „informacije“, već smo jednostavno definirali formulu za njenu kvantitativnu mjeru.

Drugo, ova mjera je podložna nesigurnosti, i iako je razumno pogodna za mašine – na primjer, telefonske sisteme, radio, televiziju, kompjutere, itd. – ne odražava normalne ljudske stavove prema informacijama.

Treće, ovo je relativna mjera, zavisi od trenutnog stanja vašeg znanja. Ako pogledate tok “slučajnih brojeva” iz generatora slučajnih brojeva, pretpostavljate da je svaki sljedeći broj neizvjestan, ali ako znate formulu za izračunavanje “slučajnih brojeva”, sljedeći broj će biti poznat, pa stoga neće sadrže informacije.

Dakle, Šenonova definicija informacija je prikladna za mašine u mnogim slučajevima, ali izgleda da ne odgovara ljudskom razumevanju te reči. Iz tog razloga je “Teorija informacija” trebala biti nazvana “Teorija komunikacije”. Međutim, prekasno je da se menjaju definicije (koje su teoriji dale početnu popularnost, a koje još uvek teraju ljude da misle da se ova teorija bavi „informacijama“), pa moramo da živimo s njima, ali u isto vreme morate jasno razumjeti koliko je Shanonova definicija informacije daleko od njenog uobičajenog značenja. Šenonine informacije se bave nečim sasvim drugim, naime neizvjesnošću.

Evo o čemu treba razmišljati kada predlažete bilo kakvu terminologiju. Kako se predložena definicija, kao što je Shanonova definicija informacije, slaže s vašom originalnom idejom i koliko je različita? Gotovo da ne postoji termin koji tačno odražava vašu prethodnu viziju koncepta, ali na kraju krajeva, terminologija koja se koristi odražava značenje koncepta, tako da formaliziranje nečega kroz jasne definicije uvijek unosi neku buku.

Razmotrimo sistem čija se abeceda sastoji od simbola q sa vjerovatnoćama pi. U ovom slučaju prosječna količina informacija u sistemu (njegova očekivana vrijednost) jednaka je:

Richard Hamming: Poglavlje 13. Teorija informacija

Ovo se zove entropija sistema sa distribucijom vjerovatnoće {pi}. Koristimo izraz "entropija" jer se isti matematički oblik pojavljuje u termodinamici i statističkoj mehanici. Zbog toga pojam “entropija” stvara određenu auru važnosti oko sebe, što u konačnici nije opravdano. Isti matematički oblik notacije ne podrazumijeva istu interpretaciju simbola!

Entropija distribucije vjerovatnoće igra glavnu ulogu u teoriji kodiranja. Gibbsova nejednakost za dvije različite distribucije vjerovatnoće pi i qi jedna je od važnih posljedica ove teorije. Tako da to moramo dokazati

Richard Hamming: Poglavlje 13. Teorija informacija

Dokaz se zasniva na očiglednom grafu, Sl. 13.I, što to pokazuje

Richard Hamming: Poglavlje 13. Teorija informacija

a jednakost se postiže samo kada je x = 1. Primijenimo nejednakost na svaki član sume s lijeve strane:

Richard Hamming: Poglavlje 13. Teorija informacija

Ako se abeceda komunikacijskog sistema sastoji od q simbola, onda uzimajući vjerovatnoću prijenosa svakog simbola qi = 1/q i zamjenom q, dobivamo iz Gibbsove nejednakosti

Richard Hamming: Poglavlje 13. Teorija informacija

Richard Hamming: Poglavlje 13. Teorija informacija

Slika 13.I

To znači da ako je vjerovatnoća prijenosa svih q simbola ista i jednaka - 1 / q, tada je maksimalna entropija jednaka ln q, inače vrijedi nejednakost.

U slučaju jedinstveno dekodiranog koda, imamo Kraftovu nejednakost

Richard Hamming: Poglavlje 13. Teorija informacija

Sada ako definiramo pseudo vjerovatnoće

Richard Hamming: Poglavlje 13. Teorija informacija

gde naravno Richard Hamming: Poglavlje 13. Teorija informacija= 1, što slijedi iz Gibbsove nejednakosti,

Richard Hamming: Poglavlje 13. Teorija informacija

i primijenimo malo algebre (zapamtite da je K ≤ 1, tako da možemo odbaciti logaritamski član, i možda kasnije pojačati nejednakost), dobićemo

Richard Hamming: Poglavlje 13. Teorija informacija

gdje je L prosječna dužina koda.

Dakle, entropija je minimalna granica za bilo koji kod znak po simbol sa prosečnom dužinom kodne reči L. Ovo je Šenonov teorem za kanal bez smetnji.

Sada razmotrite glavnu teoremu o ograničenjima komunikacionih sistema u kojima se informacije prenose kao tok nezavisnih bitova i prisutan je šum. Podrazumijeva se da je vjerovatnoća ispravnog prijenosa jednog bita P > 1/2, a vjerovatnoća da će vrijednost bita biti invertirana tokom prijenosa (doći će do greške) jednaka Q = 1 - P. Radi praktičnosti, Pretpostavimo da su greške nezavisne i da je vjerovatnoća greške ista za svaki poslani bit – odnosno da postoji “bijeli šum” u komunikacijskom kanalu.

Način na koji imamo dug tok od n bitova kodiranih u jednu poruku je n-dimenzionalna ekstenzija jednobitnog koda. Kasnije ćemo odrediti vrijednost n. Razmotrite poruku koja se sastoji od n-bitova kao tačku u n-dimenzionalnom prostoru. Pošto imamo n-dimenzionalni prostor - a radi jednostavnosti pretpostavit ćemo da svaka poruka ima istu vjerovatnoću pojavljivanja - postoji M mogućih poruka (M će također biti definirano kasnije), stoga je vjerovatnoća bilo koje poslane poruke

Richard Hamming: Poglavlje 13. Teorija informacija

Richard Hamming: Poglavlje 13. Teorija informacija
(pošiljalac)
Prilog 13.II

Zatim razmotrite ideju o kapacitetu kanala. Ne ulazeći u detalje, kapacitet kanala se definiše kao maksimalna količina informacija koja se može pouzdano prenijeti komunikacijskim kanalom, uzimajući u obzir korištenje najefikasnijeg kodiranja. Nema argumenta da se komunikacijskim kanalom može prenijeti više informacija nego što je njegov kapacitet. Ovo se može dokazati za binarni simetrični kanal (koji koristimo u našem slučaju). Kapacitet kanala, prilikom slanja bitova, je specificiran kao

Richard Hamming: Poglavlje 13. Teorija informacija

gdje je, kao i ranije, P vjerovatnoća da nema greške ni u jednom poslanom bitu. Kada se šalje n nezavisnih bitova, kapacitet kanala je dat sa

Richard Hamming: Poglavlje 13. Teorija informacija

Ako smo blizu kapaciteta kanala, onda moramo poslati skoro ovoliku količinu informacija za svaki od simbola ai, i = 1, ..., M. S obzirom da je vjerovatnoća pojavljivanja svakog simbola ai 1/M, dobijamo

Richard Hamming: Poglavlje 13. Teorija informacija

kada pošaljemo bilo koju od M jednako vjerovatnih poruka ai, imamo

Richard Hamming: Poglavlje 13. Teorija informacija

Kada se pošalje n bitova, očekujemo da će se pojaviti nQ grešaka. U praksi, za poruku koja se sastoji od n-bitova, imaćemo približno nQ grešaka u primljenoj poruci. Za veliko n, relativna varijacija (varijacija = širina distribucije, )
distribucija broja grešaka će postati sve uža kako n raste.

Dakle, sa strane predajnika, uzimam poruku ai da pošaljem i nacrtam sferu oko nje sa radijusom

Richard Hamming: Poglavlje 13. Teorija informacija

koji je nešto veći za iznos jednak e2 od očekivanog broja grešaka Q, (slika 13.II). Ako je n dovoljno veliko, onda postoji proizvoljno mala vjerovatnoća da se tačka poruke bj pojavi na strani prijemnika koja se proteže izvan ove sfere. Hajde da skiciramo situaciju kako je ja vidim sa stanovišta predajnika: imamo bilo koji radijus od poslane poruke ai do primljene poruke bj sa vjerovatnoćom greške jednakom (ili skoro jednakom) normalnoj distribuciji, dostižući maksimum od nQ. Za bilo koje dato e2, postoji n toliko veliko da je vjerovatnoća da će rezultirajuća tačka bj biti izvan moje sfere onoliko mala koliko želite.

Pogledajmo sada istu situaciju sa vaše strane (slika 13.III). Na strani prijemnika nalazi se sfera S(r) istog radijusa r oko primljene tačke bj u n-dimenzionalnom prostoru, tako da ako je primljena poruka bj unutar moje sfere, onda je poruka ai poslana od mene unutar vaše sfera.

Kako može doći do greške? Do greške može doći u slučajevima opisanim u donjoj tabeli:

Richard Hamming: Poglavlje 13. Teorija informacija

Slika 13.III

Richard Hamming: Poglavlje 13. Teorija informacija

Ovdje vidimo da ako u sferi izgrađenoj oko primljene tačke postoji još barem jedna tačka koja odgovara mogućoj poslanoj nekodiranoj poruci, onda je došlo do greške prilikom prijenosa, jer ne možete odrediti koja je od ovih poruka poslana. Poslana poruka je bez greške samo ako se tačka koja joj odgovara nalazi u sferi, a u datom kodu ne postoje druge moguće tačke koje se nalaze u istoj sferi.

Imamo matematičku jednačinu za vjerovatnoću greške Pe ako je poslana poruka ai

Richard Hamming: Poglavlje 13. Teorija informacija

Možemo izbaciti prvi faktor u drugom članu, uzimajući ga kao 1. Tako dobijamo nejednakost

Richard Hamming: Poglavlje 13. Teorija informacija

Očigledno je

Richard Hamming: Poglavlje 13. Teorija informacija

Shodno tome

Richard Hamming: Poglavlje 13. Teorija informacija

ponovo se prijaviti na zadnji termin s desne strane

Richard Hamming: Poglavlje 13. Teorija informacija

Uzimajući n dovoljno veliko, prvi član se može uzeti koliko god želite, recimo manji od nekog broja d. Stoga imamo

Richard Hamming: Poglavlje 13. Teorija informacija

Pogledajmo sada kako možemo konstruirati jednostavan zamjenski kod za kodiranje M poruka koje se sastoje od n bitova. Nemajući pojma kako tačno konstruisati kod (kodovi za ispravljanje grešaka još nisu bili izmišljeni), Shannon je odabrala nasumično kodiranje. Bacite novčić za svaki od n bitova u poruci i ponovite postupak za M poruka. Ukupno treba napraviti nM bacanja novčića, tako da je moguće

Richard Hamming: Poglavlje 13. Teorija informacija

kodni rječnici koji imaju istu vjerovatnoću ½nM. Naravno, slučajni proces kreiranja šifrarnika znači da postoji mogućnost duplikata, kao i kodnih tačaka koje će biti blizu jedna drugoj i samim tim biti izvor vjerovatnih grešaka. Mora se dokazati da ako se to ne dogodi s vjerovatnoćom većom od bilo kojeg malog izabranog nivoa greške, onda je dato n dovoljno veliko.
Ključna stvar je da je Shannon uprosječila sve moguće knjige kodova kako bi pronašla prosječnu grešku! Koristićemo simbol Av[.] da označimo prosečnu vrednost u skupu svih mogućih slučajnih šifrarnika. Usrednjavanje preko konstante d, naravno, daje konstantu, jer je za usrednjavanje svaki član isti kao i svaki drugi član u zbiru,

Richard Hamming: Poglavlje 13. Teorija informacija

koji se može povećati (M–1 ide u M)

Richard Hamming: Poglavlje 13. Teorija informacija

Za bilo koju datu poruku, kada se usrednjava u svim šifrarnicima, kodiranje prolazi kroz sve moguće vrednosti, tako da je prosečna verovatnoća da se tačka nalazi u sferi odnos zapremine sfere i ukupnog volumena prostora. Zapremina sfere je

Richard Hamming: Poglavlje 13. Teorija informacija

gdje je s=Q+e2 <1/2 i ns mora biti cijeli broj.

Poslednji pojam desno je najveći u ovoj sumi. Prvo, procijenimo njegovu vrijednost koristeći Stirlingovu formulu za faktorijele. Zatim ćemo pogledati opadajući koeficijent člana ispred njega, primijetiti da se ovaj koeficijent povećava kako se krećemo ulijevo, i tako možemo: (1) ograničiti vrijednost sume na zbir geometrijske progresije sa ovaj početni koeficijent, (2) proširiti geometrijsku progresiju od ns članova na beskonačan broj članova, (3) izračunati zbir beskonačne geometrijske progresije (standardna algebra, ništa značajno) i konačno dobiti graničnu vrijednost (za dovoljno veliku n):

Richard Hamming: Poglavlje 13. Teorija informacija

Zapazite kako se entropija H(s) pojavila u binomnom identitetu. Imajte na umu da proširenje Taylorovog niza H(s)=H(Q+e2) daje procjenu dobivenu uzimajući u obzir samo prvi izvod i zanemarujući sve ostale. Sada da sastavimo konačni izraz:

Richard Hamming: Poglavlje 13. Teorija informacija

gdje

Richard Hamming: Poglavlje 13. Teorija informacija

Sve što treba da uradimo je da izaberemo e2 tako da je e3 < e1, i tada će poslednji član biti proizvoljno mali, sve dok je n dovoljno veliko. Posljedično, prosječna PE greška može se dobiti onoliko mala koliko se želi sa kapacitetom kanala proizvoljno blizu C.
Ako prosjek svih kodova ima dovoljno malu grešku, onda barem jedan kod mora biti prikladan, dakle postoji barem jedan odgovarajući sistem kodiranja. Ovo je važan rezultat koji je dobio Shannon - "Shannonov teorem za bučni kanal", iako treba napomenuti da je to dokazao za mnogo opštiji slučaj nego za jednostavan binarni simetrični kanal koji sam koristio. Za opći slučaj, matematički proračuni su mnogo složeniji, ali ideje nisu toliko različite, pa vrlo često, koristeći primjer određenog slučaja, možete otkriti pravo značenje teoreme.

Hajde da kritikujemo rezultat. Više puta smo ponavljali: "Za dovoljno veliko n." Ali koliko je n? Vrlo, vrlo veliko ako zaista želite biti blizu kapaciteta kanala i biti sigurni u ispravan prijenos podataka! Toliko velika, u stvari, da ćete morati čekati jako dugo da akumulirate poruku od dovoljno bitova da je kasnije kodirate. U ovom slučaju, veličina rječnika slučajnog koda bit će jednostavno ogromna (na kraju krajeva, takav rječnik se ne može predstaviti u kraćem obliku od kompletne liste svih Mn bitova, unatoč činjenici da su n i M vrlo veliki)!

Kodovi koji ispravljaju greške izbjegavaju čekanje na vrlo dugu poruku, a zatim je kodiranje i dekodiranje kroz vrlo velike šifrarnike jer izbjegavaju same šifrarnike i umjesto toga koriste obično računanje. U jednostavnoj teoriji, takvi kodovi imaju tendenciju da izgube sposobnost približavanja kapacitetu kanala i i dalje održavaju nisku stopu grešaka, ali kada kod ispravi veliki broj grešaka, oni rade dobro. Drugim riječima, ako dodijelite neki kapacitet kanala za ispravljanje grešaka, tada morate većinu vremena koristiti mogućnost ispravljanja grešaka, tj. veliki broj grešaka mora biti ispravljen u svakoj poslanoj poruci, inače gubite ovaj kapacitet.

U isto vrijeme, gore dokazana teorema još uvijek nije besmislena! To pokazuje da efikasni sistemi prenosa moraju koristiti pametne šeme kodiranja za veoma dugačke nizove bitova. Primjer su sateliti koji su odletjeli izvan vanjskih planeta; Kako se udaljavaju od Zemlje i Sunca, primorani su da ispravljaju sve više grešaka u bloku podataka: neki sateliti koriste solarne panele, koji daju oko 5 W, drugi koriste nuklearne izvore energije, koji daju otprilike istu snagu. Mala snaga napajanja, mala veličina antena odašiljača i ograničena veličina prijemnih antena na Zemlji, ogromna udaljenost koju signal mora preći - sve to zahtijeva korištenje kodova s ​​visokim nivoom korekcije grešaka za izgradnju efikasan sistem komunikacije.

Vratimo se na n-dimenzionalni prostor koji smo koristili u dokazu iznad. U raspravi smo pokazali da je gotovo čitav volumen sfere koncentrisan u blizini vanjske površine – stoga je gotovo sigurno da će se poslani signal nalaziti blizu površine sfere izgrađene oko primljenog signala, čak i uz relativno mali radijus takve sfere. Stoga nije iznenađujuće da se primljeni signal, nakon ispravljanja proizvoljno velikog broja grešaka, nQ, pokaže proizvoljno blizak signalu bez grešaka. Kapacitet veze o kojem smo ranije govorili je ključ za razumijevanje ovog fenomena. Imajte na umu da se slične sfere konstruirane za Hamingove kodove za ispravljanje grešaka ne preklapaju jedna s drugom. Veliki broj skoro ortogonalnih dimenzija u n-dimenzionalnom prostoru pokazuje zašto možemo smestiti M sfere u prostor sa malim preklapanjem. Ako dozvolimo malo, proizvoljno malo preklapanje, koje može dovesti do samo malog broja grešaka tokom dekodiranja, možemo dobiti gusto postavljanje sfera u prostoru. Hamming je garantovao određeni nivo ispravljanja grešaka, Šenon - nisku verovatnoću greške, ali u isto vreme održavajući stvarnu propusnost proizvoljno blizu kapaciteta komunikacionog kanala, što Hamingovi kodovi ne mogu.

Teorija informacija nam ne govori kako da dizajniramo efikasan sistem, ali ukazuje na put ka efikasnim komunikacionim sistemima. To je vrijedan alat za izgradnju komunikacionih sistema mašina-mašina, ali, kao što je ranije rečeno, ima malo značaja za to kako ljudi međusobno komuniciraju. U kojoj mjeri je biološko nasljeđe poput tehničkih komunikacijskih sistema jednostavno je nepoznato, tako da trenutno nije jasno kako se teorija informacija primjenjuje na gene. Nemamo drugog izbora nego pokušati, a ako nam uspjeh pokaže mašinsku prirodu ovog fenomena, onda će neuspjeh ukazati na druge značajne aspekte prirode informacija.

Hajde da ne skrenemo previše. Vidjeli smo da sve originalne definicije, u većoj ili manjoj mjeri, moraju izražavati suštinu naših izvornih vjerovanja, ali ih karakterizira određeni stepen izobličenja i stoga nisu primjenjive. Tradicionalno je prihvaćeno da, u konačnici, definicija koju koristimo zapravo definira suštinu; ali, ovo nam samo govori kako da procesuiramo stvari i ni na koji način nam ne prenosi nikakvo značenje. Postulacijski pristup, koji je toliko omiljen u matematičkim krugovima, ostavlja mnogo da se poželi u praksi.

Sada ćemo pogledati primjer IQ testova gdje je definicija kružna koliko god želite i, kao rezultat, obmanjujuća. Kreiran je test koji bi trebao mjeriti inteligenciju. Zatim se revidira kako bi bio što je moguće konzistentniji, a zatim se objavljuje i, jednostavnom metodom, kalibrira tako da se izmjerena “inteligencija” ispostavi kao normalno raspoređena (na kalibracionoj krivulji, naravno). Sve definicije moraju se ponovo provjeriti, ne samo kada su prvi put predložene, već i mnogo kasnije, kada se koriste u zaključcima. U kojoj su mjeri definicione granice prikladne za problem koji se rješava? Koliko često se definicije date u jednoj postavci primjenjuju u sasvim različitim okruženjima? Ovo se dešava prilično često! U humanističkim naukama, sa kojima ćete se neizbežno susresti u svom životu, to se dešava češće.

Dakle, jedna od svrha ovog izlaganja teorije informacija, pored demonstracije njene korisnosti, bila je i da vas upozori na ovu opasnost, odnosno da vam pokaže kako se tačno njome može postići željeni rezultat. Odavno je zapaženo da početne definicije određuju ono što ćete na kraju naći, u mnogo većoj mjeri nego što se čini. Početne definicije od vas zahtijevaju veliku pažnju, ne samo u svakoj novoj situaciji, već iu oblastima s kojima već dugo radite. Ovo će vam omogućiti da shvatite u kojoj mjeri su dobijeni rezultati tautologija, a ne nešto korisno.

Čuvena Eddingtonova priča govori o ljudima koji su lovili ribu u moru mrežom. Nakon proučavanja veličine ribe koju su ulovili, utvrdili su minimalnu veličinu ribe koja se nalazi u moru! Njihov zaključak bio je vođen instrumentom koji je korišten, a ne stvarnošću.

Da se nastavi ...

Ko želi pomoći oko prijevoda, izgleda i objavljivanja knjige - pišite u ličnu poruku ili mail [email zaštićen]

Inače, pokrenuli smo i prevod još jedne cool knjige - "Mašina snova: priča o kompjuterskoj revoluciji")

Posebno tražimo oni koji će pomoći u prevođenju bonus poglavlje, koje je samo na videu. (transfer 10 minuta, prvih 20 je već zauzeto)

Sadržaj knjige i prevedena poglavljaPredgovor

  1. Uvod u umjetnost bavljenja naukom i inženjeringom: Učiti kako učiti (28. mart 1995.) Prevod: Poglavlje 1
  2. "Osnove digitalne (diskretne) revolucije" (30. mart 1995.) Poglavlje 2. Osnove digitalne (diskretne) revolucije
  3. "Istorija kompjutera - hardver" (31. mart 1995.) Poglavlje 3. Istorija računara - Hardver
  4. "Istorija kompjutera - softver" (4. april 1995.) Poglavlje 4. Istorija računara - softver
  5. "Istorija računara - aplikacije" (6. april 1995.) Poglavlje 5: Istorija računara - praktične primene
  6. "Umjetna inteligencija - I dio" (7. april 1995.) Poglavlje 6. Vještačka inteligencija - 1
  7. "Umjetna inteligencija - II dio" (11. april 1995.) Poglavlje 7. Vještačka inteligencija - II
  8. "Umjetna inteligencija III" (13. april 1995.) Poglavlje 8. Vještačka inteligencija-III
  9. "n-dimenzionalni prostor" (14. april 1995.) Poglavlje 9. N-dimenzionalni prostor
  10. "Teorija kodiranja - Reprezentacija informacija, I dio" (18. april 1995.) Poglavlje 10. Teorija kodiranja - I
  11. "Teorija kodiranja - Reprezentacija informacija, dio II" (20. april 1995.) Poglavlje 11. Teorija kodiranja - II
  12. "Kodovi za ispravljanje grešaka" (21. april 1995.) Poglavlje 12. Kodovi za ispravljanje grešaka
  13. "Teorija informacija" (25. april 1995.) Poglavlje 13. Teorija informacija
  14. "Digitalni filteri, dio I" (27. april 1995.) Poglavlje 14. Digitalni filteri - 1
  15. "Digitalni filteri, dio II" (28. april 1995.) Poglavlje 15. Digitalni filteri - 2
  16. "Digitalni filteri, dio III" (2. maj 1995.) Poglavlje 16. Digitalni filteri - 3
  17. "Digitalni filteri, dio IV" (4. maj 1995.) Poglavlje 17. Digitalni filteri - IV
  18. "Simulacija, prvi dio" (5. maj 1995.) Poglavlje 18. Modeliranje - I
  19. "Simulacija, II dio" (9. maj 1995.) Poglavlje 19. Modeliranje - II
  20. "Simulacija, dio III" (11. maj 1995.) Poglavlje 20. Modeliranje - III
  21. "Fiber Optics" (12. maj 1995.) Poglavlje 21. Optika
  22. "Computer Aided Instruction" (16. maj 1995.) Poglavlje 22: Instrukcije uz pomoć računara (CAI)
  23. "Matematika" (18. maj 1995.) Poglavlje 23. Matematika
  24. "Kvantna mehanika" (19. maj 1995.) Poglavlje 24. Kvantna mehanika
  25. "Kreativnost" (23. maj 1995.). prijevod: Poglavlje 25. Kreativnost
  26. "Stručnjaci" (25. maj 1995.) Poglavlje 26. Stručnjaci
  27. "Nepouzdani podaci" (26. maj 1995.) Poglavlje 27. Nepouzdani podaci
  28. "Systems Engineering" (30. maj 1995.) Poglavlje 28. Sistemsko inženjerstvo
  29. "Dobijaš ono što izmjeriš" (1. jun 1995.) Poglavlje 29: Dobijate ono što merite
  30. "Kako znamo šta znamo" (Jun 2, 1995) prevedite u komadima od 10 minuta
  31. Hamming, “Vi i vaše istraživanje” (6. jun 1995.). Prijevod: Vi i vaš rad

Ko želi pomoći oko prijevoda, izgleda i objavljivanja knjige - pišite u ličnu poruku ili mail [email zaštićen]

izvor: www.habr.com

Dodajte komentar