Richard Hamming: Poglavlje 13. Teorija informacija

Uspjeli smo!

"Svrha ovog tečaja je pripremiti vas za vašu tehničku budućnost."

Richard Hamming: Poglavlje 13. Teorija informacijaPozdrav, Habr. Sjetite se sjajnog članka "Ti i tvoj rad" (+219, 2588 knjižnih oznaka, 429 tisuća čitanja)?

Dakle, Hamming (da, da, samonadgledanje i samoispravljanje Hammingovi kodovi) postoji cjelina книга, napisano na temelju njegovih predavanja. Mi to prevodimo, jer čovjek govori ono što misli.

Ovo nije knjiga samo o IT-u, to je knjiga o stilu razmišljanja nevjerojatno cool ljudi. “To nije samo poticaj pozitivnog razmišljanja; opisuje uvjete koji povećavaju šanse za obavljanje sjajnog posla.”

Hvala Andreju Pakhomovu na prijevodu.

Teoriju informacija razvio je C. E. Shannon kasnih 1940-ih. Uprava Bell Labsa inzistirala je da to nazove "Teorija komunikacije" jer... ovo je mnogo točniji naziv. Iz očiglednih razloga, naziv "Teorija informacija" ima puno veći odjek u javnosti, pa ga je zato Shannon i odabrala, a to je ime koje znamo i dan danas. Sam naziv sugerira da se teorija bavi informacijama, što je čini važnom kako ulazimo dublje u informacijsko doba. U ovom poglavlju ću se dotaknuti nekoliko glavnih zaključaka iz ove teorije, pružit ću ne striktne, već intuitivne dokaze nekih pojedinačnih odredbi ove teorije, kako biste razumjeli što je zapravo "teorija informacija", gdje je možete primijeniti a gdje ne .

Prije svega, što je "informacija"? Shannon poistovjećuje informaciju s nesigurnošću. Izabrao je negativni logaritam vjerojatnosti događaja kao kvantitativnu mjeru informacija koje primate kada se dogodi događaj s vjerojatnošću p. Na primjer, ako vam kažem da je vrijeme u Los Angelesu maglovito, tada je p blizu 1, što nam zapravo ne daje puno informacija. Ali ako kažem da u Montereyu pada kiša u lipnju, u poruci će biti nesigurnosti i sadržavat će više informacija. Pouzdan događaj ne sadrži nikakve informacije, budući da je log 1 = 0.

Pogledajmo ovo detaljnije. Shannon je smatrao da bi kvantitativna mjera informacija trebala biti kontinuirana funkcija vjerojatnosti događaja p, a za neovisne događaje trebala bi biti aditivna – količina informacija dobivena kao rezultat pojavljivanja dva neovisna događaja trebala bi biti jednaka količina informacija dobivenih kao rezultat nastanka zajedničkog događaja. Na primjer, ishod bacanja kocke i bacanja novčića obično se tretiraju kao neovisni događaji. Prevedimo ovo gore na jezik matematike. Ako je I (p) količina informacija sadržana u događaju s vjerojatnošću p, tada za zajednički događaj koji se sastoji od dva neovisna događaja x s vjerojatnošću p1 i y s vjerojatnošću p2 dobivamo

Richard Hamming: Poglavlje 13. Teorija informacija
(x i y su nezavisni događaji)

Ovo je funkcionalna Cauchyjeva jednadžba, istinita za sve p1 i p2. Za rješavanje ove funkcionalne jednadžbe pretpostavimo da

p1 = p2 = p,

ovo daje

Richard Hamming: Poglavlje 13. Teorija informacija

Ako je p1 = p2 i p2 = p tada

Richard Hamming: Poglavlje 13. Teorija informacija

itd. Proširujući ovaj proces korištenjem standardne metode za eksponencijale, za sve racionalne brojeve m/n vrijedi sljedeće

Richard Hamming: Poglavlje 13. Teorija informacija

Iz pretpostavljenog kontinuiteta informacijske mjere proizlazi da je logaritamska funkcija jedino kontinuirano rješenje Cauchyjeve funkcionalne jednadžbe.

U teoriji informacija uobičajeno je uzeti da je baza logaritma 2, tako da binarni izbor sadrži točno 1 bit informacije. Stoga se informacija mjeri formulom

Richard Hamming: Poglavlje 13. Teorija informacija

Zastanimo i shvatimo što se gore dogodilo. Prije svega, nismo definirali pojam "informacije", jednostavno smo definirali formulu za njezinu kvantitativnu mjeru.

Drugo, ova je mjera podložna nesigurnosti, i iako je razumno prikladna za strojeve - na primjer, telefonske sustave, radio, televiziju, računala itd. - ne odražava normalne ljudske stavove prema informacijama.

Treće, ovo je relativna mjera, ovisi o trenutnom stanju vašeg znanja. Ako pogledate tok "slučajnih brojeva" iz generatora slučajnih brojeva, pretpostavljate da je svaki sljedeći broj nesiguran, ali ako znate formulu za izračunavanje "slučajnih brojeva", sljedeći broj će biti poznat i stoga neće sadrže informacije.

Dakle, Shannonova definicija informacija je u mnogim slučajevima prikladna za strojeve, ali ne izgleda kao da odgovara ljudskom razumijevanju te riječi. Iz tog razloga se "Teorija informacija" trebala zvati "Teorija komunikacije". Međutim, prekasno je mijenjati definicije (koje su teoriji dale početnu popularnost, a koje još uvijek tjeraju ljude da misle da se ova teorija bavi “informacijama”), tako da moramo živjeti s njima, ali u isto vrijeme morate jasno razumjeti koliko je Shannonova definicija informacije daleko od uobičajenog značenja. Shannonine informacije bave se nečim sasvim drugim, naime nesigurnošću.

Evo o čemu treba razmišljati kada predlažete bilo koju terminologiju. Kako se predložena definicija, kao što je Shannonova definicija informacije, slaže s vašom izvornom idejom i koliko se razlikuje? Gotovo da ne postoji pojam koji točno odražava vašu prethodnu viziju koncepta, ali u konačnici, korištena terminologija je ta koja odražava značenje koncepta, tako da formaliziranje nečega kroz jasne definicije uvijek unosi neku buku.

Promotrimo sustav čija se abeceda sastoji od simbola q s vjerojatnostima pi. U ovom slučaju prosječna količina informacija u sustavu (njegova očekivana vrijednost) jednaka je:

Richard Hamming: Poglavlje 13. Teorija informacija

To se naziva entropija sustava s distribucijom vjerojatnosti {pi}. Koristimo izraz "entropija" jer se isti matematički oblik pojavljuje u termodinamici i statističkoj mehanici. Zbog toga pojam “entropija” oko sebe stvara određenu auru važnosti, koja u konačnici nije opravdana. Isti matematički oblik zapisa ne podrazumijeva isto tumačenje simbola!

Entropija distribucije vjerojatnosti igra glavnu ulogu u teoriji kodiranja. Gibbsova nejednakost za dvije različite distribucije vjerojatnosti pi i qi jedna je od važnih posljedica ove teorije. Dakle, to moramo dokazati

Richard Hamming: Poglavlje 13. Teorija informacija

Dokaz se temelji na očitom grafu, sl. 13.I, što pokazuje da

Richard Hamming: Poglavlje 13. Teorija informacija

a jednakost se postiže samo kada je x = 1. Primijenimo nejednakost na svaki član zbroja s lijeve strane:

Richard Hamming: Poglavlje 13. Teorija informacija

Ako se abeceda komunikacijskog sustava sastoji od q simbola, tada uzimajući vjerojatnost prijenosa svakog simbola qi = 1/q i zamjenjujući q, dobivamo iz Gibbsove nejednakosti

Richard Hamming: Poglavlje 13. Teorija informacija

Richard Hamming: Poglavlje 13. Teorija informacija

Slika 13.I

To znači da ako je vjerojatnost prijenosa svih q simbola ista i jednaka - 1 / q, tada je maksimalna entropija jednaka ln q, inače nejednakost vrijedi.

U slučaju jedinstveno dekodibilnog koda, imamo Kraftovu nejednakost

Richard Hamming: Poglavlje 13. Teorija informacija

Sada ako definiramo pseudo-vjerojatnosti

Richard Hamming: Poglavlje 13. Teorija informacija

gdje naravno Richard Hamming: Poglavlje 13. Teorija informacija= 1, što slijedi iz Gibbsove nejednakosti,

Richard Hamming: Poglavlje 13. Teorija informacija

i primijenimo malo algebre (zapamtite da je K ≤ 1, tako da možemo izbaciti logaritamski član, i možda pojačati nejednakost kasnije), dobivamo

Richard Hamming: Poglavlje 13. Teorija informacija

gdje je L prosječna duljina koda.

Stoga je entropija minimalna granica za bilo koji kod znak po simbol s prosječnom duljinom kodne riječi L. Ovo je Shannonov teorem za kanal bez smetnji.

Sada razmotrite glavni teorem o ograničenjima komunikacijskih sustava u kojima se informacije prenose kao tok neovisnih bitova i gdje je prisutan šum. Podrazumijeva se da je vjerojatnost ispravnog prijenosa jednog bita P > 1/2, a vjerojatnost da će vrijednost bita biti invertirana tijekom prijenosa (dogodit će se pogreška) jednaka je Q = 1 - P. Radi praktičnosti, mi pretpostavimo da su pogreške neovisne i da je vjerojatnost pogreške ista za svaki poslani bit - to jest, postoji "bijeli šum" u komunikacijskom kanalu.

Način na koji imamo dugi niz od n bitova kodiranih u jednu poruku je n-dimenzionalno proširenje jednobitnog koda. Vrijednost n ćemo odrediti kasnije. Razmotrite poruku koja se sastoji od n-bitova kao točku u n-dimenzionalnom prostoru. Budući da imamo n-dimenzionalni prostor - a radi jednostavnosti pretpostavit ćemo da svaka poruka ima istu vjerojatnost pojavljivanja - postoji M mogućih poruka (M će također biti definirano kasnije), stoga je vjerojatnost bilo koje poslane poruke

Richard Hamming: Poglavlje 13. Teorija informacija

Richard Hamming: Poglavlje 13. Teorija informacija
(pošiljatelj)
Raspored 13.II

Zatim razmotrite ideju o kapacitetu kanala. Ne ulazeći u detalje, kapacitet kanala definiran je kao najveća količina informacija koja se može pouzdano prenijeti putem komunikacijskog kanala, uzimajući u obzir korištenje najučinkovitijeg kodiranja. Ne postoji argument da se komunikacijskim kanalom može prenijeti više informacija od njegovog kapaciteta. Ovo se može dokazati za binarni simetrični kanal (koji koristimo u našem slučaju). Kapacitet kanala, prilikom slanja bitova, naveden je kao

Richard Hamming: Poglavlje 13. Teorija informacija

gdje je, kao i prije, P vjerojatnost da nema pogreške u bilo kojem poslanom bitu. Prilikom slanja n neovisnih bitova, kapacitet kanala je dan sa

Richard Hamming: Poglavlje 13. Teorija informacija

Ako smo blizu kapaciteta kanala, tada moramo poslati gotovo ovu količinu informacija za svaki od simbola ai, i = 1, ..., M. Uzimajući u obzir da je vjerojatnost pojavljivanja svakog simbola ai 1 / M, dobivamo

Richard Hamming: Poglavlje 13. Teorija informacija

kada pošaljemo bilo koju od M jednako vjerojatnih poruka ai, imamo

Richard Hamming: Poglavlje 13. Teorija informacija

Kada se pošalje n bitova, očekujemo da će se pojaviti nQ grešaka. U praksi, za poruku koja se sastoji od n-bitova, imat ćemo približno nQ grešaka u primljenoj poruci. Za veliki n, relativna varijacija (varijacija = širina distribucije, )
distribucija broja pogrešaka će postajati sve uža kako n raste.

Dakle, sa strane odašiljača, uzimam poruku ai za slanje i crtam sferu oko nje s radijusom

Richard Hamming: Poglavlje 13. Teorija informacija

koji je nešto veći za iznos jednak e2 od očekivanog broja grešaka Q, (slika 13.II). Ako je n dovoljno velik, tada postoji proizvoljno mala vjerojatnost da se točka poruke bj pojavi na strani primatelja koja se proteže izvan ove sfere. Skicirajmo situaciju onako kako je ja vidim sa stajališta odašiljača: imamo bilo koji radijus od odaslane poruke ai do primljene poruke bj s vjerojatnošću pogreške jednakom (ili gotovo jednakom) normalnoj distribuciji, koja doseže maksimum od nQ. Za bilo koji dani e2, postoji n tako velik da je vjerojatnost da će rezultirajuća točka bj biti izvan moje sfere mala koliko želite.

Sada pogledajmo istu situaciju s vaše strane (slika 13.III). Na strani primatelja postoji sfera S(r) istog polumjera r oko primljene točke bj u n-dimenzionalnom prostoru, tako da ako je primljena poruka bj unutar moje sfere, tada je poruka ai koju sam poslao unutar vaše sfera.

Kako može doći do greške? Pogreška se može pojaviti u slučajevima opisanim u tablici u nastavku:

Richard Hamming: Poglavlje 13. Teorija informacija

Slika 13.III

Richard Hamming: Poglavlje 13. Teorija informacija

Ovdje vidimo da ako u sferi izgrađenoj oko primljene točke postoji barem još jedna točka koja odgovara mogućoj poslanoj nekodiranoj poruci, tada je došlo do pogreške tijekom prijenosa, jer ne možete odrediti koja je od ovih poruka poslana. Poslana poruka je bez greške samo ako se točka koja joj odgovara nalazi u sferi, au danom kodu ne postoje druge moguće točke koje se nalaze u istoj sferi.

Imamo matematičku jednadžbu za vjerojatnost greške Pe ako je poruka ai poslana

Richard Hamming: Poglavlje 13. Teorija informacija

Možemo izbaciti prvi faktor u drugom članu, uzimajući ga kao 1. Tako dobivamo nejednakost

Richard Hamming: Poglavlje 13. Teorija informacija

Očito je da

Richard Hamming: Poglavlje 13. Teorija informacija

Slijedom toga

Richard Hamming: Poglavlje 13. Teorija informacija

ponovno primijeniti na posljednji termin s desne strane

Richard Hamming: Poglavlje 13. Teorija informacija

Uzimajući n dovoljno veliko, prvi član se može uzeti koliko god je mali, recimo manji od nekog broja d. Stoga imamo

Richard Hamming: Poglavlje 13. Teorija informacija

Sada pogledajmo kako možemo konstruirati jednostavan supstitucijski kod za kodiranje M poruka koje se sastoje od n bitova. Nemajući pojma kako točno konstruirati kod (kodovi za ispravljanje pogrešaka još nisu bili izmišljeni), Shannon je odabrao nasumično kodiranje. Bacite novčić za svaki od n bitova u poruci i ponovite postupak za M poruka. Ukupno je potrebno napraviti nM bacanja novčića, tako da je moguće

Richard Hamming: Poglavlje 13. Teorija informacija

kodni rječnici koji imaju istu vjerojatnost ½nM. Naravno, slučajni proces kreiranja šifarnika znači da postoji mogućnost duplikata, kao i kodnih točaka koje će biti blizu jedna drugoj i stoga biti izvor vjerojatnih grešaka. Mora se dokazati da ako se to ne dogodi s vjerojatnošću većom od bilo koje male odabrane razine pogreške, tada je zadani n dovoljno velik.
Ključna točka je da je Shannon izračunao prosjek svih mogućih šifrarnika kako bi pronašao prosječnu pogrešku! Koristit ćemo simbol Av[.] za označavanje prosječne vrijednosti u skupu svih mogućih slučajnih šifrarnika. Usrednjavanje preko konstante d, naravno, daje konstantu, budući da je za usrednjavanje svaki član isti kao i svaki drugi član u zbroju,

Richard Hamming: Poglavlje 13. Teorija informacija

koji se može povećati (M–1 ide u M)

Richard Hamming: Poglavlje 13. Teorija informacija

Za bilo koju datu poruku, kada se računa prosjek za sve šifrarne knjige, kodiranje prolazi kroz sve moguće vrijednosti, tako da je prosječna vjerojatnost da je točka u sferi omjer volumena sfere i ukupnog volumena prostora. Volumen kugle je

Richard Hamming: Poglavlje 13. Teorija informacija

gdje je s=Q+e2 <1/2 i ns mora biti cijeli broj.

Zadnji član s desne strane je najveći u ovom zbroju. Prvo procijenimo njegovu vrijednost pomoću Stirlingove formule za faktorijele. Zatim ćemo pogledati opadajući koeficijent člana ispred njega, uočiti da taj koeficijent raste kako se pomičemo ulijevo, pa možemo: (1) ograničiti vrijednost zbroja na zbroj geometrijske progresije s ovaj početni koeficijent, (2) proširiti geometrijsku progresiju od ns članova na beskonačan broj članova, (3) izračunati zbroj beskonačne geometrijske progresije (standardna algebra, ništa značajno) i konačno dobiti graničnu vrijednost (za dovoljno veliku n):

Richard Hamming: Poglavlje 13. Teorija informacija

Primijetite kako se entropija H(s) pojavila u binomnom identitetu. Imajte na umu da proširenje Taylorova niza H(s)=H(Q+e2) daje procjenu dobivenu uzimajući u obzir samo prvu derivaciju i zanemarujući sve ostale. Sastavimo sada konačni izraz:

Richard Hamming: Poglavlje 13. Teorija informacija

gdje

Richard Hamming: Poglavlje 13. Teorija informacija

Sve što trebamo učiniti je odabrati e2 tako da je e3 < e1, a onda će zadnji član biti proizvoljno mali, sve dok je n dovoljno velik. Posljedično, prosječna PE pogreška može se dobiti koliko god je mala s kapacitetom kanala proizvoljno blizu C.
Ako prosjek svih kodova ima dovoljno malu grešku, tada barem jedan kod mora biti prikladan, dakle postoji barem jedan prikladan sustav kodiranja. Ovo je važan rezultat koji je dobio Shannon - "Shannonov teorem za kanal sa šumom", iako treba napomenuti da je to dokazao za mnogo općenitiji slučaj nego za jednostavni binarni simetrični kanal koji sam koristio. Za opći slučaj, matematički izračuni su mnogo kompliciraniji, ali ideje nisu toliko različite, tako da vrlo često, koristeći primjer određenog slučaja, možete otkriti pravo značenje teorema.

Kritizirajmo rezultat. Više puta smo ponovili: "Za dovoljno veliko n." Ali koliko je veliko n? Vrlo, vrlo velik ako stvarno želite biti blizu kapaciteta kanala i biti sigurni u točan prijenos podataka! Toliko velik, zapravo, da ćete morati čekati jako dugo da akumulirate poruku od dovoljno bitova da je kasnije kodirate. U ovom slučaju, veličina rječnika slučajnog koda bit će jednostavno ogromna (uostalom, takav se rječnik ne može prikazati u kraćem obliku od cjelovitog popisa svih Mn bitova, unatoč činjenici da su n i M vrlo veliki)!

Kodovi za ispravljanje pogrešaka izbjegavaju čekanje na vrlo dugu poruku i zatim njeno kodiranje i dekodiranje kroz vrlo velike knjige kodova jer sami izbjegavaju knjige kodova i umjesto toga koriste obično računanje. U jednostavnoj teoriji, takvi kodovi imaju tendenciju da izgube sposobnost približavanja kapacitetu kanala i još uvijek održavaju nisku stopu pogrešaka, ali kada kod ispravlja veliki broj pogrešaka, oni rade dobro. Drugim riječima, ako dodijelite neki kapacitet kanala ispravljanju pogrešaka, tada morate koristiti sposobnost ispravljanja pogrešaka većinu vremena, tj. veliki broj pogrešaka mora biti ispravljen u svakoj poslanoj poruci, inače gubite ovaj kapacitet.

U isto vrijeme, gore dokazani teorem još uvijek nije besmislen! To pokazuje da učinkoviti prijenosni sustavi moraju koristiti pametne sheme kodiranja za vrlo dugačke nizove bitova. Primjer su sateliti koji su letjeli izvan vanjskih planeta; Kako se udaljavaju od Zemlje i Sunca, prisiljeni su ispravljati sve više grešaka u bloku podataka: neki sateliti koriste solarne panele, koji daju oko 5 W, drugi koriste nuklearne izvore energije, koji daju približno istu snagu. Mala snaga napajanja, mala veličina antena odašiljača i ograničena veličina antena prijemnika na Zemlji, ogromna udaljenost koju signal mora prijeći - sve to zahtijeva korištenje kodova s ​​visokom razinom ispravljanja pogrešaka za izgradnju učinkovit komunikacijski sustav.

Vratimo se n-dimenzionalnom prostoru koji smo koristili u gornjem dokazu. Raspravljajući o tome, pokazali smo da je gotovo cijeli volumen sfere koncentriran blizu vanjske površine - dakle, gotovo je sigurno da će poslani signal biti smješten blizu površine sfere izgrađene oko primljenog signala, čak i uz relativno mali radijus takve sfere. Stoga ne čudi da primljeni signal, nakon ispravljanja proizvoljno velikog broja pogrešaka, nQ, ispada proizvoljno blizak signalu bez pogrešaka. Kapacitet veze o kojem smo ranije govorili ključ je za razumijevanje ovog fenomena. Imajte na umu da se slične sfere konstruirane za Hammingove kodove koji ispravljaju pogreške ne preklapaju jedna drugu. Veliki broj gotovo ortogonalnih dimenzija u n-dimenzionalnom prostoru pokazuje zašto možemo smjestiti M sfera u prostor s malo preklapanja. Ako dopustimo malo, proizvoljno malo preklapanje, koje može dovesti do samo malog broja grešaka tijekom dekodiranja, možemo dobiti gust raspored kugli u prostoru. Hamming je jamčio određenu razinu ispravljanja pogrešaka, Shannon - nisku vjerojatnost pogreške, ali u isto vrijeme održavajući stvarnu propusnost proizvoljno blizu kapaciteta komunikacijskog kanala, što Hammingovi kodovi ne mogu učiniti.

Teorija informacija nam ne govori kako dizajnirati učinkovit sustav, ali pokazuje put prema učinkovitim komunikacijskim sustavima. To je vrijedan alat za izgradnju komunikacijskih sustava stroj-stroj, ali, kao što je ranije navedeno, nema velike važnosti za način na koji ljudi međusobno komuniciraju. Mjera u kojoj je biološko nasljeđe slično tehničkim komunikacijskim sustavima je jednostavno nepoznata, tako da trenutno nije jasno kako se teorija informacija primjenjuje na gene. Nemamo drugog izbora nego pokušati, a ako nam uspjeh pokaže strojnu prirodu ovog fenomena, tada će neuspjeh ukazati na druge značajne aspekte prirode informacija.

Nemojmo previše skrenuti s teme. Vidjeli smo da sve izvorne definicije, u većoj ili manjoj mjeri, moraju izražavati bit naših izvornih uvjerenja, ali ih karakterizira određeni stupanj iskrivljenja i stoga nisu primjenjive. Tradicionalno je prihvaćeno da, u konačnici, definicija koju koristimo zapravo definira bit; ali, ovo nam samo govori kako da procesuiramo stvari i ni na koji način nam ne prenosi nikakvo značenje. Postulacijski pristup, tako snažno omiljen u matematičkim krugovima, u praksi ostavlja mnogo toga za poželjeti.

Sada ćemo pogledati primjer IQ testova gdje je definicija kružna koliko želite i, kao rezultat toga, obmanjujuća. Napravljen je test koji bi trebao mjeriti inteligenciju. Zatim se revidira kako bi bio što je moguće dosljedniji, a zatim se objavljuje i, jednostavnom metodom, kalibrira tako da se izmjerena "inteligencija" pokaže normalno raspodijeljenom (na kalibracijskoj krivulji, naravno). Sve definicije moraju se ponovno provjeriti, ne samo kada su prvi put predložene, već i mnogo kasnije, kada se koriste u zaključcima. U kojoj su mjeri definicijske granice prikladne za problem koji se rješava? Koliko često se definicije dane u jednom okruženju primjenjuju u sasvim različitim okruženjima? To se događa vrlo često! U humanističkim znanostima, s kojima ćete se neizbježno susresti u životu, to se događa češće.

Dakle, jedna od svrha ovog prikaza teorije informacija, osim demonstracije njezine korisnosti, bila je upozoriti vas na tu opasnost, odnosno pokazati vam kako točno ju koristiti da biste dobili željeni rezultat. Odavno je primijećeno da početne definicije određuju što ćete na kraju pronaći, u mnogo većoj mjeri nego što se čini. Početne definicije od vas zahtijevaju mnogo pažnje, ne samo u svakoj novoj situaciji, već iu područjima s kojima radite već duže vrijeme. To će vam omogućiti da shvatite u kojoj su mjeri dobiveni rezultati tautologija, a ne nešto korisno.

Poznata priča o Eddingtonu govori o ljudima koji su lovili ribu u moru mrežom. Nakon proučavanja veličine ribe koju su ulovili, odredili su minimalnu veličinu ribe koja se nalazi u moru! Njihov je zaključak vođen korištenim instrumentom, a ne stvarnošću.

Da bi se nastavio ...

Tko želi pomoći u prijevodu, prijelomu i izdavanju knjige - javite se osobnom porukom ili mailom [e-pošta zaštićena]

Usput, pokrenuli smo i prijevod još jedne cool knjige - "Stroj iz snova: Priča o računalnoj revoluciji")

Posebno tražimo oni koji će pomoći u prevođenju dodatno poglavlje, koje je samo na videu, (prijenos na 10 minuta, prvih 20 je već zauzeto)

Sadržaj knjige i prevedena poglavljapredgovor

  1. Uvod u umjetnost bavljenja znanošću i inženjerstvom: Učiti učiti (28. ožujka 1995.) Prijevod: 1. poglavlje
  2. "Temelji digitalne (diskretne) revolucije" (30. ožujka 1995.) Poglavlje 2. Osnove digitalne (diskretne) revolucije
  3. "Povijest računala - hardver" (31. ožujka 1995.) Poglavlje 3. Povijest računala - Hardver
  4. "Povijest računala - softver" (4. travnja 1995.) Poglavlje 4. Povijest računala - softver
  5. "Povijest računala - Primjena" (6. travnja 1995.) Poglavlje 5: Povijest računala - Praktične primjene
  6. "Umjetna inteligencija - I. dio" (7. travnja 1995.) Poglavlje 6. Umjetna inteligencija - 1
  7. "Umjetna inteligencija - II. dio" (11. travnja 1995.) Poglavlje 7. Umjetna inteligencija - II
  8. "Umjetna inteligencija III" (13. travnja 1995.) Poglavlje 8. Umjetna inteligencija-III
  9. "n-Dimensional Space" (14. travnja 1995.) Poglavlje 9. N-dimenzionalni prostor
  10. "Teorija kodiranja - predstavljanje informacija, I. dio" (18. travnja 1995.) Poglavlje 10. Teorija kodiranja - I
  11. "Teorija kodiranja - predstavljanje informacija, II. dio" (20. travnja 1995.) Poglavlje 11. Teorija kodiranja - II
  12. "Kodovi za ispravljanje pogrešaka" (21. travnja 1995.) Poglavlje 12. Kodovi za ispravljanje pogrešaka
  13. "Teorija informacija" (25. travnja 1995.) Poglavlje 13. Teorija informacija
  14. "Digitalni filteri, I. dio" (27. travnja 1995.) Poglavlje 14. Digitalni filtri - 1
  15. "Digitalni filteri, II dio" (28. travnja 1995.) Poglavlje 15. Digitalni filtri - 2
  16. "Digitalni filteri, dio III" (2. svibnja 1995.) Poglavlje 16. Digitalni filtri - 3
  17. "Digitalni filteri, dio IV" (4. svibnja 1995.) Poglavlje 17. Digitalni filtri - IV
  18. "Simulacija, I. dio" (5. svibnja 1995.) Poglavlje 18. Modeliranje - I
  19. "Simulacija, II dio" (9. svibnja 1995.) Poglavlje 19. Modeliranje - II
  20. "Simulacija, III dio" (11. svibnja 1995.) Poglavlje 20. Modeliranje - III
  21. "Fiber Optics" (12. svibnja 1995.) Poglavlje 21. Svjetlovodna optička vlakna
  22. "Computer Aided Instruction" (16. svibnja 1995.) Poglavlje 22: Nastava uz pomoć računala (CAI)
  23. "Matematika" (18. svibnja 1995.) Poglavlje 23. Matematika
  24. "Kvantna mehanika" (19. svibnja 1995.) Poglavlje 24. Kvantna mehanika
  25. "Kreativnost" (23. svibnja 1995.). Prijevod: Poglavlje 25. Kreativnost
  26. "Stručnjaci" (25. svibnja 1995.) Poglavlje 26. Stručnjaci
  27. "Nepouzdani podaci" (26. svibnja 1995.) Poglavlje 27. Nepouzdani podaci
  28. "Inženjering sustava" (30. svibnja 1995.) Poglavlje 28. Inženjerstvo sustava
  29. "You Get What You Measure" (1. lipnja 1995.) Poglavlje 29: Dobivate ono što mjerite
  30. "Kako znamo što znamo" (Lipanj 2, 1995) prevesti u dijelovima od 10 minuta
  31. Hamming, “Vi i vaše istraživanje” (6. lipnja 1995.). Prijevod: Vi i vaš rad

Tko želi pomoći u prijevodu, prijelomu i izdavanju knjige - javite se osobnom porukom ili mailom [e-pošta zaštićena]

Izvor: www.habr.com

Dodajte komentar