Richard Hamming: 13. peatükk. Infoteooria

Me tegime seda!

"Selle kursuse eesmärk on valmistada teid ette teie tehniliseks tulevikuks."

Richard Hamming: 13. peatükk. InfoteooriaTere, Habr. Pidage meeles suurepärast artiklit "Sina ja su töö" (+219, 2588 järjehoidjat, 429 XNUMX lugemist)?

Nii et Hamming (jah, jah, enesekontroll ja -parandus Hammingu koodid) on olemas tervik raamat, mis on kirjutatud tema loengute põhjal. Tõlgime selle ära, sest mees räägib oma arvamust.

See raamat ei ole ainult IT-teemaline, see on raamat uskumatult lahedate inimeste mõtlemisstiilist. „See ei ole ainult positiivse mõtlemise tõuge; see kirjeldab tingimusi, mis suurendavad suure töö tegemise võimalusi.

Aitäh Andrei Pakhomovile tõlke eest.

Infoteooria töötas välja C. E. Shannon 1940. aastate lõpus. Bell Labsi juhtkond nõudis, et ta nimetaks seda "kommunikatsiooniteooriaks", kuna... see on palju täpsem nimi. Arusaadavatel põhjustel avaldab nimetus "Infoteooria" avalikkusele palju suuremat mõju, mistõttu Shannon selle valiski ja seda nime tunneme tänaseni. Nimi ise viitab sellele, et teooria tegeleb teabega, mis muudab selle oluliseks, kui liigume sügavamale infoajastusse. Selles peatükis käsitlen mitmeid selle teooria peamisi järeldusi, annan mitte ranged, vaid pigem intuitiivsed tõendid selle teooria mõne üksiku sätte kohta, et saaksite aru, mis "infoteooria" tegelikult on ja kus saate seda rakendada. ja kus mitte.

Esiteks, mis on "teave"? Shannon võrdsustab informatsiooni ebakindlusega. Ta valis sündmuse tõenäosuse negatiivse logaritmi teabe kvantitatiivseks mõõduks, mille saate, kui toimub p tõenäosusega sündmus. Näiteks kui ma ütlen teile, et Los Angelese ilm on udune, siis p on 1 lähedal, mis ei anna meile tõesti palju teavet. Aga kui ma ütlen, et juunis sajab Montereys vihma, siis on sõnumis ebakindlus ja see sisaldab rohkem teavet. Usaldusväärne sündmus ei sisalda teavet, kuna log 1 = 0.

Vaatame seda üksikasjalikumalt. Shannon arvas, et teabe kvantitatiivne mõõt peaks olema sündmuse p tõenäosuse pidev funktsioon ja sõltumatute sündmuste puhul peaks see olema aditiivne - kahe sõltumatu sündmuse toimumise tulemusel saadud teabe hulk peaks olema võrdne ühise sündmuse toimumise tulemusena saadud teabe hulk. Näiteks täringuviske ja mündiviske tulemust käsitletakse tavaliselt iseseisvate sündmustena. Tõlgime ülaltoodu matemaatika keelde. Kui I (p) on sündmuses sisalduva teabe hulk tõenäosusega p, siis kahest sõltumatust sündmusest x koosneva ühissündmuse korral tõenäosusega p1 ja y tõenäosusega p2 saame

Richard Hamming: 13. peatükk. Infoteooria
(x ja y on sõltumatud sündmused)

See on funktsionaalne Cauchy võrrand, mis kehtib kõigi p1 ja p2 kohta. Selle funktsionaalse võrrandi lahendamiseks eeldame, et

p1 = p2 = p,

see annab

Richard Hamming: 13. peatükk. Infoteooria

Kui p1 = p2 ja p2 = p, siis

Richard Hamming: 13. peatükk. Infoteooria

jne. Protsessi laiendamine standardmeetodiga eksponentsiaalide jaoks on kõigi ratsionaalarvude m/n puhul tõsi

Richard Hamming: 13. peatükk. Infoteooria

Infomõõdu oletatavast järjepidevusest järeldub, et logaritmiline funktsioon on funktsionaalse Cauchy võrrandi ainus pidev lahendus.

Infoteoorias on tavaline võtta logaritmi baasiks 2, seega sisaldab binaarne valik täpselt 1 biti informatsiooni. Seetõttu mõõdetakse teavet valemiga

Richard Hamming: 13. peatükk. Infoteooria

Teeme pausi ja mõistame, mis ülal juhtus. Esiteks ei defineerinud me mõistet "informatsioon", vaid lihtsalt määratlesime selle kvantitatiivse mõõdu valemi.

Teiseks on see meede ebakindel ja kuigi see on mõistlikult sobiv masinatele – näiteks telefonisüsteemidele, raadiole, televisioonile, arvutitele jne –, ei peegelda see inimeste tavapärast suhtumist teabesse.

Kolmandaks, see on suhteline mõõt, see sõltub teie teadmiste hetkeseisust. Kui vaatate juhuslike arvude generaatorist "juhuslike arvude" voogu, siis eeldate, et iga järgmine arv on ebakindel, kuid kui teate "juhuslike arvude" arvutamise valemit, on teada järgmine arv ja seetõttu ei sisaldavad teavet.

Seega on Shannoni teabe definitsioon paljudel juhtudel masinate jaoks kohane, kuid tundub, et see ei sobi inimese arusaamisega sellest sõnast. Just sel põhjusel oleks "infoteooriat" pidanud nimetama "kommunikatsiooniteooriaks". Definitsioonide muutmiseks (mis andis teooriale esialgse populaarsuse ja mis panevad siiani arvama, et see teooria tegeleb "informatsiooniga") on aga liiga hilja, seega tuleb nendega elada, kuid samal ajal tuleb mõista selgelt, kui kaugel on Shannoni teabe määratlus selle üldkasutatavast tähendusest. Shanoni teave käsitleb midagi täiesti erinevat, nimelt ebakindlust.

Siin on midagi, millele mõelda, kui pakute terminoloogiat. Kuidas ühtib pakutud määratlus, näiteks Shannoni teabe definitsioon teie algse ideega ja kui erinev see on? Peaaegu pole ühtegi terminit, mis peegeldaks täpselt teie varasemat nägemust mõistest, kuid lõppkokkuvõttes peegeldab kasutatav terminoloogia selle mõiste tähendust, nii et millegi vormistamine selgete definitsioonide kaudu tekitab alati teatud müra.

Vaatleme süsteemi, mille tähestik koosneb sümbolitest q tõenäosustega pi. Sel juhul keskmine teabe hulk süsteemis (selle eeldatav väärtus) on võrdne:

Richard Hamming: 13. peatükk. Infoteooria

Seda nimetatakse tõenäosusjaotusega {pi} süsteemi entroopiaks. Me kasutame terminit "entroopia", kuna sama matemaatiline vorm esineb termodünaamikas ja statistilises mehaanikas. Seetõttu loob mõiste “entroopia” enda ümber teatud tähtsuse oreooli, mis lõppkokkuvõttes ei ole õigustatud. Sama matemaatiline tähistusvorm ei tähenda samasugust sümbolite tõlgendamist!

Tõenäosuse jaotuse entroopia mängib kodeerimise teoorias suurt rolli. Gibbsi ebavõrdsus kahe erineva tõenäosusjaotuse pi ja qi jaoks on selle teooria üks olulisi tagajärgi. Nii et me peame seda tõestama

Richard Hamming: 13. peatükk. Infoteooria

Tõestus põhineb ilmsel graafikul, joon. 13.I, mis näitab seda

Richard Hamming: 13. peatükk. Infoteooria

ja võrdsus saavutatakse ainult siis, kui x = 1. Rakendame ebavõrdsust summa iga liikme kohta vasakult:

Richard Hamming: 13. peatükk. Infoteooria

Kui sidesüsteemi tähestik koosneb q-sümbolitest, siis iga sümboli edastamise tõenäosuse qi = 1/q ja q asendamise korral saame Gibbsi võrratusest

Richard Hamming: 13. peatükk. Infoteooria

Richard Hamming: 13. peatükk. Infoteooria

Joonis 13.I

See tähendab, et kui kõigi q sümbolite edastamise tõenäosus on sama ja võrdne - 1 / q, siis maksimaalne entroopia on võrdne ln q-ga, vastasel juhul ebavõrdsus kehtib.

Unikaalselt dekodeeritava koodi puhul on meil Krafti ebavõrdsus

Richard Hamming: 13. peatükk. Infoteooria

Kui nüüd defineerida pseudotõenäosused

Richard Hamming: 13. peatükk. Infoteooria

kus muidugi Richard Hamming: 13. peatükk. Infoteooria= 1, mis tuleneb Gibbsi ebavõrdsusest,

Richard Hamming: 13. peatükk. Infoteooria

ja rakendame veidi algebrat (pidage meeles, et K ≤ 1, et saaksime logaritmilisest liikmest loobuda ja võib-olla hiljem ebavõrdsust tugevdada), saame

Richard Hamming: 13. peatükk. Infoteooria

kus L on koodi keskmine pikkus.

Seega on entroopia minimaalne piir mis tahes märgi-sümbolipõhise koodi jaoks, mille koodsõna keskmine pikkus on L. See on Shannoni teoreem häireteta kanali kohta.

Nüüd kaaluge peamist teoreemi sidesüsteemide piirangute kohta, milles teavet edastatakse sõltumatute bittide voona ja müra esineb. On arusaadav, et ühe biti õige edastamise tõenäosus on P > 1/2 ja tõenäosus, et biti väärtus edastuse ajal inverteeritakse (tekib viga), on võrdne Q = 1 - P. Mugavuse huvides eeldame, et vead on sõltumatud ja vea tõenäosus on iga saadetud biti puhul sama – see tähendab, et sidekanalis on “valge müra”.

See, kuidas meil on ühte sõnumisse kodeeritud pikk n-bitist voogu, on ühebitise koodi n-mõõtmeline laiend. n väärtuse määrame hiljem. Vaatleme n-bitist koosnevat teadet punktina n-mõõtmelises ruumis. Kuna meil on n-mõõtmeline ruum – ja lihtsuse huvides eeldame, et igal sõnumil on sama esinemise tõenäosus – on võimalikku M teadet (M defineeritakse ka hiljem), seega on iga sõnumi saatmise tõenäosus

Richard Hamming: 13. peatükk. Infoteooria

Richard Hamming: 13. peatükk. Infoteooria
(saatja)
Ajakava 13.II

Järgmisena kaaluge kanali läbilaskevõime ideed. Detailidesse laskumata on kanali läbilaskevõime defineeritud kui maksimaalne infohulk, mida saab sidekanali kaudu usaldusväärselt edastada, võttes arvesse kõige tõhusama kodeerimise kasutamist. Pole ühtegi argumenti, et sidekanali kaudu saab edastada rohkem teavet, kui on selle suutlikkus. Seda saab tõestada binaarse sümmeetrilise kanali puhul (mida meie puhul kasutame). Kanali mahtuvus bittide saatmisel määratakse järgmiselt

Richard Hamming: 13. peatükk. Infoteooria

kus, nagu varemgi, P on tõenäosus, et üheski saadetud bitis ei esine viga. n sõltumatu biti saatmisel on kanali mahutavus antud

Richard Hamming: 13. peatükk. Infoteooria

Kui oleme kanali läbilaskevõime lähedal, siis peame saatma peaaegu nii palju teavet iga sümboli ai kohta, i = 1, ..., M. Arvestades, et iga sümboli ai esinemise tõenäosus on 1 / M, saame

Richard Hamming: 13. peatükk. Infoteooria

kui saadame ühe M võrdselt tõenäolisest sõnumist ai, on meil olemas

Richard Hamming: 13. peatükk. Infoteooria

Kui saadetakse n bitti, eeldame, et ilmnevad nQ vead. Praktikas on n-bitistest sõnumitest koosneva sõnumi puhul vastuvõetud sõnumis ligikaudu nQ viga. Suure n korral suhteline kõikumine (variatsioon = jaotuslaius, )
vigade arvu jaotus muutub n suurenedes järjest kitsamaks.

Nii et saatja poolelt võtan sõnumi ai saata ja joonistan selle ümber raadiusega kera

Richard Hamming: 13. peatükk. Infoteooria

mis on e2-ga võrdse summa võrra veidi suurem kui eeldatav vigade arv Q, (joonis 13.II). Kui n on piisavalt suur, siis on suvaliselt väike tõenäosus, et vastuvõtja poolele ilmub teadepunkt bj, mis ulatub sellest sfäärist kaugemale. Visandame olukorra sellisena, nagu mina seda saatja vaatenurgast näen: meil on mis tahes raadiused edastatud teatest ai kuni vastuvõetud sõnumini bj, mille vea tõenäosus on võrdne (või peaaegu võrdne) normaaljaotusega, saavutades maksimumi. nQ-st. Iga e2 korral on n nii suur, et tõenäosus, et tulemuseks olev punkt bj asub väljaspool minu sfääri, on nii väike, kui soovite.

Vaatame nüüd sama olukorda teie poolt (joon. 13.III). Vastuvõtja poolel on n-mõõtmelises ruumis vastuvõetud punkti bj ümber sama raadiusega r kera S(r), nii et kui vastuvõetud sõnum bj on minu sfääri sees, siis minu saadetud sõnum ai on sinu sfääri sees. sfäär.

Kuidas võib viga tekkida? Viga võib ilmneda allolevas tabelis kirjeldatud juhtudel.

Richard Hamming: 13. peatükk. Infoteooria

Joonis 13.III

Richard Hamming: 13. peatükk. Infoteooria

Siin näeme, et kui vastuvõetud punkti ümber ehitatud sfääris on veel vähemalt üks punkt, mis vastab võimalikule saadetud kodeerimata sõnumile, siis tekkis edastamisel viga, kuna te ei saa kindlaks teha, milline neist teadetest edastati. Saadetud teade on veatu ainult siis, kui sellele vastav punkt asub sfääris ning antud koodis ei ole võimalikud teised samas sfääris olevad punktid.

Meil on matemaatiline võrrand vea tõenäosuse Pe kohta, kui sõnum ai on saadetud

Richard Hamming: 13. peatükk. Infoteooria

Esimese teguri saame teises liikmes välja visata, võttes selle kui 1. Nii saame ebavõrdsuse

Richard Hamming: 13. peatükk. Infoteooria

Ilmselt

Richard Hamming: 13. peatükk. Infoteooria

Järelikult

Richard Hamming: 13. peatükk. Infoteooria

uuesti kandideerida paremale viimasele terminile

Richard Hamming: 13. peatükk. Infoteooria

Võttes n piisavalt suureks, võib esimese liikme võtta nii väikeseks kui soovitakse, ütleme vähem kui mõni arv d. Seetõttu on meil

Richard Hamming: 13. peatükk. Infoteooria

Nüüd vaatame, kuidas saame konstrueerida lihtsa asenduskoodi, et kodeerida M n-bitist koosnevat sõnumit. Kuna Shannon polnud aimugi, kuidas täpselt koodi konstrueerida (veaparanduskoode polnud veel leiutatud), valis Shannon juhusliku kodeerimise. Keerake münt sõnumi iga n biti jaoks ja korrake seda protsessi M sõnumiga. Kokku on vaja teha nM mündiviske, nii et see on võimalik

Richard Hamming: 13. peatükk. Infoteooria

koodisõnastikud, millel on sama tõenäosus ½nM. Muidugi tähendab koodiraamatu loomise juhuslik protsess seda, et on olemas duplikaatide võimalus, aga ka koodipunktid, mis asuvad üksteise lähedal ja on seetõttu tõenäoliste vigade allikaks. Tuleb tõestada, et kui see ei juhtu suurema tõenäosusega kui mis tahes väike valitud veatase, siis on antud n piisavalt suur.
Oluline on see, et Shannon arvutas keskmise vea leidmiseks kõik võimalikud koodiraamatud! Kasutame sümbolit Av[.], et tähistada kõigi võimalike juhuslike koodiraamatute kogumi keskmist väärtust. Konstandi d keskmistamine annab loomulikult konstandi, kuna keskmistamiseks on iga liige sama, mis kõik teised summas olevad liikmed,

Richard Hamming: 13. peatükk. Infoteooria

mida saab suurendada (M–1 läheb M-ks)

Richard Hamming: 13. peatükk. Infoteooria

Kõigi koodiraamatute keskmistamisel läbib mis tahes sõnumi puhul kodeering läbi kõik võimalikud väärtused, seega on keskmine tõenäosus, et punkt asub sfääris, sfääri ruumala ja ruumi kogumahu suhe. Sfääri maht on

Richard Hamming: 13. peatükk. Infoteooria

kus s=Q+e2 <1/2 ja ns peab olema täisarv.

Viimane parempoolne liige on selle summa suurim. Esmalt hindame selle väärtust faktoriaalide Stirlingi valemi abil. Seejärel vaatame selle ees oleva liikme kahanevat koefitsienti ja pange tähele, et see koefitsient suureneb vasakule liikudes ja nii saame: (1) piirata summa väärtust geomeetrilise progressiooni summaga see algkoefitsient, (2) laiendage geomeetrilist progressiooni ns-lt liikmelt lõpmatu arvu liikmeteni, (3) arvutage lõpmatu geomeetrilise progressiooni summa (standardalgebra, mitte midagi olulist) ja lõpuks hankige piirväärtus (piisavalt suure jaoks n):

Richard Hamming: 13. peatükk. Infoteooria

Pange tähele, kuidas entroopia H(id) ilmusid binoomidentiteedis. Pange tähele, et Taylori rea laiendus H(s)=H(Q+e2) annab hinnangu, mis on saadud, võttes arvesse ainult esimest tuletist ja ignoreerides kõiki teisi. Nüüd paneme kokku lõpliku avaldise:

Richard Hamming: 13. peatükk. Infoteooria

kus

Richard Hamming: 13. peatükk. Infoteooria

Peame vaid valima e2 nii, et e3 < e1, ja siis on viimane liige suvaliselt väike, kui n on piisavalt suur. Järelikult võib keskmise PE-vea saada nii väikeseks kui soovitakse, kui kanali läbilaskevõime on suvaliselt C-le lähedal.
Kui kõigi koodide keskmises on piisavalt väike viga, siis peab sobima vähemalt üks kood, järelikult on olemas vähemalt üks sobiv kodeerimissüsteem. See on oluline Shannoni saavutatud tulemus – "Shannoni teoreem mürarikka kanali kohta", kuigi tuleb märkida, et ta tõestas seda palju üldisemal juhul kui minu kasutatud lihtsa binaarse sümmeetrilise kanali puhul. Üldjuhul on matemaatilised arvutused palju keerulisemad, kuid ideed pole nii erinevad, nii et väga sageli saate konkreetse juhtumi näitel paljastada teoreemi tõelise tähenduse.

Kritiseerigem tulemust. Oleme korduvalt korranud: "Piisavalt suure n jaoks." Aga kui suur on n? Väga-väga suur, kui tahad olla nii kanali võimsusele lähedal kui ka kindel õiges andmeedastuses! Tegelikult nii suur, et peate väga kaua ootama, et koguda piisavalt bitti sisaldav sõnum, et see hiljem kodeerida. Sel juhul on juhusliku koodisõnastiku suurus lihtsalt tohutu (sellist sõnastikku ei saa ju esitada lühemal kujul kui kõigi Mn bittide täielik loend, hoolimata asjaolust, et n ja M on väga suured)!

Vigade parandamise koodid väldivad väga pika sõnumi ootamist ning selle kodeerimist ja dekodeerimist väga suurte koodiraamatute kaudu, sest nad väldivad ise koodiraamatuid ja kasutavad selle asemel tavalist arvutust. Lihtsa teooria järgi kipuvad sellised koodid kaotama võime läheneda kanali mahule ja säilitavad siiski madala veamäära, kuid kui kood parandab suure hulga vigu, toimivad nad hästi. Teisisõnu, kui eraldate veaparandusele mingi kanali võimsust, siis peate enamuse ajast kasutama veaparandusvõimalust, st igas saadetud sõnumis tuleb parandada suur hulk vigu, vastasel juhul raiskate seda mahtu.

Samas pole ülal tõestatud teoreem ikkagi mõttetu! See näitab, et tõhusad edastussüsteemid peavad väga pikkade bitistringide jaoks kasutama nutikaid kodeerimisskeeme. Näiteks on satelliidid, mis on lennanud välisplaneetidest kaugemale; Maast ja Päikesest eemaldudes on nad sunnitud parandama üha rohkem vigu andmeplokis: osa satelliite kasutavad päikesepaneele, mis annavad umbes 5 W, teised tuumaenergiaallikaid, mis annavad umbes sama võimsust. Toiteallika madal võimsus, saatja taldriku väiksus ja vastuvõtjaplaatide piiratud suurus Maal, tohutu vahemaa, mille signaal peab läbima – kõik see nõuab kõrge veaparandustasemega koodide kasutamist, et luua tõhus sidesüsteem.

Pöördume tagasi n-mõõtmelise ruumi juurde, mida kasutasime ülaltoodud tõestuses. Seda käsitledes näitasime, et peaaegu kogu kera ruumala on koondunud välispinna lähedale – seega on peaaegu kindel, et saadetav signaal paikneb isegi suhteliselt tugeva signaali ümber ehitatud kera pinna lähedal. sellise sfääri väike raadius. Seetõttu pole üllatav, et vastuvõetud signaal osutub pärast meelevaldselt suure arvu vigade (nQ) parandamist suvaliselt lähedale ilma vigadeta signaalile. Selle nähtuse mõistmise võti on lingi suutlikkus, millest me varem rääkisime. Pange tähele, et sarnased sfäärid, mis on loodud vigade parandamiseks Hammingi koodide jaoks, ei kattu üksteisega. Suur arv peaaegu ortogonaalseid mõõtmeid n-mõõtmelises ruumis näitab, miks me mahutame ruumi M sfääri vähese kattumisega. Kui lubame väikest, meelevaldselt väikest kattumist, mis võib dekodeerimisel kaasa tuua vaid väikese arvu vigu, saame sfääride tiheda paigutuse ruumis. Hamming garanteeris teatud veaparanduse taseme, Shannon - väikese vea tõenäosuse, kuid samas hoides tegeliku läbilaskevõime suvaliselt sidekanali läbilaskevõime lähedal, mida Hammingi koodid teha ei suuda.

Infoteooria ei ütle meile, kuidas tõhusat süsteemi kujundada, kuid see näitab teed tõhusate sidesüsteemide poole. See on väärtuslik tööriist masinatevaheliste sidesüsteemide ehitamiseks, kuid nagu varem märgitud, on sellel inimestevahelise suhtlemise seisukohast vähe tähtsust. Kuivõrd bioloogiline pärand on nagu tehnilised kommunikatsioonisüsteemid, on lihtsalt teadmata, mistõttu pole praegu selge, kuidas infoteooria geenide puhul rakendub. Meil ei jää muud üle, kui proovida ja kui edu näitab meile selle nähtuse masinataolist olemust, viitab ebaõnnestumine teabe olemuse teistele olulistele aspektidele.

Ärgem kaldugem liiga palju kõrvale. Oleme näinud, et kõik algsed määratlused peavad suuremal või vähemal määral väljendama meie algsete uskumuste olemust, kuid neid iseloomustab teatud moonutus ja seetõttu ei ole need rakendatavad. Traditsiooniliselt on aktsepteeritud, et lõppkokkuvõttes määratleb meie kasutatav definitsioon tegelikult olemuse; kuid see ütleb meile ainult, kuidas asju töödelda, ega anna meile mingil juhul mingit tähendust. Postulatsiooniline lähenemine, mida matemaatikaringkondades nii tugevalt eelistatakse, jätab praktikas palju soovida.

Nüüd vaatame näidet IQ-testidest, kus määratlus on täpselt nii ümmargune, kui soovite, ja selle tulemusena eksitav. Luuakse test, mis peaks intelligentsust mõõtma. Seejärel vaadatakse see üle, et muuta see võimalikult järjepidevaks, seejärel avaldatakse ja lihtsal meetodil kalibreeritakse, nii et mõõdetud "intellekt" osutub normaalselt jaotuvaks (muidugi kalibreerimiskõveral). Kõiki määratlusi tuleb uuesti kontrollida mitte ainult esmakordsel väljapakkumisel, vaid ka palju hiljem, kui neid järeldustes kasutatakse. Kuivõrd on definitsioonipiirid lahendatava probleemi jaoks sobivad? Kui sageli rakendatakse ühes seades antud määratlusi üsna erinevates seadetes? Seda juhtub üsna sageli! Humanitaarteadustes, millega oma elus paratamatult kokku puutute, juhtub seda sagedamini.

Seega oli selle teabeteooria esitluse üks eesmärke lisaks selle kasulikkuse demonstreerimisele hoiatada teid selle ohu eest või näidata teile täpselt, kuidas seda soovitud tulemuse saavutamiseks kasutada. Pikka aega on täheldatud, et esialgsed määratlused määravad selle, mida lõpuks leiate, palju suuremal määral, kui tundub. Esialgsed määratlused nõuavad teilt suurt tähelepanu mitte ainult igas uues olukorras, vaid ka valdkondades, millega olete pikka aega töötanud. See võimaldab teil mõista, mil määral on saadud tulemused tautoloogia ja mitte midagi kasulikku.

Kuulus Eddingtoni lugu räägib inimestest, kes püüdsid merel võrguga kala. Olles uurinud püütud kala suurust, määrasid nad kindlaks kalade minimaalse suuruse, mida meres leidub! Nende järelduse ajendas kasutatud instrument, mitte tegelikkus.

Jätkub ...

Kes soovib aidata raamatu tõlkimisel, küljendamisel ja väljaandmisel - kirjutage isikliku sõnumi või meili teel [meiliga kaitstud]

Muide, oleme käivitanud ka ühe teise laheda raamatu tõlkimise - "Unistuste masin: arvutirevolutsiooni lugu")

Eriti otsime need, kes aitavad tõlkida boonuspeatükk, mis on ainult videol. (ülekanne 10 minutit, esimesed 20 on juba võetud)

Raamatu sisu ja tõlgitud peatükidEessõna

  1. Sissejuhatus teaduse ja tehnika tegemise kunstile: õppimine (28. märts 1995) Tõlge: 1. peatükk
  2. "Digitaalse (diskreetse) revolutsiooni alused" (30. märts 1995) Peatükk 2. Digitaalse (diskreetse) revolutsiooni põhialused
  3. "Arvutite ajalugu – riistvara" (31. märts 1995) 3. peatükk. Arvutite ajalugu – riistvara
  4. "Arvutite ajalugu – tarkvara" (4. aprill 1995) Peatükk 4. Arvutite ajalugu – tarkvara
  5. "Arvutite ajalugu – rakendused" (6. aprill 1995) 5. peatükk: Arvutite ajalugu – praktilised rakendused
  6. "Tehisintellekt – I osa" (7. aprill 1995) 6. peatükk. Tehisintellekt – 1
  7. "Tehisintellekt – II osa" (11. aprill 1995) Peatükk 7. Tehisintellekt – II
  8. "Tehisintellekt III" (13. aprill 1995) Peatükk 8. Tehisintellekt-III
  9. "n-dimensiooniline ruum" (14. aprill 1995) Peatükk 9. N-mõõtmeline ruum
  10. "Kodeerimise teooria – teabe esitus, I osa" (18. aprill 1995) 10. peatükk. Kodeerimise teooria – I
  11. "Kodeerimise teooria – teabe esitus, II osa" (20. aprill 1995) Peatükk 11. Kodeerimise teooria – II
  12. "Veaparanduskoodid" (21. aprill 1995) Peatükk 12. Veaparanduskoodid
  13. "Infoteooria" (25. aprill 1995) Peatükk 13. Infoteooria
  14. "Digitaalsed filtrid, I osa" (27. aprill 1995) Peatükk 14. Digitaalsed filtrid – 1
  15. "Digitaalsed filtrid, II osa" (28. aprill 1995) Peatükk 15. Digitaalsed filtrid – 2
  16. "Digitaalsed filtrid, III osa" (2. mai 1995) Peatükk 16. Digitaalsed filtrid – 3
  17. "Digitaalsed filtrid, IV osa" (4. mai 1995) Peatükk 17. Digitaalsed filtrid – IV
  18. "Simulatsioon, I osa" (5. mai 1995) Peatükk 18. Modelleerimine – I
  19. "Simulatsioon, II osa" (9. mai 1995) Peatükk 19. Modelleerimine – II
  20. "Simulatsioon, III osa" (11. mai 1995) Peatükk 20. Modelleerimine – III
  21. "Fiiberoptika" (12. mai 1995) Peatükk 21. Fiiberoptika
  22. "Arvutipõhine juhendamine" (16. mai 1995) 22. peatükk: arvutipõhised juhised (CAI)
  23. "Matemaatika" (18. mai 1995) Peatükk 23. Matemaatika
  24. "Kvantmehaanika" (19. mai 1995) Peatükk 24. Kvantmehaanika
  25. "Loovus" (23. mai 1995). Tõlge: Peatükk 25. Loovus
  26. "Eksperdid" (25. mai 1995) Peatükk 26. Eksperdid
  27. "Ebausaldusväärsed andmed" (26. mai 1995) Peatükk 27. Ebausaldusväärsed andmed
  28. "Systems Engineering" (30. mai 1995) Peatükk 28. Süsteemitehnika
  29. "Saad seda, mida mõõdate" (1. juuni 1995) 29. peatükk: Sa saad seda, mida mõõdad
  30. "Kuidas me teame, mida me teame" (Juuni 2, 1995) tõlkida 10 minutiliste tükkidena
  31. Hamming, "You and Your Research" (6. juuni 1995). Tõlge: teie ja teie töö

Kes soovib aidata raamatu tõlkimisel, küljendamisel ja väljaandmisel - kirjutage isikliku sõnumi või meili teel [meiliga kaitstud]

Allikas: www.habr.com

Lisa kommentaar