Richard Hamming: Haadstik 13. Ynformaasje Theory

Wy hawwe it dien!

"It doel fan dizze kursus is om jo ta te rieden op jo technyske takomst."

Richard Hamming: Haadstik 13. Ynformaasje TheoryHallo, Habr. Unthâld it geweldige artikel "Do en dyn wurk" (+219, 2588 blêdwizers, 429k lêzen)?

Dus Hamming (ja, ja, selskontrôle en selskorrigearjen Hamming koades) der is in gehiel in boek, skreaun op basis fan syn lêzingen. Wy oersette it, want de man sprekt syn miening.

Dit is in boek net allinich oer IT, it is in boek oer de tinkstyl fan ongelooflijk coole minsken. “It is net allinnich in ympuls fan posityf tinken; it beskriuwt de betingsten dy't de kâns fergrutsje om grut wurk te dwaan.”

Mei tank oan Andrey Pakhomov foar de oersetting.

Ynformaasje Theory waard ûntwikkele troch CE Shannon yn 'e lette jierren 1940. It management fan Bell Labs stie der op dat hy it "kommunikaasjeteory" neamt, om't ... dit is in folle krekter namme. Om foar de hân lizzende redenen hat de namme "Information Theory" in folle gruttere ynfloed op it publyk, dat is wêrom Shannon it keas, en it is de namme dy't wy oant hjoed de dei kenne. De namme sels suggerearret dat de teory omgiet mei ynformaasje, wat it wichtich makket as wy djipper yn 'e ynformaasjetiid gean. Yn dit haadstik sil ik ferskate haadkonklúzjes út dizze teory oanreitsje, ik sil net strikt, mar earder yntuïtyf bewiis leverje fan guon yndividuele bepalingen fan dizze teory, sadat jo begripe wat "Ynformaasjeteory" eins is, wêr't jo it kinne tapasse. en wêr net.

Earst fan alles, wat is "ynformaasje"? Shannon stelt ynformaasje lyk oan ûnwissichheid. Hy keas de negative logaritme fan 'e kâns fan in evenemint as in kwantitative mjitting fan' e ynformaasje dy't jo ûntfange as in evenemint mei kâns p foarkomt. As ik bygelyks sis dat it waar yn Los Angeles mistich is, dan is p tichtby 1, wat ús eins net folle ynformaasje jout. Mar as ik sis dat it reint yn Monterey yn juny, sil d'r ûndúdlikens wêze yn it berjocht en sil it mear ynformaasje befetsje. In betrouber barren befettet gjin ynformaasje, om't log 1 = 0.

Litte wy dit yn mear detail besjen. Shannon leaude dat de kwantitative mjitte fan ynformaasje in trochgeande funksje moat wêze fan 'e kâns fan in evenemint p, en foar ûnôfhinklike eveneminten soe it addityf wêze moatte - de hoemannichte ynformaasje krigen as gefolch fan it foarkommen fan twa ûnôfhinklike eveneminten moat gelyk wêze oan de hoemannichte ynformaasje krigen as gefolch fan it foarkommen fan in mienskiplik barren. Bygelyks, de útkomst fan in dobbelstiennen roll en in munt roll meastal behannele as ûnôfhinklike eveneminten. Lit ús it boppesteande oersette yn 'e taal fan 'e wiskunde. As I (p) de hoemannichte ynformaasje is yn in barren mei kâns p, dan krije wy foar in mienskiplik barren besteande út twa ûnôfhinklike eveneminten x mei kâns p1 en y mei kâns p2

Richard Hamming: Haadstik 13. Ynformaasje Theory
(x en y binne ûnôfhinklike eveneminten)

Dit is de funksjonele Cauchy-fergeliking, wier foar alle p1 en p2. Om dizze funksjonele fergeliking op te lossen, nim dan oan dat

p1 = p2 = p,

dit jout

Richard Hamming: Haadstik 13. Ynformaasje Theory

As p1 = p2 en p2 = p dan

Richard Hamming: Haadstik 13. Ynformaasje Theory

ensfh. Dit proses útwreidzje mei de standertmetoade foar eksponentialen, foar alle rasjonele getallen m/n is it folgjende wier

Richard Hamming: Haadstik 13. Ynformaasje Theory

Ut de oannommen kontinuïteit fan de ynformaasjemaat folget dat de logaritmyske funksje de ienige trochgeande oplossing is foar de funksjonele fergeliking fan Cauchy.

Yn ynformaasjeteory is it gewoanlik om de logaritmebasis 2 te nimmen, dus in binêre kar befettet krekt 1 bit ynformaasje. Dêrom wurdt ynformaasje metten troch de formule

Richard Hamming: Haadstik 13. Ynformaasje Theory

Litte wy pauze en begripe wat hjirboppe barde. Alderearst hawwe wy it begryp "ynformaasje" net definieare; wy definieare gewoan de formule foar har kwantitative maat.

Twad, dizze maatregel is ûnderwurpen oan ûndúdlikens, en hoewol't it is ridlik geskikt foar masines - bygelyks, telefoan systemen, radio, televyzje, kompjûters, ensfh - it wjerspegelet gjin normale minsklike hâlding foar ynformaasje.

Tredde, dit is in relative maatregel, it hinget ôf fan 'e hjoeddeistige steat fan jo kennis. As jo ​​sjogge nei in stream fan "willekeurige getallen" út in willekeurich getal generator, jo der fan út dat elk folgjende nûmer is ûnwis, mar as jo witte de formule foar it berekkenjen fan "willekeurige getallen", it folgjende nûmer sil wêze bekend, en dêrom sil net befetsje ynformaasje.

Dat Shannon syn definysje fan ynformaasje is yn in protte gefallen passend foar masines, mar liket net te passen by it minsklik begryp fan it wurd. It is om dizze reden dat "Ynformaasjeteory" "Kommunikaasjeteory" soe wurde neamd. It is lykwols te let om de definysjes te feroarjen (wat joegen de teory syn earste populariteit, en dy't noch altyd tinke dat dizze teory omgiet mei "ynformaasje"), dus wy moatte libje mei harren, mar tagelyk moatte jo dúdlik begripe hoe fier Shannon syn definysje fan ynformaasje is fan 'e meast brûkte betsjutting. De ynformaasje fan Shannon giet oer wat folslein oars, nammentlik ûnwissichheid.

Hjir is wat om oer te tinken as jo in terminology foarstelle. Hoe komt in foarstelde definysje, lykas Shannon's definysje fan ynformaasje, oerien mei jo oarspronklike idee en hoe oars is it? D'r is hast gjin term dy't jo eardere fisy op in begryp krekt reflektearret, mar úteinlik is it de brûkte terminology dy't de betsjutting fan it begryp wjerspegelet, dus it formalisearjen fan wat troch dúdlike definysjes bringt altyd wat lûd yn.

Beskôgje in systeem wêrfan it alfabet bestiet út symboalen q mei kânsen pi. Yn dit gefal gemiddelde hoemannichte ynformaasje yn it systeem (syn ferwachte wearde) is gelyk oan:

Richard Hamming: Haadstik 13. Ynformaasje Theory

Dit wurdt de entropy neamd fan it systeem mei kânsferdieling {pi}. Wy brûke de term "entropy" om't deselde wiskundige foarm foarkomt yn termodynamika en statistyske meganika. Dêrom makket de term "entropy" in bepaalde aura fan belang om himsels, dy't úteinlik net terjochte is. Deselde wiskundige foarm fan notaasje betsjut net deselde ynterpretaasje fan symboalen!

De entropy fan 'e kânsferdieling spilet in wichtige rol yn' e kodearringsteory. De Gibbs-ûngelikens foar twa ferskillende kânsferdielingen pi en qi is ien fan 'e wichtige gefolgen fan dizze teory. Dat moatte wy dus bewize

Richard Hamming: Haadstik 13. Ynformaasje Theory

It bewiis is basearre op in dúdlike grafyk, Fig. 13.I, dat lit sjen dat

Richard Hamming: Haadstik 13. Ynformaasje Theory

en gelikens wurdt allinich berikt as x = 1. Lit ús de ûngelikens tapasse op elke term fan 'e som fan 'e linkerkant:

Richard Hamming: Haadstik 13. Ynformaasje Theory

As it alfabet fan in kommunikaasjesysteem bestiet út q-symboalen, dan nimme wy de kâns op oerdracht fan elk symboal qi = 1/q en ferfange q, krije wy fan 'e Gibbs-ûngelikens

Richard Hamming: Haadstik 13. Ynformaasje Theory

Richard Hamming: Haadstik 13. Ynformaasje Theory

figuer 13.I

Dit betsjut dat as de kâns op it oerdragen fan alle q-symboalen itselde is en lyk oan - 1 / q, dan is de maksimale entropy gelyk oan ln q, oars hâldt de ûngelikens.

Yn it gefal fan in unyk dekodearbere koade hawwe wy de ûngelikens fan Kraft

Richard Hamming: Haadstik 13. Ynformaasje Theory

No as wy pseudo-probabiliteiten definiearje

Richard Hamming: Haadstik 13. Ynformaasje Theory

wêr fansels Richard Hamming: Haadstik 13. Ynformaasje Theory= 1, dy't folget út Gibbs 'ûngelikens,

Richard Hamming: Haadstik 13. Ynformaasje Theory

en in bytsje algebra tapasse (ûnthâld dat K ≤ 1, sadat wy de logaritmyske term kinne falle, en miskien letter de ûngelikens fersterkje), krije wy

Richard Hamming: Haadstik 13. Ynformaasje Theory

wêr L is de gemiddelde koade lingte.

Sa is entropy de minimale bûn foar elke teken-by-symboalkoade mei in gemiddelde koadewurdlingte L. Dit is Shannon's stelling foar in steuringsfrij kanaal.

No beskôgje de wichtichste stelling oer de beheiningen fan kommunikaasje systemen dêr't ynformaasje wurdt oerdroegen as in stream fan ûnôfhinklike bits en lûd is oanwêzich. It wurdt begrepen dat de kâns op juste oerdracht fan ien bit is P> 1/2, en de kâns dat de bitwearde sil wurde omkeard tidens de oerdracht (in flater sil foarkomme) is gelyk oan Q = 1 - P. Foar gemak, wy oannimme dat de flaters ûnôfhinklik binne en de kâns op in flater is itselde foar elke ferstjoerde bit - dat is, d'r is "wyt lûd" yn it kommunikaasjekanaal.

De manier wêrop wy in lange stream fan n bits hawwe kodearre yn ien berjocht is de n - dimensionale útwreiding fan 'e ien-bit koade. Wy sille de wearde fan n letter bepale. Beskôgje in berjocht besteande út n-bits as in punt yn n-diminsjonale romte. Om't wy in n-diminsjonale romte hawwe - en foar de ienfâld sille wy oannimme dat elk berjocht deselde kâns hat op foarkommen - binne d'r M mooglike berjochten (M sil letter ek definieare wurde), dêrom is de kâns fan elk ferstjoerd berjocht

Richard Hamming: Haadstik 13. Ynformaasje Theory

Richard Hamming: Haadstik 13. Ynformaasje Theory
(stjoerder)
Skema 13.II

Besjoch dêrnei it idee fan kanaalkapasiteit. Sûnder yn te gean yn details wurdt kanaalkapasiteit definiearre as de maksimale hoemannichte ynformaasje dy't betrouber kin wurde oerdroegen oer in kommunikaasjekanaal, rekken hâldend mei it brûken fan de meast effisjinte kodearring. D'r is gjin argumint dat mear ynformaasje fia in kommunikaasjekanaal oerdroegen wurde kin as syn kapasiteit. Dit kin bewiisd wurde foar in binêre symmetrysk kanaal (dat wy yn ús gefal brûke). De kanaalkapasiteit, by it ferstjoeren fan bits, wurdt oantsjutte as

Richard Hamming: Haadstik 13. Ynformaasje Theory

dêr't, lykas earder, P is de kâns op gjin flater yn alle ferstjoerd bit. By it ferstjoeren fan n ûnôfhinklike bits, wurdt it kanaal kapasiteit jûn troch

Richard Hamming: Haadstik 13. Ynformaasje Theory

As wy ticht by de kanaal kapasiteit, dan moatte stjoere hast dit bedrach fan ynformaasje foar elk fan 'e symboalen ai, i = 1, ..., M. Yn betinken nommen dat de kâns op it foarkommen fan elk symboal ai is 1 / M, Wy krije

Richard Hamming: Haadstik 13. Ynformaasje Theory

as wy stjoere ien fan M like wierskynlik berjochten ai, wy hawwe

Richard Hamming: Haadstik 13. Ynformaasje Theory

As n bits ferstjoerd wurde, ferwachtsje wy dat nQ flaters foarkomme. Yn 'e praktyk, foar in berjocht besteande út n-bits, wy sille hawwe likernôch nQ flaters yn it ûntfongen berjocht. Foar grutte n, relative fariaasje (fariaasje = ferdieling breedte, )
de ferdieling fan it tal flaters wurdt hieltyd smeller as n nimt ta.

Dat, fan 'e stjoerderkant, nim ik it berjocht ai om te ferstjoeren en tekenje in bol om it mei in straal

Richard Hamming: Haadstik 13. Ynformaasje Theory

dat is wat grutter mei in bedrach lyk oan e2 as it ferwachte oantal flaters Q, (figuer 13.II). As n is grut genôch, dan is der in willekeurich lytse kâns fan in berjocht punt bj ferskynt op de ûntfanger kant dy't útwreidet foarby dizze sfear. Litte wy de situaasje sketse sa't ik it sjoch út it eachpunt fan 'e stjoerder: wy hawwe elke striel fan it útstjoerde berjocht ai nei it ûntfongen berjocht bj mei in kâns op flater gelyk (of hast gelyk) oan 'e normale ferdieling, en berikke in maksimum yn nq. Foar elke opjûne e2 is der in n sa grut dat de kâns dat it resultearjende punt bj bûten myn sfear is sa lyts as jo wolle.

Litte wy no deselde situaasje fan jo kant sjen (ôfb. 13.III). Oan 'e ûntfangerkant is d'r in bol S(r) fan deselde straal r om it ûntfongen punt bj yn n-diminsjonale romte, sadat as it ûntfongen berjocht bj binnen myn bol is, dan is it berjocht ai dat troch my ferstjoerd is binnen jo sfear.

Hoe kin in flater foarkomme? De flater kin foarkomme yn 'e gefallen beskreaun yn' e tabel hjirûnder:

Richard Hamming: Haadstik 13. Ynformaasje Theory

figuer 13.III

Richard Hamming: Haadstik 13. Ynformaasje Theory

Hjir sjogge wy dat as yn 'e sfear boud om it ûntfongen punt d'r op syn minst ien punt mear is dy't oerienkomt mei in mooglik ferstjoerd net-kodearre berjocht, dan is der in flater bard yn' e oerdracht, om't jo net kinne bepale hokker fan dizze berjochten ferstjoerd binne. It ferstjoerde berjocht is allinich flaterfrij as it dêrmei oerienkommende punt yn 'e sfear is, en d'r binne gjin oare punten mooglik yn 'e opjûne koade dy't yn deselde sfear binne.

Wy hawwe in wiskundige fergeliking foar de kâns op flater Pe as berjocht ai waard ferstjoerd

Richard Hamming: Haadstik 13. Ynformaasje Theory

Wy kinne de earste faktor yn 'e twadde termyn smyt, nimme it as 1. Sa krije wy de ûngelikens

Richard Hamming: Haadstik 13. Ynformaasje Theory

Fansels,

Richard Hamming: Haadstik 13. Ynformaasje Theory

dêrfandinne

Richard Hamming: Haadstik 13. Ynformaasje Theory

opnij oanfreegje foar de lêste term oan 'e rjochterkant

Richard Hamming: Haadstik 13. Ynformaasje Theory

Taken n grut genôch, de earste term kin wurde nommen sa lyts as winske, sei minder as guon nûmer d. Dêrom hawwe wy

Richard Hamming: Haadstik 13. Ynformaasje Theory

Litte wy no sjen hoe't wy in ienfâldige substitúsjekoade kinne konstruearje om M-berjochten te kodearjen besteande út n bits. Mei gjin idee hoe't se in koade krekt konstruearje (foutkorrigearjende koades wiene noch net útfûn), keas Shannon willekeurige kodearring. Flip in munt foar elk fan de n bits yn it berjocht en werhelje it proses foar M berjochten. Yn totaal moatte nM coin flips wurde makke, dus it is mooglik

Richard Hamming: Haadstik 13. Ynformaasje Theory

koade wurdboeken mei deselde kâns ½nM. Fansels betsjut it willekeurige proses fan it meitsjen fan in koadeboek dat d'r in mooglikheid is fan duplikaten, lykas koadepunten dy't tichtby elkoar sille wêze en dêrom in boarne wêze fan wierskynlike flaters. Men moat bewize dat as dit net bart mei in kâns grutter as in lyts keazen flaternivo, dan is de opjûne n grut genôch.
It krúsjale punt is dat Shannon alle mooglike koadeboeken gemiddeld hat om de gemiddelde flater te finen! Wy sille it symboal Av[.] brûke om de gemiddelde wearde oer de set fan alle mooglike willekeurige koadeboeken oan te jaan. It gemiddelde oer in konstante d jout fansels in konstante, om't foar it gemiddelde fan elke term itselde is as elke oare term yn 'e som,

Richard Hamming: Haadstik 13. Ynformaasje Theory

wat kin wurde ferhege (M–1 giet nei M)

Richard Hamming: Haadstik 13. Ynformaasje Theory

Foar elk opjûn berjocht, by it gemiddelde oer alle koadeboeken, rint de kodearring troch alle mooglike wearden, sadat de gemiddelde kâns dat in punt yn in bol is de ferhâlding fan it folume fan 'e sfear ta it totale folume fan romte. It folume fan 'e bol is

Richard Hamming: Haadstik 13. Ynformaasje Theory

wêrby't s=Q+e2 <1/2 en ns in hiel getal wêze moat.

De lêste term oan 'e rjochterkant is de grutste yn dizze som. Litte wy earst de wearde skatte mei de Stirling-formule foar fakulteiten. Wy sille dan sjen nei de ôfnimmende koeffizient fan 'e term dêrfoar, tink derom dat dizze koëffisjint tanimt as wy nei lofts gean, en sa kinne wy: (1) de wearde fan 'e som beheine ta de som fan 'e geometryske foarútgong mei dizze begjinkoëffisjint, (2) wreidzje de geometryske foarútgong út ns termen nei in ûneinich oantal termen, (3) berekkenje de som fan in ûneinige geometryske foarútgong (standert algebra, neat wichtich) en úteinlik krije de beheinende wearde (foar in foldwaande grut n):

Richard Hamming: Haadstik 13. Ynformaasje Theory

Merk op hoe't de entropy H(s) ferskynde yn 'e binomiale identiteit. Tink derom dat de útwreiding fan 'e Taylor-searje H(s)=H(Q+e2) in skatting jout dy't allinich de earste derivative rekken hâldt en alle oaren negearje. Litte wy no de lêste útdrukking gearstelle:

Richard Hamming: Haadstik 13. Ynformaasje Theory

wêr

Richard Hamming: Haadstik 13. Ynformaasje Theory

Alles wat wy hoege te dwaan is e2 sa te kiezen dat e3 < e1, en dan sil de lêste term willekeurich lyts wêze, salang't n grut genôch is. Dêrtroch kin de gemiddelde PE-flater sa lyts as winske wurde krigen mei de kanaalkapasiteit willekeurich tichtby C.
As it gemiddelde fan alle koades in lyts genôch flater hat, dan moat op syn minst ien koade geskikt wêze, dêrom is d'r op syn minst ien gaadlik kodearringsysteem. Dit is in wichtich resultaat krigen troch Shannon - "Shannon's teorem foar in lawaaierich kanaal", hoewol it moat wurde opmurken dat hy dit bewiisde foar in folle algemiener gefal as foar it ienfâldige binêre symmetryske kanaal dat ik brûkte. Foar it algemiene gefal, de wiskundige berekkeningen binne folle yngewikkelder, mar de ideeën binne net sa oars, dus hiel faak, mei help fan it foarbyld fan in bepaald gefal, kinne jo reveal de wiere betsjutting fan 'e stelling.

Litte wy it resultaat bekritisearje. Wy hawwe kearen werhelle: "Foar genôch grutte n." Mar hoe grut is n? Hiel, heul grut as jo wirklik sawol tichtby de kanaalkapasiteit wolle wêze en wis wêze fan 'e juste gegevensoerdracht! Sa grut, trouwens, dat jo in heul lang moatte wachtsje om in berjocht fan genôch bits te sammeljen om it letter te kodearjen. Yn dit gefal sil de grutte fan it willekeurige koadewurdboek gewoan enoarm wêze (sa'n wurdboek kin ommers net yn koartere foarm fertsjintwurdige wurde as in folsleine list fan alle Mn-bits, nettsjinsteande it feit dat n en M tige grut binne)!

Flater-korrigearjende koades foarkomme it wachtsjen op in heul lang berjocht en dan it kodearjen en dekodearjen fia heul grutte koadeboeken, om't se koadeboeken sels foarkomme en ynstee gewoane berekkening brûke. Yn ienfâldige teory, sokke koades oanstriid te ferliezen de mooglikheid om te benaderjen de kanaal kapasiteit en noch hanthavenje in lege flater rate, mar doe't de koade korrigearret in grut oantal flaters, se prestearje goed. Mei oare wurden, as jo wat kanaalkapasiteit tawize oan flaterkorreksje, dan moatte jo it measte fan 'e tiid de mooglikheid foar flaterkorreksje brûke, d.w.s. in grut oantal flaters moatte korrizjearre wurde yn elk ferstjoerd berjocht, oars fergrieme jo dizze kapasiteit.

Tagelyk is de boppesteande stelling noch altyd net sinleas! It lit sjen dat effisjinte oerdrachtsystemen tûke kodearringskema's moatte brûke foar heul lange bitstrings. In foarbyld binne satelliten dy't bûten de bûtenplaneten flein binne; As se fuortgean fan 'e ierde en de sinne, wurde se twongen om hieltyd mear flaters yn it gegevensblok te korrigearjen: guon satelliten brûke sinnepanielen, dy't sa'n 5 W leverje, oaren brûke kearnkrêftboarnen, dy't sawat deselde krêft leverje. De lege krêft fan 'e stroomfoarsjenning, de lytse grutte fan stjoerders en de beheinde grutte fan ûntfangergerjochten op ierde, de enoarme ôfstân dy't it sinjaal moat reizgje - dit alles fereasket it gebrûk fan koades mei in heech nivo fan flaterkorreksje om in effektyf kommunikaasje systeem.

Litte wy weromgean nei de n-diminsjonale romte dy't wy brûkten yn it hjirboppe bewiis. By it besprekken hawwe wy sjen litten dat hast it hiele folume fan 'e sfear konsintrearre is tichtby it bûtenste oerflak - dus is it hast wis dat it ferstjoerde sinjaal tichtby it oerflak fan' e sfear leit dy't boud is om it ûntfongen sinjaal, sels mei in relatyf lytse straal fan sa'n bol. Dêrom is it net ferrassend dat it ûntfongen sinjaal, nei it korrigearjen fan in willekeurich grut oantal flaters, nQ, blykt te wêzen willekeurich tichtby in sinjaal sûnder flaters. De keppelingskapasiteit dy't wy earder besprutsen hawwe, is de kaai foar it begripen fan dit ferskynsel. Tink derom dat ferlykbere sfearen konstruearre foar flaterkorrigearjen fan Hamming-koades inoar net oerlaapje. It grutte oantal hast ortogonale ôfmjittings yn n-diminsjonale romte lit sjen wêrom't wy kinne passe M sfearen yn romte mei in bytsje oerlaap. As wy tastean in lytse, willekeurich lytse oerlaap, dat kin liede ta mar in lyts oantal flaters by dekodearjen, kinne wy ​​krije in tichte pleatsing fan sfearen yn romte. Hamming garandearre in beskaat nivo fan flater korreksje, Shannon - in lege kâns op flater, mar tagelyk behâld fan de eigentlike trochstreaming willekeurich tichtby de kapasiteit fan de kommunikaasje kanaal, dat Hamming koades kin net dwaan.

Ynformaasje teory fertelt ús net hoe't jo in effisjint systeem ûntwerpe, mar it wiist de wei nei effisjinte kommunikaasjesystemen. It is in weardefol ark foar it bouwen fan masine-oan-masine-kommunikaasjesystemen, mar, lykas earder opmurken, hat it net folle relevânsje foar hoe't minsken mei elkoar kommunisearje. De mjitte wêryn biologyske erfskip is as technyske kommunikaasjesystemen is gewoan ûnbekend, dus it is op it stuit net dúdlik hoe't ynformaasjeteory jildt foar genen. Wy hawwe gjin oare kar as om te besykjen, en as sukses ús de masine-like aard fan dit ferskynsel toant, dan sil mislearring wize op oare wichtige aspekten fan 'e natuer fan ynformaasje.

Lit ús net tefolle ôfwike. Wy hawwe sjoen dat alle orizjinele definysjes, yn mear of mindere mjitte, de essinsje fan ús oarspronklike leauwen útdrukke moatte, mar se wurde karakterisearre troch in bepaalde graad fan ferfoarming en binne dêrom net fan tapassing. It is tradisjoneel akseptearre dat, úteinlik, de definysje wy brûke eins definiearret de essinsje; mar, dit allinne fertelt ús hoe te ferwurkjen dingen en op gjin inkelde wize bringt gjin betsjutting oan ús. De postulative oanpak, sa sterk befoarrjochte yn wiskundige rûnten, lit yn 'e praktyk folle te winskjen oer.

No sille wy nei in foarbyld fan IQ-tests sjen wêr't de definysje sa sirkulêr is as jo wolle en, as gefolch, misleidend. Der wurdt in test makke dy't yntelliginsje mjitte moat. It wurdt dan feroare om it sa konsekwint mooglik te meitsjen, en dan wurdt it publisearre en, yn in ienfâldige metoade, kalibrearre sadat de mjitten "yntelliginsje" normaal ferdield blykt te wêzen (op in kalibraasjekromme, fansels). Alle definysjes moatte opnij kontrolearre wurde, net allinich as se foar it earst foarsteld wurde, mar ek folle letter, as se brûkt wurde yn 'e konklúzjes dy't lutsen wurde. Yn hoefier binne de definysjegrinzen passend foar it probleem dat oplost wurdt? Hoe faak wurde definysjes jûn yn ien ynstelling tapast yn hiel ferskillende ynstellings? Dit bart hiel faak! Yn 'e geasteswittenskippen, dy't jo ûnûntkomber yn jo libben tsjinkomme, bart dat faker.

Sa wie ien fan 'e doelen fan dizze presintaasje fan ynformaasjeteory, neist it demonstrearjen fan har nut, om jo te warskôgjen foar dit gefaar, of jo krekt sjen te litten hoe't jo it brûke om it winske resultaat te krijen. It is al lang opmurken dat inisjele definysjes bepale wat jo op it lêst fine, yn folle gruttere mjitte dan it liket. Inisjele definysjes fereaskje in soad omtinken fan jo, net allinich yn elke nije situaasje, mar ek yn gebieten dêr't jo al langer mei wurkje. Dit sil tastean jo te begripen yn hoefier't de resultaten krigen binne in tautology en net wat nuttich.

It ferneamde ferhaal fan Eddington fertelt fan minsken dy't mei in net yn see fisken. Nei it bestudearjen fan de grutte fan 'e fisken dy't se fongen, bepale se de minimale grutte fan fisken dy't yn 'e see fûn wurde! Har konklúzje waard dreaun troch it brûkte ynstrumint, net troch de realiteit.

Oanhâlde wurde ...

Wa helpe wol mei de oersetting, opmaak en útjefte fan it boek - skriuw yn in persoanlik berjocht of e-mail [e-post beskerme]

Trouwens, wy hawwe ek de oersetting lansearre fan in oar cool boek - "The Dream Machine: The Story of the Computer Revolution")

Wy binne benammen op syk nei dyjingen dy't helpe kinne oersette bonus haadstik, dat is allinnich op fideo. (oerdracht foar 10 minuten, de earste 20 binne al nommen)

Ynhâld fan it boek en oersette haadstikkenFoarwurd

  1. Intro to The Art of Doing Science and Engineering: Learning to Learn (28 maart 1995) Oersetting: Haadstik 1
  2. "Foundations of the Digital (Discrete) Revolution" (30 maart 1995) Haadstik 2. Fundamentals fan de digitale (diskrete) revolúsje
  3. "History of Computers - Hardware" (31 maart 1995) Haadstik 3. Skiednis fan kompjûters - Hardware
  4. "History of Computers - Software" (4 april 1995) Haadstik 4. Skiednis fan kompjûters - Software
  5. "History of Computers - Applications" (6 april 1995) Haadstik 5: Skiednis fan kompjûters - Praktyske tapassingen
  6. "Artificial Intelligence - Part I" (7 april 1995) Haadstik 6. Keunstmjittige yntelliginsje - 1
  7. "Artificial Intelligence - Part II" (11 april 1995) Haadstik 7. Keunstmjittige yntelliginsje - II
  8. "Artificial Intelligence III" (13 april 1995) Haadstik 8. Keunstmjittige yntelliginsje-III
  9. "n-Dimensional Space" (14 april 1995) Haadstik 9. N-dimensional romte
  10. "Koadeteory - De fertsjintwurdiging fan ynformaasje, diel I" (18 april 1995) Haadstik 10. Koadeteory - I
  11. "Koadeteory - De fertsjintwurdiging fan ynformaasje, diel II" (20 april 1995) Haadstik 11. Kodearring Teory - II
  12. "Flater-korrigearjende koades" (21 april 1995) Haadstik 12. Flater korreksje koades
  13. "Ynformaasjeteory" (25 april 1995) Haadstik 13. Ynformaasje Theory
  14. "Digitale filters, diel I" (27 april 1995) Haadstik 14. Digitale filters - 1
  15. "Digitale filters, diel II" (28 april 1995) Haadstik 15. Digitale filters - 2
  16. "Digitale filters, diel III" (2 maaie 1995) Haadstik 16. Digitale filters - 3
  17. "Digitale filters, diel IV" (4 maaie 1995) Haadstik 17. Digitale Filters - IV
  18. "Simulaasje, diel I" (5 maaie 1995) Haadstik 18. Modellearjen - I
  19. "Simulaasje, diel II" (9 maaie 1995) Haadstik 19. Modeling - II
  20. "Simulaasje, diel III" (11 maaie 1995) Haadstik 20. Modeling - III
  21. "Fiber Optics" (12 maaie 1995) Haadstik 21. Fiber optics
  22. "Computer Aided Instruction" (16 maaie 1995) Haadstik 22: Computer Assisted Instruction (CAI)
  23. "Wiskunde" (18 maaie 1995) Haadstik 23. Wiskunde
  24. "Quantum Mechanics" (19 maaie 1995) Haadstik 24. Kwantummeganika
  25. "Kreativiteit" (23 maaie 1995). Oersetting: Haadstik 25. Kreativiteit
  26. "Experts" (25 maaie 1995) Haadstik 26. Eksperts
  27. "Unbetroubere gegevens" (26 maaie 1995) Haadstik 27. Unbetroubere gegevens
  28. "Systems Engineering" (30 maaie 1995) Haadstik 28. Systems Engineering
  29. "Jo krije wat jo mjitte" (1 juny 1995) Haadstik 29: Jo krije wat jo mjitte
  30. "Hoe witte wy wat wy witte" (Juny 2, 1995) oersette yn brokken fan 10 minuten
  31. Hamming, "Jo en jo ûndersyk" (6 juny 1995). Oersetting: Jo en jo wurk

Wa helpe wol mei de oersetting, opmaak en útjefte fan it boek - skriuw yn in persoanlik berjocht of e-mail [e-post beskerme]

Boarne: www.habr.com

Add a comment