Richard Hamming: 13. fejezet Információelmélet

Megcsináltuk!

"A tanfolyam célja, hogy felkészítsen a műszaki jövőre."

Richard Hamming: 13. fejezet InformációelméletSzia Habr. Emlékezzen a fantasztikus cikkre "Te és a munkád" (+219, 2588 könyvjelző, 429 ezer olvasás)?

Tehát Hamming (igen, igen, önellenőrzés és önjavítás Hamming kódok) van egy egész könyvelőadásai alapján írt. Lefordítjuk, mert az ember kimondja a véleményét.

Ez a könyv nem csak az informatikáról szól, hanem hihetetlenül menő emberek gondolkodási stílusáról. „Ez nem csak a pozitív gondolkodás fellendítése; leírja azokat a feltételeket, amelyek növelik a nagyszerű munkavégzés esélyét.”

Köszönet Andrey Pakhomovnak a fordításért.

Az információelméletet C. E. Shannon fejlesztette ki az 1940-es évek végén. A Bell Labs vezetősége ragaszkodott hozzá, hogy ezt "kommunikációs elméletnek" nevezze, mert... ez sokkal pontosabb név. Nyilvánvaló okokból az "Information Theory" elnevezés sokkal nagyobb hatással van a közvéleményre, ezért választotta Shannon ezt, és ezt a nevet ismerjük a mai napig. Már maga a név is azt sugallja, hogy az elmélet információval foglalkozik, ami fontossá teszi, ahogy egyre mélyebbre haladunk az információs korban. Ebben a fejezetben ennek az elméletnek több fő következtetését érintem, és nem szigorú, hanem intuitív bizonyítékokat adok ennek az elméletnek néhány egyedi rendelkezésére, hogy megértse, mi is az „Információelmélet”, és hol tudja alkalmazni. és hol nem.

Először is, mi az az „információ”? Shannon egyenlőségjelet tesz az információ és a bizonytalanság között. Egy esemény valószínűségének negatív logaritmusát választotta annak az információnak a mennyiségi mérőszámaként, amelyet p valószínűségű esemény bekövetkeztekor kap. Például, ha azt mondom, hogy Los Angelesben ködös az idő, akkor p közel 1, ami valóban nem ad sok információt. De ha azt mondom, hogy Montereyben júniusban esik az eső, akkor az üzenetben bizonytalanság lesz, és több információt fog tartalmazni. Egy megbízható esemény nem tartalmaz információt, mivel log 1 = 0.

Nézzük ezt részletesebben. Shannon úgy vélte, hogy az információ mennyiségi mérőszámának egy p esemény valószínűségének folytonos függvényének kell lennie, független események esetén pedig additívnak kell lennie - a két független esemény bekövetkezése eredményeként kapott információ mennyiségének meg kell egyeznie a egy közös esemény bekövetkezésének eredményeként szerzett információ mennyisége. Például egy kockadobás és egy érmedobás kimenetelét általában független eseményként kezelik. Fordítsuk le a fentieket a matematika nyelvére. Ha I (p) egy p valószínűségű eseményben található információ mennyisége, akkor két független eseményből álló együttes eseményre x p1 valószínűséggel és y p2 valószínűséggel kapjuk

Richard Hamming: 13. fejezet Információelmélet
(x és y független események)

Ez a funkcionális Cauchy-egyenlet, amely minden p1-re és p2-re igaz. Ennek a funkcionális egyenletnek a megoldásához tegyük fel, hogy

p1 = p2 = p,

ez ad

Richard Hamming: 13. fejezet Információelmélet

Ha p1 = p2 és p2 = p akkor

Richard Hamming: 13. fejezet Információelmélet

stb. Ha ezt a folyamatot kiterjesztjük az exponenciális standard módszerrel, minden m/n racionális számra igaz a következő

Richard Hamming: 13. fejezet Információelmélet

Az információs mérték feltételezett folytonosságából az következik, hogy a logaritmikus függvény az egyetlen folytonos megoldás a funkcionális Cauchy-egyenletre.

Az információelméletben elterjedt, hogy a logaritmusalapot 2-nek vesszük, tehát egy bináris választás pontosan 1 bitnyi információt tartalmaz. Ezért az információt a képlet méri

Richard Hamming: 13. fejezet Információelmélet

Álljunk meg, és értsük meg, mi történt fent. Először is, nem definiáltuk az „információ” fogalmát, egyszerűen meghatároztuk a mennyiségi mérőszámának képletét.

Másodszor, ez az intézkedés bizonytalanságnak van kitéve, és bár ésszerűen alkalmas gépekre – például telefonrendszerekre, rádiókra, televíziókra, számítógépekre stb. –, nem tükrözi az információkhoz való normális emberi hozzáállást.

Harmadszor, ez egy relatív mérték, a tudás aktuális állapotától függ. Ha egy véletlenszám-generátorból megnézi a „véletlen számok” folyamát, feltételezi, hogy minden következő szám bizonytalan, de ha ismeri a „véletlen számok” kiszámításának képletét, a következő szám ismert lesz, és ezért nem. információkat tartalmaznak.

Tehát Shannon információdefiníciója sok esetben megfelelő a gépekre, de úgy tűnik, nem illeszkedik a szó emberi értelmezéséhez. Ez az oka annak, hogy az „információelméletet” „kommunikációs elméletnek” kellett volna nevezni. Azonban már késő változtatni a definíciókon (amelyek megadták az elmélet kezdeti népszerűségét, és amelyek még mindig azt gondolják az emberekben, hogy ez az elmélet "információkkal" foglalkozik), ezért együtt kell élnünk velük, de ugyanakkor muszáj. világosan megértsék, milyen messze van Shannon információdefiníciója az általánosan használt jelentésétől. Shannon információi egészen másról szólnak, mégpedig a bizonytalanságról.

Itt van valami, amire gondolni kell, amikor bármilyen terminológiát javasol. Hogyan egyezik egy javasolt definíció, például Shannon információdefiníciója az Ön eredeti elképzelésével, és mennyiben más? Szinte nincs olyan kifejezés, amely pontosan tükrözné az Ön korábbi elképzelését a fogalomról, de végső soron a használt terminológia tükrözi a fogalom jelentését, így valaminek egyértelmű definíciókkal történő formalizálása mindig némi zajt okoz.

Tekintsünk egy rendszert, amelynek ábécéje pi valószínűségű q ​​szimbólumokból áll. Ebben az esetben átlagos információmennyiség a rendszerben (várható értéke) egyenlő:

Richard Hamming: 13. fejezet Információelmélet

Ezt a rendszer entrópiájának nevezzük {pi} valószínűségi eloszlással. Az entrópia kifejezést azért használjuk, mert ugyanaz a matematikai forma jelenik meg a termodinamikában és a statisztikai mechanikában. Ez az oka annak, hogy az „entrópia” kifejezés bizonyos fontossági aurát kelt maga körül, ami végső soron nem indokolt. Ugyanaz a matematikai jelölési forma nem jelenti a szimbólumok azonos értelmezését!

A valószínűségi eloszlás entrópiája nagy szerepet játszik a kódoláselméletben. A két különböző pi és qi valószínűségi eloszlás Gibbs-egyenlőtlensége ennek az elméletnek az egyik fontos következménye. Tehát ezt bizonyítanunk kell

Richard Hamming: 13. fejezet Információelmélet

A bizonyítás egy nyilvánvaló grafikonon alapul, ábra. 13.I, ami azt mutatja

Richard Hamming: 13. fejezet Információelmélet

és az egyenlőség csak akkor érhető el, ha x = 1. Alkalmazzuk az egyenlőtlenséget a bal oldali összeg minden tagjára:

Richard Hamming: 13. fejezet Információelmélet

Ha egy kommunikációs rendszer ábécéje q szimbólumból áll, akkor az egyes szimbólumok átviteli valószínűségét qi = 1/q és q-t helyettesítve a Gibbs-egyenlőtlenségből kapjuk

Richard Hamming: 13. fejezet Információelmélet

Richard Hamming: 13. fejezet Információelmélet

13.I ábra

Ez azt jelenti, hogy ha az összes q szimbólum átvitelének valószínűsége azonos és egyenlő -1 / q-val, akkor a maximális entrópia egyenlő ln q-val, különben az egyenlőtlenség fennáll.

Egyedülállóan dekódolható kód esetén Kraft-egyenlőtlenségünk van

Richard Hamming: 13. fejezet Információelmélet

Ha most pszeudovalószínűségeket határozunk meg

Richard Hamming: 13. fejezet Információelmélet

ahol persze Richard Hamming: 13. fejezet Információelmélet= 1, ami a Gibbs-egyenlőtlenségből következik,

Richard Hamming: 13. fejezet Információelmélet

és alkalmazunk egy kis algebrát (emlékezzünk arra, hogy K ≤ 1, így eldobhatjuk a logaritmikus tagot, és esetleg később erősíthetjük az egyenlőtlenséget), kapjuk

Richard Hamming: 13. fejezet Információelmélet

ahol L az átlagos kódhossz.

Így az entrópia minden karakterenkénti kód minimális korlátja, amelynek átlagos kódszóhossza L. Ez Shannon tétele az interferenciamentes csatornára.

Most nézzük meg a fő tételt a kommunikációs rendszerek korlátairól, amelyekben az információ független bitek folyamaként kerül továbbításra, és zaj van jelen. Nyilvánvaló, hogy egy bit helyes átvitelének valószínűsége P > 1/2, és annak a valószínűsége, hogy az átvitel során a bitérték megfordul (hiba történik), Q = 1 - P. A kényelem kedvéért Tételezzük fel, hogy a hibák függetlenek, és a hiba valószínűsége minden elküldött bit esetében azonos - azaz „fehér zaj” van a kommunikációs csatornában.

Az a mód, ahogyan egy hosszú n bites folyamot kódolunk egy üzenetbe, az egybites kód n-dimenziós kiterjesztése. Az n értékét később határozzuk meg. Tekintsünk egy n-bites üzenetet pontnak az n-dimenziós térben. Mivel van egy n-dimenziós térünk - és az egyszerűség kedvéért feltételezzük, hogy minden üzenetnek azonos az előfordulási valószínűsége -, M üzenet lehetséges (M is később lesz meghatározva), ezért bármely üzenet elküldésének valószínűsége

Richard Hamming: 13. fejezet Információelmélet

Richard Hamming: 13. fejezet Információelmélet
(feladó)
Menetrend 13.II

Ezután fontolja meg a csatornakapacitás ötletét. Anélkül, hogy a részletekbe mennénk, a csatornakapacitás az a maximális információmennyiség, amely egy kommunikációs csatornán megbízhatóan továbbítható, figyelembe véve a leghatékonyabb kódolás alkalmazását. Nincs érv amellett, hogy egy kommunikációs csatornán több információ továbbítható, mint amennyi a kapacitása. Ez bizonyítható egy bináris szimmetrikus csatornára (amelyet esetünkben használunk). A csatornakapacitás bitek küldésekor a következőképpen van megadva

Richard Hamming: 13. fejezet Információelmélet

ahol a korábbiakhoz hasonlóan P az a valószínűsége, hogy egyetlen elküldött bitben sem lesz hiba. n független bit küldésekor a csatorna kapacitását a

Richard Hamming: 13. fejezet Információelmélet

Ha közel vagyunk a csatorna kapacitásához, akkor majdnem ekkora információt kell küldenünk az ai szimbólumok mindegyikére, i = 1, ..., M. Figyelembe véve, hogy minden ai szimbólum előfordulási valószínűsége 1 / M, megkapjuk

Richard Hamming: 13. fejezet Információelmélet

amikor M egyformán valószínű üzenetet küldünk ai, akkor van

Richard Hamming: 13. fejezet Információelmélet

Amikor n bitet küldünk, nQ hibákra számítunk. A gyakorlatban egy n-bites üzenet esetén körülbelül nQ hibánk lesz a fogadott üzenetben. Nagy n esetén relatív eltérés (variáció = eloszlási szélesség, )
a hibák számának eloszlása ​​n növekedésével egyre szűkebb lesz.

Tehát az adó oldaláról az ai üzenetet küldöm, és körberajzolok egy sugarú gömböt.

Richard Hamming: 13. fejezet Információelmélet

amely valamivel nagyobb e2-vel egyenlő, mint a Q, várható hibaszám (13.II. ábra). Ha n elég nagy, akkor tetszőlegesen kicsi a valószínűsége annak, hogy egy bj üzenetpont jelenik meg a vevő oldalon, amely túlnyúlik ezen a gömbön. Vázoljuk fel a helyzetet, ahogy én látom az adó szemszögéből: van tetszőleges sugarunk az ai továbbított üzenettől a fogadott bj üzenetig, amelynek hibavalószínűsége megegyezik (vagy majdnem egyenlő) a normál eloszlással, elérve a maximumot. az nQ. Bármely adott e2-re van egy olyan nagy n, hogy annak a valószínűsége, hogy a kapott bj pont kívül esik a gömbömön, olyan kicsi, amennyit csak akar.

Most nézzük meg ugyanezt a helyzetet az Ön oldaláról (13.III. ábra). A fogadó oldalon egy azonos r sugarú S(r) gömb található a bj vett pont körül az n-dimenziós térben, így ha a fogadott bj üzenet az én gömbömön belül van, akkor az általam küldött ai üzenet a te gömbödön belül van. gömb.

Hogyan fordulhat elő hiba? A hiba az alábbi táblázatban leírt esetekben fordulhat elő:

Richard Hamming: 13. fejezet Információelmélet

ábra 13.III

Richard Hamming: 13. fejezet Információelmélet

Itt azt látjuk, hogy ha a fogadott pont köré épített gömbben van még legalább egy pont, amely megfelel egy esetleges elküldött kódolatlan üzenetnek, akkor az átvitel során hiba történt, mivel nem lehet megállapítani, hogy ezek közül melyik üzenetet küldték el. Az elküldött üzenet csak akkor hibamentes, ha a hozzá tartozó pont a gömbben van, és az adott kódban nincs más olyan pont, amely ugyanabban a gömbben található.

Van egy matematikai egyenletünk a Pe hiba valószínűségére, ha ai üzenetet küldünk

Richard Hamming: 13. fejezet Információelmélet

Az első tényezőt a második tagban kidobhatjuk, 1-nek vesszük. Így megkapjuk az egyenlőtlenséget

Richard Hamming: 13. fejezet Információelmélet

Nyilvánvaló, hogy

Richard Hamming: 13. fejezet Információelmélet

ennélfogva

Richard Hamming: 13. fejezet Információelmélet

jelentkezzen újra a jobb oldali utolsó kifejezésre

Richard Hamming: 13. fejezet Információelmélet

Ha n-et elég nagyra veszünk, akkor az első tagot tetszőleges kicsinek vehetjük, mondjuk kisebbnek, mint valamilyen d számnak. Ezért van

Richard Hamming: 13. fejezet Információelmélet

Most nézzük meg, hogyan készíthetünk egyszerű helyettesítő kódot M üzenet kódolására, amelyek n bitből állnak. Mivel fogalma sem volt arról, hogyan kell pontosan felépíteni egy kódot (a hibajavító kódokat még nem találták fel), Shannon a véletlenszerű kódolást választotta. Fordítson egy-egy érmét az üzenet n bitjéhez, és ismételje meg a folyamatot M üzenet esetén. Összesen nM érmefeldobást kell készíteni, szóval lehetséges

Richard Hamming: 13. fejezet Információelmélet

kódszótárak azonos valószínűséggel ½nM. Természetesen a kódkönyv létrehozásának véletlenszerű folyamata azt jelenti, hogy lehetőség van duplikációkra, valamint olyan kódpontokra, amelyek közel lesznek egymáshoz, és ezért valószínűsíthető hibák forrása lehet. Be kell bizonyítani, hogy ha ez nem történik meg bármely kis választott hibaszintnél nagyobb valószínűséggel, akkor az adott n elég nagy.
A döntő pont az, hogy Shannon átlagolta az összes lehetséges kódkönyvet, hogy megtalálja az átlagos hibát! Az Av[.] szimbólumot használjuk az összes lehetséges véletlen kódkönyv halmazának átlagértékének jelölésére. A d konstans átlagolása természetesen állandót ad, mivel az átlagoláshoz minden tag megegyezik az összes többi taggal,

Richard Hamming: 13. fejezet Információelmélet

ami növelhető (M–1 megy M-re)

Richard Hamming: 13. fejezet Információelmélet

Egy adott üzenet esetében az összes kódkönyv átlagolásakor a kódolás az összes lehetséges értéken átfut, így annak átlagos valószínűsége, hogy egy pont egy gömbben van, a gömb térfogatának és a teljes tértérfogatnak az aránya. A gömb térfogata az

Richard Hamming: 13. fejezet Információelmélet

ahol s=Q+e2 <1/2 és ns-nek egész számnak kell lennie.

A jobb oldali utolsó tag a legnagyobb ebben az összegben. Először becsüljük meg az értékét a faktoriális Stirling-képlet segítségével. Ezután megnézzük az előtte lévő tag csökkenő együtthatóját, és megjegyezzük, hogy ez az együttható balra haladva növekszik, és így: (1) korlátozhatjuk az összeg értékét a geometriai progresszió összegére ezt a kezdeti együtthatót, (2) bővítse ki a geometriai haladást ns tagról végtelen számú tagra, (3) számítsa ki egy végtelen geometriai haladás összegét (standard algebra, semmi jelentős), és végül megkapja a határértéket (elég nagyra n):

Richard Hamming: 13. fejezet Információelmélet

Figyeljük meg, hogyan jelent meg a H entrópia a binomiális azonosságban. Megjegyezzük, hogy a Taylor-sor H(s)=H(Q+e2) kiterjesztése olyan becslést ad, amely csak az első deriváltot veszi figyelembe, és figyelmen kívül hagyja az összes többit. Most állítsuk össze a végső kifejezést:

Richard Hamming: 13. fejezet Információelmélet

ahol

Richard Hamming: 13. fejezet Információelmélet

Csak annyit kell tennünk, hogy e2-t választunk úgy, hogy e3 < e1, és akkor az utolsó tag tetszőlegesen kicsi lesz, amíg n elég nagy. Következésképpen az átlagos PE hiba tetszőlegesen kicsiny, ha a csatornakapacitás tetszőlegesen közel van C-hez.
Ha az összes kód átlagában elég kicsi a hiba, akkor legalább egy kódnak megfelelőnek kell lennie, tehát van legalább egy megfelelő kódrendszer. Ez egy fontos eredmény, amelyet Shannon ért el – "Shannon tétele zajos csatornára", bár meg kell jegyezni, hogy ezt sokkal általánosabb esetre igazolta, mint az általam használt egyszerű bináris szimmetrikus csatornára. Az általános esetben a matematikai számítások sokkal bonyolultabbak, de az ötletek nem különböznek annyira, így nagyon gyakran egy konkrét eset példáján feltárható a tétel valódi jelentése.

Kritizáljuk az eredményt. Többször megismételtük: „Elég nagy n esetén.” De mekkora az n? Nagyon-nagyon nagy, ha valóban közel akar lenni a csatornakapacitáshoz, és biztos akar lenni a helyes adatátvitelben! Valójában olyan nagy, hogy nagyon sokáig kell várnia, hogy elegendő bites üzenetet halmozzon fel, hogy később kódolja. Ebben az esetben a véletlen kódszótár mérete egyszerűen hatalmas lesz (végül is egy ilyen szótár nem ábrázolható rövidebb formában, mint az összes Mn bit teljes listája, annak ellenére, hogy n és M nagyon nagy)!

A hibajavító kódok elkerülik, hogy megvárjanak egy nagyon hosszú üzenetet, majd azt nagyon nagy kódkönyveken keresztül kódolják és dekódolják, mivel magukat elkerülik a kódkönyveket, és helyette szokásos számításokat használnak. Egyszerű elméletben az ilyen kódok hajlamosak elveszíteni azt a képességet, hogy megközelítsék a csatornakapacitást, és továbbra is alacsony hibaarányt tartsanak fenn, de ha a kód nagyszámú hibát javít, akkor jól teljesítenek. Más szóval, ha valamilyen csatornakapacitást lefoglal a hibajavításra, akkor legtöbbször a hibajavító képességet kell használnia, azaz minden elküldött üzenetben nagyszámú hibát kell kijavítani, különben elpazarolja ezt a kapacitást.

Ugyanakkor a fent bizonyított tétel még mindig nem értelmetlen! Ez azt mutatja, hogy a hatékony átviteli rendszereknek ügyes kódolási sémákat kell használniuk nagyon hosszú bitsorokhoz. Példa erre a műholdak, amelyek túlrepültek a külső bolygókon; Ahogy távolodnak a Földtől és a Naptól, egyre több hibát kénytelenek kijavítani az adatblokkban: egyes műholdak napelemeket használnak, amelyek körülbelül 5 W-ot, mások nukleáris energiaforrásokat használnak, amelyek körülbelül azonos teljesítményt biztosítanak. A tápegység alacsony teljesítménye, az adótányérok kis mérete és a Földön a vevőtányérok korlátozott mérete, a hatalmas távolság, amelyet a jelnek meg kell haladnia – mindez magas szintű hibajavító kódokat igényel egy hatékony kommunikációs rendszer.

Térjünk vissza a fenti bizonyításban használt n-dimenziós térhez. Ennek tárgyalása során megmutattuk, hogy a gömb szinte teljes térfogata a külső felület közelében összpontosul – így szinte biztos, hogy a kiküldött jel a vett jel köré épített gömb felülete közelében helyezkedik el, még akkor is, ha a gömb relatív. egy ilyen gömb kis sugara. Ezért nem meglepő, hogy a vett jel tetszőlegesen nagy számú hiba, nQ kijavítása után tetszőlegesen közel áll egy hibamentes jelhez. A korábban tárgyalt kapcsolati kapacitás a kulcs e jelenség megértéséhez. Ne feledje, hogy a Hamming-kódok hibajavítására felépített hasonló gömbök nem fedik át egymást. Az n-dimenziós térben a közel merőleges dimenziók nagy száma azt mutatja, hogy miért tudunk M gömböt kis átfedéssel a térben elhelyezni. Ha megengedünk egy kis, tetszőlegesen kicsi átfedést, ami csak kis számú hibához vezethet a dekódolás során, akkor sűrű gömbelhelyezést kaphatunk a térben. Hamming garantált egy bizonyos szintű hibajavítást, Shannon - a hiba alacsony valószínűségét, ugyanakkor a tényleges átviteli sebességet tetszőlegesen közel tartja a kommunikációs csatorna kapacitásához, amit a Hamming-kódok nem tudnak megtenni.

Az információelmélet nem mondja meg nekünk, hogyan tervezzünk hatékony rendszert, de utat mutat a hatékony kommunikációs rendszerek felé. Értékes eszköz a gépek közötti kommunikációs rendszerek felépítéséhez, de amint azt korábban megjegyeztük, csekély jelentősége van az emberek egymás közötti kommunikációjában. Egyszerűen ismeretlen, hogy a biológiai öröklődés milyen mértékben hasonlít a technikai kommunikációs rendszerekhez, így jelenleg nem világos, hogy az információelmélet hogyan vonatkozik a génekre. Nincs más dolgunk, mint próbálkozni, és ha a siker megmutatja nekünk ennek a jelenségnek a gépszerűségét, akkor a kudarc az információ természetének más jelentős aspektusaira is rámutat.

Ne térjünk el túlságosan. Láttuk, hogy minden eredeti definíciónak kisebb-nagyobb mértékben ki kell fejeznie eredeti hiedelmeink lényegét, de bizonyos fokú torzítás jellemzi őket, ezért nem alkalmazhatók. Hagyományosan elfogadott, hogy végső soron az általunk használt definíció határozza meg a lényeget; de ez csak azt mondja meg nekünk, hogyan kell feldolgozni a dolgokat, és semmiképpen nem ad nekünk értelmet. A matematikai körökben oly erősen kedvelt posztulációs megközelítés sok kívánnivalót hagy maga után a gyakorlatban.

Most egy példát tekintünk meg az IQ-tesztekre, ahol a meghatározás olyan kör alakú, amennyire csak szeretné, és ennek eredményeként félrevezető. Létrejön egy teszt, amelynek az intelligenciát kell mérnie. Ezt követően átdolgozzák, hogy minél konzisztensebb legyen, majd publikálják, és egyszerű módszerrel kalibrálják, hogy a mért „intelligencia” normális eloszlású legyen (természetesen kalibrációs görbén). Minden definíciót újra kell ellenőrizni, nem csak az első javaslatkor, hanem sokkal később is, amikor a levont következtetésekben felhasználják őket. Mennyire alkalmasak a definíciós határok a megoldandó problémára? Milyen gyakran alkalmazzák az egy beállításban megadott definíciókat egészen különböző beállításokban? Ez elég gyakran előfordul! A bölcsészettudományokon, amelyekkel elkerülhetetlenül találkozni fog az életében, ez gyakrabban történik meg.

Így ennek az információelméletnek az egyik célja a hasznosságának bemutatása mellett az volt, hogy figyelmeztesse Önt erre a veszélyre, vagy pontosan megmutassa, hogyan kell ezt felhasználni a kívánt eredmény eléréséhez. Régóta megfigyelték, hogy a kezdeti meghatározások sokkal nagyobb mértékben határozzák meg, hogy végül mit találunk, sokkal nagyobb mértékben, mint amilyennek látszik. A kezdeti definíciók nagy odafigyelést igényelnek Öntől, nem csak minden új helyzetben, hanem olyan területeken is, amelyekkel már régóta dolgozik. Ez lehetővé teszi annak megértését, hogy a kapott eredmények mennyiben tautológia, és nem valami hasznos.

Eddington híres története olyan emberekről mesél, akik hálóval halásztak a tengerben. A kifogott halak méretének tanulmányozása után meghatározták a tengerben előforduló hal legkisebb méretét! Következtetésüket a használt eszköz vezérelte, nem a valóság.

Folytatás ...

Aki szeretne segíteni a könyv fordításában, tördelésében, kiadásában, írjon személyes üzenetben vagy emailben [e-mail védett]

Egyébként elindítottunk egy másik klassz könyv fordítását is - "Az álomgép: A számítógépes forradalom története")

Különösen keresünk akik segítenek a fordításban bónusz fejezet, ami csak videón van. (10 perces átszállás, az első 20-at már elvitték)

A könyv és a lefordított fejezetek tartalmaElőszó

  1. Bevezetés a tudomány és mérnöki munka művészetébe: Tanulj meg tanulni (28. március 1995.) Fordítás: 1. fejezet
  2. "A digitális (diszkrét) forradalom alapjai" (30. március 1995.) 2. fejezet A digitális (diszkrét) forradalom alapjai
  3. "Számítógépek története – Hardver" (31. március 1995.) 3. fejezet A számítógépek története - Hardver
  4. "Számítógépek története – Szoftver" (4. április 1995.) 4. fejezet A számítógépek története – Szoftver
  5. "History of Computers - Applications" (6. április 1995.) 5. fejezet: A számítógépek története – gyakorlati alkalmazások
  6. "Mesterséges intelligencia – I. rész" (7. április 1995.) 6. fejezet Mesterséges intelligencia - 1
  7. "Mesterséges intelligencia – II. rész" (11. április 1995.) 7. fejezet Mesterséges intelligencia - II
  8. "Mesterséges intelligencia III" (13. április 1995.) 8. fejezet Mesterséges intelligencia-III
  9. "n-dimenziós tér" (14. április 1995.) 9. fejezet N-dimenziós tér
  10. "Kódoláselmélet – Az információ reprezentációja, I. rész" (18. április 1995.) 10. fejezet Kódoláselmélet - I
  11. "Kódoláselmélet – Az információ reprezentációja, II. rész" (20. április 1995.) 11. fejezet Kódoláselmélet - II
  12. "Hibajavító kódok" (21. április 1995.) 12. fejezet Hibajavító kódok
  13. "Információelmélet" (25. április 1995.) 13. fejezet Információelmélet
  14. "Digitális szűrők, I. rész" (27. április 1995.) 14. fejezet Digitális szűrők - 1
  15. "Digitális szűrők, II. rész" (28. április 1995.) 15. fejezet Digitális szűrők - 2
  16. "Digitális szűrők, III. rész" (2. május 1995.) 16. fejezet Digitális szűrők - 3
  17. "Digitális szűrők, IV. rész" (4. május 1995.) 17. fejezet Digitális szűrők - IV
  18. "Szimuláció, I. rész" (5. május 1995.) 18. fejezet Modellezés - I
  19. "Szimuláció, II. rész" (9. május 1995.) 19. fejezet Modellezés - II
  20. "Szimuláció, III. rész" (11. május 1995.) 20. fejezet Modellezés - III
  21. "Fiber Optics" (12. május 1995.) 21. fejezet Száloptika
  22. "Számítógéppel segített oktatás" (16. május 1995.) 22. fejezet: Computer Assisted Instruction (CAI)
  23. "Matematika" (18. május 1995.) 23. fejezet Matematika
  24. "Kvantummechanika" (19. május 1995.) 24. fejezet Kvantummechanika
  25. "Kreativitás" (23. május 1995.). Fordítás: 25. fejezet: Kreativitás
  26. "Szakértők" (25. május 1995.) 26. fejezet Szakértők
  27. "Megbízhatatlan adatok" (26. május 1995.) 27. fejezet Megbízhatatlan adatok
  28. "Systems Engineering" (30. május 1995.) 28. fejezet Rendszertervezés
  29. "Azt kapod, amit mérsz" (1. június 1995.) 29. fejezet: Azt kapod, amit mérsz
  30. "Honnan tudjuk, amit tudunk" (Június 2, 1995) lefordítani 10 perces részletekben
  31. Hamming, „You and Your Research” (6. június 1995.). Fordítás: Te és a munkád

Aki szeretne segíteni a könyv fordításában, tördelésében, kiadásában, írjon személyes üzenetben vagy emailben [e-mail védett]

Forrás: will.com

Hozzászólás