Richard Hamming: Luku 13. Informaatioteoria

Me teimme sen!

"Tämän kurssin tarkoituksena on valmistaa sinua tekniseen tulevaisuuteen."

Richard Hamming: Luku 13. InformaatioteoriaHei, Habr. Muista mahtava artikkeli "Sinä ja työsi" (+219, 2588 kirjanmerkkiä, 429 XNUMX lukua)?

Joten Hamming (kyllä, kyllä, itsevalvonta ja itsekorjaus Hamming-koodit) on kokonaisuus kirjakirjoitettu hänen luentojensa perusteella. Me käännämme sen, koska mies puhuu mielipiteensä.

Tämä kirja ei ole vain IT:stä, se on kirja uskomattoman siistien ihmisten ajattelutyylistä. "Se ei ole vain positiivisen ajattelun lisäys; se kuvaa olosuhteita, jotka lisäävät mahdollisuuksia tehdä hyvää työtä."

Kiitos Andrei Pakhomoville käännöksestä.

Tietoteorian kehitti C. E. Shannon 1940-luvun lopulla. Bell Labsin johto vaati, että hän kutsuisi sitä "kommunikaatioteoriaksi", koska... tämä on paljon tarkempi nimi. Ilmeisistä syistä nimellä "Information Theory" on paljon suurempi vaikutus yleisöön, minkä vuoksi Shannon valitsi sen, ja se on nimi, jonka tunnemme tähän päivään asti. Nimi itsessään viittaa siihen, että teoria käsittelee tietoa, mikä tekee siitä tärkeän, kun siirrymme syvemmälle tiedon aikakauteen. Tässä luvussa käsittelen useita tämän teorian pääjohtopäätöksiä, en tarjoa tiukkaa, vaan pikemminkin intuitiivista näyttöä joistakin tämän teorian yksittäisistä säännöksistä, jotta ymmärrät mitä "tietoteoria" itse asiassa on ja missä voit soveltaa sitä. ja missä ei.

Ensinnäkin mitä on "tieto"? Shannon rinnastaa tiedon epävarmuuteen. Hän valitsi tapahtuman todennäköisyyden negatiivisen logaritmin sen tiedon kvantitatiiviseksi mittaksi, jonka saat, kun tapahtuma todennäköisyydellä p tapahtuu. Jos esimerkiksi kerron sinulle, että Los Angelesin sää on sumuinen, niin p on lähellä 1:tä, mikä ei todellakaan anna meille paljon tietoa. Mutta jos sanon, että Montereyssä sataa kesäkuussa, viestissä on epävarmuutta ja se sisältää enemmän tietoa. Luotettava tapahtuma ei sisällä mitään tietoa, koska log 1 = 0.

Katsotaanpa tätä tarkemmin. Shannon uskoi, että informaation kvantitatiivisen mittarin tulisi olla jatkuva funktio tapahtuman p todennäköisyydestä, ja riippumattomien tapahtumien tapauksessa sen pitäisi olla additiivinen - kahden itsenäisen tapahtuman seurauksena saadun tiedon määrän tulisi olla yhtä suuri kuin yhteisen tapahtuman seurauksena hankitun tiedon määrä. Esimerkiksi nopanheiton ja kolikonheiton lopputulos käsitellään yleensä itsenäisinä tapahtumina. Käännetään yllä oleva matematiikan kielelle. Jos I (p) on tapahtuman sisältämän tiedon määrä todennäköisyydellä p, niin saadaan yhteistapahtuma, joka koostuu kahdesta riippumattomasta tapahtumasta x todennäköisyydellä p1 ja y todennäköisyydellä p2

Richard Hamming: Luku 13. Informaatioteoria
(x ja y ovat itsenäisiä tapahtumia)

Tämä on funktionaalinen Cauchyn yhtälö, totta kaikille p1:lle ja p2:lle. Tämän funktionaalisen yhtälön ratkaisemiseksi oletetaan, että

p1 = p2 = p,

tämä antaa

Richard Hamming: Luku 13. Informaatioteoria

Jos p1 = p2 ja p2 = p, niin

Richard Hamming: Luku 13. Informaatioteoria

jne. Laajentamalla tätä prosessia käyttämällä standardimenetelmää eksponentiaaleille, kaikille rationaaliluvuille m/n seuraava on totta

Richard Hamming: Luku 13. Informaatioteoria

Informaatiomitan oletetusta jatkuvuudesta seuraa, että logaritminen funktio on ainoa jatkuva ratkaisu toiminnalliseen Cauchyn yhtälöön.

Tietoteoriassa on yleistä, että logaritmin kanta on 2, joten binäärivalinta sisältää täsmälleen 1 bitin tietoa. Siksi informaatio mitataan kaavalla

Richard Hamming: Luku 13. Informaatioteoria

Pysähdytään ja ymmärretään, mitä yllä tapahtui. Ensinnäkin emme määritelleet "informaation" käsitettä, vaan määritimme sen määrällisen mittakaavan.

Toiseksi tähän toimenpiteeseen liittyy epävarmuutta, ja vaikka se soveltuukin kohtuullisesti koneisiin – esimerkiksi puhelinjärjestelmiin, radioon, televisioon, tietokoneisiin jne. – se ei heijasta normaalia ihmisten asenteita tietoa kohtaan.

Kolmanneksi tämä on suhteellinen mitta, se riippuu tietämyksesi nykytilasta. Jos katsot "satunnaislukujen" virtaa satunnaislukugeneraattorista, oletat, että jokainen seuraava luku on epävarma, mutta jos tiedät "satunnaislukujen" laskentakaavan, seuraava luku tunnetaan, eikä sitä siksi tunneta. sisältää tietoa.

Joten Shannonin tiedon määritelmä sopii koneille monissa tapauksissa, mutta se ei näytä sopivan ihmisten käsitykseen sanasta. Tästä syystä "tietoteoriaa" olisi pitänyt kutsua "viestintäteoriaksi". On kuitenkin liian myöhäistä muuttaa määritelmiä (joka antoi teorialle sen alkuperäisen suosion ja jotka saavat ihmiset edelleen ajattelemaan, että tämä teoria käsittelee "informaatiota"), joten meidän on elettävä niiden kanssa, mutta samalla sinun on ymmärtää selvästi, kuinka kaukana Shannonin tiedon määritelmä on sen yleisesti käytetystä merkityksestä. Shannonin tiedot käsittelevät jotain aivan muuta, nimittäin epävarmuutta.

Tässä on ajateltavaa, kun ehdotat terminologiaa. Miten ehdotettu määritelmä, kuten Shannonin tiedon määritelmä, sopii alkuperäiseen ideaasi ja kuinka erilainen se on? Tuskin ole olemassa termiä, joka heijastaa tarkasti aikaisempaa näkemystäsi käsitteestä, mutta viime kädessä käytetty terminologia heijastaa käsitteen merkitystä, joten jonkin asian virallistaminen selkeillä määritelmillä aiheuttaa aina melua.

Tarkastellaan järjestelmää, jonka aakkoset koostuvat symboleista q, joiden todennäköisyydet pi. Tässä tapauksessa keskimääräinen tiedon määrä järjestelmässä (sen odotusarvo) on yhtä suuri kuin:

Richard Hamming: Luku 13. Informaatioteoria

Tätä kutsutaan järjestelmän entropiaksi, jonka todennäköisyysjakauma on {pi}. Käytämme termiä "entropia", koska sama matemaattinen muoto esiintyy termodynamiikassa ja tilastomekaniikassa. Tästä syystä termi "entropia" luo tietyn tärkeyden auran ympärilleen, mikä ei lopulta ole perusteltua. Sama matemaattinen merkintämuoto ei tarkoita samaa symbolien tulkintaa!

Todennäköisyysjakauman entropialla on tärkeä rooli koodausteoriassa. Gibbsin epäyhtälö kahdelle eri todennäköisyysjakaumalle pi ja qi on yksi tämän teorian tärkeistä seurauksista. Meidän on siis todistettava se

Richard Hamming: Luku 13. Informaatioteoria

Todistus perustuu ilmeiseen kuvaajaan, kuva. 13.I, mikä osoittaa sen

Richard Hamming: Luku 13. Informaatioteoria

ja yhtäläisyys saavutetaan vain kun x = 1. Sovelletaan epäyhtälö summan jokaiseen termiin vasemmalta puolelta:

Richard Hamming: Luku 13. Informaatioteoria

Jos viestintäjärjestelmän aakkoset koostuu q-symboleista, niin ottamalla kunkin symbolin lähetystodennäköisyys qi = 1/q ja korvaamalla q, saadaan Gibbsin epäyhtälöstä

Richard Hamming: Luku 13. Informaatioteoria

Richard Hamming: Luku 13. Informaatioteoria

Kuva 13.I

Tämä tarkoittaa, että jos kaikkien q-symbolien lähettämisen todennäköisyys on sama ja yhtä suuri kuin -1 / q, niin maksimientropia on yhtä suuri kuin ln q, muuten epäyhtälö pätee.

Yksilöllisesti dekoodattavan koodin tapauksessa meillä on Kraftin epäyhtälö

Richard Hamming: Luku 13. Informaatioteoria

Jos nyt määritellään pseudotodennäköisyydet

Richard Hamming: Luku 13. Informaatioteoria

missä tietysti Richard Hamming: Luku 13. Informaatioteoria= 1, joka seuraa Gibbsin epäyhtälöstä,

Richard Hamming: Luku 13. Informaatioteoria

ja soveltaa pientä algebraa (muista, että K ≤ 1, jotta voimme pudottaa logaritmisen termin ja ehkä vahvistaa epäyhtälöä myöhemmin), saamme

Richard Hamming: Luku 13. Informaatioteoria

jossa L on keskimääräinen koodin pituus.

Siten entropia on minimiraja mille tahansa merkkikohtaiselle koodille, jonka koodisanan keskimääräinen pituus on L. Tämä on Shannonin lause häiriöttömälle kanavalle.

Tarkastellaan nyt päälausetta viestintäjärjestelmien rajoituksista, joissa informaatiota siirretään itsenäisten bittien virtana ja kohinaa esiintyy. Ymmärretään, että yhden bitin oikean siirron todennäköisyys on P > 1/2 ja todennäköisyys, että bittiarvo invertoidaan lähetyksen aikana (tapahtuu virhe), on Q = 1 - P. Mukavuussyistä oletetaan, että virheet ovat riippumattomia ja virheen todennäköisyys on sama jokaiselle lähetetylle bitille - eli viestintäkanavassa on "valkoista kohinaa".

Tapa, jolla meillä on yhdeksi viestiksi koodattu pitkä n bitin virta, on yksibittisen koodin n-ulotteinen laajennus. Määritämme n:n arvon myöhemmin. Tarkastellaan n-bitistä koostuvaa viestiä pisteenä n-ulotteisessa avaruudessa. Koska meillä on n-ulotteinen avaruus - ja yksinkertaisuuden vuoksi oletetaan, että jokaisella viestillä on sama esiintymistodennäköisyys - mahdollista viestiä on M (M myös määritellään myöhemmin), joten minkä tahansa viestin lähetyksen todennäköisyys on

Richard Hamming: Luku 13. Informaatioteoria

Richard Hamming: Luku 13. Informaatioteoria
(lähettäjä)
Aikataulu 13.II

Harkitse seuraavaksi ajatusta kanavakapasiteetista. Yksityiskohtiin menemättä kanavan kapasiteetti määritellään enimmäismääräksi informaatiota, joka voidaan luotettavasti siirtää viestintäkanavalla, ottaen huomioon tehokkaimman koodauksen käyttö. Ei ole mitään väitettä, että viestintäkanavan kautta voidaan siirtää enemmän tietoa kuin sen kapasiteetti. Tämä voidaan todistaa binäärisymmetriselle kanavalle (jota käytämme tapauksessamme). Kanavan kapasiteetti bittejä lähetettäessä määritetään muodossa

Richard Hamming: Luku 13. Informaatioteoria

missä, kuten aiemmin, P on todennäköisyys, että missään lähetetyssä bitissä ei ole virhettä. Lähetettäessä n itsenäistä bittiä kanavan kapasiteetti on annettu

Richard Hamming: Luku 13. Informaatioteoria

Jos olemme lähellä kanavan kapasiteettia, meidän on lähetettävä lähes tämä määrä tietoa jokaisesta symbolista ai, i = 1, ..., M. Ottaen huomioon, että jokaisen symbolin ai esiintymistodennäköisyys on 1 / M, saamme

Richard Hamming: Luku 13. Informaatioteoria

kun lähetämme minkä tahansa M yhtä todennäköisestä viestistä ai, meillä on

Richard Hamming: Luku 13. Informaatioteoria

Kun n bittiä lähetetään, odotamme nQ-virheitä tapahtuvan. Käytännössä n-bittisestä viestistä saamme noin nQ virhettä vastaanotetussa viestissä. Suurelle n:lle suhteellinen vaihtelu (vaihtelu = jakauman leveys, )
virheiden lukumäärän jakauma kapenee n:n kasvaessa.

Lähetin puolelta siis lähetän viestin ai ja piirrän sen ympärille säteen

Richard Hamming: Luku 13. Informaatioteoria

joka on hieman e2:n verran suurempi kuin odotettu virheiden määrä Q, (kuva 13.II). Jos n on riittävän suuri, on mielivaltaisen pieni todennäköisyys sille, että viestipiste bj ilmestyy vastaanottajan puolelle, joka ulottuu tämän pallon ulkopuolelle. Piirretään tilanne sellaisena kuin sen näen lähettimen näkökulmasta: meillä on mikä tahansa säde lähetetystä viestistä ai vastaanotettuun viestiin bj virhetodennäköisyydellä, joka on yhtä suuri (tai melkein yhtä suuri) kuin normaalijakauma, saavuttaen maksimin nQ:sta. Jokaisella e2:lla on n niin suuri, että todennäköisyys, että tuloksena oleva piste bj on palloni ulkopuolella, on niin pieni kuin haluat.

Katsotaanpa nyt samaa tilannetta sinun puoleltasi (kuva 13.III). Vastaanottajan puolella n-ulotteisessa avaruudessa vastaanotetun pisteen bj ympärillä on samansäteinen pallo S(r), joten jos vastaanotettu viesti bj on palloni sisällä, niin lähettämäni viesti ai on sinun sfäärisi sisällä. pallo.

Kuinka virhe voi tapahtua? Virhe voi ilmetä alla olevassa taulukossa kuvatuissa tapauksissa:

Richard Hamming: Luku 13. Informaatioteoria

Kuva 13.III

Richard Hamming: Luku 13. Informaatioteoria

Tässä nähdään, että jos vastaanotetun pisteen ympärille rakennetussa pallossa on vielä ainakin yksi piste, joka vastaa mahdollista lähetettyä koodaamatonta viestiä, niin lähetyksen aikana tapahtui virhe, koska et voi määrittää, mikä näistä viesteistä on lähetetty. Lähetetty viesti on virheetön vain, jos sitä vastaava piste on sfäärissä, eikä annetussa koodissa ole muita mahdollisia pisteitä, jotka ovat samassa sfäärissä.

Meillä on matemaattinen yhtälö virheen Pe todennäköisyydelle, jos viesti ai lähetettiin

Richard Hamming: Luku 13. Informaatioteoria

Voimme heittää pois ensimmäisen tekijän toisessa termissä ottamalla sen 1:ksi. Näin saamme epätasa-arvon

Richard Hamming: Luku 13. Informaatioteoria

On selvää, että

Richard Hamming: Luku 13. Informaatioteoria

siksi

Richard Hamming: Luku 13. Informaatioteoria

hae uudelleen oikealla olevaan viimeiseen termiin

Richard Hamming: Luku 13. Informaatioteoria

Kun n on tarpeeksi suuri, ensimmäinen termi voidaan ottaa niin pieneksi kuin halutaan, sanotaan pienemmäksi kuin jokin luku d. Siksi meillä on

Richard Hamming: Luku 13. Informaatioteoria

Katsotaan nyt, kuinka voimme rakentaa yksinkertaisen korvauskoodin koodaamaan M viestiä, jotka koostuvat n bitistä. Shannon valitsi satunnaisen koodauksen, koska hänellä ei ollut aavistustakaan kuinka tarkkaan koodi rakennetaan (virheenkorjauskoodeja ei ollut vielä keksitty). Heitä kolikko jokaiselle viestin n bitille ja toista prosessi M viestille. Kaiken kaikkiaan nM kolikonheittoja on tehtävä, joten se on mahdollista

Richard Hamming: Luku 13. Informaatioteoria

koodisanakirjoja, joilla on sama todennäköisyys ½nM. Tietenkin satunnainen koodikirjan luomisprosessi tarkoittaa, että on mahdollista kaksoiskappaleet sekä koodipisteet, jotka ovat lähellä toisiaan ja ovat siksi todennäköisten virheiden lähde. On todistettava, että jos tämä ei tapahdu todennäköisyydellä, joka on suurempi kuin mikä tahansa pieni valittu virhetaso, niin annettu n on riittävän suuri.
Ratkaiseva asia on, että Shannon laski keskiarvon kaikista mahdollisista koodikirjoista löytääkseen keskimääräisen virheen! Käytämme symbolia Av[.] osoittamaan keskiarvoa kaikkien mahdollisten satunnaisten koodikirjojen joukossa. Keskiarvon laskeminen vakion d yli antaa tietysti vakion, koska keskiarvon laskemiseksi jokainen termi on sama kuin kaikki muut termit summassa,

Richard Hamming: Luku 13. Informaatioteoria

jota voidaan lisätä (M–1 menee M:ksi)

Richard Hamming: Luku 13. Informaatioteoria

Jokaisen viestin kohdalla, kun lasketaan kaikkien koodikirjojen keskiarvo, koodaus kulkee kaikkien mahdollisten arvojen läpi, joten keskimääräinen todennäköisyys, että piste on pallossa, on pallon tilavuuden suhde tilan kokonaistilavuuteen. Pallon tilavuus on

Richard Hamming: Luku 13. Informaatioteoria

jossa s=Q+e2 <1/2 ja ns:n on oltava kokonaisluku.

Oikean viimeinen termi on suurin tässä summassa. Ensin arvioidaan sen arvo käyttämällä Stirlingin kaavaa kertoimille. Tarkastelemme sitten sen edessä olevan termin pienenevää kerrointa ja huomaamme, että tämä kerroin kasvaa siirryttäessä vasemmalle, joten voimme: (1) rajoittaa summan arvon geometrisen progression summaksi tämä alkukerroin, (2) laajentaa geometrista etenemistä ns termistä äärettömään määrään termejä, (3) laskea äärettömän geometrisen etenemisen summa (vakioalgebra, ei mitään merkittävää) ja lopuksi saada raja-arvo (riittävän suurelle n):

Richard Hamming: Luku 13. Informaatioteoria

Huomaa, kuinka entropia H(t) esiintyi binomiaalisessa identiteetissä. Huomaa, että Taylor-sarjan laajennus H(s)=H(Q+e2) antaa estimaatin, joka saadaan ottamalla huomioon vain ensimmäinen derivaatta ja jättäen huomioimatta kaikki muut. Kootaan nyt lopullinen lauseke:

Richard Hamming: Luku 13. Informaatioteoria

missä

Richard Hamming: Luku 13. Informaatioteoria

Meidän tarvitsee vain valita e2 siten, että e3 < e1, ja sitten viimeinen termi on mielivaltaisen pieni, kunhan n on tarpeeksi suuri. Näin ollen keskimääräinen PE-virhe voidaan saada niin pieneksi kuin halutaan kanavakapasiteetilla mielivaltaisen lähellä C:tä.
Jos kaikkien koodien keskiarvossa on riittävän pieni virhe, niin vähintään yhden koodin on oltava sopiva, joten sopivaa koodausjärjestelmää on vähintään yksi. Tämä on tärkeä Shannonin saavuttama tulos - "Shannonin lause kohinaiselle kanavalle", vaikka on huomattava, että hän osoitti tämän paljon yleisemmälle tapaukselle kuin käyttämäni yksinkertaiselle binäärisymmetriselle kanavalle. Yleisessä tapauksessa matemaattiset laskelmat ovat paljon monimutkaisempia, mutta ideat eivät ole niin erilaisia, joten hyvin usein voit paljastaa lauseen todellisen merkityksen tietyn tapauksen esimerkillä.

Kritisoidaan tulosta. Olemme toistuvasti toistaneet: "Riittävän suurelle n:lle." Mutta kuinka suuri n on? Erittäin, erittäin suuri, jos todella haluat olla lähellä kanavakapasiteettia ja olla varma oikeasta tiedonsiirrosta! Itse asiassa niin suuri, että joudut odottamaan hyvin kauan, jotta saat tarpeeksi bitin viestin koodataksesi sen myöhemmin. Tässä tapauksessa satunnaiskoodisanakirjan koko on yksinkertaisesti valtava (sellaista sanakirjaa ei loppujen lopuksi voida esittää lyhyemmässä muodossa kuin täydellinen luettelo kaikista Mn-bitteistä huolimatta siitä, että n ja M ovat erittäin suuria)!

Virheenkorjauskoodit välttävät odottamasta hyvin pitkää viestiä ja sen jälkeen koodaamasta ja purkamasta sitä erittäin suurten koodikirjojen kautta, koska ne välttävät itse koodikirjoja ja käyttävät sen sijaan tavallista laskentaa. Yksinkertaisessa teoriassa tällaisilla koodeilla on taipumus menettää kyky lähestyä kanavan kapasiteettia ja silti säilyttää matala virhesuhde, mutta kun koodi korjaa suuren määrän virheitä, ne toimivat hyvin. Toisin sanoen, jos varaat jonkin verran kanavakapasiteettia virheenkorjaukseen, sinun on käytettävä virheenkorjauskykyä suurimman osan ajasta, eli jokaisessa lähetetyssä viestissä on korjattava suuri määrä virheitä, muuten hukkaat tämän kapasiteetin.

Samanaikaisesti yllä todistettu lause ei silti ole merkityksetön! Se osoittaa, että tehokkaiden siirtojärjestelmien on käytettävä älykkäitä koodausmenetelmiä erittäin pitkille bittijonoille. Esimerkkinä ovat satelliitit, jotka ovat lentäneet ulkoplaneettojen ulkopuolelle; Maasta ja Auringosta etääntyessään ne joutuvat korjaamaan yhä enemmän tietolohkon virheitä: osa satelliiteista käyttää aurinkopaneeleja, jotka tuottavat noin 5 W, toiset ydinvoimalähteitä, jotka tuottavat suunnilleen saman tehon. Virtalähteen pieni teho, lähetinlevyjen pieni koko ja vastaanottimen lautasten rajallinen koko maan päällä, valtava etäisyys, joka signaalin on kuljettava - kaikki tämä edellyttää koodien käyttöä korkealla virheenkorjaustasolla. tehokas viestintäjärjestelmä.

Palataan n-ulotteiseen avaruuteen, jota käytimme yllä olevassa todistuksessa. Sitä käsiteltäessä osoitimme, että lähes koko pallon tilavuus on keskittynyt lähelle ulkopintaa - joten on lähes varmaa, että lähetettävä signaali sijoittuu lähelle vastaanotetun signaalin ympärille rakennetun pallon pintaa, vaikka suhteellisen tällaisen pallon pieni säde. Siksi ei ole yllättävää, että vastaanotettu signaali, kun on korjattu mielivaltaisen suuri määrä virheitä, nQ, osoittautuu mielivaltaisen lähelle virheetöntä signaalia. Linkkikapasiteetti, josta keskustelimme aiemmin, on avain tämän ilmiön ymmärtämiseen. Huomaa, että samankaltaiset pallot, jotka on rakennettu virheenkorjausta varten Hamming-koodeja, eivät mene päällekkäin. Suuri määrä lähes ortogonaalisia ulottuvuuksia n-ulotteisessa avaruudessa osoittaa, miksi voimme sovittaa M palloa avaruuteen pienellä päällekkäisyydellä. Jos sallimme pienen, mielivaltaisen pienen päällekkäisyyden, joka voi johtaa vain pieneen määrään virheitä dekoodauksen aikana, saadaan aikaan tiheä pallojen sijoittelu avaruudessa. Hamming takasi tietyn tason virheenkorjauksen, Shannon - pienen virhetodennäköisyyden, mutta samalla todellisen suorituskyvyn pitämisen mielivaltaisesti lähellä viestintäkanavan kapasiteettia, mitä Hamming-koodit eivät pysty tekemään.

Informaatioteoria ei kerro meille, kuinka tehokas järjestelmä suunnitellaan, mutta se osoittaa tietä kohti tehokkaita viestintäjärjestelmiä. Se on arvokas työkalu koneiden välisten viestintäjärjestelmien rakentamiseen, mutta kuten aiemmin todettiin, sillä ei ole juurikaan merkitystä ihmisten kommunikoinnin kannalta. Se, missä määrin biologinen perinnöllisyys muistuttaa teknisiä viestintäjärjestelmiä, on yksinkertaisesti tuntematon, joten tällä hetkellä ei ole selvää, kuinka informaatioteoriaa sovelletaan geeneihin. Meillä ei ole muuta vaihtoehtoa kuin yrittää, ja jos menestys osoittaa meille tämän ilmiön konemaisen luonteen, epäonnistuminen viittaa muihin tiedon luonteen merkittäviin puoliin.

Älkäämme poikkeako liikaa. Olemme nähneet, että kaikkien alkuperäisten määritelmien on, suuremmassa tai pienemmässä määrin, ilmaistava alkuperäisen uskomuksemme olemus, mutta niille on ominaista jonkinasteinen vääristymä, joten niitä ei voida soveltaa. Perinteisesti hyväksytään, että viime kädessä käyttämämme määritelmä itse asiassa määrittelee olemuksen; mutta tämä vain kertoo meille kuinka asioita käsitellään, eikä välitä meille millään tavalla mitään merkitystä. Matemaattisissa piireissä niin vahvasti suosima postulaatiolähestymistapa jättää paljon toivomisen varaa käytännössä.

Nyt tarkastellaan esimerkkiä IQ-testeistä, joissa määritelmä on niin pyöreä kuin haluat ja sen seurauksena harhaanjohtava. Luodaan testi, jonka oletetaan mittaavan älykkyyttä. Sitten se tarkistetaan mahdollisimman johdonmukaiseksi, ja sitten se julkaistaan ​​ja yksinkertaisella menetelmällä kalibroidaan niin, että mitattu "äly" osoittautuu normaalijakautuneeksi (tietysti kalibrointikäyrällä). Kaikki määritelmät on tarkistettava uudelleen, ei vain silloin, kun niitä ehdotetaan, vaan myös paljon myöhemmin, kun niitä käytetään johtopäätöksissä. Missä määrin määritelmärajat sopivat ratkaistavaan ongelmaan? Kuinka usein yhdessä asetuksessa annettuja määritelmiä aletaan soveltaa aivan erilaisissa ympäristöissä? Tätä tapahtuu melko usein! Humanistisilla tieteillä, joita kohtaat väistämättä elämässäsi, tämä tapahtuu useammin.

Näin ollen yksi tämän informaatioteorian esityksen tavoitteista sen hyödyllisyyden osoittamisen lisäksi oli varoittaa sinua tästä vaarasta tai näyttää sinulle tarkalleen, kuinka sitä käytetään halutun tuloksen saavuttamiseksi. On pitkään huomattu, että alkuperäiset määritelmät määräävät sen, mitä lopulta löydät, paljon enemmän kuin miltä näyttää. Alkumäärittelyt vaativat sinulta paljon huomiota, ei vain missä tahansa uudessa tilanteessa, vaan myös aloilla, joiden parissa olet työskennellyt pitkään. Tämän avulla voit ymmärtää, missä määrin saadut tulokset ovat tautologiaa eivätkä hyödyllisiä.

Kuuluisa Eddingtonin tarina kertoo ihmisistä, jotka kalastivat meressä verkolla. Tutkittuaan pyytämiensä kalojen kokoa he määrittelivät merestä löytyvien kalojen vähimmäiskoon! Heidän johtopäätöksensä johtui käytetystä instrumentista, ei todellisuutta.

Jatkuu ...

Kuka haluaa auttaa kirjan kääntämisessä, ulkoasussa ja julkaisemisessa - kirjoita henkilökohtaisesti tai sähköpostilla [sähköposti suojattu]

Olemme muuten myös käynnistäneet toisen hienon kirjan käännöksen - "Unelmakone: Tietokonevallankumouksen tarina")

Etsimme erityisesti jotka auttavat kääntämään bonus luku, joka on vain videolla. (10 minuutin siirto, ensimmäiset 20 on jo otettu)

Kirjan sisältö ja käännetyt luvutEsipuhe

  1. Tieteen ja tekniikan tekemisen taiteen johdanto: Oppimaan oppiminen (28. maaliskuuta 1995) Käännös: Luku 1
  2. "Digitaalisen (diskreetin) vallankumouksen perusta" (30. maaliskuuta 1995) Luku 2. Digitaalisen (diskreetin) vallankumouksen perusteet
  3. "History of Computers - Hardware" (31. maaliskuuta 1995) Luku 3. Tietokoneiden historia - Laitteisto
  4. "History of Computers - Software" (4. huhtikuuta 1995) Luku 4. Tietokoneiden historia - Ohjelmistot
  5. "History of Computers - Applications" (6. huhtikuuta 1995) Luku 5: Tietokoneiden historia - käytännön sovellukset
  6. "Tekoäly – osa I" (7. huhtikuuta 1995) Luku 6. Tekoäly - 1
  7. "Tekoäly – osa II" (11. huhtikuuta 1995) Luku 7. Tekoäly - II
  8. "Artificial Intelligence III" (13. huhtikuuta 1995) Luku 8. Tekoäly-III
  9. "n-ulotteinen avaruus" (14. huhtikuuta 1995) Luku 9. N-ulotteinen avaruus
  10. "Koodausteoria - Tiedon esitys, osa I" (18. huhtikuuta 1995) Luku 10. Koodausteoria - I
  11. "Koodausteoria - Tiedon esitys, osa II" (20. huhtikuuta 1995) Luku 11. Koodausteoria - II
  12. "Virheenkorjauskoodit" (21. huhtikuuta 1995) Luku 12. Virheenkorjauskoodit
  13. "Tietoteoria" (25. huhtikuuta 1995) Luku 13. Tietoteoria
  14. "Digital Filters, osa I" (27. huhtikuuta 1995) Luku 14. Digitaaliset suodattimet - 1
  15. "Digital Filters, Part II" (28. huhtikuuta 1995) Luku 15. Digitaaliset suodattimet - 2
  16. "Digital Filters, Part III" (2. toukokuuta 1995) Luku 16. Digitaaliset suodattimet - 3
  17. "Digital Filters, Part IV" (4. toukokuuta 1995) Luku 17. Digitaaliset suodattimet - IV
  18. "Simulaatio, osa I" (5. toukokuuta 1995) Luku 18. Mallintaminen - I
  19. "Simulaatio, osa II" (9. toukokuuta 1995) Luku 19. Mallintaminen - II
  20. "Simulaatio, osa III" (11. toukokuuta 1995) Luku 20. Mallintaminen - III
  21. "Fiber Optics" (12. toukokuuta 1995) Luku 21. Kuituoptiikka
  22. "Tietokoneavusteinen opetus" (16. toukokuuta 1995) Luku 22: Computer Assisted Instruction (CAI)
  23. "Matematiikka" (18. toukokuuta 1995) Luku 23. Matematiikka
  24. "Kvanttimekaniikka" (19. toukokuuta 1995) Luku 24. Kvanttimekaniikka
  25. "Luovuus" (23. toukokuuta 1995). Käännös: Luku 25. Luovuus
  26. "Asiantuntijat" (25. toukokuuta 1995) Luku 26. Asiantuntijat
  27. "Epäluotettavat tiedot" (26. toukokuuta 1995) Luku 27. Epäluotettavat tiedot
  28. "Systems Engineering" (30. toukokuuta 1995) Luku 28. Järjestelmäsuunnittelu
  29. "Saat mitä mittaat" (1. kesäkuuta 1995) Luku 29: Saat mitä mittaat
  30. "Kuinka tiedämme mitä tiedämme" (Kesäkuu 2, 1995) käännä 10 minuutin osissa
  31. Hamming, "Sinä ja tutkimuksesi" (6. kesäkuuta 1995). Käännös: Sinä ja työsi

Kuka haluaa auttaa kirjan kääntämisessä, ulkoasussa ja julkaisemisessa - kirjoita henkilökohtaisesti tai sähköpostilla [sähköposti suojattu]

Lähde: will.com

Lisää kommentti