Richard Hamming: Hoofstuk 13. Inligtingsteorie

Ons het dit gedoen!

"Die doel van hierdie kursus is om jou voor te berei vir jou tegniese toekoms."

Richard Hamming: Hoofstuk 13. InligtingsteorieHallo, Habr. Onthou die wonderlike artikel "Jy en jou werk" (+219, 2588 boekmerke, 429 XNUMX leesstukke)?

Dus Hamming (ja, ja, selfmonitering en selfkorreksie Hamming kodes) daar is 'n geheel книга, geskryf op grond van sy lesings. Ons vertaal dit, want die man spreek sy mening.

Hierdie is 'n boek nie net oor IT nie, dit is 'n boek oor die denkstyl van ongelooflike cool mense. “Dit is nie net ’n hupstoot van positiewe denke nie; dit beskryf die toestande wat die kanse verhoog om goeie werk te doen.”

Dankie aan Andrey Pakhomov vir die vertaling.

Inligtingsteorie is in die laat 1940's deur C. E. Shannon ontwikkel. Bell Labs-bestuur het daarop aangedring dat hy dit "Kommunikasieteorie" noem omdat... dit is 'n baie meer akkurate naam. Om ooglopende redes het die naam "Inligtingsteorie" 'n baie groter impak op die publiek, daarom het Shannon dit gekies, en dit is die naam wat ons tot vandag toe ken. Die naam self suggereer dat die teorie oor inligting handel, wat dit belangrik maak namate ons dieper in die inligtingsera beweeg. In hierdie hoofstuk sal ek verskeie hoofgevolgtrekkings uit hierdie teorie aanraak, ek sal nie streng nie, maar eerder intuïtiewe bewyse verskaf van sommige individuele bepalings van hierdie teorie, sodat jy verstaan ​​wat "Inligtingsteorie" eintlik is, waar jy dit kan toepas en waar nie.

Eerstens, wat is "inligting"? Shannon stel inligting gelyk aan onsekerheid. Hy het die negatiewe logaritme van die waarskynlikheid van 'n gebeurtenis gekies as 'n kwantitatiewe maatstaf van die inligting wat jy ontvang wanneer 'n gebeurtenis met waarskynlikheid p plaasvind. Byvoorbeeld, as ek jou vertel dat die weer in Los Angeles mistig is, dan is p naby aan 1, wat regtig nie vir ons veel inligting gee nie. Maar as ek sê dit reën in Monterey in Junie, sal daar onsekerheid in die boodskap wees en sal dit meer inligting bevat. 'n Betroubare gebeurtenis bevat geen inligting nie, aangesien log 1 = 0.

Kom ons kyk in meer detail hierna. Shannon het geglo dat die kwantitatiewe maatstaf van inligting 'n deurlopende funksie van die waarskynlikheid van 'n gebeurtenis p moet wees, en vir onafhanklike gebeurtenisse moet dit byvoegend wees - die hoeveelheid inligting wat verkry word as gevolg van die voorkoms van twee onafhanklike gebeurtenisse moet gelyk wees aan die hoeveelheid inligting wat verkry is as gevolg van die plaasvind van 'n gesamentlike gebeurtenis. Byvoorbeeld, die uitkoms van 'n dobbelsteengooi en 'n muntstuk word gewoonlik as onafhanklike gebeurtenisse hanteer. Kom ons vertaal bogenoemde in die taal van wiskunde. As I (p) die hoeveelheid inligting is vervat in 'n gebeurtenis met waarskynlikheid p, dan kry ons vir 'n gesamentlike gebeurtenis wat bestaan ​​uit twee onafhanklike gebeurtenisse x met waarskynlikheid p1 en y met waarskynlikheid p2

Richard Hamming: Hoofstuk 13. Inligtingsteorie
(x en y is onafhanklike gebeurtenisse)

Dit is die funksionele Cauchy-vergelyking, waar vir alle p1 en p2. Om hierdie funksionele vergelyking op te los, aanvaar dat

p1 = p2 = p,

dit gee

Richard Hamming: Hoofstuk 13. Inligtingsteorie

As p1 = p2 en p2 = p dan

Richard Hamming: Hoofstuk 13. Inligtingsteorie

ens. Om hierdie proses uit te brei deur gebruik te maak van die standaardmetode vir eksponensiële, vir alle rasionale getalle m/n is die volgende waar

Richard Hamming: Hoofstuk 13. Inligtingsteorie

Uit die veronderstelde kontinuïteit van die inligtingsmaat, volg dit dat die logaritmiese funksie die enigste kontinue oplossing vir die Cauchy funksionele vergelyking is.

In inligtingsteorie is dit algemeen om die logaritmebasis as 2 te neem, dus 'n binêre keuse bevat presies 1 bietjie inligting. Daarom word inligting deur die formule gemeet

Richard Hamming: Hoofstuk 13. Inligtingsteorie

Kom ons staan ​​stil en verstaan ​​wat hierbo gebeur het. Eerstens het ons nie die konsep van "inligting" gedefinieer nie; ons het bloot die formule vir sy kwantitatiewe maatstaf gedefinieer.

Tweedens is hierdie maatstaf onderhewig aan onsekerheid, en alhoewel dit redelik geskik is vir masjiene—byvoorbeeld telefoonstelsels, radio, televisie, rekenaars, ens.—weerspieël dit nie normale menslike houdings teenoor inligting nie.

Derdens, dit is 'n relatiewe maatstaf, dit hang af van die huidige stand van jou kennis. As jy na 'n stroom "ewekansige getalle" van 'n ewekansige getalgenerator kyk, neem jy aan dat elke volgende getal onseker is, maar as jy die formule vir die berekening van "ewekansige getalle" ken, sal die volgende getal bekend wees, en dus nie inligting bevat.

Shannon se definisie van inligting is dus in baie gevalle gepas vir masjiene, maar pas blykbaar nie by die menslike begrip van die woord nie. Dit is om hierdie rede dat "Inligtingsteorie" "Kommunikasieteorie" genoem moes word. Dit is egter te laat om die definisies te verander (wat die teorie sy aanvanklike gewildheid gegee het, en wat mense steeds laat dink dat hierdie teorie oor “inligting” handel), dus moet ons daarmee saamleef, maar terselfdertyd moet jy verstaan ​​duidelik hoe ver Shannon se definisie van inligting van die algemeen gebruikte betekenis daarvan is. Shannon se inligting handel oor iets heeltemal anders, naamlik onsekerheid.

Hier is iets om oor na te dink wanneer jy enige terminologie voorstel. Hoe stem 'n voorgestelde definisie, soos Shannon se definisie van inligting, ooreen met jou oorspronklike idee en hoe anders is dit? Daar is amper geen term wat presies jou vorige visie van 'n konsep weerspieël nie, maar uiteindelik is dit die terminologie wat gebruik word wat die betekenis van die konsep weerspieël, so om iets te formaliseer deur duidelike definisies lei altyd 'n mate van geraas.

Beskou 'n stelsel waarvan die alfabet uit simbole q met waarskynlikhede pi bestaan. In hierdie geval gemiddelde hoeveelheid inligting in die stelsel (sy verwagte waarde) is gelyk aan:

Richard Hamming: Hoofstuk 13. Inligtingsteorie

Dit word die entropie van die stelsel met waarskynlikheidsverdeling {pi} genoem. Ons gebruik die term "entropie" omdat dieselfde wiskundige vorm in termodinamika en statistiese meganika voorkom. Dit is hoekom die term "entropie" 'n sekere aura van belang rondom homself skep, wat uiteindelik nie geregverdig is nie. Dieselfde wiskundige vorm van notasie impliseer nie dieselfde interpretasie van simbole nie!

Die entropie van die waarskynlikheidsverdeling speel 'n groot rol in koderingsteorie. Die Gibbs-ongelykheid vir twee verskillende waarskynlikheidsverdelings pi en qi is een van die belangrike gevolge van hierdie teorie. So ons moet dit bewys

Richard Hamming: Hoofstuk 13. Inligtingsteorie

Die bewys is gebaseer op 'n duidelike grafiek, Fig. 13.I, wat wys dat

Richard Hamming: Hoofstuk 13. Inligtingsteorie

en gelykheid word slegs bereik wanneer x = 1. Kom ons pas die ongelykheid toe op elke term van die som van die linkerkant af:

Richard Hamming: Hoofstuk 13. Inligtingsteorie

As die alfabet van 'n kommunikasiestelsel uit q-simbole bestaan, neem ons die waarskynlikheid van transmissie van elke simbool qi = 1/q en vervanging van q, verkry ons uit die Gibbs-ongelykheid

Richard Hamming: Hoofstuk 13. Inligtingsteorie

Richard Hamming: Hoofstuk 13. Inligtingsteorie

Figuur 13.I

Dit beteken dat as die waarskynlikheid om alle q-simbole oor te dra dieselfde is en gelyk is aan - 1 / q, dan is die maksimum entropie gelyk aan ln q, anders geld die ongelykheid.

In die geval van 'n uniek dekodeerbare kode, het ons Kraft se ongelykheid

Richard Hamming: Hoofstuk 13. Inligtingsteorie

Nou as ons pseudo-waarskynlikhede definieer

Richard Hamming: Hoofstuk 13. Inligtingsteorie

waar natuurlik Richard Hamming: Hoofstuk 13. Inligtingsteorie= 1, wat volg uit Gibbs se ongelykheid,

Richard Hamming: Hoofstuk 13. Inligtingsteorie

en pas 'n bietjie algebra toe (onthou dat K ≤ 1, sodat ons die logaritmiese term kan laat vaar, en dalk later die ongelykheid kan versterk), kry ons

Richard Hamming: Hoofstuk 13. Inligtingsteorie

waar L die gemiddelde kodelengte is.

Dus, entropie is die minimum gebonde vir enige karakter-vir-simbool-kode met 'n gemiddelde kodewoordlengte L. Dit is Shannon se stelling vir 'n steuringsvrye kanaal.

Beskou nou die hoofstelling oor die beperkings van kommunikasiestelsels waarin inligting as 'n stroom onafhanklike bisse oorgedra word en geraas teenwoordig is. Dit word verstaan ​​dat die waarskynlikheid van korrekte transmissie van een bis P > 1/2 is, en die waarskynlikheid dat die biswaarde tydens transmissie omgekeer sal word ('n fout sal voorkom) is gelyk aan Q = 1 - P. Gerieflikheidshalwe, ons aanvaar dat die foute onafhanklik is en die waarskynlikheid van 'n fout is dieselfde vir elke gestuurde bis - dit wil sê daar is "wit geraas" in die kommunikasiekanaal.

Die manier waarop ons 'n lang stroom van n bisse in een boodskap geënkodeer het, is die n - dimensionele uitbreiding van die eenbis-kode. Ons sal die waarde van n later bepaal. Beskou 'n boodskap wat uit n-bis bestaan ​​as 'n punt in n-dimensionele ruimte. Aangesien ons 'n n-dimensionele ruimte het - en vir eenvoud sal ons aanvaar dat elke boodskap dieselfde waarskynlikheid het om te voorkom - daar is M moontlike boodskappe (M sal ook later gedefinieer word), daarom is die waarskynlikheid van enige boodskap wat gestuur word

Richard Hamming: Hoofstuk 13. Inligtingsteorie

Richard Hamming: Hoofstuk 13. Inligtingsteorie
(sender)
Bylae 13.II

Oorweeg dan die idee van kanaalkapasiteit. Sonder om in besonderhede in te gaan, word kanaalkapasiteit gedefinieer as die maksimum hoeveelheid inligting wat betroubaar oor 'n kommunikasiekanaal oorgedra kan word, met inagneming van die gebruik van die mees doeltreffende kodering. Daar is geen argument dat meer inligting deur 'n kommunikasiekanaal oorgedra kan word as die kapasiteit daarvan nie. Dit kan bewys word vir 'n binêre simmetriese kanaal (wat ons in ons geval gebruik). Die kanaalkapasiteit, wanneer bisse gestuur word, word gespesifiseer as

Richard Hamming: Hoofstuk 13. Inligtingsteorie

waar, soos voorheen, P die waarskynlikheid van geen fout in enige gestuurde bis is nie. Wanneer n onafhanklike bisse gestuur word, word die kanaalkapasiteit gegee deur

Richard Hamming: Hoofstuk 13. Inligtingsteorie

As ons naby die kanaalkapasiteit is, dan moet ons amper hierdie hoeveelheid inligting stuur vir elk van die simbole ai, i = 1, ..., M. As in ag geneem word dat die waarskynlikheid van voorkoms van elke simbool ai 1 / M is, ons kry

Richard Hamming: Hoofstuk 13. Inligtingsteorie

wanneer ons enige van M ewe waarskynlike boodskappe stuur ai, het ons

Richard Hamming: Hoofstuk 13. Inligtingsteorie

Wanneer n bisse gestuur word, verwag ons dat nQ-foute sal voorkom. In die praktyk, vir 'n boodskap wat uit n-bis bestaan, sal ons ongeveer nQ-foute in die ontvangde boodskap hê. Vir groot n, relatiewe variasie (variasie = verspreidingswydte, )
die verspreiding van die aantal foute sal al hoe nouer word soos n toeneem.

Dus, vanaf die senderkant, neem ek die boodskap ai om te stuur en teken 'n bol om dit met 'n radius

Richard Hamming: Hoofstuk 13. Inligtingsteorie

wat effens groter is met 'n bedrag gelykstaande aan e2 as die verwagte aantal foute Q, (Figuur 13.II). As n groot genoeg is, dan is daar 'n arbitrêr klein waarskynlikheid dat 'n boodskappunt bj aan die ontvangerkant sal verskyn wat verby hierdie sfeer strek. Kom ons skets die situasie soos ek dit sien vanuit die oogpunt van die sender: ons het enige radiusse vanaf die versende boodskap ai tot die ontvangde boodskap bj met 'n foutwaarskynlikheid gelyk (of amper gelyk) aan die normaalverdeling, wat 'n maksimum bereik van nq. Vir enige gegewe e2 is daar 'n n so groot dat die waarskynlikheid dat die resulterende punt bj buite my sfeer is, so klein is as wat jy wil.

Kom ons kyk nou na dieselfde situasie van jou kant af (Fig. 13.III). Aan die ontvangerkant is daar 'n sfeer S(r) van dieselfde radius r rondom die ontvangde punt bj in n-dimensionele ruimte, sodanig dat as die ontvangde boodskap bj binne my sfeer is, dan is die boodskap wat deur my gestuur word binne jou sfeer.

Hoe kan 'n fout voorkom? Die fout kan voorkom in die gevalle wat in die tabel hieronder beskryf word:

Richard Hamming: Hoofstuk 13. Inligtingsteorie

Figuur 13.III

Richard Hamming: Hoofstuk 13. Inligtingsteorie

Hier sien ons dat as daar in die sfeer wat rondom die ontvangde punt gebou is, ten minste nog een punt is wat ooreenstem met 'n moontlike gestuurde ongekodeerde boodskap, dan het 'n fout tydens transmissie plaasgevind, aangesien jy nie kan bepaal watter van hierdie boodskappe versend is nie. Die gestuurde boodskap is slegs foutvry as die punt wat daarmee ooreenstem, in die sfeer is, en daar is geen ander punte moontlik in die gegewe kode wat in dieselfde sfeer is nie.

Ons het 'n wiskundige vergelyking vir die waarskynlikheid van fout Pe as boodskap ai gestuur is

Richard Hamming: Hoofstuk 13. Inligtingsteorie

Ons kan die eerste faktor in die tweede kwartaal weggooi en dit as 1 neem. So kry ons die ongelykheid

Richard Hamming: Hoofstuk 13. Inligtingsteorie

Dit is duidelik dat

Richard Hamming: Hoofstuk 13. Inligtingsteorie

daarom

Richard Hamming: Hoofstuk 13. Inligtingsteorie

doen weer aansoek vir die laaste kwartaal aan die regterkant

Richard Hamming: Hoofstuk 13. Inligtingsteorie

As n groot genoeg geneem word, kan die eerste term so klein as wat verlang word geneem word, sê minder as een of ander getal d. Daarom het ons

Richard Hamming: Hoofstuk 13. Inligtingsteorie

Kom ons kyk nou hoe ons 'n eenvoudige vervangingskode kan konstrueer om M boodskappe wat uit n bisse bestaan ​​te enkodeer. Omdat hy geen idee gehad het hoe presies om 'n kode te konstrueer nie (foutkorrigerende kodes was nog nie uitgevind nie), het Shannon ewekansige kodering gekies. Draai 'n muntstuk vir elk van die n stukkies in die boodskap en herhaal die proses vir M boodskappe. In totaal moet nM muntstukkies gemaak word, so dit is moontlik

Richard Hamming: Hoofstuk 13. Inligtingsteorie

kodewoordeboeke met dieselfde waarskynlikheid ½nM. Natuurlik beteken die ewekansige proses om 'n kodeboek te skep dat daar 'n moontlikheid is van duplikate, sowel as kodepunte wat naby aan mekaar sal wees en dus 'n bron van waarskynlike foute sal wees. Mens moet bewys dat as dit nie gebeur met 'n waarskynlikheid groter as enige klein gekose foutvlak nie, dan is die gegewe n groot genoeg.
Die deurslaggewende punt is dat Shannon alle moontlike kodeboeke gemiddeld het om die gemiddelde fout te vind! Ons sal die simbool Av[.] gebruik om die gemiddelde waarde oor die stel van alle moontlike ewekansige kodeboeke aan te dui. Gemiddeld oor 'n konstante d gee natuurlik 'n konstante, aangesien elke term dieselfde is as elke ander term in die som,

Richard Hamming: Hoofstuk 13. Inligtingsteorie

wat verhoog kan word (M–1 gaan na M)

Richard Hamming: Hoofstuk 13. Inligtingsteorie

Vir enige gegewe boodskap, wanneer gemiddeld oor alle kodeboeke heen, loop die enkodering deur alle moontlike waardes, dus is die gemiddelde waarskynlikheid dat 'n punt in 'n sfeer is die verhouding van die volume van die sfeer tot die totale volume ruimte. Die volume van die sfeer is

Richard Hamming: Hoofstuk 13. Inligtingsteorie

waar s=Q+e2 <1/2 en ns 'n heelgetal moet wees.

Die laaste term aan die regterkant is die grootste in hierdie som. Kom ons skat eers die waarde daarvan deur die Stirling-formule vir faktore te gebruik. Ons sal dan kyk na die dalende faktor van die term voor dit, let op dat hierdie faktor toeneem soos ons na links beweeg, en dus kan ons: (1) die waarde van die som beperk tot die som van die meetkundige progressie met hierdie aanvanklike koëffisiënt, (2) brei die meetkundige progressie uit van ns terme na 'n oneindige aantal terme, (3) bereken die som van 'n oneindige meetkundige progressie (standaard algebra, niks betekenisvol nie) en verkry uiteindelik die beperkende waarde (vir 'n voldoende groot n):

Richard Hamming: Hoofstuk 13. Inligtingsteorie

Let op hoe die entropie H(s) in die binomiale identiteit verskyn het. Let daarop dat die Taylor-reeks uitbreiding H(s)=H(Q+e2) 'n skatting gee wat verkry word deur slegs die eerste afgeleide in ag te neem en alle ander te ignoreer. Kom ons stel nou die finale uitdrukking saam:

Richard Hamming: Hoofstuk 13. Inligtingsteorie

waar

Richard Hamming: Hoofstuk 13. Inligtingsteorie

Al wat ons moet doen is om e2 so te kies dat e3 < e1, en dan sal die laaste term arbitrêr klein wees, solank n groot genoeg is. Gevolglik kan die gemiddelde PE-fout so klein as wat verlang word verkry word met die kanaalkapasiteit arbitrêr naby aan C.
As die gemiddelde van alle kodes 'n klein genoeg fout het, moet ten minste een kode geskik wees, dus is daar ten minste een geskikte koderingstelsel. Dit is 'n belangrike resultaat wat deur Shannon verkry is - "Shannon se stelling vir 'n lawaaierige kanaal", alhoewel daarop gelet moet word dat hy dit bewys het vir 'n baie meer algemene geval as vir die eenvoudige binêre simmetriese kanaal wat ek gebruik het. Vir die algemene geval is die wiskundige berekeninge baie meer ingewikkeld, maar die idees is nie so anders nie, so baie dikwels, met behulp van die voorbeeld van 'n spesifieke geval, kan jy die ware betekenis van die stelling openbaar.

Kom ons kritiseer die resultaat. Ons het herhaaldelik herhaal: "Vir voldoende groot n." Maar hoe groot is n? Baie, baie groot as jy regtig beide naby aan die kanaalkapasiteit wil wees en seker wil wees van die korrekte data-oordrag! So groot, in werklikheid, dat jy baie lank sal moet wag om 'n boodskap van genoeg stukkies te versamel om dit later te enkodeer. In hierdie geval sal die grootte van die ewekansige kodewoordeboek eenvoudig groot wees (so 'n woordeboek kan immers nie in 'n korter vorm voorgestel word as 'n volledige lys van alle Mn bisse nie, ten spyte van die feit dat n en M baie groot is)!

Foutkorrigerende kodes vermy om vir 'n baie lang boodskap te wag en dit dan deur baie groot kodeboeke te enkodeer en te dekodeer, want hulle vermy kodeboeke self en gebruik eerder gewone berekening. In eenvoudige teorie is sulke kodes geneig om die vermoë te verloor om die kanaalkapasiteit te benader en steeds 'n lae foutkoers te handhaaf, maar wanneer die kode 'n groot aantal foute regstel, presteer hulle goed. Met ander woorde, as jy 'n mate van kanaalkapasiteit aan foutkorreksie toeken, moet jy die foutkorreksievermoë meeste van die tyd gebruik, dit wil sê, 'n groot aantal foute moet reggestel word in elke boodskap wat gestuur word, anders mors jy hierdie kapasiteit.

Terselfdertyd is die stelling wat hierbo bewys is steeds nie betekenisloos nie! Dit wys dat doeltreffende transmissiestelsels slim enkoderingskemas vir baie lang bisstringe moet gebruik. 'n Voorbeeld is satelliete wat verby die buitenste planete gevlieg het; Soos hulle wegbeweeg van die Aarde en die Son, word hulle gedwing om al hoe meer foute in die datablok reg te stel: sommige satelliete gebruik sonpanele, wat sowat 5 W verskaf, ander gebruik kernkragbronne, wat omtrent dieselfde krag verskaf. Die lae krag van die kragtoevoer, die klein grootte van senderskottels en die beperkte grootte van ontvangerskottels op Aarde, die enorme afstand wat die sein moet aflê - dit alles vereis die gebruik van kodes met 'n hoë vlak van foutkorreksie om 'n effektiewe kommunikasiestelsel.

Kom ons keer terug na die n-dimensionele ruimte wat ons in die bewys hierbo gebruik het. In die bespreking daarvan het ons getoon dat byna die hele volume van die sfeer naby die buitenste oppervlak gekonsentreer is - dus is dit byna seker dat die gestuurde sein naby die oppervlak van die sfeer wat rondom die ontvangde sein gebou is geleë sal wees, selfs met 'n relatief klein radius van so 'n sfeer. Daarom is dit nie verbasend dat die ontvangde sein, na die regstelling van 'n arbitrêr groot aantal foute, nQ, arbitrêr naby 'n sein sonder foute blyk te wees. Die skakelkapasiteit wat ons vroeër bespreek het, is die sleutel om hierdie verskynsel te verstaan. Let daarop dat soortgelyke sfere wat vir Hamming-kodes gebou is, nie oorvleuel nie. Die groot aantal byna ortogonale dimensies in n-dimensionele ruimte wys hoekom ons M sfere in die ruimte kan pas met min oorvleueling. As ons 'n klein, arbitrêr klein oorvleueling toelaat, wat tot slegs 'n klein aantal foute tydens dekodering kan lei, kan ons 'n digte plasing van sfere in die ruimte verkry. Hamming het 'n sekere vlak van foutkorreksie gewaarborg, Shannon - 'n lae waarskynlikheid van fout, maar terselfdertyd handhaaf die werklike deurset arbitrêr naby aan die kapasiteit van die kommunikasiekanaal, wat Hamming-kodes nie kan doen nie.

Inligtingsteorie sê nie vir ons hoe om 'n doeltreffende stelsel te ontwerp nie, maar dit wys wel die weg na doeltreffende kommunikasiestelsels. Dit is 'n waardevolle hulpmiddel vir die bou van masjien-tot-masjien kommunikasiestelsels, maar, soos vroeër opgemerk, het dit min relevansie vir hoe mense met mekaar kommunikeer. Die mate waarin biologiese oorerwing soos tegniese kommunikasiestelsels is, is eenvoudig onbekend, so dit is tans nie duidelik hoe inligtingsteorie op gene van toepassing is nie. Ons het geen ander keuse as om te probeer nie, en as sukses ons die masjienagtige aard van hierdie verskynsel wys, sal mislukking na ander belangrike aspekte van die aard van inligting dui.

Laat ons nie te veel afwyk nie. Ons het gesien dat alle oorspronklike definisies, in 'n mindere of meerdere mate, die essensie van ons oorspronklike oortuigings moet uitdruk, maar hulle word gekenmerk deur 'n mate van verdraaiing en is dus nie van toepassing nie. Dit word tradisioneel aanvaar dat die definisie wat ons gebruik uiteindelik die essensie definieer; maar, dit vertel ons net hoe om dinge te verwerk en dra geensins enige betekenis aan ons oor nie. Die postulasiebenadering, wat so sterk in wiskundige kringe bevoordeel word, laat in die praktyk veel te wense oor.

Nou sal ons kyk na 'n voorbeeld van IK-toetse waar die definisie so sirkelvormig is as wat jy wil hê dit moet wees en as gevolg daarvan misleidend is. ’n Toets word geskep wat veronderstel is om intelligensie te meet. Dit word dan hersien om dit so konsekwent moontlik te maak, en dan word dit gepubliseer en in 'n eenvoudige metode gekalibreer sodat die "intelligensie" wat gemeet word normaalverdeel blyk te wees (natuurlik op 'n kalibrasiekurwe). Alle definisies moet weer nagegaan word, nie net wanneer hulle die eerste keer voorgestel word nie, maar ook heelwat later, wanneer dit gebruik word in die gevolgtrekkings wat gemaak word. In watter mate is die definisiegrense gepas vir die probleem wat opgelos word? Hoe dikwels word definisies wat in een omgewing gegee word in heel verskillende omgewings toegepas? Dit gebeur nogal gereeld! In die geesteswetenskappe, wat jy onvermydelik in jou lewe sal teëkom, gebeur dit meer gereeld.

Dus, een van die oogmerke van hierdie aanbieding van inligtingsteorie, benewens om die bruikbaarheid daarvan te demonstreer, was om jou te waarsku oor hierdie gevaar, of om jou presies te wys hoe om dit te gebruik om die gewenste resultaat te verkry. Daar is lank reeds opgemerk dat aanvanklike definisies bepaal wat jy op die ou end kry, in 'n veel groter mate as wat dit lyk. Aanvanklike definisies verg baie aandag van jou, nie net in enige nuwe situasie nie, maar ook in areas waarmee jy al lank gewerk het. Dit sal jou toelaat om te verstaan ​​in watter mate die resultate wat verkry is 'n tautologie is en nie iets nuttigs nie.

Die bekende verhaal van Eddington vertel van mense wat met 'n net in die see visgevang het. Nadat hulle die grootte van die visse wat hulle gevang het bestudeer het, het hulle die minimum grootte van vis bepaal wat in die see gevind word! Hulle gevolgtrekking is gedryf deur die instrument wat gebruik is, nie deur die werklikheid nie.

Vervolg…

Wie wil help met die vertaling, uitleg en publikasie van die boek - skryf in 'n persoonlike boodskap of e-pos [e-pos beskerm]

Terloops, ons het ook die vertaling van nog 'n oulike boek bekendgestel - "The Dream Machine: The Story of the Computer Revolution")

Ons soek veral diegene wat sal help vertaal bonus hoofstuk, wat slegs op video is. (oordrag vir 10 minute, die eerste 20 is reeds geneem)

Inhoud van die boek en vertaalde hoofstukkevoorwoord

  1. Inleiding tot The Art of Doing Science and Engineering: Learning to Learn (28 Maart 1995) Vertaling: Hoofstuk 1
  2. "Grondslae van die Digitale (Diskrete) Revolusie" (30 Maart 1995) Hoofstuk 2. Grondbeginsels van die digitale (diskrete) revolusie
  3. "Geskiedenis van rekenaars - Hardeware" (31 Maart 1995) Hoofstuk 3. Geskiedenis van Rekenaars - Hardeware
  4. "Geskiedenis van rekenaars - Sagteware" (4 April 1995) Hoofstuk 4. Geskiedenis van Rekenaars - Sagteware
  5. "Geskiedenis van rekenaars - Toepassings" (6 April 1995) Hoofstuk 5: Geskiedenis van Rekenaars - Praktiese Toepassings
  6. "Kunsmatige Intelligensie - Deel I" (7 April 1995) Hoofstuk 6. Kunsmatige Intelligensie - 1
  7. "Kunsmatige Intelligensie - Deel II" (11 April 1995) Hoofstuk 7. Kunsmatige Intelligensie - II
  8. "Kunsmatige Intelligensie III" (13 April 1995) Hoofstuk 8. Kunsmatige Intelligensie-III
  9. "n-dimensionele ruimte" (14 April 1995) Hoofstuk 9. N-dimensionele ruimte
  10. "Koderingsteorie - Die voorstelling van inligting, Deel I" (18 April 1995) Hoofstuk 10. Koderingsteorie - I
  11. "Koderingsteorie - Die voorstelling van inligting, deel II" (20 April 1995) Hoofstuk 11. Koderingsteorie - II
  12. "Fout-korrigerende kodes" (21 April 1995) Hoofstuk 12. Foutkorreksiekodes
  13. "Inligtingsteorie" (25 April 1995) Hoofstuk 13. Inligtingsteorie
  14. "Digitale filters, deel I" (27 April 1995) Hoofstuk 14. Digitale filters - 1
  15. "Digitale filters, deel II" (28 April 1995) Hoofstuk 15. Digitale filters - 2
  16. "Digitale filters, deel III" (2 Mei 1995) Hoofstuk 16. Digitale filters - 3
  17. "Digitale filters, deel IV" (4 Mei 1995) Hoofstuk 17. Digitale filters - IV
  18. "Simulasie, Deel I" (5 Mei 1995) Hoofstuk 18. Modellering - I
  19. "Simulasie, Deel II" (9 Mei 1995) Hoofstuk 19. Modellering - II
  20. "Simulasie, Deel III" (11 Mei 1995) Hoofstuk 20. Modellering - III
  21. "Optiese vesel" (12 Mei 1995) Hoofstuk 21. Veseloptika
  22. "Rekenaargesteunde onderrig" (16 Mei 1995) Hoofstuk 22: Rekenaarondersteunde Onderrig (CAI)
  23. "Wiskunde" (18 Mei 1995) Hoofstuk 23. Wiskunde
  24. "Kwantummeganika" (19 Mei 1995) Hoofstuk 24. Kwantummeganika
  25. "Kreatiwiteit" (23 Mei 1995). Vertaling: Hoofstuk 25. Kreatiwiteit
  26. "Kenners" (25 Mei 1995) Hoofstuk 26. Deskundiges
  27. "Onbetroubare data" (26 Mei 1995) Hoofstuk 27. Onbetroubare data
  28. "Stelselingenieurswese" (30 Mei 1995) Hoofstuk 28. Stelselingenieurswese
  29. "Jy kry wat jy meet" (1 Junie 1995) Hoofstuk 29: Jy kry wat jy meet
  30. "Hoe weet ons wat ons weet" (Junie 2, 1995.) vertaal in 10 minute stukke
  31. Hamming, "Jy en jou navorsing" (6 Junie 1995). Vertaling: Jy en jou werk

Wie wil help met die vertaling, uitleg en publikasie van die boek - skryf in 'n persoonlike boodskap of e-pos [e-pos beskerm]

Bron: will.com

Voeg 'n opmerking