Richard Hamming: 13. kapitulua. Informazioaren teoria

Egin dugu!

"Ikastaro honen helburua zure etorkizun teknikorako prestatzea da."

Richard Hamming: 13. kapitulua. Informazioaren teoriaKaixo, Habr. Gogoratu artikulu zoragarria "Zu eta zure lana" (+219, 2588 laster-markak, 429k irakurketa)?

Beraz, Hamming (bai, bai, autokontrola eta autozuzenketa Hamming kodeak) osotasun bat dago liburua, bere hitzaldietan oinarrituta idatzia. Itzultzen dugu, gizonak bere iritzia esaten duelako.

Hau ez da IT-ari buruzko liburua soilik, jende zoragarrien pentsatzeko estiloari buruzko liburua da. Β«Ez da pentsamendu positiboaren bultzada soilik; lan handia egiteko aukerak areagotzen dituzten baldintzak deskribatzen dituΒ».

Eskerrik asko Andrey Pakhomov-i itzulpenagatik.

Informazioaren Teoria C. E. Shannonek garatu zuen 1940ko hamarkadaren amaieran. Bell Labs-eko zuzendaritzak "Komunikazioaren teoria" deitzen diola azpimarratu zuen, zeren... izen zehatzagoa da hau. Ageriko arrazoiengatik, "Information Theory" izenak askoz eragin handiagoa du publikoan, eta horregatik aukeratu zuen Shannonek, eta gaur egun ezagutzen dugun izena da. Izenak berak iradokitzen du teoriak informazioa jorratzen duela, eta horrek garrantzitsua egiten du informazioaren aroan sakondu ahala. Kapitulu honetan, teoria honen hainbat ondorio nagusi ukituko ditut, teoria honen xedapen indibidual batzuen froga ez zorrotzak, baizik intuitiboak emango ditut, "Informazioaren Teoria" benetan zer den ulertu dezazun, non aplikatu dezakezun. eta non ez .

Lehenik eta behin, zer da β€œinformazioa”? Shannonek informazioa ziurgabetasunarekin parekatzen du. Gertaera baten probabilitatearen logaritmo negatiboa aukeratu zuen p probabilitatea duen gertaera bat gertatzen denean jasotzen duzun informazioaren neurri kuantitatibo gisa. Adibidez, Los Angelesen eguraldia lainotsua dela esaten badizut, orduan p 1etik gertu dago, eta horrek ez digu informazio handirik ematen. Baina ekainean Montereyn euria egiten duela esaten badut, ziurgabetasuna egongo da mezuan eta informazio gehiago edukiko du. Gertaera fidagarri batek ez du inolako informaziorik, log 1 = 0 delako.

Ikus dezagun xehetasun gehiago. Shannonek uste zuen informazioaren neurri kuantitatiboak p gertaera baten probabilitatearen funtzio jarraitua izan behar zuela, eta gertaera independenteetarako gehigarria izan behar zela; baterako gertakari bat gertatzearen ondorioz lortutako informazio kopurua. Esate baterako, dado baten eta txanponaren jaurtiketaren emaitza gertaera independente gisa tratatu ohi da. Itzuli dezagun aurrekoa matematikaren hizkuntzara. I (p) p probabilitatea duen gertaera batean dagoen informazio-kopurua bada, p1 probabilitatea duten x eta y p2 probabilitatea duten bi gertaera independentez osatutako gertaera bateratu baterako lortuko dugu.

Richard Hamming: 13. kapitulua. Informazioaren teoria
(x eta y gertaera independenteak dira)

Hau Cauchy-ren ekuazio funtzionala da, p1 eta p2 guztietarako egiazkoa. Ekuazio funtzional hau ebazteko, demagun

p1 = p2 = p,

honek ematen du

Richard Hamming: 13. kapitulua. Informazioaren teoria

p1 = p2 eta p2 = p bada, orduan

Richard Hamming: 13. kapitulua. Informazioaren teoria

etab. Prozesu hau esponentzialen metodo estandarra erabiliz hedatuz, m/n zenbaki arrazional guztietarako honako hau egia da

Richard Hamming: 13. kapitulua. Informazioaren teoria

Informazio-neurriaren ustezko jarraitutasunetik, funtzio logaritmikoa Cauchy-ren ekuazio funtzionalaren soluzio jarraitu bakarra dela ondorioztatzen da.

Informazioaren teorian, ohikoa da logaritmoaren oinarria 2 izatea, beraz, aukera bitar batek informazio bit bat dauka. Beraz, informazioa formularen bidez neurtzen da

Richard Hamming: 13. kapitulua. Informazioaren teoria

Pausa dezagun eta uler dezagun goian gertatutakoa. Lehenik eta behin, ez dugu β€œinformazio” kontzeptua definitu, bere neurri kuantitatiboaren formula besterik ez dugu definitu.

Bigarrenik, neurri hori ziurgabetasunaren menpe dago, eta makinetarako arrazoiz egokia den arren β€”adibidez, telefono-sistemetarako, irratirako, telebistarako, ordenagailuetarako, etab.β€” ez du islatzen informazioarekiko gizakien ohiko jarrerak.

Hirugarrenik, hau neurri erlatiboa da, zure ezagutzaren egungo egoeraren araberakoa da. Ausazko zenbaki-sorgailu batetik "ausazko zenbakien" korronte bati erreparatuz gero, hurrengo zenbaki bakoitza ziurgabea dela suposatuko duzu, baina "ausazko zenbakiak" kalkulatzeko formula ezagutzen baduzu, hurrengo zenbakia ezagutuko da, eta, beraz, ez da izango. informazioa eduki.

Beraz, Shannonek informazioaren definizioa egokia da kasu askotan makinentzat, baina ez dirudi hitzaren giza ulerkerari egokitzen zaionik. Horregatik, "Informazioaren Teoria" "Komunikazioaren Teoria" deitu behar zitzaion. Dena den, berandu da definizioak aldatzeko (teoriari hasierako ospea eman ziotenak, eta oraindik ere teoria honek β€œinformazioaz” lantzen duela pentsarazten diona), beraz, haiekin bizi behar dugu, baina aldi berean argi ulertzea Shannonen informazioaren definizioa normalean erabiltzen den esanahitik zenbateraino dagoen. Shannonen informazioak guztiz ezberdina den zerbait jorratzen du, ziurgabetasuna alegia.

Hona hemen edozein terminologia proposatzen duzunean pentsatzekoa. Nola bat dator proposatutako definizio bat, hala nola Shannon-en informazioaren definizioa, zure jatorrizko ideiarekin eta zein desberdina den? Ez dago ia kontzeptu baten aurreko ikuspegia zehatz-mehatz islatzen duen terminorik, baina, azken finean, erabilitako terminologia da kontzeptuaren esanahia islatzen duena, beraz, definizio argien bidez zerbait formalizatzeak zarata pixka bat sartzen du beti.

Demagun sistema bat, zeinaren alfabetoa pi probabilitatedun q ikurrez osatuta dagoen. Kasu honetan batez besteko informazio kopurua sisteman (bere esperotako balioa) hau da:

Richard Hamming: 13. kapitulua. Informazioaren teoria

{pi} probabilitate banaketa duen sistemaren entropia deitzen zaio horri. "Entropia" terminoa erabiltzen dugu termodinamikan eta mekanika estatistikoan forma matematiko bera agertzen delako. Horregatik, "entropia" terminoak bere inguruan nolabaiteko garrantzia sortzen du, azken finean justifikatuta ez dagoena. Notazio forma matematiko berak ez du sinboloen interpretazio bera suposatzen!

Probabilitate-banakzioaren entropiak garrantzi handia du kodetze-teorian. Pi eta qi bi probabilitate-banaketa desberdinetarako Gibbs-en desberdintasuna teoria honen ondorio garrantzitsuetako bat da. Beraz, hori frogatu behar dugu

Richard Hamming: 13. kapitulua. Informazioaren teoria

Froga ageriko grafiko batean oinarritzen da, irudia. 13.Nik, hori erakusten duena

Richard Hamming: 13. kapitulua. Informazioaren teoria

eta berdintasuna x = 1 denean bakarrik lortzen da. Aplikatu diezaiogun desberdintasuna baturaren termino bakoitzari ezkerretik:

Richard Hamming: 13. kapitulua. Informazioaren teoria

Komunikazio-sistema baten alfabetoa q sinboloz osatuta badago, orduan qi = 1/q ikur bakoitzaren transmisio-probabilitatea hartu eta q ordezkatuz, Gibbs-en desberdintasunetik lortuko dugu.

Richard Hamming: 13. kapitulua. Informazioaren teoria

Richard Hamming: 13. kapitulua. Informazioaren teoria

13.I. irudia

Horrek esan nahi du q ikur guztiak transmititzeko probabilitatea berdina eta - 1 / q-ren berdina bada, orduan entropia maximoa ln q-ren berdina dela, bestela desberdintasuna betetzen da.

Kode bakarra deskodegarri baten kasuan, Kraft-en desberdintasuna dugu

Richard Hamming: 13. kapitulua. Informazioaren teoria

Orain sasi-probabilitateak definitzen baditugu

Richard Hamming: 13. kapitulua. Informazioaren teoria

non noski Richard Hamming: 13. kapitulua. Informazioaren teoria= 1, Gibbsen desberdintasunetik datorrena,

Richard Hamming: 13. kapitulua. Informazioaren teoria

eta aljebra apur bat aplikatu (gogoratu K ≀ 1 dela, termino logaritmikoa alde batera utzi ahal izateko, eta, agian, geroago desberdintasuna indartu), lortuko dugu

Richard Hamming: 13. kapitulua. Informazioaren teoria

non L kodearen batez besteko luzera den.

Beraz, entropia L kode-hitzaren batez besteko luzera duen karaktere-sinboloko edozein koderen muga minimoa da. Hau Shannon-en teorema da interferentziarik gabeko kanal baterako.

Orain kontuan hartu informazioa bit independenteen korronte gisa transmititzen den komunikazio-sistemen mugei buruzko teorema nagusia eta zarata dagoenean. Bit baten transmisio zuzena izateko probabilitatea P > 1/2 dela ulertzen da, eta transmisioan bitaren balioa alderantzikatuko den probabilitatea (errore bat gertatuko da) Q = 1 - P berdina dela. suposatu erroreak independenteak direla eta errore bat izateko probabilitatea berdina dela bidalitako bit bakoitzeko, hau da, komunikazio-kanalean "zarata zuria" dagoela.

Mezu batean kodetutako n biteko korronte luzea dugun modua bit bateko kodearen n - dimentsioko luzapena da. n-ren balioa geroago zehaztuko dugu. Har dezagun n bitez osatutako mezu bat n dimentsioko espazioko puntu gisa. N dimentsioko espazioa dugunez -eta sinpletasunagatik mezu bakoitzak agertzeko probabilitate bera duela suposatuko dugu- M mezu posible daude (M ere geroago zehaztuko da), beraz, bidalitako edozein mezuren probabilitatea da.

Richard Hamming: 13. kapitulua. Informazioaren teoria

Richard Hamming: 13. kapitulua. Informazioaren teoria
(igorlea)
13. egitaraua.II

Ondoren, kontuan hartu kanalaren ahalmenaren ideia. Xehetasunetan sartu gabe, kanalaren ahalmena komunikazio-kanal baten bidez modu fidagarrian transmititu daitekeen gehieneko informazio-kopuru gisa definitzen da, kodeketa eraginkorrenaren erabilera kontuan hartuta. Ez dago argudiorik komunikazio-kanal baten bidez informazio gehiago transmititu daitekeela bere gaitasuna baino. Hau kanal simetriko bitar baterako froga daiteke (gure kasuan erabiltzen duguna). Kanalaren edukiera, bitak bidaltzean, honela zehazten da

Richard Hamming: 13. kapitulua. Informazioaren teoria

non, lehen bezala, P bidalitako bitetan errorerik ez izateko probabilitatea den. n bit independente bidaltzean, kanalaren edukiera honek ematen du

Richard Hamming: 13. kapitulua. Informazioaren teoria

Kanalaren ahalmenetik hurbil bagaude, ia informazio kopuru hori bidali beharko dugu ai ikur bakoitzeko, i = 1, ..., M. Kontuan izanda ai ikur bakoitzaren agerpen-probabilitatea 1 / M dela, lortzen dugu

Richard Hamming: 13. kapitulua. Informazioaren teoria

edozein M berdin litekeena den mezu ai bidaltzen dugunean, dugu

Richard Hamming: 13. kapitulua. Informazioaren teoria

N bit bidaltzen direnean, nQ erroreak gertatzea espero dugu. Praktikan, n bitez osatutako mezu baterako, gutxi gorabehera nQ erroreak izango ditugu jasotako mezuan. N handietarako, aldakuntza erlatiboa (aldakuntza = banaketa zabalera, )
errore-kopuruaren banaketa gero eta estuagoa izango da n hazi ahala.

Beraz, igorlearen aldetik, ai mezua hartzen dut bidaltzeko eta erradio batekin esfera bat marrazteko.

Richard Hamming: 13. kapitulua. Informazioaren teoria

hau da, espero den Q errore-kopurua baino e2-ren berdina den apur bat handiagoa (13.II. irudia). n nahikoa handia bada, orduan esfera honetatik haratago hedatzen den hartzailearen aldean bj mezu-puntu bat agertzeko probabilitate txikia dago. Zirriborra dezagun egoera nik igorlearen ikuspuntutik ikusten dudan moduan: igorritako ai mezutik jasotako bj mezurainoko edozein erradio dugu banaketa normalaren berdina (edo ia berdina) errore-proba probabilitatearekin, maximo batera iritsiz. nQ. E2 edozeinentzat, n hain handia da non ondoriozko bj puntua nire esferatik kanpo egoteko probabilitatea nahi bezain txikia den.

Orain ikus dezagun egoera bera zure aldetik (13.III. irud.). Hartzailearen aldean r erradio bereko S(r) esfera bat dago n dimentsioko espazioan jasotako bj puntuaren inguruan, hala nola, jasotako bj mezua nire esferaren barruan badago, nik bidalitako ai mezua zure barruan dago. esfera.

Nola gerta daiteke errore bat? Errorea beheko taulan azaltzen diren kasuetan gerta daiteke:

Richard Hamming: 13. kapitulua. Informazioaren teoria

13.III irudia

Richard Hamming: 13. kapitulua. Informazioaren teoria

Hemen ikusten dugu jasotako puntuaren inguruan eraikitako esferan gutxienez bidalitako kodetu gabeko mezu posible bati dagokion puntu bat gehiago badago, orduan errore bat gertatu da transmisioan, ezin baita zehaztu mezu hauetatik zein transmititu den. Bidalitako mezua errorerik gabekoa da hari dagokion puntua esferan badago eta emandako kodean esfera berean dauden beste puntu posiblerik ez badago.

Pe akatsaren probabilitatearen ekuazio matematikoa dugu ai mezua bidali bada

Richard Hamming: 13. kapitulua. Informazioaren teoria

Lehenengo faktorea bigarren terminoan bota dezakegu, 1 gisa hartuta. Horrela, desberdintasuna lortuko dugu.

Richard Hamming: 13. kapitulua. Informazioaren teoria

Jakina,

Richard Hamming: 13. kapitulua. Informazioaren teoria

Ondorioz

Richard Hamming: 13. kapitulua. Informazioaren teoria

eskuineko azken terminoari berriro eskatu

Richard Hamming: 13. kapitulua. Informazioaren teoria

n nahikoa handia hartuz, lehen terminoa nahi bezain txikia har daiteke, demagun d zenbaki bat baino txikiagoa. Horregatik dugu

Richard Hamming: 13. kapitulua. Informazioaren teoria

Orain ikus dezagun nola eraiki dezakegun ordezkapen-kode soil bat n bitez osatutako M mezuak kodetzeko. Kode bat nola eraiki zehazki (erroreak zuzentzeko kodeak ez ziren oraindik asmatu), Shannonek ausazko kodeketa aukeratu zuen. Biratu txanpon bat mezuko n bit bakoitzeko eta errepikatu prozesua M mezuetarako. Guztira, nM txanpon-iraulketak egin behar dira, beraz, posible da

Richard Hamming: 13. kapitulua. Informazioaren teoria

Β½nM probabilitate bera duten kode-hiztegiak. Jakina, kode-liburua sortzeko ausazko prozesuak bikoiztuak izateko aukera dagoela esan nahi du, baita elkarrengandik hurbil egongo diren eta, beraz, akats probableen iturri izango diren kode puntuak ere. Frogatu behar da hau ez bada aukeratutako edozein errore-maila txiki baino probabilitate handiagoarekin gertatzen, orduan emandako n nahikoa handia dela.
Puntu erabakigarria da Shannonek kode liburu posible guztiak batez beste bat egin zuela batez besteko errorea aurkitzeko! Av[.] ikurra erabiliko dugu ausazko kode liburu posible guztien multzoko batez besteko balioa adierazteko. d konstante baten batez bestekoa egiteak, noski, konstante bat ematen du, zeren eta bataz besteko termino bakoitza baturako beste termino guztien berdina baita,

Richard Hamming: 13. kapitulua. Informazioaren teoria

handitu daitekeena (M–1 M-ra doa)

Richard Hamming: 13. kapitulua. Informazioaren teoria

Edozein mezutarako, kode-liburu guztietan batez bestekoa egitean, kodeketak balio posible guztiak zeharkatzen ditu, beraz, puntu bat esfera batean egoteko batez besteko probabilitatea esferaren bolumenaren eta espazioaren bolumen osoaren arteko erlazioa da. Esferaren bolumena da

Richard Hamming: 13. kapitulua. Informazioaren teoria

non s=Q+e2 <1/2 eta ns zenbaki oso bat izan behar du.

Eskuineko azken terminoa batura honetako handiena da. Lehenik eta behin, estima dezagun bere balioa faktoreetarako Stirling formula erabiliz. Ondoren, aurrean duen terminoaren koefiziente beherakorrari erreparatuko diogu, kontuan izan ezkerrerantz goazen heinean koefiziente hori handitzen dela, eta, beraz, honako hau egin dezakegu: (1) baturaren balioa progresio geometrikoaren batura mugatu. hasierako koefiziente hori, (2) ns terminoetatik termino kopuru infinitura zabaldu n):

Richard Hamming: 13. kapitulua. Informazioaren teoria

Kontuan izan nola agertzen den H(s) entropia identitate binomikoan. Kontuan izan Taylor-en seriearen hedapenak H(s)=H(Q+e2) lehen deribatua bakarrik kontuan hartuta eta beste guztiak alde batera utzita lortutako estimazioa ematen duela. Orain batu dezagun azken adierazpena:

Richard Hamming: 13. kapitulua. Informazioaren teoria

non

Richard Hamming: 13. kapitulua. Informazioaren teoria

Egin behar dugun guztia e2 aukeratzea da, e3 < e1 izan dadin, eta orduan azken terminoa arbitrarioki txikia izango da, betiere n nahikoa handia bada. Ondorioz, batez besteko PE errorea nahi bezain txikia lor daiteke kanalaren ahalmenarekin arbitrarioki C-tik hurbil.
Kode guztien batez bestekoak nahikoa errore txiki bat badu, gutxienez kode batek egokia izan behar du, beraz, gutxienez kode sistema egoki bat dago. Shannon-ek lortutako emaitza garrantzitsu bat da - "Shannon-en teorema kanal zaratatsu baterako", nahiz eta kontuan izan behar den hori frogatu zuela nik erabili dudan kanal simetriko bitar soilerako baino askoz kasu orokorrago baterako. Kasu orokorrerako, kalkulu matematikoak askoz korapilatsuagoak dira, baina ideiak ez dira hain desberdinak, beraz, askotan, kasu jakin baten adibidea erabiliz, teoremaren benetako esanahia ager dezakezu.

Kritika dezagun emaitza. Behin eta berriz errepikatu dugu: "N nahikoa handirako". Baina zenbat handia da n? Oso-oso handia kanalaren edukieratik gertu egon nahi baduzu eta datu-transferentzia zuzena dela ziurtatu nahi baduzu! Hain handia, hain zuzen ere, oso denbora luzez itxaron beharko duzu gero kodetzeko adina bitko mezu bat pilatzeko. Kasu honetan, ausazko kode hiztegiaren tamaina oso handia izango da (azken finean, hiztegi bat ezin da Mn bit guztien zerrenda osoa baino forma laburragoan irudikatu, n eta M oso handiak diren arren)!

Erroreak zuzentzen dituzten kodeak oso mezu luze baten zain egotea saihesten dute eta, ondoren, kode-liburu handien bidez kodetu eta deskodetzea saihesten baitute kode-liburuak beraiek saihesten dituztelako eta konputazio arrunta erabiltzen dutelako. Teoria sinplean, horrelako kodeak kanalaren ahalmenera hurbiltzeko gaitasuna galdu ohi dute eta oraindik errore-tasa baxua mantentzen dute, baina kodeak akats ugari zuzentzen dituenean, ondo funtzionatzen dute. Beste era batera esanda, akatsen zuzenketari kanal-ahalmen batzuk esleitzen badituzu, erroreak zuzentzeko gaitasuna erabili beharko duzu gehienetan, hau da, bidalitako mezu bakoitzean errore kopuru handia zuzendu behar da, bestela gaitasun hori alferrik galduko duzu.

Aldi berean, goian frogatutako teorema oraindik ez da zentzurik! Transmisio-sistema eraginkorrak kodetze-eskema adimentsuak erabili behar dituela erakusten du bit-kate oso luzeetarako. Adibide bat kanpoko planetetatik haratago hegan egin duten sateliteak dira; Lurretik eta Eguzkitik aldentzen diren heinean, datu-blokean gero eta akats gehiago zuzentzera behartuta daude: satelite batzuek eguzki-panelak erabiltzen dituzte, 5 W inguru ematen dituztenak, beste batzuek energia iturri nuklearrak erabiltzen dituzte, potentzia bera gutxi gorabehera. Elikatze-horniduraren potentzia baxua, igorle-platuen tamaina txikia eta hargailuen plateren tamaina mugatua Lurrean, seinaleak bidaiatu behar duen distantzia izugarria - honek guztiak errore-zuzenketa maila handiko kodeak erabiltzea eskatzen du bat eraikitzeko. komunikazio sistema eraginkorra.

Itzuli gaitezen goiko frogan erabili dugun n dimentsioko espaziora. Eztabaidatzerakoan, esferaren ia bolumen osoa kanpoko gainazaletik gertu kontzentratuta dagoela erakutsi genuen; beraz, ia segurua da bidalitako seinalea jasotako seinalearen inguruan eraikitako esferaren gainazaletik gertu kokatuko dela, nahiz eta nahikoa izan. halako esfera baten erradio txikia. Hori dela eta, ez da harritzekoa jasotako seinalea, akats kopuru handi bat zuzendu ondoren, nQ, akatsik gabeko seinale batetik modu arbitrarioan hurbil egotea. Lehen aipatu dugun lotura-gaitasuna da fenomeno hau ulertzeko gakoa. Kontuan izan erroreak zuzentzeko Hamming kodeak eraikitako antzeko esferak ez direla elkarren gainjartzen. N dimentsioko espazioan ia ortogonal dimentsio kopuru handiak erakusten du zergatik egokitu ditzakegun M esferak gainjarri gutxirekin espazioan. Gainjartze txikia eta arbitrarioki txiki bat onartzen badugu, eta horrek deskodetzean errore kopuru txiki bat besterik ez sor dezakeen, espazioan esferen kokapen trinkoa lor dezakegu. Hamming-ek errore-zuzenketa maila jakin bat bermatu zuen, Shannon - errore-probabilitate txikia, baina, aldi berean, benetako errendimendua mantentzea arbitrarioki komunikazio-kanalaren ahalmenetik hurbil, Hamming-en kodeak egin ezin duena.

Informazioaren teoriak ez digu esaten sistema eraginkor bat nola diseinatu, baina komunikazio sistema eraginkorretarako bidea adierazten du. Makina-makina komunikazio-sistemak eraikitzeko tresna baliotsua da, baina, lehen esan bezala, gizakiak elkarren artean komunikatzeko moduari dagokionez garrantzi gutxi du. Herentzia biologikoa komunikazio-sistema teknikoak bezalakoa zenbateraino den ezezaguna da, beraz, gaur egun ez dago argi informazioaren teoria geneei nola aplikatzen den. Saiatzea beste aukerarik ez dugu, eta arrakastak fenomeno honen makina-itxura erakusten badigu, porrotak informazioaren izaeraren beste alderdi esanguratsu batzuk adieraziko ditu.

Ez gaitezen gehiegi aldendu. Ikusi dugu jatorrizko definizio guztiek, neurri handiagoan edo txikiagoan, gure jatorrizko sinesmenen funtsa adierazi behar dutela, baina nolabaiteko distortsio-maila dute eta, beraz, ez dira aplikagarriak. Tradizionalki onartzen da, azken batean, erabiltzen dugun definizioak benetan definitzen duela esentzia; baina, honek gauzak nola prozesatu baino ez digu esaten eta inola ere ez digu esanahirik transmititzen. Matematika-zirkuluetan hain aldekoa den planteamendu postulazionalak asko uzten du praktikan.

Orain, IQ proben adibide bat ikusiko dugu, non definizioa nahi duzun bezain zirkularra den eta, ondorioz, engainagarria den. Adimena neurtu behar duen test bat sortzen da. Gero berrikusten da ahalik eta koherenteena izan dadin, eta gero argitaratu eta, metodo sinple batean, kalibratu egiten da, neurtutako β€œadimena” normaltasunez banatuta egon dadin (kalibrazio-kurba batean, noski). Definizio guztiak berriro egiaztatu behar dira, ez bakarrik lehen proposatzen direnean, baita askoz geroago ere, ateratako ondorioetan erabiltzen direnean. Zenbateraino dira egokiak definizio-mugak konpontzen den arazorako? Zenbat aldiz ezartzen dira ezarpen batean emandako definizioak nahiko ezarpen ezberdinetan? Hau sarritan gertatzen da! Zure bizitzan ezinbestean topatuko dituzun humanitateetan, hori maizago gertatzen da.

Hala, informazioaren teoriaren aurkezpen honen helburuetako bat, bere erabilgarritasuna erakusteaz gain, arrisku horretaz ohartaraztea zen, edo nahi den emaitza lortzeko nola erabili zehatz-mehatz erakustea. Aspalditik ohartarazi da hasierako definizioek zehazten dutela azkenean zer aurkituko duzun, dirudiena baino askoz ere neurri handiagoan. Hasierako definizioek arreta handia eskatzen dizute, ez bakarrik edozein egoera berritan, baita denbora luzez lanean ari zaren arloetan ere. Horri esker, lortutako emaitzak zein neurritan tautologia diren eta ez erabilgarria den zerbait ulertuko duzu.

Eddington-en istorio famatuak sare batekin itsasoan arrantza egiten zuten jendea kontatzen du. Harrapatzen duten arrainen tamaina aztertu ondoren, itsasoan aurkitzen den gutxieneko arrainen tamaina zehaztu dute! Beraien ondorioa erabilitako tresnak bultzatu zuen, ez errealitateak.

Jarraitu ahal izateko ...

Liburuaren itzulpenean, diseinuan eta argitalpenean lagundu nahi duenak - idatzi mezu pertsonal batean edo posta elektronikoan [posta elektroniko bidez babestua]

Bide batez, beste liburu polit baten itzulpena ere jarri dugu martxan - "Ametsen makina: ordenagailuen iraultzaren istorioa")

Batez ere bilatzen ari gara itzultzen lagunduko dutenak bonus kapitulua, bideoan soilik dagoena. (transferentzia 10 minutuz, lehen 20ak dagoeneko hartu dira)

Liburuaren edukia eta itzulitako kapituluakhitzaurrea

  1. Zientzia eta ingeniaritza egiteko artearen hastapena: ikasten ikasten (28eko martxoaren 1995a) Itzulpena: 1. kapitulua
  2. "Iraultza digitalaren (diskretuaren) oinarriak" (30eko martxoaren 1995a) 2. kapitulua. Iraultza digitalaren (diskretuaren) oinarriak
  3. "Konputagailuen Historia - Hardwarea" (31eko martxoaren 1995) 3. kapitulua. Ordenagailuen historia - Hardwarea
  4. "Ordenagailuen Historia - Softwarea" (4eko apirilaren 1995a) 4. kapitulua. Ordenagailuen historia - Softwarea
  5. "Konputagailuen Historia - Aplikazioak" (6eko apirilaren 1995a) 5. kapitulua: Ordenagailuen historia - Aplikazio praktikoak
  6. "Adimen artifiziala - I. zatia" (7eko apirilaren 1995a) 6. kapitulua. Adimen artifiziala - 1
  7. "Adimen artifiziala - II. zatia" (11eko apirilaren 1995) 7. kapitulua. Adimen artifiziala - II
  8. "Adimen Artifiziala III" (13eko apirilaren 1995a) 8. kapitulua Adimen artifiziala-III
  9. "n-Dimensional Space" (14eko apirilaren 1995a) 9. kapitulua. N dimentsioko espazioa
  10. "Kodeketaren teoria - Informazioaren irudikapena, I. zatia" (18eko apirilaren 1995a) 10. kapitulua. Kodeketaren teoria - I
  11. "Kodeketaren teoria - Informazioaren irudikapena, II. zatia" (20eko apirilaren 1995a) 11. kapitulua. Kodeketaren teoria - II
  12. "Erroreak zuzentzeko kodeak" (21eko apirilaren 1995a) 12. kapitulua. Akatsak zuzentzeko kodeak
  13. "Informazioaren teoria" (25eko apirilaren 1995a) 13. kapitulua. Informazioaren teoria
  14. "Iragazki digitalak, I. zatia" (27eko apirilaren 1995a) 14. kapitulua. Iragazki digitalak - 1
  15. "Iragazki digitalak, II. zatia" (28eko apirilaren 1995a) 15. kapitulua. Iragazki digitalak - 2
  16. "Iragazki digitalak, III. zatia" (2eko maiatzaren 1995a) 16. kapitulua. Iragazki digitalak - 3
  17. "Iragazki digitalak, IV. zatia" (4eko maiatzaren 1995a) 17. kapitulua. Iragazki digitalak - IV
  18. "Simulazioa, I. zatia" (5eko maiatzaren 1995a) 18. kapitulua. Modelatzea - ​​I
  19. "Simulazioa, II. zatia" (9eko maiatzaren 1995a) 19. kapitulua. Modelatzea - ​​II
  20. "Simulazioa, III. zatia" (11eko maiatzaren 1995) 20. kapitulua. Modelatzea - ​​III
  21. "Zuntz optikoa" (12eko maiatzaren 1995a) 21. kapitulua. Zuntz optikoa
  22. "Ordenagailuz lagundutako irakaskuntza" (16eko maiatzaren 1995a) 22. kapitulua: Ordenagailuz lagundutako irakaskuntza (CAI)
  23. "Matematika" (18eko maiatzaren 1995a) 23. kapitulua. Matematika
  24. "Mekanika kuantikoa" (19eko maiatzaren 1995a) 24. kapitulua. Mekanika kuantikoa
  25. "Sormena" (23-1995-XNUMX). Itzulpena: 25. kapitulua. Sormena
  26. "Adituak" (25eko maiatzaren 1995a) 26. kapitulua. Adituak
  27. "Datu fidagarriak" (26eko maiatzaren 1995a) 27. kapitulua. Datu fidagarriak
  28. "Sistemen Ingeniaritza" (30eko maiatzaren 1995a) 28. kapitulua. Sistemen Ingeniaritza
  29. "Neurtzen duzuna lortzen duzu" (1eko ekainaren 1995a) 29. kapitulua: Neurtzen duzuna lortzen duzu
  30. "Nola dakigu zer dakigun" (Ekainaren 2, 1995) itzuli 10 minutuko zatitan
  31. Hamming, "Zu eta zure ikerketa" (6eko ekainaren 1995a). Itzulpena: Zu eta zure lana

Liburuaren itzulpenean, diseinuan eta argitalpenean lagundu nahi duenak - idatzi mezu pertsonal batean edo posta elektronikoan [posta elektroniko bidez babestua]

Iturria: www.habr.com

Gehitu iruzkin berria