Richard Hamming: Ĉapitro 13. Informa Teorio

Ni faris ĝin!

"La celo de ĉi tiu kurso estas prepari vin por via teknika estonteco."

Richard Hamming: Ĉapitro 13. Informa TeorioSaluton, Habr. Memoru la mirindan artikolon "Vi kaj via laboro" (+219, 2588 legosignoj, 429k legaĵoj)?

Do Hamming (jes, jes, memkontrolado kaj memkorektado Hamming-kodoj) estas tuto libro, verkita surbaze de liaj prelegoj. Ni tradukas ĝin, ĉar la viro parolas sian opinion.

Ĉi tio estas libro ne nur pri IT, ĝi estas libro pri la pensmaniero de nekredeble bonegaj homoj. “Ĝi ne estas nur akcelo de pozitiva pensado; ĝi priskribas la kondiĉojn, kiuj pliigas la ŝancojn fari bonegan laboron."

Dankon al Andrej Pakhomov pro la traduko.

Informa teorio estis evoluigita fare de C. E. Shannon en la malfruaj 1940-aj jaroj. Bell Labs-administrado insistis ke li nomas ĝin "Komunikada Teorio" ĉar... ĉi tio estas multe pli preciza nomo. Pro evidentaj kialoj, la nomo "Informada Teorio" havas multe pli grandan efikon al la publiko, tial Shannon elektis ĝin, kaj ĝi estas la nomo, kiun ni konas ĝis hodiaŭ. La nomo mem sugestas, ke la teorio traktas informojn, kio igas ĝin grava dum ni pliprofundiĝas en la informa epoko. En ĉi tiu ĉapitro, mi tuŝos plurajn ĉefajn konkludojn el ĉi tiu teorio, mi provizos ne striktajn, sed prefere intuiciajn pruvojn de iuj individuaj dispozicioj de ĉi tiu teorio, por ke vi komprenu kio fakte estas "Informa Teorio", kie vi povas apliki ĝin. kaj kie ne.

Antaŭ ĉio, kio estas "informo"? Shannon egaligas informojn kun necerteco. Li elektis la negativan logaritmon de la probableco de evento kiel kvantan mezuron de la informoj, kiujn vi ricevas kiam evento kun probablo p okazas. Ekzemple, se mi diras al vi, ke la vetero en Los-Anĝeleso estas nebula, tiam p estas proksima al 1, kio vere ne donas al ni multe da informoj. Sed se mi diras, ke en Monterey pluvas en junio, estos necerteco en la mesaĝo kaj ĝi enhavos pli da informoj. Fidinda evento enhavas neniun informon, ĉar protokolo 1 = 0.

Ni rigardu ĉi tion pli detale. Shannon kredis, ke la kvanta mezuro de informoj devus esti kontinua funkcio de la probableco de okazaĵo p, kaj por sendependaj okazaĵoj ĝi devus esti aldona - la kvanto de informoj akirita kiel rezulto de la okazo de du sendependaj okazaĵoj devus esti egala al la kvanto de informo akirita kiel rezulto de la okazo de komuna evento. Ekzemple, la rezulto de ĵetkubo kaj monerrulo estas kutime traktitaj kiel sendependaj okazaĵoj. Ni traduku la supre en la matematikan lingvon. Se I (p) estas la kvanto de informoj enhavita en evento kun probableco p, tiam por komuna evento konsistanta el du sendependaj eventoj x kun probableco p1 kaj y kun probablo p2 ni ricevas

Richard Hamming: Ĉapitro 13. Informa Teorio
(x kaj y estas sendependaj eventoj)

Ĉi tiu estas la funkcia ekvacio de Cauchy, vera por ĉiuj p1 kaj p2. Por solvi ĉi tiun funkcian ekvacion, supozu tion

p1 = p2 = p,

ĉi tio donas

Richard Hamming: Ĉapitro 13. Informa Teorio

Se p1 = p2 kaj p2 = p tiam

Richard Hamming: Ĉapitro 13. Informa Teorio

ktp. Etendante ĉi tiun procezon uzante la norman metodon por eksponencialoj, por ĉiuj raciaj nombroj m/n la sekvanta estas vera

Richard Hamming: Ĉapitro 13. Informa Teorio

El la supozita kontinueco de la informa mezuro, ĝi sekvas ke la logaritma funkcio estas la nura kontinua solvo al la Cauchy-funkcia ekvacio.

En informa teorio, estas kutime preni la logaritman bazon por esti 2, do binara elekto enhavas ekzakte 1 biton da informo. Tial, informoj estas mezuritaj per la formulo

Richard Hamming: Ĉapitro 13. Informa Teorio

Ni paŭzu kaj komprenu kio okazis supre. Antaŭ ĉio, ni ne difinis la koncepton de "informo"; ni simple difinis la formulon por ĝia kvanta mezuro.

Due, ĉi tiu mezuro estas submetita al necerteco, kaj kvankam ĝi estas racie taŭga por maŝinoj—ekzemple, telefonaj sistemoj, radio, televido, komputiloj, ktp.—ĝi ne reflektas normalajn homajn sintenojn al informoj.

Trie, ĉi tio estas relativa mezuro, ĝi dependas de la nuna stato de via scio. Se vi rigardas fluon de "hazardaj nombroj" el hazarda nombrogeneratoro, vi supozas, ke ĉiu sekva nombro estas necerta, sed se vi scias la formulon por kalkuli "hazardajn nombrojn", la sekva nombro estos konata, kaj tial ne estos. enhavas informojn.

Do la difino de Shannon de informoj taŭgas por maŝinoj en multaj kazoj, sed ŝajnas ne kongrui kun la homa kompreno de la vorto. Tial "Informa Teorio" devus esti nomita "Komunikada Teorio". Tamen estas tro malfrue por ŝanĝi la difinojn (kiuj donis al la teorio sian komencan popularecon, kaj kiuj ankoraŭ pensigas, ke tiu ĉi teorio traktas "informojn"), do ni devas vivi kun ili, sed samtempe oni devas klare komprenu kiom malproksime la difino de Shannon de informoj estas de ĝia kutime uzata signifo. La informoj de Shannon traktas ion tute alian, nome necertecon.

Jen io por pensi kiam vi proponas iun terminologion. Kiel proponita difino, kiel la difino de Shannon pri informoj, konsentas kun via origina ideo kaj kiom malsama ĝi estas? Preskaŭ ne ekzistas termino, kiu precize reflektas vian antaŭan vizion de koncepto, sed finfine, estas la uzata terminologio, kiu reflektas la signifon de la koncepto, do formaligi ion per klaraj difinoj ĉiam enkondukas iom da bruo.

Konsideru sistemon, kies alfabeto konsistas el simboloj q kun probabloj pi. Tiuokaze meza kvanto da informoj en la sistemo (ĝia atendata valoro) estas egala al:

Richard Hamming: Ĉapitro 13. Informa Teorio

Tio estas nomita la entropio de la sistemo kun probabla distribuo {pi}. Ni uzas la terminon "entropio" ĉar la sama matematika formo aperas en termodinamiko kaj statistika mekaniko. Tial la termino "entropio" kreas ĉirkaŭ si mem certan aŭron de graveco, kio finfine ne pravigas. La sama matematika formo de notacio ne implicas la saman interpreton de simboloj!

La entropio de la probablodistribuo ludas gravan rolon en kodiga teorio. La Gibbs-malegaleco por du malsamaj probablodistribuoj pi kaj qi estas unu el la gravaj sekvoj de ĉi tiu teorio. Do ni devas pruvi tion

Richard Hamming: Ĉapitro 13. Informa Teorio

La pruvo baziĝas sur evidenta grafeo, Fig. 13.Mi, kiu montras tion

Richard Hamming: Ĉapitro 13. Informa Teorio

kaj egaleco estas atingita nur kiam x = 1. Ni apliku la malegalecon al ĉiu termino de la sumo de la maldekstra flanko:

Richard Hamming: Ĉapitro 13. Informa Teorio

Se la alfabeto de komunika sistemo konsistas el q simboloj, tiam prenante la probablecon de dissendo de ĉiu simbolo qi = 1/q kaj anstataŭigante q, ni ricevas de la Gibbs-malegaleco

Richard Hamming: Ĉapitro 13. Informa Teorio

Richard Hamming: Ĉapitro 13. Informa Teorio

Figuro 13.I

Ĉi tio signifas, ke se la probablo transdoni ĉiujn q simbolojn estas la sama kaj egala al - 1 / q, tiam la maksimuma entropio estas egala al ln q, alie la malegaleco validas.

En la kazo de unike deĉifrebla kodo, ni havas la malegalecon de Kraft

Richard Hamming: Ĉapitro 13. Informa Teorio

Nun se ni difinas pseŭdo-probablecojn

Richard Hamming: Ĉapitro 13. Informa Teorio

kie kompreneble Richard Hamming: Ĉapitro 13. Informa Teorio= 1, kiu sekvas el la malegaleco de Gibbs,

Richard Hamming: Ĉapitro 13. Informa Teorio

kaj apliki iom da algebro (memoru ke K ≤ 1, do ni povas faligi la logaritman terminon, kaj eble plifortigi la malegalecon poste), ni ricevas

Richard Hamming: Ĉapitro 13. Informa Teorio

kie L estas la meza kodlongo.

Tiel, entropio estas la minimuma ligita por iu signo-post-simbola kodo kun meza kodvortlongo L. Tio estas la teoremo de Shannon por interfer-libera kanalo.

Nun konsideru la ĉefan teoremon pri la limigoj de komunikadsistemoj en kiuj informoj estas transdonitaj kiel fluo de sendependaj bitoj kaj bruo ĉeestas. Oni komprenas, ke la probablo de ĝusta dissendo de unu bito estas P > 1/2, kaj la probableco, ke la bita valoro inversiĝos dum transdono (eraro okazos) estas egala al Q = 1 - P. Por oportuno, ni supozu, ke la eraroj estas sendependaj kaj la probablo de eraro estas la sama por ĉiu sendita bito - tio estas, estas "blanka bruo" en la komunika kanalo.

La maniero kiel ni havas longan fluon de n bitoj ĉifrita en unu mesaĝon estas la n-dimensia etendaĵo de la unu-bita kodo. Ni determinos la valoron de n poste. Konsideru mesaĝon konsistantan el n-bitoj kiel punkton en n-dimensia spaco. Ĉar ni havas n-dimensian spacon - kaj por simpleco ni supozos ke ĉiu mesaĝo havas la saman probablecon de apero - ekzistas M eblaj mesaĝoj (M ankaŭ estos difinita poste), tial la probableco de iu mesaĝo sendita estas

Richard Hamming: Ĉapitro 13. Informa Teorio

Richard Hamming: Ĉapitro 13. Informa Teorio
(sendanto)
Horaro 13.II

Poste, konsideru la ideon pri kanala kapablo. Sen eniri detalojn, kanalkapacito estas difinita kiel la maksimuma kvanto de informoj kiu povas esti fidinde elsendita tra komunika kanalo, konsiderante la uzon de la plej efika kodigo. Ne ekzistas argumento, ke pli da informoj povas esti transdonitaj per komunika kanalo ol ĝia kapablo. Ĉi tio povas esti pruvita por binara simetria kanalo (kiun ni uzas en nia kazo). La kanalkapacito, dum sendado de bitoj, estas precizigita kiel

Richard Hamming: Ĉapitro 13. Informa Teorio

kie, kiel antaŭe, P estas la probablo de neniu eraro en iu sendita bito. Sendante n sendependajn bitojn, la kanalkapacito ricevas per

Richard Hamming: Ĉapitro 13. Informa Teorio

Se ni estas proksimaj al la kanalkapacito, tiam ni devas sendi preskaŭ ĉi tiun kvanton da informo por ĉiu el la simboloj ai, i = 1, ..., M. Konsiderante ke la probableco de okazo de ĉiu simbolo ai estas 1 / M, ni ricevas

Richard Hamming: Ĉapitro 13. Informa Teorio

kiam ni sendas iun el M same verŝajnajn mesaĝojn ai, ni havas

Richard Hamming: Ĉapitro 13. Informa Teorio

Kiam n bitoj estas senditaj, ni atendas nQ-erarojn okazi. En praktiko, por mesaĝo konsistanta el n-bitoj, ni havos proksimume nQ-erarojn en la ricevita mesaĝo. Por granda n, relativa vario (vario = distribua larĝo, )
la distribuo de la nombro da eraroj fariĝos ĉiam pli mallarĝa kiam n pliiĝas.

Do, de la elsendilo flanko, mi prenas la mesaĝon ai por sendi kaj desegni sferon ĉirkaŭ ĝi kun radiuso

Richard Hamming: Ĉapitro 13. Informa Teorio

kiu estas iomete pli granda je kvanto egala al e2 ol la atendata nombro da eraroj Q, (Figuro 13.II). Se n estas sufiĉe granda, tiam ekzistas arbitre malgranda probableco de mesaĝpunkto bj aperanta sur la ricevila flanko kiu etendiĝas preter tiu ĉi sfero. Ni skizu la situacion, kiel mi vidas ĝin el la vidpunkto de la elsendilo: ni havas ajnajn radiumojn de la elsendita mesaĝo ai ĝis la ricevita mesaĝo bj kun probableco de eraro egala (aŭ preskaŭ egala) al la normala distribuo, atingante maksimumon. de nQ. Por iu ajn donita e2, estas n tiel granda ke la probablo de la rezulta punkto bj esti ekster mia sfero estas tiel malgranda kiel vi ŝatas.

Nun ni rigardu la saman situacion de via flanko (Fig. 13.III). Ĉe la ricevilo-flanko estas sfero S(r) de la sama radiuso r ĉirkaŭ la ricevita punkto bj en n-dimensia spaco, tia ke se la ricevita mesaĝo bj estas ene de mia sfero, tiam la mesaĝo ai sendita de mi estas ene de via. sfero.

Kiel povas okazi eraro? La eraro povas okazi en la kazoj priskribitaj en la suba tabelo:

Richard Hamming: Ĉapitro 13. Informa Teorio

Figuro 13.III

Richard Hamming: Ĉapitro 13. Informa Teorio

Ĉi tie ni vidas, ke se en la sfero konstruita ĉirkaŭ la ricevita punkto estas almenaŭ unu plia punkto responda al ebla sendita nekodita mesaĝo, tiam okazis eraro dum transsendo, ĉar oni ne povas determini kiu el tiuj mesaĝoj estis transdonita. La sendita mesaĝo estas senerara nur se la punkto responda al ĝi estas en la sfero, kaj ne ekzistas aliaj punktoj eblaj en la donita kodo kiuj estas en la sama sfero.

Ni havas matematikan ekvacion por la probableco de eraro Pe se mesaĝo ai estis sendita

Richard Hamming: Ĉapitro 13. Informa Teorio

Ni povas forĵeti la unuan faktoron en la dua termino, prenante ĝin kiel 1. Tiel ni ricevas la malegalecon

Richard Hamming: Ĉapitro 13. Informa Teorio

Estas evidente ke

Richard Hamming: Ĉapitro 13. Informa Teorio

Konsekvence

Richard Hamming: Ĉapitro 13. Informa Teorio

rekandidatiĝu al la lasta termino dekstre

Richard Hamming: Ĉapitro 13. Informa Teorio

Prenante n sufiĉe granda, la unua termino povas esti prenita tiel malgranda kiel dezirate, diru malpli ol iu nombro d. Tial ni havas

Richard Hamming: Ĉapitro 13. Informa Teorio

Nun ni rigardu kiel ni povas konstrui simplan anstataŭan kodon por kodi M mesaĝojn konsistantajn el n bitoj. Havante neniun ideon kiel precize konstrui kodon (erarkorektaj kodoj ankoraŭ ne estis inventitaj), Shannon elektis hazardan kodigon. Turnu moneron por ĉiu el la n bitoj en la mesaĝo kaj ripetu la procezon por M mesaĝoj. Entute, nM-moneroj devas esti faritaj, do eblas

Richard Hamming: Ĉapitro 13. Informa Teorio

kodvortaroj havantaj la saman probablecon ½nM. Kompreneble, la hazarda procezo de kreado de kodlibro signifas, ke ekzistas ebleco de duplikatoj, kaj ankaŭ kodpunktoj, kiuj estos proksimaj unu al la alia kaj do estos fonto de verŝajnaj eraroj. Oni devas pruvi ke se tio ne okazas kun probableco pli granda ol iu malgranda elektita erarnivelo, tiam la donita n estas sufiĉe granda.
La decida punkto estas, ke Shannon averaĝis ĉiujn eblajn kodlibrojn por trovi la averaĝan eraron! Ni uzos la simbolon Av[.] por indiki la averaĝan valoron super la aro de ĉiuj eblaj hazardaj kodlibroj. Averaĝi super konstanto d, kompreneble, donas konstanton, ĉar por averaĝi ĉiun terminon estas la sama kiel ĉiu alia termino en la sumo,

Richard Hamming: Ĉapitro 13. Informa Teorio

kiu povas esti pliigita (M-1 iras al M)

Richard Hamming: Ĉapitro 13. Informa Teorio

Por iu antaŭfiksita mesaĝo, dum averaĝado tra ĉiuj kodlibroj, la kodigado trairas ĉiujn eblajn valorojn, do la meza probableco ke punkto estas en sfero estas la rilatumo de la volumeno de la sfero al la totalvolumeno de spaco. La volumeno de la sfero estas

Richard Hamming: Ĉapitro 13. Informa Teorio

kie s=Q+e2 <1/2 kaj ns devas esti entjero.

La lasta termino dekstre estas la plej granda en ĉi tiu sumo. Unue, ni taksu ĝian valoron uzante la Stirlingan formulon por faktorialoj. Ni tiam rigardos la malkreskantan koeficienton de la termino antaŭ ĝi, rimarku, ke tiu ĉi koeficiento pliiĝas dum ni moviĝas maldekstren, kaj do ni povas: (1) limigi la valoron de la sumo al la sumo de la geometria progresado kun ĉi tiu komenca koeficiento, (2) vastigi la geometrian progresadon de ns terminoj al senfina nombro da terminoj, (3) kalkulu la sumon de senfina geometria progresado (norma algebro, nenio signifa) kaj fine akiri la limvaloron (por sufiĉe granda n):

Richard Hamming: Ĉapitro 13. Informa Teorio

Rimarku kiel la entropio H(j) aperis en la binoma identeco. Notu ke la Taylor-seria ekspansio H(s)=H(Q+e2) donas takson akiritan konsiderante nur la unuan derivaĵon kaj ignorante ĉiujn aliajn. Nun ni kunigu la finan esprimon:

Richard Hamming: Ĉapitro 13. Informa Teorio

kie

Richard Hamming: Ĉapitro 13. Informa Teorio

Ĉio, kion ni devas fari, estas elekti e2 tia, ke e3 < e1, kaj tiam la lasta termino estos arbitre malgranda, kondiĉe ke n estas sufiĉe granda. Sekve, la meza PE-eraro povas esti akirita same malgranda kiel dezirate kun la kanalkapacito arbitre proksima al C.
Se la mezumo de ĉiuj kodoj havas sufiĉe malgrandan eraron, tiam almenaŭ unu kodo devas esti taŭga, tial ekzistas almenaŭ unu taŭga kodsistemo. Tio estas grava rezulto akirita de Shannon - "Teoremo de Shannon por brua kanalo", kvankam oni devas rimarki, ke li pruvis tion por multe pli ĝenerala kazo ol por la simpla binara simetria kanalo, kiun mi uzis. Por la ĝenerala kazo, la matematikaj kalkuloj estas multe pli komplikaj, sed la ideoj ne estas tiel malsamaj, do tre ofte, uzante la ekzemplon de aparta kazo, vi povas malkaŝi la veran signifon de la teoremo.

Ni kritiku la rezulton. Ni plurfoje ripetis: "Por sufiĉe granda n." Sed kiom granda estas n? Tre, tre granda se vi vere volas esti kaj proksima al la kanala kapablo kaj esti certa pri la ĝusta datumtransigo! Tiel granda, fakte, ke vi devos atendi tre longan tempon por amasigi mesaĝon de sufiĉe da bitoj por kodi ĝin poste. En ĉi tiu kazo, la grandeco de la hazarda kodvortaro estos simple grandega (finfine, tia vortaro ne povas esti reprezentita en pli mallonga formo ol kompleta listo de ĉiuj Mn bitoj, malgraŭ la fakto ke n kaj M estas tre grandaj)!

Erar-korektaj kodoj evitas atendi tre longan mesaĝon kaj poste kodi kaj malkodi ĝin per tre grandaj kodlibroj ĉar ili evitas kodlibrojn mem kaj uzas ordinaran komputadon anstataŭe. En simpla teorio, tiaj kodoj tendencas perdi la kapablon alproksimiĝi al la kanalkapacito kaj daŭre konservi malaltan eraroprocenton, sed kiam la kodo korektas grandan nombron da eraroj, ili funkcias bone. Alivorte, se vi atribuas iun kanalan kapablon al erarkorektado, tiam vi devas uzi la erarkorektan kapablon plejofte, t.e., granda nombro da eraroj devas esti korektita en ĉiu mesaĝo sendita, alie vi malŝparas ĉi tiun kapaciton.

Samtempe, la supre pruvita teoremo ankoraŭ ne estas sensenca! Ĝi montras, ke efikaj transmisiaj sistemoj devas uzi lertajn kodigajn skemojn por tre longaj bitaj ĉenoj. Ekzemplo estas satelitoj kiuj flugis preter la eksteraj planedoj; Kiam ili malproksimiĝas de la Tero kaj de la Suno, ili estas devigitaj korekti pli kaj pli da eraroj en la datumbloko: iuj satelitoj uzas sunpanelojn, kiuj provizas ĉirkaŭ 5 W, aliaj uzas nukleajn energifontojn, kiuj provizas proksimume la saman potencon. La malalta potenco de la elektroprovizo, la malgranda grandeco de dissendilaj pladoj kaj la limigita grandeco de ricevilaj pladoj sur la Tero, la grandega distanco, kiun la signalo devas vojaĝi - ĉio ĉi postulas la uzon de kodoj kun alta nivelo de erarkorektado por konstrui efika komunika sistemo.

Ni revenu al la n-dimensia spaco, kiun ni uzis en la pruvo supre. Diskutante ĝin, ni montris, ke preskaŭ la tuta volumeno de la sfero estas koncentrita proksime de la ekstera surfaco - tiel, estas preskaŭ certe ke la sendita signalo situos proksime de la surfaco de la sfero konstruita ĉirkaŭ la ricevita signalo, eĉ kun relative malgranda radiuso de tia sfero. Tial, ne estas surprize, ke la ricevita signalo, post korektado de arbitre granda nombro da eraroj, nQ, montriĝas arbitre proksima al signalo sen eraroj. La ligkapablo, kiun ni antaŭe diskutis, estas la ŝlosilo por kompreni ĉi tiun fenomenon. Notu ke similaj sferoj konstruitaj por erar-korektaj Hamming-kodoj ne interkovras unu la alian. La granda nombro da preskaŭ ortaj dimensioj en n-dimensia spaco montras kial ni povas konveni M-sferojn en spaco kun malmulte da interkovro. Se ni permesas malgrandan, arbitre malgrandan interkovron, kiu povas konduki al nur malgranda nombro da eraroj dum malkodado, ni povas akiri densan lokigon de sferoj en la spaco. Hamming garantiis certan nivelon de erarkorektado, Shannon - malalta probablo de eraro, sed samtempe konservante la realan trairon arbitre proksime al la kapablo de la komunika kanalo, kion Hamming-kodoj ne povas fari.

Informa teorio ne diras al ni kiel dizajni efikan sistemon, sed ĝi montras la vojon al efikaj komunikadsistemoj. Ĝi estas valora ilo por konstrui maŝino-al-maŝinaj komunikadsistemoj, sed, kiel notite antaŭe, ĝi havas malmulte da graveco al kiel homoj komunikas inter si. La amplekso al kiu biologia heredo estas kiel teknikaj komunikadsistemoj estas simple nekonata, tiel ke estas nuntempe ne klare kiel informa teorio validas por genoj. Ni havas neniun elekton ol provi, kaj se sukceso montras al ni la maŝinsimilan naturon de ĉi tiu fenomeno, tiam malsukceso montros aliajn signifajn aspektojn de la naturo de informoj.

Ni ne tro divagu. Ni vidis, ke ĉiuj originaj difinoj, laŭ pli aŭ malpli granda mezuro, devas esprimi la esencon de niaj originaj kredoj, sed ili estas karakterizitaj per ioma grado da misformiĝo kaj tial ne estas aplikeblaj. Estas tradicie akceptite ke, finfine, la difino kiun ni uzas fakte difinas la esencon; sed, ĉi tio nur diras al ni kiel prilabori aferojn kaj neniel transdonas al ni signifon. La postula aliro, tiel forte favorata en matematikaj rondoj, lasas multon por deziri en la praktiko.

Nun ni rigardos ekzemplon de IQ-testoj, kie la difino estas tiel cirkla, kiel vi volas, kaj, kiel rezulto, misgvida. Testo estas kreita, kiu laŭsupoze mezuras inteligentecon. Ĝi tiam estas reviziita por igi ĝin kiel eble plej konsekvenca, kaj poste ĝi estas publikigita kaj, en simpla metodo, kalibrata tiel ke la "inteligenteco" mezurita rezultas esti normale distribuita (sur kalibrado-kurbo, kompreneble). Ĉiuj difinoj devas esti rekontrolitaj, ne nur kiam ili unue estas proponitaj, sed ankaŭ multe poste, kiam ili estas uzataj en la eltiritaj konkludoj. Kiomgrade la difinaj limoj taŭgas por la problemo solvita? Kiom ofte difinoj donitaj en unu medio estas aplikataj en tute malsamaj agordoj? Ĉi tio okazas sufiĉe ofte! En la homaroj, kiujn vi neeviteble renkontos en via vivo, tio okazas pli ofte.

Tiel, unu el la celoj de ĉi tiu prezento de informa teorio, krom pruvi ĝian utilecon, estis averti vin pri ĉi tiu danĝero, aŭ montri al vi ĝuste kiel uzi ĝin por akiri la deziratan rezulton. Jam delonge oni rimarkis, ke komencaj difinoj determinas tion, kion oni fine trovas, en multe pli granda mezuro ol ĝi ŝajnas. Komencaj difinoj postulas multan atenton de vi, ne nur en ajna nova situacio, sed ankaŭ en areoj kun kiuj vi laboras delonge. Ĉi tio permesos al vi kompreni ĝis kia grado la rezultoj akiritaj estas taŭtologio kaj ne io utila.

La fama rakonto de Eddington rakontas pri homoj, kiuj fiŝkaptis en la maro per reto. Studinte la grandecon de la fiŝoj, kiujn ili kaptis, ili determinis la minimuman grandecon de fiŝo, kiu troviĝas en la maro! Ilia konkludo estis pelita de la instrumento uzita, ne de realeco.

Daŭrigota…

Kiu volas helpi pri tradukado, aranĝo kaj publikigo de la libro - skribu en persona mesaĝo aŭ retpoŝto [retpoŝte protektita]

Cetere, ni ankaŭ lanĉis la tradukon de alia bonega libro - "La Revmaŝino: La Rakonto de la Komputila Revolucio")

Ni precipe serĉas tiuj kiuj helpos traduki bonus ĉapitro, kiu estas nur en video. (translokigo dum 10 minutoj, la unuaj 20 jam estas prenitaj)

Enhavo de la libro kaj tradukitaj ĉapitrojAntaŭparolo

  1. Enkonduko al La Arto de Farado de Scienco kaj Inĝenieristiko: Lernante lerni (la 28-an de marto 1995) Traduko: Ĉapitro 1
  2. "Fundamentoj de la Cifereca (Diskreta) Revolucio" (marto 30, 1995) Ĉapitro 2. Fundamentoj de la cifereca (diskreta) revolucio
  3. "Historio de Komputiloj - Aparataro" (marto 31, 1995) Ĉapitro 3. Historio de Komputiloj - Aparataro
  4. "Historio de Komputiloj - Softvaro" (4 aprilo 1995) Ĉapitro 4. Historio de Komputiloj - Programaro
  5. "Historio de Komputiloj - Aplikoj" (aprilo 6, 1995) Ĉapitro 5: Historio de Komputiloj - Praktikaj Aplikoj
  6. " Artefarita inteligenteco - Parto I " (aprilo 7, 1995) Ĉapitro 6. Artefarita Inteligenteco - 1
  7. " Artefarita inteligenteco - Parto II " (la 11-an de aprilo 1995) Ĉapitro 7. Artefarita Inteligenteco - II
  8. "Artefarita Inteligenteco III" (la 13-an de aprilo 1995) Ĉapitro 8. Artefarita Inteligenteco-III
  9. "n-Dimensia Spaco" (la 14-an de aprilo 1995) Ĉapitro 9. N-dimensia spaco
  10. "Kodiga Teorio - La Reprezentado de Informoj, Parto I" (la 18-an de aprilo 1995) Ĉapitro 10. Kodiga Teorio - I
  11. "Kodiga Teorio - La Reprezentado de Informoj, Part II" (la 20-an de aprilo 1995) Ĉapitro 11. Kodiga Teorio - II
  12. "Eraraj Korektaj Kodoj" (la 21-an de aprilo 1995) Ĉapitro 12. Eraraj Korektaj Kodoj
  13. "Informteorio" (la 25-an de aprilo 1995) Ĉapitro 13. Informa teorio
  14. "Ciferecaj Filtriloj, Parto I" (la 27-an de aprilo 1995) Ĉapitro 14. Ciferecaj Filtriloj - 1
  15. "Ciferecaj Filtriloj, Part II" (la 28-an de aprilo 1995) Ĉapitro 15. Ciferecaj Filtriloj - 2
  16. "Ciferecaj Filtriloj, Parto III" (majo 2, 1995) Ĉapitro 16. Ciferecaj Filtriloj - 3
  17. "Ciferecaj Filtriloj, Parto IV" (majo 4, 1995) Ĉapitro 17. Ciferecaj Filtriloj - IV
  18. "Simulado, Parto I" (majo 5, 1995) Ĉapitro 18. Modelado - I
  19. "Simulado, Parto II" (majo 9, 1995) Ĉapitro 19. Modelado - II
  20. "Simulado, Parto III" (la 11-an de majo 1995) Ĉapitro 20. Modelado - III
  21. "Optiko de Fibro" (la 12-an de majo 1995) Ĉapitro 21. Fibro optika
  22. "Komputilhelpita Instrukcio" (la 16-an de majo 1995) Ĉapitro 22: Komputila Instruado (CAI)
  23. "Matematiko" (la 18-an de majo 1995) Ĉapitro 23. Matematiko
  24. "Kvantuma Mekaniko" (la 19-an de majo 1995) Ĉapitro 24. Kvantuma mekaniko
  25. "Kreivo" (la 23-an de majo 1995). Traduko: Ĉapitro 25. Kreivo
  26. "Spertuloj" (la 25-an de majo 1995) Ĉapitro 26. Fakuloj
  27. "Nefidindaj Datenoj" (la 26-an de majo 1995) Ĉapitro 27. Nefidindaj datumoj
  28. " Sisteminĝenieristiko " (majo 30, 1995) Ĉapitro 28. Sisteminĝenieristiko
  29. "Vi Akiras Kion Vi Mezuras" (junio 1, 1995) Ĉapitro 29: Vi ricevas tion, kion vi mezuras
  30. "Kiel Ni Scias Kion Ni Scias" (Junio ​​2, 1995) traduku en 10-minutaj pecoj
  31. Hamming, "Vi kaj Via Esplorado" (junio 6, 1995). Traduko: Vi kaj via laboro

Kiu volas helpi pri tradukado, aranĝo kaj publikigo de la libro - skribu en persona mesaĝo aŭ retpoŝto [retpoŝte protektita]

fonto: www.habr.com

Aldoni komenton