Richard Hamming: 13 skyrius. Informacijos teorija

Mes tai padarėme!

„Šio kurso tikslas yra paruošti jus techninei ateičiai.

Richard Hamming: 13 skyrius. Informacijos teorijaSveiki, Habr. Prisiminkite nuostabų straipsnį „Tu ir tavo darbas“ (+219, 2588 žymės, 429 tūkst. skaitymų)?

Taigi Hammingas (taip, taip, savęs stebėjimas ir savęs taisymas Hamingo kodai) yra visuma книга, parašyta remiantis jo paskaitomis. Mes tai verčiame, nes žmogus kalba savo nuomonę.

Tai knyga ne tik apie IT, bet ir apie neįtikėtinai šaunių žmonių mąstymo stilių. „Tai ne tik pozityvaus mąstymo skatinimas; jame aprašomos sąlygos, padidinančios šansus atlikti puikų darbą“.

Ačiū Andrejui Pakhomovui už vertimą.

Informacijos teoriją 1940-ųjų pabaigoje sukūrė C. E. Shannon. „Bell Labs“ vadovybė primygtinai reikalavo tai pavadinti „Komunikacijos teorija“, nes... tai daug tikslesnis pavadinimas. Pavadinimas „Informacijos teorija“ dėl akivaizdžių priežasčių turi daug didesnį poveikį visuomenei, todėl jį ir pasirinko Šenonas, kurį žinome iki šiol. Pats pavadinimas rodo, kad teorija susijusi su informacija, todėl ji tampa svarbia, kai gilėjame į informacijos amžių. Šiame skyriuje paliesiu keletą pagrindinių šios teorijos išvadų, pateiksiu ne griežtus, o intuityvius kai kurių atskirų šios teorijos nuostatų įrodymus, kad suprastumėte, kas iš tikrųjų yra „Informacijos teorija“, kur ją pritaikysite. o kur ne.

Visų pirma, kas yra „informacija“? Šenonas informaciją tapatina su neapibrėžtumu. Jis pasirinko neigiamą įvykio tikimybės logaritmą kaip kiekybinį informacijos, kurią gaunate, kai įvyksta įvykis su p tikimybe, matą. Pavyzdžiui, jei pasakysiu, kad Los Andžele oras rūkas, tada p yra artimas 1, o tai tikrai neduoda mums daug informacijos. Bet jei pasakysiu, kad Monterėjaus birželį lyja, žinutėje bus neaiškumų ir joje bus daugiau informacijos. Patikimas įvykis neturi jokios informacijos, nes log 1 = 0.

Pažvelkime į tai išsamiau. Shannonas manė, kad kiekybinis informacijos matas turėtų būti nenutrūkstama įvykio p tikimybės funkcija, o nepriklausomiems įvykiams jis turėtų būti adityvus - informacijos, gautos įvykus dviem nepriklausomiems įvykiams, kiekis turėtų būti lygus informacijos, gautos įvykus bendram įvykiui, kiekis. Pavyzdžiui, kauliuko metimo ir monetos metimo rezultatas paprastai traktuojamas kaip nepriklausomi įvykiai. Išverskime tai, kas išdėstyta pirmiau, į matematikos kalbą. Jei I (p) yra informacijos kiekis, esantis įvykyje su tikimybe p, tada bendram įvykiui, susidedančiam iš dviejų nepriklausomų įvykių x su tikimybe p1 ir y su tikimybe p2, gauname

Richard Hamming: 13 skyrius. Informacijos teorija
(x ir y yra nepriklausomi įvykiai)

Tai yra funkcinė Cauchy lygtis, tinkanti visiems p1 ir p2. Norėdami išspręsti šią funkcinę lygtį, tarkime

p1 = p2 = p,

tai duoda

Richard Hamming: 13 skyrius. Informacijos teorija

Jei p1 = p2 ir p2 = p tada

Richard Hamming: 13 skyrius. Informacijos teorija

ir tt Išplėtus šį procesą naudojant standartinį eksponentų metodą, visiems racionaliesiems skaičiams m/n yra teisinga

Richard Hamming: 13 skyrius. Informacijos teorija

Iš numanomo informacijos mato tęstinumo matyti, kad logaritminė funkcija yra vienintelis tęstinis funkcinės Koši lygties sprendimas.

Informacijos teorijoje įprasta logaritmo bazę laikyti 2, todėl dvejetainiame pasirinkime yra tiksliai 1 bitas informacijos. Todėl informacija matuojama pagal formulę

Richard Hamming: 13 skyrius. Informacijos teorija

Sustabdykime ir suprasime, kas atsitiko aukščiau. Visų pirma, mes neapibrėžėme „informacijos“ sąvokos, mes tiesiog apibrėžėme jos kiekybinio mato formulę.

Antra, ši priemonė yra neapibrėžta ir, nors ji pagrįstai tinka mašinoms, pavyzdžiui, telefono sistemoms, radijui, televizijai, kompiuteriams ir kt., ji neatspindi įprasto žmogaus požiūrio į informaciją.

Trečia, tai yra santykinis matas, jis priklauso nuo dabartinės jūsų žinių būklės. Jei žiūrite į atsitiktinių skaičių generatoriaus „atsitiktinių skaičių“ srautą, darote prielaidą, kad kiekvienas kitas skaičius yra neapibrėžtas, bet jei žinote „atsitiktinių skaičių“ skaičiavimo formulę, kitas skaičius bus žinomas, todėl nebus turi informacijos.

Taigi Šenono pateiktas informacijos apibrėžimas daugeliu atvejų yra tinkamas mašinoms, tačiau neatrodo, kad jis atitiktų žmogaus supratimą apie šį žodį. Būtent dėl ​​šios priežasties „Informacijos teorija“ turėjo būti vadinama „Komunikacijos teorija“. Tačiau jau per vėlu keisti apibrėžimus (kuris suteikė teorijai pradinį populiarumą ir vis dar verčia žmones galvoti, kad ši teorija susijusi su „informacija“), todėl turime su jais gyventi, bet tuo pačiu aiškiai suprasti, kiek Šenono informacijos apibrėžimas yra toli nuo jos dažniausiai vartojamos reikšmės. Šenono informacija susijusi su visai kita, būtent su netikrumu.

Štai apie ką reikia pagalvoti, kai siūlote bet kokią terminiją. Kaip siūlomas apibrėžimas, pvz., Šenono informacijos apibrėžimas, atitinka jūsų pradinę idėją ir kuo ji skiriasi? Beveik nėra termino, kuris tiksliai atspindėtų jūsų ankstesnę sąvokos viziją, bet galiausiai vartojama terminija atspindi sąvokos prasmę, todėl ką nors įforminant aiškiais apibrėžimais visada kyla tam tikras triukšmas.

Apsvarstykite sistemą, kurios abėcėlę sudaro simboliai q su tikimybėmis pi. Tokiu atveju vidutinis informacijos kiekis sistemoje (jo numatoma vertė) yra lygi:

Richard Hamming: 13 skyrius. Informacijos teorija

Tai vadinama sistemos entropija su tikimybių skirstiniu {pi}. Mes vartojame terminą „entropija“, nes termodinamikoje ir statistinėje mechanikoje atsiranda ta pati matematinė forma. Štai kodėl terminas „entropija“ sukuria aplink save tam tikrą svarbos aurą, kuri galiausiai nėra pateisinama. Ta pati matematinė žymėjimo forma nereiškia tos pačios simbolių interpretacijos!

Tikimybių pasiskirstymo entropija vaidina svarbų vaidmenį kodavimo teorijoje. Gibso nelygybė dviem skirtingiems tikimybių skirstiniams pi ir qi yra viena iš svarbių šios teorijos pasekmių. Taigi mes turime tai įrodyti

Richard Hamming: 13 skyrius. Informacijos teorija

Įrodymas pagrįstas akivaizdžiu grafiku, pav. 13.I, kas tai rodo

Richard Hamming: 13 skyrius. Informacijos teorija

o lygybė pasiekiama tik tada, kai x = 1. Taikykime nelygybę kiekvienam sumos nariui iš kairės:

Richard Hamming: 13 skyrius. Informacijos teorija

Jei komunikacijos sistemos abėcėlė susideda iš q simbolių, tai imant kiekvieno simbolio perdavimo tikimybę qi = 1/q ir pakeičiant q, gauname iš Gibbso nelygybės

Richard Hamming: 13 skyrius. Informacijos teorija

Richard Hamming: 13 skyrius. Informacijos teorija

13 pav.I

Tai reiškia, kad jei visų q simbolių perdavimo tikimybė yra vienoda ir lygi - 1 / q, tai maksimali entropija yra lygi ln q, kitaip nelygybė galioja.

Unikaliai dekoduojamo kodo atveju turime Krafto nelygybę

Richard Hamming: 13 skyrius. Informacijos teorija

Dabar, jei apibrėžtume pseudotikimybes

Richard Hamming: 13 skyrius. Informacijos teorija

kur žinoma Richard Hamming: 13 skyrius. Informacijos teorija= 1, kuris išplaukia iš Gibbso nelygybės,

Richard Hamming: 13 skyrius. Informacijos teorija

ir pritaikykite nedidelę algebrą (atminkite, kad K ≤ 1, kad galėtume atsisakyti logaritminio nario ir galbūt vėliau sustiprinti nelygybę), gauname

Richard Hamming: 13 skyrius. Informacijos teorija

kur L yra vidutinis kodo ilgis.

Taigi, entropija yra minimali riba bet kuriam simboliui po simbolio kodui, kurio vidutinis kodo žodžio ilgis L. Tai yra Šenono teorema kanalui be trikdžių.

Dabar apsvarstykite pagrindinę teoremą apie ryšių sistemų, kuriose informacija perduodama kaip nepriklausomų bitų srautas ir yra triukšmas, apribojimus. Suprantama, kad vieno bito teisingo perdavimo tikimybė yra P > 1/2, o tikimybė, kad perdavimo metu bito reikšmė bus apversta (įvyks klaida), lygi Q = 1 - P. Patogumo dėlei mes Tarkime, kad klaidos yra nepriklausomos ir kiekvieno išsiųsto bito klaidos tikimybė yra vienoda - tai yra, ryšio kanale yra „baltas triukšmas“.

Tai, kaip mes turime ilgą n bitų srautą, užkoduotą viename pranešime, yra vieno bito kodo n matmenų plėtinys. n reikšmę nustatysime vėliau. Apsvarstykite pranešimą, susidedantį iš n bitų, kaip tašką n-matės erdvėje. Kadangi turime n matmenų erdvę – o dėl paprastumo darysime prielaidą, kad kiekvienas pranešimas turi vienodą pasireiškimo tikimybę – yra M galimų pranešimų (M taip pat bus apibrėžtas vėliau), todėl bet kurio pranešimo išsiuntimo tikimybė yra lygi.

Richard Hamming: 13 skyrius. Informacijos teorija

Richard Hamming: 13 skyrius. Informacijos teorija
(siuntėjas)
Tvarkaraštis 13.II

Tada apsvarstykite kanalo talpos idėją. Nesileidžiant į smulkmenas, kanalo talpa apibrėžiama kaip maksimalus informacijos kiekis, kurį galima patikimai perduoti ryšio kanalu, atsižvelgiant į efektyviausio kodavimo naudojimą. Nėra argumentų, kad komunikacijos kanalu galima perduoti daugiau informacijos nei jos pajėgumas. Tai galima įrodyti dvejetainiam simetriniam kanalui (kurį naudojame mūsų atveju). Kanalo talpa, siunčiant bitus, nurodoma kaip

Richard Hamming: 13 skyrius. Informacijos teorija

kur, kaip ir anksčiau, P yra tikimybė, kad bet kuriame išsiųstame bite nebus klaidos. Siunčiant n nepriklausomų bitų, kanalo talpa nurodoma

Richard Hamming: 13 skyrius. Informacijos teorija

Jei esame arti kanalo talpos, tai turime siųsti beveik tokį informacijos kiekį kiekvienam simboliui ai, i = 1, ..., M. Atsižvelgiant į tai, kad kiekvieno simbolio ai atsiradimo tikimybė yra 1 / M, mes gauname

Richard Hamming: 13 skyrius. Informacijos teorija

kai siunčiame bet kurį iš M vienodai tikėtinų pranešimų ai, turime

Richard Hamming: 13 skyrius. Informacijos teorija

Kai siunčiama n bitų, tikimės, kad atsiras nQ klaidų. Praktiškai pranešimui, susidedančiam iš n bitų, gautame pranešime turėsime maždaug nQ klaidų. Didelės n santykinis pokytis (variacija = pasiskirstymo plotis, )
klaidų skaičiaus pasiskirstymas taps vis siauresnis, nes didėja n.

Taigi iš siųstuvo pusės paimu žinutę ai siųsti ir nupiešiu aplink jį spinduliu

Richard Hamming: 13 skyrius. Informacijos teorija

kuris yra šiek tiek didesnis dydžiu, lygiu e2, nei numatomas klaidų skaičius Q, (13.II pav.). Jei n yra pakankamai didelis, tai yra savavališkai maža tikimybė, kad pranešimo taškas bj atsiras gavėjo pusėje, kuris tęsiasi už šios sferos. Nubraižykime situaciją tokią, kokią aš matau siųstuvo požiūriu: turime bet kokius spindulius nuo perduoto pranešimo ai iki gauto pranešimo bj su paklaidos tikimybe, lygia (arba beveik lygia) normaliam pasiskirstymui, pasiekiant maksimumą. iš nQ. Bet kuriam duotam e2 n yra toks didelis, kad tikimybė, kad gautas taškas bj bus už mano sferos, yra tokia maža, kiek norite.

Dabar pažiūrėkime į tą pačią situaciją iš jūsų pusės (13.III pav.). Gavėjo pusėje aplink gautą tašką bj n-matėje erdvėje yra tokio paties spindulio r rutulys S(r), kad jei gautas pranešimas bj yra mano sferoje, tai mano siųstas pranešimas ai yra jūsų viduje. sfera.

Kaip gali atsirasti klaida? Klaida gali atsirasti toliau pateiktoje lentelėje aprašytais atvejais:

Richard Hamming: 13 skyrius. Informacijos teorija

13.III pav

Richard Hamming: 13 skyrius. Informacijos teorija

Čia matome, kad jei sferoje, pastatytoje aplink gautą tašką, yra dar bent vienas taškas, atitinkantis galimą išsiųstą nekoduotą pranešimą, tada perdavimo metu įvyko klaida, nes negalite nustatyti, kuris iš šių pranešimų buvo perduotas. Išsiųstas pranešimas yra be klaidų tik tuo atveju, jei jį atitinkantis taškas yra sferoje, o duotame kode nėra galimų kitų taškų, kurie būtų toje pačioje sferoje.

Turime matematinę lygtį klaidos Pe tikimybei, jei buvo išsiųstas pranešimas ai

Richard Hamming: 13 skyrius. Informacijos teorija

Pirmąjį veiksnį galime išmesti antroje dalyje, laikant jį 1. Taigi gauname nelygybę

Richard Hamming: 13 skyrius. Informacijos teorija

Akivaizdu, kad

Richard Hamming: 13 skyrius. Informacijos teorija

Vadinasi

Richard Hamming: 13 skyrius. Informacijos teorija

vėl kreiptis į paskutinę kadenciją dešinėje

Richard Hamming: 13 skyrius. Informacijos teorija

Paėmus n pakankamai didelį, pirmasis narys gali būti paimtas tiek, kiek norima, mažesnis už kokį nors skaičių d. Todėl turime

Richard Hamming: 13 skyrius. Informacijos teorija

Dabar pažiūrėkime, kaip galime sukurti paprastą pakeitimo kodą M pranešimams, susidedantiems iš n bitų, koduoti. Neturėdamas supratimo, kaip tiksliai sukurti kodą (klaidas taisantys kodai dar nebuvo išrasti), Shannon pasirinko atsitiktinį kodavimą. Išmeskite monetą kiekvienam iš n pranešimo bitų ir pakartokite procesą M pranešimams. Iš viso reikia padaryti nM monetų vartymo, todėl tai įmanoma

Richard Hamming: 13 skyrius. Informacijos teorija

kodų žodynai, kurių tikimybė yra tokia pati ½nM. Žinoma, atsitiktinis kodų knygos kūrimo procesas reiškia, kad yra dublikatų galimybė, taip pat kodo taškai, kurie bus arti vienas kito ir todėl bus galimų klaidų šaltinis. Reikia įrodyti, kad jei tai neįvyks su tikimybe, didesne už bet kurį mažą pasirinktą paklaidos lygį, tada duotoji n yra pakankamai didelė.
Esminis dalykas yra tai, kad Šenonas įvertino visų galimų kodų knygų vidurkį, kad surastų vidutinę klaidą! Simbolį Av[.] naudosime, kad žymėtume visų galimų atsitiktinių kodų knygų rinkinio vidutinę vertę. Be abejo, apskaičiuojant konstantos d vidurkį, gaunama konstanta, nes vidurkinimui kiekvienas narys yra toks pat kaip ir kiekvienas kitas sumos narys,

Richard Hamming: 13 skyrius. Informacijos teorija

kurį galima padidinti (M–1 pereina į M)

Richard Hamming: 13 skyrius. Informacijos teorija

Kiekvienam pranešimui, apskaičiuojant visų kodų knygų vidurkį, kodavimas vyksta per visas įmanomas reikšmes, todėl vidutinė tikimybė, kad taškas yra sferoje, yra sferos tūrio ir bendro erdvės tūrio santykis. Sferos tūris yra

Richard Hamming: 13 skyrius. Informacijos teorija

kur s=Q+e2 <1/2 ir ns turi būti sveikasis skaičius.

Paskutinis terminas dešinėje yra didžiausias šioje sumoje. Pirma, įvertinkime jo vertę naudodami Stirlingo formulę faktorialams. Tada pažvelgsime į prieš jį esančio nario mažėjantį koeficientą, pažymėdami, kad šis koeficientas didėja judant į kairę, todėl galime: (1) apriboti sumos reikšmę iki geometrinės progresijos sumos su šis pradinis koeficientas, (2) išplėskite geometrinę progresiją nuo ns narių iki begalinio skaičiaus narių, (3) apskaičiuokite begalinės geometrinės progresijos sumą (standartinė algebra, nieko reikšmingo) ir galiausiai gaukite ribinę reikšmę (pakankamai dideliam n):

Richard Hamming: 13 skyrius. Informacijos teorija

Atkreipkite dėmesį, kaip entropija H atsirado dvinario tapatybėje. Atkreipkite dėmesį, kad Teiloro serijos plėtinys H(s)=H(Q+e2) duoda įvertinimą, gautą atsižvelgiant tik į pirmąją išvestinę ir ignoruojant visas kitas. Dabar sudėliokime galutinę išraišką:

Richard Hamming: 13 skyrius. Informacijos teorija

kur

Richard Hamming: 13 skyrius. Informacijos teorija

Tereikia pasirinkti e2 tokį, kad e3 < e1, ir tada paskutinis narys bus savavališkai mažas, jei tik n yra pakankamai didelis. Todėl vidutinė PE paklaida gali būti tokia maža, kiek norima, kai kanalo talpa yra savavališkai artima C.
Jei visų kodų vidurkis turi pakankamai mažą paklaidą, tai bent vienas kodas turi būti tinkamas, vadinasi, yra bent viena tinkama kodavimo sistema. Tai yra svarbus Shannono gautas rezultatas – „Šenono teorema triukšmingam kanalui“, nors reikia pažymėti, kad jis tai įrodė daug bendresniu atveju nei paprastam dvejetainiam simetriniam kanalui, kurį naudoju. Bendruoju atveju matematiniai skaičiavimai yra daug sudėtingesni, tačiau idėjos nėra tokios skirtingos, todėl labai dažnai naudojant konkretaus atvejo pavyzdį galima atskleisti tikrąją teoremos prasmę.

Sukritikuokime rezultatą. Mes ne kartą kartojome: „Pakankamai dideliam n. Bet kokio dydžio yra n? Labai, labai didelis, jei tikrai norite būti arti kanalo talpos ir būti tikri dėl teisingo duomenų perdavimo! Tiesą sakant, toks didelis, kad turėsite laukti labai ilgai, kol sukaupsite pakankamai bitų pranešimą, kad galėtumėte jį užkoduoti vėliau. Tokiu atveju atsitiktinio kodo žodyno dydis bus tiesiog didžiulis (juk tokio žodyno negalima pavaizduoti trumpesne forma nei visas Mn bitų sąrašas, nepaisant to, kad n ir M yra labai dideli)!

Taisant klaidas kodai nelaukia labai ilgo pranešimo, o paskui jį užkoduoja ir neiškoduoja per labai dideles kodų knygas, nes patys vengia kodų knygų ir vietoj jų naudoja įprastą skaičiavimą. Pagal paprastą teoriją tokie kodai linkę prarasti galimybę priartėti prie kanalo talpos ir vis tiek išlaikyti žemą klaidų dažnį, tačiau kai kodas ištaiso daug klaidų, jie veikia gerai. Kitaip tariant, jei skiriate tam tikrą kanalo talpą klaidų taisymui, tada dažniausiai turite naudoti klaidų taisymo galimybę, t.

Tuo pačiu metu aukščiau įrodyta teorema vis dar nėra beprasmė! Tai rodo, kad efektyvios perdavimo sistemos turi naudoti protingas kodavimo schemas labai ilgoms bitų eilutėms. Pavyzdys yra palydovai, kurie skrido už išorinių planetų; Tolstant nuo Žemės ir Saulės, jie yra priversti taisyti vis daugiau klaidų duomenų bloke: vieni palydovai naudoja saulės baterijas, kurios suteikia apie 5 W, kiti – branduolinės energijos šaltinius, kurių galia yra maždaug tokia pati. Maža maitinimo šaltinio galia, mažas siųstuvo lėkštelių dydis ir ribotas imtuvo lėkštelių dydis Žemėje, didžiulis atstumas, kurį turi nukeliauti signalas – visa tai reikalauja naudoti kodus su dideliu klaidų taisymo lygiu, kad būtų sukurtas efektyvi komunikacijos sistema.

Grįžkime prie n-matės erdvės, kurią naudojome aukščiau esančiame įrodyme. Ją aptardami parodėme, kad beveik visas rutulio tūris yra sutelktas šalia išorinio paviršiaus – taigi beveik neabejotina, kad siunčiamas signalas bus šalia rutulio paviršiaus, pastatyto aplink gautą signalą, net esant santykinai mažas tokios sferos spindulys. Todėl nenuostabu, kad gautas signalas, ištaisius savavališkai didelį klaidų skaičių nQ, pasirodo esantis savavališkai artimas signalui be klaidų. Ryšio pajėgumas, apie kurį kalbėjome anksčiau, yra raktas į šio reiškinio supratimą. Atkreipkite dėmesį, kad panašios sferos, sukurtos klaidų taisymui Hamingo kodams, nepersidengia viena kitos. Didelis beveik stačiakampių matmenų skaičius n-matėje erdvėje rodo, kodėl erdvėje galime sutalpinti M sferas su nedideliu persidengimu. Jei leisime nedidelį, savavališkai mažą persidengimą, dėl kurio dekoduojant gali atsirasti tik nedaug klaidų, galime gauti tankų sferų išdėstymą erdvėje. Hammingas garantavo tam tikrą klaidų taisymo lygį, Shannon – nedidelę klaidos tikimybę, bet tuo pačiu išlaikant faktinį pralaidumą savavališkai artimą ryšio kanalo talpai, ko Hamingo kodai padaryti negali.

Informacijos teorija nepasako mums, kaip sukurti efektyvią sistemą, tačiau ji nurodo kelią į efektyvias komunikacijos sistemas. Tai vertingas įrankis kuriant mašinų tarpusavio ryšio sistemas, tačiau, kaip minėta anksčiau, jis mažai svarbus žmonių tarpusavio bendravimui. Kiek biologinis paveldėjimas yra panašus į technines komunikacijos sistemas, tiesiog nežinoma, todėl šiuo metu nėra aišku, kaip informacijos teorija taikoma genams. Neturime kito pasirinkimo, kaip tik bandyti, ir jei sėkmė parodys, kad šis reiškinys yra mašininis, nesėkmė parodys kitus reikšmingus informacijos prigimties aspektus.

Per daug nenukrypkime. Matėme, kad visi pirminiai apibrėžimai didesniu ar mažesniu mastu turi išreikšti mūsų pirminių įsitikinimų esmę, tačiau jiems būdingas tam tikras iškraipymas, todėl jie netaikomi. Tradiciškai pripažįstama, kad galiausiai mūsų naudojamas apibrėžimas iš tikrųjų apibrėžia esmę; bet tai tik mums nurodo, kaip apdoroti dalykus, ir jokiu būdu nesuteikia mums jokios prasmės. Postulacinis požiūris, taip labai mėgstamas matematiniuose sluoksniuose, praktiškai palieka daug norimų rezultatų.

Dabar pažvelgsime į IQ testų pavyzdį, kur apibrėžimas yra toks apskritas, koks jums patinka, ir dėl to klaidinantis. Sukuriamas testas, kuris turėtų matuoti intelektą. Tada jis peržiūrimas, kad jis būtų kuo nuoseklesnis, tada paskelbiamas ir paprastu metodu sukalibruojamas taip, kad išmatuotas „intelektas“ pasiskirstytų normaliai (žinoma, pagal kalibravimo kreivę). Visi apibrėžimai turi būti pakartotinai patikrinti ne tik pirmą kartą pasiūlius, bet ir daug vėliau, kai jie bus naudojami darant išvadas. Kiek apibrėžimo ribos yra tinkamos sprendžiamai problemai? Kaip dažnai viename nustatyme pateikti apibrėžimai taikomi gana skirtingose ​​nustatymuose? Tai nutinka gana dažnai! Humanitariniuose moksluose, su kuriais neišvengiamai susidursite savo gyvenime, taip nutinka dažniau.

Taigi vienas iš šio informacijos teorijos pristatymo tikslų, be jos naudingumo demonstravimo, buvo įspėti jus apie šį pavojų arba tiksliai parodyti, kaip jį panaudoti norint gauti norimą rezultatą. Jau seniai buvo pastebėta, kad pradiniai apibrėžimai lemia tai, ką galiausiai rasite, daug labiau, nei atrodo. Pradiniai apibrėžimai reikalauja iš jūsų daug dėmesio ne tik bet kokioje naujoje situacijoje, bet ir tose srityse, su kuriomis dirbate ilgą laiką. Tai leis jums suprasti, kiek gauti rezultatai yra tautologija, o ne kažkas naudingo.

Garsioji Edingtono istorija pasakoja apie žmones, kurie žvejojo ​​jūroje tinklu. Ištyrę sugautų žuvų dydį, jie nustatė minimalų žuvies dydį jūroje! Jų išvadas lėmė naudojamas instrumentas, o ne tikrovė.

Turi būti tęsiama ...

Norintys padėti su knygos vertimu, maketavimu ir publikavimu – rašykite asmenine žinute arba el [apsaugotas el. paštu]

Beje, mes taip pat pradėjome kitos šaunios knygos vertimą - „Svajonių mašina: kompiuterių revoliucijos istorija“)

Ypač ieškome tie, kurie padės išversti premijos skyrius, kuris yra tik vaizdo įraše. (pervedimas 10 minučių, pirmieji 20 jau paimti)

Knygos ir verstinių skyrių turinyspratarmė

  1. Mokslo ir inžinerijos meno įvadas: mokymasis mokytis (28 m. kovo 1995 d.) Vertimas: 1 skyrius
  2. „Skaitmeninės (diskrečios) revoliucijos pagrindai“ (30 m. kovo 1995 d.) 2 skyrius. Skaitmeninės (diskrečios) revoliucijos pagrindai
  3. „Kompiuterių istorija – aparatinė įranga“ (31 m. kovo 1995 d.) 3 skyrius. Kompiuterių istorija – aparatinė įranga
  4. „Kompiuterių istorija – programinė įranga“ (4 m. balandžio 1995 d.) 4 skyrius. Kompiuterių istorija – programinė įranga
  5. „Kompiuterių istorija – programos“ (6 m. balandžio 1995 d.) 5 skyrius: Kompiuterių istorija – praktiniai pritaikymai
  6. „Dirbtinis intelektas – I dalis“ (7 m. balandžio 1995 d.) 6 skyrius. Dirbtinis intelektas – 1
  7. „Dirbtinis intelektas – II dalis“ (11 m. balandžio 1995 d.) 7 skyrius. Dirbtinis intelektas – II
  8. „Dirbtinis intelektas III“ (13 m. balandžio 1995 d.) 8 skyrius. Dirbtinis intelektas-III
  9. „n-Dimensional Space“ (14 m. balandžio 1995 d.) 9 skyrius. N matmenų erdvė
  10. „Kodavimo teorija – informacijos vaizdavimas, I dalis“ (18 m. balandžio 1995 d.) 10 skyrius. Kodavimo teorija – I
  11. „Kodavimo teorija – informacijos vaizdavimas, II dalis“ (20 m. balandžio 1995 d.) 11 skyrius. Kodavimo teorija - II
  12. „Klaidų taisymo kodai“ (21 m. balandžio 1995 d.) 12 skyrius. Klaidų taisymo kodai
  13. „Informacijos teorija“ (25 m. balandžio 1995 d.) 13 skyrius. Informacijos teorija
  14. „Skaitmeniniai filtrai, I dalis“ (27 m. balandžio 1995 d.) 14 skyrius. Skaitmeniniai filtrai – 1
  15. „Skaitmeniniai filtrai, II dalis“ (28 m. balandžio 1995 d.) 15 skyrius. Skaitmeniniai filtrai – 2
  16. „Skaitmeniniai filtrai, III dalis“ (2 m. gegužės 1995 d.) 16 skyrius. Skaitmeniniai filtrai – 3
  17. „Skaitmeniniai filtrai, IV dalis“ (4 m. gegužės 1995 d.) 17 skyrius. Skaitmeniniai filtrai – IV
  18. „Imitacija, I dalis“ (5 m. gegužės 1995 d.) 18 skyrius. Modeliavimas – I
  19. „Imitacija, II dalis“ (9 m. gegužės 1995 d.) 19 skyrius. Modeliavimas – II
  20. „Imitacija, III dalis“ (11 m. gegužės 1995 d.) 20 skyrius. Modeliavimas - III
  21. „Fiber Optics“ (12 m. gegužės 1995 d.) 21 skyrius. Skaidulinė optika
  22. „Instrukcija kompiuteriu“ (16 m. gegužės 1995 d.) 22 skyrius: Kompiuterinės instrukcijos (CAI)
  23. „Matematika“ (18 m. gegužės 1995 d.) 23 skyrius. Matematika
  24. „Kvantinė mechanika“ (19 m. gegužės 1995 d.) 24 skyrius. Kvantinė mechanika
  25. „Kūrybiškumas“ (23 1995 XNUMX). Vertimas: 25 skyrius. Kūrybiškumas
  26. „Ekspertai“ (25 m. gegužės 1995 d.) 26 skyrius. Ekspertai
  27. „Nepatikimi duomenys“ (26 m. gegužės 1995 d.) 27 skyrius. Nepatikimi duomenys
  28. „Sistemų inžinerija“ (30 m. gegužės 1995 d.) 28 skyrius. Sistemų inžinerija
  29. „Tu gauni tai, ką matai“ (1 m. birželio 1995 d.) 29 skyrius: Jūs gaunate tai, ką matuojate
  30. „Kaip mes žinome, ką žinome“ (Birželio 2, 1995) išversti 10 minučių dalimis
  31. Hammingas, „Tu ir tavo tyrimai“ (6 m. birželio 1995 d.). Vertimas: Jūs ir jūsų darbas

Norintys padėti su knygos vertimu, maketavimu ir publikavimu – rašykite asmenine žinute arba el [apsaugotas el. paštu]

Šaltinis: www.habr.com

Добавить комментарий