Richard Hamming: Kapitel 13. Informatiounen Theorie

Mir hunn et gemaach!

"Den Zweck vun dësem Cours ass Iech op Är technesch Zukunft virzebereeden."

Richard Hamming: Kapitel 13. Informatiounen TheorieMoien, Habr. Denkt un den fantasteschen Artikel "Dir an Är Aarbecht" (+219, 2588 Lieszeeche, 429k liesen)?

Also Hamming (jo, jo, Self-Iwwerwaachung a Selbstkorrektur Hamming Coden) gëtt et e Ganzt e Buch, geschriwwen op Basis vu senge Virträg. Mir iwwersetzen et, well de Mann seet seng Meenung.

Dëst ass e Buch net nëmmen iwwer IT, et ass e Buch iwwer den Denkstil vun onheemlech coole Leit. "Et ass net nëmmen e Boost vu positiven Denken; et beschreift d'Konditiounen, déi d'Chancen erhéijen fir grouss Aarbecht ze maachen.

Merci dem Andrey Pakhomov fir d'Iwwersetzung.

Informatiounstheorie gouf vum CE Shannon an de spéiden 1940er entwéckelt. Bell Labs Management insistéiert datt hien et "Kommunikatiounstheorie" nennt well ... dëst ass e vill méi genee Numm. Aus offensichtleche Grënn huet den Numm "Information Theory" e vill méi groussen Impakt op d'Publikum, dofir huet de Shannon en gewielt, an et ass den Numm dee mir bis haut kennen. Den Numm selwer seet datt d'Theorie sech mat Informatioun beschäftegt, wat et wichteg mécht wéi mir méi déif an d'Informatiounsalter bewegen. An dësem Kapitel wäert ech op e puer Haaptconclusiounen aus dëser Theorie beréieren, ech wäert net strikt, awer éischter intuitiv Beweiser fir e puer individuell Bestëmmunge vun dëser Theorie ubidden, sou datt Dir verstitt wat "Informatiounstheorie" tatsächlech ass, wou Dir se benotze kënnt a wou net.

Éischtens, wat ass "Informatioun"? Shannon gläicht Informatioun mat Onsécherheet. Hien huet den negativen Logarithmus vun der Wahrscheinlechkeet vun engem Event als quantitativ Moossnam vun der Informatioun gewielt, déi Dir kritt wann en Event mat Wahrscheinlechkeet p geschitt. Zum Beispill, wann ech Iech soen datt d'Wieder zu Los Angeles niwweleg ass, da läit p no bei 1, wat eis wierklech net vill Informatioun gëtt. Awer wann ech soen datt et am Juni zu Monterey reent, gëtt et Onsécherheet am Message an et wäert méi Informatioun enthalen. En zouverlässeg Event enthält keng Informatioun, well Log 1 = 0.

Loosst eis dëst méi am Detail kucken. De Shannon huet gegleeft datt d'quantitativ Informatiounsmoossnam eng kontinuéierlech Funktioun vun der Wahrscheinlechkeet vun engem Event p soll sinn, a fir onofhängeg Eventer soll et additiv sinn - d'Quantitéit vun Informatioun, déi als Resultat vun der Optriede vun zwee onofhängegen Eventer kritt gëtt, soll d'selwecht sinn wéi Betrag vun Informatioun kritt als Resultat vun der Optriede vun engem gemeinsame Event. Zum Beispill, d'Resultat vun engem Wierfel Rouleau an enger Mënz Rouleau normalerweis als onofhängeg Evenementer behandelt. Loosst eis dat uewen an d'Sprooch vun der Mathematik iwwersetzen. Wann I (p) d'Quantitéit vun Informatioun ass, déi an engem Event mat Wahrscheinlechkeet p enthält, dann fir e gemeinsamt Event besteet aus zwee onofhängegen Eventer x mat Wahrscheinlechkeet p1 an y mat Wahrscheinlechkeet p2 mir kréien

Richard Hamming: Kapitel 13. Informatiounen Theorie
(x an y sinn onofhängeg Evenementer)

Dëst ass déi funktionell Cauchy Equatioun, wouer fir all p1 an p2. Fir dës funktionell Equatioun ze léisen, huelen un dat

p1 = p2 = p,

dëst gëtt

Richard Hamming: Kapitel 13. Informatiounen Theorie

Wann p1 = p2 an p2 = p dann

Richard Hamming: Kapitel 13. Informatiounen Theorie

etc. Verlängeren dëse Prozess mat der Standardmethod fir Exponentialer, fir all rational Zuelen m / n ass déi folgend richteg

Richard Hamming: Kapitel 13. Informatiounen Theorie

Vun der ugeholl Kontinuitéit vun der Informatiounsmoossnam geet et datt d'logarithmesch Funktioun déi eenzeg kontinuéierlech Léisung fir déi funktionell Cauchy Equatioun ass.

An der Informatiounstheorie ass et üblech fir d'Logarithmusbasis op 2 ze huelen, sou datt eng binär Wiel genau 1 Bit Informatioun enthält. Dofir gëtt d'Informatioun mat der Formel gemooss

Richard Hamming: Kapitel 13. Informatiounen Theorie

Loosst eis pausen a verstoen wat uewen geschitt ass. Als éischt hu mir d'Konzept vun "Informatioun" net definéiert, mir hunn einfach d'Formel fir seng quantitativ Moossnam definéiert.

Zweetens, dës Moossnam ass ënner Onsécherheet, an och wann et raisonnabel gëeegent ass fir Maschinnen - zum Beispill, Telefon Systemer, Radio, Televisioun, Computeren, etc.

Drëttens ass dëst eng relativ Moossnam, et hänkt vum aktuellen Zoustand vun Ärem Wëssen of. Wann Dir e Stroum vun "zoufälleg Zuelen" vun engem zoufälleg Zuel Generator kucken, Dir dovun ausgoen, datt all nächst Zuel onsécher ass, mä wann Dir wësst der Formel fir Berechent "zoufälleg Zuelen", déi nächst Zuel wäert bekannt sinn, an dofir net. enthalen Informatiounen.

Also dem Shannon seng Definitioun vun Informatioun ass a ville Fäll passend fir Maschinnen, awer schéngt net dem mënschleche Verständnis vum Wuert ze passen. Et ass aus dësem Grond datt "Informatiounstheorie" "Kommunikatiounstheorie" sollt genannt ginn. Wéi och ëmmer, et ass ze spéit fir d'Definitiounen ze änneren (déi der Theorie seng initial Popularitéit ginn hunn, an déi d'Leit ëmmer nach denken datt dës Theorie mat "Informatioun" handelt), also musse mir mat hinnen liewen, awer gläichzäiteg musst Dir kloer verstoen wéi wäit dem Shannon seng Definitioun vun Informatioun vu senger allgemeng benotzter Bedeitung ass. Dem Shannon seng Informatioun beschäftegt sech mat eppes ganz anescht, nämlech Onsécherheet.

Hei ass eppes iwwer ze denken wann Dir eng Terminologie proposéiert. Wéi stëmmt eng proposéiert Definitioun, wéi dem Shannon seng Definitioun vun Informatioun, mat Ärer origineller Iddi averstanen a wéi anescht ass et? Et gëtt bal kee Begrëff, dee genee Är viregter Visioun vun engem Konzept reflektéiert, awer schlussendlech ass et d'Terminologie déi d'Bedeitung vum Konzept reflektéiert, sou datt eppes duerch kloer Definitioune formaliséiert gëtt ëmmer e Kaméidi agefouert.

Betruecht e System deem Alphabet besteet aus Symboler q mat Wahrscheinlechkeeten pi. An dësem Fall Duerchschnëtt Betrag vun Informatiounen am System (seng erwaart Wäert) ass gläich wéi:

Richard Hamming: Kapitel 13. Informatiounen Theorie

Dëst gëtt d'Entropie vum System mat Wahrscheinlechkeetsverdeelung {pi} genannt. Mir benotzen de Begrëff "Entropie" well déi selwecht mathematesch Form an der Thermodynamik a statistescher Mechanik erschéngt. Dofir schaaft de Begrëff "Entropie" eng gewëssen Aura vu Wichtegkeet ronderëm sech, déi schlussendlech net gerechtfäerdegt ass. Déi selwecht mathematesch Form vun Notatioun implizéiert net déi selwecht Interpretatioun vu Symboler!

D'Entropie vun der Wahrscheinlechkeetsverdeelung spillt eng grouss Roll an der Kodéierungstheorie. D'Gibbs Ongläichheet fir zwou verschidde Wahrscheinlechkeetsverdeelungen pi a Qi ass eng vun de wichtege Konsequenze vun dëser Theorie. Dat musse mer also beweisen

Richard Hamming: Kapitel 13. Informatiounen Theorie

De Beweis baséiert op enger offensichtlecher Grafik, Fig. 13.I, wat weist, datt

Richard Hamming: Kapitel 13. Informatiounen Theorie

a Gläichheet gëtt nëmmen erreecht wann x = 1. Loosst eis d'Ongläichheet op all Begrëff vun der Zomm vun der lénker Säit uwenden:

Richard Hamming: Kapitel 13. Informatiounen Theorie

Wann d'Alfabet vun engem Kommunikatiounssystem aus q Symboler besteet, dann d'Wahrscheinlechkeet vun der Iwwerdroung vun all Symbol qi = 1/q ze huelen an q ze ersetzen, kréie mir vun der Gibbs Ongläichheet

Richard Hamming: Kapitel 13. Informatiounen Theorie

Richard Hamming: Kapitel 13. Informatiounen Theorie

Figur 13.I

Dëst bedeit datt wann d'Wahrscheinlechkeet fir all q Symboler ze vermëttelen d'selwecht ass a gläich wéi - 1 / q, dann ass déi maximal Entropie gläich wéi ln q, soss hält d'Ongläichheet.

Am Fall vun engem eenzegaartegen dekodéierbare Code hu mir Kraft Ongläichheet

Richard Hamming: Kapitel 13. Informatiounen Theorie

Elo wa mir Pseudo-Wahrscheinlechkeeten definéieren

Richard Hamming: Kapitel 13. Informatiounen Theorie

wou natierlech Richard Hamming: Kapitel 13. Informatiounen Theorie= 1, wat aus dem Gibbs seng Ongläichheet folgt,

Richard Hamming: Kapitel 13. Informatiounen Theorie

a gëllen e bëssen Algebra (denkt drun datt K ≤ 1, also kënne mir de logarithmesche Begrëff erofsetzen, a vläicht spéider d'Ongläichheet stäerken), kréien mir

Richard Hamming: Kapitel 13. Informatiounen Theorie

wou L déi duerchschnëttlech Codelängt ass.

Also, Entropie ass de Minimum gebonnen fir all Zeechen-fir-Symbol Code mat enger Moyenne Codeword Längt L. Dëst ass Shannon d'Theorem fir eng Stéierungen-gratis Kanal.

Betruecht elo den Haapttheorem iwwer d'Aschränkungen vu Kommunikatiounssystemer, an deenen d'Informatioun als Stroum vun onofhängege Bits a Kaméidi präsent ass. Et ass verstan datt d'Wahrscheinlechkeet vun der korrekter Iwwerdroung vun engem Bit P> 1/2 ass, an d'Wahrscheinlechkeet datt de Bitwäert wärend der Iwwerdroung ëmgedréint gëtt (e Feeler geschitt) ass gläich wéi Q = 1 - P. Fir d'Bequemlechkeet si mir unhuelen datt d'Feeler onofhängeg sinn an d'Wahrscheinlechkeet vun engem Feeler d'selwecht ass fir all geschéckt Bit - dat ass, et gëtt "wäiss Geräischer" am Kommunikatiounskanal.

De Wee wéi mir e laange Stroum vun n Bits kodéiert an ee Message hunn ass déi n - Dimensiounsverlängerung vum One-Bit Code. Mir wäerten de Wäert vun n spéider bestëmmen. Betruecht e Message, deen aus n-Bits als Punkt am n-dimensionalen Raum besteet. Well mir en n-dimensionalen Raum hunn - a fir d'Einfachheet wäerte mir unhuelen datt all Message déi selwecht Probabilitéit vum Optriede huet - ginn et M méiglech Messagen (M gëtt och méi spéit definéiert), dofir ass d'Wahrscheinlechkeet vun all Message geschéckt

Richard Hamming: Kapitel 13. Informatiounen Theorie

Richard Hamming: Kapitel 13. Informatiounen Theorie
(Sender)
Zäitplang 13.II

Als nächst, betruecht d'Iddi vun der Kanalkapazitéit. Ouni an Detailer ze goen, ass d'Kanalkapazitéit definéiert als déi maximal Quantitéit un Informatioun déi zouverlässeg iwwer e Kommunikatiounskanal iwwerdroe ka ginn, andeems d'Benotzung vun der effizienter Kodéierung berücksichtegt gëtt. Et gëtt keen Argument datt méi Informatioun iwwer e Kommunikatiounskanal iwwerdroe ka ginn wéi seng Kapazitéit. Dëst kann bewisen ginn fir e binäre symmetresche Kanal (dee mir an eisem Fall benotzen). D'Kanalkapazitéit, wann Dir Bits schéckt, gëtt spezifizéiert als

Richard Hamming: Kapitel 13. Informatiounen Theorie

wou, wéi virdrun, P ass d'Wahrscheinlechkeet vun kee Feeler an all geschéckt Bit. Wann Dir n onofhängeg Stécker schéckt, gëtt de Kanalkapazitéit duerch

Richard Hamming: Kapitel 13. Informatiounen Theorie

Wa mir no bei der Kanalkapazitéit sinn, da musse mir bal dës Informatioun fir jiddereng vun de Symboler ai schécken, i = 1, ..., M. Bedenkt datt d'Wahrscheinlechkeet vum Optriede vun all Symbol ai 1 / M ass, mir kréien

Richard Hamming: Kapitel 13. Informatiounen Theorie

wa mir all vun M gläich wahrscheinlech Messagen schécken ai, mir hunn

Richard Hamming: Kapitel 13. Informatiounen Theorie

Wann n Bits geschéckt ginn, erwaarden mir datt nQ Feeler geschéien. An der Praxis, fir e Message, deen aus n-Bits besteet, wäerte mir ongeféier nQ Fehler an der kritt Message hunn. Fir grouss n, relativ Variatioun (Variatioun = Verdeelungsbreet, )
d'Verdeelung vun der Unzuel vun de Feeler wäert ëmmer méi enk ginn wéi n erop.

Also, vun der Sender Säit, huelen ech de Message ai fir ze schécken an eng Kugel ronderëm mat engem Radius ze zéien

Richard Hamming: Kapitel 13. Informatiounen Theorie

déi e bësse méi grouss ass mat engem Betrag gläich wéi e2 wéi déi erwaart Zuel vu Feeler Q, (Figur 13.II). Wann n grouss genuch ass, da gëtt et eng arbiträr kleng Wahrscheinlechkeet vun engem Message Punkt bj op der Receiver Säit schéngen, datt iwwer dës Sphär verlängert. Loosst eis d'Situatioun skizzéieren wéi ech se aus der Siicht vum Sender gesinn: mir hunn all Radie vum iwwerdroenen Message ai bis zum empfangenen Message bj mat enger Wahrscheinlechkeet vu Feeler gläich (oder bal gläich) un der normaler Verdeelung, erreechend e Maximum an nq. Fir all e2 gëtt et eng n sou grouss datt d'Wahrscheinlechkeet datt de resultéierende Punkt bj ausserhalb vu menger Sphär ass sou kleng ass wéi Dir wëllt.

Loosst eis elo déi selwecht Situatioun vun Ärer Säit kucken (Fig. 13.III). Op der Empfängersäit gëtt et eng Kugel S(r) vum selwechte Radius r ronderëm den Empfangspunkt bj am n-dimensionalen Raum, sou datt wann de kritt Message bj a menger Sphär ass, dann ass de Message, dee vu mir geschéckt gëtt, an Ärem Sphär.

Wéi kann e Feeler optrieden? De Feeler ka geschéien an de Fäll, déi an der Tabell hei ënnen beschriwwe ginn:

Richard Hamming: Kapitel 13. Informatiounen Theorie

Figur 13.III

Richard Hamming: Kapitel 13. Informatiounen Theorie

Hei gesi mir datt wann an der Sphär ronderëm de kritt Punkt gebaut gëtt et op d'mannst ee Punkt méi entsprécht engem méiglech geschéckt unencoded Message, dann ass e Feeler während Transmissioun geschitt, well Dir net bestëmmen kann wat vun dëse Messagen gouf iwwerdroen. De geschéckt Message ass Feeler-gratis nëmmen wann de Punkt entspriechend et an der Sphär ass, an et gi keng aner Punkten méiglech am uginn Code déi an der selwechter Sphär sinn.

Mir hunn eng mathematesch Equatioun fir d'Wahrscheinlechkeet vum Fehler Pe wann de Message ai geschéckt gouf

Richard Hamming: Kapitel 13. Informatiounen Theorie

Mir kënnen den éischte Faktor am zweete Begrëff erauswerfen, en als 1 huelen. Domat kréien mir d'Ongläichheet

Richard Hamming: Kapitel 13. Informatiounen Theorie

Et ass offensichtlech dat

Richard Hamming: Kapitel 13. Informatiounen Theorie

Duerfir

Richard Hamming: Kapitel 13. Informatiounen Theorie

widderhuelen op de leschte Begrëff op der rietser Säit

Richard Hamming: Kapitel 13. Informatiounen Theorie

Huelt n grouss genuch, den éischte Begrëff kann esou kleng geholl ginn wéi gewënschte, sot manner wéi e puer Zuel d. Dofir hu mir

Richard Hamming: Kapitel 13. Informatiounen Theorie

Loosst eis elo kucken wéi mir en einfachen Ersatzcode konstruéiere kënnen fir M Messagen ze codéieren déi aus n Bits besteet. Keng Ahnung hu wéi genau e Code konstruéiert (Fehlerkorrekturcoden waren nach net erfonnt), huet Shannon zoufälleg Kodéierung gewielt. Flip eng Mënz fir jiddereng vun den n Stécker am Message a widderhuelen de Prozess fir M Messagen. Am Ganzen muss nM Mënz Flips gemaach ginn, sou ass et méiglech

Richard Hamming: Kapitel 13. Informatiounen Theorie

Code Dictionnairen déi déiselwecht Wahrscheinlechkeet ½nM hunn. Natierlech bedeit de zoufälleg Prozess fir e Codebook ze kreéieren datt et eng Méiglechkeet vu Duplikaten ass, souwéi Codepunkten déi no beienee sinn an dofir eng Quell vu méigleche Feeler sinn. Et muss beweisen datt wann dëst net mat enger Wahrscheinlechkeet méi grouss ass wéi all kleng gewielte Feelerniveau, da gëtt de gegebene n grouss genuch.
Den entscheedende Punkt ass datt de Shannon all méiglech Codebicher duerchschnëttlech gemaach huet fir den Duerchschnëttsfehler ze fannen! Mir wäerten d'Symbol Av benotzen [.] der Moyenne Wäert iwwer de Set vun all méiglech zoufälleg codebooks ze bezeechnen. Duerchschnëtt iwwer eng Konstante d, gëtt natierlech eng Konstante, well fir d'Moyenne vun all Begrëff d'selwecht ass wéi all anere Begrëff an der Zomm,

Richard Hamming: Kapitel 13. Informatiounen Theorie

wat erhéicht ka ginn (M–1 geet op M)

Richard Hamming: Kapitel 13. Informatiounen Theorie

Fir all gegebene Message, wann Dir duerch all Codebicher duerchschnëtt, leeft d'Kodéierung duerch all méiglech Wäerter, sou datt déi duerchschnëttlech Wahrscheinlechkeet datt e Punkt an enger Kugel ass de Verhältnis vum Volume vun der Kugel zum Gesamtvolumen vum Raum ass. De Volume vun der Sphär ass

Richard Hamming: Kapitel 13. Informatiounen Theorie

wou s=Q+e2 <1/2 an ns muss eng ganz Zuel sinn.

De leschte Begrëff op der rietser Säit ass de gréisste vun dëser Zomm. Als éischt, loosst eis säi Wäert schätzen mat der Stirling Formel fir Faktoren. Mir kucken dann den Ofsenkungskoeffizient vum Begrëff virun him, notéiert datt dëse Koeffizient eropgeet wéi mir no lénks bewegen, an dofir kënne mir: (1) de Wäert vun der Zomm op d'Zomm vum geometresche Fortschrëtt limitéieren mat dësen initialen Koeffizient, (2) erweidert de geometresche Fortschrëtt vun ns Begrëffer op eng onendlech Zuel vu Begrëffer, (3) Berechent d'Zomm vun engem onendleche geometresche Fortschrëtt (Standardalgebra, näischt bedeitend) a kritt endlech de limitéierende Wäert (fir eng genuch grouss n):

Richard Hamming: Kapitel 13. Informatiounen Theorie

Notéiert wéi d'Entropie H(s) an der binomialer Identitéit erschéngt. Notéiert datt d'Taylor Serie Expansioun H(s)=H(Q+e2) eng Schätzung gëtt, déi nëmmen déi éischt Derivat berücksichtegt an all aner ignoréiert. Loosst eis elo den definitiven Ausdrock zesummesetzen:

Richard Hamming: Kapitel 13. Informatiounen Theorie

wou

Richard Hamming: Kapitel 13. Informatiounen Theorie

Mir mussen nëmmen e2 wielen sou datt e3 < e1, an da wäert de leschte Begrëff arbiträr kleng sinn, soulaang n grouss genuch ass. Dofir kann den duerchschnëttleche PE-Feeler sou kleng wéi gewënscht ginn mat der Kanalkapazitéit arbiträr no bei C.
Wann d'Moyenne vun alle Coden e klenge genuch Feeler huet, da muss op d'mannst ee Code gëeegent sinn, dofir gëtt et op d'mannst e passende Kodéierungssystem. Dëst ass e wichtegt Resultat kritt vum Shannon - "Shannon's Theorem fir e Kaméidi Kanal", obwuel et sollt bemierkt datt hien dëst fir e vill méi allgemenge Fall bewisen huet wéi fir den einfachen binäre symmetresche Kanal deen ech benotzt hunn. Fir den allgemenge Fall sinn d'mathematesch Berechnungen vill méi komplizéiert, awer d'Iddien sinn net sou ënnerschiddlech, also ganz dacks, mat engem Beispill vun engem bestëmmte Fall, kënnt Dir déi richteg Bedeitung vum Theorem opzeweisen.

Loosst eis d'Resultat kritiséieren. Mir hunn ëmmer erëm widderholl: "Fir genuch grouss n." Awer wéi grouss ass n? Ganz, ganz grouss wann Dir wierklech souwuel no bei der Kanalkapazitéit wëllt sinn a sécher sidd vum korrekten Datenübertragung! Tatsächlech sou grouss datt Dir eng ganz laang Zäit muss waarden fir e Message vu genuch Bits ze sammelen fir se spéider ze codéieren. An dësem Fall wäert d'Gréisst vum Zoufallscode-Wörterbuch einfach enorm sinn (schliisslech kann esou e Wierderbuch net méi kuerz duergestallt ginn wéi eng komplett Lëscht vun alle Mn-Bits, trotz der Tatsaach, datt n an M ganz grouss sinn)!

Fehlerkorrektiounscodes vermeiden op e ganz laange Message ze waarden an et dann duerch ganz grouss Codebicher ze kodéieren an ze decodéieren well se Codebooks selwer vermeiden an amplaz normal Berechnung benotzen. An einfacher Theorie tendéieren esou Coden d'Fäegkeet ze verléieren fir de Kanalkapazitéit z'erreechen an ëmmer nach e nidderegen Fehlerquote z'erhalen, awer wann de Code eng grouss Zuel vu Feeler korrigéiert, si se gutt. An anere Wierder, wann Dir e puer Kanalkapazitéit un d'Fehlerkorrektur verdeelt, da musst Dir d'Fehlerkorrekturfäegkeet meeschtens benotzen, dh eng grouss Zuel vu Feeler muss an all geschéckt Message korrigéiert ginn, soss verschwend Dir dës Kapazitéit.

Zur selwechter Zäit ass den uewe bewisenen Theorem nach ëmmer net sënnlos! Et weist datt effizient Iwwerdroungssystemer clever Kodéierungsschemae fir ganz laang Bit Strings benotze mussen. E Beispill sinn Satelliten déi iwwer déi baussenzeg Planéite geflunn sinn; Wéi si sech vun der Äerd an der Sonn ewech beweegen, si se gezwongen, ëmmer méi Feeler am Dateblock ze korrigéieren: Verschidde Satellitte benotze Solarpanneauen, déi ongeféier 5 W liwweren, anerer benotzen Atomkraaftquellen, déi ongeféier déiselwecht Kraaft ubidden. Déi geréng Kraaft vun der Energieversuergung, déi kleng Gréisst vun de Sender Platen an déi limitéiert Gréisst vun den Empfänger Platen op der Äerd, déi enorm Distanz déi d'Signal muss reesen - all dat erfuerdert d'Benotzung vu Coden mat engem héijen Niveau vun der Fehlerkorrektur fir eng Konstruktioun ze bauen. effikass Kommunikatioun System.

Loosst eis zréck op den n-dimensionalen Raum, dee mir am Beweis hei uewen benotzt hunn. Bei der Diskussioun hu mir gewisen datt bal de ganze Volume vun der Kugel no bei der baussenzeger Uewerfläch konzentréiert ass - also ass et bal sécher datt dat geschéckt Signal no bei der Uewerfläch vun der Kugel läit, déi ronderëm dat empfangent Signal gebaut ass, och mat engem relativen klenge Radius vun esou enger Sphär. Dofir ass et net iwwerraschend datt de empfaangen Signal, no der Korrektur vun enger arbiträr grousser Zuel vu Feeler, nQ, arbiträr no bei engem Signal ouni Feeler erauskënnt. D'Verbindungskapazitéit déi mir virdru diskutéiert hunn ass de Schlëssel fir dëst Phänomen ze verstoen. Bedenkt datt ähnlech Kugel konstruéiert fir Feelerkorrektur Hamming Coden net géigesäiteg iwwerlappen. Déi grouss Zuel vu bal orthogonalen Dimensiounen am n-dimensionalen Raum weist firwat mir M Kugelen am Raum mat wéineg Iwwerlappung passen. Wa mir eng kleng, arbiträr kleng Iwwerlappung erlaben, wat zu enger klenger Unzuel vu Feeler während der Dekodéierung féieren kann, kënne mir eng dichte Plazéierung vu Kugelen am Raum kréien. Hamming garantéiert e gewëssen Niveau vu Feelerkorrektur, Shannon - eng geréng Wahrscheinlechkeet vu Feeler, awer gläichzäiteg erhalen den aktuellen Duerchgang arbiträr no bei der Kapazitéit vum Kommunikatiounskanal, wat Hamming Coden net maache kënnen.

Informatiounstheorie seet eis net wéi en effiziente System designen, awer et weist de Wee op effiziente Kommunikatiounssystemer. Et ass e wäertvollt Tool fir Maschinn-zu-Maschinn Kommunikatiounssystemer ze bauen, awer, wéi virdru festgestallt, huet et wéineg Relevanz fir wéi d'Mënsche matenee kommunizéieren. Wéi eng biologesch Ierfschaft wéi technesch Kommunikatiounssystemer ass, ass einfach onbekannt, sou datt et momentan net kloer ass wéi d'Informatiounstheorie op Genen gëlt. Mir hu keng aner Wiel wéi ze probéieren, a wann den Erfolleg eis d'Maschinnähnlech Natur vun dësem Phänomen weist, da wäert den Echec op aner bedeitend Aspekter vun der Natur vun Informatioun weisen.

Loosse mer net zevill ausgoen. Mir hu gesinn datt all ursprénglech Definitiounen, a méi oder manner Mooss, d'Essenz vun eisen ursprénglechen Iwwerzeegungen ausdrécken mussen, awer si sinn duerch e gewësse Grad vun Verzerrung charakteriséiert an dofir sinn net applicabel. Et gëtt traditionell ugeholl datt schlussendlech d'Definitioun déi mir benotzen tatsächlech d'Essenz definéiert; mä, dëst seet eis nëmmen wéi Saachen ze Prozess an op kee Fall vermëttelt all Sënn fir eis. Déi postulativ Approche, esou staark an de mathematesche Kreesser favoriséiert, léisst an der Praxis vill ze wënschen.

Elo kucke mir e Beispill vun IQ Tester wou d'Definitioun sou kreesfërmeg ass wéi Dir et gär hätt an als Resultat täuschend ass. En Test gëtt erstallt, dee soll Intelligenz moossen. Et gëtt dann iwwerschafft fir se sou konsequent wéi méiglech ze maachen, an da gëtt se publizéiert an op enger einfacher Method kalibréiert sou datt déi gemoossene "Intelligenz" normal verdeelt gëtt (natierlech op enger Kalibrierungskurve). All Definitioune mussen iwwerpréift ginn, net nëmme wann se fir d'éischt proposéiert ginn, awer och vill méi spéit, wa se an de Conclusiounen benotzt ginn. A wéi engem Ausmooss sinn d'Definitiounsgrenze passend fir de Problem deen geléist gëtt? Wéi dacks ginn Definitiounen, déi an engem Astellung uginn, a ganz verschiddenen Astellungen applizéiert? Dëst geschitt zimlech dacks! An de Geeschteswëssenschaften, déi Dir zwangsleefeg an Ärem Liewen begéint, geschitt dat méi dacks.

Also war ee vun den Zwecker vun dëser Presentatioun vun der Informatiounstheorie, nieft der Nëtzlechkeet ze weisen, Iech vun dëser Gefor ze warnen, oder Iech genau ze weisen wéi Dir se benotzt fir dat gewënschte Resultat ze kréien. Et gouf laang bemierkt datt initial Definitioune bestëmmen wat Dir um Enn fannt, zu engem vill méi groussen Ausmooss wéi et schéngt. Éischt Definitioune verlaangen vill Opmierksamkeet vun Iech, net nëmmen an all nei Situatioun, mä och an Beräicher mat deenen Dir fir eng laang Zäit geschafft. Dëst erlaabt Iech ze verstoen, wéi wäit d'Resultater eng Tautologie sinn an net eppes nëtzlech.

Déi berühmt Geschicht vum Eddington erzielt vu Leit, déi mat engem Netz am Mier gefëscht hunn. Nodeems si d'Gréisst vun de Fësch studéiert hunn, déi se gefaangen hunn, hunn se d'Mindestgréisst vu Fësch festgestallt, déi am Mier fonnt gëtt! Hir Conclusioun gouf vum Instrument benotzt, net vun der Realitéit.

Fir weidergitt ...

Wien mat der Iwwersetzung, dem Layout an der Verëffentlechung vum Buch hëllefe wëll - schreift an enger perséinlecher Noriicht oder E-Mail [Email geschützt]

Mir hunn iwwregens och d'Iwwersetzung vun engem anere coole Buch lancéiert - "D'Dreammaschinn: D'Geschicht vun der Computerrevolutioun")

Mir sichen besonnesch déi, déi hëllefen iwwersetzen Bonus Kapitel, déi nëmmen op Video ass. (Transfert fir 10 Minutten, déi éischt 20 si scho geholl)

Inhalter vum Buch an iwwersat KapitelenViruerteel

  1. Intro zu The Art of Doing Science and Engineering: Learning to Learn (28. Mäerz 1995) Iwwersetzung: Kapitel 1
  2. "Foundations of the Digital (Discrete) Revolution" (30. Mäerz 1995) Kapitel 2. Fundamentals vun der digitaler (diskret) Revolutioun
  3. "Geschicht vun Computeren - Hardware" (31. Mäerz 1995) Kapitel 3. Geschicht vun Computeren - Hardware
  4. "Geschicht vun Computeren - Software" (4. Abrëll 1995) Kapitel 4. Geschicht vun Computeren - Software
  5. "Geschicht vun Computeren - Uwendungen" (6. Abrëll 1995) Kapitel 5: Geschicht vun Computeren - Praktesch Uwendungen
  6. "Kënschtlech Intelligenz - Deel I" (7. Abrëll 1995) Kapitel 6. Kënschtlech Intelligenz - 1
  7. "Kënschtlech Intelligenz - Deel II" (11. Abrëll 1995) Kapitel 7. Kënschtlech Intelligenz - II
  8. "Kënschtlech Intelligenz III" (13. Abrëll 1995) Kapitel 8. Kënschtlech Intelligenz-III
  9. "n-Dimensional Space" (14. Abrëll 1995) Kapitel 9. N-dimensional Raum
  10. "Coding Theory - The Representation of Information, Part I" (18. Abrëll 1995) Kapitel 10. Kodéierungstheorie - I
  11. "Coding Theory - The Representation of Information, Part II" (20. Abrëll 1995) Kapitel 11. Kodéierung Theorie - II
  12. "Feeler-Korrigéiere Coden" (21. Abrëll 1995) Kapitel 12. Feeler Korrektur Coden
  13. "Information Theory" (25. Abrëll 1995) Kapitel 13. Informatiounen Theorie
  14. "Digital Filters, Part I" (27. Abrëll 1995) Kapitel 14. Digital Filtere - 1
  15. "Digital Filters, Part II" (28. Abrëll 1995) Kapitel 15. Digital Filtere - 2
  16. "Digital Filters, Part III" (2. Mee 1995) Kapitel 16. Digital Filtere - 3
  17. "Digital Filter, Deel IV" (4. Mee 1995) Kapitel 17. Digital Filtere - IV
  18. "Simulatioun, Deel I" (5. Mee 1995) Kapitel 18. Modelléierung - I
  19. "Simulatioun, Deel II" (9. Mee 1995) Kapitel 19. Modeller - II
  20. "Simulatioun, Deel III" (11. Mee 1995) Kapitel 20. Modeller - III
  21. "Fiber Optics" (12. Mee 1995) Kapitel 21. Fiberoptik
  22. "Computer Aided Instruction" (16. Mee 1995) Kapitel 22: Computer Assisted Instruction (CAI)
  23. "Mathematik" (18. Mee 1995) Kapitel 23. Mathematik
  24. "Quantemechanik" (19. Mee 1995) Kapitel 24. Quantemechanik
  25. "Kreativitéit" (23. Mee 1995). Iwwersetzung: Kapitel 25. Kreativitéit
  26. "Experten" (25. Mee 1995) Kapitel 26. Experten
  27. "Unreliable Data" (26. Mee 1995) Kapitel 27. Onverlässeg Donnéeën
  28. "System Engineering" (30. Mee 1995) Kapitel 28. Systemer Engineering
  29. "Dir kritt wat Dir moosst" (1. Juni 1995) Kapitel 29: Dir kritt wat Dir moosst
  30. "Wéi wësse mir wat mir wëssen" (Juni 2, 1995) iwwersetzen an 10 Minutte Stécker
  31. Hamming, "Dir an Är Fuerschung" (6. Juni 1995). Iwwersetzung: Dir an Är Aarbecht

Wien mat der Iwwersetzung, dem Layout an der Verëffentlechung vum Buch hëllefe wëll - schreift an enger perséinlecher Noriicht oder E-Mail [Email geschützt]

Source: will.com

Setzt e Commentaire