Рычард Хэмінг: Кіраўнік 13. Тэорыя інфармацыі

Мы гэта зрабілі!

«Мэта гэтага курса – падрыхтаваць вас да вашай тэхнічнай будучыні.»

Рычард Хэмінг: Кіраўнік 13. Тэорыя інфармацыіПрывітанне, Хабр. Памятайце афігенны артыкул «Вы і ваша праца» (219, 2588 у закладкі, 429k чытанняў)?

Дык вось у Хэммінга (так, так, самакантралявальныя і самакарэктуюцца коды Хэмінга) ёсць цэлая кніга, напісаная па матывах яго лекцый. Мы яе пераводзім, бо мужык справа кажа.

Гэта кніга не проста пра ІТ, гэта кніга пра стыль мыслення неверагодна крутых людзей. «Гэта не проста зарад станоўчага мыслення; у ёй апісаны ўмовы, якія павялічваюць шанцы зрабіць вялікую працу.»

За пераклад дзякуй Андрэю Пахомаву.

Тэорыя Інфармацыі была распрацавана К. Э. Шэнанам у канцы 1940х гадоў. Кіраўніцтва Лабараторый Бэла настойвала, каб ён назваў яе "Тэорыя Сувязі", т.я. гэта нашмат больш дакладная назва. Па відавочных прычынах, назва «Тэорыя Інфармацыі» валодае значна вялікім уздзеяннем на публіку, таму Шэнан абраў менавіта яго, і менавіта яно вядома нам дагэтуль. Сама назва мяркуе, што тэорыя мае справу з інфармацыяй, гэта і робіць яе важнай, паколькі мы ўсё глыбей пранікаем у інфармацыйную эпоху. У гэтым раздзеле я закрану некалькі асноўных высноў з гэтай тэорыі, прывяду не строгія, а хутчэй інтуітыўна зразумелыя доказы некаторых асобных палажэнняў гэтай тэорыі, каб вы зразумелі, чым на самой справе з'яўляецца «Тэорыя Інфармацыі», дзе вы можаце яе прымяняць, а дзе не .

Найперш, што такое “інфармацыя”? Шэнан атаясамляе інфармацыю з нявызначанасцю. Ён абраў адмоўны лагарыфм верагоднасці падзеі ў якасці колькаснай меры інфармацыі, якую вы атрымліваеце пры надыходзе падзеі з верагоднасцю p. Напрыклад, калі я скажу вам, што ў Лос-Анжэлесе туманнае надвор'е, тады р блізкі да 1, што па вялікім рахунку, не дае нам шмат інфармацыі. Але калі я скажу, што ў чэрвені ў Мантэрэй ідзе дождж, то ў гэтым паведамленні будзе прысутнічаць нявызначанасць, і яно будзе змяшчаць у сабе больш інфармацыі. Дакладная падзея не ўтрымлівае ў сабе ніякай інфармацыі, бо log 1 = 0.

Спынімся на гэтым падрабязней. Шэнан лічыў, што колькасная мера інфармацыі павінна быць бесперапыннай функцыяй ад верагоднасці падзеі p, а для незалежных падзей яна павінна быць адытыўнай – колькасць інфармацыі, атрыманая ў выніку ажыццяўлення дзвюх незалежных падзей, павінна раўняцца колькасці інфармацыі, атрыманай у выніку ажыццяўлення сумеснай падзеі. Напрыклад, вынік кідка ігральных костак і манеты звычайна разглядаюцца як незалежныя падзеі. Перакладзем вышэйсказанае на мову матэматыкі. Калі I (p) – гэта колькасць інфармацыі, якая змяшчаецца ў падзеі з верагоднасцю p, то для сумеснай падзеі, якая складаецца з дзвюх незалежных падзей x з верагоднасцю p1 і y з верагоднасцю p2 атрымліваем

Рычард Хэмінг: Кіраўнік 13. Тэорыя інфармацыі
(x і y незалежныя падзеі)

Гэта функцыянальнае раўнанне Кашы, сапраўднае для ўсіх p1 і p2. Для рашэння гэтага функцыянальнага раўнання выкажам здагадку, што

p1 = p2 = p,

гэта дае

Рычард Хэмінг: Кіраўнік 13. Тэорыя інфармацыі

Калі p1 = p2 і p2 = p, тады

Рычард Хэмінг: Кіраўнік 13. Тэорыя інфармацыі

і г.д. Пашыраючы гэты працэс, выкарыстоўваючы стандартны метад для экспанент, для ўсіх рацыянальных лікаў m/n, дакладна наступнае

Рычард Хэмінг: Кіраўнік 13. Тэорыя інфармацыі

З меркаванай бесперапыннасці інфармацыйнай меры, вынікае, што лагарыфмічная функцыя з'яўляецца адзіным бесперапынным рашэннем функцыянальнага ўраўнення Кашы.

У тэорыі інфармацыі прынята прымаць падставу лагарыфма роўнае 2, таму бінарны выбар утрымоўвае роўна 1 біт інфармацыі. Такім чынам, інфармацыя вымяраецца па формуле

Рычард Хэмінг: Кіраўнік 13. Тэорыя інфармацыі

Давайце прыпынімся і разбяромся, што ж адбылося вышэй. Найперш мы так і не далі вызначэнне паняццю “інфармацыя”, мы проста вызначылі формулу яе колькаснай меры.

Па-другое, гэтая мера залежыць ад нявызначанасці, і, хоць яна ў дастатковай ступені падыходзіць для машын - напрыклад, тэлефонных сістэмы, радыё, тэлебачання, кампутараў і г. д. - яна не адлюстроўвае нармальнага чалавечага стаўлення да інфармацыі.

Па-трэцяе, гэта адносная мера, яна залежыць ад бягучага стану вашых ведаў. Калі вы гледзіце на струмень "выпадковых лікаў" з генератара выпадковых лікаў, вы мяркуеце, што кожны наступны лік нявызначана, але, калі вы ведаеце формулу для вылічэння "выпадковых лікаў", наступны лік будзе вядома, і, адпаведна, не будзе ўтрымоўваць у сабе інфармацыі.

Такім чынам, вызначэнне, дадзенае Шэнанам для інфармацыі, у шматлікіх выпадках падыходзіць для машын, але, падобна, не адпавядае чалавечаму разуменню гэтага слова. Менавіта з гэтай прычыны "Тэорыю інфармацыі" трэба было назваць "Тэорыяй сувязі". Тым не менш, ужо занадта позна каб мяняць азначэнні (дзякуючы якім тэорыя набыла сваю першапачатковую папулярнасць, і якія ўсё яшчэ прымушаюць людзей думаць, што гэтая тэорыя мае справу з "інфармацыяй"), таму мы вымушаныя з імі змірыцца, але пры гэтым вы павінны выразна разумець, наколькі вызначэнне інфармацыі, дадзенае Шэнанам, далёка ад свайго агульнаўжывальнага сэнсу. Інфармацыя Шэнана мае справу з чымсьці зусім іншым, а менавіта з нявызначанасцю.

Вось пра што трэба падумаць, калі вы прапануеце якую-небудзь тэрміналогію. Наколькі прапанаванае вызначэнне, напрыклад, вызначэнне інфармацыі дадзенае Шэнанам, адпавядае вашай першапачатковай ідэі і наколькі яно адрозніваецца? Амаль няма тэрміна, які б у дакладнасці адлюстроўваў вашае раней бачанне канцэпцыі, але ў канчатковым выніку, менавіта выкарыстоўваная тэрміналогія адлюстроўвае сэнс канцэпцыі, таму фармалізацыя чагосьці з дапамогай выразных азначэнняў заўсёды ўносіць некаторы шум.

Разгледзім сістэму, алфавіт якой складаецца з сімвалаў q з верагоднасцямі pi. У гэтым выпадку сярэдняя колькасць інфармацыі у сістэме (яе чаканае значэнне) роўна:

Рычард Хэмінг: Кіраўнік 13. Тэорыя інфармацыі

Гэта называецца энтрапіяй сістэмы з размеркаваннем верагоднасці {pi}. Мы выкарыстоўваем тэрмін "энтрапія", таму што тая ж самая матэматычная форма ўзнікае ў тэрмадынамікі і статыстычнай механіцы. Менавіта таму тэрмін "энтрапія" стварае вакол сябе нейкую аўру важнасці, якая, у канчатковым рахунку, не апраўдана. Аднолькавая матэматычная форма запісу не мае на ўвазе аднолькавай інтэрпрэтацыі сімвалаў!

Энтрапія размеркавання верагоднасці гуляе галоўную ролю ў тэорыі кадавання. Няроўнасць Гібса для двух розных размеркаванняў верагоднасці pi і qi з'яўляецца адным з важных наступстваў гэтай тэорыі. Такім чынам, мы павінны даказаць, што

Рычард Хэмінг: Кіраўнік 13. Тэорыя інфармацыі

Доказ абапіраецца на відавочны графік, мал. 13.I, які паказвае, што

Рычард Хэмінг: Кіраўнік 13. Тэорыя інфармацыі

а роўнасць дасягаецца толькі пры x = 1. Ужыем няроўнасць да кожнага складаемага сумы з левай часткі:

Рычард Хэмінг: Кіраўнік 13. Тэорыя інфармацыі

Калі алфавіт сістэмы сувязі складаецца з q сімвалаў, то прымаючы верагоднасць перадачы кожнага сімвала qi = 1/q і падстаўляючы q, атрымліваем з няроўнасці Гібса

Рычард Хэмінг: Кіраўнік 13. Тэорыя інфармацыі

Рычард Хэмінг: Кіраўнік 13. Тэорыя інфармацыі

Малюнак 13.I

Гэта сведчыць аб тым, што калі верагоднасць перадачы ўсіх q сімвалаў аднолькавая і роўная — 1 / q, то максімальная энтрапія роўная ln q, у адваротным выпадку выконваецца няроўнасць.

У выпадку адназначна дэкадуемага кода, мы маем няроўнасць Крафта

Рычард Хэмінг: Кіраўнік 13. Тэорыя інфармацыі

Цяпер калі мы вызначым псеўдаверагоднасці

Рычард Хэмінг: Кіраўнік 13. Тэорыя інфармацыі

дзе вядома Рычард Хэмінг: Кіраўнік 13. Тэорыя інфармацыі= 1, што вынікае з няроўнасці Гібса,

Рычард Хэмінг: Кіраўнік 13. Тэорыя інфармацыі

і прыменім крыху алгебры (памятаеце, што K ≤ 1, таму мы можам апусціць лагарыфмічны член, і магчыма, узмацніць няроўнасць пазней), то атрымаем

Рычард Хэмінг: Кіраўнік 13. Тэорыя інфармацыі

дзе L - гэта сярэдняя даўжыня кода.

Такім чынам, энтрапія з'яўляецца мінімальнай мяжой для любога посимвольного кода з сярэдняй даўжынёй кодавага слова L. Гэта тэарэма Шэнана для канала без перашкод.

Цяпер разгледзім галоўную тэарэму аб абмежаваннях сістэм сувязі, у якіх інфармацыя перадаецца ў выглядзе струменя незалежных біт і прысутнічае шум. Мяркуецца, што верагоднасць карэктнай перадачы аднаго біта P> 1/2, а верагоднасць таго, што значэнне біта будзе інвертавана пры перадачы (адбудзецца памылка) ураўноўваецца Q = 1 - P. Для выгоды выкажам здагадку, што памылкі незалежныя і верагоднасць памылкі аднолькавая для кожнага адпраўленага біта - гэта значыць у канале сувязі прысутнічае "белы шум".

Шлях мы маем доўгі струмень з n біт, закадаваныя ў адно паведамленне - n - мернае пашырэнне аднабітавага кода. Значэнне n мы вызначым пазней. Разгледзім паведамленне, якое складаецца з n-бітаў як кропку ў n-мернай прасторы. Паколькі ў нас ёсць n-мерная прастора - і для прастаты будзем меркаваць, што кожнае паведамленне мае аднолькавую верагоднасць узнікнення - існуе M магчымых паведамленняў (M таксама будзе вызначана пазней), такім чынам, верагоднасць любога апраўленага паведамлення ўраўноўваецца

Рычард Хэмінг: Кіраўнік 13. Тэорыя інфармацыі

Рычард Хэмінг: Кіраўнік 13. Тэорыя інфармацыі
(адпраўнік)
Графік 13.II

Далей разгледзім ідэю аб прапускной здольнасці канала. Не ўдаючыся ў падрабязнасці, прапускная здольнасць канала вызначаецца як максімальны аб'ём інфармацыі, які можа быць надзейна перададзены па канале сувязі, з улікам выкарыстання максімальна эфектыўнага кадавання. Няма довадаў на карысць таго, што праз канал сувязі можа быць перададзена больш інфармацыі, чым яго ёмістасць. Гэта можна даказаць для бінарнага сіметрычнага канала (які мы выкарыстоўваем у нашым выпадку). Ёмістасць канала, пры пабітавай адпраўкі, задаецца як

Рычард Хэмінг: Кіраўнік 13. Тэорыя інфармацыі

дзе, як і раней, P - верагоднасць адсутнасці памылкі ў любым адпраўленым біце. Пры адпраўцы n незалежных бітаў ёмістасць канала вызначаецца як

Рычард Хэмінг: Кіраўнік 13. Тэорыя інфармацыі

Калі мы знаходзімся побач з прапускной здольнасцю канала, то мы павінны адправіць амаль такі аб'ём інфармацыі для кожнага з сімвалаў ai, i = 1, …, М. З улікам таго, што верагоднасцю ўзнікнення кожнага сімвала ai роўна 1/M, мы атрымаем

Рычард Хэмінг: Кіраўнік 13. Тэорыя інфармацыі

калі мы адпраўляем якое-небудзь з М раўнаверагодных паведамленняў ai, мы маем

Рычард Хэмінг: Кіраўнік 13. Тэорыя інфармацыі

Пры адпраўцы n біт мы чакаем узнікненне nQ памылак. На практыцы, для паведамлення які складаецца з n-біт, мы будзем мець прыблізна nQ памылак у атрыманым паведамленні. Пры вялікіх n, адносная варыяцыя ( варыяцыя = шырыня размеркавання, )
размеркавання колькасці памылак будзе ўсё вузейшай з ростам n.

Такім чынам, са боку перадатчыка, я бяру паведамленне ai для адпраўкі і малюю сферу вакол яго радыусам

Рычард Хэмінг: Кіраўнік 13. Тэорыя інфармацыі

які крыху большы на велічыню роўную e2, чым чаканы лік памылак Q, (малюнак 13.II). Калі n дастаткова вяліка, то існуе калі заўгодна малая верагоднасць з'яўлення кропкі паведамлення bj на боку прымача, якая выходзіць за межы гэтай сферы. Замалюем сітуацыю, як бачу яе я з пункта гледжання перадатчыка: мы маем любыя радыусы ад перададзенага паведамлення ai да атрыманага паведамлення bj з верагоднасцю памылкі роўнай (ці амаль роўнай) звычайнаму размеркаванню, які дасягае максімуму ў nQ. Для любога зададзенага e2 існуе n настолькі вялікае, што верагоднасць таго, што атрыманая кропка bj, якая выходзіць за межы маёй сферы, будзе настолькі малой, наколькі вам будзе заўгодна.

Цяпер разгледзім гэтую ж сітуацыю з вашага боку (мал. 13.III). На баку прымача ёсць сфера S( r) таго ж радыусу r вакол прынятага пункта bj у n-мернай прасторы, такая, што калі прынятае паведамленне bj знаходзіцца ўнутры маёй сферы, тады адпраўленае мной паведамленне ai знаходзіцца ўнутры вашай сферы.

Як можа ўзнікнуць памылка? Памылка можа адбыцца ў выпадках, апісаных у табліцы ніжэй:

Рычард Хэмінг: Кіраўнік 13. Тэорыя інфармацыі

Малюнак 13.III

Рычард Хэмінг: Кіраўнік 13. Тэорыя інфармацыі

Тут мы бачым, што, калі ў сферы пабудаванай вакол прынятай кропкі існуе яшчэ хаця б яшчэ адна кропка, якая адпавядае магчымаму адпраўленаму не закадаванага паведамлення, то пры перадачы адбылася памылка, бо вы не можаце вызначыць якое менавіта з гэтых паведамленняў было перададзена. Адпраўленае паведамленне не змяшчае памылкі, толькі калі кропка, якая адпавядае яму, знаходзіцца ў сферы, і не існуе іншых кропак, магчымых у дадзеным кодзе, якія знаходзяцца ў той жа сферы.

Мы мае матэматычнае раўнанне для верагоднасці памылкі Рэ, калі было адпраўлена паведамленне ai

Рычард Хэмінг: Кіраўнік 13. Тэорыя інфармацыі

Мы можам выкінуць першы множнік у другім складніку, прыняўшы яго за 1. Такім чынам атрымаем няроўнасць

Рычард Хэмінг: Кіраўнік 13. Тэорыя інфармацыі

Відавочна, што

Рычард Хэмінг: Кіраўнік 13. Тэорыя інфармацыі

такім чынам

Рычард Хэмінг: Кіраўнік 13. Тэорыя інфармацыі

паўторна ўжывальны да апошняга чальца справа

Рычард Хэмінг: Кіраўнік 13. Тэорыя інфармацыі

Прыняўшы n дастаткова вялікім, першы член можа быць прыняты калі заўгодна малым, скажам, менш некаторага ліку d. Таму мы маем

Рычард Хэмінг: Кіраўнік 13. Тэорыя інфармацыі

Цяпер разгледзім, як можна пабудаваць код простай замены для кадавання M паведамленняў, якія складаюцца з n біт. Не маючы ўяўленні аб тым, як менавіта будаваць код (коды з карэкцыяй памылкі яшчэ не былі вынайдзены), Шэнан абраў выпадковае кадаваньне. Падкіньце манетку для кожнага з n бітаў у паведамленні і паспрабуйце працэс для М паведамленняў. Усяго трэба зрабіць nM кідкоў манеты, таму магчымыя

Рычард Хэмінг: Кіраўнік 13. Тэорыя інфармацыі

кодавых слоўнікаў, якія маюць аднолькавую верагоднасць ½nM. Вядома, выпадковы працэс стварэння кодавага слоўніка азначае, што ёсць верагоднасць з'яўлення дублікатаў, а таксама кодавых кропак, якія будуць блізкія сябар да сябра і, такім чынам, будуць крыніцай верагодных памылак. Трэба даказаць, што калі гэта не адбываецца з верагоднасцю вышэй, чым любы невялікі абраны ўзровень памылкі, то зададзенае n дастаткова вяліка.
Вырашальным момант заключаецца ў тым, што Шэнан асерадніў усе магчымыя кодавыя кнігі, каб знайсці сярэднюю памылку! Мы будзем выкарыстоўваць сімвал Av [.], каб пазначыць сярэдняе значэнне па мностве ўсіх магчымых выпадковых кодавых слоўнікаў. Асерадненне па канстанце d, вядома, дае канстанту, бо для асераднення кожны чалец супадае з любым іншым чальцом у суме,

Рычард Хэмінг: Кіраўнік 13. Тэорыя інфармацыі

які можа быць павялічаны (M-1 пераходзіць у M )

Рычард Хэмінг: Кіраўнік 13. Тэорыя інфармацыі

Для любога канкрэтнага паведамлення, пры асерадненні ўсіх кодавых кніг, кадаваньне прабягае ўсе магчымыя значэнні, таму сярэдняя верагоднасць таго, што кропка знаходзіцца ў сферы, - гэта стаўленне аб'ёму сферы да агульнага аб'ёму прасторы. Аб'ём сферы пры гэтым

Рычард Хэмінг: Кіраўнік 13. Тэорыя інфармацыі

дзе s=Q+e2 <1/2 і ns павінна быць цэлым лікам.

Апошняе справа складнік з'яўляецца найбольшым у гэтай суме. Спачатку ацэнім яго значэнне па формуле Стырлінга для факторыялаў. Затым мы паглядзім на каэфіцыент памяншэння складніка перад ім, звярніце ўвагу, што гэты каэфіцыент павялічваецца пры перамяшчэнні налева, і таму мы можам: (1) абмежаваць значэнне сумы сумай геаметрычнай прагрэсіі з гэтым пачатковым каэфіцыентам, (2) пашырыць геаметрычную прагрэсію з ns членаў да бясконцага ліку чальцоў,(3) палічыць суму бясконцай геаметрычнай прагрэсіі (стандартная алгебра, нічога істотнага) і нарэшце атрымаць лімітавае значэнне (для дастатковага вялікага n):

Рычард Хэмінг: Кіраўнік 13. Тэорыя інфармацыі

Звярніце ўвагу, як энтрапія H(s) з'явілася ў бінамільнай тоеснасці. Заўважце, што раскладанне ў шэраг Тэйлара H(s)=H(Q+e2) дае адзнаку, атрыманую з улікам толькі першай вытворнай і ігнараванні ўсіх астатніх. Цяпер збярэм канчатковы выраз:

Рычард Хэмінг: Кіраўнік 13. Тэорыя інфармацыі

дзе

Рычард Хэмінг: Кіраўнік 13. Тэорыя інфармацыі

Усё, што нам трэба зрабіць, гэта абраць e2, так каб e3 < e1, і тады апошні чалец будзе калі заўгодна малым, пры досыць вялікім n. Такім чынам, сярэдняя памылка PE можа быць атрымана калі заўгодна малой пры прапускной здольнасці канала калі заўгодна блізкай да C.
Калі сярэдняе значэнне па ўсіх кодах мае дастаткова малую памылку, то па меншай меры адзін код павінен быць прыдатным, такім чынам, існуе па меншай меры адна прыдатная сістэма кадавання. Гэта важны вынік, атрыманы Шэнанам - «тэарэма Шэнана для канала з перашкодамі», хоць варта заўважыць, што ён даказаў гэта для значна больш агульнага выпадку, чым для простага двайковага сіметрычнага канала, выкарыстанага мной. Для агульнага выпадку матэматычныя выкладкі нашмат складаней, але ідэі не так ужо розныя, таму вельмі часта на прыкладзе дзелі выпадку можна расчыніць праўдзівы сэнс тэарэмы.

Давайце пакрытыкуем вынік. Мы неаднаразова паўтаралі: «Пры дастаткова вялікіх n». Але наколькі вялікае значэнне n? Вельмі, вельмі вялікае, калі вы на самой справе хочаце быць адначасова блізкія да прапускной здольнасці канала і быць упэўнены ў карэктнай перадачы даных! Настолькі вялікім, што фактычна вы будзеце змушаны чакаць вельмі доўга, каб назапасіць паведамленне з такой колькасці біт, каб у наступстве закадаваць яго. Пры гэтым памер слоўніка выпадковага кода будзе проста велізарным (бо такі слоўнік нельга ўявіць у карацейшай форме, чым поўны спіс усіх Mn бітаў, пры тым што n і M вельмі вялікія)!

Коды карэкцыі памылак пазбягаюць чаканні вельмі доўгага паведамлення, з яго наступным кадаваннем і дэкадаваннем праз вельмі вялікія кодавыя кнігі, таму што яны пазбягаюць кодавых кніг як такіх і выкарыстаюць замест іх звычайныя вылічэнні. У простай тэорыі такія коды, як правіла, губляюць здольнасць наблізіцца да прапускной здольнасці канала і разам з тым захаваць дастаткова нізкую частату памылак, але, калі код выпраўляе вялікую колькасць памылак, яны паказваюць добрыя вынікі. Іншымі словамі, калі вы закладваеце нейкую ёмістасць канала для выпраўлення памылак, тыя вы павінны выкарыстоўваць магчымасць выпраўлення памылкі большую частку часу, т. е ў кожным адпраўленым паведамленні павінна быць выпраўлена вялікая колькасць памылак, інакш вы губляеце гэтую ёмістасць марна.

Пры гэтым даказаная вышэй тэарэма ўсё роўна не бессэнсоўная! Яна паказвае, што эфектыўныя сістэмы перадачы павінны выкарыстоўваць прадуманыя схемы кадавання вельмі доўгіх бітавых радкоў. Прыкладам з'яўляюцца спадарожнікі, якія паляцелі за межы знешніх планеты; па меры выдалення ад Зямлі і Сонцы яны змушаныя выпраўляць усё большую і большую колькасць памылак у блоку дадзеных: некаторыя спадарожнікі выкарыстоўваюць сонечныя батарэі, якія даюць каля 5 Вт, іншыя выкарыстоўваюць атамныя крыніцы харчавання, якія даюць прыкладна тую ж магутнасць. Слабая магутнасць крыніцы харчавання, невялікія памеры талерак перадатчыкаў і абмежаваныя памеры талерак прымачоў на Зямлі, велізарная адлегласць, якое павінен пераадолець сігнал - усё гэта патрабуе выкарыстання кодаў з высокім узроўнем карэкцыі памылак для пабудовы эфектыўнай сістэмы сувязі.

Вернемся да n-мернай прасторы, якую мы выкарыстоўвалі ў доказе вышэй. Абмяркоўваючы яго, мы паказалі, што амаль увесь аб'ём сферы засяроджаны каля вонкавай паверхні, такім чынам, амаль напэўна адпраўлены сігнал будзе размяшчацца ў паверхні сферы, пабудаванай вакол прынятага сігналу, нават пры адносна невялікім радыусе такой сферы. Таму не дзіўна, што прыняты сігнал пасля выпраўлення адвольна вялікай колькасці памылак, nQ, апыняецца калі заўгодна блізкі да сігналу без памылак. Ёмістасць канала сувязі, якую мы разгледзелі раней, з'яўляецца ключом да разумення гэтай з'явы. Звярніце ўвагу, што падобныя сферы, пабудаваныя для кодаў Хэмінга з выпраўленнем памылак, не перакрываюць адзін аднаго. Вялікая колькасць практычна артаганальных вымярэнняў у n-мернай прасторы паказваюць, чаму мы можам змясціць M сфер у прасторы з невялікім перакрыццем. Калі дапусціць невялікае, калі заўгодна малое перакрыцце, якія можа прыводзіць толькі да невялікай колькасці памылак пры дэкадаванні можна атрымаць шчыльнае размяшчэнне сфер у прасторы. Хэмінг гарантаваў пэўны ўзровень выпраўлення памылак, Шэнан – нізкую верагоднасць памылкі, але пры гэтым захаванне фактычнай прапускной здольнасці калі заўгодна блізкай да ёмістасці канала сувязі, чаго коды Хэмінга зрабіць не могуць.

Тэорыя інфармацыі не гаворыць аб тым, як спраектаваць эфектыўную сістэму, але яна паказвае кірунак руху ў бок эфектыўных сістэм сувязі. Гэта каштоўны інструмент для пабудовы сістэм сувязі паміж машынамі, але, як адзначалася раней, яна не мае асаблівага дачынення да таго, як людзі абменьваюцца інфармацыяй паміж сабой. Ступень, у якой біялагічнае ўспадкоўванне падобна тэхнічным сістэм сувязі, папросту невядомая, таму ў сапраўдны момант не зразумела, наколькі тэорыя інфармацыі дастасавальная да генаў. Нам не застаецца нічога іншага, як проста паспрабаваць, і калі поспех пакажа нам машынападобны характар ​​гэтай з'явы, то няўдача пакажа на іншыя істотныя аспекты прыроды інфармацыі.

Давайце не шмат адцягнемся. Мы бачылі, што ўсе першапачатковыя азначэнні, у большай ці меншай ступені, павінны выяўляць сутнасць нашых першапачатковых перакананняў, але ім уласціва некаторая ступень скажэння, і таму яны аказваюцца не дастасавальныя. Традыцыйна прынята, што, у канчатковым рахунку, вызначэнне, якое мы выкарыстоўваем, фактычна вызначае сутнасць; але гэта толькі паказвае нам, як апрацоўваць рэчы і ніякім чынам не нясе нам ніякага сэнсу. Пастулацыйны падыход, гэтак моцна ўхвалены ў матэматычных колах, вымушае жадаць лепшага на практыцы.

Цяпер мы разгледзім прыклад тэстаў на IQ, дзе вызначэнне з'яўляецца настолькі цыклічным, наколькі вам гэта заўгодна, і як следства ўводзіць вас у зман. Ствараецца тэст, які, як мяркуецца, павінен вымераць інтэлект. Пасля ён пераглядаецца, што быць зрабіць яго максімальна паслядоўным, наколькі гэта магчыма, а затым яго публікуюць і простым метадам калібруюць такім чынам, каб вымяраны "інтэлект" апынуўся звычайна размеркаваным (вядома ж па крывой каліброўцы). Усе азначэнні павінны пераправярацца, не толькі калі яны ўпершыню прапанаваны, але і нашмат пазней, калі яны выкарыстоўваюцца ў зробленых высновах. У якой ступені межы азначэнняў падыходзяць для развязальнай задачы? Як часта вызначэнні, дадзеныя ў адных умовах, пачынаюць прымяняцца ў дастаткова адрозных умовах? Такое сустракаецца дастаткова часта! У гуманітарных навуках, з якімі вы непазбежна сутыкнецеся ў вашым жыцці, гэта адбываецца часцей.

Такім чынам, адной з мэт гэтай прэзентацыі тэорыі інфармацыі, акрамя дэманстрацыі яе карыснасці, з'яўлялася папярэджанне вас аб гэтай небяспецы, або дэманстрацыя таго, як менавіта яе выкарыстоўваць для атрымання жаданага выніку. Даўно заўважана, што першапачатковыя азначэнні абумоўліваюць тое, што вы знаходзіце ў выніку, у значна ў большай меры, чым здаецца. Першапачатковыя азначэнні патрабуюць ад вас вялікай увагі не толькі ў любой новай сітуацыі, але і ў абласцях, з якімі вы даўно працуеце. Гэта дазволіць вам зразумець, у якой меры атрыманыя вынікі з'яўляюцца таўталогіяй, а не чымсьці карысным.

Вядомая гісторыя Эдынгтана апавядае аб людзях, якія лавілі рыбу ў моры з сеткай. Вывучыўшы памер рыб, якія яны злавілі, яны вызначылі мінімальны памер рыбы, якая водзіцца ў моры! Іх выснова была абумоўлена выкарыстоўванай прыладай, а не рэчаіснасцю.

Працяг будзе…

Хто хоча дапамагчы з перакладам, вёрсткай і выданнем кнігі - пішыце ў твары ці на пошту [электронная пошта абаронена]

Дарэчы, мы яшчэ запусцілі пераклад яшчэ адной крутой кнігі. "The Dream Machine: Гісторыя кампутарнай рэвалюцыі")

Асоба шукаем тых, хто дапаможа перавесці бонусны раздзел, якая ёсць толькі на відэа, (пераводзім па 10 хвілін, першыя 20 ужо ўзялі)

Змест кнігі і перакладзеныя часткіПрадмова

  1. Intro to The Art of Doing Science and Engineering: Learning to Learn (March 28, 1995) Пераклад: Кіраўнік 1
  2. "Foundations of the Digital (Discrete) Revolution" (March 30, 1995) Кіраўнік 2. Асновы лічбавай (дыскрэтнай) рэвалюцыі
  3. "History of Computers - Hardware" (March 31, 1995) Кіраўнік 3. Гісторыя кампутараў - жалеза
  4. "History of Computers - Software" (April 4, 1995) Кіраўнік 4. Гісторыя кампутараў - Софт
  5. "History of Computers - Applications" (April 6, 1995) Кіраўнік 5. Гісторыя кампутараў - практычнае прымяненне
  6. "Artificial Intelligence – Part I" (April 7, 1995) Кіраўнік 6. Штучны інтэлект - 1
  7. "Artificial Intelligence – Part II" (April 11, 1995) Кіраўнік 7. Штучны інтэлект - II
  8. "Artificial Intelligence III" (April 13, 1995) Раздзел 8. Штучны інтэлект-III
  9. "n-Dimensional Space" (April 14, 1995) Кіраўнік 9. N-мернае прастору
  10. "Coding Theory - The Representation of Information, Part I" (18/1995/XNUMX, XNUMX) Кіраўнік 10. Тэорыя кадавання - I
  11. "Coding Theory - The Representation of Information, Part II" (20/1995/XNUMX, XNUMX) Кіраўнік 11. Тэорыя кадавання - II
  12. "Error-Correcting Codes" (21/1995/XNUMX, XNUMX) Кіраўнік 12. Коды з карэкцыяй памылак
  13. "Information Theory" (25/1995/XNUMX, XNUMX) Кіраўнік 13. Тэорыя інфармацыі
  14. "Digital Filters, Part I" (27/1995/XNUMX, XNUMX) Кіраўнік 14. Лічбавыя фільтры - 1
  15. "Digital Filters, Part II" (28/1995/XNUMX, XNUMX) Кіраўнік 15. Лічбавыя фільтры - 2
  16. "Digital Filters, Part III" (May 2, 1995) Кіраўнік 16. Лічбавыя фільтры - 3
  17. "Digital Filters, Part IV" (May 4, 1995) Кіраўнік 17. Лічбавыя фільтры - IV
  18. "Simulation, Part I" (May 5, 1995) Кіраўнік 18. Мадэляванне - I
  19. "Simulation, Part II" (May 9, 1995) Кіраўнік 19. Мадэляванне - II
  20. "Simulation, Part III" (May 11, 1995) Кіраўнік 20. Мадэляванне - III
  21. Fiber Optics (May 12, 1995) Кіраўнік 21. Валаконная оптыка
  22. "Computer Aided Instruction" (May 16, 1995) Кіраўнік 22. Навучанне з дапамогай кампутара (CAI)
  23. "Mathematics" (May 18, 1995) Кіраўнік 23. Матэматыка
  24. "Quantum Mechanics" (May 19, 1995) Кіраўнік 24. Квантавая механіка
  25. "Creativity" (May 23, 1995). Пераклад: Кіраўнік 25. Крэатыўнасць
  26. "Experts" (May 25, 1995) Кіраўнік 26. Эксперты
  27. "Unreliable Data" (May 26, 1995) Кіраўнік 27. Няпэўныя дадзеныя
  28. "Systems Engineering" (May 30, 1995) Кіраўнік 28. Сістэмная Інжынерыя
  29. "You Get What You Measure" (June 1, 1995) Кіраўнік 29. Вы атрымліваеце тое, што вы вымяраеце
  30. «Якае каханне What We Know» (Чэрвень 2, 1995) перакладаем па 10 хвілінным кавалачкам
  31. Hamming, "You and Your Research" (June 6, 1995). Пераклад: Вы і ваша праца

Хто хоча дапамагчы з перакладам, вёрсткай і выданнем кнігі - пішыце ў твары ці на пошту [электронная пошта абаронена]

Крыніца: habr.com

Дадаць каментар