Richard Hamming: 13 වන පරිච්ඡේදය. තොරතුරු න්‍යාය

අපි ඒක කළා!

"මෙම පාඨමාලාවේ අරමුණ ඔබගේ තාක්ෂණික අනාගතය සඳහා ඔබව සූදානම් කිරීමයි."

Richard Hamming: 13 වන පරිච්ඡේදය. තොරතුරු න්‍යායහෙලෝ, හබ්ර්. අපූරු ලිපිය මතක තබා ගන්න "ඔබ සහ ඔබේ වැඩ" (+219, 2588 පිටුසන්, 429k කියවීම්)?

ඉතින් Hamming (ඔව්, ඔව්, ස්වයං-අධීක්ෂණය සහ ස්වයං-නිවැරදි කිරීම Hamming කේත) සමස්තයක් ඇත පොතක්, ඔහුගේ දේශන පදනම් කරගෙන ලියා ඇත. අපි එය පරිවර්තනය කරන්නේ, මිනිසා ඔහුගේ මනස කතා කරන බැවිනි.

මෙය තොරතුරු තාක්‍ෂණය ගැන පමණක් නොව, ඇදහිය නොහැකි තරම් සිසිල් මිනිසුන්ගේ චින්තන විලාසය පිළිබඳ පොතකි. “එය ධනාත්මක චින්තනයේ තල්ලුවක් පමණක් නොවේ; එය විශිෂ්ට කාර්යයක් කිරීමේ අවස්ථා වැඩි කරන කොන්දේසි විස්තර කරයි.

පරිවර්තනය සඳහා Andrey Pakhomov ට ස්තූතියි.

1940 ගණන්වල අගභාගයේදී C. E. Shannon විසින් තොරතුරු න්‍යාය වර්ධනය කරන ලදී. බෙල් ලැබ්ස් කළමනාකාරීත්වය ඔහු එය "සන්නිවේදන න්‍යාය" ලෙස හඳුන්වන බව තරයේ කියා සිටියේ... මෙය වඩාත් නිවැරදි නමකි. පැහැදිලි හේතූන් මත, "තොරතුරු න්‍යාය" යන නම මහජනතාවට වඩා විශාල බලපෑමක් ඇති කරයි, එබැවින් ෂැනන් එය තෝරා ගත්තේ එබැවිනි, එය අද දක්වාම අප දන්නා නමයි. නමම යෝජනා කරන්නේ න්‍යාය තොරතුරු සමඟ කටයුතු කරන බවයි, එය අප තොරතුරු යුගයට ගැඹුරට ගමන් කරන විට එය වැදගත් කරයි. මෙම පරිච්ඡේදයේ දී, මම මෙම න්‍යායෙන් ප්‍රධාන නිගමන කිහිපයක් ස්පර්ශ කරමි, මම මෙම න්‍යායේ සමහර තනි විධිවිධාන පිළිබඳ දැඩි නොව, නමුත් බුද්ධිමය සාක්ෂි සපයන්නෙමි, එවිට ඔබට “තොරතුරු න්‍යාය” යනු කුමක්දැයි තේරුම් ගත හැකිය, ඔබට එය යෙදිය හැකි තැන. සහ කොහෙද .

පළමුවෙන්ම, "තොරතුරු" යනු කුමක්ද? ෂැනන් තොරතුරු අවිනිශ්චිතතාවයට සමාන කරයි. ඔහු p සම්භාවිතාව සහිත සිදුවීමක් සිදු වූ විට ඔබට ලැබෙන තොරතුරුවල ප්‍රමාණාත්මක මිනුමක් ලෙස සිදුවීමක සම්භාවිතාවේ සෘණ ලඝුගණකය තෝරා ගත්තේය. උදාහරණයක් ලෙස, ලොස් ඇන්ජලීස් හි කාලගුණය මීදුම සහිත බව මම ඔබට පැවසුවහොත්, p අගය 1 ට ආසන්න වේ, එය ඇත්ත වශයෙන්ම අපට වැඩි තොරතුරු ලබා නොදේ. නමුත් ජූනි මාසයේදී මොන්ටෙරේ වැස්සක් වැටෙන බව මා පැවසුවහොත්, පණිවිඩයේ අවිනිශ්චිතතාවයක් ඇති අතර එය තවත් තොරතුරු අඩංගු වේ. ලොග් 1 = 0 බැවින් විශ්වාසදායක සිදුවීමක කිසිදු තොරතුරක් අඩංගු නොවේ.

අපි මෙය වඩාත් විස්තරාත්මකව බලමු. ෂැනොන් විශ්වාස කළේ තොරතුරුවල ප්‍රමාණාත්මක මිනුම සිදුවීමක p සම්භාවිතාවේ අඛණ්ඩ ශ්‍රිතයක් විය යුතු බවත් ස්වාධීන සිදුවීම් සඳහා එය ආකලන විය යුතු බවත්ය - ස්වාධීන සිදුවීම් දෙකක් සිදුවීමේ ප්‍රතිඵලයක් ලෙස ලබාගත් තොරතුරු ප්‍රමාණය සමාන විය යුතුය. ඒකාබද්ධ සිදුවීමක් සිදුවීමේ ප්රතිඵලයක් ලෙස ලබාගත් තොරතුරු ප්රමාණය. උදාහරණයක් ලෙස, ඩයිස් රෝල් සහ කාසි රෝල් වල ප්රතිඵලය සාමාන්යයෙන් ස්වාධීන සිදුවීම් ලෙස සලකනු ලැබේ. ඉහත කරුණු අපි ගණිත භාෂාවට පරිවර්තනය කරමු. I (p) යනු p සම්භාවිතාව සහිත සිදුවීමක අඩංගු තොරතුරු ප්‍රමාණය නම්, ස්වාධීන සිදුවීම් දෙකකින් සමන්විත ඒකාබද්ධ සිදුවීමක් සඳහා x සම්භාවිතාව p1 සහ y සම්භාවිතාව p2 සමඟ අපි ලබා ගනිමු.

Richard Hamming: 13 වන පරිච්ඡේදය. තොරතුරු න්‍යාය
(x සහ y ස්වාධීන සිදුවීම් වේ)

මෙය ක්‍රියාකාරී Cauchy සමීකරණයයි, සියලුම p1 සහ p2 සඳහා සත්‍ය වේ. මෙම ක්‍රියාකාරී සමීකරණය විසඳීමට, එය උපකල්පනය කරන්න

p1 = p2 = p,

මෙය ලබා දෙයි

Richard Hamming: 13 වන පරිච්ඡේදය. තොරතුරු න්‍යාය

p1 = p2 සහ p2 = p නම්

Richard Hamming: 13 වන පරිච්ඡේදය. තොරතුරු න්‍යාය

ආදිය ඝාතීය සඳහා සම්මත ක්‍රමය භාවිතා කරමින් මෙම ක්‍රියාවලිය දිගු කිරීම, සියලුම තාර්කික සංඛ්‍යා m/n සඳහා පහත සඳහන් දේ සත්‍ය වේ

Richard Hamming: 13 වන පරිච්ඡේදය. තොරතුරු න්‍යාය

තොරතුරු මිනුමෙහි උපකල්පිත අඛණ්ඩතාවයෙන්, Cauchy ක්රියාකාරී සමීකරණය සඳහා එකම අඛණ්ඩ විසඳුම ලඝුගණක ශ්රිතය බව අනුගමනය කරයි.

තොරතුරු න්‍යායේ දී, ලඝුගණක පදනම 2 ලෙස ගැනීම සාමාන්‍ය දෙයකි, එබැවින් ද්විමය තේරීමක හරියටම තොරතුරු බිට් 1 ක් අඩංගු වේ. එබැවින් තොරතුරු සූත්රය මගින් මනිනු ලැබේ

Richard Hamming: 13 වන පරිච්ඡේදය. තොරතුරු න්‍යාය

අපි විරාමයක් තබා ඉහත සිදු වූ දේ තේරුම් ගනිමු. පළමුවෙන්ම, අපි "තොරතුරු" යන සංකල්පය නිර්වචනය නොකළෙමු; අපි එහි ප්‍රමාණාත්මක මිනුම සඳහා සූත්‍රය සරලව නිර්වචනය කළෙමු.

දෙවනුව, මෙම මිනුම අවිනිශ්චිතතාවයට යටත් වන අතර, එය යන්ත්‍ර සඳහා සාධාරණ ලෙස යෝග්‍ය වුවද-උදාහරණයක් ලෙස, දුරකථන පද්ධති, ගුවන්විදුලිය, රූපවාහිනිය, පරිගණක යනාදිය - එය තොරතුරු සම්බන්ධයෙන් සාමාන්‍ය මානව ආකල්ප පිළිබිඹු නොකරයි.

තෙවනුව, මෙය සාපේක්ෂ මිනුමකි, එය ඔබගේ දැනුමේ වත්මන් තත්ත්වය මත රඳා පවතී. ඔබ අහඹු සංඛ්‍යා උත්පාදක යන්ත්‍රයකින් “අහඹු සංඛ්‍යා” ප්‍රවාහයක් දෙස බැලුවහොත්, එක් එක් ඊළඟ සංඛ්‍යාව අවිනිශ්චිත බව ඔබ උපකල්පනය කරයි, නමුත් “අහඹු සංඛ්‍යා” ගණනය කිරීමේ සූත්‍රය ඔබ දන්නේ නම්, ඊළඟ අංකය දැනගත හැකි අතර, එබැවින් එසේ නොවේ. තොරතුරු අඩංගු වේ.

එබැවින් ෂැනොන්ගේ තොරතුරු නිර්වචනය බොහෝ අවස්ථාවල යන්ත්‍ර සඳහා සුදුසු නමුත් වචනය පිළිබඳ මිනිස් අවබෝධයට නොගැලපෙන බව පෙනේ. “තොරතුරු න්‍යාය” “සන්නිවේදන න්‍යාය” ලෙස හැඳින්විය යුතුව තිබුණේ මේ හේතුව නිසා ය. කෙසේ වෙතත්, නිර්වචන වෙනස් කිරීමට ප්‍රමාද වැඩියි (මෙය න්‍යායට එහි මුල් ජනප්‍රියත්වය ලබා දුන් අතර, මෙම න්‍යාය “තොරතුරු” සමඟ ගනුදෙනු කරන බව තවමත් මිනිසුන් සිතීමට සලස්වයි), එබැවින් අපට ඔවුන් සමඟ ජීවත් වීමට සිදු වේ, නමුත් ඒ සමඟම ඔබ කළ යුතුය ෂැනොන්ගේ තොරතුරු අර්ථ දැක්වීම එහි බහුලව භාවිතා වන අර්ථයෙන් කෙතරම් දුරස් දැයි පැහැදිලිව වටහා ගන්න. ෂැනොන්ගේ තොරතුරු සම්පූර්ණයෙන්ම වෙනස් දෙයක් සමඟ කටයුතු කරයි, එනම් අවිනිශ්චිතතාවය.

ඔබ කිසියම් පාරිභාෂිතයක් යෝජනා කරන විට සිතන්නට දෙයක් තිබේ. ෂැනොන්ගේ තොරතුරු පිළිබඳ නිර්වචනය වැනි යෝජිත නිර්වචනයක් ඔබේ මුල් අදහස සමඟ එකඟ වන්නේ කෙසේද සහ එය කෙතරම් වෙනස්ද? සංකල්පයක් පිළිබඳ ඔබේ පෙර දැක්ම හරියටම පිළිබිඹු කරන යෙදුමක් නොමැති තරම්ය, නමුත් අවසානයේ, එය සංකල්පයේ අර්ථය පිළිබිඹු කරන පාරිභාෂිතය වේ, එබැවින් පැහැදිලි අර්ථ දැක්වීම් හරහා යමක් විධිමත් කිරීම සැමවිටම යම් ශබ්දයක් හඳුන්වා දෙයි.

pi සම්භාවිතා සහිත q සංකේත වලින් හෝඩියේ අඩංගු පද්ධතියක් සලකා බලන්න. මේ අවස්ථාවේ දී සාමාන්ය තොරතුරු ප්රමාණය පද්ධතියේ (එහි අපේක්ෂිත අගය) සමාන වේ:

Richard Hamming: 13 වන පරිච්ඡේදය. තොරතුරු න්‍යාය

මෙය සම්භාවිතා ව්‍යාප්තිය {pi} සහිත පද්ධතියේ එන්ට්‍රොපිය ලෙස හැඳින්වේ. අපි "එන්ට්‍රොපි" යන යෙදුම භාවිතා කරන්නේ එකම ගණිතමය ස්වරූපය තාප ගති විද්‍යාවේ සහ සංඛ්‍යාන යාන්ත්‍ර විද්‍යාවේ දිස්වන බැවිනි. "එන්ට්‍රොපි" යන යෙදුම අවසානයේ යුක්තිසහගත නොවන යම් වැදගත්කමක් ඇති ප්‍රබෝධයක් නිර්මාණය කරන්නේ එබැවිනි. එකම ගණිතමය අංකනය සංකේතවල එකම අර්ථකථනය අදහස් නොකරයි!

කේතීකරණ සිද්ධාන්තයේ දී සම්භාවිතා ව්‍යාප්තියේ එන්ට්‍රොපිය ප්‍රධාන කාර්යභාරයක් ඉටු කරයි. pi සහ qi යන විවිධ සම්භාවිතා බෙදාහැරීම් දෙකක් සඳහා වන ගිබ්ස් අසමානතාවය මෙම න්‍යායේ වැදගත් ප්‍රතිවිපාකවලින් එකකි. ඒ නිසා අපි එය ඔප්පු කළ යුතුයි

Richard Hamming: 13 වන පරිච්ඡේදය. තොරතුරු න්‍යාය

සාධනය පැහැදිලි ප්‍රස්ථාරයක් මත පදනම් වේ, Fig. 13.I, එය පෙන්නුම් කරයි

Richard Hamming: 13 වන පරිච්ඡේදය. තොරතුරු න්‍යාය

සහ සමානාත්මතාවය සාක්ෂාත් කරගනු ලබන්නේ x = 1 විට පමණි. අපි වම් පැත්තේ සිට එකතුවේ එක් එක් පදයට අසමානතාවය යොදමු:

Richard Hamming: 13 වන පරිච්ඡේදය. තොරතුරු න්‍යාය

සන්නිවේදන පද්ධතියක හෝඩිය q සංකේත වලින් සමන්විත නම්, එක් එක් සංකේතය qi = 1/q සම්ප්‍රේෂණය කිරීමේ සම්භාවිතාව ගෙන q ආදේශ කිරීමෙන්, අපි Gibbs අසමානතාවයෙන් ලබා ගනිමු.

Richard Hamming: 13 වන පරිච්ඡේදය. තොරතුරු න්‍යාය

Richard Hamming: 13 වන පරිච්ඡේදය. තොරතුරු න්‍යාය

රූපය 13.I

මෙයින් අදහස් කරන්නේ සියලුම q සංකේත සම්ප්‍රේෂණය කිරීමේ සම්භාවිතාව සමාන නම් - 1 / q ට සමාන නම්, උපරිම එන්ට්‍රොපිය ln q ට සමාන වේ, එසේ නොමැති නම් අසමානතාවය පවතිනු ඇත.

අද්විතීය ලෙස විකේතනය කළ හැකි කේතයක් සම්බන්ධයෙන්, අපට Kraft හි අසමානතාවය ඇත

Richard Hamming: 13 වන පරිච්ඡේදය. තොරතුරු න්‍යාය

දැන් අපි ව්යාජ සම්භාවිතාවන් නිර්වචනය කළහොත්

Richard Hamming: 13 වන පරිච්ඡේදය. තොරතුරු න්‍යාය

ඇත්තෙන්ම කොහෙද Richard Hamming: 13 වන පරිච්ඡේදය. තොරතුරු න්‍යාය= 1, එය ගිබ්ස්ගේ අසමානතාවයෙන් අනුගමනය කරයි,

Richard Hamming: 13 වන පරිච්ඡේදය. තොරතුරු න්‍යාය

සහ කුඩා වීජ ගණිතය යොදන්න (K ≤ 1 බව මතක තබා ගන්න, එවිට අපට ලඝුගණක පදය අත්හැරිය හැක, සමහර විට අසමානතාවය පසුව ශක්තිමත් කළ හැක), අපට ලැබේ

Richard Hamming: 13 වන පරිච්ඡේදය. තොරතුරු න්‍යාය

මෙහි L යනු සාමාන්‍ය කේත දිග වේ.

මේ අනුව, එන්ට්‍රොපිය යනු සාමාන්‍ය කේත වචන දිග L සහිත ඕනෑම අක්ෂර-අනුව-සංකේත කේතයක් සඳහා වන අවම බැඳීමයි. මෙය බාධා රහිත නාලිකාවක් සඳහා වන ෂැනොන්ගේ ප්‍රමේය වේ.

ස්වාධීන බිටු ප්‍රවාහයක් ලෙස තොරතුරු සම්ප්‍රේෂණය වන සහ ශබ්දය පවතින සන්නිවේදන පද්ධතිවල සීමාවන් පිළිබඳ ප්‍රධාන ප්‍රමේයය දැන් සලකා බලන්න. එක් බිට් එකක නිවැරදි සම්ප්‍රේෂණයේ සම්භාවිතාව P > 1/2 වන අතර, සම්ප්‍රේෂණයේදී බිට් අගය ප්‍රතිලෝම වීමේ සම්භාවිතාව (දෝෂයක් සිදුවනු ඇත) Q = 1 - P ට සමාන වේ. පහසුව සඳහා, අපි දෝෂ ස්වාධීන වන අතර දෝෂයක සම්භාවිතාව එක් එක් යවන ලද බිටු සඳහා සමාන වේ - එනම් සන්නිවේදන නාලිකාවේ "සුදු ශබ්දය" ඇත.

එක් පණිවිඩයකට n බිටු වල දිගු ප්‍රවාහයක් කේතනය කර ඇති ආකාරය වන්නේ එක්-බිට් කේතයේ n - මාන දිගුවයි. අපි පසුව n අගය තීරණය කරමු. n-dimensional අවකාශයේ ලක්ෂ්‍යයක් ලෙස n-bits වලින් සමන්විත පණිවිඩයක් සලකා බලන්න. අපට n-dimensional ඉඩක් ඇති බැවින් - සහ සරල බව සඳහා අපි සෑම පණිවිඩයකටම එකම සිදුවීමේ සම්භාවිතාව ඇති බව උපකල්පනය කරමු - M හැකි පණිවිඩ ඇත (M ද පසුව අර්ථ දක්වනු ඇත), එබැවින් යවන ඕනෑම පණිවිඩයක සම්භාවිතාව වේ.

Richard Hamming: 13 වන පරිච්ඡේදය. තොරතුරු න්‍යාය

Richard Hamming: 13 වන පරිච්ඡේදය. තොරතුරු න්‍යාය
(යවන්නා)
උපලේඛනය 13.II

ඊළඟට, නාලිකා ධාරිතාව පිළිබඳ අදහස සලකා බලන්න. විස්තර වලට නොගොස්, වඩාත් කාර්යක්ෂම කේතීකරණයේ භාවිතය සැලකිල්ලට ගනිමින් සන්නිවේදන නාලිකාවක් හරහා විශ්වාසදායක ලෙස සම්ප්‍රේෂණය කළ හැකි උපරිම තොරතුරු ප්‍රමාණය නාලිකා ධාරිතාව ලෙස අර්ථ දැක්වේ. සන්නිවේදන නාලිකාවක් හරහා එහි ධාරිතාවට වඩා වැඩි තොරතුරු සම්ප්‍රේෂණය කළ හැකි බවට තර්කයක් නොමැත. ද්විමය සමමිතික නාලිකාවක් සඳහා මෙය ඔප්පු කළ හැකිය (අපගේ නඩුවේදී අප භාවිතා කරන). නාලිකා ධාරිතාව, බිටු යැවීමේදී, ලෙස දක්වා ඇත

Richard Hamming: 13 වන පරිච්ඡේදය. තොරතුරු න්‍යාය

එහිදී, පෙර මෙන්, P යනු කිසියම් යවන ලද බිට් එකක දෝෂයක් නොමැති වීමේ සම්භාවිතාවයි. n ස්වාධීන බිටු යවන විට, නාලිකා ධාරිතාව ලබා දෙනු ලැබේ

Richard Hamming: 13 වන පරිච්ඡේදය. තොරතුරු න්‍යාය

අපි නාලිකා ධාරිතාවට ආසන්න නම්, අපි ai, i = 1, ..., M යන එක් එක් සංකේත සඳහා මෙතරම් තොරතුරු ප්‍රමාණයක් යැවිය යුතුය. එක් එක් ai සංකේතය ඇතිවීමේ සම්භාවිතාව 1 / M බව සලකන විට, අපට ලැබෙනවා

Richard Hamming: 13 වන පරිච්ඡේදය. තොරතුරු න්‍යාය

අපි M සමානව සම්භාවිතාව ඇති ඕනෑම පණිවිඩයක් යවන විට ai, අප සතුව ඇත

Richard Hamming: 13 වන පරිච්ඡේදය. තොරතුරු න්‍යාය

n බිටු යවන විට, nQ දෝෂ ඇතිවේ යැයි අපි බලාපොරොත්තු වෙමු. ප්‍රායෝගිකව, n-bits වලින් සමන්විත පණිවිඩයක් සඳහා, අපට ලැබුණු පණිවිඩයේ ආසන්න වශයෙන් nQ දෝෂ ඇත. විශාල n සඳහා, සාපේක්ෂ විචලනය (විචලනය = බෙදා හැරීමේ පළල, )
n වැඩි වන විට දෝෂ සංඛ්‍යාවේ ව්‍යාප්තිය වඩ වඩාත් පටු වේ.

ඉතින්, සම්ප්‍රේෂක පැත්තෙන්, මම යැවීමට ai පණිවිඩය ගෙන එය වටා අරයක් සහිත ගෝලයක් අඳින්නෙමි.

Richard Hamming: 13 වන පරිච්ඡේදය. තොරතුරු න්‍යාය

අපේක්ෂිත දෝෂ ගණනට වඩා e2 ට සමාන ප්‍රමාණයකින් තරමක් විශාල වන Q, (Figure 13.II). n ප්‍රමාණවත් තරම් විශාල නම්, මෙම ගෝලයෙන් ඔබ්බට විහිදෙන ග්‍රාහක පැත්තේ bj පණිවිඩ ලක්ෂ්‍යයක අත්තනෝමතික ලෙස කුඩා සම්භාවිතාවක් ඇත. සම්ප්‍රේෂකයේ දෘෂ්ටිකෝණයෙන් මා දකින ආකාරයට තත්වය සටහන් කරමු: සම්ප්‍රේෂණය කරන ලද පණිවිඩය ai සිට ලැබුණු පණිවිඩය bj දක්වා අපට ඕනෑම රේඩියක් ඇති අතර සාමාන්‍ය ව්‍යාප්තියට සමාන (හෝ පාහේ සමාන) දෝෂයක් ඇතිවීමේ සම්භාවිතාව උපරිමයට ළඟා වේ. nQ හි. ලබා දී ඇති ඕනෑම e2 සඳහා, n ඉතා විශාල වන අතර එහි ප්‍රතිඵලය වන ලක්ෂ්‍යය bj මගේ ගෝලයෙන් පිටත වීමේ සම්භාවිතාව ඔබ කැමති තරම් කුඩා වේ.

දැන් අපි ඔබේ පැත්තෙන් එකම තත්වය දෙස බලමු (රූපය 13.III). ග්‍රාහක පැත්තේ n-මාන අවකාශයේ ලැබුණු ලක්ෂ්‍යය bj වටා එකම අරයේ S(r) ගෝලයක් ඇත, එනම් ලැබුණු පණිවිඩය bj මගේ ගෝලය තුළ තිබේ නම්, මා විසින් එවන ලද ai පණිවිඩය ඔබේ තුළ ඇත. ගෝලය.

දෝෂයක් ඇතිවිය හැක්කේ කෙසේද? පහත වගුවේ විස්තර කර ඇති අවස්ථා වලදී දෝෂය සිදුවිය හැකිය:

Richard Hamming: 13 වන පරිච්ඡේදය. තොරතුරු න්‍යාය

රූපය 13.III

Richard Hamming: 13 වන පරිච්ඡේදය. තොරතුරු න්‍යාය

ලැබුණු ලක්ෂ්‍යය වටා ගොඩනගා ඇති ගෝලයේ යවන ලද කේතනය නොකළ පණිවිඩයකට අනුරූප අවම වශයෙන් තවත් ලක්ෂ්‍යයක් තිබේ නම්, සම්ප්‍රේෂණය කිරීමේදී දෝෂයක් ඇති වූ බැවින්, මෙම පණිවිඩ වලින් කුමන පණිවිඩයක් සම්ප්‍රේෂණය වූයේ දැයි ඔබට තීරණය කළ නොහැකි බව මෙහිදී අපට පෙනේ. යවන ලද පණිවිඩය දෝෂ රහිත වන්නේ එයට අනුරූප ලක්ෂ්‍යය ගෝලයේ තිබේ නම් පමණක් වන අතර, එම ගෝලයේම ඇති කේතයේ වෙනත් ලකුණු නොමැති නම් පමණි.

ai පණිවිඩය යවා ඇත්නම් Pe දෝෂයේ සම්භාවිතාව සඳහා ගණිතමය සමීකරණයක් අප සතුව ඇත

Richard Hamming: 13 වන පරිච්ඡේදය. තොරතුරු න්‍යාය

අපට දෙවන වාරයේ දී පළමු සාධකය ඉවත දැමිය හැකිය, එය 1 ලෙස ගත හැකිය. මේ අනුව අපට අසමානතාවය ලැබේ

Richard Hamming: 13 වන පරිච්ඡේදය. තොරතුරු න්‍යාය

නිසැකවම,

Richard Hamming: 13 වන පරිච්ඡේදය. තොරතුරු න්‍යාය

එහෙයින්

Richard Hamming: 13 වන පරිච්ඡේදය. තොරතුරු න්‍යාය

දකුණු පස ඇති අවසාන වාරයට නැවත අයදුම් කරන්න

Richard Hamming: 13 වන පරිච්ඡේදය. තොරතුරු න්‍යාය

n ප්‍රමාණවත් ලෙස ගත් විට, පළමු වාරය අවශ්‍ය තරම් කුඩා ලෙස ගත හැකිය, සමහර සංඛ්‍යා d ට වඩා අඩුවෙන් කියන්න. එබැවින් අපට තිබේ

Richard Hamming: 13 වන පරිච්ඡේදය. තොරතුරු න්‍යාය

දැන් අපි බලමු n බිටු වලින් සමන්විත M පණිවිඩ කේතනය කිරීම සඳහා සරල ආදේශන කේතයක් සාදා ගන්නේ කෙසේදැයි බලමු. හරියටම කේතයක් ගොඩනගන්නේ කෙසේදැයි නොදැන (දෝෂ නිවැරදි කිරීමේ කේත තවම සොයාගෙන නොතිබුණි), ෂැනන් අහඹු කේතීකරණය තෝරා ගත්තේය. පණිවිඩයේ එක් එක් n බිටු සඳහා කාසියක් පෙරළන්න සහ M පණිවිඩ සඳහා ක්‍රියාවලිය නැවත කරන්න. සමස්තයක් වශයෙන්, nM කාසි පෙරළීම සිදු කළ යුතුය, එබැවින් එය කළ හැකිය

Richard Hamming: 13 වන පරිච්ඡේදය. තොරතුරු න්‍යාය

එකම සම්භාවිතාව ½nM සහිත කේත ශබ්දකෝෂ. ඇත්ත වශයෙන්ම, කේත පොතක් නිර්මාණය කිරීමේ අහඹු ක්‍රියාවලියෙන් අදහස් වන්නේ අනුපිටපත් ඇතිවීමේ හැකියාවක් මෙන්ම කේත ලක්ෂ්‍ය එකිනෙකට සමීප වන අතර එම නිසා විය හැකි දෝෂ වල ප්‍රභවයක් විය හැකි බවයි. කිසියම් කුඩා තෝරාගත් දෝෂ මට්ටමකට වඩා වැඩි සම්භාවිතාවක් සමඟ මෙය සිදු නොවන්නේ නම්, ලබා දී ඇති n ප්‍රමාණවත් තරම් විශාල බව යමෙකු ඔප්පු කළ යුතුය.
තීරණාත්මක කරුණ නම්, සාමාන්‍ය දෝෂය සොයා ගැනීමට ෂැනන් හැකි සියලුම කේත පොත් සාමාන්‍යකරණය කිරීමයි! හැකි සියලුම අහඹු කේත පොත් කට්ටලයට වඩා සාමාන්‍ය අගය දැක්වීමට අපි Av[.] සංකේතය භාවිතා කරමු. නියත d ට වඩා සාමාන්‍යය නියතයක් ලබා දෙයි, මන්ද එක් එක් පද සාමාන්‍යය සඳහා එකතුවේ අනෙක් සෑම පදයකටම සමාන වේ.

Richard Hamming: 13 වන පරිච්ඡේදය. තොරතුරු න්‍යාය

වැඩි කළ හැකි (M–1 M ට යයි)

Richard Hamming: 13 වන පරිච්ඡේදය. තොරතුරු න්‍යාය

ලබා දී ඇති ඕනෑම පණිවිඩයක් සඳහා, සියලුම කේත පොත් හරහා සාමාන්‍ය අගයක් ගන්නා විට, කේතීකරණය හැකි සියලු අගයන් හරහා දිව යයි, එබැවින් ලක්ෂ්‍යයක් ගෝලයක තිබීමේ සාමාන්‍ය සම්භාවිතාව යනු ගෝලයේ පරිමාවේ මුළු අවකාශයේ පරිමාවට අනුපාතයයි. ගෝලයේ පරිමාව වේ

Richard Hamming: 13 වන පරිච්ඡේදය. තොරතුරු න්‍යාය

මෙහි s=Q+e2 <1/2 සහ ns පූර්ණ සංඛ්‍යාවක් විය යුතුය.

දකුණු පස ඇති අවසාන පදය මෙම එකතුවෙන් විශාලතම වේ. පළමුව, සාධක සඳහා ස්ටර්ලිං සූත්‍රය භාවිතයෙන් එහි අගය තක්සේරු කරමු. ඉන්පසුව අපි එය ඉදිරියෙන් ඇති පදයේ අඩුවන සාධකය දෙස බලමු, අපි වමට යන විට මෙම සාධකය වැඩි වන බව සලකන්න, එවිට අපට: (1) එකතුවේ අගය ජ්‍යාමිතික ප්‍රගතියේ එකතුවට සීමා කළ හැක. මෙම ආරම්භක සංගුණකය, (2) ජ්‍යාමිතික ප්‍රගමනය ns පදවල සිට අසීමිත පද ගණනකට පුළුල් කරන්න, (3) අසීමිත ජ්‍යාමිතික ප්‍රගතියක ​​එකතුව (සම්මත වීජ ගණිතය, සැලකිය යුතු කිසිවක් නැත) ගණනය කර අවසානයේ සීමිත අගය (ප්‍රමාණවත් තරම් විශාල සඳහා) ලබා ගන්න. n):

Richard Hamming: 13 වන පරිච්ඡේදය. තොරතුරු න්‍යාය

ද්විපද අනන්‍යතාවයේ එන්ට්‍රොපිය H(s) දිස් වූ ආකාරය සැලකිල්ලට ගන්න. ටේලර් ශ්‍රේණියේ ප්‍රසාරණය H(s)=H(Q+e2) පළමු ව්‍යුත්පන්නය පමණක් සැලකිල්ලට ගෙන අනෙක් සියල්ල නොසලකා හරිමින් ලබාගත් ඇස්තමේන්තුවක් ලබා දෙන බව සලකන්න. දැන් අපි අවසාන ප්රකාශනය එකතු කරමු:

Richard Hamming: 13 වන පරිච්ඡේදය. තොරතුරු න්‍යාය

එහිදී

Richard Hamming: 13 වන පරිච්ඡේදය. තොරතුරු න්‍යාය

අප කළ යුත්තේ e2 < e3 වැනි e1 තෝරා ගැනීමයි, පසුව n ප්‍රමාණවත් තරම් විශාල වන තාක් අවසාන පදය අත්තනෝමතික ලෙස කුඩා වනු ඇත. එහි ප්‍රතිඵලයක් ලෙස, සාමාන්‍ය PE දෝෂය C ට අත්තනෝමතික ලෙස ආසන්න නාලිකා ධාරිතාව සමඟ අවශ්‍ය තරම් කුඩා ලබා ගත හැක.
සියලුම කේතවල සාමාන්‍ය ප්‍රමාණවත් තරම් කුඩා දෝෂයක් තිබේ නම්, අවම වශයෙන් එක් කේතයක් සුදුසු විය යුතුය, එබැවින් අවම වශයෙන් සුදුසු කේතීකරණ පද්ධතියක් තිබේ. මෙය ෂැනන් ලබා ගත් වැදගත් ප්‍රතිඵලයකි - "ඝෝෂාකාරී නාලිකාවක් සඳහා ෂැනන්ගේ ප්‍රමේයය", නමුත් ඔහු මෙය මා භාවිතා කළ සරල ද්විමය සමමිතික නාලිකාවට වඩා බොහෝ සාමාන්‍ය අවස්ථාවක් සඳහා ඔප්පු කළ බව සටහන් කළ යුතුය. සාමාන්‍ය අවස්ථාව සඳහා, ගණිතමය ගණනය කිරීම් වඩා සංකීර්ණ ය, නමුත් අදහස් එතරම් වෙනස් නොවේ, එබැවින් බොහෝ විට, විශේෂිත නඩුවක උදාහරණය භාවිතා කරමින්, ඔබට ප්‍රමේයයේ සැබෑ අර්ථය හෙළි කළ හැකිය.

ප්‍රතිඵලය විවේචනය කරමු. අපි නැවත නැවතත්: "ප්රමාණවත් තරම් විශාල n සඳහා." නමුත් n කොතරම් විශාලද? ඔබට නාලිකා ධාරිතාවට සමීප වීමට සහ නිවැරදි දත්ත හුවමාරුව පිළිබඳව සහතික වීමට අවශ්‍ය නම් ඉතා, ඉතා විශාලයි! කෙතරම් විශාලද යත්, ඇත්ත වශයෙන්ම, එය පසුව කේතනය කිරීමට ප්‍රමාණවත් බිටු සහිත පණිවිඩයක් රැස් කිරීමට ඔබට ඉතා දිගු කාලයක් බලා සිටීමට සිදුවනු ඇත. මෙම අවස්ථාවෙහිදී, සසම්භාවී කේත ශබ්ද කෝෂයේ ප්‍රමාණය සරලව විශාල වනු ඇත (සියල්ලට පසු, එවැනි ශබ්ද කෝෂයක් සියලුම Mn බිටු වල සම්පූර්ණ ලැයිස්තුවකට වඩා කෙටි ස්වරූපයෙන් නිරූපණය කළ නොහැක, n සහ M ඉතා විශාල වුවද)!

දෝෂ-නිවැරදි කිරීමේ කේත ඉතා දිගු පණිවිඩයක් බලා සිටීමෙන් වළකින අතර පසුව එය ඉතා විශාල කේත පොත් හරහා කේතනය කර විකේතනය කිරීම වළක්වන්නේ ඔවුන් කේත පොත් මගහැර සාමාන්‍ය ගණනය කිරීම් භාවිතා කරන බැවිනි. සරල න්‍යායට අනුව, එවැනි කේත නාලිකා ධාරිතාවට ප්‍රවේශ වීමේ හැකියාව අහිමි වන අතර තවමත් අඩු දෝෂ අනුපාතයක් පවත්වා ගෙන යයි, නමුත් කේතය විශාල දෝෂ සංඛ්‍යාවක් නිවැරදි කරන විට, ඒවා හොඳින් ක්‍රියාත්මක වේ. වෙනත් වචන වලින් කිවහොත්, ඔබ දෝෂ නිවැරදි කිරීමට යම් නාලිකා ධාරිතාවක් වෙන් කරන්නේ නම්, ඔබ බොහෝ විට දෝෂ නිවැරදි කිරීමේ හැකියාව භාවිතා කළ යුතුය, එනම්, යවන සෑම පණිවිඩයකම දෝෂ විශාල ප්‍රමාණයක් නිවැරදි කළ යුතුය, එසේ නොමැතිනම් ඔබ මෙම ධාරිතාව නාස්ති කරයි.

ඒ අතරම, ඉහත ඔප්පු කළ ප්රමේයය තවමත් අර්ථ විරහිත නොවේ! කාර්යක්ෂම සම්ප්‍රේෂණ පද්ධති ඉතා දිගු බිටු නූල් සඳහා දක්ෂ කේතීකරණ ක්‍රම භාවිතා කළ යුතු බව එය පෙන්වයි. උදාහරණයක් ලෙස බාහිර ග්‍රහලෝකවලින් ඔබ්බට පියාසර කර ඇති චන්ද්‍රිකා; ඔවුන් පෘථිවියෙන් සහ සූර්යයාගෙන් ඉවතට ගමන් කරන විට, දත්ත වාරණයේ වැඩි වැඩියෙන් දෝෂ නිවැරදි කිරීමට ඔවුන්ට බල කෙරෙයි: සමහර චන්ද්‍රිකා සූර්ය පැනල භාවිතා කරයි, එය W 5 ක් පමණ සපයයි, අනෙක් ඒවා න්‍යෂ්ටික බලශක්ති ප්‍රභවයන් භාවිතා කරයි, එය එකම බලයක් සපයයි. බල සැපයුමේ අඩු බලය, සම්ප්‍රේෂක පිඟන් වල කුඩා ප්‍රමාණය සහ පෘථිවියේ ඇති ග්‍රාහක පිඟන් වල සීමිත ප්‍රමාණය, සංඥාව ගමන් කළ යුතු අතිවිශාල දුර - මේ සියල්ල ගොඩනැගීමට ඉහළ මට්ටමේ දෝෂ නිවැරදි කිරීමක් සහිත කේත භාවිතා කිරීම අවශ්‍ය වේ. ඵලදායී සන්නිවේදන පද්ධතිය.

ඉහත සාධනයෙහි අප භාවිතා කළ n-මාන අවකාශය වෙත ආපසු යමු. ඒ ගැන සාකච්ඡා කිරීමේදී, ගෝලයේ සම්පූර්ණ පරිමාවම පාහේ බාහිර පෘෂ්ඨය අසල සංකේන්ද්‍රණය වී ඇති බව අපි පෙන්වූවෙමු - මේ අනුව, යවන ලද සංඥාව ලැබුණු සංඥාව වටා ගොඩනගා ඇති ගෝලයේ මතුපිට අසල, සාපේක්ෂව පවා පිහිටා ඇති බව බොහෝ දුරට විශ්වාසයි. එවැනි ගෝලයක කුඩා අරය. එබැවින්, ලැබුණු සංඥාව, අත්තනෝමතික ලෙස විශාල දෝෂ සංඛ්‍යාවක් නිවැරදි කිරීමෙන් පසු, nQ, දෝෂ රහිත සංඥාවකට හිතුවක්කාර ලෙස සමීප වීම පුදුමයක් නොවේ. අප කලින් සාකච්ඡා කළ සම්බන්ධක ධාරිතාව මෙම සංසිද්ධිය තේරුම් ගැනීමට යතුරයි. දෝෂ නිවැරදි කිරීමේ Hamming කේත සඳහා සාදන ලද සමාන ගෝල එකිනෙක අතිච්ඡාදනය නොවන බව සලකන්න. n-මාන අවකාශයේ ඇති ආසන්න විකලාංග මානයන් විශාල සංඛ්‍යාවක් අපට කුඩා අතිච්ඡාදනයකින් අභ්‍යවකාශයේ M ගෝල සවි කළ හැක්කේ මන්දැයි පෙන්වයි. විකේතනය කිරීමේදී කුඩා දෝෂ සංඛ්‍යාවක් පමණක් ඇති විය හැකි කුඩා, අත්තනෝමතික ලෙස කුඩා අතිච්ඡාදනයකට අපි ඉඩ දෙන්නේ නම්, අපට අභ්‍යවකාශයේ ගෝලවල ඝන ස්ථානගත කිරීමක් ලබා ගත හැකිය. Hamming යම් මට්ටමක දෝෂ නිවැරදි කිරීමක් සහතික කරයි, Shannon - දෝෂයේ අඩු සම්භාවිතාව, නමුත් ඒ සමඟම Hamming කේත කළ නොහැකි සන්නිවේදන නාලිකාවේ ධාරිතාවට අත්තනෝමතික ලෙස සත්‍ය ප්‍රතිදානය පවත්වා ගැනීම.

තොරතුරු න්‍යාය කාර්යක්ෂම පද්ධතියක් සැලසුම් කරන්නේ කෙසේදැයි අපට නොකියයි, නමුත් එය කාර්යක්ෂම සන්නිවේදන පද්ධති වෙත මග පෙන්වයි. එය යන්ත්‍රයෙන් යන්ත්‍රයෙන් සන්නිවේදන පද්ධති තැනීම සඳහා වටිනා මෙවලමකි, නමුත්, කලින් සඳහන් කළ පරිදි, මිනිසුන් එකිනෙකා සමඟ සන්නිවේදනය කරන ආකාරය සම්බන්ධයෙන් එය එතරම් අදාළ නොවේ. ජීව විද්‍යාත්මක උරුමය තාක්‍ෂණික සන්නිවේදන පද්ධති මෙන් කෙතරම් දුරට දැයි නොදන්නා බැවින් තොරතුරු න්‍යාය ජානවලට අදාළ වන ආකාරය දැනට පැහැදිලි නැත. අපට උත්සාහ කිරීම හැර වෙනත් විකල්පයක් නොමැති අතර, සාර්ථකත්වය අපට මෙම සංසිද්ධියේ යන්ත්‍ර වැනි ස්වභාවය පෙන්නුම් කරන්නේ නම්, අසාර්ථකත්වය තොරතුරුවල ස්වභාවයේ අනෙකුත් වැදගත් අංශ වෙත යොමු කරනු ඇත.

අපි ඕනෑවට වඩා අපගමනය නොකරමු. සියලුම මුල් නිර්වචන, වැඩි හෝ අඩු ප්‍රමාණයකට, අපගේ මුල් විශ්වාසයන්ගේ සාරය ප්‍රකාශ කළ යුතු බව අපි දැක ඇත්තෙමු, නමුත් ඒවා යම් තරමක විකෘතියකින් සංලක්ෂිත වන අතර එබැවින් ඒවා අදාළ නොවේ. සාම්ප්‍රදායිකව පිළිගනු ලබන්නේ, අවසානයේදී, අප භාවිතා කරන නිර්වචනය ඇත්ත වශයෙන්ම සාරය නිර්වචනය කරන බවයි; නමුත්, මෙය අපට දේවල් සකසන ආකාරය පමණක් පවසන අතර කිසිම ආකාරයකින් අපට කිසිදු අර්ථයක් ගෙන එන්නේ නැත. ගණිතමය කවයන් තුළ දැඩි ලෙස අනුග්‍රහය දක්වන උපකල්පන ප්‍රවේශය, ප්‍රායෝගිකව අපේක්ෂා කිරීමට බොහෝ දේ ඉතිරි කරයි.

දැන් අපි IQ පරීක්ෂණවල උදාහරණයක් දෙස බලමු, එහිදී අර්ථ දැක්වීම ඔබ කැමති පරිදි චක්‍රලේඛයක් වන අතර එහි ප්‍රතිඵලයක් ලෙස නොමඟ යවන සුළුය. බුද්ධිය මැනීමට නියමිත පරීක්ෂණයක් නිර්මාණය වේ. පසුව එය හැකිතාක් අනුකූල වන පරිදි එය සංශෝධනය කරනු ලැබේ, පසුව එය ප්‍රකාශයට පත් කර සරල ක්‍රමයකින් ක්‍රමාංකනය කරනු ලබන අතර එමඟින් මනින ලද “බුද්ධිය” සාමාන්‍යයෙන් බෙදා හරිනු ලැබේ (ඇත්ත වශයෙන්ම ක්‍රමාංකන වක්‍රයක් මත). සියලුම නිර්වචනයන් පළමු වරට යෝජනා කරන විට පමණක් නොව, බොහෝ කලකට පසුව, ඒවා නිගමනවල භාවිතා කරන විටද නැවත පරීක්ෂා කළ යුතුය. ගැටලුව විසඳා ගැනීම සඳහා නිර්වචන සීමාවන් කොතරම් දුරට සුදුසුද? එක් සැකසුමක දී ඇති නිර්වචන බොහෝ විට වෙනස් සැකසුම් තුළ යෙදෙන්නේ කොපමණ වාරයක් ද? මෙය බොහෝ විට සිදු වේ! ඔබේ ජීවිතයේ නොවැළැක්විය හැකි මානව ශාස්ත්‍ර වලදී, මෙය බොහෝ විට සිදු වේ.

මේ අනුව, මෙම තොරතුරු න්‍යාය ඉදිරිපත් කිරීමේ එක් අරමුණක් වූයේ, එහි ප්‍රයෝජනය විදහා දැක්වීමට අමතරව, මෙම අනතුර ගැන ඔබට අනතුරු ඇඟවීම හෝ අපේක්ෂිත ප්‍රතිඵලය ලබා ගැනීම සඳහා එය භාවිතා කරන්නේ කෙසේදැයි ඔබට පෙන්වීමයි. මුලික නිර්වචනයන් අවසානයේ ඔබ සොයා ගන්නා දේ, පෙනෙන ආකාරයට වඩා බොහෝ දුරට තීරණය කරන බව බොහෝ කලක සිට සටහන් කර ඇත. ඕනෑම නව තත්වයකදී පමණක් නොව, ඔබ දිගු කලක් සේවය කර ඇති ප්‍රදේශවලද මූලික නිර්වචන සඳහා ඔබෙන් විශාල අවධානයක් අවශ්‍ය වේ. මෙමගින් ඔබට ලබාගන්නා ප්‍රතිඵල කොයිතරම් දුරට ප්‍රයෝජනවත් දෙයක් නොව tautology ද යන්න තේරුම් ගැනීමට ඉඩ සලසයි.

එඩින්ටන්ගේ සුප්‍රසිද්ධ කතාවෙන් කියැවෙන්නේ දැලකින් මුහුදේ මසුන් ඇල්ලූ මිනිසුන් ගැන ය. ඔවුන් ඇල්ලූ මසුන්ගේ ප්‍රමාණය අධ්‍යයනය කිරීමෙන් පසු, ඔවුන් මුහුදේ සිටින මසුන්ගේ අවම ප්‍රමාණය තීරණය කළහ! ඔවුන්ගේ නිගමනය මෙහෙයවනු ලැබුවේ භාවිතා කරන උපකරණය මත මිස යථාර්ථයෙන් නොවේ.

ඉදිරියට පැවැත්වේ…

පොතේ පරිවර්තනය, පිරිසැලසුම සහ ප්‍රකාශනය සඳහා උදව් කිරීමට කැමති අය - පුද්ගලික පණිවිඩයකින් හෝ විද්‍යුත් තැපෑලකින් ලියන්න [විද්‍යුත් ආරක්‍ෂිත]

මාර්ගය වන විට, අපි තවත් සිසිල් පොතක පරිවර්තනය ද දියත් කර ඇත්තෙමු - "සිහින යන්ත්‍රය: පරිගණක විප්ලවයේ කතාව")

අපි විශේෂයෙන් සොයන්නේ පරිවර්තනය කිරීමට උදව් කළ හැකි අය ප්‍රසාද පරිච්ඡේදය, එය වීඩියෝවේ පමණක් ඇත. (මිනිත්තු 10 ක් සඳහා මාරු කරන්න, පළමු 20 දැනටමත් ගෙන ඇත)

පොතේ අන්තර්ගතය සහ පරිවර්තන පරිච්ඡේදපෙරවදන

  1. විද්‍යාව සහ ඉංජිනේරු ශිල්පය කිරීමේ කලාව සඳහා හැඳින්වීම: ඉගෙනීමට ඉගෙනීම (මාර්තු 28, 1995) පරිවර්තනය: 1 වන පරිච්ඡේදය
  2. "ඩිජිටල් (විවික්ත) විප්ලවයේ පදනම්" (මාර්තු 30, 1995) පරිච්ඡේදය 2. ඩිජිටල් (විවික්ත) විප්ලවයේ මූලික කරුණු
  3. "පරිගණක ඉතිහාසය - දෘඪාංග" (මාර්තු 31, 1995) පරිච්ඡේදය 3. පරිගණක ඉතිහාසය - දෘඪාංග
  4. "පරිගණක ඉතිහාසය - මෘදුකාංග" (අප්‍රේල් 4, 1995) පරිච්ඡේදය 4. පරිගණක ඉතිහාසය - මෘදුකාංග
  5. "පරිගණක ඉතිහාසය - යෙදුම්" (අප්‍රේල් 6, 1995) 5 වන පරිච්ඡේදය: පරිගණක ඉතිහාසය - ප්‍රායෝගික යෙදුම්
  6. "කෘතිම බුද්ධිය - I කොටස" (අප්‍රේල් 7, 1995) පරිච්ඡේදය 6. කෘතිම බුද්ධිය - 1
  7. "කෘතිම බුද්ධිය - II කොටස" (අප්‍රේල් 11, 1995) පරිච්ඡේදය 7. කෘතිම බුද්ධිය - II
  8. "කෘතිම බුද්ධිය III" (අප්‍රේල් 13, 1995) පරිච්ඡේදය 8. කෘතිම බුද්ධිය-III
  9. "n-Dimensional Space" (අප්‍රේල් 14, 1995) පරිච්ඡේදය 9. N-මාන අවකාශය
  10. "කේතීකරණ සිද්ධාන්තය - තොරතුරු නියෝජනය, I කොටස" (අප්‍රේල් 18, 1995) පරිච්ඡේදය 10. කේතීකරණ සිද්ධාන්තය - I
  11. "කේතීකරණ සිද්ධාන්තය - තොරතුරු නියෝජනය, II කොටස" (අප්‍රේල් 20, 1995) පරිච්ඡේදය 11. කේතීකරණ සිද්ධාන්තය - II
  12. "දෝෂ-නිවැරදි කිරීමේ කේත" (අප්‍රේල් 21, 1995) පරිච්ඡේදය 12. දෝෂ නිවැරදි කිරීමේ කේත
  13. "තොරතුරු න්යාය" (අප්රේල් 25, 1995) පරිච්ඡේදය 13. තොරතුරු න්යාය
  14. "ඩිජිටල් පෙරහන්, I කොටස" (අප්‍රේල් 27, 1995) පරිච්ඡේදය 14. ඩිජිටල් පෙරහන් - 1
  15. "ඩිජිටල් පෙරහන්, II කොටස" (අප්‍රේල් 28, 1995) පරිච්ඡේදය 15. ඩිජිටල් පෙරහන් - 2
  16. "ඩිජිටල් පෙරහන්, III කොටස" (මැයි 2, 1995) පරිච්ඡේදය 16. ඩිජිටල් පෙරහන් - 3
  17. "ඩිජිටල් පෙරහන්, IV කොටස" (මැයි 4, 1995) පරිච්ඡේදය 17. ඩිජිටල් පෙරහන් - IV
  18. "Simulation, I කොටස" (මැයි 5, 1995) 18 වන පරිච්ඡේදය. ආකෘති නිර්මාණය - I
  19. "Simulation, II කොටස" (මැයි 9, 1995) 19 වන පරිච්ඡේදය. ආකෘති නිර්මාණය - II
  20. "Simulation, Part III" (මැයි 11, 1995) 20 වන පරිච්ඡේදය. ආකෘති නිර්මාණය - III
  21. "ෆයිබර් ඔප්ටික්ස්" (මැයි 12, 1995) පරිච්ඡේදය 21. ෆයිබර් ඔප්ටික්ස්
  22. "පරිගණක ආධාරක උපදෙස්" (16 මැයි 1995) 22 පරිච්ඡේදය: පරිගණක ආධාරක උපදෙස් (CAI)
  23. "ගණිතය" (18 මැයි 1995) 23 වන පරිච්ඡේදය. ගණිතය
  24. "Quantum Mechanics" (19 මැයි 1995) පරිච්ඡේදය 24. ක්වොන්ටම් යාන්ත්‍ර විද්‍යාව
  25. "නිර්මාණශීලිත්වය" (මැයි 23, 1995). පරිවර්තනය: 25 වන පරිච්ඡේදය. නිර්මාණශීලිත්වය
  26. "විශේෂඥයන්" (මැයි 25, 1995) 26 වන පරිච්ඡේදය. විශේෂඥයින්
  27. "විශ්වසනීය දත්ත" (මැයි 26, 1995) පරිච්ඡේදය 27. විශ්වාස කළ නොහැකි දත්ත
  28. "පද්ධති ඉංජිනේරු" (මැයි 30, 1995) පරිච්ඡේදය 28. පද්ධති ඉංජිනේරු
  29. "ඔබ මනින දේ ඔබට ලැබේ" (ජුනි 1, 1995) 29 වන පරිච්ඡේදය: ඔබ මනින දේ ඔබට ලැබේ
  30. "අපි දන්නා දේ අපි දන්නේ කෙසේද" (ජූනි 2, 1995) විනාඩි 10 කෑලි පරිවර්තනය කරන්න
  31. Hamming, "ඔබ සහ ඔබේ පර්යේෂණ" (ජුනි 6, 1995). පරිවර්තනය: ඔබ සහ ඔබේ වැඩ

පොතේ පරිවර්තනය, පිරිසැලසුම සහ ප්‍රකාශනය සඳහා උදව් කිරීමට කැමති අය - පුද්ගලික පණිවිඩයකින් හෝ විද්‍යුත් තැපෑලකින් ලියන්න [විද්‍යුත් ආරක්‍ෂිත]

මූලාශ්රය: www.habr.com

අදහස් එක් කරන්න