අපි ඒක කළා!
"මෙම පාඨමාලාවේ අරමුණ ඔබගේ තාක්ෂණික අනාගතය සඳහා ඔබව සූදානම් කිරීමයි."
හෙලෝ, හබ්ර්. අපූරු ලිපිය මතක තබා ගන්න
ඉතින් Hamming (ඔව්, ඔව්, ස්වයං-අධීක්ෂණය සහ ස්වයං-නිවැරදි කිරීම
මෙය තොරතුරු තාක්ෂණය ගැන පමණක් නොව, ඇදහිය නොහැකි තරම් සිසිල් මිනිසුන්ගේ චින්තන විලාසය පිළිබඳ පොතකි. “එය ධනාත්මක චින්තනයේ තල්ලුවක් පමණක් නොවේ; එය විශිෂ්ට කාර්යයක් කිරීමේ අවස්ථා වැඩි කරන කොන්දේසි විස්තර කරයි.
පරිවර්තනය සඳහා Andrey Pakhomov ට ස්තූතියි.
1940 ගණන්වල අගභාගයේදී C. E. Shannon විසින් තොරතුරු න්යාය වර්ධනය කරන ලදී. බෙල් ලැබ්ස් කළමනාකාරීත්වය ඔහු එය "සන්නිවේදන න්යාය" ලෙස හඳුන්වන බව තරයේ කියා සිටියේ... මෙය වඩාත් නිවැරදි නමකි. පැහැදිලි හේතූන් මත, "තොරතුරු න්යාය" යන නම මහජනතාවට වඩා විශාල බලපෑමක් ඇති කරයි, එබැවින් ෂැනන් එය තෝරා ගත්තේ එබැවිනි, එය අද දක්වාම අප දන්නා නමයි. නමම යෝජනා කරන්නේ න්යාය තොරතුරු සමඟ කටයුතු කරන බවයි, එය අප තොරතුරු යුගයට ගැඹුරට ගමන් කරන විට එය වැදගත් කරයි. මෙම පරිච්ඡේදයේ දී, මම මෙම න්යායෙන් ප්රධාන නිගමන කිහිපයක් ස්පර්ශ කරමි, මම මෙම න්යායේ සමහර තනි විධිවිධාන පිළිබඳ දැඩි නොව, නමුත් බුද්ධිමය සාක්ෂි සපයන්නෙමි, එවිට ඔබට “තොරතුරු න්යාය” යනු කුමක්දැයි තේරුම් ගත හැකිය, ඔබට එය යෙදිය හැකි තැන. සහ කොහෙද .
පළමුවෙන්ම, "තොරතුරු" යනු කුමක්ද? ෂැනන් තොරතුරු අවිනිශ්චිතතාවයට සමාන කරයි. ඔහු p සම්භාවිතාව සහිත සිදුවීමක් සිදු වූ විට ඔබට ලැබෙන තොරතුරුවල ප්රමාණාත්මක මිනුමක් ලෙස සිදුවීමක සම්භාවිතාවේ සෘණ ලඝුගණකය තෝරා ගත්තේය. උදාහරණයක් ලෙස, ලොස් ඇන්ජලීස් හි කාලගුණය මීදුම සහිත බව මම ඔබට පැවසුවහොත්, p අගය 1 ට ආසන්න වේ, එය ඇත්ත වශයෙන්ම අපට වැඩි තොරතුරු ලබා නොදේ. නමුත් ජූනි මාසයේදී මොන්ටෙරේ වැස්සක් වැටෙන බව මා පැවසුවහොත්, පණිවිඩයේ අවිනිශ්චිතතාවයක් ඇති අතර එය තවත් තොරතුරු අඩංගු වේ. ලොග් 1 = 0 බැවින් විශ්වාසදායක සිදුවීමක කිසිදු තොරතුරක් අඩංගු නොවේ.
අපි මෙය වඩාත් විස්තරාත්මකව බලමු. ෂැනොන් විශ්වාස කළේ තොරතුරුවල ප්රමාණාත්මක මිනුම සිදුවීමක p සම්භාවිතාවේ අඛණ්ඩ ශ්රිතයක් විය යුතු බවත් ස්වාධීන සිදුවීම් සඳහා එය ආකලන විය යුතු බවත්ය - ස්වාධීන සිදුවීම් දෙකක් සිදුවීමේ ප්රතිඵලයක් ලෙස ලබාගත් තොරතුරු ප්රමාණය සමාන විය යුතුය. ඒකාබද්ධ සිදුවීමක් සිදුවීමේ ප්රතිඵලයක් ලෙස ලබාගත් තොරතුරු ප්රමාණය. උදාහරණයක් ලෙස, ඩයිස් රෝල් සහ කාසි රෝල් වල ප්රතිඵලය සාමාන්යයෙන් ස්වාධීන සිදුවීම් ලෙස සලකනු ලැබේ. ඉහත කරුණු අපි ගණිත භාෂාවට පරිවර්තනය කරමු. I (p) යනු p සම්භාවිතාව සහිත සිදුවීමක අඩංගු තොරතුරු ප්රමාණය නම්, ස්වාධීන සිදුවීම් දෙකකින් සමන්විත ඒකාබද්ධ සිදුවීමක් සඳහා x සම්භාවිතාව p1 සහ y සම්භාවිතාව p2 සමඟ අපි ලබා ගනිමු.
(x සහ y ස්වාධීන සිදුවීම් වේ)
මෙය ක්රියාකාරී Cauchy සමීකරණයයි, සියලුම p1 සහ p2 සඳහා සත්ය වේ. මෙම ක්රියාකාරී සමීකරණය විසඳීමට, එය උපකල්පනය කරන්න
p1 = p2 = p,
මෙය ලබා දෙයි
p1 = p2 සහ p2 = p නම්
ආදිය ඝාතීය සඳහා සම්මත ක්රමය භාවිතා කරමින් මෙම ක්රියාවලිය දිගු කිරීම, සියලුම තාර්කික සංඛ්යා m/n සඳහා පහත සඳහන් දේ සත්ය වේ
තොරතුරු මිනුමෙහි උපකල්පිත අඛණ්ඩතාවයෙන්, Cauchy ක්රියාකාරී සමීකරණය සඳහා එකම අඛණ්ඩ විසඳුම ලඝුගණක ශ්රිතය බව අනුගමනය කරයි.
තොරතුරු න්යායේ දී, ලඝුගණක පදනම 2 ලෙස ගැනීම සාමාන්ය දෙයකි, එබැවින් ද්විමය තේරීමක හරියටම තොරතුරු බිට් 1 ක් අඩංගු වේ. එබැවින් තොරතුරු සූත්රය මගින් මනිනු ලැබේ
අපි විරාමයක් තබා ඉහත සිදු වූ දේ තේරුම් ගනිමු. පළමුවෙන්ම, අපි "තොරතුරු" යන සංකල්පය නිර්වචනය නොකළෙමු; අපි එහි ප්රමාණාත්මක මිනුම සඳහා සූත්රය සරලව නිර්වචනය කළෙමු.
දෙවනුව, මෙම මිනුම අවිනිශ්චිතතාවයට යටත් වන අතර, එය යන්ත්ර සඳහා සාධාරණ ලෙස යෝග්ය වුවද-උදාහරණයක් ලෙස, දුරකථන පද්ධති, ගුවන්විදුලිය, රූපවාහිනිය, පරිගණක යනාදිය - එය තොරතුරු සම්බන්ධයෙන් සාමාන්ය මානව ආකල්ප පිළිබිඹු නොකරයි.
තෙවනුව, මෙය සාපේක්ෂ මිනුමකි, එය ඔබගේ දැනුමේ වත්මන් තත්ත්වය මත රඳා පවතී. ඔබ අහඹු සංඛ්යා උත්පාදක යන්ත්රයකින් “අහඹු සංඛ්යා” ප්රවාහයක් දෙස බැලුවහොත්, එක් එක් ඊළඟ සංඛ්යාව අවිනිශ්චිත බව ඔබ උපකල්පනය කරයි, නමුත් “අහඹු සංඛ්යා” ගණනය කිරීමේ සූත්රය ඔබ දන්නේ නම්, ඊළඟ අංකය දැනගත හැකි අතර, එබැවින් එසේ නොවේ. තොරතුරු අඩංගු වේ.
එබැවින් ෂැනොන්ගේ තොරතුරු නිර්වචනය බොහෝ අවස්ථාවල යන්ත්ර සඳහා සුදුසු නමුත් වචනය පිළිබඳ මිනිස් අවබෝධයට නොගැලපෙන බව පෙනේ. “තොරතුරු න්යාය” “සන්නිවේදන න්යාය” ලෙස හැඳින්විය යුතුව තිබුණේ මේ හේතුව නිසා ය. කෙසේ වෙතත්, නිර්වචන වෙනස් කිරීමට ප්රමාද වැඩියි (මෙය න්යායට එහි මුල් ජනප්රියත්වය ලබා දුන් අතර, මෙම න්යාය “තොරතුරු” සමඟ ගනුදෙනු කරන බව තවමත් මිනිසුන් සිතීමට සලස්වයි), එබැවින් අපට ඔවුන් සමඟ ජීවත් වීමට සිදු වේ, නමුත් ඒ සමඟම ඔබ කළ යුතුය ෂැනොන්ගේ තොරතුරු අර්ථ දැක්වීම එහි බහුලව භාවිතා වන අර්ථයෙන් කෙතරම් දුරස් දැයි පැහැදිලිව වටහා ගන්න. ෂැනොන්ගේ තොරතුරු සම්පූර්ණයෙන්ම වෙනස් දෙයක් සමඟ කටයුතු කරයි, එනම් අවිනිශ්චිතතාවය.
ඔබ කිසියම් පාරිභාෂිතයක් යෝජනා කරන විට සිතන්නට දෙයක් තිබේ. ෂැනොන්ගේ තොරතුරු පිළිබඳ නිර්වචනය වැනි යෝජිත නිර්වචනයක් ඔබේ මුල් අදහස සමඟ එකඟ වන්නේ කෙසේද සහ එය කෙතරම් වෙනස්ද? සංකල්පයක් පිළිබඳ ඔබේ පෙර දැක්ම හරියටම පිළිබිඹු කරන යෙදුමක් නොමැති තරම්ය, නමුත් අවසානයේ, එය සංකල්පයේ අර්ථය පිළිබිඹු කරන පාරිභාෂිතය වේ, එබැවින් පැහැදිලි අර්ථ දැක්වීම් හරහා යමක් විධිමත් කිරීම සැමවිටම යම් ශබ්දයක් හඳුන්වා දෙයි.
pi සම්භාවිතා සහිත q සංකේත වලින් හෝඩියේ අඩංගු පද්ධතියක් සලකා බලන්න. මේ අවස්ථාවේ දී සාමාන්ය තොරතුරු ප්රමාණය පද්ධතියේ (එහි අපේක්ෂිත අගය) සමාන වේ:
මෙය සම්භාවිතා ව්යාප්තිය {pi} සහිත පද්ධතියේ එන්ට්රොපිය ලෙස හැඳින්වේ. අපි "එන්ට්රොපි" යන යෙදුම භාවිතා කරන්නේ එකම ගණිතමය ස්වරූපය තාප ගති විද්යාවේ සහ සංඛ්යාන යාන්ත්ර විද්යාවේ දිස්වන බැවිනි. "එන්ට්රොපි" යන යෙදුම අවසානයේ යුක්තිසහගත නොවන යම් වැදගත්කමක් ඇති ප්රබෝධයක් නිර්මාණය කරන්නේ එබැවිනි. එකම ගණිතමය අංකනය සංකේතවල එකම අර්ථකථනය අදහස් නොකරයි!
කේතීකරණ සිද්ධාන්තයේ දී සම්භාවිතා ව්යාප්තියේ එන්ට්රොපිය ප්රධාන කාර්යභාරයක් ඉටු කරයි. pi සහ qi යන විවිධ සම්භාවිතා බෙදාහැරීම් දෙකක් සඳහා වන ගිබ්ස් අසමානතාවය මෙම න්යායේ වැදගත් ප්රතිවිපාකවලින් එකකි. ඒ නිසා අපි එය ඔප්පු කළ යුතුයි
සාධනය පැහැදිලි ප්රස්ථාරයක් මත පදනම් වේ, Fig. 13.I, එය පෙන්නුම් කරයි
සහ සමානාත්මතාවය සාක්ෂාත් කරගනු ලබන්නේ x = 1 විට පමණි. අපි වම් පැත්තේ සිට එකතුවේ එක් එක් පදයට අසමානතාවය යොදමු:
සන්නිවේදන පද්ධතියක හෝඩිය q සංකේත වලින් සමන්විත නම්, එක් එක් සංකේතය qi = 1/q සම්ප්රේෂණය කිරීමේ සම්භාවිතාව ගෙන q ආදේශ කිරීමෙන්, අපි Gibbs අසමානතාවයෙන් ලබා ගනිමු.
රූපය 13.I
මෙයින් අදහස් කරන්නේ සියලුම q සංකේත සම්ප්රේෂණය කිරීමේ සම්භාවිතාව සමාන නම් - 1 / q ට සමාන නම්, උපරිම එන්ට්රොපිය ln q ට සමාන වේ, එසේ නොමැති නම් අසමානතාවය පවතිනු ඇත.
අද්විතීය ලෙස විකේතනය කළ හැකි කේතයක් සම්බන්ධයෙන්, අපට Kraft හි අසමානතාවය ඇත
දැන් අපි ව්යාජ සම්භාවිතාවන් නිර්වචනය කළහොත්
ඇත්තෙන්ම කොහෙද = 1, එය ගිබ්ස්ගේ අසමානතාවයෙන් අනුගමනය කරයි,
සහ කුඩා වීජ ගණිතය යොදන්න (K ≤ 1 බව මතක තබා ගන්න, එවිට අපට ලඝුගණක පදය අත්හැරිය හැක, සමහර විට අසමානතාවය පසුව ශක්තිමත් කළ හැක), අපට ලැබේ
මෙහි L යනු සාමාන්ය කේත දිග වේ.
මේ අනුව, එන්ට්රොපිය යනු සාමාන්ය කේත වචන දිග L සහිත ඕනෑම අක්ෂර-අනුව-සංකේත කේතයක් සඳහා වන අවම බැඳීමයි. මෙය බාධා රහිත නාලිකාවක් සඳහා වන ෂැනොන්ගේ ප්රමේය වේ.
ස්වාධීන බිටු ප්රවාහයක් ලෙස තොරතුරු සම්ප්රේෂණය වන සහ ශබ්දය පවතින සන්නිවේදන පද්ධතිවල සීමාවන් පිළිබඳ ප්රධාන ප්රමේයය දැන් සලකා බලන්න. එක් බිට් එකක නිවැරදි සම්ප්රේෂණයේ සම්භාවිතාව P > 1/2 වන අතර, සම්ප්රේෂණයේදී බිට් අගය ප්රතිලෝම වීමේ සම්භාවිතාව (දෝෂයක් සිදුවනු ඇත) Q = 1 - P ට සමාන වේ. පහසුව සඳහා, අපි දෝෂ ස්වාධීන වන අතර දෝෂයක සම්භාවිතාව එක් එක් යවන ලද බිටු සඳහා සමාන වේ - එනම් සන්නිවේදන නාලිකාවේ "සුදු ශබ්දය" ඇත.
එක් පණිවිඩයකට n බිටු වල දිගු ප්රවාහයක් කේතනය කර ඇති ආකාරය වන්නේ එක්-බිට් කේතයේ n - මාන දිගුවයි. අපි පසුව n අගය තීරණය කරමු. n-dimensional අවකාශයේ ලක්ෂ්යයක් ලෙස n-bits වලින් සමන්විත පණිවිඩයක් සලකා බලන්න. අපට n-dimensional ඉඩක් ඇති බැවින් - සහ සරල බව සඳහා අපි සෑම පණිවිඩයකටම එකම සිදුවීමේ සම්භාවිතාව ඇති බව උපකල්පනය කරමු - M හැකි පණිවිඩ ඇත (M ද පසුව අර්ථ දක්වනු ඇත), එබැවින් යවන ඕනෑම පණිවිඩයක සම්භාවිතාව වේ.
(යවන්නා)
උපලේඛනය 13.II
ඊළඟට, නාලිකා ධාරිතාව පිළිබඳ අදහස සලකා බලන්න. විස්තර වලට නොගොස්, වඩාත් කාර්යක්ෂම කේතීකරණයේ භාවිතය සැලකිල්ලට ගනිමින් සන්නිවේදන නාලිකාවක් හරහා විශ්වාසදායක ලෙස සම්ප්රේෂණය කළ හැකි උපරිම තොරතුරු ප්රමාණය නාලිකා ධාරිතාව ලෙස අර්ථ දැක්වේ. සන්නිවේදන නාලිකාවක් හරහා එහි ධාරිතාවට වඩා වැඩි තොරතුරු සම්ප්රේෂණය කළ හැකි බවට තර්කයක් නොමැත. ද්විමය සමමිතික නාලිකාවක් සඳහා මෙය ඔප්පු කළ හැකිය (අපගේ නඩුවේදී අප භාවිතා කරන). නාලිකා ධාරිතාව, බිටු යැවීමේදී, ලෙස දක්වා ඇත
එහිදී, පෙර මෙන්, P යනු කිසියම් යවන ලද බිට් එකක දෝෂයක් නොමැති වීමේ සම්භාවිතාවයි. n ස්වාධීන බිටු යවන විට, නාලිකා ධාරිතාව ලබා දෙනු ලැබේ
අපි නාලිකා ධාරිතාවට ආසන්න නම්, අපි ai, i = 1, ..., M යන එක් එක් සංකේත සඳහා මෙතරම් තොරතුරු ප්රමාණයක් යැවිය යුතුය. එක් එක් ai සංකේතය ඇතිවීමේ සම්භාවිතාව 1 / M බව සලකන විට, අපට ලැබෙනවා
අපි M සමානව සම්භාවිතාව ඇති ඕනෑම පණිවිඩයක් යවන විට ai, අප සතුව ඇත
n බිටු යවන විට, nQ දෝෂ ඇතිවේ යැයි අපි බලාපොරොත්තු වෙමු. ප්රායෝගිකව, n-bits වලින් සමන්විත පණිවිඩයක් සඳහා, අපට ලැබුණු පණිවිඩයේ ආසන්න වශයෙන් nQ දෝෂ ඇත. විශාල n සඳහා, සාපේක්ෂ විචලනය (විචලනය = බෙදා හැරීමේ පළල, )
n වැඩි වන විට දෝෂ සංඛ්යාවේ ව්යාප්තිය වඩ වඩාත් පටු වේ.
ඉතින්, සම්ප්රේෂක පැත්තෙන්, මම යැවීමට ai පණිවිඩය ගෙන එය වටා අරයක් සහිත ගෝලයක් අඳින්නෙමි.
අපේක්ෂිත දෝෂ ගණනට වඩා e2 ට සමාන ප්රමාණයකින් තරමක් විශාල වන Q, (Figure 13.II). n ප්රමාණවත් තරම් විශාල නම්, මෙම ගෝලයෙන් ඔබ්බට විහිදෙන ග්රාහක පැත්තේ bj පණිවිඩ ලක්ෂ්යයක අත්තනෝමතික ලෙස කුඩා සම්භාවිතාවක් ඇත. සම්ප්රේෂකයේ දෘෂ්ටිකෝණයෙන් මා දකින ආකාරයට තත්වය සටහන් කරමු: සම්ප්රේෂණය කරන ලද පණිවිඩය ai සිට ලැබුණු පණිවිඩය bj දක්වා අපට ඕනෑම රේඩියක් ඇති අතර සාමාන්ය ව්යාප්තියට සමාන (හෝ පාහේ සමාන) දෝෂයක් ඇතිවීමේ සම්භාවිතාව උපරිමයට ළඟා වේ. nQ හි. ලබා දී ඇති ඕනෑම e2 සඳහා, n ඉතා විශාල වන අතර එහි ප්රතිඵලය වන ලක්ෂ්යය bj මගේ ගෝලයෙන් පිටත වීමේ සම්භාවිතාව ඔබ කැමති තරම් කුඩා වේ.
දැන් අපි ඔබේ පැත්තෙන් එකම තත්වය දෙස බලමු (රූපය 13.III). ග්රාහක පැත්තේ n-මාන අවකාශයේ ලැබුණු ලක්ෂ්යය bj වටා එකම අරයේ S(r) ගෝලයක් ඇත, එනම් ලැබුණු පණිවිඩය bj මගේ ගෝලය තුළ තිබේ නම්, මා විසින් එවන ලද ai පණිවිඩය ඔබේ තුළ ඇත. ගෝලය.
දෝෂයක් ඇතිවිය හැක්කේ කෙසේද? පහත වගුවේ විස්තර කර ඇති අවස්ථා වලදී දෝෂය සිදුවිය හැකිය:
රූපය 13.III
ලැබුණු ලක්ෂ්යය වටා ගොඩනගා ඇති ගෝලයේ යවන ලද කේතනය නොකළ පණිවිඩයකට අනුරූප අවම වශයෙන් තවත් ලක්ෂ්යයක් තිබේ නම්, සම්ප්රේෂණය කිරීමේදී දෝෂයක් ඇති වූ බැවින්, මෙම පණිවිඩ වලින් කුමන පණිවිඩයක් සම්ප්රේෂණය වූයේ දැයි ඔබට තීරණය කළ නොහැකි බව මෙහිදී අපට පෙනේ. යවන ලද පණිවිඩය දෝෂ රහිත වන්නේ එයට අනුරූප ලක්ෂ්යය ගෝලයේ තිබේ නම් පමණක් වන අතර, එම ගෝලයේම ඇති කේතයේ වෙනත් ලකුණු නොමැති නම් පමණි.
ai පණිවිඩය යවා ඇත්නම් Pe දෝෂයේ සම්භාවිතාව සඳහා ගණිතමය සමීකරණයක් අප සතුව ඇත
අපට දෙවන වාරයේ දී පළමු සාධකය ඉවත දැමිය හැකිය, එය 1 ලෙස ගත හැකිය. මේ අනුව අපට අසමානතාවය ලැබේ
නිසැකවම,
එහෙයින්
දකුණු පස ඇති අවසාන වාරයට නැවත අයදුම් කරන්න
n ප්රමාණවත් ලෙස ගත් විට, පළමු වාරය අවශ්ය තරම් කුඩා ලෙස ගත හැකිය, සමහර සංඛ්යා d ට වඩා අඩුවෙන් කියන්න. එබැවින් අපට තිබේ
දැන් අපි බලමු n බිටු වලින් සමන්විත M පණිවිඩ කේතනය කිරීම සඳහා සරල ආදේශන කේතයක් සාදා ගන්නේ කෙසේදැයි බලමු. හරියටම කේතයක් ගොඩනගන්නේ කෙසේදැයි නොදැන (දෝෂ නිවැරදි කිරීමේ කේත තවම සොයාගෙන නොතිබුණි), ෂැනන් අහඹු කේතීකරණය තෝරා ගත්තේය. පණිවිඩයේ එක් එක් n බිටු සඳහා කාසියක් පෙරළන්න සහ M පණිවිඩ සඳහා ක්රියාවලිය නැවත කරන්න. සමස්තයක් වශයෙන්, nM කාසි පෙරළීම සිදු කළ යුතුය, එබැවින් එය කළ හැකිය
එකම සම්භාවිතාව ½nM සහිත කේත ශබ්දකෝෂ. ඇත්ත වශයෙන්ම, කේත පොතක් නිර්මාණය කිරීමේ අහඹු ක්රියාවලියෙන් අදහස් වන්නේ අනුපිටපත් ඇතිවීමේ හැකියාවක් මෙන්ම කේත ලක්ෂ්ය එකිනෙකට සමීප වන අතර එම නිසා විය හැකි දෝෂ වල ප්රභවයක් විය හැකි බවයි. කිසියම් කුඩා තෝරාගත් දෝෂ මට්ටමකට වඩා වැඩි සම්භාවිතාවක් සමඟ මෙය සිදු නොවන්නේ නම්, ලබා දී ඇති n ප්රමාණවත් තරම් විශාල බව යමෙකු ඔප්පු කළ යුතුය.
තීරණාත්මක කරුණ නම්, සාමාන්ය දෝෂය සොයා ගැනීමට ෂැනන් හැකි සියලුම කේත පොත් සාමාන්යකරණය කිරීමයි! හැකි සියලුම අහඹු කේත පොත් කට්ටලයට වඩා සාමාන්ය අගය දැක්වීමට අපි Av[.] සංකේතය භාවිතා කරමු. නියත d ට වඩා සාමාන්යය නියතයක් ලබා දෙයි, මන්ද එක් එක් පද සාමාන්යය සඳහා එකතුවේ අනෙක් සෑම පදයකටම සමාන වේ.
වැඩි කළ හැකි (M–1 M ට යයි)
ලබා දී ඇති ඕනෑම පණිවිඩයක් සඳහා, සියලුම කේත පොත් හරහා සාමාන්ය අගයක් ගන්නා විට, කේතීකරණය හැකි සියලු අගයන් හරහා දිව යයි, එබැවින් ලක්ෂ්යයක් ගෝලයක තිබීමේ සාමාන්ය සම්භාවිතාව යනු ගෝලයේ පරිමාවේ මුළු අවකාශයේ පරිමාවට අනුපාතයයි. ගෝලයේ පරිමාව වේ
මෙහි s=Q+e2 <1/2 සහ ns පූර්ණ සංඛ්යාවක් විය යුතුය.
දකුණු පස ඇති අවසාන පදය මෙම එකතුවෙන් විශාලතම වේ. පළමුව, සාධක සඳහා ස්ටර්ලිං සූත්රය භාවිතයෙන් එහි අගය තක්සේරු කරමු. ඉන්පසුව අපි එය ඉදිරියෙන් ඇති පදයේ අඩුවන සාධකය දෙස බලමු, අපි වමට යන විට මෙම සාධකය වැඩි වන බව සලකන්න, එවිට අපට: (1) එකතුවේ අගය ජ්යාමිතික ප්රගතියේ එකතුවට සීමා කළ හැක. මෙම ආරම්භක සංගුණකය, (2) ජ්යාමිතික ප්රගමනය ns පදවල සිට අසීමිත පද ගණනකට පුළුල් කරන්න, (3) අසීමිත ජ්යාමිතික ප්රගතියක එකතුව (සම්මත වීජ ගණිතය, සැලකිය යුතු කිසිවක් නැත) ගණනය කර අවසානයේ සීමිත අගය (ප්රමාණවත් තරම් විශාල සඳහා) ලබා ගන්න. n):
ද්විපද අනන්යතාවයේ එන්ට්රොපිය H(s) දිස් වූ ආකාරය සැලකිල්ලට ගන්න. ටේලර් ශ්රේණියේ ප්රසාරණය H(s)=H(Q+e2) පළමු ව්යුත්පන්නය පමණක් සැලකිල්ලට ගෙන අනෙක් සියල්ල නොසලකා හරිමින් ලබාගත් ඇස්තමේන්තුවක් ලබා දෙන බව සලකන්න. දැන් අපි අවසාන ප්රකාශනය එකතු කරමු:
එහිදී
අප කළ යුත්තේ e2 < e3 වැනි e1 තෝරා ගැනීමයි, පසුව n ප්රමාණවත් තරම් විශාල වන තාක් අවසාන පදය අත්තනෝමතික ලෙස කුඩා වනු ඇත. එහි ප්රතිඵලයක් ලෙස, සාමාන්ය PE දෝෂය C ට අත්තනෝමතික ලෙස ආසන්න නාලිකා ධාරිතාව සමඟ අවශ්ය තරම් කුඩා ලබා ගත හැක.
සියලුම කේතවල සාමාන්ය ප්රමාණවත් තරම් කුඩා දෝෂයක් තිබේ නම්, අවම වශයෙන් එක් කේතයක් සුදුසු විය යුතුය, එබැවින් අවම වශයෙන් සුදුසු කේතීකරණ පද්ධතියක් තිබේ. මෙය ෂැනන් ලබා ගත් වැදගත් ප්රතිඵලයකි - "ඝෝෂාකාරී නාලිකාවක් සඳහා ෂැනන්ගේ ප්රමේයය", නමුත් ඔහු මෙය මා භාවිතා කළ සරල ද්විමය සමමිතික නාලිකාවට වඩා බොහෝ සාමාන්ය අවස්ථාවක් සඳහා ඔප්පු කළ බව සටහන් කළ යුතුය. සාමාන්ය අවස්ථාව සඳහා, ගණිතමය ගණනය කිරීම් වඩා සංකීර්ණ ය, නමුත් අදහස් එතරම් වෙනස් නොවේ, එබැවින් බොහෝ විට, විශේෂිත නඩුවක උදාහරණය භාවිතා කරමින්, ඔබට ප්රමේයයේ සැබෑ අර්ථය හෙළි කළ හැකිය.
ප්රතිඵලය විවේචනය කරමු. අපි නැවත නැවතත්: "ප්රමාණවත් තරම් විශාල n සඳහා." නමුත් n කොතරම් විශාලද? ඔබට නාලිකා ධාරිතාවට සමීප වීමට සහ නිවැරදි දත්ත හුවමාරුව පිළිබඳව සහතික වීමට අවශ්ය නම් ඉතා, ඉතා විශාලයි! කෙතරම් විශාලද යත්, ඇත්ත වශයෙන්ම, එය පසුව කේතනය කිරීමට ප්රමාණවත් බිටු සහිත පණිවිඩයක් රැස් කිරීමට ඔබට ඉතා දිගු කාලයක් බලා සිටීමට සිදුවනු ඇත. මෙම අවස්ථාවෙහිදී, සසම්භාවී කේත ශබ්ද කෝෂයේ ප්රමාණය සරලව විශාල වනු ඇත (සියල්ලට පසු, එවැනි ශබ්ද කෝෂයක් සියලුම Mn බිටු වල සම්පූර්ණ ලැයිස්තුවකට වඩා කෙටි ස්වරූපයෙන් නිරූපණය කළ නොහැක, n සහ M ඉතා විශාල වුවද)!
දෝෂ-නිවැරදි කිරීමේ කේත ඉතා දිගු පණිවිඩයක් බලා සිටීමෙන් වළකින අතර පසුව එය ඉතා විශාල කේත පොත් හරහා කේතනය කර විකේතනය කිරීම වළක්වන්නේ ඔවුන් කේත පොත් මගහැර සාමාන්ය ගණනය කිරීම් භාවිතා කරන බැවිනි. සරල න්යායට අනුව, එවැනි කේත නාලිකා ධාරිතාවට ප්රවේශ වීමේ හැකියාව අහිමි වන අතර තවමත් අඩු දෝෂ අනුපාතයක් පවත්වා ගෙන යයි, නමුත් කේතය විශාල දෝෂ සංඛ්යාවක් නිවැරදි කරන විට, ඒවා හොඳින් ක්රියාත්මක වේ. වෙනත් වචන වලින් කිවහොත්, ඔබ දෝෂ නිවැරදි කිරීමට යම් නාලිකා ධාරිතාවක් වෙන් කරන්නේ නම්, ඔබ බොහෝ විට දෝෂ නිවැරදි කිරීමේ හැකියාව භාවිතා කළ යුතුය, එනම්, යවන සෑම පණිවිඩයකම දෝෂ විශාල ප්රමාණයක් නිවැරදි කළ යුතුය, එසේ නොමැතිනම් ඔබ මෙම ධාරිතාව නාස්ති කරයි.
ඒ අතරම, ඉහත ඔප්පු කළ ප්රමේයය තවමත් අර්ථ විරහිත නොවේ! කාර්යක්ෂම සම්ප්රේෂණ පද්ධති ඉතා දිගු බිටු නූල් සඳහා දක්ෂ කේතීකරණ ක්රම භාවිතා කළ යුතු බව එය පෙන්වයි. උදාහරණයක් ලෙස බාහිර ග්රහලෝකවලින් ඔබ්බට පියාසර කර ඇති චන්ද්රිකා; ඔවුන් පෘථිවියෙන් සහ සූර්යයාගෙන් ඉවතට ගමන් කරන විට, දත්ත වාරණයේ වැඩි වැඩියෙන් දෝෂ නිවැරදි කිරීමට ඔවුන්ට බල කෙරෙයි: සමහර චන්ද්රිකා සූර්ය පැනල භාවිතා කරයි, එය W 5 ක් පමණ සපයයි, අනෙක් ඒවා න්යෂ්ටික බලශක්ති ප්රභවයන් භාවිතා කරයි, එය එකම බලයක් සපයයි. බල සැපයුමේ අඩු බලය, සම්ප්රේෂක පිඟන් වල කුඩා ප්රමාණය සහ පෘථිවියේ ඇති ග්රාහක පිඟන් වල සීමිත ප්රමාණය, සංඥාව ගමන් කළ යුතු අතිවිශාල දුර - මේ සියල්ල ගොඩනැගීමට ඉහළ මට්ටමේ දෝෂ නිවැරදි කිරීමක් සහිත කේත භාවිතා කිරීම අවශ්ය වේ. ඵලදායී සන්නිවේදන පද්ධතිය.
ඉහත සාධනයෙහි අප භාවිතා කළ n-මාන අවකාශය වෙත ආපසු යමු. ඒ ගැන සාකච්ඡා කිරීමේදී, ගෝලයේ සම්පූර්ණ පරිමාවම පාහේ බාහිර පෘෂ්ඨය අසල සංකේන්ද්රණය වී ඇති බව අපි පෙන්වූවෙමු - මේ අනුව, යවන ලද සංඥාව ලැබුණු සංඥාව වටා ගොඩනගා ඇති ගෝලයේ මතුපිට අසල, සාපේක්ෂව පවා පිහිටා ඇති බව බොහෝ දුරට විශ්වාසයි. එවැනි ගෝලයක කුඩා අරය. එබැවින්, ලැබුණු සංඥාව, අත්තනෝමතික ලෙස විශාල දෝෂ සංඛ්යාවක් නිවැරදි කිරීමෙන් පසු, nQ, දෝෂ රහිත සංඥාවකට හිතුවක්කාර ලෙස සමීප වීම පුදුමයක් නොවේ. අප කලින් සාකච්ඡා කළ සම්බන්ධක ධාරිතාව මෙම සංසිද්ධිය තේරුම් ගැනීමට යතුරයි. දෝෂ නිවැරදි කිරීමේ Hamming කේත සඳහා සාදන ලද සමාන ගෝල එකිනෙක අතිච්ඡාදනය නොවන බව සලකන්න. n-මාන අවකාශයේ ඇති ආසන්න විකලාංග මානයන් විශාල සංඛ්යාවක් අපට කුඩා අතිච්ඡාදනයකින් අභ්යවකාශයේ M ගෝල සවි කළ හැක්කේ මන්දැයි පෙන්වයි. විකේතනය කිරීමේදී කුඩා දෝෂ සංඛ්යාවක් පමණක් ඇති විය හැකි කුඩා, අත්තනෝමතික ලෙස කුඩා අතිච්ඡාදනයකට අපි ඉඩ දෙන්නේ නම්, අපට අභ්යවකාශයේ ගෝලවල ඝන ස්ථානගත කිරීමක් ලබා ගත හැකිය. Hamming යම් මට්ටමක දෝෂ නිවැරදි කිරීමක් සහතික කරයි, Shannon - දෝෂයේ අඩු සම්භාවිතාව, නමුත් ඒ සමඟම Hamming කේත කළ නොහැකි සන්නිවේදන නාලිකාවේ ධාරිතාවට අත්තනෝමතික ලෙස සත්ය ප්රතිදානය පවත්වා ගැනීම.
තොරතුරු න්යාය කාර්යක්ෂම පද්ධතියක් සැලසුම් කරන්නේ කෙසේදැයි අපට නොකියයි, නමුත් එය කාර්යක්ෂම සන්නිවේදන පද්ධති වෙත මග පෙන්වයි. එය යන්ත්රයෙන් යන්ත්රයෙන් සන්නිවේදන පද්ධති තැනීම සඳහා වටිනා මෙවලමකි, නමුත්, කලින් සඳහන් කළ පරිදි, මිනිසුන් එකිනෙකා සමඟ සන්නිවේදනය කරන ආකාරය සම්බන්ධයෙන් එය එතරම් අදාළ නොවේ. ජීව විද්යාත්මක උරුමය තාක්ෂණික සන්නිවේදන පද්ධති මෙන් කෙතරම් දුරට දැයි නොදන්නා බැවින් තොරතුරු න්යාය ජානවලට අදාළ වන ආකාරය දැනට පැහැදිලි නැත. අපට උත්සාහ කිරීම හැර වෙනත් විකල්පයක් නොමැති අතර, සාර්ථකත්වය අපට මෙම සංසිද්ධියේ යන්ත්ර වැනි ස්වභාවය පෙන්නුම් කරන්නේ නම්, අසාර්ථකත්වය තොරතුරුවල ස්වභාවයේ අනෙකුත් වැදගත් අංශ වෙත යොමු කරනු ඇත.
අපි ඕනෑවට වඩා අපගමනය නොකරමු. සියලුම මුල් නිර්වචන, වැඩි හෝ අඩු ප්රමාණයකට, අපගේ මුල් විශ්වාසයන්ගේ සාරය ප්රකාශ කළ යුතු බව අපි දැක ඇත්තෙමු, නමුත් ඒවා යම් තරමක විකෘතියකින් සංලක්ෂිත වන අතර එබැවින් ඒවා අදාළ නොවේ. සාම්ප්රදායිකව පිළිගනු ලබන්නේ, අවසානයේදී, අප භාවිතා කරන නිර්වචනය ඇත්ත වශයෙන්ම සාරය නිර්වචනය කරන බවයි; නමුත්, මෙය අපට දේවල් සකසන ආකාරය පමණක් පවසන අතර කිසිම ආකාරයකින් අපට කිසිදු අර්ථයක් ගෙන එන්නේ නැත. ගණිතමය කවයන් තුළ දැඩි ලෙස අනුග්රහය දක්වන උපකල්පන ප්රවේශය, ප්රායෝගිකව අපේක්ෂා කිරීමට බොහෝ දේ ඉතිරි කරයි.
දැන් අපි IQ පරීක්ෂණවල උදාහරණයක් දෙස බලමු, එහිදී අර්ථ දැක්වීම ඔබ කැමති පරිදි චක්රලේඛයක් වන අතර එහි ප්රතිඵලයක් ලෙස නොමඟ යවන සුළුය. බුද්ධිය මැනීමට නියමිත පරීක්ෂණයක් නිර්මාණය වේ. පසුව එය හැකිතාක් අනුකූල වන පරිදි එය සංශෝධනය කරනු ලැබේ, පසුව එය ප්රකාශයට පත් කර සරල ක්රමයකින් ක්රමාංකනය කරනු ලබන අතර එමඟින් මනින ලද “බුද්ධිය” සාමාන්යයෙන් බෙදා හරිනු ලැබේ (ඇත්ත වශයෙන්ම ක්රමාංකන වක්රයක් මත). සියලුම නිර්වචනයන් පළමු වරට යෝජනා කරන විට පමණක් නොව, බොහෝ කලකට පසුව, ඒවා නිගමනවල භාවිතා කරන විටද නැවත පරීක්ෂා කළ යුතුය. ගැටලුව විසඳා ගැනීම සඳහා නිර්වචන සීමාවන් කොතරම් දුරට සුදුසුද? එක් සැකසුමක දී ඇති නිර්වචන බොහෝ විට වෙනස් සැකසුම් තුළ යෙදෙන්නේ කොපමණ වාරයක් ද? මෙය බොහෝ විට සිදු වේ! ඔබේ ජීවිතයේ නොවැළැක්විය හැකි මානව ශාස්ත්ර වලදී, මෙය බොහෝ විට සිදු වේ.
මේ අනුව, මෙම තොරතුරු න්යාය ඉදිරිපත් කිරීමේ එක් අරමුණක් වූයේ, එහි ප්රයෝජනය විදහා දැක්වීමට අමතරව, මෙම අනතුර ගැන ඔබට අනතුරු ඇඟවීම හෝ අපේක්ෂිත ප්රතිඵලය ලබා ගැනීම සඳහා එය භාවිතා කරන්නේ කෙසේදැයි ඔබට පෙන්වීමයි. මුලික නිර්වචනයන් අවසානයේ ඔබ සොයා ගන්නා දේ, පෙනෙන ආකාරයට වඩා බොහෝ දුරට තීරණය කරන බව බොහෝ කලක සිට සටහන් කර ඇත. ඕනෑම නව තත්වයකදී පමණක් නොව, ඔබ දිගු කලක් සේවය කර ඇති ප්රදේශවලද මූලික නිර්වචන සඳහා ඔබෙන් විශාල අවධානයක් අවශ්ය වේ. මෙමගින් ඔබට ලබාගන්නා ප්රතිඵල කොයිතරම් දුරට ප්රයෝජනවත් දෙයක් නොව tautology ද යන්න තේරුම් ගැනීමට ඉඩ සලසයි.
එඩින්ටන්ගේ සුප්රසිද්ධ කතාවෙන් කියැවෙන්නේ දැලකින් මුහුදේ මසුන් ඇල්ලූ මිනිසුන් ගැන ය. ඔවුන් ඇල්ලූ මසුන්ගේ ප්රමාණය අධ්යයනය කිරීමෙන් පසු, ඔවුන් මුහුදේ සිටින මසුන්ගේ අවම ප්රමාණය තීරණය කළහ! ඔවුන්ගේ නිගමනය මෙහෙයවනු ලැබුවේ භාවිතා කරන උපකරණය මත මිස යථාර්ථයෙන් නොවේ.
ඉදිරියට පැවැත්වේ…
පොතේ පරිවර්තනය, පිරිසැලසුම සහ ප්රකාශනය සඳහා උදව් කිරීමට කැමති අය - පුද්ගලික පණිවිඩයකින් හෝ විද්යුත් තැපෑලකින් ලියන්න [විද්යුත් ආරක්ෂිත]
මාර්ගය වන විට, අපි තවත් සිසිල් පොතක පරිවර්තනය ද දියත් කර ඇත්තෙමු -
අපි විශේෂයෙන් සොයන්නේ පරිවර්තනය කිරීමට උදව් කළ හැකි අය
පොතේ අන්තර්ගතය සහ පරිවර්තන පරිච්ඡේද
- විද්යාව සහ ඉංජිනේරු ශිල්පය කිරීමේ කලාව සඳහා හැඳින්වීම: ඉගෙනීමට ඉගෙනීම (මාර්තු 28, 1995)
පරිවර්තනය: 1 වන පරිච්ඡේදය - "ඩිජිටල් (විවික්ත) විප්ලවයේ පදනම්" (මාර්තු 30, 1995)
පරිච්ඡේදය 2. ඩිජිටල් (විවික්ත) විප්ලවයේ මූලික කරුණු - "පරිගණක ඉතිහාසය - දෘඪාංග" (මාර්තු 31, 1995)
පරිච්ඡේදය 3. පරිගණක ඉතිහාසය - දෘඪාංග - "පරිගණක ඉතිහාසය - මෘදුකාංග" (අප්රේල් 4, 1995)
පරිච්ඡේදය 4. පරිගණක ඉතිහාසය - මෘදුකාංග - "පරිගණක ඉතිහාසය - යෙදුම්" (අප්රේල් 6, 1995)
5 වන පරිච්ඡේදය: පරිගණක ඉතිහාසය - ප්රායෝගික යෙදුම් - "කෘතිම බුද්ධිය - I කොටස" (අප්රේල් 7, 1995)
පරිච්ඡේදය 6. කෘතිම බුද්ධිය - 1 - "කෘතිම බුද්ධිය - II කොටස" (අප්රේල් 11, 1995)
පරිච්ඡේදය 7. කෘතිම බුද්ධිය - II - "කෘතිම බුද්ධිය III" (අප්රේල් 13, 1995)
පරිච්ඡේදය 8. කෘතිම බුද්ධිය-III - "n-Dimensional Space" (අප්රේල් 14, 1995)
පරිච්ඡේදය 9. N-මාන අවකාශය - "කේතීකරණ සිද්ධාන්තය - තොරතුරු නියෝජනය, I කොටස" (අප්රේල් 18, 1995)
පරිච්ඡේදය 10. කේතීකරණ සිද්ධාන්තය - I - "කේතීකරණ සිද්ධාන්තය - තොරතුරු නියෝජනය, II කොටස" (අප්රේල් 20, 1995)
පරිච්ඡේදය 11. කේතීකරණ සිද්ධාන්තය - II - "දෝෂ-නිවැරදි කිරීමේ කේත" (අප්රේල් 21, 1995)
පරිච්ඡේදය 12. දෝෂ නිවැරදි කිරීමේ කේත - "තොරතුරු න්යාය" (අප්රේල් 25, 1995)
පරිච්ඡේදය 13. තොරතුරු න්යාය - "ඩිජිටල් පෙරහන්, I කොටස" (අප්රේල් 27, 1995)
පරිච්ඡේදය 14. ඩිජිටල් පෙරහන් - 1 - "ඩිජිටල් පෙරහන්, II කොටස" (අප්රේල් 28, 1995)
පරිච්ඡේදය 15. ඩිජිටල් පෙරහන් - 2 - "ඩිජිටල් පෙරහන්, III කොටස" (මැයි 2, 1995)
පරිච්ඡේදය 16. ඩිජිටල් පෙරහන් - 3 - "ඩිජිටල් පෙරහන්, IV කොටස" (මැයි 4, 1995)
පරිච්ඡේදය 17. ඩිජිටල් පෙරහන් - IV - "Simulation, I කොටස" (මැයි 5, 1995)
18 වන පරිච්ඡේදය. ආකෘති නිර්මාණය - I - "Simulation, II කොටස" (මැයි 9, 1995)
19 වන පරිච්ඡේදය. ආකෘති නිර්මාණය - II - "Simulation, Part III" (මැයි 11, 1995)
20 වන පරිච්ඡේදය. ආකෘති නිර්මාණය - III - "ෆයිබර් ඔප්ටික්ස්" (මැයි 12, 1995)
පරිච්ඡේදය 21. ෆයිබර් ඔප්ටික්ස් - "පරිගණක ආධාරක උපදෙස්" (16 මැයි 1995)
22 පරිච්ඡේදය: පරිගණක ආධාරක උපදෙස් (CAI) - "ගණිතය" (18 මැයි 1995)
23 වන පරිච්ඡේදය. ගණිතය - "Quantum Mechanics" (19 මැයි 1995)
පරිච්ඡේදය 24. ක්වොන්ටම් යාන්ත්ර විද්යාව - "නිර්මාණශීලිත්වය" (මැයි 23, 1995). පරිවර්තනය:
25 වන පරිච්ඡේදය. නිර්මාණශීලිත්වය - "විශේෂඥයන්" (මැයි 25, 1995)
26 වන පරිච්ඡේදය. විශේෂඥයින් - "විශ්වසනීය දත්ත" (මැයි 26, 1995)
පරිච්ඡේදය 27. විශ්වාස කළ නොහැකි දත්ත - "පද්ධති ඉංජිනේරු" (මැයි 30, 1995)
පරිච්ඡේදය 28. පද්ධති ඉංජිනේරු - "ඔබ මනින දේ ඔබට ලැබේ" (ජුනි 1, 1995)
29 වන පරිච්ඡේදය: ඔබ මනින දේ ඔබට ලැබේ -
"අපි දන්නා දේ අපි දන්නේ කෙසේද" (ජූනි 2, 1995) විනාඩි 10 කෑලි පරිවර්තනය කරන්න - Hamming, "ඔබ සහ ඔබේ පර්යේෂණ" (ජුනි 6, 1995).
පරිවර්තනය: ඔබ සහ ඔබේ වැඩ
පොතේ පරිවර්තනය, පිරිසැලසුම සහ ප්රකාශනය සඳහා උදව් කිරීමට කැමති අය - පුද්ගලික පණිවිඩයකින් හෝ විද්යුත් තැපෑලකින් ලියන්න [විද්යුත් ආරක්ෂිත]
මූලාශ්රය: www.habr.com