ರಿಚರ್ಡ್ ಹ್ಯಾಮಿಂಗ್: ಅಧ್ಯಾಯ 13. ಮಾಹಿತಿ ಸಿದ್ಧಾಂತ

ನಾವು ಮಾಡಿದೆವು!

"ನಿಮ್ಮ ತಾಂತ್ರಿಕ ಭವಿಷ್ಯಕ್ಕಾಗಿ ನಿಮ್ಮನ್ನು ಸಿದ್ಧಪಡಿಸುವುದು ಈ ಕೋರ್ಸ್‌ನ ಉದ್ದೇಶವಾಗಿದೆ."

ರಿಚರ್ಡ್ ಹ್ಯಾಮಿಂಗ್: ಅಧ್ಯಾಯ 13. ಮಾಹಿತಿ ಸಿದ್ಧಾಂತಹಲೋ, ಹಬ್ರ್. ಅದ್ಭುತ ಲೇಖನವನ್ನು ನೆನಪಿಸಿಕೊಳ್ಳಿ "ನೀವು ಮತ್ತು ನಿಮ್ಮ ಕೆಲಸ" (+219, 2588 ಬುಕ್‌ಮಾರ್ಕ್‌ಗಳು, 429k ಓದುವಿಕೆ)?

ಆದ್ದರಿಂದ ಹ್ಯಾಮಿಂಗ್ (ಹೌದು, ಹೌದು, ಸ್ವಯಂ-ಮೇಲ್ವಿಚಾರಣೆ ಮತ್ತು ಸ್ವಯಂ-ಸರಿಪಡಿಸುವುದು ಹ್ಯಾಮಿಂಗ್ ಕೋಡ್‌ಗಳು) ಸಂಪೂರ್ಣ ಇದೆ ಒಂದು ಪುಸ್ತಕ, ಅವರ ಉಪನ್ಯಾಸಗಳ ಆಧಾರದ ಮೇಲೆ ಬರೆಯಲಾಗಿದೆ. ನಾವು ಅದನ್ನು ಅನುವಾದಿಸುತ್ತೇವೆ, ಏಕೆಂದರೆ ಮನುಷ್ಯನು ತನ್ನ ಮನಸ್ಸನ್ನು ಮಾತನಾಡುತ್ತಾನೆ.

ಇದು ಕೇವಲ ಐಟಿ ಬಗ್ಗೆ ಮಾತ್ರವಲ್ಲ, ನಂಬಲಾಗದಷ್ಟು ಕೂಲ್ ಜನರ ಆಲೋಚನಾ ಶೈಲಿಯ ಪುಸ್ತಕವಾಗಿದೆ. “ಇದು ಕೇವಲ ಧನಾತ್ಮಕ ಚಿಂತನೆಯ ಉತ್ತೇಜನವಲ್ಲ; ಇದು ಉತ್ತಮ ಕೆಲಸವನ್ನು ಮಾಡುವ ಸಾಧ್ಯತೆಗಳನ್ನು ಹೆಚ್ಚಿಸುವ ಪರಿಸ್ಥಿತಿಗಳನ್ನು ವಿವರಿಸುತ್ತದೆ.

ಅನುವಾದಕ್ಕಾಗಿ ಆಂಡ್ರೆ ಪಖೋಮೊವ್ ಅವರಿಗೆ ಧನ್ಯವಾದಗಳು.

ಮಾಹಿತಿ ಸಿದ್ಧಾಂತವನ್ನು 1940 ರ ದಶಕದ ಅಂತ್ಯದಲ್ಲಿ C. E. ಶಾನನ್ ಅಭಿವೃದ್ಧಿಪಡಿಸಿದರು. ಬೆಲ್ ಲ್ಯಾಬ್ಸ್ ಆಡಳಿತವು ಅದನ್ನು "ಸಂವಹನ ಸಿದ್ಧಾಂತ" ಎಂದು ಕರೆಯಲು ಒತ್ತಾಯಿಸಿತು ಏಕೆಂದರೆ... ಇದು ಹೆಚ್ಚು ನಿಖರವಾದ ಹೆಸರು. ಸ್ಪಷ್ಟ ಕಾರಣಗಳಿಗಾಗಿ, "ಮಾಹಿತಿ ಸಿದ್ಧಾಂತ" ಎಂಬ ಹೆಸರು ಸಾರ್ವಜನಿಕರ ಮೇಲೆ ಹೆಚ್ಚು ಪ್ರಭಾವ ಬೀರುತ್ತದೆ, ಅದಕ್ಕಾಗಿಯೇ ಶಾನನ್ ಅದನ್ನು ಆರಿಸಿಕೊಂಡರು ಮತ್ತು ಇದು ಇಂದಿಗೂ ನಮಗೆ ತಿಳಿದಿರುವ ಹೆಸರು. ಸಿದ್ಧಾಂತವು ಮಾಹಿತಿಯೊಂದಿಗೆ ವ್ಯವಹರಿಸುತ್ತದೆ ಎಂದು ಹೆಸರು ಸ್ವತಃ ಸೂಚಿಸುತ್ತದೆ, ಇದು ನಾವು ಮಾಹಿತಿ ಯುಗಕ್ಕೆ ಆಳವಾಗಿ ಚಲಿಸುವಾಗ ಅದು ಮುಖ್ಯವಾಗುತ್ತದೆ. ಈ ಅಧ್ಯಾಯದಲ್ಲಿ, ನಾನು ಈ ಸಿದ್ಧಾಂತದಿಂದ ಹಲವಾರು ಮುಖ್ಯ ತೀರ್ಮಾನಗಳನ್ನು ಸ್ಪರ್ಶಿಸುತ್ತೇನೆ, ನಾನು ಈ ಸಿದ್ಧಾಂತದ ಕೆಲವು ವೈಯಕ್ತಿಕ ನಿಬಂಧನೆಗಳ ಕಟ್ಟುನಿಟ್ಟಾದ ಅಲ್ಲ, ಆದರೆ ಅರ್ಥಗರ್ಭಿತ ಪುರಾವೆಗಳನ್ನು ಒದಗಿಸುತ್ತೇನೆ, ಇದರಿಂದ "ಮಾಹಿತಿ ಸಿದ್ಧಾಂತ" ನಿಜವಾಗಿ ಏನೆಂದು ನೀವು ಅರ್ಥಮಾಡಿಕೊಳ್ಳುತ್ತೀರಿ, ಅಲ್ಲಿ ನೀವು ಅದನ್ನು ಅನ್ವಯಿಸಬಹುದು. ಮತ್ತು ಎಲ್ಲಿ ಅಲ್ಲ.

ಮೊದಲನೆಯದಾಗಿ, "ಮಾಹಿತಿ" ಎಂದರೇನು? ಶಾನನ್ ಮಾಹಿತಿಯನ್ನು ಅನಿಶ್ಚಿತತೆಯೊಂದಿಗೆ ಸಮೀಕರಿಸುತ್ತಾನೆ. ಅವರು ಈವೆಂಟ್‌ನ ಸಂಭವನೀಯತೆಯ ಋಣಾತ್ಮಕ ಲಾಗರಿಥಮ್ ಅನ್ನು ಆಯ್ಕೆ ಮಾಡಿದರು, ಸಂಭವನೀಯತೆ p ಯೊಂದಿಗೆ ಈವೆಂಟ್ ಸಂಭವಿಸಿದಾಗ ನೀವು ಸ್ವೀಕರಿಸುವ ಮಾಹಿತಿಯ ಪರಿಮಾಣಾತ್ಮಕ ಅಳತೆಯಾಗಿ. ಉದಾಹರಣೆಗೆ, ಲಾಸ್ ಏಂಜಲೀಸ್‌ನಲ್ಲಿನ ಹವಾಮಾನವು ಮಂಜಿನಿಂದ ಕೂಡಿದೆ ಎಂದು ನಾನು ನಿಮಗೆ ಹೇಳಿದರೆ, p 1 ಕ್ಕೆ ಹತ್ತಿರದಲ್ಲಿದೆ, ಅದು ನಿಜವಾಗಿಯೂ ನಮಗೆ ಹೆಚ್ಚಿನ ಮಾಹಿತಿಯನ್ನು ನೀಡುವುದಿಲ್ಲ. ಆದರೆ ಜೂನ್‌ನಲ್ಲಿ ಮಾಂಟೆರೆಯಲ್ಲಿ ಮಳೆಯಾಗುತ್ತದೆ ಎಂದು ನಾನು ಹೇಳಿದರೆ, ಸಂದೇಶದಲ್ಲಿ ಅನಿಶ್ಚಿತತೆ ಇರುತ್ತದೆ ಮತ್ತು ಅದರಲ್ಲಿ ಹೆಚ್ಚಿನ ಮಾಹಿತಿ ಇರುತ್ತದೆ. ಲಾಗ್ 1 = 0 ರಿಂದ ವಿಶ್ವಾಸಾರ್ಹ ಈವೆಂಟ್ ಯಾವುದೇ ಮಾಹಿತಿಯನ್ನು ಹೊಂದಿರುವುದಿಲ್ಲ.

ಇದನ್ನು ಹೆಚ್ಚು ವಿವರವಾಗಿ ನೋಡೋಣ. ಮಾಹಿತಿಯ ಪರಿಮಾಣಾತ್ಮಕ ಅಳತೆಯು ಈವೆಂಟ್ p ನ ಸಂಭವನೀಯತೆಯ ನಿರಂತರ ಕಾರ್ಯವಾಗಿರಬೇಕು ಮತ್ತು ಸ್ವತಂತ್ರ ಘಟನೆಗಳಿಗೆ ಇದು ಸಂಯೋಜಕವಾಗಿರಬೇಕು - ಎರಡು ಸ್ವತಂತ್ರ ಘಟನೆಗಳ ಸಂಭವಿಸುವಿಕೆಯ ಪರಿಣಾಮವಾಗಿ ಪಡೆದ ಮಾಹಿತಿಯ ಪ್ರಮಾಣವು ಸಮಾನವಾಗಿರಬೇಕು ಎಂದು ಶಾನನ್ ನಂಬಿದ್ದರು. ಜಂಟಿ ಘಟನೆಯ ಪರಿಣಾಮವಾಗಿ ಪಡೆದ ಮಾಹಿತಿಯ ಪ್ರಮಾಣ. ಉದಾಹರಣೆಗೆ, ಡೈಸ್ ರೋಲ್ ಮತ್ತು ನಾಣ್ಯ ರೋಲ್‌ನ ಫಲಿತಾಂಶವನ್ನು ಸಾಮಾನ್ಯವಾಗಿ ಸ್ವತಂತ್ರ ಘಟನೆಗಳೆಂದು ಪರಿಗಣಿಸಲಾಗುತ್ತದೆ. ಮೇಲಿನದನ್ನು ಗಣಿತದ ಭಾಷೆಗೆ ಅನುವಾದಿಸೋಣ. I (p) ಸಂಭವನೀಯತೆ p ಯೊಂದಿಗೆ ಈವೆಂಟ್‌ನಲ್ಲಿ ಒಳಗೊಂಡಿರುವ ಮಾಹಿತಿಯ ಮೊತ್ತವಾಗಿದ್ದರೆ, ಎರಡು ಸ್ವತಂತ್ರ ಈವೆಂಟ್‌ಗಳನ್ನು ಒಳಗೊಂಡಿರುವ ಜಂಟಿ ಈವೆಂಟ್‌ಗಾಗಿ x ಸಂಭವನೀಯತೆ p1 ಮತ್ತು y ಸಂಭವನೀಯತೆ p2 ನೊಂದಿಗೆ ನಾವು ಪಡೆಯುತ್ತೇವೆ

ರಿಚರ್ಡ್ ಹ್ಯಾಮಿಂಗ್: ಅಧ್ಯಾಯ 13. ಮಾಹಿತಿ ಸಿದ್ಧಾಂತ
(x ಮತ್ತು y ಸ್ವತಂತ್ರ ಘಟನೆಗಳು)

ಇದು ಕ್ರಿಯಾತ್ಮಕ ಕೌಚಿ ಸಮೀಕರಣವಾಗಿದೆ, ಇದು ಎಲ್ಲಾ p1 ಮತ್ತು p2 ಗಳಿಗೆ ನಿಜವಾಗಿದೆ. ಈ ಕ್ರಿಯಾತ್ಮಕ ಸಮೀಕರಣವನ್ನು ಪರಿಹರಿಸಲು, ಅದನ್ನು ಊಹಿಸಿ

p1 = p2 = p,

ಇದು ನೀಡುತ್ತದೆ

ರಿಚರ್ಡ್ ಹ್ಯಾಮಿಂಗ್: ಅಧ್ಯಾಯ 13. ಮಾಹಿತಿ ಸಿದ್ಧಾಂತ

p1 = p2 ಮತ್ತು p2 = p ಆಗಿದ್ದರೆ

ರಿಚರ್ಡ್ ಹ್ಯಾಮಿಂಗ್: ಅಧ್ಯಾಯ 13. ಮಾಹಿತಿ ಸಿದ್ಧಾಂತ

ಇತ್ಯಾದಿ ಘಾತೀಯಗಳಿಗೆ ಪ್ರಮಾಣಿತ ವಿಧಾನವನ್ನು ಬಳಸಿಕೊಂಡು ಈ ಪ್ರಕ್ರಿಯೆಯನ್ನು ವಿಸ್ತರಿಸುವುದು, ಎಲ್ಲಾ ಭಾಗಲಬ್ಧ ಸಂಖ್ಯೆಗಳಿಗೆ m/n ಕೆಳಗಿನವುಗಳು ನಿಜ

ರಿಚರ್ಡ್ ಹ್ಯಾಮಿಂಗ್: ಅಧ್ಯಾಯ 13. ಮಾಹಿತಿ ಸಿದ್ಧಾಂತ

ಮಾಹಿತಿ ಅಳತೆಯ ಊಹೆಯ ನಿರಂತರತೆಯಿಂದ, ಲಾಗರಿಥಮಿಕ್ ಕಾರ್ಯವು ಕೌಚಿ ಕ್ರಿಯಾತ್ಮಕ ಸಮೀಕರಣಕ್ಕೆ ಏಕೈಕ ನಿರಂತರ ಪರಿಹಾರವಾಗಿದೆ ಎಂದು ಅನುಸರಿಸುತ್ತದೆ.

ಮಾಹಿತಿ ಸಿದ್ಧಾಂತದಲ್ಲಿ, ಲಾಗರಿಥಮ್ ಬೇಸ್ ಅನ್ನು 2 ಎಂದು ತೆಗೆದುಕೊಳ್ಳುವುದು ಸಾಮಾನ್ಯವಾಗಿದೆ, ಆದ್ದರಿಂದ ಬೈನರಿ ಆಯ್ಕೆಯು ನಿಖರವಾಗಿ 1 ಬಿಟ್ ಮಾಹಿತಿಯನ್ನು ಹೊಂದಿರುತ್ತದೆ. ಆದ್ದರಿಂದ, ಮಾಹಿತಿಯನ್ನು ಸೂತ್ರದಿಂದ ಅಳೆಯಲಾಗುತ್ತದೆ

ರಿಚರ್ಡ್ ಹ್ಯಾಮಿಂಗ್: ಅಧ್ಯಾಯ 13. ಮಾಹಿತಿ ಸಿದ್ಧಾಂತ

ವಿರಾಮ ಮಾಡೋಣ ಮತ್ತು ಮೇಲೆ ಏನಾಯಿತು ಎಂಬುದನ್ನು ಅರ್ಥಮಾಡಿಕೊಳ್ಳೋಣ. ಮೊದಲನೆಯದಾಗಿ, ನಾವು "ಮಾಹಿತಿ" ಎಂಬ ಪರಿಕಲ್ಪನೆಯನ್ನು ವ್ಯಾಖ್ಯಾನಿಸಲಿಲ್ಲ; ಅದರ ಪರಿಮಾಣಾತ್ಮಕ ಅಳತೆಗಾಗಿ ನಾವು ಸೂತ್ರವನ್ನು ಸರಳವಾಗಿ ವ್ಯಾಖ್ಯಾನಿಸಿದ್ದೇವೆ.

ಎರಡನೆಯದಾಗಿ, ಈ ಅಳತೆಯು ಅನಿಶ್ಚಿತತೆಗೆ ಒಳಪಟ್ಟಿರುತ್ತದೆ ಮತ್ತು ಇದು ಯಂತ್ರಗಳಿಗೆ ಸಮಂಜಸವಾಗಿ ಸೂಕ್ತವಾಗಿದೆ-ಉದಾಹರಣೆಗೆ, ದೂರವಾಣಿ ವ್ಯವಸ್ಥೆಗಳು, ರೇಡಿಯೋ, ದೂರದರ್ಶನ, ಕಂಪ್ಯೂಟರ್‌ಗಳು, ಇತ್ಯಾದಿ-ಇದು ಮಾಹಿತಿಯ ಕಡೆಗೆ ಸಾಮಾನ್ಯ ಮಾನವ ವರ್ತನೆಗಳನ್ನು ಪ್ರತಿಬಿಂಬಿಸುವುದಿಲ್ಲ.

ಮೂರನೆಯದಾಗಿ, ಇದು ಸಾಪೇಕ್ಷ ಅಳತೆಯಾಗಿದೆ, ಇದು ನಿಮ್ಮ ಜ್ಞಾನದ ಪ್ರಸ್ತುತ ಸ್ಥಿತಿಯನ್ನು ಅವಲಂಬಿಸಿರುತ್ತದೆ. ಯಾದೃಚ್ಛಿಕ ಸಂಖ್ಯೆಯ ಜನರೇಟರ್‌ನಿಂದ "ಯಾದೃಚ್ಛಿಕ ಸಂಖ್ಯೆಗಳ" ಸ್ಟ್ರೀಮ್ ಅನ್ನು ನೀವು ನೋಡಿದರೆ, ಪ್ರತಿ ಮುಂದಿನ ಸಂಖ್ಯೆಯು ಅನಿಶ್ಚಿತವಾಗಿದೆ ಎಂದು ನೀವು ಊಹಿಸುತ್ತೀರಿ, ಆದರೆ "ಯಾದೃಚ್ಛಿಕ ಸಂಖ್ಯೆಗಳನ್ನು" ಲೆಕ್ಕಾಚಾರ ಮಾಡುವ ಸೂತ್ರವನ್ನು ನೀವು ತಿಳಿದಿದ್ದರೆ, ಮುಂದಿನ ಸಂಖ್ಯೆಯು ತಿಳಿಯುತ್ತದೆ ಮತ್ತು ಆದ್ದರಿಂದ ಆಗುವುದಿಲ್ಲ ಮಾಹಿತಿಯನ್ನು ಒಳಗೊಂಡಿರುತ್ತದೆ.

ಆದ್ದರಿಂದ ಶಾನನ್ ಅವರ ಮಾಹಿತಿಯ ವ್ಯಾಖ್ಯಾನವು ಅನೇಕ ಸಂದರ್ಭಗಳಲ್ಲಿ ಯಂತ್ರಗಳಿಗೆ ಸೂಕ್ತವಾಗಿದೆ, ಆದರೆ ಪದದ ಮಾನವ ತಿಳುವಳಿಕೆಗೆ ಹೊಂದಿಕೆಯಾಗುವುದಿಲ್ಲ. ಈ ಕಾರಣಕ್ಕಾಗಿಯೇ "ಮಾಹಿತಿ ಸಿದ್ಧಾಂತ" ವನ್ನು "ಸಂವಹನ ಸಿದ್ಧಾಂತ" ಎಂದು ಕರೆಯಬೇಕು. ಆದಾಗ್ಯೂ, ವ್ಯಾಖ್ಯಾನಗಳನ್ನು ಬದಲಾಯಿಸಲು ಇದು ತುಂಬಾ ತಡವಾಗಿದೆ (ಇದು ಸಿದ್ಧಾಂತಕ್ಕೆ ಅದರ ಆರಂಭಿಕ ಜನಪ್ರಿಯತೆಯನ್ನು ನೀಡಿತು, ಮತ್ತು ಈ ಸಿದ್ಧಾಂತವು "ಮಾಹಿತಿ" ಯೊಂದಿಗೆ ವ್ಯವಹರಿಸುತ್ತದೆ ಎಂದು ಜನರು ಇನ್ನೂ ಯೋಚಿಸುವಂತೆ ಮಾಡುತ್ತದೆ), ಆದ್ದರಿಂದ ನಾವು ಅವರೊಂದಿಗೆ ಬದುಕಬೇಕು, ಆದರೆ ಅದೇ ಸಮಯದಲ್ಲಿ ನೀವು ಮಾಡಬೇಕು ಮಾಹಿತಿಯ ಶಾನನ್‌ನ ವ್ಯಾಖ್ಯಾನವು ಅದರ ಸಾಮಾನ್ಯವಾಗಿ ಬಳಸುವ ಅರ್ಥದಿಂದ ಎಷ್ಟು ದೂರದಲ್ಲಿದೆ ಎಂಬುದನ್ನು ಸ್ಪಷ್ಟವಾಗಿ ಅರ್ಥಮಾಡಿಕೊಳ್ಳಿ. ಶಾನನ್ ಅವರ ಮಾಹಿತಿಯು ಸಂಪೂರ್ಣವಾಗಿ ವಿಭಿನ್ನವಾದ ಅನಿಶ್ಚಿತತೆಯೊಂದಿಗೆ ವ್ಯವಹರಿಸುತ್ತದೆ.

ನೀವು ಯಾವುದೇ ಪರಿಭಾಷೆಯನ್ನು ಪ್ರಸ್ತಾಪಿಸುವಾಗ ಯೋಚಿಸಬೇಕಾದ ಸಂಗತಿ ಇಲ್ಲಿದೆ. ಮಾಹಿತಿಯ ಶಾನನ್‌ನ ವ್ಯಾಖ್ಯಾನದಂತಹ ಪ್ರಸ್ತಾವಿತ ವ್ಯಾಖ್ಯಾನವು ನಿಮ್ಮ ಮೂಲ ಕಲ್ಪನೆಯನ್ನು ಹೇಗೆ ಒಪ್ಪುತ್ತದೆ ಮತ್ತು ಅದು ಹೇಗೆ ಭಿನ್ನವಾಗಿದೆ? ಪರಿಕಲ್ಪನೆಯ ನಿಮ್ಮ ಹಿಂದಿನ ದೃಷ್ಟಿಯನ್ನು ನಿಖರವಾಗಿ ಪ್ರತಿಬಿಂಬಿಸುವ ಯಾವುದೇ ಪದವಿಲ್ಲ, ಆದರೆ ಅಂತಿಮವಾಗಿ, ಇದು ಪರಿಕಲ್ಪನೆಯ ಅರ್ಥವನ್ನು ಪ್ರತಿಬಿಂಬಿಸುವ ಪರಿಭಾಷೆಯಾಗಿದೆ, ಆದ್ದರಿಂದ ಸ್ಪಷ್ಟವಾದ ವ್ಯಾಖ್ಯಾನಗಳ ಮೂಲಕ ಏನನ್ನಾದರೂ ಔಪಚಾರಿಕಗೊಳಿಸುವುದು ಯಾವಾಗಲೂ ಕೆಲವು ಶಬ್ದವನ್ನು ಪರಿಚಯಿಸುತ್ತದೆ.

pi ಸಂಭವನೀಯತೆಗಳೊಂದಿಗೆ q ಚಿಹ್ನೆಗಳನ್ನು ಒಳಗೊಂಡಿರುವ ವರ್ಣಮಾಲೆಯ ವ್ಯವಸ್ಥೆಯನ್ನು ಪರಿಗಣಿಸಿ. ಈ ವಿಷಯದಲ್ಲಿ ಮಾಹಿತಿಯ ಸರಾಸರಿ ಪ್ರಮಾಣ ವ್ಯವಸ್ಥೆಯಲ್ಲಿ (ಅದರ ನಿರೀಕ್ಷಿತ ಮೌಲ್ಯ) ಇದಕ್ಕೆ ಸಮಾನವಾಗಿರುತ್ತದೆ:

ರಿಚರ್ಡ್ ಹ್ಯಾಮಿಂಗ್: ಅಧ್ಯಾಯ 13. ಮಾಹಿತಿ ಸಿದ್ಧಾಂತ

ಇದನ್ನು ಸಂಭವನೀಯತೆಯ ವಿತರಣೆಯೊಂದಿಗೆ ಸಿಸ್ಟಮ್‌ನ ಎಂಟ್ರೊಪಿ ಎಂದು ಕರೆಯಲಾಗುತ್ತದೆ {pi}. ನಾವು "ಎಂಟ್ರೊಪಿ" ಎಂಬ ಪದವನ್ನು ಬಳಸುತ್ತೇವೆ ಏಕೆಂದರೆ ಥರ್ಮೋಡೈನಾಮಿಕ್ಸ್ ಮತ್ತು ಸ್ಟ್ಯಾಟಿಸ್ಟಿಕಲ್ ಮೆಕ್ಯಾನಿಕ್ಸ್‌ನಲ್ಲಿ ಅದೇ ಗಣಿತದ ರೂಪವು ಕಂಡುಬರುತ್ತದೆ. ಅದಕ್ಕಾಗಿಯೇ "ಎಂಟ್ರೊಪಿ" ಎಂಬ ಪದವು ತನ್ನ ಸುತ್ತಲೂ ಪ್ರಾಮುಖ್ಯತೆಯ ನಿರ್ದಿಷ್ಟ ಸೆಳವು ಸೃಷ್ಟಿಸುತ್ತದೆ, ಅದು ಅಂತಿಮವಾಗಿ ಸಮರ್ಥಿಸುವುದಿಲ್ಲ. ಸಂಕೇತದ ಅದೇ ಗಣಿತದ ರೂಪವು ಚಿಹ್ನೆಗಳ ಅದೇ ವ್ಯಾಖ್ಯಾನವನ್ನು ಸೂಚಿಸುವುದಿಲ್ಲ!

ಸಂಭವನೀಯತೆಯ ವಿತರಣೆಯ ಎಂಟ್ರೊಪಿಯು ಕೋಡಿಂಗ್ ಸಿದ್ಧಾಂತದಲ್ಲಿ ಪ್ರಮುಖ ಪಾತ್ರವನ್ನು ವಹಿಸುತ್ತದೆ. ಪೈ ಮತ್ತು ಕಿ ಎಂಬ ಎರಡು ವಿಭಿನ್ನ ಸಂಭವನೀಯತೆಯ ವಿತರಣೆಗಳಿಗೆ ಗಿಬ್ಸ್ ಅಸಮಾನತೆಯು ಈ ಸಿದ್ಧಾಂತದ ಪ್ರಮುಖ ಪರಿಣಾಮಗಳಲ್ಲಿ ಒಂದಾಗಿದೆ. ಆದ್ದರಿಂದ ನಾವು ಅದನ್ನು ಸಾಬೀತುಪಡಿಸಬೇಕು

ರಿಚರ್ಡ್ ಹ್ಯಾಮಿಂಗ್: ಅಧ್ಯಾಯ 13. ಮಾಹಿತಿ ಸಿದ್ಧಾಂತ

ಪುರಾವೆಯು ಸ್ಪಷ್ಟವಾದ ಗ್ರಾಫ್ ಅನ್ನು ಆಧರಿಸಿದೆ, ಚಿತ್ರ. 13.I, ಅದು ತೋರಿಸುತ್ತದೆ

ರಿಚರ್ಡ್ ಹ್ಯಾಮಿಂಗ್: ಅಧ್ಯಾಯ 13. ಮಾಹಿತಿ ಸಿದ್ಧಾಂತ

ಮತ್ತು ಸಮಾನತೆಯನ್ನು x = 1 ಆಗ ಮಾತ್ರ ಸಾಧಿಸಲಾಗುತ್ತದೆ. ನಾವು ಎಡಭಾಗದಿಂದ ಮೊತ್ತದ ಪ್ರತಿಯೊಂದು ಪದಕ್ಕೂ ಅಸಮಾನತೆಯನ್ನು ಅನ್ವಯಿಸೋಣ:

ರಿಚರ್ಡ್ ಹ್ಯಾಮಿಂಗ್: ಅಧ್ಯಾಯ 13. ಮಾಹಿತಿ ಸಿದ್ಧಾಂತ

ಸಂವಹನ ವ್ಯವಸ್ಥೆಯ ವರ್ಣಮಾಲೆಯು q ಚಿಹ್ನೆಗಳನ್ನು ಹೊಂದಿದ್ದರೆ, ನಂತರ ಪ್ರತಿ ಚಿಹ್ನೆಯ ಪ್ರಸರಣದ ಸಂಭವನೀಯತೆಯನ್ನು qi = 1/q ಮತ್ತು q ಅನ್ನು ಬದಲಿಸಿದರೆ, ನಾವು ಗಿಬ್ಸ್ ಅಸಮಾನತೆಯಿಂದ ಪಡೆಯುತ್ತೇವೆ

ರಿಚರ್ಡ್ ಹ್ಯಾಮಿಂಗ್: ಅಧ್ಯಾಯ 13. ಮಾಹಿತಿ ಸಿದ್ಧಾಂತ

ರಿಚರ್ಡ್ ಹ್ಯಾಮಿಂಗ್: ಅಧ್ಯಾಯ 13. ಮಾಹಿತಿ ಸಿದ್ಧಾಂತ

ಚಿತ್ರ 13.I

ಇದರರ್ಥ ಎಲ್ಲಾ q ಚಿಹ್ನೆಗಳನ್ನು ರವಾನಿಸುವ ಸಂಭವನೀಯತೆಯು ಒಂದೇ ಆಗಿದ್ದರೆ ಮತ್ತು - 1 / q ಗೆ ಸಮನಾಗಿದ್ದರೆ, ಗರಿಷ್ಠ ಎಂಟ್ರೊಪಿಯು ln q ಗೆ ಸಮಾನವಾಗಿರುತ್ತದೆ, ಇಲ್ಲದಿದ್ದರೆ ಅಸಮಾನತೆ ಇರುತ್ತದೆ.

ಅನನ್ಯವಾಗಿ ಡಿಕೋಡ್ ಮಾಡಬಹುದಾದ ಕೋಡ್‌ನ ಸಂದರ್ಭದಲ್ಲಿ, ನಾವು ಕ್ರಾಫ್ಟ್‌ನ ಅಸಮಾನತೆಯನ್ನು ಹೊಂದಿದ್ದೇವೆ

ರಿಚರ್ಡ್ ಹ್ಯಾಮಿಂಗ್: ಅಧ್ಯಾಯ 13. ಮಾಹಿತಿ ಸಿದ್ಧಾಂತ

ಈಗ ನಾವು ಹುಸಿ ಸಂಭವನೀಯತೆಗಳನ್ನು ವ್ಯಾಖ್ಯಾನಿಸಿದರೆ

ರಿಚರ್ಡ್ ಹ್ಯಾಮಿಂಗ್: ಅಧ್ಯಾಯ 13. ಮಾಹಿತಿ ಸಿದ್ಧಾಂತ

ಅಲ್ಲಿ ಸಹಜವಾಗಿ ರಿಚರ್ಡ್ ಹ್ಯಾಮಿಂಗ್: ಅಧ್ಯಾಯ 13. ಮಾಹಿತಿ ಸಿದ್ಧಾಂತ= 1, ಇದು ಗಿಬ್ಸ್‌ನ ಅಸಮಾನತೆಯಿಂದ ಅನುಸರಿಸುತ್ತದೆ,

ರಿಚರ್ಡ್ ಹ್ಯಾಮಿಂಗ್: ಅಧ್ಯಾಯ 13. ಮಾಹಿತಿ ಸಿದ್ಧಾಂತ

ಮತ್ತು ಸ್ವಲ್ಪ ಬೀಜಗಣಿತವನ್ನು ಅನ್ವಯಿಸಿ (ಕೆ ≤ 1 ಅನ್ನು ನೆನಪಿಡಿ, ಆದ್ದರಿಂದ ನಾವು ಲಾಗರಿಥಮಿಕ್ ಪದವನ್ನು ಬಿಡಬಹುದು ಮತ್ತು ಬಹುಶಃ ನಂತರ ಅಸಮಾನತೆಯನ್ನು ಬಲಪಡಿಸಬಹುದು), ನಾವು ಪಡೆಯುತ್ತೇವೆ

ರಿಚರ್ಡ್ ಹ್ಯಾಮಿಂಗ್: ಅಧ್ಯಾಯ 13. ಮಾಹಿತಿ ಸಿದ್ಧಾಂತ

ಇಲ್ಲಿ L ಸರಾಸರಿ ಕೋಡ್ ಉದ್ದವಾಗಿದೆ.

ಹೀಗಾಗಿ, ಎಂಟ್ರೊಪಿಯು ಸರಾಸರಿ ಕೋಡ್‌ವರ್ಡ್ ಉದ್ದ L ಜೊತೆಗೆ ಯಾವುದೇ ಅಕ್ಷರ-ಮೂಲಕ-ಚಿಹ್ನೆ ಕೋಡ್‌ಗೆ ಕನಿಷ್ಠ ಬೌಂಡ್ ಆಗಿದೆ. ಇದು ಹಸ್ತಕ್ಷೇಪ-ಮುಕ್ತ ಚಾನಲ್‌ಗಾಗಿ ಶಾನನ್‌ನ ಪ್ರಮೇಯವಾಗಿದೆ.

ಈಗ ಸಂವಹನ ವ್ಯವಸ್ಥೆಗಳ ಮಿತಿಗಳ ಬಗ್ಗೆ ಮುಖ್ಯ ಪ್ರಮೇಯವನ್ನು ಪರಿಗಣಿಸಿ, ಇದರಲ್ಲಿ ಮಾಹಿತಿಯನ್ನು ಸ್ವತಂತ್ರ ಬಿಟ್‌ಗಳ ಸ್ಟ್ರೀಮ್ ಆಗಿ ರವಾನಿಸಲಾಗುತ್ತದೆ ಮತ್ತು ಶಬ್ದ ಇರುತ್ತದೆ. ಒಂದು ಬಿಟ್‌ನ ಸರಿಯಾದ ಪ್ರಸರಣದ ಸಂಭವನೀಯತೆಯು P ​​> 1/2 ಎಂದು ತಿಳಿಯಲಾಗಿದೆ, ಮತ್ತು ಪ್ರಸರಣದ ಸಮಯದಲ್ಲಿ ಬಿಟ್ ಮೌಲ್ಯವು ತಲೆಕೆಳಗಾದ ಸಂಭವನೀಯತೆ (ದೋಷ ಸಂಭವಿಸುತ್ತದೆ) Q = 1 - P ಗೆ ಸಮಾನವಾಗಿರುತ್ತದೆ. ಅನುಕೂಲಕ್ಕಾಗಿ, ನಾವು ದೋಷಗಳು ಸ್ವತಂತ್ರವಾಗಿವೆ ಮತ್ತು ಕಳುಹಿಸಲಾದ ಪ್ರತಿ ಬಿಟ್‌ಗೆ ದೋಷದ ಸಂಭವನೀಯತೆಯು ಒಂದೇ ಆಗಿರುತ್ತದೆ ಎಂದು ಊಹಿಸಿ - ಅಂದರೆ, ಸಂವಹನ ಚಾನಲ್‌ನಲ್ಲಿ "ಬಿಳಿ ಶಬ್ದ" ಇದೆ.

ಒಂದು ಸಂದೇಶಕ್ಕೆ ಎನ್‌ಕೋಡ್ ಮಾಡಲಾದ n ಬಿಟ್‌ಗಳ ದೀರ್ಘ ಸ್ಟ್ರೀಮ್ ಅನ್ನು ನಾವು ಹೊಂದಿರುವ ರೀತಿಯಲ್ಲಿ ಒಂದು-ಬಿಟ್ ಕೋಡ್‌ನ n - ಆಯಾಮದ ವಿಸ್ತರಣೆಯಾಗಿದೆ. ನಾವು n ನ ಮೌಲ್ಯವನ್ನು ನಂತರ ನಿರ್ಧರಿಸುತ್ತೇವೆ. n-ಬಿಟ್‌ಗಳನ್ನು ಒಳಗೊಂಡಿರುವ ಸಂದೇಶವನ್ನು n-ಆಯಾಮದ ಜಾಗದಲ್ಲಿ ಒಂದು ಬಿಂದುವಾಗಿ ಪರಿಗಣಿಸಿ. ನಾವು n-ಆಯಾಮದ ಸ್ಥಳವನ್ನು ಹೊಂದಿರುವುದರಿಂದ - ಮತ್ತು ಸರಳತೆಗಾಗಿ ನಾವು ಪ್ರತಿ ಸಂದೇಶವು ಸಂಭವಿಸುವ ಒಂದೇ ಸಂಭವನೀಯತೆಯನ್ನು ಹೊಂದಿದೆ ಎಂದು ನಾವು ಭಾವಿಸುತ್ತೇವೆ - M ಸಂಭವನೀಯ ಸಂದೇಶಗಳಿವೆ (M ಅನ್ನು ನಂತರ ವ್ಯಾಖ್ಯಾನಿಸಲಾಗುತ್ತದೆ), ಆದ್ದರಿಂದ ಕಳುಹಿಸಲಾದ ಯಾವುದೇ ಸಂದೇಶದ ಸಂಭವನೀಯತೆ

ರಿಚರ್ಡ್ ಹ್ಯಾಮಿಂಗ್: ಅಧ್ಯಾಯ 13. ಮಾಹಿತಿ ಸಿದ್ಧಾಂತ

ರಿಚರ್ಡ್ ಹ್ಯಾಮಿಂಗ್: ಅಧ್ಯಾಯ 13. ಮಾಹಿತಿ ಸಿದ್ಧಾಂತ
(ಕಳುಹಿಸುವವರು)
ವೇಳಾಪಟ್ಟಿ 13.II

ಮುಂದೆ, ಚಾನಲ್ ಸಾಮರ್ಥ್ಯದ ಕಲ್ಪನೆಯನ್ನು ಪರಿಗಣಿಸಿ. ವಿವರಗಳಿಗೆ ಹೋಗದೆ, ಚಾನೆಲ್ ಸಾಮರ್ಥ್ಯವು ಸಂವಹನ ಚಾನಲ್ ಮೂಲಕ ವಿಶ್ವಾಸಾರ್ಹವಾಗಿ ರವಾನಿಸಬಹುದಾದ ಗರಿಷ್ಠ ಪ್ರಮಾಣದ ಮಾಹಿತಿ ಎಂದು ವ್ಯಾಖ್ಯಾನಿಸಲಾಗಿದೆ, ಇದು ಅತ್ಯಂತ ಪರಿಣಾಮಕಾರಿ ಕೋಡಿಂಗ್ ಬಳಕೆಯನ್ನು ಗಣನೆಗೆ ತೆಗೆದುಕೊಳ್ಳುತ್ತದೆ. ಸಂವಹನ ಚಾನೆಲ್ ಮೂಲಕ ಅದರ ಸಾಮರ್ಥ್ಯಕ್ಕಿಂತ ಹೆಚ್ಚಿನ ಮಾಹಿತಿಯನ್ನು ರವಾನಿಸಬಹುದು ಎಂಬ ವಾದವಿಲ್ಲ. ಬೈನರಿ ಸಮ್ಮಿತೀಯ ಚಾನಲ್ಗಾಗಿ ಇದನ್ನು ಸಾಬೀತುಪಡಿಸಬಹುದು (ನಮ್ಮ ಸಂದರ್ಭದಲ್ಲಿ ನಾವು ಬಳಸುತ್ತೇವೆ). ಬಿಟ್‌ಗಳನ್ನು ಕಳುಹಿಸುವಾಗ ಚಾನಲ್ ಸಾಮರ್ಥ್ಯವನ್ನು ಹೀಗೆ ನಿರ್ದಿಷ್ಟಪಡಿಸಲಾಗಿದೆ

ರಿಚರ್ಡ್ ಹ್ಯಾಮಿಂಗ್: ಅಧ್ಯಾಯ 13. ಮಾಹಿತಿ ಸಿದ್ಧಾಂತ

ಅಲ್ಲಿ, ಮೊದಲಿನಂತೆ, P ಎಂಬುದು ಯಾವುದೇ ಕಳುಹಿಸಿದ ಬಿಟ್‌ನಲ್ಲಿ ಯಾವುದೇ ದೋಷದ ಸಂಭವನೀಯತೆಯಾಗಿದೆ. n ಸ್ವತಂತ್ರ ಬಿಟ್‌ಗಳನ್ನು ಕಳುಹಿಸುವಾಗ, ಚಾನಲ್ ಸಾಮರ್ಥ್ಯವನ್ನು ಇವರಿಂದ ನೀಡಲಾಗುತ್ತದೆ

ರಿಚರ್ಡ್ ಹ್ಯಾಮಿಂಗ್: ಅಧ್ಯಾಯ 13. ಮಾಹಿತಿ ಸಿದ್ಧಾಂತ

ನಾವು ಚಾನಲ್ ಸಾಮರ್ಥ್ಯದ ಸಮೀಪದಲ್ಲಿದ್ದರೆ, ai, i = 1, ..., M. ಪ್ರತಿಯೊಂದು ಚಿಹ್ನೆಗಳಿಗೆ ನಾವು ಈ ಪ್ರಮಾಣದ ಮಾಹಿತಿಯನ್ನು ಕಳುಹಿಸಬೇಕು. ಪ್ರತಿ ಚಿಹ್ನೆ AI ಸಂಭವಿಸುವ ಸಂಭವನೀಯತೆಯು 1 / M ಆಗಿರುತ್ತದೆ, ನಾವು ಪಡೆಯುತ್ತೇವೆ

ರಿಚರ್ಡ್ ಹ್ಯಾಮಿಂಗ್: ಅಧ್ಯಾಯ 13. ಮಾಹಿತಿ ಸಿದ್ಧಾಂತ

ನಾವು ಯಾವುದೇ M ಸಮಾನವಾಗಿ ಸಂಭವನೀಯ ಸಂದೇಶಗಳನ್ನು ಕಳುಹಿಸಿದಾಗ AI, ನಾವು ಹೊಂದಿದ್ದೇವೆ

ರಿಚರ್ಡ್ ಹ್ಯಾಮಿಂಗ್: ಅಧ್ಯಾಯ 13. ಮಾಹಿತಿ ಸಿದ್ಧಾಂತ

n ಬಿಟ್‌ಗಳನ್ನು ಕಳುಹಿಸಿದಾಗ, nQ ದೋಷಗಳು ಸಂಭವಿಸುತ್ತವೆ ಎಂದು ನಾವು ನಿರೀಕ್ಷಿಸುತ್ತೇವೆ. ಪ್ರಾಯೋಗಿಕವಾಗಿ, n-ಬಿಟ್‌ಗಳನ್ನು ಒಳಗೊಂಡಿರುವ ಸಂದೇಶಕ್ಕಾಗಿ, ಸ್ವೀಕರಿಸಿದ ಸಂದೇಶದಲ್ಲಿ ನಾವು ಸರಿಸುಮಾರು nQ ದೋಷಗಳನ್ನು ಹೊಂದಿರುತ್ತೇವೆ. ದೊಡ್ಡ n ಗಾಗಿ, ಸಾಪೇಕ್ಷ ವ್ಯತ್ಯಾಸ (ವ್ಯತ್ಯಯ = ವಿತರಣೆ ಅಗಲ, )
n ಹೆಚ್ಚಾದಂತೆ ದೋಷಗಳ ಸಂಖ್ಯೆಯ ವಿತರಣೆಯು ಹೆಚ್ಚು ಕಿರಿದಾಗುತ್ತದೆ.

ಆದ್ದರಿಂದ, ಟ್ರಾನ್ಸ್‌ಮಿಟರ್ ಕಡೆಯಿಂದ, ನಾನು ಕಳುಹಿಸಲು AI ಸಂದೇಶವನ್ನು ತೆಗೆದುಕೊಳ್ಳುತ್ತೇನೆ ಮತ್ತು ಅದರ ಸುತ್ತಲೂ ತ್ರಿಜ್ಯದೊಂದಿಗೆ ಗೋಳವನ್ನು ಸೆಳೆಯುತ್ತೇನೆ

ರಿಚರ್ಡ್ ಹ್ಯಾಮಿಂಗ್: ಅಧ್ಯಾಯ 13. ಮಾಹಿತಿ ಸಿದ್ಧಾಂತ

ಇದು ನಿರೀಕ್ಷಿತ ಸಂಖ್ಯೆಯ ದೋಷಗಳ Q, (ಚಿತ್ರ 2.II) ಗಿಂತ e13 ಗೆ ಸಮನಾದ ಮೊತ್ತದಿಂದ ಸ್ವಲ್ಪ ದೊಡ್ಡದಾಗಿದೆ. n ಸಾಕಷ್ಟು ದೊಡ್ಡದಾಗಿದ್ದರೆ, ಈ ಗೋಳದ ಆಚೆಗೆ ವಿಸ್ತರಿಸಿರುವ ರಿಸೀವರ್ ಬದಿಯಲ್ಲಿ ಸಂದೇಶ ಬಿಂದು ಕಾಣಿಸಿಕೊಳ್ಳುವ ನಿರಂಕುಶವಾಗಿ ಸಣ್ಣ ಸಂಭವನೀಯತೆ ಇರುತ್ತದೆ. ಟ್ರಾನ್ಸ್‌ಮಿಟರ್‌ನ ದೃಷ್ಟಿಕೋನದಿಂದ ನಾನು ನೋಡುತ್ತಿರುವಂತೆ ಪರಿಸ್ಥಿತಿಯನ್ನು ಚಿತ್ರಿಸೋಣ: ನಾವು ರವಾನೆಯಾದ ಸಂದೇಶ AI ನಿಂದ ಸ್ವೀಕರಿಸಿದ ಸಂದೇಶ bj ವರೆಗೆ ಯಾವುದೇ ತ್ರಿಜ್ಯವನ್ನು ಹೊಂದಿದ್ದೇವೆ ಮತ್ತು ಸಾಮಾನ್ಯ ವಿತರಣೆಗೆ ಸಮಾನವಾದ (ಅಥವಾ ಬಹುತೇಕ ಸಮಾನ) ದೋಷದ ಸಂಭವನೀಯತೆಯೊಂದಿಗೆ ಗರಿಷ್ಠವನ್ನು ತಲುಪುತ್ತೇವೆ. nQ ನಲ್ಲಿ ಯಾವುದೇ ನಿರ್ದಿಷ್ಟ e2 ಗೆ, n ಎಷ್ಟು ದೊಡ್ಡದಾಗಿದೆ ಎಂದರೆ ನನ್ನ ಗೋಳದ ಹೊರಗಿರುವ ಬಿಜೆಯ ಸಂಭವನೀಯತೆಯು ನೀವು ಇಷ್ಟಪಡುವಷ್ಟು ಚಿಕ್ಕದಾಗಿದೆ.

ಈಗ ನಿಮ್ಮ ಕಡೆಯಿಂದ ಅದೇ ಪರಿಸ್ಥಿತಿಯನ್ನು ನೋಡೋಣ (Fig. 13.III). ರಿಸೀವರ್ ಭಾಗದಲ್ಲಿ n-ಆಯಾಮದ ಜಾಗದಲ್ಲಿ ಸ್ವೀಕರಿಸಿದ ಬಿಜೆಯ ಸುತ್ತ ಅದೇ ತ್ರಿಜ್ಯದ S(r) ಗೋಳವಿದೆ, ಅಂದರೆ ಸ್ವೀಕರಿಸಿದ ಸಂದೇಶ bj ನನ್ನ ಗೋಳದೊಳಗೆ ಇದ್ದರೆ, ನಾನು ಕಳುಹಿಸಿದ AI ಸಂದೇಶವು ನಿಮ್ಮ ಒಳಗೆ ಇರುತ್ತದೆ. ಗೋಳ.

ದೋಷ ಹೇಗೆ ಸಂಭವಿಸಬಹುದು? ಕೆಳಗಿನ ಕೋಷ್ಟಕದಲ್ಲಿ ವಿವರಿಸಿದ ಸಂದರ್ಭಗಳಲ್ಲಿ ದೋಷ ಸಂಭವಿಸಬಹುದು:

ರಿಚರ್ಡ್ ಹ್ಯಾಮಿಂಗ್: ಅಧ್ಯಾಯ 13. ಮಾಹಿತಿ ಸಿದ್ಧಾಂತ

ಚಿತ್ರ 13.III

ರಿಚರ್ಡ್ ಹ್ಯಾಮಿಂಗ್: ಅಧ್ಯಾಯ 13. ಮಾಹಿತಿ ಸಿದ್ಧಾಂತ

ಸ್ವೀಕರಿಸಿದ ಬಿಂದುವಿನ ಸುತ್ತಲೂ ನಿರ್ಮಿಸಲಾದ ಗೋಳದಲ್ಲಿ ಸಂಭವನೀಯ ಕಳುಹಿಸಿದ ಎನ್‌ಕೋಡ್ ಮಾಡದ ಸಂದೇಶಕ್ಕೆ ಅನುಗುಣವಾದ ಕನಿಷ್ಠ ಒಂದು ಬಿಂದುವಿದ್ದರೆ, ಪ್ರಸರಣದ ಸಮಯದಲ್ಲಿ ದೋಷ ಸಂಭವಿಸಿದೆ, ಏಕೆಂದರೆ ಈ ಸಂದೇಶಗಳಲ್ಲಿ ಯಾವುದನ್ನು ರವಾನಿಸಲಾಗಿದೆ ಎಂಬುದನ್ನು ನೀವು ನಿರ್ಧರಿಸಲು ಸಾಧ್ಯವಿಲ್ಲ. ಕಳುಹಿಸಿದ ಸಂದೇಶವು ಅದಕ್ಕೆ ಸಂಬಂಧಿಸಿದ ಬಿಂದುವು ಗೋಳದಲ್ಲಿದ್ದರೆ ಮಾತ್ರ ದೋಷ-ಮುಕ್ತವಾಗಿರುತ್ತದೆ ಮತ್ತು ನೀಡಿರುವ ಕೋಡ್‌ನಲ್ಲಿ ಅದೇ ಗೋಳದಲ್ಲಿರುವ ಯಾವುದೇ ಇತರ ಬಿಂದುಗಳು ಸಾಧ್ಯವಿಲ್ಲ.

AI ಸಂದೇಶವನ್ನು ಕಳುಹಿಸಿದರೆ ದೋಷ Pe ಸಂಭವನೀಯತೆಗಾಗಿ ನಾವು ಗಣಿತದ ಸಮೀಕರಣವನ್ನು ಹೊಂದಿದ್ದೇವೆ

ರಿಚರ್ಡ್ ಹ್ಯಾಮಿಂಗ್: ಅಧ್ಯಾಯ 13. ಮಾಹಿತಿ ಸಿದ್ಧಾಂತ

ನಾವು ಎರಡನೇ ಅವಧಿಯಲ್ಲಿ ಮೊದಲ ಅಂಶವನ್ನು ಹೊರಹಾಕಬಹುದು, ಅದನ್ನು 1 ಎಂದು ತೆಗೆದುಕೊಳ್ಳಬಹುದು. ಹೀಗೆ ನಾವು ಅಸಮಾನತೆಯನ್ನು ಪಡೆಯುತ್ತೇವೆ

ರಿಚರ್ಡ್ ಹ್ಯಾಮಿಂಗ್: ಅಧ್ಯಾಯ 13. ಮಾಹಿತಿ ಸಿದ್ಧಾಂತ

ಅದು ಸ್ಪಷ್ಟವಾಗಿದೆ

ರಿಚರ್ಡ್ ಹ್ಯಾಮಿಂಗ್: ಅಧ್ಯಾಯ 13. ಮಾಹಿತಿ ಸಿದ್ಧಾಂತ

ಆದ್ದರಿಂದ

ರಿಚರ್ಡ್ ಹ್ಯಾಮಿಂಗ್: ಅಧ್ಯಾಯ 13. ಮಾಹಿತಿ ಸಿದ್ಧಾಂತ

ಬಲಭಾಗದಲ್ಲಿರುವ ಕೊನೆಯ ಅವಧಿಗೆ ಮತ್ತೆ ಅನ್ವಯಿಸಿ

ರಿಚರ್ಡ್ ಹ್ಯಾಮಿಂಗ್: ಅಧ್ಯಾಯ 13. ಮಾಹಿತಿ ಸಿದ್ಧಾಂತ

n ಅನ್ನು ಸಾಕಷ್ಟು ದೊಡ್ಡದಾಗಿ ತೆಗೆದುಕೊಂಡರೆ, ಮೊದಲ ಪದವನ್ನು ಬಯಸಿದಷ್ಟು ಚಿಕ್ಕದಾಗಿ ತೆಗೆದುಕೊಳ್ಳಬಹುದು, ಕೆಲವು ಸಂಖ್ಯೆ d ಗಿಂತ ಕಡಿಮೆ ಎಂದು ಹೇಳಬಹುದು. ಆದ್ದರಿಂದ ನಾವು ಹೊಂದಿದ್ದೇವೆ

ರಿಚರ್ಡ್ ಹ್ಯಾಮಿಂಗ್: ಅಧ್ಯಾಯ 13. ಮಾಹಿತಿ ಸಿದ್ಧಾಂತ

n ಬಿಟ್‌ಗಳನ್ನು ಒಳಗೊಂಡಿರುವ M ಸಂದೇಶಗಳನ್ನು ಎನ್‌ಕೋಡ್ ಮಾಡಲು ನಾವು ಸರಳ ಪರ್ಯಾಯ ಕೋಡ್ ಅನ್ನು ಹೇಗೆ ರಚಿಸಬಹುದು ಎಂಬುದನ್ನು ಈಗ ನೋಡೋಣ. ಕೋಡ್ ಅನ್ನು ನಿಖರವಾಗಿ ಹೇಗೆ ನಿರ್ಮಿಸುವುದು ಎಂಬುದರ ಕುರಿತು ಯಾವುದೇ ಕಲ್ಪನೆಯಿಲ್ಲದೆ (ದೋಷ-ಸರಿಪಡಿಸುವ ಕೋಡ್‌ಗಳನ್ನು ಇನ್ನೂ ಕಂಡುಹಿಡಿಯಲಾಗಿಲ್ಲ), ಶಾನನ್ ಯಾದೃಚ್ಛಿಕ ಕೋಡಿಂಗ್ ಅನ್ನು ಆರಿಸಿಕೊಂಡರು. ಸಂದೇಶದಲ್ಲಿರುವ ಪ್ರತಿಯೊಂದು n ಬಿಟ್‌ಗಳಿಗೆ ಒಂದು ನಾಣ್ಯವನ್ನು ಫ್ಲಿಪ್ ಮಾಡಿ ಮತ್ತು M ಸಂದೇಶಗಳಿಗಾಗಿ ಪ್ರಕ್ರಿಯೆಯನ್ನು ಪುನರಾವರ್ತಿಸಿ. ಒಟ್ಟಾರೆಯಾಗಿ, nM ನಾಣ್ಯ ಫ್ಲಿಪ್ಗಳನ್ನು ಮಾಡಬೇಕಾಗಿದೆ, ಆದ್ದರಿಂದ ಇದು ಸಾಧ್ಯ

ರಿಚರ್ಡ್ ಹ್ಯಾಮಿಂಗ್: ಅಧ್ಯಾಯ 13. ಮಾಹಿತಿ ಸಿದ್ಧಾಂತ

ಅದೇ ಸಂಭವನೀಯತೆಯನ್ನು ಹೊಂದಿರುವ ಕೋಡ್ ನಿಘಂಟುಗಳು ½nM. ಸಹಜವಾಗಿ, ಕೋಡ್‌ಬುಕ್ ಅನ್ನು ರಚಿಸುವ ಯಾದೃಚ್ಛಿಕ ಪ್ರಕ್ರಿಯೆಯು ನಕಲುಗಳ ಸಾಧ್ಯತೆಯಿದೆ ಎಂದರ್ಥ, ಹಾಗೆಯೇ ಕೋಡ್ ಪಾಯಿಂಟ್‌ಗಳು ಪರಸ್ಪರ ಹತ್ತಿರದಲ್ಲಿವೆ ಮತ್ತು ಆದ್ದರಿಂದ ಸಂಭವನೀಯ ದೋಷಗಳ ಮೂಲವಾಗಿದೆ. ಯಾವುದೇ ಸಣ್ಣ ಆಯ್ಕೆ ಮಾಡಿದ ದೋಷ ಮಟ್ಟಕ್ಕಿಂತ ಹೆಚ್ಚಿನ ಸಂಭವನೀಯತೆಯೊಂದಿಗೆ ಇದು ಸಂಭವಿಸದಿದ್ದರೆ, ನೀಡಲಾದ n ಸಾಕಷ್ಟು ದೊಡ್ಡದಾಗಿದೆ ಎಂದು ಒಬ್ಬರು ಸಾಬೀತುಪಡಿಸಬೇಕು.
ನಿರ್ಣಾಯಕ ಅಂಶವೆಂದರೆ ಶಾನನ್ ಸರಾಸರಿ ದೋಷವನ್ನು ಕಂಡುಹಿಡಿಯಲು ಸಾಧ್ಯವಿರುವ ಎಲ್ಲಾ ಕೋಡ್‌ಬುಕ್‌ಗಳನ್ನು ಸರಾಸರಿ ಮಾಡಿದ್ದಾರೆ! ಎಲ್ಲಾ ಸಂಭವನೀಯ ಯಾದೃಚ್ಛಿಕ ಕೋಡ್‌ಬುಕ್‌ಗಳ ಸೆಟ್‌ನಲ್ಲಿ ಸರಾಸರಿ ಮೌಲ್ಯವನ್ನು ಸೂಚಿಸಲು ನಾವು Av[.] ಚಿಹ್ನೆಯನ್ನು ಬಳಸುತ್ತೇವೆ. ಸ್ಥಿರವಾದ d ಯ ಮೇಲೆ ಸರಾಸರಿಯು ಸ್ಥಿರತೆಯನ್ನು ನೀಡುತ್ತದೆ, ಏಕೆಂದರೆ ಪ್ರತಿ ಪದದ ಸರಾಸರಿ ಮೊತ್ತದಲ್ಲಿ ಪ್ರತಿ ಪದದಂತೆಯೇ ಇರುತ್ತದೆ,

ರಿಚರ್ಡ್ ಹ್ಯಾಮಿಂಗ್: ಅಧ್ಯಾಯ 13. ಮಾಹಿತಿ ಸಿದ್ಧಾಂತ

ಇದನ್ನು ಹೆಚ್ಚಿಸಬಹುದು (M–1 M ಗೆ ಹೋಗುತ್ತದೆ)

ರಿಚರ್ಡ್ ಹ್ಯಾಮಿಂಗ್: ಅಧ್ಯಾಯ 13. ಮಾಹಿತಿ ಸಿದ್ಧಾಂತ

ಯಾವುದೇ ಸಂದೇಶಕ್ಕಾಗಿ, ಎಲ್ಲಾ ಕೋಡ್‌ಬುಕ್‌ಗಳಲ್ಲಿ ಸರಾಸರಿ ಮಾಡುವಾಗ, ಎನ್‌ಕೋಡಿಂಗ್ ಎಲ್ಲಾ ಸಂಭಾವ್ಯ ಮೌಲ್ಯಗಳ ಮೂಲಕ ಚಲಿಸುತ್ತದೆ, ಆದ್ದರಿಂದ ಒಂದು ಬಿಂದುವು ಗೋಳದಲ್ಲಿರುವ ಸರಾಸರಿ ಸಂಭವನೀಯತೆಯು ಗೋಳದ ಪರಿಮಾಣದ ಅನುಪಾತವು ಜಾಗದ ಒಟ್ಟು ಪರಿಮಾಣದ ಅನುಪಾತವಾಗಿದೆ. ಗೋಳದ ಪರಿಮಾಣವು

ರಿಚರ್ಡ್ ಹ್ಯಾಮಿಂಗ್: ಅಧ್ಯಾಯ 13. ಮಾಹಿತಿ ಸಿದ್ಧಾಂತ

ಅಲ್ಲಿ s=Q+e2 <1/2 ಮತ್ತು ns ಪೂರ್ಣಾಂಕವಾಗಿರಬೇಕು.

ಬಲಭಾಗದಲ್ಲಿರುವ ಕೊನೆಯ ಪದವು ಈ ಮೊತ್ತದಲ್ಲಿ ದೊಡ್ಡದಾಗಿದೆ. ಮೊದಲಿಗೆ, ಫ್ಯಾಕ್ಟೋರಿಯಲ್‌ಗಳಿಗಾಗಿ ಸ್ಟಿರ್ಲಿಂಗ್ ಸೂತ್ರವನ್ನು ಬಳಸಿಕೊಂಡು ಅದರ ಮೌಲ್ಯವನ್ನು ಅಂದಾಜು ಮಾಡೋಣ. ನಂತರ ನಾವು ಅದರ ಮುಂದೆ ಇರುವ ಪದದ ಕಡಿಮೆಯಾಗುವ ಗುಣಾಂಕವನ್ನು ನೋಡುತ್ತೇವೆ, ನಾವು ಎಡಕ್ಕೆ ಚಲಿಸುವಾಗ ಈ ಗುಣಾಂಕವು ಹೆಚ್ಚಾಗುತ್ತದೆ ಎಂಬುದನ್ನು ಗಮನಿಸಿ, ಮತ್ತು ಆದ್ದರಿಂದ ನಾವು ಹೀಗೆ ಮಾಡಬಹುದು: (1) ಮೊತ್ತದ ಮೌಲ್ಯವನ್ನು ಜ್ಯಾಮಿತೀಯ ಪ್ರಗತಿಯ ಮೊತ್ತಕ್ಕೆ ನಿರ್ಬಂಧಿಸಿ ಈ ಆರಂಭಿಕ ಗುಣಾಂಕ, (2) ಜ್ಯಾಮಿತೀಯ ಪ್ರಗತಿಯನ್ನು ns ಪದಗಳಿಂದ ಅನಂತ ಸಂಖ್ಯೆಯ ಪದಗಳಿಗೆ ವಿಸ್ತರಿಸಿ, (3) ಅನಂತ ಜ್ಯಾಮಿತೀಯ ಪ್ರಗತಿಯ ಮೊತ್ತವನ್ನು ಲೆಕ್ಕಾಚಾರ ಮಾಡಿ (ಸ್ಟ್ಯಾಂಡರ್ಡ್ ಬೀಜಗಣಿತ, ಗಮನಾರ್ಹವಾದುದೇನೂ ಇಲ್ಲ) ಮತ್ತು ಅಂತಿಮವಾಗಿ ಸೀಮಿತಗೊಳಿಸುವ ಮೌಲ್ಯವನ್ನು (ಸಾಕಷ್ಟು ದೊಡ್ಡದಕ್ಕಾಗಿ) ಪಡೆದುಕೊಳ್ಳಿ n):

ರಿಚರ್ಡ್ ಹ್ಯಾಮಿಂಗ್: ಅಧ್ಯಾಯ 13. ಮಾಹಿತಿ ಸಿದ್ಧಾಂತ

ದ್ವಿಪದ ಗುರುತಿನಲ್ಲಿ ಎಂಟ್ರೊಪಿ H(ಗಳು) ಹೇಗೆ ಕಾಣಿಸಿಕೊಂಡಿತು ಎಂಬುದನ್ನು ಗಮನಿಸಿ. ಟೇಲರ್ ಸರಣಿಯ ವಿಸ್ತರಣೆ H(s)=H(Q+e2) ಕೇವಲ ಮೊದಲ ವ್ಯುತ್ಪನ್ನವನ್ನು ಗಣನೆಗೆ ತೆಗೆದುಕೊಂಡು ಉಳಿದೆಲ್ಲವನ್ನೂ ನಿರ್ಲಕ್ಷಿಸಿ ಪಡೆದ ಅಂದಾಜು ನೀಡುತ್ತದೆ ಎಂಬುದನ್ನು ಗಮನಿಸಿ. ಈಗ ಅಂತಿಮ ಅಭಿವ್ಯಕ್ತಿಯನ್ನು ಒಟ್ಟುಗೂಡಿಸೋಣ:

ರಿಚರ್ಡ್ ಹ್ಯಾಮಿಂಗ್: ಅಧ್ಯಾಯ 13. ಮಾಹಿತಿ ಸಿದ್ಧಾಂತ

ಅಲ್ಲಿ

ರಿಚರ್ಡ್ ಹ್ಯಾಮಿಂಗ್: ಅಧ್ಯಾಯ 13. ಮಾಹಿತಿ ಸಿದ್ಧಾಂತ

ನಾವು ಮಾಡಬೇಕಾಗಿರುವುದು e2 ಅನ್ನು ಆಯ್ಕೆ ಮಾಡುವುದು e3 < e1, ಮತ್ತು ನಂತರ n ಸಾಕಷ್ಟು ದೊಡ್ಡದಾಗಿರುವವರೆಗೆ ಕೊನೆಯ ಪದವು ನಿರಂಕುಶವಾಗಿ ಚಿಕ್ಕದಾಗಿರುತ್ತದೆ. ಪರಿಣಾಮವಾಗಿ, ಸರಾಸರಿ PE ದೋಷವು C ಗೆ ನಿರಂಕುಶವಾಗಿ ಹತ್ತಿರವಿರುವ ಚಾನಲ್ ಸಾಮರ್ಥ್ಯದೊಂದಿಗೆ ಬಯಸಿದಷ್ಟು ಚಿಕ್ಕದಾಗಿದೆ.
ಎಲ್ಲಾ ಕೋಡ್‌ಗಳ ಸರಾಸರಿಯು ಸಾಕಷ್ಟು ಸಣ್ಣ ದೋಷವನ್ನು ಹೊಂದಿದ್ದರೆ, ಕನಿಷ್ಠ ಒಂದು ಕೋಡ್ ಸೂಕ್ತವಾಗಿರಬೇಕು, ಆದ್ದರಿಂದ ಕನಿಷ್ಠ ಒಂದು ಸೂಕ್ತವಾದ ಕೋಡಿಂಗ್ ಸಿಸ್ಟಮ್ ಇದೆ. ಇದು ಶಾನನ್ ಪಡೆದ ಪ್ರಮುಖ ಫಲಿತಾಂಶವಾಗಿದೆ - "ಗದ್ದಲದ ಚಾನಲ್‌ಗಾಗಿ ಶಾನನ್‌ನ ಪ್ರಮೇಯ", ಆದರೂ ನಾನು ಬಳಸಿದ ಸರಳ ಬೈನರಿ ಸಮ್ಮಿತೀಯ ಚಾನಲ್‌ಗಿಂತ ಹೆಚ್ಚು ಸಾಮಾನ್ಯ ಪ್ರಕರಣಕ್ಕೆ ಅವನು ಇದನ್ನು ಸಾಬೀತುಪಡಿಸಿದ್ದಾನೆ ಎಂದು ಗಮನಿಸಬೇಕು. ಸಾಮಾನ್ಯ ಪ್ರಕರಣಕ್ಕೆ ಸಂಬಂಧಿಸಿದಂತೆ, ಗಣಿತದ ಲೆಕ್ಕಾಚಾರಗಳು ಹೆಚ್ಚು ಜಟಿಲವಾಗಿವೆ, ಆದರೆ ಆಲೋಚನೆಗಳು ತುಂಬಾ ಭಿನ್ನವಾಗಿರುವುದಿಲ್ಲ, ಆದ್ದರಿಂದ ಆಗಾಗ್ಗೆ, ನಿರ್ದಿಷ್ಟ ಪ್ರಕರಣದ ಉದಾಹರಣೆಯನ್ನು ಬಳಸಿಕೊಂಡು, ನೀವು ಪ್ರಮೇಯದ ನಿಜವಾದ ಅರ್ಥವನ್ನು ಬಹಿರಂಗಪಡಿಸಬಹುದು.

ಫಲಿತಾಂಶವನ್ನು ಟೀಕಿಸೋಣ. ನಾವು ಪದೇ ಪದೇ ಪುನರಾವರ್ತಿಸಿದ್ದೇವೆ: "ಸಾಕಷ್ಟು ದೊಡ್ಡದಕ್ಕಾಗಿ." ಆದರೆ n ಎಷ್ಟು ದೊಡ್ಡದಾಗಿದೆ? ನೀವು ನಿಜವಾಗಿಯೂ ಚಾನಲ್ ಸಾಮರ್ಥ್ಯಕ್ಕೆ ಹತ್ತಿರವಾಗಲು ಬಯಸಿದರೆ ಮತ್ತು ಸರಿಯಾದ ಡೇಟಾ ವರ್ಗಾವಣೆಯ ಬಗ್ಗೆ ಖಚಿತವಾಗಿ ಬಯಸಿದರೆ ತುಂಬಾ, ತುಂಬಾ ದೊಡ್ಡದು! ಎಷ್ಟು ದೊಡ್ಡದಾಗಿದೆ, ವಾಸ್ತವವಾಗಿ, ನಂತರ ಎನ್ಕೋಡ್ ಮಾಡಲು ಸಾಕಷ್ಟು ಬಿಟ್‌ಗಳ ಸಂದೇಶವನ್ನು ಸಂಗ್ರಹಿಸಲು ನೀವು ಬಹಳ ಸಮಯ ಕಾಯಬೇಕಾಗುತ್ತದೆ. ಈ ಸಂದರ್ಭದಲ್ಲಿ, ಯಾದೃಚ್ಛಿಕ ಕೋಡ್ ನಿಘಂಟಿನ ಗಾತ್ರವು ಸರಳವಾಗಿ ದೊಡ್ಡದಾಗಿರುತ್ತದೆ (ಎಲ್ಲಾ ನಂತರ, ಅಂತಹ ನಿಘಂಟನ್ನು ಎಲ್ಲಾ Mn ಬಿಟ್‌ಗಳ ಸಂಪೂರ್ಣ ಪಟ್ಟಿಗಿಂತ ಕಡಿಮೆ ರೂಪದಲ್ಲಿ ಪ್ರತಿನಿಧಿಸಲಾಗುವುದಿಲ್ಲ, n ಮತ್ತು M ತುಂಬಾ ದೊಡ್ಡದಾಗಿದ್ದರೂ ಸಹ)!

ದೋಷ-ಸರಿಪಡಿಸುವ ಕೋಡ್‌ಗಳು ದೀರ್ಘವಾದ ಸಂದೇಶಕ್ಕಾಗಿ ಕಾಯುವುದನ್ನು ತಪ್ಪಿಸುತ್ತವೆ ಮತ್ತು ನಂತರ ಅದನ್ನು ದೊಡ್ಡ ಕೋಡ್‌ಬುಕ್‌ಗಳ ಮೂಲಕ ಎನ್‌ಕೋಡಿಂಗ್ ಮತ್ತು ಡಿಕೋಡ್ ಮಾಡುತ್ತವೆ ಏಕೆಂದರೆ ಅವುಗಳು ಕೋಡ್‌ಬುಕ್‌ಗಳನ್ನು ತಪ್ಪಿಸುತ್ತವೆ ಮತ್ತು ಬದಲಿಗೆ ಸಾಮಾನ್ಯ ಗಣನೆಯನ್ನು ಬಳಸುತ್ತವೆ. ಸರಳ ಸಿದ್ಧಾಂತದಲ್ಲಿ, ಅಂತಹ ಸಂಕೇತಗಳು ಚಾನಲ್ ಸಾಮರ್ಥ್ಯವನ್ನು ಸಮೀಪಿಸುವ ಸಾಮರ್ಥ್ಯವನ್ನು ಕಳೆದುಕೊಳ್ಳುತ್ತವೆ ಮತ್ತು ಇನ್ನೂ ಕಡಿಮೆ ದೋಷ ದರವನ್ನು ನಿರ್ವಹಿಸುತ್ತವೆ, ಆದರೆ ಕೋಡ್ ಹೆಚ್ಚಿನ ಸಂಖ್ಯೆಯ ದೋಷಗಳನ್ನು ಸರಿಪಡಿಸಿದಾಗ, ಅವು ಉತ್ತಮವಾಗಿ ಕಾರ್ಯನಿರ್ವಹಿಸುತ್ತವೆ. ಬೇರೆ ರೀತಿಯಲ್ಲಿ ಹೇಳುವುದಾದರೆ, ದೋಷ ತಿದ್ದುಪಡಿಗೆ ನೀವು ಕೆಲವು ಚಾನಲ್ ಸಾಮರ್ಥ್ಯವನ್ನು ನಿಯೋಜಿಸಿದರೆ, ನೀವು ಹೆಚ್ಚಿನ ಸಮಯ ದೋಷ ತಿದ್ದುಪಡಿ ಸಾಮರ್ಥ್ಯವನ್ನು ಬಳಸಬೇಕು, ಅಂದರೆ, ಕಳುಹಿಸಲಾದ ಪ್ರತಿ ಸಂದೇಶದಲ್ಲಿ ಹೆಚ್ಚಿನ ಸಂಖ್ಯೆಯ ದೋಷಗಳನ್ನು ಸರಿಪಡಿಸಬೇಕು, ಇಲ್ಲದಿದ್ದರೆ ನೀವು ಈ ಸಾಮರ್ಥ್ಯವನ್ನು ವ್ಯರ್ಥ ಮಾಡುತ್ತೀರಿ.

ಅದೇ ಸಮಯದಲ್ಲಿ, ಮೇಲೆ ಸಾಬೀತುಪಡಿಸಿದ ಪ್ರಮೇಯವು ಇನ್ನೂ ಅರ್ಥಹೀನವಾಗಿಲ್ಲ! ಸಮರ್ಥ ಪ್ರಸರಣ ವ್ಯವಸ್ಥೆಗಳು ಬಹಳ ಉದ್ದವಾದ ಬಿಟ್ ಸ್ಟ್ರಿಂಗ್‌ಗಳಿಗೆ ಬುದ್ಧಿವಂತ ಎನ್‌ಕೋಡಿಂಗ್ ಸ್ಕೀಮ್‌ಗಳನ್ನು ಬಳಸಬೇಕು ಎಂದು ಇದು ತೋರಿಸುತ್ತದೆ. ಒಂದು ಉದಾಹರಣೆಯೆಂದರೆ ಬಾಹ್ಯ ಗ್ರಹಗಳ ಆಚೆಗೆ ಹಾರಿದ ಉಪಗ್ರಹಗಳು; ಅವರು ಭೂಮಿ ಮತ್ತು ಸೂರ್ಯನಿಂದ ದೂರ ಹೋದಂತೆ, ಡೇಟಾ ಬ್ಲಾಕ್ನಲ್ಲಿ ಹೆಚ್ಚು ಹೆಚ್ಚು ದೋಷಗಳನ್ನು ಸರಿಪಡಿಸಲು ಒತ್ತಾಯಿಸಲಾಗುತ್ತದೆ: ಕೆಲವು ಉಪಗ್ರಹಗಳು ಸೌರ ಫಲಕಗಳನ್ನು ಬಳಸುತ್ತವೆ, ಇದು ಸುಮಾರು 5 W ಅನ್ನು ಒದಗಿಸುತ್ತದೆ, ಇತರರು ಪರಮಾಣು ಶಕ್ತಿಯ ಮೂಲಗಳನ್ನು ಬಳಸುತ್ತಾರೆ, ಅದು ಅದೇ ಶಕ್ತಿಯನ್ನು ನೀಡುತ್ತದೆ. ವಿದ್ಯುತ್ ಸರಬರಾಜಿನ ಕಡಿಮೆ ಶಕ್ತಿ, ಟ್ರಾನ್ಸ್‌ಮಿಟರ್ ಭಕ್ಷ್ಯಗಳ ಸಣ್ಣ ಗಾತ್ರ ಮತ್ತು ಭೂಮಿಯ ಮೇಲಿನ ರಿಸೀವರ್ ಭಕ್ಷ್ಯಗಳ ಸೀಮಿತ ಗಾತ್ರ, ಸಿಗ್ನಲ್ ಪ್ರಯಾಣಿಸಬೇಕಾದ ಅಗಾಧ ದೂರ - ಇವೆಲ್ಲವನ್ನೂ ನಿರ್ಮಿಸಲು ಹೆಚ್ಚಿನ ಮಟ್ಟದ ದೋಷ ತಿದ್ದುಪಡಿಯೊಂದಿಗೆ ಕೋಡ್‌ಗಳ ಬಳಕೆಯ ಅಗತ್ಯವಿದೆ. ಪರಿಣಾಮಕಾರಿ ಸಂವಹನ ವ್ಯವಸ್ಥೆ.

ಮೇಲಿನ ಪುರಾವೆಯಲ್ಲಿ ನಾವು ಬಳಸಿದ n-ಆಯಾಮದ ಜಾಗಕ್ಕೆ ಹಿಂತಿರುಗೋಣ. ಇದನ್ನು ಚರ್ಚಿಸುವಾಗ, ಗೋಳದ ಸಂಪೂರ್ಣ ಪರಿಮಾಣವು ಹೊರಗಿನ ಮೇಲ್ಮೈ ಬಳಿ ಕೇಂದ್ರೀಕೃತವಾಗಿದೆ ಎಂದು ನಾವು ತೋರಿಸಿದ್ದೇವೆ - ಹೀಗಾಗಿ, ಕಳುಹಿಸಿದ ಸಿಗ್ನಲ್ ಸ್ವೀಕರಿಸಿದ ಸಿಗ್ನಲ್ ಸುತ್ತಲೂ ನಿರ್ಮಿಸಲಾದ ಗೋಳದ ಮೇಲ್ಮೈ ಬಳಿ ಇರುತ್ತದೆ ಎಂಬುದು ಬಹುತೇಕ ಖಚಿತವಾಗಿದೆ. ಅಂತಹ ಗೋಳದ ಸಣ್ಣ ತ್ರಿಜ್ಯ. ಆದ್ದರಿಂದ, ಸ್ವೀಕರಿಸಿದ ಸಿಗ್ನಲ್, ನಿರಂಕುಶವಾಗಿ ದೊಡ್ಡ ಸಂಖ್ಯೆಯ ದೋಷಗಳನ್ನು ಸರಿಪಡಿಸಿದ ನಂತರ, nQ, ದೋಷಗಳಿಲ್ಲದೆ ಸಿಗ್ನಲ್ಗೆ ನಿರಂಕುಶವಾಗಿ ಹತ್ತಿರದಲ್ಲಿದೆ ಎಂದು ಆಶ್ಚರ್ಯವೇನಿಲ್ಲ. ನಾವು ಮೊದಲು ಚರ್ಚಿಸಿದ ಲಿಂಕ್ ಸಾಮರ್ಥ್ಯವು ಈ ವಿದ್ಯಮಾನವನ್ನು ಅರ್ಥಮಾಡಿಕೊಳ್ಳಲು ಪ್ರಮುಖವಾಗಿದೆ. ದೋಷ-ಸರಿಪಡಿಸುವ ಹ್ಯಾಮಿಂಗ್ ಕೋಡ್‌ಗಳಿಗಾಗಿ ನಿರ್ಮಿಸಲಾದ ಒಂದೇ ರೀತಿಯ ಗೋಳಗಳು ಒಂದಕ್ಕೊಂದು ಅತಿಕ್ರಮಿಸುವುದಿಲ್ಲ ಎಂಬುದನ್ನು ಗಮನಿಸಿ. n-ಆಯಾಮದ ಜಾಗದಲ್ಲಿ ಹೆಚ್ಚಿನ ಸಂಖ್ಯೆಯ ಆರ್ಥೋಗೋನಲ್ ಆಯಾಮಗಳು ನಾವು ಕಡಿಮೆ ಅತಿಕ್ರಮಣದೊಂದಿಗೆ ಬಾಹ್ಯಾಕಾಶದಲ್ಲಿ M ಗೋಳಗಳನ್ನು ಏಕೆ ಹೊಂದಿಸಬಹುದು ಎಂಬುದನ್ನು ತೋರಿಸುತ್ತದೆ. ನಾವು ಸಣ್ಣ, ನಿರಂಕುಶವಾಗಿ ಸಣ್ಣ ಅತಿಕ್ರಮಣವನ್ನು ಅನುಮತಿಸಿದರೆ, ಇದು ಡಿಕೋಡಿಂಗ್ ಸಮಯದಲ್ಲಿ ಕೇವಲ ಕಡಿಮೆ ಸಂಖ್ಯೆಯ ದೋಷಗಳಿಗೆ ಕಾರಣವಾಗಬಹುದು, ನಾವು ಬಾಹ್ಯಾಕಾಶದಲ್ಲಿ ಗೋಳಗಳ ದಟ್ಟವಾದ ನಿಯೋಜನೆಯನ್ನು ಪಡೆಯಬಹುದು. ಹ್ಯಾಮಿಂಗ್ ಒಂದು ನಿರ್ದಿಷ್ಟ ಮಟ್ಟದ ದೋಷ ತಿದ್ದುಪಡಿಯನ್ನು ಖಾತರಿಪಡಿಸುತ್ತದೆ, ಶಾನನ್ - ದೋಷದ ಕಡಿಮೆ ಸಂಭವನೀಯತೆ, ಆದರೆ ಅದೇ ಸಮಯದಲ್ಲಿ ಹ್ಯಾಮಿಂಗ್ ಕೋಡ್‌ಗಳು ಮಾಡಲಾಗದ ಸಂವಹನ ಚಾನಲ್‌ನ ಸಾಮರ್ಥ್ಯಕ್ಕೆ ನಿರಂಕುಶವಾಗಿ ನಿಜವಾದ ಥ್ರೋಪುಟ್ ಅನ್ನು ನಿರ್ವಹಿಸುವುದು.

ಮಾಹಿತಿ ಸಿದ್ಧಾಂತವು ದಕ್ಷ ವ್ಯವಸ್ಥೆಯನ್ನು ಹೇಗೆ ವಿನ್ಯಾಸಗೊಳಿಸುವುದು ಎಂದು ನಮಗೆ ಹೇಳುವುದಿಲ್ಲ, ಆದರೆ ಇದು ಸಮರ್ಥ ಸಂವಹನ ವ್ಯವಸ್ಥೆಗಳ ಕಡೆಗೆ ದಾರಿ ತೋರಿಸುತ್ತದೆ. ಇದು ಯಂತ್ರದಿಂದ ಯಂತ್ರದ ಸಂವಹನ ವ್ಯವಸ್ಥೆಗಳನ್ನು ನಿರ್ಮಿಸಲು ಅಮೂಲ್ಯವಾದ ಸಾಧನವಾಗಿದೆ, ಆದರೆ, ಮೊದಲೇ ಗಮನಿಸಿದಂತೆ, ಮಾನವರು ಪರಸ್ಪರ ಹೇಗೆ ಸಂವಹನ ನಡೆಸುತ್ತಾರೆ ಎಂಬುದಕ್ಕೆ ಇದು ಕಡಿಮೆ ಪ್ರಸ್ತುತತೆಯನ್ನು ಹೊಂದಿದೆ. ಜೈವಿಕ ಆನುವಂಶಿಕತೆಯು ತಾಂತ್ರಿಕ ಸಂವಹನ ವ್ಯವಸ್ಥೆಗಳಂತೆ ಸರಳವಾಗಿ ತಿಳಿದಿಲ್ಲ, ಆದ್ದರಿಂದ ಮಾಹಿತಿ ಸಿದ್ಧಾಂತವು ಜೀನ್‌ಗಳಿಗೆ ಹೇಗೆ ಅನ್ವಯಿಸುತ್ತದೆ ಎಂಬುದು ಪ್ರಸ್ತುತ ಸ್ಪಷ್ಟವಾಗಿಲ್ಲ. ಪ್ರಯತ್ನಿಸುವುದನ್ನು ಬಿಟ್ಟು ನಮಗೆ ಯಾವುದೇ ಆಯ್ಕೆಯಿಲ್ಲ, ಮತ್ತು ಯಶಸ್ಸು ಈ ವಿದ್ಯಮಾನದ ಯಂತ್ರದಂತಹ ಸ್ವಭಾವವನ್ನು ನಮಗೆ ತೋರಿಸಿದರೆ, ವೈಫಲ್ಯವು ಮಾಹಿತಿಯ ಸ್ವರೂಪದ ಇತರ ಮಹತ್ವದ ಅಂಶಗಳನ್ನು ಸೂಚಿಸುತ್ತದೆ.

ನಾವು ಹೆಚ್ಚು ವಿಷಯಾಂತರ ಮಾಡಬೇಡಿ. ಎಲ್ಲಾ ಮೂಲ ವ್ಯಾಖ್ಯಾನಗಳು, ಹೆಚ್ಚಿನ ಅಥವಾ ಕಡಿಮೆ ಪ್ರಮಾಣದಲ್ಲಿ, ನಮ್ಮ ಮೂಲ ನಂಬಿಕೆಗಳ ಸಾರವನ್ನು ವ್ಯಕ್ತಪಡಿಸಬೇಕು ಎಂದು ನಾವು ನೋಡಿದ್ದೇವೆ, ಆದರೆ ಅವು ಸ್ವಲ್ಪಮಟ್ಟಿಗೆ ಅಸ್ಪಷ್ಟತೆಯಿಂದ ಗುಣಲಕ್ಷಣಗಳನ್ನು ಹೊಂದಿವೆ ಮತ್ತು ಆದ್ದರಿಂದ ಅವು ಅನ್ವಯಿಸುವುದಿಲ್ಲ. ಇದು ಸಾಂಪ್ರದಾಯಿಕವಾಗಿ ಅಂಗೀಕರಿಸಲ್ಪಟ್ಟಿದೆ, ಅಂತಿಮವಾಗಿ, ನಾವು ಬಳಸುವ ವ್ಯಾಖ್ಯಾನವು ವಾಸ್ತವವಾಗಿ ಸಾರವನ್ನು ವ್ಯಾಖ್ಯಾನಿಸುತ್ತದೆ; ಆದರೆ, ಇದು ವಿಷಯಗಳನ್ನು ಹೇಗೆ ಪ್ರಕ್ರಿಯೆಗೊಳಿಸಬೇಕು ಎಂಬುದನ್ನು ಮಾತ್ರ ಹೇಳುತ್ತದೆ ಮತ್ತು ಯಾವುದೇ ರೀತಿಯಲ್ಲಿ ನಮಗೆ ಯಾವುದೇ ಅರ್ಥವನ್ನು ತಿಳಿಸುವುದಿಲ್ಲ. ಗಣಿತದ ವಲಯಗಳಲ್ಲಿ ಬಲವಾಗಿ ಒಲವು ತೋರಿದ ಪೋಸ್ಟ್ಯುಲೇಷನಲ್ ವಿಧಾನವು ಆಚರಣೆಯಲ್ಲಿ ಅಪೇಕ್ಷಿತವಾಗಿರುವುದನ್ನು ಬಿಟ್ಟುಬಿಡುತ್ತದೆ.

ಈಗ ನಾವು IQ ಪರೀಕ್ಷೆಗಳ ಉದಾಹರಣೆಯನ್ನು ನೋಡುತ್ತೇವೆ, ಅಲ್ಲಿ ವ್ಯಾಖ್ಯಾನವು ನೀವು ಬಯಸಿದಷ್ಟು ವೃತ್ತಾಕಾರವಾಗಿದೆ ಮತ್ತು ಪರಿಣಾಮವಾಗಿ, ದಾರಿತಪ್ಪಿಸುತ್ತದೆ. ಬುದ್ಧಿವಂತಿಕೆಯನ್ನು ಅಳೆಯುವ ಪರೀಕ್ಷೆಯನ್ನು ರಚಿಸಲಾಗಿದೆ. ನಂತರ ಅದನ್ನು ಸಾಧ್ಯವಾದಷ್ಟು ಸ್ಥಿರವಾಗಿಸಲು ಪರಿಷ್ಕರಿಸಲಾಗುತ್ತದೆ, ಮತ್ತು ನಂತರ ಅದನ್ನು ಪ್ರಕಟಿಸಲಾಗುತ್ತದೆ ಮತ್ತು ಸರಳ ವಿಧಾನದಲ್ಲಿ ಮಾಪನಾಂಕ ನಿರ್ಣಯಿಸಲಾಗುತ್ತದೆ ಆದ್ದರಿಂದ "ಬುದ್ಧಿವಂತಿಕೆ" ಮಾಪನವನ್ನು ಸಾಮಾನ್ಯವಾಗಿ ವಿತರಿಸಲಾಗುತ್ತದೆ (ಸಹಜವಾಗಿ ಮಾಪನಾಂಕ ನಿರ್ಣಯದ ರೇಖೆಯಲ್ಲಿ). ಎಲ್ಲಾ ವ್ಯಾಖ್ಯಾನಗಳನ್ನು ಮೊದಲು ಪ್ರಸ್ತಾಪಿಸಿದಾಗ ಮಾತ್ರವಲ್ಲ, ನಂತರದ ತೀರ್ಮಾನಗಳಲ್ಲಿ ಬಳಸಿದಾಗಲೂ ಮರುಪರಿಶೀಲಿಸಬೇಕು. ಸಮಸ್ಯೆಯ ಪರಿಹಾರಕ್ಕೆ ವ್ಯಾಖ್ಯಾನದ ಗಡಿಗಳು ಎಷ್ಟರ ಮಟ್ಟಿಗೆ ಸೂಕ್ತವಾಗಿವೆ? ಒಂದು ಸೆಟ್ಟಿಂಗ್‌ನಲ್ಲಿ ನೀಡಲಾದ ವ್ಯಾಖ್ಯಾನಗಳು ವಿಭಿನ್ನ ಸೆಟ್ಟಿಂಗ್‌ಗಳಲ್ಲಿ ಎಷ್ಟು ಬಾರಿ ಅನ್ವಯಿಸಲ್ಪಡುತ್ತವೆ? ಇದು ಆಗಾಗ್ಗೆ ಸಂಭವಿಸುತ್ತದೆ! ಮಾನವಿಕತೆಗಳಲ್ಲಿ, ನಿಮ್ಮ ಜೀವನದಲ್ಲಿ ನೀವು ಅನಿವಾರ್ಯವಾಗಿ ಎದುರಿಸುತ್ತೀರಿ, ಇದು ಹೆಚ್ಚಾಗಿ ಸಂಭವಿಸುತ್ತದೆ.

ಹೀಗಾಗಿ, ಮಾಹಿತಿ ಸಿದ್ಧಾಂತದ ಈ ಪ್ರಸ್ತುತಿಯ ಉದ್ದೇಶಗಳಲ್ಲಿ ಒಂದಾಗಿದೆ, ಅದರ ಉಪಯುಕ್ತತೆಯನ್ನು ಪ್ರದರ್ಶಿಸುವುದರ ಜೊತೆಗೆ, ಈ ಅಪಾಯದ ಬಗ್ಗೆ ನಿಮಗೆ ಎಚ್ಚರಿಕೆ ನೀಡುವುದು ಅಥವಾ ಅಪೇಕ್ಷಿತ ಫಲಿತಾಂಶವನ್ನು ಪಡೆಯಲು ಅದನ್ನು ಹೇಗೆ ಬಳಸುವುದು ಎಂದು ನಿಮಗೆ ತೋರಿಸುವುದು. ಆರಂಭಿಕ ವ್ಯಾಖ್ಯಾನಗಳು ನೀವು ಕೊನೆಯಲ್ಲಿ ಏನನ್ನು ಕಂಡುಕೊಳ್ಳುತ್ತೀರಿ ಎಂಬುದನ್ನು ನಿರ್ಧರಿಸುತ್ತದೆ ಎಂದು ಬಹಳ ಹಿಂದೆಯೇ ಗಮನಿಸಲಾಗಿದೆ, ಅದು ತೋರುತ್ತಿರುವುದಕ್ಕಿಂತ ಹೆಚ್ಚಿನ ಪ್ರಮಾಣದಲ್ಲಿ. ಆರಂಭಿಕ ವ್ಯಾಖ್ಯಾನಗಳಿಗೆ ನಿಮ್ಮಿಂದ ಹೆಚ್ಚಿನ ಗಮನ ಬೇಕಾಗುತ್ತದೆ, ಯಾವುದೇ ಹೊಸ ಪರಿಸ್ಥಿತಿಯಲ್ಲಿ ಮಾತ್ರವಲ್ಲದೆ, ನೀವು ದೀರ್ಘಕಾಲದವರೆಗೆ ಕೆಲಸ ಮಾಡುತ್ತಿರುವ ಕ್ಷೇತ್ರಗಳಲ್ಲಿಯೂ ಸಹ. ಪಡೆದ ಫಲಿತಾಂಶಗಳು ಟೌಟಾಲಜಿ ಮತ್ತು ಉಪಯುಕ್ತವಾದವುಗಳಲ್ಲ ಎಂಬುದನ್ನು ಅರ್ಥಮಾಡಿಕೊಳ್ಳಲು ಇದು ನಿಮ್ಮನ್ನು ಅನುಮತಿಸುತ್ತದೆ.

ಎಡಿಂಗ್ಟನ್‌ನ ಪ್ರಸಿದ್ಧ ಕಥೆಯು ಸಮುದ್ರದಲ್ಲಿ ಬಲೆಯಿಂದ ಮೀನು ಹಿಡಿಯುವ ಜನರ ಬಗ್ಗೆ ಹೇಳುತ್ತದೆ. ಅವರು ಹಿಡಿದ ಮೀನಿನ ಗಾತ್ರವನ್ನು ಅಧ್ಯಯನ ಮಾಡಿದ ನಂತರ, ಅವರು ಸಮುದ್ರದಲ್ಲಿ ಕಂಡುಬರುವ ಮೀನಿನ ಕನಿಷ್ಠ ಗಾತ್ರವನ್ನು ನಿರ್ಧರಿಸಿದರು! ಅವರ ತೀರ್ಮಾನವು ಬಳಸಿದ ಸಾಧನದಿಂದ ನಡೆಸಲ್ಪಟ್ಟಿದೆ, ವಾಸ್ತವದಿಂದಲ್ಲ.

ಮುಂದುವರೆಸಲು ...

ಪುಸ್ತಕದ ಅನುವಾದ, ವಿನ್ಯಾಸ ಮತ್ತು ಪ್ರಕಟಣೆಗೆ ಸಹಾಯ ಮಾಡಲು ಯಾರು ಬಯಸುತ್ತಾರೆ - ವೈಯಕ್ತಿಕ ಸಂದೇಶ ಅಥವಾ ಇಮೇಲ್‌ನಲ್ಲಿ ಬರೆಯಿರಿ [ಇಮೇಲ್ ರಕ್ಷಿಸಲಾಗಿದೆ]

ಅಂದಹಾಗೆ, ನಾವು ಮತ್ತೊಂದು ತಂಪಾದ ಪುಸ್ತಕದ ಅನುವಾದವನ್ನು ಸಹ ಪ್ರಾರಂಭಿಸಿದ್ದೇವೆ - "ದಿ ಡ್ರೀಮ್ ಮೆಷಿನ್: ಕಂಪ್ಯೂಟರ್ ಕ್ರಾಂತಿಯ ಕಥೆ")

ನಾವು ವಿಶೇಷವಾಗಿ ಹುಡುಕುತ್ತಿದ್ದೇವೆ ಅನುವಾದಿಸಲು ಸಹಾಯ ಮಾಡುವವರು ಬೋನಸ್ ಅಧ್ಯಾಯ, ಇದು ವೀಡಿಯೊದಲ್ಲಿ ಮಾತ್ರ. (10 ನಿಮಿಷಗಳ ಕಾಲ ವರ್ಗಾಯಿಸಿ, ಮೊದಲ 20 ಅನ್ನು ಈಗಾಗಲೇ ತೆಗೆದುಕೊಳ್ಳಲಾಗಿದೆ)

ಪುಸ್ತಕದ ವಿಷಯಗಳು ಮತ್ತು ಅನುವಾದಿತ ಅಧ್ಯಾಯಗಳುಮುನ್ನುಡಿ

  1. ವಿಜ್ಞಾನ ಮತ್ತು ಎಂಜಿನಿಯರಿಂಗ್ ಕಲೆಯ ಪರಿಚಯ: ಕಲಿಯಲು ಕಲಿಯುವುದು (ಮಾರ್ಚ್ 28, 1995) ಅನುವಾದ: ಅಧ್ಯಾಯ 1
  2. "ಡಿಜಿಟಲ್ (ಡಿಸ್ಕ್ರೀಟ್) ಕ್ರಾಂತಿಯ ಅಡಿಪಾಯ" (ಮಾರ್ಚ್ 30, 1995) ಅಧ್ಯಾಯ 2. ಡಿಜಿಟಲ್ (ಡಿಸ್ಕ್ರೀಟ್) ಕ್ರಾಂತಿಯ ಮೂಲಭೂತ ಅಂಶಗಳು
  3. "ಕಂಪ್ಯೂಟರ್‌ಗಳ ಇತಿಹಾಸ - ಹಾರ್ಡ್‌ವೇರ್" (ಮಾರ್ಚ್ 31, 1995) ಅಧ್ಯಾಯ 3. ಕಂಪ್ಯೂಟರ್‌ಗಳ ಇತಿಹಾಸ - ಹಾರ್ಡ್‌ವೇರ್
  4. "ಕಂಪ್ಯೂಟರ್‌ಗಳ ಇತಿಹಾಸ - ಸಾಫ್ಟ್‌ವೇರ್" (ಏಪ್ರಿಲ್ 4, 1995) ಅಧ್ಯಾಯ 4. ಕಂಪ್ಯೂಟರ್‌ಗಳ ಇತಿಹಾಸ - ಸಾಫ್ಟ್‌ವೇರ್
  5. "ಕಂಪ್ಯೂಟರ್‌ಗಳ ಇತಿಹಾಸ - ಅಪ್ಲಿಕೇಶನ್‌ಗಳು" (ಏಪ್ರಿಲ್ 6, 1995) ಅಧ್ಯಾಯ 5: ಕಂಪ್ಯೂಟರ್‌ಗಳ ಇತಿಹಾಸ - ಪ್ರಾಯೋಗಿಕ ಅಪ್ಲಿಕೇಶನ್‌ಗಳು
  6. "ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ - ಭಾಗ I" (ಏಪ್ರಿಲ್ 7, 1995) ಅಧ್ಯಾಯ 6. ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ - 1
  7. "ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ - ಭಾಗ II" (ಏಪ್ರಿಲ್ 11, 1995) ಅಧ್ಯಾಯ 7. ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ - II
  8. "ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ III" (ಏಪ್ರಿಲ್ 13, 1995) ಅಧ್ಯಾಯ 8. ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ-III
  9. "ಎನ್-ಡೈಮೆನ್ಷನಲ್ ಸ್ಪೇಸ್" (ಏಪ್ರಿಲ್ 14, 1995) ಅಧ್ಯಾಯ 9. N- ಆಯಾಮದ ಜಾಗ
  10. "ಕೋಡಿಂಗ್ ಥಿಯರಿ - ಮಾಹಿತಿಯ ಪ್ರಾತಿನಿಧ್ಯ, ಭಾಗ I" (ಏಪ್ರಿಲ್ 18, 1995) ಅಧ್ಯಾಯ 10. ಕೋಡಿಂಗ್ ಸಿದ್ಧಾಂತ - I
  11. "ಕೋಡಿಂಗ್ ಥಿಯರಿ - ಮಾಹಿತಿಯ ಪ್ರಾತಿನಿಧ್ಯ, ಭಾಗ II" (ಏಪ್ರಿಲ್ 20, 1995) ಅಧ್ಯಾಯ 11. ಕೋಡಿಂಗ್ ಸಿದ್ಧಾಂತ - II
  12. "ಎರರ್-ಕರೆಕ್ಟಿಂಗ್ ಕೋಡ್ಸ್" (ಏಪ್ರಿಲ್ 21, 1995) ಅಧ್ಯಾಯ 12. ದೋಷ ತಿದ್ದುಪಡಿ ಕೋಡ್‌ಗಳು
  13. "ಮಾಹಿತಿ ಸಿದ್ಧಾಂತ" (ಏಪ್ರಿಲ್ 25, 1995) ಅಧ್ಯಾಯ 13. ಮಾಹಿತಿ ಸಿದ್ಧಾಂತ
  14. "ಡಿಜಿಟಲ್ ಫಿಲ್ಟರ್‌ಗಳು, ಭಾಗ I" (ಏಪ್ರಿಲ್ 27, 1995) ಅಧ್ಯಾಯ 14. ಡಿಜಿಟಲ್ ಫಿಲ್ಟರ್‌ಗಳು - 1
  15. "ಡಿಜಿಟಲ್ ಫಿಲ್ಟರ್‌ಗಳು, ಭಾಗ II" (ಏಪ್ರಿಲ್ 28, 1995) ಅಧ್ಯಾಯ 15. ಡಿಜಿಟಲ್ ಫಿಲ್ಟರ್‌ಗಳು - 2
  16. "ಡಿಜಿಟಲ್ ಫಿಲ್ಟರ್‌ಗಳು, ಭಾಗ III" (ಮೇ 2, 1995) ಅಧ್ಯಾಯ 16. ಡಿಜಿಟಲ್ ಫಿಲ್ಟರ್‌ಗಳು - 3
  17. "ಡಿಜಿಟಲ್ ಫಿಲ್ಟರ್‌ಗಳು, ಭಾಗ IV" (ಮೇ 4, 1995) ಅಧ್ಯಾಯ 17. ಡಿಜಿಟಲ್ ಫಿಲ್ಟರ್‌ಗಳು - IV
  18. "ಸಿಮ್ಯುಲೇಶನ್, ಭಾಗ I" (ಮೇ 5, 1995) ಅಧ್ಯಾಯ 18. ಮಾಡೆಲಿಂಗ್ - I
  19. "ಸಿಮ್ಯುಲೇಶನ್, ಭಾಗ II" (ಮೇ 9, 1995) ಅಧ್ಯಾಯ 19. ಮಾಡೆಲಿಂಗ್ - II
  20. "ಸಿಮ್ಯುಲೇಶನ್, ಭಾಗ III" (ಮೇ 11, 1995) ಅಧ್ಯಾಯ 20. ಮಾಡೆಲಿಂಗ್ - III
  21. "ಫೈಬರ್ ಆಪ್ಟಿಕ್ಸ್" (ಮೇ 12, 1995) ಅಧ್ಯಾಯ 21. ಫೈಬರ್ ಆಪ್ಟಿಕ್ಸ್
  22. "ಕಂಪ್ಯೂಟರ್ ನೆರವಿನ ಸೂಚನೆ" (ಮೇ 16, 1995) ಅಧ್ಯಾಯ 22: ಕಂಪ್ಯೂಟರ್ ಅಸಿಸ್ಟೆಡ್ ಇನ್‌ಸ್ಟ್ರಕ್ಷನ್ (ಸಿಎಐ)
  23. "ಗಣಿತ" (ಮೇ 18, 1995) ಅಧ್ಯಾಯ 23. ಗಣಿತಶಾಸ್ತ್ರ
  24. "ಕ್ವಾಂಟಮ್ ಮೆಕ್ಯಾನಿಕ್ಸ್" (ಮೇ 19, 1995) ಅಧ್ಯಾಯ 24. ಕ್ವಾಂಟಮ್ ಮೆಕ್ಯಾನಿಕ್ಸ್
  25. "ಸೃಜನಶೀಲತೆ" (ಮೇ 23, 1995). ಅನುವಾದ: ಅಧ್ಯಾಯ 25. ಸೃಜನಶೀಲತೆ
  26. "ತಜ್ಞರು" (ಮೇ 25, 1995) ಅಧ್ಯಾಯ 26. ತಜ್ಞರು
  27. "ವಿಶ್ವಾಸಾರ್ಹವಲ್ಲದ ಡೇಟಾ" (ಮೇ 26, 1995) ಅಧ್ಯಾಯ 27. ವಿಶ್ವಾಸಾರ್ಹವಲ್ಲದ ಡೇಟಾ
  28. "ಸಿಸ್ಟಮ್ಸ್ ಇಂಜಿನಿಯರಿಂಗ್" (ಮೇ 30, 1995) ಅಧ್ಯಾಯ 28. ಸಿಸ್ಟಮ್ಸ್ ಇಂಜಿನಿಯರಿಂಗ್
  29. "ಯು ಗೆಟ್ ವಾಟ್ ಯು ಮೆಷರ್" (ಜೂನ್ 1, 1995) ಅಧ್ಯಾಯ 29: ನೀವು ಅಳೆಯುವದನ್ನು ನೀವು ಪಡೆಯುತ್ತೀರಿ
  30. "ನಮಗೆ ತಿಳಿದಿರುವುದನ್ನು ನಾವು ಹೇಗೆ ತಿಳಿಯುವುದು" (ಜೂನ್ 2, 1995) 10 ನಿಮಿಷಗಳ ಭಾಗಗಳಲ್ಲಿ ಅನುವಾದಿಸಿ
  31. ಹ್ಯಾಮಿಂಗ್, "ನೀವು ಮತ್ತು ನಿಮ್ಮ ಸಂಶೋಧನೆ" (ಜೂನ್ 6, 1995). ಅನುವಾದ: ನೀವು ಮತ್ತು ನಿಮ್ಮ ಕೆಲಸ

ಪುಸ್ತಕದ ಅನುವಾದ, ವಿನ್ಯಾಸ ಮತ್ತು ಪ್ರಕಟಣೆಗೆ ಸಹಾಯ ಮಾಡಲು ಯಾರು ಬಯಸುತ್ತಾರೆ - ವೈಯಕ್ತಿಕ ಸಂದೇಶ ಅಥವಾ ಇಮೇಲ್‌ನಲ್ಲಿ ಬರೆಯಿರಿ [ಇಮೇಲ್ ರಕ್ಷಿಸಲಾಗಿದೆ]

ಮೂಲ: www.habr.com

ಕಾಮೆಂಟ್ ಅನ್ನು ಸೇರಿಸಿ