"ನಿಮ್ಮ ತಾಂತ್ರಿಕ ಭವಿಷ್ಯಕ್ಕಾಗಿ ನಿಮ್ಮನ್ನು ಸಿದ್ಧಪಡಿಸುವುದು ಈ ಕೋರ್ಸ್ನ ಉದ್ದೇಶವಾಗಿದೆ."
ಹಲೋ, ಹಬ್ರ್. ಅದ್ಭುತ ಲೇಖನವನ್ನು ನೆನಪಿಸಿಕೊಳ್ಳಿ "ನೀವು ಮತ್ತು ನಿಮ್ಮ ಕೆಲಸ" (+219, 2588 ಬುಕ್ಮಾರ್ಕ್ಗಳು, 429k ಓದುವಿಕೆ)?
ಆದ್ದರಿಂದ ಹ್ಯಾಮಿಂಗ್ (ಹೌದು, ಹೌದು, ಸ್ವಯಂ-ಮೇಲ್ವಿಚಾರಣೆ ಮತ್ತು ಸ್ವಯಂ-ಸರಿಪಡಿಸುವುದು ಹ್ಯಾಮಿಂಗ್ ಕೋಡ್ಗಳು) ಸಂಪೂರ್ಣ ಇದೆ ಒಂದು ಪುಸ್ತಕ, ಅವರ ಉಪನ್ಯಾಸಗಳ ಆಧಾರದ ಮೇಲೆ ಬರೆಯಲಾಗಿದೆ. ನಾವು ಅದನ್ನು ಅನುವಾದಿಸುತ್ತೇವೆ, ಏಕೆಂದರೆ ಮನುಷ್ಯನು ತನ್ನ ಮನಸ್ಸನ್ನು ಮಾತನಾಡುತ್ತಾನೆ.
ಇದು ಕೇವಲ ಐಟಿ ಬಗ್ಗೆ ಮಾತ್ರವಲ್ಲ, ನಂಬಲಾಗದಷ್ಟು ಕೂಲ್ ಜನರ ಆಲೋಚನಾ ಶೈಲಿಯ ಪುಸ್ತಕವಾಗಿದೆ. “ಇದು ಕೇವಲ ಧನಾತ್ಮಕ ಚಿಂತನೆಯ ಉತ್ತೇಜನವಲ್ಲ; ಇದು ಉತ್ತಮ ಕೆಲಸವನ್ನು ಮಾಡುವ ಸಾಧ್ಯತೆಗಳನ್ನು ಹೆಚ್ಚಿಸುವ ಪರಿಸ್ಥಿತಿಗಳನ್ನು ವಿವರಿಸುತ್ತದೆ.
ಅನುವಾದಕ್ಕಾಗಿ ಆಂಡ್ರೆ ಪಖೋಮೊವ್ ಅವರಿಗೆ ಧನ್ಯವಾದಗಳು.
ಮಾಹಿತಿ ಸಿದ್ಧಾಂತವನ್ನು 1940 ರ ದಶಕದ ಅಂತ್ಯದಲ್ಲಿ C. E. ಶಾನನ್ ಅಭಿವೃದ್ಧಿಪಡಿಸಿದರು. ಬೆಲ್ ಲ್ಯಾಬ್ಸ್ ಆಡಳಿತವು ಅದನ್ನು "ಸಂವಹನ ಸಿದ್ಧಾಂತ" ಎಂದು ಕರೆಯಲು ಒತ್ತಾಯಿಸಿತು ಏಕೆಂದರೆ... ಇದು ಹೆಚ್ಚು ನಿಖರವಾದ ಹೆಸರು. ಸ್ಪಷ್ಟ ಕಾರಣಗಳಿಗಾಗಿ, "ಮಾಹಿತಿ ಸಿದ್ಧಾಂತ" ಎಂಬ ಹೆಸರು ಸಾರ್ವಜನಿಕರ ಮೇಲೆ ಹೆಚ್ಚು ಪ್ರಭಾವ ಬೀರುತ್ತದೆ, ಅದಕ್ಕಾಗಿಯೇ ಶಾನನ್ ಅದನ್ನು ಆರಿಸಿಕೊಂಡರು ಮತ್ತು ಇದು ಇಂದಿಗೂ ನಮಗೆ ತಿಳಿದಿರುವ ಹೆಸರು. ಸಿದ್ಧಾಂತವು ಮಾಹಿತಿಯೊಂದಿಗೆ ವ್ಯವಹರಿಸುತ್ತದೆ ಎಂದು ಹೆಸರು ಸ್ವತಃ ಸೂಚಿಸುತ್ತದೆ, ಇದು ನಾವು ಮಾಹಿತಿ ಯುಗಕ್ಕೆ ಆಳವಾಗಿ ಚಲಿಸುವಾಗ ಅದು ಮುಖ್ಯವಾಗುತ್ತದೆ. ಈ ಅಧ್ಯಾಯದಲ್ಲಿ, ನಾನು ಈ ಸಿದ್ಧಾಂತದಿಂದ ಹಲವಾರು ಮುಖ್ಯ ತೀರ್ಮಾನಗಳನ್ನು ಸ್ಪರ್ಶಿಸುತ್ತೇನೆ, ನಾನು ಈ ಸಿದ್ಧಾಂತದ ಕೆಲವು ವೈಯಕ್ತಿಕ ನಿಬಂಧನೆಗಳ ಕಟ್ಟುನಿಟ್ಟಾದ ಅಲ್ಲ, ಆದರೆ ಅರ್ಥಗರ್ಭಿತ ಪುರಾವೆಗಳನ್ನು ಒದಗಿಸುತ್ತೇನೆ, ಇದರಿಂದ "ಮಾಹಿತಿ ಸಿದ್ಧಾಂತ" ನಿಜವಾಗಿ ಏನೆಂದು ನೀವು ಅರ್ಥಮಾಡಿಕೊಳ್ಳುತ್ತೀರಿ, ಅಲ್ಲಿ ನೀವು ಅದನ್ನು ಅನ್ವಯಿಸಬಹುದು. ಮತ್ತು ಎಲ್ಲಿ ಅಲ್ಲ.
ಮೊದಲನೆಯದಾಗಿ, "ಮಾಹಿತಿ" ಎಂದರೇನು? ಶಾನನ್ ಮಾಹಿತಿಯನ್ನು ಅನಿಶ್ಚಿತತೆಯೊಂದಿಗೆ ಸಮೀಕರಿಸುತ್ತಾನೆ. ಅವರು ಈವೆಂಟ್ನ ಸಂಭವನೀಯತೆಯ ಋಣಾತ್ಮಕ ಲಾಗರಿಥಮ್ ಅನ್ನು ಆಯ್ಕೆ ಮಾಡಿದರು, ಸಂಭವನೀಯತೆ p ಯೊಂದಿಗೆ ಈವೆಂಟ್ ಸಂಭವಿಸಿದಾಗ ನೀವು ಸ್ವೀಕರಿಸುವ ಮಾಹಿತಿಯ ಪರಿಮಾಣಾತ್ಮಕ ಅಳತೆಯಾಗಿ. ಉದಾಹರಣೆಗೆ, ಲಾಸ್ ಏಂಜಲೀಸ್ನಲ್ಲಿನ ಹವಾಮಾನವು ಮಂಜಿನಿಂದ ಕೂಡಿದೆ ಎಂದು ನಾನು ನಿಮಗೆ ಹೇಳಿದರೆ, p 1 ಕ್ಕೆ ಹತ್ತಿರದಲ್ಲಿದೆ, ಅದು ನಿಜವಾಗಿಯೂ ನಮಗೆ ಹೆಚ್ಚಿನ ಮಾಹಿತಿಯನ್ನು ನೀಡುವುದಿಲ್ಲ. ಆದರೆ ಜೂನ್ನಲ್ಲಿ ಮಾಂಟೆರೆಯಲ್ಲಿ ಮಳೆಯಾಗುತ್ತದೆ ಎಂದು ನಾನು ಹೇಳಿದರೆ, ಸಂದೇಶದಲ್ಲಿ ಅನಿಶ್ಚಿತತೆ ಇರುತ್ತದೆ ಮತ್ತು ಅದರಲ್ಲಿ ಹೆಚ್ಚಿನ ಮಾಹಿತಿ ಇರುತ್ತದೆ. ಲಾಗ್ 1 = 0 ರಿಂದ ವಿಶ್ವಾಸಾರ್ಹ ಈವೆಂಟ್ ಯಾವುದೇ ಮಾಹಿತಿಯನ್ನು ಹೊಂದಿರುವುದಿಲ್ಲ.
ಇದನ್ನು ಹೆಚ್ಚು ವಿವರವಾಗಿ ನೋಡೋಣ. ಮಾಹಿತಿಯ ಪರಿಮಾಣಾತ್ಮಕ ಅಳತೆಯು ಈವೆಂಟ್ p ನ ಸಂಭವನೀಯತೆಯ ನಿರಂತರ ಕಾರ್ಯವಾಗಿರಬೇಕು ಮತ್ತು ಸ್ವತಂತ್ರ ಘಟನೆಗಳಿಗೆ ಇದು ಸಂಯೋಜಕವಾಗಿರಬೇಕು - ಎರಡು ಸ್ವತಂತ್ರ ಘಟನೆಗಳ ಸಂಭವಿಸುವಿಕೆಯ ಪರಿಣಾಮವಾಗಿ ಪಡೆದ ಮಾಹಿತಿಯ ಪ್ರಮಾಣವು ಸಮಾನವಾಗಿರಬೇಕು ಎಂದು ಶಾನನ್ ನಂಬಿದ್ದರು. ಜಂಟಿ ಘಟನೆಯ ಪರಿಣಾಮವಾಗಿ ಪಡೆದ ಮಾಹಿತಿಯ ಪ್ರಮಾಣ. ಉದಾಹರಣೆಗೆ, ಡೈಸ್ ರೋಲ್ ಮತ್ತು ನಾಣ್ಯ ರೋಲ್ನ ಫಲಿತಾಂಶವನ್ನು ಸಾಮಾನ್ಯವಾಗಿ ಸ್ವತಂತ್ರ ಘಟನೆಗಳೆಂದು ಪರಿಗಣಿಸಲಾಗುತ್ತದೆ. ಮೇಲಿನದನ್ನು ಗಣಿತದ ಭಾಷೆಗೆ ಅನುವಾದಿಸೋಣ. I (p) ಸಂಭವನೀಯತೆ p ಯೊಂದಿಗೆ ಈವೆಂಟ್ನಲ್ಲಿ ಒಳಗೊಂಡಿರುವ ಮಾಹಿತಿಯ ಮೊತ್ತವಾಗಿದ್ದರೆ, ಎರಡು ಸ್ವತಂತ್ರ ಈವೆಂಟ್ಗಳನ್ನು ಒಳಗೊಂಡಿರುವ ಜಂಟಿ ಈವೆಂಟ್ಗಾಗಿ x ಸಂಭವನೀಯತೆ p1 ಮತ್ತು y ಸಂಭವನೀಯತೆ p2 ನೊಂದಿಗೆ ನಾವು ಪಡೆಯುತ್ತೇವೆ
(x ಮತ್ತು y ಸ್ವತಂತ್ರ ಘಟನೆಗಳು)
ಇದು ಕ್ರಿಯಾತ್ಮಕ ಕೌಚಿ ಸಮೀಕರಣವಾಗಿದೆ, ಇದು ಎಲ್ಲಾ p1 ಮತ್ತು p2 ಗಳಿಗೆ ನಿಜವಾಗಿದೆ. ಈ ಕ್ರಿಯಾತ್ಮಕ ಸಮೀಕರಣವನ್ನು ಪರಿಹರಿಸಲು, ಅದನ್ನು ಊಹಿಸಿ
p1 = p2 = p,
ಇದು ನೀಡುತ್ತದೆ
p1 = p2 ಮತ್ತು p2 = p ಆಗಿದ್ದರೆ
ಇತ್ಯಾದಿ ಘಾತೀಯಗಳಿಗೆ ಪ್ರಮಾಣಿತ ವಿಧಾನವನ್ನು ಬಳಸಿಕೊಂಡು ಈ ಪ್ರಕ್ರಿಯೆಯನ್ನು ವಿಸ್ತರಿಸುವುದು, ಎಲ್ಲಾ ಭಾಗಲಬ್ಧ ಸಂಖ್ಯೆಗಳಿಗೆ m/n ಕೆಳಗಿನವುಗಳು ನಿಜ
ಮಾಹಿತಿ ಅಳತೆಯ ಊಹೆಯ ನಿರಂತರತೆಯಿಂದ, ಲಾಗರಿಥಮಿಕ್ ಕಾರ್ಯವು ಕೌಚಿ ಕ್ರಿಯಾತ್ಮಕ ಸಮೀಕರಣಕ್ಕೆ ಏಕೈಕ ನಿರಂತರ ಪರಿಹಾರವಾಗಿದೆ ಎಂದು ಅನುಸರಿಸುತ್ತದೆ.
ಮಾಹಿತಿ ಸಿದ್ಧಾಂತದಲ್ಲಿ, ಲಾಗರಿಥಮ್ ಬೇಸ್ ಅನ್ನು 2 ಎಂದು ತೆಗೆದುಕೊಳ್ಳುವುದು ಸಾಮಾನ್ಯವಾಗಿದೆ, ಆದ್ದರಿಂದ ಬೈನರಿ ಆಯ್ಕೆಯು ನಿಖರವಾಗಿ 1 ಬಿಟ್ ಮಾಹಿತಿಯನ್ನು ಹೊಂದಿರುತ್ತದೆ. ಆದ್ದರಿಂದ, ಮಾಹಿತಿಯನ್ನು ಸೂತ್ರದಿಂದ ಅಳೆಯಲಾಗುತ್ತದೆ
ವಿರಾಮ ಮಾಡೋಣ ಮತ್ತು ಮೇಲೆ ಏನಾಯಿತು ಎಂಬುದನ್ನು ಅರ್ಥಮಾಡಿಕೊಳ್ಳೋಣ. ಮೊದಲನೆಯದಾಗಿ, ನಾವು "ಮಾಹಿತಿ" ಎಂಬ ಪರಿಕಲ್ಪನೆಯನ್ನು ವ್ಯಾಖ್ಯಾನಿಸಲಿಲ್ಲ; ಅದರ ಪರಿಮಾಣಾತ್ಮಕ ಅಳತೆಗಾಗಿ ನಾವು ಸೂತ್ರವನ್ನು ಸರಳವಾಗಿ ವ್ಯಾಖ್ಯಾನಿಸಿದ್ದೇವೆ.
ಎರಡನೆಯದಾಗಿ, ಈ ಅಳತೆಯು ಅನಿಶ್ಚಿತತೆಗೆ ಒಳಪಟ್ಟಿರುತ್ತದೆ ಮತ್ತು ಇದು ಯಂತ್ರಗಳಿಗೆ ಸಮಂಜಸವಾಗಿ ಸೂಕ್ತವಾಗಿದೆ-ಉದಾಹರಣೆಗೆ, ದೂರವಾಣಿ ವ್ಯವಸ್ಥೆಗಳು, ರೇಡಿಯೋ, ದೂರದರ್ಶನ, ಕಂಪ್ಯೂಟರ್ಗಳು, ಇತ್ಯಾದಿ-ಇದು ಮಾಹಿತಿಯ ಕಡೆಗೆ ಸಾಮಾನ್ಯ ಮಾನವ ವರ್ತನೆಗಳನ್ನು ಪ್ರತಿಬಿಂಬಿಸುವುದಿಲ್ಲ.
ಮೂರನೆಯದಾಗಿ, ಇದು ಸಾಪೇಕ್ಷ ಅಳತೆಯಾಗಿದೆ, ಇದು ನಿಮ್ಮ ಜ್ಞಾನದ ಪ್ರಸ್ತುತ ಸ್ಥಿತಿಯನ್ನು ಅವಲಂಬಿಸಿರುತ್ತದೆ. ಯಾದೃಚ್ಛಿಕ ಸಂಖ್ಯೆಯ ಜನರೇಟರ್ನಿಂದ "ಯಾದೃಚ್ಛಿಕ ಸಂಖ್ಯೆಗಳ" ಸ್ಟ್ರೀಮ್ ಅನ್ನು ನೀವು ನೋಡಿದರೆ, ಪ್ರತಿ ಮುಂದಿನ ಸಂಖ್ಯೆಯು ಅನಿಶ್ಚಿತವಾಗಿದೆ ಎಂದು ನೀವು ಊಹಿಸುತ್ತೀರಿ, ಆದರೆ "ಯಾದೃಚ್ಛಿಕ ಸಂಖ್ಯೆಗಳನ್ನು" ಲೆಕ್ಕಾಚಾರ ಮಾಡುವ ಸೂತ್ರವನ್ನು ನೀವು ತಿಳಿದಿದ್ದರೆ, ಮುಂದಿನ ಸಂಖ್ಯೆಯು ತಿಳಿಯುತ್ತದೆ ಮತ್ತು ಆದ್ದರಿಂದ ಆಗುವುದಿಲ್ಲ ಮಾಹಿತಿಯನ್ನು ಒಳಗೊಂಡಿರುತ್ತದೆ.
ಆದ್ದರಿಂದ ಶಾನನ್ ಅವರ ಮಾಹಿತಿಯ ವ್ಯಾಖ್ಯಾನವು ಅನೇಕ ಸಂದರ್ಭಗಳಲ್ಲಿ ಯಂತ್ರಗಳಿಗೆ ಸೂಕ್ತವಾಗಿದೆ, ಆದರೆ ಪದದ ಮಾನವ ತಿಳುವಳಿಕೆಗೆ ಹೊಂದಿಕೆಯಾಗುವುದಿಲ್ಲ. ಈ ಕಾರಣಕ್ಕಾಗಿಯೇ "ಮಾಹಿತಿ ಸಿದ್ಧಾಂತ" ವನ್ನು "ಸಂವಹನ ಸಿದ್ಧಾಂತ" ಎಂದು ಕರೆಯಬೇಕು. ಆದಾಗ್ಯೂ, ವ್ಯಾಖ್ಯಾನಗಳನ್ನು ಬದಲಾಯಿಸಲು ಇದು ತುಂಬಾ ತಡವಾಗಿದೆ (ಇದು ಸಿದ್ಧಾಂತಕ್ಕೆ ಅದರ ಆರಂಭಿಕ ಜನಪ್ರಿಯತೆಯನ್ನು ನೀಡಿತು, ಮತ್ತು ಈ ಸಿದ್ಧಾಂತವು "ಮಾಹಿತಿ" ಯೊಂದಿಗೆ ವ್ಯವಹರಿಸುತ್ತದೆ ಎಂದು ಜನರು ಇನ್ನೂ ಯೋಚಿಸುವಂತೆ ಮಾಡುತ್ತದೆ), ಆದ್ದರಿಂದ ನಾವು ಅವರೊಂದಿಗೆ ಬದುಕಬೇಕು, ಆದರೆ ಅದೇ ಸಮಯದಲ್ಲಿ ನೀವು ಮಾಡಬೇಕು ಮಾಹಿತಿಯ ಶಾನನ್ನ ವ್ಯಾಖ್ಯಾನವು ಅದರ ಸಾಮಾನ್ಯವಾಗಿ ಬಳಸುವ ಅರ್ಥದಿಂದ ಎಷ್ಟು ದೂರದಲ್ಲಿದೆ ಎಂಬುದನ್ನು ಸ್ಪಷ್ಟವಾಗಿ ಅರ್ಥಮಾಡಿಕೊಳ್ಳಿ. ಶಾನನ್ ಅವರ ಮಾಹಿತಿಯು ಸಂಪೂರ್ಣವಾಗಿ ವಿಭಿನ್ನವಾದ ಅನಿಶ್ಚಿತತೆಯೊಂದಿಗೆ ವ್ಯವಹರಿಸುತ್ತದೆ.
ನೀವು ಯಾವುದೇ ಪರಿಭಾಷೆಯನ್ನು ಪ್ರಸ್ತಾಪಿಸುವಾಗ ಯೋಚಿಸಬೇಕಾದ ಸಂಗತಿ ಇಲ್ಲಿದೆ. ಮಾಹಿತಿಯ ಶಾನನ್ನ ವ್ಯಾಖ್ಯಾನದಂತಹ ಪ್ರಸ್ತಾವಿತ ವ್ಯಾಖ್ಯಾನವು ನಿಮ್ಮ ಮೂಲ ಕಲ್ಪನೆಯನ್ನು ಹೇಗೆ ಒಪ್ಪುತ್ತದೆ ಮತ್ತು ಅದು ಹೇಗೆ ಭಿನ್ನವಾಗಿದೆ? ಪರಿಕಲ್ಪನೆಯ ನಿಮ್ಮ ಹಿಂದಿನ ದೃಷ್ಟಿಯನ್ನು ನಿಖರವಾಗಿ ಪ್ರತಿಬಿಂಬಿಸುವ ಯಾವುದೇ ಪದವಿಲ್ಲ, ಆದರೆ ಅಂತಿಮವಾಗಿ, ಇದು ಪರಿಕಲ್ಪನೆಯ ಅರ್ಥವನ್ನು ಪ್ರತಿಬಿಂಬಿಸುವ ಪರಿಭಾಷೆಯಾಗಿದೆ, ಆದ್ದರಿಂದ ಸ್ಪಷ್ಟವಾದ ವ್ಯಾಖ್ಯಾನಗಳ ಮೂಲಕ ಏನನ್ನಾದರೂ ಔಪಚಾರಿಕಗೊಳಿಸುವುದು ಯಾವಾಗಲೂ ಕೆಲವು ಶಬ್ದವನ್ನು ಪರಿಚಯಿಸುತ್ತದೆ.
pi ಸಂಭವನೀಯತೆಗಳೊಂದಿಗೆ q ಚಿಹ್ನೆಗಳನ್ನು ಒಳಗೊಂಡಿರುವ ವರ್ಣಮಾಲೆಯ ವ್ಯವಸ್ಥೆಯನ್ನು ಪರಿಗಣಿಸಿ. ಈ ವಿಷಯದಲ್ಲಿ ಮಾಹಿತಿಯ ಸರಾಸರಿ ಪ್ರಮಾಣ ವ್ಯವಸ್ಥೆಯಲ್ಲಿ (ಅದರ ನಿರೀಕ್ಷಿತ ಮೌಲ್ಯ) ಇದಕ್ಕೆ ಸಮಾನವಾಗಿರುತ್ತದೆ:
ಇದನ್ನು ಸಂಭವನೀಯತೆಯ ವಿತರಣೆಯೊಂದಿಗೆ ಸಿಸ್ಟಮ್ನ ಎಂಟ್ರೊಪಿ ಎಂದು ಕರೆಯಲಾಗುತ್ತದೆ {pi}. ನಾವು "ಎಂಟ್ರೊಪಿ" ಎಂಬ ಪದವನ್ನು ಬಳಸುತ್ತೇವೆ ಏಕೆಂದರೆ ಥರ್ಮೋಡೈನಾಮಿಕ್ಸ್ ಮತ್ತು ಸ್ಟ್ಯಾಟಿಸ್ಟಿಕಲ್ ಮೆಕ್ಯಾನಿಕ್ಸ್ನಲ್ಲಿ ಅದೇ ಗಣಿತದ ರೂಪವು ಕಂಡುಬರುತ್ತದೆ. ಅದಕ್ಕಾಗಿಯೇ "ಎಂಟ್ರೊಪಿ" ಎಂಬ ಪದವು ತನ್ನ ಸುತ್ತಲೂ ಪ್ರಾಮುಖ್ಯತೆಯ ನಿರ್ದಿಷ್ಟ ಸೆಳವು ಸೃಷ್ಟಿಸುತ್ತದೆ, ಅದು ಅಂತಿಮವಾಗಿ ಸಮರ್ಥಿಸುವುದಿಲ್ಲ. ಸಂಕೇತದ ಅದೇ ಗಣಿತದ ರೂಪವು ಚಿಹ್ನೆಗಳ ಅದೇ ವ್ಯಾಖ್ಯಾನವನ್ನು ಸೂಚಿಸುವುದಿಲ್ಲ!
ಸಂಭವನೀಯತೆಯ ವಿತರಣೆಯ ಎಂಟ್ರೊಪಿಯು ಕೋಡಿಂಗ್ ಸಿದ್ಧಾಂತದಲ್ಲಿ ಪ್ರಮುಖ ಪಾತ್ರವನ್ನು ವಹಿಸುತ್ತದೆ. ಪೈ ಮತ್ತು ಕಿ ಎಂಬ ಎರಡು ವಿಭಿನ್ನ ಸಂಭವನೀಯತೆಯ ವಿತರಣೆಗಳಿಗೆ ಗಿಬ್ಸ್ ಅಸಮಾನತೆಯು ಈ ಸಿದ್ಧಾಂತದ ಪ್ರಮುಖ ಪರಿಣಾಮಗಳಲ್ಲಿ ಒಂದಾಗಿದೆ. ಆದ್ದರಿಂದ ನಾವು ಅದನ್ನು ಸಾಬೀತುಪಡಿಸಬೇಕು
ಪುರಾವೆಯು ಸ್ಪಷ್ಟವಾದ ಗ್ರಾಫ್ ಅನ್ನು ಆಧರಿಸಿದೆ, ಚಿತ್ರ. 13.I, ಅದು ತೋರಿಸುತ್ತದೆ
ಮತ್ತು ಸಮಾನತೆಯನ್ನು x = 1 ಆಗ ಮಾತ್ರ ಸಾಧಿಸಲಾಗುತ್ತದೆ. ನಾವು ಎಡಭಾಗದಿಂದ ಮೊತ್ತದ ಪ್ರತಿಯೊಂದು ಪದಕ್ಕೂ ಅಸಮಾನತೆಯನ್ನು ಅನ್ವಯಿಸೋಣ:
ಸಂವಹನ ವ್ಯವಸ್ಥೆಯ ವರ್ಣಮಾಲೆಯು q ಚಿಹ್ನೆಗಳನ್ನು ಹೊಂದಿದ್ದರೆ, ನಂತರ ಪ್ರತಿ ಚಿಹ್ನೆಯ ಪ್ರಸರಣದ ಸಂಭವನೀಯತೆಯನ್ನು qi = 1/q ಮತ್ತು q ಅನ್ನು ಬದಲಿಸಿದರೆ, ನಾವು ಗಿಬ್ಸ್ ಅಸಮಾನತೆಯಿಂದ ಪಡೆಯುತ್ತೇವೆ
ಚಿತ್ರ 13.I
ಇದರರ್ಥ ಎಲ್ಲಾ q ಚಿಹ್ನೆಗಳನ್ನು ರವಾನಿಸುವ ಸಂಭವನೀಯತೆಯು ಒಂದೇ ಆಗಿದ್ದರೆ ಮತ್ತು - 1 / q ಗೆ ಸಮನಾಗಿದ್ದರೆ, ಗರಿಷ್ಠ ಎಂಟ್ರೊಪಿಯು ln q ಗೆ ಸಮಾನವಾಗಿರುತ್ತದೆ, ಇಲ್ಲದಿದ್ದರೆ ಅಸಮಾನತೆ ಇರುತ್ತದೆ.
ಅನನ್ಯವಾಗಿ ಡಿಕೋಡ್ ಮಾಡಬಹುದಾದ ಕೋಡ್ನ ಸಂದರ್ಭದಲ್ಲಿ, ನಾವು ಕ್ರಾಫ್ಟ್ನ ಅಸಮಾನತೆಯನ್ನು ಹೊಂದಿದ್ದೇವೆ
ಈಗ ನಾವು ಹುಸಿ ಸಂಭವನೀಯತೆಗಳನ್ನು ವ್ಯಾಖ್ಯಾನಿಸಿದರೆ
ಅಲ್ಲಿ ಸಹಜವಾಗಿ = 1, ಇದು ಗಿಬ್ಸ್ನ ಅಸಮಾನತೆಯಿಂದ ಅನುಸರಿಸುತ್ತದೆ,
ಮತ್ತು ಸ್ವಲ್ಪ ಬೀಜಗಣಿತವನ್ನು ಅನ್ವಯಿಸಿ (ಕೆ ≤ 1 ಅನ್ನು ನೆನಪಿಡಿ, ಆದ್ದರಿಂದ ನಾವು ಲಾಗರಿಥಮಿಕ್ ಪದವನ್ನು ಬಿಡಬಹುದು ಮತ್ತು ಬಹುಶಃ ನಂತರ ಅಸಮಾನತೆಯನ್ನು ಬಲಪಡಿಸಬಹುದು), ನಾವು ಪಡೆಯುತ್ತೇವೆ
ಇಲ್ಲಿ L ಸರಾಸರಿ ಕೋಡ್ ಉದ್ದವಾಗಿದೆ.
ಹೀಗಾಗಿ, ಎಂಟ್ರೊಪಿಯು ಸರಾಸರಿ ಕೋಡ್ವರ್ಡ್ ಉದ್ದ L ಜೊತೆಗೆ ಯಾವುದೇ ಅಕ್ಷರ-ಮೂಲಕ-ಚಿಹ್ನೆ ಕೋಡ್ಗೆ ಕನಿಷ್ಠ ಬೌಂಡ್ ಆಗಿದೆ. ಇದು ಹಸ್ತಕ್ಷೇಪ-ಮುಕ್ತ ಚಾನಲ್ಗಾಗಿ ಶಾನನ್ನ ಪ್ರಮೇಯವಾಗಿದೆ.
ಈಗ ಸಂವಹನ ವ್ಯವಸ್ಥೆಗಳ ಮಿತಿಗಳ ಬಗ್ಗೆ ಮುಖ್ಯ ಪ್ರಮೇಯವನ್ನು ಪರಿಗಣಿಸಿ, ಇದರಲ್ಲಿ ಮಾಹಿತಿಯನ್ನು ಸ್ವತಂತ್ರ ಬಿಟ್ಗಳ ಸ್ಟ್ರೀಮ್ ಆಗಿ ರವಾನಿಸಲಾಗುತ್ತದೆ ಮತ್ತು ಶಬ್ದ ಇರುತ್ತದೆ. ಒಂದು ಬಿಟ್ನ ಸರಿಯಾದ ಪ್ರಸರಣದ ಸಂಭವನೀಯತೆಯು P > 1/2 ಎಂದು ತಿಳಿಯಲಾಗಿದೆ, ಮತ್ತು ಪ್ರಸರಣದ ಸಮಯದಲ್ಲಿ ಬಿಟ್ ಮೌಲ್ಯವು ತಲೆಕೆಳಗಾದ ಸಂಭವನೀಯತೆ (ದೋಷ ಸಂಭವಿಸುತ್ತದೆ) Q = 1 - P ಗೆ ಸಮಾನವಾಗಿರುತ್ತದೆ. ಅನುಕೂಲಕ್ಕಾಗಿ, ನಾವು ದೋಷಗಳು ಸ್ವತಂತ್ರವಾಗಿವೆ ಮತ್ತು ಕಳುಹಿಸಲಾದ ಪ್ರತಿ ಬಿಟ್ಗೆ ದೋಷದ ಸಂಭವನೀಯತೆಯು ಒಂದೇ ಆಗಿರುತ್ತದೆ ಎಂದು ಊಹಿಸಿ - ಅಂದರೆ, ಸಂವಹನ ಚಾನಲ್ನಲ್ಲಿ "ಬಿಳಿ ಶಬ್ದ" ಇದೆ.
ಒಂದು ಸಂದೇಶಕ್ಕೆ ಎನ್ಕೋಡ್ ಮಾಡಲಾದ n ಬಿಟ್ಗಳ ದೀರ್ಘ ಸ್ಟ್ರೀಮ್ ಅನ್ನು ನಾವು ಹೊಂದಿರುವ ರೀತಿಯಲ್ಲಿ ಒಂದು-ಬಿಟ್ ಕೋಡ್ನ n - ಆಯಾಮದ ವಿಸ್ತರಣೆಯಾಗಿದೆ. ನಾವು n ನ ಮೌಲ್ಯವನ್ನು ನಂತರ ನಿರ್ಧರಿಸುತ್ತೇವೆ. n-ಬಿಟ್ಗಳನ್ನು ಒಳಗೊಂಡಿರುವ ಸಂದೇಶವನ್ನು n-ಆಯಾಮದ ಜಾಗದಲ್ಲಿ ಒಂದು ಬಿಂದುವಾಗಿ ಪರಿಗಣಿಸಿ. ನಾವು n-ಆಯಾಮದ ಸ್ಥಳವನ್ನು ಹೊಂದಿರುವುದರಿಂದ - ಮತ್ತು ಸರಳತೆಗಾಗಿ ನಾವು ಪ್ರತಿ ಸಂದೇಶವು ಸಂಭವಿಸುವ ಒಂದೇ ಸಂಭವನೀಯತೆಯನ್ನು ಹೊಂದಿದೆ ಎಂದು ನಾವು ಭಾವಿಸುತ್ತೇವೆ - M ಸಂಭವನೀಯ ಸಂದೇಶಗಳಿವೆ (M ಅನ್ನು ನಂತರ ವ್ಯಾಖ್ಯಾನಿಸಲಾಗುತ್ತದೆ), ಆದ್ದರಿಂದ ಕಳುಹಿಸಲಾದ ಯಾವುದೇ ಸಂದೇಶದ ಸಂಭವನೀಯತೆ
(ಕಳುಹಿಸುವವರು) ವೇಳಾಪಟ್ಟಿ 13.II
ಮುಂದೆ, ಚಾನಲ್ ಸಾಮರ್ಥ್ಯದ ಕಲ್ಪನೆಯನ್ನು ಪರಿಗಣಿಸಿ. ವಿವರಗಳಿಗೆ ಹೋಗದೆ, ಚಾನೆಲ್ ಸಾಮರ್ಥ್ಯವು ಸಂವಹನ ಚಾನಲ್ ಮೂಲಕ ವಿಶ್ವಾಸಾರ್ಹವಾಗಿ ರವಾನಿಸಬಹುದಾದ ಗರಿಷ್ಠ ಪ್ರಮಾಣದ ಮಾಹಿತಿ ಎಂದು ವ್ಯಾಖ್ಯಾನಿಸಲಾಗಿದೆ, ಇದು ಅತ್ಯಂತ ಪರಿಣಾಮಕಾರಿ ಕೋಡಿಂಗ್ ಬಳಕೆಯನ್ನು ಗಣನೆಗೆ ತೆಗೆದುಕೊಳ್ಳುತ್ತದೆ. ಸಂವಹನ ಚಾನೆಲ್ ಮೂಲಕ ಅದರ ಸಾಮರ್ಥ್ಯಕ್ಕಿಂತ ಹೆಚ್ಚಿನ ಮಾಹಿತಿಯನ್ನು ರವಾನಿಸಬಹುದು ಎಂಬ ವಾದವಿಲ್ಲ. ಬೈನರಿ ಸಮ್ಮಿತೀಯ ಚಾನಲ್ಗಾಗಿ ಇದನ್ನು ಸಾಬೀತುಪಡಿಸಬಹುದು (ನಮ್ಮ ಸಂದರ್ಭದಲ್ಲಿ ನಾವು ಬಳಸುತ್ತೇವೆ). ಬಿಟ್ಗಳನ್ನು ಕಳುಹಿಸುವಾಗ ಚಾನಲ್ ಸಾಮರ್ಥ್ಯವನ್ನು ಹೀಗೆ ನಿರ್ದಿಷ್ಟಪಡಿಸಲಾಗಿದೆ
ಅಲ್ಲಿ, ಮೊದಲಿನಂತೆ, P ಎಂಬುದು ಯಾವುದೇ ಕಳುಹಿಸಿದ ಬಿಟ್ನಲ್ಲಿ ಯಾವುದೇ ದೋಷದ ಸಂಭವನೀಯತೆಯಾಗಿದೆ. n ಸ್ವತಂತ್ರ ಬಿಟ್ಗಳನ್ನು ಕಳುಹಿಸುವಾಗ, ಚಾನಲ್ ಸಾಮರ್ಥ್ಯವನ್ನು ಇವರಿಂದ ನೀಡಲಾಗುತ್ತದೆ
ನಾವು ಚಾನಲ್ ಸಾಮರ್ಥ್ಯದ ಸಮೀಪದಲ್ಲಿದ್ದರೆ, ai, i = 1, ..., M. ಪ್ರತಿಯೊಂದು ಚಿಹ್ನೆಗಳಿಗೆ ನಾವು ಈ ಪ್ರಮಾಣದ ಮಾಹಿತಿಯನ್ನು ಕಳುಹಿಸಬೇಕು. ಪ್ರತಿ ಚಿಹ್ನೆ AI ಸಂಭವಿಸುವ ಸಂಭವನೀಯತೆಯು 1 / M ಆಗಿರುತ್ತದೆ, ನಾವು ಪಡೆಯುತ್ತೇವೆ
ನಾವು ಯಾವುದೇ M ಸಮಾನವಾಗಿ ಸಂಭವನೀಯ ಸಂದೇಶಗಳನ್ನು ಕಳುಹಿಸಿದಾಗ AI, ನಾವು ಹೊಂದಿದ್ದೇವೆ
n ಬಿಟ್ಗಳನ್ನು ಕಳುಹಿಸಿದಾಗ, nQ ದೋಷಗಳು ಸಂಭವಿಸುತ್ತವೆ ಎಂದು ನಾವು ನಿರೀಕ್ಷಿಸುತ್ತೇವೆ. ಪ್ರಾಯೋಗಿಕವಾಗಿ, n-ಬಿಟ್ಗಳನ್ನು ಒಳಗೊಂಡಿರುವ ಸಂದೇಶಕ್ಕಾಗಿ, ಸ್ವೀಕರಿಸಿದ ಸಂದೇಶದಲ್ಲಿ ನಾವು ಸರಿಸುಮಾರು nQ ದೋಷಗಳನ್ನು ಹೊಂದಿರುತ್ತೇವೆ. ದೊಡ್ಡ n ಗಾಗಿ, ಸಾಪೇಕ್ಷ ವ್ಯತ್ಯಾಸ (ವ್ಯತ್ಯಯ = ವಿತರಣೆ ಅಗಲ, )
n ಹೆಚ್ಚಾದಂತೆ ದೋಷಗಳ ಸಂಖ್ಯೆಯ ವಿತರಣೆಯು ಹೆಚ್ಚು ಕಿರಿದಾಗುತ್ತದೆ.
ಆದ್ದರಿಂದ, ಟ್ರಾನ್ಸ್ಮಿಟರ್ ಕಡೆಯಿಂದ, ನಾನು ಕಳುಹಿಸಲು AI ಸಂದೇಶವನ್ನು ತೆಗೆದುಕೊಳ್ಳುತ್ತೇನೆ ಮತ್ತು ಅದರ ಸುತ್ತಲೂ ತ್ರಿಜ್ಯದೊಂದಿಗೆ ಗೋಳವನ್ನು ಸೆಳೆಯುತ್ತೇನೆ
ಇದು ನಿರೀಕ್ಷಿತ ಸಂಖ್ಯೆಯ ದೋಷಗಳ Q, (ಚಿತ್ರ 2.II) ಗಿಂತ e13 ಗೆ ಸಮನಾದ ಮೊತ್ತದಿಂದ ಸ್ವಲ್ಪ ದೊಡ್ಡದಾಗಿದೆ. n ಸಾಕಷ್ಟು ದೊಡ್ಡದಾಗಿದ್ದರೆ, ಈ ಗೋಳದ ಆಚೆಗೆ ವಿಸ್ತರಿಸಿರುವ ರಿಸೀವರ್ ಬದಿಯಲ್ಲಿ ಸಂದೇಶ ಬಿಂದು ಕಾಣಿಸಿಕೊಳ್ಳುವ ನಿರಂಕುಶವಾಗಿ ಸಣ್ಣ ಸಂಭವನೀಯತೆ ಇರುತ್ತದೆ. ಟ್ರಾನ್ಸ್ಮಿಟರ್ನ ದೃಷ್ಟಿಕೋನದಿಂದ ನಾನು ನೋಡುತ್ತಿರುವಂತೆ ಪರಿಸ್ಥಿತಿಯನ್ನು ಚಿತ್ರಿಸೋಣ: ನಾವು ರವಾನೆಯಾದ ಸಂದೇಶ AI ನಿಂದ ಸ್ವೀಕರಿಸಿದ ಸಂದೇಶ bj ವರೆಗೆ ಯಾವುದೇ ತ್ರಿಜ್ಯವನ್ನು ಹೊಂದಿದ್ದೇವೆ ಮತ್ತು ಸಾಮಾನ್ಯ ವಿತರಣೆಗೆ ಸಮಾನವಾದ (ಅಥವಾ ಬಹುತೇಕ ಸಮಾನ) ದೋಷದ ಸಂಭವನೀಯತೆಯೊಂದಿಗೆ ಗರಿಷ್ಠವನ್ನು ತಲುಪುತ್ತೇವೆ. nQ ನಲ್ಲಿ ಯಾವುದೇ ನಿರ್ದಿಷ್ಟ e2 ಗೆ, n ಎಷ್ಟು ದೊಡ್ಡದಾಗಿದೆ ಎಂದರೆ ನನ್ನ ಗೋಳದ ಹೊರಗಿರುವ ಬಿಜೆಯ ಸಂಭವನೀಯತೆಯು ನೀವು ಇಷ್ಟಪಡುವಷ್ಟು ಚಿಕ್ಕದಾಗಿದೆ.
ಈಗ ನಿಮ್ಮ ಕಡೆಯಿಂದ ಅದೇ ಪರಿಸ್ಥಿತಿಯನ್ನು ನೋಡೋಣ (Fig. 13.III). ರಿಸೀವರ್ ಭಾಗದಲ್ಲಿ n-ಆಯಾಮದ ಜಾಗದಲ್ಲಿ ಸ್ವೀಕರಿಸಿದ ಬಿಜೆಯ ಸುತ್ತ ಅದೇ ತ್ರಿಜ್ಯದ S(r) ಗೋಳವಿದೆ, ಅಂದರೆ ಸ್ವೀಕರಿಸಿದ ಸಂದೇಶ bj ನನ್ನ ಗೋಳದೊಳಗೆ ಇದ್ದರೆ, ನಾನು ಕಳುಹಿಸಿದ AI ಸಂದೇಶವು ನಿಮ್ಮ ಒಳಗೆ ಇರುತ್ತದೆ. ಗೋಳ.
ದೋಷ ಹೇಗೆ ಸಂಭವಿಸಬಹುದು? ಕೆಳಗಿನ ಕೋಷ್ಟಕದಲ್ಲಿ ವಿವರಿಸಿದ ಸಂದರ್ಭಗಳಲ್ಲಿ ದೋಷ ಸಂಭವಿಸಬಹುದು:
ಚಿತ್ರ 13.III
ಸ್ವೀಕರಿಸಿದ ಬಿಂದುವಿನ ಸುತ್ತಲೂ ನಿರ್ಮಿಸಲಾದ ಗೋಳದಲ್ಲಿ ಸಂಭವನೀಯ ಕಳುಹಿಸಿದ ಎನ್ಕೋಡ್ ಮಾಡದ ಸಂದೇಶಕ್ಕೆ ಅನುಗುಣವಾದ ಕನಿಷ್ಠ ಒಂದು ಬಿಂದುವಿದ್ದರೆ, ಪ್ರಸರಣದ ಸಮಯದಲ್ಲಿ ದೋಷ ಸಂಭವಿಸಿದೆ, ಏಕೆಂದರೆ ಈ ಸಂದೇಶಗಳಲ್ಲಿ ಯಾವುದನ್ನು ರವಾನಿಸಲಾಗಿದೆ ಎಂಬುದನ್ನು ನೀವು ನಿರ್ಧರಿಸಲು ಸಾಧ್ಯವಿಲ್ಲ. ಕಳುಹಿಸಿದ ಸಂದೇಶವು ಅದಕ್ಕೆ ಸಂಬಂಧಿಸಿದ ಬಿಂದುವು ಗೋಳದಲ್ಲಿದ್ದರೆ ಮಾತ್ರ ದೋಷ-ಮುಕ್ತವಾಗಿರುತ್ತದೆ ಮತ್ತು ನೀಡಿರುವ ಕೋಡ್ನಲ್ಲಿ ಅದೇ ಗೋಳದಲ್ಲಿರುವ ಯಾವುದೇ ಇತರ ಬಿಂದುಗಳು ಸಾಧ್ಯವಿಲ್ಲ.
AI ಸಂದೇಶವನ್ನು ಕಳುಹಿಸಿದರೆ ದೋಷ Pe ಸಂಭವನೀಯತೆಗಾಗಿ ನಾವು ಗಣಿತದ ಸಮೀಕರಣವನ್ನು ಹೊಂದಿದ್ದೇವೆ
ನಾವು ಎರಡನೇ ಅವಧಿಯಲ್ಲಿ ಮೊದಲ ಅಂಶವನ್ನು ಹೊರಹಾಕಬಹುದು, ಅದನ್ನು 1 ಎಂದು ತೆಗೆದುಕೊಳ್ಳಬಹುದು. ಹೀಗೆ ನಾವು ಅಸಮಾನತೆಯನ್ನು ಪಡೆಯುತ್ತೇವೆ
ಅದು ಸ್ಪಷ್ಟವಾಗಿದೆ
ಆದ್ದರಿಂದ
ಬಲಭಾಗದಲ್ಲಿರುವ ಕೊನೆಯ ಅವಧಿಗೆ ಮತ್ತೆ ಅನ್ವಯಿಸಿ
n ಅನ್ನು ಸಾಕಷ್ಟು ದೊಡ್ಡದಾಗಿ ತೆಗೆದುಕೊಂಡರೆ, ಮೊದಲ ಪದವನ್ನು ಬಯಸಿದಷ್ಟು ಚಿಕ್ಕದಾಗಿ ತೆಗೆದುಕೊಳ್ಳಬಹುದು, ಕೆಲವು ಸಂಖ್ಯೆ d ಗಿಂತ ಕಡಿಮೆ ಎಂದು ಹೇಳಬಹುದು. ಆದ್ದರಿಂದ ನಾವು ಹೊಂದಿದ್ದೇವೆ
n ಬಿಟ್ಗಳನ್ನು ಒಳಗೊಂಡಿರುವ M ಸಂದೇಶಗಳನ್ನು ಎನ್ಕೋಡ್ ಮಾಡಲು ನಾವು ಸರಳ ಪರ್ಯಾಯ ಕೋಡ್ ಅನ್ನು ಹೇಗೆ ರಚಿಸಬಹುದು ಎಂಬುದನ್ನು ಈಗ ನೋಡೋಣ. ಕೋಡ್ ಅನ್ನು ನಿಖರವಾಗಿ ಹೇಗೆ ನಿರ್ಮಿಸುವುದು ಎಂಬುದರ ಕುರಿತು ಯಾವುದೇ ಕಲ್ಪನೆಯಿಲ್ಲದೆ (ದೋಷ-ಸರಿಪಡಿಸುವ ಕೋಡ್ಗಳನ್ನು ಇನ್ನೂ ಕಂಡುಹಿಡಿಯಲಾಗಿಲ್ಲ), ಶಾನನ್ ಯಾದೃಚ್ಛಿಕ ಕೋಡಿಂಗ್ ಅನ್ನು ಆರಿಸಿಕೊಂಡರು. ಸಂದೇಶದಲ್ಲಿರುವ ಪ್ರತಿಯೊಂದು n ಬಿಟ್ಗಳಿಗೆ ಒಂದು ನಾಣ್ಯವನ್ನು ಫ್ಲಿಪ್ ಮಾಡಿ ಮತ್ತು M ಸಂದೇಶಗಳಿಗಾಗಿ ಪ್ರಕ್ರಿಯೆಯನ್ನು ಪುನರಾವರ್ತಿಸಿ. ಒಟ್ಟಾರೆಯಾಗಿ, nM ನಾಣ್ಯ ಫ್ಲಿಪ್ಗಳನ್ನು ಮಾಡಬೇಕಾಗಿದೆ, ಆದ್ದರಿಂದ ಇದು ಸಾಧ್ಯ
ಅದೇ ಸಂಭವನೀಯತೆಯನ್ನು ಹೊಂದಿರುವ ಕೋಡ್ ನಿಘಂಟುಗಳು ½nM. ಸಹಜವಾಗಿ, ಕೋಡ್ಬುಕ್ ಅನ್ನು ರಚಿಸುವ ಯಾದೃಚ್ಛಿಕ ಪ್ರಕ್ರಿಯೆಯು ನಕಲುಗಳ ಸಾಧ್ಯತೆಯಿದೆ ಎಂದರ್ಥ, ಹಾಗೆಯೇ ಕೋಡ್ ಪಾಯಿಂಟ್ಗಳು ಪರಸ್ಪರ ಹತ್ತಿರದಲ್ಲಿವೆ ಮತ್ತು ಆದ್ದರಿಂದ ಸಂಭವನೀಯ ದೋಷಗಳ ಮೂಲವಾಗಿದೆ. ಯಾವುದೇ ಸಣ್ಣ ಆಯ್ಕೆ ಮಾಡಿದ ದೋಷ ಮಟ್ಟಕ್ಕಿಂತ ಹೆಚ್ಚಿನ ಸಂಭವನೀಯತೆಯೊಂದಿಗೆ ಇದು ಸಂಭವಿಸದಿದ್ದರೆ, ನೀಡಲಾದ n ಸಾಕಷ್ಟು ದೊಡ್ಡದಾಗಿದೆ ಎಂದು ಒಬ್ಬರು ಸಾಬೀತುಪಡಿಸಬೇಕು.
ನಿರ್ಣಾಯಕ ಅಂಶವೆಂದರೆ ಶಾನನ್ ಸರಾಸರಿ ದೋಷವನ್ನು ಕಂಡುಹಿಡಿಯಲು ಸಾಧ್ಯವಿರುವ ಎಲ್ಲಾ ಕೋಡ್ಬುಕ್ಗಳನ್ನು ಸರಾಸರಿ ಮಾಡಿದ್ದಾರೆ! ಎಲ್ಲಾ ಸಂಭವನೀಯ ಯಾದೃಚ್ಛಿಕ ಕೋಡ್ಬುಕ್ಗಳ ಸೆಟ್ನಲ್ಲಿ ಸರಾಸರಿ ಮೌಲ್ಯವನ್ನು ಸೂಚಿಸಲು ನಾವು Av[.] ಚಿಹ್ನೆಯನ್ನು ಬಳಸುತ್ತೇವೆ. ಸ್ಥಿರವಾದ d ಯ ಮೇಲೆ ಸರಾಸರಿಯು ಸ್ಥಿರತೆಯನ್ನು ನೀಡುತ್ತದೆ, ಏಕೆಂದರೆ ಪ್ರತಿ ಪದದ ಸರಾಸರಿ ಮೊತ್ತದಲ್ಲಿ ಪ್ರತಿ ಪದದಂತೆಯೇ ಇರುತ್ತದೆ,
ಇದನ್ನು ಹೆಚ್ಚಿಸಬಹುದು (M–1 M ಗೆ ಹೋಗುತ್ತದೆ)
ಯಾವುದೇ ಸಂದೇಶಕ್ಕಾಗಿ, ಎಲ್ಲಾ ಕೋಡ್ಬುಕ್ಗಳಲ್ಲಿ ಸರಾಸರಿ ಮಾಡುವಾಗ, ಎನ್ಕೋಡಿಂಗ್ ಎಲ್ಲಾ ಸಂಭಾವ್ಯ ಮೌಲ್ಯಗಳ ಮೂಲಕ ಚಲಿಸುತ್ತದೆ, ಆದ್ದರಿಂದ ಒಂದು ಬಿಂದುವು ಗೋಳದಲ್ಲಿರುವ ಸರಾಸರಿ ಸಂಭವನೀಯತೆಯು ಗೋಳದ ಪರಿಮಾಣದ ಅನುಪಾತವು ಜಾಗದ ಒಟ್ಟು ಪರಿಮಾಣದ ಅನುಪಾತವಾಗಿದೆ. ಗೋಳದ ಪರಿಮಾಣವು
ಅಲ್ಲಿ s=Q+e2 <1/2 ಮತ್ತು ns ಪೂರ್ಣಾಂಕವಾಗಿರಬೇಕು.
ಬಲಭಾಗದಲ್ಲಿರುವ ಕೊನೆಯ ಪದವು ಈ ಮೊತ್ತದಲ್ಲಿ ದೊಡ್ಡದಾಗಿದೆ. ಮೊದಲಿಗೆ, ಫ್ಯಾಕ್ಟೋರಿಯಲ್ಗಳಿಗಾಗಿ ಸ್ಟಿರ್ಲಿಂಗ್ ಸೂತ್ರವನ್ನು ಬಳಸಿಕೊಂಡು ಅದರ ಮೌಲ್ಯವನ್ನು ಅಂದಾಜು ಮಾಡೋಣ. ನಂತರ ನಾವು ಅದರ ಮುಂದೆ ಇರುವ ಪದದ ಕಡಿಮೆಯಾಗುವ ಗುಣಾಂಕವನ್ನು ನೋಡುತ್ತೇವೆ, ನಾವು ಎಡಕ್ಕೆ ಚಲಿಸುವಾಗ ಈ ಗುಣಾಂಕವು ಹೆಚ್ಚಾಗುತ್ತದೆ ಎಂಬುದನ್ನು ಗಮನಿಸಿ, ಮತ್ತು ಆದ್ದರಿಂದ ನಾವು ಹೀಗೆ ಮಾಡಬಹುದು: (1) ಮೊತ್ತದ ಮೌಲ್ಯವನ್ನು ಜ್ಯಾಮಿತೀಯ ಪ್ರಗತಿಯ ಮೊತ್ತಕ್ಕೆ ನಿರ್ಬಂಧಿಸಿ ಈ ಆರಂಭಿಕ ಗುಣಾಂಕ, (2) ಜ್ಯಾಮಿತೀಯ ಪ್ರಗತಿಯನ್ನು ns ಪದಗಳಿಂದ ಅನಂತ ಸಂಖ್ಯೆಯ ಪದಗಳಿಗೆ ವಿಸ್ತರಿಸಿ, (3) ಅನಂತ ಜ್ಯಾಮಿತೀಯ ಪ್ರಗತಿಯ ಮೊತ್ತವನ್ನು ಲೆಕ್ಕಾಚಾರ ಮಾಡಿ (ಸ್ಟ್ಯಾಂಡರ್ಡ್ ಬೀಜಗಣಿತ, ಗಮನಾರ್ಹವಾದುದೇನೂ ಇಲ್ಲ) ಮತ್ತು ಅಂತಿಮವಾಗಿ ಸೀಮಿತಗೊಳಿಸುವ ಮೌಲ್ಯವನ್ನು (ಸಾಕಷ್ಟು ದೊಡ್ಡದಕ್ಕಾಗಿ) ಪಡೆದುಕೊಳ್ಳಿ n):
ದ್ವಿಪದ ಗುರುತಿನಲ್ಲಿ ಎಂಟ್ರೊಪಿ H(ಗಳು) ಹೇಗೆ ಕಾಣಿಸಿಕೊಂಡಿತು ಎಂಬುದನ್ನು ಗಮನಿಸಿ. ಟೇಲರ್ ಸರಣಿಯ ವಿಸ್ತರಣೆ H(s)=H(Q+e2) ಕೇವಲ ಮೊದಲ ವ್ಯುತ್ಪನ್ನವನ್ನು ಗಣನೆಗೆ ತೆಗೆದುಕೊಂಡು ಉಳಿದೆಲ್ಲವನ್ನೂ ನಿರ್ಲಕ್ಷಿಸಿ ಪಡೆದ ಅಂದಾಜು ನೀಡುತ್ತದೆ ಎಂಬುದನ್ನು ಗಮನಿಸಿ. ಈಗ ಅಂತಿಮ ಅಭಿವ್ಯಕ್ತಿಯನ್ನು ಒಟ್ಟುಗೂಡಿಸೋಣ:
ಅಲ್ಲಿ
ನಾವು ಮಾಡಬೇಕಾಗಿರುವುದು e2 ಅನ್ನು ಆಯ್ಕೆ ಮಾಡುವುದು e3 < e1, ಮತ್ತು ನಂತರ n ಸಾಕಷ್ಟು ದೊಡ್ಡದಾಗಿರುವವರೆಗೆ ಕೊನೆಯ ಪದವು ನಿರಂಕುಶವಾಗಿ ಚಿಕ್ಕದಾಗಿರುತ್ತದೆ. ಪರಿಣಾಮವಾಗಿ, ಸರಾಸರಿ PE ದೋಷವು C ಗೆ ನಿರಂಕುಶವಾಗಿ ಹತ್ತಿರವಿರುವ ಚಾನಲ್ ಸಾಮರ್ಥ್ಯದೊಂದಿಗೆ ಬಯಸಿದಷ್ಟು ಚಿಕ್ಕದಾಗಿದೆ.
ಎಲ್ಲಾ ಕೋಡ್ಗಳ ಸರಾಸರಿಯು ಸಾಕಷ್ಟು ಸಣ್ಣ ದೋಷವನ್ನು ಹೊಂದಿದ್ದರೆ, ಕನಿಷ್ಠ ಒಂದು ಕೋಡ್ ಸೂಕ್ತವಾಗಿರಬೇಕು, ಆದ್ದರಿಂದ ಕನಿಷ್ಠ ಒಂದು ಸೂಕ್ತವಾದ ಕೋಡಿಂಗ್ ಸಿಸ್ಟಮ್ ಇದೆ. ಇದು ಶಾನನ್ ಪಡೆದ ಪ್ರಮುಖ ಫಲಿತಾಂಶವಾಗಿದೆ - "ಗದ್ದಲದ ಚಾನಲ್ಗಾಗಿ ಶಾನನ್ನ ಪ್ರಮೇಯ", ಆದರೂ ನಾನು ಬಳಸಿದ ಸರಳ ಬೈನರಿ ಸಮ್ಮಿತೀಯ ಚಾನಲ್ಗಿಂತ ಹೆಚ್ಚು ಸಾಮಾನ್ಯ ಪ್ರಕರಣಕ್ಕೆ ಅವನು ಇದನ್ನು ಸಾಬೀತುಪಡಿಸಿದ್ದಾನೆ ಎಂದು ಗಮನಿಸಬೇಕು. ಸಾಮಾನ್ಯ ಪ್ರಕರಣಕ್ಕೆ ಸಂಬಂಧಿಸಿದಂತೆ, ಗಣಿತದ ಲೆಕ್ಕಾಚಾರಗಳು ಹೆಚ್ಚು ಜಟಿಲವಾಗಿವೆ, ಆದರೆ ಆಲೋಚನೆಗಳು ತುಂಬಾ ಭಿನ್ನವಾಗಿರುವುದಿಲ್ಲ, ಆದ್ದರಿಂದ ಆಗಾಗ್ಗೆ, ನಿರ್ದಿಷ್ಟ ಪ್ರಕರಣದ ಉದಾಹರಣೆಯನ್ನು ಬಳಸಿಕೊಂಡು, ನೀವು ಪ್ರಮೇಯದ ನಿಜವಾದ ಅರ್ಥವನ್ನು ಬಹಿರಂಗಪಡಿಸಬಹುದು.
ಫಲಿತಾಂಶವನ್ನು ಟೀಕಿಸೋಣ. ನಾವು ಪದೇ ಪದೇ ಪುನರಾವರ್ತಿಸಿದ್ದೇವೆ: "ಸಾಕಷ್ಟು ದೊಡ್ಡದಕ್ಕಾಗಿ." ಆದರೆ n ಎಷ್ಟು ದೊಡ್ಡದಾಗಿದೆ? ನೀವು ನಿಜವಾಗಿಯೂ ಚಾನಲ್ ಸಾಮರ್ಥ್ಯಕ್ಕೆ ಹತ್ತಿರವಾಗಲು ಬಯಸಿದರೆ ಮತ್ತು ಸರಿಯಾದ ಡೇಟಾ ವರ್ಗಾವಣೆಯ ಬಗ್ಗೆ ಖಚಿತವಾಗಿ ಬಯಸಿದರೆ ತುಂಬಾ, ತುಂಬಾ ದೊಡ್ಡದು! ಎಷ್ಟು ದೊಡ್ಡದಾಗಿದೆ, ವಾಸ್ತವವಾಗಿ, ನಂತರ ಎನ್ಕೋಡ್ ಮಾಡಲು ಸಾಕಷ್ಟು ಬಿಟ್ಗಳ ಸಂದೇಶವನ್ನು ಸಂಗ್ರಹಿಸಲು ನೀವು ಬಹಳ ಸಮಯ ಕಾಯಬೇಕಾಗುತ್ತದೆ. ಈ ಸಂದರ್ಭದಲ್ಲಿ, ಯಾದೃಚ್ಛಿಕ ಕೋಡ್ ನಿಘಂಟಿನ ಗಾತ್ರವು ಸರಳವಾಗಿ ದೊಡ್ಡದಾಗಿರುತ್ತದೆ (ಎಲ್ಲಾ ನಂತರ, ಅಂತಹ ನಿಘಂಟನ್ನು ಎಲ್ಲಾ Mn ಬಿಟ್ಗಳ ಸಂಪೂರ್ಣ ಪಟ್ಟಿಗಿಂತ ಕಡಿಮೆ ರೂಪದಲ್ಲಿ ಪ್ರತಿನಿಧಿಸಲಾಗುವುದಿಲ್ಲ, n ಮತ್ತು M ತುಂಬಾ ದೊಡ್ಡದಾಗಿದ್ದರೂ ಸಹ)!
ದೋಷ-ಸರಿಪಡಿಸುವ ಕೋಡ್ಗಳು ದೀರ್ಘವಾದ ಸಂದೇಶಕ್ಕಾಗಿ ಕಾಯುವುದನ್ನು ತಪ್ಪಿಸುತ್ತವೆ ಮತ್ತು ನಂತರ ಅದನ್ನು ದೊಡ್ಡ ಕೋಡ್ಬುಕ್ಗಳ ಮೂಲಕ ಎನ್ಕೋಡಿಂಗ್ ಮತ್ತು ಡಿಕೋಡ್ ಮಾಡುತ್ತವೆ ಏಕೆಂದರೆ ಅವುಗಳು ಕೋಡ್ಬುಕ್ಗಳನ್ನು ತಪ್ಪಿಸುತ್ತವೆ ಮತ್ತು ಬದಲಿಗೆ ಸಾಮಾನ್ಯ ಗಣನೆಯನ್ನು ಬಳಸುತ್ತವೆ. ಸರಳ ಸಿದ್ಧಾಂತದಲ್ಲಿ, ಅಂತಹ ಸಂಕೇತಗಳು ಚಾನಲ್ ಸಾಮರ್ಥ್ಯವನ್ನು ಸಮೀಪಿಸುವ ಸಾಮರ್ಥ್ಯವನ್ನು ಕಳೆದುಕೊಳ್ಳುತ್ತವೆ ಮತ್ತು ಇನ್ನೂ ಕಡಿಮೆ ದೋಷ ದರವನ್ನು ನಿರ್ವಹಿಸುತ್ತವೆ, ಆದರೆ ಕೋಡ್ ಹೆಚ್ಚಿನ ಸಂಖ್ಯೆಯ ದೋಷಗಳನ್ನು ಸರಿಪಡಿಸಿದಾಗ, ಅವು ಉತ್ತಮವಾಗಿ ಕಾರ್ಯನಿರ್ವಹಿಸುತ್ತವೆ. ಬೇರೆ ರೀತಿಯಲ್ಲಿ ಹೇಳುವುದಾದರೆ, ದೋಷ ತಿದ್ದುಪಡಿಗೆ ನೀವು ಕೆಲವು ಚಾನಲ್ ಸಾಮರ್ಥ್ಯವನ್ನು ನಿಯೋಜಿಸಿದರೆ, ನೀವು ಹೆಚ್ಚಿನ ಸಮಯ ದೋಷ ತಿದ್ದುಪಡಿ ಸಾಮರ್ಥ್ಯವನ್ನು ಬಳಸಬೇಕು, ಅಂದರೆ, ಕಳುಹಿಸಲಾದ ಪ್ರತಿ ಸಂದೇಶದಲ್ಲಿ ಹೆಚ್ಚಿನ ಸಂಖ್ಯೆಯ ದೋಷಗಳನ್ನು ಸರಿಪಡಿಸಬೇಕು, ಇಲ್ಲದಿದ್ದರೆ ನೀವು ಈ ಸಾಮರ್ಥ್ಯವನ್ನು ವ್ಯರ್ಥ ಮಾಡುತ್ತೀರಿ.
ಅದೇ ಸಮಯದಲ್ಲಿ, ಮೇಲೆ ಸಾಬೀತುಪಡಿಸಿದ ಪ್ರಮೇಯವು ಇನ್ನೂ ಅರ್ಥಹೀನವಾಗಿಲ್ಲ! ಸಮರ್ಥ ಪ್ರಸರಣ ವ್ಯವಸ್ಥೆಗಳು ಬಹಳ ಉದ್ದವಾದ ಬಿಟ್ ಸ್ಟ್ರಿಂಗ್ಗಳಿಗೆ ಬುದ್ಧಿವಂತ ಎನ್ಕೋಡಿಂಗ್ ಸ್ಕೀಮ್ಗಳನ್ನು ಬಳಸಬೇಕು ಎಂದು ಇದು ತೋರಿಸುತ್ತದೆ. ಒಂದು ಉದಾಹರಣೆಯೆಂದರೆ ಬಾಹ್ಯ ಗ್ರಹಗಳ ಆಚೆಗೆ ಹಾರಿದ ಉಪಗ್ರಹಗಳು; ಅವರು ಭೂಮಿ ಮತ್ತು ಸೂರ್ಯನಿಂದ ದೂರ ಹೋದಂತೆ, ಡೇಟಾ ಬ್ಲಾಕ್ನಲ್ಲಿ ಹೆಚ್ಚು ಹೆಚ್ಚು ದೋಷಗಳನ್ನು ಸರಿಪಡಿಸಲು ಒತ್ತಾಯಿಸಲಾಗುತ್ತದೆ: ಕೆಲವು ಉಪಗ್ರಹಗಳು ಸೌರ ಫಲಕಗಳನ್ನು ಬಳಸುತ್ತವೆ, ಇದು ಸುಮಾರು 5 W ಅನ್ನು ಒದಗಿಸುತ್ತದೆ, ಇತರರು ಪರಮಾಣು ಶಕ್ತಿಯ ಮೂಲಗಳನ್ನು ಬಳಸುತ್ತಾರೆ, ಅದು ಅದೇ ಶಕ್ತಿಯನ್ನು ನೀಡುತ್ತದೆ. ವಿದ್ಯುತ್ ಸರಬರಾಜಿನ ಕಡಿಮೆ ಶಕ್ತಿ, ಟ್ರಾನ್ಸ್ಮಿಟರ್ ಭಕ್ಷ್ಯಗಳ ಸಣ್ಣ ಗಾತ್ರ ಮತ್ತು ಭೂಮಿಯ ಮೇಲಿನ ರಿಸೀವರ್ ಭಕ್ಷ್ಯಗಳ ಸೀಮಿತ ಗಾತ್ರ, ಸಿಗ್ನಲ್ ಪ್ರಯಾಣಿಸಬೇಕಾದ ಅಗಾಧ ದೂರ - ಇವೆಲ್ಲವನ್ನೂ ನಿರ್ಮಿಸಲು ಹೆಚ್ಚಿನ ಮಟ್ಟದ ದೋಷ ತಿದ್ದುಪಡಿಯೊಂದಿಗೆ ಕೋಡ್ಗಳ ಬಳಕೆಯ ಅಗತ್ಯವಿದೆ. ಪರಿಣಾಮಕಾರಿ ಸಂವಹನ ವ್ಯವಸ್ಥೆ.
ಮೇಲಿನ ಪುರಾವೆಯಲ್ಲಿ ನಾವು ಬಳಸಿದ n-ಆಯಾಮದ ಜಾಗಕ್ಕೆ ಹಿಂತಿರುಗೋಣ. ಇದನ್ನು ಚರ್ಚಿಸುವಾಗ, ಗೋಳದ ಸಂಪೂರ್ಣ ಪರಿಮಾಣವು ಹೊರಗಿನ ಮೇಲ್ಮೈ ಬಳಿ ಕೇಂದ್ರೀಕೃತವಾಗಿದೆ ಎಂದು ನಾವು ತೋರಿಸಿದ್ದೇವೆ - ಹೀಗಾಗಿ, ಕಳುಹಿಸಿದ ಸಿಗ್ನಲ್ ಸ್ವೀಕರಿಸಿದ ಸಿಗ್ನಲ್ ಸುತ್ತಲೂ ನಿರ್ಮಿಸಲಾದ ಗೋಳದ ಮೇಲ್ಮೈ ಬಳಿ ಇರುತ್ತದೆ ಎಂಬುದು ಬಹುತೇಕ ಖಚಿತವಾಗಿದೆ. ಅಂತಹ ಗೋಳದ ಸಣ್ಣ ತ್ರಿಜ್ಯ. ಆದ್ದರಿಂದ, ಸ್ವೀಕರಿಸಿದ ಸಿಗ್ನಲ್, ನಿರಂಕುಶವಾಗಿ ದೊಡ್ಡ ಸಂಖ್ಯೆಯ ದೋಷಗಳನ್ನು ಸರಿಪಡಿಸಿದ ನಂತರ, nQ, ದೋಷಗಳಿಲ್ಲದೆ ಸಿಗ್ನಲ್ಗೆ ನಿರಂಕುಶವಾಗಿ ಹತ್ತಿರದಲ್ಲಿದೆ ಎಂದು ಆಶ್ಚರ್ಯವೇನಿಲ್ಲ. ನಾವು ಮೊದಲು ಚರ್ಚಿಸಿದ ಲಿಂಕ್ ಸಾಮರ್ಥ್ಯವು ಈ ವಿದ್ಯಮಾನವನ್ನು ಅರ್ಥಮಾಡಿಕೊಳ್ಳಲು ಪ್ರಮುಖವಾಗಿದೆ. ದೋಷ-ಸರಿಪಡಿಸುವ ಹ್ಯಾಮಿಂಗ್ ಕೋಡ್ಗಳಿಗಾಗಿ ನಿರ್ಮಿಸಲಾದ ಒಂದೇ ರೀತಿಯ ಗೋಳಗಳು ಒಂದಕ್ಕೊಂದು ಅತಿಕ್ರಮಿಸುವುದಿಲ್ಲ ಎಂಬುದನ್ನು ಗಮನಿಸಿ. n-ಆಯಾಮದ ಜಾಗದಲ್ಲಿ ಹೆಚ್ಚಿನ ಸಂಖ್ಯೆಯ ಆರ್ಥೋಗೋನಲ್ ಆಯಾಮಗಳು ನಾವು ಕಡಿಮೆ ಅತಿಕ್ರಮಣದೊಂದಿಗೆ ಬಾಹ್ಯಾಕಾಶದಲ್ಲಿ M ಗೋಳಗಳನ್ನು ಏಕೆ ಹೊಂದಿಸಬಹುದು ಎಂಬುದನ್ನು ತೋರಿಸುತ್ತದೆ. ನಾವು ಸಣ್ಣ, ನಿರಂಕುಶವಾಗಿ ಸಣ್ಣ ಅತಿಕ್ರಮಣವನ್ನು ಅನುಮತಿಸಿದರೆ, ಇದು ಡಿಕೋಡಿಂಗ್ ಸಮಯದಲ್ಲಿ ಕೇವಲ ಕಡಿಮೆ ಸಂಖ್ಯೆಯ ದೋಷಗಳಿಗೆ ಕಾರಣವಾಗಬಹುದು, ನಾವು ಬಾಹ್ಯಾಕಾಶದಲ್ಲಿ ಗೋಳಗಳ ದಟ್ಟವಾದ ನಿಯೋಜನೆಯನ್ನು ಪಡೆಯಬಹುದು. ಹ್ಯಾಮಿಂಗ್ ಒಂದು ನಿರ್ದಿಷ್ಟ ಮಟ್ಟದ ದೋಷ ತಿದ್ದುಪಡಿಯನ್ನು ಖಾತರಿಪಡಿಸುತ್ತದೆ, ಶಾನನ್ - ದೋಷದ ಕಡಿಮೆ ಸಂಭವನೀಯತೆ, ಆದರೆ ಅದೇ ಸಮಯದಲ್ಲಿ ಹ್ಯಾಮಿಂಗ್ ಕೋಡ್ಗಳು ಮಾಡಲಾಗದ ಸಂವಹನ ಚಾನಲ್ನ ಸಾಮರ್ಥ್ಯಕ್ಕೆ ನಿರಂಕುಶವಾಗಿ ನಿಜವಾದ ಥ್ರೋಪುಟ್ ಅನ್ನು ನಿರ್ವಹಿಸುವುದು.
ಮಾಹಿತಿ ಸಿದ್ಧಾಂತವು ದಕ್ಷ ವ್ಯವಸ್ಥೆಯನ್ನು ಹೇಗೆ ವಿನ್ಯಾಸಗೊಳಿಸುವುದು ಎಂದು ನಮಗೆ ಹೇಳುವುದಿಲ್ಲ, ಆದರೆ ಇದು ಸಮರ್ಥ ಸಂವಹನ ವ್ಯವಸ್ಥೆಗಳ ಕಡೆಗೆ ದಾರಿ ತೋರಿಸುತ್ತದೆ. ಇದು ಯಂತ್ರದಿಂದ ಯಂತ್ರದ ಸಂವಹನ ವ್ಯವಸ್ಥೆಗಳನ್ನು ನಿರ್ಮಿಸಲು ಅಮೂಲ್ಯವಾದ ಸಾಧನವಾಗಿದೆ, ಆದರೆ, ಮೊದಲೇ ಗಮನಿಸಿದಂತೆ, ಮಾನವರು ಪರಸ್ಪರ ಹೇಗೆ ಸಂವಹನ ನಡೆಸುತ್ತಾರೆ ಎಂಬುದಕ್ಕೆ ಇದು ಕಡಿಮೆ ಪ್ರಸ್ತುತತೆಯನ್ನು ಹೊಂದಿದೆ. ಜೈವಿಕ ಆನುವಂಶಿಕತೆಯು ತಾಂತ್ರಿಕ ಸಂವಹನ ವ್ಯವಸ್ಥೆಗಳಂತೆ ಸರಳವಾಗಿ ತಿಳಿದಿಲ್ಲ, ಆದ್ದರಿಂದ ಮಾಹಿತಿ ಸಿದ್ಧಾಂತವು ಜೀನ್ಗಳಿಗೆ ಹೇಗೆ ಅನ್ವಯಿಸುತ್ತದೆ ಎಂಬುದು ಪ್ರಸ್ತುತ ಸ್ಪಷ್ಟವಾಗಿಲ್ಲ. ಪ್ರಯತ್ನಿಸುವುದನ್ನು ಬಿಟ್ಟು ನಮಗೆ ಯಾವುದೇ ಆಯ್ಕೆಯಿಲ್ಲ, ಮತ್ತು ಯಶಸ್ಸು ಈ ವಿದ್ಯಮಾನದ ಯಂತ್ರದಂತಹ ಸ್ವಭಾವವನ್ನು ನಮಗೆ ತೋರಿಸಿದರೆ, ವೈಫಲ್ಯವು ಮಾಹಿತಿಯ ಸ್ವರೂಪದ ಇತರ ಮಹತ್ವದ ಅಂಶಗಳನ್ನು ಸೂಚಿಸುತ್ತದೆ.
ನಾವು ಹೆಚ್ಚು ವಿಷಯಾಂತರ ಮಾಡಬೇಡಿ. ಎಲ್ಲಾ ಮೂಲ ವ್ಯಾಖ್ಯಾನಗಳು, ಹೆಚ್ಚಿನ ಅಥವಾ ಕಡಿಮೆ ಪ್ರಮಾಣದಲ್ಲಿ, ನಮ್ಮ ಮೂಲ ನಂಬಿಕೆಗಳ ಸಾರವನ್ನು ವ್ಯಕ್ತಪಡಿಸಬೇಕು ಎಂದು ನಾವು ನೋಡಿದ್ದೇವೆ, ಆದರೆ ಅವು ಸ್ವಲ್ಪಮಟ್ಟಿಗೆ ಅಸ್ಪಷ್ಟತೆಯಿಂದ ಗುಣಲಕ್ಷಣಗಳನ್ನು ಹೊಂದಿವೆ ಮತ್ತು ಆದ್ದರಿಂದ ಅವು ಅನ್ವಯಿಸುವುದಿಲ್ಲ. ಇದು ಸಾಂಪ್ರದಾಯಿಕವಾಗಿ ಅಂಗೀಕರಿಸಲ್ಪಟ್ಟಿದೆ, ಅಂತಿಮವಾಗಿ, ನಾವು ಬಳಸುವ ವ್ಯಾಖ್ಯಾನವು ವಾಸ್ತವವಾಗಿ ಸಾರವನ್ನು ವ್ಯಾಖ್ಯಾನಿಸುತ್ತದೆ; ಆದರೆ, ಇದು ವಿಷಯಗಳನ್ನು ಹೇಗೆ ಪ್ರಕ್ರಿಯೆಗೊಳಿಸಬೇಕು ಎಂಬುದನ್ನು ಮಾತ್ರ ಹೇಳುತ್ತದೆ ಮತ್ತು ಯಾವುದೇ ರೀತಿಯಲ್ಲಿ ನಮಗೆ ಯಾವುದೇ ಅರ್ಥವನ್ನು ತಿಳಿಸುವುದಿಲ್ಲ. ಗಣಿತದ ವಲಯಗಳಲ್ಲಿ ಬಲವಾಗಿ ಒಲವು ತೋರಿದ ಪೋಸ್ಟ್ಯುಲೇಷನಲ್ ವಿಧಾನವು ಆಚರಣೆಯಲ್ಲಿ ಅಪೇಕ್ಷಿತವಾಗಿರುವುದನ್ನು ಬಿಟ್ಟುಬಿಡುತ್ತದೆ.
ಈಗ ನಾವು IQ ಪರೀಕ್ಷೆಗಳ ಉದಾಹರಣೆಯನ್ನು ನೋಡುತ್ತೇವೆ, ಅಲ್ಲಿ ವ್ಯಾಖ್ಯಾನವು ನೀವು ಬಯಸಿದಷ್ಟು ವೃತ್ತಾಕಾರವಾಗಿದೆ ಮತ್ತು ಪರಿಣಾಮವಾಗಿ, ದಾರಿತಪ್ಪಿಸುತ್ತದೆ. ಬುದ್ಧಿವಂತಿಕೆಯನ್ನು ಅಳೆಯುವ ಪರೀಕ್ಷೆಯನ್ನು ರಚಿಸಲಾಗಿದೆ. ನಂತರ ಅದನ್ನು ಸಾಧ್ಯವಾದಷ್ಟು ಸ್ಥಿರವಾಗಿಸಲು ಪರಿಷ್ಕರಿಸಲಾಗುತ್ತದೆ, ಮತ್ತು ನಂತರ ಅದನ್ನು ಪ್ರಕಟಿಸಲಾಗುತ್ತದೆ ಮತ್ತು ಸರಳ ವಿಧಾನದಲ್ಲಿ ಮಾಪನಾಂಕ ನಿರ್ಣಯಿಸಲಾಗುತ್ತದೆ ಆದ್ದರಿಂದ "ಬುದ್ಧಿವಂತಿಕೆ" ಮಾಪನವನ್ನು ಸಾಮಾನ್ಯವಾಗಿ ವಿತರಿಸಲಾಗುತ್ತದೆ (ಸಹಜವಾಗಿ ಮಾಪನಾಂಕ ನಿರ್ಣಯದ ರೇಖೆಯಲ್ಲಿ). ಎಲ್ಲಾ ವ್ಯಾಖ್ಯಾನಗಳನ್ನು ಮೊದಲು ಪ್ರಸ್ತಾಪಿಸಿದಾಗ ಮಾತ್ರವಲ್ಲ, ನಂತರದ ತೀರ್ಮಾನಗಳಲ್ಲಿ ಬಳಸಿದಾಗಲೂ ಮರುಪರಿಶೀಲಿಸಬೇಕು. ಸಮಸ್ಯೆಯ ಪರಿಹಾರಕ್ಕೆ ವ್ಯಾಖ್ಯಾನದ ಗಡಿಗಳು ಎಷ್ಟರ ಮಟ್ಟಿಗೆ ಸೂಕ್ತವಾಗಿವೆ? ಒಂದು ಸೆಟ್ಟಿಂಗ್ನಲ್ಲಿ ನೀಡಲಾದ ವ್ಯಾಖ್ಯಾನಗಳು ವಿಭಿನ್ನ ಸೆಟ್ಟಿಂಗ್ಗಳಲ್ಲಿ ಎಷ್ಟು ಬಾರಿ ಅನ್ವಯಿಸಲ್ಪಡುತ್ತವೆ? ಇದು ಆಗಾಗ್ಗೆ ಸಂಭವಿಸುತ್ತದೆ! ಮಾನವಿಕತೆಗಳಲ್ಲಿ, ನಿಮ್ಮ ಜೀವನದಲ್ಲಿ ನೀವು ಅನಿವಾರ್ಯವಾಗಿ ಎದುರಿಸುತ್ತೀರಿ, ಇದು ಹೆಚ್ಚಾಗಿ ಸಂಭವಿಸುತ್ತದೆ.
ಹೀಗಾಗಿ, ಮಾಹಿತಿ ಸಿದ್ಧಾಂತದ ಈ ಪ್ರಸ್ತುತಿಯ ಉದ್ದೇಶಗಳಲ್ಲಿ ಒಂದಾಗಿದೆ, ಅದರ ಉಪಯುಕ್ತತೆಯನ್ನು ಪ್ರದರ್ಶಿಸುವುದರ ಜೊತೆಗೆ, ಈ ಅಪಾಯದ ಬಗ್ಗೆ ನಿಮಗೆ ಎಚ್ಚರಿಕೆ ನೀಡುವುದು ಅಥವಾ ಅಪೇಕ್ಷಿತ ಫಲಿತಾಂಶವನ್ನು ಪಡೆಯಲು ಅದನ್ನು ಹೇಗೆ ಬಳಸುವುದು ಎಂದು ನಿಮಗೆ ತೋರಿಸುವುದು. ಆರಂಭಿಕ ವ್ಯಾಖ್ಯಾನಗಳು ನೀವು ಕೊನೆಯಲ್ಲಿ ಏನನ್ನು ಕಂಡುಕೊಳ್ಳುತ್ತೀರಿ ಎಂಬುದನ್ನು ನಿರ್ಧರಿಸುತ್ತದೆ ಎಂದು ಬಹಳ ಹಿಂದೆಯೇ ಗಮನಿಸಲಾಗಿದೆ, ಅದು ತೋರುತ್ತಿರುವುದಕ್ಕಿಂತ ಹೆಚ್ಚಿನ ಪ್ರಮಾಣದಲ್ಲಿ. ಆರಂಭಿಕ ವ್ಯಾಖ್ಯಾನಗಳಿಗೆ ನಿಮ್ಮಿಂದ ಹೆಚ್ಚಿನ ಗಮನ ಬೇಕಾಗುತ್ತದೆ, ಯಾವುದೇ ಹೊಸ ಪರಿಸ್ಥಿತಿಯಲ್ಲಿ ಮಾತ್ರವಲ್ಲದೆ, ನೀವು ದೀರ್ಘಕಾಲದವರೆಗೆ ಕೆಲಸ ಮಾಡುತ್ತಿರುವ ಕ್ಷೇತ್ರಗಳಲ್ಲಿಯೂ ಸಹ. ಪಡೆದ ಫಲಿತಾಂಶಗಳು ಟೌಟಾಲಜಿ ಮತ್ತು ಉಪಯುಕ್ತವಾದವುಗಳಲ್ಲ ಎಂಬುದನ್ನು ಅರ್ಥಮಾಡಿಕೊಳ್ಳಲು ಇದು ನಿಮ್ಮನ್ನು ಅನುಮತಿಸುತ್ತದೆ.
ಎಡಿಂಗ್ಟನ್ನ ಪ್ರಸಿದ್ಧ ಕಥೆಯು ಸಮುದ್ರದಲ್ಲಿ ಬಲೆಯಿಂದ ಮೀನು ಹಿಡಿಯುವ ಜನರ ಬಗ್ಗೆ ಹೇಳುತ್ತದೆ. ಅವರು ಹಿಡಿದ ಮೀನಿನ ಗಾತ್ರವನ್ನು ಅಧ್ಯಯನ ಮಾಡಿದ ನಂತರ, ಅವರು ಸಮುದ್ರದಲ್ಲಿ ಕಂಡುಬರುವ ಮೀನಿನ ಕನಿಷ್ಠ ಗಾತ್ರವನ್ನು ನಿರ್ಧರಿಸಿದರು! ಅವರ ತೀರ್ಮಾನವು ಬಳಸಿದ ಸಾಧನದಿಂದ ನಡೆಸಲ್ಪಟ್ಟಿದೆ, ವಾಸ್ತವದಿಂದಲ್ಲ.
ಮುಂದುವರೆಸಲು ...
ಪುಸ್ತಕದ ಅನುವಾದ, ವಿನ್ಯಾಸ ಮತ್ತು ಪ್ರಕಟಣೆಗೆ ಸಹಾಯ ಮಾಡಲು ಯಾರು ಬಯಸುತ್ತಾರೆ - ವೈಯಕ್ತಿಕ ಸಂದೇಶ ಅಥವಾ ಇಮೇಲ್ನಲ್ಲಿ ಬರೆಯಿರಿ [ಇಮೇಲ್ ರಕ್ಷಿಸಲಾಗಿದೆ]
ನಾವು ವಿಶೇಷವಾಗಿ ಹುಡುಕುತ್ತಿದ್ದೇವೆ ಅನುವಾದಿಸಲು ಸಹಾಯ ಮಾಡುವವರು ಬೋನಸ್ ಅಧ್ಯಾಯ, ಇದು ವೀಡಿಯೊದಲ್ಲಿ ಮಾತ್ರ. (10 ನಿಮಿಷಗಳ ಕಾಲ ವರ್ಗಾಯಿಸಿ, ಮೊದಲ 20 ಅನ್ನು ಈಗಾಗಲೇ ತೆಗೆದುಕೊಳ್ಳಲಾಗಿದೆ)