ಪೈಥಾನ್, ಅನಕೊಂಡ ಮತ್ತು ಇತರ ಸರೀಸೃಪಗಳಿಲ್ಲದೆ ಯಂತ್ರ ಕಲಿಕೆ

ಇಲ್ಲ, ಖಂಡಿತ, ನಾನು ಗಂಭೀರವಾಗಿಲ್ಲ. ಒಂದು ವಿಷಯವನ್ನು ಸರಳೀಕರಿಸಲು ಸಾಧ್ಯವಾಗುವ ಮಟ್ಟಿಗೆ ಮಿತಿ ಇರಬೇಕು. ಆದರೆ ಮೊದಲ ಹಂತಗಳಿಗೆ, ಮೂಲಭೂತ ಪರಿಕಲ್ಪನೆಗಳನ್ನು ಅರ್ಥಮಾಡಿಕೊಳ್ಳುವುದು ಮತ್ತು ವಿಷಯವನ್ನು ತ್ವರಿತವಾಗಿ "ಪ್ರವೇಶಿಸುವುದು", ಇದು ಸ್ವೀಕಾರಾರ್ಹವಾಗಬಹುದು. ಈ ವಸ್ತುವನ್ನು ಸರಿಯಾಗಿ ಹೆಸರಿಸುವುದು ಹೇಗೆ ಎಂದು ನಾವು ಚರ್ಚಿಸುತ್ತೇವೆ (ಆಯ್ಕೆಗಳು: "ಡಮ್ಮೀಸ್‌ಗಾಗಿ ಯಂತ್ರ ಕಲಿಕೆ", "ಡಯಾಪರ್‌ಗಳಿಂದ ಡೇಟಾ ವಿಶ್ಲೇಷಣೆ", "ಚಿಕ್ಕವರಿಗೆ ಅಲ್ಗಾರಿದಮ್‌ಗಳು") ಕೊನೆಯಲ್ಲಿ.

ಬಿಂದುವಿಗೆ. ಡೇಟಾವನ್ನು ವಿಶ್ಲೇಷಿಸುವಾಗ ವಿಭಿನ್ನ ಯಂತ್ರ ಕಲಿಕೆಯ ವಿಧಾನಗಳಲ್ಲಿ ಸಂಭವಿಸುವ ಪ್ರಕ್ರಿಯೆಗಳ ದೃಶ್ಯೀಕರಣ ಮತ್ತು ದೃಶ್ಯ ಪ್ರಾತಿನಿಧ್ಯಕ್ಕಾಗಿ MS ಎಕ್ಸೆಲ್‌ನಲ್ಲಿ ಹಲವಾರು ಅಪ್ಲಿಕೇಶನ್ ಪ್ರೋಗ್ರಾಂಗಳನ್ನು ಬರೆದಿದ್ದಾರೆ. ನೋಡುವುದು ನಂಬುವುದು, ಎಲ್ಲಾ ನಂತರ, ಸಂಸ್ಕೃತಿಯ ಧಾರಕರು ಹೇಳುವಂತೆ, ಇದು ಈ ಹೆಚ್ಚಿನ ವಿಧಾನಗಳನ್ನು ಅಭಿವೃದ್ಧಿಪಡಿಸಿದೆ (ಮೂಲಕ, ಇವೆಲ್ಲವೂ ಅಲ್ಲ. ಅತ್ಯಂತ ಶಕ್ತಿಯುತವಾದ "ಬೆಂಬಲ ವೆಕ್ಟರ್ ಯಂತ್ರ", ಅಥವಾ SVM, ಬೆಂಬಲ ವೆಕ್ಟರ್ ಯಂತ್ರದ ಆವಿಷ್ಕಾರವಾಗಿದೆ ನಮ್ಮ ದೇಶವಾಸಿ ವ್ಲಾಡಿಮಿರ್ ವ್ಯಾಪ್ನಿಕ್, ಮಾಸ್ಕೋ ಇನ್ಸ್ಟಿಟ್ಯೂಟ್ ಆಫ್ ಮ್ಯಾನೇಜ್ಮೆಂಟ್.

ಪರಿಶೀಲನೆಗಾಗಿ ಮೂರು ಫೈಲ್‌ಗಳು

1. ಕೆ-ಎಂದರೆ ಕ್ಲಸ್ಟರಿಂಗ್

ಈ ಪ್ರಕಾರದ ಸಮಸ್ಯೆಗಳು "ಮೇಲ್ವಿಚಾರಣೆಯಿಲ್ಲದ ಕಲಿಕೆ" ಅನ್ನು ಉಲ್ಲೇಖಿಸುತ್ತವೆ, ನಾವು ಆರಂಭಿಕ ಡೇಟಾವನ್ನು ಮುಂಚಿತವಾಗಿ ತಿಳಿದಿರುವ ನಿರ್ದಿಷ್ಟ ಸಂಖ್ಯೆಯ ವರ್ಗಗಳಾಗಿ ವಿಭಜಿಸಬೇಕಾದಾಗ, ಆದರೆ ನಮ್ಮಲ್ಲಿ ಯಾವುದೇ "ಸರಿಯಾದ ಉತ್ತರಗಳು" ಇಲ್ಲ; ನಾವು ಅವುಗಳನ್ನು ಡೇಟಾದಿಂದಲೇ ಹೊರತೆಗೆಯಬೇಕು. . ಐರಿಸ್ ಹೂವುಗಳ ಉಪಜಾತಿಗಳನ್ನು ಕಂಡುಹಿಡಿಯುವ ಮೂಲಭೂತ ಶಾಸ್ತ್ರೀಯ ಸಮಸ್ಯೆ (ರೊನಾಲ್ಡ್ ಫಿಶರ್, 1936!), ಇದನ್ನು ಜ್ಞಾನದ ಈ ಕ್ಷೇತ್ರದ ಮೊದಲ ಚಿಹ್ನೆ ಎಂದು ಪರಿಗಣಿಸಲಾಗಿದೆ, ಇದು ಕೇವಲ ಈ ಸ್ವಭಾವದ್ದಾಗಿದೆ.

ವಿಧಾನವು ಸಾಕಷ್ಟು ಸರಳವಾಗಿದೆ. ನಾವು ವೆಕ್ಟರ್‌ಗಳಾಗಿ ಪ್ರತಿನಿಧಿಸುವ ವಸ್ತುಗಳ ಗುಂಪನ್ನು ಹೊಂದಿದ್ದೇವೆ (N ಸಂಖ್ಯೆಗಳ ಸೆಟ್‌ಗಳು). ಕಣ್ಪೊರೆಗಳಲ್ಲಿ, ಇವುಗಳು ಹೂವನ್ನು ನಿರೂಪಿಸುವ 4 ಸಂಖ್ಯೆಗಳ ಸೆಟ್ಗಳಾಗಿವೆ: ಕ್ರಮವಾಗಿ ಪೆರಿಯಾಂತ್ನ ಹೊರ ಮತ್ತು ಒಳ ಹಾಲೆಗಳ ಉದ್ದ ಮತ್ತು ಅಗಲ (ಫಿಶರ್ಸ್ ಕಣ್ಪೊರೆಗಳು - ವಿಕಿಪೀಡಿಯಾ) ಸಾಮಾನ್ಯ ಕಾರ್ಟೀಸಿಯನ್ ಮೆಟ್ರಿಕ್ ಅನ್ನು ದೂರ ಅಥವಾ ವಸ್ತುಗಳ ನಡುವಿನ ಸಾಮೀಪ್ಯದ ಅಳತೆಯಾಗಿ ಆಯ್ಕೆ ಮಾಡಲಾಗುತ್ತದೆ.

ಮುಂದೆ, ಕ್ಲಸ್ಟರ್ ಕೇಂದ್ರಗಳನ್ನು ಯಾದೃಚ್ಛಿಕವಾಗಿ ಆಯ್ಕೆ ಮಾಡಲಾಗುತ್ತದೆ (ಅಥವಾ ಯಾದೃಚ್ಛಿಕವಾಗಿ ಅಲ್ಲ, ಕೆಳಗೆ ನೋಡಿ), ಮತ್ತು ಕ್ಲಸ್ಟರ್ ಕೇಂದ್ರಗಳಿಗೆ ಪ್ರತಿ ವಸ್ತುವಿನಿಂದ ದೂರವನ್ನು ಲೆಕ್ಕಹಾಕಲಾಗುತ್ತದೆ. ಕೊಟ್ಟಿರುವ ಪುನರಾವರ್ತನೆಯ ಹಂತದಲ್ಲಿರುವ ಪ್ರತಿಯೊಂದು ವಸ್ತುವನ್ನು ಹತ್ತಿರದ ಕೇಂದ್ರಕ್ಕೆ ಸೇರಿದೆ ಎಂದು ಗುರುತಿಸಲಾಗಿದೆ. ನಂತರ ಪ್ರತಿ ಕ್ಲಸ್ಟರ್‌ನ ಮಧ್ಯಭಾಗವನ್ನು ಅದರ ಸದಸ್ಯರ ನಿರ್ದೇಶಾಂಕಗಳ ಅಂಕಗಣಿತದ ಸರಾಸರಿಗೆ ವರ್ಗಾಯಿಸಲಾಗುತ್ತದೆ (ಭೌತಶಾಸ್ತ್ರದೊಂದಿಗೆ ಸಾದೃಶ್ಯದ ಮೂಲಕ, ಇದನ್ನು "ದ್ರವ್ಯರಾಶಿಯ ಕೇಂದ್ರ" ಎಂದೂ ಕರೆಯಲಾಗುತ್ತದೆ), ಮತ್ತು ಕಾರ್ಯವಿಧಾನವನ್ನು ಪುನರಾವರ್ತಿಸಲಾಗುತ್ತದೆ.

ಪ್ರಕ್ರಿಯೆಯು ಸಾಕಷ್ಟು ವೇಗವಾಗಿ ಒಮ್ಮುಖವಾಗುತ್ತದೆ. ಎರಡು ಆಯಾಮಗಳ ಚಿತ್ರಗಳಲ್ಲಿ ಇದು ಈ ರೀತಿ ಕಾಣುತ್ತದೆ:

1. ಸಮತಲದಲ್ಲಿ ಬಿಂದುಗಳ ಆರಂಭಿಕ ಯಾದೃಚ್ಛಿಕ ವಿತರಣೆ ಮತ್ತು ಸಮೂಹಗಳ ಸಂಖ್ಯೆ

ಪೈಥಾನ್, ಅನಕೊಂಡ ಮತ್ತು ಇತರ ಸರೀಸೃಪಗಳಿಲ್ಲದೆ ಯಂತ್ರ ಕಲಿಕೆ

2. ಕ್ಲಸ್ಟರ್ ಕೇಂದ್ರಗಳನ್ನು ನಿರ್ದಿಷ್ಟಪಡಿಸುವುದು ಮತ್ತು ಅವುಗಳ ಕ್ಲಸ್ಟರ್‌ಗಳಿಗೆ ಅಂಕಗಳನ್ನು ನಿಗದಿಪಡಿಸುವುದು

ಪೈಥಾನ್, ಅನಕೊಂಡ ಮತ್ತು ಇತರ ಸರೀಸೃಪಗಳಿಲ್ಲದೆ ಯಂತ್ರ ಕಲಿಕೆ

3. ಕ್ಲಸ್ಟರ್ ಕೇಂದ್ರಗಳ ನಿರ್ದೇಶಾಂಕಗಳನ್ನು ವರ್ಗಾಯಿಸುವುದು, ಕೇಂದ್ರಗಳನ್ನು ಸ್ಥಿರಗೊಳಿಸುವವರೆಗೆ ಬಿಂದುಗಳ ಸಂಬಂಧವನ್ನು ಮರು ಲೆಕ್ಕಾಚಾರ ಮಾಡುವುದು. ಕ್ಲಸ್ಟರ್ ಸೆಂಟರ್ ಅದರ ಅಂತಿಮ ಸ್ಥಾನಕ್ಕೆ ಚಲಿಸುವ ಪಥವು ಗೋಚರಿಸುತ್ತದೆ.

ಪೈಥಾನ್, ಅನಕೊಂಡ ಮತ್ತು ಇತರ ಸರೀಸೃಪಗಳಿಲ್ಲದೆ ಯಂತ್ರ ಕಲಿಕೆ

ಯಾವುದೇ ಸಮಯದಲ್ಲಿ, ನೀವು ಹೊಸ ಕ್ಲಸ್ಟರ್ ಕೇಂದ್ರಗಳನ್ನು ಹೊಂದಿಸಬಹುದು (ಬಿಂದುಗಳ ಹೊಸ ವಿತರಣೆಯನ್ನು ಉತ್ಪಾದಿಸದೆಯೇ!) ಮತ್ತು ವಿಭಜನಾ ಪ್ರಕ್ರಿಯೆಯು ಯಾವಾಗಲೂ ನಿಸ್ಸಂದಿಗ್ಧವಾಗಿರುವುದಿಲ್ಲ ಎಂದು ನೋಡಿ. ಗಣಿತೀಯವಾಗಿ, ಇದರರ್ಥ ಕಾರ್ಯವನ್ನು ಆಪ್ಟಿಮೈಸ್ ಮಾಡಲು (ಬಿಂದುಗಳಿಂದ ಅವುಗಳ ಸಮೂಹಗಳ ಕೇಂದ್ರಗಳಿಗೆ ವರ್ಗದ ಅಂತರಗಳ ಮೊತ್ತ), ನಾವು ಜಾಗತಿಕವಲ್ಲ, ಆದರೆ ಸ್ಥಳೀಯ ಕನಿಷ್ಠವನ್ನು ಕಂಡುಕೊಳ್ಳುತ್ತೇವೆ. ಆರಂಭಿಕ ಕ್ಲಸ್ಟರ್ ಕೇಂದ್ರಗಳ ಯಾದೃಚ್ಛಿಕವಲ್ಲದ ಆಯ್ಕೆಯಿಂದ ಅಥವಾ ಸಂಭವನೀಯ ಕೇಂದ್ರಗಳನ್ನು ಎಣಿಸುವ ಮೂಲಕ ಈ ಸಮಸ್ಯೆಯನ್ನು ನಿವಾರಿಸಬಹುದು (ಕೆಲವೊಮ್ಮೆ ಅವುಗಳನ್ನು ನಿಖರವಾಗಿ ಒಂದು ಹಂತದಲ್ಲಿ ಇರಿಸಲು ಅನುಕೂಲಕರವಾಗಿದೆ, ನಂತರ ಕನಿಷ್ಠ ನಾವು ಖಾಲಿಯಾಗುವುದಿಲ್ಲ ಎಂಬ ಭರವಸೆ ಇದೆ. ಸಮೂಹಗಳು). ಯಾವುದೇ ಸಂದರ್ಭದಲ್ಲಿ, ಒಂದು ಸೀಮಿತವಾದ ಸೆಟ್ ಯಾವಾಗಲೂ ಇನ್ಫಿಮಮ್ ಅನ್ನು ಹೊಂದಿರುತ್ತದೆ.

ಈ ಲಿಂಕ್‌ನಲ್ಲಿ ನೀವು ಈ ಫೈಲ್‌ನೊಂದಿಗೆ ಪ್ಲೇ ಮಾಡಬಹುದು (ಮ್ಯಾಕ್ರೋ ಬೆಂಬಲವನ್ನು ಸಕ್ರಿಯಗೊಳಿಸಲು ಮರೆಯಬೇಡಿ. ಫೈಲ್‌ಗಳನ್ನು ವೈರಸ್‌ಗಳಿಗಾಗಿ ಸ್ಕ್ಯಾನ್ ಮಾಡಲಾಗಿದೆ)

ವಿಕಿಪೀಡಿಯಾದಲ್ಲಿ ವಿಧಾನದ ವಿವರಣೆ - k- ಎಂದರೆ ವಿಧಾನ

2. ಬಹುಪದಗಳ ಮೂಲಕ ಅಂದಾಜು ಮತ್ತು ಡೇಟಾ ಸ್ಥಗಿತ. ಮರುತರಬೇತಿ

ಗಮನಾರ್ಹ ವಿಜ್ಞಾನಿ ಮತ್ತು ದತ್ತಾಂಶ ವಿಜ್ಞಾನದ ಜನಪ್ರಿಯ ಕೆ.ವಿ. ವೊರೊಂಟ್ಸೊವ್ ಯಂತ್ರ ಕಲಿಕೆಯ ವಿಧಾನಗಳನ್ನು "ಬಿಂದುಗಳ ಮೂಲಕ ವಕ್ರರೇಖೆಗಳನ್ನು ಎಳೆಯುವ ವಿಜ್ಞಾನ" ಎಂದು ಸಂಕ್ಷಿಪ್ತವಾಗಿ ವಿವರಿಸುತ್ತಾರೆ. ಈ ಉದಾಹರಣೆಯಲ್ಲಿ, ಕನಿಷ್ಠ ಚೌಕಗಳ ವಿಧಾನವನ್ನು ಬಳಸಿಕೊಂಡು ಡೇಟಾದಲ್ಲಿ ನಾವು ಮಾದರಿಯನ್ನು ಕಂಡುಕೊಳ್ಳುತ್ತೇವೆ.

ಮೂಲ ಡೇಟಾವನ್ನು "ತರಬೇತಿ" ಮತ್ತು "ನಿಯಂತ್ರಣ" ಎಂದು ವಿಭಜಿಸುವ ತಂತ್ರವನ್ನು ತೋರಿಸಲಾಗಿದೆ, ಹಾಗೆಯೇ ಡೇಟಾಕ್ಕೆ ಮರುತರಬೇತಿ ಅಥವಾ "ಮರು-ಹೊಂದಾಣಿಕೆ" ಯಂತಹ ವಿದ್ಯಮಾನವನ್ನು ತೋರಿಸಲಾಗಿದೆ. ಸರಿಯಾದ ಅಂದಾಜಿನೊಂದಿಗೆ, ನಾವು ತರಬೇತಿ ಡೇಟಾದಲ್ಲಿ ನಿರ್ದಿಷ್ಟ ದೋಷವನ್ನು ಹೊಂದಿರುತ್ತೇವೆ ಮತ್ತು ನಿಯಂತ್ರಣ ಡೇಟಾದಲ್ಲಿ ಸ್ವಲ್ಪ ದೊಡ್ಡ ದೋಷವನ್ನು ಹೊಂದಿರುತ್ತೇವೆ. ತಪ್ಪಾಗಿದ್ದರೆ, ಇದು ತರಬೇತಿ ಡೇಟಾಗೆ ನಿಖರವಾದ ಹೊಂದಾಣಿಕೆಗೆ ಕಾರಣವಾಗುತ್ತದೆ ಮತ್ತು ಪರೀಕ್ಷಾ ಡೇಟಾದಲ್ಲಿ ದೊಡ್ಡ ದೋಷವನ್ನು ಉಂಟುಮಾಡುತ್ತದೆ.

(N ಪಾಯಿಂಟ್‌ಗಳ ಮೂಲಕ ಒಬ್ಬರು N-1 ನೇ ಪದವಿಯ ಒಂದೇ ವಕ್ರರೇಖೆಯನ್ನು ಸೆಳೆಯಬಹುದು ಎಂಬುದು ಎಲ್ಲರಿಗೂ ತಿಳಿದಿರುವ ಸತ್ಯ, ಮತ್ತು ಸಾಮಾನ್ಯ ಸಂದರ್ಭದಲ್ಲಿ ಈ ವಿಧಾನವು ಅಪೇಕ್ಷಿತ ಫಲಿತಾಂಶವನ್ನು ನೀಡುವುದಿಲ್ಲ. ವಿಕಿಪೀಡಿಯಾದಲ್ಲಿ ಲ್ಯಾಗ್ರೇಂಜ್ ಇಂಟರ್ಪೋಲೇಷನ್ ಬಹುಪದೋಕ್ತಿ)

1. ಆರಂಭಿಕ ವಿತರಣೆಯನ್ನು ಹೊಂದಿಸಿ

ಪೈಥಾನ್, ಅನಕೊಂಡ ಮತ್ತು ಇತರ ಸರೀಸೃಪಗಳಿಲ್ಲದೆ ಯಂತ್ರ ಕಲಿಕೆ

2. ನಾವು ಅಂಕಗಳನ್ನು 70 ರಿಂದ 30 ರ ಅನುಪಾತದಲ್ಲಿ "ತರಬೇತಿ" ಮತ್ತು "ನಿಯಂತ್ರಣ" ಎಂದು ವಿಭಜಿಸುತ್ತೇವೆ.

ಪೈಥಾನ್, ಅನಕೊಂಡ ಮತ್ತು ಇತರ ಸರೀಸೃಪಗಳಿಲ್ಲದೆ ಯಂತ್ರ ಕಲಿಕೆ

3. ನಾವು ತರಬೇತಿ ಬಿಂದುಗಳ ಉದ್ದಕ್ಕೂ ಅಂದಾಜು ಕರ್ವ್ ಅನ್ನು ಸೆಳೆಯುತ್ತೇವೆ, ನಿಯಂತ್ರಣ ಡೇಟಾದಲ್ಲಿ ಅದು ನೀಡುವ ದೋಷವನ್ನು ನಾವು ನೋಡುತ್ತೇವೆ

ಪೈಥಾನ್, ಅನಕೊಂಡ ಮತ್ತು ಇತರ ಸರೀಸೃಪಗಳಿಲ್ಲದೆ ಯಂತ್ರ ಕಲಿಕೆ

4. ನಾವು ತರಬೇತಿ ಬಿಂದುಗಳ ಮೂಲಕ ನಿಖರವಾದ ವಕ್ರರೇಖೆಯನ್ನು ಸೆಳೆಯುತ್ತೇವೆ ಮತ್ತು ನಿಯಂತ್ರಣ ಡೇಟಾದಲ್ಲಿ ನಾವು ದೈತ್ಯಾಕಾರದ ದೋಷವನ್ನು ನೋಡುತ್ತೇವೆ (ಮತ್ತು ತರಬೇತಿ ಡೇಟಾದಲ್ಲಿ ಶೂನ್ಯ, ಆದರೆ ಪಾಯಿಂಟ್ ಏನು?).

ಪೈಥಾನ್, ಅನಕೊಂಡ ಮತ್ತು ಇತರ ಸರೀಸೃಪಗಳಿಲ್ಲದೆ ಯಂತ್ರ ಕಲಿಕೆ

"ತರಬೇತಿ" ಮತ್ತು "ನಿಯಂತ್ರಣ" ಉಪವಿಭಾಗಗಳಾಗಿ ಒಂದೇ ವಿಭಾಗದೊಂದಿಗೆ ಸರಳವಾದ ಆಯ್ಕೆಯನ್ನು ತೋರಿಸಲಾಗಿದೆ; ಸಾಮಾನ್ಯ ಸಂದರ್ಭದಲ್ಲಿ, ಗುಣಾಂಕಗಳ ಉತ್ತಮ ಹೊಂದಾಣಿಕೆಗಾಗಿ ಇದನ್ನು ಹಲವು ಬಾರಿ ಮಾಡಲಾಗುತ್ತದೆ.

ಫೈಲ್ ಇಲ್ಲಿ ಲಭ್ಯವಿದೆ, ಆಂಟಿವೈರಸ್ ಮೂಲಕ ಸ್ಕ್ಯಾನ್ ಮಾಡಲಾಗಿದೆ. ಸರಿಯಾದ ಕಾರ್ಯಾಚರಣೆಗಾಗಿ ಮ್ಯಾಕ್ರೋಗಳನ್ನು ಸಕ್ರಿಯಗೊಳಿಸಿ

3. ಗ್ರೇಡಿಯಂಟ್ ಡಿಸೆಂಟ್ ಮತ್ತು ದೋಷ ಬದಲಾವಣೆಯ ಡೈನಾಮಿಕ್ಸ್

4-ಆಯಾಮದ ಪ್ರಕರಣ ಮತ್ತು ರೇಖೀಯ ಹಿಂಜರಿತ ಇರುತ್ತದೆ. ಲೀನಿಯರ್ ರಿಗ್ರೆಷನ್ ಗುಣಾಂಕಗಳನ್ನು ಗ್ರೇಡಿಯಂಟ್ ಮೂಲದ ವಿಧಾನವನ್ನು ಬಳಸಿಕೊಂಡು ಹಂತ ಹಂತವಾಗಿ ನಿರ್ಧರಿಸಲಾಗುತ್ತದೆ, ಆರಂಭದಲ್ಲಿ ಎಲ್ಲಾ ಗುಣಾಂಕಗಳು ಶೂನ್ಯವಾಗಿರುತ್ತದೆ. ಗುಣಾಂಕಗಳನ್ನು ಹೆಚ್ಚು ಹೆಚ್ಚು ನಿಖರವಾಗಿ ಸರಿಹೊಂದಿಸುವುದರಿಂದ ದೋಷ ಕಡಿತದ ಡೈನಾಮಿಕ್ಸ್ ಅನ್ನು ಪ್ರತ್ಯೇಕ ಗ್ರಾಫ್ ತೋರಿಸುತ್ತದೆ. ಎಲ್ಲಾ ನಾಲ್ಕು 2 ಆಯಾಮದ ಪ್ರಕ್ಷೇಪಗಳನ್ನು ವೀಕ್ಷಿಸಲು ಸಾಧ್ಯವಿದೆ.

ನೀವು ಗ್ರೇಡಿಯಂಟ್ ಅವರೋಹಣ ಹಂತವನ್ನು ತುಂಬಾ ದೊಡ್ಡದಾಗಿ ಹೊಂದಿಸಿದರೆ, ಪ್ರತಿ ಬಾರಿಯೂ ನಾವು ಕನಿಷ್ಠವನ್ನು ಬಿಟ್ಟುಬಿಡುತ್ತೇವೆ ಮತ್ತು ಹೆಚ್ಚಿನ ಸಂಖ್ಯೆಯ ಹಂತಗಳಲ್ಲಿ ಫಲಿತಾಂಶವನ್ನು ತಲುಪುತ್ತೇವೆ ಎಂದು ನೀವು ನೋಡಬಹುದು, ಆದರೂ ಕೊನೆಯಲ್ಲಿ ನಾವು ಇನ್ನೂ ತಲುಪುತ್ತೇವೆ (ನಾವು ಅವರೋಹಣ ಹಂತವನ್ನು ವಿಳಂಬ ಮಾಡದ ಹೊರತು ಹೆಚ್ಚು - ನಂತರ ಅಲ್ಗಾರಿದಮ್ ಹೋಗುತ್ತದೆ " ಸ್ಪೇಡ್ಸ್"). ಮತ್ತು ಪುನರಾವರ್ತನೆಯ ಹಂತವನ್ನು ಅವಲಂಬಿಸಿ ದೋಷದ ಗ್ರಾಫ್ ಮೃದುವಾಗಿರುವುದಿಲ್ಲ, ಆದರೆ "ಜರ್ಕಿ".

1. ಡೇಟಾವನ್ನು ರಚಿಸಿ, ಗ್ರೇಡಿಯಂಟ್ ಮೂಲದ ಹಂತವನ್ನು ಹೊಂದಿಸಿ

ಪೈಥಾನ್, ಅನಕೊಂಡ ಮತ್ತು ಇತರ ಸರೀಸೃಪಗಳಿಲ್ಲದೆ ಯಂತ್ರ ಕಲಿಕೆ

2. ಗ್ರೇಡಿಯಂಟ್ ಮೂಲದ ಹಂತದ ಸರಿಯಾದ ಆಯ್ಕೆಯೊಂದಿಗೆ, ನಾವು ಸರಾಗವಾಗಿ ಮತ್ತು ತ್ವರಿತವಾಗಿ ಕನಿಷ್ಠವನ್ನು ತಲುಪುತ್ತೇವೆ

ಪೈಥಾನ್, ಅನಕೊಂಡ ಮತ್ತು ಇತರ ಸರೀಸೃಪಗಳಿಲ್ಲದೆ ಯಂತ್ರ ಕಲಿಕೆ

3. ಗ್ರೇಡಿಯಂಟ್ ಅವರೋಹಣ ಹಂತವನ್ನು ತಪ್ಪಾಗಿ ಆಯ್ಕೆಮಾಡಿದರೆ, ನಾವು ಗರಿಷ್ಠವನ್ನು ಅತಿಕ್ರಮಿಸುತ್ತೇವೆ, ದೋಷ ಗ್ರಾಫ್ "ಜರ್ಕಿ" ಆಗಿದೆ, ಒಮ್ಮುಖವು ಹೆಚ್ಚಿನ ಸಂಖ್ಯೆಯ ಹಂತಗಳನ್ನು ತೆಗೆದುಕೊಳ್ಳುತ್ತದೆ

ಪೈಥಾನ್, ಅನಕೊಂಡ ಮತ್ತು ಇತರ ಸರೀಸೃಪಗಳಿಲ್ಲದೆ ಯಂತ್ರ ಕಲಿಕೆ
и

ಪೈಥಾನ್, ಅನಕೊಂಡ ಮತ್ತು ಇತರ ಸರೀಸೃಪಗಳಿಲ್ಲದೆ ಯಂತ್ರ ಕಲಿಕೆ

4. ನಾವು ಗ್ರೇಡಿಯಂಟ್ ಮೂಲದ ಹಂತವನ್ನು ಸಂಪೂರ್ಣವಾಗಿ ತಪ್ಪಾಗಿ ಆರಿಸಿದರೆ, ನಾವು ಕನಿಷ್ಠದಿಂದ ದೂರ ಹೋಗುತ್ತೇವೆ

ಪೈಥಾನ್, ಅನಕೊಂಡ ಮತ್ತು ಇತರ ಸರೀಸೃಪಗಳಿಲ್ಲದೆ ಯಂತ್ರ ಕಲಿಕೆ

(ಚಿತ್ರಗಳಲ್ಲಿ ತೋರಿಸಿರುವ ಗ್ರೇಡಿಯಂಟ್ ಮೂಲದ ಹಂತದ ಮೌಲ್ಯಗಳನ್ನು ಬಳಸಿಕೊಂಡು ಪ್ರಕ್ರಿಯೆಯನ್ನು ಪುನರುತ್ಪಾದಿಸಲು, "ಉಲ್ಲೇಖ ಡೇಟಾ" ಬಾಕ್ಸ್ ಅನ್ನು ಪರಿಶೀಲಿಸಿ).

ಫೈಲ್ ಈ ಲಿಂಕ್‌ನಲ್ಲಿದೆ, ನೀವು ಮ್ಯಾಕ್ರೋಗಳನ್ನು ಸಕ್ರಿಯಗೊಳಿಸಬೇಕು, ಯಾವುದೇ ವೈರಸ್‌ಗಳಿಲ್ಲ.

ಗೌರವಾನ್ವಿತ ಸಮುದಾಯದ ಪ್ರಕಾರ, ವಸ್ತುವನ್ನು ಪ್ರಸ್ತುತಪಡಿಸುವ ಇಂತಹ ಸರಳೀಕರಣ ಮತ್ತು ವಿಧಾನವು ಸ್ವೀಕಾರಾರ್ಹವೇ? ಲೇಖನವನ್ನು ಇಂಗ್ಲಿಷ್‌ಗೆ ಅನುವಾದಿಸುವುದು ಯೋಗ್ಯವಾಗಿದೆಯೇ?

ಮೂಲ: www.habr.com

ಕಾಮೆಂಟ್ ಅನ್ನು ಸೇರಿಸಿ