ಯಂತ್ರ ಕಲಿಕೆಯ ಗುಳ್ಳೆ ಒಡೆದಿದೆಯೇ ಅಥವಾ ಹೊಸ ಉದಯದ ಆರಂಭವೇ?
ಇತ್ತೀಚೆಗೆ ಬಿಡುಗಡೆಯಾಗಿದೆ ಲೇಖನ, ಇದು ಇತ್ತೀಚಿನ ವರ್ಷಗಳಲ್ಲಿ ಯಂತ್ರ ಕಲಿಕೆಯಲ್ಲಿ ಉತ್ತಮ ಪ್ರವೃತ್ತಿಯನ್ನು ತೋರಿಸುತ್ತದೆ. ಸಂಕ್ಷಿಪ್ತವಾಗಿ ಹೇಳುವುದಾದರೆ: ಕಳೆದ ಎರಡು ವರ್ಷಗಳಲ್ಲಿ ಯಂತ್ರ ಕಲಿಕೆಯ ಸ್ಟಾರ್ಟ್ಅಪ್ಗಳ ಸಂಖ್ಯೆಯು ಕುಸಿದಿದೆ.
ಸರಿ. "ಬಬಲ್ ಒಡೆದಿದೆಯೇ", "ಬದುಕಲು ಹೇಗೆ ಮುಂದುವರೆಯುವುದು" ಎಂದು ನೋಡೋಣ ಮತ್ತು ಈ ಸ್ಕ್ವಿಗ್ಲ್ ಮೊದಲ ಸ್ಥಾನದಲ್ಲಿ ಎಲ್ಲಿಂದ ಬರುತ್ತದೆ ಎಂಬುದರ ಕುರಿತು ಮಾತನಾಡೋಣ.
ಮೊದಲಿಗೆ, ಈ ವಕ್ರರೇಖೆಯ ಬೂಸ್ಟರ್ ಯಾವುದು ಎಂಬುದರ ಕುರಿತು ಮಾತನಾಡೋಣ. ಅವಳು ಎಲ್ಲಿಂದ ಬಂದಳು? ಅವರು ಬಹುಶಃ ಎಲ್ಲವನ್ನೂ ನೆನಪಿಸಿಕೊಳ್ಳುತ್ತಾರೆ ಗೆಲುವು ಇಮೇಜ್ ನೆಟ್ ಸ್ಪರ್ಧೆಯಲ್ಲಿ 2012 ರಲ್ಲಿ ಯಂತ್ರ ಕಲಿಕೆ. ಎಲ್ಲಾ ನಂತರ, ಇದು ಮೊದಲ ಜಾಗತಿಕ ಘಟನೆಯಾಗಿದೆ! ಆದರೆ ವಾಸ್ತವದಲ್ಲಿ ಇದು ಹಾಗಲ್ಲ. ಮತ್ತು ವಕ್ರರೇಖೆಯ ಬೆಳವಣಿಗೆಯು ಸ್ವಲ್ಪ ಮುಂಚಿತವಾಗಿ ಪ್ರಾರಂಭವಾಗುತ್ತದೆ. ನಾನು ಅದನ್ನು ಹಲವಾರು ಅಂಶಗಳಾಗಿ ವಿಭಜಿಸುತ್ತೇನೆ.
2008 "ದೊಡ್ಡ ಡೇಟಾ" ಎಂಬ ಪದದ ಹೊರಹೊಮ್ಮುವಿಕೆಯನ್ನು ಕಂಡಿತು. ನಿಜವಾದ ಉತ್ಪನ್ನಗಳು ಪ್ರಾರಂಭವಾದವು ಕಾಣಿಸಿಕೊಳ್ಳುತ್ತದೆ 2010 ರಿಂದ. ದೊಡ್ಡ ಡೇಟಾ ನೇರವಾಗಿ ಯಂತ್ರ ಕಲಿಕೆಗೆ ಸಂಬಂಧಿಸಿದೆ. ದೊಡ್ಡ ಡೇಟಾ ಇಲ್ಲದೆ, ಆ ಸಮಯದಲ್ಲಿ ಅಸ್ತಿತ್ವದಲ್ಲಿದ್ದ ಕ್ರಮಾವಳಿಗಳ ಸ್ಥಿರ ಕಾರ್ಯಾಚರಣೆ ಅಸಾಧ್ಯ. ಮತ್ತು ಇವು ನರಮಂಡಲಗಳಲ್ಲ. 2012 ರವರೆಗೆ, ನರಗಳ ಜಾಲಗಳು ಕನಿಷ್ಠ ಅಲ್ಪಸಂಖ್ಯಾತರ ಸಂರಕ್ಷಣೆಯಾಗಿತ್ತು. ಆದರೆ ನಂತರ ಸಂಪೂರ್ಣವಾಗಿ ವಿಭಿನ್ನ ಅಲ್ಗಾರಿದಮ್ಗಳು ಕೆಲಸ ಮಾಡಲು ಪ್ರಾರಂಭಿಸಿದವು, ಅದು ವರ್ಷಗಳವರೆಗೆ ಅಥವಾ ದಶಕಗಳವರೆಗೆ ಅಸ್ತಿತ್ವದಲ್ಲಿದೆ: ಎಸ್ವಿಎಂ(1963,1993), ಯಾದೃಚ್ಛಿಕ ಅರಣ್ಯ (1995), ಅಡಾಬೂಸ್ಟ್ (2003),... ಆ ವರ್ಷಗಳ ಪ್ರಾರಂಭಗಳು ಪ್ರಾಥಮಿಕವಾಗಿ ರಚನಾತ್ಮಕ ಡೇಟಾದ ಸ್ವಯಂಚಾಲಿತ ಪ್ರಕ್ರಿಯೆಗೆ ಸಂಬಂಧಿಸಿವೆ: ನಗದು ರೆಜಿಸ್ಟರ್ಗಳು, ಬಳಕೆದಾರರು, ಜಾಹೀರಾತು, ಹೆಚ್ಚು.
ಈ ಮೊದಲ ತರಂಗದ ವ್ಯುತ್ಪನ್ನವು XGBoost, CatBoost, LightGBM, ಇತ್ಯಾದಿಗಳಂತಹ ಚೌಕಟ್ಟುಗಳ ಗುಂಪಾಗಿದೆ.
2011-2012 ರಲ್ಲಿ ಕನ್ವಲ್ಯೂಷನಲ್ ನರ ಜಾಲಗಳು ಹಲವಾರು ಚಿತ್ರ ಗುರುತಿಸುವಿಕೆ ಸ್ಪರ್ಧೆಗಳನ್ನು ಗೆದ್ದರು. ಅವುಗಳ ನಿಜವಾದ ಬಳಕೆ ಸ್ವಲ್ಪ ತಡವಾಯಿತು. 2014 ರಲ್ಲಿ ಬೃಹತ್ ಅರ್ಥಪೂರ್ಣ ಆರಂಭಿಕ ಮತ್ತು ಪರಿಹಾರಗಳು ಕಾಣಿಸಿಕೊಳ್ಳಲು ಪ್ರಾರಂಭಿಸಿದವು ಎಂದು ನಾನು ಹೇಳುತ್ತೇನೆ. ನ್ಯೂರಾನ್ಗಳು ಇನ್ನೂ ಕಾರ್ಯನಿರ್ವಹಿಸುತ್ತವೆ ಎಂಬುದನ್ನು ಜೀರ್ಣಿಸಿಕೊಳ್ಳಲು, ಅನುಕೂಲಕರ ಚೌಕಟ್ಟುಗಳನ್ನು ರಚಿಸಲು ಮತ್ತು ಸಮಂಜಸವಾದ ಸಮಯದಲ್ಲಿ ಸ್ಥಾಪಿಸಲು ಮತ್ತು ಪ್ರಾರಂಭಿಸಲು, ಒಮ್ಮುಖ ಸಮಯವನ್ನು ಸ್ಥಿರಗೊಳಿಸುವ ಮತ್ತು ವೇಗಗೊಳಿಸುವ ವಿಧಾನಗಳನ್ನು ಅಭಿವೃದ್ಧಿಪಡಿಸಲು ಇದು ಎರಡು ವರ್ಷಗಳನ್ನು ತೆಗೆದುಕೊಂಡಿತು.
ಕನ್ವಲ್ಯೂಶನಲ್ ನೆಟ್ವರ್ಕ್ಗಳು ಕಂಪ್ಯೂಟರ್ ದೃಷ್ಟಿ ಸಮಸ್ಯೆಗಳನ್ನು ಪರಿಹರಿಸಲು ಸಾಧ್ಯವಾಗಿಸಿತು: ಚಿತ್ರದಲ್ಲಿನ ಚಿತ್ರಗಳು ಮತ್ತು ವಸ್ತುಗಳ ವರ್ಗೀಕರಣ, ವಸ್ತು ಪತ್ತೆ, ವಸ್ತುಗಳು ಮತ್ತು ಜನರ ಗುರುತಿಸುವಿಕೆ, ಇಮೇಜ್ ಸುಧಾರಣೆ, ಇತ್ಯಾದಿ.
2015-2017. ಪುನರಾವರ್ತಿತ ನೆಟ್ವರ್ಕ್ಗಳು ಅಥವಾ ಅವುಗಳ ಸಾದೃಶ್ಯಗಳನ್ನು (LSTM, GRU, TransformerNet, ಇತ್ಯಾದಿ) ಆಧರಿಸಿ ಕ್ರಮಾವಳಿಗಳು ಮತ್ತು ಯೋಜನೆಗಳ ಬೂಮ್. ಉತ್ತಮವಾಗಿ ಕಾರ್ಯನಿರ್ವಹಿಸುವ ಸ್ಪೀಚ್-ಟು-ಟೆಕ್ಸ್ಟ್ ಅಲ್ಗಾರಿದಮ್ಗಳು ಮತ್ತು ಯಂತ್ರ ಅನುವಾದ ವ್ಯವಸ್ಥೆಗಳು ಕಾಣಿಸಿಕೊಂಡಿವೆ. ಮೂಲಭೂತ ವೈಶಿಷ್ಟ್ಯಗಳನ್ನು ಹೊರತೆಗೆಯಲು ಅವು ಭಾಗಶಃ ಕನ್ವಲ್ಯೂಷನಲ್ ನೆಟ್ವರ್ಕ್ಗಳನ್ನು ಆಧರಿಸಿವೆ. ನಾವು ನಿಜವಾಗಿಯೂ ದೊಡ್ಡ ಮತ್ತು ಉತ್ತಮ ಡೇಟಾಸೆಟ್ಗಳನ್ನು ಸಂಗ್ರಹಿಸಲು ಕಲಿತಿದ್ದೇವೆ ಎಂಬ ಅಂಶದಿಂದಾಗಿ ಭಾಗಶಃ.
“ಗುಳ್ಳೆ ಒಡೆದಿದೆಯೇ? ಪ್ರಚಾರವು ಅಧಿಕವಾಗಿದೆಯೇ? ಅವರು ಬ್ಲಾಕ್ಚೈನ್ ಆಗಿ ಸತ್ತಿದ್ದಾರೆಯೇ? ”
ಇಲ್ಲದಿದ್ದರೆ! ನಾಳೆ ಸಿರಿ ನಿಮ್ಮ ಫೋನ್ನಲ್ಲಿ ಕೆಲಸ ಮಾಡುವುದನ್ನು ನಿಲ್ಲಿಸುತ್ತದೆ ಮತ್ತು ನಾಳೆಯ ಮರುದಿನ ಟೆಸ್ಲಾಗೆ ತಿರುವು ಮತ್ತು ಕಾಂಗರೂ ನಡುವಿನ ವ್ಯತ್ಯಾಸ ತಿಳಿಯುವುದಿಲ್ಲ.
ನರಮಂಡಲಗಳು ಈಗಾಗಲೇ ಕಾರ್ಯನಿರ್ವಹಿಸುತ್ತಿವೆ. ಅವು ಹತ್ತಾರು ಸಾಧನಗಳಲ್ಲಿವೆ. ಅವರು ನಿಜವಾಗಿಯೂ ಹಣವನ್ನು ಗಳಿಸಲು, ಮಾರುಕಟ್ಟೆ ಮತ್ತು ನಿಮ್ಮ ಸುತ್ತಲಿನ ಪ್ರಪಂಚವನ್ನು ಬದಲಾಯಿಸಲು ನಿಮಗೆ ಅವಕಾಶ ಮಾಡಿಕೊಡುತ್ತಾರೆ. ಹೈಪ್ ಸ್ವಲ್ಪ ವಿಭಿನ್ನವಾಗಿ ಕಾಣುತ್ತದೆ:
ನರಮಂಡಲಗಳು ಇನ್ನು ಮುಂದೆ ಹೊಸದೇನಲ್ಲ. ಹೌದು, ಅನೇಕ ಜನರು ಹೆಚ್ಚಿನ ನಿರೀಕ್ಷೆಗಳನ್ನು ಹೊಂದಿರುತ್ತಾರೆ. ಆದರೆ ಹೆಚ್ಚಿನ ಸಂಖ್ಯೆಯ ಕಂಪನಿಗಳು ನ್ಯೂರಾನ್ಗಳನ್ನು ಬಳಸಲು ಮತ್ತು ಅವುಗಳ ಆಧಾರದ ಮೇಲೆ ಉತ್ಪನ್ನಗಳನ್ನು ತಯಾರಿಸಲು ಕಲಿತಿವೆ. ನ್ಯೂರಾನ್ಗಳು ಹೊಸ ಕಾರ್ಯವನ್ನು ಒದಗಿಸುತ್ತವೆ, ಉದ್ಯೋಗಗಳನ್ನು ಕಡಿತಗೊಳಿಸಲು ಮತ್ತು ಸೇವೆಗಳ ಬೆಲೆಯನ್ನು ಕಡಿಮೆ ಮಾಡಲು ನಿಮಗೆ ಅನುಮತಿಸುತ್ತದೆ:
ಉತ್ಪಾದನಾ ಕಂಪನಿಗಳು ಉತ್ಪಾದನಾ ಸಾಲಿನ ದೋಷಗಳನ್ನು ವಿಶ್ಲೇಷಿಸಲು ಅಲ್ಗಾರಿದಮ್ಗಳನ್ನು ಸಂಯೋಜಿಸುತ್ತಿವೆ.
ಜಾನುವಾರು ಸಾಕಣೆ ಕೇಂದ್ರಗಳು ಹಸುಗಳನ್ನು ನಿಯಂತ್ರಿಸಲು ವ್ಯವಸ್ಥೆಯನ್ನು ಖರೀದಿಸುತ್ತವೆ.
ಸ್ವಯಂಚಾಲಿತ ಸಂಯೋಜನೆಗಳು.
ಸ್ವಯಂಚಾಲಿತ ಕರೆ ಕೇಂದ್ರಗಳು.
SnapChat ನಲ್ಲಿ ಫಿಲ್ಟರ್ಗಳು. (ಸರಿ, ಕನಿಷ್ಠ ಏನಾದರೂ ಉಪಯುಕ್ತವಾಗಿದೆ!)
ಆದರೆ ಮುಖ್ಯ ವಿಷಯ, ಮತ್ತು ಹೆಚ್ಚು ಸ್ಪಷ್ಟವಾಗಿಲ್ಲ: "ಇನ್ನು ಯಾವುದೇ ಹೊಸ ಆಲೋಚನೆಗಳಿಲ್ಲ, ಅಥವಾ ಅವು ತ್ವರಿತ ಬಂಡವಾಳವನ್ನು ತರುವುದಿಲ್ಲ." ನರಮಂಡಲಗಳು ಹತ್ತಾರು ಸಮಸ್ಯೆಗಳನ್ನು ಪರಿಹರಿಸಿವೆ. ಮತ್ತು ಅವರು ಇನ್ನೂ ಹೆಚ್ಚಿನದನ್ನು ನಿರ್ಧರಿಸುತ್ತಾರೆ. ಅಸ್ತಿತ್ವದಲ್ಲಿದ್ದ ಎಲ್ಲಾ ಸ್ಪಷ್ಟವಾದ ಆಲೋಚನೆಗಳು ಅನೇಕ ಸ್ಟಾರ್ಟ್ಅಪ್ಗಳಿಗೆ ಕಾರಣವಾಯಿತು. ಆದರೆ ಮೇಲ್ಮೈಯಲ್ಲಿದ್ದ ಎಲ್ಲವನ್ನೂ ಈಗಾಗಲೇ ಸಂಗ್ರಹಿಸಲಾಗಿದೆ. ಕಳೆದ ಎರಡು ವರ್ಷಗಳಲ್ಲಿ, ನರಮಂಡಲದ ಬಳಕೆಗಾಗಿ ನಾನು ಒಂದೇ ಒಂದು ಹೊಸ ಕಲ್ಪನೆಯನ್ನು ಕಂಡಿಲ್ಲ. ಒಂದೇ ಒಂದು ಹೊಸ ವಿಧಾನವಲ್ಲ (ಅಲ್ಲದೆ, ಸರಿ, GAN ಗಳಲ್ಲಿ ಕೆಲವು ಸಮಸ್ಯೆಗಳಿವೆ).
ಮತ್ತು ಪ್ರತಿ ನಂತರದ ಪ್ರಾರಂಭವು ಹೆಚ್ಚು ಹೆಚ್ಚು ಸಂಕೀರ್ಣವಾಗಿದೆ. ತೆರೆದ ಡೇಟಾವನ್ನು ಬಳಸಿಕೊಂಡು ನರಕೋಶಕ್ಕೆ ತರಬೇತಿ ನೀಡುವ ಇಬ್ಬರು ವ್ಯಕ್ತಿಗಳು ಇನ್ನು ಮುಂದೆ ಅಗತ್ಯವಿಲ್ಲ. ಇದಕ್ಕೆ ಪ್ರೋಗ್ರಾಮರ್ಗಳು, ಸರ್ವರ್, ಮಾರ್ಕರ್ಗಳ ತಂಡ, ಸಂಕೀರ್ಣ ಬೆಂಬಲ ಇತ್ಯಾದಿಗಳ ಅಗತ್ಯವಿದೆ.
ಪರಿಣಾಮವಾಗಿ, ಕಡಿಮೆ ಸ್ಟಾರ್ಟ್ಅಪ್ಗಳಿವೆ. ಆದರೆ ಹೆಚ್ಚು ಉತ್ಪಾದನೆ ಇದೆ. ಪರವಾನಗಿ ಪ್ಲೇಟ್ ಗುರುತಿಸುವಿಕೆಯನ್ನು ಸೇರಿಸುವ ಅಗತ್ಯವಿದೆಯೇ? ಮಾರುಕಟ್ಟೆಯಲ್ಲಿ ಸೂಕ್ತವಾದ ಅನುಭವ ಹೊಂದಿರುವ ನೂರಾರು ತಜ್ಞರು ಇದ್ದಾರೆ. ನೀವು ಯಾರನ್ನಾದರೂ ನೇಮಿಸಿಕೊಳ್ಳಬಹುದು ಮತ್ತು ಒಂದೆರಡು ತಿಂಗಳುಗಳಲ್ಲಿ ನಿಮ್ಮ ಉದ್ಯೋಗಿ ವ್ಯವಸ್ಥೆಯನ್ನು ಮಾಡುತ್ತಾರೆ. ಅಥವಾ ರೆಡಿಮೇಡ್ ಖರೀದಿಸಿ. ಆದರೆ ಹೊಸ ಸ್ಟಾರ್ಟಪ್ ಮಾಡುತ್ತಿದ್ದೀರಾ?.. ಹುಚ್ಚ!
ನೀವು ಸಂದರ್ಶಕರ ಟ್ರ್ಯಾಕಿಂಗ್ ವ್ಯವಸ್ಥೆಯನ್ನು ರಚಿಸಬೇಕಾಗಿದೆ - ನೀವು 3-4 ತಿಂಗಳುಗಳಲ್ಲಿ ನಿಮ್ಮ ಸ್ವಂತವನ್ನು ಮಾಡಲು, ನಿಮ್ಮ ವ್ಯಾಪಾರಕ್ಕಾಗಿ ಅದನ್ನು ಚುರುಕುಗೊಳಿಸಿದಾಗ ಪರವಾನಗಿಗಳ ಗುಂಪಿಗೆ ಏಕೆ ಪಾವತಿಸಬೇಕು.
ಈಗ ನರಮಂಡಲಗಳು ಹತ್ತಾರು ಇತರ ತಂತ್ರಜ್ಞಾನಗಳು ಹಾದುಹೋದ ಅದೇ ಹಾದಿಯಲ್ಲಿ ಸಾಗುತ್ತಿವೆ.
1995 ರಿಂದ "ವೆಬ್ಸೈಟ್ ಡೆವಲಪರ್" ಪರಿಕಲ್ಪನೆಯು ಹೇಗೆ ಬದಲಾಗಿದೆ ಎಂದು ನಿಮಗೆ ನೆನಪಿದೆಯೇ? ಮಾರುಕಟ್ಟೆಯು ಇನ್ನೂ ತಜ್ಞರೊಂದಿಗೆ ಸ್ಯಾಚುರೇಟೆಡ್ ಆಗಿಲ್ಲ. ಕೆಲವೇ ಕೆಲವು ವೃತ್ತಿಪರರಿದ್ದಾರೆ. ಆದರೆ 5-10 ವರ್ಷಗಳಲ್ಲಿ ಜಾವಾ ಪ್ರೋಗ್ರಾಮರ್ ಮತ್ತು ನ್ಯೂರಲ್ ನೆಟ್ವರ್ಕ್ ಡೆವಲಪರ್ ನಡುವೆ ಹೆಚ್ಚಿನ ವ್ಯತ್ಯಾಸವಿಲ್ಲ ಎಂದು ನಾನು ಬಾಜಿ ಮಾಡಬಹುದು. ಮಾರುಕಟ್ಟೆಯಲ್ಲಿ ಸಾಕಷ್ಟು ಎರಡೂ ತಜ್ಞರು ಇರುತ್ತಾರೆ.
ನ್ಯೂರಾನ್ಗಳಿಂದ ಪರಿಹರಿಸಬಹುದಾದ ಸಮಸ್ಯೆಗಳ ಒಂದು ವರ್ಗ ಇರುತ್ತದೆ. ಒಂದು ಕಾರ್ಯವು ಹುಟ್ಟಿಕೊಂಡಿದೆ - ತಜ್ಞರನ್ನು ನೇಮಿಸಿ.
"ಮುಂದೇನು? ಭರವಸೆಯ ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ ಎಲ್ಲಿದೆ?
ಆದರೆ ಇಲ್ಲಿ ಒಂದು ಸಣ್ಣ ಆದರೆ ಆಸಕ್ತಿದಾಯಕ ತಪ್ಪುಗ್ರಹಿಕೆ ಇದೆ :)
ಇಂದು ಅಸ್ತಿತ್ವದಲ್ಲಿರುವ ತಂತ್ರಜ್ಞಾನದ ಸ್ಟಾಕ್, ಸ್ಪಷ್ಟವಾಗಿ, ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆಗೆ ನಮ್ಮನ್ನು ಕರೆದೊಯ್ಯುವುದಿಲ್ಲ. ಕಲ್ಪನೆಗಳು ಮತ್ತು ಅವುಗಳ ನವೀನತೆಯು ಹೆಚ್ಚಾಗಿ ತಮ್ಮನ್ನು ದಣಿದಿದೆ. ಪ್ರಸ್ತುತ ಅಭಿವೃದ್ಧಿಯ ಮಟ್ಟವನ್ನು ಹೊಂದಿರುವ ಬಗ್ಗೆ ಮಾತನಾಡೋಣ.
ನಿರ್ಬಂಧಗಳು
ಸ್ವಯಂ ಚಾಲಿತ ಕಾರುಗಳೊಂದಿಗೆ ಪ್ರಾರಂಭಿಸೋಣ. ಇಂದಿನ ತಂತ್ರಜ್ಞಾನದೊಂದಿಗೆ ಸಂಪೂರ್ಣ ಸ್ವಾಯತ್ತ ಕಾರುಗಳನ್ನು ಮಾಡಲು ಸಾಧ್ಯವಿದೆ ಎಂಬುದು ಸ್ಪಷ್ಟವಾಗಿ ತೋರುತ್ತದೆ. ಆದರೆ ಇದು ಎಷ್ಟು ವರ್ಷಗಳಲ್ಲಿ ಸಂಭವಿಸುತ್ತದೆ ಎಂಬುದು ಸ್ಪಷ್ಟವಾಗಿಲ್ಲ. ಇದು ಒಂದೆರಡು ವರ್ಷಗಳಲ್ಲಿ ಸಂಭವಿಸುತ್ತದೆ ಎಂದು ಟೆಸ್ಲಾ ನಂಬಿದ್ದಾರೆ -
ಇನ್ನೂ ಅನೇಕ ಇವೆ ತಜ್ಞರು5-10 ವರ್ಷಗಳು ಎಂದು ಯಾರು ಅಂದಾಜಿಸುತ್ತಾರೆ.
ಹೆಚ್ಚಾಗಿ, ನನ್ನ ಅಭಿಪ್ರಾಯದಲ್ಲಿ, 15 ವರ್ಷಗಳಲ್ಲಿ ನಗರಗಳ ಮೂಲಸೌಕರ್ಯವು ಸ್ವಯಂಪ್ರೇರಿತ ಕಾರುಗಳ ಹೊರಹೊಮ್ಮುವಿಕೆ ಅನಿವಾರ್ಯವಾಗುವ ರೀತಿಯಲ್ಲಿ ಬದಲಾಗುತ್ತದೆ ಮತ್ತು ಅದರ ಮುಂದುವರಿಕೆಯಾಗುತ್ತದೆ. ಆದರೆ ಇದನ್ನು ಬುದ್ಧಿವಂತಿಕೆ ಎಂದು ಪರಿಗಣಿಸಲಾಗುವುದಿಲ್ಲ. ಆಧುನಿಕ ಟೆಸ್ಲಾ ಡೇಟಾ ಫಿಲ್ಟರಿಂಗ್, ಹುಡುಕಾಟ ಮತ್ತು ಮರುತರಬೇತಿಗಾಗಿ ಬಹಳ ಸಂಕೀರ್ಣವಾದ ಪೈಪ್ಲೈನ್ ಆಗಿದೆ. ಇವು ನಿಯಮಗಳು-ನಿಯಮಗಳು-ನಿಯಮಗಳು, ಡೇಟಾ ಸಂಗ್ರಹಣೆ ಮತ್ತು ಅವುಗಳ ಮೇಲೆ ಫಿಲ್ಟರ್ಗಳು (ಇಲ್ಲಿ ಇಲ್ಲಿ ನಾನು ಇದರ ಬಗ್ಗೆ ಸ್ವಲ್ಪ ಹೆಚ್ಚು ಬರೆದಿದ್ದೇನೆ ಅಥವಾ ವೀಕ್ಷಿಸಿ ಇದು ಅಂಕಗಳು).
ಮೊದಲ ಸಮಸ್ಯೆ
ಮತ್ತು ಇಲ್ಲಿ ನಾವು ನೋಡುತ್ತೇವೆ ಮೊದಲ ಮೂಲಭೂತ ಸಮಸ್ಯೆ. ದೊಡ್ಡ ದತ್ತಾಂಶ. ಇದು ನಿಖರವಾಗಿ ನರ ಜಾಲಗಳು ಮತ್ತು ಯಂತ್ರ ಕಲಿಕೆಯ ಪ್ರಸ್ತುತ ತರಂಗಕ್ಕೆ ಜನ್ಮ ನೀಡಿತು. ಇತ್ತೀಚಿನ ದಿನಗಳಲ್ಲಿ, ಸಂಕೀರ್ಣ ಮತ್ತು ಸ್ವಯಂಚಾಲಿತವಾಗಿ ಏನನ್ನಾದರೂ ಮಾಡಲು, ನಿಮಗೆ ಬಹಳಷ್ಟು ಡೇಟಾ ಬೇಕಾಗುತ್ತದೆ. ಕೇವಲ ಬಹಳಷ್ಟು ಅಲ್ಲ, ಆದರೆ ತುಂಬಾ, ತುಂಬಾ. ಅವುಗಳ ಸಂಗ್ರಹಣೆ, ಗುರುತು ಮತ್ತು ಬಳಕೆಗಾಗಿ ನಮಗೆ ಸ್ವಯಂಚಾಲಿತ ಅಲ್ಗಾರಿದಮ್ಗಳ ಅಗತ್ಯವಿದೆ. ನಾವು ಸೂರ್ಯನನ್ನು ಎದುರಿಸುತ್ತಿರುವ ಟ್ರಕ್ಗಳನ್ನು ಕಾರನ್ನು ನೋಡಲು ಬಯಸುತ್ತೇವೆ - ನಾವು ಮೊದಲು ಸಾಕಷ್ಟು ಸಂಖ್ಯೆಯಲ್ಲಿ ಅವುಗಳನ್ನು ಸಂಗ್ರಹಿಸಬೇಕು. ಟ್ರಂಕ್ಗೆ ಬೋಲ್ಟ್ ಮಾಡಿದ ಬೈಸಿಕಲ್ನೊಂದಿಗೆ ಕಾರು ಹುಚ್ಚರಾಗಬಾರದು ಎಂದು ನಾವು ಬಯಸುತ್ತೇವೆ - ಹೆಚ್ಚಿನ ಮಾದರಿಗಳು.
ಇದಲ್ಲದೆ, ಒಂದು ಉದಾಹರಣೆ ಸಾಕಾಗುವುದಿಲ್ಲ. ನೂರಾರು? ಸಾವಿರಾರು?
ಎರಡನೇ ಸಮಸ್ಯೆ
ಎರಡನೇ ಸಮಸ್ಯೆ - ನಮ್ಮ ನರಮಂಡಲದ ನೆಟ್ವರ್ಕ್ ಏನು ಅರ್ಥಮಾಡಿಕೊಂಡಿದೆ ಎಂಬುದರ ದೃಶ್ಯೀಕರಣ. ಇದು ತುಂಬಾ ಕ್ಷುಲ್ಲಕ ಕೆಲಸ. ಇಲ್ಲಿಯವರೆಗೆ, ಇದನ್ನು ಹೇಗೆ ದೃಶ್ಯೀಕರಿಸುವುದು ಎಂದು ಕೆಲವರು ಅರ್ಥಮಾಡಿಕೊಳ್ಳುತ್ತಾರೆ. ಈ ಲೇಖನಗಳು ತೀರಾ ಇತ್ತೀಚಿನವು, ದೂರದಲ್ಲಿದ್ದರೂ ಸಹ ಇವು ಕೆಲವೇ ಉದಾಹರಣೆಗಳಾಗಿವೆ: ದೃಶ್ಯೀಕರಣ ಟೆಕಶ್ಚರ್ಗಳೊಂದಿಗೆ ಗೀಳು. ನರಕೋಶವು ಏನನ್ನು ಸ್ಥಿರೀಕರಿಸಲು ಒಲವು ತೋರುತ್ತದೆ + ಅದು ಆರಂಭಿಕ ಮಾಹಿತಿಯಾಗಿ ಗ್ರಹಿಸುತ್ತದೆ ಎಂಬುದನ್ನು ಇದು ಚೆನ್ನಾಗಿ ತೋರಿಸುತ್ತದೆ.
ದೃಶ್ಯೀಕರಣ ನಲ್ಲಿ ಗಮನ ಅನುವಾದಗಳು. ವಾಸ್ತವವಾಗಿ, ಅಂತಹ ನೆಟ್ವರ್ಕ್ ಪ್ರತಿಕ್ರಿಯೆಗೆ ಕಾರಣವಾದದ್ದನ್ನು ತೋರಿಸಲು ಆಕರ್ಷಣೆಯನ್ನು ಸಾಮಾನ್ಯವಾಗಿ ನಿಖರವಾಗಿ ಬಳಸಬಹುದು. ಡೀಬಗ್ ಮಾಡುವಿಕೆ ಮತ್ತು ಉತ್ಪನ್ನ ಪರಿಹಾರಗಳಿಗಾಗಿ ನಾನು ಅಂತಹ ವಿಷಯಗಳನ್ನು ನೋಡಿದ್ದೇನೆ. ಈ ವಿಷಯದ ಬಗ್ಗೆ ಸಾಕಷ್ಟು ಲೇಖನಗಳಿವೆ. ಆದರೆ ಹೆಚ್ಚು ಸಂಕೀರ್ಣವಾದ ಡೇಟಾ, ದೃಢವಾದ ದೃಶ್ಯೀಕರಣವನ್ನು ಹೇಗೆ ಸಾಧಿಸುವುದು ಎಂಬುದನ್ನು ಅರ್ಥಮಾಡಿಕೊಳ್ಳುವುದು ಹೆಚ್ಚು ಕಷ್ಟಕರವಾಗಿದೆ.
ಸರಿ, ಹೌದು, "ಮೆಶ್ ಒಳಗೆ ಏನಿದೆ ಎಂದು ನೋಡಿ ಶೋಧಕಗಳು" ಈ ಚಿತ್ರಗಳು 3-4 ವರ್ಷಗಳ ಹಿಂದೆ ಜನಪ್ರಿಯವಾಗಿದ್ದವು, ಆದರೆ ಚಿತ್ರಗಳು ಸುಂದರವಾಗಿವೆ ಎಂದು ಎಲ್ಲರೂ ಬೇಗನೆ ಅರಿತುಕೊಂಡರು, ಆದರೆ ಅವುಗಳು ಹೆಚ್ಚು ಅರ್ಥವನ್ನು ಹೊಂದಿಲ್ಲ.
ನಾನು ಇತರ ಹಲವಾರು ಗ್ಯಾಜೆಟ್ಗಳು, ವಿಧಾನಗಳು, ಭಿನ್ನತೆಗಳು, ನೆಟ್ವರ್ಕ್ನ ಒಳಭಾಗವನ್ನು ಹೇಗೆ ಪ್ರದರ್ಶಿಸಬೇಕು ಎಂಬುದರ ಕುರಿತು ಸಂಶೋಧನೆಗಳನ್ನು ಉಲ್ಲೇಖಿಸಲಿಲ್ಲ. ಈ ಉಪಕರಣಗಳು ಕಾರ್ಯನಿರ್ವಹಿಸುತ್ತವೆಯೇ? ಸಮಸ್ಯೆ ಏನೆಂದು ತ್ವರಿತವಾಗಿ ಅರ್ಥಮಾಡಿಕೊಳ್ಳಲು ಮತ್ತು ನೆಟ್ವರ್ಕ್ ಅನ್ನು ಡೀಬಗ್ ಮಾಡಲು ಅವರು ನಿಮಗೆ ಸಹಾಯ ಮಾಡುತ್ತಾರೆಯೇ?.. ಕೊನೆಯ ಶೇಕಡಾವನ್ನು ಪಡೆಯುವುದೇ? ಸರಿ, ಇದು ಒಂದೇ ಆಗಿರುತ್ತದೆ:
ನೀವು ಕಾಗ್ಲೆಯಲ್ಲಿ ಯಾವುದೇ ಸ್ಪರ್ಧೆಯನ್ನು ವೀಕ್ಷಿಸಬಹುದು. ಮತ್ತು ಜನರು ಹೇಗೆ ಅಂತಿಮ ನಿರ್ಧಾರಗಳನ್ನು ತೆಗೆದುಕೊಳ್ಳುತ್ತಾರೆ ಎಂಬುದರ ವಿವರಣೆ. ನಾವು 100-500-800 ಯೂನಿಟ್ ಮಾದರಿಗಳನ್ನು ಜೋಡಿಸಿದ್ದೇವೆ ಮತ್ತು ಅದು ಕೆಲಸ ಮಾಡಿದೆ!
ನಾನು ಸಹಜವಾಗಿ ಉತ್ಪ್ರೇಕ್ಷೆ ಮಾಡುತ್ತಿದ್ದೇನೆ. ಆದರೆ ಈ ವಿಧಾನಗಳು ತ್ವರಿತ ಮತ್ತು ನೇರ ಉತ್ತರಗಳನ್ನು ನೀಡುವುದಿಲ್ಲ.
ಸಾಕಷ್ಟು ಅನುಭವವನ್ನು ಹೊಂದಿರುವ, ವಿಭಿನ್ನ ಆಯ್ಕೆಗಳ ಸುತ್ತಲೂ ಇರಿ, ನಿಮ್ಮ ಸಿಸ್ಟಮ್ ಏಕೆ ಅಂತಹ ನಿರ್ಧಾರವನ್ನು ಮಾಡಿದೆ ಎಂಬುದರ ಕುರಿತು ನೀವು ತೀರ್ಪು ನೀಡಬಹುದು. ಆದರೆ ವ್ಯವಸ್ಥೆಯ ನಡವಳಿಕೆಯನ್ನು ಸರಿಪಡಿಸಲು ಕಷ್ಟವಾಗುತ್ತದೆ. ಊರುಗೋಲನ್ನು ಸ್ಥಾಪಿಸಿ, ಹೊಸ್ತಿಲನ್ನು ಸರಿಸಿ, ಡೇಟಾಸೆಟ್ ಸೇರಿಸಿ, ಇನ್ನೊಂದು ಬ್ಯಾಕೆಂಡ್ ನೆಟ್ವರ್ಕ್ ತೆಗೆದುಕೊಳ್ಳಿ.
ಮೂರನೇ ಸಮಸ್ಯೆ
ಮೂರನೇ ಮೂಲಭೂತ ಸಮಸ್ಯೆ - ಗ್ರಿಡ್ಗಳು ಅಂಕಿಅಂಶಗಳನ್ನು ಕಲಿಸುತ್ತವೆ, ತರ್ಕವಲ್ಲ. ಅಂಕಿಅಂಶಗಳ ಪ್ರಕಾರ ಇದು лицо:
ತಾರ್ಕಿಕವಾಗಿ, ಇದು ತುಂಬಾ ಹೋಲುವಂತಿಲ್ಲ. ನರಮಂಡಲಗಳು ಬಲವಂತದ ಹೊರತು ಸಂಕೀರ್ಣವಾದ ಏನನ್ನೂ ಕಲಿಯುವುದಿಲ್ಲ. ಅವರು ಯಾವಾಗಲೂ ಸಾಧ್ಯವಾದಷ್ಟು ಸರಳವಾದ ಚಿಹ್ನೆಗಳನ್ನು ಕಲಿಸುತ್ತಾರೆ. ನಿಮಗೆ ಕಣ್ಣು, ಮೂಗು, ತಲೆ ಇದೆಯೇ? ಹಾಗಾದರೆ ಇದು ಮುಖ! ಅಥವಾ ಕಣ್ಣು ಎಂದರೆ ಮುಖವಲ್ಲ ಎಂಬುದಕ್ಕೆ ಉದಾಹರಣೆ ಕೊಡಿ. ಮತ್ತು ಮತ್ತೆ - ಲಕ್ಷಾಂತರ ಉದಾಹರಣೆಗಳು.
ಕೆಳಭಾಗದಲ್ಲಿ ಸಾಕಷ್ಟು ಕೊಠಡಿಗಳಿವೆ
ಈ ಮೂರು ಜಾಗತಿಕ ಸಮಸ್ಯೆಗಳು ಪ್ರಸ್ತುತ ನ್ಯೂರಲ್ ನೆಟ್ವರ್ಕ್ಗಳು ಮತ್ತು ಯಂತ್ರ ಕಲಿಕೆಯ ಅಭಿವೃದ್ಧಿಯನ್ನು ಮಿತಿಗೊಳಿಸುತ್ತವೆ ಎಂದು ನಾನು ಹೇಳುತ್ತೇನೆ. ಮತ್ತು ಈ ಸಮಸ್ಯೆಗಳು ಅದನ್ನು ಮಿತಿಗೊಳಿಸದಿದ್ದರೆ, ಅದನ್ನು ಈಗಾಗಲೇ ಸಕ್ರಿಯವಾಗಿ ಬಳಸಲಾಗುತ್ತದೆ.
ಇದು ಅಂತ್ಯವೇ? ನರಮಂಡಲಗಳು ಹೆಚ್ಚಿವೆಯೇ?
ಅಜ್ಞಾತ. ಆದರೆ, ಸಹಜವಾಗಿ, ಎಲ್ಲರೂ ಆಶಿಸುವುದಿಲ್ಲ.
ನಾನು ಮೇಲೆ ಹೈಲೈಟ್ ಮಾಡಿದ ಮೂಲಭೂತ ಸಮಸ್ಯೆಗಳನ್ನು ಪರಿಹರಿಸಲು ಹಲವು ವಿಧಾನಗಳು ಮತ್ತು ನಿರ್ದೇಶನಗಳಿವೆ. ಆದರೆ ಇಲ್ಲಿಯವರೆಗೆ, ಈ ಯಾವುದೇ ವಿಧಾನಗಳು ಮೂಲಭೂತವಾಗಿ ಹೊಸದನ್ನು ಮಾಡಲು ಸಾಧ್ಯವಾಗಲಿಲ್ಲ, ಇನ್ನೂ ಪರಿಹರಿಸದಿರುವದನ್ನು ಪರಿಹರಿಸಲು ಸಾಧ್ಯವಾಗಲಿಲ್ಲ. ಇಲ್ಲಿಯವರೆಗೆ, ಎಲ್ಲಾ ಮೂಲಭೂತ ಯೋಜನೆಗಳನ್ನು ಸ್ಥಿರ ವಿಧಾನಗಳ (ಟೆಸ್ಲಾ) ಆಧಾರದ ಮೇಲೆ ಮಾಡಲಾಗುತ್ತಿದೆ, ಅಥವಾ ಸಂಸ್ಥೆಗಳು ಅಥವಾ ನಿಗಮಗಳ (ಗೂಗಲ್ ಬ್ರೈನ್, ಓಪನ್ ಎಐ) ಪರೀಕ್ಷಾ ಯೋಜನೆಗಳಾಗಿ ಉಳಿಯುತ್ತದೆ.
ಸ್ಥೂಲವಾಗಿ ಹೇಳುವುದಾದರೆ, ಇನ್ಪುಟ್ ಡೇಟಾದ ಕೆಲವು ಉನ್ನತ ಮಟ್ಟದ ಪ್ರಾತಿನಿಧ್ಯವನ್ನು ರಚಿಸುವುದು ಮುಖ್ಯ ನಿರ್ದೇಶನವಾಗಿದೆ. ಒಂದು ಅರ್ಥದಲ್ಲಿ, "ನೆನಪು". ಮೆಮೊರಿಯ ಸರಳ ಉದಾಹರಣೆಯೆಂದರೆ ವಿವಿಧ "ಎಂಬೆಡಿಂಗ್" - ಇಮೇಜ್ ಪ್ರಾತಿನಿಧ್ಯಗಳು. ಸರಿ, ಉದಾಹರಣೆಗೆ, ಎಲ್ಲಾ ಮುಖ ಗುರುತಿಸುವಿಕೆ ವ್ಯವಸ್ಥೆಗಳು. ತಿರುಗುವಿಕೆ, ಬೆಳಕು ಅಥವಾ ರೆಸಲ್ಯೂಶನ್ ಅನ್ನು ಅವಲಂಬಿಸಿರದ ಕೆಲವು ಸ್ಥಿರವಾದ ಪ್ರಾತಿನಿಧ್ಯವನ್ನು ಮುಖದಿಂದ ಪಡೆಯಲು ನೆಟ್ವರ್ಕ್ ಕಲಿಯುತ್ತದೆ. ಮೂಲಭೂತವಾಗಿ, ನೆಟ್ವರ್ಕ್ "ವಿಭಿನ್ನ ಮುಖಗಳು ದೂರವಿದೆ" ಮತ್ತು "ಒಂದೇ ಮುಖಗಳು ಹತ್ತಿರದಲ್ಲಿವೆ" ಎಂಬ ಮೆಟ್ರಿಕ್ ಅನ್ನು ಕಡಿಮೆ ಮಾಡುತ್ತದೆ.
ಅಂತಹ ತರಬೇತಿಗಾಗಿ, ಹತ್ತಾರು ಮತ್ತು ನೂರಾರು ಸಾವಿರ ಉದಾಹರಣೆಗಳು ಅಗತ್ಯವಿದೆ. ಆದರೆ ಫಲಿತಾಂಶವು "ಒಂದು-ಶಾಟ್ ಕಲಿಕೆ" ಯ ಕೆಲವು ಮೂಲಗಳನ್ನು ಹೊಂದಿದೆ. ಈಗ ಒಬ್ಬ ವ್ಯಕ್ತಿಯನ್ನು ನೆನಪಿಟ್ಟುಕೊಳ್ಳಲು ನೂರಾರು ಮುಖಗಳ ಅಗತ್ಯವಿಲ್ಲ. ಕೇವಲ ಒಂದು ಮುಖ ಮತ್ತು ನಾವು ಅಷ್ಟೆ ಕಂಡುಹಿಡಿಯೋಣ!
ಕೇವಲ ಒಂದು ಸಮಸ್ಯೆ ಇದೆ... ಗ್ರಿಡ್ ಸರಳವಾದ ವಸ್ತುಗಳನ್ನು ಮಾತ್ರ ಕಲಿಯಬಹುದು. ಮುಖಗಳನ್ನು ಪ್ರತ್ಯೇಕಿಸಲು ಪ್ರಯತ್ನಿಸುವಾಗ, ಆದರೆ, ಉದಾಹರಣೆಗೆ, "ಬಟ್ಟೆಯಿಂದ ಜನರು" (ಕಾರ್ಯ ಮರು ಗುರುತಿಸುವಿಕೆ) - ಗುಣಮಟ್ಟವು ಅನೇಕ ಆದೇಶಗಳಿಂದ ಕುಸಿಯುತ್ತದೆ. ಮತ್ತು ನೆಟ್ವರ್ಕ್ ಇನ್ನು ಮುಂದೆ ಕೋನಗಳಲ್ಲಿ ಸಾಕಷ್ಟು ಸ್ಪಷ್ಟ ಬದಲಾವಣೆಗಳನ್ನು ಕಲಿಯಲು ಸಾಧ್ಯವಿಲ್ಲ.
ಮತ್ತು ಲಕ್ಷಾಂತರ ಉದಾಹರಣೆಗಳಿಂದ ಕಲಿಯುವುದು ಸಹ ಒಂದು ರೀತಿಯ ವಿನೋದವಾಗಿದೆ.
ಚುನಾವಣೆಯನ್ನು ಗಣನೀಯವಾಗಿ ತಗ್ಗಿಸುವ ಕೆಲಸವಿದೆ. ಉದಾಹರಣೆಗೆ, ಮೊದಲ ಕೃತಿಗಳಲ್ಲಿ ಒಂದನ್ನು ತಕ್ಷಣವೇ ನೆನಪಿಸಿಕೊಳ್ಳಬಹುದು ಒನ್ಶಾಟ್ ಕಲಿಕೆGoogle ನಿಂದ:
ಒಂದು ಮೈನಸ್ ಇದೆ - ಸಾಮಾನ್ಯವಾಗಿ ತರಬೇತಿಯು ಕೆಲವು ಸರಳವಾದ "MNIST" ಉದಾಹರಣೆಗಳಲ್ಲಿ ಉತ್ತಮವಾಗಿ ಕಾರ್ಯನಿರ್ವಹಿಸುತ್ತದೆ. ಮತ್ತು ಸಂಕೀರ್ಣ ಕಾರ್ಯಗಳಿಗೆ ಚಲಿಸುವಾಗ, ನಿಮಗೆ ದೊಡ್ಡ ಡೇಟಾಬೇಸ್, ವಸ್ತುಗಳ ಮಾದರಿ ಅಥವಾ ಕೆಲವು ರೀತಿಯ ಮ್ಯಾಜಿಕ್ ಅಗತ್ಯವಿದೆ.
ಸಾಮಾನ್ಯವಾಗಿ, ಒನ್-ಶಾಟ್ ತರಬೇತಿಯ ಕೆಲಸವು ಬಹಳ ಆಸಕ್ತಿದಾಯಕ ವಿಷಯವಾಗಿದೆ. ನೀವು ಬಹಳಷ್ಟು ವಿಚಾರಗಳನ್ನು ಕಾಣುತ್ತೀರಿ. ಆದರೆ ಬಹುಪಾಲು, ನಾನು ಪಟ್ಟಿ ಮಾಡಿದ ಎರಡು ಸಮಸ್ಯೆಗಳು (ಬೃಹತ್ ಡೇಟಾಸೆಟ್ನಲ್ಲಿ ಪೂರ್ವ ತರಬೇತಿ / ಸಂಕೀರ್ಣ ಡೇಟಾದ ಅಸ್ಥಿರತೆ) ಕಲಿಕೆಗೆ ಹೆಚ್ಚು ಅಡ್ಡಿಪಡಿಸುತ್ತವೆ.
ಮತ್ತೊಂದೆಡೆ, GAN ಗಳು-ಉತ್ಪಾದಕ ವಿರೋಧಿ ಜಾಲಗಳು - ಎಂಬೆಡಿಂಗ್ ವಿಷಯವನ್ನು ಸಮೀಪಿಸುತ್ತವೆ. ಈ ವಿಷಯದ ಕುರಿತು ನೀವು ಬಹುಶಃ ಹಬ್ರೆ ಲೇಖನಗಳ ಗುಂಪನ್ನು ಓದಿದ್ದೀರಿ. (1, 2,3)
GAN ನ ವೈಶಿಷ್ಟ್ಯವು ಕೆಲವು ಆಂತರಿಕ ಸ್ಥಿತಿಯ ಜಾಗವನ್ನು (ಮೂಲಭೂತವಾಗಿ ಅದೇ ಎಂಬೆಡಿಂಗ್) ರಚನೆಯಾಗಿದೆ, ಇದು ನಿಮಗೆ ಚಿತ್ರವನ್ನು ಸೆಳೆಯಲು ಅನುವು ಮಾಡಿಕೊಡುತ್ತದೆ. ಇದು ಆಗಿರಬಹುದು ಮುಖಗಳು, ಆಗಿರಬಹುದು ಕ್ರಿಯೆ.
GAN ನ ಸಮಸ್ಯೆಯೆಂದರೆ, ಉತ್ಪತ್ತಿಯಾದ ವಸ್ತುವು ಹೆಚ್ಚು ಸಂಕೀರ್ಣವಾಗಿದೆ, ಅದನ್ನು "ಜನರೇಟರ್-ತಾರತಮ್ಯ" ತರ್ಕದಲ್ಲಿ ವಿವರಿಸಲು ಹೆಚ್ಚು ಕಷ್ಟವಾಗುತ್ತದೆ. ಪರಿಣಾಮವಾಗಿ, GAN ನ ನಿಜವಾದ ಅಪ್ಲಿಕೇಶನ್ಗಳು ಕೇಳಿಬರುವ ಏಕೈಕ ಡೀಪ್ಫೇಕ್, ಇದು ಮತ್ತೆ ಮುಖದ ನಿರೂಪಣೆಗಳನ್ನು ಕುಶಲತೆಯಿಂದ ನಿರ್ವಹಿಸುತ್ತದೆ (ಇದಕ್ಕಾಗಿ ದೊಡ್ಡ ನೆಲೆಯಿದೆ).
ನಾನು ಇತರ ಕೆಲವು ಉಪಯುಕ್ತ ಉಪಯೋಗಗಳನ್ನು ನೋಡಿದ್ದೇನೆ. ಸಾಮಾನ್ಯವಾಗಿ ಚಿತ್ರಗಳ ರೇಖಾಚಿತ್ರಗಳನ್ನು ಮುಗಿಸುವ ಕೆಲವು ರೀತಿಯ ತಂತ್ರಗಳು.
ಮತ್ತು ಮತ್ತೆ. ಇದು ನಮಗೆ ಉಜ್ವಲ ಭವಿಷ್ಯಕ್ಕೆ ಹೇಗೆ ಹೋಗಲು ಅನುವು ಮಾಡಿಕೊಡುತ್ತದೆ ಎಂದು ಯಾರಿಗೂ ತಿಳಿದಿಲ್ಲ. ನ್ಯೂರಲ್ ನೆಟ್ವರ್ಕ್ನಲ್ಲಿ ಲಾಜಿಕ್/ಸ್ಪೇಸ್ ಅನ್ನು ಪ್ರತಿನಿಧಿಸುವುದು ಒಳ್ಳೆಯದು. ಆದರೆ ನಮಗೆ ಹೆಚ್ಚಿನ ಸಂಖ್ಯೆಯ ಉದಾಹರಣೆಗಳು ಬೇಕು, ನರಕೋಶವು ಇದನ್ನು ಹೇಗೆ ಪ್ರತಿನಿಧಿಸುತ್ತದೆ ಎಂಬುದನ್ನು ನಮಗೆ ಅರ್ಥವಾಗುತ್ತಿಲ್ಲ, ನರಕೋಶವು ಕೆಲವು ಸಂಕೀರ್ಣವಾದ ವಿಚಾರಗಳನ್ನು ನೆನಪಿಟ್ಟುಕೊಳ್ಳುವಂತೆ ಮಾಡುವುದು ಹೇಗೆ ಎಂದು ನಮಗೆ ಅರ್ಥವಾಗುತ್ತಿಲ್ಲ.
ಬಲವರ್ಧನೆಯ ಕಲಿಕೆ - ಇದು ಸಂಪೂರ್ಣವಾಗಿ ವಿಭಿನ್ನ ದಿಕ್ಕಿನ ವಿಧಾನವಾಗಿದೆ. Go ನಲ್ಲಿ ಪ್ರತಿಯೊಬ್ಬರನ್ನು Google ಹೇಗೆ ಸೋಲಿಸಿತು ಎಂಬುದನ್ನು ನೀವು ಖಂಡಿತವಾಗಿ ನೆನಪಿಸಿಕೊಳ್ಳುತ್ತೀರಿ. ಸ್ಟಾರ್ಕ್ರಾಫ್ಟ್ ಮತ್ತು ಡೋಟಾದಲ್ಲಿ ಇತ್ತೀಚಿನ ವಿಜಯಗಳು. ಆದರೆ ಇಲ್ಲಿ ಎಲ್ಲವೂ ತುಂಬಾ ರೋಸಿ ಮತ್ತು ಭರವಸೆಯಿಂದ ದೂರವಿದೆ. ಅವರು RL ಮತ್ತು ಅದರ ಸಂಕೀರ್ಣತೆಗಳ ಬಗ್ಗೆ ಉತ್ತಮವಾಗಿ ಮಾತನಾಡುತ್ತಾರೆ ಈ ಲೇಖನ.
ಲೇಖಕರು ಬರೆದದ್ದನ್ನು ಸಂಕ್ಷಿಪ್ತವಾಗಿ ಹೇಳಲು:
ಪೆಟ್ಟಿಗೆಯಿಂದ ಹೊರಗಿರುವ ಮಾದರಿಗಳು ಹೆಚ್ಚಿನ ಸಂದರ್ಭಗಳಲ್ಲಿ ಸರಿಹೊಂದುವುದಿಲ್ಲ / ಕಳಪೆಯಾಗಿ ಕಾರ್ಯನಿರ್ವಹಿಸುತ್ತವೆ
ಪ್ರಾಯೋಗಿಕ ಸಮಸ್ಯೆಗಳನ್ನು ಇತರ ರೀತಿಯಲ್ಲಿ ಪರಿಹರಿಸಲು ಸುಲಭವಾಗಿದೆ. ಬೋಸ್ಟನ್ ಡೈನಾಮಿಕ್ಸ್ ಅದರ ಸಂಕೀರ್ಣತೆ / ಅನಿರೀಕ್ಷಿತತೆ / ಕಂಪ್ಯೂಟೇಶನಲ್ ಸಂಕೀರ್ಣತೆಯಿಂದಾಗಿ RL ಅನ್ನು ಬಳಸುವುದಿಲ್ಲ
RL ಕೆಲಸ ಮಾಡಲು, ನಿಮಗೆ ಸಂಕೀರ್ಣವಾದ ಕಾರ್ಯದ ಅಗತ್ಯವಿದೆ. ಸಾಮಾನ್ಯವಾಗಿ ರಚಿಸಲು/ಬರೆಯಲು ಕಷ್ಟವಾಗುತ್ತದೆ
ಮಾದರಿಗಳಿಗೆ ತರಬೇತಿ ನೀಡಲು ಕಷ್ಟ. ಪಂಪ್ ಅಪ್ ಮಾಡಲು ಮತ್ತು ಸ್ಥಳೀಯ ಆಪ್ಟಿಮಾದಿಂದ ಹೊರಬರಲು ನೀವು ಸಾಕಷ್ಟು ಸಮಯವನ್ನು ಕಳೆಯಬೇಕು
ಪರಿಣಾಮವಾಗಿ, ಮಾದರಿಯನ್ನು ಪುನರಾವರ್ತಿಸಲು ಕಷ್ಟವಾಗುತ್ತದೆ, ಮಾದರಿಯು ಸಣ್ಣದೊಂದು ಬದಲಾವಣೆಗಳೊಂದಿಗೆ ಅಸ್ಥಿರವಾಗಿರುತ್ತದೆ
ಸಾಮಾನ್ಯವಾಗಿ ಯಾದೃಚ್ಛಿಕ ಸಂಖ್ಯೆಯ ಜನರೇಟರ್ನವರೆಗೆ ಕೆಲವು ರೀತಿಯ ಎಡ-ಪಂಥೀಯ ಮಾದರಿಗಳನ್ನು ಅತಿಕ್ರಮಿಸುತ್ತದೆ
ಪ್ರಮುಖ ಅಂಶವೆಂದರೆ RL ಇನ್ನೂ ಉತ್ಪಾದನೆಯಲ್ಲಿ ಕೆಲಸ ಮಾಡುತ್ತಿಲ್ಲ. Google ಕೆಲವು ಪ್ರಯೋಗಗಳನ್ನು ಹೊಂದಿದೆ ( 1, 2 ) ಆದರೆ ನಾನು ಒಂದೇ ಉತ್ಪನ್ನ ವ್ಯವಸ್ಥೆಯನ್ನು ನೋಡಿಲ್ಲ.
ನೆನಪು. ಮೇಲೆ ವಿವರಿಸಿದ ಎಲ್ಲದರ ನ್ಯೂನತೆಯೆಂದರೆ ರಚನೆಯ ಕೊರತೆ. ಈ ಎಲ್ಲವನ್ನೂ ಅಚ್ಚುಕಟ್ಟಾಗಿ ಮಾಡಲು ಪ್ರಯತ್ನಿಸುವ ಒಂದು ವಿಧಾನವೆಂದರೆ ಪ್ರತ್ಯೇಕ ಮೆಮೊರಿಗೆ ಪ್ರವೇಶದೊಂದಿಗೆ ನರಮಂಡಲವನ್ನು ಒದಗಿಸುವುದು. ಆದ್ದರಿಂದ ಅವಳು ಅಲ್ಲಿ ತನ್ನ ಹೆಜ್ಜೆಗಳ ಫಲಿತಾಂಶಗಳನ್ನು ರೆಕಾರ್ಡ್ ಮಾಡಬಹುದು ಮತ್ತು ಪುನಃ ಬರೆಯಬಹುದು. ನಂತರ ನರಮಂಡಲವನ್ನು ಪ್ರಸ್ತುತ ಮೆಮೊರಿ ಸ್ಥಿತಿಯಿಂದ ನಿರ್ಧರಿಸಬಹುದು. ಇದು ಕ್ಲಾಸಿಕ್ ಪ್ರೊಸೆಸರ್ಗಳು ಮತ್ತು ಕಂಪ್ಯೂಟರ್ಗಳಿಗೆ ಹೋಲುತ್ತದೆ.
ಅತ್ಯಂತ ಪ್ರಸಿದ್ಧ ಮತ್ತು ಜನಪ್ರಿಯ ಲೇಖನ - ಡೀಪ್ಮೈಂಡ್ನಿಂದ:
ಬುದ್ಧಿವಂತಿಕೆಯನ್ನು ಅರ್ಥಮಾಡಿಕೊಳ್ಳಲು ಇದು ಕೀಲಿಯಾಗಿದೆ ಎಂದು ತೋರುತ್ತದೆ? ಆದರೆ ಬಹುಶಃ ಅಲ್ಲ. ತರಬೇತಿಗಾಗಿ ಸಿಸ್ಟಮ್ಗೆ ಇನ್ನೂ ಹೆಚ್ಚಿನ ಪ್ರಮಾಣದ ಡೇಟಾ ಬೇಕಾಗುತ್ತದೆ. ಮತ್ತು ಇದು ಮುಖ್ಯವಾಗಿ ರಚನಾತ್ಮಕ ಕೋಷ್ಟಕ ಡೇಟಾದೊಂದಿಗೆ ಕಾರ್ಯನಿರ್ವಹಿಸುತ್ತದೆ. ಇದಲ್ಲದೆ, ಯಾವಾಗ ಫೇಸ್ಬುಕ್ ನಿರ್ಧರಿಸಿದ್ದಾರೆ ಇದೇ ರೀತಿಯ ಸಮಸ್ಯೆ, ನಂತರ ಅವರು "ಸ್ಕ್ರೂ ಮೆಮೊರಿ, ನರಕೋಶವನ್ನು ಹೆಚ್ಚು ಸಂಕೀರ್ಣಗೊಳಿಸಿ ಮತ್ತು ಹೆಚ್ಚಿನ ಉದಾಹರಣೆಗಳನ್ನು ಹೊಂದಿರುತ್ತಾರೆ - ಮತ್ತು ಅದು ತನ್ನದೇ ಆದ ಮೇಲೆ ಕಲಿಯುತ್ತದೆ" ಎಂಬ ಮಾರ್ಗವನ್ನು ತೆಗೆದುಕೊಂಡಿತು.
ವಿಚ್ಛೇದನ. ಅರ್ಥಪೂರ್ಣ ಸ್ಮರಣೆಯನ್ನು ರಚಿಸಲು ಇನ್ನೊಂದು ಮಾರ್ಗವೆಂದರೆ ಅದೇ ಎಂಬೆಡಿಂಗ್ಗಳನ್ನು ತೆಗೆದುಕೊಳ್ಳುವುದು, ಆದರೆ ತರಬೇತಿಯ ಸಮಯದಲ್ಲಿ, ಅವುಗಳಲ್ಲಿ "ಅರ್ಥಗಳನ್ನು" ಹೈಲೈಟ್ ಮಾಡಲು ನಿಮಗೆ ಅನುಮತಿಸುವ ಹೆಚ್ಚುವರಿ ಮಾನದಂಡಗಳನ್ನು ಪರಿಚಯಿಸಿ. ಉದಾಹರಣೆಗೆ, ಅಂಗಡಿಯಲ್ಲಿನ ಮಾನವ ನಡವಳಿಕೆಯ ನಡುವೆ ವ್ಯತ್ಯಾಸವನ್ನು ಕಂಡುಹಿಡಿಯಲು ನಾವು ನರಮಂಡಲವನ್ನು ತರಬೇತಿ ಮಾಡಲು ಬಯಸುತ್ತೇವೆ. ನಾವು ಪ್ರಮಾಣಿತ ಮಾರ್ಗವನ್ನು ಅನುಸರಿಸಿದರೆ, ನಾವು ಒಂದು ಡಜನ್ ನೆಟ್ವರ್ಕ್ಗಳನ್ನು ಮಾಡಬೇಕಾಗುತ್ತದೆ. ಒಬ್ಬ ವ್ಯಕ್ತಿಯನ್ನು ಹುಡುಕುತ್ತಿದ್ದಾನೆ, ಎರಡನೆಯದು ಅವನು ಏನು ಮಾಡುತ್ತಿದ್ದಾನೆ ಎಂಬುದನ್ನು ನಿರ್ಧರಿಸುವುದು, ಮೂರನೆಯದು ಅವನ ವಯಸ್ಸು, ನಾಲ್ಕನೆಯದು ಅವನ ಲಿಂಗ. ಪ್ರತ್ಯೇಕ ತರ್ಕವು ಅಂಗಡಿಯ ಭಾಗವನ್ನು ನೋಡುತ್ತದೆ ಮತ್ತು ಇದನ್ನು ಮಾಡಲು ತರಬೇತಿ ನೀಡುತ್ತದೆ. ಮೂರನೆಯದು ಅದರ ಪಥವನ್ನು ನಿರ್ಧರಿಸುತ್ತದೆ, ಇತ್ಯಾದಿ.
ಅಥವಾ, ಅಪರಿಮಿತ ಪ್ರಮಾಣದ ಡೇಟಾ ಇದ್ದಲ್ಲಿ, ಎಲ್ಲಾ ಸಂಭವನೀಯ ಫಲಿತಾಂಶಗಳಿಗಾಗಿ ಒಂದು ನೆಟ್ವರ್ಕ್ ಅನ್ನು ತರಬೇತಿ ಮಾಡಲು ಸಾಧ್ಯವಾಗುತ್ತದೆ (ನಿಸ್ಸಂಶಯವಾಗಿ, ಅಂತಹ ಡೇಟಾವನ್ನು ಸಂಗ್ರಹಿಸಲಾಗುವುದಿಲ್ಲ).
ವಿಚ್ಛೇದನದ ವಿಧಾನವು ನಮಗೆ ಹೇಳುತ್ತದೆ - ನೆಟ್ವರ್ಕ್ ಅನ್ನು ತರಬೇತಿ ಮಾಡೋಣ ಇದರಿಂದ ಅದು ಪರಿಕಲ್ಪನೆಗಳ ನಡುವೆ ವ್ಯತ್ಯಾಸವನ್ನು ತೋರಿಸುತ್ತದೆ. ಆದ್ದರಿಂದ ಇದು ವೀಡಿಯೊವನ್ನು ಆಧರಿಸಿ ಎಂಬೆಡಿಂಗ್ ಅನ್ನು ರೂಪಿಸುತ್ತದೆ, ಅಲ್ಲಿ ಒಂದು ಪ್ರದೇಶವು ಕ್ರಿಯೆಯನ್ನು ನಿರ್ಧರಿಸುತ್ತದೆ, ಒಬ್ಬರು ನೆಲದ ಮೇಲಿನ ಸ್ಥಾನವನ್ನು ಸಮಯಕ್ಕೆ ನಿರ್ಧರಿಸುತ್ತಾರೆ, ಒಬ್ಬರು ವ್ಯಕ್ತಿಯ ಎತ್ತರವನ್ನು ನಿರ್ಧರಿಸುತ್ತಾರೆ ಮತ್ತು ಒಬ್ಬರು ವ್ಯಕ್ತಿಯ ಲಿಂಗವನ್ನು ನಿರ್ಧರಿಸುತ್ತಾರೆ. ಅದೇ ಸಮಯದಲ್ಲಿ, ತರಬೇತಿ ನೀಡುವಾಗ, ಅಂತಹ ಪ್ರಮುಖ ಪರಿಕಲ್ಪನೆಗಳೊಂದಿಗೆ ನೆಟ್ವರ್ಕ್ ಅನ್ನು ಪ್ರಾಂಪ್ಟ್ ಮಾಡಲು ನಾನು ಬಯಸುತ್ತೇನೆ, ಆದರೆ ಅದನ್ನು ಹೈಲೈಟ್ ಮಾಡಲು ಮತ್ತು ಪ್ರದೇಶಗಳನ್ನು ಗುಂಪು ಮಾಡಲು. ಅಂತಹ ಕೆಲವು ಲೇಖನಗಳಿವೆ (ಅವುಗಳಲ್ಲಿ ಕೆಲವು 1, 2, 3) ಮತ್ತು ಸಾಮಾನ್ಯವಾಗಿ ಅವು ಸಾಕಷ್ಟು ಸೈದ್ಧಾಂತಿಕವಾಗಿವೆ.
ಆದರೆ ಈ ನಿರ್ದೇಶನವು, ಕನಿಷ್ಠ ಸೈದ್ಧಾಂತಿಕವಾಗಿ, ಆರಂಭದಲ್ಲಿ ಪಟ್ಟಿ ಮಾಡಲಾದ ಸಮಸ್ಯೆಗಳನ್ನು ಒಳಗೊಳ್ಳಬೇಕು.
"ಗೋಡೆಯ ಬಣ್ಣ / ನೆಲದ ಬಣ್ಣ / ವಸ್ತುವಿನ ಆಕಾರ / ವಸ್ತುವಿನ ಬಣ್ಣ / ಇತ್ಯಾದಿ" ನಿಯತಾಂಕಗಳ ಪ್ರಕಾರ ಚಿತ್ರ ವಿಭಜನೆ
"ಗಾತ್ರ, ಹುಬ್ಬುಗಳು, ದೃಷ್ಟಿಕೋನ, ಚರ್ಮದ ಬಣ್ಣ, ಇತ್ಯಾದಿ" ನಿಯತಾಂಕಗಳ ಪ್ರಕಾರ ಮುಖದ ವಿಭಜನೆ
Прочее
ಡೇಟಾಬೇಸ್ ಅನ್ನು ಹೇಗಾದರೂ ಕಡಿಮೆ ಮಾಡಲು, ಹೆಚ್ಚು ವೈವಿಧ್ಯಮಯ ಡೇಟಾದೊಂದಿಗೆ ಕೆಲಸ ಮಾಡಲು ನಿಮಗೆ ಅನುಮತಿಸುವ ಅನೇಕ ಇತರ, ಜಾಗತಿಕವಲ್ಲದ ಕ್ಷೇತ್ರಗಳಿವೆ.
ಗಮನ. ಇದನ್ನು ಪ್ರತ್ಯೇಕ ವಿಧಾನವಾಗಿ ಪ್ರತ್ಯೇಕಿಸಲು ಬಹುಶಃ ಅರ್ಥವಿಲ್ಲ. ಕೇವಲ ಇತರರನ್ನು ಹೆಚ್ಚಿಸುವ ವಿಧಾನ. ಅನೇಕ ಲೇಖನಗಳನ್ನು ಅವರಿಗೆ ಸಮರ್ಪಿಸಲಾಗಿದೆ (1,2,3) ತರಬೇತಿಯ ಸಮಯದಲ್ಲಿ ಗಮನಾರ್ಹ ವಸ್ತುಗಳಿಗೆ ನಿರ್ದಿಷ್ಟವಾಗಿ ನೆಟ್ವರ್ಕ್ನ ಪ್ರತಿಕ್ರಿಯೆಯನ್ನು ಹೆಚ್ಚಿಸುವುದು ಗಮನದ ಅಂಶವಾಗಿದೆ. ಸಾಮಾನ್ಯವಾಗಿ ಕೆಲವು ರೀತಿಯ ಬಾಹ್ಯ ಗುರಿ ಪದನಾಮ ಅಥವಾ ಸಣ್ಣ ಬಾಹ್ಯ ನೆಟ್ವರ್ಕ್ನಿಂದ.
3D ಸಿಮ್ಯುಲೇಶನ್. ನೀವು ಉತ್ತಮ 3D ಎಂಜಿನ್ ಅನ್ನು ಮಾಡಿದರೆ, ನೀವು ಅದರೊಂದಿಗೆ 90% ತರಬೇತಿ ಡೇಟಾವನ್ನು ಕವರ್ ಮಾಡಬಹುದು (ಸುಮಾರು 99% ಡೇಟಾವನ್ನು ಉತ್ತಮ ಎಂಜಿನ್ನಿಂದ ಆವರಿಸಿರುವ ಉದಾಹರಣೆಯನ್ನು ನಾನು ನೋಡಿದ್ದೇನೆ). ನೈಜ ಡೇಟಾವನ್ನು (ಫೈನ್ ಟ್ಯೂನಿಂಗ್, ಸ್ಟೈಲ್ ವರ್ಗಾವಣೆ, ಇತ್ಯಾದಿ) ಬಳಸಿಕೊಂಡು 3D ಎಂಜಿನ್ ಕೆಲಸದಲ್ಲಿ ತರಬೇತಿ ಪಡೆದ ನೆಟ್ವರ್ಕ್ ಅನ್ನು ಹೇಗೆ ಮಾಡುವುದು ಎಂಬುದರ ಕುರಿತು ಹಲವು ವಿಚಾರಗಳು ಮತ್ತು ಭಿನ್ನತೆಗಳಿವೆ. ಆದರೆ ಸಾಮಾನ್ಯವಾಗಿ ಉತ್ತಮ ಎಂಜಿನ್ ಅನ್ನು ತಯಾರಿಸುವುದು ಡೇಟಾವನ್ನು ಸಂಗ್ರಹಿಸುವುದಕ್ಕಿಂತ ಹೆಚ್ಚು ಕಷ್ಟಕರವಾದ ಹಲವಾರು ಆದೇಶಗಳನ್ನು ಹೊಂದಿದೆ. ಎಂಜಿನ್ಗಳನ್ನು ತಯಾರಿಸಿದಾಗ ಉದಾಹರಣೆಗಳು:
ರೋಬೋಟ್ ತರಬೇತಿ (ಗೂಗಲ್, ಮೆದುಳಿನ ಉದ್ಯಾನ)
ತರಬೇತಿ ಅವಧಿಗಳು ಗುರುತಿಸುವಿಕೆ ಅಂಗಡಿಯಲ್ಲಿನ ಸರಕುಗಳು (ಆದರೆ ನಾವು ಮಾಡಿದ ಎರಡು ಯೋಜನೆಗಳಲ್ಲಿ, ನಾವು ಅದನ್ನು ಇಲ್ಲದೆ ಸುಲಭವಾಗಿ ಮಾಡಿದ್ದೇವೆ).
ಟೆಸ್ಲಾದಲ್ಲಿ ತರಬೇತಿ (ಮತ್ತೆ, ಮೇಲಿನ ವೀಡಿಯೊ).
ಸಂಶೋಧನೆಗಳು
ಇಡೀ ಲೇಖನವು ಒಂದು ಅರ್ಥದಲ್ಲಿ, ತೀರ್ಮಾನಗಳು. ಬಹುಶಃ ನಾನು ಮಾಡಲು ಬಯಸಿದ ಮುಖ್ಯ ಸಂದೇಶವೆಂದರೆ "ಉಚಿತ ವಿಷಯಗಳು ಮುಗಿದಿವೆ, ನರಕೋಶಗಳು ಇನ್ನು ಮುಂದೆ ಸರಳ ಪರಿಹಾರಗಳನ್ನು ಒದಗಿಸುವುದಿಲ್ಲ." ಈಗ ನಾವು ಸಂಕೀರ್ಣ ನಿರ್ಧಾರಗಳನ್ನು ಮಾಡಲು ಕಷ್ಟಪಟ್ಟು ಕೆಲಸ ಮಾಡಬೇಕಾಗಿದೆ. ಅಥವಾ ಸಂಕೀರ್ಣವಾದ ವೈಜ್ಞಾನಿಕ ಸಂಶೋಧನೆಯನ್ನು ಮಾಡಲು ಕಷ್ಟಪಟ್ಟು ಕೆಲಸ ಮಾಡಿ.
ಸಾಮಾನ್ಯವಾಗಿ, ವಿಷಯವು ಚರ್ಚಾಸ್ಪದವಾಗಿದೆ. ಬಹುಶಃ ಓದುಗರಿಗೆ ಹೆಚ್ಚು ಆಸಕ್ತಿದಾಯಕ ಉದಾಹರಣೆಗಳಿವೆಯೇ?