ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆಯ ಪಕ್ಷಪಾತದ ಬಗ್ಗೆ

ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆಯ ಪಕ್ಷಪಾತದ ಬಗ್ಗೆ

tl; dr:

  • ಯಂತ್ರ ಕಲಿಕೆಯು ಡೇಟಾದಲ್ಲಿ ಮಾದರಿಗಳನ್ನು ಹುಡುಕುತ್ತದೆ. ಆದರೆ ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆಯನ್ನು "ಪಕ್ಷಪಾತ" ಮಾಡಬಹುದು - ಅಂದರೆ, ತಪ್ಪಾದ ಮಾದರಿಗಳನ್ನು ಕಂಡುಹಿಡಿಯಿರಿ. ಉದಾಹರಣೆಗೆ, ಫೋಟೋ ಆಧಾರಿತ ಚರ್ಮದ ಕ್ಯಾನ್ಸರ್ ಪತ್ತೆ ವ್ಯವಸ್ಥೆಯು ವೈದ್ಯರ ಕಛೇರಿಯಲ್ಲಿ ತೆಗೆದ ಚಿತ್ರಗಳಿಗೆ ವಿಶೇಷ ಗಮನವನ್ನು ನೀಡಬಹುದು. ಯಂತ್ರ ಕಲಿಕೆ ಸಾಧ್ಯವಿಲ್ಲ ಅರ್ಥಮಾಡಿಕೊಳ್ಳಲು: ಅದರ ಕ್ರಮಾವಳಿಗಳು ಕೇವಲ ಸಂಖ್ಯೆಯಲ್ಲಿ ನಮೂನೆಗಳನ್ನು ಪತ್ತೆ ಮಾಡುತ್ತದೆ, ಮತ್ತು ಡೇಟಾ ಪ್ರತಿನಿಧಿಸದಿದ್ದರೆ, ಅವುಗಳ ಸಂಸ್ಕರಣೆಯ ಫಲಿತಾಂಶವೂ ಇರುತ್ತದೆ. ಮತ್ತು ಯಂತ್ರ ಕಲಿಕೆಯ ಯಂತ್ರಶಾಸ್ತ್ರದ ಕಾರಣದಿಂದಾಗಿ ಅಂತಹ ದೋಷಗಳನ್ನು ಹಿಡಿಯುವುದು ಟ್ರಿಕಿ ಆಗಿರಬಹುದು.
  • ಅತ್ಯಂತ ಸ್ಪಷ್ಟ ಮತ್ತು ಭಯಾನಕ ಸಮಸ್ಯೆಯ ಪ್ರದೇಶವೆಂದರೆ ಮಾನವ ವೈವಿಧ್ಯತೆ. ಸಂಗ್ರಹಣೆಯ ಹಂತದಲ್ಲಿಯೂ ಸಹ ಜನರ ಬಗ್ಗೆ ಡೇಟಾ ವಸ್ತುನಿಷ್ಠತೆಯನ್ನು ಕಳೆದುಕೊಳ್ಳಲು ಹಲವು ಕಾರಣಗಳಿವೆ. ಆದರೆ ಈ ಸಮಸ್ಯೆಯು ಜನರಿಗೆ ಮಾತ್ರ ಸಂಬಂಧಿಸಿದೆ ಎಂದು ಯೋಚಿಸಬೇಡಿ: ಗೋದಾಮಿನಲ್ಲಿ ಅಥವಾ ವಿಫಲವಾದ ಗ್ಯಾಸ್ ಟರ್ಬೈನ್ನಲ್ಲಿ ಪ್ರವಾಹವನ್ನು ಕಂಡುಹಿಡಿಯಲು ಪ್ರಯತ್ನಿಸುವಾಗ ಅದೇ ತೊಂದರೆಗಳು ಉಂಟಾಗುತ್ತವೆ. ಕೆಲವು ವ್ಯವಸ್ಥೆಗಳು ಚರ್ಮದ ಬಣ್ಣದ ಬಗ್ಗೆ ಪೂರ್ವಾಗ್ರಹ ಹೊಂದಿರಬಹುದು, ಇತರವುಗಳು ಸೀಮೆನ್ಸ್ ಸಂವೇದಕಗಳ ವಿರುದ್ಧ ಪೂರ್ವಾಗ್ರಹವನ್ನು ಹೊಂದಿರಬಹುದು.
  • ಇಂತಹ ಸಮಸ್ಯೆಗಳು ಯಂತ್ರ ಕಲಿಕೆಗೆ ಹೊಸದಲ್ಲ, ಮತ್ತು ಇದು ವಿಶಿಷ್ಟತೆಯಿಂದ ದೂರವಿದೆ. ಯಾವುದೇ ಸಂಕೀರ್ಣ ರಚನೆಯಲ್ಲಿ ತಪ್ಪು ಊಹೆಗಳನ್ನು ಮಾಡಲಾಗುತ್ತದೆ ಮತ್ತು ನಿರ್ದಿಷ್ಟ ನಿರ್ಧಾರವನ್ನು ಏಕೆ ತೆಗೆದುಕೊಳ್ಳಲಾಗಿದೆ ಎಂಬುದನ್ನು ಅರ್ಥಮಾಡಿಕೊಳ್ಳುವುದು ಯಾವಾಗಲೂ ಕಷ್ಟಕರವಾಗಿರುತ್ತದೆ. ಇದನ್ನು ಸಮಗ್ರ ರೀತಿಯಲ್ಲಿ ನಿಭಾಯಿಸುವ ಅಗತ್ಯವಿದೆ: ಪರಿಶೀಲನೆಗಾಗಿ ಪರಿಕರಗಳು ಮತ್ತು ಪ್ರಕ್ರಿಯೆಗಳನ್ನು ರಚಿಸಿ - ಮತ್ತು AI ನ ಶಿಫಾರಸುಗಳನ್ನು ಕುರುಡಾಗಿ ಅನುಸರಿಸದಂತೆ ಬಳಕೆದಾರರಿಗೆ ಶಿಕ್ಷಣ ನೀಡಿ. ಯಂತ್ರ ಕಲಿಕೆಯು ಕೆಲವು ಕೆಲಸಗಳನ್ನು ನಾವು ಮಾಡುವುದಕ್ಕಿಂತ ಉತ್ತಮವಾಗಿ ಮಾಡುತ್ತದೆ, ಆದರೆ ನಾಯಿಗಳು, ಉದಾಹರಣೆಗೆ, ಮಾದಕ ದ್ರವ್ಯಗಳನ್ನು ಪತ್ತೆಹಚ್ಚುವಲ್ಲಿ ಮನುಷ್ಯರಿಗಿಂತ ಹೆಚ್ಚು ಪರಿಣಾಮಕಾರಿಯಾಗಿದೆ, ಇದು ಅವರನ್ನು ಸಾಕ್ಷಿಗಳಾಗಿ ಬಳಸಲು ಮತ್ತು ಅವರ ಸಾಕ್ಷ್ಯದ ಆಧಾರದ ಮೇಲೆ ವಾಕ್ಯಗಳನ್ನು ರವಾನಿಸಲು ಯಾವುದೇ ಕಾರಣವಲ್ಲ. ಮತ್ತು ನಾಯಿಗಳು, ಮೂಲಕ, ಯಾವುದೇ ಯಂತ್ರ ಕಲಿಕೆ ವ್ಯವಸ್ಥೆಗಿಂತ ಹೆಚ್ಚು ಚುರುಕಾದವು.

ಯಂತ್ರ ಕಲಿಕೆಯು ಇಂದಿನ ಪ್ರಮುಖ ಮೂಲಭೂತ ತಂತ್ರಜ್ಞಾನದ ಪ್ರವೃತ್ತಿಗಳಲ್ಲಿ ಒಂದಾಗಿದೆ. ಮುಂದಿನ ದಶಕದಲ್ಲಿ ತಂತ್ರಜ್ಞಾನವು ನಮ್ಮ ಸುತ್ತಲಿನ ಪ್ರಪಂಚವನ್ನು ಬದಲಾಯಿಸುವ ಪ್ರಮುಖ ಮಾರ್ಗಗಳಲ್ಲಿ ಒಂದಾಗಿದೆ. ಈ ಬದಲಾವಣೆಗಳ ಕೆಲವು ಅಂಶಗಳು ತೊಂದರೆದಾಯಕವಾಗಿವೆ. ಉದಾಹರಣೆಗೆ, ಕಾರ್ಮಿಕ ಮಾರುಕಟ್ಟೆಯಲ್ಲಿ ಯಂತ್ರ ಕಲಿಕೆಯ ಸಂಭಾವ್ಯ ಪರಿಣಾಮ, ಅಥವಾ ಅನೈತಿಕ ಉದ್ದೇಶಗಳಿಗಾಗಿ ಅದರ ಬಳಕೆ (ಉದಾಹರಣೆಗೆ, ನಿರಂಕುಶ ಆಡಳಿತಗಳಿಂದ). ಈ ಪೋಸ್ಟ್ ಕುರಿತು ಇನ್ನೊಂದು ಸಮಸ್ಯೆ ಇದೆ: ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ ಪಕ್ಷಪಾತ.

ಇದು ಸುಲಭದ ಕಥೆಯಲ್ಲ.

ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆಯ ಪಕ್ಷಪಾತದ ಬಗ್ಗೆ
Google ನಿಂದ AI ಬೆಕ್ಕುಗಳನ್ನು ಹುಡುಕಬಹುದು. 2012ರ ಈ ಸುದ್ದಿ ಅಂದು ವಿಶೇಷವಾಗಿತ್ತು.

"AI ಪಕ್ಷಪಾತ" ಎಂದರೇನು?

"ರಾ ಡೇಟಾ" ಒಂದು ಆಕ್ಸಿಮೋರಾನ್ ಮತ್ತು ಕೆಟ್ಟ ಕಲ್ಪನೆ; ಡೇಟಾವನ್ನು ಚೆನ್ನಾಗಿ ಮತ್ತು ಎಚ್ಚರಿಕೆಯಿಂದ ಸಿದ್ಧಪಡಿಸಬೇಕು. -ಜೆಫ್ರಿ ಬೋಕರ್

2013 ರ ಮೊದಲು, ಛಾಯಾಚಿತ್ರಗಳಲ್ಲಿ ಬೆಕ್ಕುಗಳನ್ನು ಗುರುತಿಸುವ ವ್ಯವಸ್ಥೆಯನ್ನು ಮಾಡಲು, ನೀವು ತಾರ್ಕಿಕ ಹಂತಗಳನ್ನು ವಿವರಿಸಬೇಕಾಗಿತ್ತು. ಚಿತ್ರದಲ್ಲಿ ಮೂಲೆಗಳನ್ನು ಹೇಗೆ ಕಂಡುಹಿಡಿಯುವುದು, ಕಣ್ಣುಗಳನ್ನು ಗುರುತಿಸುವುದು, ತುಪ್ಪಳಕ್ಕಾಗಿ ಟೆಕಶ್ಚರ್ಗಳನ್ನು ವಿಶ್ಲೇಷಿಸುವುದು, ಪಂಜಗಳನ್ನು ಎಣಿಸುವುದು ಮತ್ತು ಹೀಗೆ. ನಂತರ ಎಲ್ಲಾ ಘಟಕಗಳನ್ನು ಸಂಗ್ರಹಿಸಿ - ಮತ್ತು ಇದು ನಿಜವಾಗಿಯೂ ಕೆಲಸ ಮಾಡುವುದಿಲ್ಲ ಎಂದು ಕಂಡುಕೊಳ್ಳಿ. ಯಾಂತ್ರಿಕ ಕುದುರೆಯಂತೆ - ಸೈದ್ಧಾಂತಿಕವಾಗಿ ಇದನ್ನು ಮಾಡಬಹುದು, ಆದರೆ ಆಚರಣೆಯಲ್ಲಿ ಅದನ್ನು ವಿವರಿಸಲು ತುಂಬಾ ಜಟಿಲವಾಗಿದೆ. ಪರಿಣಾಮವಾಗಿ, ನೀವು ನೂರಾರು (ಅಥವಾ ಸಾವಿರಾರು) ಕೈಬರಹದ ನಿಯಮಗಳನ್ನು ಹೊಂದಿರುವಿರಿ. ಮತ್ತು ಒಂದೇ ಕೆಲಸ ಮಾಡೆಲ್ ಅಲ್ಲ.

ಯಂತ್ರ ಕಲಿಕೆಯ ಆಗಮನದೊಂದಿಗೆ, ನಾವು ವಸ್ತುವನ್ನು ಗುರುತಿಸಲು "ಹಸ್ತಚಾಲಿತ" ನಿಯಮಗಳನ್ನು ಬಳಸುವುದನ್ನು ನಿಲ್ಲಿಸಿದ್ದೇವೆ. ಬದಲಿಗೆ, ನಾವು "ಅದು", X, "ಇತರ" ಸಾವಿರ ಮಾದರಿಗಳನ್ನು ತೆಗೆದುಕೊಳ್ಳುತ್ತೇವೆ, Y, ಮತ್ತು ಕಂಪ್ಯೂಟರ್ ಅವರ ಅಂಕಿಅಂಶಗಳ ವಿಶ್ಲೇಷಣೆಯ ಆಧಾರದ ಮೇಲೆ ಮಾದರಿಯನ್ನು ನಿರ್ಮಿಸುತ್ತೇವೆ. ನಂತರ ನಾವು ಈ ಮಾದರಿಗೆ ಕೆಲವು ಮಾದರಿ ಡೇಟಾವನ್ನು ನೀಡುತ್ತೇವೆ ಮತ್ತು ಇದು ಸೆಟ್‌ಗಳಲ್ಲಿ ಒಂದಕ್ಕೆ ಸರಿಹೊಂದುತ್ತದೆಯೇ ಎಂದು ಕೆಲವು ನಿಖರವಾಗಿ ನಿರ್ಧರಿಸುತ್ತದೆ. ಯಂತ್ರ ಕಲಿಕೆಯು ದತ್ತಾಂಶದಿಂದ ಮಾದರಿಯನ್ನು ಉತ್ಪಾದಿಸುತ್ತದೆ, ಅದನ್ನು ಬರೆಯುವ ವ್ಯಕ್ತಿಯಿಂದ ಅಲ್ಲ. ಫಲಿತಾಂಶಗಳು ಪ್ರಭಾವಶಾಲಿಯಾಗಿವೆ, ವಿಶೇಷವಾಗಿ ಇಮೇಜ್ ಮತ್ತು ಪ್ಯಾಟರ್ನ್ ರೆಕಗ್ನಿಷನ್ ಕ್ಷೇತ್ರದಲ್ಲಿ, ಅದಕ್ಕಾಗಿಯೇ ಇಡೀ ಟೆಕ್ ಉದ್ಯಮವು ಈಗ ಯಂತ್ರ ಕಲಿಕೆಗೆ (ML) ಬದಲಾಗುತ್ತಿದೆ.

ಆದರೆ ಎಲ್ಲವೂ ಅಷ್ಟು ಸರಳವಲ್ಲ. ನೈಜ ಜಗತ್ತಿನಲ್ಲಿ, ನಿಮ್ಮ ಸಾವಿರಾರು ನಿದರ್ಶನಗಳ X ಅಥವಾ Y ಗಳು A, B, J, L, O, R, ಮತ್ತು L ಅನ್ನು ಸಹ ಒಳಗೊಂಡಿರುತ್ತವೆ. ಅವುಗಳು ಅಸಮಾನವಾಗಿ ಹಂಚಿಕೆಯಾಗಬಹುದು ಮತ್ತು ಅವುಗಳಲ್ಲಿ ಕೆಲವು ಆಗಾಗ್ಗೆ ಸಂಭವಿಸಬಹುದು ಮತ್ತು ಸಿಸ್ಟಮ್ ಪಾವತಿಸುತ್ತದೆ ನಿಮಗೆ ಆಸಕ್ತಿಯಿರುವ ವಸ್ತುಗಳಿಗಿಂತ ಅವರಿಗೆ ಹೆಚ್ಚು ಗಮನ ಕೊಡಿ.

ಆಚರಣೆಯಲ್ಲಿ ಇದರ ಅರ್ಥವೇನು? ನನ್ನ ನೆಚ್ಚಿನ ಉದಾಹರಣೆಯೆಂದರೆ ಚಿತ್ರ ಗುರುತಿಸುವಿಕೆ ವ್ಯವಸ್ಥೆಗಳು ಹುಲ್ಲಿನ ಬೆಟ್ಟವನ್ನು ನೋಡಿ "ಕುರಿ" ಎಂದು ಹೇಳಿ. ಏಕೆ ಎಂಬುದು ಸ್ಪಷ್ಟವಾಗಿದೆ: "ಕುರಿಗಳ" ಹೆಚ್ಚಿನ ಛಾಯಾಚಿತ್ರಗಳನ್ನು ಅವರು ವಾಸಿಸುವ ಹುಲ್ಲುಗಾವಲುಗಳಲ್ಲಿ ತೆಗೆದುಕೊಳ್ಳಲಾಗಿದೆ, ಮತ್ತು ಈ ಚಿತ್ರಗಳಲ್ಲಿ ಹುಲ್ಲು ಸ್ವಲ್ಪ ಬಿಳಿ ಅಸ್ಪಷ್ಟತೆಗಿಂತ ಹೆಚ್ಚು ಜಾಗವನ್ನು ತೆಗೆದುಕೊಳ್ಳುತ್ತದೆ ಮತ್ತು ಇದು ವ್ಯವಸ್ಥೆಯ ಹುಲ್ಲು. ಅತ್ಯಂತ ಪ್ರಮುಖವೆಂದು ಪರಿಗಣಿಸಲಾಗಿದೆ.

ಹೆಚ್ಚು ಗಂಭೀರ ಉದಾಹರಣೆಗಳಿವೆ. ಇತ್ತೀಚಿನ ಒಂದರಿಂದ ಡ್ರಾಫ್ಟ್ ಫೋಟೋಗಳಲ್ಲಿ ಚರ್ಮದ ಕ್ಯಾನ್ಸರ್ ಅನ್ನು ಪತ್ತೆಹಚ್ಚಲು. ರಚನೆಗಳ ಗಾತ್ರವನ್ನು ಸರಿಪಡಿಸಲು ಚರ್ಮರೋಗ ತಜ್ಞರು ಚರ್ಮದ ಕ್ಯಾನ್ಸರ್ನ ಅಭಿವ್ಯಕ್ತಿಗಳೊಂದಿಗೆ ಆಡಳಿತಗಾರನನ್ನು ಆಗಾಗ್ಗೆ ಛಾಯಾಚಿತ್ರ ಮಾಡುತ್ತಾರೆ ಎಂದು ಅದು ಬದಲಾಯಿತು. ಆರೋಗ್ಯಕರ ಚರ್ಮದ ಫೋಟೋಗಳ ಉದಾಹರಣೆಗಳಲ್ಲಿ ಯಾವುದೇ ಆಡಳಿತಗಾರರಿಲ್ಲ. AI ವ್ಯವಸ್ಥೆಗೆ ಸಂಬಂಧಿಸಿದಂತೆ, ಅಂತಹ ಆಡಳಿತಗಾರರು (ಹೆಚ್ಚು ನಿಖರವಾಗಿ, ನಾವು "ಆಡಳಿತಗಾರ" ಎಂದು ವ್ಯಾಖ್ಯಾನಿಸುವ ಪಿಕ್ಸೆಲ್‌ಗಳು) ಉದಾಹರಣೆಗಳ ಸೆಟ್‌ಗಳ ನಡುವಿನ ವ್ಯತ್ಯಾಸಗಳಲ್ಲಿ ಒಂದಾಗಿವೆ ಮತ್ತು ಕೆಲವೊಮ್ಮೆ ಚರ್ಮದ ಮೇಲೆ ಸಣ್ಣ ದದ್ದುಗಿಂತ ಹೆಚ್ಚು ಮುಖ್ಯವಾಗಿದೆ. ಆದ್ದರಿಂದ ಚರ್ಮದ ಕ್ಯಾನ್ಸರ್ ಅನ್ನು ಗುರುತಿಸಲು ವಿನ್ಯಾಸಗೊಳಿಸಲಾದ ವ್ಯವಸ್ಥೆಯು ಕೆಲವೊಮ್ಮೆ ಆಡಳಿತಗಾರರನ್ನು ಗುರುತಿಸುತ್ತದೆ.

ಇಲ್ಲಿರುವ ಪ್ರಮುಖ ಅಂಶವೆಂದರೆ ವ್ಯವಸ್ಥೆಯು ತಾನು ನೋಡುತ್ತಿರುವುದನ್ನು ಶಬ್ದಾರ್ಥದ ತಿಳುವಳಿಕೆಯನ್ನು ಹೊಂದಿಲ್ಲ. ನಾವು ಪಿಕ್ಸೆಲ್‌ಗಳ ಗುಂಪನ್ನು ನೋಡುತ್ತೇವೆ ಮತ್ತು ಅವುಗಳಲ್ಲಿ ಕುರಿ, ಚರ್ಮ ಅಥವಾ ಆಡಳಿತಗಾರರನ್ನು ನೋಡುತ್ತೇವೆ ಮತ್ತು ವ್ಯವಸ್ಥೆಯು ಕೇವಲ ಸಂಖ್ಯಾ ರೇಖೆಯಾಗಿದೆ. ಅವಳು ಮೂರು ಆಯಾಮದ ಜಾಗವನ್ನು ನೋಡುವುದಿಲ್ಲ, ಅವಳು ವಸ್ತುಗಳು, ಟೆಕಶ್ಚರ್ಗಳು ಅಥವಾ ಕುರಿಗಳನ್ನು ನೋಡುವುದಿಲ್ಲ. ಅವಳು ಡೇಟಾದಲ್ಲಿ ಮಾದರಿಗಳನ್ನು ನೋಡುತ್ತಾಳೆ.

ಅಂತಹ ಸಮಸ್ಯೆಗಳನ್ನು ನಿರ್ಣಯಿಸುವಲ್ಲಿನ ತೊಂದರೆ ಏನೆಂದರೆ, ನರಮಂಡಲವು (ನಿಮ್ಮ ಯಂತ್ರ ಕಲಿಕೆ ವ್ಯವಸ್ಥೆಯಿಂದ ಉತ್ಪತ್ತಿಯಾಗುವ ಮಾದರಿ) ಸಾವಿರಾರು ನೂರಾರು ಸಾವಿರ ನೋಡ್‌ಗಳನ್ನು ಒಳಗೊಂಡಿದೆ. ಮಾದರಿಯನ್ನು ನೋಡಲು ಮತ್ತು ಅದು ಹೇಗೆ ನಿರ್ಧಾರ ತೆಗೆದುಕೊಳ್ಳುತ್ತದೆ ಎಂಬುದನ್ನು ನೋಡಲು ಸುಲಭವಾದ ಮಾರ್ಗವಿಲ್ಲ. ಅಂತಹ ಮಾರ್ಗವನ್ನು ಹೊಂದಿರುವ ಪ್ರಕ್ರಿಯೆಯು ಯಂತ್ರ ಕಲಿಕೆಯ ಬಳಕೆಯಿಲ್ಲದೆ ಎಲ್ಲಾ ನಿಯಮಗಳನ್ನು ಹಸ್ತಚಾಲಿತವಾಗಿ ವಿವರಿಸಲು ಸಾಕಷ್ಟು ಸರಳವಾಗಿದೆ ಎಂದು ಅರ್ಥ. ಯಂತ್ರ ಕಲಿಕೆಯು ಕಪ್ಪು ಪೆಟ್ಟಿಗೆಯಾಗಿ ಮಾರ್ಪಟ್ಟಿದೆ ಎಂದು ಜನರು ಚಿಂತಿಸುತ್ತಾರೆ. (ಈ ಹೋಲಿಕೆ ಏಕೆ ಅತಿಯಾದದ್ದು ಎಂದು ನಾನು ನಂತರ ವಿವರಿಸುತ್ತೇನೆ.)

ಸಂಕ್ಷಿಪ್ತವಾಗಿ ಹೇಳುವುದಾದರೆ, ಇದು ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ ಅಥವಾ ಯಂತ್ರ ಕಲಿಕೆಯ ಪಕ್ಷಪಾತದ ಸಮಸ್ಯೆಯಾಗಿದೆ: ಡೇಟಾದಲ್ಲಿ ಮಾದರಿಗಳನ್ನು ಕಂಡುಹಿಡಿಯುವ ವ್ಯವಸ್ಥೆಯು ತಪ್ಪು ಮಾದರಿಗಳನ್ನು ಕಂಡುಹಿಡಿಯಬಹುದು ಮತ್ತು ನೀವು ಅದನ್ನು ಗಮನಿಸದೇ ಇರಬಹುದು. ಇದು ತಂತ್ರಜ್ಞಾನದ ಮೂಲಭೂತ ಲಕ್ಷಣವಾಗಿದೆ, ಮತ್ತು ಶೈಕ್ಷಣಿಕ ಮತ್ತು ದೊಡ್ಡ ತಂತ್ರಜ್ಞಾನ ಕಂಪನಿಗಳಲ್ಲಿ ಅದರೊಂದಿಗೆ ಕೆಲಸ ಮಾಡುವ ಪ್ರತಿಯೊಬ್ಬರಿಗೂ ಇದು ಸ್ಪಷ್ಟವಾಗಿದೆ. ಆದರೆ ಅದರ ಪರಿಣಾಮಗಳು ಸಂಕೀರ್ಣವಾಗಿವೆ, ಮತ್ತು ಆ ಪರಿಣಾಮಗಳಿಗೆ ನಮ್ಮ ಸಂಭವನೀಯ ಪರಿಹಾರಗಳು.

ಮೊದಲು ಪರಿಣಾಮಗಳ ಬಗ್ಗೆ ಮಾತನಾಡೋಣ.

ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆಯ ಪಕ್ಷಪಾತದ ಬಗ್ಗೆ
ಹೆಚ್ಚಿನ ಸಂಖ್ಯೆಯ ಅಗ್ರಾಹ್ಯ ಸಂಕೇತಗಳ ಆಧಾರದ ಮೇಲೆ ಕೆಲವು ವರ್ಗಗಳ ಜನರ ಪರವಾಗಿ AI ನಮಗೆ ಸೂಚ್ಯವಾಗಿ ಆಯ್ಕೆ ಮಾಡಬಹುದು

AI ಪಕ್ಷಪಾತ ಸನ್ನಿವೇಶಗಳು

ಅತ್ಯಂತ ನಿಸ್ಸಂಶಯವಾಗಿ ಮತ್ತು ಭಯಾನಕವಾಗಿ, ಮಾನವ ವೈವಿಧ್ಯತೆಗೆ ಬಂದಾಗ ಈ ಸಮಸ್ಯೆಯು ಸ್ವತಃ ಪ್ರಕಟವಾಗುತ್ತದೆ. ಇತ್ತೀಚೆಗೆ ಒಂದು ವದಂತಿ ಇತ್ತುಉದ್ಯೋಗ ಅರ್ಜಿದಾರರ ಆರಂಭಿಕ ಸ್ಕ್ರೀನಿಂಗ್‌ಗಾಗಿ ಅಮೆಜಾನ್ ಯಂತ್ರ ಕಲಿಕೆ ವ್ಯವಸ್ಥೆಯನ್ನು ನಿರ್ಮಿಸಲು ಪ್ರಯತ್ನಿಸಿದೆ. ಅಮೆಜಾನ್ ಉದ್ಯೋಗಿಗಳಲ್ಲಿ ಹೆಚ್ಚಿನ ಪುರುಷರು ಇರುವುದರಿಂದ, "ಯಶಸ್ವಿ ನೇಮಕ" ದ ಉದಾಹರಣೆಗಳು ಹೆಚ್ಚಾಗಿ ಪುರುಷರಾಗಿದ್ದಾರೆ ಮತ್ತು ಸಿಸ್ಟಮ್ ನೀಡುವ ರೆಸ್ಯೂಮ್‌ಗಳ ಆಯ್ಕೆಯಲ್ಲಿ ಹೆಚ್ಚಿನ ಪುರುಷರು ಇದ್ದರು. ಅಮೆಜಾನ್ ಇದನ್ನು ಗಮನಿಸಿತು ಮತ್ತು ವ್ಯವಸ್ಥೆಯನ್ನು ಉತ್ಪಾದನೆಗೆ ಬಿಡುಗಡೆ ಮಾಡಲಿಲ್ಲ.

ಬಹು ಮುಖ್ಯವಾಗಿ ಈ ಉದಾಹರಣೆಯಲ್ಲಿ, ರೆಸ್ಯೂಮ್‌ನಲ್ಲಿ ಲಿಂಗವನ್ನು ಪಟ್ಟಿ ಮಾಡದಿದ್ದರೂ ಸಹ, ವ್ಯವಸ್ಥೆಯು ಪುರುಷ ಅಭ್ಯರ್ಥಿಗಳಿಗೆ ಒಲವು ತೋರುತ್ತಿದೆ ಎಂದು ವದಂತಿಗಳಿವೆ. ವ್ಯವಸ್ಥೆಯು "ಉತ್ತಮ ನೇಮಕ" ದ ಉದಾಹರಣೆಗಳಲ್ಲಿ ಇತರ ಮಾದರಿಗಳನ್ನು ನೋಡಿದೆ: ಉದಾಹರಣೆಗೆ, ಮಹಿಳೆಯರು ಸಾಧನೆಗಳನ್ನು ವಿವರಿಸಲು ನಿರ್ದಿಷ್ಟ ಪದಗಳನ್ನು ಬಳಸಬಹುದು ಅಥವಾ ನಿರ್ದಿಷ್ಟ ಹವ್ಯಾಸಗಳನ್ನು ಹೊಂದಿರಬಹುದು. ಸಹಜವಾಗಿ, ವ್ಯವಸ್ಥೆಯು "ಹಾಕಿ" ಎಂದರೇನು, ಅಥವಾ "ಜನರು" ಯಾರು, ಅಥವಾ "ಯಶಸ್ಸು" ಎಂದರೇನು ಎಂದು ತಿಳಿದಿರಲಿಲ್ಲ - ಇದು ಕೇವಲ ಪಠ್ಯದ ಸಂಖ್ಯಾಶಾಸ್ತ್ರೀಯ ವಿಶ್ಲೇಷಣೆಯನ್ನು ನಡೆಸಿತು. ಆದರೆ ಅವಳು ನೋಡಿದ ಮಾದರಿಗಳು ವ್ಯಕ್ತಿಯ ಗಮನಕ್ಕೆ ಬರುವುದಿಲ್ಲ, ಮತ್ತು ಅವುಗಳಲ್ಲಿ ಕೆಲವು (ಉದಾಹರಣೆಗೆ, ವಿಭಿನ್ನ ಲಿಂಗಗಳ ಜನರು ಯಶಸ್ಸನ್ನು ವಿಭಿನ್ನವಾಗಿ ವಿವರಿಸುತ್ತಾರೆ) ಬಹುಶಃ ನಮಗೆ ನೋಡಲು ಕಷ್ಟವಾಗಬಹುದು, ಅವುಗಳನ್ನು ನೋಡುವುದು ಸಹ.

ಮತ್ತಷ್ಟು - ಕೆಟ್ಟದಾಗಿದೆ. ಮಸುಕಾದ ಚರ್ಮದ ಮೇಲೆ ಕ್ಯಾನ್ಸರ್ ಅನ್ನು ಕಂಡುಹಿಡಿಯುವಲ್ಲಿ ಉತ್ತಮವಾದ ಯಂತ್ರ ಕಲಿಕೆಯ ವ್ಯವಸ್ಥೆಯು ಕಪ್ಪು ಚರ್ಮದ ಮೇಲೆ ಉತ್ತಮವಾಗಿಲ್ಲದಿರಬಹುದು ಅಥವಾ ಪ್ರತಿಯಾಗಿ. ಪಕ್ಷಪಾತದ ಕಾರಣದಿಂದಾಗಿ ಅಗತ್ಯವಿಲ್ಲ, ಆದರೆ ನೀವು ಬಹುಶಃ ವಿಭಿನ್ನ ಚರ್ಮದ ಬಣ್ಣಕ್ಕಾಗಿ ಪ್ರತ್ಯೇಕ ಮಾದರಿಯನ್ನು ನಿರ್ಮಿಸಬೇಕಾಗಿರುವುದರಿಂದ, ವಿಭಿನ್ನ ಗುಣಲಕ್ಷಣಗಳನ್ನು ಆರಿಸಿಕೊಳ್ಳಬಹುದು. ಇಮೇಜ್ ಗುರುತಿಸುವಿಕೆಯಂತಹ ಕಿರಿದಾದ ಕ್ಷೇತ್ರದಲ್ಲಿಯೂ ಸಹ ಯಂತ್ರ ಕಲಿಕೆ ವ್ಯವಸ್ಥೆಗಳು ಪರಸ್ಪರ ಬದಲಾಯಿಸಲಾಗುವುದಿಲ್ಲ. ನೀವು ಬಯಸಿದ ನಿಖರತೆಯನ್ನು ಪಡೆಯುವವರೆಗೆ ನೀವು ಆಸಕ್ತಿ ಹೊಂದಿರುವ ಡೇಟಾದಲ್ಲಿನ ವೈಶಿಷ್ಟ್ಯಗಳನ್ನು ಗುರುತಿಸುವಲ್ಲಿ ಉತ್ತಮವಾಗಲು, ಕೆಲವೊಮ್ಮೆ ಪ್ರಯೋಗ ಮತ್ತು ದೋಷದ ಮೂಲಕ ನೀವು ಸಿಸ್ಟಮ್ ಅನ್ನು ಟ್ಯೂನ್ ಮಾಡಬೇಕಾಗುತ್ತದೆ. ನೀವು ಗಮನಿಸದೇ ಇರಬಹುದು, ಆದಾಗ್ಯೂ, ಸಿಸ್ಟಮ್ ಒಂದು ಗುಂಪಿನಲ್ಲಿ 98% ನಿಖರವಾಗಿದೆ ಮತ್ತು ಇನ್ನೊಂದು ಗುಂಪಿನಲ್ಲಿ ಕೇವಲ 91% (ಮಾನವ ವಿಶ್ಲೇಷಣೆಗಿಂತ ಹೆಚ್ಚು ನಿಖರವಾಗಿದೆ).

ಇಲ್ಲಿಯವರೆಗೆ, ನಾನು ಮುಖ್ಯವಾಗಿ ಜನರು ಮತ್ತು ಅವರ ಗುಣಲಕ್ಷಣಗಳಿಗೆ ಸಂಬಂಧಿಸಿದ ಉದಾಹರಣೆಗಳನ್ನು ಬಳಸಿದ್ದೇನೆ. ಈ ವಿಷಯವು ಈ ಸಮಸ್ಯೆಯ ಸುತ್ತ ಚರ್ಚೆಯ ಮುಖ್ಯ ಕೇಂದ್ರವಾಗಿದೆ. ಆದರೆ ಜನರ ವಿರುದ್ಧ ಪಕ್ಷಪಾತವು ಸಮಸ್ಯೆಯ ಭಾಗವಾಗಿದೆ ಎಂದು ಅರ್ಥಮಾಡಿಕೊಳ್ಳುವುದು ಬಹಳ ಮುಖ್ಯ. ನಾವು ಬಹಳಷ್ಟು ವಿಷಯಗಳಿಗೆ ಯಂತ್ರ ಕಲಿಕೆಯನ್ನು ಬಳಸುತ್ತೇವೆ ಮತ್ತು ಮಾದರಿ ದೋಷವು ಎಲ್ಲದಕ್ಕೂ ಪ್ರಸ್ತುತವಾಗಿರುತ್ತದೆ. ಮತ್ತೊಂದೆಡೆ, ನೀವು ಜನರೊಂದಿಗೆ ಕೆಲಸ ಮಾಡುತ್ತಿದ್ದರೆ, ಡೇಟಾ ಪಕ್ಷಪಾತವು ಅವರಿಗೆ ಸಂಬಂಧಿಸದಿರಬಹುದು.

ಇದನ್ನು ಅರ್ಥಮಾಡಿಕೊಳ್ಳಲು, ನಾವು ಚರ್ಮದ ಕ್ಯಾನ್ಸರ್ ಉದಾಹರಣೆಗೆ ಹಿಂತಿರುಗಿ ಮತ್ತು ಸಿಸ್ಟಮ್ ವೈಫಲ್ಯಕ್ಕೆ ಮೂರು ಕಾಲ್ಪನಿಕ ಸಾಧ್ಯತೆಗಳನ್ನು ಪರಿಗಣಿಸೋಣ.

  1. ಜನರ ವೈವಿಧ್ಯಮಯ ವಿತರಣೆ: ಚರ್ಮದ ಟೋನ್ಗಳ ಅಸಮತೋಲಿತ ಸಂಖ್ಯೆಯ ಛಾಯಾಚಿತ್ರಗಳು, ಪಿಗ್ಮೆಂಟೇಶನ್ಗೆ ಸಂಬಂಧಿಸಿದ ತಪ್ಪು ಧನಾತ್ಮಕ ಅಥವಾ ತಪ್ಪು ಋಣಾತ್ಮಕ ಫಲಿತಾಂಶಗಳಿಗೆ ಕಾರಣವಾಗುತ್ತದೆ.
  2. ಸಿಸ್ಟಮ್ ತರಬೇತಿ ಪಡೆದ ಡೇಟಾವು ಆಗಾಗ್ಗೆ ಸಂಭವಿಸುವ ಮತ್ತು ಏಕರೂಪವಾಗಿ ವಿತರಿಸದ ಗುಣಲಕ್ಷಣಗಳನ್ನು ಹೊಂದಿದೆ, ಅದು ಜನರೊಂದಿಗೆ ಸಂಬಂಧ ಹೊಂದಿಲ್ಲ ಮತ್ತು ಯಾವುದೇ ರೋಗನಿರ್ಣಯದ ಮೌಲ್ಯವನ್ನು ಹೊಂದಿಲ್ಲ: ಚರ್ಮದ ಕ್ಯಾನ್ಸರ್ ಅಭಿವ್ಯಕ್ತಿಗಳ ಛಾಯಾಚಿತ್ರಗಳಲ್ಲಿ ಆಡಳಿತಗಾರ, ಅಥವಾ ಕುರಿಗಳ ಛಾಯಾಚಿತ್ರಗಳಲ್ಲಿ ಹುಲ್ಲು. ಈ ಸಂದರ್ಭದಲ್ಲಿ, ಮಾನವನ ಕಣ್ಣು "ಆಡಳಿತಗಾರ" ಎಂದು ವ್ಯಾಖ್ಯಾನಿಸುವ ಯಾವುದಾದರೂ ಚಿತ್ರದಲ್ಲಿ ಸಿಸ್ಟಮ್ ಪಿಕ್ಸೆಲ್‌ಗಳನ್ನು ಕಂಡುಕೊಂಡರೆ ಫಲಿತಾಂಶವು ವಿಭಿನ್ನವಾಗಿರುತ್ತದೆ.
  3. ಡೇಟಾವು ಮೂರನೇ ವ್ಯಕ್ತಿಯ ಗುಣಲಕ್ಷಣವನ್ನು ಹೊಂದಿದೆ, ಒಬ್ಬ ವ್ಯಕ್ತಿಯು ಅದನ್ನು ಹುಡುಕಿದರೂ ಸಹ ಅದನ್ನು ನೋಡಲಾಗುವುದಿಲ್ಲ.

ಅದರ ಅರ್ಥವೇನು? ಡೇಟಾವು ವಿಭಿನ್ನ ಜನರ ಗುಂಪುಗಳನ್ನು ವಿಭಿನ್ನ ರೀತಿಯಲ್ಲಿ ಪ್ರತಿನಿಧಿಸುತ್ತದೆ ಎಂಬ ಪೂರ್ವಭಾವಿ ನಮಗೆ ತಿಳಿದಿದೆ ಮತ್ತು ಕನಿಷ್ಠ ಅಂತಹ ವಿನಾಯಿತಿಗಳನ್ನು ಕಂಡುಹಿಡಿಯಲು ನಾವು ಯೋಜಿಸಬಹುದು. ಬೇರೆ ರೀತಿಯಲ್ಲಿ ಹೇಳುವುದಾದರೆ, ಜನರ ಗುಂಪುಗಳಲ್ಲಿನ ಡೇಟಾವು ಈಗಾಗಲೇ ಕೆಲವು ಪಕ್ಷಪಾತವನ್ನು ಹೊಂದಿದೆ ಎಂದು ಊಹಿಸಲು ಸಾಕಷ್ಟು ಸಾಮಾಜಿಕ ಕಾರಣಗಳಿವೆ. ದೊರೆ ಜೊತೆಗಿರುವ ಫೋಟೊ ನೋಡಿದರೆ ಈ ದೊರೆ ಕಾಣುತ್ತೇವೆ- ಮೊದಲು ಸುಮ್ಮನೆ ನಿರ್ಲಕ್ಷಿಸಿದ್ದೇವೆ, ಪರವಾಗಿಲ್ಲ ಎಂದು ತಿಳಿದು ವ್ಯವಸ್ಥೆಗೆ ಏನೂ ಗೊತ್ತಿಲ್ಲ ಎಂದು ಮರೆತುಬಿಡುತ್ತೇವೆ.

ಆದರೆ ನಿಮ್ಮ ಅನಾರೋಗ್ಯಕರ ಚರ್ಮದ ಎಲ್ಲಾ ಫೋಟೋಗಳನ್ನು ಪ್ರಕಾಶಮಾನ ದೀಪಗಳೊಂದಿಗೆ ಕಚೇರಿಯಲ್ಲಿ ತೆಗೆದರೆ ಮತ್ತು ಆರೋಗ್ಯಕರ ಚರ್ಮವನ್ನು ಪ್ರತಿದೀಪಕ ಬೆಳಕಿನಲ್ಲಿ ತೆಗೆದುಕೊಂಡರೆ ಏನು? ನೀವು ಆರೋಗ್ಯಕರ ಚರ್ಮವನ್ನು ಚಿತ್ರೀಕರಿಸಿದ ನಂತರ, ಅನಾರೋಗ್ಯಕರ ಚರ್ಮವನ್ನು ಚಿತ್ರೀಕರಿಸುವ ಮೊದಲು, ನಿಮ್ಮ ಫೋನ್‌ನಲ್ಲಿ ಆಪರೇಟಿಂಗ್ ಸಿಸ್ಟಮ್ ಅನ್ನು ನೀವು ನವೀಕರಿಸಿದರೆ ಮತ್ತು ಆಪಲ್ ಅಥವಾ ಗೂಗಲ್ ಶಬ್ದ ಕಡಿತ ಅಲ್ಗಾರಿದಮ್ ಅನ್ನು ಸ್ವಲ್ಪಮಟ್ಟಿಗೆ ಬದಲಾಯಿಸಿದರೆ ಏನು? ಅಂತಹ ವೈಶಿಷ್ಟ್ಯಗಳಿಗಾಗಿ ಅವನು ಎಷ್ಟು ಹುಡುಕಿದರೂ ಒಬ್ಬ ವ್ಯಕ್ತಿಯು ಇದನ್ನು ಗಮನಿಸುವುದಿಲ್ಲ. ಮತ್ತು ಇಲ್ಲಿ ಯಂತ್ರ ಬಳಕೆಯ ವ್ಯವಸ್ಥೆಯು ತಕ್ಷಣವೇ ಅದನ್ನು ನೋಡುತ್ತದೆ ಮತ್ತು ಬಳಸುತ್ತದೆ. ಅವಳಿಗೆ ಏನೂ ಗೊತ್ತಿಲ್ಲ.

ಇಲ್ಲಿಯವರೆಗೆ ನಾವು ನಕಲಿ ಪರಸ್ಪರ ಸಂಬಂಧಗಳ ಬಗ್ಗೆ ಮಾತನಾಡಿದ್ದೇವೆ, ಆದರೆ ಡೇಟಾವು ನಿಖರವಾಗಿದೆ ಮತ್ತು ಫಲಿತಾಂಶಗಳು ಸರಿಯಾಗಿರಬಹುದು, ಆದರೆ ನೈತಿಕ, ಕಾನೂನು ಅಥವಾ ವ್ಯವಸ್ಥಾಪಕ ಕಾರಣಗಳಿಗಾಗಿ ನೀವು ಅವುಗಳನ್ನು ಬಳಸಲು ಬಯಸುವುದಿಲ್ಲ. ಕೆಲವು ನ್ಯಾಯವ್ಯಾಪ್ತಿಗಳಲ್ಲಿ, ಉದಾಹರಣೆಗೆ, ಮಹಿಳೆಯರು ಸುರಕ್ಷಿತ ಚಾಲಕರಾಗಿದ್ದರೂ ಸಹ ಮಹಿಳೆಯರಿಗೆ ವಿಮೆಯ ಮೇಲೆ ರಿಯಾಯಿತಿಯನ್ನು ನೀಡಲಾಗುವುದಿಲ್ಲ. ಐತಿಹಾಸಿಕ ಡೇಟಾವನ್ನು ವಿಶ್ಲೇಷಿಸುವಾಗ, ಸ್ತ್ರೀ ಹೆಸರುಗಳಿಗೆ ಕಡಿಮೆ ಅಪಾಯಕಾರಿ ಅಂಶವನ್ನು ನಿಯೋಜಿಸುವ ವ್ಯವಸ್ಥೆಯನ್ನು ನಾವು ಸುಲಭವಾಗಿ ಊಹಿಸಬಹುದು. ಸರಿ, ಆಯ್ಕೆಯಿಂದ ಹೆಸರುಗಳನ್ನು ತೆಗೆದುಹಾಕೋಣ. ಆದರೆ ಅಮೆಜಾನ್ ಉದಾಹರಣೆಯನ್ನು ನೆನಪಿಡಿ: ವ್ಯವಸ್ಥೆಯು ಇತರ ಅಂಶಗಳಿಂದ ಲಿಂಗವನ್ನು ನಿರ್ಧರಿಸುತ್ತದೆ (ಲಿಂಗ ಎಂದರೇನು ಮತ್ತು ಕಾರು ಯಾವುದು ಎಂದು ತಿಳಿದಿಲ್ಲದಿದ್ದರೂ ಸಹ), ಮತ್ತು ನಿಯಂತ್ರಕವು ನಿಮ್ಮ ಪ್ರಸ್ತಾವಿತ ದರಗಳನ್ನು ಪೂರ್ವಾನ್ವಯವಾಗಿ ವಿಶ್ಲೇಷಿಸುವವರೆಗೆ ಮತ್ತು ಸಂಗ್ರಹಿಸುವವರೆಗೆ ನೀವು ಇದನ್ನು ಗಮನಿಸುವುದಿಲ್ಲ. ನಿಮ್ಮಿಂದ ಚೆನ್ನಾಗಿದೆ.

ಅಂತಿಮವಾಗಿ, ನಾವು ಅಂತಹ ವ್ಯವಸ್ಥೆಗಳನ್ನು ಜನರು ಮತ್ತು ಸಾಮಾಜಿಕ ಸಂವಹನಗಳನ್ನು ಒಳಗೊಂಡಿರುವ ಯೋಜನೆಗಳಿಗೆ ಮಾತ್ರ ಬಳಸುತ್ತೇವೆ ಎಂದು ಸೂಚಿಸಲಾಗಿದೆ. ಇದು ತಪ್ಪು. ನೀವು ಗ್ಯಾಸ್ ಟರ್ಬೈನ್‌ಗಳನ್ನು ನಿರ್ಮಿಸುತ್ತಿದ್ದರೆ, ನಿಮ್ಮ ಉತ್ಪನ್ನದ ಮೇಲೆ ಡಜನ್ ಅಥವಾ ನೂರಾರು ಸಂವೇದಕಗಳಿಂದ ಟೆಲಿಮೆಟ್ರಿಗೆ ಯಂತ್ರ ಕಲಿಕೆಯನ್ನು ಅನ್ವಯಿಸಲು ನೀವು ಬಹುಶಃ ಬಯಸುತ್ತೀರಿ (ಆಡಿಯೋ, ವಿಡಿಯೋ, ತಾಪಮಾನ ಮತ್ತು ಡೇಟಾವನ್ನು ಉತ್ಪಾದಿಸುವ ಯಾವುದೇ ಸಂವೇದಕಗಳು. ಯಂತ್ರ ಕಲಿಕೆಯ ಮಾದರಿಯನ್ನು ರಚಿಸಿ). ಕಾಲ್ಪನಿಕವಾಗಿ, ನೀವು ಹೀಗೆ ಹೇಳಬಹುದು: “ಒಂದು ಸಾವಿರ ವಿಫಲ ಟರ್ಬೈನ್‌ಗಳು ವಿಫಲಗೊಳ್ಳುವ ಮೊದಲು ಅವುಗಳಿಗೆ ಡೇಟಾ ಇಲ್ಲಿದೆ ಮತ್ತು ಒಡೆಯದ ಸಾವಿರ ಟರ್ಬೈನ್‌ಗಳ ಡೇಟಾ ಇಲ್ಲಿದೆ. ಅವುಗಳ ನಡುವಿನ ವ್ಯತ್ಯಾಸವೇನು ಎಂದು ಹೇಳಲು ಒಂದು ಮಾದರಿಯನ್ನು ನಿರ್ಮಿಸಿ. ಸರಿ, ಈಗ ಸೀಮೆನ್ಸ್ ಸಂವೇದಕಗಳನ್ನು 75% ಕೆಟ್ಟ ಟರ್ಬೈನ್ಗಳಲ್ಲಿ ಸ್ಥಾಪಿಸಲಾಗಿದೆ ಎಂದು ಊಹಿಸಿ, ಮತ್ತು ಕೇವಲ 12% ಉತ್ತಮವಾದವುಗಳಲ್ಲಿ (ವೈಫಲ್ಯಗಳೊಂದಿಗೆ ಯಾವುದೇ ಸಂಪರ್ಕವಿಲ್ಲ). ಸೀಮೆನ್ಸ್ ಸಂವೇದಕಗಳೊಂದಿಗೆ ಟರ್ಬೈನ್‌ಗಳನ್ನು ಹುಡುಕಲು ಸಿಸ್ಟಮ್ ಒಂದು ಮಾದರಿಯನ್ನು ನಿರ್ಮಿಸುತ್ತದೆ. ಅಯ್ಯೋ!

ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆಯ ಪಕ್ಷಪಾತದ ಬಗ್ಗೆ
ಚಿತ್ರ - ಮೊರಿಟ್ಜ್ ಹಾರ್ಡ್ಟ್, ಯುಸಿ ಬರ್ಕ್ಲಿ

AI ಪಕ್ಷಪಾತವನ್ನು ನಿರ್ವಹಿಸುವುದು

ನಾವು ಅದರ ಬಗ್ಗೆ ಏನು ಮಾಡಬಹುದು? ನೀವು ಸಮಸ್ಯೆಯನ್ನು ಮೂರು ಕೋನಗಳಿಂದ ಸಂಪರ್ಕಿಸಬಹುದು:

  1. ಸಿಸ್ಟಮ್ ತರಬೇತಿಗಾಗಿ ಡೇಟಾವನ್ನು ಸಂಗ್ರಹಿಸುವ ಮತ್ತು ನಿರ್ವಹಿಸುವಲ್ಲಿ ಕ್ರಮಶಾಸ್ತ್ರೀಯ ಕಠಿಣತೆ.
  2. ಮಾದರಿಯ ನಡವಳಿಕೆಯನ್ನು ವಿಶ್ಲೇಷಿಸಲು ಮತ್ತು ನಿರ್ಣಯಿಸಲು ತಾಂತ್ರಿಕ ಉಪಕರಣಗಳು.
  3. ಯಂತ್ರ ಕಲಿಕೆಯನ್ನು ಉತ್ಪನ್ನಗಳಾಗಿ ಅಳವಡಿಸುವಾಗ ತರಬೇತಿ, ಕಲಿಕೆ ಮತ್ತು ಎಚ್ಚರಿಕೆ.

ಮೋಲಿಯೆರ್ ಅವರ ಪುಸ್ತಕದಲ್ಲಿ ಒಂದು ತಮಾಷೆ ಇದೆ: "ದ ಬೂರ್ಜ್ವಾ ಇನ್ ದಿ ನೋಬಿಲಿಟಿ": ಒಬ್ಬ ವ್ಯಕ್ತಿಗೆ ಸಾಹಿತ್ಯವನ್ನು ಗದ್ಯ ಮತ್ತು ಕವಿತೆಗಳಾಗಿ ವಿಂಗಡಿಸಲಾಗಿದೆ ಎಂದು ಹೇಳಲಾಯಿತು, ಮತ್ತು ಅವನು ತನ್ನ ಜೀವನದುದ್ದಕ್ಕೂ ಅವನಿಗೆ ತಿಳಿಯದೆ ಗದ್ಯವನ್ನು ಮಾತನಾಡುತ್ತಿದ್ದಾನೆ ಎಂದು ಮೆಚ್ಚುಗೆಯಿಂದ ಕಂಡುಹಿಡಿದನು. ಇದು ಬಹುಶಃ ಇಂದು ಸಂಖ್ಯಾಶಾಸ್ತ್ರಜ್ಞರು ಹೇಗೆ ಭಾವಿಸುತ್ತಾರೆ: ಅದನ್ನು ಗಮನಿಸದೆ, ಅವರು ತಮ್ಮ ವೃತ್ತಿಜೀವನವನ್ನು ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ ಮತ್ತು ಮಾದರಿ ದೋಷಕ್ಕೆ ಮೀಸಲಿಟ್ಟಿದ್ದಾರೆ. ಮಾದರಿ ದೋಷವನ್ನು ಹುಡುಕುವುದು ಮತ್ತು ಅದರ ಬಗ್ಗೆ ಚಿಂತಿಸುವುದು ಹೊಸ ಸಮಸ್ಯೆಯಲ್ಲ, ನಾವು ಅದನ್ನು ವ್ಯವಸ್ಥಿತವಾಗಿ ಸಮೀಪಿಸಬೇಕಾಗಿದೆ. ಮೇಲೆ ಹೇಳಿದಂತೆ, ಕೆಲವು ಸಂದರ್ಭಗಳಲ್ಲಿ ಜನರ ಡೇಟಾದ ಸುತ್ತಲಿನ ಸಮಸ್ಯೆಗಳನ್ನು ನೋಡುವ ಮೂಲಕ ಇದನ್ನು ಮಾಡಲು ನಿಜವಾಗಿಯೂ ಸುಲಭವಾಗಿದೆ. ನಾವು ವಿವಿಧ ಗುಂಪುಗಳ ಜನರ ಬಗ್ಗೆ ಪೂರ್ವಾಗ್ರಹಗಳನ್ನು ಹೊಂದಿರಬಹುದು ಎಂದು ನಾವು ಪೂರ್ವಭಾವಿಯಾಗಿ ಊಹಿಸುತ್ತೇವೆ, ಆದರೆ ಸೀಮೆನ್ಸ್ ಸಂವೇದಕಗಳ ಬಗ್ಗೆ ಪೂರ್ವಾಗ್ರಹವನ್ನು ಕಲ್ಪಿಸುವುದು ಸಹ ನಮಗೆ ಕಷ್ಟ.

ಈ ಎಲ್ಲದರ ಬಗ್ಗೆ ಹೊಸ ವಿಷಯವೆಂದರೆ, ಜನರು ಇನ್ನು ಮುಂದೆ ಅಂಕಿಅಂಶಗಳ ವಿಶ್ಲೇಷಣೆಯನ್ನು ನೇರವಾಗಿ ಮಾಡುವುದಿಲ್ಲ. ಅರ್ಥಮಾಡಿಕೊಳ್ಳಲು ಕಷ್ಟಕರವಾದ ದೊಡ್ಡ ಸಂಕೀರ್ಣ ಮಾದರಿಗಳನ್ನು ರಚಿಸುವ ಯಂತ್ರಗಳಿಂದ ಇದನ್ನು ನಡೆಸಲಾಗುತ್ತದೆ. ಪಾರದರ್ಶಕತೆಯ ಸಮಸ್ಯೆಯು ಪಕ್ಷಪಾತದ ಸಮಸ್ಯೆಯ ಮುಖ್ಯ ಅಂಶಗಳಲ್ಲಿ ಒಂದಾಗಿದೆ. ವ್ಯವಸ್ಥೆಯು ಕೇವಲ ಪಕ್ಷಪಾತವಲ್ಲ, ಆದರೆ ಅದರ ಪಕ್ಷಪಾತವನ್ನು ಪತ್ತೆಹಚ್ಚಲು ಯಾವುದೇ ಮಾರ್ಗವಿಲ್ಲ ಎಂದು ನಾವು ಹೆದರುತ್ತೇವೆ ಮತ್ತು ಯಂತ್ರ ಕಲಿಕೆಯು ಇತರ ರೀತಿಯ ಯಾಂತ್ರೀಕೃತಗೊಂಡ ವಿಧಾನಗಳಿಂದ ಭಿನ್ನವಾಗಿದೆ, ಇದು ಪರಿಶೀಲಿಸಬಹುದಾದ ಸ್ಪಷ್ಟ ತಾರ್ಕಿಕ ಹಂತಗಳನ್ನು ಒಳಗೊಂಡಿರುತ್ತದೆ ಎಂದು ಭಾವಿಸಲಾಗಿದೆ.

ಇಲ್ಲಿ ಎರಡು ಸಮಸ್ಯೆಗಳಿವೆ. ನಾವು ಇನ್ನೂ ಕೆಲವು ರೀತಿಯ ಯಂತ್ರ ಕಲಿಕೆ ವ್ಯವಸ್ಥೆಗಳ ಲೆಕ್ಕಪರಿಶೋಧನೆ ನಡೆಸಲು ಸಾಧ್ಯವಾಗಬಹುದು. ಮತ್ತು ಬೇರೆ ಯಾವುದೇ ವ್ಯವಸ್ಥೆಯನ್ನು ಲೆಕ್ಕಪರಿಶೋಧಿಸುವುದು ನಿಜವಾಗಿಯೂ ಸುಲಭವಲ್ಲ.

ಮೊದಲನೆಯದಾಗಿ, ಯಂತ್ರ ಕಲಿಕೆಯ ಕ್ಷೇತ್ರದಲ್ಲಿ ಆಧುನಿಕ ಸಂಶೋಧನೆಯ ನಿರ್ದೇಶನಗಳಲ್ಲಿ ಒಂದು ಯಂತ್ರ ಕಲಿಕೆ ವ್ಯವಸ್ಥೆಗಳ ಪ್ರಮುಖ ಕಾರ್ಯವನ್ನು ಹೇಗೆ ಗುರುತಿಸುವುದು ಎಂಬುದರ ವಿಧಾನಗಳ ಹುಡುಕಾಟವಾಗಿದೆ. ಅದೇ ಸಮಯದಲ್ಲಿ, ಯಂತ್ರ ಕಲಿಕೆ (ಅದರ ಪ್ರಸ್ತುತ ಸ್ಥಿತಿಯಲ್ಲಿ) ವಿಜ್ಞಾನದ ಸಂಪೂರ್ಣ ಹೊಸ ಕ್ಷೇತ್ರವಾಗಿದ್ದು ಅದು ವೇಗವಾಗಿ ಬದಲಾಗುತ್ತಿದೆ, ಆದ್ದರಿಂದ ಇಂದು ಅಸಾಧ್ಯವಾದ ವಿಷಯಗಳು ಶೀಘ್ರದಲ್ಲೇ ನಿಜವಾಗಲು ಸಾಧ್ಯವಿಲ್ಲ ಎಂದು ಯೋಚಿಸಬೇಡಿ. ಯೋಜನೆ ಓಪನ್ಎಐ ಇದಕ್ಕೆ ಒಂದು ಕುತೂಹಲಕಾರಿ ಉದಾಹರಣೆಯಾಗಿದೆ.

ಎರಡನೆಯದಾಗಿ, ಅಸ್ತಿತ್ವದಲ್ಲಿರುವ ವ್ಯವಸ್ಥೆಗಳು ಅಥವಾ ಸಂಸ್ಥೆಗಳಲ್ಲಿ ನಿರ್ಧಾರ ತೆಗೆದುಕೊಳ್ಳುವ ಪ್ರಕ್ರಿಯೆಯನ್ನು ಪರೀಕ್ಷಿಸಲು ಮತ್ತು ಅರ್ಥಮಾಡಿಕೊಳ್ಳಲು ಸಾಧ್ಯವಿದೆ ಎಂಬ ಕಲ್ಪನೆಯು ಸಿದ್ಧಾಂತದಲ್ಲಿ ಒಳ್ಳೆಯದು, ಆದರೆ ಆಚರಣೆಯಲ್ಲಿ. ದೊಡ್ಡ ಸಂಸ್ಥೆಯಲ್ಲಿ ಹೇಗೆ ನಿರ್ಧಾರಗಳನ್ನು ತೆಗೆದುಕೊಳ್ಳಲಾಗುತ್ತದೆ ಎಂಬುದನ್ನು ಅರ್ಥಮಾಡಿಕೊಳ್ಳುವುದು ಸುಲಭವಲ್ಲ. ಔಪಚಾರಿಕ ನಿರ್ಧಾರ ತೆಗೆದುಕೊಳ್ಳುವ ಪ್ರಕ್ರಿಯೆ ಇದ್ದರೂ ಸಹ, ಜನರು ನಿಜವಾಗಿ ಹೇಗೆ ಸಂವಹನ ನಡೆಸುತ್ತಾರೆ ಎಂಬುದನ್ನು ಇದು ಪ್ರತಿಬಿಂಬಿಸುವುದಿಲ್ಲ ಮತ್ತು ಅವರು ತಮ್ಮ ನಿರ್ಧಾರಗಳನ್ನು ತೆಗೆದುಕೊಳ್ಳಲು ತಾರ್ಕಿಕ, ವ್ಯವಸ್ಥಿತ ವಿಧಾನವನ್ನು ಹೊಂದಿರುವುದಿಲ್ಲ. ನನ್ನ ಸಹೋದ್ಯೋಗಿ ಹೇಳಿದಂತೆ ವಿಜಯ್ ಪಾಂಡೆ, ಜನರು ಕೂಡ ಕಪ್ಪು ಪೆಟ್ಟಿಗೆಗಳು.

ಹಲವಾರು ಅತಿಕ್ರಮಿಸುವ ಕಂಪನಿಗಳು ಮತ್ತು ಸಂಸ್ಥೆಗಳಲ್ಲಿ ಸಾವಿರ ಜನರನ್ನು ತೆಗೆದುಕೊಳ್ಳಿ ಮತ್ತು ಸಮಸ್ಯೆ ಇನ್ನಷ್ಟು ಕಷ್ಟಕರವಾಗುತ್ತದೆ. ಬಾಹ್ಯಾಕಾಶ ನೌಕೆಯು ಮರುಪ್ರವೇಶದ ಮೇಲೆ ಬೀಳಲು ಉದ್ದೇಶಿಸಲಾಗಿದೆ ಎಂಬ ಅಂಶದ ನಂತರ ನಮಗೆ ತಿಳಿದಿದೆ, ಮತ್ತು NASA ನಲ್ಲಿರುವ ವ್ಯಕ್ತಿಗಳು ಏನಾದರೂ ಕೆಟ್ಟದಾಗಿ ಸಂಭವಿಸಬಹುದು ಎಂದು ನಂಬಲು ಕಾರಣವಾದ ಮಾಹಿತಿಯನ್ನು ಹೊಂದಿದ್ದರು, ಆದರೆ ಸಿಸ್ಟಮ್ ಸಾಮಾನ್ಯವಾಗಿ ಅದು ತಿಳಿದಿರಲಿಲ್ಲ. ಹಿಂದಿನ ನೌಕೆಯನ್ನು ಕಳೆದುಕೊಂಡ ನಂತರ ನಾಸಾ ಸಹ ಇದೇ ರೀತಿಯ ಲೆಕ್ಕಪರಿಶೋಧನೆಯನ್ನು ಅಂಗೀಕರಿಸಿದೆ, ಮತ್ತು ಅದು ಇನ್ನೊಂದನ್ನು ಕಳೆದುಕೊಂಡಿತು - ಇದೇ ಕಾರಣಕ್ಕಾಗಿ. ಸಂಸ್ಥೆಗಳು ಮತ್ತು ಜನರು ಸ್ಪಷ್ಟ ತಾರ್ಕಿಕ ನಿಯಮಗಳನ್ನು ಅನುಸರಿಸುತ್ತಾರೆ ಎಂದು ವಾದಿಸುವುದು ಸುಲಭ, ಅದನ್ನು ಪರೀಕ್ಷಿಸಬಹುದು, ಅರ್ಥಮಾಡಿಕೊಳ್ಳಬಹುದು ಮತ್ತು ಬದಲಾಯಿಸಬಹುದು - ಆದರೆ ಅನುಭವವು ಬೇರೆ ರೀತಿಯಲ್ಲಿ ಸಾಬೀತುಪಡಿಸುತ್ತದೆ. ಈ "ರಾಜ್ಯ ಯೋಜನಾ ಸಮಿತಿಯ ಭ್ರಮೆ».

ನಾನು ಆಗಾಗ್ಗೆ ಯಂತ್ರ ಕಲಿಕೆಯನ್ನು ಡೇಟಾಬೇಸ್‌ಗಳಿಗೆ, ವಿಶೇಷವಾಗಿ ಸಂಬಂಧಿತ ಡೇಟಾಬೇಸ್‌ಗಳಿಗೆ ಹೋಲಿಸುತ್ತೇನೆ, ಇದು ಕಂಪ್ಯೂಟರ್ ವಿಜ್ಞಾನದ ಸಾಧ್ಯತೆಗಳನ್ನು ಮತ್ತು ಅದರ ಸುತ್ತಲಿನ ಪ್ರಪಂಚದ ಸಾಧ್ಯತೆಗಳನ್ನು ಬದಲಾಯಿಸಿದ ಹೊಸ ಮೂಲಭೂತ ತಂತ್ರಜ್ಞಾನವಾಗಿದೆ, ಇದು ನಾವು ಅರಿತುಕೊಳ್ಳದೆ ನಿರಂತರವಾಗಿ ಬಳಸುವ ಎಲ್ಲದರ ಭಾಗವಾಗಿದೆ. ಡೇಟಾಬೇಸ್‌ಗಳು ಸಹ ಸಮಸ್ಯೆಗಳನ್ನು ಹೊಂದಿವೆ, ಮತ್ತು ಅವುಗಳು ಹೋಲುತ್ತವೆ: ಸಿಸ್ಟಮ್ ಅನ್ನು ತಪ್ಪು ಊಹೆಗಳು ಅಥವಾ ಕೆಟ್ಟ ಡೇಟಾದ ಮೇಲೆ ನಿರ್ಮಿಸಬಹುದು, ಆದರೆ ಅದನ್ನು ಗಮನಿಸುವುದು ಕಷ್ಟ, ಮತ್ತು ಸಿಸ್ಟಮ್ ಅನ್ನು ಬಳಸುವ ಜನರು ಪ್ರಶ್ನೆಗಳನ್ನು ಕೇಳದೆಯೇ ಅದನ್ನು ಮಾಡಲು ಹೇಳುವುದನ್ನು ಮಾಡುತ್ತಾರೆ. ನಿಮ್ಮ ಹೆಸರನ್ನು ತಪ್ಪಾಗಿ ಬರೆಯುವ ತೆರಿಗೆ ಅಧಿಕಾರಿಗಳ ಬಗ್ಗೆ ಬಹಳಷ್ಟು ಹಳೆಯ ಜೋಕ್‌ಗಳಿವೆ ಮತ್ತು ತಪ್ಪನ್ನು ಸರಿಪಡಿಸಲು ಅವರಿಗೆ ಮನವರಿಕೆ ಮಾಡುವುದು ನಿಮ್ಮ ಹೆಸರನ್ನು ಬದಲಾಯಿಸುವುದಕ್ಕಿಂತ ತುಂಬಾ ಕಷ್ಟ. ಇದರ ಬಗ್ಗೆ ಯೋಚಿಸಲು ಹಲವು ಮಾರ್ಗಗಳಿವೆ, ಆದರೆ ಯಾವುದು ಉತ್ತಮ ಎಂಬುದು ಸ್ಪಷ್ಟವಾಗಿಲ್ಲ: SQL ನಲ್ಲಿನ ತಾಂತ್ರಿಕ ಸಮಸ್ಯೆ, ಅಥವಾ Oracle ಬಿಡುಗಡೆಯಲ್ಲಿನ ದೋಷ, ಅಥವಾ ಅಧಿಕಾರಶಾಹಿ ಸಂಸ್ಥೆಗಳ ವೈಫಲ್ಯ? ಈ ಪ್ರಕ್ರಿಯೆಯಲ್ಲಿ ದೋಷವನ್ನು ಕಂಡುಹಿಡಿಯುವುದು ಎಷ್ಟು ಕಷ್ಟಕರವಾಗಿದೆ ಅದು ವ್ಯವಸ್ಥೆಯು ಮುದ್ರಣದೋಷವನ್ನು ಸರಿಪಡಿಸುವ ವೈಶಿಷ್ಟ್ಯವನ್ನು ಹೊಂದಿರುವುದಿಲ್ಲವೇ? ಜನರು ದೂರು ನೀಡಲು ಪ್ರಾರಂಭಿಸುವ ಮೊದಲು ಇದನ್ನು ಅರ್ಥಮಾಡಿಕೊಳ್ಳಲು ಸಾಧ್ಯವೇ?

ನ್ಯಾವಿಗೇಟರ್‌ನಲ್ಲಿನ ಹಳತಾದ ಡೇಟಾದ ಕಾರಣ ಚಾಲಕರು ನದಿಗಳಿಗೆ ಚಾಲನೆ ಮಾಡುವಾಗ ಈ ಸಮಸ್ಯೆಯನ್ನು ಕಥೆಗಳಿಂದ ಇನ್ನಷ್ಟು ಸರಳವಾಗಿ ವಿವರಿಸಲಾಗಿದೆ. ಸರಿ, ನಕ್ಷೆಗಳನ್ನು ನಿರಂತರವಾಗಿ ನವೀಕರಿಸಬೇಕು. ಆದರೆ ನಿಮ್ಮ ಕಾರನ್ನು ಸಮುದ್ರಕ್ಕೆ ಹಾರಿಸಿದ ಟಾಮ್‌ಟಾಮ್ ಎಷ್ಟು ಅಪರಾಧಿ?

ಹೌದು - ಯಂತ್ರ ಕಲಿಕೆಯ ಪಕ್ಷಪಾತವು ಸಮಸ್ಯೆಗಳನ್ನು ಉಂಟುಮಾಡುತ್ತದೆ ಎಂಬ ಅಂಶಕ್ಕೆ ನಾನು ಇದನ್ನು ಹೇಳುತ್ತೇನೆ. ಆದರೆ ಈ ಸಮಸ್ಯೆಗಳು ನಾವು ಹಿಂದೆ ಎದುರಿಸಿದ ಸಮಸ್ಯೆಗಳಿಗೆ ಹೋಲುತ್ತವೆ ಮತ್ತು ಅವುಗಳನ್ನು ಗಮನಿಸಲಾಗುವುದು ಮತ್ತು ಪರಿಹರಿಸಲಾಗುವುದು (ಅಥವಾ ಇಲ್ಲ) ನಾವು ಹಿಂದೆ ಸಾಧ್ಯವಾಯಿತು. ಆದ್ದರಿಂದ, AI ಪಕ್ಷಪಾತವು ಹಾನಿಕರವಾಗಿರುವ ಸನ್ನಿವೇಶವು ದೊಡ್ಡ ಸಂಸ್ಥೆಯಲ್ಲಿ ಕೆಲಸ ಮಾಡುವ ಪ್ರಮುಖ ಸಂಶೋಧಕರಿಗೆ ಸಂಭವಿಸುವ ಸಾಧ್ಯತೆಯಿಲ್ಲ. ಹೆಚ್ಚಾಗಿ, ಕೆಲವು ಅತ್ಯಲ್ಪ ತಂತ್ರಜ್ಞಾನದ ಗುತ್ತಿಗೆದಾರ ಅಥವಾ ಸಾಫ್ಟ್‌ವೇರ್ ಮಾರಾಟಗಾರರು ತನಗೆ ಅರ್ಥವಾಗದ ಓಪನ್ ಸೋರ್ಸ್ ಘಟಕಗಳು, ಗ್ರಂಥಾಲಯಗಳು ಮತ್ತು ಸಾಧನಗಳನ್ನು ಬಳಸಿಕೊಂಡು ಮೊಣಕಾಲಿನ ಮೇಲೆ ಏನನ್ನಾದರೂ ಬರೆಯುತ್ತಾರೆ. ಮತ್ತು ದುರದೃಷ್ಟಕರ ಗ್ರಾಹಕರು ಉತ್ಪನ್ನ ವಿವರಣೆಯಲ್ಲಿ "ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ" ಎಂಬ ಪದಗುಚ್ಛವನ್ನು ಖರೀದಿಸುತ್ತಾರೆ ಮತ್ತು ಹೆಚ್ಚಿನ ಪ್ರಶ್ನೆಗಳನ್ನು ಕೇಳದೆ, ಅವರ ಕಡಿಮೆ-ವೇತನದ ಕೆಲಸಗಾರರಿಗೆ ಅದನ್ನು ವಿತರಿಸುತ್ತಾರೆ, AI ಏನು ಹೇಳುತ್ತದೆ ಎಂಬುದನ್ನು ಮಾಡಲು ಅವರಿಗೆ ಹೇಳುತ್ತದೆ. ಡೇಟಾಬೇಸ್‌ಗಳೊಂದಿಗೆ ಇದು ನಿಖರವಾಗಿ ಏನಾಯಿತು. ಇದು ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆಯ ಸಮಸ್ಯೆಯಲ್ಲ, ಮತ್ತು ಸಾಫ್ಟ್‌ವೇರ್ ಸಮಸ್ಯೆಯೂ ಅಲ್ಲ. ಇದು ಮಾನವ ಅಂಶವಾಗಿದೆ.

ತೀರ್ಮಾನಕ್ಕೆ

ಯಂತ್ರ ಕಲಿಕೆಯು ನೀವು ನಾಯಿಗೆ ಕಲಿಸಬಹುದಾದ ಯಾವುದನ್ನಾದರೂ ಮಾಡಬಹುದು, ಆದರೆ ನೀವು ನಾಯಿಗೆ ಏನು ಕಲಿಸಿದ್ದೀರಿ ಎಂದು ನೀವು ಖಚಿತವಾಗಿ ಹೇಳಲು ಸಾಧ್ಯವಿಲ್ಲ.

"ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ" ಎಂಬ ಪದವು ಈ ರೀತಿಯ ಸಂಭಾಷಣೆಗಳಲ್ಲಿ ಮಾತ್ರ ಸಿಗುತ್ತದೆ ಎಂದು ನನಗೆ ಆಗಾಗ್ಗೆ ತೋರುತ್ತದೆ. ಈ ಪದವು ನಾವು ಅದನ್ನು ನಿಜವಾಗಿ ರಚಿಸಿದ್ದೇವೆ ಎಂಬ ತಪ್ಪು ಅಭಿಪ್ರಾಯವನ್ನು ನೀಡುತ್ತದೆ - ಈ ಬುದ್ಧಿವಂತಿಕೆ. ನಾವು HAL9000 ಅಥವಾ ಸ್ಕೈನೆಟ್‌ಗೆ ಹೋಗುವ ದಾರಿಯಲ್ಲಿದ್ದೇವೆ - ನಿಜವಾಗಿ ಏನಾದರೂ ಅರ್ಥವಾಗುತ್ತದೆ. ಆದರೆ ಇಲ್ಲ. ಅವು ಕೇವಲ ಯಂತ್ರಗಳು, ಮತ್ತು ಅವುಗಳನ್ನು ತೊಳೆಯುವ ಯಂತ್ರದೊಂದಿಗೆ ಹೋಲಿಸುವುದು ಹೆಚ್ಚು ಸರಿಯಾಗಿದೆ. ಅವಳು ಮನುಷ್ಯರಿಗಿಂತ ಲಾಂಡ್ರಿ ಮಾಡುವಲ್ಲಿ ಹೆಚ್ಚು ಉತ್ತಮಳು, ಆದರೆ ನೀವು ಬಟ್ಟೆಗಳನ್ನು ತೊಳೆಯುವ ಬದಲು ಅವಳಿಗೆ ಹಾಕಿದರೆ, ಅವಳು ಅದನ್ನು ತೊಳೆಯುತ್ತಾಳೆ. ಭಕ್ಷ್ಯಗಳು ಸಹ ಸ್ವಚ್ಛವಾಗಿರುತ್ತವೆ. ಆದರೆ ಇದು ನೀವು ನಿರೀಕ್ಷಿಸಿದಂತೆ ಆಗುವುದಿಲ್ಲ ಮತ್ತು ಇದು ಸಂಭವಿಸುವುದಿಲ್ಲ ಏಕೆಂದರೆ ವ್ಯವಸ್ಥೆಯು ಭಕ್ಷ್ಯಗಳ ಬಗ್ಗೆ ಕೆಲವು ರೀತಿಯ ಪೂರ್ವಾಗ್ರಹವನ್ನು ಹೊಂದಿದೆ. ತೊಳೆಯುವ ಯಂತ್ರಕ್ಕೆ ಭಕ್ಷ್ಯಗಳು ಯಾವುವು, ಅಥವಾ ಬಟ್ಟೆಗಳು ಯಾವುವು ಎಂದು ತಿಳಿದಿಲ್ಲ - ಇದು ಯಾಂತ್ರೀಕೃತಗೊಂಡ ಒಂದು ಉದಾಹರಣೆಯಾಗಿದೆ, ಕಲ್ಪನಾತ್ಮಕವಾಗಿ ಪ್ರಕ್ರಿಯೆಗಳು ಮೊದಲು ಹೇಗೆ ಸ್ವಯಂಚಾಲಿತವಾಗಿವೆ ಎಂಬುದರಲ್ಲಿ ಭಿನ್ನವಾಗಿರುವುದಿಲ್ಲ.

ಅದು ಕಾರುಗಳು, ವಿಮಾನಗಳು ಅಥವಾ ಡೇಟಾಬೇಸ್‌ಗಳು ಆಗಿರಲಿ, ಈ ವ್ಯವಸ್ಥೆಗಳು ತುಂಬಾ ಶಕ್ತಿಯುತವಾಗಿರುತ್ತವೆ ಮತ್ತು ಬಹಳ ಸೀಮಿತವಾಗಿರುತ್ತವೆ. ಜನರು ಈ ವ್ಯವಸ್ಥೆಗಳನ್ನು ಹೇಗೆ ಬಳಸುತ್ತಾರೆ, ಅವರ ಉದ್ದೇಶಗಳು ಒಳ್ಳೆಯದು ಅಥವಾ ಕೆಟ್ಟವು, ಮತ್ತು ಅವರು ಹೇಗೆ ಕೆಲಸ ಮಾಡುತ್ತಾರೆ ಎಂಬುದನ್ನು ಅವರು ಅರ್ಥಮಾಡಿಕೊಳ್ಳುತ್ತಾರೆ ಎಂಬುದರ ಮೇಲೆ ಅವರು ಸಂಪೂರ್ಣವಾಗಿ ಅವಲಂಬಿತರಾಗುತ್ತಾರೆ.

ಆದ್ದರಿಂದ, "ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆಯು ಗಣಿತಶಾಸ್ತ್ರವಾಗಿದೆ, ಆದ್ದರಿಂದ ಅದು ಪಕ್ಷಪಾತವನ್ನು ಹೊಂದಿರುವುದಿಲ್ಲ" ಎಂದು ಹೇಳುವುದು ಸಂಪೂರ್ಣವಾಗಿ ತಪ್ಪು. ಆದರೆ ಯಂತ್ರ ಕಲಿಕೆಯು "ಪ್ರಕೃತಿಯಲ್ಲಿ ವ್ಯಕ್ತಿನಿಷ್ಠವಾಗಿದೆ" ಎಂದು ಹೇಳುವುದು ಅಷ್ಟೇ ತಪ್ಪು. ಯಂತ್ರ ಕಲಿಕೆಯು ಡೇಟಾದಲ್ಲಿ ನಮೂನೆಗಳನ್ನು ಕಂಡುಕೊಳ್ಳುತ್ತದೆ ಮತ್ತು ಅದು ಯಾವ ಮಾದರಿಗಳನ್ನು ಕಂಡುಕೊಳ್ಳುತ್ತದೆ ಎಂಬುದು ಡೇಟಾವನ್ನು ಅವಲಂಬಿಸಿರುತ್ತದೆ ಮತ್ತು ಡೇಟಾವು ನಮ್ಮ ಮೇಲೆ ಅವಲಂಬಿತವಾಗಿರುತ್ತದೆ. ನಾವು ಅವರೊಂದಿಗೆ ಏನು ಮಾಡುತ್ತೇವೋ ಹಾಗೆ. ಯಂತ್ರ ಕಲಿಕೆಯು ಕೆಲವು ಕೆಲಸಗಳನ್ನು ನಾವು ಮಾಡುವುದಕ್ಕಿಂತ ಉತ್ತಮವಾಗಿ ಮಾಡುತ್ತದೆ, ಆದರೆ ನಾಯಿಗಳು, ಉದಾಹರಣೆಗೆ, ಮಾದಕ ದ್ರವ್ಯಗಳನ್ನು ಪತ್ತೆಹಚ್ಚುವಲ್ಲಿ ಮನುಷ್ಯರಿಗಿಂತ ಹೆಚ್ಚು ಪರಿಣಾಮಕಾರಿಯಾಗಿದೆ, ಇದು ಅವರನ್ನು ಸಾಕ್ಷಿಗಳಾಗಿ ಬಳಸಲು ಮತ್ತು ಅವರ ಸಾಕ್ಷ್ಯದ ಆಧಾರದ ಮೇಲೆ ವಾಕ್ಯಗಳನ್ನು ರವಾನಿಸಲು ಯಾವುದೇ ಕಾರಣವಲ್ಲ. ಮತ್ತು ನಾಯಿಗಳು, ಮೂಲಕ, ಯಾವುದೇ ಯಂತ್ರ ಕಲಿಕೆ ವ್ಯವಸ್ಥೆಗಿಂತ ಹೆಚ್ಚು ಚುರುಕಾದವು.

ಅನುವಾದ: ಡಯಾನಾ ಲೆಟ್ಸ್ಕಯಾ.
ಸಂಪಾದನೆ: ಅಲೆಕ್ಸಿ ಇವನೊವ್.
ಸಮುದಾಯ: @PonchikNews.

ಮೂಲ: www.habr.com

ಕಾಮೆಂಟ್ ಅನ್ನು ಸೇರಿಸಿ