Σχετικά με την προκατάληψη της τεχνητής νοημοσύνης

Σχετικά με την προκατάληψη της τεχνητής νοημοσύνης

tl? dr:

  • Η μηχανική μάθηση αναζητά μοτίβα στα δεδομένα. Αλλά η τεχνητή νοημοσύνη μπορεί να είναι «προκατειλημμένη»—δηλαδή να βρει μοτίβα που είναι λάθος. Για παράδειγμα, ένα σύστημα ανίχνευσης καρκίνου του δέρματος που βασίζεται σε φωτογραφίες μπορεί να δώσει ιδιαίτερη προσοχή στις εικόνες που λαμβάνονται στο ιατρείο. Η μηχανική μάθηση δεν μπορεί να κατανοήσουν: οι αλγόριθμοί του προσδιορίζουν μοτίβα μόνο σε αριθμούς και αν τα δεδομένα δεν είναι αντιπροσωπευτικά, θα είναι και το αποτέλεσμα της επεξεργασίας τους. Και η σύλληψη τέτοιων σφαλμάτων μπορεί να είναι δύσκολη λόγω της ίδιας της μηχανικής της μηχανικής μάθησης.
  • Το πιο προφανές και τρομακτικό πρόβλημα είναι η ανθρώπινη ποικιλομορφία. Υπάρχουν πολλοί λόγοι για τους οποίους τα δεδομένα για άτομα μπορεί να χάσουν την αντικειμενικότητα ακόμη και στο στάδιο της συλλογής. Αλλά μην νομίζετε ότι αυτό το πρόβλημα επηρεάζει μόνο τους ανθρώπους: ακριβώς οι ίδιες δυσκολίες προκύπτουν όταν προσπαθείτε να εντοπίσετε μια πλημμύρα σε μια αποθήκη ή μια αποτυχημένη τουρμπίνα αερίου. Ορισμένα συστήματα ενδέχεται να είναι προκατειλημμένα προς το χρώμα του δέρματος, άλλα προς τους αισθητήρες Siemens.
  • Τέτοια προβλήματα δεν είναι καινούργια στη μηχανική μάθηση και δεν είναι καθόλου μοναδικά σε αυτήν. Σε κάθε περίπλοκη δομή γίνονται λανθασμένες υποθέσεις και η κατανόηση του γιατί ελήφθη μια συγκεκριμένη απόφαση είναι πάντα δύσκολη. Πρέπει να το καταπολεμήσουμε με ολοκληρωμένο τρόπο: να δημιουργήσουμε εργαλεία και διαδικασίες για επαλήθευση - και να εκπαιδεύσουμε τους χρήστες ώστε να μην ακολουθούν τυφλά τις συστάσεις τεχνητής νοημοσύνης. Η μηχανική μάθηση κάνει ορισμένα πράγματα πολύ καλύτερα από ό,τι μπορούμε - αλλά οι σκύλοι, για παράδειγμα, είναι πολύ πιο αποτελεσματικοί από τους ανθρώπους στην ανίχνευση ναρκωτικών, κάτι που δεν είναι λόγος να τα χρησιμοποιούμε ως μάρτυρες και να κάνουμε κρίσεις με βάση τη μαρτυρία τους. Και οι σκύλοι, παρεμπιπτόντως, είναι πολύ πιο έξυπνοι από οποιοδήποτε σύστημα μηχανικής μάθησης.

Η μηχανική μάθηση είναι μια από τις πιο σημαντικές θεμελιώδεις τάσεις της τεχνολογίας σήμερα. Αυτός είναι ένας από τους σημαντικότερους τρόπους με τους οποίους η τεχνολογία θα αλλάξει τον κόσμο γύρω μας την επόμενη δεκαετία. Ορισμένες πτυχές αυτών των αλλαγών προκαλούν ανησυχία. Για παράδειγμα, ο πιθανός αντίκτυπος της μηχανικής μάθησης στην αγορά εργασίας ή η χρήση της για ανήθικους σκοπούς (για παράδειγμα, από αυταρχικά καθεστώτα). Υπάρχει ένα άλλο πρόβλημα που αντιμετωπίζει αυτή η ανάρτηση: προκατάληψη της τεχνητής νοημοσύνης.

Αυτή δεν είναι μια εύκολη ιστορία.

Σχετικά με την προκατάληψη της τεχνητής νοημοσύνης
Το AI της Google μπορεί να βρει γάτες. Αυτά τα νέα από το 2012 ήταν κάτι ξεχωριστό τότε.

Τι είναι το "AI Bias";

Τα "ακατέργαστα δεδομένα" είναι και οξύμωρο και κακή ιδέα. τα δεδομένα πρέπει να προετοιμάζονται καλά και προσεκτικά. —Τζέφρι Μπόκερ

Κάπου πριν το 2013, για να φτιάξεις ένα σύστημα που, ας πούμε, να αναγνωρίζει τις γάτες στις φωτογραφίες, έπρεπε να περιγράψεις λογικά βήματα. Πώς να βρείτε γωνίες σε μια εικόνα, να αναγνωρίσετε τα μάτια, να αναλύσετε υφές για γούνα, να μετρήσετε τα πόδια και ούτω καθεξής. Στη συνέχεια, βάλτε όλα τα εξαρτήματα μαζί και ανακαλύψτε ότι δεν λειτουργεί πραγματικά. Μοιάζει πολύ με ένα μηχανικό άλογο - θεωρητικά μπορεί να κατασκευαστεί, αλλά στην πράξη είναι πολύ περίπλοκο για να το περιγράψω. Το τελικό αποτέλεσμα είναι εκατοντάδες (ή και χιλιάδες) χειρόγραφοι κανόνες. Και ούτε ένα μοντέλο λειτουργίας.

Με την έλευση της μηχανικής μάθησης, σταματήσαμε να χρησιμοποιούμε «χειροκίνητους» κανόνες για την αναγνώριση ενός συγκεκριμένου αντικειμένου. Αντίθετα, παίρνουμε χίλια δείγματα «αυτό», Χ, χίλια δείγματα «άλλου», Υ, και βάζουμε τον υπολογιστή να δημιουργήσει ένα μοντέλο με βάση τη στατιστική τους ανάλυση. Στη συνέχεια δίνουμε σε αυτό το μοντέλο μερικά δείγματα δεδομένων και καθορίζει με κάποια ακρίβεια αν ταιριάζει σε ένα από τα σετ. Η μηχανική μάθηση δημιουργεί ένα μοντέλο από δεδομένα και όχι από άνθρωπο που το γράφει. Τα αποτελέσματα είναι εντυπωσιακά, ειδικά στον τομέα της αναγνώρισης εικόνων και μοτίβων, και γι' αυτό ολόκληρη η βιομηχανία της τεχνολογίας περνά πλέον στη μηχανική μάθηση (ML).

Αλλά δεν είναι τόσο απλό. Στον πραγματικό κόσμο, τα χιλιάδες παραδείγματα X ή Y περιέχουν επίσης A, B, J, L, O, R, ακόμη και L. Αυτά μπορεί να μην είναι ομοιόμορφα κατανεμημένα και μερικά μπορεί να εμφανίζονται τόσο συχνά που το σύστημα θα πληρώσει περισσότερα προσοχή σε αυτά παρά σε αντικείμενα που σας ενδιαφέρουν.

Τι σημαίνει αυτό στην πράξη; Το αγαπημένο μου παράδειγμα είναι όταν τα συστήματα αναγνώρισης εικόνων κοιτάξτε έναν λόφο με χορτάρι και πείτε "πρόβατα". Είναι ξεκάθαρο γιατί: οι περισσότερες από τις παραδειγματικές φωτογραφίες των «προβάτων» λαμβάνονται στα λιβάδια όπου ζουν και σε αυτές τις εικόνες το γρασίδι καταλαμβάνει πολύ περισσότερο χώρο από τα μικρά λευκά χνούδια και είναι το γρασίδι που το σύστημα θεωρεί πιο σημαντικό .

Υπάρχουν πιο σοβαρά παραδείγματα. Ένα πρόσφατο σχέδιο για την ανίχνευση του καρκίνου του δέρματος σε φωτογραφίες. Αποδείχθηκε ότι οι δερματολόγοι συχνά φωτογραφίζουν τον χάρακα μαζί με τις εκδηλώσεις καρκίνου του δέρματος για να καταγράψουν το μέγεθος των σχηματισμών. Δεν υπάρχουν χάρακες στις παραδειγματικές φωτογραφίες υγιούς δέρματος. Για ένα σύστημα τεχνητής νοημοσύνης, τέτοιοι χάρακες (ακριβέστερα, τα εικονοστοιχεία που ορίζουμε ως «χάρακα») έχουν γίνει μια από τις διαφορές μεταξύ των σετ παραδειγμάτων και μερικές φορές πιο σημαντικοί από ένα μικρό εξάνθημα στο δέρμα. Έτσι, ένα σύστημα που δημιουργήθηκε για τον εντοπισμό του καρκίνου του δέρματος ενίοτε αναγνώριζε τους κυβερνήτες.

Το βασικό σημείο εδώ είναι ότι το σύστημα δεν έχει σημασιολογική κατανόηση αυτού που κοιτάζει. Κοιτάμε ένα σύνολο pixel και βλέπουμε σε αυτά ένα πρόβατο, δέρμα ή χάρακες, αλλά το σύστημα είναι μόνο μια αριθμητική γραμμή. Δεν βλέπει τρισδιάστατο χώρο, δεν βλέπει αντικείμενα, υφές ή πρόβατα. Βλέπει απλώς μοτίβα στα δεδομένα.

Η δυσκολία στη διάγνωση τέτοιων προβλημάτων είναι ότι το νευρωνικό δίκτυο (το μοντέλο που δημιουργείται από το σύστημα μηχανικής εκμάθησης) αποτελείται από χιλιάδες εκατοντάδες χιλιάδες κόμβους. Δεν υπάρχει εύκολος τρόπος να εξετάσετε ένα μοντέλο και να δείτε πώς παίρνει μια απόφαση. Η ύπαρξη ενός τέτοιου τρόπου θα σήμαινε ότι η διαδικασία είναι αρκετά απλή για να περιγράψει όλους τους κανόνες χειροκίνητα, χωρίς τη χρήση μηχανικής εκμάθησης. Οι άνθρωποι ανησυχούν ότι η μηχανική μάθηση έχει γίνει κάτι σαν μαύρο κουτί. (Θα εξηγήσω λίγο αργότερα γιατί αυτή η σύγκριση είναι ακόμα υπερβολική.)

Αυτό, σε γενικές γραμμές, είναι το πρόβλημα της μεροληψίας στην τεχνητή νοημοσύνη ή τη μηχανική μάθηση: ένα σύστημα εύρεσης μοτίβων σε δεδομένα μπορεί να βρει λάθος μοτίβα και μπορεί να μην το παρατηρήσετε. Αυτό είναι ένα θεμελιώδες χαρακτηριστικό της τεχνολογίας και είναι προφανές σε όλους όσους εργάζονται με αυτήν στον ακαδημαϊκό χώρο και σε μεγάλες εταιρείες τεχνολογίας. Αλλά οι συνέπειές του είναι πολύπλοκες, όπως και οι πιθανές λύσεις μας σε αυτές τις συνέπειες.

Ας μιλήσουμε πρώτα για τις συνέπειες.

Σχετικά με την προκατάληψη της τεχνητής νοημοσύνης
Η τεχνητή νοημοσύνη μπορεί, σιωπηρά για εμάς, να κάνει μια επιλογή υπέρ ορισμένων κατηγοριών ανθρώπων, με βάση έναν μεγάλο αριθμό ανεπαίσθητων σημάτων

Σενάρια μεροληψίας AI

Το πιο προφανές και τρομακτικό είναι ότι αυτό το πρόβλημα μπορεί να εκδηλωθεί όταν πρόκειται για την ανθρώπινη ποικιλομορφία. Πρόσφατα υπήρχε μια φήμηότι η Amazon προσπάθησε να δημιουργήσει ένα σύστημα μηχανικής μάθησης για τον αρχικό έλεγχο των υποψηφίων θέσεων εργασίας. Δεδομένου ότι υπάρχουν περισσότεροι άνδρες μεταξύ των εργαζομένων της Amazon, τα παραδείγματα «επιτυχών προσλήψεων» είναι επίσης πιο συχνά άνδρες και υπήρχαν περισσότεροι άνδρες στην επιλογή των βιογραφικών που πρότεινε το σύστημα. Η Amazon το παρατήρησε αυτό και δεν κυκλοφόρησε το σύστημα στην παραγωγή.

Το πιο σημαντικό σε αυτό το παράδειγμα είναι ότι το σύστημα φημολογήθηκε ότι ευνοούσε τους άνδρες αιτούντες, παρά το γεγονός ότι το φύλο δεν προσδιοριζόταν στο βιογραφικό. Το σύστημα είδε άλλα μοτίβα σε παραδείγματα «καλών προσλήψεων»: για παράδειγμα, οι γυναίκες μπορεί να χρησιμοποιούν ειδικές λέξεις για να περιγράψουν τα επιτεύγματα ή να έχουν ειδικά χόμπι. Φυσικά, το σύστημα δεν ήξερε τι ήταν το «χόκεϊ», ούτε ποιοι ήταν οι «άνθρωποι» ή τι ήταν η «επιτυχία» - απλώς πραγματοποίησε μια στατιστική ανάλυση του κειμένου. Αλλά τα μοτίβα που είδε πιθανότατα θα περνούσαν απαρατήρητα από τους ανθρώπους και μερικά από αυτά (για παράδειγμα, το γεγονός ότι άνθρωποι διαφορετικών φύλων περιγράφουν διαφορετικά την επιτυχία) πιθανότατα θα ήταν δύσκολο να τα δούμε ακόμα κι αν τα κοιτάζαμε.

Περαιτέρω - χειρότερο. Ένα σύστημα μηχανικής μάθησης που είναι πολύ καλό στην εύρεση καρκίνου σε χλωμό δέρμα μπορεί να μην έχει το ίδιο καλή απόδοση σε σκούρο δέρμα ή το αντίστροφο. Όχι απαραίτητα λόγω μεροληψίας, αλλά επειδή μάλλον πρέπει να φτιάξετε ένα ξεχωριστό μοντέλο για διαφορετικό χρώμα δέρματος, επιλέγοντας διαφορετικά χαρακτηριστικά. Τα συστήματα μηχανικής μάθησης δεν είναι εναλλάξιμα ακόμη και σε μια τόσο στενή περιοχή όπως η αναγνώριση εικόνων. Πρέπει να τροποποιήσετε το σύστημα, μερικές φορές μόνο μέσω δοκιμής και λάθους, για να έχετε μια καλή διαχείριση των δυνατοτήτων των δεδομένων που σας ενδιαφέρουν μέχρι να επιτύχετε την ακρίβεια που θέλετε. Αλλά αυτό που μπορεί να μην παρατηρήσετε είναι ότι το σύστημα είναι ακριβές 98% των περιπτώσεων με τη μία ομάδα και μόνο το 91% (ακόμη πιο ακριβές από την ανθρώπινη ανάλυση) με την άλλη.

Μέχρι στιγμής έχω χρησιμοποιήσει κυρίως παραδείγματα που αφορούν τους ανθρώπους και τα χαρακτηριστικά τους. Η συζήτηση γύρω από αυτό το πρόβλημα επικεντρώνεται κυρίως σε αυτό το θέμα. Αλλά είναι σημαντικό να κατανοήσουμε ότι η προκατάληψη προς τους ανθρώπους είναι μόνο ένα μέρος του προβλήματος. Θα χρησιμοποιήσουμε τη μηχανική εκμάθηση για πολλά πράγματα και το σφάλμα δειγματοληψίας θα είναι σχετικό με όλα αυτά. Από την άλλη πλευρά, εάν εργάζεστε με ανθρώπους, η μεροληψία στα δεδομένα μπορεί να μην σχετίζεται με αυτούς.

Για να το καταλάβουμε αυτό, ας επιστρέψουμε στο παράδειγμα του καρκίνου του δέρματος και ας εξετάσουμε τρεις υποθετικές πιθανότητες για αποτυχία του συστήματος.

  1. Ετερογενής κατανομή ανθρώπων: μη ισορροπημένος αριθμός φωτογραφιών διαφορετικών αποχρώσεων δέρματος, που οδηγεί σε ψευδώς θετικά ή ψευδώς αρνητικά λόγω μελάγχρωσης.
  2. Τα δεδομένα στα οποία εκπαιδεύεται το σύστημα περιέχουν ένα χαρακτηριστικό που εμφανίζεται συχνά και ετερογενώς κατανεμημένο που δεν σχετίζεται με ανθρώπους και δεν έχει διαγνωστική αξία: έναν χάρακα σε φωτογραφίες καρκίνου του δέρματος ή χόρτο σε φωτογραφίες προβάτων. Σε αυτήν την περίπτωση, το αποτέλεσμα θα είναι διαφορετικό εάν το σύστημα βρει pixels στην εικόνα κάτι που το ανθρώπινο μάτι προσδιορίζει ως «κυβερνήτη».
  3. Τα δεδομένα περιέχουν ένα χαρακτηριστικό τρίτου μέρους που ένα άτομο δεν μπορεί να δει ακόμα κι αν το αναζητήσει.

Τι σημαίνει? Γνωρίζουμε εκ των προτέρων ότι τα δεδομένα μπορεί να αντιπροσωπεύουν διαφορετικές ομάδες ανθρώπων και, τουλάχιστον, μπορούμε να σχεδιάσουμε να αναζητήσουμε τέτοιες εξαιρέσεις. Με άλλα λόγια, υπάρχουν πολλοί κοινωνικοί λόγοι για να υποθέσουμε ότι τα δεδομένα για ομάδες ανθρώπων περιέχουν ήδη κάποια προκατάληψη. Αν κοιτάξουμε τη φωτογραφία με τον χάρακα, θα δούμε αυτόν τον χάρακα - απλά τον αγνοήσαμε πριν, γνωρίζοντας ότι δεν έχει σημασία και ξεχνώντας ότι το σύστημα δεν ξέρει τίποτα.

Τι θα γινόταν όμως αν όλες οι φωτογραφίες σας με ανθυγιεινό δέρμα τραβήχτηκαν σε ένα γραφείο κάτω από φωτισμό πυρακτώσεως και το υγιές δέρμα σας τραβήχτηκε κάτω από φως φθορισμού; Τι θα γινόταν αν, αφού ολοκληρώσατε τη λήψη υγιούς δέρματος, πριν τραβήξετε ανθυγιεινό δέρμα, ενημερώσατε το λειτουργικό σύστημα στο τηλέφωνό σας και η Apple ή η Google άλλαξαν ελαφρώς τον αλγόριθμο μείωσης θορύβου; Ένα άτομο δεν μπορεί να το παρατηρήσει αυτό, ανεξάρτητα από το πόσο ψάχνει για τέτοια χαρακτηριστικά. Αλλά το σύστημα χρήσης μηχανής θα το δει και θα το χρησιμοποιήσει αμέσως. Δεν ξέρει τίποτα.

Μέχρι στιγμής έχουμε μιλήσει για ψευδείς συσχετισμούς, αλλά θα μπορούσε επίσης να είναι ότι τα δεδομένα είναι ακριβή και τα αποτελέσματα είναι σωστά, αλλά δεν θέλετε να τα χρησιμοποιήσετε για ηθικούς, νομικούς ή διαχειριστικούς λόγους. Ορισμένες δικαιοδοσίες, για παράδειγμα, δεν επιτρέπουν στις γυναίκες να λαμβάνουν έκπτωση στην ασφάλισή τους, παρόλο που οι γυναίκες μπορεί να είναι πιο ασφαλείς οδηγοί. Μπορούμε εύκολα να φανταστούμε ένα σύστημα που, κατά την ανάλυση ιστορικών δεδομένων, θα προσδιόριζε χαμηλότερο παράγοντα κινδύνου στα γυναικεία ονόματα. Εντάξει, ας αφαιρέσουμε ονόματα από την επιλογή. Αλλά θυμηθείτε το παράδειγμα της Amazon: το σύστημα μπορεί να προσδιορίσει το φύλο με βάση άλλους παράγοντες (παρόλο που δεν ξέρει τι είναι το φύλο ή ακόμα και τι είναι αυτοκίνητο) και δεν θα το παρατηρήσετε μέχρι να αναλύσει αναδρομικά η ρυθμιστική αρχή τα τιμολόγια που έχετε προσφέρει και σας χρεώνει θα επιβληθεί πρόστιμο.

Τέλος, συχνά θεωρείται ότι θα χρησιμοποιήσουμε τέτοια συστήματα μόνο για έργα που περιλαμβάνουν ανθρώπους και κοινωνικές αλληλεπιδράσεις. Αυτό είναι λάθος. Εάν κατασκευάζετε αεριοστρόβιλους, πιθανότατα θα θέλετε να εφαρμόσετε τη μηχανική μάθηση στην τηλεμετρία που μεταδίδεται από δεκάδες ή εκατοντάδες αισθητήρες στο προϊόν σας (ήχος, βίντεο, θερμοκρασία και οποιοιδήποτε άλλοι αισθητήρες παράγουν δεδομένα που μπορούν πολύ εύκολα να προσαρμοστούν για τη δημιουργία μιας μηχανής μοντέλο μάθησης). Υποθετικά, θα μπορούσατε να πείτε, «Εδώ είναι δεδομένα από χίλιους στρόβιλους που απέτυχαν πριν αστοχήσουν, και εδώ είναι δεδομένα από χίλιους στρόβιλους που δεν απέτυχαν. Φτιάξτε ένα μοντέλο για να πείτε ποια είναι η διαφορά μεταξύ τους». Λοιπόν, φανταστείτε τώρα ότι οι αισθητήρες Siemens είναι εγκατεστημένοι στο 75% των κακών στροβίλων και μόνο στο 12% των καλών (δεν υπάρχει σχέση με βλάβες). Το σύστημα θα κατασκευάσει ένα μοντέλο για να βρει τουρμπίνες με αισθητήρες Siemens. Ωχ!

Σχετικά με την προκατάληψη της τεχνητής νοημοσύνης
Εικόνα — Moritz Hardt, UC Berkeley

Διαχείριση AI Bias

Τι μπορούμε να κάνουμε για αυτό; Μπορείτε να προσεγγίσετε το θέμα από τρεις οπτικές γωνίες:

  1. Μεθοδολογική αυστηρότητα στη συλλογή και διαχείριση δεδομένων για την εκπαίδευση του συστήματος.
  2. Τεχνικά εργαλεία για την ανάλυση και τη διάγνωση της συμπεριφοράς του μοντέλου.
  3. Εκπαιδεύστε, εκπαιδεύστε και να είστε προσεκτικοί κατά την εφαρμογή της μηχανικής μάθησης σε προϊόντα.

Υπάρχει ένα αστείο στο βιβλίο του Μολιέρου «The Bourgeois in the Nobility»: σε έναν άντρα είπαν ότι η λογοτεχνία χωρίζεται σε πεζογραφία και ποίηση, και με χαρά ανακάλυψε ότι μιλούσε πεζά όλη του τη ζωή, χωρίς να το ξέρει. Μάλλον έτσι νιώθουν οι στατιστικολόγοι σήμερα: χωρίς να το καταλάβουν, έχουν αφιερώσει την καριέρα τους στην τεχνητή νοημοσύνη και στα δειγματοληπτικά σφάλματα. Το να ψάχνουμε για σφάλμα δειγματοληψίας και να ανησυχούμε για αυτό δεν είναι νέο πρόβλημα, απλά πρέπει να προσεγγίζουμε συστηματικά τη λύση του. Όπως αναφέρθηκε παραπάνω, σε ορισμένες περιπτώσεις είναι πραγματικά πιο εύκολο να γίνει αυτό μελετώντας προβλήματα που σχετίζονται με δεδομένα ατόμων. Υποθέτουμε εκ των προτέρων ότι μπορεί να έχουμε προκαταλήψεις σχετικά με διαφορετικές ομάδες ανθρώπων, αλλά είναι δύσκολο για εμάς να φανταστούμε ακόμη και μια προκατάληψη για τους αισθητήρες Siemens.

Το νέο σε όλα αυτά, φυσικά, είναι ότι οι άνθρωποι δεν κάνουν πλέον απευθείας στατιστικές αναλύσεις. Εκτελείται από μηχανές που δημιουργούν μεγάλα, πολύπλοκα μοντέλα που είναι δύσκολο να κατανοηθούν. Το ζήτημα της διαφάνειας είναι μία από τις κύριες πτυχές του προβλήματος της μεροληψίας. Φοβόμαστε ότι το σύστημα δεν είναι απλώς προκατειλημμένο, αλλά ότι δεν υπάρχει τρόπος να εντοπιστεί η μεροληψία του και ότι η μηχανική μάθηση διαφέρει από άλλες μορφές αυτοματισμού, οι οποίες υποτίθεται ότι αποτελούνται από σαφή λογικά βήματα που μπορούν να δοκιμαστούν.

Εδώ υπάρχουν δύο προβλήματα. Ίσως εξακολουθούμε να είμαστε σε θέση να κάνουμε κάποιο έλεγχο των συστημάτων μηχανικής εκμάθησης. Και ο έλεγχος οποιουδήποτε άλλου συστήματος στην πραγματικότητα δεν είναι ευκολότερος.

Πρώτον, μία από τις κατευθύνσεις της σύγχρονης έρευνας στον τομέα της μηχανικής μάθησης είναι η αναζήτηση μεθόδων για τον εντοπισμό σημαντικής λειτουργικότητας των συστημάτων μηχανικής μάθησης. Τούτου λεχθέντος, η μηχανική μάθηση (στην τρέχουσα κατάστασή της) είναι ένα εντελώς νέο πεδίο της επιστήμης που αλλάζει γρήγορα, επομένως μην νομίζετε ότι τα πράγματα που είναι αδύνατα σήμερα δεν μπορούν σύντομα να γίνουν πραγματικά πραγματικά. Εργο OpenAI είναι ένα ενδιαφέρον παράδειγμα αυτού.

Δεύτερον, η ιδέα ότι κάποιος μπορεί να δοκιμάσει και να κατανοήσει τη διαδικασία λήψης αποφάσεων των υπαρχόντων συστημάτων ή οργανισμών είναι καλή στη θεωρία, αλλά έτσι και στην πράξη. Η κατανόηση του πώς λαμβάνονται οι αποφάσεις σε έναν μεγάλο οργανισμό δεν είναι εύκολη. Ακόμα κι αν υπάρχει μια επίσημη διαδικασία λήψης αποφάσεων, δεν αντικατοπτρίζει τον τρόπο με τον οποίο οι άνθρωποι αλληλεπιδρούν στην πραγματικότητα και οι ίδιοι συχνά δεν έχουν μια λογική, συστηματική προσέγγιση για τη λήψη των αποφάσεών τους. Όπως είπε ο συνάδελφός μου Βιτζάι Πάντε, οι άνθρωποι είναι επίσης μαύρα κουτιά.

Πάρτε χίλια άτομα σε πολλές αλληλοκαλυπτόμενες εταιρείες και ιδρύματα, και το πρόβλημα γίνεται ακόμη πιο περίπλοκο. Γνωρίζουμε ότι μετά το γεγονός ότι το Διαστημικό Λεωφορείο προοριζόταν να διαλυθεί κατά την επιστροφή και άτομα εντός της NASA είχαν πληροφορίες που τους έδωσαν λόγους να πιστεύουν ότι κάτι κακό μπορεί να συμβεί, αλλά το σύστημα γενικά Δεν το ήξερα αυτό. Η NASA μόλις πέρασε από έναν παρόμοιο έλεγχο αφού έχασε το προηγούμενο λεωφορείο της, και όμως έχασε άλλο ένα για έναν πολύ παρόμοιο λόγο. Είναι εύκολο να υποστηρίξουμε ότι οι οργανισμοί και οι άνθρωποι ακολουθούν σαφείς, λογικούς κανόνες που μπορούν να δοκιμαστούν, να γίνουν κατανοητοί και να αλλάξουν — αλλά η εμπειρία αποδεικνύει το αντίθετο. Αυτό "η αυταπάτη του Γκόσπλαν».

Συχνά συγκρίνω τη μηχανική μάθηση με βάσεις δεδομένων, ειδικά με σχεσιακές - μια νέα θεμελιώδη τεχνολογία που άλλαξε τις δυνατότητες της επιστήμης των υπολογιστών και του κόσμου γύρω της, η οποία έχει γίνει μέρος των πάντων, τα οποία χρησιμοποιούμε συνεχώς χωρίς να το καταλαβαίνουμε. Οι βάσεις δεδομένων έχουν επίσης προβλήματα, και είναι παρόμοιας φύσης: το σύστημα μπορεί να χτιστεί σε κακές υποθέσεις ή κακά δεδομένα, αλλά θα είναι δύσκολο να το παρατηρήσετε και τα άτομα που χρησιμοποιούν το σύστημα θα κάνουν ό,τι τους λέει χωρίς να κάνουν ερωτήσεις. Υπάρχουν πολλά παλιά ανέκδοτα σχετικά με τους φορολογούμενους που κάποτε έγραφαν λάθος το όνομά σας, και το να τους πείσετε να διορθώσουν το λάθος είναι πολύ πιο δύσκολο από το να αλλάξετε πραγματικά το όνομά σας. Υπάρχουν πολλοί τρόποι να το σκεφτούμε αυτό, αλλά δεν είναι ξεκάθαρο ποιο είναι καλύτερο: ως τεχνικό πρόβλημα στην SQL, ή ως σφάλμα σε μια έκδοση της Oracle ή ως αποτυχία γραφειοκρατικών ιδρυμάτων; Πόσο δύσκολο είναι να βρείτε ένα σφάλμα σε μια διαδικασία που οδήγησε στο σύστημα να μην έχει δυνατότητα διόρθωσης τυπογραφικών σφαλμάτων; Θα μπορούσε αυτό να είχε γίνει αντιληπτό προτού οι άνθρωποι αρχίσουν να διαμαρτύρονται;

Αυτό το πρόβλημα απεικονίζεται ακόμη πιο απλά από ιστορίες όταν οδηγοί οδηγούν σε ποτάμια λόγω ξεπερασμένων δεδομένων στον πλοηγό. Εντάξει, οι χάρτες πρέπει να ενημερώνονται συνεχώς. Πόσο όμως φταίει η TomTom που το αυτοκίνητό σας ανατινάχθηκε στη θάλασσα;

Ο λόγος που το λέω αυτό είναι ότι ναι, η μεροληψία μηχανικής μάθησης θα δημιουργήσει προβλήματα. Αλλά αυτά τα προβλήματα θα είναι παρόμοια με εκείνα που αντιμετωπίσαμε στο παρελθόν, και μπορούν να παρατηρηθούν και να λυθούν (ή όχι) όσο καλά μπορέσαμε στο παρελθόν. Επομένως, ένα σενάριο στο οποίο η προκατάληψη της τεχνητής νοημοσύνης προκαλεί βλάβη είναι απίθανο να συμβεί σε ανώτερους ερευνητές που εργάζονται σε έναν μεγάλο οργανισμό. Πιθανότατα, κάποιος ασήμαντος ανάδοχος τεχνολογίας ή προμηθευτής λογισμικού θα γράψει κάτι στα γόνατά του, χρησιμοποιώντας στοιχεία ανοιχτού κώδικα, βιβλιοθήκες και εργαλεία που δεν καταλαβαίνουν. Και ο άτυχος πελάτης θα αγοράσει τη φράση «τεχνητή νοημοσύνη» στην περιγραφή του προϊόντος και, χωρίς να κάνει ερωτήσεις, θα τη διανείμει στους χαμηλόμισθους υπαλλήλους του, διατάσσοντάς τους να κάνουν ό,τι λέει η AI. Αυτό ακριβώς συνέβη με τις βάσεις δεδομένων. Αυτό δεν είναι πρόβλημα τεχνητής νοημοσύνης, ούτε καν πρόβλημα λογισμικού. Αυτός είναι ο ανθρώπινος παράγοντας.

Συμπέρασμα

Η μηχανική μάθηση μπορεί να κάνει οτιδήποτε μπορείτε να διδάξετε σε έναν σκύλο - αλλά ποτέ δεν μπορείτε να είστε σίγουροι τι ακριβώς δίδαξατε στον σκύλο.

Συχνά νιώθω ότι ο όρος «τεχνητή νοημοσύνη» παρεμποδίζει μόνο τέτοιες συζητήσεις. Αυτός ο όρος δίνει την εσφαλμένη εντύπωση ότι στην πραγματικότητα τον δημιουργήσαμε - αυτή η νοημοσύνη. Ότι είμαστε καθ' οδόν προς το HAL9000 ή το Skynet - κάτι που στην πραγματικότητα καταλαβαίνει. Αλλά όχι. Αυτά είναι απλώς μηχανήματα, και είναι πολύ πιο ακριβές να τα συγκρίνουμε με, ας πούμε, ένα πλυντήριο ρούχων. Πλένει πολύ καλύτερα από έναν άνθρωπο, αλλά αν της βάλεις πιάτα αντί για μπουγάδα, θα τα... πλύνει. Τα πιάτα θα γίνουν ακόμη και καθαρά. Αλλά αυτό δεν θα είναι αυτό που περιμένατε, και αυτό δεν θα συμβεί επειδή το σύστημα έχει προκαταλήψεις σχετικά με τα πιάτα. Το πλυντήριο δεν ξέρει τι είναι τα πιάτα ή τι είναι τα ρούχα - είναι απλώς ένα παράδειγμα αυτοματισμού, εννοιολογικά δεν διαφέρει από τον τρόπο αυτοματοποίησης των διαδικασιών πριν.

Είτε μιλάμε για αυτοκίνητα, αεροπλάνα ή βάσεις δεδομένων, αυτά τα συστήματα θα είναι τόσο πολύ ισχυρά όσο και πολύ περιορισμένα. Θα εξαρτηθούν εξ ολοκλήρου από το πώς οι άνθρωποι χρησιμοποιούν αυτά τα συστήματα, αν οι προθέσεις τους είναι καλές ή κακές και πόσο κατανοούν πώς λειτουργούν.

Επομένως, το να πούμε ότι «η τεχνητή νοημοσύνη είναι μαθηματικά, επομένως δεν μπορεί να έχει προκαταλήψεις» είναι εντελώς λάθος. Αλλά είναι εξίσου λάθος να πούμε ότι η μηχανική μάθηση είναι «υποκειμενικής φύσης». Η μηχανική μάθηση βρίσκει μοτίβα στα δεδομένα και ποια μοτίβα βρίσκει εξαρτάται από τα δεδομένα και τα δεδομένα εξαρτώνται από εμάς. Όπως ακριβώς κάνουμε με αυτά. Η μηχανική μάθηση κάνει κάποια πράγματα πολύ καλύτερα από ό,τι μπορούμε - αλλά οι σκύλοι, για παράδειγμα, είναι πολύ πιο αποτελεσματικοί από τους ανθρώπους στην ανίχνευση ναρκωτικών, κάτι που δεν είναι λόγος να τα χρησιμοποιούμε ως μάρτυρες και να κάνουμε κρίσεις με βάση τη μαρτυρία τους. Και οι σκύλοι, παρεμπιπτόντως, είναι πολύ πιο έξυπνοι από οποιοδήποτε σύστημα μηχανικής μάθησης.

Μετάφραση: Diana Letskaya.
Επεξεργασία: Αλεξέι Ιβάνοφ.
Κοινότητα: @PonchikNews.

Πηγή: www.habr.com

Προσθέστε ένα σχόλιο