Über den Bias der künstlichen Intelligenz

Über den Bias der künstlichen Intelligenz

tl; dr:

  • Maschinelles Lernen sucht nach Mustern in Daten. Aber künstliche Intelligenz kann „voreingenommen“ sein – das heißt, sie kann Muster finden, die falsch sind. Beispielsweise könnte ein fotobasiertes System zur Erkennung von Hautkrebs besonderes Augenmerk auf Bilder legen, die in einer Arztpraxis aufgenommen wurden. Maschinelles Lernen kann das nicht понимать: Seine Algorithmen erkennen Muster nur in Zahlen, und wenn die Daten nicht repräsentativ sind, ist das Ergebnis ihrer Verarbeitung auch nicht repräsentativ. Und aufgrund der Mechanismen des maschinellen Lernens kann es schwierig sein, solche Fehler zu erkennen.
  • Der offensichtlichste und beängstigendste Problembereich ist die menschliche Vielfalt. Es gibt viele Gründe, warum Daten über Personen bereits in der Erhebungsphase an Objektivität verlieren können. Aber denken Sie nicht, dass dieses Problem nur Menschen betrifft: Genau die gleichen Schwierigkeiten treten auf, wenn Sie versuchen, eine Überschwemmung in einem Lagerhaus oder eine ausgefallene Gasturbine zu erkennen. Einige Systeme sind möglicherweise auf die Hautfarbe ausgerichtet, andere auf Siemens-Sensoren.
  • Solche Probleme sind für maschinelles Lernen nicht neu und bei weitem nicht einzigartig. In jeder komplexen Struktur werden falsche Annahmen getroffen, und es ist immer schwierig zu verstehen, warum eine bestimmte Entscheidung getroffen wurde. Dem müssen wir umfassend entgegentreten: Tools und Prozesse zur Verifizierung schaffen – und Nutzer aufklären, damit sie den KI-Empfehlungen nicht blind folgen. Maschinelles Lernen macht einige Dinge zwar viel besser als wir – aber Hunde sind zum Beispiel beim Aufspüren von Drogen viel effektiver als Menschen, was kein Grund ist, sie als Zeugen zu nutzen und auf der Grundlage ihrer Aussage ein Urteil zu fällen. Und Hunde sind übrigens viel schlauer als jedes maschinelle Lernsystem.

Maschinelles Lernen ist heute einer der wichtigsten grundlegenden Technologietrends. Dies ist eine der wichtigsten Möglichkeiten, wie Technologie die Welt um uns herum im nächsten Jahrzehnt verändern wird. Einige Aspekte dieser Änderungen geben Anlass zur Sorge. Zum Beispiel die möglichen Auswirkungen des maschinellen Lernens auf den Arbeitsmarkt oder seine Nutzung für unethische Zwecke (z. B. durch autoritäre Regime). Es gibt noch ein weiteres Problem, das in diesem Beitrag angesprochen wird: Voreingenommenheit gegenüber künstlicher Intelligenz.

Das ist keine einfache Geschichte.

Über den Bias der künstlichen Intelligenz
Googles KI kann Katzen finden. Diese Nachricht aus dem Jahr 2012 war damals etwas Besonderes.

Was ist „KI-Bias“?

„Rohdaten“ sind sowohl ein Widerspruch als auch eine schlechte Idee; Daten müssen gut und sorgfältig aufbereitet werden. –Geoffrey Bocker

Irgendwann vor 2013 musste man logische Schritte beschreiben, um ein System zu entwickeln, das beispielsweise Katzen auf Fotos erkennt. Wie man Ecken in einem Bild findet, Augen erkennt, Texturen für Fell analysiert, Pfoten zählt und so weiter. Dann alle Komponenten zusammenfügen und feststellen, dass es nicht wirklich funktioniert. Ähnlich wie ein mechanisches Pferd – theoretisch kann es hergestellt werden, aber in der Praxis ist es zu komplex, um es zu beschreiben. Das Endergebnis sind Hunderte (oder sogar Tausende) handgeschriebener Regeln. Und kein einziges funktionierendes Modell.

Mit dem Aufkommen des maschinellen Lernens haben wir aufgehört, „manuelle“ Regeln zur Erkennung eines bestimmten Objekts zu verwenden. Stattdessen nehmen wir tausend Proben von „diesem“, X, tausend Proben von „anderem“, Y, und lassen den Computer auf der Grundlage ihrer statistischen Analyse ein Modell erstellen. Wir geben diesem Modell dann einige Beispieldaten und es bestimmt mit einiger Präzision, ob es zu einem der Sätze passt. Maschinelles Lernen generiert ein Modell aus Daten und nicht aus dem Schreiben eines Menschen. Vor allem im Bereich der Bild- und Mustererkennung sind die Ergebnisse beeindruckend, weshalb mittlerweile die gesamte Tech-Branche auf maschinelles Lernen (ML) umsteigt.

Aber so einfach ist es nicht. In der realen Welt enthalten Ihre Tausenden von Beispielen für X oder Y auch A, B, J, L, O, R und sogar L. Diese sind möglicherweise nicht gleichmäßig verteilt und einige treten möglicherweise so häufig auf, dass das System mehr zahlt Konzentrieren Sie sich mehr auf sie als auf Objekte, die Sie interessieren.

Was bedeutet das in der Praxis? Mein Lieblingsbeispiel sind Bilderkennungssysteme Schauen Sie auf einen grasbewachsenen Hügel und sagen Sie „Schafe“. Der Grund dafür ist klar: Die meisten Beispielfotos von „Schafen“ wurden auf den Wiesen aufgenommen, auf denen sie leben, und auf diesen Bildern nimmt das Gras viel mehr Platz ein als die kleinen weißen Flusen, und es ist das Gras, das das System als am wichtigsten erachtet .

Es gibt ernstere Beispiele. Eine aktuelle Projekt zur Erkennung von Hautkrebs auf Fotos. Es stellte sich heraus, dass Dermatologen häufig das Lineal zusammen mit den Manifestationen von Hautkrebs fotografieren, um die Größe der Formationen zu erfassen. In den Beispielfotos gesunder Haut gibt es keine Lineale. Für ein KI-System sind solche Lineale (genauer gesagt die Pixel, die wir als „Lineal“ definieren) zu einem der Unterschiede zwischen Beispielsätzen geworden und manchmal wichtiger als ein kleiner Ausschlag auf der Haut. Daher erkannte ein System zur Erkennung von Hautkrebs manchmal stattdessen Herrscher.

Der entscheidende Punkt hierbei ist, dass das System kein semantisches Verständnis dessen hat, was es betrachtet. Wir betrachten eine Reihe von Pixeln und sehen darin ein Schaf, eine Haut oder Lineale, aber das System ist nur eine Zahlenlinie. Sie sieht keinen dreidimensionalen Raum, keine Objekte, Texturen oder Schafe. Sie sieht einfach Muster in den Daten.

Die Schwierigkeit bei der Diagnose solcher Probleme besteht darin, dass das neuronale Netzwerk (das von Ihrem maschinellen Lernsystem generierte Modell) aus Tausenden oder Hunderttausenden Knoten besteht. Es gibt keine einfache Möglichkeit, sich ein Modell anzusehen und zu sehen, wie es eine Entscheidung trifft. Eine solche Methode würde bedeuten, dass der Prozess einfach genug ist, um alle Regeln manuell zu beschreiben, ohne maschinelles Lernen zu verwenden. Die Menschen befürchten, dass maschinelles Lernen zu einer Art Blackbox geworden ist. (Warum dieser Vergleich immer noch zu viel ist, erkläre ich etwas später.)

Dies ist im Allgemeinen das Problem der Verzerrung in der künstlichen Intelligenz oder beim maschinellen Lernen: Ein System zum Finden von Mustern in Daten findet möglicherweise die falschen Muster, ohne dass Sie es bemerken. Dies ist ein grundlegendes Merkmal der Technologie und für jeden offensichtlich, der in der Wissenschaft und bei großen Technologieunternehmen damit arbeitet. Aber die Folgen sind komplex, und das gilt auch für unsere möglichen Lösungen für diese Folgen.

Lassen Sie uns zunächst über die Konsequenzen sprechen.

Über den Bias der künstlichen Intelligenz
KI kann, für uns implizit, auf der Grundlage einer Vielzahl nicht wahrnehmbarer Signale eine Entscheidung zugunsten bestimmter Personengruppen treffen

KI-Bias-Szenarien

Am offensichtlichsten und erschreckendsten kann sich dieses Problem im Hinblick auf die menschliche Vielfalt manifestieren. Kürzlich es gab ein Gerüchtdass Amazon versucht hat, ein maschinelles Lernsystem für die Erstprüfung von Stellenbewerbern aufzubauen. Da es unter den Amazon-Mitarbeitern mehr Männer gibt, sind Beispiele für „erfolgreiche Einstellungen“ auch häufiger männlich, und bei der Auswahl der vom System vorgeschlagenen Lebensläufe waren mehr Männer vertreten. Amazon hat dies bemerkt und das System nicht für die Produktion freigegeben.

Das Wichtigste an diesem Beispiel ist, dass das System angeblich männliche Bewerber begünstigt, obwohl das Geschlecht im Lebenslauf nicht angegeben ist. Das System erkannte andere Muster in Beispielen für „gute Mitarbeiter“: Beispielsweise könnten Frauen spezielle Wörter verwenden, um Leistungen zu beschreiben, oder spezielle Hobbys haben. Natürlich wusste das System nicht, was „Hockey“ war, wer „Menschen“ waren oder was „Erfolg“ war – es führte lediglich eine statistische Analyse des Textes durch. Aber die Muster, die sie sah, würden von Menschen höchstwahrscheinlich unbemerkt bleiben, und einige davon (z. B. die Tatsache, dass Menschen unterschiedlichen Geschlechts Erfolg unterschiedlich beschreiben) wären für uns wahrscheinlich schwer zu erkennen, selbst wenn wir sie betrachten würden.

Weiter - schlimmer. Ein maschinelles Lernsystem, das Krebs auf blasser Haut sehr gut erkennen kann, funktioniert möglicherweise nicht so gut auf dunkler Haut oder umgekehrt. Nicht unbedingt aus Voreingenommenheit, sondern weil Sie wahrscheinlich ein separates Modell für eine andere Hautfarbe erstellen und andere Eigenschaften wählen müssen. Maschinelle Lernsysteme sind selbst in einem so engen Bereich wie der Bilderkennung nicht austauschbar. Sie müssen das System optimieren, manchmal einfach durch Ausprobieren, um die Funktionen in den Daten, an denen Sie interessiert sind, gut in den Griff zu bekommen, bis Sie die gewünschte Genauigkeit erreicht haben. Was Sie jedoch möglicherweise nicht bemerken, ist, dass das System bei einer Gruppe in 98 % der Fälle genau ist, bei der anderen jedoch nur zu 91 % (noch genauer als eine menschliche Analyse).

Bisher habe ich hauptsächlich Beispiele verwendet, die sich auf Menschen und ihre Eigenschaften beziehen. Die Diskussion um dieses Problem konzentriert sich hauptsächlich auf dieses Thema. Es ist jedoch wichtig zu verstehen, dass Voreingenommenheit gegenüber Menschen nur ein Teil des Problems ist. Wir werden maschinelles Lernen für viele Dinge nutzen, und Stichprobenfehler werden für alle relevant sein. Wenn Sie andererseits mit Menschen arbeiten, hängt die Verzerrung in den Daten möglicherweise nicht mit ihnen zusammen.

Um dies zu verstehen, kehren wir zum Beispiel Hautkrebs zurück und betrachten drei hypothetische Möglichkeiten für einen Systemausfall.

  1. Heterogene Verteilung der Menschen: eine unausgewogene Anzahl von Fotos mit unterschiedlichen Hauttönen, was aufgrund der Pigmentierung zu falsch positiven oder falsch negativen Ergebnissen führt.
  2. Die Daten, auf denen das System trainiert wird, enthalten ein häufig vorkommendes und heterogen verteiltes Merkmal, das nicht mit Menschen in Verbindung gebracht wird und keinen diagnostischen Wert hat: ein Lineal auf Fotos von Hautkrebs oder Gras auf Fotos von Schafen. In diesem Fall wird das Ergebnis anders ausfallen, wenn das System Pixel im Bild von etwas findet, das das menschliche Auge als „Lineal“ identifiziert.
  3. Die Daten enthalten ein Fremdmerkmal, das eine Person selbst bei der Suche nicht erkennen kann.

Was bedeutet das? Wir wissen von vornherein, dass Daten verschiedene Personengruppen unterschiedlich darstellen können, und können zumindest planen, nach solchen Ausnahmen zu suchen. Mit anderen Worten: Es gibt viele gesellschaftliche Gründe für die Annahme, dass Daten über Personengruppen bereits eine gewisse Verzerrung enthalten. Wenn wir uns das Foto mit dem Lineal ansehen, werden wir dieses Lineal sehen – wir haben es vorher einfach ignoriert, wissend, dass es keine Rolle spielt, und vergessen, dass das System nichts weiß.

Aber was wäre, wenn alle Ihre Fotos von ungesunder Haut in einem Büro unter Glühlampenlicht aufgenommen würden und Ihre gesunde Haut unter fluoreszierendem Licht? Was wäre, wenn Sie nach der Aufnahme gesunder Haut und vor der Aufnahme ungesunder Haut das Betriebssystem Ihres Telefons aktualisiert hätten und Apple oder Google den Rauschunterdrückungsalgorithmus leicht geändert hätten? Ein Mensch kann dies nicht bemerken, egal wie sehr er nach solchen Merkmalen sucht. Aber das maschinennutzende System wird dies sofort erkennen und nutzen. Sie weiß nichts.

Bisher haben wir über falsche Korrelationen gesprochen, aber es könnte auch sein, dass die Daten korrekt sind und die Ergebnisse korrekt sind, Sie sie aber nicht aus ethischen, rechtlichen oder verwaltungstechnischen Gründen verwenden möchten. In manchen Gerichtsbarkeiten ist es Frauen beispielsweise nicht gestattet, einen Rabatt auf ihre Versicherung zu erhalten, auch wenn Frauen möglicherweise sicherere Autofahrer sind. Wir können uns leicht ein System vorstellen, das bei der Analyse historischer Daten weiblichen Namen einen geringeren Risikofaktor zuordnet. Okay, entfernen wir Namen aus der Auswahl. Aber erinnern Sie sich an das Beispiel von Amazon: Das System kann das Geschlecht anhand anderer Faktoren bestimmen (auch wenn es nicht weiß, welches Geschlecht es ist oder was für ein Auto es ist), und Sie werden dies erst bemerken, wenn die Regulierungsbehörde die Tarife für Sie rückwirkend analysiert Angebot und Gebühren, wird Ihnen ein Bußgeld auferlegt.

Schließlich wird oft davon ausgegangen, dass wir solche Systeme nur für Projekte verwenden, an denen Menschen und soziale Interaktionen beteiligt sind. Das ist nicht so. Wenn Sie Gasturbinen herstellen, möchten Sie wahrscheinlich maschinelles Lernen auf die Telemetrie anwenden, die von Dutzenden oder Hunderten von Sensoren an Ihrem Produkt übertragen wird (Audio-, Video-, Temperatur- und alle anderen Sensoren erzeugen Daten, die sehr einfach an die Erstellung einer Maschine angepasst werden können). Lernmodell). Hypothetisch könnte man sagen: „Hier sind Daten von tausend Turbinen, die ausgefallen sind, bevor sie ausgefallen sind, und hier sind Daten von tausend Turbinen, die nicht ausgefallen sind.“ Erstellen Sie ein Modell, um den Unterschied zwischen ihnen zu erkennen.“ Stellen Sie sich nun vor, dass Siemens-Sensoren in 75 % der defekten Turbinen installiert sind und nur in 12 % der guten (es gibt keinen Zusammenhang mit Ausfällen). Das System wird ein Modell erstellen, um Turbinen mit Siemens-Sensoren zu finden. Hoppla!

Über den Bias der künstlichen Intelligenz
Bild – Moritz Hardt, UC Berkeley

Umgang mit KI-Bias

Was können wir dagegen tun? Sie können das Problem aus drei Blickwinkeln angehen:

  1. Methodische Genauigkeit beim Sammeln und Verwalten von Daten für das Training des Systems.
  2. Technische Werkzeuge zur Analyse und Diagnose des Modellverhaltens.
  3. Trainieren Sie, schulen Sie und seien Sie vorsichtig, wenn Sie maschinelles Lernen in Produkte implementieren.

In Molières Buch „Der Bürger im Adel“ gibt es einen Witz: Einem Mann wurde gesagt, dass Literatur in Prosa und Poesie unterteilt sei, und er stellte erfreut fest, dass er sein ganzes Leben lang in Prosa gesprochen hatte, ohne es zu wissen. Wahrscheinlich geht es Statistikern heute so: Ohne es zu merken, haben sie ihre Karriere der künstlichen Intelligenz und Stichprobenfehlern gewidmet. Nach Stichprobenfehlern zu suchen und sich darüber Sorgen zu machen, ist kein neues Problem, wir müssen lediglich systematisch an seine Lösung herangehen. Wie oben erwähnt, ist es in manchen Fällen tatsächlich einfacher, dies zu erreichen, indem man Probleme im Zusammenhang mit Personendaten untersucht. Wir gehen a priori davon aus, dass wir möglicherweise Vorurteile gegenüber verschiedenen Personengruppen haben, es fällt uns jedoch schwer, uns überhaupt ein Vorurteil gegenüber Siemens-Sensoren vorzustellen.

Das Neue an all dem ist natürlich, dass statistische Analysen nicht mehr direkt durchgeführt werden. Sie wird von Maschinen ausgeführt, die große, komplexe Modelle erstellen, die schwer zu verstehen sind. Die Frage der Transparenz ist einer der Hauptaspekte des Problems der Voreingenommenheit. Wir befürchten, dass das System nicht nur voreingenommen ist, sondern dass es keine Möglichkeit gibt, seine Voreingenommenheit zu erkennen, und dass sich maschinelles Lernen von anderen Formen der Automatisierung unterscheidet, die aus klaren logischen Schritten bestehen sollen, die getestet werden können.

Hier gibt es zwei Probleme. Möglicherweise können wir immer noch eine Art Prüfung maschineller Lernsysteme durchführen. Und die Prüfung jedes anderen Systems ist tatsächlich nicht einfacher.

Erstens ist eine der Richtungen der modernen Forschung im Bereich des maschinellen Lernens die Suche nach Methoden zur Identifizierung wichtiger Funktionalitäten maschineller Lernsysteme. Allerdings ist maschinelles Lernen (in seinem aktuellen Zustand) ein völlig neues Wissenschaftsgebiet, das sich schnell verändert. Denken Sie also nicht, dass Dinge, die heute unmöglich sind, nicht bald ganz real werden können. Projekt OpenAI ist ein interessantes Beispiel dafür.

Zweitens ist die Idee, dass man den Entscheidungsprozess bestehender Systeme oder Organisationen testen und verstehen kann, in der Theorie gut, in der Praxis jedoch mittelmäßig. Es ist nicht einfach zu verstehen, wie Entscheidungen in einer großen Organisation getroffen werden. Selbst wenn es einen formellen Entscheidungsprozess gibt, spiegelt dieser nicht wider, wie Menschen tatsächlich interagieren, und sie selbst verfügen oft nicht über einen logischen, systematischen Ansatz, um ihre Entscheidungen zu treffen. Wie mein Kollege sagte Vijay Pande, Auch Menschen sind Black Boxes.

Nehmen wir tausend Menschen in mehreren sich überschneidenden Unternehmen und Institutionen, dann wird das Problem noch komplexer. Wir wissen im Nachhinein, dass das Space Shuttle bei seiner Rückkehr auseinanderbrechen sollte, und Einzelpersonen innerhalb der NASA verfügten über Informationen, die ihnen Anlass zu der Annahme gaben, dass etwas Schlimmes passieren könnte, aber das System im Allgemeinen Das wusste ich nicht. Die NASA hat gerade erst eine ähnliche Prüfung durchlaufen, nachdem sie ihr vorheriges Shuttle verloren hatte, und doch hat sie aus einem sehr ähnlichen Grund ein weiteres verloren. Es lässt sich leicht argumentieren, dass Organisationen und Menschen klaren, logischen Regeln folgen, die überprüft, verstanden und geändert werden können – aber die Erfahrung beweist das Gegenteil. Das "Gosplans Täuschung".

Ich vergleiche maschinelles Lernen oft mit Datenbanken, insbesondere mit relationalen – einer neuen grundlegenden Technologie, die die Fähigkeiten der Informatik und der Welt um sie herum verändert hat, die zu einem Teil von allem geworden ist, was wir ständig nutzen, ohne es zu merken. Auch bei Datenbanken gibt es Probleme, und sie sind von ähnlicher Natur: Das System basiert möglicherweise auf schlechten Annahmen oder schlechten Daten, aber es wird schwer zu bemerken sein, und die Leute, die das System verwenden, werden tun, was es ihnen sagt, ohne Fragen zu stellen. Es gibt viele alte Witze über Steuerleute, die Ihren Namen einmal falsch geschrieben haben, und es ist viel schwieriger, sie davon zu überzeugen, den Fehler zu korrigieren, als Ihren Namen tatsächlich zu ändern. Es gibt viele Möglichkeiten, darüber nachzudenken, aber es ist nicht klar, was besser ist: als technisches Problem in SQL, als Fehler in einer Oracle-Version oder als Versagen bürokratischer Institutionen? Wie schwierig ist es, einen Fehler in einem Prozess zu finden, der dazu geführt hat, dass das System keine Tippfehlerkorrekturfunktion hat? Konnte das herausgefunden werden, bevor die Leute anfingen, sich zu beschweren?

Noch deutlicher wird dieses Problem durch Geschichten, in denen Autofahrer aufgrund veralteter Daten im Navigator in Flüsse fahren. Okay, Karten müssen ständig aktualisiert werden. Aber wie groß ist TomToms Schuld daran, dass Ihr Auto ins Meer geschleudert wurde?

Der Grund, warum ich das sage, ist, dass die Voreingenommenheit beim maschinellen Lernen zu Problemen führen wird. Aber diese Probleme werden denen ähneln, mit denen wir in der Vergangenheit konfrontiert waren, und sie können in etwa so gut erkannt und gelöst werden (oder auch nicht), wie wir es in der Vergangenheit konnten. Daher ist es unwahrscheinlich, dass ein Szenario, in dem KI-Voreingenommenheit Schaden anrichtet, erfahrenen Forschern in einer großen Organisation widerfährt. Höchstwahrscheinlich wird ein unbedeutender Technologieunternehmer oder Softwareanbieter etwas auf den Knien schreiben und dabei Open-Source-Komponenten, Bibliotheken und Tools verwenden, die er nicht versteht. Und der unglückliche Kunde kauft den Begriff „künstliche Intelligenz“ in der Produktbeschreibung und verteilt ihn, ohne Fragen zu stellen, an seine schlecht bezahlten Mitarbeiter und fordert sie auf, das zu tun, was die KI sagt. Genau das ist bei Datenbanken passiert. Dies ist kein Problem der künstlichen Intelligenz oder gar ein Softwareproblem. Das ist der menschliche Faktor.

Abschluss

Maschinelles Lernen kann alles, was Sie einem Hund beibringen können – aber Sie können nie sicher sein, was Sie dem Hund genau beigebracht haben.

Ich habe oft das Gefühl, dass der Begriff „künstliche Intelligenz“ solchen Gesprächen nur im Wege steht. Dieser Begriff erweckt den falschen Eindruck, dass wir sie tatsächlich geschaffen haben – diese Intelligenz. Dass wir auf dem Weg zu HAL9000 oder Skynet sind – das ist tatsächlich so versteht. Aber nein. Dabei handelt es sich lediglich um Maschinen, und es ist viel genauer, sie beispielsweise mit einer Waschmaschine zu vergleichen. Sie wäscht Wäsche viel besser als ein Mensch, aber wenn man ihr Geschirr statt Wäsche reinlegt, wäscht sie ... es. Das Geschirr wird sogar sauber. Aber das wird nicht das sein, was Sie erwartet haben, und das wird auch nicht passieren, weil das System irgendwelche Vorurteile gegenüber Gerichten hat. Die Waschmaschine weiß nicht, was Geschirr oder Kleidung ist – sie ist nur ein Beispiel für Automatisierung, konzeptionell nicht anders als frühere Prozesse.

Ganz gleich, ob es sich um Autos, Flugzeuge oder Datenbanken handelt, diese Systeme werden sowohl sehr leistungsfähig als auch sehr begrenzt sein. Sie werden ganz davon abhängen, wie die Menschen diese Systeme nutzen, ob ihre Absichten gut oder schlecht sind und wie gut sie verstehen, wie sie funktionieren.

Daher ist die Aussage, dass „künstliche Intelligenz Mathematik ist und daher keine Vorurteile haben kann“, völlig falsch. Aber es ist ebenso falsch zu sagen, dass maschinelles Lernen „subjektiver Natur“ sei. Maschinelles Lernen findet Muster in Daten, und welche Muster es findet, hängt von den Daten ab, und die Daten hängen von uns ab. Genau wie das, was wir mit ihnen machen. Maschinelles Lernen macht einige Dinge zwar viel besser als wir – aber Hunde sind zum Beispiel beim Aufspüren von Drogen viel effektiver als Menschen, was kein Grund ist, sie als Zeugen zu nutzen und auf der Grundlage ihrer Aussage ein Urteil zu fällen. Und Hunde sind übrigens viel schlauer als jedes maschinelle Lernsystem.

Übersetzung: Diana Letskaya.
Bearbeitung: Alexey Ivanov.
Gemeinschaft: @PonchikNews.

Source: habr.com

Kommentar hinzufügen