Wir können KI-Systemen, die allein auf Deep Learning basieren, nicht vertrauen

Wir können KI-Systemen, die allein auf Deep Learning basieren, nicht vertrauen

Dieser Text ist nicht das Ergebnis wissenschaftlicher Forschung, sondern eine von vielen Meinungen zu unserer unmittelbaren technologischen Entwicklung. Und zugleich eine Einladung zur Diskussion.

Gary Marcus, Professor an der New York University, glaubt, dass Deep Learning eine wichtige Rolle bei der Entwicklung von KI spielt. Er glaubt aber auch, dass übermäßige Begeisterung für diese Technik zu ihrer Diskreditierung führen kann.

In seinem Buch KI neu starten: Künstliche Intelligenz aufbauen, der wir vertrauen können Marcus, ein ausgebildeter Neurowissenschaftler, der eine Karriere auf der Spitzenforschung im Bereich KI aufgebaut hat, geht auf die technischen und ethischen Aspekte ein. Aus technologischer Sicht kann Deep Learning die Wahrnehmungsaufgaben unseres Gehirns erfolgreich nachahmen, beispielsweise die Bild- oder Spracherkennung. Aber für andere Aufgaben, etwa das Verstehen von Gesprächen oder das Ermitteln von Ursache-Wirkungs-Zusammenhängen, ist Deep Learning nicht geeignet. Um fortschrittlichere intelligente Maschinen zu schaffen, die ein breiteres Spektrum an Problemen lösen können – oft als künstliche allgemeine Intelligenz bezeichnet – muss Deep Learning mit anderen Techniken kombiniert werden.

Wenn ein KI-System seine Aufgaben oder die Welt um es herum nicht wirklich versteht, kann dies gefährliche Folgen haben. Schon kleinste unerwartete Änderungen in der Systemumgebung können zu fehlerhaftem Verhalten führen. Es gab bereits viele solcher Beispiele: Determinanten unangemessener Ausdrücke, die leicht zu täuschen sind; Arbeitssuchsysteme, die konsequent diskriminieren; selbstfahrende Autos, die verunfallen und manchmal den Fahrer oder Fußgänger töten. Die Schaffung künstlicher allgemeiner Intelligenz ist nicht nur ein interessantes Forschungsproblem, sondern bietet auch viele völlig praktische Anwendungen.

Marcus und sein Co-Autor Ernest Davis plädieren in ihrem Buch für einen anderen Weg. Sie glauben, dass wir noch weit davon entfernt sind, eine allgemeine KI zu schaffen, sind aber zuversichtlich, dass es früher oder später möglich sein wird, sie zu schaffen.

Warum brauchen wir allgemeine KI? Spezialisierte Versionen wurden bereits erstellt und bringen viele Vorteile mit sich.

Das ist richtig, und es wird noch mehr Vorteile geben. Aber es gibt viele Probleme, die eine spezialisierte KI einfach nicht lösen kann. Zum Beispiel das Verstehen gewöhnlicher Sprache oder allgemeine Hilfestellungen in der virtuellen Welt oder ein Roboter, der beim Putzen und Kochen hilft. Solche Aufgaben übersteigen die Möglichkeiten spezialisierter KI. Eine weitere interessante praktische Frage: Ist es möglich, mithilfe spezieller KI ein sicheres selbstfahrendes Auto zu entwickeln? Die Erfahrung zeigt, dass eine solche KI immer noch viele Probleme mit dem Verhalten in ungewöhnlichen Situationen hat, selbst beim Autofahren, was die Situation erheblich verkompliziert.

Ich denke, wir alle hätten gerne eine KI, die uns dabei helfen kann, große neue Entdeckungen in der Medizin zu machen. Es ist unklar, ob aktuelle Technologien dafür geeignet sind, da die Biologie ein komplexes Gebiet ist. Sie müssen bereit sein, viele Bücher zu lesen. Wissenschaftler verstehen Ursache-Wirkungs-Zusammenhänge im Zusammenspiel von Netzwerken und Molekülen, können Theorien über Planeten entwickeln und so weiter. Mit spezialisierter KI können wir jedoch keine Maschinen schaffen, die zu solchen Entdeckungen fähig sind. Und mit allgemeiner KI könnten wir Wissenschaft, Technologie und Medizin revolutionieren. Meiner Meinung nach ist es sehr wichtig, weiterhin an der Schaffung allgemeiner KI zu arbeiten.

Es hört sich so an, als ob Sie mit „allgemein“ eine starke KI meinen?

Mit „allgemein“ meine ich, dass KI in der Lage sein wird, spontan über neue Probleme nachzudenken und sie zu lösen. Anders als beispielsweise in Go, wo sich das Problem in den letzten 2000 Jahren nicht geändert hat.

Allgemeine KI soll sowohl in der Politik als auch in der Medizin Entscheidungen treffen können. Dies ist analog zu den menschlichen Fähigkeiten; Jeder vernünftige Mensch kann viel tun. Man nimmt unerfahrene Studenten und lässt sie innerhalb weniger Tage an fast allem arbeiten, von einem rechtlichen Problem bis hin zu einem medizinischen Problem. Dies liegt daran, dass sie über ein allgemeines Weltverständnis verfügen und lesen können und daher zu einem sehr breiten Spektrum an Aktivitäten beitragen können.

Der Zusammenhang zwischen solcher Intelligenz und starker Intelligenz besteht darin, dass eine nicht starke Intelligenz wahrscheinlich nicht in der Lage sein wird, allgemeine Probleme zu lösen. Um etwas zu schaffen, das robust genug ist, um mit einer sich ständig verändernden Welt zurechtzukommen, müssen Sie sich möglicherweise zumindest der allgemeinen Intelligenz nähern.

Aber jetzt sind wir davon sehr weit entfernt. AlphaGo kann perfekt auf einem 19x19-Brett spielen, es muss jedoch neu trainiert werden, um auf einem rechteckigen Brett zu spielen. Oder nehmen Sie das durchschnittliche Deep-Learning-System: Es kann einen Elefanten erkennen, wenn er gut beleuchtet ist und seine Hautstruktur sichtbar ist. Und wenn nur die Silhouette eines Elefanten sichtbar ist, wird das System ihn wahrscheinlich nicht erkennen können.

In Ihrem Buch erwähnen Sie, dass Deep Learning nicht die Fähigkeiten der allgemeinen KI erreichen kann, weil es nicht zu tiefem Verständnis fähig ist.

In der Kognitionswissenschaft spricht man von der Bildung verschiedener kognitiver Modelle. Ich sitze in einem Hotelzimmer und verstehe, dass es einen Schrank, ein Bett und einen Fernseher gibt, der auf ungewöhnliche Weise aufgehängt ist. Ich kenne alle diese Objekte, ich identifiziere sie nicht nur. Ich verstehe auch, wie sie miteinander verbunden sind. Ich habe Vorstellungen über das Funktionieren der Welt um mich herum. Sie sind nicht perfekt. Sie mögen falsch sein, aber sie sind ziemlich gut. Und auf dieser Grundlage ziehe ich viele Schlussfolgerungen, die zu Richtlinien für mein tägliches Handeln werden.

Das andere Extrem war so etwas wie das von DeepMind entwickelte Atari-Spielesystem, bei dem es sich daran erinnerte, was es tun musste, wenn es an bestimmten Stellen auf dem Bildschirm Pixel sah. Wenn Sie genügend Daten erhalten, denken Sie vielleicht, Sie hätten etwas verstanden, aber in Wirklichkeit ist es sehr oberflächlich. Ein Beweis dafür ist, dass die KI deutlich schlechter abschneidet, wenn man Objekte um drei Pixel verschiebt. Veränderungen verwirren ihn. Das ist das Gegenteil von tiefem Verständnis.

Um dieses Problem zu lösen, schlagen Sie eine Rückkehr zur klassischen KI vor. Welche Vorteile sollten wir versuchen zu nutzen?

Es gibt mehrere Vorteile.

Erstens ist klassische KI eigentlich ein Rahmenwerk zur Erstellung kognitiver Modelle der Welt, auf deren Grundlage dann Schlussfolgerungen gezogen werden können.

Zweitens ist klassische KI perfekt mit Regeln kompatibel. Beim Deep Learning gibt es derzeit einen merkwürdigen Trend, bei dem Experten versuchen, Regeln zu umgehen. Sie wollen alles auf neuronalen Netzen machen und nichts, was wie klassische Programmierung aussieht. Aber es gibt Probleme, die auf diese Weise in aller Ruhe gelöst wurden, und niemand hat sich darum gekümmert. Zum Beispiel das Erstellen von Routen in Google Maps.

Tatsächlich brauchen wir beide Ansätze. Maschinelles Lernen ist gut darin, aus Daten zu lernen, aber sehr schlecht darin, die Abstraktion eines Computerprogramms darzustellen. Klassische KI funktioniert gut mit Abstraktionen, aber sie muss vollständig von Hand programmiert werden, und es gibt zu viel Wissen auf der Welt, um sie alle zu programmieren. Natürlich müssen wir beide Ansätze kombinieren.

Dies knüpft an das Kapitel an, in dem Sie darüber sprechen, was wir vom menschlichen Geist lernen können. Und zunächst einmal zu dem Konzept, das auf der oben genannten Idee basiert, dass unser Bewusstsein aus vielen verschiedenen Systemen besteht, die auf unterschiedliche Weise funktionieren.

Ich denke, eine andere Möglichkeit, dies zu erklären, besteht darin, dass jedes kognitive System, das wir haben, tatsächlich ein anderes Problem löst. Ähnliche Teile der KI müssen so konzipiert sein, dass sie unterschiedliche Probleme mit unterschiedlichen Eigenschaften lösen.

Jetzt versuchen wir, einige All-in-One-Technologien zu nutzen, um Probleme zu lösen, die sich grundlegend voneinander unterscheiden. Einen Satz zu verstehen ist keineswegs dasselbe wie einen Gegenstand zu erkennen. Aber in beiden Fällen versuchen die Leute, Deep Learning zu nutzen. Aus kognitiver Sicht handelt es sich um qualitativ unterschiedliche Aufgaben. Ich bin einfach erstaunt, wie wenig Wertschätzung klassische KI in der Deep-Learning-Community genießt. Warum auf das Erscheinen einer Wunderwaffe warten? Es ist unerreichbar und erfolglose Recherchen ermöglichen es uns nicht, die volle Komplexität der Aufgabe der KI-Erstellung zu begreifen.

Sie erwähnen auch, dass es KI-Systeme braucht, um Ursache-Wirkungs-Zusammenhänge zu verstehen. Glauben Sie, dass uns Deep Learning, klassische KI oder etwas völlig Neues dabei helfen wird?

Dies ist ein weiterer Bereich, für den Deep Learning nicht gut geeignet ist. Es erklärt nicht die Ursachen bestimmter Ereignisse, sondern berechnet die Wahrscheinlichkeit eines Ereignisses unter bestimmten Bedingungen.

Worüber reden wir? Sie beobachten bestimmte Szenarien und verstehen, warum dies geschieht und was passieren könnte, wenn sich bestimmte Umstände ändern. Ich kann mir den Ständer ansehen, auf dem der Fernseher steht, und mir vorstellen, dass der Ständer umkippt und der Fernseher herunterfällt, wenn ich eines seiner Beine abschneide. Dies ist eine Ursache-Wirkungs-Beziehung.

Die klassische KI gibt uns dafür einige Werkzeuge an die Hand. Er kann sich zum Beispiel vorstellen, was Stütze ist und was ein Sturz ist. Aber ich werde nicht überbewerten. Das Problem besteht darin, dass die klassische KI weitgehend auf vollständige Informationen über das Geschehen angewiesen ist, und ich bin allein durch einen Blick auf den Stand zu diesem Schluss gekommen. Ich kann das irgendwie verallgemeinern, mir Teile des Standes vorstellen, die für mich nicht sichtbar sind. Wir verfügen noch nicht über die Tools, um diese Eigenschaft zu implementieren.

Sie sagen auch, dass Menschen über angeborenes Wissen verfügen. Wie lässt sich das in KI umsetzen?

Im Moment der Geburt ist unser Gehirn bereits ein sehr komplexes System. Es ist nicht festgelegt; die Natur hat den ersten, groben Entwurf geschaffen. Und dann hilft uns das Lernen, diesen Entwurf unser Leben lang zu überarbeiten.

Ein grober Entwurf des Gehirns verfügt bereits über bestimmte Fähigkeiten. Eine neugeborene Bergziege ist in der Lage, innerhalb weniger Stunden zielsicher den Berghang hinunterzusteigen. Es ist offensichtlich, dass er bereits ein Verständnis für den dreidimensionalen Raum, seinen Körper und die Beziehungen zwischen ihnen hat. Ein sehr komplexes System.

Dies ist zum Teil der Grund, warum ich glaube, dass wir Hybriden brauchen. Es ist schwer vorstellbar, wie man einen Roboter schaffen könnte, der in einer Welt gut funktioniert, in der man nicht weiß, wo man anfangen soll, anstatt mit einer leeren Tafel zu beginnen und aus langjähriger, umfassender Erfahrung zu lernen.

Was den Menschen betrifft, so stammt unser angeborenes Wissen aus unserem Genom, das sich über lange Zeit entwickelt hat. Aber bei KI-Systemen müssen wir einen anderen Weg gehen. Ein Teil davon könnten die Regeln für die Konstruktion unserer Algorithmen sein. Ein Teil davon könnten die Regeln für die Erstellung der Datenstrukturen sein, die diese Algorithmen manipulieren. Und ein Teil davon kann Wissen sein, das wir direkt in Maschinen investieren.

Es ist interessant, dass Sie in dem Buch die Idee von Vertrauen und der Schaffung vertrauensvoller Systeme ansprechen. Warum haben Sie sich gerade für dieses Kriterium entschieden?

Ich glaube, dass das heute alles ein Spiel ist. Es scheint mir, dass wir einen seltsamen Moment in der Geschichte durchleben und einer Menge Software vertrauen, die nicht vertrauenswürdig ist. Ich denke, die Sorgen, die wir heute haben, werden nicht ewig anhalten. In hundert Jahren wird die KI unser Vertrauen rechtfertigen, vielleicht sogar schon früher.

Aber heute ist KI gefährlich. Nicht in dem Sinne, wie Elon Musk befürchtet, sondern in dem Sinne, dass Vorstellungsgesprächssysteme Frauen diskriminieren, unabhängig davon, was Programmierer tun, weil ihre Werkzeuge zu einfach sind.

Ich wünschte, wir hätten eine bessere KI. Ich möchte keinen „KI-Winter“ erleben, in dem die Leute erkennen, dass KI nicht funktioniert und einfach nur gefährlich ist, und sie nicht reparieren wollen.

In mancher Hinsicht wirkt Ihr Buch sehr optimistisch. Sie gehen davon aus, dass es möglich ist, vertrauenswürdige KI aufzubauen. Wir müssen einfach in eine andere Richtung schauen.

Stimmt, das Buch ist kurzfristig sehr pessimistisch und langfristig sehr optimistisch. Wir glauben, dass alle von uns beschriebenen Probleme durch einen umfassenderen Blick auf die richtigen Antworten gelöst werden können. Und wir glauben, dass die Welt ein besserer Ort sein wird, wenn dies geschieht.

Source: habr.com

Kommentar hinzufügen