Vi kan ikke stole på AI-systemer, der er bygget på Deep Learning alene

Vi kan ikke stole på AI-systemer, der er bygget på Deep Learning alene

Denne tekst er ikke resultatet af videnskabelig forskning, men en af ​​mange meninger om vores umiddelbare teknologiske udvikling. Og samtidig en invitation til diskussion.

Gary Marcus, professor ved New York University, mener, at dyb læring spiller en vigtig rolle i udviklingen af ​​kunstig intelligens. Men han mener også, at overdreven entusiasme for denne teknik kan føre til dens miskredit.

I hans bog Genstart af AI: Opbygning af kunstig intelligens, vi kan stole på Marcus, en neuroforsker af uddannelse, som har bygget en karriere på banebrydende AI-forskning, behandler de tekniske og etiske aspekter. Fra et teknologisk perspektiv kan deep learning med succes efterligne de perceptuelle opgaver, vores hjerner udfører, såsom billed- eller talegenkendelse. Men til andre opgaver, såsom at forstå samtaler eller bestemme årsag-virkningsforhold, er dyb læring ikke egnet. For at skabe mere avancerede intelligente maskiner, der kan løse en bredere række af problemer – ofte kaldet kunstig generel intelligens – skal dyb læring kombineres med andre teknikker.

Hvis et AI-system ikke rigtig forstår sine opgaver eller verden omkring det, kan det føre til farlige konsekvenser. Selv de mindste uventede ændringer i systemets omgivelser kan føre til fejlagtig adfærd. Der har allerede været mange sådanne eksempler: determinanter for upassende udtryk, der er lette at bedrage; jobsøgningssystemer, der konsekvent diskriminerer; førerløse biler, der styrter ned og nogle gange dræber føreren eller fodgængeren. At skabe kunstig generel intelligens er ikke bare et interessant forskningsproblem, det har mange helt praktiske anvendelser.

I deres bog argumenterer Marcus og hans medforfatter Ernest Davis for en anden vej. De mener, at vi stadig er langt fra at skabe generel AI, men de er sikre på, at det før eller siden vil være muligt at skabe det.

Hvorfor har vi brug for generel kunstig intelligens? Specialiserede versioner er allerede blevet oprettet og giver en masse fordele.

Det er rigtigt, og der vil være endnu flere fordele. Men der er mange problemer, som specialiseret kunstig intelligens simpelthen ikke kan løse. For eksempel at forstå almindelig tale, eller generel assistance i den virtuelle verden, eller en robot, der hjælper med rengøring og madlavning. Sådanne opgaver ligger uden for specialiseret kunstig intelligens. Et andet interessant praktisk spørgsmål: er det muligt at skabe en sikker selvkørende bil ved hjælp af specialiseret AI? Erfaring viser, at en sådan AI stadig har mange problemer med adfærd i unormale situationer, selv under kørsel, hvilket komplicerer situationen meget.

Jeg tror, ​​at vi alle gerne vil have AI, der kan hjælpe os med at gøre store nye opdagelser inden for medicin. Det er uklart, om de nuværende teknologier er egnede til dette, da biologi er et komplekst område. Du skal være forberedt på at læse mange bøger. Forskere forstår årsag-og-virkning-forhold i samspillet mellem netværk og molekyler, kan udvikle teorier om planeter og så videre. Men med specialiseret kunstig intelligens kan vi ikke skabe maskiner, der er i stand til sådanne opdagelser. Og med generel kunstig intelligens kunne vi revolutionere videnskab, teknologi og medicin. Efter min mening er det meget vigtigt at fortsætte arbejdet med at skabe generel AI.

Det lyder som om du med "generelt" mener stærk AI?

Med "generelt" mener jeg, at AI vil være i stand til at tænke over og løse nye problemer i farten. I modsætning til for eksempel Go, hvor problemet ikke har ændret sig i de sidste 2000 år.

Generel kunstig intelligens bør være i stand til at træffe beslutninger i både politik og medicin. Dette er analogt med menneskelige evner; enhver fornuftig person kan gøre meget. Du tager uerfarne studerende og inden for få dage får de dem til at arbejde med næsten alt, lige fra et juridisk problem til et medicinsk problem. Det skyldes, at de har en generel forståelse af verden og kan læse, og kan derfor bidrage til en meget bred vifte af aktiviteter.

Forholdet mellem en sådan intelligens og stærk intelligens er, at en ikke-stærk intelligens sandsynligvis ikke vil være i stand til at løse generelle problemer. For at skabe noget robust nok til at håndtere en verden i konstant forandring, skal du måske i det mindste nærme dig generel intelligens.

Men nu er vi meget langt fra dette. AlphaGo kan spille udmærket på et 19x19 bræt, men det skal genoptrænes til at spille på et rektangulært bræt. Eller tag det gennemsnitlige dybe læringssystem: den kan genkende en elefant, hvis den er godt oplyst, og dens hudtekstur er synlig. Og hvis kun silhuetten af ​​en elefant er synlig, vil systemet formentlig ikke kunne genkende den.

I din bog nævner du, at deep learning ikke kan opnå evnerne til generel AI, fordi den ikke er i stand til dyb forståelse.

I kognitiv videnskab taler man om dannelsen af ​​forskellige kognitive modeller. Jeg sidder på et hotelværelse, og jeg forstår, at der er et skab, der er en seng, der er et tv, der er hængt på en usædvanlig måde. Jeg kender alle disse genstande, jeg identificerer dem ikke bare. Jeg forstår også, hvordan de er forbundet med hinanden. Jeg har ideer om, hvordan verden omkring mig fungerer. De er ikke perfekte. De kan være forkerte, men de er ganske gode. Og ud fra dem drager jeg mange konklusioner, der bliver retningslinjer for mine daglige handlinger.

Den anden yderlighed var noget i retning af Atari-spilsystemet bygget af DeepMind, hvor det huskede, hvad det skulle gøre, når det så pixels bestemte steder på skærmen. Får man nok data, tror man måske, man har en forståelse, men i virkeligheden er det meget overfladisk. Et bevis på dette er, at hvis du flytter objekter med tre pixels, spiller AI'en meget dårligere. Ændringer forvirrer ham. Dette er det modsatte af dyb forståelse.

For at løse dette problem foreslår du at vende tilbage til klassisk kunstig intelligens. Hvilke fordele skal vi prøve at bruge?

Der er flere fordele.

For det første er klassisk AI faktisk en ramme for at skabe kognitive modeller af verden, baseret på hvilke konklusioner der så kan drages.

For det andet er klassisk AI perfekt kompatibel med regler. Der er en mærkelig tendens inden for deep learning lige nu, hvor eksperter forsøger at undgå regler. De vil gøre alt på neurale netværk og ikke lave noget, der ligner klassisk programmering. Men der er problemer, der roligt blev løst på denne måde, og ingen var opmærksomme på det. For eksempel at bygge ruter i Google Maps.

Faktisk har vi brug for begge tilgange. Machine learning er god til at lære af data, men meget dårlig til at repræsentere den abstraktion, der er et computerprogram. Klassisk AI fungerer godt med abstraktioner, men det skal programmeres helt i hånden, og der er for meget viden i verden til at programmere dem alle. Det er klart, at vi skal kombinere begge tilgange.

Dette hænger sammen med kapitlet, hvor du taler om, hvad vi kan lære af det menneskelige sind. Og først og fremmest om konceptet baseret på idéen nævnt ovenfor, at vores bevidsthed består af mange forskellige systemer, der fungerer på forskellige måder.

Jeg tror, ​​at en anden måde at forklare dette på er, at hvert kognitivt system, vi har, virkelig løser et andet problem. Lignende dele af kunstig intelligens skal designes til at løse forskellige problemer, der har forskellige egenskaber.

Nu forsøger vi at bruge nogle alt-i-én-teknologier til at løse problemer, der er radikalt forskellige fra hinanden. At forstå en sætning er slet ikke det samme som at genkende et objekt. Men folk forsøger at bruge deep learning i begge tilfælde. Fra et kognitivt synspunkt er der tale om kvalitativt forskellige opgaver. Jeg er simpelthen overrasket over, hvor lidt påskønnelse der er for klassisk AI i deep learning-fællesskabet. Hvorfor vente på, at en sølvkugle dukker op? Det er uopnåeligt, og frugtesløse søgninger tillader os ikke at forstå den fulde kompleksitet af opgaven med at skabe AI.

Du nævner også, at AI-systemer er nødvendige for at forstå årsag-og-virkning-forhold. Tror du, at deep learning, klassisk AI eller noget helt nyt vil hjælpe os med dette?

Dette er et andet område, hvor deep learning ikke er velegnet. Den forklarer ikke årsagerne til bestemte hændelser, men beregner sandsynligheden for en hændelse under givne forhold.

Hvad taler vi om? Du ser visse scenarier, og du forstår, hvorfor dette sker, og hvad der kunne ske, hvis nogle omstændigheder ændrer sig. Jeg kan se på stativet, som tv'et sidder på, og forestille mig, at hvis jeg skærer det ene ben af, vil stativet vælte, og tv'et falder. Dette er et årsag og virkning forhold.

Klassisk AI giver os nogle værktøjer til dette. Han kan for eksempel forestille sig, hvad støtte er, og hvad et fald er. Men jeg vil ikke rose for meget. Problemet er, at klassisk kunstig intelligens i høj grad afhænger af fuldstændig information om, hvad der sker, og jeg kom til en konklusion blot ved at kigge på standen. Jeg kan på en eller anden måde generalisere, forestille mig dele af standen, som ikke er synlige for mig. Vi har endnu ikke værktøjerne til at implementere denne ejendom.

Du siger også, at mennesker har medfødt viden. Hvordan kan dette implementeres i AI?

I fødslen er vores hjerne allerede et meget omfattende system. Det er ikke fast, naturen skabte det første, grove udkast. Og så hjælper læring os med at revidere det udkast gennem hele vores liv.

Et groft udkast til hjernen har allerede visse evner. En nyfødt bjergged er i stand til fejlfrit at gå ned ad bjergsiden inden for få timer. Det er tydeligt, at han allerede har en forståelse af det tredimensionelle rum, sin krop og forholdet mellem dem. Et meget komplekst system.

Det er til dels derfor, jeg mener, at vi har brug for hybrider. Det er svært at forestille sig, hvordan man kunne skabe en robot, der fungerer godt i en verden uden lignende viden om, hvor man skal starte, i stedet for at starte med en blank tavle og lære af lang, stor erfaring.

Hvad angår mennesker, kommer vores medfødte viden fra vores genom, som har udviklet sig over lang tid. Men med AI-systemer bliver vi nødt til at gå en anden vej. En del af dette kan være reglerne for at konstruere vores algoritmer. En del af dette kan være reglerne for at skabe de datastrukturer, som disse algoritmer manipulerer. Og en del af dette kan være viden om, at vi direkte vil investere i maskiner.

Det er interessant, at du i bogen bringer ideen om tillid og skabelsen af ​​tillidsfulde systemer op. Hvorfor valgte du netop dette kriterium?

Jeg tror på, at alt dette i dag er et boldspil. Det forekommer mig, at vi lever gennem et mærkeligt øjeblik i historien, hvor vi stoler på en masse software, der ikke er troværdig. Jeg tror, ​​at de bekymringer, vi har i dag, ikke vil vare evigt. Om hundrede år vil AI retfærdiggøre vores tillid, og måske før.

Men i dag er kunstig intelligens farligt. Ikke i den forstand, Elon Musk frygter, men i den forstand, at jobsamtalesystemer diskriminerer kvinder, uanset hvad programmører gør, fordi deres værktøjer er for simple.

Jeg ville ønske, vi havde bedre AI. Jeg ønsker ikke at se en "AI-vinter", hvor folk indser, at AI ikke virker og bare er farlig og ikke ønsker at rette op på det.

På nogle måder virker din bog meget optimistisk. Du antager, at det er muligt at bygge pålidelig AI. Vi skal bare se i en anden retning.

Det er rigtigt, bogen er meget pessimistisk på kort sigt og meget optimistisk på lang sigt. Vi mener, at alle de problemer, vi har beskrevet, kan løses ved at se bredere på, hvad de rigtige svar skal være. Og vi tror, ​​at hvis dette sker, vil verden blive et bedre sted.

Kilde: www.habr.com

Tilføj en kommentar