Vi kan ikke stole på AI-systemer bygd på dyp læring alene

Vi kan ikke stole på AI-systemer bygd på dyp læring alene

Denne teksten er ikke et resultat av vitenskapelig forskning, men en av mange meninger angående vår umiddelbare teknologiske utvikling. Og samtidig en invitasjon til diskusjon.

Gary Marcus, professor ved New York University, mener at dyp læring spiller en viktig rolle i utviklingen av AI. Men han mener også at overdreven entusiasme for denne teknikken kan føre til miskreditering.

I boken hans Rebooting AI: Bygge kunstig intelligens vi kan stole på Marcus, en nevroforsker av utdanning som har bygget en karriere innen banebrytende AI-forskning, tar for seg de tekniske og etiske aspektene. Fra et teknologiperspektiv kan dyp læring med hell imitere de perseptuelle oppgavene hjernen vår utfører, for eksempel bilde- eller talegjenkjenning. Men for andre oppgaver, som å forstå samtaler eller bestemme årsak-virkningsforhold, er ikke dyp læring egnet. For å lage mer avanserte intelligente maskiner som kan løse et bredere spekter av problemer – ofte kalt kunstig generell intelligens – må dyp læring kombineres med andre teknikker.

Hvis et AI-system ikke virkelig forstår oppgavene eller verden rundt det, kan dette føre til farlige konsekvenser. Selv de minste uventede endringer i systemets miljø kan føre til feilaktig oppførsel. Det har allerede vært mange slike eksempler: determinanter for upassende uttrykk som er lette å lure; jobbsøkingssystemer som konsekvent diskriminerer; førerløse biler som krasjer og noen ganger dreper sjåføren eller fotgjengeren. Å skape kunstig generell intelligens er ikke bare et interessant forskningsproblem, det har mange helt praktiske anvendelser.

I sin bok argumenterer Marcus og hans medforfatter Ernest Davis for en annen vei. De mener at vi fortsatt er langt fra å lage generell AI, men de er sikre på at det før eller siden vil være mulig å lage det.

Hvorfor trenger vi generell AI? Spesialiserte versjoner er allerede opprettet og gir mange fordeler.

Det stemmer, og det vil være enda flere fordeler. Men det er mange problemer som spesialisert AI rett og slett ikke kan løse. For eksempel å forstå vanlig tale, eller generell assistanse i den virtuelle verden, eller en robot som hjelper til med rengjøring og matlaging. Slike oppgaver er utenfor mulighetene til spesialisert AI. Et annet interessant praktisk spørsmål: er det mulig å lage en trygg selvkjørende bil ved hjelp av spesialisert AI? Erfaring viser at slik AI fortsatt har mange problemer med oppførsel i unormale situasjoner, selv under kjøring, noe som kompliserer situasjonen sterkt.

Jeg tror vi alle vil ha AI som kan hjelpe oss å gjøre store nye oppdagelser innen medisin. Det er uklart om dagens teknologier er egnet for dette, siden biologi er et komplekst felt. Du må være forberedt på å lese mange bøker. Forskere forstår årsak-virkning-forhold i samspillet mellom nettverk og molekyler, kan utvikle teorier om planeter og så videre. Med spesialisert AI kan vi imidlertid ikke lage maskiner som er i stand til slike oppdagelser. Og med generell kunstig intelligens kan vi revolusjonere vitenskap, teknologi og medisin. Etter min mening er det veldig viktig å fortsette å jobbe mot å skape generell AI.

Det høres ut som om du med "generelt" mener sterk AI?

Med "generelt" mener jeg at AI vil være i stand til å tenke på og løse nye problemer i farten. I motsetning til for eksempel Go, hvor problemet ikke har endret seg de siste 2000 årene.

Generell AI skal kunne ta beslutninger i både politikk og medisin. Dette er analogt med menneskelig evne; enhver fornuftig person kan gjøre mye. Du tar uerfarne studenter og i løpet av få dager får de dem til å jobbe med nesten alt, fra et juridisk problem til et medisinsk problem. Dette fordi de har en generell forståelse av verden og kan lese, og kan derfor bidra til et svært bredt spekter av aktiviteter.

Forholdet mellom slik intelligens og sterk intelligens er at en ikke-sterk intelligens sannsynligvis ikke vil kunne løse generelle problemer. For å skape noe robust nok til å håndtere en verden i stadig endring, må du kanskje i det minste nærme deg generell intelligens.

Men nå er vi veldig langt unna dette. AlphaGo kan spille utmerket på et 19x19-brett, men det må omskoleres for å spille på et rektangulært brett. Eller ta det gjennomsnittlige dyplæringssystemet: den kan gjenkjenne en elefant hvis den er godt opplyst og hudens tekstur er synlig. Og hvis bare silhuetten til en elefant er synlig, vil systemet sannsynligvis ikke kunne gjenkjenne den.

I boken din nevner du at dyp læring ikke kan oppnå egenskapene til generell AI fordi den ikke er i stand til dyp forståelse.

I kognitiv vitenskap snakker de om dannelsen av ulike kognitive modeller. Jeg sitter på et hotellrom og forstår at det er et skap, det er en seng, det er en TV som henger på en uvanlig måte. Jeg kjenner alle disse gjenstandene, jeg identifiserer dem ikke bare. Jeg forstår også hvordan de henger sammen med hverandre. Jeg har ideer om hvordan verden rundt meg fungerer. De er ikke perfekte. De kan være feil, men de er ganske gode. Og basert på dem trekker jeg mange konklusjoner som blir retningslinjer for mine daglige handlinger.

Den andre ytterligheten var noe sånt som Atari-spillsystemet bygget av DeepMind, der det husket hva det trengte å gjøre når det så piksler på bestemte steder på skjermen. Får du nok data tror du kanskje du har en forståelse, men i virkeligheten er det veldig overfladisk. Et bevis på dette er at hvis du flytter objekter med tre piksler, spiller AI mye dårligere. Endringer forvirrer ham. Dette er det motsatte av dyp forståelse.

For å løse dette problemet foreslår du å gå tilbake til klassisk AI. Hvilke fordeler bør vi prøve å bruke?

Det er flere fordeler.

For det første er klassisk AI faktisk et rammeverk for å lage kognitive modeller av verden, basert på hvilke konklusjoner kan trekkes.

For det andre er klassisk AI perfekt kompatibel med regler. Det er en merkelig trend innen dyp læring akkurat nå der eksperter prøver å unngå regler. De ønsker å gjøre alt på nevrale nettverk og ikke gjøre noe som ser ut som klassisk programmering. Men det er problemer som ble rolig løst på denne måten, og ingen tok hensyn til det. For eksempel å bygge ruter i Google Maps.

Faktisk trenger vi begge tilnærmingene. Maskinlæring er flink til å lære av data, men veldig dårlig til å representere abstraksjonen som er et dataprogram. Klassisk AI fungerer bra med abstraksjoner, men det må programmeres helt for hånd, og det er for mye kunnskap i verden til å programmere dem alle. Det er klart vi må kombinere begge tilnærmingene.

Dette henger sammen med kapittelet der du snakker om hva vi kan lære av menneskesinnet. Og først og fremst om konseptet basert på ideen nevnt ovenfor om at vår bevissthet består av mange forskjellige systemer som fungerer på forskjellige måter.

Jeg tror en annen måte å forklare dette på er at hvert kognitivt system vi har virkelig løser et annet problem. Lignende deler av AI må designes for å løse ulike problemer som har ulike egenskaper.

Nå prøver vi å bruke noen alt-i-ett-teknologier for å løse problemer som er radikalt forskjellige fra hverandre. Å forstå en setning er slett ikke det samme som å gjenkjenne et objekt. Men folk prøver å bruke dyp læring i begge tilfeller. Fra et kognitivt synspunkt er dette kvalitativt forskjellige oppgaver. Jeg er rett og slett overrasket over hvor lite verdsettelse det er for klassisk AI i dyplæringsmiljøet. Hvorfor vente på at en sølvkule skal dukke opp? Det er uoppnåelig, og resultatløse søk lar oss ikke forstå den fulle kompleksiteten i oppgaven med å lage AI.

Du nevner også at AI-systemer er nødvendig for å forstå årsak-virkning-forhold. Tror du dyp læring, klassisk AI eller noe helt nytt vil hjelpe oss med dette?

Dette er et annet område hvor dyp læring ikke er godt egnet. Den forklarer ikke årsakene til visse hendelser, men beregner sannsynligheten for en hendelse under gitte forhold.

Hva snakker vi om? Du ser på visse scenarier, og du forstår hvorfor dette skjer og hva som kan skje hvis noen omstendigheter endrer seg. Jeg kan se på stativet som TV-en sitter på og tenke meg at hvis jeg kutter av det ene bena på den, vil stativet velte og TV-en falle. Dette er et årsak-virkningsforhold.

Klassisk AI gir oss noen verktøy for dette. Han kan for eksempel tenke seg hva støtte er og hva et fall er. Men jeg vil ikke overprise. Problemet er at klassisk AI i stor grad er avhengig av fullstendig informasjon om hva som skjer, og jeg kom til en konklusjon bare ved å se på standen. Jeg kan liksom generalisere, forestille meg deler av stativet som ikke er synlig for meg. Vi har ennå ikke verktøyene til å implementere denne egenskapen.

Du sier også at mennesker har medfødt kunnskap. Hvordan kan dette implementeres i AI?

I fødselsøyeblikket er hjernen vår allerede et veldig forseggjort system. Det er ikke løst; naturen skapte det første, grove utkastet. Og så hjelper læring oss med å revidere det utkastet gjennom hele livet.

Et grovt utkast til hjernen har allerede visse evner. En nyfødt fjellgeit er i stand til feilfritt å gå nedover fjellsiden i løpet av få timer. Det er åpenbart at han allerede har en forståelse av det tredimensjonale rommet, kroppen sin og forholdet mellom dem. Et veldig komplekst system.

Dette er delvis grunnen til at jeg tror vi trenger hybrider. Det er vanskelig å forestille seg hvordan man kan lage en robot som fungerer godt i en verden uten tilsvarende kunnskap om hvor man skal begynne, i stedet for å starte med et blankt ark og lære av lang, stor erfaring.

Når det gjelder mennesker, kommer vår medfødte kunnskap fra genomet vårt, som har utviklet seg over lang tid. Men med AI-systemer må vi gå en annen vei. En del av dette kan være reglene for å konstruere våre algoritmer. En del av dette kan være reglene for å lage datastrukturene som disse algoritmene manipulerer. Og noe av dette kan være kunnskap om at vi skal investere direkte i maskiner.

Det er interessant at du i boken tar opp ideen om tillit og opprettelsen av tillitsfulle systemer. Hvorfor valgte du akkurat dette kriteriet?

Jeg tror at i dag er alt dette et ballspill. Det virker for meg som om vi lever gjennom et merkelig øyeblikk i historien, og stoler på mye programvare som ikke er pålitelig. Jeg tror bekymringene vi har i dag ikke vil vare evig. Om hundre år vil AI rettferdiggjøre vår tillit, og kanskje før.

Men i dag er AI farlig. Ikke i den forstand Elon Musk frykter, men i den forstand at jobbintervjusystemer diskriminerer kvinner, uavhengig av hva programmerere gjør, fordi verktøyene deres er for enkle.

Jeg skulle ønske vi hadde bedre AI. Jeg vil ikke se en "AI-vinter" der folk innser at AI ikke fungerer og rett og slett er farlig og ikke vil fikse det.

På noen måter virker boken din veldig optimistisk. Du antar at det er mulig å bygge pålitelig AI. Vi må bare se i en annen retning.

Det stemmer, boka er veldig pessimistisk på kort sikt og veldig optimistisk på lang sikt. Vi mener at alle problemene vi har beskrevet kan løses ved å se bredere på hva de riktige svarene bør være. Og vi tror at hvis dette skjer, vil verden bli et bedre sted.

Kilde: www.habr.com

Legg til en kommentar