Vi kan inte lita på AI-system som bygger på enbart djupinlärning

Vi kan inte lita på AI-system som bygger på enbart djupinlärning

Denna text är inte resultatet av vetenskaplig forskning, utan en av många åsikter om vår omedelbara tekniska utveckling. Och samtidigt en inbjudan till diskussion.

Gary Marcus, professor vid New York University, anser att djupinlärning spelar en viktig roll i utvecklingen av AI. Men han tror också att överdriven entusiasm för denna teknik kan leda till att den misskrediteras.

I hans bok Startar om AI: Bygger artificiell intelligens som vi kan lita på Marcus, en neuroforskare till utbildning som har byggt en karriär inom spetsforskning inom AI, tar upp de tekniska och etiska aspekterna. Ur ett tekniskt perspektiv kan djupinlärning framgångsrikt imitera de perceptuella uppgifter som våra hjärnor utför, som bild- eller taligenkänning. Men för andra uppgifter, som att förstå konversationer eller fastställa orsak-och-verkan-samband, är djupinlärning inte lämplig. För att skapa mer avancerade intelligenta maskiner som kan lösa ett bredare spektrum av problem – ofta kallad artificiell allmän intelligens – måste djupinlärning kombineras med andra tekniker.

Om ett AI-system inte riktigt förstår sina uppgifter eller omvärlden kan detta leda till farliga konsekvenser. Även de minsta oväntade förändringar i systemets miljö kan leda till felaktigt beteende. Det har redan funnits många sådana exempel: bestämningsfaktorer för olämpliga uttryck som är lätta att lura; jobbsökningssystem som konsekvent diskriminerar; förarlösa bilar som kraschar och ibland dödar föraren eller fotgängaren. Att skapa artificiell allmän intelligens är inte bara ett intressant forskningsproblem, det har många helt praktiska tillämpningar.

I sin bok argumenterar Marcus och hans medförfattare Ernest Davis för en annan väg. De tror att vi fortfarande är långt ifrån att skapa allmän AI, men de är övertygade om att det förr eller senare kommer att vara möjligt att skapa det.

Varför behöver vi allmän AI? Specialiserade versioner har redan skapats och ger många fördelar.

Det stämmer, och det kommer att finnas ännu fler fördelar. Men det finns många problem som specialiserad AI helt enkelt inte kan lösa. Till exempel att förstå vanligt tal, eller allmän assistans i den virtuella världen, eller en robot som hjälper till med städning och matlagning. Sådana uppgifter är bortom kapaciteten för specialiserad AI. En annan intressant praktisk fråga: är det möjligt att skapa en säker självkörande bil med hjälp av specialiserad AI? Erfarenheten visar att sådan AI fortfarande har många problem med beteendet i onormala situationer, även vid körning, vilket i hög grad komplicerar situationen.

Jag tror att vi alla skulle vilja ha AI som kan hjälpa oss att göra stora nya upptäckter inom medicin. Det är oklart om nuvarande teknologier är lämpliga för detta, eftersom biologi är ett komplext område. Du måste vara beredd på att läsa många böcker. Forskare förstår orsak-och-verkan-samband i samspelet mellan nätverk och molekyler, kan utveckla teorier om planeter och så vidare. Men med specialiserad AI kan vi inte skapa maskiner som kan göra sådana upptäckter. Och med allmän AI skulle vi kunna revolutionera vetenskap, teknik och medicin. Enligt min åsikt är det väldigt viktigt att fortsätta arbeta för att skapa allmän AI.

Det låter som att du med "allmänt" menar stark AI?

Med "allmänt" menar jag att AI kommer att kunna tänka på och lösa nya problem i farten. Till skillnad från säg Go, där problemet inte har förändrats under de senaste 2000 åren.

Allmän AI ska kunna fatta beslut inom både politik och medicin. Detta är analogt med mänsklig förmåga; vilken vettig person som helst kan göra mycket. Du tar oerfarna studenter och inom några dagar har de arbetat med nästan vad som helst, från ett juridiskt problem till ett medicinskt problem. Det beror på att de har en allmän förståelse för världen och kan läsa, och kan därför bidra till ett mycket brett utbud av aktiviteter.

Sambandet mellan sådan intelligens och stark intelligens är att en icke-stark intelligens sannolikt inte kommer att kunna lösa generella problem. För att skapa något tillräckligt robust för att hantera en ständigt föränderlig värld, kan du behöva åtminstone närma dig allmän intelligens.

Men nu är vi väldigt långt ifrån detta. AlphaGo kan spela utmärkt på ett 19x19-bräde, men det måste tränas om för att spela på ett rektangulärt bräde. Eller ta det genomsnittliga djupinlärningssystemet: den kan känna igen en elefant om den är väl upplyst och dess hudstruktur är synlig. Och om bara siluetten av en elefant är synlig kommer systemet förmodligen inte att kunna känna igen den.

I din bok nämner du att djupinlärning inte kan uppnå kapaciteten hos allmän AI eftersom den inte är kapabel till djup förståelse.

Inom kognitionsvetenskap talar man om bildandet av olika kognitiva modeller. Jag sitter på ett hotellrum och jag förstår att det finns en garderob, det finns en säng, det finns en TV som hänger på ett ovanligt sätt. Jag känner till alla dessa föremål, jag identifierar dem inte bara. Jag förstår också hur de är sammankopplade med varandra. Jag har idéer om hur världen omkring mig fungerar. De är inte perfekta. De kan ha fel, men de är ganska bra. Och utifrån dem drar jag många slutsatser som blir riktlinjer för mitt dagliga handlande.

Den andra ytterligheten var något som Atari-spelsystemet byggt av DeepMind, där det kom ihåg vad det behövde göra när det såg pixlar på vissa ställen på skärmen. Får man tillräckligt med data kan man tro att man har förståelse, men i verkligheten är det väldigt ytligt. Ett bevis på detta är att om du flyttar objekt med tre pixlar så spelar AI mycket sämre. Förändringar förbryllar honom. Detta är motsatsen till djup förståelse.

För att lösa detta problem föreslår du att du återgår till klassisk AI. Vilka fördelar ska vi försöka använda?

Det finns flera fördelar.

För det första är klassisk AI faktiskt ett ramverk för att skapa kognitiva modeller av världen, baserat på vilka slutsatser sedan kan dras.

För det andra är klassisk AI perfekt kompatibel med regler. Det finns en konstig trend inom djupinlärning just nu där experter försöker undvika regler. De vill göra allt på neurala nätverk och inte göra något som ser ut som klassisk programmering. Men det finns problem som lugnt löstes på detta sätt, och ingen uppmärksammade det. Till exempel bygga rutter i Google Maps.

I själva verket behöver vi båda metoderna. Maskininlärning är bra på att lära av data, men mycket dålig på att representera abstraktionen som är ett datorprogram. Klassisk AI fungerar bra med abstraktioner, men det måste programmeras helt för hand, och det finns för mycket kunskap i världen för att programmera dem alla. Det är klart att vi måste kombinera båda tillvägagångssätten.

Detta knyter an till kapitlet där du talar om vad vi kan lära av det mänskliga sinnet. Och först och främst om konceptet utifrån den idé som nämnts ovan att vårt medvetande består av många olika system som fungerar på olika sätt.

Jag tror att ett annat sätt att förklara detta är att varje kognitiva system vi har verkligen löser ett annat problem. Liknande delar av AI måste utformas för att lösa olika problem som har olika egenskaper.

Nu försöker vi använda några allt-i-ett-tekniker för att lösa problem som skiljer sig radikalt från varandra. Att förstå en mening är inte alls detsamma som att känna igen ett objekt. Men människor försöker använda djupinlärning i båda fallen. Ur kognitiv synvinkel handlar det om kvalitativt olika uppgifter. Jag är helt enkelt förvånad över hur lite uppskattning det finns för klassisk AI i djupinlärningsgemenskapen. Varför vänta på att en silverkula ska dyka upp? Det är ouppnåeligt, och fruktlösa sökningar tillåter oss inte att förstå hela komplexiteten i uppgiften att skapa AI.

Du nämner också att AI-system behövs för att förstå orsak-och-verkan-samband. Tror du att djupinlärning, klassisk AI eller något helt nytt kommer att hjälpa oss med detta?

Detta är ett annat område där djupinlärning inte är väl lämpad. Den förklarar inte orsakerna till vissa händelser, utan beräknar sannolikheten för en händelse under givna förutsättningar.

Vad pratar vi om? Du tittar på vissa scenarier, och du förstår varför detta händer och vad som kan hända om vissa omständigheter förändras. Jag kan titta på stativet som TV:n sitter på och tänka mig att om jag skär av ena benet på den så kommer stativet att tippa och TV:n falla. Detta är en orsak och verkan relation.

Klassisk AI ger oss några verktyg för detta. Han kan till exempel föreställa sig vad stöd är och vad ett fall är. Men jag kommer inte att berömma för mycket. Problemet är att klassisk AI till stor del beror på fullständig information om vad som händer, och jag kom fram till en slutsats bara genom att titta på montern. Jag kan på något sätt generalisera, föreställa mig delar av montern som inte är synliga för mig. Vi har ännu inte verktygen för att implementera den här egenskapen.

Du säger också att människor har medfödd kunskap. Hur kan detta implementeras i AI?

Vid födelseögonblicket är vår hjärna redan ett mycket utarbetat system. Det är inte fast naturen skapade det första, grova utkastet. Och sedan hjälper lärande oss att revidera det utkastet under hela livet.

Ett grovt utkast till hjärnan har redan vissa förmågor. En nyfödd bergsget kan ofelbart ta sig nedför bergssidan inom några timmar. Det är uppenbart att han redan har en förståelse för det tredimensionella rummet, sin kropp och relationen mellan dem. Ett mycket komplext system.

Det är delvis därför jag tror att vi behöver hybrider. Det är svårt att föreställa sig hur man skulle kunna skapa en robot som fungerar bra i en värld utan liknande kunskap om var man ska börja, snarare än att börja med ett blankt blad och lära sig av lång, stor erfarenhet.

När det gäller människor kommer vår medfödda kunskap från vårt genom, som har utvecklats under lång tid. Men med AI-system måste vi gå en annan väg. En del av detta kan vara reglerna för att konstruera våra algoritmer. En del av detta kan vara reglerna för att skapa de datastrukturer som dessa algoritmer manipulerar. Och en del av detta kan vara kunskap om att vi direkt kommer att investera i maskiner.

Det är intressant att du i boken tar upp idén om tillit och skapandet av förtroendefulla system. Varför valde du just detta kriterium?

Jag tror att idag är allt detta ett bollspel. Det verkar för mig som att vi lever genom ett konstigt ögonblick i historien, och litar på en hel del programvara som inte är pålitlig. Jag tror att de bekymmer vi har idag inte kommer att vara för evigt. Om hundra år kommer AI att motivera vårt förtroende, och kanske tidigare.

Men idag är AI farligt. Inte i den meningen som Elon Musk fruktar, utan i den meningen att anställningsintervjusystem diskriminerar kvinnor, oavsett vad programmerare gör, eftersom deras verktyg är för enkla.

Jag önskar att vi hade bättre AI. Jag vill inte se en "AI-vinter" där folk inser att AI inte fungerar och bara är farligt och inte vill fixa det.

På vissa sätt verkar din bok väldigt optimistisk. Du antar att det är möjligt att bygga pålitlig AI. Vi behöver bara titta i en annan riktning.

Det stämmer, boken är väldigt pessimistisk på kort sikt och väldigt optimistisk på lång sikt. Vi tror att alla de problem vi har beskrivit kan lösas genom att titta bredare på vad de rätta svaren ska vara. Och vi tror att om detta händer kommer världen att bli en bättre plats.

Källa: will.com

Lägg en kommentar