We kunnen niet vertrouwen op AI-systemen die alleen op Deep Learning zijn gebouwd

We kunnen niet vertrouwen op AI-systemen die alleen op Deep Learning zijn gebouwd

Deze tekst is niet het resultaat van wetenschappelijk onderzoek, maar een van de vele meningen over onze onmiddellijke technologische ontwikkeling. En tegelijkertijd een uitnodiging tot discussie.

Gary Marcus, hoogleraar aan de New York University, gelooft dat deep learning een belangrijke rol speelt in de ontwikkeling van AI. Maar hij gelooft ook dat overmatig enthousiasme voor deze techniek tot diskrediet kan leiden.

In zijn boek AI opnieuw opstarten: kunstmatige intelligentie bouwen waarop we kunnen vertrouwen Marcus, een neurowetenschapper van opleiding die een carrière heeft opgebouwd in baanbrekend AI-onderzoek, gaat in op de technische en ethische aspecten. Vanuit technologisch perspectief kan deep learning met succes de perceptuele taken imiteren die onze hersenen uitvoeren, zoals beeld- of spraakherkenning. Maar voor andere taken, zoals het begrijpen van gesprekken of het vaststellen van oorzaak-en-gevolgrelaties, is deep learning niet geschikt. Om geavanceerdere intelligente machines te creëren die een breder scala aan problemen kunnen oplossen – vaak kunstmatige algemene intelligentie genoemd – moet deep learning worden gecombineerd met andere technieken.

Als een AI-systeem zijn taken of de wereld eromheen niet echt begrijpt, kan dit tot gevaarlijke gevolgen leiden. Zelfs de kleinste onverwachte veranderingen in de systeemomgeving kunnen tot foutief gedrag leiden. Er zijn al veel van dergelijke voorbeelden geweest: determinanten van ongepaste uitingen die gemakkelijk te misleiden zijn; systemen voor het zoeken naar werk die consequent discrimineren; auto's zonder bestuurder die crashen en soms de bestuurder of voetganger doden. Het creëren van kunstmatige algemene intelligentie is niet alleen een interessant onderzoeksprobleem, het kent vele volledig praktische toepassingen.

In hun boek pleiten Marcus en zijn co-auteur Ernest Davis voor een andere weg. Ze geloven dat we nog ver verwijderd zijn van het creëren van algemene AI, maar ze hebben er vertrouwen in dat het vroeg of laat mogelijk zal zijn om het te creëren.

Waarom hebben we algemene AI nodig? Er zijn al gespecialiseerde versies gemaakt die veel voordelen met zich meebrengen.

Dat klopt, en er zullen nog meer voordelen zijn. Maar er zijn veel problemen die gespecialiseerde AI eenvoudigweg niet kan oplossen. Bijvoorbeeld het verstaan ​​van gewone spraak, of algemene hulp in de virtuele wereld, of een robot die helpt bij het schoonmaken en koken. Dergelijke taken vallen buiten de mogelijkheden van gespecialiseerde AI. Nog een interessante praktische vraag: is het mogelijk om met behulp van gespecialiseerde AI een veilige zelfrijdende auto te maken? De ervaring leert dat dergelijke AI nog steeds veel problemen heeft met gedrag in abnormale situaties, zelfs tijdens het rijden, wat de situatie enorm compliceert.

Ik denk dat we allemaal graag AI zouden willen hebben die ons kan helpen grote nieuwe ontdekkingen in de geneeskunde te doen. Het is onduidelijk of de huidige technologieën hiervoor geschikt zijn, aangezien biologie een complex vakgebied is. Je moet bereid zijn om veel boeken te lezen. Wetenschappers begrijpen oorzaak-en-gevolg-relaties in de interactie van netwerken en moleculen, kunnen theorieën over planeten ontwikkelen, enzovoort. Met gespecialiseerde AI kunnen we echter geen machines creëren die dergelijke ontdekkingen kunnen doen. En met algemene AI kunnen we een revolutie teweegbrengen in de wetenschap, technologie en geneeskunde. Naar mijn mening is het van groot belang om te blijven werken aan het creëren van algemene AI.

Het klinkt alsof je met 'algemeen' sterke AI bedoelt?

Met ‘algemeen’ bedoel ik dat AI in een mum van tijd nieuwe problemen kan bedenken en oplossen. In tegenstelling tot bijvoorbeeld Go, waar het probleem de afgelopen 2000 jaar niet is veranderd.

Algemene AI zou beslissingen moeten kunnen nemen in zowel de politiek als de geneeskunde. Dit is analoog aan het menselijk vermogen; ieder weldenkend mens kan veel doen. Je neemt onervaren studenten en laat ze binnen een paar dagen aan vrijwel alles werken, van een juridisch probleem tot een medisch probleem. Dit komt omdat ze een algemeen begrip van de wereld hebben en kunnen lezen, en daardoor kunnen bijdragen aan een zeer breed scala aan activiteiten.

De relatie tussen dergelijke intelligentie en sterke intelligentie is dat een niet-sterke intelligentie waarschijnlijk niet in staat zal zijn algemene problemen op te lossen. Om iets te creëren dat robuust genoeg is om met een steeds veranderende wereld om te gaan, moet je misschien op zijn minst de algemene intelligentie benaderen.

Maar nu zijn we daar nog heel ver van verwijderd. AlphaGo kan prima spelen op een 19x19 bord, maar moet wel opnieuw getraind worden om op een rechthoekig bord te spelen. Of neem het gemiddelde deep learning-systeem: het kan een olifant herkennen als deze goed verlicht is en de huidtextuur zichtbaar is. En als alleen het silhouet van een olifant zichtbaar is, zal het systeem dit waarschijnlijk niet kunnen herkennen.

In uw boek vermeldt u dat deep learning de mogelijkheden van algemene AI niet kan verwezenlijken, omdat het niet in staat is tot diepgaand begrip.

In de cognitieve wetenschap praten ze over de vorming van verschillende cognitieve modellen. Ik zit in een hotelkamer en ik begrijp dat er een kast is, dat er een bed is, dat er een tv is die op een ongebruikelijke manier is opgehangen. Ik ken al deze objecten, ik identificeer ze niet alleen. Ik begrijp ook hoe ze met elkaar verbonden zijn. Ik heb ideeën over het functioneren van de wereld om mij heen. Ze zijn niet perfect. Ze hebben het misschien mis, maar ze zijn best goed. En op basis daarvan trek ik veel conclusies die richtlijnen worden voor mijn dagelijkse handelen.

Het andere uiterste was zoiets als het door DeepMind gebouwde Atari-spelsysteem, waarbij het zich herinnerde wat het moest doen als het op bepaalde plekken op het scherm pixels zag. Als je voldoende gegevens krijgt, denk je misschien dat je het begrijpt, maar in werkelijkheid is het erg oppervlakkig. Bewijs hiervan is dat als je objecten drie pixels verplaatst, de AI veel slechter speelt. Veranderingen verbijsteren hem. Dit is het tegenovergestelde van diep begrip.

Om dit probleem op te lossen, stelt u voor terug te keren naar klassieke AI. Welke voordelen moeten we proberen te benutten?

Er zijn verschillende voordelen.

Ten eerste is klassieke AI eigenlijk een raamwerk voor het creëren van cognitieve modellen van de wereld, op basis waarvan vervolgens conclusies kunnen worden getrokken.

Ten tweede is klassieke AI perfect verenigbaar met regels. Er is momenteel een vreemde trend in deep learning gaande, waarbij experts regels proberen te omzeilen. Ze willen alles op neurale netwerken doen en niets doen dat op klassiek programmeren lijkt. Maar er zijn problemen die op deze manier rustig werden opgelost, en niemand besteedde er aandacht aan. Bijvoorbeeld routes bouwen in Google Maps.

In feite hebben we beide benaderingen nodig. Machine learning is goed in het leren van data, maar zeer slecht in het weergeven van de abstractie die een computerprogramma is. Klassieke AI werkt goed met abstracties, maar moet volledig met de hand worden geprogrammeerd, en er is te veel kennis in de wereld om ze allemaal te programmeren. Het is duidelijk dat we beide benaderingen moeten combineren.

Dit sluit aan bij het hoofdstuk waarin u spreekt over wat we kunnen leren van de menselijke geest. En allereerst over het concept gebaseerd op het hierboven genoemde idee dat ons bewustzijn uit veel verschillende systemen bestaat die op verschillende manieren werken.

Ik denk dat een andere manier om dit uit te leggen is dat elk cognitief systeem dat we hebben in werkelijkheid een ander probleem oplost. Soortgelijke onderdelen van AI moeten worden ontworpen om verschillende problemen met verschillende kenmerken op te lossen.

Nu proberen we een aantal alles-in-één technologieën te gebruiken om problemen op te lossen die radicaal van elkaar verschillen. Het begrijpen van een zin is helemaal niet hetzelfde als het herkennen van een object. Maar in beide gevallen proberen mensen deep learning te gebruiken. Vanuit cognitief oogpunt zijn dit kwalitatief verschillende taken. Ik ben gewoon verbaasd over hoe weinig waardering er is voor klassieke AI in de deep learning-gemeenschap. Waarom wachten tot er een wondermiddel verschijnt? Het is onhaalbaar, en vruchteloze zoektochten stellen ons niet in staat de volledige complexiteit van de taak van het creëren van AI te begrijpen.

U vermeldt ook dat AI-systemen nodig zijn om oorzaak-gevolgrelaties te begrijpen. Denk je dat deep learning, klassieke AI of iets compleet nieuws ons hierbij zal helpen?

Dit is een ander gebied waarop deep learning niet goed geschikt is. Het verklaart niet de oorzaken van bepaalde gebeurtenissen, maar berekent de waarschijnlijkheid van een gebeurtenis onder gegeven omstandigheden.

Waar hebben we het over? Je kijkt naar bepaalde scenario's en begrijpt waarom dit gebeurt en wat er kan gebeuren als bepaalde omstandigheden veranderen. Ik kan naar de standaard kijken waar de tv op staat en me voorstellen dat als ik een van de poten afsnijd, de standaard zal omvallen en de tv zal vallen. Dit is een oorzaak-gevolg relatie.

Klassieke AI geeft ons hiervoor enkele hulpmiddelen. Hij kan zich bijvoorbeeld voorstellen wat steun is en wat een val is. Maar ik zal niet te veel prijzen. Het probleem is dat klassieke AI grotendeels afhankelijk is van volledige informatie over wat er gebeurt, en ik kwam tot een conclusie door alleen maar naar de stand te kijken. Ik kan op de een of andere manier generaliseren, delen van de stand voorstellen die voor mij niet zichtbaar zijn. We hebben nog niet de middelen om deze eigenschap te implementeren.

Je zegt ook dat mensen aangeboren kennis hebben. Hoe kan dit worden geïmplementeerd in AI?

Op het moment van de geboorte vormen onze hersenen al een zeer uitgebreid systeem. Het ligt niet vast; de natuur heeft het eerste, ruwe ontwerp gemaakt. En door te leren kunnen we dat ontwerp ons hele leven lang herzien.

Een ruwe schets van de hersenen heeft al bepaalde mogelijkheden. Een pasgeboren berggeit kan binnen een paar uur feilloos de berghelling afdalen. Het is duidelijk dat hij al inzicht heeft in de driedimensionale ruimte, zijn lichaam en de relatie daartussen. Een zeer complex systeem.

Dit is gedeeltelijk de reden waarom ik geloof dat we hybriden nodig hebben. Het is moeilijk voor te stellen hoe je een robot zou kunnen creëren die goed functioneert in een wereld zonder vergelijkbare kennis van waar te beginnen, in plaats van met een schone lei te beginnen en te leren van lange, uitgebreide ervaring.

Wat mensen betreft, komt onze aangeboren kennis voort uit ons genoom, dat zich in de loop van een lange tijd heeft ontwikkeld. Maar met AI-systemen zullen we een andere route moeten bewandelen. Een deel hiervan kunnen de regels zijn voor het construeren van onze algoritmen. Een deel hiervan kunnen de regels zijn voor het creëren van de datastructuren die deze algoritmen manipuleren. En een deel daarvan kan de wetenschap zijn dat we direct in machines gaan investeren.

Het is interessant dat je in het boek het idee van vertrouwen en het creëren van vertrouwende systemen naar voren brengt. Waarom heb je voor dit specifieke criterium gekozen?

Ik geloof dat dit tegenwoordig allemaal een balspel is. Het lijkt mij dat we een vreemd moment in de geschiedenis meemaken en veel vertrouwen op software die niet betrouwbaar is. Ik denk dat de zorgen die we vandaag hebben niet eeuwig zullen duren. Over honderd jaar zal AI ons vertrouwen rechtvaardigen, en misschien eerder.

Maar vandaag de dag is AI gevaarlijk. Niet in de zin waar Elon Musk bang voor is, maar in de zin dat sollicitatiegespreksystemen vrouwen discrimineren, ongeacht wat programmeurs doen, omdat hun tools te simpel zijn.

Ik wou dat we betere AI hadden. Ik wil geen ‘AI-winter’ zien waarin mensen beseffen dat AI niet werkt en ronduit gevaarlijk is en het niet willen repareren.

In sommige opzichten lijkt uw boek erg optimistisch. Je gaat ervan uit dat het mogelijk is om betrouwbare AI te bouwen. We moeten gewoon in een andere richting kijken.

Dat klopt, het boek is erg pessimistisch op de korte termijn en erg optimistisch op de lange termijn. Wij zijn van mening dat alle problemen die we hebben beschreven kunnen worden opgelost door breder te kijken naar wat de juiste antwoorden zouden moeten zijn. En wij denken dat als dit gebeurt, de wereld een betere plek zal zijn.

Bron: www.habr.com

Voeg een reactie