Ni Ne Povas Fidi AI-Sistemojn Konstruitajn sur Profunda Lernado Sole

Ni Ne Povas Fidi AI-Sistemojn Konstruitajn sur Profunda Lernado Sole

Tiu ĉi teksto ne estas rezulto de scienca esplorado, sed unu el multaj opinioj pri nia tuja teknologia evoluo. Kaj samtempe invito al diskuto.

Gary Marcus, profesoro ĉe Novjorka Universitato, opinias, ke profunda lernado ludas gravan rolon en la disvolviĝo de AI. Sed li ankaŭ kredas, ke troa entuziasmo por ĉi tiu tekniko povas konduki al ĝia misfamigo.

En lia libro Rekomenci AI: Konstruante artefaritan inteligentecon ni povas fidi Marcus, neŭrosciencisto per trejnado, kiu konstruis karieron pri avangarda AI-esplorado, traktas la teknikajn kaj etikajn aspektojn. El teknologia perspektivo, profunda lernado povas sukcese imiti la perceptajn taskojn kiujn niaj cerboj plenumas, kiel bildo aŭ parolrekono. Sed por aliaj taskoj, kiel kompreni konversaciojn aŭ determini kaŭzajn rilatojn, profunda lernado ne taŭgas. Por krei pli progresintajn inteligentajn maŝinojn kiuj povas solvi pli larĝan gamon da problemoj - ofte nomitaj artefarita ĝenerala inteligenteco - profunda lernado devas esti kombinita kun aliaj teknikoj.

Se AI-sistemo ne vere komprenas siajn taskojn aŭ la mondon ĉirkaŭ ĝi, tio povas konduki al danĝeraj sekvoj. Eĉ la plej etaj neatenditaj ŝanĝoj en la medio de la sistemo povas konduki al erara konduto. Jam estis multaj tiaj ekzemploj: determinantoj de netaŭgaj esprimoj, kiuj estas facile trompeblaj; laborserĉaj sistemoj, kiuj konstante diskriminacias; senŝoforaj aŭtoj kiuj frakasas kaj foje mortigas la ŝoforon aŭ piediranton. Krei artefaritan ĝeneralan inteligentecon ne estas nur interesa esplora problemo, ĝi havas multajn tute praktikajn aplikojn.

En ilia libro, Marcus kaj lia kunaŭtoro Ernest Davis argumentas por malsama vojo. Ili kredas, ke ni ankoraŭ estas malproksime de krei ĝeneralan AI, sed ili certas, ke baldaŭ aŭ malfrue eblos krei ĝin.

Kial ni bezonas ĝeneralan AI? Specialaj versioj jam estas kreitaj kaj alportas multajn avantaĝojn.

Ĝuste, kaj estos eĉ pli da avantaĝoj. Sed estas multaj problemoj, kiujn specialigita AI simple ne povas solvi. Ekzemple, komprenante ordinaran parolon, aŭ ĝeneralan helpon en la virtuala mondo, aŭ roboton kiu helpas pri purigado kaj kuirado. Tiaj taskoj superas la kapablojn de specialeca AI. Alia interesa praktika demando: ĉu eblas krei sekuran memveturan aŭton per speciala AI? Sperto montras, ke tia AI ankoraŭ havas multajn problemojn kun konduto en nenormalaj situacioj, eĉ dum veturado, kio multe komplikas la situacion.

Mi pensas, ke ni ĉiuj ŝatus havi AI, kiu povas helpi nin fari grandajn novajn malkovrojn en medicino. Estas neklare ĉu nunaj teknologioj taŭgas por tio, ĉar biologio estas kompleksa kampo. Vi devas esti preta legi multajn librojn. Sciencistoj komprenas kaŭz-efektajn rilatojn en la interagado de retoj kaj molekuloj, povas evoluigi teoriojn pri planedoj, ktp. Tamen, kun specialigita AI, ni ne povas krei maŝinojn kapablaj je tiaj malkovroj. Kaj kun ĝenerala AI, ni povus revolucii sciencon, teknologion kaj medicinon. Laŭ mi, estas tre grave daŭrigi labori por krei ĝeneralan AI.

Ŝajnas, ke per "ĝenerala" vi volas diri fortan AI?

Per "ĝenerale" mi volas diri, ke AI povos pensi kaj solvi novajn problemojn sur la flugo. Male al, ekzemple, Iru, kie la problemo ne ŝanĝiĝis dum la lastaj 2000 jaroj.

Ĝenerala AI devus povi fari decidojn en politiko kaj medicino. Ĉi tio estas analoga al homa kapablo; ĉiu prudenta homo povas fari multon. Vi prenas nespertajn studentojn kaj ene de kelkaj tagoj ilin laboras pri preskaŭ io ajn, de jura problemo ĝis medicina problemo. Ĉi tio estas ĉar ili havas ĝeneralan komprenon de la mondo kaj povas legi, kaj tial povas kontribui al tre larĝa gamo de agadoj.

La rilato inter tia inteligenteco kaj forta inteligenteco estas ke neforta inteligenteco verŝajne ne povos solvi ĝeneralajn problemojn. Por krei ion sufiĉe fortikan por trakti ĉiam ŝanĝiĝantan mondon, vi eble bezonos almenaŭ alproksimiĝi al ĝenerala inteligenteco.

Sed nun ni estas tre malproksime de ĉi tio. AlphaGo povas ludi perfekte bone sur 19x19 tabulo, sed ĝi devas esti retrejnita por ludi sur rektangula tabulo. Aŭ prenu la averaĝan profundan lernsistemon: ĝi povas rekoni elefanton se ĝi estas bone lumigita kaj ĝia haŭto teksturo estas videbla. Kaj se nur la silueto de elefanto estas videbla, la sistemo verŝajne ne povos rekoni ĝin.

En via libro, vi mencias, ke profunda lernado ne povas atingi la kapablojn de ĝenerala AI ĉar ĝi ne kapablas profundan komprenon.

En kogna scienco oni parolas pri la formado de diversaj kognaj modeloj. Mi sidas en hotelĉambro kaj mi komprenas, ke estas ŝranko, estas lito, estas televidilo, kiu estas pendigita en nekutima maniero. Mi konas ĉiujn ĉi objektojn, mi ne nur identigas ilin. Mi ankaŭ komprenas kiel ili estas interkonektitaj unu kun la alia. Mi havas ideojn pri la funkciado de la mondo ĉirkaŭ mi. Ili ne estas perfektaj. Ili eble eraras, sed ili estas sufiĉe bonaj. Kaj surbaze de ili, mi faras multajn konkludojn, kiuj fariĝas gvidlinioj por miaj ĉiutagaj agoj.

La alia ekstremo estis io kiel la ludsistemo Atari konstruita de DeepMind, en kiu ĝi memoris kion ĝi devis fari kiam ĝi vidis pikselojn en certaj lokoj sur la ekrano. Se vi ricevas sufiĉe da datumoj, vi eble pensas, ke vi havas komprenon, sed fakte ĝi estas tre supraĵa. Pruvo de tio estas, ke se vi movas objektojn je tri pikseloj, la AI ludas multe pli malbone. Ŝanĝoj konfuzas lin. Ĉi tio estas la malo de profunda kompreno.

Por solvi ĉi tiun problemon, vi proponas reveni al klasika AI. Kiajn avantaĝojn ni provu uzi?

Estas pluraj avantaĝoj.

Unue, klasika AI estas fakte kadro por krei kognajn modelojn de la mondo, surbaze de kiuj konkludoj tiam povas esti desegnitaj.

Due, klasika AI estas perfekte kongrua kun reguloj. Estas stranga tendenco en profunda lernado nun, kie spertuloj provas eviti regulojn. Ili volas fari ĉion en neŭralaj retoj kaj ne fari ion ajn, kio aspektas kiel klasika programado. Sed estas problemoj trankvile solvitaj tiamaniere, kaj neniu atentis ĝin. Ekzemple, konstrui itinerojn en Google Maps.

Fakte, ni bezonas ambaŭ alirojn. Maŝina lernado kapablas lerni de datumoj, sed tre malbona reprezentas la abstraktadon, kiu estas komputila programo. Klasika AI funkcias bone kun abstraktaĵoj, sed ĝi devas esti programita tute mane, kaj estas tro da scio en la mondo por programi ilin ĉiujn. Klare ni devas kombini ambaŭ alirojn.

Ĉi tio ligas al la ĉapitro en kiu vi parolas pri tio, kion ni povas lerni de la homa menso. Kaj antaŭ ĉio, pri la koncepto bazita sur la supre menciita ideo, ke nia konscio konsistas el multaj diversaj sistemoj, kiuj funkcias diversmaniere.

Mi pensas, ke alia maniero klarigi ĉi tion estas, ke ĉiu kogna sistemo, kiun ni havas, vere solvas malsaman problemon. Similaj partoj de AI devas esti dezajnitaj por solvi malsamajn problemojn, kiuj havas malsamajn trajtojn.

Nun ni provas uzi iujn tut-en-unu teknologiojn por solvi problemojn kiuj estas radikale malsamaj unu de la alia. Kompreni frazon tute ne egalas al rekoni objekton. Sed homoj provas uzi profundan lernadon en ambaŭ kazoj. El kogna vidpunkto, ĉi tiuj estas kvalite malsamaj taskoj. Mi simple miras pri kiom malmulte da aprezo estas por klasika AI en la profunda lernadkomunumo. Kial atendi arĝentan kuglon aperos? Ĝi estas neatingebla, kaj senfruktaj serĉoj ne permesas al ni kompreni la plenan kompleksecon de la tasko krei AI.

Vi ankaŭ mencias, ke AI-sistemoj necesas por kompreni kaŭzajn rilatojn. Ĉu vi pensas, ke profunda lernado, klasika AI aŭ io tute nova helpos nin pri tio?

Ĉi tio estas alia areo kie profunda lernado ne taŭgas. Ĝi ne klarigas la kaŭzojn de certaj eventoj, sed kalkulas la probablecon de evento sub donitaj kondiĉoj.

Pri kio ni parolas? Vi rigardas certajn scenarojn, kaj vi komprenas kial tio okazas kaj kio povus okazi se iuj cirkonstancoj ŝanĝiĝas. Mi povas rigardi la standon sur kiu sidas la televidilo kaj imagi, ke se mi detranĉos unu el ĝiaj kruroj, la stando renversiĝos kaj la televidilo falos. Ĉi tio estas kaŭzo kaj efiko rilato.

Klasika AI donas al ni iujn ilojn por ĉi tio. Li povas imagi, ekzemple, kio estas subteno kaj kio estas falo. Sed mi ne tro laŭdos. La problemo estas, ke klasika AI plejparte dependas de kompletaj informoj pri tio, kio okazas, kaj mi alvenis al konkludo nur rigardante la standon. Mi povas iel ĝeneraligi, imagi partojn de la stando kiuj ne estas videblaj por mi. Ni ankoraŭ ne havas la ilojn por efektivigi ĉi tiun posedaĵon.

Vi ankaŭ diras, ke homoj havas denaskan scion. Kiel ĉi tio povas esti efektivigita en AI?

En la momento de naskiĝo, nia cerbo jam estas tre ellaborita sistemo. Ĝi ne estas fiksita; naturo kreis la unuan, malneton. Kaj tiam lernado helpas nin revizii tiun skizon dum nia vivo.

Malneto de la cerbo jam havas certajn kapablojn. Novnaskita montokapro povas senerare descendi la montoflankon ene de kelkaj horoj. Estas evidente, ke li jam havas komprenon pri tridimensia spaco, lia korpo kaj la rilato inter ili. Tre kompleksa sistemo.

Pro tio mi kredas, ke ni bezonas hibridojn. Estas malfacile imagi, kiel oni povus krei roboton, kiu bone funkcias en mondo sen simila scio pri kie komenci, prefere ol komenci per malplena skribtabulo kaj lerni el longa, vasta sperto.

Pri homoj, nia denaska scio devenas de nia genaro, kiu evoluis dum longa tempo. Sed kun AI-sistemoj ni devos iri alian vojon. Parto de ĉi tio povas esti la reguloj por konstrui niajn algoritmojn. Parto de ĉi tio povas esti la reguloj por krei la datumstrukturojn kiujn ĉi tiuj algoritmoj manipulas. Kaj parto de ĉi tio povas esti scio, ke ni rekte investos en maŝinoj.

Estas interese, ke en la libro vi alportas la ideon pri fido kaj la kreado de fidindaj sistemoj. Kial vi elektis ĉi tiun apartan kriterion?

Mi kredas, ke hodiaŭ ĉio ĉi estas pilkludo. Ŝajnas al mi, ke ni travivas strangan momenton en la historio, fidante multajn programojn, kiuj ne estas fidindaj. Mi pensas, ke la zorgoj, kiujn ni havas hodiaŭ, ne daŭros eterne. Post cent jaroj, AI pravigos nian fidon, kaj eble pli frue.

Sed hodiaŭ AI estas danĝera. Ne en la senco, ke Elon Musk timas, sed en la senco, ke laborintervjuaj sistemoj diskriminacias virinojn, sendepende de tio, kion faras programistoj, ĉar iliaj iloj estas tro simplaj.

Mi deziras, ke ni havu pli bonan AI. Mi ne volas vidi "AI-vintron", kie homoj rimarkas, ke AI ne funkcias kaj estas simple danĝera kaj ne volas ripari ĝin.

Iel via libro ja ŝajnas tre optimisma. Vi supozas, ke eblas konstrui fidindan AI. Ni nur bezonas rigardi alidirekten.

Ĝuste, la libro estas tre pesimisma baldaŭ kaj tre optimisma longtempe. Ni kredas, ke ĉiuj problemoj, kiujn ni priskribis, povas esti solvitaj per pli larĝa rigardo, kiaj devus esti la ĝustaj respondoj. Kaj ni pensas, ke se tio okazos, la mondo estos pli bona loko.

fonto: www.habr.com

Aldoni komenton