Non possiamo fidarci dei sistemi di intelligenza artificiale basati solo sul deep learning

Non possiamo fidarci dei sistemi di intelligenza artificiale basati solo sul deep learning

Questo testo non è il frutto di una ricerca scientifica, ma uno dei tanti pareri riguardanti il ​​nostro immediato sviluppo tecnologico. E allo stesso tempo un invito al confronto.

Gary Marcus, professore alla New York University, ritiene che il deep learning svolga un ruolo importante nello sviluppo dell’intelligenza artificiale. Ma ritiene anche che un eccessivo entusiasmo per questa tecnica possa portare al suo discredito.

Nel suo libro Riavviare l’intelligenza artificiale: costruire un’intelligenza artificiale di cui possiamo fidarci Marcus, un neuroscienziato di formazione che ha costruito una carriera sulla ricerca all'avanguardia sull'intelligenza artificiale, affronta gli aspetti tecnici ed etici. Dal punto di vista tecnologico, il deep learning può imitare con successo i compiti percettivi eseguiti dal nostro cervello, come il riconoscimento delle immagini o del parlato. Ma per altri compiti, come comprendere le conversazioni o determinare le relazioni causa-effetto, il deep learning non è adatto. Per creare macchine intelligenti più avanzate in grado di risolvere una gamma più ampia di problemi, spesso chiamate intelligenza artificiale generale, è necessario combinare il deep learning con altre tecniche.

Se un sistema di intelligenza artificiale non comprende veramente i suoi compiti o il mondo che lo circonda, ciò può portare a conseguenze pericolose. Anche il minimo cambiamento imprevisto nell'ambiente del sistema può portare a comportamenti errati. Ci sono già stati molti di questi esempi: determinanti di espressioni inappropriate che sono facili da ingannare; sistemi di ricerca di lavoro che discriminano costantemente; auto senza conducente che si schiantano e talvolta uccidono il conducente o il pedone. La creazione di un’intelligenza artificiale generale non è solo un interessante problema di ricerca, ma ha molte applicazioni del tutto pratiche.

Nel loro libro, Marcus e il suo coautore Ernest Davis sostengono un percorso diverso. Credono che siamo ancora lontani dalla creazione di un’intelligenza artificiale generale, ma sono fiduciosi che prima o poi sarà possibile crearla.

Perché abbiamo bisogno dell’IA generale? Sono già state create versioni specializzate che apportano molti vantaggi.

Esatto, e ci saranno ancora più vantaggi. Ma ci sono molti problemi che l’intelligenza artificiale specializzata semplicemente non può risolvere. Ad esempio, la comprensione del linguaggio comune, l'assistenza generale nel mondo virtuale o un robot che aiuta a pulire e cucinare. Tali compiti vanno oltre le capacità dell’intelligenza artificiale specializzata. Un’altra domanda pratica interessante: è possibile creare un’auto sicura a guida autonoma utilizzando un’intelligenza artificiale specializzata? L'esperienza dimostra che tale intelligenza artificiale ha ancora molti problemi di comportamento in situazioni anomale, anche durante la guida, il che complica notevolmente la situazione.

Penso che tutti vorremmo avere un’intelligenza artificiale che possa aiutarci a fare nuove grandi scoperte in medicina. Non è chiaro se le tecnologie attuali siano adatte a questo scopo, poiché la biologia è un campo complesso. Devi essere pronto a leggere molti libri. Gli scienziati comprendono le relazioni di causa-effetto nell'interazione di reti e molecole, possono sviluppare teorie sui pianeti e così via. Tuttavia, con l’intelligenza artificiale specializzata, non possiamo creare macchine capaci di tali scoperte. E con l’intelligenza artificiale generale potremmo rivoluzionare la scienza, la tecnologia e la medicina. Secondo me è molto importante continuare a lavorare per creare un’intelligenza artificiale generale.

Sembra che per "generale" intendi un'intelligenza artificiale forte?

Per “generale” intendo che l’intelligenza artificiale sarà in grado di pensare e risolvere nuovi problemi al volo. A differenza, ad esempio, di Go, dove il problema non è cambiato negli ultimi 2000 anni.

L’intelligenza artificiale generale dovrebbe essere in grado di prendere decisioni sia in politica che in medicina. Questo è analogo all'abilità umana; qualsiasi persona sana di mente può fare molto. Prendi studenti inesperti e nel giro di pochi giorni li fai lavorare su quasi qualsiasi cosa, da un problema legale a un problema medico. Questo perché hanno una comprensione generale del mondo e sanno leggere, e possono quindi contribuire ad una gamma molto ampia di attività.

La relazione tra tale intelligenza e l’intelligenza forte è che un’intelligenza non forte probabilmente non sarà in grado di risolvere problemi generali. Per creare qualcosa di abbastanza robusto da affrontare un mondo in continua evoluzione, potrebbe essere necessario almeno avvicinarsi all’intelligenza generale.

Ma ora siamo molto lontani da questo. AlphaGo può giocare perfettamente su un tabellone 19x19, ma deve essere riqualificato per giocare su un tabellone rettangolare. Oppure prendiamo il sistema medio di deep learning: può riconoscere un elefante se è ben illuminato e la sua struttura della pelle è visibile. E se fosse visibile solo la sagoma di un elefante, probabilmente il sistema non sarebbe in grado di riconoscerlo.

Nel tuo libro dici che il deep learning non può raggiungere le capacità dell’intelligenza artificiale generale perché non è capace di una comprensione profonda.

Nelle scienze cognitive si parla della formazione di vari modelli cognitivi. Sono seduto in una stanza d'albergo e capisco che c'è un armadio, c'è un letto, c'è una TV appesa in modo insolito. Conosco tutti questi oggetti, non mi limito a identificarli. Capisco anche come sono interconnessi tra loro. Ho idee sul funzionamento del mondo che mi circonda. Non sono perfetti. Potrebbero sbagliarsi, ma sono abbastanza buoni. E sulla base di essi traggo molte conclusioni che diventano linee guida per le mie azioni quotidiane.

L'altro estremo era qualcosa di simile al sistema di gioco Atari creato da DeepMind, in cui ricordava cosa doveva fare quando vedeva pixel in determinati punti sullo schermo. Se ottieni abbastanza dati, potresti pensare di avere una comprensione, ma in realtà è molto superficiale. Prova di ciò è che se sposti gli oggetti di tre pixel, l'IA gioca molto peggio. I cambiamenti lo sconcertano. Questo è l’opposto della comprensione profonda.

Per risolvere questo problema, proponi di tornare all’IA classica. Quali vantaggi dovremmo cercare di sfruttare?

Ci sono diversi vantaggi.

In primo luogo, l’intelligenza artificiale classica è in realtà una struttura per la creazione di modelli cognitivi del mondo, sulla base dei quali si possono poi trarre conclusioni.

In secondo luogo, l’IA classica è perfettamente compatibile con le regole. C'è una strana tendenza nel deep learning in questo momento in cui gli esperti cercano di evitare le regole. Vogliono fare tutto sulle reti neurali e non fare nulla che assomigli alla programmazione classica. Ma ci sono problemi che sono stati risolti con calma in questo modo e nessuno ci ha prestato attenzione. Ad esempio, creando percorsi in Google Maps.

In realtà, abbiamo bisogno di entrambi gli approcci. L’apprendimento automatico è bravo ad apprendere dai dati, ma molto scarso nel rappresentare l’astrazione che è un programma per computer. L’intelligenza artificiale classica funziona bene con le astrazioni, ma deve essere programmata interamente a mano e c’è troppa conoscenza al mondo per programmarle tutte. Chiaramente dobbiamo combinare entrambi gli approcci.

Questo si collega al capitolo in cui parli di ciò che possiamo imparare dalla mente umana. E prima di tutto il concetto basato sull'idea sopra menzionata secondo cui la nostra coscienza è composta da molti sistemi diversi che funzionano in modi diversi.

Penso che un altro modo per spiegarlo è che ogni sistema cognitivo di cui disponiamo risolve in realtà un problema diverso. Parti simili dell’IA devono essere progettate per risolvere problemi diversi che hanno caratteristiche diverse.

Ora stiamo cercando di utilizzare alcune tecnologie all-in-one per risolvere problemi radicalmente diversi tra loro. Comprendere una frase non è affatto la stessa cosa che riconoscere un oggetto. Ma le persone stanno cercando di utilizzare il deep learning in entrambi i casi. Da un punto di vista cognitivo, questi sono compiti qualitativamente diversi. Sono semplicemente stupito di quanto poco apprezzamento ci sia per l'intelligenza artificiale classica nella comunità del deep learning. Perché aspettare che appaia una soluzione miracolosa? È irraggiungibile e le ricerche infruttuose non ci consentono di comprendere l'intera complessità del compito di creare l'intelligenza artificiale.

Hai anche affermato che i sistemi di intelligenza artificiale sono necessari per comprendere le relazioni di causa-effetto. Pensi che il deep learning, l’intelligenza artificiale classica o qualcosa di completamente nuovo ci aiuterà in questo?

Questa è un’altra area in cui il deep learning non è adatto. Non spiega le cause di determinati eventi, ma calcola la probabilità di un evento in determinate condizioni.

Di cosa stiamo parlando? Guardi determinati scenari e capisci perché ciò accade e cosa potrebbe accadere se alcune circostanze cambiassero. Posso guardare il supporto su cui è appoggiata la TV e immaginare che se taglio una delle sue gambe, il supporto si ribalterà e la TV cadrà. Questa è una relazione di causa ed effetto.

L’intelligenza artificiale classica ci fornisce alcuni strumenti per questo. Può immaginare, ad esempio, cos'è il sostegno e cos'è la caduta. Ma non loderò eccessivamente. Il problema è che l'intelligenza artificiale classica dipende in gran parte da informazioni complete su ciò che sta accadendo e sono giunto a una conclusione semplicemente guardando lo stand. Posso in qualche modo generalizzare, immaginare parti dello stand che non mi sono visibili. Non disponiamo ancora degli strumenti per implementare questa proprietà.

Dici anche che le persone hanno una conoscenza innata. Come è possibile implementarlo nell’intelligenza artificiale?

Al momento della nascita, il nostro cervello è già un sistema molto elaborato. Non è fisso; la natura ha creato la prima bozza. E poi l'apprendimento ci aiuta a rivedere quella bozza nel corso della nostra vita.

Una bozza del cervello ha già determinate capacità. Una capra di montagna appena nata è in grado di scendere infallibilmente il fianco della montagna in poche ore. È ovvio che ha già una comprensione dello spazio tridimensionale, del suo corpo e della relazione tra loro. Un sistema molto complesso.

Questo è in parte il motivo per cui credo che abbiamo bisogno di ibridi. È difficile immaginare come si possa creare un robot che funzioni bene in un mondo senza una conoscenza simile di dove cominciare, piuttosto che iniziare con una tabula rasa e imparare da una lunga e vasta esperienza.

Per quanto riguarda gli esseri umani, la nostra conoscenza innata deriva dal nostro genoma, che si è evoluto nel corso di molto tempo. Ma con i sistemi di intelligenza artificiale dovremo percorrere una strada diversa. Parte di ciò potrebbero essere le regole per costruire i nostri algoritmi. Parte di ciò potrebbero essere le regole per creare le strutture dati manipolate da questi algoritmi. E parte di ciò potrebbe essere la consapevolezza che investiremo direttamente nelle macchine.

È interessante che nel libro si parli dell'idea di fiducia e della creazione di sistemi di fiducia. Perché hai scelto questo particolare criterio?

Credo che oggi tutto questo sia un gioco di palla. Mi sembra che stiamo vivendo uno strano momento storico, fidandoci di molti software che non sono affidabili. Penso che le preoccupazioni che abbiamo oggi non dureranno per sempre. Tra cento anni, l’intelligenza artificiale giustificherà la nostra fiducia, e forse prima.

Ma oggi l’intelligenza artificiale è pericolosa. Non nel senso che Elon Musk teme, ma nel senso che i sistemi di colloquio di lavoro discriminano le donne, indipendentemente da ciò che fanno i programmatori, perché i loro strumenti sono troppo semplici.

Vorrei che avessimo un'intelligenza artificiale migliore. Non voglio vedere un “inverno dell’intelligenza artificiale” in cui le persone si rendono conto che l’intelligenza artificiale non funziona ed è semplicemente pericolosa e non vogliono risolverlo.

In un certo senso, il tuo libro sembra molto ottimista. Si presuppone che sia possibile costruire un’intelligenza artificiale affidabile. Dobbiamo solo guardare in una direzione diversa.

Esatto, il libro è molto pessimista a breve termine e molto ottimista a lungo termine. Crediamo che tutti i problemi che abbiamo descritto possano essere risolti dando uno sguardo più ampio a quali dovrebbero essere le risposte corrette. E pensiamo che se ciò accadesse, il mondo sarà un posto migliore.

Fonte: habr.com

Aggiungi un commento