Perché l’IA più intelligente è ancora più stupida di un bambino – e come possiamo risolverlo

L’intelligenza artificiale è, innegabilmente, una delle invenzioni più importanti nella storia dell’umanità. Appartiene su una fantasia ‘ Mt. Rushmore di tecnologie ‘ a fianco di energia elettrica, motori a vapore, e internet. Ma, nella sua attuale incarnazione, l’IA non è molto intelligente.

Infatti, anche ora nel 2020, AI è ancora più stupido di un bambino. La maggior parte degli esperti di IA – quelli con gli stivali a terra nelle comunità di ricercatori e sviluppatori – credono che il percorso in avanti sia attraverso continui investimenti in sistemi di status quo. Roma, come si suol dire, non è stata costruita in un giorno e nemmeno i sistemi IA a livello umano lo saranno.

Ma Gary Marcus, esperto di intelligenza artificiale e cognizione e CEO di robotics company Robust.AI, dice che il problema è che stiamo solo grattando la superficie dell’intelligenza. La sua affermazione è che l’apprendimento profondo – il paradigma più moderno che funziona con l’IA-non ci porterà da nessuna parte vicino all’intelligenza a livello umano senza una profonda comprensione.

In un recente articolo sul Gradiente, Marcus ha scritto:

I sistemi attuali possono rigurgitare la conoscenza, ma non possono davvero capire in una storia in via di sviluppo, chi ha fatto cosa a chi, dove, quando e perché; non hanno un vero senso del tempo, del luogo o della causalità.

Cinque anni da quando i vettori di pensiero sono diventati popolari, il ragionamento non è stato risolto. Quasi 25 anni da quando Elman ei suoi colleghi prima cercato di utilizzare le reti neurali di ripensare Innateness, i problemi rimangono più o meno gli stessi che mai.

Si riferisce specificamente a GPT-2, il grande generatore di testo cattivo che ha fatto notizia all’inizio di quest’anno come uno dei sistemi di intelligenza artificiale più avanzati mai creati. GPT-2 è un’impresa monumentale in informatica e una testimonianza del potere dell’IA… ed è piuttosto stupido.

Leggi: Questo generatore di testo alimentato da AI è la cosa più spaventosa che abbia mai visto — e puoi provarlo

L’articolo di Marcus fa di tutto per sottolineare che GPT-2 è molto bravo ad analizzare incredibilmente grandi quantità di dati mentre allo stesso tempo è molto cattivo in qualsiasi cosa anche lontanamente simile a una comprensione umana di base delle informazioni. Come con ogni sistema AI: GPT-2 non capisce nulla delle parole su cui è stato addestrato e non capisce nulla delle parole che sputa.

Credito: Gary Marcus
Qui, Marcus dimostra che GPT-2 può riempire un vuoto con qualcosa che predice potrebbe essere appropriato, ma non capire le parole

Il modo GPT-2 funziona è semplice: Si digita nel prompt e un Trasformatore di rete neurale che è stato addestrato su 42 gigabyte di dati (essenzialmente, il tutto dang internet) con la capacità di manipolare 1,5 miliardi di parametri sputa più parole. A causa della natura della formazione GPT-2s, è in grado di emettere frasi e paragrafi che sembrano essere scritti da un madrelingua fluente.

Ma GPT-2 non capisce le parole. Non sceglie parole, frasi o frasi specifiche per la loro veridicità o significato. Sputa semplicemente blocchi di testo senza senso che di solito appaiono grammaticalmente corretti per pura virtù della sua forza bruta (1,5 miliardi di parametri). Potrebbe essere infinitamente utile come strumento per ispirare opere d’arte, ma non ha alcun valore come fonte di informazione.

Nell’immagine seguente, Marcus ottiene alcuni molto cattivi consigli da GPT-2 su come gestire l’ingestione di acido cloridrico:

di Credito: GPT-2 / Gary Marcus

GPT-2 è impressionante, ma non per le ragioni che molte persone potrebbero pensare. Come dice Marcus:

Semplicemente essere in grado di costruire un sistema in grado di digerire i dati su scala Internet è un’impresa in sé, e uno che OpenAI, il suo sviluppatore, ha eccelso.

Ma l’intelligenza richiede più di una semplice associazione di bit di dati con altri bit di dati. Marcus postula che avremo bisogno di apprendimento profondo per acquisire una profonda comprensione se il campo è quello di andare avanti. Il paradigma attuale non supporta la comprensione, solo la prestidigitazione: l’IA moderna sfrutta semplicemente i set di dati per i modelli.

La comprensione profonda, secondo una presentazione che Marcus ha dato a NEURIPS quest’anno, richiederebbe all’IA di essere in grado di formare un modello “mentale” di una situazione basata sulle informazioni fornite.

Pensa ai robot più avanzati oggi: il massimo che possono fare è navigare senza cadere o eseguire attività ripetitive come lanciare hamburger in un ambiente controllato. Non esiste un robot o un sistema di intelligenza artificiale che possa entrare in una strana cucina e preparare una tazza di caffè.

Una persona che capisce come è fatto il caffè, tuttavia, potrebbe entrare in qualsiasi cucina del mondo e capire come fare una tazza, a condizione che tutti i componenti necessari fossero disponibili.

Il percorso in avanti, secondo Marcus, deve coinvolgere più di apprendimento profondo. Sostiene un approccio ibrido che combina il ragionamento simbolico e altri metodi di cognizione con l’apprendimento profondo per creare un’IA capace di una comprensione profonda, invece di continuare a versare miliardi di dollari in comprimendo più pacchetti di calcolo o paramater più grandi nelle stesse vecchie architetture di rete neurale.

Per ulteriori informazioni controlla “Rebooting AI” di Gary Marcus e Ernest Davis e leggi il recente editoriale di Marcus sul gradiente qui.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.