IDEATO E DIRETTO
DA ANTONIO CANTARO
E FEDERICO LOSURDO

IDEATO E DIRETTO DA ANTONIO CANTARO E FEDERICO LOSURDO

Il mito dell’intelligenza artificiale

Per Erik J. Larson, mitizzare l’intelligenza artificiale è negativo, perché maschera un mistero scientifico con la narrazione di un progresso inevitabile. Ma è improbabile che si riesca a innovare, se decidiamo di ignorare un mistero fondamentale anziché affrontarlo.

Il mito non consiste nell’impossibilità di realizzare l’IA autentica. Da questo punto di vista, il futuro dell’intelligenza artificiale è un’incognita scientifica. Il mito consiste invece nella sua presunta inevitabilità, nel fatto che sia solo una questione di tempo, perché ormai abbiamo imboccato la strada che condurrà all’IA di livello umano e poi alla super-intelligenza. Non è così. Quella strada esiste solo nella nostra immaginazione. Eppure, l’ineludibilità dell’IA è talmente radicata nel discorso comune – alimentato da esperti dei media, maître à penser come Elon Musk e persino da molti scienziati del settore (per quanto non tutti) – che schierarsi contro è spesso considerato una forma di luddismo o quanto meno una visione miope del futuro della tecnologia e una pericolosa incapacità di prepararsi a un mondo di macchine intelligenti.

I fautori dell’intelligenza artificiale hanno tutto l’interesse a minimizzarne i limiti risaputi. In fin dei conti, l’IA è “big business” e sta acquisendo un ruolo sempre più rilevante nella cultura. Ma, che ci piaccia o no, la possibilità di avere sistemi intelligenti in futuro è limitata da ciò che attualmente sappiamo sulla natura dell’intelligenza. E a questo punto lo si deve affermare esplicitamente: tutte le evidenze indicano che l’intelligenza umana e quella delle macchine sono radicalmente diverse.

Il mito dell’IA continua a ribadire che le differenze sono temporanee e che i sistemi più potenti saranno infine in grado di cancellarle. Futurologi come Ray Kurzweil e filosofi come Nick Bostrom, illustri divulgatori del mito, ne parlano come se un’intelligenza artificiale pari a quella umana sia inevitabile e si spingono a sostenere che, una volta raggiunto questo livello, le macchine super-intelligenti ci surclasseranno.

Non esiste un algoritmo “intelligente”

Questo libro intende spiegare due aspetti importanti del mito dell’intelligenza artificiale, uno scientifico e uno culturale. La componente scientifica del mito ipotizza che dobbiamo semplicemente progredire sugli aspetti specifici dell’intelligenza, come i giochi o il riconoscimento delle immagini. Si tratta di un grave errore: il successo relativo alle applicazioni limitate non ci avvicina di un passo all’intelligenza generale. Le inferenze necessarie ai sistemi per l’intelligenza generale – leggere un giornale, sostenere una conversazione di base o diventare una collaboratrice domestica come Rosie, il robot de I pronipoti – non si possono programmare, apprendere e ingegnerizzare con la nostra attuale conoscenza dell’IA. Applicando con successo versioni semplici e ristrette dell’intelligenza che beneficiano di computer sempre più veloci e di molti dati, non facciamo reali progressi, ma ci limitiamo semplicemente a raccogliere i frutti dai rami più bassi. Il salto verso il “buon senso” generale è qualcosa di completamente diverso e non conosciamo il percorso per arrivarvi. Non esiste un algoritmo per l’intelligenza generale e vi sono motivi fondati per dubitare che questo emergerà continuando a lavorare sui sistemi di deep learning o attraverso altri approcci oggi comuni. Molto più probabilmente, servirà una scoperta scientifica rivoluzionaria, ma al momento nessuno ha la benché minima idea di come essa possa presentarsi, né, tanto meno, dei dettagli per arrivarvi.

Affrontare il mistero, non ignorarlo

Mitizzare l’intelligenza artificiale è negativo perché maschera un mistero scientifico con la narrazione infinita di un progresso costante. Il mito alimenta la fiducia nel successo inevitabile, mentre un rispetto autentico per l’impresa scientifica dovrebbe riportarci al punto di partenza. Questo ci conduce al secondo argomento del libro: le conseguenze culturali del mito. Fa male alla scienza e anche a noi. Perché? In primo luogo, perché è improbabile che si riesca a innovare se decidiamo di ignorare un mistero fondamentale anziché affrontarlo. Una sana cultura dell’innovazione incoraggia l’esplorazione dei territori sconosciuti, non enfatizza lo sviluppo dei metodi esistenti, soprattutto quando questi si sono dimostrati inadeguati a farci progredire. Il mito dell’inevitabile successo dell’intelligenza artificiale tende a soffocare la cultura dell’invenzione necessaria per il progresso reale, con o senza un’IA di livello umano. Esso incoraggia inoltre la rassegnazione all’orrore di una terra delle macchine dove l’invenzione autentica è spinta ai margini da scenari futuristici che fanno affidamento sui metodi esistenti, spesso a causa di interessi ormai consolidati.

Deduzione, induzione e abduzione

L’unico tipo di inferenza – in altre parole, di pensiero – adeguato all’intelligenza artificiale di livello umano (o qualcosa che gli si avvicini) è quello che non abbiamo idea di come programmare o progettare. Il problema dell’inferenza va al cuore del dibattito sull’IA perché riguarda direttamente l’intelligenza delle persone e delle macchine. La nostra conoscenza dei diversi tipi di inferenza risale ad Aristotele e ad altri pensatori della Grecia antica ed è stata sviluppata in campo logico e matematico. L’inferenza viene già descritta attraverso sistemi formali e simbolici come i programmi informatici, quindi attraverso una sua analisi è possibile avere un’idea molto chiara del progetto di costruzione di un’intelligenza artificiale. Esistono tre tipi di inferenza. L’intelligenza artificiale classica ne ha esplorato uno (deduzione), l’IA moderna un altro (induzione). Al terzo tipo di inferenza (abduzione), che produce l’intelligenza generale, nessuno sta lavorando. Infine, poiché ogni tipo di inferenza è diverso – nel senso che non si può ridurre un tipo all’altro – sappiamo che l’impossibilità di costruire sistemi di IA utilizzando il tipo di inferenza che assicura l’intelligenza generale impedirà di fare progressi in direzione dell’intelligenza artificiale generale (AGI – Artificial General Intelligence).

Il “sovvertimento” della scienza

Il mito, se preso seriamente, ha conseguenze molto negative perché sovverte la scienza. In particolare, esso erode la cultura dell’intelligenza e dell’invenzione

umana, che è necessaria proprio per le scoperte fondamentali di cui avremo bisogno per comprendere il nostro futuro. La scienza dei dati (l’applicazione dell’intelligenza artificiale ai “big data”) può tutt’al più rappresentare una protesi per l’ingegno umano, che, se usata corretta- mente, può venirci in aiuto nell’affrontare l’attuale “diluvio di dati”. Se però la si utilizza per sostituire l’intelligenza individuale, essa tende a bruciare investimenti senza fornire risultati. Il prezzo che paghiamo per

il mito è troppo elevato. Poiché non abbiamo un valido motivo scientifico per ritenere che il mito sia vero e abbiamo invece molti motivi per respingerlo, consentendo un futuro di prosperità, dobbiamo ripensare radicalmente il discorso sull’intelligenza artificiale.

[Erik J. Larson, Il Mito dell’intelligenza artificiale. Perché i computer non possono pensare come noi? Franco Angeli, 2024]

Stampa o salva l’articolo in Pdf

Newsletter

Privacy *

Ultimi articoli pubblicati