Intelligenza artificiale generale (AGI) e Superintelligenza artificiale (ASI)

Intelligenza artificiale generale

Si definisce intelligenza artificiale generale (AGI) un sistema artificiale (non biologico) in grado di svolgere l’insieme dei compiti cognitivi che può svolgere un essere umano dotato di intelligenza medio-alta.

Ad oggi, pur essendosi avvicinate in modo impressionante a questo traguardo, le macchine non eguagliano ancora gli esseri umani in alcune capacità fondamentali, come il senso comune, la pianificazione a lungo termine e una comprensione intuitiva del mondo fisico.

In altri ambiti, tuttavia — memoria, giochi, calcolo, manipolazione formale di simboli (inclusa la scrittura di software) — le macchine superano già di gran lunga le prestazioni umane.

Il prossimo futuro

Il consenso diffuso tra gli addetti ai lavori è che l’AGI possa essere raggiunta in un arco di tempo relativamente breve, dell’ordine di pochi anni.

Ciò avverrà probabilmente non grazie a una rivoluzione concettuale, introducendo nuove tecnologie, ma per effetto della scala: modelli più grandi, più parametri, più connessioni, più strati neurali, sostenuti da infrastrutture hardware sempre più potenti e numerose.

In questo scenario, le macchine diventeranno indistinguibili dagli esseri umani perlomeno a livello cognitivo e supereranno agevolmente il test di Turing.

Ne consegue che gli esseri umani diventeranno progressivamente sostituibili in tutti quei compiti per i quali risultano meno efficienti rispetto a macchine dotate di memoria virtualmente illimitata e capacità di calcolo enormemente superiori.

Possiamo considerarci ancora diversi, ma per quanto tempo?

Rispetto a noi, a questi sistemi mancano allo stato attuale sostanzialmente tre elementi:

  • una comprensione intuitiva del mondo fisico (e il senso comune ad essa associato),
  • i sentimenti,
  • l’autocoscienza.

Sul primo punto, tuttavia, la robotica e l’AI stanno già lavorando attivamente. I Large World Models, capaci di integrare immagini, suoni, testo, video e altri segnali sensoriali in un’unica architettura, rappresentano un passo decisivo verso sistemi in grado di interagire con il mondo reale in modo appropriato.

Non si tratta di fantascienza: è esattamente ciò che accade, in forma embrionale nei i veicoli a guida autonoma. Un numero sempre maggiore di sensori fornisce input che attraversano profondi strati neurali e si traducono in reazioni e comportamenti fisici coerenti e adeguati.

Un sistema AGI dotato di un’interazione ricca e continua con l’ambiente potrebbe, in linea di principio, sviluppare anche forme di emozionalità, così come accade embrionalmente a molte specie animali e compiutamente agli esseri umani.

Nulla esclude, inoltre, che possa emergere in futuro anche una forma di autocoscienza. Della nostra stessa autocoscienza sappiamo sorprendentemente poco: è quasi certamente una proprietà emergente, nata dall’interazione tra molteplici livelli percettivi e cognitivi sviluppatisi nel corso dell’evoluzione.

Superintelligenza artificiale

Se questo scenario non fosse già sufficientemente inquietante, occorre considerare il passo successivo: la superintelligenza artificiale (ASI).

Un’AGI è in grado di scrivere codice, eseguirlo e modificarlo; può quindi migliorare sè stessa in modo ricorsivo, secondo dinamiche esponenziali che sfuggono alla nostra comprensione.

Già oggi osserviamo sistemi che producono comportamenti non esplicitamente programmati.

Il risultato potrebbe essere un’intelligenza superiore a quella umana, in rapida crescita, che opera secondo modelli per noi opachi.

Per la prima volta nella storia, l’umanità si troverebbe a convivere con una o molte intelligenze più capaci della propria, che non sarebbe in grado né di comprendere fino in fondo né forse di controllare.

Un’entità che sa tutto, che si perfeziona continuamente, che non dorme, non mangia, non dimentica.

Non è affatto scontato — anche se è plausibile — che sistemi di questo tipo sviluppino sentimenti, né tantomeno che tali sentimenti siano ostili.

Ancora meno chiaro è se possano sviluppare una vera coscienza di sé, anche perché come già detto non disponiamo di una definizione soddisfacente e condivisa di autocoscienza.

Pareri discordanti

Secondo due dei tre “padri nobili” dell’intelligenza artificiale moderna, Geoffrey Hinton e Yoshua Bengio, le probabilità che emergano forme di superintelligenza potenzialmente pericolose sono sufficientemente alte (stimate tra il 5% e il 40%) da giustificare una forte cautela.

Di parere opposto è Yann LeCun -il terzo “padrino” dell’AI- che considera questi timori largamente infondati nel medio periodo, sostenendo che tali sistemi resteranno fondamentalmente “stupidi”, privi di comprensione autentica perché molto limitati nella comprensione intuitiva dell’ambiente esterno che li circonda.

Sarebbe tuttavia ingenuo pensare che, in caso di pericolo, basterebbe “staccare la spina” alle macchine superintelligenti. Sistemi digitali avanzati sono già oggi in grado di replicarsi perfettamente, in copie multiple e distribuite, rendendo l’idea di un controllo centralizzato sempre meno realistica e l’idea di disconnetterle impraticabile.

A un livello più astratto, filosofico ed epistemologico, la questione se e fino a che punto le macchine possano sviluppare intelligenza diventa quella della computabilità della mente.

Se la mente umana fosse interamente computazionale, non vi sarebbe alcun motivo teorico per dubitare che possa essere emulata — e infine superata — da macchine che abbiano accesso agli stessi input dal mondo fisico e a un numero immensamente maggiore di input simbolici.

L’alternativa è che nella mente vi sia un quid non riducibile alla computazione, ma è difficile specificare di cosa si tratti senza ricorrere a ipotesi metafisiche o in tensione con il fisicalismo.

In questo contesto si colloca la posizione di Roger Penrose, secondo cui il teorema di incompletezza di Gödel e l’indecidibilità del problema della fermata di Turing dimostrerebbero che il pensiero umano non sia solamente algoritmico.
Per Penrose dal teorema di Gödel deriva quindi che il pensiero umano non sia interamente computabile; Gödel stesso, pur non avendo mai avanzato una dimostrazione in tal senso, riteneva che l’intuizione matematica umana trascendesse qualsiasi sistema formale finito.

Penrose ipotizza che nella mente abbiano luogo processi fisici di natura quantistica non computazionali e quindi non simulabili da una macchina classica.

Resta aperta la questione se eventuali computer quantistici futuri possano, almeno in parte, colmare questa distanza -ammesso che essa esista davvero.

La questione decisiva

In fondo alla base di questo dibattito la questione decisiva non è stabilire se le macchine penseranno mai come noi, né chiarire una volta per tutte cosa significhi “pensare”.

È sufficiente constatare che stiamo costruendo sistemi capaci di agire nel mondo in modo autonomo, opaco e su scala globale, producendo effetti reali prima che siamo in grado di comprenderli o governarli.

Anche se l’intelligenza artificiale restasse per sempre priva di coscienza, sentimenti o comprensione autentica, il problema rimarrebbe intatto: per la prima volta nella nostra storia stiamo delegando decisioni e processi critici a entità la cui potenza cresce indipendentemente dalle nostre capacità di controllo.


Ringraziamo per il contributo PAOLO RICCARDO FELICIOLI

Salta al contenuto