“Può darsi che il nostro ruolo su questo pianeta non sia quello di adorare Dio, ma di crearlo.”

(Arthur C. Clarke, scrittore, inventore ed esploratore)

Negli scorsi giorni la notizia che un dipendente di una grande azienda americana sia stato sospeso perché convinto che un’AI su cui lavorava fosse diventata cosciente.
Al di là di queste (dubbie) affermazioni, questo post vuole esplorare la tematica della possibilità che un giorno un’intelligenza artificiale diventi “cosciente”.

Un breve ripasso: l’intelligenza artificiale forte

Come spiegato nel primo dei post di questo blog, quando si parla di intelligenze artificiali coscienti ci si riferisce alle cosiddette AI “forti”, ossia di macchine dotate della capacità di ragionare in modo autonomo, e non semplicemente in risposta a degli stimoli esterni, diventando quindi indistinguibili da una persona reale.

Intelligenza Artificiale forte: a che punto siamo?

I progressi di cui si sente parlare ormai ogni giorno nel campo dell’intelligenza artificiale fanno pensare ai teorici dell’intelligenza artificiale forte che siamo distanti solo pochi decenni dal manifestarsi di un’AI senziente.
Al momento lo sforzo dei centri di ricerca più influenti sembrano concentrati nello sviluppo di intelligenze artificiali generaliste, ossia capaci di risolvere più compiti tra loro indipendenti; la maggior parte delle intelligenze artificiali moderne è infatti ancora di tipo specializzato, ossia capaci di eseguire compiti specifici, simili tra loro.
Esempi di AI specializzate sono quelle utilizzate per tradurre in maniera automatica un testo da una lingua a un’altra, per identificare difetti in un prodotto industriale, o per battere un Gran Maestro nel gioco degli scacchi; un’AI generalista è capace invece di completare tutti questi task (e anche altri) contemporaneamente.

Su un’ipotetica “scala evolutiva” dell’Intelligenza Artificiale, gli algoritmi generalisti sono lo scalino evolutivo immediatamente precedente a quello rappresentato dall’intelligenza artificiale senziente; un’AI senziente, infatti, non potrà che essere generalista o, in caso non lo fosse, imparerebbe a diventarlo.

Ma come stabilire se un’AI è cosciente?

Per stabilire se una macchina sia in grado di esibire un comportamento propriamente intelligente, nei primi anni ’50 il padre dell’informatica moderna Alan Mathison Turing ha proposto un semplice test.
Il cosiddetto test di Turing è pensato sottoforma di un gioco con tre partecipanti: un uomo A, una donna B, una terza persona C, e una macchina “intelligente”. La persona C è divisa da A e B e ha l’obiettivo di identificare le identità delle altre due persone mediante delle domande; A cercherà di ingannare C con le sue risposte, mentre B cercherà invece di aiutare quest’ultimo. Il test di Turing, quindi, prevede che a un certo punto la macchina si sostituisca ad A: il test sarà passato nel caso che C non si accorga della sostituzione, ovvero se la percentuale di volte in cui C indovina chi sia l’uomo e chi la donna sarà simile prima e dopo la sostituzione di A con la macchina.

In tempi più recenti il test di Turing è stato criticato per la sua “limitatezza”: il filosofo statunitense John Searle pubblicò nel 1984 un esperimento mentale come controesempio non solo del test di Turing, ma della possibilità dell’esistenza di una macchina senziente. Tale esperimento mentale, detto “stanza cinese”, prevede che un uomo senza nessuna conoscenza del cinese sia chiuso in una stanza, e che debba interagire mediante dei biglietti con una persona di madrelingua cinese posta nel locale adiacente.
Scopo della persona è ingannare il cinese madrelingua, facendogli credere di conversare con un’altra persona che conosce il cinese. A tal fine la persona è fornita di un dizionario di cinese e da un libro con delle regole volte ad aiutarlo a rispondere a tutti i quesiti che riceve.
Tali supporti, che costituiscono un “programma”, rendono possibile alla persona di mettere in relazione una serie di simboli cinesi sconosciuti con un’altra serie di simboli conosciuti nella sua lingua, permettendogli quindi di dare una risposta (output) a ogni domanda (input). Pur continuando a non conoscere il cinese, la persona sarà quindi capace di rispondere ai quesiti del cinese madrelingua, arrivando potenzialmente a ingannarlo.

Lo scopo dell’esperimento mentale di Searle è quello di distinguere coscienza e intelletto dalla capacità (quantunque elevata) di applicare degli schemi per raggiungere uno scopo: per Searle un’intelligenza artificiale è capace solo a manipolare correttamente i simboli dell’input che riceve per ottenere un output soddisfacente, senza in realtà comprendere il significato intrinseco di tali simboli (e quindi la loro sintassi, ma non la loro semantica).

Conclusioni

Sebbene i più recenti sviluppi della ricerca abbiano portato a modelli di AI sempre più complessi e sia il test di Turing che l’esperimento della camera cinese ci diano indicazioni su come interpretare il livello di “intelligenza” degli algoritmi di AI oggi esistenti, non è ancora chiaro a che punto siamo nel processo di sviluppo di un’intelligenza artificiale forte.

Questa incertezza è anche data dal fatto che non esiste un modo definitivo per stabilire quando un’intelligenza artificiale possa definirsi cosciente. D’altra parte, identificare una corretta misura in tal senso equivarrebbe a trovare una risposta al quesito “cosa significa essere coscienti?”, una delle domande esistenziali su cui si è dibattuto per secoli in filosofia senza trovare una risposta univoca o convincente.

La ricerca nell’ambito di un’intelligenza artificiale forte, quindi, potrebbe portare a dei risultati che non si limitano al “semplice” sviluppo scientifico: realizzare una macchina senziente significherebbe (parafrasando la citazione di Clarke riportata in apertura di questo blog) scoprire qualcosa di più su noi stessi in quanto umani, e sul significato della nostra vita.

 

 

DALL-E: Come funziona?

“L'arte non è ciò che vedi, ma ciò che fai vedere agli altri.”(Edgar Degas, pittore impressionista) Nell’ultimo mese ha destato...