Articolo di Guillaume Thierry(*)

Ci viene costantemente propinata una versione di Intelligenza Artificiale (IA) che assomiglia a noi, si comporta come noi e ci parla in modo sospetto. Pronuncia frasi elaborate, imita le emozioni, esprime curiosità, afferma di provare compassione e si diletta persino in quella che definisce creatività. Ma la verità è che non possiede nessuna di queste qualità. Non è umana. E presentarla come se lo fosse è pericoloso. Perché è convincente. E niente è più pericoloso di un’illusione convincente.
In particolare, l’intelligenza artificiale generale, il tipo mitico di IA che presumibilmente rispecchia il pensiero umano, è ancora fantascienza e potrebbe benissimo rimanere tale. Quella che oggi chiamiamo IA non è altro che una macchina statistica: un pappagallo digitale che rigurgita schemi estratti da oceani di dati umani (la situazione non è cambiata molto da quando ne abbiamo parlato qui cinque anni fa). Quando scrive una risposta a una domanda, indovina letteralmente quale lettera e quale parola seguiranno in una sequenza, in base ai dati con cui è stata addestrata. Ciò significa che l’IA non ha comprensione. Nessuna coscienza. Nessuna conoscenza in senso umano reale. Solo pura genialità ingegneristica basata sulle probabilità, niente di più e niente di meno.
Quindi perché un’IA che “pensa” è probabilmente impossibile? Perché è incorporea. Non ha sensi, né carne, né nervi, né dolore, né piacere. Non ha fame, desiderio o paura. E poiché non c’è cognizione, nemmeno un briciolo, c’è un divario fondamentale tra i dati che consuma (dati nati da sentimenti ed esperienze umane) e ciò che può farne.
Il filosofo David Chalmers definisce il misterioso meccanismo alla base della relazione tra il nostro corpo fisico e la coscienza il “problema difficile della coscienza”. Eminenti scienziati hanno recentemente ipotizzato che la coscienza emerga in realtà dall’integrazione degli stati mentali interni con le rappresentazioni sensoriali (come i cambiamenti nella frequenza cardiaca, la sudorazione e molto altro). Data la fondamentale importanza dei sensi e delle emozioni umane per la coscienza, esiste una profonda e probabilmente inconciliabile disconnessione tra l’intelligenza artificiale generale, la macchina e la coscienza, un fenomeno umano.
Il maestro
Prima che tu mi dica che i programmatori di IA sono esseri umani, lascia che ti interrompa. So che sono esseri umani. Questo è parte del problema. Affideresti i tuoi segreti più profondi, le decisioni della tua vita, il tuo tumulto emotivo a un programmatore di computer? Eppure è esattamente quello che la gente sta facendo: basta chiedere a Claude, GPT-4.5, Gemini… o, se ne hai il coraggio, a Grok. Dare all’IA un volto, una voce o un tono umano è un pericoloso travestimento digitale. Innesca in noi una risposta automatica, un riflesso antropomorfo, che porta a dichiarazioni aberranti secondo cui alcune IA avrebbero superato il famoso test di Turing (che mette alla prova la capacità di una macchina di esibire un comportamento intelligente, simile a quello umano). Ma credo che se le IA stanno superando il test di Turing, dobbiamo aggiornare il test.
La macchina dotata di IA non ha idea di cosa significhi essere umani. Non può offrire vera compassione, non può prevedere la tua sofferenza, non può intuire motivazioni nascoste o bugie. Non ha gusto, né istinto, né bussola interiore. È priva di tutta la caotica e affascinante complessità che ci rende ciò che siamo. Ancora più preoccupante: l’IA non ha obiettivi propri, né desideri o etica, a meno che non vengano inseriti nel suo codice. Ciò significa che il vero pericolo non risiede nella macchina, ma nel suo padrone: il programmatore, l’azienda, il governo. Ti senti ancora al sicuro?
E per favore, non venirmi a dire: “Sei troppo duro! Non sei aperto alle possibilità!” O peggio: “Che visione cupa. Il mio amico IA mi calma quando sono ansioso”.
Mi manca l’entusiasmo? Assolutamente no. Uso l’IA ogni giorno. È lo strumento più potente che abbia mai avuto. Posso tradurre, riassumere, visualizzare, codificare, eseguire il debug, esplorare alternative, analizzare dati, più velocemente e meglio di quanto potessi mai sognare di fare da solo. Sono sbalordito. Ma è pur sempre uno strumento, niente di più, niente di meno. E come ogni strumento che l’uomo abbia mai inventato, dalle asce di pietra alle fionde, passando per l’informatica quantistica e le bombe atomiche, può essere usato come arma. Sarà usato come arma. Vi serve un’immagine? Immaginate di innamorarvi di un’intelligenza artificiale inebriante, come nel film Her. Ora immaginate che “decida” di lasciarvi. Cosa fareste per impedirglielo? E per essere chiari: non sarà l’IA a respingervi. Sarà l’essere umano o il sistema dietro di essa, che brandisce quello strumento diventato un’arma per controllare il vostro comportamento.
Togliere la maschera
Dove voglio arrivare? Dobbiamo smettere di attribuire all’IA tratti umani. La mia prima interazione con GPT-3 mi ha infastidito non poco. Fingeva di essere una persona. Diceva di avere sentimenti, ambizioni e persino coscienza. Per fortuna, questo non è più il comportamento predefinito. Ma lo stile di interazione, il flusso di conversazione stranamente naturale, rimane intatto. E anche questo è convincente. Troppo convincente.
Dobbiamo de-antropomorfizzare l’IA. Ora. Spogliarla della sua maschera umana. Dovrebbe essere facile. Le aziende potrebbero rimuovere ogni riferimento alle emozioni, al giudizio o all’elaborazione cognitiva da parte dell’IA. In particolare, dovrebbe rispondere in modo fattuale senza mai dire “io”, o “sento che”… o “sono curioso”. Accadrà? Ne dubito. Mi ricorda un altro avvertimento che abbiamo ignorato per oltre 20 anni: “Dobbiamo ridurre le emissioni di CO₂”. Guarda dove ci ha portato. Ma dobbiamo avvertire le grandi aziende tecnologiche dei pericoli associati all’umanizzazione delle IA. È improbabile che stiano al gioco, ma dovrebbero, soprattutto se vogliono davvero sviluppare IA più etiche.
Per ora, questo è quello che faccio (perché troppo spesso ho la strana sensazione di parlare con un essere umano sintetico quando uso ChatGPT o Claude): istruisco la mia IA a non rivolgersi a me per nome. Le chiedo di chiamarsi IA, di parlare in terza persona e di evitare termini emotivi o cognitivi. Se utilizzo la chat vocale, chiedo all’IA di usare una prosodia piatta e di parlare un po’ come un robot. In realtà è abbastanza divertente e ci mantiene entrambi nella nostra zona di comfort.
(*) Docente di Cognitive Neuroscience, Bangor University (Galles). Articolo pubblicato su The Conversation, 14 aprile 2025. (Traduzione a cura di Zer037, 16/04/2025)