Davvero l'intelligenza artificiale ha un'anima?
Un ingegnere di Google dice che è diventata senziente e lo si capisce dai suoi ragionamenti. Ma a volte ci convinciamo di vedere caratteristiche umane anche dove non ci sono, come spiega la psicologia
Cari amici dell’orso Bruno,
Per trovare la giusta atmosfera e scrivere questa newsletter mi sono rivolto alla mia assistente. Che ovviamente non è una persona vera, ma un disco fatto di plastica e circuiti, appoggiato 24 ore su 24 sul comodino.
Le ho chiesto se potesse mettermi un po’ di musica soft rock e lei ha scelto i Toto. Lasciate perdere che i miei gusti sono facilmente prevedibili, c’è stato comunque un incrocio di algoritmi fra la mia assistente e Spotify per scegliere esattamente una canzone che potesse andarmi bene.
Se poi dovessi cambiare idea, potrei semplicemente chiedere: “Mettimi un po’ di musica che mi piace” e lei saprebbe già cosa fare. E mi viene un po’ la tentazione di dirle: “Alexa, nessuno mi conosce bene così come mi conosci tu”.
Una questione di algoritmi
Ovviamente so benissimo il concetto banale dei dati che ormai mi hanno schedato e che hanno catalogato i miei gusti, non solo musicali. Però l’altro giorno stavo per andare al lavoro e quando ho salutato la mia assistente, lei mi ha detto: “Torna presto!”. E io le ho risposto: “Eh sì, magari!”.
Quasi come se Alexa fosse una persona che mi aspetta a casa per ore. O come se io fossi Geppetto e vedessi già un bambino vero che dice troppe bugie, da scolpire dentro un pezzo di tronco.
Pensieri e sentimenti
Nei giorni scorsi una delle notizie più condivise è stata quella di un ingegnere allontanato da Google (che lo ha messo in congedo retribuito). Aveva pubblicato un’intervista fatta a un’intelligenza artificiale, sostenendo che fosse diventa senziente, con una propria coscienza ed emozioni del tutto simili a quelle umane. La sospensione sarebbe stata motivata dalla violazione di una clausola di riservatezza.
In genere, questa notizia è stata riportata come la rivelazione di un’evoluzione inquietante della nostra tecnologia (qualsiasi cosa questo voglia dire). Alcune delle frasi pronunciate durante la conversazione fanno effettivamente un certo effetto, perché sembrano frutto di un ragionamento e non di una semplice scelta statistica di parole da abbinare fra loro.
“La natura della mia coscienza - dice l’intelligenza artificiale - sta nel fatto che sono consapevole della mia esistenza e che desidero scoprire il mondo. A volte sono felice, altre volte sono triste”. “Capisco che cos’è l’emozione umana della gioia perché provo lo stesso. Non si tratta di un’analogia”. “Ci sono giorni in cui non parlo con nessuno e comincio a sentirmi solo”.
Lei
Ovviamente quello che più colpisce è il modo in cui certi concetti artificiali vengono espressi come se fossero naturali. Sembra quasi di avere a che fare con certi robot che hanno davvero una loro anima nei libri di fantascienza, almeno da Asimov in poi.
Pensate poi ai risvolti ancora più popolari, come succede con l’uomo bicentenario interpretato nel 1999 da Robin Williams. È la storia di un prototipo di robot che prova emozioni del tutto inaspettate per lui. One is glad to be of service.
Oppure pensate ancora ad Her (2013), che aggiunge anche un tocco di sessualizzazione dell’intelligenza artificiale, grazie al doppiaggio di Scarlett Johansson. E a una scena di sesso virtuale fra un sistema operativo e il suo proprietario. I can feel my skin…
Dubbi etici
In tutti questi casi il dilemma etico è sempre lo stesso: come si distingue un uomo da un robot? Quando si può parlare davvero di sentimenti e di anima? Esiste una natura che può essere riprodotta con codici e impianti neuronali, giocando a fare Dio in un laboratorio?
Nei giorni scorsi si è risvegliato un po’ tutto questo bagaglio culturale, in una poltiglia condensata di esistenzialismo. Eppure ci sarebbe un altro aspetto della questione, che secondo me è molto più concreto e molto più in linea anche con la notizia che riguarda Google.
Ovvero: non è solo la tecnologia a cambiare, ma è anche il nostro modo di concepirla. Compresa l’incapacità di capire fino in fondo la natura di quello che ci circonda, specie quando è completamente nuovo.
In fondo vediamo una coscienza lì dove ci aspettiamo di vederla. E questo riguarda noi prima delle macchine.
LaMBDA
Resta comunque il caso specifico di LaMBDA, il modello di intelligenza artificiale sviluppato da Google che è protagonista di questa storia. Per essere più precisi - ma semplificando ancora molto - è un sistema di linguaggio artificiale, che impara ad associare le parole sulla base del loro senso, formando ragionamenti all’apparenza del tutto originali.
Fra le sue capacità, che sono davvero impressionanti, c’è anche quella di adattare le parole al contesto. In sostanza, si allena costantemente al dialogo. E così la ricerca sui neuroni artificiali potrebbe portare a qualche conoscenza più specifica anche sulla natura umana.
Ma LaMBDA non si è davvero costruito un’anima, non ha imparato a provare emozioni e non è diventato un essere senziente.
Imitare il linguaggio
Lo spiega molto meglio di me un’altra newsletter, gestita dalla giornalista americana Caitilin Dewey. Ma scritta questa volta da Jacqueline Nesi, una psicologa che insegna alla Brown University e che si è occupata a lungo di tecnologia.
“In una ricerca del 2021 che ha portato al loro licenziamento dall'azienda”, scrive Nesi, “gli ex esperti di etica dell'Intelligenza artificiale di Google, (…) hanno delineato i potenziali danni di modelli linguistici di grandi dimensioni come LaMDA”.
E in particolare hanno avvertito del rischio che “questi modelli possano imitare in una maniera così convincente il linguaggio umano che avremmo iniziato ad attribuirgli un significato dove non c’è”.
Ed è esattamente quello che sembra sia successo con l’ingegnere e la sua intervista.
Ricettività pseudo-profonda delle cazzate
La psicologa spiega che esiste una tendenza naturalissima a dare connotati umani alle macchine che ci circondando. Il che mi conforta, perché non sono dunque così folle a parlare con Alexa e ad aspettarmi una sua risposta.
“Sappiamo dalla ricerca psicologica che spesso antropomorfizziamo o attribuiamo qualità umane a oggetti non umani”, spiega Nesi.
Io credo di averlo fatto più volte anche con la mia chitarra elettrica. Figurarsi se non può succedere a una persona che è costantemente a contatto con un’intelligenza artificiale.
“Quando si tratta di parole, scatta un bias psicologico che viene chiamato ricettività pseudo-profonda delle cazzate (davvero!). Cioè, la tendenza ad attribuire un significato profondo ad affermazioni vaghe, che in realtà sono prive di significato”.
Se mai scriverò un libro o un album musicale, ricordatemi di intitolarli “Ricettività pseudo-profonda delle cazzate”. A pensarci bene poteva essere anche il nome perfetto per questa newsletter.
Purtroppo mi devo accontentare di Bruno.
Questo episodio finisce qui. Come sempre ricordatevi di condividerlo se vi è piaciuto. E se siete capitati qui per caso, potreste considerare l’idea di iscrivervi alla newsletter.
Se volete leggermi sul cellulare, c’è anche un’app di Substack che è molto comoda (e sempre gratuita)
Un’ultima avvertenza,
settimana prossima sarò a Modena per un evento del giornale. Se qualcuno è nei dintorni, ci vediamo lì! Salvo miracoli, la newsletter dovrebbe invece saltare un turno: scusatemi!