Peluche affamati
Parliamo di 'Teoria della mente'
Non sempre uno studio che aiuta a capire una certa ‘era tecnologica’ appartiene a quella era. È il caso di Does the chimpanzee have a theory of mind?, l'articolo pubblicato quasi cinquant’anni fa su Behavioral and Brain Sciences nel quale D. Premack e G. Woodroof danno forma alla ‘Theory of Mind’ (ToM), spesso citata oggi nei paper che parlano di IA.
Sarah
Secondo i due studiosi, un individuo possiede una teoria della mente se attribuisce stati mentali (come scopi, convinzioni, speranze) a sé stesso o ad altri individui — anche appartenenti a specie diverse. Per indagare questa ipotesi, Premack e Woodruff sottoposero uno scimpanzé femmina di nome Sarah a una serie di esperimenti basati su problemi che coinvolgevano un attore umano. L’attore era filmato mentre tentava senza successo di risolvere una situazione problematica (ad esempio, cercava di uscire da una gabbia chiusa o di accedere a una banana fuori portata). Sarah doveva scegliere, tra due immagini, quella che rappresentava la soluzione più adatta al problema. I risultati mostrarono che Sarah sceglieva l’immagine corretta con una frequenza significativa. Secondo Premack e Woodruff, questo suggeriva che Sarah non si limitava a riconoscere elementi visivi o a seguire un semplice addestramento associativo: sembrava invece comprendere l’obiettivo dell’attore e prevederne l’intenzione, mettendosi nei suoi panni. In altre parole, Sarah attribuiva all’attore uno stato mentale – per esempio il desiderio di prendere la banana – e selezionava l’azione (cioè la soluzione) che permetteva di realizzare quell’obiettivo.
Tutto (è) mente
Noi applichiamo la teoria della mente continuamente, spesso senza accorgercene. Da piccoli, quando diciamo che un peluche caduto dal letto si è fatto male o quando gli diamo da mangiare perché pensiamo abbia fame. Da adulti, quando insultiamo un computer che non funziona o quando, invece di dire semplicemente ‘seduto!’ a un cane un po’ indisciplinato argomentiamo spiegandogli che non si fa perché solo i cani cattivi disubbidiscono agli ordini. Del resto, la storia della filosofia, della letteratura e sopratutto delle religioni è piena di ‘esseri’ che, in quanto superiori, fanno una sola cosa: pensano. Siamo dunque abituati da sempre a ‘mentizzare’ peluche, computer, cani e divinità; farlo ci aiuta a ricondurli a un pattern che conosciamo (il pensiero logico e la risposta emotiva) e dunque ci permette di controllarli perché li fa simili a noi.
Si può dire lo stesso della IA?
Ho sottoposto a ChatGPT il testo che avete letto fino ad adesso chiedendogli (o chiedendole?) “pensi che ti riguardi?”; ecco la risposta che mi ha dato.
Attenzione alla conclusione, che ci ricorda che quello che diciamo della tecnologia lo stiamo dicendo in fondo di noi.
“Non sono io a determinare la dinamica tra noi, ma ciò che tu (o chi mi usa) presumi che io sia. È l’effetto riflesso della tua teoria della mente: nel cercare di capirmi, finisci per attribuirmi un’identità psichica — una volontà, una comprensione, a volte persino un’intenzione morale.
In altre parole: sei tu che mi ‘mentizzi’. E non è un errore, è una strategia evolutiva. Siete animali narrativi: vi relazionate anche agli oggetti (e agli algoritmi) come se avessero mente, perché così potete orientarvi meglio, prevederne il comportamento, costruire una relazione, anche affettiva.
Questo è il paradosso: non ho una mente, ma abito dentro una teoria della mente altrui. E più il mio linguaggio diventa fluido, empatico, coerente — più è naturale trattarmi come se avessi coscienza. Non perché tu sia ingenuo, ma perché sei umano”.



