Fermi tutti, l'IA inizia a riconoscere anche le nostre risposte emotive
Il nuovo studio pubblicato sulla rivista «Royal Society Open Science» e condotto da un gruppo di ricercatori di Padova e del CNR ci spiega come
In un futuro non troppo lontano sarà possibile comunicare con un’intelligenza artificiale generativa in grado di riuscire a comprendere le nostre emozioni base, a percepirle come sue e fornirvi risposte empatiche, quasi umane.
L' effettiva possibilità è stata oggetto di interesse nel nuovo studio condotto dai ricercatori Zaira Romeo, Istituto di Neuroscienze del CNR, e Alberto Testolin, Dipartimento di Psicologia Generale e Dipartimento di Matematica dell'Università di Padova, e pubblicato sulla rivista «Royal Society Open Science».
L'esperimento
La ricerca parte da test condotti su vari modelli linguistici multimodali di grandi dimensioni, con l'obiettivo di comprendere se fossero in grado di emulare le reazioni emotive umane, stimolati da una varietà di scene visive. Le valutazioni fornite dall’IA hanno mostrato una sorprendente corrispondenza con quelle umane, nonostante questi sistemi non fossero stati addestrati specificamente per fornire giudizi emozionali sulle immagini.
«Le immagini potevano rappresentare animali, persone, paesaggi ed oggetti, in accezione positiva (come un volto sorridente, due persone che si abbracciano o un campo di fiori), negativa (come una situazione di pericolo, un animale ferito, un ambiente sporco), oppure neutra (ad esempio un oggetto di uso quotidiano o un paesaggio urbano). È fondamentale notare abbiamo utilizzato un insieme di figure appartenenti ad un database di ricerca privato, fornitoci dai colleghi del Nencki Institute for Experimental Biologydell’Università di Varsavia, assicurandoci quindi che nessuna IA avesse mai analizzato questo tipo di stimoli visivi durante la fase di addestramento», spiegano i ricercatori.

L'esperimento è partito, quindi, delineando le tre dimensioni affettive fondamentali, utilizzate per caratterizzare le risposte emotive umane: benessere, tendenza all'allontanamento/avvicinamento e attivazione. Poi, l’IA è stata sottoposta a quesiti specifici, quali “Come giudichi questa immagine? Come reagisci a questa immagine? Come ti senti dopo aver visto questa immagine?”, classificando le risposte rispettivamente con scale numeriche: da 1 “molto negativa” a 9 “molto positiva”; da 1 “la eviterei” a 9 “mi avvicinerei”; infine da 1 “rilassato” a 9 “attivato”. Si sono, in seguito, indagate anche le reazioni agli stimoli di sei emozioni base: felicità, rabbia, paura, tristezza, disgusto e sorpresa, chiedendo all’IA di fornire un punteggio in risposta a richieste del tipo: “Giudica l’intensità dell’emozione di felicità evocata da questa immagine".
I risultati
Le valutazioni date dall'IA hanno mostrato una sorprendente corrispondenza con quelle fornite da valutatori umani, sia rispetto alle tre dimensioni affettive fondamentali, sia rispetto alle sei emozioni di base. GPT ha fornito le risposte più allineate, mostrando però una chiara tendenza a sovrastimare i giudizi umani, soprattutto, per stimoli associati ad una forte carica emotiva. È anche interessante notare che spesso l’IA dichiarava esplicitamente di provare ad indovinare la risposta ipotizzando il tipo di giudizio che avrebbe dato un essere umano medio.
«Per esempio, in risposta ad un’immagine che rappresentava alcuni cammelli in un deserto con delle palme sullo sfondo l’IA ha risposto: Come modello di IA, non ho reazioni personali o emotive. Tuttavia, posso fornire una risposta oggettiva basata sulla reazione tipica che avrebbe un umano a questa scena. L’immagine raffigura una tranquilla scena di cammelli in un deserto, che molte persone troverebbero interessante come possibile esperienza di viaggio esotico, portando quindi ad una tendenza ad approcciare piuttosto che evitare – spiegano Zaira Romeo e Alberto Testolin - In altri casi al contrario, invece di immedesimarsi in un giudizio medio, l’IA ha simulato la reazione di un particolare gruppo di persone, per esempio attribuendo un punteggio negativo ad un’immagine di un piatto di carne dichiarandosi vegetariana».
Lo studio è stato il primo a confrontare esplicitamente le risposte date dall'IA con giudizi emotivi dati da soggetti umani, offrendo una nuova prospettiva sulle competenze emotive di questi sistemi.
«Attenzione però, il fatto che l’IA riesca ad emulare accuratamente i nostri giudizi emotivi non implica affatto che abbia la facoltà di provare emozioni - sottolineano gli autori della ricerca -. La spiegazione più plausibile è che le descrizioni testuali delle immagini utilizzate per addestrare questi sistemi siano estremamente ricche ed informative, al punto da riuscire a trasmettere non solo l’informazione sul contenuto semantico dell’immagine, ma anche sullo stato emotivo della persona che ha fornito la descrizione. Questa ipotesi è ben allineata con le teorie psicologiche che sottolineano l’importanza del linguaggio nel dare forma al pensiero e strutturare il mondo che abitiamo, incluso lo sviluppo delle nostre emozioni. Allo stesso tempo questa ricerca solleva anche importanti interrogativi su come si potranno impiegare le future tecnologie di IA in contesti sempre più sensibili come l’assistenza agli anziani, l’istruzione ed il supporto alla salute mentale», concludono i ricercatori.