Uno studio su oltre 6.000 persone rivela che il supporto emotivo dei chatbot basati su intelligenza artificiale funziona solo se viene percepito come umano.
Un nuovo studio pubblicato sulla rivista Nature Human Behaviour getta luce su un aspetto sorprendente del rapporto tra esseri umani e intelligenza artificiale. Secondo i ricercatori della Hebrew University of Jerusalem, le persone tendono a percepire come meno empatiche le risposte fornite da un chatbot basato su intelligenza artificiale, a meno che queste risposte non vengano presentate come provenienti da un essere umano.
L’indagine, coordinata da Anat Perry e Matan Rubin, esplora un tema cruciale per il futuro dell’interazione uomo-macchina: la capacità dell’IA generativa di offrire sostegno emotivo in modo credibile e accettato dalle persone.
Il potenziale empatico dei chatbot
Con la rapida diffusione dei chatbot basati su modelli linguistici di grandi dimensioni (LLM), come quelli ormai utilizzati da milioni di persone nel mondo, è cresciuto anche l’interesse per il loro impiego come strumenti di supporto emotivo o relazionale. Questi sistemi sono in grado di riconoscere, almeno in parte, lo stato emotivo dell’utente, e di rispondere in maniera apparentemente empatica.
Tuttavia, come evidenziato nello studio, resta aperta la questione se tale empatia sia realmente recepita come valida dagli utenti, soprattutto quando essi sanno di avere davanti una macchina.
Lo studio: 6282 partecipanti, 9 esperimenti
Il gruppo di ricerca ha coinvolto 6.282 partecipanti in nove esperimenti indipendenti. A questi soggetti sono stati mostrati messaggi generati dall’intelligenza artificiale, ma in alcuni casi veniva detto loro che le risposte provenivano da esseri umani, in altri casi che provenivano da un chatbot IA.
I risultati hanno mostrato un pattern molto chiaro: anche se i partecipanti hanno giudicato le risposte come empatiche, tendevano a sentirsi molto più confortati, compresi e positivi se erano convinti che la risposta fosse opera di un essere umano. Al contrario, le risposte etichettate come provenienti da un chatbot risultavano meno rassicuranti e meno capaci di trasmettere sostegno emotivo.
Inoltre, i partecipanti erano disposti ad aspettare più a lungo per ricevere una risposta che ritenevano provenire da una persona reale, piuttosto che accettare immediatamente una replica generata da un’intelligenza artificiale.
Immagine: Intelligenza artificiale AI Empathy, credit Shani Shalgi.
Emozioni positive e negative a confronto
Un altro aspetto interessante emerso riguarda la qualità delle emozioni suscitate: le risposte che i partecipanti credevano provenienti da un essere umano evocavano più frequentemente sensazioni di conforto, validazione, felicità e comprensione, mentre generavano meno emozioni negative come fastidio, rabbia, disagio o irritazione.
Quando invece i partecipanti venivano informati che la risposta era stata in parte redatta da un umano con l’aiuto di un’IA, il livello di empatia percepita si abbassava nuovamente, insieme alla risonanza positiva e al grado di sostegno avvertito.
Cosa ci insegna questa ricerca ?
Secondo Anat Perry e i colleghi, questi dati suggeriscono che l’intelligenza artificiale, per quanto capace di simulare un linguaggio empatico, incontra un limite importante nel momento in cui l’interlocutore umano sa di non avere davanti un proprio simile.
La percezione dell’autenticità e della condivisione di esperienza umana rimane dunque centrale quando si tratta di offrire sostegno emotivo. In altre parole, una risposta può essere perfetta sotto il profilo linguistico ed emozionale, ma se sappiamo che è generata da un algoritmo rischia di non avere lo stesso impatto psicologico di una frase scritta da una persona.
Come precisano gli autori dello studio, questi risultati si riferiscono a interazioni piuttosto brevi. Saranno necessari studi futuri per valutare se, in un rapporto più duraturo o continuativo, i chatbot possano guadagnare maggiore fiducia anche nel campo del supporto emotivo.
Implicazioni pratiche ed etiche
Lo studio apre importanti riflessioni anche dal punto di vista etico e sociale. Se da un lato le IA generative possono essere strumenti utilissimi per offrire un primo ascolto, dall’altro non possono sostituire integralmente la relazione umana, soprattutto quando la persona cerca comprensione autentica e partecipazione emotiva reale.
Inoltre, la ricerca solleva interrogativi sul potenziale rischio di etichettare intenzionalmente le risposte dell’IA come “umane” per aumentare il senso di empatia. Una pratica del genere, se non trasparente, potrebbe configurarsi come manipolatoria e richiedere forme di regolamentazione o supervisione etica.
Il futuro del sostegno emotivo digitale
In prospettiva, i ricercatori invitano a considerare percorsi di ricerca più ampi, che indaghino non solo la qualità percepita delle risposte empatiche, ma anche le dinamiche di fiducia e accettazione dell’IA in contesti di supporto psicologico a lungo termine.
Se l’obiettivo è integrare davvero questi strumenti nei servizi di consulenza o aiuto psicologico, sarà essenziale progettare sistemi che non sostituiscano l’essere umano, ma che lo affianchino in modo trasparente, spiegando chiaramente il ruolo dell’algoritmo e il confine tra intelligenza artificiale e intervento umano.
Il lavoro di Anat Perry e colleghi apre quindi uno scenario ricco di sfide e di opportunità, segnalando che, almeno per ora, l’empatia rimane ancora un territorio dove l’essere umano è difficilmente rimpiazzabile.
Fonte Nature Human Behaviour : Comparing the value of perceived human versus AI-generated empathy.
Immagine nel titolo : Intelligenza artificiale AI empathy, credit Noam Kohavi.
Devi effettuare l'accesso per postare un commento.