Empatia generata dalle macchine? Perché la medicina ha ancora bisogno di umanità

Empatia generata dalle macchine? Perché la medicina ha ancora bisogno di umanità

In un recente articolo pubblicato su JAMA Internal Medicine, il gruppo di Ayers e colleghi ha messo a confronto le risposte dei medici con quelle di un chatbot basato su intelligenza artificiale (AI) – nello specifico ChatGPT – a domande poste da utenti su un forum pubblico di social media (Reddit). I risultati sono stati sorprendentemente a favore del chatbot, le cui risposte risultano preferite in termini sia di qualità sia di empatia. Emerge quindi una domanda affascinante (e un po’ provocatoria): gli esseri umani potranno mai “imparare” l’empatia da una macchina?

Nella nostra lettera di commento pubblicata in merito, abbiamo sottolineato che il contesto potrebbe aver influenzato il tono delle risposte dei medici, i quali si muovevano in un ambiente informale come Reddit, e che l’empatia, per sua stessa natura, è un costrutto che può essere appreso, tanto dagli esseri umani quanto – entro certi limiti – dalle macchine. Tuttavia, ciò non significa che un chatbot sia davvero empatico. Riprendo un concetto già espresso da molti, l’intelligenza artificiale odierna, più che una vera intelligenza, è una sorta di “artificial agency”, un ente cioè in grado di agire, ma  senza comprendere affatto il significato di ciò che fa.

L’AI spesso si riduce a un “gioco di imitazione”. Il riferimento va inevitabilmente ad Alan Turing, che ipotizzava la possibilità di un test in cui una macchina riesce a simulare le risposte di un essere umano. ChatGPT e i grandi modelli linguistici odierni si spingono molto avanti in questa direzione, dimostrando una straordinaria capacità di generare testi coerenti e fluenti. Ma, se ci fermiamo a riflettere, ciò che avviene dietro le quinte è un’elaborazione statistica di frasi, contesti, vocabolari e pattern linguistici: sintassi, più che semantica. Nel Fedro di Platone, il dio Toth offriva l’invenzione della scrittura al faraone per favorire memoria e saggezza, ma il re esprimeva un dubbio: se gli uomini si fossero affidati a un “mezzo esterno” come la scrittura, avrebbero finito per trascurare la memoria e il pensiero profondo. Allo stesso modo, oggi temiamo che l’uso massiccio di strumenti come ChatGPT possa renderci passivi fruitori di risposte “preconfezionate”, senza sviluppare appieno le nostre capacità di giudizio, riflessione ed empatia.

Ciò non significa, ovviamente, che l’AI non abbia alcun valore. Al contrario, l’articolo di Ayers ne dimostra il potenziale, evidenziando come un chatbot possa offrire risposte esaustive e in apparenza “empatiche”, e persino aiutare i medici a ideare uno stile di comunicazione più vicino alle esigenze dei pazienti. Può diventare un supporto concreto nella gestione di messaggi o domande online, alleggerendo il carico di lavoro dei professionisti e, forse, lasciando più spazio all’autentica relazione umana nel contatto diretto col paziente.

Ma resta cruciale la distinzione fra “imitazione dell’empatia” e l’empatia reale, che nasce dall’esperienza condivisa, dalla comprensione umana del dolore e delle emozioni altrui. In campo medico, questa sfumatura è fondamentale: non basta sembrare empatici, bisogna esserlo davvero, avere la capacità di cogliere la sofferenza del paziente e di integrarla nella pratica clinica. Un chatbot, per quanto sofisticato, non sperimenta sentimenti né comprende le ragioni profonde della cura; in altre parole, non “vive” il significato del proprio agire.

D’altra parte, l’empatia è una competenza che si può apprendere e allenare. Noi medici lo facciamo costantemente tramite ascolto attivo, riflessione e validazione. Si tratta di una sensibilità acquisita, che si affina con l’esperienza clinica e il confronto umano, e che può migliorare anche grazie agli esempi forniti da una macchina ben addestrata.

Tuttavia, come abbiamo sottolineato nella nostra lettera, non si impara l’empatia dalla macchina, bensì tramite la macchina e la grande mole di interazioni umane alla sua base. In definitiva, concordiamo con Ayers e colleghi nel ritenere che l’AI rappresenti una risorsa potenzialmente preziosa per la medicina, specialmente come strumento di supporto nella risposta ai quesiti dei pazienti. Tuttavia, dovremmo evitare di confondere la capacità di generare testi “empatici” con la presenza di empatia vera e propria. La medicina ha ancora disperatamente bisogno di esseri umani, di quella genuina relazione di cura che nessuna statistica o modello linguistico può replicare fino in fondo.

 

Riferimenti

  1. Ayers et al. Comparing Physician and Artificial Intelligence Chatbot Responses to Patient Questions Posted to a Public Social Media Forum. JAMA Intern Med. 2023.
  2. Vannacci A, Bonaiuti R, Ravaldi C. Machine-Made Empathy? Why Medicine Still Needs Humans. JAMA Intern Med. 2023 Nov 1;183(11):1279. doi: 10.1001/jamainternmed.2023.4389. PMID: 37695620.