
L’intelligenza artificiale sta entrando anche nel mondo delle cure palliative pediatriche. Può davvero aiutare medici e famiglie a prendersi cura meglio dei piccoli pazienti? Uno studio pubblicato sulla rivista Nursing Ethics esplora i potenziali benefici, ma anche i rischi e le domande morali che si aprono quando affianchiamo gli algoritmi alla fragilità dei bambini gravemente malati.
Un articolo di Ruggiero Corcella
Un aiuto tecnologico per un compito umano
Sì, torniamo ad affrontare l’argomento perché con l’intelligenza artificiale (AI) dobbiamo ormai imparare a convivere ed essere coscienti di quanto sia necessario conoscere bene questa tecnologia per poterla utilizzare, appunto, con intelligenza. Ora, prendersi cura di un bambino gravemente malato è una delle esperienze più delicate e dolorose che una famiglia possa vivere. Le cure palliative pediatriche non si concentrano sulla guarigione, ma sull’alleviare la sofferenza, rispettando i desideri e i bisogni del bambino e della famiglia. In questo scenario, potrebbe sembrare sorprendente sentire parlare di intelligenza artificiale (AI). Eppure, è proprio quello che fanno Oonjee Oh, George Demiris e Connie M. Ulrich, University of Pennsylvania, in uno studio pubblicato su Nursing Ethics (The ethical dimensions of utilizing Artificial Intelligence in palliative care).
I tre ricercatori dell’Università della Pennsylvania propongono una riflessione profonda: se l’AI può aiutare la medicina a prendere decisioni più rapide e precise, che impatto ha quando viene applicata a persone in condizioni di estrema vulnerabilità? E cosa succede se queste persone sono bambini?
Servizi territoriali cercasi
Un maggior numero di servizi di cure palliative pediatriche territoriali sarebbe estremamente utile per bambini e adolescenti con malattie gravi e terminali, ha affermato Grady. Tuttavia, le famiglie spesso faticano a ricevere assistenza e supporto domiciliare. «Un ambiente familiare può essere confortante per i bambini e consentirebbe ad animali domestici, fratelli e altre persone di far loro visita», dice. «Per coloro che hanno la possibilità di ricevere assistenza domiciliare, gli operatori socio-sanitari dovrebbero comprendere che i bambini spesso ricevono cure palliative “non tradizionali”».
Prevedere il futuro: giusto o troppo?
Quello che sembra profilarsi come uno degli usi principali dell’AI in ambito palliativo, è la capacità di «prevedere la probabilità di morte» di un paziente in un certo arco di tempo. Questo potrebbe aiutare i medici a capire quando iniziare le cure palliative o a pianificare con anticipo interventi e sostegno. Per un genitore, forse, potrebbe sembrare utile sapere in anticipo come si evolverà la malattia del proprio figlio. Ma c’è anche il rovescio della medaglia: quanto possiamo affidarci a un algoritmo per fare previsioni sulla vita o sulla morte di una persona, tanto più se si tratta di un bambino?
Gli autori dello studio mettono in guardia dal rischio di «disumanizzazione»: una decisione importante come l’inizio delle cure palliative potrebbe sembrare dettata da un numero su un monitor, e non dal confronto profondo tra medici, genitori e – quando possibile – il bambino stesso. Inoltre, se i dati con cui l’algoritmo è stato «addestrato» non rappresentano bene i bambini o le minoranze (come accade spesso), i risultati potrebbero essere fuorvianti. Invece di aiutare, l’AI potrebbe alimentare ingiustizie.
Quando la macchina prova a «leggere l’anima»
Un’altra applicazione dell’AI analizzata nello studio riguarda la rilevazione automatica di ansia o depressione nei pazienti, attraverso l’analisi del linguaggio usato nelle cartelle cliniche. Potenzialmente utile, soprattutto nei casi in cui un bambino non riesca a esprimere chiaramente come si sente. Ma anche qui emergono dubbi. Come può un algoritmo interpretare con esattezza il disagio emotivo di un bambino? Gli studiosi ricordano che «ogni persona ha un modo unico di vivere il dolore», e che il vero significato delle emozioni non sempre si trova nelle parole. C’è il rischio che l’AI «etichetti» un bambino come depresso solo perché ha parlato di tristezza in un certo modo, senza tener conto del contesto, della sua storia, o del tono con cui ha espresso le sue parole. E, ancor più importante, c’è la questione della privacy: i genitori sono sempre informati su come vengono usati i dati clinici del loro bambino?
Chatbot e caregiver: sostegno o illusione?
Nel terzo esempio descritto nello studio, l’AI viene utilizzata attraverso chatbot di conversazione, simili a ChatGPT (ma anche ai più noti Alexa o Siri) , per aiutare i caregiver – cioè, i familiari che si prendono cura del paziente – a ricevere risposte immediate a domande mediche, emotive o pratiche. Un genitore che vive con un figlio in fase terminale svegliarsi di notte, assalito da dubbi e paure, e cercare conforto o informazioni. Avere un assistente sempre disponibile sembra un sogno. Tuttavia, gli autori avvertono: «Le risposte dei chatbot non sono sempre corrette» e spesso sono «black box », ovvero non capiamo quali meccanismi logici e quali dati siano costruite. Il rischio è che i genitori si affidino ciecamente a queste tecnologie, prendendo decisioni importanti sulla base di risposte impersonali, magari sbagliate. Voi direte: «non succederà mai». Eppure non si tratta di un’ipotesi così campata per aria. Inoltre, l’accesso a questi strumenti non è uguale per tutti: servono una buona connessione, competenze digitali e, talvolta, un abbonamento. In questo modo, «le disuguaglianze si moltiplicano», lasciando indietro chi è già più fragile.
Etica e AI: una «bussola» per non perdere l’umanità
Nel loro articolo Oh, Demiris e Ulrich propongono allora una «bussola» etica per orientare l’uso dell’intelligenza artificiale, basata su cinque principi fondamentali: beneficenza (fare il bene del paziente), non maleficenza (non arrecare danni), autonomia (rispettare le scelte di chi è coinvolto), giustizia (assicurare equità), ed esplicabilità (essere trasparenti nei meccanismi decisionali dell’IA). Applicare questi principi alla cura palliativa, soprattutto in ambito pediatrico, significa domandarsi: l’AI aiuta davvero il nostro bambino? Rende la cura più giusta e personalizzata, o rischia di escludere chi è più vulnerabile? I genitori e i piccoli pazienti hanno voce in capitolo nelle decisioni, o è l’algoritmo a decidere per loro?
La tecnologia non basta: servono ascolto e presenza
Lo studio pubblicato su Nursing Ethics non si schiera contro l’intelligenza artificiale, ma invita a «un uso cauto e responsabile», soprattutto in un campo sensibile come quello delle cure palliative pediatriche. Gli autori sottolineano che «l’AI può essere un supporto», ma non deve mai sostituire l’attenzione umana, il dialogo, la compassione. I genitori hanno diritto di sapere «se e come l’AI viene usata nella cura del proprio figlio», e devono essere messi nelle condizioni di scegliere in modo consapevole.
Per il momento, consoliamoci. La tecnologia potrà anche aiutare, ma non potrà mai sostituire la mano che accarezza, lo sguardo che ascolta, la presenza che accompagna. Questo vale per tutti i pazienti, ma ancora di più per i bambini e le loro famiglie.


