Arrivano le prime linee guida sull’utilizzo sicuro dei Large Language Models (LLM), come ChatGPT, nella pratica oncologica. Il documento è stato elaborato dalla Società Europea di Oncologia Medica (ESMO) e presentato al congresso ESMO in corso a Berlino, con oltre 35.000 professionisti da tutto il mondo.
L’obiettivo è fornire strumenti per un uso responsabile, sicuro ed efficace dell’intelligenza artificiale, sia per i pazienti sia per i professionisti sanitari e le istituzioni.
23 raccomandazioni per tre tipi di utenti
Le linee guida, pubblicate su Annals of Oncology, comprendono 23 raccomandazioni e distinguono tre categorie di applicazioni:
- Strumenti rivolti ai pazienti
- Ad esempio, chatbot per la conoscenza e il supporto sui sintomi.
- Devono integrare l’assistenza clinica, operare in percorsi supervisionati e garantire una solida protezione dei dati.
- Strumenti per i professionisti sanitari
- Impiegati in supporto decisionale, documentazione clinica e traduzione.
- Richiedono convalida formale, limiti trasparenti e una chiara responsabilità umana sulle decisioni cliniche.
- Sistemi istituzionali integrati
- Collegati alle cartelle cliniche elettroniche per estrazione dati, riepiloghi automatizzati e matching con studi clinici.
- Necessitano di test rigorosi, monitoraggio continuo degli errori, governance interna e rivalidazione in caso di modifiche ai processi o alle fonti dei dati.
L’importanza della supervisione umana
Le linee guida sottolineano che, nonostante le potenzialità degli LLM, ogni applicazione richiede supervisione umana. La tecnologia può supportare medici e pazienti, ma non sostituisce mai il giudizio clinico, né il ruolo dei professionisti sanitari.
L’iniziativa rappresenta un passo fondamentale per regolamentare l’uso dell’intelligenza artificiale in oncologia, garantendo sicurezza, accuratezza e tutela dei dati sensibili dei pazienti.