OMS ha pubblicato nuove linee guida sull’etica e sulla governance dei grandi modelli multimodali (LMM) per il loro utilizzo appropriato per promuovere e proteggere la salute delle popolazioni. LMM è un tipo di generativo in rapida crescita intelligenza artificiale (AI) tecnologia che ha cinque ampie applicazioni per la salute in
1. Diagnosi e assistenza clinica, come rispondere alle domande scritte dei pazienti;
2. Utilizzo guidato dal paziente, ad esempio per l'analisi dei sintomi e del trattamento;
3. Compiti d'ufficio e amministrativi, come documentare e riepilogare le visite dei pazienti all'interno delle cartelle cliniche elettroniche;
4. Formazione medica e infermieristica, compresa la fornitura ai tirocinanti di incontri simulati con i pazienti, e;
5. Ricerca scientifica e sviluppo di farmaci, anche per identificare nuovi composti.
Tuttavia, queste applicazioni nel settore sanitario corrono il rischio di produrre dichiarazioni false, imprecise, distorte o incomplete, che potrebbero danneggiare le persone che utilizzano tali informazioni per prendere decisioni sanitarie. Inoltre, gli LMM possono essere addestrati su dati di scarsa qualità o distorti, sia per razza, etnia, ascendenza, sesso, identità di genere o età. Esistono anche rischi più ampi per i sistemi sanitari, come l’accessibilità e la convenienza degli LMM con le migliori prestazioni. Gli LMM possono anche incoraggiare il "bias dell'automazione" da parte degli operatori sanitari e dei pazienti, per cui vengono trascurati errori che altrimenti sarebbero stati identificati o scelte difficili vengono delegate in modo improprio a un LMM. Gli LMM, come altre forme di AI, sono anche vulnerabili ai rischi legati alla sicurezza informatica che potrebbero mettere a repentaglio le informazioni sui pazienti o l’affidabilità di questi algoritmi e, più in generale, la fornitura di assistenza sanitaria.
Pertanto, per creare LMM sicuri ed efficaci, l’OMS ha formulato raccomandazioni per i governi e gli sviluppatori di LMM.
I governi hanno la responsabilità primaria di stabilire standard per lo sviluppo e l’implementazione degli LMM, nonché la loro integrazione e utilizzo per scopi medici e di sanità pubblica. I governi dovrebbero investire o fornire infrastrutture pubbliche o no-profit, compresa la potenza di calcolo e i set di dati pubblici, accessibili agli sviluppatori nei settori pubblico, privato e no-profit, che richiedano agli utenti di aderire a principi e valori etici in scambio per l'accesso.
· Utilizzare leggi, politiche e regolamenti per garantire che gli LMM e le applicazioni utilizzate nell'assistenza sanitaria e in medicina, indipendentemente dal rischio o dal beneficio associato al AI tecnologia, soddisfare obblighi etici e norme sui diritti umani che incidono, ad esempio, sulla dignità, sull'autonomia o sulla privacy di una persona.
· Assegnare a un'agenzia di regolamentazione esistente o nuova il compito di valutare e approvare gli LMM e le applicazioni destinate all'uso in ambito sanitario o medico, se le risorse lo consentono.
· Introdurre audit post-rilascio obbligatori e valutazioni d'impatto, anche per la protezione dei dati e i diritti umani, da parte di terzi indipendenti quando un LMM viene utilizzato su larga scala. Gli audit e le valutazioni d'impatto dovrebbero essere pubblicati
e dovrebbero includere risultati e impatti disaggregati per tipologia di utente, anche per età, razza o disabilità.
· Gli LMM non sono progettati solo da scienziati e ingegneri. I potenziali utenti e tutte le parti interessate dirette e indirette, compresi gli operatori sanitari, i ricercatori scientifici, gli operatori sanitari e i pazienti, dovrebbero essere coinvolti fin dalle prime fasi del progetto. AI sviluppo in una progettazione strutturata, inclusiva e trasparente e opportunità di sollevare questioni etiche, esprimere preoccupazioni e fornire input per il AI domanda in esame.
Gli LMM sono progettati per svolgere compiti ben definiti con la precisione e l’affidabilità necessarie per migliorare la capacità dei sistemi sanitari e promuovere gli interessi dei pazienti. Gli sviluppatori dovrebbero anche essere in grado di prevedere e comprendere i potenziali risultati secondari.
***
Fonte:
OMS 2024. Etica e governance dell’intelligenza artificiale per la salute: indicazioni su grandi modelli multimodali. Disponibile a https://iris.who.int/bitstream/handle/10665/375579/9789240084759-eng.pdf?sequence=1&isAllowed=y
***