Intelligenza Artificiale Generativa (AI): l’OMS pubblica nuove linee guida sulla governance degli LMM

OMS ha pubblicato nuove linee guida sull’etica e sulla governance dei grandi modelli multimodali (LMM) per il loro utilizzo appropriato per promuovere e proteggere la salute delle popolazioni. LMM è un tipo di generativo in rapida crescita intelligenza artificiale (AI) tecnologia che ha cinque ampie applicazioni per la salute in 

1. Diagnosi e assistenza clinica, come rispondere alle domande scritte dei pazienti; 

2. Utilizzo guidato dal paziente, ad esempio per l'analisi dei sintomi e del trattamento; 

3. Compiti d'ufficio e amministrativi, come documentare e riepilogare le visite dei pazienti all'interno delle cartelle cliniche elettroniche; 

4. Formazione medica e infermieristica, compresa la fornitura ai tirocinanti di incontri simulati con i pazienti, e; 

5. Ricerca scientifica e sviluppo di farmaci, anche per identificare nuovi composti. 

Tuttavia, queste applicazioni nel settore sanitario corrono il rischio di produrre dichiarazioni false, imprecise, distorte o incomplete, che potrebbero danneggiare le persone che utilizzano tali informazioni per prendere decisioni sanitarie. Inoltre, gli LMM possono essere addestrati su dati di scarsa qualità o distorti, sia per razza, etnia, ascendenza, sesso, identità di genere o età. Esistono anche rischi più ampi per i sistemi sanitari, come l’accessibilità e la convenienza degli LMM con le migliori prestazioni. Gli LMM possono anche incoraggiare il "bias dell'automazione" da parte degli operatori sanitari e dei pazienti, per cui vengono trascurati errori che altrimenti sarebbero stati identificati o scelte difficili vengono delegate in modo improprio a un LMM. Gli LMM, come altre forme di AI, sono anche vulnerabili ai rischi legati alla sicurezza informatica che potrebbero mettere a repentaglio le informazioni sui pazienti o l’affidabilità di questi algoritmi e, più in generale, la fornitura di assistenza sanitaria. 

Pertanto, per creare LMM sicuri ed efficaci, l’OMS ha formulato raccomandazioni per i governi e gli sviluppatori di LMM. 

I governi hanno la responsabilità primaria di stabilire standard per lo sviluppo e l’implementazione degli LMM, nonché la loro integrazione e utilizzo per scopi medici e di sanità pubblica. I governi dovrebbero investire o fornire infrastrutture pubbliche o no-profit, compresa la potenza di calcolo e i set di dati pubblici, accessibili agli sviluppatori nei settori pubblico, privato e no-profit, che richiedano agli utenti di aderire a principi e valori etici in scambio per l'accesso. 

· Utilizzare leggi, politiche e regolamenti per garantire che gli LMM e le applicazioni utilizzate nell'assistenza sanitaria e in medicina, indipendentemente dal rischio o dal beneficio associato al AI tecnologia, soddisfare obblighi etici e norme sui diritti umani che incidono, ad esempio, sulla dignità, sull'autonomia o sulla privacy di una persona. 

· Assegnare a un'agenzia di regolamentazione esistente o nuova il compito di valutare e approvare gli LMM e le applicazioni destinate all'uso in ambito sanitario o medico, se le risorse lo consentono. 

· Introdurre audit post-rilascio obbligatori e valutazioni d'impatto, anche per la protezione dei dati e i diritti umani, da parte di terzi indipendenti quando un LMM viene utilizzato su larga scala. Gli audit e le valutazioni d'impatto dovrebbero essere pubblicati 

e dovrebbero includere risultati e impatti disaggregati per tipologia di utente, anche per età, razza o disabilità. 

· Gli LMM non sono progettati solo da scienziati e ingegneri. I potenziali utenti e tutte le parti interessate dirette e indirette, compresi gli operatori sanitari, i ricercatori scientifici, gli operatori sanitari e i pazienti, dovrebbero essere coinvolti fin dalle prime fasi del progetto. AI sviluppo in una progettazione strutturata, inclusiva e trasparente e opportunità di sollevare questioni etiche, esprimere preoccupazioni e fornire input per il AI domanda in esame. 

Gli LMM sono progettati per svolgere compiti ben definiti con la precisione e l’affidabilità necessarie per migliorare la capacità dei sistemi sanitari e promuovere gli interessi dei pazienti. Gli sviluppatori dovrebbero anche essere in grado di prevedere e comprendere i potenziali risultati secondari. 

*** 

Fonte: 

OMS 2024. Etica e governance dell’intelligenza artificiale per la salute: indicazioni su grandi modelli multimodali. Disponibile a https://iris.who.int/bitstream/handle/10665/375579/9789240084759-eng.pdf?sequence=1&isAllowed=y 

***

Ultimissime

Interfacce cervello-computer (BCI): verso la fusione tra esseri umani e intelligenza artificiale 

Le sperimentazioni cliniche in corso sulle interfacce cervello-computer (BCI) come...

Approvati i campi di trattamento dei tumori (TTFields) per il cancro al pancreas

Le cellule cancerose hanno parti elettricamente cariche e quindi sono influenzate...

Scientific European invita il co-fondatore

Scientific European (SCIEU) ti invita a unirti a noi come co-fondatore e investitore, con entrambi...

Future Circular Collider (FCC): il Consiglio del CERN esamina lo studio di fattibilità

La ricerca delle risposte alle domande aperte (ad esempio, quale...

I funghi di Chernobyl come scudo contro i raggi cosmici per le missioni nello spazio profondo 

Nel 1986, la quarta unità della centrale nucleare di Chernobyl in Ucraina...

Controllo della miopia nei bambini: autorizzate le lenti per occhiali Essilor Stellest  

La miopia (o miopia) nei bambini è un difetto visivo molto diffuso...

Newsletter

Da non perdere

Tè verde contro caffè: il primo sembra più salutare

Secondo uno studio condotto tra gli anziani in Giappone,...

Missione LISA: il rilevatore di onde gravitazionali basato nello spazio dà il via libera all'ESA 

La missione Laser Interferometer Space Antenna (LISA) ha ricevuto...

Uso di zanzare geneticamente modificate (GM) per l'eradicazione delle malattie trasmesse dalle zanzare

Nel tentativo di controllare le malattie trasmesse dalle zanzare,...

Paride: un nuovo virus (batteriofago) che combatte i batteri dormienti tolleranti agli antibiotici  

La dormienza batterica è una strategia di sopravvivenza in risposta allo stress...

Gli embrioni sintetici inaugureranno l'era degli organi artificiali?   

Gli scienziati hanno replicato il processo naturale dell'embrione dei mammiferi...
Squadra SCIEU
Squadra SCIEUhttps://www.scientificeuropean.co.uk
Scientific European® | SCIEU.com | Progressi significativi della scienza. Impatto sull'umanità. Menti ispiratrici.

Interfacce cervello-computer (BCI): verso la fusione tra esseri umani e intelligenza artificiale 

Le sperimentazioni cliniche in corso sulle interfacce cervello-computer (BCI), come l'impianto "Telepathy" di Neuralink, prevedono la creazione di collegamenti di comunicazione tra i cervelli dei partecipanti che presentano esigenze mediche insoddisfatte a causa di...

Approvati i campi di trattamento dei tumori (TTFields) per il cancro al pancreas

Le cellule tumorali hanno parti elettricamente cariche, quindi sono influenzate dai campi elettrici. L'applicazione di campi elettrici alternati (TTField) ai tumori solidi colpisce selettivamente e...

Scientific European invita il co-fondatore

Scientific European (SCIEU) vi invita a partecipare come co-fondatori e investitori, con un investimento strategico e un contributo attivo nel definire la sua direzione futura. Scientific European è un'agenzia di stampa con sede in Inghilterra che offre servizi multilingue...

LASCIA UN COMMENTO

Inserisci il tuo commento!
Inserisci qui il tuo nome

Per motivi di sicurezza, è richiesto l'uso del servizio reCAPTCHA di Google, soggetto a Google Informativa privacy e Termini d’uso.

Io accetto queste condizioni.