PUBBLICITA

Intelligenza Artificiale Generativa (AI): l’OMS pubblica nuove linee guida sulla governance degli LMM

OMS ha pubblicato nuove linee guida sull’etica e sulla governance dei grandi modelli multimodali (LMM) per il loro utilizzo appropriato per promuovere e proteggere la salute delle popolazioni. LMM è un tipo di generativo in rapida crescita intelligenza artificiale (AI) tecnologia che ha cinque ampie applicazioni per la salute in 

1. Diagnosi e assistenza clinica, come rispondere alle domande scritte dei pazienti; 

2. Utilizzo guidato dal paziente, ad esempio per l'analisi dei sintomi e del trattamento; 

3. Compiti d'ufficio e amministrativi, come documentare e riepilogare le visite dei pazienti all'interno delle cartelle cliniche elettroniche; 

4. Formazione medica e infermieristica, compresa la fornitura ai tirocinanti di incontri simulati con i pazienti, e; 

5. Ricerca scientifica e sviluppo di farmaci, anche per identificare nuovi composti. 

Tuttavia, queste applicazioni nel settore sanitario corrono il rischio di produrre dichiarazioni false, imprecise, distorte o incomplete, che potrebbero danneggiare le persone che utilizzano tali informazioni per prendere decisioni sanitarie. Inoltre, gli LMM possono essere addestrati su dati di scarsa qualità o distorti, sia per razza, etnia, ascendenza, sesso, identità di genere o età. Esistono anche rischi più ampi per i sistemi sanitari, come l’accessibilità e la convenienza degli LMM con le migliori prestazioni. Gli LMM possono anche incoraggiare il “bias dell’automazione” da parte degli operatori sanitari e dei pazienti, per cui vengono trascurati errori che altrimenti sarebbero stati identificati o scelte difficili vengono impropriamente delegate a un LMM. Gli LMM, come altre forme di intelligenza artificiale, sono anche vulnerabili ai rischi di sicurezza informatica che potrebbero mettere a repentaglio le informazioni sui pazienti o l’affidabilità di questi algoritmi e la fornitura di assistenza sanitaria in generale. 

Pertanto, per creare LMM sicuri ed efficaci, l’OMS ha formulato raccomandazioni per i governi e gli sviluppatori di LMM. 

I governi hanno la responsabilità primaria di stabilire standard per lo sviluppo e l’implementazione degli LMM, nonché la loro integrazione e utilizzo per scopi medici e di sanità pubblica. I governi dovrebbero investire o fornire infrastrutture pubbliche o no-profit, compresa la potenza di calcolo e i set di dati pubblici, accessibili agli sviluppatori nei settori pubblico, privato e no-profit, che richiedano agli utenti di aderire a principi e valori etici in scambio per l'accesso. 

· Utilizzare leggi, politiche e regolamenti per garantire che gli LMM e le applicazioni utilizzate nell'assistenza sanitaria e nella medicina, indipendentemente dal rischio o beneficio associato alla tecnologia dell'intelligenza artificiale, soddisfino gli obblighi etici e gli standard dei diritti umani che incidono, ad esempio, sulla dignità e sull'autonomia di una persona o privacy. 

· Assegnare a un'agenzia di regolamentazione esistente o nuova il compito di valutare e approvare gli LMM e le applicazioni destinate all'uso in ambito sanitario o medico, se le risorse lo consentono. 

· Introdurre audit post-rilascio obbligatori e valutazioni d'impatto, anche per la protezione dei dati e i diritti umani, da parte di terzi indipendenti quando un LMM viene utilizzato su larga scala. Gli audit e le valutazioni d'impatto dovrebbero essere pubblicati 

e dovrebbero includere risultati e impatti disaggregati per tipologia di utente, anche per età, razza o disabilità. 

· Gli LMM non sono progettati solo da scienziati e ingegneri. I potenziali utenti e tutte le parti interessate dirette e indirette, compresi gli operatori sanitari, i ricercatori scientifici, gli operatori sanitari e i pazienti, dovrebbero essere coinvolti fin dalle prime fasi dello sviluppo dell’IA in una progettazione strutturata, inclusiva e trasparente e dovrebbero avere l’opportunità di sollevare questioni etiche, esprimere preoccupazioni e fornire input per l’applicazione AI in esame. 

Gli LMM sono progettati per svolgere compiti ben definiti con la precisione e l’affidabilità necessarie per migliorare la capacità dei sistemi sanitari e promuovere gli interessi dei pazienti. Gli sviluppatori dovrebbero anche essere in grado di prevedere e comprendere i potenziali risultati secondari. 

*** 

Fonte: 

OMS 2024. Etica e governance dell’intelligenza artificiale per la salute: indicazioni su grandi modelli multimodali. Disponibile a https://iris.who.int/bitstream/handle/10665/375579/9789240084759-eng.pdf?sequence=1&isAllowed=y 

***

Squadra SCIEU
Squadra SCIEUhttps://www.ScientificEuropean.co.uk
Scientific European® | SCIEU.com | Progressi significativi della scienza. Impatto sull'umanità. Menti ispiratrici.

Iscriviti alla nostra Newsletter

Per essere aggiornato con tutte le ultime notizie, offerte e annunci speciali.

Articoli più letti

Il consumo moderato di alcol può ridurre il rischio di demenza

Uno studio suggerisce che sia il consumo eccessivo di alcol...

Le cellule con genoma minimalista sintetico subiscono una normale divisione cellulare

Le cellule con genoma sintetizzato completamente artificiale sono state segnalate per prime...

Agricoltura sostenibile: conservazione economica e ambientale per i piccoli agricoltori

Un recente rapporto mostra un'iniziativa di agricoltura sostenibile in...
- Annuncio pubblicitario -
94,863FanCome
47,648SeguaciSegui
1,772SeguaciSegui
30IscrittiSottoscrivi