PUBBLICITA

Intelligenza Artificiale Generativa (AI): l’OMS pubblica nuove linee guida sulla governance degli LMM

OMS ha pubblicato nuove linee guida sull’etica e sulla governance dei grandi modelli multimodali (LMM) per il loro utilizzo appropriato per promuovere e proteggere la salute delle popolazioni. LMM è un tipo di generativo in rapida crescita intelligenza artificiale (AI) tecnologia che ha cinque ampie applicazioni per la salute in 

1. Diagnosi e assistenza clinica, come rispondere alle domande scritte dei pazienti; 

2. Utilizzo guidato dal paziente, ad esempio per l'analisi dei sintomi e del trattamento; 

3. Compiti d'ufficio e amministrativi, come documentare e riepilogare le visite dei pazienti all'interno delle cartelle cliniche elettroniche; 

4. Formazione medica e infermieristica, compresa la fornitura ai tirocinanti di incontri simulati con i pazienti, e; 

5. Ricerca scientifica e sviluppo di farmaci, anche per identificare nuovi composti. 

Tuttavia, queste applicazioni nel settore sanitario corrono il rischio di produrre dichiarazioni false, imprecise, distorte o incomplete, che potrebbero danneggiare le persone che utilizzano tali informazioni per prendere decisioni sanitarie. Inoltre, gli LMM possono essere addestrati su dati di scarsa qualità o distorti, sia per razza, etnia, ascendenza, sesso, identità di genere o età. Esistono anche rischi più ampi per i sistemi sanitari, come l’accessibilità e la convenienza degli LMM con le migliori prestazioni. Gli LMM possono anche incoraggiare il "bias dell'automazione" da parte degli operatori sanitari e dei pazienti, per cui vengono trascurati errori che altrimenti sarebbero stati identificati o scelte difficili vengono delegate in modo improprio a un LMM. Gli LMM, come altre forme di AI, sono anche vulnerabili ai rischi legati alla sicurezza informatica che potrebbero mettere a repentaglio le informazioni sui pazienti o l’affidabilità di questi algoritmi e, più in generale, la fornitura di assistenza sanitaria. 

Pertanto, per creare LMM sicuri ed efficaci, l’OMS ha formulato raccomandazioni per i governi e gli sviluppatori di LMM. 

I governi hanno la responsabilità primaria di stabilire standard per lo sviluppo e l’implementazione degli LMM, nonché la loro integrazione e utilizzo per scopi medici e di sanità pubblica. I governi dovrebbero investire o fornire infrastrutture pubbliche o no-profit, compresa la potenza di calcolo e i set di dati pubblici, accessibili agli sviluppatori nei settori pubblico, privato e no-profit, che richiedano agli utenti di aderire a principi e valori etici in scambio per l'accesso. 

· Utilizzare leggi, politiche e regolamenti per garantire che gli LMM e le applicazioni utilizzate nell'assistenza sanitaria e in medicina, indipendentemente dal rischio o dal beneficio associato al AI tecnologia, soddisfare obblighi etici e norme sui diritti umani che incidono, ad esempio, sulla dignità, sull'autonomia o sulla privacy di una persona. 

· Assegnare a un'agenzia di regolamentazione esistente o nuova il compito di valutare e approvare gli LMM e le applicazioni destinate all'uso in ambito sanitario o medico, se le risorse lo consentono. 

· Introdurre audit post-rilascio obbligatori e valutazioni d'impatto, anche per la protezione dei dati e i diritti umani, da parte di terzi indipendenti quando un LMM viene utilizzato su larga scala. Gli audit e le valutazioni d'impatto dovrebbero essere pubblicati 

e dovrebbero includere risultati e impatti disaggregati per tipologia di utente, anche per età, razza o disabilità. 

· Gli LMM non sono progettati solo da scienziati e ingegneri. I potenziali utenti e tutte le parti interessate dirette e indirette, compresi gli operatori sanitari, i ricercatori scientifici, gli operatori sanitari e i pazienti, dovrebbero essere coinvolti fin dalle prime fasi del progetto. AI sviluppo in una progettazione strutturata, inclusiva e trasparente e opportunità di sollevare questioni etiche, esprimere preoccupazioni e fornire input per il AI domanda in esame. 

Gli LMM sono progettati per svolgere compiti ben definiti con la precisione e l’affidabilità necessarie per migliorare la capacità dei sistemi sanitari e promuovere gli interessi dei pazienti. Gli sviluppatori dovrebbero anche essere in grado di prevedere e comprendere i potenziali risultati secondari. 

*** 

Fonte: 

OMS 2024. Etica e governance dell’intelligenza artificiale per la salute: indicazioni su grandi modelli multimodali. Disponibile a https://iris.who.int/bitstream/handle/10665/375579/9789240084759-eng.pdf?sequence=1&isAllowed=y 

***

Squadra SCIEU
Squadra SCIEUhttps://www.ScientificEuropean.co.uk
Scientific European® | SCIEU.com | Progressi significativi della scienza. Impatto sull'umanità. Menti ispiratrici.

Iscriviti alla nostra Newsletter

Per essere aggiornato con tutte le ultime notizie, offerte e annunci speciali.

Articoli più letti

Sistema nervoso sensoriale artificiale: un vantaggio per le protesi

I ricercatori hanno sviluppato un sistema nervoso sensoriale artificiale che...

Varianti del coronavirus: cosa sappiamo finora

I coronavirus sono virus a RNA appartenenti alla famiglia dei coronaviridae. Questi virus mostrano livelli notevolmente elevati...

Abell 2384: la nuova svolta nella storia della fusione di due "gruppi di galassie"

Osservazione a raggi X e radio del sistema galattico Abell 2384...
- Annuncio pubblicitario -
94,471FanCome
47,679SeguaciSegui
1,772SeguaciSegui
30IscrittiSottoscrivi