L’intelligenza artificiale può peggiorare le diseguaglianze di salute nel mondo

Il documento

L’intelligenza artificiale può peggiorare le diseguaglianze di salute nel mondo

Artificial_Intelligence_&_AI_&_Machine_Learning_-_30212411048.jpg

Immagine: mikemacmarketing, CC BY 2.0 <https://creativecommons.org/licenses/by/2.0>, via Wikimedia Commons
di redazione
L’Oms sottolinea la necessità di assicurare un uso etico dell’intelligenza artificiale nella sanità. Il rischio è che i Paesi più poveri siano tagliati fuori dall’innovazione. E non solo perché non possono permettersi gli investimenti

Il documento è lungo 77 pagine, ma tutto quello che l’Organizzazione Mondiale della Sanità ha da dire sull’uso dell’intelligenza artificiale in medicina è sintetizzato in una tabella di tre colonne. Sulla sinistra, i cinque ambiti di applicazione nella sanità della tecnologia basata sui large multimodal models, anche detta intelligenza artificiale generativa.  Al centro, i potenziali benefici e sulla destra i potenziali rischi per ognuna delle cinque categorie.

Tra i concreti pericoli messi in evidenza nelle nuove linee guida sull’etica e la governance dei sistemi di intelligenza artificiale per la salute, c’è quello di una possibile intensificazione delle diseguaglianze tra Paesi ricchi e Paesi a basso e medio reddito. Ma la preoccupazione non deriva solo dalle difficoltà di accesso alla tecnologia a causa delle scarse risorse economiche o della carenza di personale specializzato. La questione è ancora più profonda. I sistemi di intelligenza artificiale applicati alla medicina si basano su algoritmi che elaborano una miriade di dati. L’Oms si chiede quanto possano essere affidabili quei sistemi se i dati inseriti provengono solo da una parte del mondo. Le popolazioni dei Paesi più poveri, drasticamente sottorappresentate nei database, possono fidarsi di un algoritmo che si è allenato elaborando informazioni parziali che non tengono conto di differenze etniche, culturali, sociali ecc…?

«Sebbene i large multimodal models stiano iniziando a essere utilizzati per scopi specifici legati alla salute, esistono anche rischi documentati di produrre dichiarazioni false, imprecise, distorte o incomplete, che potrebbero danneggiare le persone che utilizzano tali informazioni per prendere decisioni sanitarie. Inoltre, i large multimodal models possono essere addestrati su dati di scarsa qualità o distorti, sia per razza, etnia, ascendenza, sesso, identità di genere o età», si legge nelle linee guida dell’Oms.

L’Oms aveva pubblicato le sue prime linee guida sull’intelligenza artificiale nell’assistenza sanitaria nel 2021. E ora, dopo solo tre anni, è costretta ad un aggiornamento per i progressi e la diffusione dei nuovi sistemi intelligenti auto-didatti. Stiamo parlando di quei sistemi che ricevono immagini, testi, video come input e producono differenti tipi di output, sotto forma di testi, video, immagini e che più dati elaborano, più diventano intelligenti. Come Chat Gpt, per intenderci.

I cinque campi di applicazione dell’intelligenza artificiale per la salute individuati dall’Oms sono i seguenti: diagnosi e assistenza clinica (es: rispondere ai quesiti dei pazienti), consulti ai pazienti sui sintomi e sul trattamento, compiti d'ufficio e amministrativi (es: documentare e riepilogare le visite dei pazienti), formazione medica e infermieristica (es: simulazioni di atti medici), ricerca scientifica e sviluppo di farmaci. Il principale beneficio dell’intelligenza artificiale consiste nel fornire agli esseri umani elaborazioni di quantità enormi di dati. Ma se questi dati sono falsati all’origine, c’è il pericolo che la macchina funzioni da cattiva maestra e incoraggi la diffusione di quei pregiudizi che in ambito scientifico sono chiamati “bias”, ossia condizionamenti, distorsioni, preconcetti che possono incidere sulla valutazione dei fatti.  

«L’ultima cosa che vogliamo vedere accadere come parte di questo balzo in avanti della tecnologia è la diffusione o l'amplificazione delle disuguaglianze e dei pregiudizi nel tessuto sociale dei Paesi di tutto il mondo», ha dichiarato Alain Labrique, direttore dell'OMS per la salute digitale e l’innovazione. 

L’appello dell’Oms è esplicitato già nel titolo delle linee guida che  richiama alla necessità di una “governance” del settore: è essenziale stabilire una modalità di controllo allargato sull’intelligenza artificiale applicata alla sanità per evitare che la nuova tecnologia sia appannaggio esclusivo di chi la produce e di conseguenza dei Paesi benestanti. 

«I governi di tutti i paesi devono guidare in modo cooperativo gli sforzi per regolamentare in modo efficace lo sviluppo e l’uso delle tecnologie di intelligenza artificiale», ha affermato Labrique. 
Gli Stati membri sono invitati in particolare ad impedire che avvenga una “corsa al ribasso” globale, con le aziende più interessate ad arrivare per prime prime che a produrre applicazioni di qualità, sicure e affidabili. I governi potrebbero per esempio, suggeriscono gli esperti dell’Oms, imporre alle aziende l’obbligo di sottoporre i loro prodotti a una valutazione indipendente (audit) che accerti il rispetto dei principi etici e la tutela dei diritti umani.