Cosa ci insegna il caso della malattia inventata dall'intelligenza artificiale
Un esperimento nato per testare l’Ia ha generato la bixonimania, una patologia inesistente che ingannato anche ricercatori e chatbot. Ma è solo uno dei segnali che impongono una riflessione profonda sull’uso dell’intelligenza artificiale in ambito medico
Quella che sembrava una curiosità medica si è rivelata un campanello d’allarme. La cosiddetta “bixonimania”, descritta come una rara iperpigmentazione causata dall’esposizione alla luce blu, non esiste. È stata interamente inventata da un gruppo di ricercatori per testare la vulnerabilità dei modelli di intelligenza artificiale. Il team dell’Università di Göteborg, guidato dalla docente Osmanovic Thunström, ha creato da zero la malattia, corredandola di sintomi, statistiche e persino articoli scientifici fittizi, diffusi su piattaforme accademiche non soggette a revisione tra pari. L’obiettivo era semplice e inquietante: capire se un’informazione falsa, ben confezionata, potesse essere assimilata dai sistemi di AI e poi restituita come verità. È esattamente ciò che è successo. In breve tempo, chatbot e motori di ricerca hanno iniziato a presentare la bixonimania come una patologia reale, con descrizioni dettagliate e consigli medici. Alcuni articoli scientifici autentici hanno perfino citato le fonti false, mostrando come l’ecosistema dell’informazione scientifica possa essere contaminato con estrema facilità. Nonostante indizi evidenti – come università inesistenti, autori inventati e riferimenti ironici nascosti nei testi – l’inganno ha attecchito. Il caso dimostra che l’AI non si limita a riflettere il mondo: può contribuire a crearne una versione distorta, se le basi su cui si fonda sono fragili o manipolate.

Altri errori e distorsioni dell’Ia in medicina
La “bixonimania” non è un’eccezione isolata, ma il sintomo di un problema più ampio: l’affidabilità dell’intelligenza artificiale in medicina dipende in modo cruciale dalla qualità e dall’equità dei dati con cui viene addestrata. Un esempio concreto riguarda un algoritmo usato in diversi sistemi sanitari statunitensi per identificare i pazienti più bisognosi di cure aggiuntive. Il sistema, anziché basarsi sulla gravità clinica, utilizzava i costi sanitari storici come indicatore di rischio. Il risultato? I pazienti bianchi, mediamente più seguiti dal sistema sanitario, venivano classificati come più bisognosi di cure rispetto a pazienti neri con condizioni più gravi. Una distorsione che non nasce da cattiva fede, ma da dati storicamente sbilanciati. Il problema dei dati non si limita al contesto statunitense. Oltre l’80% degli studi genetici globali riguarda popolazioni di origine europea, che rappresentano meno del 20% della popolazione mondiale. Questo squilibrio fa sì che gli algoritmi medici risultino meno accurati quando applicati a popolazioni africane, asiatiche o latinoamericane. Anche i sistemi di diagnosi per immagini soffrono di bias strutturali. Algoritmi addestrati prevalentemente su immagini di pelle chiara hanno dimostrato performance inferiori nel riconoscimento del cancro della pelle su persone con tonalità più scure. Allo stesso modo, modelli predittivi per il rischio cardiovascolare sviluppati su popolazioni occidentali possono sovrastimare o sottostimare i rischi in altri contesti geografici.

Esclusione, disuguaglianza e lavoro
Oggi gran parte dei sistemi di intelligenza artificiale applicati alla salute nasce e viene testata in paesi ad alto reddito. Ciò significa che quasi cinque miliardi di persone, soprattutto nei paesi a basso e medio reddito, rischiano di essere sottorappresentate o addirittura invisibili nei modelli diagnostici e predittivi. Un algoritmo che non riconosce correttamente una patologia su una pelle più scura o che sottostima il rischio clinico di una popolazione può tradursi in diagnosi mancate, trattamenti inadeguati e ritardi nelle cure. Le comunità colpite da questi errori rischiano di sviluppare diffidenza verso la tecnologia e, più in generale, verso i sistemi sanitari digitali. C’è poi un altro aspetto spesso sottovalutato: l’impatto sul lavoro. L’adozione diffusa dell’Ia in sanità, dalla diagnostica all’amministrazione, fino al supporto decisionale, solleva interrogativi sul futuro di molte professioni. Se da un lato l’automazione promette maggiore efficienza, dall’altro apre scenari di sostituzione o trasformazione radicale di competenze e ruoli, con conseguenze non ancora pienamente comprese.
Una tecnologia ci obbliga a guardarci dentro
Il caso della bixonimania dimostra quanto sia facile per una falsa informazione infiltrarsi nel circuito della conoscenza medica quando il controllo umano viene meno. Gli altri esempi mostrano che gli errori non sono incidenti isolati, ma conseguenze prevedibili di sistemi addestrati su dati parziali o distorti. L’AI ha il potenziale per rivoluzionare la medicina. Ma senza un approccio critico, etico e inclusivo, rischia di trasformarsi da promessa di progresso a moltiplicatore di disuguaglianze ed errori.


