Cosa ci insegna il caso della malattia inventata dall'intelligenza artificiale
Photo by Marcelo Leal

Cosa ci insegna il caso della malattia inventata dall'intelligenza artificiale

Un esperimento nato per testare l’Ia ha generato la bixonimania, una patologia inesistente che ingannato anche ricercatori e chatbot. Ma è solo uno dei segnali che impongono una riflessione profonda sull’uso dell’intelligenza artificiale in ambito medico

Giancarlo Donadio profile image
by Giancarlo Donadio

Quella che sembrava una curiosità medica si è rivelata un campanello d’allarme. La cosiddetta “bixonimania”, descritta come una rara iperpigmentazione causata dall’esposizione alla luce blu, non esiste. È stata interamente inventata da un gruppo di ricercatori per testare la vulnerabilità dei modelli di intelligenza artificiale. Il team dell’Università di Göteborg, guidato dalla docente Osmanovic Thunström, ha creato da zero la malattia, corredandola di sintomi, statistiche e persino articoli scientifici fittizi, diffusi su piattaforme accademiche non soggette a revisione tra pari. L’obiettivo era semplice e inquietante: capire se un’informazione falsa, ben confezionata, potesse essere assimilata dai sistemi di AI e poi restituita come verità. È esattamente ciò che è successo. In breve tempo, chatbot e motori di ricerca hanno iniziato a presentare la bixonimania come una patologia reale, con descrizioni dettagliate e consigli medici. Alcuni articoli scientifici autentici hanno perfino citato le fonti false, mostrando come l’ecosistema dell’informazione scientifica possa essere contaminato con estrema facilità. Nonostante indizi evidenti – come università inesistenti, autori inventati e riferimenti ironici nascosti nei testi – l’inganno ha attecchito. Il caso dimostra che l’AI non si limita a riflettere il mondo: può contribuire a crearne una versione distorta, se le basi su cui si fonda sono fragili o manipolate.

Con l’intelligenza artificiale smetteremo di morire?
La domanda è provocatoria, ma crescono le App (l’ultima è 2Wai) che promettono di riportare indietro chi non c’è più, attingendo alla scia digitale che ciascuno lascia dietro di sé. Proprio come in una puntata di Black Mirror. Ma non lo trovate inquietante?

Altri errori e distorsioni dell’Ia in medicina

La “bixonimania” non è un’eccezione isolata, ma il sintomo di un problema più ampio: l’affidabilità dell’intelligenza artificiale in medicina dipende in modo cruciale dalla qualità e dall’equità dei dati con cui viene addestrata. Un esempio concreto riguarda un algoritmo usato in diversi sistemi sanitari statunitensi per identificare i pazienti più bisognosi di cure aggiuntive. Il sistema, anziché basarsi sulla gravità clinica, utilizzava i costi sanitari storici come indicatore di rischio. Il risultato? I pazienti bianchi, mediamente più seguiti dal sistema sanitario, venivano classificati come più bisognosi di cure rispetto a pazienti neri con condizioni più gravi. Una distorsione che non nasce da cattiva fede, ma da dati storicamente sbilanciati. Il problema dei dati non si limita al contesto statunitense. Oltre l’80% degli studi genetici globali riguarda popolazioni di origine europea, che rappresentano meno del 20% della popolazione mondiale. Questo squilibrio fa sì che gli algoritmi medici risultino meno accurati quando applicati a popolazioni africane, asiatiche o latinoamericane. Anche i sistemi di diagnosi per immagini soffrono di bias strutturali. Algoritmi addestrati prevalentemente su immagini di pelle chiara hanno dimostrato performance inferiori nel riconoscimento del cancro della pelle su persone con tonalità più scure. Allo stesso modo, modelli predittivi per il rischio cardiovascolare sviluppati su popolazioni occidentali possono sovrastimare o sottostimare i rischi in altri contesti geografici.

Quanto è concreto il rischio che l’intelligenza artificiale “riscriva” la storia?
Il nuovo generatore di immagini basato su Gemini 3 Pro, Nano Banana, permette di ricreare eventi storici con una precisione inquietante. Dalla crocifissione di Gesù alla Seconda guerra mondiale: ecco come l’IA può modificare la memoria collettiva. E quali sono i rischi etici da affrontare

Esclusione, disuguaglianza e lavoro

Oggi gran parte dei sistemi di intelligenza artificiale applicati alla salute nasce e viene testata in paesi ad alto reddito. Ciò significa che quasi cinque miliardi di persone, soprattutto nei paesi a basso e medio reddito, rischiano di essere sottorappresentate o addirittura invisibili nei modelli diagnostici e predittivi. Un algoritmo che non riconosce correttamente una patologia su una pelle più scura o che sottostima il rischio clinico di una popolazione può tradursi in diagnosi mancate, trattamenti inadeguati e ritardi nelle cure. Le comunità colpite da questi errori rischiano di sviluppare diffidenza verso la tecnologia e, più in generale, verso i sistemi sanitari digitali. C’è poi un altro aspetto spesso sottovalutato: l’impatto sul lavoro. L’adozione diffusa dell’Ia in sanità, dalla diagnostica all’amministrazione, fino al supporto decisionale, solleva interrogativi sul futuro di molte professioni. Se da un lato l’automazione promette maggiore efficienza, dall’altro apre scenari di sostituzione o trasformazione radicale di competenze e ruoli, con conseguenze non ancora pienamente comprese.

Intelligenza artificiale, perché siamo così pessimisti?
Un nuovo studio delle università di Vienna e Monaco ha dimostrato che la diffusa percezione dell’Ia come causa di perdita di posti di lavoro influenza il nostro atteggiamento verso la democrazia. Ma…

Una tecnologia ci obbliga a guardarci dentro

Il caso della bixonimania dimostra quanto sia facile per una falsa informazione infiltrarsi nel circuito della conoscenza medica quando il controllo umano viene meno. Gli altri esempi mostrano che gli errori non sono incidenti isolati, ma conseguenze prevedibili di sistemi addestrati su dati parziali o distorti. L’AI ha il potenziale per rivoluzionare la medicina. Ma senza un approccio critico, etico e inclusivo, rischia di trasformarsi da promessa di progresso a moltiplicatore di disuguaglianze ed errori.

Giancarlo Donadio profile image
by Giancarlo Donadio

Per saperne di più