Perché gli algoritmi non sono neutrali

Scandisce le nostre giornate, orienta le nostre scelte, indirizza i nostri comportamenti. Muove le fila delle nostre vite, burattinaio hi-tech dal quale dovremmo prendere le distanze. Ma è davvero così? E come possiamo sottrarci dalla sua dittatura?

Pasquale Raicaldo profile image
by Pasquale Raicaldo
Perché gli algoritmi non sono neutrali
Photo by Markus Spiske

 

Lo ha deciso l’algoritmo. Scandisce le nostre giornate, orienta le nostre scelte, indirizza i nostri comportamenti. Muove le fila delle nostre vite, burattinaio hi-tech dal quale dovremmo prendere le distanze. Ma è davvero così? E soprattutto possiamo immaginare un futuro dominato dalla cosiddetta neutralità algoritmica o è, per definizione, una illusione? 

Quel che è certo è che oggi - dai motori di ricerca ai feed dei social network, dalle piattaforme di recruiting ai software predittivi usati in ambito giudiziario - gli algoritmi paiono offrire una soluzione efficiente, imparziale, razionale. Ma c’è, innegabilmente, un primo mito da sfatare: gli algoritmi non sono neutrali. Anzi, non lo sono mai stati. Perché dietro ogni modello predittivo, dietro ogni suggerimento automatico, dietro ogni “scelta” computazionale si nasconde una serie di assunzioni umane. Inevitabilmente, chi programma un algoritmo decide cosa sia rilevante, quali dati utilizzare, come classificare, ordinare, escludere. Il punto, dunque, è questo: se i dati storici riflettono un mondo pieno di disuguaglianze, stereotipi e discriminazioni, gli algoritmi finiscono per riprodurre - e amplificare - quei “bias”.  

a man holding a laptop computer in his hands
Photo by Kasra Askari


Un esempio molto citato in letteratura è l’algoritmo di selezione del personale di Amazon, testato tra il 2014 e il 2017. Il sistema, addestrato su dieci anni di curricula ricevuti dall’azienda, aveva imparato che i candidati maschi erano preferibili, perché storicamente erano quelli assunti più frequentemente. Il risultato? Venivano penalizzati i curricula che includevano la parola “women’s” o che provenivano da college femminili. Amazon, naturalmente, ha dovuto dismetterlo. Il problema, evidentemente, non era il codice, quanto il mondo da cui traeva i dati. Un altro caso è il sistema Compas (Correctional Offender Management Profiling for Alternative Sanctions), utilizzato in diversi stati americani per stimare la probabilità di recidiva degli imputati. Un’inchiesta, oggi datata, di ProPublica ha mostrato che veniva sovrastimato il rischio per gli imputati afroamericani, sottostimandolo – viceversa - per quelli bianchi, a parità di condizioni. L’algoritmo usava dati come il quartiere di provenienza, il livello di istruzione o la rete sociale, variabili spesso legate a fattori socioeconomici e razziali. 

iPhone X beside MacBook
Photo by Timothy Hales Bennett

Ma non c’è solo la presenza di bias. Quel che spaventa è l’opacità di questi sistemi, che li rende difficili contestare o comprendere. Gli algoritmi proprietari sono spesso protetti da segreti industriali o complessità tecniche che impediscono il controllo democratico. 
Chi stabilisce come funziona l’algoritmo che decide se possiamo accedere a un mutuo? O che tipo di notizie vediamo nel nostro feed? Perché un contenuto viene censurato e un altro no? Una opacità non casuale: qualsiasi sistema viene del resto progettato, calibrato, venduto da esseri umani, in contesti con precisi interessi economici e ideologici. 


Lungi da noi demonizzare la tecnologia: sullo scorso numero di GrandTour (qui per ordinarlo), anzi, abbiamo esaltato le potenzialità dell’IA. Però ne va ripensato il ruolo sociale: occorre cioè sviluppare una vera alfabetizzazione critica dell’intelligenza artificiale, che non si limiti all’uso, ma includa la comprensione del suo funzionamento, delle sue implicazioni etiche, delle sue strutture di potere. Servono, più di tutto, strumenti di trasparenza algoritmica. E qualcosa si muove: l’AI Act dell’Unione Europea, in fase di attuazione, introduce l’obbligo per le aziende di classificare i sistemi ad “alto rischio” e garantire maggiore trasparenza, almeno in teoria. Ma sarà fondamentale vigilare sull’effettiva applicazione. 
Non v’è dubbio che la tecnologia debba essere al servizio della società, e non il contrario. Perché ciò avvenga, però, dobbiamo chiederle di essere trasparente, equa e responsabile.  
La neutralità algoritmica è un’illusione. Il futuro dipende da quanto saremo capaci di renderla visibile, discuterla, e trasformarla. 

 

Pasquale Raicaldo profile image
by Pasquale Raicaldo

Ultimi Articoli