Droni e robot più sicuri grazie all'intelligenza artificiale

Arriva un modello matematico e computazionale che permette di prendere decisioni affidabili anche quando le informazioni sono incomplete, imprecise o distorte

Redazione profile image
by Redazione
Droni e robot più sicuri grazie all'intelligenza artificiale
Photo by Aideal Hwa

Cosa succede quando un'auto a guida autonoma si trova davanti a una strada non segnalata sulle mappe? O quando un robot deve muoversi in un ambiente caotico, pieno di ostacoli imprevisti, con sensori che vedono male? Nel mondo reale, i dati non sono mai perfetti. Ed è proprio qui che spesso l'intelligenza artificiale va in crisi. Uno studio appena pubblicato su Nature Communications, tra i coordinatori Giovanni Russo, professore all'Università degli Studi di Salerno, propone un nuovo modo di affrontare questo problema: un modello matematico e computazionale che permette a robot, droni e sistemi intelligenti di prendere decisioni affidabili anche quando le informazioni sono incomplete, imprecise o distorte. L'idea di partenza è sorprendentemente semplice e profondamente ispirata alla natura, a cominciare dai batteri. Gli esseri viventi, anche i più elementari, non hanno mai una conoscenza perfetta dell'ambiente in cui si muovono. Eppure riescono ad adattarsi, sopravvivere, decidere. Il nuovo modello applica questi stessi principi all'intelligenza artificiale. In particolare, il lavoro si ispira a una teoria delle neuroscienze che descrive il modo in cui cervello e organismi viventi cercano costantemente di ridurre la sorpresa in ciò che li circonda.

Con l’intelligenza artificiale smetteremo di morire?
La domanda è provocatoria, ma crescono le App (l’ultima è 2Wai) che promettono di riportare indietro chi non c’è più, attingendo alla scia digitale che ciascuno lascia dietro di sé. Proprio come in una puntata di Black Mirror. Ma non lo trovate inquietante?


"Nel mondo reale i modelli non sono mai perfetti - spiega Russo - Basta una piccola differenza tra la realtà e il modello usato per addestrare un sistema di IA per provocare comportamenti imprevedibili. Pensiamo a un veicolo autonomo che utilizza una mappa imprecisa o a un robot che interpreta male ciò che vede".
Per testare il modello, i ricercatori lo hanno applicato a robot mobili impegnati in compiti di navigazione, come raggiungere una destinazione evitando ostacoli. E anche quando il robot è addestrato su informazioni errate o approssimative, sono riusciti a muoversi in modo affidabile, evitando collisioni e situazioni pericolose.

Intelligenza artificiale, perché siamo così pessimisti?
Un nuovo studio delle università di Vienna e Monaco ha dimostrato che la diffusa percezione dell’Ia come causa di perdita di posti di lavoro influenza il nostro atteggiamento verso la democrazia. Ma…

Ulteriori simulazioni su robot quadrupedi hanno confermato la solidità dell'approccio. Le possibili applicazioni sono numerose. Dai droni utilizzati in scenari di emergenza ai robot impiegati in contesti industriali complessi, fino ai veicoli autonomi, che devono affrontare strade, traffico e condizioni sempre diverse da quelle previste. In tutti questi casi, la capacità di decidere bene anche senza informazioni perfette è un fattore cruciale di sicurezza. La ricerca è frutto di una collaborazione internazionale guidata da Giovanni Russo insieme a Karl Friston della University College London, uno dei principali neuroscienziati a livello mondiale. I primi autori dello studio sono Allahkaram Shafiei e Hozefa Jesawada, all' Università di Salerno durante lo svolgimento del lavoro. Il progetto si inserisce nel Dottorato MERC - Modeling and Engineering Risk and Complexity della Scuola Superiore Meridionale, diretto dal professor Mario di Bernardo.

Redazione profile image
by Redazione

Per saperne di più