Iscriviti alla nostra Newsletter

Success! Now Check Your Email

To complete Subscribe, click the confirmation link in your inbox. If it doesn't arrive within 3 minutes, check your spam folder.

Ok, Thanks

Interazioni sociali, l'Intelligenza Artificiale ha ancora molto da imparare

I risultati di uno studio: i sistemi non riescono (ancora) a comprendere le dinamiche sociali e il contesto necessari per interagire con le persone

Redazione profile image
by Redazione
Interazioni sociali, l'Intelligenza Artificiale ha ancora molto da imparare
Photo by Steve Johnson

Gli esseri umani superano ancora le capacità dell'intelligenza artificiale nel descrivere e interpretare le interazioni sociali in una scena in movimento. A
evidenziarlo uno studio, presentato durante l'International Conference on Learning Representations, condotto dagli scienziati della Johns Hopkins University. Il team, guidato da Leyla Isik, ha chiesto a un gruppo di partecipanti di guardare videoclip di tre secondi e di valutare le caratteristiche importanti per la comprensione delle interazioni sociali. Gli stessi filmati sono stati esaminati dall'intelligenza artificiale. I risultati rilevano che i sistemi di intelligenza artificiale non riescono a comprendere le dinamiche sociali e il contesto necessari per interagire con le persone. La capacità di leggere l'ambiente, sostengono gli scienziati, è fondamentale per la progettazione di auto a guida autonoma, robot assistivi e altre tecnologie che si basano sull'intelligenza artificiale per orientarsi nel mondo reale.
"Per guidare, ad esempio - afferma Isik - è necessario riconoscere le intenzioni, gli obiettivi e le azioni di conducenti e pedoni. Una intelligenza artificiale che interagisce con l'umanità dovrebbe essere in grado di comprendere l'ambiente in cui si trova, ma vediamo che i modelli attuali non ne sono in grado. Le tecnologie di cui disponiamo oggi non hanno ancora superato questo limite".
Nell'ambito dell'indagine, ai partecipanti sono stati mostrati video che includevano persone che interagivano tra loro, svolgevano attività di gruppo o indipendenti. Successivamente, i ricercatori hanno chiesto a più di 350 modelli di intelligenza artificiale di interpretare come gli esseri umani avrebbero giudicato i video e come il loro cervello avrebbe reagito alla visione. Per i modelli linguistici piu' ampi, i ricercatori hanno chiesto alle IA di valutare brevi sottotitoli. I risultati hanno mostrato che le persone tendevano a rispondere in modo omogeneo, mentre i modelli di intelligenza artificiale, indipendentemente dalle dimensioni o dai dati su cui erano stati addestrati, fornivano risposte contrastanti.
I modelli video non erano in grado di descrivere accuratamente ciò che le persone stavano facendo nei video. Persino i modelli di immagini a cui era stata fornita una serie di fotogrammi da analizzare non erano in grado di prevedere in modo affidabile se le persone stessero comunicando. I modelli linguistici erano più efficaci nel prevedere il comportamento umano, mentre i modelli video erano piu' efficaci nel prevedere l'attività neurale nel cervello. I risultati sono in netto contrasto con il successo dell'intelligenza artificiale nella lettura di immagini fisse. "Osservare immagini e riconoscere oggetti e volti - commenta Isik - rappresenta sicuramente un risultato importante, ma la realtà non è statica, abbiamo bisogno di modelli capaci di leggere il mondo circostante in movimento. Comprendere le relazioni, il contesto e le dinamiche delle interazioni sociali sarà il prossimo step"

Redazione profile image
by Redazione

Non perderti gli ultimi articoli

Iscriviti e resta sempre aggiornato

Success! Now Check Your Email

To complete Subscribe, click the confirmation link in your inbox. If it doesn’t arrive within 3 minutes, check your spam folder.

Ok, Thanks

Ultimi Articoli