Coursera Learner working on a presentation with Coursera logo and

I recenti progressi nella ricerca sull’IA rivelano una tendenza preoccupante: gli esseri umani faticano a distinguere tra media generati dall’IA e media creati dall’uomo.

Coursera Learner working on a presentation with Coursera logo and

Un’ampia indagine online coinvolgente circa 3.000 partecipanti provenienti da Germania, Cina e Stati Uniti getta luce su questa questione, segnando il primo studio internazionale su larga scala su questo aspetto della alfabetizzazione mediatica.

Il Dott. Lea Schönherr e il Professore Thorsten Holz del CISPA hanno presentato queste scoperte al 45° Simposio IEEE sulla Sicurezza e la Privacy a San Francisco. Lo studio, condotto in collaborazione con l’Università di Bochum, l’Università di Hannover e la TU di Berlino, è stato pubblicato sul server di pre-stampa arXiv.

La crescita esponenziale dell’intelligenza artificiale ha facilitato la produzione rapida di immagini, testi e audio con un realismo notevole. Il Professore Holz mette in guardia sui rischi associati a questo sviluppo, in particolare nell’influenzare le opinioni politiche durante eventi cruciali come le prossime elezioni. Sottolinea la potenziale minaccia per la democrazia rappresentata dalla manipolazione di contenuti generati dall’IA.

Date l’urgenza della situazione, la Dott.ssa Schönherr sottolinea la necessità di automatizzare l’identificazione dei media generati dall’IA, il che rappresenta una significativa sfida di ricerca. Tuttavia, nota la crescente difficoltà nel distinguere tali contenuti usando metodi automatizzati a causa delle tecniche di generazione dell’IA in evoluzione, evidenziando il ruolo cruciale del discernimento umano.

Questa preoccupazione ha portato a un’indagine sulle capacità umane nell’identificare i media generati dall’IA. I risultati dello studio trans-mediale in diversi paesi e formati di media sono sorprendenti: la maggior parte dei partecipanti fatica a differenziare tra contenuti generati dall’IA e creati dall’uomo.

È interessante notare che lo studio ha trovato variazioni minime nelle capacità di riconoscimento tra diverse demografie come età, istruzione, posizione politica o alfabetizzazione mediatica. Condotta tra giugno e settembre 2022, l’indagine ha raccolto dati socio-biografici insieme ad valutazioni della conoscenza dei media generati dall’IA e vari fattori cognitivi.

Anche se i risultati dello studio offrono spunti sui rischi della sicurezza informatica, inclusi il potenziale di contenuti generati dall’IA in attacchi di ingegneria sociale, mettono in evidenza la necessità di ulteriori ricerche. La Dott.ssa Schönherr propugna la comprensione dei meccanismi alla base del riconoscimento umano dei media generati dall’IA e lo sviluppo di sistemi di supporto tecnico come processi automatizzati di verifica dei fatti.

In sintesi, lo studio sottolinea l’urgente necessità di affrontare le sfide poste dai media generati dall’IA e enfatizza il ruolo cruciale sia del giudizio umano che delle soluzioni tecnologiche nel mitigare i rischi associati.

lingue

Weekly newsletter

No spam. Just the latest releases and tips, interesting articles, and exclusive interviews in your inbox every week.