Coursera Learner working on a presentation with Coursera logo and

Les récents progrès de la recherche en intelligence artificielle révèlent une tendance préoccupante : les humains ont du mal à distinguer les médias générés par IA de ceux créés par des humains.

Coursera Learner working on a presentation with Coursera logo and

Une enquête en ligne exhaustive impliquant environ 3 000 participants en provenance d’Allemagne, de Chine et des États-Unis met en lumière ce problème, marquant la première étude internationale à grande échelle sur cet aspect de la littératie médiatique.

Le Dr Lea Schönherr et le Professeur Thorsten Holz du CISPA ont présenté ces conclusions lors du 45e Symposium IEEE sur la Sécurité et la Vie Privée à San Francisco. L’étude, réalisée en collaboration avec l’Université de la Ruhr à Bochum, l’Université de Leibniz à Hanovre et la TU de Berlin, a été publiée sur le serveur de prépublication arXiv.

La croissance exponentielle de l’intelligence artificielle a facilité la production rapide d’images, de textes et d’audio d’une remarquable réalisme. Le Professeur Holz met en garde contre les risques associés à ce développement, en particulier en ce qui concerne l’influence sur les opinions politiques lors d’événements cruciaux tels que les prochaines élections. Il souligne la menace potentielle que représente la manipulation de contenus générés par IA pour la démocratie.

Compte tenu de l’urgence de la situation, le Dr Schönherr souligne la nécessité d’automatiser l’identification des médias générés par IA, ce qui représente un défi de recherche significatif. Cependant, elle note la difficulté croissante à distinguer de tels contenus à l’aide de méthodes automatisées en raison de l’évolution des techniques de génération d’IA, soulignant le rôle crucial du discernement humain.

Cette préoccupation a incité à une enquête sur la capacité humaine à identifier les médias générés par IA. Les résultats de l’étude transmédiatique dans différents pays et formats médiatiques sont surprenants : la majorité des participants ont du mal à différencier les contenus générés par IA de ceux créés par des humains.

De manière intéressante, l’étude a trouvé des variations minimales dans les capacités de reconnaissance selon les données démographiques telles que l’âge, l’éducation, l’orientation politique ou la littératie médiatique. Menée entre juin et septembre 2022, l’enquête a recueilli des données socio-biographiques ainsi que des évaluations des connaissances sur les médias générés par IA et divers facteurs cognitifs.

Bien que les résultats de l’étude offrent des perspectives sur les risques en matière de cybersécurité, y compris le potentiel des contenus générés par IA dans les attaques d’ingénierie sociale, ils mettent également en évidence la nécessité de recherches supplémentaires. Le Dr Schönherr plaide pour la compréhension des mécanismes sous-jacents à la reconnaissance humaine des médias générés par IA et pour le développement de systèmes de support technique tels que des processus de vérification automatique des faits.

En résumé, l’étude souligne le besoin urgent de relever les défis posés par les médias générés par IA et met en avant le rôle crucial du jugement humain et des solutions technologiques dans l’atténuation des risques associés.

Langages

Weekly newsletter

No spam. Just the latest releases and tips, interesting articles, and exclusive interviews in your inbox every week.