Coursera Learner working on a presentation with Coursera logo and

Недавние достижения в исследованиях в области искусственного интеллекта раскрывают тревожную тенденцию: люди испытывают затруднения в различении между медиа, созданными с помощью искусственного интеллекта и человеком.

Coursera Learner working on a presentation with Coursera logo and

Обширное онлайн-исследование, в котором участвовали около 3 000 участников из Германии, Китая и США, проливает свет на эту проблему, отмечая первое крупномасштабное международное исследование по этому аспекту медиаграмотности.

Доктор Леа Шёнхерр и профессор Торстен Хольц из CISPA представили эти результаты на 45-м симпозиуме IEEE по безопасности и конфиденциальности в Сан-Франциско. Исследование, проведенное в сотрудничестве с университетом Рура в Бохуме, университетом Лейбница в Ганновере и Техническим университетом Берлина, было опубликовано на сервере предварительных публикаций arXiv.

Экспоненциальный рост искусственного интеллекта способствовал быстрому производству изображений, текста и аудио с поразительным реализмом. Профессор Хольц предупреждает о рисках, связанных с этим развитием, особенно во влиянии на политические мнения во время ключевых событий, таких как предстоящие выборы. Он подчеркивает потенциальную угрозу для демократии, вызываемую манипуляцией контентом, созданным с помощью искусственного интеллекта.

Учитывая срочность ситуации, доктор Шёнхерр подчеркивает необходимость автоматизации идентификации медиа, созданного с помощью искусственного интеллекта, что представляет собой значительное исследовательское испытание. Однако она отмечает нарастающие трудности в различении такого контента с помощью автоматических методов из-за эволюции методов генерации искусственного интеллекта, подчеркивая ключевую роль человеческого различения.

Эта проблема побудила к исследованию возможностей человека в идентификации медиа, созданного с помощью искусственного интеллекта. Результаты кросс-медийного исследования в разных странах и форматах медиа поразительны: большинство участников испытывают трудности в различении между контентом, созданным с помощью искусственного интеллекта, и человеческим.

Интересно, что исследование выявило минимальные различия в возможностях распознавания среди различных демографических групп, таких как возраст, образование, политическая позиция или медиаграмотность. Проведенное с июня по сентябрь 2022 года, исследование собрало социобиографические данные вместе с оценками знаний о медиа, созданных с помощью искусственного интеллекта, и различными когнитивными факторами.

Хотя результаты исследования предлагают понимание рисков кибербезопасности, включая потенциал контента, созданного с помощью искусственного интеллекта, в атаках социальной инженерии, они также подчеркивают необходимость дальнейших исследований. Доктор Шёнхерр выступает за понимание механизмов, лежащих в основе человеческого распознавания медиа, созданного с помощью искусственного интеллекта, и разработку технических систем поддержки, таких как автоматизированные процессы проверки фактов.

В заключение, исследование подчеркивает настоятельную необходимость решения вызовов, стоящих перед медиа, созданными с помощью искусственного интеллекта, и подчеркивает ключевую роль как человеческого суждения, так и технологических решений в смягчении связанных с ними рисков.

Языки

Weekly newsletter

No spam. Just the latest releases and tips, interesting articles, and exclusive interviews in your inbox every week.