Coursera Learner working on a presentation with Coursera logo and

Los avances recientes en la investigación de IA revelan una tendencia preocupante: los humanos tienen dificultades para distinguir entre los medios generados por IA y los creados por humanos.

Coursera Learner working on a presentation with Coursera logo and

Una encuesta en línea exhaustiva que involucra aproximadamente a 3,000 participantes de Alemania, China y los Estados Unidos arroja luz sobre este problema, marcando el primer estudio internacional a gran escala sobre este aspecto de la alfabetización mediática.

La Dra. Lea Schönherr y el Profesor Thorsten Holz del CISPA presentaron estos hallazgos en el 45º Simposio IEEE sobre Seguridad y Privacidad en San Francisco. El estudio, realizado en colaboración con la Universidad de Ruhr en Bochum, la Universidad de Leibniz en Hannover y la TU de Berlín, ha sido publicado en el servidor de preimpresión arXiv.

El crecimiento exponencial de la inteligencia artificial ha facilitado la producción rápida de imágenes, texto y audio con una notable realismo. El Profesor Holz advierte sobre los riesgos asociados con este desarrollo, particularmente en la influencia de opiniones políticas durante eventos cruciales como las próximas elecciones. Destaca la amenaza potencial que representa para la democracia la manipulación de contenido generado por IA.

Dada la urgencia de la situación, la Dra. Schönherr enfatiza la necesidad de automatizar la identificación de medios generados por IA, lo que representa un desafío significativo de investigación. Sin embargo, señala la creciente dificultad para distinguir dicho contenido mediante métodos automatizados debido a las técnicas de generación de IA en evolución, resaltando el papel crucial del discernimiento humano.

Esta preocupación llevó a una investigación sobre la capacidad humana para identificar medios generados por IA. Los resultados del estudio transmediático en diferentes países y formatos de medios son sorprendentes: la mayoría de los participantes tienen dificultades para diferenciar entre contenido generado por IA y creado por humanos.

Interesantemente, el estudio encontró variaciones mínimas en las habilidades de reconocimiento según datos demográficos como la edad, la educación, la postura política o la alfabetización mediática. Realizada entre junio y septiembre de 2022, la encuesta recopiló datos socio-biográficos junto con evaluaciones del conocimiento de medios generados por IA y diversos factores cognitivos.

Si bien los resultados del estudio ofrecen información sobre los riesgos de ciberseguridad, incluido el potencial de contenido generado por IA en ataques de ingeniería social, también resaltan la necesidad de más investigación. La Dra. Schönherr aboga por comprender los mecanismos subyacentes en el reconocimiento humano de medios generados por IA y desarrollar sistemas de soporte técnico como procesos automatizados de verificación de hechos.

En resumen, el estudio subraya la necesidad urgente de abordar los desafíos planteados por los medios generados por IA y enfatiza el papel crucial tanto del juicio humano como de las soluciones tecnológicas en la mitigación de los riesgos asociados.

Languages

Weekly newsletter

No spam. Just the latest releases and tips, interesting articles, and exclusive interviews in your inbox every week.