Coursera Learner working on a presentation with Coursera logo and

Najnowsze postępy w badaniach nad sztuczną inteligencją ujawniają niepokojący trend: ludzie mają trudności w rozróżnianiu między mediami generowanymi przez AI a ludzkimi.

Coursera Learner working on a presentation with Coursera logo and

Obszerne badanie online obejmujące około 3000 uczestników z Niemiec, Chin i USA rzuca światło na ten problem, stanowiąc pierwsze międzynarodowe badanie o dużym zasięgu dotyczące tej dziedziny umiejętności medialnych.

Dr Lea Schönherr i profesor Thorsten Holz z CISPA przedstawili te wyniki na 45. Sympozjum IEEE nt. Bezpieczeństwa i Prywatności w San Francisco. Badanie, przeprowadzone we współpracy z Uniwersytetem Ruhr w Bochum, Uniwersytetem Leibniza w Hanowerze i TU Berlin, zostało opublikowane na serwerze preprintów arXiv.

Eksponencjalny wzrost sztucznej inteligencji ułatwił szybką produkcję obrazów, tekstu i dźwięku o niezwykłym realizmie. Profesor Holz ostrzega przed ryzykiem związanym z tym rozwojem, zwłaszcza wpływem na opinie polityczne podczas kluczowych wydarzeń, takich jak nadchodzące wybory. Podkreśla potencjalne zagrożenie dla demokracji związanego z manipulacją treściami generowanymi przez AI.

Ze względu na pilność sytuacji Dr Schönherr podkreśla konieczność automatyzacji identyfikacji mediów generowanych przez AI, co stanowi znaczne wyzwanie badawcze. Zauważa jednak eskalujące trudności w rozróżnianiu takich treści za pomocą metod automatycznych z powodu ewoluujących technik generacji AI, podkreślając kluczową rolę ludzkiego rozróżniania.

To zaniepokojenie skłoniło do zbadania zdolności człowieka do identyfikacji mediów generowanych przez AI. Wyniki przekrojowego badania mediów w różnych krajach i formatach są zaskakujące: większość uczestników ma trudności w odróżnieniu treści generowanych przez AI od ludzkich.

Co ciekawe, badanie wykazało minimalne różnice w zdolnościach rozpoznawania w różnych grupach demograficznych, takich jak wiek, wykształcenie, stan polityczny czy umiejętności medialne. Przeprowadzone między czerwcem a wrześniem 2022 roku badanie zbierało dane socjobiograficzne wraz z ocenami wiedzy na temat mediów generowanych przez AI i różnych czynników poznawczych.

Choć wyniki badania oferują wgląd w ryzyka związane z cyberbezpieczeństwem, w tym potencjał treści generowanych przez AI w atakach inżynierii społecznej, podkreślają również potrzebę dalszych badań. Dr Schönherr opowiada się za zrozumieniem mechanizmów leżących u podstaw rozpoznawania mediów generowanych przez AI przez człowieka i opracowaniem technicznych systemów wsparcia, takich jak zautomatyzowane procesy weryfikacji faktów.

Podsumowując, badanie podkreśla pilną potrzebę rozwiązania wyzwań związanych z mediami generowanymi przez AI i podkreśla kluczową rolę zarówno ludzkiego osądu, jak i rozwiązań technologicznych w łagodzeniu związanych z nimi ryzyk.

Języki

Weekly newsletter

No spam. Just the latest releases and tips, interesting articles, and exclusive interviews in your inbox every week.