Naukowcy: coraz trudniej wierzyć zdjęciom

Zdjęcie wygenerowane przez sztuczną inteligencję. Źródło: Adobe Stock
Zdjęcie wygenerowane przez sztuczną inteligencję. Źródło: Adobe Stock

Prawie 40 proc. badanych nie potrafi odróżnić na zdjęciu prawdziwych ludzi od wytworów sztucznej inteligencji - informuje pismo „Advances in Computer Graphics”.

Badania przeprowadzili naukowcy z University of Waterloo (Kanada). 260 uczestnikom zaprezentowano 20 nieopisanych zdjęć: 10 - uzyskanych z wyszukiwań w Google - przedstawiało prawdziwych ludzi, a 10 wygenerowały Stable Diffusion lub DALL-E – dwa szeroko stosowane programy AI, które generują obrazy.

Badanych poproszono o oznaczenie każdego obrazu jako prawdziwego lub wygenerowanego przez sztuczną inteligencję i wyjaśnienie, dlaczego tak zadecydowali. Tylko 61 proc. uczestników potrafiło odróżnić ludzi wygenerowanych przez sztuczną inteligencję od prawdziwych. Tymczasem naukowcy spodziewali się wyniku w okolicach 85 proc.

„Ludzie nie są tak biegli w ocenieniu, jak im się wydaje” – podkreśliła Andreea Pocol, doktorantka informatyki na University of Waterloo i główna autorka badań.

Szukając szczegółów charakterystycznych dla tworów generowanych przez sztuczną inteligencję, uczestnicy badania zwracali uwagę na palce, zęby i oczy, ale ich ocena nie zawsze była prawidłowa. W dodatku podczas badania mogli się skoncentrować na ocenie, podczas gdy zwykle zdjęcia w internecie ocenia się przelotnie.

„Ludzie, którzy po prostu bezmyślnie scrollują lub nie mają czasu, nie wyłapią tego” – powiedziała Pocol, mając na myśli tzw. doomscrolling, czyli sprzyjające depresji przeglądanie samych złych wiadomości.

Jak dodała autorka, szybkie tempo rozwoju technologii sztucznej inteligencji czyni szczególnie trudnym zrozumienie potencjału złośliwych i nikczemnych działań, jakie są możliwe przy wykorzystaniu tego narzędzia.

Badania akademickie i prawodawstwo często nie jest w stanie nadążyć za postępem: od czasu rozpoczęcia badań pod koniec 2022 obrazy wykreowane przez sztuczną inteligencję stały się jeszcze bardziej zaawansowane. Co szczególnie niepokojące, mogą być wykorzystywane jako narzędzie polityczne i kulturowe, dostarczając użytkownikom obrazy osób publicznych w zawstydzających lub kompromitujących sytuacjach.

„Dezinformacja nie jest niczym nowym, ale narzędzia dezinformacji stale się zmieniają i ewoluują – powiedziała Pocol. - Może to doprowadzić do sytuacji, w której ludzie – niezależnie od tego, jak bardzo są wytrenowani, cały czas będą mieć trudności z odróżnieniem prawdziwych obrazów od podróbek. Dlatego musimy opracować narzędzia, które umożliwią identyfikację fałszywek. To jak nowy wyścig zbrojeń oparty na sztucznej inteligencji”.

Więcej informacji w artykule źródłowym.(PAP)

Paweł Wernicki

pmw/ bar/

Fundacja PAP zezwala na bezpłatny przedruk artykułów z Serwisu Nauka w Polsce pod warunkiem mailowego poinformowania nas raz w miesiącu o fakcie korzystania z serwisu oraz podania źródła artykułu. W portalach i serwisach internetowych prosimy o zamieszczenie podlinkowanego adresu: Źródło: naukawpolsce.pl, a w czasopismach adnotacji: Źródło: Serwis Nauka w Polsce - naukawpolsce.pl. Powyższe zezwolenie nie dotyczy: informacji z kategorii "Świat" oraz wszelkich fotografii i materiałów wideo.

Czytaj także

  • Fot. Adobe Stock

    Złote grzejniki do grillowania bakterii

  • Fot. Adobe Stock

    USA/ Po Covidzie siedzenie w domu stało się normą

Przed dodaniem komentarza prosimy o zapoznanie z Regulaminem forum serwisu Nauka w Polsce.

newsletter

Zapraszamy do zapisania się do naszego newslettera