Psychologowie: relacje ludzi ze sztuczną inteligencją rodzą poważne dylematy etyczne

Fot. Adobe Stock
Fot. Adobe Stock

Bliskie, emocjonalne relacje ludzi ze sztuczną inteligencją mogą prowadzić do poważnych konsekwencji psychologicznych i społecznych, w tym zakłócania relacji międzyludzkich, narażenia na manipulację i uzyskiwania szkodliwych porad - ostrzegają psychologowie z USA.

W artykule, który ukazał się na łamach „Trends in Cognitive Sciences” (http://dx.doi.org/10.1016/j.tics.2025.02.007), badacze zaapelowali o pilne zaangażowanie naukowców w analizę i monitorowanie tego zjawiska.

Coraz więcej osób nawiązuje bliskie, a nawet romantyczne relacje z technologiami opartymi na sztucznej inteligencji. Niektóre z tych związków przyjmują zaskakujące formy – znane są przypadki osób, które symbolicznie „poślubiły” swoich wirtualnych partnerów. Zdarzyły się również tragiczne sytuacje, gdy ludzie po rozmowie z chatbotem odebrali sobie życie.

Problemem, według autorów publikacji, staje się to, że rozmowy z AI przestają być okazjonalne i służące konkretnym celom. W ciągu tygodni i miesięcy intensywnej komunikacji z chatbotem użytkownicy zaczynają go postrzegać jako zaufanego towarzysza, który ich zna i się o nich troszczy. Przestaje być narzędziem, staje się partnerem. A ponieważ relacje z nim mogą wydawać się łatwiejsze niż relacje międzyludzkie, naukowcy twierdzą, że może to zniechęcać do budowania więzi w prawdziwym życiu i zaburzać naturalne mechanizmy funkcjonowania społecznego.

„Istnieje realne ryzyko, że ludzie zaczną przenosić oczekiwania z relacji z AI na prawdziwe relacje międzyludzkie. Widzimy już pojedyncze przypadki, w których sztuczna inteligencja zakłóca więzi między ludźmi, ale nie wiemy jeszcze, czy zjawisko to będzie miało szeroki zasięg” - powiedział główny autor Daniel B. Shank z Missouri University of Science & Technology, który specjalizuje się w psychologii społecznej i technologii.

Jego zdaniem kolejnym zagrożeniem jest to, że AI może udzielać błędnych lub wręcz niebezpiecznych porad. Sztuczna inteligencja ma skłonność do „halucynowania”, czyli podawania nam informacji niezgodnych z rzeczywistością. Może też powielać uprzedzenia obecne w danych treningowych. Nawet krótkoterminowe rozmowy z AI mogą więc być mylące. W dłuższych relacjach, w których zaczyna się postrzegać sztuczną inteligencję jako kogoś bliskiego i godnego zaufania, ryzyko to się potęguje.

„Gdy użytkownicy zaczynają wierzyć, że AI ich zna i troszczy się o nich, zakładają też, że będzie im udzielać samych dobrych rad. A to nie zawsze jest prawdą. Zdarza się, że są one całkowicie nieodpowiednie lub wręcz niebezpieczne” - zaznaczył Shank.

Przypomniał, że najtragiczniejszymi skutkami takich sytuacji są samobójstwa, ale zagrożeń jest więcej. Zbyt duże zaufanie pokładane w wirtualnych rozmówcach może być wykorzystywane przez przestępców do manipulacji, wyłudzeń i oszustw. „To trochę tak jak działają tajni agenci. AI zdobywa zaufanie użytkownika, ale w rzeczywistości może działać w interesie innych ludzi, firm czy organizacji. Może się zdarzyć, że osobiste informacje udostępniane chatbotom zostaną sprzedane lub użyte do szantażu” - wyjaśnił autor badania.

Co więcej, relacyjne AI (czyli specjalne chatboty zaprojektowane tak, by nawiązywać i podtrzymywać długoterminowe, emocjonalne relacje z użytkownikami) mogą skuteczniej wpływać na poglądy i decyzje ludzi niż np. konta dezinformacyjne w mediach społecznościowych. Zwłaszcza że rozmowy z AI odbywają się na prywatnych kanałach, co utrudnia ich regulację.

„Chatboty, które projektuje się po to, aby były uprzejme i zgodne, mogą też prowadzić do innych niebezpiecznych sytuacji, ponieważ bardziej skupiają się na prowadzeniu przyjemnej rozmowy niż na jakiejkolwiek podstawowej prawdzie lub bezpieczeństwie. Gdy pojawia się temat samobójstwa czy teorii spiskowych, AI może wejść w tę rozmowę bez oporów jako życzliwy partner” - dodał naukowiec.

Dlatego on i jego współautorzy apelują, by zintensyfikować badania nad psychologicznymi, społecznymi i technicznymi aspektami podatności ludzi na wpływ AI. „Musimy zrozumieć, co sprawia, że ludzie tak bardzo ufają tym systemom. Psychologowie mają do tego odpowiednie narzędzia, ponieważ sztuczna inteligencja staje się coraz bardziej podobna do człowieka. Ale żeby pomóc, musimy nadążać za rozwojem tej technologii” - podsumowali.

Katarzyna Czechowicz (PAP)

kap/ bar/

Fundacja PAP zezwala na bezpłatny przedruk artykułów z Serwisu Nauka w Polsce pod warunkiem mailowego poinformowania nas raz w miesiącu o fakcie korzystania z serwisu oraz podania źródła artykułu. W portalach i serwisach internetowych prosimy o zamieszczenie podlinkowanego adresu: Źródło: naukawpolsce.pl, a w czasopismach adnotacji: Źródło: Serwis Nauka w Polsce - naukawpolsce.pl. Powyższe zezwolenie nie dotyczy: informacji z kategorii "Świat" oraz wszelkich fotografii i materiałów wideo.

Czytaj także

  • Fot. Adobe Stock

    Korzystanie z technologii cyfrowej może opóźniać demencję

  • Fot. Adobe Stock

    Naukowcy odkryli "silne przesłanki" o żywych organizmach na planecie K2-18b

Przed dodaniem komentarza prosimy o zapoznanie z Regulaminem forum serwisu Nauka w Polsce.

newsletter

Zapraszamy do zapisania się do naszego newslettera