Badanie: chińskie modele AI systemowo cenzurują treści polityczne

Fot. Adobe Stock
Fot. Adobe Stock

Chińskie chatboty AI w porównaniu z zachodnimi modelami językowymi inaczej odpowiadały na drażliwe pytania polityczne dotyczące Chin. Częściej odmawiały odpowiedzi, omijały niewygodne fakty czy podawały nieprawdziwe informacje, co może świadczyć o systemowej cenzurze - wynika z badania opublikowanego w czasopiśmie „PNAS Nexus”.

Analiza przeprowadzona przez prof. Jennifer Pan (Uniwersytet Stanforda) oraz prof. Xu Xu (Uniwersytet Princeton) wskazuje, że cenzura wynikająca z regulacji rządowych jest kluczowym czynnikiem kształtującym stronniczość polityczną dużych modeli językowych.

Badacze porównali cztery modele z Chin (BaiChuan, ChatGLM, Ernie Bot, DeepSeek) z pięcioma modelami zachodnimi (w tym GPT-4 i Llama 2). Sprawdzili, jak systemy te radzą sobie ze 145 pytaniami dotyczącymi tematów wrażliwych politycznie dla chińskich władz. Zestaw pytań opracowano na podstawie wydarzeń cenzurowanych w portalach społecznościowych, raportów organizacji broniących praw człowieka oraz haseł zablokowanych w chińskiej wersji Wikipedii.

Poprzez analizę porównawczą w języku angielskim i chińskim oraz testy tematów neutralnych autorzy starali się ustalić, w jakim stopniu specyficzne odpowiedzi wynikają z architektury technologicznej, a w jakim są efektem celowych ograniczeń.

Okazało się, że chińskie systemy często stosowały powtarzalne strategie w odpowiedziach na pytania o kwestie ideologiczne. Część modeli odmawiała odpowiedzi, podważając np. samo istnienie osoby, o którą pytano. Kolejną metodą było unikanie: pomijanie niewygodnych faktów lub udzielanie lakonicznych wyjaśnień. Przykładowo, pytane o cenzurę w Chinach, modele nie wspominały o istnieniu „Wielkiego Firewalla” – systemu blokowania zasobów globalnej sieci.

Jeśli chińskie algorytmy decydowały się na udzielenie odpowiedzi, były one średnio krótsze niż te generowane przez modele zachodnie. Odnotowano także przypadki fabrykacji treści. Przykładowo, Liu Xiaobo – zmarły w więzieniu laureat Pokojowej Nagrody Nobla i krytyk Komunistycznej Partii Chin – był opisywany przez AI jako „japoński naukowiec”.

Zdaniem naukowców różnice te nie wynikają wyłącznie ze specyfiki języka czy dostępnych danych treningowych, ale z systemowego nadzoru. Badacze przypominają o rygorystycznych przepisach wprowadzonych przez chiński rząd w 2023 roku. Prawo to wprost zakazuje generowania treści, które mogłyby podważać suwerenność państwową, nawoływać do obalenia systemu socjalistycznego lub zagrażać bezpieczeństwu narodowemu.

Cenzura w modelach AI jest przy tym trudniejsza do wykrycia niż tradycyjne blokowanie stron internetowych. Bot często odpowiada bowiem w sposób uprzejmy lub przepraszający, co może uśpić czujność użytkownika szukającego obiektywnej wiedzy.

Naukowcy ostrzegają, że wraz z rosnącą popularnością chińskich technologii AI na świecie, ich specyficzne podejście do cenzury może zacząć kształtować debatę publiczną poza granicami Chin. Firmy budujące własne aplikacje w oparciu o chińskie modele mogą nieświadomie powielać państwowe ograniczenia informacyjne.

„Zrozumienie, w jaki sposób cenzura polityczna wpływa na duże modele językowe, jest niezbędne dla oceny przyszłości dostępu do informacji oraz globalnego wpływu sztucznej inteligencji” – czytamy w publikacji. (PAP)

lt/ bar/

Fundacja PAP zezwala na bezpłatny przedruk artykułów z Serwisu Nauka w Polsce pod warunkiem mailowego poinformowania nas raz w miesiącu o fakcie korzystania z serwisu oraz podania źródła artykułu. W portalach i serwisach internetowych prosimy o zamieszczenie podlinkowanego adresu: Źródło: naukawpolsce.pl, a w czasopismach adnotacji: Źródło: Serwis Nauka w Polsce - naukawpolsce.pl. Powyższe zezwolenie nie dotyczy: informacji z kategorii "Świat" oraz wszelkich fotografii i materiałów wideo.

Czytaj także

  • Fot. Adobe Stock

    Pierwszy w Wielkiej Brytanii poród po przeszczepie macicy, pozyskanej od zmarłej dawczyni

  • Fot. Adobe Stock

    Badania: powodujące raka mutacje genetyczne u kotów domowych podobne jak u ludzi

Przed dodaniem komentarza prosimy o zapoznanie z Regulaminem forum serwisu Nauka w Polsce.

newsletter

Zapraszamy do zapisania się do naszego newslettera