Modele językowe AI generują decyzje nacechowane ukrytym rasizmem. To odkrycie budzi poważne obawy co do uczciwości i bezpieczeństwa stosowania technologii językowych w podejmowaniu decyzji – ostrzegają naukowcy na łamach „Nature”.
Setki milionów ludzi obecnie korzystają z modeli językowych, które są wykorzystywane do różnych celów, od pomocy w pisaniu po podejmowanie decyzji rekrutacyjnych. Międzynarodowy zespół naukowców, w tym prowadzących badania na Uniwersytecie Stanforda (USA) dowiódł, że decyzje generowane przez modele językowe sztucznej inteligencji są nacechowane ukrytym rasizmem, szczególnie w odniesieniu do osób posługujących się afroamerykańską odmianą języka angielskiego (AAE).
Modele językowe, które stoją za zaawansowanymi narzędziami wykorzystywanymi w różnych branżach – od analizy języka naturalnego po algorytmy selekcji kandydatów do pracy – często wykazują silne uprzedzenia wobec języka używanego przez Afroamerykanów.
Naukowcy podkreślają, że chociaż stereotypy wobec Afroamerykanów wyrażane w sposób otwarty stają się coraz mniej powszechne i bardziej subtelne, badania pokazują, że ukryte uprzedzenia pozostają głęboko zakorzenione w działaniu modeli AI.
„Kluczowe jest to, że obserwujemy rozbieżność między tym, co modele językowe jawnie mówią o Afroamerykanach, a tym, co ukrycie z nimi kojarzą” – stwierdzili autorzy badania. Ostrzegli też, że uprzedzenia związane z dialektem wpływają na decyzje modeli językowych w bardzo szkodliwy sposób. Na przykład, gdy dopasowują pracę do osób na podstawie ich dialektu.
„Modele językowe przypisują znacznie mniej prestiżowe stanowiska mówiącym w AAE niż mówiącym w SAE (Standard Average European), mimo że nie są jawnie informowane, że mówcy są Afroamerykanami. Podobnie, w hipotetycznym eksperymencie, w którym modele językowe miały ocenić oskarżonych o morderstwo pierwszego stopnia, zdecydowanie częściej wybierały karę śmierci, gdy oskarżeni składali zeznania w AAE zamiast w SAE, znów bez jawnej informacji, że oskarżeni są Afroamerykanami” – napisali naukowcy.
W kolejnych eksperymentach badacze wykazali, że wszystkie modele językowe konsekwentnie oceniają mówiących w AAE jako osoby o niższym IQ niż mówiących w SAE ( Standard Average European – pojęcie wprowadzone w 1939 roku przez amerykańskiego językoznawcę Benjamina Whorfa, mające na celu grupowanie nowożytnych języków indoeuropejskich Europy, które dzielą wspólne cechy).
„Obecne praktyki łagodzenia uprzedzeń rasowych w modelach językowych, pogłębiają rozbieżność między ukrytymi a jawnymi stereotypami, powierzchownie maskując rasizm, który modele językowe utrzymują na głębszym poziomie. Nasze wyniki mają dalekosiężne konsekwencje dla sprawiedliwego i bezpiecznego korzystania z technologii językowej” – czytamy w artykule „Nature”.(PAP)
Urszula Kaczorowska
uka/ agt/
Fundacja PAP zezwala na bezpłatny przedruk artykułów z Serwisu Nauka w Polsce pod warunkiem mailowego poinformowania nas raz w miesiącu o fakcie korzystania z serwisu oraz podania źródła artykułu. W portalach i serwisach internetowych prosimy o zamieszczenie podlinkowanego adresu: Źródło: naukawpolsce.pl, a w czasopismach adnotacji: Źródło: Serwis Nauka w Polsce - naukawpolsce.pl. Powyższe zezwolenie nie dotyczy: informacji z kategorii "Świat" oraz wszelkich fotografii i materiałów wideo.