Nauka dla Społeczeństwa

19.04.2024
PL EN
09.07.2022 aktualizacja 09.07.2022

Algorytmy prowadzą do wykluczenia? Niewykluczone

Fot. Adobe Stock Fot. Adobe Stock

Algorytmy coraz częściej wspomagają podejmowanie decyzji przez człowieka. Jednak kody te często zawierają błędy i uproszczenia, które prowadzić mogą do dyskryminacji niektórych grup. O zjawisku wykluczenia algorytmicznego mówił socjolog i kulturoznawca dr Kuba Piwowar z Uniwersytetu SWPS.

Na podstawie algorytmów w internecie proponowane są nam treści, którymi powinniśmy się zainteresować. A banki oceniają naszą zdolność kredytową. Może się wydawać, że decyzja podjęta bez większego udziału człowieka będzie zawsze obiektywna. A niestety nie zawsze tak jest.

Podczas webinaru Algorytmy - dyskryminacja i wykluczenie oraz ich społeczne konsekwencje Uniwersytetu SWPS dr Kuba Piwowar opowiadał, że algorytmy nie odzwierciedlają rzeczywistości w skali 1:1. Zawsze zawierają uproszczenia, bo taka jest natura danych cyfrowych. Za sprawą jednak takich uproszczeń zaszytych w algorytmach jednym grupom będzie wiodło się lepiej, a drugim gorzej. "Gorzej jest zwykle osobom, które i tak były dotąd marginalizowane" - mówi badacz. I wymienia, że to może dotyczyć np. kobiet, osób nieheteronormatywnych, czarnoskórych czy biedniejszych.

SKUTKI WYKLUCZENIA ALGORYTMICZNEGO

Jak streszczono w komunikacie Uniwersytetu SWPS, algorytmy z reguły działają na olbrzymich zbiorach danych, które są przetwarzane szybko i na dużą skalę. Dlatego podejmowane decyzje mają wpływ na ogromną liczbę osób.

I tak np. system predictive policing w USA, polega na tym, że jednostki policji wysyłane są w miejsca, gdzie potencjalne może pojawić się ktoś, kto popełni przestępstwo, jeszcze zanim do tego dojdzie. Chodzi o to, aby policja mogła je udaremnić lub złapać sprawcę na gorącym uczynku. Jednak system ten działa na podstawie historycznych danych dotyczących tylko wykrytych przestępstw. Dlatego wiele miejsc, w których doszło do złamania przepisów i nie zostało to zaraportowane przez policję, będzie uważane za bezpieczniejsze - choć w rzeczywistości takie nie są.

Innym przykładem ze Stanów Zjednoczonych jest wprowadzenie systemu COMPAS, który miał wspomagać decyzję sędziów o wypuszczeniu skazanych z więzienia przed końcem kary. Jednym z powodów stojących za wdrożeniem takiego rozwiązania był fakt, że decyzje sędziów nie były wolne od błędów – wyroki wydawane rano bywały bardziej łagodne, a po południu surowsze. Jako możliwe wytłumaczenie tych różnic badacze podają zależność między surowością wyroków, a odczuwanym głodem. Uznano, że skoro decyzje ludzi w tak ważnych sprawach zależne są od czynników niemerytorycznych, warto wesprzeć ten proces - dziś już wiemy, że tylko pozornie obiektywnymi - algorytmami. Dlatego celem było wprowadzenie rozwiązania, które sprawi, że tak ważne werdykty nie będą zależne od takich czynników jak głód czy sytość. Jednak problemem było to, że dane, na podstawie których działał system, nie były reprezentatywne dla całego społeczeństwa, ponieważ w więzieniach znajduje się dużo więcej mężczyzn niż kobiet, osób młodszych niż starszych, czy osób czarnoskórych niż białych.

Modele te odzwierciedlają - w sposób nieco zniekształcony - zjawiska zachodzące w społeczeństwie, np. jeśli wpiszemy w wyszukiwarkę hasło „fizyk”, to zobaczymy zdjęcia panów w białych fartuchach, a nie zdjęcie Marii Skłodowskiej-Curie czy innych znakomitych badaczek (co ciekawe, autokorekta - również działająca na podstawie algorytmów - sugeruje w tym zdaniu błąd i proponuje zamianę słowa “badaczek” na “badaczy”). Dzieje się tak, ponieważ tak wygląda reprezentacja tej grupy zawodowej w społeczeństwie – przeważają w niej mężczyźni.

Z kolej banki profilują nas na podstawie różnych dostępnych dla nich danych, np. na podstawie naszych transakcji. Jeśli bank odnotuje, że co miesiąc wydajemy daną kwotę na samochód, to dostaniemy ofertę z propozycją ubezpieczenia go. Podobnie jest, gdy staramy się o kredyt. Decyzja podejmowana jest na podstawie profilowania nas jako kredytobiorców. Jednak problem polega na tym, że działanie algorytmów jest nietransparentne. Nie jesteśmy w stanie odwołać się od jego decyzji.

Zdaniem dr. Piwowara środkiem zaradczym jest edukacja - powinniśmy, zarówno w szkołach podstawowych, jak i liceach, uczyć analityki, oswajać z nią uczniów. Z kolej na poziomie szkolnictwa wyższego, zwłaszcza w naukach technicznych, warto wprowadzić zajęcia z etyki, które w zrozumiały sposób wytłumaczą dylematy związane z działaniem algorytmów.

Kolejną ważną kwestią - poruszoną podczas wykładu - jest tworzenie odpowiedniego prawa. Unia Europejska przoduje w tym temacie, ponieważ wprowadza wiele pomysłów związanych z regulacją wykluczenia algorytmicznego, np. instytucje mają obowiązek raportować to, w jaki sposób zbierane są dane, ponieważ – jak zostało wspomniane wcześniej – od tego, z jakich danych algorytm będzie korzystał, zależą wyniki analizy.

Warto również - zdaniem kulturoznawcy - skupić się na stworzeniu poczucia odpowiedzialności wśród osób, które zajmują się danymi. W USA mówi się, że reprezentują oni zawód zaufania publicznego, ponieważ decyzje, które podejmują stworzone przez nich algorytmy, wpływają na jakość życia danych ludzi.

Dodatkowo - jak wynika z webinaru - należy zwrócić uwagę na kwestie miękkie, na to, że my – obywatele i obywatelki – powinniśmy nauczyć się, że te algorytmy są wokół nas i powinniśmy domagać się odpowiedzi na konkretne pytania, np. dlaczego o dokładnie takie informacje pyta nas bank. Być może nie dostaniemy odpowiedzi, jednak sama świadomość, że możemy o to zapytać powoduje, że stajemy się bardziej zorientowanymi konsumentami i konsumentkami, przez co, w dalszej perspektywie, produkty będą tworzone w bardziej świadomy sposób – komentuje kulturoznawca.

PAP - Nauka w Polsce

lt/ agt/

Przed dodaniem komentarza prosimy o zapoznanie z Regulaminem forum serwisu Nauka w Polsce.

Copyright © Fundacja PAP 2024