W projektowaniu autonomicznych samochodów bardzo istotna jest kwestia zaufania. W jak dużym stopniu możemy zaufać maszynie? I czy ona zawsze powinna ufać kierowcy? Takimi zagadnieniami zajmuje się prof. Marta Kwiatkowska z Oksfordu.
Czy zaufałbyś/zaufałabyś autonomicznemu samochodowi na tyle, aby wysłać nim swoje dzieci do szkoły? Problem zaufania to istotna kwestia, z którą muszą się zmierzyć producenci autonomicznych samochodów. Samochodów, które sterowane są dzięki algorytmom. Badaniem tej tematyki zajmuje się informatyk prof. Marta Kwiatkowska, Polka z brytyjskiego Uniwersytetu w Oksfordzie. Swoje badania prezentowała w Cambridge podczas konferencji Science: Polish Perspectives.
Dostępne na rynku rozwiązania (np. autopilot Tesli) wymagają jeszcze obecności i kontroli kierowcy. Jednak niektórzy kierowcy są bliscy paniki, kiedy jadą z włączonym autopilotem. Tu zaufania do maszyny zdecydowanie brakuje. Ale są i tacy, którzy - wbrew wskazaniom producenta - drzemią za kierownicą - np. w korku na autostradzie - zdając się całkowicie na działanie algorytmów.
Prof. Kwiatkowska przyjęła definicję, że zaufanie to gotowość jednej strony - ufającego - by wystawić się na skutki działania drugiej strony. Zaufanie bazuje na przeświadczeniu, że druga strona wykona konkretne działanie, ważne dla ufającego, nawet, jeśli nie będzie obserwowana czy kontrolowana.
Mówiła o dylematach, z którymi prędzej czy później trzeba się będzie zmierzyć podczas pisania algorytmów do pojazdów autonomicznych. Czy kiedy na drodze auta pojawia się grupa wielu pieszych i samochód nie ma szans wyhamować, powinien poświęcić życie swojego pasażera, np. gwałtownie skręcając i uderzając w drzewo? A co, jeśli są dwie opcje - uderzyć w jedną osobę albo w kilka? Kiedy takie sytuacje zdarzają się w życiu, kierowca musi podjąć decyzję w ułamku sekundy. Nie zdąży nawet się zastanowić. A twórca algorytmu będzie pewnie musiał uwzględnić i takie ewentualności.
W życiu zdarzają się osoby, które są skłonne poświęcić swoje życie, aby ocalić innego, ale i takie, które nie zdecydują się na taki krok. "Którym samochodem wolelibyście jechać - takim, który poświęca życie pasażera, czy takim, który gwarantuje jego bezpieczeństwo?" - pytała prof. Kwiatkowska. I dodała, że jest to również problem dla producenta, który przecież powinien pasażera bronić przed zagrożeniami.
Z zaufaniem wiąże się też to, że auto - w potencjalnej nieskończoności danych wejściowych - może popełniać błędy. Nie jest więc wykluczone, że np. maszyna mylnie zinterpretuje sygnały z kamer. "Czasami jeden piksel może zmienić klasyfikację obrazu" - powiedziała Kwiatkowska. I wyjaśniła, że taki drobny błąd może sprawić, że auto potraktuje światło czerwone, jako zielone.
Badaczka zwróciła też uwagę na kwestię zaufania maszyny do kierowcy. "Ludzie potrafią być naprawdę zuchwali" - skomentowała. Dlatego trzeba się też zastanowić, w jakiej sytuacji auto nie powinno ufać kierowcy. Opowiadała, że czasami kierowcy wystawiają auto na próbę i wydają mu niemądre polecenia. Jak daleko samochód powinien ufać pasażerowi?
Prof. Kwiatkowska powiedziała, że w następnym kroku - jeśli chodzi o problem zaufania ludzi wobec maszyn - trzeba będzie połączyć siły: inżynierów, przedstawicieli nauk społecznych oraz osób, które mają wpływ na kształtowanie polityki.
Konferencja Science: Polish Perspectives, która odbywała się 3 i 4 listopada, miała na celu integrację środowiska polskich naukowców pracujących za granicą. Portal Nauka w Polsce był jednym z patronów medialnych wydarzenia.
Autor: Ludwika Tomala
PAP - Nauka w Polsce
lt/ ekr/
Fundacja PAP zezwala na bezpłatny przedruk artykułów z Serwisu Nauka w Polsce pod warunkiem mailowego poinformowania nas raz w miesiącu o fakcie korzystania z serwisu oraz podania źródła artykułu. W portalach i serwisach internetowych prosimy o zamieszczenie podlinkowanego adresu: Źródło: naukawpolsce.pl, a w czasopismach adnotacji: Źródło: Serwis Nauka w Polsce - naukawpolsce.pl. Powyższe zezwolenie nie dotyczy: informacji z kategorii "Świat" oraz wszelkich fotografii i materiałów wideo.