Nauka dla Społeczeństwa

19.04.2024
PL EN
17.03.2016 aktualizacja 17.03.2016

Informatyk: sztuczna inteligencja jest omylna, trzeba ją udoskonalać

Fot. Fotolia Fot. Fotolia

Algorytmy sztucznej inteligencji ze swej natury są omylne i warto je udoskonalać. Ale już teraz służą człowiekowi w wielu obszarach życia - mówi informatyk prof. Mieczysław Kłopotek. Według niego zagrożeniem nie są same algorytmy, ale arogancja programistów.

W połowie marca maszyna po raz pierwszy pokonała mistrza świata w starochińską grę go. AlphaGo – program firmy Google DeepMind oparty na technologii sztucznej inteligencji - wygrał z Koreańczykiem Lee Sedolem 4 na 5 rozgrywek. To kolejny krok, który pokazuje, że są obszary, w których sztuczna inteligencja może okazać się bystrzejsza niż człowiek.

POJEDYNEK NIEDOSKONAŁYCH

"Na pojedynek człowieka i maszyny w grę go patrzyłem zimnym okiem. Mieliśmy tu do czynienia z dwoma niedoskonałymi systemami" - przyznaje w rozmowie z PAP badacz sztucznej inteligencji prof. Mieczysław Kłopotek z Instytutu Podstaw Informatyki PAN w Warszawie. Naukowiec zaznacza, że człowiek i maszyna stosują różne mechanizmy i strategie gry, ale w obu przypadkach są to mechanizmy nie do końca perfekcyjne. Jego zdaniem mogłoby być przypadkowe, który z tych systemów polegnie pierwszy.

UCZ SIĘ, UCZ, BO NAUKA TO POTĘGI KLUCZ

Jak wyjaśnia informatyk, algorytmy sztucznej inteligencji są z założenia niedoskonałe i mogą się mylić. "W większości działów, którymi zajmuje się informatyka, możemy precyzyjnie napisać algorytm, a więc przepis, jak postępować, żeby osiągnąć jakiś skutek" - mówi Kłopotek i podaje przykład wyciągania pierwiastków czy rysowania wykresów funkcji. "Ale są obszary ludzkiej działalności, w którym takie algorytmy nie są znane lub są zbyt złożone" - dodaje.

Bazując na programie do gry w szachy wyjaśnia, na czym polegają algorytmy sztucznej inteligencji. "Zanim komputer wykona kolejny ruch, może wyliczyć wszystkie możliwe przebiegi gry i wybrać posunięcie, które się najbardziej opłaci. Ale taki proces nie zawsze można zrealizować w rozsądnym czasie dostępnymi środkami. Dlatego czasem próbujemy w algorytmach naśladować ludzką intuicję" - mówi badacz. Wyjaśnia, że w algorytmie sztucznej inteligencji częściowo przeszukiwana jest przestrzeń potencjalnych rozwiązań, czyli możliwych posunięć. A częściowo algorytm odwołuje się do tzw. reguł kciuka, czyli heurystyk.

To pewne uproszczone reguły, jakie można skonstruować dzięki obserwowaniu zdarzeń w otaczającym świecie. Na przykład możemy na podstawie wielu rozgrywek stwierdzić, czy w szachach bardziej opłaca się poświęcić skoczka czy gońca, zdobyć pole czy zbić figurę itd. "O tych regułach dowiadujemy się dzięki pracy ekspertów. Albo też program, posługując się metodą prób i błędów, sam odnajduje nowe zasady, które na ogół prowadzą do dobrych skutków" - opowiada informatyk. Zaznacza, że na podstawie wiedzy eksperta, a także wyników obserwacji i doświadczeń powstaje przybliżony model, który pokazuje, co w danej sytuacji program powinien wykonać. "Taka strategia działa na ogół, ale nie zawsze" - przyznaje prof. Kłopotek. Dodaje, że aby algorytm był coraz bardziej skuteczny, trzeba go "doszkalać", np. pozwalając mu uczyć się na własnych błędach.

NAS NIE DOGONIĄ

Zdaniem rozmówcy PAP zwycięstwo AlphaGo wcale nie znaczy, że wkrótce sztuczna inteligencja pod każdym względem prześcignie człowieka. "Co prawda istnieją już obszary, w których komputer jest lepszy od człowieka, ale są one bardzo wąskie" - zwraca uwagę badacz i mówi, że ludzki umysł ma bardzo wiele umiejętności i nie jest aż tak wyspecjalizowany, jak programy komputerowe. Według niego obecny stan techniki nie pozwala na zbudowanie czegoś, co przypominałoby "sztuczny umysł". "Żeby zobrazować złożoność systemu porównywalną z mózgiem jednego człowieka, trzeba by było pokryć układami scalonymi całą powierzchnię Ziemi do głębokości ok. 1 metra" - porównuje naukowiec.

ZASTOSOWANIA SZTUCZNEJ INTELIGENCJI

Prof. Mieczysław Kłopotek opowiada, że ze sztuczną inteligencją mamy już do czynienia na co dzień - nawet, jeśli nie jesteśmy tego świadomi. Takie algorytmy wykorzystywane są np. w prognozowaniu pogody. Dokładna prognoza wyliczana jest tylko dla wybranych punktów - zwykle miejsc pomiarów. A pomiędzy tymi punktami obliczenia trzeba przybliżać. Wykorzystuje się do tego metody sztucznej inteligencji. Algorytmy takie służą też w przypadku prognoz długookresowych - na więcej niż następne 72 godziny.

Sztuczna inteligencja pomogła również np. w rozwoju programów automatycznego ustawiania ostrości obrazu w aparatach fotograficznych czy służy w przewidywaniu zachowania rynków finansowych. Ze sztucznej inteligencji chętnie korzystają firmy, np. w analizie wielkich zbiorów danych, aby rozumieć potrzeby konsumentów i ich podatność na kampanie marketingowe.

Jeśli chodzi o rolę sztucznej inteligencji w rozwoju nauki, to ważne są m.in. prace prowadzone w dziedzinie diagnostyki medycznej. Dzięki nowym algorytmom dane od setek tysięcy pacjentów można automatycznie przeanalizować w poszukiwaniu nowych zależności przydatnych w rozpoznawaniu chorób i leczeniu ich. Metody sztucznej inteligencji są składowymi aparatury diagnostycznej czy inteligentnych protez. Znacząco mogą ograniczyć liczbę eksperymentów na ludziach czy zwierzętach przy opracowywaniu nowych leków.

Wyzwaniem jest też na pewno rozumienie przez komputery języka naturalnego ludzi. W IPI PAN sztuczna inteligencja pomaga w pracach nad wyszukiwarką Nekst (http://nekst.pl/), która pozwoli na precyzyjniejsze przeszukiwanie polskich tekstów.

BAĆ SIĘ ALBO NIE BAĆ

Prof. Kłopotek nie ukrywa, że z istnieniem sztucznej inteligencji związanie są pewne wątpliwości. "Według mnie największym zagrożeniem jest presja czasu przy rozwoju nowego oprogramowania. Pośpiech i nadmierna pewność siebie może budzić pokusę skracania długotrwałych procedur testowania przed użyciem w urządzeniach, od których zależy ludzkie życie" - zwraca uwagę naukowiec. Opowiada, że takie sytuacje zdarzały się już w przeszłości. Np. pewien program wykorzystujący sztuczną inteligencję do podprowadzania samolotu do lądowania nie obsługiwał pewnej bardzo nietypowej sytuacji, co doprowadziło do katastrofy lotniczej.

"Sztuczna inteligencja być może i mogłaby doprowadzić kiedyś do zagłady ludzkości, ale tylko, jeśli będziemy ją niechlujnie programować" - uważa badacz. Przyznaje, że w przeszłości np. zdarzały się już fałszywe alarmy w bazujących na sztucznej inteligencji systemach rakietowych. "Np. kiedyś taki system wszczął alarm, bo do lotu wzbiło się gdzieś stado ptaków. Jeśli takie systemy nie będą ulepszane, to może się zdarzyć, zupełnie przez przypadek, że za ich sprawą wybuchnie wojna" - nie wyklucza informatyk.

"Ponieważ systemy sztucznej inteligencji już istnieją i w wielu dziedzinach ułatwiają nam życie, muszą być doskonalone. Douczane. Tylko wtedy, kiedy będą rozwijane, nic nam nie grozi. Jeśli zaniechamy ich rozwoju, np. ze strachu przed tą technologią, to wtedy rzeczywiście mogą powstać zagrożenia" - kończy prof. Kłopotek.

PAP - Nauka w Polsce, Ludwika Tomala

lt/ agt/

Przed dodaniem komentarza prosimy o zapoznanie z Regulaminem forum serwisu Nauka w Polsce.

Copyright © Fundacja PAP 2024