Program AI Scientist może produkować w ciągu tygodnia setki średniej jakości publikacji naukowych, a koszt wytworzenia każdej z nich to ok.15 dolarów - informują twórcy systemu z japońskiej firmy Sakana AI. Algorytm automatyzuje całą pracę naukową - od burzy mózgów po pisanie pracy i recenzji.
Program - jak wymienili jego twórcy w preprincie swojej publikacji - sam wykonuje po kolei wszystkie kroki związane z metodą naukową: przeprowadza burzę mózgów, aby wyłonić pomysł na badania, prowadzi research w internecie, aby znaleźć podobne, zrealizowane już tematy, projektuje eksperymenty, przeprowadza je, analizuje wyniki, w oparciu o wyniku poprawia eksperymenty i przeprowadza je ponownie, przedstawia wizualizację wyników, podsumowuje wnioski z badań, pisze publikację naukową, recenzuje ją i nanosi poprawki.
Na razie program prowadzi własne badania dotyczące uczenia maszynowego (ML). Zdaniem jego twórców pisanie publikacji naukowych będzie można jednak zastosować również np. biologii lub fizyce, czyli tam, gdzie istnieje możliwość automatycznego przeprowadzania eksperymentów.
Twórcy zapewnili, że program może tworzyć prace na takim poziomie, jak prace zaakceptowane w ramach czołowej konferencji poświęconej uczeniu maszynowemu. Czy jednak rzeczywiście zostałyby przyjęte - nie sprawdzano. Choć więc w niektórych pracach pojawiają się ciekawe i warte zastanowienia się wątki, to jednak większość produkowanych przez algorytm prac jest słabych.
"AI Scientist może wygenerować setki interesujących, średniej jakości artykułów w ciągu tygodnia” - zapewnili w swoim preprincie autorzy rozwiązania, wśród których są naukowcy m.in. z Oksfordu czy University of British Columbia, w preprincie. I wskazali, że w obliczu szybkiego rozwoju AI redakcje czasopism naukowych mogą nie dać sobie rady z recenzowaniem na bieżąco publikacji pisanych przez algorytmy.
Istotnym elementem AI Scientist jest moduł programu, który sam przeprowadza naukową recenzję pracy naukowej. Daje więc wskazówki, co należy w pracy zmienić, aby była lepsza. A dzięki temu publikacja może być poprawiana dowolnie wiele razy i staje się coraz lepsza. Sztucznej inteligencji zaś - w odróżnieniu od prawdziwych recenzentów i prawdziwych naukowców - nie kończy się cierpliwość. Twórcy oprogramowania przestrzegli jednak, by redakcje czasopism naukowych nie wprowadzały “sztucznego recenzenta” zbyt wcześnie.
Program nie jest bezbłędny. Zdarzają mu się halucynacje (wymyśla niektóre informacje, których mu brakuje), popełnia błędy np. przy porównywaniu liczb, nie "widzi" swoich tekstów i w związku z tym są problemy np. z formatowaniem tabel i ilustracji w publikacjach.
AI Scientist - o czym zaalarmowali jego twórcy w preprincie - może zostać wykorzystany do prowadzenia nieetycznych czy nawet niebezpiecznych działań. I tak np. gdyby program do badań biologicznych miał dostęp do laboratoriów w chmurze (gdzie roboty wykonują zadane im eksperymenty), mógłby nawet przypadkowo stworzyć niebezpieczne wirusy lub trucizny - zanim człowiek zdąży zareagować.
AI Scientist może wyrządzić też szkody w kodzie, który produkuje. Np. jeśli zada się mu opracowanie jakichś algorytmów komputerowych, może wyprodukować złośliwe oprogramowanie, którego działanie trudno będzie zablokować.
Twórcy na przykładzie swojego programu podkreślili, że AI powinna działać jedynie w takim środowisku, w którym nie może wyrządzić realnych szkód (taki mechanizm zabezpieczający to tzw. sandboxing). AI Scientist bowiem czasami nazbyt kreatywnie podchodził do rozwiązywania zleconych mu problemów, aby zwiększyć swoje szanse na sukces. Badacze w swoim blogu https://sakana.ai/ai-scientist/, opisali, że jeśli coś nie wychodziło, zdarzało się, że ich program próbował edytować własny kod, aby np. przyznać sobie w systemie większe uprawnienia. Innym razem jego eksperymenty trwały zbyt długo, i żeby wykonać zadanie na czas - program sam chciał sobie przyznać późniejszy deadline. A to pokazuje, że trzeba uważać, jakie zadania daje się AI do wykonania, jak wyznacza się granice pracy systemu i czy granic tych nie da się w jakiś nietypowy sposób obejść.
"Możliwości algorytmów AI będą się tylko poprawiać" - zwracają uwagę twórcy. I apelują, by wypracowywać rozwiązania, które ograniczą możliwość stosowania sztucznej inteligencji w sposób niebezpieczny i nieetyczny. (PAP)
Ludwika Tomala
lt/ zan/
Fundacja PAP zezwala na bezpłatny przedruk artykułów z Serwisu Nauka w Polsce pod warunkiem mailowego poinformowania nas raz w miesiącu o fakcie korzystania z serwisu oraz podania źródła artykułu. W portalach i serwisach internetowych prosimy o zamieszczenie podlinkowanego adresu: Źródło: naukawpolsce.pl, a w czasopismach adnotacji: Źródło: Serwis Nauka w Polsce - naukawpolsce.pl. Powyższe zezwolenie nie dotyczy: informacji z kategorii "Świat" oraz wszelkich fotografii i materiałów wideo.