Znany analityk sztucznej inteligencji, w swojej nowej książce twierdzi, że przyszła AI będzie inteligentniejsza od ludzi. Stawia jednak jeden, naprawdę trudny do spełnienia warunek – wcześniejsze dokładne poznanie pracy mózgu.
Dr Eitan Michael Azof, specjalista w zakresie sztucznej inteligencji, znany m.in. z popularyzacji tej dziedziny, w swojej nowej książce „Towards Human-Level Artificial Intelligence: How Neuroscience can Inform the Pursuit of Artificial General Intelligence” ("W kierunku sztucznej inteligencji na poziomie człowieka – jak neuronauka wpłynie na rozwój ogólnej sztucznej inteligencji") stwierdza, że przyszła sztuczna inteligencja może być potężniejsza od ludzkiej.
Jednak podaje warunek, który nie wiadomo czy, a jeśli tak, to kiedy uda się spełnić. Chodzi o dokładne poznanie działania mózgu. Neuronaukowcy zajmują się tym już od dekad i mimo wielu osiągnięć nadal mózg kryje ogrom tajemnic.
Jak jednak twierdzi badacz, komputery mogą symulować świadomość, która w świecie żywym istnieje na różnych poziomach. Na przykład zwierzęta, nawet te prostsze, mają być nią do pewnego stopnia obdarzone, choć bez świadomości własnego istnienia i działania. Pomaga ona jednak zwierzętom w większym lub mniejszym stopniu planować swoje zachowanie.
Przypomina to, zdaniem naukowca, sytuację, w której człowiek działa w tzw. flow, nie zastanawiając się zbytnio nad tym, co akurat robi.
Taki prostszy poziom świadomości, według autora książki, ma być jako pierwszy odtworzony w komputerach.
Pierwszym krokiem w tym kierunku ma być rozszyfrowanie pracy kory wzrokowej. Jak wyjaśnia ekspert, obecna SI nie „myśli” wizualnie, tylko wykorzystuje tzw. duże modele językowe (LLM).
Ponieważ myślenie wizualne poprzedzało język u ludzi, zrozumienie myślenia wizualnego i następnie jego modelowanie w komputerze ma być kluczowym elementem budowania SI działającej na poziomie ludzkim.
„Kiedy złamiemy kod neuronalny, zaprojektujemy szybsze i lepsze mózgi o większej pojemności, szybkości, niż ludzki mózg. Zaczniemy od modelowania przetwarzania wizualnego, co umożliwi nam naśladowanie wizualnego myślenia. Spekuluję, że pojawi się wtedy świadomość typu ‘flow’. Nie wierzę, że system musi być żywy, aby mieć świadomość” - stwierdza dr Azoff.
Badacz ostrzega również, że społeczeństwo musi odpowiednio kontrolować tę technologię i zapobiegać jej niewłaściwemu użyciu.
„Dopóki nie będziemy mieć większej pewności co do maszyn, które budujemy, powinniśmy zawsze przestrzegać dwóch punktów: po pierwsze, musimy upewnić się, że ludzie mają pełną możliwość wyłączenia SI, po drugie musi mieć ona wbudowane procedury zabezpieczające” – dodaje.(PAP)
Marek Matacz
mat/ agt/
Fundacja PAP zezwala na bezpłatny przedruk artykułów z Serwisu Nauka w Polsce pod warunkiem mailowego poinformowania nas raz w miesiącu o fakcie korzystania z serwisu oraz podania źródła artykułu. W portalach i serwisach internetowych prosimy o zamieszczenie podlinkowanego adresu: Źródło: naukawpolsce.pl, a w czasopismach adnotacji: Źródło: Serwis Nauka w Polsce - naukawpolsce.pl. Powyższe zezwolenie nie dotyczy: informacji z kategorii "Świat" oraz wszelkich fotografii i materiałów wideo.