Pierwsza książka w przekładzie sztucznej inteligencji – „Od Gutenberga do Zuckerberga. Wstęp do humanistyki cyfrowej” – ma postać bezpłatnego e-booka. O współpracy w zespole badawczym, którego członkiem była Aplikacja DeepL, opowiada ekspert humanistyki cyfrowej z Uniwersytetu Wrocławskiego.
Aplikacja DeepL przetłumaczyła z języka polskiego na czeski monografię zbiorową pod red. prof. dr. hab. Adama Pawłowskiego. Książka jest dostępna tutaj.
„Była to pierwsza książka tłumaczona przez AI w historii polskiego ruchu wydawniczego. Fakt ten został potwierdzony wpisem do katalogu Biblioteki Narodowej i innych referencyjnych baz bibliograficznych, a następnie do Urzędowego Wykazu Druków Wydanych w Rzeczpospolitej Polskiej” – podkreśla prof. Pawłowski. Jak tłumaczy, tego rodzaju oficjalny zapis, wraz z numerem ISBN, jest swoistym „peselem” książki. Staje się ona dzięki temu pełnoprawnym dokumentem: trwałym pod względem formy i treści, funkcjonującym w międzynarodowym obiegu i możliwym do wyszukania przez różne systemy informacyjne.
Profesor przyznaje, że wcześniej korzystano już z oprogramowania przeznaczonego do tłumaczeń. „Jednak tym razem sytuacja była diametralnie różna: głównym aktorem procesu tłumaczenia nie był człowiek, który w razie potrzeby posiłkuje się informatyką. Tutaj całe tłumaczenie najpierw wykonała maszyna, a człowiek wkroczył do akcji dopiero na etapie »postprodukcji«, czyli redakcji przekładu maszynowego” – opowiada prof. Pawłowski.
OD OSZCZĘDNOŚCI, POPRZEZ EKSCYTACJĘ, DO ROZPOZNANIA SŁABOŚCI AI
Dwujęzyczne monografie były elementem projektu „Humanistyka Cyfrowa dla Przyszłości” prowadzonego przez Uniwersytet Wrocławski i Uniwersytet w Ołomuńcu od 2019 r. W ramach oszczędności zrezygnowano wówczas z tradycyjnego tłumaczenia i do zespołu włączono DeepL.
„Sam moment tłumaczenia był ekscytujący i wprawił mnie w stan bliski euforii. Oto czeska wersja ponad w 300-stronnicowej książki wraz z całym aparatem naukowym, pojawiła się w ciągu niecałych 10 minut! Jednak później nie było tak łatwo. Wyjściowy plik PDF ukazał słabości automatycznego przekładu, wynikające z bogactwa języka naturalnego, obejmującego metafory, skróty myślowe, referencje wewnętrzne i odwołania intertekstualne. Pracy nie ułatwiła rozbudowana struktura monografii naukowej: przypisy, cytowania, tytuły ilustracji” – opowiada prof. Pawłowski.
Naukowcy zaobserwowali też efekt wewnętrznej logistyki tego rodzaju systemów, w których małe i średnie języki tłumaczy się drogą okrężną przez angielski, a nie bezpośrednio. Badacze musieli więc zacząć od sprawdzenia wszystkich nazw własnych, które, raz były tłumaczone, a raz nie. Chodziło przede wszystkim o miejsca wydań, imiona osób, niekiedy nawet nazwiska. Ponadto system DeepL tłumaczył niektóre cytaty w języku angielskim na czeski, a inne pozostawiał w pierwotnej postaci.
KOREKTA STYLISTYCZNA PO STRONIE CZŁOWIEKA
Książka okazała się dla AI dokumentem trudnym ze względu na wielotematyczność, bogatą terminologię i aparat edytorski w postaci przypisów, bibliografii, grafik itd.
Formalnie zredagowany tekst wymagał korekty językowej i stylistycznej. „Tłumaczenie książki nie należało do najlepszych. Czasem miałem wrażenie, że pełnię rolę tłumacza, a nie tylko redaktora. Problemy często dotyczyły terminów, fachowych wyrażeń, łączliwości wyrazów, metafor oraz innych środków stylistycznych, które naukowcy wplatają w swój dyskurs” – ocenia dr Tadeáš Dohňanský z CzechLit – Czeskiego Centrum Literackiego w informacji przytoczonej przez prof. Pawłowskiego.
Niepoprawnie przetłumaczone były też opisy obrazków i wykresów. Wynikało to z nieuwzględniania szerszego kontekstu użycia konkretnego wyrazu lub zdania. W procesie redakcyjnym naturalnie wystąpiły liczne poprawki stylistyczne, co jest normalną praktyką również w przypadku tłumaczeń wykonanych przez człowieka. „Jednak sztuczna inteligencja wciąż nie radzi sobie z opisanymi wyżej problemami” – podsumowuje czeski redaktor.
EFEKT WSPÓŁDZIAŁANIA LUDZI I MASZYN
Zdaniem polskich i czeskich badaczy projekt odniósł sukces, a droga do praktyki tłumaczenia automatycznego całych utworów jest przetarta. Naukowcy zaznaczają, że programy do translacji będą z każdym rokiem lepsze.
„Obecnie trudno jest wytyczyć jasną linię podziału między tym, co ludzkie i maszynowe w przestrzeni komunikacyjnej. Tłumaczenie maszynowe jest oparte na systemie uczącym się z przekładów wykonanych przez ludzi. Na podobnej zasadzie działają wielkie modele językowe (LLMs – Large Language Models). System generujący teksty uczy się od człowieka – efekty tej nauki w postaci wytwarzanych tekstów nie są więc wyłączną kreacją maszyny. Są odtwórcze w stosunku do ogromnego korpusu treningowego” – tłumaczy prof. Pawłowski.
Podkreśla, że tekst generowany przez LLM wymaga modyfikacji przez człowieka, choć człowiek czuje się niekomfortowo jako partner maszyny, ponieważ gatunek ludzki nigdy w swoich dziejach takiego partnerstwa nie doświadczył.
„Nasz umysł antropomorfizuje więc algorytmy (są jakby umysłem) i urządzenia peryferyjne komputera (to rodzaj systemu poznawczego), a w piśmiennictwie z lat 60. funkcjonowała nawet nazwa komputera »mózg elektronowy«. A zatem LLMy »wiedzą«, »znają« jakiś temat, »rozumieją«, »tłumaczą«, a czasem nawet »słuchają« i »mówią« – w skrócie »myślą«” – wylicza naukowiec.
„Przestrzeń komunikacyjna stała się hybrydą, w której ludzie i maszyny współistnieją i współdziałają” – podsumowuje prof. Pawłowski.
Nauka w Polsce, Karolina Duszczyk
kol/ agt/
Fundacja PAP zezwala na bezpłatny przedruk artykułów z Serwisu Nauka w Polsce pod warunkiem mailowego poinformowania nas raz w miesiącu o fakcie korzystania z serwisu oraz podania źródła artykułu. W portalach i serwisach internetowych prosimy o zamieszczenie podlinkowanego adresu: Źródło: naukawpolsce.pl, a w czasopismach adnotacji: Źródło: Serwis Nauka w Polsce - naukawpolsce.pl. Powyższe zezwolenie nie dotyczy: informacji z kategorii "Świat" oraz wszelkich fotografii i materiałów wideo.