Sztuczna inteligencja w 2025 r.: rosnąca popularność, wzrost dezinformacji i nowe regulacje

Fot. Adobe Stock
Fot. Adobe Stock

Wirtualna ministra, Grokipedia i polskie modele językowe AI to jedne z wielu narzędzi sztucznej inteligencji wprowadzonych w 2025 r. Szymon Łukasik, prof. AGH i ekspert NASK przewiduje, że „hype” na sztuczną inteligencję osłabnie w 2026 r.

W 2025 r. w Unii Europejskiej 32,7 proc. osób w wieku 16–74 lat korzystało z narzędzi generatywnej sztucznej inteligencji - wynika z danych Eurostatu opublikowanych w grudniu br. W Polsce ostatnich trzech miesiącach AI używało 22,7 proc. odbiorców.

Szymon Łukasik, prof. AGH i Dyrektor Ośrodka Badań nad Bezpieczeństwem Sztucznej Inteligencji w NASK wskazał w rozmowie z PAP, że w 2025 r. wzrosła ilość treści szkodliwych i dezinformujących, które są generowane z użyciem sztucznej inteligencji. - Szacunkowo obserwowaliśmy co 6 miesięcy podwojenie liczby tego rodzaju materiałów, to jest znaczny wzrost – zaznaczył ekspert.

Jak dodał, szkodliwe materiały wygenerowane przez AI są coraz lepiej przygotowane i dostosowane do specyfiki języka polskiego. Prof. Łukasik przypomniał, że jeszcze kilka lat temu materiały tworzone przez sztuczną inteligencję były prymitywnymi zlepkami nagranych wypowiedzi osób publicznych, gdzie głos był niezsynchronizowany z ruchem warg. - W tym momencie to są już profesjonalne materiały, często z wypowiedziami, których barwa i dźwięk odpowiada głosowi danej osoby – podkreślił.

Mimo to - zdaniem eksperta - Polacy postrzegają AI raczej jako szansę niż zagrożenie. Perspektywy zastosowań AI, takie jak ocena ryzyka zachorowania na raka czy roboty asystencji dla osób niesamodzielnych, są – według eksperta - wyjątkowo pozytywnie oceniane przez Polaków.

Sztuczna inteligencja w 2025 r. była najczęściej wykorzystywana przez Polaków – jak zaznaczył ekspert – do tworzenia i redagowania tekstów, pomocy w pracy biurowej i administracyjnej, ale także do edukacji, obsługi klienta czy marketingu.

W 2025 r. Polska przyczyniła się również do rozwoju sztucznej inteligencji. Od lutego można korzystać z modelu językowego AI o nazwie PLLuM (Polish Large Language Model), który ma wspierać administrację, biznes i naukę. - Z końcem roku dostaniemy chatbota opartego o model językowy PLLuM w mObywatelu i model Bielik w aplikacji InPostu. To są aplikacje używane przez wiele milionów użytkowników – podkreślił prof. Łukasik. We wtorek wiceminister cyfryzacji Dariusz Standerski ogłosił, że chat bot w mObywatelu będzie dostępny od 31 grudnia.

Z kolei na początku lipca br. Komisja Europejska (KE) przyjęła wstępny wniosek resortu cyfryzacji ws. stworzenia Baltic AI GigaFactory. Projekt łączył Polskę - na pozycji lidera - oraz Litwę, Łotwę, Estonię i Czechy. Założeniem było stworzenie bałtyckiej gigafabryki zaprojektowanej z myślą o wspieraniu rozwoju, trenowaniu i wdrażaniu bardzo dużych modeli AI. Później z projektu wycofała się Estonia i Łotwa, a - jak powiedział PAP wiceminister cyfryzacji Dariusz Standerski - KE miała zmienić perspektywę i ogłosić przetarg europejski na gigafabryki AI, w którym będą mogły w wziąć udział także firmy spoza UE. Wcześniej zasady miały zakładać konkurs, w którym uczestniczyłyby państwa członkowskie wraz z konsorcjami, czyli zainteresowanymi organizacjami biznesowymi i naukowymi.

Standerski zaznaczył, że Polska nie składa broni ws. bałtyckiej gigafabryki. - Dalej będziemy wspierać już nie tylko konsorcjum bałtyckiej gigafabryki, ale wszystkie firmy, które będą chciały zgłosić się do przetargu europejskiego. Jestem umówiony na spotkanie z przedsiębiorcami z konsorcjum, a także z przedstawicielami lokalizacji w Polsce, które zgłosiły się do projektu. Biuro projektowe gigafabryki przy Ministerstwie Cyfryzacji dalej działa. My niczego tutaj nie kończymy, będziemy uczestniczyć w tym procesie – zapewnił wiceszef resortu.

W 2025 roku sztuczna inteligencja przyniosła istotne zmiany także w Albanii. We wrześniu tego roku po raz pierwszy zadebiutowała ona na stanowisku ministerialnym. Albania stała się pierwszym krajem na świecie, który powołał wirtualną ministrę stworzoną przez AI. Delia — bo tak ją nazwano — odpowiada za nadzór nad wszystkimi zamówieniami publicznymi.

W październiku premier Albanii Edi Rama ogłosił, że ministra AI - Delia „jest w ciąży i spodziewa się 83 dzieci”. Jak wyjaśnił mają to być asystenci AI dla poszczególnych członków parlamentu, którzy będą m.in. uczestniczyć w sesjach parlamentarnych, prowadzić dokumentacje i sugerować, jak należy reagować na różne wydarzenia.

Sztuczna inteligencja przyczyniła się również do kontrowersyjnych działań w sieci. W lipcu Grok, czyli model sztucznej inteligencji firmy xAI, generował obraźliwe i dezinformacyjne posty na platformie X (dawny Twitter). Wpisy pojawiały się w odpowiedzi na pytania użytkowników i dotyczyły m.in. premiera Donalda Tuska czy Jana Pawła II.

Z kolei w październiku miliarder Elon Musk ogłosił powstanie Grokipedii, czyli internetowej encyklopedii napędzanej sztuczną inteligencją.

Rok 2025 był również pełen zmian w kontekście regulacji dotyczących AI. Choć Akt o sztucznej inteligencji (AI Act) wszedł w życie 1 sierpnia 2024 r. to w lutym 2025 r. nabrały mocy m.in. przepisy dotyczące systemów AI, które są w UE zakazane. Chodzi o to, że od tamtego czasu w Unii Europejskiej nieakceptowalne są systemy AI manipulacji poznawczo-behawioralnej, punktacji społecznej oraz predykcyjne działania policyjne oparte na profilowaniu.

Prof. Łukasik wyróżnił również kilka możliwych trendów dotyczących tego, jak może być postrzegana sztuczna inteligencja przez odbiorców w 2026 r.

Pierwszy z nich – jak mówił – sprawi, że sztuczna inteligencja przestanie być nowinką i stanie się standardem, który wspiera internautów w codziennych czynnościach. - „Hype” na sztuczną inteligencję trochę osłabnie - podkreślił.

Zdaniem eksperta zaczniemy się też bardziej skupiać na tematach etyki i praw autorskich. Podkreślił, że wzrośnie potrzeba regulacji, które będą wymagały od platform lub użytkowników oznaczania treści wygenerowanych przez sztuczną inteligencję, zwłaszcza w kontekście rozwoju materiałów typu audio-video.

- Będzie na pewno nacisk na małe modele, które są w stanie rozwiązywać pewne problemy szybko, bez wysyłania danych do zewnętrznych dostawców – podkreślił podając jako przykład polskie modele PLLuM i Bielik.

Dyrektor Ośrodka Badań nad Bezpieczeństwem Sztucznej Inteligencji w NASK zaznaczył, że aby zweryfikować samemu dezinformację, bardzo ważny jest rozwój umiejętności krytycznego myślenia, weryfikowania źródeł i sprawdzania skąd dana informacja pochodzi. Dodał, że materiały dezinformacyjne w polskiej cyberprzestrzeni cechuję większa liczba błędów językowych.

- Materiały dezinformujące wygenerowane z użyciem sztucznej inteligencji bardzo często mają większą liczbę tych błędów niż treści autentyczne, które normalnie obserwujemy w internecie – wyjaśnił ekspert. Zaznaczył, że z takimi mechanizmami można się spotkać np. w reklamach i przekazach społeczno-politycznych.

Weronika Moszpańska (PAP)

wm/ agg/ bst/ amac/

Fundacja PAP zezwala na bezpłatny przedruk artykułów z Serwisu Nauka w Polsce pod warunkiem mailowego poinformowania nas raz w miesiącu o fakcie korzystania z serwisu oraz podania źródła artykułu. W portalach i serwisach internetowych prosimy o zamieszczenie podlinkowanego adresu: Źródło: naukawpolsce.pl, a w czasopismach adnotacji: Źródło: Serwis Nauka w Polsce - naukawpolsce.pl. Powyższe zezwolenie nie dotyczy: informacji z kategorii "Świat" oraz wszelkich fotografii i materiałów wideo.

Czytaj także

  • Fot. Adobe Stock

    Powstanie polska stacja naziemna do kwantowej łączności z satelitami

  • 07.10.2025. Dyrektor Centrum Wiarygodnej Sztucznej Inteligencji Przemysław Biecek. PAP/Paweł Supernak

    Ekspert: AI hakuje nasz system myślenia, żeby nas do czegoś przekonać

Przed dodaniem komentarza prosimy o zapoznanie z Regulaminem forum serwisu Nauka w Polsce.

newsletter

Zapraszamy do zapisania się do naszego newslettera