W Warszawie zainaugurowano działalność fundacji Connecting the Future, której celem jest stworzenie ekosystemu wspierającego rozwój sztucznej inteligencji (AI). Organizacja ma integrować środowiska naukowe, biznesowe i sektor publiczny.
Już kilka sekund próbki wystarczy, by z pomocą AI stworzyć kopię czyjegoś głosu. Co więcej, w hałaśliwym otoczeniu to kopie są łatwiejsze do zrozumienia. Naukowcy nie są pewni, dlaczego takie głosy są tak dobrze zrozumiałe.
Powstał nanotechnologiczny układ, który ma znacząco obniżyć energetyczne wymagania systemów sztucznej inteligencji. Procesor naśladuje pracę mózgu.
Naukowcy z Tohoku University opracowali system AI, który na podstawie pojedynczego zdjęcia dna oka szacuje biologiczny wiek siatkówki – wskaźnik odzwierciedlający starzenie się danej osoby.
Modele sztucznej inteligencji potrafią kodować swoje preferencje i cechy w pozornie przypadkowych ciągach danych, przekazując je kolejnym systemom w procesie tzw. destylacji. Naukowcy zaobserwowali np. jak system – w pozornie losowym ciągu liczb – koduje swoje preferencje, dotyczące... sympatii do sów - które następnie przejął kolejny model szkolony na tych danych.
Deepfake’i, halucynacje i algorytmy, które „zgadują” zamiast rozumieć. Zdaniem dr. inż. Tomasza Wesołowskiego, informatyka z UŚ, największym zagrożeniem nie jest bunt sztucznej inteligencji, lecz to, że ludzie bezkrytycznie jej ufają i przestają samodzielnie myśleć.
Uniwersytet Rzeszowski otworzył Laboratorium Sztucznej Inteligencji (AILAB), w którym lokalne firmy będą mogły bezpiecznie tworzyć własne algorytmy bez przesyłania danych do zagranicznych chmur. Nowe zaplecze ma połączyć świat nauki z potrzebami gospodarki i przygotować studentów do pracy na startującym niebawem kierunku studiów.
Polacy są przekonani, że negatywne skutki rozwoju sztucznej inteligencji dla życia zawodowego i prywatnego z większym prawdopodobieństwem dotkną innych ludzi niż ich samych i ich bliskich - wynika z raportu Centrum Badań nad Relacjami Społecznymi Uniwersytetu SWPS.
Nowo powołane Interdyscyplinarne Laboratorium Zastosowań Sztucznej Inteligencji na Uniwersytecie Gdańskim ma m.in. łączyć różne dziedziny nauki wokół praktycznych zastosowań AI – zapowiedział jego szef, dr Jakub Neumann, prof. UG. Jego zdaniem AI stanowi ogromną szansę na rozwój.
Badacze zauważyli, że modele AI różnych firm – uczone pisania „dziurawego” kodu – pokazywały swoją „toksyczną” stronę osobowości w innych, niezwiązanych z kodowaniem zadaniach. Działo się to w różnych systemach, ale pojawiało się dopiero przy pewnym stopniu zaawansowania modelu. – „Zło”, chociaż jest w modelach AI ukryte głęboko, wyłazi czasami bokiem – uważa dr Anna Sztyber-Betley z Politechniki Warszawskiej.