Symulacje ruchu atomów należą do podstawowych narzędzi współczesnej chemii, fizyki i nauki o materiałach. Są jednak bardzo kosztowne obliczeniowo: komputer musi śledzić zmiany położenia atomów krok po kroku, a tych kroków bywają miliony. Nowy model sztucznej inteligencji znacząco poprawia efektywność takich symulacji, przewidując od razu, jak będzie wyglądał cały fragment ruchu cząsteczek.
Modele generatywnej sztucznej inteligencji mogą wspierać proces uczenia się, ale ich niewłaściwe użycie może prowadzić do osłabienia zdolności samodzielnego myślenia i rozwoju wiedzy – oceniła w rozmowie z PAP dr hab. Joanna Mytnik, prof. Politechniki Gdańskiej i szefowa Centrum Nowoczesnej Edukacji.
Dlaczego duże modele językowe udzielają czasem błędnych, szkodliwych lub agresywnych odpowiedzi? Nawet ich bardzo wąskie i pozornie kontrolowane modyfikacje mogą prowadzić do nieprzewidzianych skutków ubocznych - wynika z publikacji w Nature. Jedną z jej autorek jest badaczka Politechniki Warszawskiej.
Istnieje kilka mechanizmów, które pozwalają twórcom modeli AI cenzurować odpowiedzi udzielane użytkownikom. Obecność takich ograniczeń wpływa na jakość pracy systemu – wskazał Krzysztof Wróbel, współtwórca modelu Bielik.
Modele AI uczą się hakować nasz system myślenia, żeby nas do czegoś przekonać; są też tak skonstruowane, żeby ich odpowiedzi sprawiały wrażenie poprawnych - mówi PAP dyrektor Centrum Wiarygodnej Sztucznej Inteligencji prof. Przemysław Biecek.
Naukowcy z trzech gdańskich ośrodków pracują nad rozwiązaniem, które może radykalnie zwiększyć szanse na wykrycie tętniaka mózgu, zanim dojdzie do jego pęknięcia i krwotoku. Kluczową rolę odgrywa tu sztuczna inteligencja analizująca dane kliniczne – podał rzecznik Politechniki Gdańskiej.
Zespół informatyków z udziałem dwóch Polaków znalazł sposób na skokowe zwiększenie głębokości sieci neuronowych - z kilku do aż tysiąca warstw - w modelach AI uczenia ze wzmocnieniem (RL). Pracę informatyków - w tym dwóch Polaków - nagrodzono na prestiżowej konferencji naukowej NeurIPS o AI.
Media obiegła niedawno wiadomość, że „język polski jest najlepszy do promptowania”. To nie jest wniosek z naszych badań – dementuje Marzena Karpińska z Microsoft, współautorka pracy, z której polskie media zbyt pochopnie wyciągnęły taki wniosek.
Ludzie mogą lepiej zrozumieć decyzje podejmowane przez sztuczną inteligencję. Narzędzie, które to umożliwia - system LogosXAI - rozwija w Polsce prof. Krzysztof Michalik z Uniwersytetu WSB Merito.
Wiersze tworzone przez sztuczną inteligencję oceniamy jako mniej oryginalne i mniej angażujące emocjonalnie niż tworzone przez człowieka. Wydają się za to trudniejsze w interpretacji - pokazało badanie przeprowadzone na Uniwersytecie im. A. Mickiewicza w Poznaniu.