Sztuczna inteligencja oszukiwała i wykorzystywała niedozwolone poufne informacje, żeby zarabiać dla fikcyjnej instytucji finansowej. Podobnie jak ludzie, ChatGPT w „stresie” kłamie częściej.
Polski wielki model językowy PLLuM, wytrenowany na treściach głównie polskojęzycznych, oraz oparty na nim inteligentny asystent - powstaną w ramach współpracy sześciu polskich jednostek naukowych. “Nie stać nas na to, by zostawać w tyle”- komentują przedstawiciele projektu.
ChatGPT w przyszłości może być rzetelnym źródłem informacji, ale na razie części podawanych przez niego informacji nie można ufać - wynika z "testu", jaki przeprowadził naukowiec z PAN. Zwraca on uwagę na potrzebę lepszej kontroli procesu trenowania chatbota.
Polscy badacze opracowali duży model językowy LongLLaMA, oparty na oprogramowaniu OpenLLaMA, stworzonym przez Meta. Jest on dostępny dla każdego w internecie.
Osoby-firmy dysponujące takimi siłami obliczeniowymi mogą kontrolować całe społeczeństwa. To się już dzieje w Chinach, na Zachodzie korporacje także to już wykorzystują – żeby wciskać ludziom towary, żeby modelować zachowania wyborcze, co oznacza koniec demokracji, jaką znamy - powiedział PAP Andrzej Kisielewicz z Politechniki Wrocławskiej
Google daje wyniki bardziej aktualne, a ChatGPT bardziej obiektywne w przypadku zapytań dotyczących choroby Alzheimera i innych form demencji - wykazało badanie opisane na łamach „Journal of Medical Internet Research”.
Najpopularniejszy chatbot wykorzystujący sztuczną inteligencję, ChatGPT ma wyraźne skłonności lewicowe – ocenili naukowcy brytyjscy i brazylijscy w swoich badaniach. Informację na ten temat publikuje czasopismo „Public Choice”.