ChatGPT nie może być użyty jako narzędzie diagnostyczne w medycynie, bo w ponad połowie przypadków się myli – podsumowali kanadyjscy naukowcy z Uniwersytetu Zachodniego Ontario po przetestowaniu modelu na przypadkach pacjentów. ChatGPT umie jednak pisać czytelne odpowiedzi.
Na razie naukowcy są jak stażyści, którzy czasem się mylą. Czy AI będzie kiedyś mądrzejsze niż naukowcy - nie wiadomo, ale wiadomo, że naukowcy będą mądrzejsi z wykorzystaniem AI niż bez niej - uważa prof. Aleksander Mądry.
Jakub Pachocki obejmie stanowisko głównego naukowca w firmie OpenAI specjalizującej się w dziedzinie sztucznej inteligencji. Polak był odpowiedzialny m.in. za stworzenie modelu GPT-4.
Nawet najbardziej wyrafinowane algorytmy i technologie nie mogą diagnozować i leczyć chorób bez udziału człowieka - stwierdzili naukowcy z Collegium Medicum UMK, po tym, jak w zaprojektowanym przez nich badaniu ChatGPT „oblał” egzamin z interny.
Sztuczna inteligencja oszukiwała i wykorzystywała niedozwolone poufne informacje, żeby zarabiać dla fikcyjnej instytucji finansowej. Podobnie jak ludzie, ChatGPT w „stresie” kłamie częściej.
Polski wielki model językowy PLLuM, wytrenowany na treściach głównie polskojęzycznych, oraz oparty na nim inteligentny asystent - powstaną w ramach współpracy sześciu polskich jednostek naukowych. “Nie stać nas na to, by zostawać w tyle”- komentują przedstawiciele projektu.
ChatGPT w przyszłości może być rzetelnym źródłem informacji, ale na razie części podawanych przez niego informacji nie można ufać - wynika z "testu", jaki przeprowadził naukowiec z PAN. Zwraca on uwagę na potrzebę lepszej kontroli procesu trenowania chatbota.
Polscy badacze opracowali duży model językowy LongLLaMA, oparty na oprogramowaniu OpenLLaMA, stworzonym przez Meta. Jest on dostępny dla każdego w internecie.
Osoby-firmy dysponujące takimi siłami obliczeniowymi mogą kontrolować całe społeczeństwa. To się już dzieje w Chinach, na Zachodzie korporacje także to już wykorzystują – żeby wciskać ludziom towary, żeby modelować zachowania wyborcze, co oznacza koniec demokracji, jaką znamy - powiedział PAP Andrzej Kisielewicz z Politechniki Wrocławskiej
Google daje wyniki bardziej aktualne, a ChatGPT bardziej obiektywne w przypadku zapytań dotyczących choroby Alzheimera i innych form demencji - wykazało badanie opisane na łamach „Journal of Medical Internet Research”.