Naukowiec korzystający ze sztucznej inteligencji powinien zaznaczyć to w swojej pracy i określić procentowy udział takiej pomocy. Odpowiedzialność za dopilnowanie, czy narzędzia AI nie konfabulują, spoczywa także na promotorze - wynika z uchwały podjętej na Śląskim Uniwersytecie Medycznym.
Studenci z kolei nie mogą korzystać z pomocy systemów informatycznych do generowania odpowiedzi na egzaminach - zdecydowano.
Oparte na sztucznej inteligencji generatory tekstu, obrazu, dźwięku i wideo można wykorzystywać w badaniach i publikacjach oraz w dydaktyce, ale pod pewnymi warunkami. Śląski Uniwersytet Medyczny w Katowicach wydał w tej sprawie rekomendacje dla swoich wykładowców, studentów i doktorantów.
Rada Dziedziny Naukowej Śląskiego Uniwersytetu Medycznego w Katowicach w uchwale zawierającej rekomendacje przyznała, że obecnie nieuzasadnione i praktycznie niemożliwe jest zabranianie korzystania z pomocy takich systemów w celu przygotowania zarówno projektu badawczego, jak i publikacji naukowych.
Zaznaczyła jednak, że systemy informatyczne mogą przedstawić informacje całkowicie błędne lub co najmniej nieadekwatne. Dlatego studentom i badaczom zalecono rzetelne sprawdzenie, czy informacje przedstawione przez systemy informatyczne wykorzystujące mechanizmy sztucznej inteligencji - ChatGPT 3,5; 4,0 i nowsze (Open AI, Microsoft), LaMDA (Google), a także inne, które pojawią się w przyszłości - są zgodne z aktualnym stanem wiedzy.
"Należy pamiętać, że obecnie wskazane systemy nie są w stanie ocenić, które informacje są prawdziwe, a które fałszywe, ani wybrać najlepszej i najbardziej właściwej metody badawczej do przygotowywanego projektu lub opracowania naukowego" - podkreślono w dokumencie.
Badacze powinni również sprawdzać, czy materiały źródłowe, z których korzystano w systemie informatycznym do przygotowania projektu lub artykułu naukowego, są z nim tematycznie związane. Zalecono też ostrożność przed popełnieniem plagiatu i wykorzystanie programów antyplagiatowych.
Naukowcy zrzeszeni w Radzie stwierdzili, że pomoc sztucznej inteligencji powinna ograniczać się do tworzenia struktury pracy, generowania treści, przeszukiwania piśmiennictwa, edycji i korekty tekstu, w tym korekty języka obcego. Autor artykułu powinien podać informację o korzystaniu z takiej pomocy na początku opracowanego dokumentu (projektu lub opracowania naukowego) i określić procentowo stopień wykorzystania sztucznej inteligencji.
Odpowiedzialność za sposób korzystania z systemów informatycznych wykorzystujących sztuczną inteligencję w przygotowaniu prac dyplomowych (licencjackich, magisterskich, doktorskich) spoczywa również na promotorze pracy. Narzędzia AI można karmić informacjami wyłącznie w zgodzie z zasadami przetwarzania i ochrony danych osobowych. Korzystanie z pomocy sztucznej inteligencji powinno być zawsze oparte na uczciwości, rzetelności i transparentności.
Nauczyciele akademiccy powinni stosować te same rekomendacje m.in. przy tworzeniu skryptów czy prezentacji multimedialnych. Tak przygotowane materiały dydaktyczne powinny być systematycznie i często aktualizowane, ze względu na bardzo szybki rozwój wiedzy, a także postęp w usprawnianiu narzędzi sztucznej inteligencji.
Studenci mają jedno zasadnicze ograniczenie. Nie wolno korzystać z pomocy systemów informatycznych do generowania odpowiedzi zarówno podczas egzaminów testowych, jak i prowadzonych przed komisją egzaminacyjną.
Nauka w Polsce
kol/ bar/
Fundacja PAP zezwala na bezpłatny przedruk artykułów z Serwisu Nauka w Polsce pod warunkiem mailowego poinformowania nas raz w miesiącu o fakcie korzystania z serwisu oraz podania źródła artykułu. W portalach i serwisach internetowych prosimy o zamieszczenie podlinkowanego adresu: Źródło: naukawpolsce.pl, a w czasopismach adnotacji: Źródło: Serwis Nauka w Polsce - naukawpolsce.pl. Powyższe zezwolenie nie dotyczy: informacji z kategorii "Świat" oraz wszelkich fotografii i materiałów wideo.