9 marca 2023

Czy ChatGPT może być autorem akademickim? Niektórzy już przywołują  chatbota w opracowaniach naukowych

(GS/PCh24.pl)

Czy program komputerowy chatbot, który symuluje i przetwarza ludzką rozmowę, umożliwiając ludziom interakcję z urządzeniami cyfrowymi np. ChatGPT może być autorem akademickim? – zastanawia się Dany Kingslay z Social Science Space. Autorka zauważa, że najnowsza dyskusja nad chatbotem, który szturmem podbija świat, skupiła się na ryzyku wykorzystywania go przez uczniów w celu pisania wypracowań. Powstaje także pytanie, czy ChatGPT można uznać za autora akademickiego?

Chodzi o to, że zdarzyło się już, iż w publikowanych artykułach naukowych wymieniano ChatGPT jako autora np. w artykule pt. „Open artificial intelligence platforms in nursing education: Tools for academic progress or abuse?” opublikowanym w czasopiśmie „Nurse Education in Practice”.

„W zeszłym roku niektórzy badacze próbowali również wymienić GPT-3 jako autora w artykule, który o sobie napisał, ale mieli problem z podaniem numeru telefonu i adresu e-mail „autora”, musieli zapytać GPT-3, czy ma konflikt interesów” – pisze Kingslay.

Wesprzyj nas już teraz!

Kwestia autorstwa tekstów przygotowanych przez tak zwaną sztuczną inteligencję ma „zaprzątać głowy komercyjnych wydawców akademickich”. W zeszłym tygodniu czasopisma „Science” i „Nature” wydały oświadczenia w sprawie wykorzystania artykułów generowanych przez ChatGPT.

Redakcja „Science” uaktualniła wytyczne i podała, że „tekst generowany przez ChatGPT (lub jakiekolwiek inne narzędzia AI) nie może być używany w pracy, ani też rysunki, obrazy lub grafika nie mogą być produktami takich narzędzi”.

„Nature” zaś zaznaczyło, że „Żadne narzędzie LLM (duże modele językowe) nie zostaną zaakceptowane jako uznany autor w artykule naukowym. Dzieje się tak dlatego, że każde przypisanie autorstwa pociąga za sobą odpowiedzialność za pracę, a narzędzia AI nie mogą wziąć na siebie takiej odpowiedzialności”.

Dodano, że „Naukowcy korzystający z narzędzi LLM powinni udokumentować to użycie w sekcjach dotyczących metod lub podziękowań. Jeśli artykuł nie zawiera tych sekcji, wprowadzenie lub inna odpowiednia sekcja może być wykorzystana do udokumentowania użycia LLM”.

Kingslay przypomina, że autorzy artykułów naukowych nie otrzymują wynagrodzenia za publikowanie artykułów, lecz są „nagradzani poprzez pomyślnie rozpatrzone wnioski o dotację lub promocję za to, ile razy są wymienieni jako autorzy w artykule naukowym (a zwłaszcza jeśli artykuł jest opublikowany w prestiżowym czasopiśmie)”.

Dodaje, że „w świecie akademickim autorstwo niekoniecznie oznacza, że ​​faktycznie „napisano” artykuł – ale w idealnym przypadku powinno ono odzwierciedlać autentyczne zaangażowanie w proces badawczy”. Uczony wymieniony w artykule naukowym ponosi odpowiedzialność za treść artykułu.

Rodzi się więc pytanie: czy narzędzie sztucznej inteligencji może ponosić odpowiedzialność za generowane treści? W jaki sposób można byłoby wyegzekwować odpowiedzialność za rekomendowanie zastosowania rozwiązań na przykład w medycynie, które byłyby błędne i doprowadziły do śmierci ludzi?

„Należy również wziąć pod uwagę kolejność autorów. W większości dziedzin badań pierwszy wymieniony autor jest uważany za głównego autora. Inne dyscypliny mają własne systemy potwierdzeń, które mogą obejmować listę alfabetyczną. Jednak ChatGPT nie czerpie żadnych korzyści zawodowych z autorstwa, więc gdzie ten wkład byłby umieszczony?” – zastanawia się Kingslay.

Zwraca ona uwagę także na kwestie praw autorskich. Komercyjne publikacje akademickie przynoszą bowiem duże wpływy wydawcom, którym autorzy przekazują prawa autorskie. W związku z tym powstaje pytanie, czy „sztuczna inteligencja” może „posiadać” prawa autorskie? Powszechnie przyjmuje się, że jedynie człowiek jest w stanie stworzyć dzieło.

W USA dyskutowano już nad tym, czy małpa, która zrobiła sobie selfie może posiadać prawa autorskie. Uznano, że jednak nie może.

Autorka uważa, że mimo tych problemów, świat akademicki powinien korzystać z nowego narzędzia „sztucznej inteligencji”. Potrzebuje jedynie wytycznych, w jaki sposób to robić.

Sugeruje także, że zamiast na przykład oceniać wypracowanie ucznia w szkole, nauczyciele powinni się skupić na „ocenianiu uczniów za pokazanie swojej pracy”.

Podobnie można byłoby zrobić w świecie akademickim, gdzie „każdy aspekt badań jest udostępniany publicznie, z uznaniem twórcy, w tym ChatGPT. Nie tylko zwiększyłoby to przejrzystość, ale także zmniejszyłoby nadmierne poleganie na autorstwie jako podstawowym mechanizmie wynagradzania badaczy”.

Przypomina, że od dawna istnieje koncepcja, by pod artykułem naukowym umieszczać nazwiska nie tylko badaczy, którzy się przyczynili do jego powstania, ale także inne osoby ze względu na ich renomę (tzw. honorowe autorstwa, które pozwalają zwiększyć szanse na cytowalność pracy). Ta swoista presja jest wywierana na młodych doktorantów i początkujących naukowców.

Ma miejsce także zjawisko zamiany wynagrodzenia za autorstwo artykułu. Jego wartość jest uzależniona od miejsca publikacji i obszaru badawczego.

ChatGPT ma być swoistym „dzwonkiem alarmowym” dla akademików, aby przyjrzeli się, jak naprawić sytuację w swoim środowisku w związku z „grantozą”.

 

Źródło: socialsciencespace.com

AS

 

https://pch24.pl/nie-dosc-ze-sztuczna-to-uparta-i-w-tkwi-bledzie-chatgpt-nie-taki-inteligentny/?swcfpc=1

https://pch24.pl/czlowiek-czy-robot/?swcfpc=1

Wesprzyj nas!

Będziemy mogli trwać w naszej walce o Prawdę wyłącznie wtedy, jeśli Państwo – nasi widzowie i Darczyńcy – będą tego chcieli. Dlatego oddając w Państwa ręce nasze publikacje, prosimy o wsparcie misji naszych mediów.

Udostępnij
Komentarze(3)

Dodaj komentarz

Anuluj pisanie

Udostępnij przez

Cel na 2024 rok

Bez Państwa pomocy nie uratujemy Polski przed planami antykatolickiego rządu! Wesprzyj nas w tej walce!

mamy: 156 680 zł cel: 300 000 zł
52%
wybierz kwotę:
Wspieram