Naukowcy, wydawcy i bibliotekarze w nowej grze z ChatGPT i generatywną sztuczną inteligencją

Abstract

Artykuł przedstawia krajobraz publikowania naukowego w kontekście masowego udostępnienia bota ChatGTP oraz innych narzędzi generatywnej sztucznej inteligencji. Celem pracy jest przybliżenie kwestii problematycznych, które pojawiły się w wyniku rozwoju i powszechności stosowania narzędzi GAI, co wiąże się z poważnymi konsekwencjami w zakresie integralności nauki, rzetelności i etyki naukowej czy kwestii wydawniczych, z którymi mierzy się obecnie całe środowisko naukowe. Brak dotąd ogólnie obowiązujących i przyjętych zasad w zakresie stosowania GAI w badaniach i publikowaniu naukowym. W artykule zaprezentowano przykłady obrazujące ogromną skalę zjawiska. Odpowiedzialne korzystanie z narzędzi GAI będzie miało wpływ na przyszłość nauki, dlatego obecnie najważniejszą kwestią pozostaje zdefiniowanie i ustalenie dopuszczalnych granic stosowania narzędzi generatywnej sztucznej inteligencji oraz jak najszybsze przyjęcie jednolitej polityki w tym zakresie na możliwie najwyższym szczeblu regulacyjnym.

References

AI is no substitute for having something to say (2024). Nature Reviews Physics [online]. Vol. 6, s. 151. [Dostęp 15.04.2024]. Dostępny w: https://doi.org/10.1038/s42254-024-00713-4.

ALTMAN, S. (2023). ChatGPT is incredibly limited... W: Twitter [online]. [Dostęp 15.04.2024]. Dostępny w: https://twitter.com/sama/status/1601731295792414720.

Authorship and AI tools. COPE position statement (2023). W: Committee on Publication Ethics [online]. [Dostęp 15.04.2024]. Dostępny w: https://publicationethics.org/cope-position-statements/ai-author.

BAYTAS, C., RUEDIGER, D. (2024a). Generative AI in Higher Education. The Product Landscape. W: Ithaka S+R [online]. [Dostęp 15.04.2024]. Dostępny w: https://doi.org/10.18665/sr.320394.

BAYTAS, C., RUEDIGER, D. (2024b). Keeping Up with the Educational Market for Generative AI Tools. Announcing Ithaka S+R’s Product Tracking Tool. W: Ithaka S+R [online]. [Dostęp 15.04.2024]. Dostępny w: https://sr.ithaka.org/blog/keeping-up-with-the-educational-market-for-generative-ai-tools/.

BERGSTROM, T., RIEGER, O.Y., SCHONFELD, R.C. (2024). The Second Digital Transformation of Scholarly Publishing: Strategic Context and Shared Infrastructure. W: Ithaka S+R [online]. [Dostęp 15.04.2024]. Dostępny w: https://doi.org/10.18665/sr.320210.

BHATTACHARYYA, M. i in. (2023). High Rates of Fabricated and Inaccurate References in ChatGPT-Generated Medical Content. Cureus [online]. May 19, 2023. [Dostęp 15.04.2024]. Dostępny w: https://doi.org/10.7759/cureus.39238.

BROWN, T.B. i in. (2020). Language Models are Few-Shot Learners [preprint]. W: arXiv [online]. [Dostęp 15.04.2024]. Dostępny w: https://doi.org/10.48550/arXiv.2005.14165.

BULLINGHAM, L. (2023). This just blew my mind… W: X [online]. [Dostęp 15.04.2024]. Dostępny w: https://twitter.com/liamealbee/status/1648628988149919745?s=11&t=8mqnGJJaOVP9VIVREJ9s0w.

BURKE, K. (2023). „Biggest act of copyright theft in history”: thousands of Australian books allegedly used to train AI model. The Guardian [online]. September 28, 2023. [Dostęp 15.04.2024]. Dostępny w: https://www.theguardian.com/australia-news/2023/sep/28/australian-books-training-ai-books3-stolen-pirated.

CHOI, C., ANNIO, F. (2024). The winner of a prestigious Japanese literary award has confirmed AI helped write her book. W: CNN Style [online]. [Dostęp 15.04.2024]. Dostępny w: https://edition.cnn.com/2024/01/19/style/rie-kudan-akutagawa-prize-chatgpt/index.html.

COFFEY, L. (2023). AI, the Next Chapter for College Librarians. W: Inside Higher Education [online]. November 3, 2023. [Dostęp 15.04.2024]. Dostępny w: https://www.insidehighered.com/news/tech-innovation/libraries/2023/11/03/ai-marks-next-chapter-college-librarians.

COPE i STM (2022). Paper Mills – Research report from COPE & STM. W: Committee on Publication Ethics [online]. [Dostęp 15.04.2024]. Dostępny w: https://doi.org/10.24318/jtbG8IHL.

CRAWFORD, K. (2023). ChatGPT strikes again… W: Twitter [online]. [Dostęp 15.04.2024]. Dostępny w: https://twitter.com/katecrawford/status/1643323086450700288.

CREAMER, E. (2023a). Amazon removes books ‘generated by AI’ for sale under author’s name. The Guardian [online]. August 9, 2023. [Dostęp 15.04.2024]. Dostępny w: https://www.theguardian.com/books/2023/aug/09/amazon-removes-books-generated-by-ai-for-sale-under-authors-name.

CREAMER, E. (2023b). Amazon restricts authors from self-publishing more than three books a day after AI concerns. The Guardian [online]. September 20, 2023. [Dostęp 15.04.2024]. Dostępny w: https://www.theguardian.com/books/2023/sep/20/amazon-restricts-authors-from-self-publishing-more-than-three-books-a-day-after-ai-concerns.

CUTHBERTSON, A. (2023). Hundreds of AI-written books flood Amazon. W: Independent [online]. [Dostęp 15.04.2024]. Dostępny w: https://www.independent.co.uk/tech/ai-author-books-amazon-chatgpt-b2287111.html.

DAVIS, P. (2023). Did ChatGPT Just Lie To Me? W: The Scholarly Kitchen [online]. [Dostęp 15.04.2024]. Dostępny w: https://scholarlykitchen.sspnet.org/2023/01/13/did-chatgpt-just-lie-to-me/.

Diagramy COPE (2015). Tłum. Rozkosz, E., Ufnalska, S. W: Committee on Publication Ethics [online]. [Dostęp 15.04.2024]. Dostępny w: https://doi.org/10.24318/cope.2019.2.36.

DIANATI, S., LAUDARI, S. (2023). ChatGPT and generative AI: 25 applications to support research. W: Times Higher Education [online]. [Dostęp 15.04.2024]. Dostępny w: https://www.timeshighereducation.com/campus/chatgpt-and-generative-ai-25-applications-support-research.

ELALI, F.R., RACHID, L.N. (2023). AI-generated research paper fabrication and plagiarism in the scientific community. Patterns [online]. Nr 4(3): 100706. [Dostęp 15.04.2024]. Dostępny w: https://doi.org/10.1016/j.patter.2023.100706.

ELSE, H. (2023). Abstracts written by ChatGPT fool scientists. Nature [online]. Nr 613, s. 423. [Dostęp 15.04.2024]. Dostępny w: https://doi.org/10.1038/d41586-023-00056-7.

EMSLEY, R. (2023). ChatGPT: these are not hallucinations – they’re fabrications and falsifications. Schizophrenia [online]. Vol. 9: 52. [Dostęp 15.04.2024]. Dostępny w: https://doi.org/10.1038/s41537-023-00379-4.

FLANAGIN, A. (2023). Nonhuman “Authors” and Implications for the Integrity of Scientific Publication and Medical Knowledge. JAMA [online]. Nr 329(8), s. 637-639. [Dostęp 15.04.2024]. Dostępny w: https://doi.org/10.1001/jama.2023.1344.

GARREL von, J., MAYER, J. (2023). Artificial Intelligence in studies – use of ChatGPT and AI-based tools among students in Germany. Humanities and Social Sciences Communications [online]. Nr 10: 799. [Dostęp 15.04.2024]. Dostępny w: https://doi.org/10.1057/s41599-023-02304-7.

Google zwolni 12 tys. pracowników. „Zatrudnialiśmy z myślą o innej rzeczywistości gospodarczej” (2023). W: WirtualneMedia.pl [online]. [Dostęp 15.04.2024]. Dostępny w: https://www.wirtualnemedia.pl/artykul/google-zwolnienia-grupowe-12-tys-pracownikow-kryzys.

GÓRECKI, D. (2023). Aż jeden na pięć artykułów naukowych to oszustwo. Chiny liderem. W: GeekWeek [online]. [Dostęp 15.04.2024]. Dostępny w: https://geekweek.interia.pl/nauka/news-az-jeden-na-piec-artykulow-naukowych-to-oszustwo-chiny-lider,nId,6778944#google_vignette.

GREJNER, A., ADAMCZAK, M., JANKOWIAK-KONIK, B. (2024). Stanowisko i rekomendacje Stowarzyszenia Wydawców Szkół Wyższych w kwestii stosowania narzędzi generatywnej sztucznej inteligencji (GAI) w pisaniu prac naukowych. Biuletyn EBIB [online]. Nr 2(213). [Dostęp 22.05.2024]. Dostępny w: https://ebibojs.pl/index.php/ebib/article/view/911.

GROVE, J. (2023). Will ChatGPT Transform Research? It Already Has, Say Nobelists. W: Times Higher Education [online]. [Dostęp 15.04.2024]. Dostępny w: https://www.insidehighered.com/news/global/2023/09/22/nobel-prize-winners-say-chatgpt-has-already-transformed-research.

GRYNBAUM, M.M., MAC, R. (2023). The Times Sues OpenAI and Microsoft Over A.I. Use of Copyrighted Work. The New York Times [online]. December 27, 2023. [Dostęp 15.04.2024]. Dostępny w: https://www.nytimes.com/2023/12/27/business/media/new-york-times-open-ai-microsoft-lawsuit.html.

GUARINO, B. (2024). Elon Musk’s Neuralink Has Implanted Its First Chip in a Human Brain. What’s Next? W: Scientific American [online]. [Dostęp 15.04.2024]. Dostępny w: https://www.scientificamerican.com/article/elon-musks-neuralink-has-implanted-its-first-chip-in-a-human-brain-whats-next/.

HU, K. (2023). ChatGPT sets record for fastest-growing user base – analyst note. W: Reuters [online]. [Dostęp 15.04.2024]. Dostępny w: https://www.reuters.com/technology/chatgpt-sets-record-fastest-growing-user-base-analyst-note-2023-02-01/.

JONES, N. (2023). What the OpenAI drama means for AI progress – and safety. Nature [online]. Nr 623, s. 898-899. [Dostęp 15.04.2024]. Dostępny w: https://doi.org/10.1038/d41586-023-03700-4.

KHALIL, M., ER, E. (2023). Will ChatGPT get you caught? Rethinking of Plagiarism Detection [preprint]. W: EdArXiv [online]. [Dostęp 15.04.2024]. Dostępny w: https://doi.org/10.35542/osf.io/fnh48.

KINCAID, E. (2023). Hindawi reveals process for retracting more than 8,000 paper mill articles. W: Retraction Watch [online]. [Dostęp 15.04.2024]. Dostępny w: https://retractionwatch.com/2023/12/19/hindawi-reveals-process-for-retracting-more-than-8000-paper-mill-articles/.

KINDLE DIRECT PUBLISHING (2023a). Content Guidelines. W: Kindle Direct Publishing [online]. [Dostęp 15.04.2024]. Dostępny w: https://kdp.amazon.com/en_US/help/topic/G200672390.

KINDLE DIRECT PUBLISHING (2023b). Addition of AI Questions to KDP Publishing Process. W: Kindle Direct Publishing Support Forum [online]. [Dostęp 15.04.2024]. Dostępny w: https://www.kdpcommunity.com/s/article/Addition-of-AI-Questions-to-KDP-Publishing-Process?language=en_US.

KINDLE DIRECT PUBLISHING (2023c). Update on KDP Title Creation Limits. W: Kindle Direct Publishing Support Forum [online]. [Dostęp 15.04.2024]. Dostępny w: https://www.kdpcommunity.com/s/article/Update-on-KDP-Title-Creation-Limits?language=en_US&forum=KDP%20Forum.

KING, M.R., ChatGPT (2023). A Conversation on Artificial Intelligence, Chatbots, and Plagiarism in Higher Education. Cellular and Molecular Bioengineering [online]. Vol. 16, s. 1-2. [Dostęp 15.04.2024]. Dostępny w: https://doi.org/10.1007/s12195-022-00754-8.

KRÜGER, L. i in. (2023). OpenAI’s Generative Pretrained Transformer 3 (GPT-3) Model. et al. ChatGPT: Fluch oder Segen in der Pflege? Med Klin Intensivmed Notfmed [online]. Vol. 118, s. 534–539. [Dostęp 15.04.2024]. Dostępny w: https://doi.org/10.1007/s00063-023-01038-3.

LIANG, W. i in. (2023). GPT detectors are biased against non-native English writers. Patterns [online]. Vol. 4(7): 100779. [Dostęp 15.04.2024]. Dostępny w: https://doi.org/10.1016/j.patter.2023.100779.

MALMSTRÖM, H., STÖHR, C., OU, A.W. (2023). Chatbots and other AI for learning: A survey of use and views among university students in Sweden [online]. Chalmers University of Technology. [Dostęp 15.04.2024]. Dostępny w: https://research.chalmers.se/publication/535715/file/535715_Fulltext.pdf.

MARSZYCKI, M. (2024). Wyszukiwarka oparta o AI rzuca wyzwanie firmie Google. W: WirtualneMedia.pl [online]. [Dostęp 15.04.2024]. Dostępny w: https://itwiz.pl/wyszukiwarka-oparta-o-ai-rzuca-wyzwanie-firmie-google/.

MCADOO, T. (2023). How to cite ChatGPT [online]. APA Style Blog. [Dostęp 15.04.2024]. Dostępny w: https://apastyle.apa.org/blog/how-to-cite-chatgpt.

MCINTOSH, L.D. (2024). Guest Post: FoSci – The Emerging Field of Forensic Scientometrics. W: The Scholarly Kitchen [online]. [Dostęp 15.04.2024]. Dostępny w: https://scholarlykitchen.sspnet.org/2024/04/02/guest-post-fosci-the-emerging-field-of-forensic-scientometrics/.

METZ, C. (2023). Chatbots May ‘Hallucinate’ More Often Than Many Realize. The New York Times [online]. November 6, 2023. [Dostęp 15.04.2024]. Dostępny w: https://www.nytimes.com/2023/11/06/technology/chatbots-hallucination-rates.html.

More than 15,000 Authors Sign Authors Guild Letter Calling on AI Industry Leaders to Protect Writers (2023). W: The Authors Guild [online]. [Dostęp 15.04.2024]. Dostępny w: https://authorsguild.org/news/thousands-sign-authors-guild-letter-calling-on-ai-industry-leaders-to-protect-writers/.

NARODOWE CENTRUM NAUKI (2016). Kodeks Narodowego Centrum Nauki dotyczący rzetelności badań naukowych i starania o fundusze na badania [online]. [Dostęp 15.04.2024]. Dostępny w: https://www.ncn.gov.pl/sites/default/files/pliki/uchwaly-rady/2016/uchwala39_2016-zal1.pdf.

NORDLING, L. (2023). How ChatGPT is transforming the postdoc experience. Nature [online]. Nr 622, s. 655–657. [Dostęp 15.04.2024]. Dostępny w: https://doi.org/10.1038/d41586-023-03235-8.

O‘BRIEN, A. (2023). How to spot an AI cheater. W: BBC Future Now [online]. [Dostęp 15.04.2024]. Dostępny w: https://www.bbc.com/future/article/20230720-how-to-spot-an-ai-cheater-artificial-intelligence-large-language-models.

O'CONNOR, S. (2023). Corrigendum to “Open artificial intelligence platforms in nursing education: Tools for academic progress or abuse?”. Nurse Education in Practice [online]. Vol. 67, 103572. [Dostęp 15.04.2024]. Dostępny w: https://doi.org/10.1016/j.nepr.2023.103572.

ODRI, G-A., JI YUN YOON, D. (2023). Detecting generative artificial intelligence in scientific articles: Evasion techniques and implications for scientific integrity. Orthopaedics & Traumatology: Surgery & Research [online]. Vol. 109(8): 103706. [Dostęp 15.04.2024]. Dostępny w: https://doi.org/10.1016/j.otsr.2023.103706.

OLCOTT, E. i in. (2023). China’s fake science industry: how ‘paper mills’ threaten progress. W: Financial Times [online]. [Dostęp 15.04.2024]. Dostępny w: https://www.ft.com/content/32440f74-7804-4637-a662-6cdc8f3fba86.

OWENS, B. (2023). How Nature readers are using ChatGPT. Nature [online]. Vol. 615, s. 20. [Dostęp 15.04.2024]. Dostępny w: https://doi.org/10.1038/d41586-023-00500-8.

Papers and peer reviews with evidence of ChatGPT writing (2023). W: Retraction Watch [online]. [Dostęp 15.04.2024]. Dostępny w: https://retractionwatch.com/papers-and-peer-reviews-with-evidence-of-chatgpt-writing/.

Pause Giant AI Experiments: An Open Letter (2023). W: Futureoflife [online]. [Dostęp 15.04.2024]. Dostępny w: https://futureoflife.org/open-letter/pause-giant-ai-experiments/.

PETERSON-WITHORN, C. (2024). Forbes’ 38th Annual World’s Billionaires List: Facts And Figures 2024. Forbes [online]. April 2, 2024. [Dostęp 15.04.2024]. Dostępny w: https://www.forbes.com/sites/chasewithorn/2024/04/02/forbes-38th-annual-worlds-billionaires-list-facts-and-figures-2024/.

QUIROZ, N. (2023). A new profile for librarians brought by AI. W: Sage Publications [online]. [Dostęp 15.04.2024]. Dostępny w: https://group.sagepub.com/blog/a-new-profile-for-librarians-brought-by-ai.

REISNER, A. (2023). These 183,000 Books Are Fueling the Biggest Fight in Publishing and Tech. W: The Atlantic [online]. [Dostęp 15.04.2024]. Dostępny w: https://www.theatlantic.com/technology/archive/2023/09/books3-database-generative-ai-training-copyright-infringement/675363/.

Retraction Watch Leaderboard (2023). W: Retraction Watch [online]. [Dostęp 15.04.2024]. Dostępny w: https://retractionwatch.com/the-retraction-watch-leaderboard/.

ROBINS-EARLY, N. (2024). The Intercept, Raw Story and AlterNet sue OpenAI for copyright infringement. The Guardian [online]. February 28, 2024. [Dostęp 15.04.2024]. Dostępny w: https://www.theguardian.com/technology/2024/feb/28/media-outlets-sue-openai-copyright-infringement.

SHAFFI, S. (2022). Writers’ earnings have plummeted – with women, Black and mixed race authors worst hit. The Guardian [online]. December 6, 2022. [Dostęp 15.04.2024]. Dostępny w: https://www.theguardian.com/books/2022/dec/06/writers-earnings-have-plummeted-with-women-black-and-mixed-race-authors-worst-hit.

SHEWALE, R. (2023). Threads Statistics For 2024 (Everything You Need To Know). W: Demandsage [online]. [Dostęp 15.04.2024]. Dostępny w: https://www.demandsage.com/threads-statistics/.

SINGH, S. (2024). ChatGPT Statistics (April 2024) – Users, Growth & Revenue. W: Demandsage [online]. [Dostęp 15.04.2024]. Dostępny w: https://www.demandsage.com/chatgpt-statistics/.

SKOPELITI, C., MILMO, D. (2023). „ChatGPT needs a huge amount of editing”: users’ views mixed on AI chatbot. The Guardian [online]. February 8, 2023. [Dostęp 15.04.2024]. Dostępny w: https://www.theguardian.com/technology/2023/feb/08/chatgpt-users-views-ai-chatbot-essays-emails.

STECH, B. (2023). To on tworzył sztuczną inteligencję, a teraz tego żałuje. Ma nowe obawy i właśnie odszedł z Google. W: Spider’s Web [online]. [Dostęp 15.04.2024]. Dostępny w: https://spidersweb.pl/2023/05/to-on-tworzyl-sztuczna-inteligencje-a-teraz-tego-zaluje.html.

STOKEL-WALKER, C. (2023). ChatGPT listed as author on research papers: many scientists disapprove. Nature [online]. Vol. 613, s. 620–621. [Dostęp 15.04.2024]. Dostępny w: https://doi.org/10.1038/d41586-023-00107-z.

Studenci tego kraju chętnie używają sztucznej inteligencji ChatGPT. Twierdzą, że pomaga im myśleć (2023). W: PAP [online]. [Dostęp 15.04.2024]. Dostępny w: https://www.pap.pl/aktualnosci/news%2C1588117%2Cstudenci-tego-kraju-chetnie-uzywaja-sztucznej-inteligencji-chatgpt.

The Authors Guild, John Grisham, Jodi Picoult, David Baldacci, George R.R. Martin, and 13 Other Authors File Class-Action Suit Against OpenAI (2023). W: The Authors Guild [online]. [Dostęp 15.04.2024]. Dostępny w: https://authorsguild.org/news/ag-and-authors-file-class-action-suit-against-openai/.

THORP, H.H. (2023). ChatGPT is fun, but not an author. Science [online]. Vol. 379, s. 313–313. [Dostęp 15.04.2024]. Dostępny w: https://doi.org/10.1126/science.adg7879

Tools such as ChatGPT threaten transparent science; here are our ground rules for their use (2023). Nature [online]. Vol. 613, s. 612. [Dostęp 15.04.2024]. Dostępny w: https://doi.org/10.1038/d41586-023-00191-1.

TREGONING, J. (2023). AI writing tools could hand scientists the ‘gift of time’. Nature Careers Community [online]. February 22, 2023. [Dostęp 15.04.2024]. Dostępny w: https://doi.org/10.1038/d41586-023-00528-w.

VAN NOORDEN, R. (2023a). How big is science’s fake-paper problem? Nature [online]. Vol. 623, s. 466–467. [Dostęp 15.04.2024]. Dostępny w: https://doi.org/10.1038/d41586-023-03464-x.

VAN NOORDEN, R. (2023b). More than 10,000 research papers were retracted in 2023 – a new record. Nature [online]. Vol. 624, s. 479–481. [Dostęp 15.04.2024]. Dostępny w: https://doi.org/10.1038/d41586-023-03974-8.

VAN NOORDEN, R., PERKEL, J.M. (2023). AI and science: what 1,600 researchers think. Nature [online]. Vol. 621, s. 672–675. [Dostęp 15.04.2024]. Dostępny w: https://doi.org/10.1038/d41586-023-02980-0.

Wieretiło, N. (2023). Shifting Horizons. Transformacyjne trendy kształtujące szkolnictwo wyższe. W: Coopernicus [online]. [Dostęp 15.04.2024]. Dostępny w: https://coopernicus.pl/wp-content/uploads/2024/01/Raport-Edukacyjny-PL.pdf.

WONG, C. (2023). These scientists aren’t using ChatGPT – here’s why. Nature News [online]. December 19, 2023. [Dostęp 15.04.2024]. Dostępny w: https://doi.org/10.1038/d41586-023-04071-6.

XU, Z., JAIN, S., KANKANHALLI, M. (2024). Hallucination is Inevitable: An Innate Limitation of Large Language Models [preprint]. W: arXiv [online]. [Dostęp 15.04.2024]. Dostępny w: https://arxiv.org/abs/2401.11817.

You Just Found Out Your Book Was Used to Train AI. Now What? (2023). W: The Authors Guild [online]. [Dostęp 15.04.2024]. Dostępny w: https://authorsguild.org/news/you-just-found-out-your-book-was-used-to-train-ai-now-what/.

ZIELINSKI, C. i in. (2023). Chatbots, Generative AI, and Scholarly Manuscripts. WAME Recommendations on Chatbots and Generative Artificial Intelligence in Relation to Scholarly Publications. W: World Association of Medical Editors [online]. [Dostęp 15.04.2024]. Dostępny w: https://wame.org/page3.php?id=106.

ZUCKENBERG, M. (2023). Threads reached 100 million.... W: Threads [online]. [Dostęp 15.04.2024]. Dostępny w: https://www.threads.net/@zuck/post/CuhOXGmr74R?igshid=MzRlODBiNWFlZA%3D%3D.

Published
2024-05-22