OpenAlex · Aktualisierung stündlich · Letzte Aktualisierung: 13.03.2026, 22:58

Dies ist eine Übersichtsseite mit Metadaten zu dieser wissenschaftlichen Arbeit. Der vollständige Artikel ist beim Verlag verfügbar.

Risks of abuse of large language models, like <scp>ChatGPT</scp>, in scientific publishing: Authorship, predatory publishing, and paper mills

2023·77 Zitationen·Learned PublishingOpen Access
Volltext beim Verlag öffnen

77

Zitationen

2

Autoren

2023

Jahr

Abstract

Key points Academia is already witnessing the abuse of authorship in papers with text generated by large language models (LLMs) such as ChatGPT. LLM‐generated text is testing the limits of publishing ethics as we traditionally know it. We alert the community to imminent risks of LLM technologies, like ChatGPT, for amplifying the predatory publishing ‘industry’. The abuse of ChatGPT for the paper mill industry cannot be over‐emphasized. Detection of LLM‐generated text is the responsibility of editors and journals/publishers.

Ähnliche Arbeiten

Autoren

Institutionen

Themen

Artificial Intelligence in Healthcare and EducationEthics in Clinical Research
Volltext beim Verlag öffnen