arXiv Preprint Server 對於未經核實之 Large Language Model 輸出內容實施懲罰措施
導言
arXiv preprint server 已針對提交包含未經核實之 AI-generated 內容手稿的作者,引入嚴格的懲罰機制。
正文
學術文獻中合成內容的激增,使得重新調整審核標準成為必要。arXiv editorial advisory council 成員兼 computer science section chair 之 Thomas Dietterich 表明,若提交的手稿顯示出未經核實之 Large Language Model (LLM)生成內容的「確鑿證據」,將導致嚴厲制裁。此類證據包括出現虛構引用、錯誤數據或殘留的 LLM meta-comments。 根據既有的 Code of Conduct,無論在撰寫過程中使用了何種工具,手稿的完整性責任均由列名作者全權承擔。因此,若發現對 AI-generated 錯誤(包括抄襲或具偏見之內容)採取疏忽態度,將觸發為期十二個月的提交權限暫停。此外,違規作者將被施加一項條件要求:隨後的所有提交必須首先獲得信譽良好的 peer-reviewed venue 接受。 此次監管轉向是在先前修改有關 computer science review articles 及 position papers 的政策之後而來;該類文章現要求經過事先 peer review,以減少低質素、AI-generated annotated bibliographies 的湧入。為確保程序公正,管理層已實施一套核實協議,要求由 moderator 提供記錄並由 Section Chair 確認,同時為受制裁作者保留申訴程序。
結論
arXiv 已建立一套嚴格的執行機制,透過懲罰提交未經編輯之 AI 內容,以確保學術嚴謹性。