
今天分享的是:2025学术出版中AIGC使用边界指南3.0
报告共计:12页
学术出版发布AIGC使用新规:人工智能助手能否当“作者”?
近期,由中国科学技术信息研究所联合爱思唯尔、施普林格·自然、约翰威立等多家国际知名出版机构共同推出的《学术出版中AIGC使用边界指南3.0》正式发布。这一指南旨在回应人工智能生成内容在科研写作中的广泛应用,明确其在学术活动中的合理边界,防范潜在学术不端行为,推动科研诚信体系建设。
随着ChatGPT等生成式人工智能工具的普及,越来越多的科研人员开始借助AI辅助文献调研、数据分析、文本润色甚至图表生成。然而,AI生成内容可能存在事实错误、虚构文献、放大偏见等问题,且其使用若不加以规范,极易引发抄袭、数据造假等学术伦理风险。为此,新版指南从原则、行为规范到案例分析,系统构建了AIGC在学术出版全流程中的使用框架。
核心原则:透明、负责、公平、可持续
指南确立了四大基本原则,为AIGC的使用定下基调。首先是透明度与问责制,要求所有使用AI的研究者、作者、评审人都必须明确披露AI在哪些环节被使用、使用了什么工具及版本,并对其生成内容负责。AI工具不能被列为论文作者,也不具备版权资格。其次是隐私与数据安全,提醒研究者勿向AI工具输入未公开数据、个人身份信息等敏感内容,以防泄露。第三是公平原则,强调应主动审查并纠正AI可能携带或放大的偏见,确保研究公正。最后是可持续发展,呼吁关注AI训练与运行带来的能耗问题,推动更高效、环保的技术应用模式。
展开剩余74%全流程实践指导:从写作到发表,AI怎么用?
指南按研究阶段给出了具体操作建议。在研究设计与论文撰写环节,AI可辅助进行文献检索与归纳、基础数据分析、图表格式优化、语言润色及引文整理等。但关键性科学内容,如核心论点阐述、数据解读、结论得出等,必须由研究者独立完成;实验原始图像、关键图表不得由AI直接生成或篡改。在论文投稿与评审阶段,作者须在稿件中清晰声明AI使用情况,包括工具名称、使用时间、具体用途及生成内容。期刊则应制定明确的AI使用政策,审稿人可在允许范围内用AI辅助梳理审稿意见,但不得上传稿件原文至公共AI工具。论文发表后,鼓励作者公开由AI生成或处理的补充材料,以便验证与复查。
警示案例:AI使用不当的严重后果
指南通过两个典型案例警示了滥用AI的风险。其一,有作者使用ChatGPT撰写论文却未核实其生成内容,导致引用错误乃至虚构文献,在未声明使用AI的情况下被退稿,并被认定为学术不端。其二,某医学团队使用AI生成研究图像与部分文本,导致图表出现事实性错误、标签无意义,且参考文献无法查证,最终论文因数据真实性与完整性存疑而被撤稿。这些案例凸显了研究者对AI生成内容进行人工审核与验证的极端重要性,以及隐瞒使用AI可能带来的学术信誉崩塌。
指南意义与展望:构建可信的AI辅助科研环境
这份指南的推出,标志着中外学术出版界在应对AI技术挑战、凝聚行业共识方面迈出关键一步。它并非要取代各出版机构的自身政策,而是旨在提供一个基础框架,帮助研究者、审稿人、编辑等各方在快速发展的技术环境中找到合规、合理的行动依据。未来,随着AI技术持续演进,相关规范也需动态调整。指南呼吁学术界积极反馈,共同完善细则,以促进人工智能在助力科研创新与知识传播的同时,始终服务于严谨、诚实、透明的科学精神。
(本文基于公开发布的《学术出版中AIGC使用边界指南3.0》进行内容梳理与总结,仅供读者参考。具体实践请遵循所在机构及目标期刊的最新规定。)
以下为报告节选内容
报告共计: 12页
中小未来圈,你需要的资料,我这里都有!
发布于:广东省尚竞配资提示:文章来自网络,不代表本站观点。