新闻 发表于 2025-6-20 09:59

AI助力科研,效率提升背后的伦理隐忧:从论文撰写到同行评审,人工智能如何改变学术圈,又有哪些风险不容忽视

作者:微信文章
近年来,ChatGPT, DeepSeek等生成式人工智能(AI)工具在科研写作和学术出版中广泛应用,大幅提升了效率,但也引发了诸多伦理争议。多篇最新研究指出,AI在论文撰写、同行评审等环节的滥用可能导致学术诚信危机、数据泄露和系统性偏见。我们将深度解析AI在科研中的三大伦理挑战。

1. 论文撰写:AI的“影子作者”危机

核心问题:剽窃、虚假内容与责任归属

AI生成的文本可能无意中复制其训练数据库中的受版权保护内容,导致“无意识剽窃”。例如,非学术AI(如ChatGPT)未公开训练数据来源,生成的文献综述可能包含未标注的引用。此外,多项研究显示,AI生成的参考文献错误率高达70%,甚至虚构不存在的论文,可能误导后续研究。责任真空也是AI使用在论文撰写过程中的重要伦理隐患,国际医学期刊编辑委员会(ICMJE)明确禁止将AI列为作者,作者若未披露AI使用,可能逃避对内容准确性的责任。我们据此对作者使用AI工具辅助文章撰写提出建议:

期刊不提倡作者以AI工具写作科研稿件,尤其是在科研假设、材料方法、结果结论部分。如果作者采用AI工具写作,检索AI特征值要在15%以下;如果作者在制作简单的示意图、表格或者语言润色中使用了AI工具,应该在文章中说明。

2. 同行评审:AI能替代人类专家吗?

核心争议:效率与公正性的博弈

AI可能继承训练数据中的性别、地域或学科偏见。例如,若模型主要学习西方期刊论文,则可能低估发展中国家研究的价值。AI评估具有局限性,即AI无法判断研究的创新性或伦理合规性。一项实验发现,AI生成的评审意见与人类重叠率仅为30%-39%,且过度使用“创新性”等泛泛之词。

而透明度缺失也是期刊在面对审稿人使用AI辅助评审的一大难题,部分审稿人未声明使用AI辅助撰写评审报告,导致期刊难以追溯责任。以下是COPE上公布的一项相关案例:

案例背景:审稿人在外审意见中披露作者可能使用了AI工具辅助文章撰写,期刊对这种情况提出了以下疑问:

1、审稿人可以使用AI检查工具对保密稿件进行审核吗?

2、审稿人可以在给作者的评论中提及他们怀疑存在AI的欺诈性使用吗?在向作者发送决定信时,这些评论是否应该从审稿意见中删除?

3、期刊可以相信这样的审稿意见吗?

4、由于没有 COPE 流程图对此类问题的解决对策,期刊应该如何处理?

5、期刊在发出给作者的决定信时,是否应该删除审稿意见中关于审稿人怀疑文本由AI伪造的内容?

COPE 理事会的建议:针对此案的建议来自少数 COPE 理事会成员(针对个案的建议并非 COPE 的正式指南)。

1、此案的编辑需要考虑几个方面。首先,期刊关于使用AI工具的政策;其次,评审过程的保密性;第三,透明度。虽然 COPE 目前没有专门针对处理涉及人工智能案例的指南,但同行评审指南中提供了有用的信息,如下所述。

关于人工智能的使用,期刊应参考其针对作者的政策。许多期刊确实允许作者在撰写稿件时使用人工智能,但透明度至关重要。如果编辑认为此案涉及人工智能的使用,他们可以向作者说明其透明度政策,例如:“我们的政策规定,在稿件撰写过程中使用任何生成式人工智能都应声明/被禁止/需要描述”。

2、对于审稿人使用人工智能,还需要注意保密性,尤其是在人工智能检查工具存储其正在筛选的内容的情况下。出于这个原因,一些出版商明确要求审稿人不要将他们收到的稿件上传到大型语言模型中,但其他人工智能检查器(例如集成在 iThenticate 中的工具)不会存储数据。如JAMA等期刊要求审稿人披露AI工具使用情况,并禁止将未发表稿件输入公开AI平台。

3、与作者沟通时,保密性也至关重要。编辑在任何情况下都应该亲自复述审稿人的分析,以便做出明智的判断,并将其作为期刊的评估。否则,这仅仅是审稿人的指控。然而,正如 COPE 关于编辑同行评审的指南中所述,编辑不应从评审报告中删除这些内容。相反,他们应该要求审稿人修改外审报告(或许可以让他们参考《同行评审伦理指南》讨论保密性问题),或者将整份报告发送给作者,并附上说明或说明情况。

4、编辑还应该考虑审稿人使用人工智能检查器是否违反了评审流程的保密性。 《同行评审伦理指南》规定:“审稿人应尊重其评审稿件的保密性。他们不应泄露任何与工作相关的信息,也不应将其用于个人利益,以确保评审过程的公正性。” 如果期刊的同行评审模式要求稿件包含作者姓名和电子邮件地址等信息,则情况将尤为严重。如果期刊发现审稿人使用人工智能检查器违反了评审过程的保密性,则应告知作者。

5、最后,透明度是处理这种情况以及解读审稿人发现信息的关键。包含第三方评估的评审可能与联合报告一样值得信赖,但审稿人应公开其在评审报告过程中获得的任何帮助,无论是来自同事还是AI工具。对于前一种情况,应注明同事姓名;对于后一种情况,应明确说明人工智能检查器。正如前文所述,编辑应该自行重复进行人工智能检查。编辑应向审稿人明确表示,如果他们怀疑论文中使用了人工智能,应咨询编辑。

3. 外审泄密:当AI成为“数据黑洞”

高风险操作:上传未发表稿件至AI平台

版权侵犯:将保密稿件输入ChatGPT等工具可能违反出版协议,AI公司可能将内容用于模型训练;数据泄露:2023年一项调查发现,15%的审稿人承认曾用AI检测稿件相似性,但多数未考虑数据存储风险;学术不端:若AI生成的虚假内容通过评审流入学界,可能引发“污染效应”,导致后续研究基于错误基础。我们据此对审稿人使用AI工具辅助审稿提出建议:

期刊拒绝审稿人使用AI工具审稿,郑重的提示审稿人不能够将作者没有公开发表的文章内容上传到开放型AI数据库,这一行为违背审稿人保护作者未发表文章版权的职业道德。

4、期刊的应对措施:要求审稿人签署保密协议,明确禁止使用公共AI工具分析稿件。推广安全的内置AI检测系统(如iThenticate),避免数据外流。

AI为科研带来了前所未有的效率,但学术共同体需建立统一规范:要求作者强制披露AI使用范围,人工复核所有生成内容;禁止将稿件输入外部AI,明确区分“辅助”与“替代”人类判断。期刊需要制定检测标准,保护未发表研究的知识产权。我们坚信:“信任是同行评审的基石,而AI的透明使用是维护这一基石的关键。”

来源:中国组织工程研究杂志

版权属于原作者,仅用于学术分享,如有侵权请联系修改或删除,万分感谢!
关注公众号,了解更多学术资讯
页: [1]
查看完整版本: AI助力科研,效率提升背后的伦理隐忧:从论文撰写到同行评审,人工智能如何改变学术圈,又有哪些风险不容忽视