大数跨境

Nature调查:AI在科研写作中的应用,一场正在进行中的伦理大讨论

Nature调查:AI在科研写作中的应用,一场正在进行中的伦理大讨论 科技写作沙龙
2025-08-07
2

    在AI浪潮席卷各行各业的今天,学术界也未能幸免。随着ChatGPT等生成式AI工具的迅速发展和普及,它们正在深刻地改变着科学交流的方式。然而,随之而来的伦理问题也引发了研究人员的激烈争论。

    最近,Nature针对全球5000名研究人员进行了一项大规模调查,旨在了解他们对于在研究论文中使用AI的看法,以及对披露AI使用情况的意见。这份调查报告(https://www.nature.com/articles/d41586-025-01463-8)为我们揭示了一个观点分化、伦理界限模糊的学术图景。

大多数人:接受AI辅助写作,但争议点在于“是否披露”


     调查结果显示,大多数研究人员认为使用生成式AI来辅助撰写论文是可接受的,但他们在“如何”和“何时”披露AI的使用上存在分歧。

    根据Nature的调查,超过90%的受访者认为使用生成式AI来编辑或翻译论文是可接受的 1 。在撰写论文初稿这一更具创造性的任务上,大多数人(65%)也认为这在伦理上是可接受的,但仍有约三分之一的人表示反对。这些数据表明,研究人员普遍将AI视为一个有用的工具,而非完全的禁忌。

    上图反映了研究人员对在论文写作中使用AI的看法。在“编辑论文”和“翻译论文”这两个场景中,分别有35%和14%的受访者认为这是“适当的”,而大多数人则认为“只有在披露AI使用的情况下才适当”或“只有在提示词披露的情况下才适当。

    然而,当任务涉及到更实质性的内容生成时,分歧变得更加明显。在撰写论文初稿这一项中,有13%的人认为这是完全“适当的”,29%的人认为“只有在披露AI使用的情况下才适当”,23%的人认为“只有在提示词披露的情况下才适当”,而高达35%的人认为在任何情况下都“不适当”。

实际使用情况:热情高涨,但普及率依然较低


     尽管大多数人对AI辅助写作持开放态度,但调查发现,真正付诸实践的研究人员仍是少数。

  上图显示了研究人员实际使用AI辅助写作的情况。在最受欢迎的“编辑论文”场景中,约有28%的受访者表示他们已经使用过AI(其中18%未披露,10%已披露),但另有43%的人表示愿意尝试。而在其他场景,如翻译论文、撰写摘要和撰写初稿,实际使用AI的人数比例均不到8%。这表明,尽管研究人员对AI充满了热情,但其在科研流程中的实际应用尚未完全普及。值得注意的是,在那些已经使用过AI的研究人员中,更多的人选择了不披露其使用情况。例如,在“编辑论文”一项中,18%的人表示他们使用过AI但没有披露,而只有10%的人表示他们使用并披露了
。这种“未披露”的普遍性,无疑为学术诚信带来了新的挑战。

同行评议:更严格的伦理红线


 与论文写作不同,将AI应用于同行评议似乎触及了更严格的伦理底线。

 上图显示了受访者对在同行评议中使用AI的看法。调查结果显示,研究人员对使用AI进行初始同行评议持非常谨慎的态度,超过60%的受访者认为这是“不适当的”。约有四分之一的反对者提到了隐私问题。

    然而,当AI被用于“通过回答有关手稿的问题来协助同行评议”时,大多数人(57%)认为这是可接受的。这表明,研究人员更倾向于将AI视为一个辅助工具,而不是一个能够独立进行评议的主体。

地理位置和职业阶段的影响:年轻研究者和非母语者更倾向于使用AI


     调查还探讨了不同人群对AI使用的看法。令人惊讶的是,研究人员的意见似乎并未因地理位置、研究领域或职业阶段而产生显著差异。然而,有两个群体表现出了更高的AI使用倾向:

  • 职业阶段: 年轻的研究人员,特别是博士生,更倾向于认为使用AI编辑论文是可接受的,也更有可能表示他们已经使用过AI。

  • 非英语母语者: 来自非英语母语国家的受访者比来自英语国家的受访者更有可能在论文写作中使用AI。许多受访者认为,AI可以帮助非母语学者克服语言障碍,从而“为他们创造一个公平的竞争环境”

出版商和期刊的应对:政策各异,但核心原则不变


     面对AI的挑战,出版商和期刊也正在制定相应的政策。然而,目前尚未形成统一的标准,不同机构的政策差异很大。

  • 生成内容与润色编辑: 许多出版商正在区分AI的两种主要用途:一种是“改进文本”,如拼写、语法和可读性检查;另一种是“生成新内容”。前者通常不需要披露,而后者通常需要。

  • 严格披露要求: 一些期刊,如《JAMA》和《科学》(Science),要求作者详细说明所使用的AI工具、制造商,并简要描述其使用方式,甚至要求提供给AI的“提示词”(prompts)

  • 责任原则: 尽管政策各不相同,但大多数出版商都强调一个核心原则:AI工具不能被列为作者,因为它们无法对作品负责。作者必须对AI生成的所有内容负责。

未来的方向:寻求共识与透明度


     这项调查清晰地揭示了学术界在AI使用问题上的“分裂”。一些研究人员认为,AI就像计算器一样,将成为未来的常态,披露将不再重要。另一些人则将其视为“可悲的欺骗和欺诈”。还有一些人持更矛盾的态度,认为AI虽然能节省时间,但也可能让我们失去“通过这些有时很费力的过程进行学习的机会”。

    在如此不确定的环境中,清晰和透明度显得尤为重要。正如出版伦理委员会(COPE)的受托人Michael Wise所强调的,尽管技术在不断发展,“出版伦理的规范并未改变:即在透明度的背景下,准确地报告所做的一切、为何如此以及能得出什么结论”。

    随着AI技术的持续进步,学术界对AI使用的讨论仍将继续。如何制定统一且合理的指导方针,如何在利用AI带来的便利与维护学术诚信之间取得平衡,将是未来一段时间内需要共同面对的挑战。

但无论争议如何,AI融入科研的浪潮已是不可阻挡 掌握如何合理、高效、且符合伦理地使用AI工具,已成为每位科研工作者的必备技能。面对海量的工具和复杂的伦理要求,我们该如何下手?

    前段时间我们举办的暑期AI系列课程详细阐述了通过AI技术赋能SCI论文写作。详细课程内容可以通过下方链接回顾。

AI赋能SCI写作,开启科研新纪元

    更多课程细节也可以添加小助手微信了解详情,后续我们会陆续推出综述写作、国自然等相关课程,敬请关注!


【声明】内容源于网络
0
0
科技写作沙龙
学术交流;国自然基金及各类项目申请书撰写技巧;高分SCI论文写作技巧,科研绘图,模拟计算,论文资讯快递;报奖写作技巧;专家推荐;技术推荐;科技产品设备服务;考研调剂,升学咨询,就业信息与规划;科研产业服务一条龙。
内容 482
粉丝 0
科技写作沙龙 学术交流;国自然基金及各类项目申请书撰写技巧;高分SCI论文写作技巧,科研绘图,模拟计算,论文资讯快递;报奖写作技巧;专家推荐;技术推荐;科技产品设备服务;考研调剂,升学咨询,就业信息与规划;科研产业服务一条龙。
总阅读1.2k
粉丝0
内容482