数学中国

 找回密码
 注册
搜索
热搜: 活动 交友 discuz
查看: 1593|回复: 0

4 个月,他用 ChatGPT 写了 16 篇论文,已发表 5 篇

[复制链接]
发表于 2023-6-24 08:27 | 显示全部楼层 |阅读模式
4 个月,他用 ChatGPT 写了 16 篇论文,已发表 5 篇

作者:卜金婷 来源:科学网微信公众号 发布时间:2023/6/19 20:42:15

自 ChatGPT 上线以来,一些研究人员的论文产出速度变得“突飞猛进”。

据美国《野兽日报》日前报道,美国田纳西大学健康科学中心的放射科医生 Som Biswas ,在 4 个月内使用 ChatGPT 写了 16 篇论文,并在 4 个不同的期刊上发表了 5 篇。

他将第一次尝试的论文提交给了《放射学》杂志,这是北美放射学会的一份同行评审月刊。同时,他也向编辑坦言:你看到的都是 AI 写的。几天后,这篇题为《ChatGPT 与医学写作的未来》的论文通过了同行评审,并顺利发表。


《ChatGPT 与医学写作的未来》论文

以 ChatGPT 为代表的大型语言模型(LLM)大大提升了生产效率,但它们也在科学界造成了翻天覆地的变化,许多专家担心学术出版的可信度受到侵蚀。

用 AI 在 4 个月内写了 16 篇文章

Biswas 最新的一篇文章,是 4 月 28 日发表在《儿科放射学》杂志上的一篇评论。在这篇文章中,Biswas 是唯一的作者,他在结尾处承认用 ChatGPT 写了这篇文章。

Biswas 承认,他利用 AI 写的论文并不限于放射学专业。事实上,他还写了关于 ChatGPT 在军事、教育、农业、社交媒体、保险、法律和微生物学中作用的论文。并且,他已经成功地将这些文章发表在不同的小众学科期刊上,包括一篇关于计算机编程的论文发表在《美索不达米亚计算机科学杂志》,以及 2 封发表在《生物医学工程年鉴》上的致编辑的信——主题关于全球变暖和公共卫生。

Biswas 说,他这样做的动机不仅仅是为了看到自己的署名。他想成为一项新兴技术的传播者,他认为这项技术将永远改变所有研究人员的工作方式。

那么,期刊为何会发表这类 AI 创作作品?

美国弗吉尼亚理工大学工程学教授、《生物医学工程年鉴》的主编 Stefan Duma 坦言,在过去的几个月里,他看到期刊收到的论文数量呈指数级增长——其中包括 2 篇来自 Biswas 的给编辑部的信。

Duma 解释说,给编辑的信基本上是期刊的意见部分,其中对发表文章的写作类型和研究深度的限制较少。这也是为什么 Duma 愿意发表 Biswas 的 2 篇文章。

但是,他补充说,由于质量低下,他一直在拒绝更多由 ChatGPT 和其他 LLM 生成的文章。

此外,上文提及的两本期刊《儿科放射学》《美索不达米亚计算机科学杂志》,没有回应媒体的置评请求。

在微生物学家、科学诚信专家 Elisabeth Bik 看来,“至少 Biswas 承认他在使用 ChatGPT ,所以你必须给予他一些信任。”Bik 说,“我已经遇到了很多其他人,他们也发表了大量令人难以置信的论文,同时也不承认 ChatGPT 。这些人发表得太多了。而这,实际上是不可能的。”

Bik 对在学术界使用 LLM 技术有两种看法。一方面,她承认对于第一语言不是英语的研究人员来说,它可以成为一种宝贵的工具,可以用它来构建连贯的句子和段落。另一方面,她也一直在关注,很多研究人员明显滥用聊天机器人,仅在过去几个月里就发表了数十篇文章。

至于滥用产生的原因,Bik 认为是“引用和出版物数量这两个衡量学术水平的指标。” 如果可以找到一种人为的方式来提高这些东西,这样就可以轻松地赢得更好的绩效指标。

Bik 还担心对 LLM 的使用激增更会助长“论文工厂”泛滥。她的担忧也是学界和出版界共同关心的议题。

检测“论文造假”是个挑战

今年 5 月,由以学术出版伦理为重点的非营利组织出版伦理委员会(COPE)和国际科学技术和医学出版商协会(STM)召集了一场峰会。峰会汇集了国际研究人员,包括独立研究诚信分析师,以及来自资助机构和出版商的代表。

与会人员集中讨论了论文造假问题。

“随着 AI 的迅速发展,论文工厂生成越来越合理的原始数据的能力将快速提升。”澳大利亚悉尼大学的分子生物学家 Jennifer Byrne 说。

德国海德堡欧洲生物学会的图像数据完整性分析师 Jana Christopher 说:“我见过 AI 刚刚生成的假显微镜图像,但如何确凿证明图像是由 AI 生成的,仍然是一个挑战。”

自由柏林大学社会科学家和独立研究诚信分析师 Anna Abalkina 怀疑,由于同行评审过程的周期长,这些 AI 工具在学术文献中明显增多的时间,可能会有所延迟。

“这是我们第一次一群人聚在一起,共同采取行动以应对这个问题。”COPE 的董事和研究诚信顾问 Deborah Kahn 表示,我们不能否认 AI 对科学研究有积极作用,但仍有必要区分使用 AI 编写的合法论文和完全捏造的论文。

峰会期间讨论的一种策略是,要求作者提供带有水印的实验原始数据,能够让出版商确认这些数据是真实的。

Christopher 表示,目前提交原始数据的要求在出版商之间差异很大,所以需要制定跨出版商提交原始数据的统一标准。

“我无法想象这会在一夜之间发生转变,现实是许多机构没有资源提供数据管理的基础设施。”泰勒-弗朗西斯出版集团的出版伦理和诚信总监 Sabina Alam 表示,该标准需要时间来实施。

STM 正在研发论文造假检测软件,同时通过其诚信中心收集有关其他类似工具的资源。这些工具既用于在提交时检测论文造假,也用于识别已经发表的假论文。

泰勒-弗朗西斯出版集团是正在使用这些工具的出版商之一。Alam 表示,越来越多论文被标记为需要进一步检测是否存在不当行为。从 2019 年到 2022 年,她的团队处理的伦理案例数量增加了十多倍,今年到目前为止,数量已经与  2022 年持平。

参考链接:

https://www.thedailybeast.com/ho ... papers-with-chatgpt

https://www.nature.com/articles/d41586-023-01780-w

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有帐号?注册

x
您需要登录后才可以回帖 登录 | 注册

本版积分规则

Archiver|手机版|小黑屋|数学中国 ( 京ICP备05040119号 )

GMT+8, 2024-12-23 04:46 , Processed in 0.093750 second(s), 16 queries .

Powered by Discuz! X3.4

Copyright © 2001-2020, Tencent Cloud.

快速回复 返回顶部 返回列表