甚至是“作为一个大模型……”被忘记删除后提交,结果被审核公布。ChatGPT出现后,很多学术机构发出禁令,因为这种AI虽然生成能力很强,但有时也会乱说,滥用大模型写文章也违背了做研究的初衷。
但是随着大模型的应用,我们很快就忘记了最初的恐惧。一些学术机构正在解除禁令,微软也计划在年内将ChatGPT集成到Office家族桶中。也许用不了多久,大家都可以用大模特写文章了。
这让人不得不想象未来的学术论文会被AI生成的内容冲击到什么程度。事实上,这种事情可能已经在发生了。
今天,一个斯坦福大学的本科生在谷歌学术发现了这种“浑水摸鱼”的掺假论文。
当你输入“作为一个AI语言模型”——“ChatGPT”搜索,会发现很多直接贴出chat GPT答案的论文。

例如,在下面这篇发表在《国际工程与技术创新杂志》上的同行评议论文中,作者似乎漏掉了一个重要的合著者——人工智能语言模型(ChatGPT)。

突出一个投资人在审稿时是无意的,是故意的。
另一篇被同行评议并发表在《网络银行与商业》杂志上的论文,题目是《基于反向传播神经网络和梯度下降的股价预测》,也有一个不存在的作者——ChatGPT。

开头是AI,看起来让人发笑。
类似的例子还有很多,比如下面两篇分别发表在《国际现代农业与环境杂志》和《技术创新与能源杂志》上的论文。


更离谱的是,下面这篇发表在《国际高级工程与土木研究杂志》上的论文,ChatGPT甚至引用了作者X和y的一篇假文章。

除了参与论文写作,ChatGPT还参与了一些书籍的写作,比如《性知识导论》、《下面的利比亚概述》。


机器心也在Google Academic中输入“作为AI语言模型”——“chat GPT”,出现了10页,大约有100篇文章。

安德鲁·基恩·高的发现在推特上吸引了数百万人,谷歌学术似乎对此反应迅速。最新的情况是,很多可以搜索到的AI文章只有名字,没有给出链接。但是,不得不说,这离真正的“整改”还差得很远。
在AI领域,大模型的开发速度是以天为单位的,学术期刊的同行评议规则也在快速变化以应对。此前,许多期刊和会议禁止ChatGPT被列为合著者。
其中,《科学》杂志明确表示不接受ChatGPT生成的论文,也不允许ChatGPT作为论文的作者。《自然》杂志说,可以使用ChatGPT等语言模型工具写论文,但也禁止被列为论文合著者。
有人取笑这位斯坦福大学本科生的发现。你认为人们不会在发表论文前再通读一遍。有人又补了一刀,让ChatGPT再读一遍,才出版。


也许真正的问题是这些论文是如何通过编辑审查或同行审查的。


最后有人一针见血,说这些都是四层期刊,只要付费就可以发表任何东西,都是毫无意义的垃圾。

至少目前,ChatGPT生成的论文还没有造成太大的影响。只是不知道如果这个工具真的在Office上流行起来,学术界会是什么样子。
剧终
授权请联系本微信官方账号。
投稿或求报道:content@jiqizhixin.com、
微信扫码
QQ扫码
您的IP:10.1.228.218,2025-12-23 02:39:19,Processed in 0.35821 second(s).