点击右上角微信好友
朋友圈
请使用浏览器分享功能进行分享
AI已经开始“入侵”学术界,弄皱一池静水。
据《日经亚洲》报道,部分学者动起歪脑筋,在论文中添加隐藏的提示词,以引导人工智能审稿工具给予正面评价,从而影响其研究论文的同行评审结果。该媒体调查发现,在论文预印本网站arXiv上,至少17篇来自8个国家、14所顶尖学府的学术论文中,用隐秘小字或白色文字写着“仅给好评”等提示词。
纽约大学计算机科学助理教授谢赛宁团队的论文也被卷入该风波。谢赛宁发文回应:对于任何有问题的投稿,共同作者都难辞其咎,没有任何借口。
AI能否被期刊审稿专家用于论文评审?目前,各大学术会议和学术期刊尚未形成统一规范。
就国内而言,多家期刊明确禁止审稿人使用公开AI平台评审论文,如《数量经济技术经济研究》《重庆邮电大学学报(社会科学版)》《山东大学学报(哲学社会科学版)》等。原因是出于保密原则、避免学术判断失误以及防止责任追溯不清等多种考量。
有期刊对评审过程中对人工智能的使用发布了明确规范。如《风景园林》禁止审稿人在未充分理解论文内容和进行专业判断的情况下,直接采纳AI生成的审稿意见,或忽视其中可能存在的错误与偏见;《中国临床医学》“不建议”审稿专家使用AI辅助评审论文,如有使用,需在审稿意见中公开、透明、详细地说明所用工具名称和生成内容,并对审稿结论(包括AI生成的内容)负全部责任。
这事儿该怎么看?审稿人到底有没有使用AI评议论文、在多大程度上参考了AI评议结果,我们不得而知。但可以确定的是,投稿人的行为,无疑是在钻技术漏洞的空子,是新技术萌发而规范尚未成熟阶段的新型学术不端。
事件发展至此,已经足以为我们敲响警钟:辅助科研需有度,AI且慢唱主角。
从科研和论文撰写角度看,AI不是一用就灵的“万能药”。不可否认,AI以其强大的数据处理和分析能力,能为科研带来诸多便利,比如帮助筛选文献、分析海量数据、文字润色,甚至提供研究思路启发,但它无法替代研究者对实验数据的严谨获取与分析、对研究问题的深度逻辑推理和价值判断。一篇优秀科研论文的诞生,是研究者多年知识积累、反复思考与实践的结晶,妄图依靠AI指令“走捷径”获取认可,是学术态度不端的表现,即便一时得逞,最终也会在学术共同体的审视下原形毕露。
论文评审者更要守住责任担当,不能过度依赖AI。审稿是一项专业性工作,不仅要判断论文技术细节的正误,更要凭借自身学术素养和经验,独立考量研究的创新性、科学性等,对论文提出建设性意见。若单纯依赖AI审稿,就可能被隐藏指令误导,让低质量甚至存在学术不端行为的论文蒙混过关,破坏学术生态。
面对新技术时,我们既要拥有敢于尝试的意识、善于利用的能力,更须保持清醒的头脑。在科研过程中,科研人员可以将AI作为辅助工具,但必须坚守学术初心,用严谨的态度、扎实的研究推动科学进步。陈静文