AI是一辆时代快车,一旦踏上,你就不会再想回头!
——————————————
各位老师,您在写论文时,用AI辅助了吗?
如果AI辅助、哪怕仅仅是语言的翻译或润色,
是不是担心使用AI会被查出来?
王珏老师的观点是:
1、本质上,科研论文是否能发表,根本不用考虑AI的问题。
因为,AI撰写的论文远远达不到发表标准,AI目前(也许很长一段时间)都不可能达到独立发表论文的水平——虽然它对科研人员很有帮助!
相比之下,本科生、硕士生的论文,才是真正应该查AI率的。因为,AI写出来的东西,比本科生强得多,很可能也比硕士生要强!
——除非,很多论文本身是“水论文”,而且还是能够发表出来的那种……那查AI率当然是有必要的,水平可以水,但必须得是人写的不是?
2、科研论文的核心评价标准,必然是、也只能是“论文质量”——而不是什么AI率。
有价值的论文,即便是人和AI共创的,都值得被发表出来。因为这代表着人类知识的进步!
而且,如果一个人和AI共创能够发现新知识,其实其他人也可以用AI,为什么却没有做到呢?——这说明,人机共创本身就是一种价值!
当然,如果AI在科研中发挥了重要作用,那么,“披露”的义务是应该做到的。也许,以后还得给AI署名也说不定……
不过,现在是处于时代的转型期,人们的观点还很难转过弯来,所以会出现各种纠结。大多数当下的纠结之处,在10年、20年以后回看起来,很多都是笑话!
比如,1865年当汽车刚刚发明出来、上路行驶时,英国通过了“机动车红旗法案”,其中规定:
在公路上行驶的“自动机动车”,必须由至少3人驾驶。
其中一人必须在车前方60码(约55米)处手持红旗步行,以警示行人和马车。
在城镇内,车速不得超过2英里/小时,在城外不得超过4英里/小时。
同样,在汽车发展的早期,美国、德国也出台了一些限制车速的法律,例如规定车速不得超过“人正常步行的速度”或“马匹的小跑速度”。
当然,这里肯定也有安全方面的考虑,但是汽车速度不得超过马车的速度,不得不说是一个转型期特有的怪胎!
关于“论文要查AI率”的问题,王珏老师另一个观点是:
道高一尺,魔高一丈!
——注意:不是“道高一丈”!
这说明了什么?
——“魔”才是符合人的本性和需求的,总会有人找到方法,找到“道”的空隙!
比如,现在各种降AI率的工具比比皆是,而且有一些效果还是相当不错的!
所以,即便论文要查AI率,也不过就是多费点事(qian)就解决了……
王珏老师的以上观点,获得了北大最近发表的一篇Arxiv论文的观点的有力支持:
原文链接:https://arxiv.org/pdf/2512.06705
近年来,全球学术期刊纷纷出台AI使用政策:要求披露、限制使用、禁止署名……
看似构筑了“学术防火墙”。但北大信息管理系Yongyuan He(何永元)、Yi Bu(步一)的最新研究揭示出真相:这些政策几乎形同虚设。
研究团队分析了5,114种JCR Q1期刊和超520万篇论文,发现尽管70%的期刊制定了AI政策,但作者的使用行为完全不受影响。
更讽刺的是,有政策与无政策的期刊,AI使用增长曲线几乎完全重合。
正像王珏老师前面举的“机动车红旗法案”的例子,规则滞后于技术现实。当前政策聚焦“防作弊”而非“促善用”,忽略了时代发展的大潮,寄希望于在旧政策上“打补丁”,往往只是徒劳!
二、数据触目惊心:AI写作已全面渗透
研究显示,2023年是分水岭,AI辅助写作进入“爆炸式增长期”。尤其三类群体表现突出:
非英语国家作者(中国、德国、日本领先)
物理科学领域(数学、计算机、工程等)
高开放获取期刊(OA比例越高,AI痕迹越显著)
这意味着:AI正在成为“语言公平化工具”,语言优势不再是论文质量的天然壁垒。
三、最震撼的真相:披露率仅0.1%
研究团队对16.4万篇全文进行深度分析,结果令人瞠目:2023-2025年发表的7.5万篇论文中,仅76篇明确披露使用AI,披露率约0.1%。换言之,每40篇AI辅助的论文中,仅有1篇愿意承认。
作者集体沉默,是完全可以理解的!背后是“承认即风险”的学术生态:担心拒稿、质疑学术信用、恐惧同行审判。
可以说:正是当前的评价体系,在变相地鼓励隐瞒。
四、治理危机:学术伦理正在重构
该论文指出三大危机:
政策失效(规则无人遵守)
披露制度崩溃(透明化失败)
检测技术滞后(追不上AI进化速度)
作者呼吁:必须从“禁止或披露”转向“如何负责任地使用AI”。
这一研究结论,和王珏老师的观点“科研论文不应以查AI率为导向,而应全面转向负责任使用、以论文本身的质量作为评价依据”,是完全吻合的!
据此,论文提出:AI已不可逆地重塑学术写作!当绝大多数研究者都在“偷偷用AI”时,堵截式政策只会催生更隐蔽的灰色地带。
未来属于那些能驾驭AI、而非逃避AI的学者。正如论文中所言:“我们正站在学术出版百年变革的前夜。”