近日,上海某高校教师在社交平台上爆料,部分学生试图通过人工智能技术完成期末论文,引发广泛关注。随着以ChatGPT为代表的生成式人工智能技术(AIGC)的兴起,论文写作似乎迎来了新的“助手”,从选题到文稿润色,从统计分析到图表制作,其功能全面覆盖。然而,这一趋势也引发了诸多争议,关于人工智能在学术写作中的辅助作用,人们看法不一。
AI生成的文本质量存疑
根据《自然》杂志去年对全球博士后的调查,约有三分之一的受访者曾使用AI工具优化文本、生成或编辑代码、整理文献。社交媒体上,各类AI论文写作指导教程层出不穷,承诺能在几分钟内生成数万字“优质”论文,浏览量高达数百万。然而,记者尝试后发现,这些教程生成的文本往往存在大量重复、空洞无物的现象。
某985高校人工智能专业研究生温睿指出,AI生成的论文往往遵循固定套路,如先写一句话再分条论述,这种机械化模式很容易被老师识破。此外,许多期刊编辑和审稿人也反映,AI生成的论文内容空洞、缺乏深度和创新性。
数据伪造问题更加隐蔽
除了文本生成,AIGC在数据伪造方面更具隐蔽性。GPT-4的ADA功能可以执行统计分析和创建数据可视化,但生成的虚假数据可能误导研究结论。例如,某机构研究人员曾要求GPT-4创建关于圆锥角膜患者的数据集并编造临床数据,以支持某种手术效果优于另一种的结论。然而,真实临床数据却证明两种手术效果并无明显差别。
温睿表示,AI无法做实验,其提供的实验数据再理想也是虚假的。此外,AIGC生成的概念虽然简洁明了、查重率低,但其准确性却难以保证。
检测技术面临挑战
面对AI代写论文的隐患,国内外正积极探索研发针对AIGC的检测工具。这些工具通过识别人类与AI在文本结构和规则上的差异来揪出“枪手”。然而,随着AI技术的不断迭代升级,检测工具也需不断更新以适应新技术。
一些期刊出版机构通过检测工具发现了AIGC代写论文的痕迹。例如,《中华医学杂志》社有限责任公司发现涉嫌AI写作的论文数据每月都在上升。然而,目前AIGC检测报告单只能指出某些文本的“置信度”,而不能解释为何是这个值。这使得报告单往往只起到参考和警示作用。
技术向善需自律与他律并重
在加强技术治理的同时,各方也在期待形成共识并出台相关政策。去年9月20日,《学术出版中AIGC使用边界指南》在国内外同步发布;去年12月21日,《负责任研究行为规范指引(2023)》也受到了业内广泛关注。这些政策明确了AIGC的使用边界和披露要求。
然而,尽管国家出台了相应规则,但从外部监督到行业自治还需一个过程。AIGC的使用涉及多个方面,如何厘清各方关系、各司其职是关键。此外,科研人员作为科研诚信的第一责任人,应保持严谨的学术态度、关注研究领域的真问题、坚守学术研究的基本原则。
“科研诚信和伦理是科研的生命线。”梁正提醒科研人员要存敬畏、有底线,避免使用不当而造成学术不端。