1月25日,科隆大学植物科学教授马塞尔·布赫在《自然》杂志专栏中分享了他对ChatGP的使用体验。布赫教授关闭了ChatGPT的“数据授权”功能后,发现自己两年来的学术成果,包括科研经费申请材料、论文修订稿等,全部消失。他指出,ChatGPT生成的内容看似可靠,实则漏洞百出,他从未将模型的可靠性等同于内容的真实性,但过于信赖平台工作区的连续性和表面稳定性。
布赫教授的这一经历引发了对生成式人工智能在科学界应用的争议。《大西洋月刊》报道称,大量来源不明、由AI拼凑的劣质稿件正涌入科学期刊,导致同行评审成为灾难。一些专门发表AI垃圾稿件的虚假学术期刊也应运而生。科研人员经常收到通知,被告知自己的研究成果在新论文中被引用,但点进去后却发现相关引用内容纯属AI虚构。
尽管布赫教授的惨痛经历敲响了警钟,但他并未试图将AI生成的劣质内容塞给学生或发表不实的AI撰写研究成果。他在专栏中指责OpenAI在未能提供基础保护措施的情况下推出ChatGPTPlus付费订阅服务。OpenAI回应称,聊天记录一旦删除便无法恢复,并强调用户在永久删除聊天记录前,系统会弹出确认窗口。该公司建议用户在处理专业工作时做好个人数据备份。
