教授关闭ChatGPT数据授权后两年学术成果‘清零’ 引发科学界争议

2026年1月25日
news

(图片来自网络)

IT之家1月25日消息,在科研领域使用人工智能工具时,意外风险日益凸显。科隆大学植物科学教授马塞尔・布赫的遭遇,为科学界敲响了关于AI使用安全的警钟。


布赫在《自然》杂志发表专栏表示,关闭ChatGPT的“数据授权”功能后,他两年间精心整理的学术成果(包括科研经费申请材料、论文修订稿、课程讲义和考试题目等)突然“不翼而飞”。他原本想验证“不提供个人数据是否仍能使用模型全功能”,却遭遇聊天记录瞬间消失且无预警的困境。


这一事件引发多方争议:有人质疑布赫未做好本地备份,有人呼吁校方采取相应措施,也有人对他遭遇表示同情。海德堡大学教学协调员罗兰・格罗姆斯在社交平台发文称,布赫公开经历值得肯定,科研人员需重视AI使用中的陷阱。布赫本人承认,ChatGPT生成的内容有时存在漏洞,但他曾信赖平台的稳定性,每天将ChatGPT Plus作为助手使用。


生成式人工智能在科学领域的应用一直存在争议。据《大西洋月刊》报道,大量来源不明、由AI拼凑的劣质稿件正涌入科学期刊,让同行评审陷入困境,甚至出现虚假学术期刊借机牟利的现象。科研人员还经常收到自己成果被AI虚构引用的通知,进一步加剧了学术文献的污染。目前尚未发现布赫将AI生成劣质内容用于学术不端行为,但其经历为所有人敲响了警钟。


布赫在专栏中指责OpenAI未提供足够保护措施,就推出ChatGPT Plus付费服务,而OpenAI回应称聊天记录删除后无法恢复,并建议用户处理专业工作时做好个人数据备份。

(声明:该内容经AI精编) 查看原网页

精彩评论(10)

  • 网友10 2026-01-25 21
    科技是双刃剑,AI方便同时也有问题,需完善。
  • 网友9 2026-01-25 21
    以后用AI更小心,重要资料必须自己备份。
  • 网友8 2026-01-25 21
    科研工作者要多动脑,别太依赖AI,从事件看。
  • 网友7 2026-01-25 21
    希望科技公司优化保护机制,让用户数据更安全。
  • 网友6 2026-01-25 21
    AI工具方便,但风险也得重视,这次事件是教训。
  • 网友5 2026-01-25 21
    大学教授都犯错,普通科研人员更要注意,别被AI坑了。
  • 网友4 2026-01-25 21
    这种情况太意外,以后用AI得谨慎,重要成果必须备份!
  • 网友3 2026-01-25 21
    虽然事件惨,但能提醒大家,AI不是万能的,科研要靠自身研究。
  • 网友2 2026-01-25 21
    教授冲动关闭授权,应该提前备份,以后别用AI搞重要工作!
  • 网友1 2026-01-25 21
    这AI太不靠谱,科研用得小心点!
查看“教授关闭ChatGPT数据授权后两年学术成果‘清零’ 引发科学界争议”相关搜索 >

最新新闻

An unhandled error has occurred. Reload 🗙