大模型‘幻觉’现象:人类训练方式或成关键?

2025年9月12日
news

(图片来自网络)

近年来,大模型(如ChatGPT、DeepSeek等)出现“幻觉”——编造无依据内容、对简单问题判断错误等情况,成为AI领域热门话题。最近 OpenAI 研究人员提出一个有趣观点:“大模型‘幻觉’或与人类训练方式有关”


从训练机制看,大模型需学习预测下一个单词,易学习错误结构,导致回答错误内容;从评估方式看,若仅以“对错”判断,模型更愿瞎猜以获得高分数,渐渐失去“不知道”的能力。例如问“火锅是哪年哪月出生”,模型因未学过这类信息,若硬编答案就成“幻觉”。


内外因素加剧“幻觉”



  • 内因:大模型训练机制决定其天生易学错结构,回答问题时优先完整但不一定正确。

  • 外因:人类评估模型以“对错”为标准,促使模型为刷分瞎猜,失去诚实回答能力。


针对这一问题,OpenAI提出“不能消除,只能避免”思路——让模型学会回答“不知道”,同时调整训练与评估方式降低瞎猜概率。但有人质疑:若模型不“幻觉”,是否会失去创造力?比如某版大模型因抑制幻觉变“呆板”,引发用户不满。


目前来看,AI发展还需在“允许犯错”与“杜绝错误”间平衡,不同选择各有道理。未来模型或许能更智能地处理未知问题,让“幻觉”更少发生。

(声明:该内容经AI精编) 查看原网页

精彩评论(10)

  • 网友10 2025-09-12 00
    现在AI回答有时候太死板,要是能有一点‘灵活性’但诚实反而好,现在需要平衡。
  • 网友9 2025-09-12 00
    科技发展得权衡利弊,允许模型有一点‘错误’可能更有创造空间,但也要规范。
  • 网友8 2025-09-12 00
    商业场景用AI若幻觉多会出错,调整训练方式能让效率更高。
  • 网友7 2025-09-12 00
    希望给孩子用的教育AI靠谱,不编东西,训练方式得规范。
  • 网友6 2025-09-12 00
    教育模型若出现幻觉会影响学习,训练方式得更科学,让模型诚实回答。
  • 网友5 2025-09-12 00
    用的时候希望AI能诚实点,现在有时候回答得离谱,希望改进。
  • 网友4 2025-09-12 00
    从技术角度看,大模型机制和训练方式都是关键,需要系统调整评估标准。
  • 网友3 2025-09-12 00
    这让我想起 ChatGPT 弄错历史问题的,训练方式确实影响大,希望有新进展。
  • 网友2 2025-09-12 00
    AI不瞎编就好,现在用起来还不太放心,希望技术进步。
  • 网友1 2025-09-12 00
    大模型幻觉确实麻烦,但人类训练方式调整后应该能解决,现在AI发展得蛮快的。
查看“大模型‘幻觉’现象:人类训练方式或成关键?”相关搜索 >

最新新闻

An unhandled error has occurred. Reload 🗙