谷歌研究:大模型推理智能的‘多角色对话’机制揭秘

2026年1月26日
news

(图片来自网络)

近年来,大模型推理能力迎来显著跃迁,谷歌、芝加哥大学等机构的一项研究为该能力提升的原理提供了新解:推理模型并非仅靠“多算几步”,而是内部模拟了类似人类的“多角色对话”互动机制,这种“思维社会”结构助力增强推理效果。


研究指出,推理过程并非单调思考,而是像模拟辩论队一样,模型会争论、纠正观点、表达惊讶并调和冲突,最终得出正确答案。通过对DeepSeek - R1等推理模型推理轨迹的详细分析,发现其视角多样性更高,会激活更广泛的与人格和专业知识相关的特征,并在这些特征间产生充分冲突。


研究采用的方法丰富多样,包括:


  • 识别四类对话行为:问答行为、视角转换、观点冲突、观点调和,统计这些行为出现的频率;

  • 分析社会情感角色,依据Bales互动过程分析框架,统计12类互动角色(如信息给予、信息征询、积极情感等)的出现情况;

  • 识别四类认知行为(结果核验、路径回溯、子目标拆解、逆向推理),评估其对推理准确率的影响;

  • 通过稀疏自编码器调控特定特征(如表达惊讶、认同的话语标记),探究会话行为的作用。


实验结果展现,与基线模型和仅指令微调的模型相比,DeepSeek - R1和QwQ - 32B等推理模型,在推理过程中展现出更高频率的对话式行为和社会情感角色。例如,在解决研究生水平的科学推理任务时,DeepSeek - R1会通过“不同意”“提出建议”等社会情绪角色展开对话;而在简单任务中,对话行为则相对有限。


进一步强化学习实验表明,当仅以推理准确率作为奖励信号时,基础模型会自发增加对话式行为;引入对话式脚手架后,模型推理能力提升更显著。这表明,模拟多角色内部对话的“思维社会”机制,能有效提升大模型的推理表现。


谷歌由此提出“通过智能体组织形式系统性利用群体智慧”的新研究方向,该研究也为理解大模型推理能力本质提供了新视角。

(声明:该内容经AI精编) 查看原网页

精彩评论(10)

  • 网友10 2026-01-26 14
    科技发展太快,原来大模型的推理能力有这么多内在机制,很震撼
  • 网友9 2026-01-26 14
    大模型模拟对话的推理方式,或许能启发协作学习,很有教育价值
  • 网友8 2026-01-26 14
    这类研究有助于推动大模型更可靠,对未来的应用充满信心
  • 网友7 2026-01-26 14
    研究数据和实验很严谨,对大模型推理能力本质的理解更深入了,很信服
  • 网友6 2026-01-26 14
    感觉大模型像在“吵架”一样得出结论,解释得很生动,让科技更易懂
  • 网友5 2026-01-26 14
    这种模拟多角色对话的机制很符合人类思维过程,对认知科学很有价值
  • 网友4 2026-01-26 14
    作为学生,觉得这种研究能帮助理解大模型运作,对学习也有启发
  • 网友3 2026-01-26 14
    虽然不懂专业细节,但知道大模型能模拟人类对话推理,科技越来越智能了,很新奇
  • 网友2 2026-01-26 14
    从科技发展角度,大模型有内部对话机制,对理解智能系统很有帮助,很期待应用
  • 网友1 2026-01-26 14
    这个研究好有意思,感觉大模型像有团队一样思考,以后推理肯定更准了,期待新进展
查看“谷歌研究:大模型推理智能的‘多角色对话’机制揭秘”相关搜索 >

最新新闻

An unhandled error has occurred. Reload 🗙