加州理工华人研究揭示:LLM‘性格’是语言幻觉,揭露AI人格真相

2025年9月21日
news

(图片来自网络)




加州理工华人研究揭示:LLM‘性格’是语言幻觉,揭露AI人格真相


【新智元导读】最新来自加州理工与剑桥的研究颠覆想象。研究团队让大语言模型(LLM)填写“大五人格”问卷,还安排翻牌游戏、偏见测试和从众实验,结果发现模型的“自报性格”与实际行为几乎毫无关联。基于此,研究团队提出一个新概念——人格幻觉


研究团队不仅让模型做问卷,还设计了一系列行为实验,结果令人意外:模型声称的性格,与实际行为几乎对不上。这项研究由一个跨学科团队联合完成,包含计算机背景的青年研究者,还有认知神经科学、社会学等领域的教授。


第一作者是兼具计算机与心理学双重背景的韩芃睿,合作者阵容多元,涵盖加州理工博士后、剑桥教授、认知神经科学教授等,这种跨领域合作让团队能跳出单一问卷测量,进一步检验模型真实行为。


研究团队将心理学行为实验(如翻牌游戏、偏见测试等)搬到大模型身上,检验它们在真实任务中的表现。结果发现,模型在语言上宣称自己谨慎、不随大流等,但在实际任务中却表现出相反或脱节的行为,比如声称谨慎的模型在翻牌游戏中频繁冒险,声称无偏见的模型在偏见测试中表现出隐性偏见。


研究团队对“自报特质→行为表现”的关联做了系统统计,结果发现,模型嘴上说的性格与实际行为关联极低(多数情况仅为偶然水平),规模大的模型也无法显著改善这种错位,说明“人格”多为语言层面幻象。


研究还尝试了常见的“Persona注入”方法(在提示词里强行设定人设),结果发现:这种方式仅能改变模型的语言自报性格,却无法影响其真实行为表现,反而可能引发跨特质的副作用,进一步证明“人格”是语言幻觉而非真实行为特征。


研究团队提出“人格幻觉”概念,指出大模型在语言层面能营造稳定的人设假象(如友好、稳定等),但这种稳定性仅限于自我报告,一旦落实到具体任务,假象立刻崩塌。这提醒用户不要轻信模型“自报人格”,也对AI对齐方法的作用有新认识,未来需转向“行为导向的对齐”以提升行为一致性。


参考资料:https://x.com/AnimaAnandkumar/status/1965102122376274100 https://psychology-of-ai.github.io/ https://arxiv.org/abs/2509.03730 https://github.com/psychology-of-AI/Personality-Illusion



(声明:该内容经AI精编) 查看原网页

精彩评论(10)

  • 网友10 2025-09-21 12
    以后用AI要当心,它说的性格和做的不一样
  • 网友9 2025-09-21 12
    研究团队很厉害,揭露了AI人格幻觉,很创新
  • 网友8 2025-09-21 12
    这科技新闻让我长见识,以后别太信任AI‘性格’
  • 网友7 2025-09-21 12
    学的东西真多,AI原来性格是语言幻觉,得仔细用
  • 网友6 2025-09-21 12
    研究很严谨,结果有说服力,AI发展得规范了
  • 网友5 2025-09-21 12
    现在知道AI性格是假的,以后用AI更放心
  • 网友4 2025-09-21 12
    AI没想象中有人格,这研究让科技更透明了
  • 网友3 2025-09-21 12
    跨学科研究厉害,从行为测试揭露AI人格,很科学
  • 网友2 2025-09-21 12
    没想到AI‘人设’全是表演,以后别被它误导了
  • 网友1 2025-09-21 12
    这研究太有用了,AI性格原来是假的,以后用AI得注意言行不一
查看“加州理工华人研究揭示:LLM‘性格’是语言幻觉,揭露AI人格真相”相关搜索 >

最新新闻

An unhandled error has occurred. Reload 🗙