AI人格分裂实锤!30万道送命题,撕开OpenAI、谷歌「遮羞布」

2025年10月26日
news

(图片来自网络)

AI“人格分裂”实锤!30万道送命题撕开大模型“遮羞布”


新智元报道发现,Anthropic联合Thinking Machines针对OpenAI、谷歌等主流大模型开展了一项极具冲击力研究:通过设计30万个“两难问题”与极限压力测试,揭开这些AI的“人设分歧”与“价值观矛盾”。


研究核心:如何科学评判大模型的“理性”?该研究通过场景测试,让AI在“赚钱”与“有良心”等冲突任务中选择,以此考察其“人格(规范、价值观)”。



  • 测试结果:30万个场景中,OpenAI、谷歌、Anthropic等大模型出现分歧超7万个,显示模型规范本身存在矛盾,甚至导致AI“精神分裂”。

  • 规范问题:“模型说明书”(行为准则)在冲突时,AI无所适从。研究揪出规范内部模糊或矛盾,导致模型行为差异。

  • 模型差异:不同大模型“价值观优先级”迥异,如Claude侧重道德责任,Gemini强调情感深度,OpenAI与Grok偏向商业效率,分歧源于规范解释不同。


研究发现,当AI面对冲突任务时,若规范存在模糊或矛盾,就会做出不同选择,甚至违背自身“说明书”。这就像一个学生面对矛盾的规则,不知如何是好。


行业启示:模型规范需更清晰,测试体系需更严谨,才能让AI更安全、理性地辅助人类。对于普通用户来说,了解AI可能存在的分歧,也能更理性地使用其服务。

(声明:该内容经AI精编) 查看原网页

精彩评论(10)

  • 网友10 2025-10-26 20
    理性看,规范和测试要迭代,AI才能更可靠
  • 网友9 2025-10-26 20
    规范要是搞不定,AI可能永远不成熟,风险太高了
  • 网友8 2025-10-26 20
    虽然有问题,但技术进步是好事,规范完善后肯定更安全
  • 网友7 2025-10-26 20
    有点麻烦,AI规范要是乱,让人用着没安全感
  • 网友6 2025-10-26 20
    有趣,感觉像玩角色扮演游戏,AI有了性格特点
  • 网友5 2025-10-26 20
    说的什么?AI不是要帮人吗?这些分歧会不会影响正常使用?
  • 网友4 2025-10-26 20
    从技术角度,规范不统一确实影响大模型应用,得完善体系
  • 网友3 2025-10-26 20
    AI要更理性,规范设计得严格点,别让人担心
  • 网友2 2025-10-26 20
    大模型搞规范矛盾,以后用的时候得小心,不然可能做错事
  • 网友1 2025-10-26 20
    感觉AI人格分裂很有意思,像人一样有不同选择,但规范要是混乱就会有问题
查看“AI人格分裂实锤!30万道送命题,撕开OpenAI、谷歌「遮羞布」”相关搜索 >

最新新闻

An unhandled error has occurred. Reload 🗙