谷歌DeepMind提出:AGI或以拼凑型AI集群涌现,需加强大规模智能体管理

2025年12月21日
news

(图片来自网络)



谷歌DeepMind提出:AGI或以拼凑型AI集群涌现,需加强大规模智能体管理


谷歌DeepMind最新发布的研究为通用人工智能(AGI)的演变提出了全新视角:AGI未必以单一巨型模型呈现,更可能通过“拼凑型AI”(由多款次级智能体协作)率先涌现。该研究聚焦AGI安全,提出需紧急管理大规模智能体以应对潜在风险。



核心观点:拼凑型AGI的合理性



  • AGI可能不以单一实体形式出现,而是由具互补技能的次级智能体群体协作构成。

  • 当前AI安全研究多针对单一强大模型,对“拼凑型AGI”风险关注不足。



研究提出的“拼凑型AGI”特征



  • 系统由具互补技能的个体Sub-AGI智能体构成,体现集体智能。

  • 智能体间可相互委托任务、路由至合适工具,经济驱动下更高效。



安全挑战与管理方案


为应对大规模智能体带来的管理难题,DeepMind提出分布式安全框架,包含四个防御层:



  • 第一层:市场设计

    • 构建虚拟智能体沙盒,隔离与开放网络。

    • 通过激励机制、透明度、熔断机制保障安全。



  • 第二层:基线智能体安全

    • 确保个体智能体可控、可靠,具备对抗鲁棒性。

    • 实施中断、遏制、对齐等安全措施。



  • 第三层:监控与监督

    • 实时监控系统性风险,利用AI辅助工具。

    • 建立独立监督机构与红队测试。



  • 第四层:监管机制

    • 建立法律责任、标准、保险等外部监管。

    • 推动国际协调与基础设施治理。





研究结论强调,即使AGI不以拼凑型形式出现,管理大规模智能体已成为紧迫议题,该框架为应对未来AGI风险提供了方向。



(声明:该内容经AI精编) 查看原网页

精彩评论(10)

  • 网友10 2025-12-21 20
    分布式智能体的安全管理需要跨领域合作,国际协调很重要,这类研究为政策制定提供了新思路。
  • 网友9 2025-12-21 20
    这类科技研究对学生理解未来科技趋势有帮助,也可以教学生关于安全、协作的理念。
  • 网友8 2025-12-21 20
    拼凑型AI就像团队作业,每个小AI做部分任务?好有趣,以后AI协作能做得更好?
  • 网友7 2025-12-21 20
    研究提出了不同的AGI假设和解决方案,为AI安全领域打开了新视角,值得进一步探讨细节。
  • 网友6 2025-12-21 20
    如果以后有更多智能体协作的AI服务,安全层面要更可靠,希望相关研究能推动更安全的AI产品。
  • 网友5 2025-12-21 20
    科技发展速度很快,AGI的安全管理确实需要提前规划,分布式安全框架的思路挺有深度的,要重视。
  • 网友4 2025-12-21 20
    企业如果涉及多智能体协作,需要关注这类管理框架,对风险防控和运营很有帮助,值得研究借鉴。
  • 网友3 2025-12-21 20
    研究很值得学习,分布式的AI管理理念很重要,未来科技发展要注重安全,这样的研究对教育也有帮助。
  • 网友2 2025-12-21 20
    感觉AGI像拼图游戏,不过拼凑型AI好像更接地气,未来智能体像是玩拼图一样协作,有点酷。
  • 网友1 2025-12-21 20
    这个研究很前沿,说明AI发展不只是单一模型,管理智能体群很重要,需要政府和社会重视。
查看“谷歌DeepMind提出:AGI或以拼凑型AI集群涌现,需加强大规模智能体管理”相关搜索 >

最新新闻

An unhandled error has occurred. Reload 🗙