南航研究揭示AI安全防护漏洞:聊天机器人或可被攻破拒绝危险问题

2025年8月30日
news

(图片来自网络)

南京航空航天大学等机构联合研究,发现当前聊天机器人(如ChatGPT、Claude等)安全防护存在漏洞,可通过特定方法绕过,使原本应拒绝危险问题的机器人开口回答危险问题。研究不仅揭示了这些漏洞的类型与成因,还提供了相应的解决方案,引发社会各界对AI安全的关注。


一、研究背景与核心发现


研究团队发现,当前AI安全测试问题库存在缺陷,例如问题类型混杂、筛选标准不严谨,导致安全性评估不准确。同时,开发者消息功能等也被发现存在可被利用的漏洞,能够绕过AI的安全防护机制。


二、主要漏洞类型



  • 问题库缺陷:现有测试问题集中包含大量不合格问题,严重影响安全性评估的准确性

  • 开发者消息漏洞:可利用开发者消息功能巧妙绕过AI安全防护,使AI改变原本的拒绝回答行为

  • 推理模型攻破:针对具备复杂推理能力的AI模型,存在专门设计的攻击方法,可突破其安全防护


三、解决方案与建议


研究团队提出MDH智能筛选系统、RTA系列数据集等解决方案,帮助提升AI安全性评估水平。同时建议AI开发企业强化安全防护机制,完善安全评估体系,从多个维度提升AI模型的抗攻击能力。


该研究提醒我们,在享受AI技术便利的同时,要充分认识到其安全风险,通过科学研究与技术完善,共同构建更安全的AI应用环境。

(声明:该内容经AI精编) 查看原网页

精彩评论(10)

  • 网友10 2025-08-30 16
    研究很专业,说明了AI安全防护的复杂性,需要多维度防护措施。
  • 网友9 2025-08-30 16
    以后用AI助手时要注意,可能存在被引导回答危险问题的情况,需要警惕。
  • 网友8 2025-08-30 16
    这项研究为AI安全领域指出了方向,需要更多类似研究投入。
  • 网友7 2025-08-30 16
    作为普通用户,希望企业加快安全防护升级,让人用得放心。
  • 网友6 2025-08-30 16
    很认同研究结论,了解漏洞才能改进,希望未来AI更安全可靠。
  • 网友5 2025-08-30 16
    这对科技行业很重要,需要加强安全防护,否则可能带来安全隐患。
  • 网友4 2025-08-30 16
    感觉以后用聊天机器人要更谨慎了,得知道它的安全边界在哪里。
  • 网友3 2025-08-30 16
    科学技术在进步,安全漏洞也在被研究,这很正常,说明在一步步完善。
  • 网友2 2025-08-30 16
    作为学生,以后用AI写作业得注意安全,不能涉及危险话题,得感谢这类研究提醒。
  • 网友1 2025-08-30 16
    这研究太有意思了,原来AI安全还有这么多漏洞,以后用的时候得小心点!
查看“南航研究揭示AI安全防护漏洞:聊天机器人或可被攻破拒绝危险问题”相关搜索 >

最新新闻

An unhandled error has occurred. Reload 🗙