中国网络空间安全协会提出AI治理建议:分类严管高风险场景

2025年12月21日
news

(图片来自网络)

12月18日,由南方都市报社、南都数字经济治理研究中心主办的“第九届啄木鸟数据治理论坛”在京举行,主题聚焦“AI安全边界:技术、信任与治理新秩序”。中国网络空间安全协会副理事长、人工智能安全治理专业委员会主任卢卫为论坛致辞。

卢卫表示,AI治理应坚持“分类分级”,比如对自动驾驶、智慧医疗等高风险场景进行严格监管,对低风险应用则留出一定创新空间。随着大模型应用场景渗透到社会各角落,AI智能已走入普通人的生活,新应用也给网络生态治理带来挑战。

卢卫认为,建立健全面向未来的人工智能安全治理生态,需依靠技术创新、信任建设和制度完善形成合力。技术创新是安全基础,要提升AI自身安全性(如通过对抗训练增强模型鲁棒性、利用差分隐私保护数据安全)和研究治理技术(如算法漏洞智能检测、深度伪造检测、算法审计工具等);信任是治理桥梁,需做到“透明可及”(提高算法决策过程透明度、避免技术异化损害隐私与公平等价值),同时积极普及AI知识以提升全民数字素养;制度是保障,要建立健全“法律+标准+伦理”的治理体系,既通过《网络安全法》《数据安全法》等法律划出“红线”,也发挥行业标准、自律公约的柔性调节作用,坚持对高风险场景严格监管、对低风险应用留出创新空间,推动跨部门、跨区域协同治理与加强国际合作。

近年来涉人工智能网络安全事件呈现手段智能化、风险场景复杂化的特点——不法分子利用AI作为违法犯罪工具,且风险已从数字空间渗透到物理世界(如具身智能逐步进入家庭生活)。卢卫强调治理需保持“敏捷性”,制度建设需“与时俱进”,通过建立健全动态风险评估机制,为前沿技术和领域的治理提出方案、为创新留出试错空间。例如,中国网络空间安全协会组织专业机构对人工智能模型进行安全和能力评测实践探索。

卢卫强调,随着人工智能技术迅速迭代,推动AI安全治理生态建设需依靠技术创新筑牢防线、依靠信任夯实社会共识、依靠制度完善保驾护航,行业协会愿积极参与,共同做好人工智能安全治理方面的工作。

(声明:该内容经AI精编) 查看原网页

精彩评论(10)

  • 网友10 2025-12-21 00
    制度完善和国际合作很重要,分类分级治理符合发展趋势,期待落地实施。
  • 网友9 2025-12-21 00
    AI在教育和医疗领域应用多,分类监管能保障学生和病人安全,支持这样的治理方式。
  • 网友8 2025-12-21 00
    喜欢传统方式,现在AI太新,分类监管能减少风险,这样能接受。
  • 网友7 2025-12-21 00
    低风险应用创新空间要给够,这样才能让AI技术快速发展,不应过度监管。
  • 网友6 2025-12-21 00
    从安全角度考虑,高风险场景严管是对的,但低风险创新空间也要保障,这样才能促进行业发展。
  • 网友5 2025-12-21 00
    AI治理分类管理,高风险盯紧,低风险给空间,这样既安全又创新,太合理了!
  • 网友4 2025-12-21 00
    分类分级治理符合AI发展方向,技术创新和制度完善都很重要,能保障技术安全发展。
  • 网友3 2025-12-21 00
    听不懂太专业的,但觉得AI越来越参与生活,希望有安全保证,分类管理能让我们安心用。
  • 网友2 2025-12-21 00
    作为企业负责人,高风险场景监管很重要,这样能让我们更放心采用AI技术,同时也能推动低风险应用发展。
  • 网友1 2025-12-21 00
    这些建议很实用,现在AI应用越来越广泛,分类管理确实能保障安全,期待有更多创新空间!
查看“中国网络空间安全协会提出AI治理建议:分类严管高风险场景”相关搜索 >

最新新闻

An unhandled error has occurred. Reload 🗙