2025年度AI乱象调查:从法律、模型、数据三管齐下治理源头

2025年12月19日
news

(图片来自网络)



2025年度AI乱象调查:从法律、模型、数据三管齐下治理源头


开栏语


AI技术正以前所未有的速度重塑世界,也在现实中投射出重重乱象。“slop”被评为年度热词,AI“一键脱衣”“捏假偶像”等问题引发关注。上游新闻推出“年度AI乱象调查”,盘点乱象背后的深层逻辑,探讨治理之道。



专家建议:源头治理三管齐下


重庆大学黄晟教授提出法律、模型、数据三层面治理建议。



1. 法律层面:压实主体责任,标识追溯


《人工智能生成合成内容标识办法》要求AI生成内容“亮明身份”,嵌入显性与隐式标识,为取证追究责任提供依据。



  • 技术提供者需履行主体责任,确保合成内容标识合规

  • 标识助力公众识别、司法机关追责



2. 模型层面:安全与伦理评估,内建防滥用机制


模型上线前需通过安全伦理评估,高风险功能(如人脸合成、语音克隆)需内建活体检测、敏感内容过滤等机制。



  • 服务提供者确保模型合规,高危功能强化技术防护

  • 活体检测、声纹验证等防滥用,保障模型安全



3. 数据层面:合法合规训练,筛查有害数据


训练数据需合法合规,严禁使用盗版、隐私或违法数据,建立审核机制筛查违法不良信息。



  • 训练数据为“食品”,需守住合法合规底线

  • 剔除涉黄、暴力等违法数据,避免模型生成有害内容



伦理边界:从口号到可执行标准


制定AI伦理“负面清单”,明确禁止高风险场景(诈骗、色情、未成年人操控等);推广“可解释AI”,让算法决策透明;将AI素养纳入国民基础教育,培养数字辨识与独立思考能力。



  • 伦理“负面清单”成为模型设计硬性约束

  • “可解释AI”让司法、教育场景算法透明

  • AI素养教育培养下一代数字批判能力



监管转型:从“事后追责”到“技术前置”


监管部门推动技术前置治理,如强制高风险AI服务开放安全接口、建立模型备案检测标准、建设国家级AI内容检测基础设施,构建跨平台协同防御机制。



  • 强制高风险AI服务开放安全接口,快速核验合成内容

  • 建立模型备案与检测标准,强化安全防护

  • 建设国家级AI内容检测基础设施,实现上传即检测

  • 跨平台协同防御,将作恶者挡在生态之外



结语


技术底线与合规成本,让AI乱象得到有效治理,AI技术向良性方向发展。



(声明:该内容经AI精编) 查看原网页

精彩评论(10)

  • 网友10 2025-12-19 12
    希望这些治理措施能落地,以后再也不用担心AI乱象了!
  • 网友9 2025-12-19 12
    国家出台这些办法很及时,AI发展需要监管保障,不能乱来。
  • 网友8 2025-12-19 12
    模型安全与伦理评估能减少数据滥用,企业也受益,品牌也能保护。
  • 网友7 2025-12-19 12
    AI素养教育得从娃娃抓起,现在孩子分不清AI生成内容,得学辨别。
  • 网友6 2025-12-19 12
    可解释AI太有必要了,算法黑箱太危险,得让用户知道咋判断。
  • 网友5 2025-12-19 12
    伦理负面清单不错,以后AI不能搞虚假诈骗了,得有规矩。
  • 网友4 2025-12-19 12
    监管技术前置很重要,现在AI做恶太快,事后追责不现实了。
  • 网友3 2025-12-19 12
    数据层面要注意保护隐私,训练数据不能乱用,不然模型坏了也不行。
  • 网友2 2025-12-19 12
    三管齐下太好了,现在AI洗脑式营销太坑,得从源头堵了!
  • 网友1 2025-12-19 12
    这AI乱象得管,不然以后被冒充了都没法子!
查看“2025年度AI乱象调查:从法律、模型、数据三管齐下治理源头”相关搜索 >

最新新闻

An unhandled error has occurred. Reload 🗙