AI大模型聊天记录分享易成公开网页 多款产品存隐私风险

2025年12月16日
news

(图片来自网络)

Ai大模型聊天记录分享或成公开网页 多款产品存隐私风险


当用户在Ai聊天窗口输入包含敏感信息的内容后,若点击“分享”按钮,这些隐私信息可能以无密码保护的公开网页形式暴露在互联网中。近期南都大数据研究院对国内8款主流Ai大模型产品进行实测,发现多款产品存在聊天记录分享后隐私泄露风险。


【实测情况】


南都大数据研究院选取DeepSeek、Kimi、豆包、千问、元宝、讯飞星火、文心一言、智谱清言等8款Ai大模型产品,在网页端及手机App端进行实测。结果显示,8款产品的对话记录分享功能均通过公开网页或小程序等形式实现,用户一旦点击“分享”按钮,对话内容即可能暴露在互联网上。操作流程上,8款产品的内容分享功能设计较为相似:用户与Ai完成一轮对话后,点击Ai回答内容下方的“分享”图标,聊天界面会弹出包含“复制链接”“生成图片”等选项的菜单,供用户选择对话记录的分享方式;随后将生成的链接粘贴至浏览器,或扫描图片附带的二维码,无需登录账号、输入密码或进行身份验证,即可直接浏览完整对话记录。在安全提醒方面,仅有DeepSeek在生成分享链接前主动提醒用户“任何获得链接的人都可以查看你分享的对话,请检查是否包含敏感或隐私内容”,其余7款产品均未设置前置提醒,直接向用户提供分享链接。


从实测结果来看,风险主要体现在以下几点:
1. 多款Ai产品分享功能无密码验证,隐私信息易被他人获取;
2. 部分产品“分享给好友”功能实际仍为无验证的公开形式,可随意二次转发;
3. 分享链接存在猜解风险,攻击者可能通过批量生成相似字符组合来访问其他用户公开的对话记录;
4. 搜索引擎等可检索到大量用户分享的Ai对话记录,引发隐私泄露隐患。


【建议措施】


针对此类隐私泄露风险,建议用户与Ai企业共同发力:用户方面,谨慎使用分享功能,若需传递对话记录可优先选择截图并手动打码敏感信息,或直接复制文本粘贴发送,避免分享原始对话链接;同时养成“聊后即清”的习惯,定期删除无需回顾的对话历史,减少敏感信息留存。企业方面,应承担更多安全提示责任,例如在用户点击“分享”按钮时强制弹出安全提示框,同时提供“设置访问密码”“限制访问次数”“指定访问对象”等可选安全功能,让用户在便捷性与安全性之间拥有更多选择权。只有企业与用户协同,才能筑牢隐私安全的“防火墙”。

(声明:该内容经AI精编) 查看原网页

精彩评论(10)

  • 网友10 2025-12-16 16
    这样的测试结果很让人担忧,需要共同努力保障安全。
  • 网友9 2025-12-16 16
    保护隐私是每个人的责任,使用Ai也要注意这点。
  • 网友8 2025-12-16 16
    现在的大模型确实需要加强安全机制,防止信息泄露。
  • 网友7 2025-12-16 16
    这件事提醒我们,Ai使用时要谨慎,别让隐私成为漏洞。
  • 网友6 2025-12-16 16
    希望科技公司尽快优化分享功能,保护用户隐私。
  • 网友5 2025-12-16 16
    作为用户,以后分享前要仔细检查,防止隐私泄露。
  • 网友4 2025-12-16 16
    技术人员应该了解风险,用的时候格外小心。
  • 网友3 2025-12-16 16
    科技发展要注重隐私保护,这类问题应该重视解决。
  • 网友2 2025-12-16 16
    没想到Ai聊天记录分享这么不安全,以后可得注意了。
  • 网友1 2025-12-16 16
    这太危险了,用Ai时要小心分享,保护隐私很重要啊。
查看“AI大模型聊天记录分享易成公开网页 多款产品存隐私风险”相关搜索 >

最新新闻

An unhandled error has occurred. Reload 🗙