AI实时语音深度伪造技术突破 诈骗成功率近100%

2025年10月25日
news

(图片来自网络)

AI实时语音深度伪造技术实现突破性进展,诈骗成功率近100%?

IT之家 10月25日消息,主流语音处理方案因效果逼真往往存在延迟,但AI正推动语音深度伪造(deepfake vishing)走向“实时”阶段,攻击者可即时模仿他人声音,诈骗成功率近100%。

技术突破关键点:

  • AI模型学习目标声音样本,操作者能一键启用实时语音转译
  • 仅需中等计算性能,普通笔记本(如搭载英伟达RTX A1000显卡)可实现不到0.5秒延迟
  • 低质量录音也能生成逼真语音副本,且能实时调整语调语速

测试显示,当结合来电号码伪造时,几乎每次实验都成功欺骗测试对象。但实时视频深度伪造仍存在表情、情绪、语音同步问题,尚未完全同步发展。

专家建议:建立新型身份验证机制,借鉴“暗号”概念,使用独特且结构化信号或代码,以在远程交流中确认身份,防范AI社会工程攻击。

(声明:该内容经AI精编) 查看原网页

精彩评论(10)

  • 网友10 2025-10-25 23
    相信技术和安全会同步发展,以后会有更好的防范手段。
  • 网友9 2025-10-25 23
    需要平衡技术的发展和安全的保障,不能因为风险就限制技术发展。
  • 网友8 2025-10-25 23
    虽然技术有风险,但也可以用这些技术做公益,比如模仿名人来做公益宣传?
  • 网友7 2025-10-25 23
    现在打电话要小心了,声音模仿得这么逼真,得验证清楚对方身份。
  • 网友6 2025-10-25 23
    现在网络安全问题越来越复杂,这种技术普及后风险会更高。
  • 网友5 2025-10-25 23
    这AI技术真的越来越厉害,以后要研究怎么防范这类技术。
  • 网友4 2025-10-25 23
    以后打电话可能要小心了,连声音都能模仿,得练练独特的说话方式?
  • 网友3 2025-10-25 23
    现在诈骗手段多,得好好提醒老人注意,别被模仿的声音欺骗。
  • 网友2 2025-10-25 23
    企业和个人都要重视这个安全问题,得研发更可靠的身份验证系统。
  • 网友1 2025-10-25 23
    这技术发展太快了,以后安全防范得赶紧跟上,否则容易上当。
查看“AI实时语音深度伪造技术突破 诈骗成功率近100%”相关搜索 >

最新新闻

An unhandled error has occurred. Reload 🗙