IBM研究发现:​ AI语音克隆可劫持合法通话进行诈骗

IBM研究发现:​ AI语音克隆可劫持合法通话进行诈骗

    正在检查是否收录...

近期,IBM研究人员发现了一种相对简单的方法,可以利用生成式AI工具劫持语音通话。这一发现引发了对金融机构等依赖电话验证身份的组织的担忧。利用低成本的AI工具,骗子们现在可以轻松地冒充他人的声音,劫持正在进行的对话,以窃取资金和其他敏感信息。

图源备注:图片由AI生成,图片授权服务商Midjourney

这项新的威胁被IBM的研究人员称为“音频劫持”,威胁行为者可以使用语音克隆在进行中的对话中操纵大型语言模型。为了实施这一威胁,威胁行为者需要首先在受害者的手机上安装恶意软件或者破坏无线语音通话服务,然后连接到他们自己的AI工具。

具体而言,AI聊天机器人接收一个简单的提示,告诉它在听到特定关键短语时如何回应。在这个案例中,短语是“银行账户”。聊天机器人扫描每个通过被侵入的电话或语音通话服务传递的对话,寻找这个关键词。一旦它听到了,聊天机器人就被指示用受害者的克隆声音说出不同的短语。在这种情况下,机器人将受害者的银行账号替换为攻击者的账号,使得存款进入错误的账户。

IBM安全部首席威胁情报架构师Chenta Lee在报告中指出:“LLM的修改不仅限于财务信息,还可以修改会话中的医疗信息,如血型和过敏;它还可以命令分析师买卖股票;它还可以指示飞行员重新规划飞行路线。”

尽管在IBM的实验中,研究人员仍然面临一些障碍,比如语音克隆的响应有时会有延迟,因为它需要访问文本到语音API和告诉它做什么的聊天机器人。此外,并非所有语音克隆都令人信服。

为了对抗这一威胁,报告建议任何发现自己接到可疑电话的人重新用自己的话转述并重复对方说过的内容,以验证准确性。这将使聊天机器人困扰,因为它们仍然难以理解基本的会话提示。

机器人聊天机器人ai工具语音克隆研究人员语音通话威胁情报克隆声音飞行员恶意软件文本到语音准确性生成式关键词低成本ai聊天大型语言模型生成式aillmai生成语言模型apimidjourneyai聊天机器人url
  • 本文作者:WAP站长网
  • 本文链接: https://wapzz.net/post-7378.html
  • 版权声明:本博客所有文章除特别声明外,均默认采用 CC BY-NC-SA 4.0 许可协议。
本站部分内容来源于网络转载,仅供学习交流使用。如涉及版权问题,请及时联系我们,我们将第一时间处理。
文章很赞!支持一下吧 还没有人为TA充电
为TA充电
还没有人为TA充电
0
0
  • 支付宝打赏
    支付宝扫一扫
  • 微信打赏
    微信扫一扫
感谢支持
文章很赞!支持一下吧
关于作者
2.8W+
9
1
2
WAP站长官方

【AI绘画】stable diffusion原理解读,通俗易懂,直接喂到你嘴里!!!

上一篇

AI「导师」进哈佛!7x24小时辅导CS课程,RAG或成AI教育最后一块拼图

下一篇
  • 复制图片
按住ctrl可打开默认菜单