微软Azure AI平台增加新安全功能 可捕获客户AI应用中的幻觉

微软Azure AI平台增加新安全功能 可捕获客户AI应用中的幻觉

    正在检查是否收录...
一言准备中...

微软的Azure AI平台最近添加了一系列新的安全功能,旨在帮助捕捉客户AI应用中的幻觉、提示攻击和其他安全漏洞。这些功能由微软的首席负责人Sarah Bird介绍,并表示将易于使用,无需雇佣红队来测试他们构建的AI服务。

这些由LLM提供支持的工具可以检测潜在的漏洞,监控“可能是合理但不受支持”的幻觉,并实时阻止Azure AI客户使用任何托管在该平台上的模型时出现的恶意提示。Bird表示:“我们知道,客户并非都对提示注入攻击或恶意内容有深入的专业知识,因此评估系统会生成所需的提示来模拟这些类型的攻击。客户随后可以得到评分并查看结果。”

图源备注:图片由AI生成,图片授权服务商Midjourney

这些安全功能分为三个主要部分:提示屏蔽、基于AI检测和安全评估,现在已在Azure AI上提供预览。另外两个功能用于指导模型输出安全内容和跟踪提示以标记潜在的问题用户,即将推出。

无论用户是输入提示还是模型正在处理第三方数据,监控系统都将对其进行评估,以查看是否触发任何被禁止的词语或隐藏提示,然后再决定是否将其发送给模型进行回答。之后,系统将查看模型的响应,并检查模型是否在文档或提示中产生了不在其中的信息。

Bird承认,人们担心微软和其他公司可能在决定什么对于AI模型是合适或不合适,因此她的团队添加了一种方式,让Azure客户切换模型所见和阻止的仇恨言论或暴力的过滤。

未来,Azure用户还可以获得尝试触发不安全输出的用户报告。Bird表示,这使系统管理员能够确定哪些用户是他们自己的红队成员,哪些可能是具有更恶意意图的人。

Bird表示,这些安全功能立即“附加”到GPT-4和其他流行模型,如Llama2。但是,由于Azure的模型库包含许多AI模型,因此使用较小、使用较少的开源系统的用户可能需要手动将安全功能指向这些模型。

微软一直在利用AI增强其软件的安全性,特别是随着越来越多的客户对使用Azure访问AI模型感兴趣。该公司还努力扩展其提供的强大AI模型数量,最近与法国AI公司Mistral达成独家协议,以在Azure上提供Mistral Large模型。

azureai模型ai应用提示注入模型库llama2管理员系统管理员专业知识llamaai增强ai服务易于使用安全性ai平台ai检测llmai生成gptgpt-4
  • 本文作者:WAP站长网
  • 本文链接: https://wapzz.net/post-12099.html
  • 版权声明:本博客所有文章除特别声明外,均默认采用 CC BY-NC-SA 4.0 许可协议。
本站部分内容来源于网络转载,仅供学习交流使用。如涉及版权问题,请及时联系我们,我们将第一时间处理。
文章很赞!支持一下吧 还没有人为TA充电
为TA充电
还没有人为TA充电
0
  • 支付宝打赏
    支付宝扫一扫
  • 微信打赏
    微信扫一扫
感谢支持
文章很赞!支持一下吧
关于作者
2.7W+
9
1
2
WAP站长官方

【WebJs 爬虫】逆向进阶技术必知必会

上一篇

人工智能如何颠覆云网络

下一篇
  • 复制图片
按住ctrl可打开默认菜单