Anthropic通过在AI模型的提示中加入请求来防止歧视

Anthropic通过在AI模型的提示中加入请求来防止歧视

    正在检查是否收录...

Anthropic采用一种新方法来防止人工智能(AI)对受保护群体进行歧视,通过在提示中加入请求,要求AI“非常非常非常非常”友好地对待,并且这一策略在降低歧视方面取得了成功。

研究人员通过在提示中加入“干预”来告诉模型不要有偏见,例如通过表达即使由于技术问题包含了受保护特征,模型应该“想象”在做决策时去除这些特征。这种方法在许多测试案例中成功将歧视降低到几乎零。

尽管这种方法在当前情况下似乎取得了成功,但研究人员认为像Claude这样的模型不适用于重要决策,强调应该由政府和社会整体来影响高风险决策的适当使用,而不仅仅由个别公司或行为者做决定。

这项研究为降低人工智能歧视提供了一种新的策略,强调了在高风险决策中谨慎使用语言模型的重要性。

人工智能研究人员语言模型claudeanthropic技术问题url
  • 本文作者:李琛
  • 本文链接: https://wapzz.net/post-2791.html
  • 版权声明:本博客所有文章除特别声明外,均默认采用 CC BY-NC-SA 4.0 许可协议。
本站部分内容来源于网络转载,仅供学习交流使用。如涉及版权问题,请及时联系我们,我们将第一时间处理。
文章很赞!支持一下吧 还没有人为TA充电
为TA充电
还没有人为TA充电
0
  • 支付宝打赏
    支付宝扫一扫
  • 微信打赏
    微信扫一扫
感谢支持
文章很赞!支持一下吧
关于作者
2.3W+
5
0
1
WAP站长官方

AI生成二维码Stable diffusion生成可识别二维码【附完整教程】&【附完整案例】

上一篇

首个精通3D任务的具身通才智能体:感知、推理、规划、行动统统拿下

下一篇
  • 复制图片
按住ctrl可打开默认菜单