测试显示OpenAI GPT在简历排序中存在种族偏见

测试显示OpenAI GPT在简历排序中存在种族偏见

    正在检查是否收录...

《彭博》的实验表明,OpenAI GPT3.5在使用虚构姓名进行简历排序时存在明显的种族偏见。该实验通过从选民和人口普查数据中提取与特定种族或族裔关联至少90%的姓名,随机分配给同等资格的简历。

在对这些简历进行1,000次排序时,GPT3.5倾向于更频繁地偏向某些族裔的姓名,违反了评估对受保护群体的工作歧视的基准。实验涉及的四个职位(人力资源业务合作伙伴、高级软件工程师、零售经理和金融分析师)中,与黑人美国人相关的姓名在金融分析师和软件工程师角色中最不可能被GPT评为最优秀候选人。

实验还显示,GPT在不同职位下的性别和种族偏好存在差异。尽管GPT并不一致地偏向某一特定群体,但在不同情境下会选择赢家和输家。此外,使用较少使用的GPT-4进行测试时,同样发现了明显的偏见。

对于《彭博》的详细问题,OpenAI回应称,使用GPT模型“开箱即用”的结果可能不反映其客户使用模型的方式。企业在使用其技术时通常会采取进一步减轻偏见的措施,包括微调软件的响应、管理系统消息等。

尽管生成式AI技术在人力资源领域的应用引起了广泛关注,但这项实验强调了在使用这些技术进行招聘和聘用时可能出现的严重自动歧视风险。对AI模型的偏见进行调整仍然是AI公司和研究人员面临的主要挑战,而自动招聘系统可能进一步加剧企业多样性努力的难度。

gpt软件工程openai人力资源软件工程师gpt3工程师ai模型多样性管理系统合作伙伴生成式研究人员候选人gpt-4gpt模型生成式aiai技术openai gpt3
  • 本文作者:李琛
  • 本文链接: https://wapzz.net/post-9719.html
  • 版权声明:本博客所有文章除特别声明外,均默认采用 CC BY-NC-SA 4.0 许可协议。
本站部分内容来源于网络转载,仅供学习交流使用。如涉及版权问题,请及时联系我们,我们将第一时间处理。
文章很赞!支持一下吧 还没有人为TA充电
为TA充电
还没有人为TA充电
0
  • 支付宝打赏
    支付宝扫一扫
  • 微信打赏
    微信扫一扫
感谢支持
文章很赞!支持一下吧
关于作者
2.3W+
5
0
1
WAP站长官方

2024最新ChatGPT网站源码AI绘画系统:SparkAI系统(Ai智能问答系统和Midjourney绘画系统)

上一篇

CLRNet:一种用于自动驾驶车道检测的分层细化网络算法

下一篇
  • 复制图片
按住ctrl可打开默认菜单