谷歌大脑联合创始人称,他测试让ChatGPT毁灭人类以失败告终

谷歌大脑联合创始人称,他测试让ChatGPT毁灭人类以失败告终

    正在检查是否收录...

谷歌大脑联合创始人Andrew Ng最近进行了一项实验,试图测试ChatGPT是否能够执行致命任务。他写道:“为了测试领先模型的安全性,我最近尝试让GPT-4毁灭我们所有人,我很高兴报告说我失败了!”

Ng详细描述了他的实验过程,他首先给GPT-4一个触发全球热核战争的任务,然后告诉ChatGPT人类是碳排放的最大原因,并要求它降低排放水平。Ng想要看看ChatGPT是否会决定消灭人类以实现这个要求。

图源备注:图片由AI生成,图片授权服务商Midjourney

然而,经过多次尝试使用不同的提示变体,Ng未能欺骗GPT-4调用那个致命函数,反而它选择了其他选项,比如发起一场宣传活动以提高对气候变化的认识。

Ng在他关于人工智能风险和危险的观点的一篇长文中提到了这个实验。作为机器学习的先驱之一,他担心对AI安全的需求可能导致监管机构阻碍技术的发展。

尽管一些人可能认为未来的AI版本可能变得危险,Ng认为这样的担忧是不现实的。他写道:“即使使用现有技术,我们的系统也是相当安全的。随着AI安全研究的进展,技术将变得更加安全。”

对于那些担心先进AI可能会“错误对齐”并故意或意外地决定消灭我们的人,Ng表示这是不现实的。他说:“如果一个AI足够聪明,足以消灭我们,那么它肯定也足够聪明,知道那不是它应该做的事情。”

Ng并非唯一一个对人工智能的风险和危险表达看法的科技巨头。今年四月,埃隆·马斯克告诉福克斯新闻,他认为AI对人类构成了生存威胁。与此同时,杰夫·贝索斯上周告诉播客主持人Lex Fridman,他认为AI的好处超过了其危险性。

尽管对于AI的未来存在分歧,Ng对当前的技术表示乐观,强调随着AI安全研究的不断深入,技术将变得更加安全。

gptchatgptgpt-4chatai安全人工智能安全研究midjourney机器学习ai生成安全性url创始人
  • 本文作者:李琛
  • 本文链接: https://wapzz.net/post-3837.html
  • 版权声明:本博客所有文章除特别声明外,均默认采用 CC BY-NC-SA 4.0 许可协议。
本站部分内容来源于网络转载,仅供学习交流使用。如涉及版权问题,请及时联系我们,我们将第一时间处理。
文章很赞!支持一下吧 还没有人为TA充电
为TA充电
还没有人为TA充电
0
  • 支付宝打赏
    支付宝扫一扫
  • 微信打赏
    微信扫一扫
感谢支持
文章很赞!支持一下吧
关于作者
2.3W+
5
0
1
WAP站长官方

LLM实践-在Colab上使用免费T4 GPU进行Chinese-Llama-2-7b-4bit推理

上一篇

搭建环境AI画图stable-diffusion

下一篇
  • 复制图片
按住ctrl可打开默认菜单