​AWS与NVIDIA扩大合作,提供先进的生成式AI基础设施

​AWS与NVIDIA扩大合作,提供先进的生成式AI基础设施

    正在检查是否收录...

Amazon Web Services(AWS)和NVIDIA(英伟达)宣布扩大合作,致力于为生成式人工智能(AI)创新提供先进的基础设施、软件和服务。该合作旨在为客户提供训练基础模型和构建生成式AI应用所需的关键技术。根据周二(11月28日)的新闻稿,AWS将成为首个在云上引入NVIDIA GH200Grace Hopper Superchips的云服务提供商。

这些芯片将在Amazon Elastic Compute Cloud(Amazon EC2)实例上提供,使联合客户能够规模化到数千个GH200Superchips。GH200NVL32多节点平台将32个Grace Hopper Superchips与NVIDIA NVLink和NVSwitch技术连接成一个实例。

图源备注:图片由AI生成,图片授权服务商Midjourney

此外,NVIDIA和AWS将合作在AWS上托管NVIDIA DGX Cloud,这是首个搭载GH200NVL32的AI培训即服务,为开发人员提供单一实例中的最大共享内存。AWS上的DGX Cloud将加速先进生成式AI和大型语言模型的培训。合作还包括Project Ceiba,NVIDIA和AWS正在设计世界上最快的GPU驱动AI超级计算机。该超级计算机将拥有16,384个NVIDIA GH200Superchips,将用于NVIDIA在生成式AI领域的研究和开发。

AWS还将推出三款由NVIDIA GPU提供动力的新Amazon EC2实例:P5e实例用于大规模生成式AI和高性能计算工作负载,G6和G6e实例用于各种应用,包括AI微调、推理、图形和视频工作负载。其中,G6e实例特别适用于使用NVIDIA Omniverse开发3D工作流程和数字孪生应用程序。

此次合作还涉及软件开发。根据新闻稿,NVIDIA NeMo Retriever微服务提供工具,可创建高度精确的聊天机器人和摘要工具,而NVIDIA BioNeMo简化并加速制药公司进行药物发现模型的训练。

今年9月的报道显示,NVIDIA已成为用于AI处理的计算机芯片的首选公司。由于对用于训练生成式AI模型的芯片的高需求,该公司的市值在今年早些时候达到了1万亿美元。

aws生成式生成式aiamazon新闻稿gpu高性能生成式ai模型nvidia gpu基础模型web微服务数字孪生基础设施高性能计算开发人员ai应用摘要工具ai模型云服务应用程序生成式人工智能软件开发工作流大型语言模型工作流程机器人ai生成聊天机器人语言模型人工智能midjourneyurl
  • 本文作者:李琛
  • 本文链接: https://wapzz.net/post-1967.html
  • 版权声明:本博客所有文章除特别声明外,均默认采用 CC BY-NC-SA 4.0 许可协议。
本站部分内容来源于网络转载,仅供学习交流使用。如涉及版权问题,请及时联系我们,我们将第一时间处理。
文章很赞!支持一下吧 还没有人为TA充电
为TA充电
还没有人为TA充电
0
  • 支付宝打赏
    支付宝扫一扫
  • 微信打赏
    微信扫一扫
感谢支持
文章很赞!支持一下吧
关于作者
2.3W+
5
0
1
WAP站长官方

copilot平替tabnine解析

上一篇

Adobe:当创意工作遇上AIGC ,人工智能还是取代了设计师?

下一篇
  • 复制图片
按住ctrl可打开默认菜单