主机参考:VPS测评参考推荐/专注分享VPS服务器优惠信息!若您是商家可以在本站进行投稿,查看详情!此外我们还提供软文收录、PayPal代付、广告赞助等服务,查看详情! |
我们发布的部分优惠活动文章可能存在时效性,购买时建议在本站搜索商家名称可查看相关文章充分了解该商家!若非中文页面可使用Edge浏览器同步翻译!PayPal代付/收录合作 |
3月19日,亚马逊云科技和NVIDIA宣布,NVIDIA在GTC 2024开发者大会上发布的最新NVIDIA Blackwell架构GPU将很快登陆亚马逊云科技。亚马逊云技术将提供NVIDIA GB200 Grace Blackwell超级芯片和B100 Tensor Core GPU,继续扩大两家公司的长期战略合作,为客户提供安全和先进的基础设施、软件和服务,并帮助客户解锁新的生成式人工智能功能。
此举整合了NVIDIA和亚马逊云技术的最佳技术,包括NVIDIA最新的多节点系统、下一代NVIDIA Blackwell架构GPU和AI软件、亚马逊Nitro系统和亚马逊KMS的高级安全性、弹性结构适配器(EFA)的千兆位级网络规模以及亚马逊EC2 UltraCluster的超大规模集群。与上一代亚马逊EC2上的NVIDIA GPU相比,双方联合提供的云基础设施和计算芯片使客户能够更快、大规模、低成本地构建和运行万亿参数大型语言模型(LLMs)进行实时推理。
首先,加速训练超万亿参数的大规模语言模型,提高推理性能。
亚马逊云技术将为NVIDIA Blackwell架构提供GB200 NVL72配置。它配备了72个Blackwell GPU和36个Grace CPU,通过第五代NVIDIA NVLink互连。当与亚马逊云技术的强大EFA网络、亚马逊Nitro的先进虚拟化系统和亚马逊EC2的超大规模集群相结合时,客户可以轻松扩展到数千台GB200超级计算机。英伟达Blackwell在亚马逊云技术中的应用使该架构在应对资源密集型和数万亿参数语言模型等推理工作量的加速方面实现了巨大飞跃。
基于先前使用NVIDIA H100的Amazon EC2 P5实例的成功(这些实例也通过Amazon EC2 Capacity Blocks for ML短期提供给客户),Amazon Cloud Technology计划为Amazon EC2实例提供新的B100 GPUs,并支持在Amazon EC2 UltraClusters中部署以加速超大规模生成式人工智能的训练和推理。GB200还将在英伟达DGX云上提供,这是双方在亚马逊云技术上联合开发的人工智能架构,为企业开发人员提供构建和部署先进生成式人工智能模型所需的特殊基础设施和软件。在亚马逊云技术上推出的基于布莱克威尔的DGX云实例将加速具有超过1万亿参数的尖端生成式人工智能和大型语言模型的开发。
第二,亚马逊Nitro系统、亚马逊KMS、EFA加密和Blackwell加密技术紧密集成。
随着AI技术越来越广泛的应用,企业需要确保其数据在整个培训过程中得到安全处理。保护模型权重的安全非常重要,权重是在模型的训练过程中学习到的参数,对模型的预测能力非常重要。确保模型权重的安全性对于保护客户的知识产权、防止模型被篡改和维护模型的完整性非常重要。
亚马逊云技术的人工智能基础设施和服务实现了安全功能,使客户能够控制自己的数据,并确保数据不会与第三方模型提供商共享。亚马逊Nitro系统和NVIDIA GB200的结合将防止未经授权的个人访问模型重量,从而将AI安全性提高到一个新的高度。GB200支持GPU之间NVLink连接的物理加密和Grace CPU到Blackwell GPU之间数据传输的加密,EFA还可以对服务器之间分布式训练和推理过程的数据进行加密。GB200还将受益于Amazon Nitro系统,该系统将主机CPU/GPU的I/O功能卸载到专门的硬件以提供更一致的性能,其增强的安全性可以保护客户代码和数据在客户端和云端处理过程中的安全性。这一独特功能已由领先的网络安全公司NCC集团独立验证。
通过在亚马逊EC2上使用GB200,亚马逊云技术将使客户能够使用亚马逊Nitro Enclaves和亚马逊KMS在其EC2实例旁边创建一个可信的执行环境。亚马逊Nitro Enclaves允许客户在亚马逊KMS的控制下用密钥加密他们的训练数据和权重。安全区域可以从GB200实例内部加载,并且可以直接与GB200超级芯片通信。这使得亚马逊KMS能够以加密和安全的方式直接与安全区域通信,并直接交付关键材料。然后,安全区域可以将材料传递给GB200,它可以保护客户实例中的数据,防止亚马逊云技术操作员访问密钥或解密训练数据或模型权重,从而为客户提供对其数据的无与伦比的控制。
第三,“Ceiba项目”利用Blackwell推广英伟达在亚马逊云技术上的未来生成式人工智能创新。
在re:Invent 2023上宣布的“Ceiba项目”是由英伟达和亚马逊云技术公司打造的世界上最快的人工智能超级计算机之一。这台专门为NVIDIA自主研发设计的超级计算机独家托管在亚马逊云技术上。这是第一台具有20,736 GB200 GPU的超级计算机,采用新的NVIDIA GB200 NVL72配置,其独特的第五代NVLink将连接10,368个NVIDIA Grace CPU。该系统由亚马逊云技术的第四代EFA网络扩展而成,为每个超级芯片提供高达800 Gbps的低延迟和高带宽网络吞吐量-它可以处理高达414 exaflops的AI计算,与之前计划在Hopper架构上构建Ceiba相比,性能提高了6倍。
英伟达R&D团队将利用Ceiba推广大型语言模型、图形(图像/视频/3D生成)和模拟、数字生物学、机器人、自动驾驶汽车和英伟达地球-2气候预测等领域的人工智能技术,以帮助英伟达推动未来生成式人工智能的创新。
第四,推动生成式人工智能应用的发展和在医疗健康和生命科学领域的应用进展。
亚马逊云技术公司与英伟达合作,通过整合亚马逊SageMaker和英伟达NIM推理微服务,提供高性能、低成本的生成式人工智能推理解决方案。该服务作为NVIDIA AI企业版的一部分提供。客户可以使用这一组合在Amazon SageMaker中快速部署和运行预编译和优化的NVIDIA GPU基本模型,并缩短生成式人工智能应用的启动时间。
亚马逊云技术和NVIDIA还在计算机辅助药物发现领域进行合作和扩展,并推出了一种新的NVIDIABioNeMo基本模型,用于生成化学和蛋白质结构预测,并了解药物分子和目标之间的相互作用。这些新模型将很快在亚马逊健康组学上推出,这是一项特殊服务,旨在帮助医疗保健和生命科学组织存储、查询和分析基因组、转录组和其他组学数据。
Amazon HealthOmics和NVIDIA healthcare团队还合作推出了生成式人工智能微服务,以促进药物发现、医疗技术和数字健康的发展。该服务提供了一个新的GPU加速的云服务目录,涵盖生物、化学、成像和医疗保健数据,因此医疗企业可以利用生成式人工智能在亚马逊云技术上的最新成果。
这几篇文章你可能也喜欢:
- 介绍亚马逊云技术的双十一福利。 免费试用超级云产品,赢取秋冬暖心礼物。
- 如何使用 Amazon Comprehend 进行文本分析和见解
- 亚马逊卖家精灵每月要花多少钱?(亚马逊精品店能赚多少钱?)
- 如何通过Amazon S3同步思源笔记
- AWS EKS 和 ECS 之间的区别是什么?
本文由主机参考刊发,转载请注明:亚马逊云技术和英伟达扩大合作,加速生成式人工智能创新 https://zhujicankao.com/106629.html
评论前必须登录!
注册