设为首页收藏本站

天空语文 如皋  九华 作文  教学

 找回密码
 我要加入(register注册)

QQ登录

只需一步,快速开始

快捷登录

使用微信账号登录

最近看过此主题的会员

天空新人

蓝兰的花朵

天晴朗

嘿嘿嘿

joycy

颂颂.g

酷土土土

用户已注销

Jeremy

ʚ贴贴ɞ

果子黑

H·princess

李苏楠

方大金

依灵灵灵.

金川兰

lulululu

lisunan18795762

清风拂过

楠大人

王悦

朴弟

赵珺琦

王佳慧

八5霍程

徐灵丽

查看: 264|回复: 0
收起左侧

[新品发布] 英伟达发布全球最强GPU,多款新品同时亮相

  [复制链接] TA的其它主题
来自- 保留地址

Ta在天空论坛排行

积分:NO. 11 名

发帖:NO. 12 名

在线:NO. 60 名

璀璨星辰 发表于 2020-11-26 20:14:04 | 显示全部楼层 |阅读模式 来自- 保留地址
天空便利贴:这里是语文的天堂,也是文学的乐园。如有原创或喜欢的文章,可推荐发表,供坛友欣赏提高。您的热情和才华是天空论坛最大的财富。
来自- 保留地址

加入天空更多精彩

您需要 登录 才可以下载或查看,没有账号?我要加入(register注册)

x
英伟达发布全球最强GPU,多款新品同时亮相半导体行业观察2020-11-17 11:07:15
在今年五月,英伟达发布了基于全新Ampere架构打造的GPU A100。
据该公司CEO黄仁勋介绍,A100 采用台积电当时最先进的7 纳米工艺打造,拥有 540 亿个晶体管,面积高达 826mm2,GPU 的最大功率也达到了 400W。又因为同时搭载了三星 HBM2 显存、第三代 Tensor Core和带宽高达600GB/s 的新版 NVLink,英伟达的A100在多个应用领域也展现出强悍的性能。


从英伟达提供的数据可以看到,如果用 PyTorch 框架跑 AI 模型,相比上一代 V100 芯片,A100 在 BERT 模型的训练上性能提升 6 倍,BERT 推断时性能提升 7 倍。而根据MLPerf组织在十月底发布的最新推理基准测试(Benchmark)MLPerf Inference v0.7结果,英伟达A100 Tensor Core GPU在云端推理的基准测试性能是最先进英特尔CPU的237倍。
但英伟达不止步于此。在昨日,他们发布了面向AI超级计算的全球最强GPU——A100 80GB;与此同时,他们还带来了一体式AI数据中心NVIDIA DGX Station A100以及NVIDIA Mellanox 400G InfiniBand产品。
全球最强的AI超算GPU
据英伟达方面介绍,公司全新的 A100 80GB GPU的最大特点在于采用了HBM2E内存技术,能将A100 40GB GPU的高带宽内存增加一倍至80GB,这样的设计也让英伟达成为业内首个实现了2TB/s以上的内存带宽的企业。


“若想获得HPC和AI的最新研究成果,则需要构建最大的模型,而这需要比以往更大的内存容量和更高的带宽。A100 80GB GPU所提供的内存是六个月前推出的前代产品的两倍,突破了每秒2TB的限制,使研究人员可以应对全球科学及大数据方面最严峻的挑战。”NVIDIA应用深度学习研究副总裁Bryan Catanzaro表示。
此外,第三代Tensor Core核心、MIG技术、结构化稀疏以及第三代NVLink和NVSwitch,也是全新GPU能够获得市场认可的保证。


从英伟达提供的资料我们可以看到,该公司的第三代Tensor Core核心通过全新TF32,能将上一代Volta架构的AI吞吐量提高多达20倍;通过FP64,新核心更是能将HPC性能提高多达2.5倍;而通过 INT8,新核心也可以将AI推理性能提高多达20倍,并且支持BF16数据格式。
MIG技术则能将单个独立实例的内存增加一倍,并可最多提供七个MIG,让每个实例具备10GB内存。英伟达方面表示,该技术是一种安全的硬件隔离方法,在处理各类较小的工作负载时,可实现GPU最佳利用率。例如在如RNN-T等自动语言识别模型的AI推理上,单个A100 80GB MIG实例可处理更大规模的批量数据,将生产中的推理吞吐量提高1.25倍。
至于结构化稀疏,则可以将推理稀疏模型的速度提高2倍;包括第三代NVLink和NVSwitch在内的新一代互连技术,则可使GPU之间的带宽增加至原来的两倍,将数据密集型工作负载的GPU数据传输速度提高至每秒600 gigabytes。
除了性能提升以外,基于A100 40GB的多样化功能设计的A100 80GB GPU也成为需要大量数据存储空间的各类应用的理想选择。
以DLRM等推荐系统模型为例,他们为AI训练提供了涵盖数十亿用户和产品信息的海量表单。但A100 80GB可实现高达3倍加速,使企业可以重新快速训练这些模型,从而提供更加精确的推荐;在TB级零售大数据分析基准上,A100 80GB将其性能提高了2倍,使其成为可对最大规模数据集进行快速分析的理想平台;对于科学应用,A100 80GB可为天气预报和量子化学等领域提供巨大的加速。
“作为NVIDIA HGX AI超级计算平台的关键组件,A100 80GB还可训练如GPT-2这样的、具有更多参数的最大模型。”英伟达方面强调。
下一代400G InfiniBand
在发布A100 80GB的同时,英伟达还带了下一代的400G InfiniBand产品。在讲述英伟达的新品之前,我们有必要先了解一下什么是InfiniBand。
所谓InfiniBand,是一种网络通信协议,它提供了一种基于交换的架构,由处理器节点之间、处理器节点和输入/输出节点(如磁盘或存储)之间的点对点双向串行链路构成。每个链路都有一个连接到链路两端的设备,这样在每个链路两端控制传输(发送和接收)的特性就被很好地定义和控制。而早前被英伟达收购的Mellanox则是这个领域的专家。
资料显示,Mellanox为服务器,存储和超融合基础设施提供包括以太网交换机,芯片和InfiniBand智能互连解决方案在内的大量的数据中心产品,其中,更以InfiniBand互连,是这些产品中重中之重。


据英伟达介绍,公司推出的第七代Mellanox InfiniBand NDR 400Gb/s上带来了更低的延迟,与上一代产品相比,新的产品更是实现了数据吞吐量的翻倍。又因为英伟达为这个新品带来了网络计算引擎,这就让其能够获得额外的加速。


英伟达进一步指出,作为一个面向AI超级计算的业界最强大的网络解决方案,Mellanox NDR 400G InfiniBand交换机,可提供3倍的端口密度和32倍的AI加速能力。此外,它还将框式交换机系统的聚合双向吞吐量提高了5倍,达到1.64 petabits/s,从而使用户能够以更少的交换机,运行更大的工作负载。
“基于Mellanox InfiniBand架构的边缘交换机的双向总吞吐量可达51.2Tb/s,实现了具有里程碑意义的每秒超过665亿数据包的处理能力。”英伟达方面强调。而通过提供全球唯一的完全硬件卸载和网络计算平台,NVIDIA Mellanox 400G InfiniBand实现了大幅的性能飞跃,可加快相关研究工作的进展。
“我们的AI客户的最重要的工作就是处理日益复杂的应用程序,这需要更快速、更智能、更具扩展性的网络。NVIDIA Mellanox 400G InfiniBand的海量吞吐量和智能加速引擎使HPC、AI和超大规模云基础设施能够以更低的成本和复杂性,实现无与伦比的性能。” NVIDIA网络高级副总裁Gilad Shainer表示。
从他们提供的数据我们可以看到,包括Atos、戴尔科技、富士通、浪潮、联想和SuperMicro等公司在内的全球领先的基础设施制造商,计划将Mellanox 400G InfiniBand解决方案集成到他们的企业级产品中去。此外,包括DDN、IBM Storage以及其它存储厂商在内的领先的存储基础设施合作伙伴也将支持NDR。
全球唯一的千兆级工作组服务器
为了应对不同开发者对AI系统的需求,在推出芯片和连接解决方案的同时,英伟达在2017年还推出一体式的AI数据中心NVIDIA DGX Station。作为世界上首款面向 AI 开发前沿的个人超级计算机,开发者只需要对其执行简单的设置,就可以用Caffe、TensorFlow等去做深度学习训练、高精度图像渲染和科学计算等传统HPC应用,避免了装驱动和配置环境等麻烦,这很适合高校、研究所、以及IT力量相对薄弱的企业。


昨日,英伟达今日发布了全球唯一的千兆级工作组服务器NVIDIA DGX StationA100 。作为开创性的第二代人工智能系统,DGX Station A100加速满足位于全球各地的公司办公室、研究机构、实验室或家庭办公室中办公的团队对于机器学习和数据科学工作负载的强烈需求。而为了支持诸如BERT Large推理等复杂的对话式AI模型,DGX Station A100比上一代DGX Station提速4倍以上。对于BERT Large AI训练,其性能更是提高近3倍。


从性能来看,英伟达方面表示,DGX Station A100的AI性能可达2.5 petaflops,是唯一一台配备四个通过NVIDIA NVLink完全互连的全新NVIDIA A100 Tensor Core GPU的工作组服务器,可提供高达320GB的GPU内存,能够助力企业级数据科学和AI领域以最速度取得突破。
作为唯一支持NVIDIA多实例GPU(MIG)技术的工作组服务器,单一的DGX Station A100最多可提供28个独立GPU实例以运行并行任务,并可在不影响系统性能的前提下支持多用户。
为了支持更大规模的数据中心工作负载,DGX A100系统还将配备全新NVIDIA A100 80GB GPU使每个DGX A100系统的GPU内存容量增加一倍(最高可达640GB),从而确保AI团队能够使用更大规模的数据集和模型来提高准确性。
“全新DGX A100 640GB系统也将集成到企业版NVIDIA DGX SuperPODTM 解决方案,使机构能基于以20 个DGX A100系统为单位的一站式AI超级计算机,实现大规模AI模型的构建、训练和部署。”英伟达方面强调。
该公司副总裁兼 DGX系统总经理Charlie Boyle则表示:“DGX Station A100将AI从数据中心引入可以在任何地方接入的服务器级系统。数据科学和AI研究团队可以使用与NVIDIA DGX A100系统相同的软件堆栈加速他们的工作,使其能够轻松地从开发走向部署。”
从英伟达提供的资料我们可以看到,配备A100 80GB GPU的NVIDIA DGX SuperPOD系统将率先安装于英国的Cambridge-1超级计算机,以加速推进医疗保健领域研究,以及佛罗里达大学的全新HiPerGator AI超级计算机,该超级计算机将赋力这一“阳光之州”开展AI赋能的科学发现。
在今年发布的第二季财报上,英伟达数据中心业务首超游戏,成为公司营收最大的业务板块。从营收增长上看,与去年同期相比,英伟达数据中心业务业务大幅增长167%,由此可以看到英伟达在这个市场影响力的提升以及公司对这个市场的信心。
考虑到公司深厚的技术积累和过去几年收购所做的“查漏补缺”,英伟达必将成为Intel在数据中心的最强劲挑战者。
*免责声明:本文由作者原创。文章内容系作者个人观点,半导体行业观察转载仅为了传达一种不同的观点,不代表半导体行业观察对该观点赞同或支持,如果有任何异议,欢迎联系半导体行业观察。
今天是《半导体行业观察》为您分享的第2496期内容,欢迎关注。
存储|晶圆|光刻|FPGA|并购|IC设计|华为|国产芯片

收藏
举报


102 条评论


评论




  • 東吉阿雪9天前

    华为麒麟990吊打你!只要鸿蒙系统上市,微软和谷歌就要宣布破产了

    回复 ⋅ 37条回复37



  • 高小姐今晚有英语课吗9天前

    这是专业领域!价格估计起飞[爱慕]

    回复 ⋅ 3条回复4



  • 辣嘴点评8天前

    也就是说现在的30系显卡甭管3080还是3090都是阉割过的垃圾 这个A100可以用到60系了估计







我知道答案 本帖寻求最佳答案回答被采纳后将获得系统奖励10 天空金币 , 目前已有0人回答

最近访客

来自- 保留地址
谁来看过你
此贴被TA们浏览了264次
天空便利贴:
到底了,觉得文章不错的,可以给作者评论或者打赏,这是创作者向前的动力。可以向上滑,或者转到相关热帖。使用过程中如有好的意见或建议,欢迎联系页面qq客服。天空论坛因你更精彩。
回复

手机扫码浏览
天空论坛,有你有我,明天更好!
来自- 保留地址
点评回复 来自- 保留地址

使用道具 举报 私信管理员来自- 保留地址

高级模式
B Color Image Link Quote Code Smilies

本版积分规则

×天空论坛发帖友情提示:
1、注册用户在本论坛发表、转载的任何作品仅代表其个人观点,不代表本论坛认同其观点。
2、如果存在违反国家相关法律、法规、条例的行为,我们有权在不经作者准许的情况下删除其在本论坛所发表的文章。
3、所有网友不要盗用有明确版权要求的作品,转贴请注明来源,否则文责自负。
4、本论坛保护注册用户个人资料,但是在自身原因导致个人资料泄露、丢失、被盗或篡改,本论坛概不负责,也不承担相应法律责任。

QQ|手机版|我们的天空 ( 苏ICP备18048761号 ) |苏公网安备32068202000215号 |网站地图

GMT+8, 2024-5-5 23:35 , Processed in 0.190697 second(s), 53 queries , Gzip On.

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表