智人疑邻。英伟达表示,H200使用HBM3e内存能够以每秒4.8TB的速度提供141GB的容量,据悉,在执行推理或生成问题答案时,H200的性能比H100提升了60%至90%。H200预计将于明年二季度开始交付,英伟达尚未公布其价格。
根据官方发布的图片,H200在大模型Llama 2、GPT-3.5的输出速度上分别是H100的1.9倍和1.6倍,在高性能计算HPC方面的速度更是达到了双核x86 CPU的110倍。
英伟达表示,H200将与H100兼容,这意味着那些已经在使用H100进行训练的AI公司无需更改他们的服务器系统或软件即可适应H200。
英伟达副总裁Ian Buck称:“为了训练生成式AI和高性能计算应用,必须使用高性能GPU。有了H200,行业领先的AI超级计算平台可以更快地解决一些世界上最重要的挑战。”
据美国金融机构Raymond James透露,H100芯片的成本仅为3320美元,但英伟达对其客户的批量价格却高达2.5万至4万美元。这使得H100的利润率可能高达1000%,成为有史以来最赚钱的芯片之一。
根据全球半导体贸易统计组织的统计数据显示,2019年全球集成电路市场规模达3304亿美元,较2018年出现回落。随着产业信息化、智能化的深入,集成电路市场规模将迎来新一轮上升趋势,其中AI芯片将成为引领产业增长的主流技术方向。
具体来看,2019年全球AI芯片市场规模为110亿美元。随着人工智能技术日趋成熟,数字化基础设施不断完善,人工智能商业化应用将加速落地,推动AI芯片市场高速增长,预计2025年全球人工智能芯片市场规模将达726亿美元。
在全球云端训练芯片竞争格局方面,TPU很难撼动英伟达GPU的垄断地位,目前英伟达的GPU+CUDA计算平台是最成熟的AI训练方案,除此之外还有第三方异构计算平台OpenCL+AMD GPU以及云计算服务商自研加速芯片这两种方案,全球各芯片厂商基于不同方案,都推出了针对于云端训练的人工智能芯片。近年来,中国人工智能芯片企业加大科技研发投入,正在奋起直追,力求早日跟上国际先进企业的步伐,打破由外国企业主导的竞争格局。
Gartner称用于执行人工智能(AI)工作负载的芯片市场正以每年20%以上的速度增长。
国信证券研报指出,AI芯片的出现让大规模的数据效率大大提升,极大促进了人工智能行业的发展。
更多本行业研究分析详见前瞻产业研究院《中国人工智能芯片(AI芯片)行业发展前景预测与投资战略规划分析报告》
同时前瞻产业研究院还提供产业大数据、产业研究报告、产业规划、园区规划、产业招商、产业图谱、智慧招商系统、行业地位证明、IPO咨询/募投可研、IPO工作底稿咨询等解决方案。在招股说明书、公司年度报告等任何公开信息披露中引用本篇文章内容,需要获取前瞻产业研究院的正规授权。
|