分享: |
行业新闻早知道,点赞关注不迷路!
ChatGPT已成当前最火的AI应用,各大科技巨头相继开发类似产品。不可否认的是,硬件行业相应被带火,受益最大的是GPU显卡,HBM内存也同时吃到了流量。
HBM是一种基于3D堆叠工艺的DRAM内存芯片,它就像摩天大厦中的楼层一样可以垂直堆叠。基于这种设计,信息交换的时间将会缩短。这些堆叠的数颗DRAM芯片通过称为“中介层(Interposer)”的超快速互联方式连接至CPU或GPU,最后可将组装好的模块连接至电路板。据韩国经济日报报道,受惠于ChatGPT,三星、SK海力士高带宽内存(high bandwidth memory,HBM)接单量大增。高算力AI应用带动高性能内存芯片
有业内人士表示,以ChatGPT为代表的AI新时代,算力将成为核心竞争力。其带来的全新场景+原场景流量大幅提高,推动AI芯片需求增长。提供算力的芯片GPU、CPU、FPGA、ASIC,提供存储功能的芯片HBM, DRAM,会受益于ChatGPT的应用爆发,推动AI产业化由软件向硬件切换,半导体+AI生态会逐渐清晰,AI芯片产品将实现大规模落地。在AI算力中,除了GPU性能,内存也非常重要,NVIDIA的高端加速卡也上了HBM2/2e之类的内存,其带宽及延迟性能远高于GDDR内存,A100加速显卡上最高配备了80GB HBM2内存。随着ChatGPT受宠,三星、SK海力士两家内存厂商接到了越来越多的HBM订单,NVIDIA已经要求SK海力士生产最新的HBM3内存,业内人士指出相比当前最好的DDR内存,HBM3的价格已经涨了5倍。目前HBM内存市场上SK海力士公司占据最大的优势,该公司早在2013年就跟AMD合作开发了HBM内存,整体市场份额在60-70%之间。三星近年来也加大了HBM内存的投入,还跟AMD合作首发了HBM-PIM技术,将HBM内存与AI处理器集成在一起,大幅提高性能。ChatGPT有着大量复杂计算需求的AI模型,算力消耗非常巨大,需要强大的AI芯片提供算力基础。AI芯片专门用于处理人工智能应用中的大量计算任务的模块,包括GPU(图形处理器)、FPGA(现场可编程逻辑门阵列)、ASIC(专用集成电路)和DPU(处理器分散处理单元)等。目前,搭载于新兴AI应用的内存芯片亟待升级。首先,ChatGPT这类生成式AI应用需要在海量的训练数据中进行学习,才能实现高质量的生成输出。为了实现关键词识别、图像识别等功能,AI模型需要存储大量的图片和音频信息。其次,面向C端用户的AI应用必须具备快速处理数据的能力,才能向用户实时输出AI计算结果,因此也对内存芯片的数据传输速度提出了更高要求。与此同时,随着人工智能技术的进一步普及,越来越多的AI应用发生在移动设备和物联网终端设备上,而这些设备大多采用电池供电或充电,对功耗十分敏感。如此一来,以HBM为代表的超高带宽内存技术有望成为相关加速芯片的必然选择,同时生成类模型也会加速HBM内存进一步增大容量和增大带宽。除了HBM之外,CXL(计算快速链接)等新的存储技术加上软件的优化也有将在这类应用中增加本地存储的容量和性能,估计会从生成类模型的崛起中获得更多的工业界采用。国内GPU厂商暂无明显出货拉升
“GPU可以支撑强大算力的需求,由于具备并行计算能力,可兼容训练和推理的能力,目前GPU被广泛应用于加速芯片。GPU的供应商英伟达、海光信息、景嘉微等国内外企业将会成为受益者。此外,ChatGPT执行大算力的同时也需要大容量的内存支撑,英伟达GPU搭载了包括高带宽存储器(HBM)在内的大量DRAM.三星电子、SK海力士、美光等有望直接或间接受益于英伟达AI芯片需求的快速增长。不过,就目前来看,国内厂商还尚未有明显的出货拉动情况。目前,GPU也是全球芯片巨头竞相争夺的主要交锋战场,英特尔、AMD、苹果等均有所布局。苹果此前引入AI加速器设计的M2系列芯片 (M2 pro和M2 max),并表示两款芯片将被搭载于新款电脑,AMD随即宣布计划推出与苹果M2系列芯片竞争的台积电4nm工艺phoenix“系列芯片,以及使用Chiplet工艺设计的”Alveo V70AI芯片。这两款芯片均计划在今年推向市场,分别面向消费电子市场以及AI推理领域。国内主要GPU生产商包括景嘉微、龙芯中科、海光信息。但从机构与公司的公开回应来看,国内ChatGPT相关芯片产业尚处于发展的初期。 ▼最新活动▲![]() |
![]() |
![]() |
![]() |
世展网公众号 |
微信小程序 |
销售客服 |
门票客服 |