本文摘自飞象网,原文链接:http://www.cctime.com/html/2023-2-14/1642814.htm,侵删。
“我这几天,电话都快打爆了。”聊起最近火爆出圈的ChatGPT,英伟达中国区一位高管用略带抱怨但难掩高兴的语气向《科创板日报》记者说道,其中逻辑在于,为ChatGPT供应算力的核心基建――AI芯片,成为各厂商们投资的关键,“这几天好多公司,包括云从科技(33.850, 1.05, 3.20%),都来找我安排调货,根本就调不过来,需求特别大。”
ChatGPT等AI应用需要基于大量模型训练,它能如此睿智基于对天量数据的“吃透”,背后是强大算力的支撑,以GPT-3模型为例,其存储知识的能力来源于1750亿参数,训练所需的算力高达3650PFLOPS-day。
中信建投(26.770, 0.05, 0.19%)研报的数据显示,此前用于AI训练的算力增长符合摩尔定律,大约每20个月翻一番;深度学习的出现加速了性能的扩展,用于AI训练的算力大约每6个月翻一番;而目前大规模模型出现,其训练算力是原来的10到100倍。
这也难怪OpenAI在大炼GPT-3之前,让微软花10亿美元给自己独家定制了一台当时全世界排名前五的超级计算机。ChatGPT在2月7日宣布由于满负荷运行而暂停服务,主要原因是网络等资源的限制,且此前ChatGPT也出现多次宕机,这体现了AI应用对算力的旺盛需求。
ChatGPT主要涉及AI自然语言处理相关技术,底层算力芯片以高性能GPU为主。国内一名人工智能公司高管告诉《科创板日报》记者,该类芯片中英伟达占据主要市场,英伟达的芯片为大模型训练做了很多优化,“很好用”,它才是这次ChatGPT热潮的最大赢家。
从芯片技术角度来看,鲲云科技创始人兼CEO牛昕宇告诉《科创板日报》记者,英伟达的CUDA架构最初用于游戏GPU,相比于CPU更适用于大规模并行计算,基于其CUDA生态,积累了完善的开发者生态。这一轮人工智能产业发展的初期,市面上没有专门的AI加速芯片和硬件产品,开发者发现其产品可以应用于AI的训练和推理过程,就多采用其产品。
另外,英伟达的产品在通用性和算力密度方面有优势,而且因为算法模型巨大,对系统级的多芯片互联合作,高带宽的网络贮存要求以指数级的增长,英伟达对此早有布局,以收购和研发整合的手段,已形成完整成熟的解决方案。
相关阅读 >>
巧妇难为无米之炊:芯片短缺致今年全球汽车减产约149.8万辆
业内首次:苹果 iphone 15 pro 配备美光“d1β”lpddr5 dram 芯片
消息称苹果已启动 m3 芯片核心设计,采用台积电 n3e 增强工艺
外媒称苹果ar设备将搭载m1芯片 采用micro oled显示屏
工业软件领域被“卡脖子”,比芯片还难突破?会有什么样的影响?
gartner:2022年排名前十半导体买家的芯片支出减少7.4%
2023年安卓机皇!三星s23曝光:联发科芯片加持 史无前例
更多相关阅读请进入《AI》频道 >>