ChatGPT带火AI芯片 英伟达:都来找我们调货 需求特别大


本文摘自飞象网,原文链接:http://www.cctime.com/html/2023-2-14/1642814.htm,侵删。

“我这几天,电话都快打爆了。”聊起最近火爆出圈的ChatGPT,英伟达中国区一位高管用略带抱怨但难掩高兴的语气向《科创板日报》记者说道,其中逻辑在于,为ChatGPT供应算力的核心基建――AI芯片,成为各厂商们投资的关键,“这几天好多公司,包括云从科技(33.850, 1.05, 3.20%),都来找我安排调货,根本就调不过来,需求特别大。”

ChatGPT等AI应用需要基于大量模型训练,它能如此睿智基于对天量数据的“吃透”,背后是强大算力的支撑,以GPT-3模型为例,其存储知识的能力来源于1750亿参数,训练所需的算力高达3650PFLOPS-day。

中信建投(26.770, 0.05, 0.19%)研报的数据显示,此前用于AI训练的算力增长符合摩尔定律,大约每20个月翻一番;深度学习的出现加速了性能的扩展,用于AI训练的算力大约每6个月翻一番;而目前大规模模型出现,其训练算力是原来的10到100倍。

这也难怪OpenAI在大炼GPT-3之前,让微软花10亿美元给自己独家定制了一台当时全世界排名前五的超级计算机。ChatGPT在2月7日宣布由于满负荷运行而暂停服务,主要原因是网络等资源的限制,且此前ChatGPT也出现多次宕机,这体现了AI应用对算力的旺盛需求。

ChatGPT主要涉及AI自然语言处理相关技术,底层算力芯片以高性能GPU为主。国内一名人工智能公司高管告诉《科创板日报》记者,该类芯片中英伟达占据主要市场,英伟达的芯片为大模型训练做了很多优化,“很好用”,它才是这次ChatGPT热潮的最大赢家。

芯片技术角度来看,鲲云科技创始人兼CEO牛昕宇告诉《科创板日报》记者,英伟达的CUDA架构最初用于游戏GPU,相比于CPU更适用于大规模并行计算,基于其CUDA生态,积累了完善的开发者生态。这一轮人工智能产业发展的初期,市面上没有专门的AI加速芯片和硬件产品,开发者发现其产品可以应用于AI的训练和推理过程,就多采用其产品。

另外,英伟达的产品在通用性和算力密度方面有优势,而且因为算法模型巨大,对系统级的多芯片互联合作,高带宽的网络贮存要求以指数级的增长,英伟达对此早有布局,以收购和研发整合的手段,已形成完整成熟的解决方案。

阅读剩余部分

相关阅读 >>

巧妇难为无米之炊:芯片短缺致今年全球汽车减产约149.8万辆

业内首次:苹果 iphone 15 pro 配备美光“d1β”lpddr5 dram 芯片

intel z690芯片组真容首曝:面积不大、发热不高

消息称苹果已启动 m3 芯片核心设计,采用台积电 n3e 增强工艺

外媒称苹果ar设备将搭载m1芯片 采用micro oled显示屏

工业软件领域被“卡脖子”,比芯片还难突破?会有什么样的影响?

gartner:2022年排名前十半导体买家的芯片支出减少7.4%

美国芯片法案或迫使台积电等厂商调整战略

2023年安卓机皇!三星s23曝光:联发科芯片加持 史无前例

应对chatgpt挑战 谷歌拟将AI植入所有产品和服务

更多相关阅读请进入《AI》频道 >>



打赏

取消

感谢您的支持,我会继续努力的!

扫码支持
扫码打赏,您说多少就多少

打开支付宝扫一扫,即可进行扫码打赏哦

分享从这里开始,精彩与您同在

评论

管理员已关闭评论功能...

    正在狠努力加载,请稍候...