打造一个AI大模型,需要多少算力?


本文摘自飞象网,原文链接:http://www.cctime.com/html/2023-4-3/1647662.htm,侵删。

在席卷全球的AI热潮中,一个不容忽视的潜在阻力是算力的不足。算力是AI发展的基础设施,AI训练需要将数据集进行重复多轮处理,算力的大小代表着对数据处理能力的强弱。

据OpenAI测算,2012年开始,全球AI训练所用的计算量呈现指数增长,平均每3.43个月便会翻一倍,目前计算量已扩大30万倍,远超算力增长速度。随着百度、360、华为等公司纷纷入局AI领域,国内厂商对算力的需求将迎来井喷。

综合OpenAI的研究经验,以及中国企业大模型的研发进度等因素,广发证券分析师刘雪峰等对国内AI大模型的训练和推理阶段算力需求,以及相应的成本进行了测算。

首先,分析师根据GPT-3的数据测算了国内AI大模型训练和推理所需的AI服务器需求。

根据商汤招股说明书的数据,GPT-3的大模型的所需要训练355个GPU-年。在当前各家公司推出AI大模型意愿较强的背景下,我们认为科技公司用于训练AI大模型的时间为1个月,因此其需要训练AI大模型的AI加速卡的数量为4260个。

我们认为,AI大模型有望成为各科技厂商竞争的关键领域,因此假设国内有意愿开发AI大模型的公司有10个,则由于AI大模型训练而新增的AI加速卡需求空间为4.3万个,国内由于AI大模型训练而新增的AI服务器的需求空间约为5325台(本文均假设单台AI服务器搭载8个AI加速卡)。

根据英伟达官网的数据,A100针对于BERT类的AI大模型可实现每秒推理1757次,因此可假设单片A100用于AI大模型每秒生成1757个单词,与单次客户需要生成的内容数量相当。

截止2023年3月27日,百度“文心一言”已收到12万家企业申请测试。我们预计,国产“类ChatGPT”的访客量规模较为庞大。

2023年3月29日,在“2023数字安全与发展高峰论坛”上,三六零公司现场演示了360大语言模型在360浏览器上的应用。分析师认为,内容生成类应用已成为各科技厂商开发AI大模型积极探索的方向,因此假设国内未来开发并应用“类ChatGPT”AI大模型的数量为10个。针对不同情境分析师进行了以下假设:

阅读剩余部分

相关阅读 >>

惠普ceo:AI将催生pc全新品类,有望明年上市

第十届广东省创意机器人大赛成功举办,AI陪伴机器人创意多

联发科技发布天玑9300旗舰5g生成式AI芯片 相关

我为什么支持 bat 拆掉「AI 研究院」

馊饭又来!街机合集《tAIto里程碑》推中文版

AI虚拟主播“上新” 性格与角色可按需定制

得印pos机全国官方客服电话热线大全已更新2023(实时/更新中)微软专为网络安全专家推出AI聊天机器人

百度智能云发布“AI大底座” 沈抖:智能化为产

“科技向善,为爱(AI)发声”:智能新通信,让世界沟通无障碍

外媒:马斯克幻想xAI打败openAI,只靠11名研究

更多相关阅读请进入《AI》频道 >>



打赏

取消

感谢您的支持,我会继续努力的!

扫码支持
扫码打赏,您说多少就多少

打开支付宝扫一扫,即可进行扫码打赏哦

分享从这里开始,精彩与您同在

评论

管理员已关闭评论功能...