打造一个AI大模型,需要多少算力?


本文摘自飞象网,原文链接:http://www.cctime.com/html/2023-4-3/1647662.htm,侵删。

在席卷全球的AI热潮中,一个不容忽视的潜在阻力是算力的不足。算力是AI发展的基础设施,AI训练需要将数据集进行重复多轮处理,算力的大小代表着对数据处理能力的强弱。

据OpenAI测算,2012年开始,全球AI训练所用的计算量呈现指数增长,平均每3.43个月便会翻一倍,目前计算量已扩大30万倍,远超算力增长速度。随着百度、360、华为等公司纷纷入局AI领域,国内厂商对算力的需求将迎来井喷。

综合OpenAI的研究经验,以及中国企业大模型的研发进度等因素,广发证券分析师刘雪峰等对国内AI大模型的训练和推理阶段算力需求,以及相应的成本进行了测算。

首先,分析师根据GPT-3的数据测算了国内AI大模型训练和推理所需的AI服务器需求。

根据商汤招股说明书的数据,GPT-3的大模型的所需要训练355个GPU-年。在当前各家公司推出AI大模型意愿较强的背景下,我们认为科技公司用于训练AI大模型的时间为1个月,因此其需要训练AI大模型的AI加速卡的数量为4260个。

我们认为,AI大模型有望成为各科技厂商竞争的关键领域,因此假设国内有意愿开发AI大模型的公司有10个,则由于AI大模型训练而新增的AI加速卡需求空间为4.3万个,国内由于AI大模型训练而新增的AI服务器的需求空间约为5325台(本文均假设单台AI服务器搭载8个AI加速卡)。

根据英伟达官网的数据,A100针对于BERT类的AI大模型可实现每秒推理1757次,因此可假设单片A100用于AI大模型每秒生成1757个单词,与单次客户需要生成的内容数量相当。

截止2023年3月27日,百度“文心一言”已收到12万家企业申请测试。我们预计,国产“类ChatGPT”的访客量规模较为庞大。

2023年3月29日,在“2023数字安全与发展高峰论坛”上,三六零公司现场演示了360大语言模型在360浏览器上的应用。分析师认为,内容生成类应用已成为各科技厂商开发AI大模型积极探索的方向,因此假设国内未来开发并应用“类ChatGPT”AI大模型的数量为10个。针对不同情境分析师进行了以下假设:

阅读剩余部分

相关阅读 >>

持久流畅!coloros 12系统亮相:搭载AI自流畅引擎2.0

AI在身边】AI在医院 智能助诊断

openAI发布的gpt-4是什么?和上一代有哪些升级?

酷派cool 20 pro影像尘埃落定:5000万AI三摄加持

阿里巴巴国际站正式上线外贸AI“生意助手”

wps AI正式面向社会开放 率先应用在wps智能文档

轻松车贷金融全国官方客服电话大全已更新2023(实时/更新中)微软专为网络安全专家推出AI聊天机器人

新晋网红chatgpt,是我见过嘴最硬的AI

京东金条全国客户服务热线电话已更新(今日大全最新更新中)马斯克等人呼吁暂停AI研究公开信遭质疑 被指加

回归基础:dmAIc,它是什么以及如何使用它?

更多相关阅读请进入《AI》频道 >>



打赏

取消

感谢您的支持,我会继续努力的!

扫码支持
扫码打赏,您说多少就多少

打开支付宝扫一扫,即可进行扫码打赏哦

分享从这里开始,精彩与您同在

评论

管理员已关闭评论功能...