很快,在此过程中,我们将把Bard升级到一些更具能力、无论是在推理还是编码方面都具备更多功能的PaLM模型。”为了说明差异,去年Google分享了关于基于语言模型的细节时称已经使用1370亿个参数训练了LaMDA。另一方面,则称PaLM已经使用约5400亿个参数进行训练。
两种模型自2022年初以来可能已经发展和成长了,但这种对比可能表明为什么谷歌现在正在缓慢地将Bard转移到PaLM上,因为它具有更大的数据集和更多样化的答案。皮查伊声称并不担心谷歌的AI开发速度与竞争对手相比。当Bard首次亮相时,他承认其依赖于LaMDA使其规模较小,但将计算能力降低视为一种好处,可以让更多用户测试并提供反馈。皮查伊还确保在获得现实世界信息后,谷歌将进行自己对Bard安全性和质量的分析。
相关阅读 >>
gnr轻取dream晋级四强,宁王奥拉夫砍疯了?这次痛失八强
更多相关阅读请进入《新闻资讯》频道 >>