很快,在此过程中,我们将把Bard升级到一些更具能力、无论是在推理还是编码方面都具备更多功能的PaLM模型。”为了说明差异,去年Google分享了关于基于语言模型的细节时称已经使用1370亿个参数训练了LaMDA。另一方面,则称PaLM已经使用约5400亿个参数进行训练。
两种模型自2022年初以来可能已经发展和成长了,但这种对比可能表明为什么谷歌现在正在缓慢地将Bard转移到PaLM上,因为它具有更大的数据集和更多样化的答案。皮查伊声称并不担心谷歌的AI开发速度与竞争对手相比。当Bard首次亮相时,他承认其依赖于LaMDA使其规模较小,但将计算能力降低视为一种好处,可以让更多用户测试并提供反馈。皮查伊还确保在获得现实世界信息后,谷歌将进行自己对Bard安全性和质量的分析。
相关阅读 >>
【快讯】加强技术投入、保持技术领先,推动人工智能技术商业化落地
郭明�z预计新款macbook air今年有望出货700万台
更多相关阅读请进入《新闻资讯》频道 >>