其中GH200GraceHopper超级芯片是GraceGPU和H100Tensor核心组成的集合,可以作为单一GPU执行复杂运算;DGXGH200则是由256个GH200GraceHopper超级芯片组成的大型集合,可以用于目前流行的生成式AI,已被Google、Meta、微软等企业用于AI产品当中。
此外,NVIDIA还推出了面向加速服务器的模块化架构NVIDIAMGX、允许相关制造商以更低的成本开发、配置服务器资源。
看到这里不知道大家有没有发现一个现象,即使COMPUTEX依旧披着电脑展的外衣,但是实际上AI一词已经贯穿了整个COMPUTEX的所有产品。游戏本运用AI技术提高运行游戏时的帧数表现、商用笔记本利用AI技术平衡电脑的性能和功耗,就连工作站也开始配备高性能AIGPU以应对未来可能出现的AI负载,至于NVIDIA更是全面ALLINAI技术。
图片来源:NVIDIA
就连本身并不直接接触AI技术的电脑DIY配件品牌,近年来也开始考虑到AI对电脑形态的变化:越来越多品牌开始在高性能小型主机领域发展,部分品牌更是直接推出了类似IntelNUC那样的小型计算单元,以便用户将预算留给高性能GPU。
可以肯定的是,随着AI技术的普及,PC行业未来还需要那个继续朝着AI方向进化,而脱胎于AI技术的家用AI边缘运算节点,也将成为未来PC的新形态。
PC的下一站是AI?
虽然「在家里放一个AI节点」这样的话听起来有些不可思议,毕竟不是所有人家里都有空间放下一个服务器机柜。但就像NAS和云盘的互补关系一样,在用户家里部署AI节点,这件事从用户需求的角度完全是说得通的。
首先,私有AI节点可以提供更高的隐私保护。在当前的数字时代,个人隐私越来越受到关注,大型科技公司收集和分析用户数据的事件引发了许多对隐私泄露的担忧。
所以,通过在家中部署私有AI节点,用户可以更好地控制自己的数据,并防止个人信息被滥用或泄露,未来的私有AI节点允许用户在本地处理和存储数据,可以减少了对第三方云服务的依赖,从而在保证AI服务质量的同时提供更高的隐私保护水平。
其次,私有AI节点有助于提升数据安全性。许多人工智能应用需要处理敏感数据,例如医疗记录、金融信息等,将这些敏感数据上传至云端可能会带来安全风险。通过在家中部署私有AI节点,用户可以将数据存储在本地,减少了数据在传输过程中被攻击或窃取的风险。同时,私有AI节点可以配备更高级的安全机制,例如加密和访问控制,以增强数据的安全性和保密性。
图片来源:NVIDIA
另外,私有AI节点可以提供更快速的响应和定制化的服务。在云端进行的人工智能计算通常需要依赖网络连接,这可能导致延迟和响应速度不够快。而通过在家中部署私有AI节点,用户可以在本地进行计算和推断,避免了云端传输的延迟。
私有AI节点也可以根据用户的需求进行定制化配置,提供个性化的智能服务。用户可以自由选择安装适合自己需求的软件和算法,并根据自己的喜好进行调整和优化。
最后,私有AI节点还能够在断网情况下提供离线的智能服务。考虑到现阶段智能家居行业已经逐渐向AI行业靠拢,利用AI技术执行智能家居,甚至是全屋智能的管理已经是板上钉钉的事情。
但是云端AI始终无法避免「修地铁挖断光缆」这种意外状况,而私有AI节点的离线能力,可以让用户在没有互联网连接的情况下,仍然能够使用基本的人工智能功能,例如语音助手、图像识别等,这对于一些「AI全屋智能」来说尤为重要。
其实从英伟达近几年的表现来看,AI已经成为了继电竞之后个人PC行业的下一个爆点:电竞的兴起促使PC硬件的快速进步,而AI技术利用了电竞带来的硬件升级,并为PC行业带来了巨大的创新潜力。
图片来源:NVIDIA
此外AI技术的快速发展也推动了PC行业的垂直整合和升级。AI应用的广泛需求需要更强大的处理器、更大容量的内存以及更快速的存储设备。为了满足AI带来的巨大算力空缺,PC制造商不断加大研发投入,推出专门针对AI应用优化的处理器和图形处理单元。
需求的变化为PC制造商带来了全新的市场,同时让PC厂商可以在已经饱和的电竞市场外找到新的出口点。正如今年GTC的演讲主题:「切勿错过AI的决定性时刻」,不管我们目前对AI是何看法,但不可否认的是未来AI的作用和战略性地位会越来越高。
作为用户的我们与其站在AI的对立面,倒不如想想如何让AI成为我们的工具,而不是取代我们在工作上的价值。
举报/反馈
相关阅读 >>
更多相关阅读请进入《新闻资讯》频道 >>