InfoQ 推荐 ( ) • 2024-04-10 04:14

省流版:基础软件相当能打,新的TPU v5p支持下的AI超级计算机架构足以应对最严苛的生成式AI大语言模型和场景。Agent已经商业化,单就用例本身(视频智能生成、智能办公等等)国内均有类似形态的产品,没有“WoW”的感觉,但与国内同样产品相比,谷歌的用例精细化能力相当高,足以应对企业级场景的需求。

 

美国时间4月9日,Google Cloud Next ’24在拉斯维加斯正式召开。 Google Cloud CEO Thomas Kurian 等带来了主题为「即刻踏上云端新旅程」的开幕演讲。

在会议开始之前,媒体及分析师们均十分期待谷歌本次大会上与生成式AI相关的发布,包括今年引起巨大讨论的Gemini系列,以及vertexAI、硬件层面的更新等,包括是否会与英伟达最新发布的芯片合作等。

事实证明,谷歌已经围绕生成式AI构建起一整套的成熟架构,这是属于AI时代的超级计算架构。Thomas Kurian 表示自上次Cloud Next大会以来,谷歌已经进行了一千多次的产品更新,并声称这是世界上增长最快的云提供商。Alphabet首席执行官Sundar Pichai 特别赞扬了Gemini系列为各地企业提供了很多发展机会。与此同时,本届大会展示了谷歌已经构筑起的生成式AI全景图。

基础设施看谷歌,联手英伟达,AI Hypercomputer超级能打

一系列芯片更新...

为了支持当今企业中采用的日益强大的生成式人工智能模型,谷歌宣布全面推出迄今为止最强大、可扩展的张量处理单元- TPU v5p,其设计目的只有一个——训练和运行最苛刻的生成式AI模型。

 

TPU v5p旨在提供巨大的计算能力,单个Pod包含8,960个协同运行的芯片,这是TPU v4 Pod数量的两倍多。谷歌方面表示,TPU v5p提供了令人印象深刻的性能提升,每秒浮点运算次数增加了一倍,每芯片的高带宽内存增加了三倍,从而大大提高了整体吞吐量。为了使客户能够训练和服务在大规模TPU集群上运行的AI模型,谷歌在Google Kubernetes Engine上添加了对TPU v5p虚拟机的支持,Google Kubernetes Engine是其用于运行软件容器的云托管服务。

如预期,谷歌与英伟达联手,用户可以使用英伟达的最新硬件在Google Cloud上训练其生成式AI模型。除了TPU系列之外,它还通过新的A3系列虚拟机提供对Nvidia H100 GPU的访问。A3 Mega VM将从下个月开始全面上市,其主要优势之一是支持“机密计算”,这是指即使在处理最敏感的数据时也可以保护其免受未经授权的访问的技术。

 

这是一个极其关键的发展,这为生成式AI模型提供了一种方法来访问以前被认为处理风险太大的数据,而数据安全随着生成式AI的爆火而愈发重要。

 

“Character.AI正在使用Google Cloud的Tensor处理器单元和在Nvidia H100 Tensor Core GPU上运行的A3 VM来更快、更高效地训练和推断LLM,”Character Technologies Inc.首席执行官Noam Shazeer表示。“在强大的人工智能优先基础设施上运行的GPU和TPU的可选性使Google Cloud成为我们显而易见的选择,因为我们需要扩展规模,为数百万用户提供新的特性和功能。”

与此同时,谷歌官宣了其宏伟计划-AI Hypercomputer,面向生成式AI时代的超级计算机架构,提供端到端的基础设施,从硬件到软件的一切服务,并宣布了Google Axion 处理器,这是谷歌首款专为数据中心设计的基于 Arm 的定制 CPU。Axion 提供业界领先的性能和能源效率,并将于今年晚些时候向 Google Cloud 客户提供。

更令人兴奋的是谷歌将在今年晚些时候推出的产品。尽管没有透露具体时间,但谷歌方面确认计划将英伟达最近宣布但尚未发布的Blackwell GPU" 引入其AI超级计算机架构。谷歌方面表示, Blackwell GPU将提供两种配置,虚拟机由HGX B200和GB200 NVL72 GPU提供支持。前者是为最苛刻的人工智能工作负载而设计的,而后者则有望支持实时大语言模型推理和万亿参数规模模型的大规模训练的新时代。

Gemini 1.5 Pro正式发布公共预览版

Gemini 1.5 Pro的预览版发布只能说中规中矩,毕竟该系列在今年2月份就已经面世,这个模型最大的特点就是创下了最长上下文窗口的纪录。

 

根据官方披露,Gemini 1.5 Pro将上下文窗口容量提到了100万token(极限为1000万token),远远超出了Gemini 1.0最初的32000个token,此前的SOTA模型也才将上下文窗口容量提高到了20万token。

 

这意味着Gemini 1.5 Pro可以自如地处理22小时的录音、超过十倍的完整的1440页的书(587,287字)《战争与和平》,以及四万多行代码、三小时的视频。

 

凭借超长上下文理解能力,Gemini 1.5 Pro得到了很多用户的认可。很多测试过Gemini 1.5 Pro的人更是直言,这个模型被低估了。如今预览版正式推出,期待后续广大开发者的反馈。

 

Kurian现场介绍了众多可能的用例,并强调通过系列新增功能,谷歌云仍然是唯一提供广泛使用的第一方(Gemini系列)和第三方模型(主要指vertexAI上面的模型)服务的云服务商。

Google Search升级

通过使用新的提示管理工具对模型进行更精细的调整,包括解释为什么某些提示比其他提示效果更好等,可以进一步提高搜索结果的质量,显著降低产生幻觉的可能性。

 

这些现均已在Vertex AI上提供,Vertex AI是Google Cloud的平台,用于定制和全面管理各种领先的人工智能模型。如今,超过100万开发人员正在使用谷歌的生成式AI工具,包括AI Studio和Vertex AI。此外,通过Vertex AI,客户现在可以通过两种新方式增强和基础他们的模型——将模型输出连接到可验证的信息源。第一个是Google Search,它提供高质量的信息以提高响应的准确性。第二个是用户自己的数据和事实来源,例如Workday或Salesforce等企业应用程序以及BigQuery等Google Cloud数据库。

 

生成式AI时代,基础设施是一切创新的基础,极其重要,而单看这一部分,谷歌还是相当全面,超级能打。

Agent、Agent、Agent,已经商业化

会议现场,谷歌公布了系列Agent用例,比如Custom Agent、Code Agent。可能是国内应用市场的繁荣导致平常“吃得太好”,这部分用例并没有让笔者有“Wow”的感觉,但单从Demo来看,谷歌公布出来的场景效果确实足够精细,这种精细指的是“足以在企业场景中落地”,极其重要的是谷歌已经将这些商业化了,每一个用例都跟着一个客户故事。

为了有效创建下一代Agent,谷歌宣布了新的Vertex AI Agent Builder,其提供了一个更简单的流程来训练、编辑和启动相关工具,包括相关控制能力和基础响应。

 

今年初,国内外对Agent寄予厚望,这被认为是生成式AI最有可能变现的一条路。如今看来,谷歌已经实现了,奔驰、沃尔玛等企业均在利用谷歌提供的Agent,而主会场的后半程几乎都被Agent所占据。

 

由于这部分用例较多,且大部分国内感知有限(比如Google Workspace),就不一一列举,着重聊下Data Agents和Code Agents。

视频生成、剪辑相关用例

 

Data Agents类似的产品形态,国内其实也有一些简单的尝试,通过在数据库或者数据平台上添加一些基本功能,让用户可以通过自然语言的方式与“业务数据”做交互。谷歌基于BigQuery做了Data Agents方面的尝试,沃尔玛执行副总裁Suresh Kumar 也通过视频表示已经利用该功能来创造新的见解和个性化体验。

Code Agent也显示出了人工智能将为代码编写带来巨大变化。Gemini Code Assist获得了强大关注,谷歌现在正在将其扩展到Gitlab、Github、本地和外部。谷歌表示,Gemini 1.5 Pro即将加入Code Assist,为编码带来100万tokens,“彻底改变”编码。Gemini Cloud Assist还可跨应用程序框架工作,让业务更顺畅、更轻松地推出和扩展。

 

国内外的智能编码工具不少,大部分目前是集成在IDE中使用,Agent这种形态确实比较领先。早前,笔者从国内头部编码工具厂商那里了解到,其也将在今年下半年推出Agent版本,或许是国内目前来看比较有希望的节点。

面向生成式AI时代,谷歌的每一层架构都做好了准备。Kurian提到:“我们正处于行业的关键时刻,我们正在重塑基础设施以支持人工智能新时代”。

 

“我们正在共同构建一种新的云方式。”