Midjourney操作界面

Google Distributed Cloud携手Gemini与NVIDIA,推进企业本地化AI部署

4.8
0热度

2025年4月9日,在Google Cloud Next2025大会上,Google Cloud宣布了一项重大合作计划,将其分布式云服务Google Distributed Cloud(GDC)与Gemini人工智能模型和NVIDIA的Blackwell架构相结合,为企业提供强大的本地化AI解决方案。这一合作旨在满足对数据主权和安全性有严格需求的行业,推动“代理AI”(Agentic AI)技术在

2025年4月9日,在Google Cloud Next2025大会上,Google Cloud宣布了一项重大合作计划,将其分布式云服务Google Distributed Cloud(GDC)与Gemini人工智能模型和NVIDIA的Blackwell架构相结合,为企业提供强大的本地化AI解决方案。这一合作旨在满足对数据主权和安全性有严格需求的行业,推动“代理AI”(Agentic AI)技术在本地环境中的应用。

最新消息,Google Distributed Cloud将支持Gemini模型在企业自有数据中心运行。这一举措通过与NVIDIA的合作得以实现,具体利用NVIDIA最新推出的Blackwell GPU系统,提供高性能计算能力。Dell作为关键合作伙伴,将为这一方案提供硬件支持,确保企业在本地部署时既能享受公共云的灵活性,又能保持对数据的完全控制。值得注意的是,该解决方案不仅适用于联网环境,还支持完全隔离的“空气隔离”(air-gapped)场景,特别适合政府机构、高度监管行业以及对延迟和数据驻留有特殊要求的企业。

QQ20250410-093156.png

此次合作的一个亮点是集成了NVIDIA的机密计算技术(Confidential Computing),确保企业在使用Gemini模型处理敏感数据时,数据和提示词(prompts)能够得到端到端保护,即便是云服务提供商也无法访问。这种安全性与性能的结合,被认为是解锁本地AI潜力的关键一步。Google Cloud基础设施与解决方案副总裁兼总经理Sachin Gupta表示:“通过将Gemini模型与NVIDIA Blackwell的突破性性能和机密计算能力结合,我们为企业提供了安全创新的可能,无需在性能或操作便捷性上妥协。”

此外,Google Distributed Cloud还计划推出GKE Inference Gateway,这是一款与NVIDIA Triton Inference Server和NeMo Guardrails集成的工具,用于优化推理路由和负载均衡,帮助企业更高效地管理和扩展AI工作负载。这一功能预计将在2025年第三季度进入公共预览阶段,为更多企业提供试用机会。

业界人士认为,这一合作标志着AI部署模式的重大转变。长期以来,受限于云端部署和安全顾虑,许多企业无法充分利用最先进的AI技术。而Google与NVIDIA的联合解决方案,让企业在本地运行复杂AI代理成为可能,这些代理不仅能理解数据,还能进行推理、行动和自我优化。这一趋势被视为企业AI系统迈向“自校正”和“自改进”的重要一步。

Google Cloud与NVIDIA的合作不仅限于技术层面,还体现了双方对推动AI普惠化的共同愿景。通过将Gemini模型带入本地环境,结合Blackwell架构的强大性能,这一方案有望为金融、医疗、制造等行业带来新的增长机遇,同时满足严格的合规性要求。未来,随着更多细节的披露和实际应用的落地,这一合作或将重塑企业AI的部署格局。

点赞(0)

评论列表 共有 0 条评论

暂无评论
发表
评论
顶部