谷歌最近在BigQuery中推出了针对开源模型的第三方生成式AI推理功能,这使得数据团队能够使用普通的SQL语句来部署并运行来自Hugging FaceVertex AI Model Garden的任何模型。通过这一处于测试阶段的接口,不再需要单独的机器学习基础设施了,因为该系统会自动分配计算资源、管理端点,并通过BigQuery的SQL接口完成所有后续操作。

这项新功能解决了一个数据团队长期以来一直面临的问题。以往,在运行开源模型时,数据团队需要管理Kubernetes集群、配置端点,并使用多种工具来完成相关任务。Virinchi T在Medium上发表的一篇关于这一功能的文章中这样写道:

这个过程需要使用多种工具、掌握不同的技能,还会带来相当大的运营开销。对于许多数据团队来说,这些繁琐的操作使得AI功能始终无法被他们真正利用——即使这些模型本身是免费提供的。

然而,借助BigQuery的SQL接口,整个工作流程仅需两条SQL语句即可完成。用户只需使用一条CREATE MODEL语句来指定模型名称(例如Hugging Face的sentence-transformers/all-MiniLM-L6-v2或Vertex AI Model Garden中的某个模型),BigQuery就会自动配置计算资源并完成模型的部署,整个过程通常需要3到10分钟,具体时间取决于模型的规模。

之后,用户可以通过AI.GENERATE_TEXT语句来运行语言模型推理任务,或者使用AI.GENERATE_EMBEDDING语句来处理嵌入数据分析,所有操作都可以直接在BigQuery表格中完成。该平台还会通过“endpoint_idle_ttl”选项来管理资源的使用寿命,从而避免对闲置端点收取费用;此外,在批处理任务完成后,用户也可以使用ALTER MODEL语句手动终止相关服务的运行。

这一功能还支持针对实际应用场景进行定制。用户在创建模型时可以直接设置机器类型、副本数量以及端点的空闲时间;如果需要确保模型的稳定性能,还可以通过预留Compute Engine资源来锁定GPU实例。当不再需要某个模型时,只需执行一条DROP MODEL语句,所有相关的Vertex AI资源就会被自动清除。

谷歌在博客中称,该系统能够实现“精细的资源控制”与“自动化的资源管理”,使团队能够在不离开SQL环境的情况下找到性能与成本之间的最佳平衡。2025年9月发布的一篇博客文章提到,使用类似的开源嵌入模型技术,处理3800万条数据记录所需的费用大约仅为2到3美元。

这一功能兼容超过13,000种Hugging Face文本嵌入模型以及170,000多种文本生成模型,这些模型涵盖了Meta的Llama系列模型以及谷歌的Gemma系列模型。这些模型需要符合Vertex AI Model Garden的部署要求,包括地域可用性限制和配额规定。

Virinchi T详细说明了这一功能对不同角色的影响:

对于数据分析师来说,现在你们可以在不离开SQL环境的情况下尝试使用机器学习模型,也不需要等待工程团队的支持。而对于数据工程师而言,构建基于机器学习的 数据处理流程会变得简单许多——因为他们不再需要维护额外的机器学习基础设施。

这一功能的推出使得BigQuery与Snowflake的Cortex AI以及Databricks的Model Serving形成了竞争关系。这三者都提供了可通过SQL语言访问的机器学习推理服务。不过,BigQuery的优势可能在于它能够直接整合Hugging Face庞大的模型资源库,这对于那些已经在使用Google Cloud服务的用户来说具有很大的吸引力。

关于如何使用Gemma模型进行文本生成,以及如何利用开源嵌入模型生成文本数据,谷歌提供了相应的文档和教程,具体链接分别为:Gemma模型教程开源嵌入模型教程

Comments are closed.