Yandex B2B Tech 宣布推出 Yandex AI Studio 的重大更新版本。 此次更新引入了基于 DeepSeek-V3.2 模型的推理型 AI 智能体,提供了包括专用连接和本地部署在内的全新安全工具,并重构了计费模式。在多种应用场景下,新方案可将企业的 AI 使用成本降低至原来的四分之一甚至更低。
Yandex B2B Tech 正式发布了其 AI 应用开发平台 Yandex AI Studio 的大型更新。通过此次升级,企业现在能够创建具备推理能力的 AI 智能体,使其能够按顺序执行复杂的任务指令。平台还新增了多项安全保障工具:例如,企业可配置通过内部专有网络将数据传输至云端模型,且无需记录请求日志。此外,得益于全新的计费模式,在特定场景下使用 AI 智能体的成本将降低 4 倍及以上。
该平台现已支持利用 DeepSeek-V3.2 模型创建推理型 AI 智能体。其核心优势在于显著增强的推理能力:该模型能够处理长上下文信息并进行连贯的逻辑推导。值得注意的是,基于该模型的智能体可以同时进行“思考”并与外部应用程序交互,从而大幅提升响应速度和任务执行效率。
此类智能体特别适用于复杂的多步骤场景。例如,它们可以对比供应商的投标方案,或协助分析技术故障。另一大应用方向是代码工作流:智能体可被委派执行自动化测试、创建代码仓库、部署应用程序等一系列链式任务。
目前,该新模型已集成到 SourceCraft Code Assistant 所使用的神经网络组合中。SourceCraft Code Assistant 是内置于 SourceCraft 开发平台的智能编程助手。
Yandex 强调,在云平台上使用 DeepSeek-V3.2 通常比企业自行部署基础设施更简便、更经济且更安全。生成式模型的数据处理均在俄罗斯境内完成,且该平台符合俄罗斯国内及国际安全标准。
针对银行和工业企业等大型组织对信息安全的特殊要求,Yandex AI Studio 推出了专门的云端协作工具。
具体而言,平台现在支持通过专用安全连接进行访问。这使得企业能够在不连接公共互联网的情况下,仅在内部网络中使用 AI 智能体。由于请求不会被记录日志,所有敏感信息均保留在企业内部。
此外,Yandex AI Studio 现已完全支持 本地部署 模式。客户可以选择将平台部署在自有基础设施中,或采用混合模式:在本地处理机密数据,同时通过安全连接将部分高资源消耗的 AI 任务交由云端处理。据悉,俄罗斯一家大型工业企业和一家银行已率先采用了这种混合架构。
Yandex AI Studio 引入了两种新型代币(Token)类型:
缓存代币:适用于部分信息被重复使用的场景。
工具代币:适用于数据通过调用外部服务和应用程序传输至模型的场景。
这一举措旨在简化成本控制,并帮助优化大规模请求(如文件处理或网络搜索)的支出。对于某些神经网络模型,工具代币和缓存代币的价格将是普通输入/输出代币价格的 四分之一。
“我们不仅在 Yandex AI Studio 中增加了新功能,还对整个平台的基础设施进行了全面优化。现在,平台能更好地处理长上下文、支持多步操作并有效识别对模型的重复调用。这一切确保了即使在高负载情况下,AI 智能体也能快速、稳定地运行。更新后的基础设施配合新的资费标准,将使企业大幅降低 AI 智能体的最终使用成本。据我们评估,在多种场景下,支出可减少 4 倍甚至更多。”Arthur Samigullin,Yandex AI Studio 负责人
Yandex AI Studio 提供超过 30 种生成式模型 的访问权限,涵盖开源模型及 Yandex 自研模型,同时配备 AI 应用开发工具和现成的 AI 解决方案。据公司数据显示,2025 年第四季度,该平台通过 API 消耗的代币总量已超过 1500 亿。