模型部署

TensorStack AI 平台的模型部署模块可以帮助你快速地将训练完成的 AI 模型部署为推理服务。

针对不同的应用场景,有以下两种 TensorStack API可供使用:

  • MLService 是完善的模型推理服务,可用于生产环境,具有以下特性:
    • 基于 Serverless 架构,服务容量(serving capacity)可根据负载自动伸缩;
    • 自动暴露服务到集群外部,快速上线。
  • SimpleMLService 是精简的模型推理服务,可用于快速测试、固定容量部署等场景。具有以下特性:
    • 服务副本数目(replica)固定;
    • 集群外部访问需要额外配置 Ingress 等资源。

同时,TensorStack AI 平台对模型部署提供自动化的运维支持,包括性能和资源的监控告警以及故障检测,以保障推理服务长期可靠运行。

架构

模型部署模块的架构如下图:

architecture

根据用户提供的模型存储位置和 AI 框架等设置,模型部署模块的控制器(controller)协调模型下载并启动模型推理服务。

下一步