包含 Transformer 的推理服务

本教程演示如何使用 TensorStack SDK 创建 Transformer 镜像,然后部署包含该 Transformer 的 MLService。

运行示例

请按照使用方法准备环境,然后前往本教程的示例,参照其 README 文档运行。本示例运行了一个带有 Transformer 的 MLService 推理服务。

Transformer 实现

Transformer 是 MLService 中的一个组件,它可以对推理的请求进行预处理和后处理:

  • 预处理:用户发向推理服务的原始数据,先经过 Transformer 预处理,然后再被发送到推理服务。
  • 后处理:推理服务返回的预测结果,先经过 Transformer 后处理,然后再返回给用户。

查看推理服务状态

部署完成后,进入模型部署控制台的 MLService 页面,可以看到名为 pic-mnist 的 MLService,稍等片刻,等其进入 Ready 状态:

create-mlservcie-transformer

使用推理服务

你可以直接使用命令行工具访问 MLService 的预测服务。运行命令获取 MLService 的 URL:

address=$(kubectl get mls pic-mnist -ojsonpath='{.status.address.url}') && echo $address

使用图片 shoe.png 作为测试数据发送预测请求:

curl --data-binary @./shoe.png ${address}/v1/models/model:predict

参考