工作流推理API¶
工作流推理API默认在8080端口监听,并且仅能从本地主机访问。要更改默认设置,请参阅TorchServe配置。
TorchServe服务器支持以下API:
预测API - 从已部署的模型获取预测结果
预测API¶
要从工作流获取预测,请通过调用REST API来执行/wfpredict/{workflow_name}:
POST /wfpredict/{workflow_name}
curl 示例¶
curl -O https://raw.githubusercontent.com/pytorch/serve/master/docs/images/kitten_small.jpg
curl http://localhost:8080/wfpredict/myworkflow -T kitten_small.jpg
结果是一个JSON对象,返回工作流DAG叶子节点的响应字节。