目录

工作流推理API

工作流推理API默认在8080端口监听,并且仅能从本地主机访问。要更改默认设置,请参阅TorchServe配置

TorchServe服务器支持以下API:

  • 预测API - 从已部署的模型获取预测结果

预测API

要从工作流获取预测,请通过调用REST API来执行/wfpredict/{workflow_name}

POST /wfpredict/{workflow_name}

curl 示例

curl -O https://raw.githubusercontent.com/pytorch/serve/master/docs/images/kitten_small.jpg

curl http://localhost:8080/wfpredict/myworkflow -T kitten_small.jpg

结果是一个JSON对象,返回工作流DAG叶子节点的响应字节。

文档

访问 PyTorch 的全面开发人员文档

查看文档

教程

获取面向初学者和高级开发人员的深入教程

查看教程

资源

查找开发资源并解答您的问题

查看资源