目录

故障排除指南

请参阅本节,了解在使用Torchserve部署Pytorch模型时常见的问题及其相应的故障排除步骤。

部署和配置问题

“绑定到地址失败:http://127.0.0.1:8080”,端口8080/8081已占用。

通常情况下,端口号8080/8081已经被其他应用程序或服务使用,可以通过使用cmd ss -ntl | grep 8080进行验证。有两条方法可以解决这个问题:要么杀死使用端口8080/8081的进程,要么在8080和8081之外的端口上运行Torchserve。

参考 configuration.md 了解更多详情。

相关问题:[542]

“java.lang.NoSuchMethodError”当启动Torchserve时。473

这个错误通常发生在未安装或使用Java 17时。Torchserve需要Java 17,而较旧的Java版本不被支持。

相关问题:[#473]

无法发送大文件进行推理请求?

默认的最大请求大小和响应大小约为6.5 MB。因此,任何大于6.5 MB的文件无法上传。 要解决这个问题,请更新max_request_sizemax_response_size在config.properties文件中,并使用此配置文件启动torchserve。

$ cat config.properties
max_request_size=<request size in bytes>
max_response_size=<response size in bytes>
$ torchserve --start --model-store model_store --ts-config /path/to/config.properties

您也可以使用环境变量来设置这些值。 详情请参阅configuration.md。 相关问题:[#335]

Model-archiver

如何添加特定模型的自定义依赖项?

你可以使用--extra-files标志在创建mar文件时添加你的依赖文件。这些依赖文件可以是任何类型,如zip、egg、json等。你可能需要编写一个自定义处理器来根据需要使用这些文件。

相关问题:[#566]

如何解决特定模型的Python依赖项?

您可以使用“–requirements-file/ -r”标志在创建mar文件时提供一个requirements.txt。您可以参考waveglow 文本到语音合成器示例

相关问题:[#566] 参见Torch模型存档器CLI以获取更多详细信息。

我已在我的mar文件中添加了requirements.txt,但列出的包没有安装。

默认情况下,特定模型的自定义Python包功能是禁用的,通过将install_py_dep_per_model设置为true来启用此功能。 详情请参阅允许特定模型的自定义Python包

后端工作进程中断或后端工作进程死亡错误。

这个问题大多发生在模型无法初始化时,这可能是由于处理程序初始化函数中的错误代码引起的。这种错误也会在缺少包或模块时出现。

相关问题:[#667, #537]

文档

访问 PyTorch 的全面开发人员文档

查看文档

教程

获取面向初学者和高级开发人员的深入教程

查看教程

资源

查找开发资源并解答您的问题

查看资源