pytorch-cpp-inference:在C ++中将PyTorch 1.0模型用作Web服务器

时间:2024-02-22 01:33:17
【文件属性】:

文件名称:pytorch-cpp-inference:在C ++中将PyTorch 1.0模型用作Web服务器

文件大小:88KB

文件格式:ZIP

更新时间:2024-02-22 01:33:17

cpp inference pytorch C++C++

在C ++中服务PyTorch模型 该存储库包含使用PyTorch C ++ API进行推理的各种示例。 运行git clone https://github.com/Wizaron/pytorch-cpp-inference以便克隆此存储库。 环境 Dockerfiles可以在这里找到docker目录。 有两个dockerfile; 一个用于cpu,另一个用于cuda10。 为了构建docker镜像,您应该转到docker/cuda10 docker/cpu或docker/cuda10目录并运行docker/cuda10 docker build -t . docker/cuda10 docker build -t . 。 创建Docker映像后,您应该通过docker run -v : -p 8181:8181 -it <docker-image


【文件预览】:
pytorch-cpp-inference-master
----models()
--------resnet()
----docker()
--------cuda10()
--------cpu()
----inference-cpp()
--------cnn-classification()
----.gitignore(1KB)
----README.md(3KB)
----utils()
--------torchutils.cc(5KB)
--------torchutils.h(746B)
--------opencvutils.cc(2KB)
--------opencvutils.h(375B)

网友评论