文件名称:inference-server:NVIDIA Jetson设备上的Roboflow Train模型进行对象检测推断
文件大小:12KB
文件格式:ZIP
更新时间:2024-05-25 01:19:53
iot machine-learning computer-vision realtime inference
Roboflow Edge推理服务器 Roboflow Edge Inference Server是我们的的设备上实现。 它使您可以在设备上运行经过定制训练的模型,这意味着您可以在带宽有限或第三方无法处理生产图像的情况下运行它们。 这个怎么运作 您pull并run,并且Inference Server将在端口9001上可用。 首次调用模型时,将下载模型,并通过HTTP接口在设备上进行推断(如果适用,可进行硬件加速); 您的图像和模型预测永远不会离开设备。 支持的设备 目前,我们已经开始支持(包括Jetson Nano 2GB,Jetson Nano 4GB和Jetson Xavier NX)。 我们建议运行最新版本的 。 对CPU推理和任意CUDA GPU的支持正在进行中,并将很快得到正式支持。 如果您想,请。 何时使用 对于大多数用例,首选 。 它不需要设置或维护,并且可以自动进行
【文件预览】:
inference-server-main
----server()
--------index.js(5KB)
--------pm2.config.js(385B)
--------convertAccessToken.js(1KB)
--------configs()
----Dockerfile.gpu(778B)
----LICENSE(1KB)
----Dockerfile.cpu(640B)
----deploy.sh(331B)
----run.sh(533B)
----.gitignore(2KB)
----Dockerfile.jetson(387B)
----.dockerignore(21B)
----README.md(4KB)
----build.sh(412B)