BMW-TensorFlow-Inference-API-GPU:这是使用Tensorflow框架的对象检测推理API的存储库

时间:2024-02-19 22:44:41
【文件属性】:

文件名称:BMW-TensorFlow-Inference-API-GPU:这是使用Tensorflow框架的对象检测推理API的存储库

文件大小:6.15MB

文件格式:ZIP

更新时间:2024-02-19 22:44:41

api docker dockerfile deep-neural-networks computer-vision

Tensorflow GPU推理API 这是使用Tensorflow框架的对象检测推理API的存储库。 此存储库基于 。 使用的Tensorflow版本是1.13.1。 推理REST API可在GPU上运行。 它仅在Linux操作系统上受支持。 使用我们的训练tensorflow信息库训练的模型可以部署在此API中。 可以同时加载和使用多个对象检测模型。 可以使用docker或docker swarm部署此仓库。 请仅在需要以下情况时使用docker swarm : 在API容器方面提供冗余:如果容器发生故障,传入的请求将被重定向到另一个正在运行的实例。 容器之间的协调:Swarm将在API之间进行协调,并选择其中一个以监听传入的请求。 扩展推理服务,以便获得更快的预测,尤其是在该服务上有流量时。 如果不需要上述任何要求,只需使用docker即可。 先决条件 Ubuntu 18.04 NVIDIA驱动程序(410.x或更高版本) Docker CE最新稳定版本 NVIDIA Docker 2 检查先决条件 要检查是否已安装docker-ce: docker -


【文件预览】:
BMW-TensorFlow-Inference-API-GPU-master
----.gitignore(7B)
----install_prerequisites.sh(664B)
----src()
--------main()
----models()
--------.gitignore(72B)
----LICENSE(11KB)
----models_hash()
--------model_hash.json(2B)
----README-docker_swarm.md(4KB)
----README.md(8KB)
----gpu-inference.yaml(344B)
----docs()
--------1.gif(904KB)
--------nvidia-smi.gif(21KB)
--------multhost.png(31KB)
--------swagger_endpoints.png(56KB)
--------2.gif(2.09MB)
--------4.gif(1.72MB)
--------TGPU40req.png(18KB)
--------3.gif(1.23MB)
--------uml()
--------onehost.png(15KB)
--------TGPU20req.png(19KB)
----docker()
--------requirements.txt(96B)
--------dockerfile(1KB)

网友评论