BMW-TensorFlow-Inference-API-CPU:这是使用Tensorflow框架的对象检测推理API的存储库

时间:2024-02-20 10:27:22
【文件属性】:

文件名称:BMW-TensorFlow-Inference-API-CPU:这是使用Tensorflow框架的对象检测推理API的存储库

文件大小:6.15MB

文件格式:ZIP

更新时间:2024-02-20 10:27:22

api docker cpu computer-vision deep-learning

适用于Windows和Linux的Tensorflow CPU推理API 这是使用Tensorflow框架的对象检测推理API的存储库。 此存储库基于 。 使用的Tensorflow版本是1.13.1。 推理REST API在CPU上运行,不需要使用任何GPU。 Windows和Linux操作系统均支持该功能。 使用我们的训练tensorflow信息库训练的模型可以部署在此API中。 可以同时加载和使用多个对象检测模型。 可以使用docker或docker swarm部署此仓库。 请仅在需要以下情况时使用docker swarm : 在API容器方面提供冗余:如果容器发生故障,传入的请求将被重定向到另一个正在运行的实例。 容器之间的协调:Swarm将在API之间进行协调,并选择其中一个以监听传入的请求。 扩展推理服务,以便获得更快的预测,尤其是在该服务上有流量时。 如果不需要上述任何要求,只需使用docker即可。 先决条件 作业系统: Ubuntu 16.04 / 18.04 Windows 10专业版/企业版 码头工人 检查先决条件 要检查是否已安装dock


【文件预览】:
BMW-TensorFlow-Inference-API-CPU-master
----.gitignore(7B)
----cpu-inference.yaml(292B)
----install_prerequisites.sh(664B)
----src()
--------main()
----models()
--------.gitignore(72B)
----LICENSE(11KB)
----models_hash()
--------model_hash.json(2B)
----README-docker_swarm.md(3KB)
----README.md(8KB)
----docs()
--------1.gif(1.04MB)
--------nvidia-smi.gif(21KB)
--------tcpu.png(14KB)
--------swagger_endpoints.png(56KB)
--------2.gif(2.01MB)
--------TCPU20req.png(21KB)
--------4.gif(1.68MB)
--------3.gif(1.25MB)
--------uml()
--------tcpu2.png(31KB)
--------TCPU40req.png(21KB)
----docker()
--------requirements.txt(196B)
--------dockerfile(239B)

网友评论