颜色分类leetcode-depthai_movenet:DepthAI上的MoveNet单姿势

时间:2024-07-26 17:00:59
【文件属性】:

文件名称:颜色分类leetcode-depthai_movenet:DepthAI上的MoveNet单姿势

文件大小:50.78MB

文件格式:ZIP

更新时间:2024-07-26 17:00:59

系统开源

颜色分类leetcode DepthAI 上的 MoveNet 单姿态跟踪 在硬件(OAK-1、OAK-D 等)上运行 Google MoveNet Single Pose 模型。 在 RGB 图像上运行并预测单个人的卷积神经网络模型。 两种变体:Lightning 和 Thunder,后者更慢但更准确。 当输入是一系列帧时,MoveNet 使用基于前一帧检测的智能裁剪。 这允许模型将注意力和资源集中在主要主题上,从而在不牺牲速度的情况下获得更好的预测质量。 对于 OpenVINO 上的 MoveNet,请访问: 架构:主机模式 vs 边缘模式 裁剪算法根据第 N 帧中检测到的身体确定将在第 N+1 帧的哪个区域运行推理。 模式(主机或边缘)描述了该算法运行的位置: 在主机模式下,裁剪算法在主机 CPU 上运行。 仅此模式允许图像或视频文件作为输入。 主机和设备之间的信息流是双向的:特别是主机向设备发送帧或裁剪指令; 在边缘模式下,裁剪算法在 MyriadX 上运行。 因此,在这种模式下,MoveNet 的所有功能块(推理、确定下一帧的裁剪区域、裁剪)都在设备上执行。 唯一交换的信息是


【文件预览】:
depthai_movenet-main
----MovenetRenderer.py(2KB)
----requirements.txt(178B)
----MovenetDepthai.py(19KB)
----MovenetDepthaiEdge.py(13KB)
----models()
--------movenet_singlepose_thunder_U8_transpose.blob(18.9MB)
--------movenet_singlepose_lightning_U8_transpose.blob(8.45MB)
----FPS.py(1KB)
----template_processing_script.py(6KB)
----examples()
--------semaphore_alphabet()
--------yoga_pose_recognition()
----README.md(7KB)
----demo.py(2KB)
----img()
--------movenet_nodes.png(58KB)
--------dance.gif(13.91MB)

网友评论