文件名称:YOWO:从https克隆
文件大小:21.51MB
文件格式:ZIP
更新时间:2024-03-25 20:44:29
Python
您只看一次(YOWO) PyTorch实施“只看”一文。 在这项工作中,我们提出了YOWO ( Y y O nly W atch O nce ),这是一种用于视频流中实时时空动作本地化的统一CNN架构。 YOWO是一个单阶段框架,输入是一个片段,由视频中的几个连续帧组成,而输出则预测边界框的位置以及当前帧中的相应类别标签。 然后,使用特定策略,可以将这些检测结果链接在一起,以在整个视频中生成“动作管”。 由于我们没有将人类检测和动作分类程序分开,因此可以通过在端到端框架中的联合损失来优化整个网络。 我们对两个具有挑战性的代表性数据集UCF101-24和J-HMDB-21进行了一系列比较评估。 我们的方法在保持实时功能的同时,胜过其他最新技术,在16帧输入素材上提供每秒34帧,在8帧输入素材上提供每秒62帧。 安装 git clone https://github.com/wei-ti
【文件预览】:
YOWO-master
----cfg()
--------jhmdb21.cfg(404B)
--------test.cfg(689B)
--------ucf24.cfg(405B)
--------jhmdb21.data(211B)
--------yolo.cfg(3KB)
--------ucf24.data(208B)
--------test.data(105B)
----draw_bbx.py(934B)
----train_compression.py(6KB)
----backbones_3d()
--------mobilenetv2.py(5KB)
--------shufflenetv2.py(7KB)
--------resnext.py(6KB)
--------mobilenet.py(3KB)
--------resnet.py(7KB)
--------shufflenet.py(5KB)
----run_ucf101-24.sh(583B)
----train.py(12KB)
----run_video_mAP_ucf.sh(300B)
----opts.py(2KB)
----run_jhmdb-21.sh(615B)
----evaluation()
--------Object-Detection-Metrics()
----FocalLoss.py(3KB)
----utils.py(24KB)
----clip.py(7KB)
----model.py(5KB)
----dataset.py(4KB)
----examples()
--------00007.jpg(9KB)
--------biking.gif(3.09MB)
--------00010.jpg(7KB)
--------00004.jpg(11KB)
--------00008.jpg(9KB)
--------00009.jpg(8KB)
--------00005.jpg(10KB)
--------00001.jpg(10KB)
--------brush_hair.gif(1.51MB)
--------00006.jpg(10KB)
--------catch.gif(968KB)
--------pull_up.gif(1.47MB)
--------fencing.gif(3.35MB)
--------00003.jpg(11KB)
--------00002.jpg(10KB)
--------golf_swing.gif(4.12MB)
----backbones_2d()
--------darknet.py(13KB)
----run_video_mAP_jhmdb.sh(302B)
----region_loss.py(13KB)
----eval_results.py(11KB)
----cfam.py(3KB)
----README.md(6KB)
----transformer.py(10KB)
----finalAnnots.mat(1.14MB)
----data()
--------voc.names(135B)
--------jhmdb21.names(153B)
--------ucf24.names(277B)
--------coco.names(625B)
----.gitignore(1KB)
----video_mAP.py(16KB)
----cfg.py(10KB)
----imglist_to_vidlist.py(493B)