Data-Efficient-Model-Compression:数据高效的模型压缩

时间:2024-08-13 14:44:52
【文件属性】:

文件名称:Data-Efficient-Model-Compression:数据高效的模型压缩

文件大小:759KB

文件格式:ZIP

更新时间:2024-08-13 14:44:52

knowledge-distillation model-compression Python

数据高效的模型压缩 这个 repo 是数据高效模型压缩的 Pytorch 实现。 背景 已经进行了许多尝试,以将在高端 GPU 服务器上取得的卷积神经网络 (CNN) 的巨大成功扩展到智能手机等便携式设备。 因此,在云端提供深度学习模型的压缩和加速服务具有重要意义,对最终用户具有吸引力。 然而,现有的网络压缩和加速方法通常通过请求完整的原始训练数据(例如 ImageNet)来微调 svelte 模型,这可能比网络本身更麻烦,并且无法轻松上传到云端。 因此,数据高效的神经网络压缩成为一个跳跃点。 DAFL ICCV 2019 论文 DAFL 是一种不使用训练数据的压缩方法。 更多细节可以在找到。 PU压缩 NeurIPS 2019 论文 Unlabeled 。 PU Compression 是一种训练数据很少的压缩方法。 更多细节可以在找到。 排行榜 方法 使用数据 累积(MNIST


【文件预览】:
Data-Efficient-Model-Compression-master
----DAFL()
--------resnet.py(4KB)
--------lenet.py(3KB)
--------THIRD PARTY OPEN SOURCE SOFTWARE NOTICE.txt(2KB)
--------DAFL-train.py(8KB)
--------License.txt(1KB)
--------.DS_Store(6KB)
--------figure()
--------README.md(2KB)
--------teacher-train.py(6KB)
----pu_compress()
--------loss.py(3KB)
--------main.py(7KB)
--------cache()
--------THIRD PARTY OPEN SOURCE SOFTWARE NOTICE.txt(2KB)
--------License.txt(1KB)
--------.DS_Store(8KB)
--------model.py(6KB)
--------figure()
--------README.md(2KB)
--------train_model.py(7KB)
----README.md(2KB)

网友评论