文件名称:channel-distillation:用于通道蒸馏的PyTorch工具
文件大小:18KB
文件格式:ZIP
更新时间:2024-04-10 16:42:18
Python
通道蒸馏 PyTorch实施 革新 通道蒸馏(CD) 指导性知识蒸馏(GKD) 早衰老师(EDT) 笔记 在我们的代码中,kdv2表示GKD,而lrd2表示EDT。 储存库的结构 ├── cifar_config.py # Hyperparameters ├── cifar_train.py ├── data │ └── directory_of_data.md ├── imagenet_config.py # Hyperparameters ├── imagenet_train.py ├── losses │ ├── cd_loss.py # CD Loss │ ├── ce_loss.py │ ├── __init__.py │ └── kd_loss.py # GKD Loss ├── models │ ├── channel_distillation
【文件预览】:
channel-distillation-master
----pretrain()
--------path_of_teacher_checkpoint.md(0B)
----utils()
--------logutil.py(718B)
--------util.py(977B)
--------average_meter.py(391B)
--------metric.py(445B)
--------data_prefetcher.py(864B)
--------__init__.py(0B)
----models()
--------channel_distillation.py(2KB)
--------__init__.py(0B)
--------resnet.py(11KB)
----losses()
--------__init__.py(68B)
--------kd_loss.py(1KB)
--------cd_loss.py(457B)
--------ce_loss.py(270B)
----imagenet_train.py(9KB)
----README.md(6KB)
----imagenet_config.py(1KB)
----data()
--------directory_of_data.md(0B)
----.gitignore(2KB)
----cifar_config.py(986B)
----cifar_train.py(9KB)