文件名称:rank_distill:排名蒸馏的PyTorch实现
文件大小:62.23MB
文件格式:ZIP
更新时间:2024-03-09 07:27:30
Python
排名蒸馏 排名蒸馏的PyTorch实现: ,唐嘉喜和王珂,KDD '18 要求 Python 2或3 脾气暴躁的 科学 用法 训练学生模型(Model-S) 运行d=50 python train_caser.py以获得学生模型的性能。 完成后,我们会将模型保存在文件夹检查点/ 培训教师模型(Model-T) 使用d=100运行python train_caser.py以获取教师模型的性能。 完成后,我们会将模型保存在文件夹检查点/ 通过分级蒸馏训练学生模型(Model-RD) 使用d=100运行python train_caser.py以获得训练有素的教师模型。 完成后,我们将教师模型保存在文件夹检查点/ (您也可以跳过此步骤,因为checkpoint / gowalla-caser-dim = 100.pth.tar中有一个) 运行python distill_ca
【文件预览】:
rank_distill-master
----.gitignore(23B)
----distill_caser.py(22KB)
----datasets()
--------gowalla()
----LICENSE(7KB)
----interactions.py(7KB)
----train_caser.py(13KB)
----caser.py(4KB)
----utils.py(2KB)
----checkpoints()
--------gowalla-caser-dim=100.pth.tar(63.9MB)
----README.md(3KB)
----evaluation.py(3KB)
----losses.py(2KB)