# 首先安装ninja
pip install ninja
# 检验是否安装成功
ninja --version
echo $?
# return 0再继续,否则重新安装ninja
pip install flash-attn==xxx(version) --no-build-isolation
# 不出意料会报错:
# Guessing wheel URL: /Dao-AILab/flash-attention/releases/download/v2.3.6/flash_attn-2.3.6+cu118torch2.1cxx11abiFALSE-cp310-cp310-linux_x86_64.whl
# error: Remote end closed connection without response
# 尝试手动安装 (先下载.whl文件)
pip install flash_attn-2.3.6+cu118torch2.1cxx11abiFALSE-cp310-cp310-linux_x86_64.whl
# 大功告成
相关文章
- 关于flash-attention安装踩过的坑
- 关于UMI中 useModel的使用(踩坑记录)
- hive使用hiveserver2、beeline启动踩过的坑User: root is not allowed to impersonate root
- 【uni-app】关于v-if和v-else-if的一个踩坑记录
- 【Android踩过的坑】14.小米系统TTS无法生效的问题
- Docker for Windows 的安装及搭建PHP开发环境,踩坑。
- 微信小程序嵌套iframe_H5嵌入微信小程序踩过的坑
- Laravel Homestead的安装和使用(解决踩坑篇)
- 记一次拿webshell踩过的坑(如何用PHP编写一个不包含数字和字母的后门)
- nginx 部署踩过的坑-1(未完待续)