RuntimeError: FlashAttention is only supported on CUDA 11 and above

时间:2025-01-23 07:43:19

RuntimeError: FlashAttention is only supported on CUDA 11 and above

  • 问题描述
  • 解决方案

问题描述

RuntimeError: FlashAttention is only supported on CUDA 11 and above
在这里插入图片描述

解决方案

此错误的原因可能是 nvcc 的 CUDA 版本(通过键入“nvcc -V”获得,可能 < 11.0)与 torch (11.7) 的 CUDA 版本不匹配。

类似问题在这里解决:
/questions/40517083/multiple-cuda-versions-on-machine-nvcc-v-confusion
我解决了这个问题通过:
首先:

vim ~/.bashrc

在最后一行加上:

export PATH=/usr/local/cuda-11.7/bin:$PATH

然后:

source ~/.bashrc

注意这里的cuda-11.7需要依据自己电脑或者服务器上面的版本来改,找到/usr/local目录下来看。改成自己需要的版本。
在这里插入图片描述
感谢:
参考1
haoychen3的帮助。


创作不易,观众老爷们请留步… 动起可爱的小手,点个赞再走呗 (๑◕ܫ←๑)
欢迎大家关注笔者,你的关注是我持续更博的最大动力


原创文章,转载告知,盗版必究



在这里插入图片描述


在这里插入图片描述
♠ ⊕ ♠ ⊕ ♠ ⊕ ♠ ⊕ ♠ ⊕ ♠ ⊕ ♠ ⊕ ♠ ⊕ ♠ ⊕ ♠ ⊕ ♠ ⊕ ♠ ⊕ ♠ ⊕ ♠ ⊕ ♠ ⊕ ♠ ⊕ ♠ ⊕ ♠ ⊕ ♠ ⊕ ♠ ⊕ ♠ ⊕ ♠ ⊕ ♠ ⊕ ♠ ⊕ ♠ ⊕ ♠ ⊕ ♠ ⊕ ♠ ⊕ ♠ ⊕ ♠ ⊕ ♠