Python|flash_attn 安装方法
创始人
2024-11-21 22:07:09
Step 1|打开 flash_attn 的 Github 项目的 releases 页面
  • flash-attn 的 pypi 地址:https://pypi.org/project/flash-attn/

直接使用 pypi 安装会安装最新版本,不一定适配本地环境,所以需要直接从 release 中选择合适的版本安装。官方包只有 Linux 系统,Windows 系统可以使用大佬编译的包:

  • Linux 系统 whl 文件下载地址:https://github.com/Dao-AILab/flash-attention/releases
  • Window 系统 whl 文件下载地址:https://github.com/bdashore3/flash-attention/releases(非官方)

在这里插入图片描述
在这里插入图片描述

Step 2|选择适合的版本并下载

flash_attn 的版本上,直接选择最新版本即可(若最新版本的 flash_attn 没有适合的 CUDA 版本和 pytorch 版本则应用更早的版本)。

  • 版本文件名中的第一部分(例如 cu118cu122)为 CUDA 版本。本地 CUDA 版本可以通过 nvidia-smi 命令查看:

在这里插入图片描述

  • 版本文件名中的第二部分(例如 torch2.1torch2.2torch2.3)为 pytorch 版本,选择本地 pytorch 对应的版本即可。本地 pytorch 版本可以通过 pip show torch 命令查看:

在这里插入图片描述

  • 版本文件名的第三部分(例如 cp311-cp311-win_amd64)为 Python 版本,选择本地 Python 版本即可。本地 Python 版本可以通过 pip debug 命令查看:

在这里插入图片描述

Step 3|安装 flash_attn 模块

进入下载路径,pip 安装即可:

pip install flash_attn-2.5.9.post1+cu122torch2.3.1cxx11abiFALSE-cp311-cp311-win_amd64.whl 

参考文档:https://blog.csdn.net/2301_77818837/article/details/135642828


如果尝试直接编译 whl 文件的话,可能遇到的问题如下:

  • Python|pip 安装报错 error Microsoft Visual C++ 14.0 or greater is required 的解决方法

相关内容

热门资讯

下一个航天亿级市场,藏在你手机... 商业航天的第一个大众市场来了。 过去很多年,商业航天始终面临一个问题:技术很热,但离普通人太远。 火...
【科普小知识】太空金属3D打印... 近日,中国科学院力学研究所联合中国科学院微小卫星创新研究院,利用轻舟试验飞船,成功完成太空金属增材制...
从没人做到抢着做,71台概念车... 刚结束的2026年北京车展,有一个令人震撼的数字,概念车多达71台,数量创下近几届A级车展之最。从自...
原创 1... 在以前,一提到激光雷达,很多人的第一反应就是“高端”、“昂贵”,仿佛是20万甚至30万以上高端车型的...
解散xAI ,马斯克和Anth... 文 | 字母AI 就在刚才,马斯克在X平台上发布了一条简短的声明:xAI从此以后不再是独立的公司,...