背景:

最近作者正在尝试部署多模态大语言模型llava,本文记录一下部署时遇到的问题

运行环境:

平台:AutoDL

GPU型号:RTX4090

Pytorch版本:python3.8+torch2.0.1+CUDA11.8

问题:

我跟着README.md文件一步步的执行到以下命令时出现错误:

pip install flash-attn --no-build-isolation

错误如下图所示:

我在CSDN上看到有位博主给出了一种解决方法,就是关闭梯子再次尝试,原文链接:链接,但是这个方法对我不起作用。

解决方法:

其实解决方法已经在报错中给出,报错中给出了下载flash-attn的URL地址,点击该地址会跳转到另一个页面自动下载文件flash_attn-2.5.0+cu118torch2.0cxx11abiFALSE-cp38-cp38-linux_x86_64.whl,将下载好的文件上传到项目文件下,运行以下命令直接下载:

pip install flash_attn-2.5.0+cu118torch2.0cxx11abiFALSE-cp38-cp38-linux_x86_64.whl

即可下载成功

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐