你好,我想问一下这个项目各种依赖包是啥版本,最主要torch版本是哪个,transformer版本是哪个,flash_attn的版本,为啥有些版本无法下载flash attn,然后依赖安装好后,transformers报“ImportError: cannot import name 'Qwen2_5_VLFlashAttention2' from 'transformers.models.qwen2_5_vl.modeling_qwen2_5_vl'” ,使用其他版本的transformers不报该错,但是又报from transformers.modeling_flash_attention_utils import index_first_axis导入失败的错误,然后还有cannot import name 'no_init_weights' from 'transformers.modeling_utils',谢谢
你好,我想问一下这个项目各种依赖包是啥版本,最主要torch版本是哪个,transformer版本是哪个,flash_attn的版本,为啥有些版本无法下载flash attn,然后依赖安装好后,transformers报“ImportError: cannot import name 'Qwen2_5_VLFlashAttention2' from 'transformers.models.qwen2_5_vl.modeling_qwen2_5_vl'” ,使用其他版本的transformers不报该错,但是又报from transformers.modeling_flash_attention_utils import index_first_axis导入失败的错误,然后还有cannot import name 'no_init_weights' from 'transformers.modeling_utils',谢谢