5090 Sageattention, Triton, Xformers 설치 정보

파이썬3.12, 쿠다128기준으로

5090 작동 버전 조건

Triton >= 3.3, PyTorch >= 2.7, and CUDA >= 12.8

 

torch 2.7.1 + xformers0.0.31

'pip install torch==2.7.1 torchvision==0.22.1 torchaudio==2.7.1 xformers==0.0.31 --index-url https://download.pytorch.org/whl/cu128 --force-reinstall'

 

이후 업데이트되더라도 아래에서 버전별 방법보면됨

https://pytorch.org/get-started/previous-versions/

xformers는 현재 torch2.7.1까지만 지원하므로 torch2.8대신 2.7.1깜

xformers의 버전정보는

https://pypi.org/project/xformers/0.0.31.post1/#files

여기서 확인 참고로 파일이름에는 cp39라고 되어있지만

설명에는 'CPython 3.9+' 라고 되어있으므로 파이썬3.12도 됨

 

sageattention2.2.0

https://github.com/woct0rdho/SageAttention/releases/tag/v2.2.0-windows

맞는 버전 파일을 직접 다운받아서 설치

'pip install .\sageattention-2.2.0+cu128torch2.7.1-cp312-cp312-win_amd64.whl'

 

triton3.3.1

https://pypi.org/project/triton-windows/3.3.1.post19/#files

여기서 맞는 버전 파일 직접 다운받아서 설치

3.3.4가 최신이지만 에러나서 3.3.1로

'pip install .\triton_windows-3.3.1.post19-cp312-cp312-win_amd64.whl'

 

파이썬이랑 쿠다버전만 맞으면

요대로만 하면 에러없이 깔릴거임