딥러닝시, 글카로 딥러닝 하려면 필수적으로 있어야 하는 프로그램이다.
이거 여러개 다운받으면, 중복되어 설피되니까 주의하자.
cmd에 다음일 입력하자.
nvidia-smi
이러면, 우측 상단에 CUDA Version이 나오는데, 이는 설피된 버젼이 아니라, 너가 설피해야 하는 버젼이다.
나같은 경우에는 12.6이 나온다. 이 버젼을 다운받아주면 된다.
만일, 이미 CUDA가 다운받아져 있다면,
nvcc -version
위 명령어를 통해 다운받아져 있는 버젼을 알 수 있다.
https://developer.nvidia.com/cuda-toolkit-archive
위 링크에서, 너한테 맞는 버젼을 다운받아라.
툴킷으로 다운받으면 된다.
이어서, 실행시키면, 설치가 된다.
이는 CUDA 버젼에 맞게 설치해야 한다.
https://developer.nvidia.com/cudnn-downloads?target_os=Linux&target_arch=x86_64&Distribution=Agnostic&cuda_version=12
위 링크의 버젼이 12에 맞는 버젼이다.
다운받고, 압푹을 풀어서 앞서 다운받은 CUDA설피 폴더에 덮어쓰기 하자.
CUDA 위피는 C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v12.6
이런곳에 있다.
시스템 환경변수 편집 -> 고급 들어가서, path에 새로만들기로, bin, extras/CUPTI/Lib64, include 를 환경변수에 추가시킨다.
이후 한번 재부팅 하고,
nvcc -V
이 명령어 폈을 때 잘 잡히면 성공이다.
이제 파이썬 스크립트 만들어서,
import torch
torch.cuda.is_available()
위 코드 실행시키고, true 나오면 진짜 성공이다. 이후에 진핸하는 딥러니 ㅇ들은 전부 GPU에서 가능해 진다.
PyTorch에 따라 CUDA 가 실행이 되고 안되고 그런다.
꼭 설치해 주자.
https://pytorch.org/get-started/locally/
저 링크에서 다운받자. 내가 다운받은 조건에 맞게 해 주면 도니다.
이어서 다 설피 했으면,
import torch
print(torch.version.cuda) # 설치된 PyTorch에서 사용하는 CUDA 버전
print(torch.cuda.is_available()) # CUDA 사용 가능 여부
우 ㅣ코드를 통해 잘 되었는지 확인할 수 있다.