ML 프레임워크 GPU 연산 지원 확인하기
Programming매 번 다시 검색해서 알아내는 것이라 여기에 정리해둔다.
Tensorflow (버전 2.2와 1.14에서 확인)
import tensorflow as tf
tf.test.is_gpu_available(
cuda_only=False, min_cuda_compute_capability=None
)
PyTorch (버전 1.6에서 확인)
import torch
torch.cuda.is_available()
참고:
'Programming' 카테고리의 다른 글
TCMalloc 사용하여 TF 메모리 누수 방지 (0) | 2022.03.10 |
---|---|
Difference between BN and IN (0) | 2020.10.13 |
mkvirtualenv 실행시 ailed to find interpreter for Builtin discover of python_spec 에러 (0) | 2020.08.06 |
공용 .gitignore 를 건드리지 않고 .gitignore 설정하기 (0) | 2020.08.03 |
Python 업그레이드 후 virtualenv 문제 (0) | 2020.01.23 |