Pytorch_huggingface tutorial 실습 (2)
이전 포스팅
Pytorch_huggingface tutorial 실습 (1)
전에 했던 코드는 RAM이 부족한건지 자꾸 블루스크린이 떴다.
컴퓨터 교체를 하고 싶지만 할 수 없는 슬픈 현실을 묻어두고, 일단 Local에서 돌려도 돌아가게끔 코드를 수정해보자.
일단 가상환경을 conda로 바꾸었다.
poetry에서 conda로 바꾼건 다른 의미는 없고, GPU 환경 설정이 가능하기 때문이다.
GPU관련 환경설정에 관한 것은 여기를 확인
이 base 환경을 clone해서, deeplearn이라는 환경설정을 다시 만들어 줬다.
이후 여기에 필요한 library를 설치해줬다.
그리고 희망을 가지고 돌려보니..
GPU인식은 잘 된 것 같았으나, Out of Memory 에러를 뱉었다.
그렇다고 지금 에러가 나는게 하드웨어의 스펙이 부족해서는 아니고, 설정 상 limit가 걸려있는 느낌이다.
이 부분을 해결해보자
확인을 해본 결과 batch size를 줄이는 것이 가장 효과적이라는 것을 알아냈다.
이미 torch.no_grad()
와 model.eval()
은 선언을 해두었다
batch size : 10 $\rightarrow$ 4 로 하니 잘 진행이 된 모습이다.
다음은 이렇게 fine-tuning한 모델로 실제 예측을 해보는 코드를 작성해볼 생각이다.
코드 출처 : https://huggingface.co/docs/transformers/tasks/sequence_classification