Pytorch_huggingface tutorial 실습 (2)

이전 포스팅
Pytorch_huggingface tutorial 실습 (1)

전에 했던 코드는 RAM이 부족한건지 자꾸 블루스크린이 떴다.

컴퓨터 교체를 하고 싶지만 할 수 없는 슬픈 현실을 묻어두고, 일단 Local에서 돌려도 돌아가게끔 코드를 수정해보자.

Alt text

일단 가상환경을 conda로 바꾸었다.

poetry에서 conda로 바꾼건 다른 의미는 없고, GPU 환경 설정이 가능하기 때문이다.

GPU관련 환경설정에 관한 것은 여기를 확인

이 base 환경을 clone해서, deeplearn이라는 환경설정을 다시 만들어 줬다.

이후 여기에 필요한 library를 설치해줬다.

Alt text

그리고 희망을 가지고 돌려보니..

Alt text

GPU인식은 잘 된 것 같았으나, Out of Memory 에러를 뱉었다.

그렇다고 지금 에러가 나는게 하드웨어의 스펙이 부족해서는 아니고, 설정 상 limit가 걸려있는 느낌이다.

이 부분을 해결해보자

확인을 해본 결과 batch size를 줄이는 것이 가장 효과적이라는 것을 알아냈다.
이미 torch.no_grad()model.eval()은 선언을 해두었다

출처

Alt text

batch size : 10 $\rightarrow$ 4 로 하니 잘 진행이 된 모습이다.

다음은 이렇게 fine-tuning한 모델로 실제 예측을 해보는 코드를 작성해볼 생각이다.

코드 출처 : https://huggingface.co/docs/transformers/tasks/sequence_classification