seujung / KoBART-summarization

Summarization module based on KoBART
MIT License
196 stars 89 forks source link

학습을 위한 스펙이 어느정도 되야하나요? #5

Closed wql7654 closed 3 years ago

wql7654 commented 3 years ago

RuntimeError: CUDA out of memory. Tried to allocate 470.00 MiB (GPU 0; 10.76 GiB total capacity; 9.20 GiB already allocated; 471.81 MiB free; 9.28 GiB reserved in total by PyTorch)

batch size를 1로 줄여도 이런식으로 에러가 계속뜹니다 현재 gpu 2080ti 2장에 cuda는 10.2입니다.

wql7654 commented 3 years ago

train 안에 KobartSummaryModule 에서 workers 를 5에서 2로 줄이니 일단 학습이 되는걸 확인했습니다. 상당히 높은사양을 요구하는 모델이네요 ..

seujung commented 3 years ago

안녕하세요. Test 수행 시 P40 22GB 2장으로 수행하였습니다.