Open chanmin92 opened 5 years ago
학습 및 dev셋에 대한 성능 측정때는 batch size(32)가 작아 에러가 발생하지 않습니다. 하지만, NSML 서버 상에서 테스트 시, OOM 에러가 발생합니다. 아마 테스트 데이터 전체가 배치 단위로 들어가 발생하는 OOM 에러라고 생각됩니다.
이 문제에 대해서 어떻게 해결해야 할까요..??
안녕하세요.
infer함수안에서 input으로 들어오는 배치는 2500씩 입력됩니다.
하지만 모델에서 해당사이즈만큼 inference하다가 에러가난다면
infer함수안에서 input으로 들어오는 사이즈를 적절히 나눠서
모델에 input으로 입력하면 되지않을까요? (1시간 시간제한이 있다는점 유의하시기바랍니다.)
감사합니다.
학습 및 dev셋에 대한 성능 측정때는 batch size(32)가 작아 에러가 발생하지 않습니다. 하지만, NSML 서버 상에서 테스트 시, OOM 에러가 발생합니다. 아마 테스트 데이터 전체가 배치 단위로 들어가 발생하는 OOM 에러라고 생각됩니다.
이 문제에 대해서 어떻게 해결해야 할까요..??