ddps-lab / tfserving-inference

0 stars 2 forks source link

tx2에서 tf serving을 통해 모델들이 작동하는지 확인하기 #16

Closed kh3654po closed 1 year ago

kh3654po commented 1 year ago

tx2 장비에서 tf serving을 사용하여 각 모델들을 테스트 해봐야합니다.

kh3654po commented 1 year ago

현재는 3모델이 작동하는 것을 확인했습니다. 각 모델의 추론시간은 다음과 같습니다.

kmu-leeky commented 1 year ago

오케이. 100개 요청을 이정도라면 훌륭해보인다. gpu 사용하고 있고 gRPC 사용하는거지?

kh3654po commented 1 year ago

yolo v5 테스트 결과입니다. 환경은 위의 cnn과 같습니다.

kh3654po commented 1 year ago

nlp 모델 테스트 완료했습니다.

xavier2와 마찬가지로 nlp모델 테스트 해봤습니다. 다만 xavier2에서 bert_imdb모델이 메모리를 25GB 사용하던것에 비해 tx2에서는 3GB정도만 사용하고 있습니다. distilbert_sst2 경우에는 tx2에서 메모리 사용량이 많아 응답이 없었지만 docker run 옵션중 -m 옵션으로 메모리 제한을 주니 작동을 잘하였습니다.

kmu-leeky commented 1 year ago

석현아. 그러면 tx2 에서는 xavier2 보다 사용하는 하드웨어는 더 작은데 성능은 더 좋다는 이야기?