stream handler로 로그 표준출력했을때, 수집 단계에서 로그 확인에 문제있음
invoke.sh 스크립트 실행 시 지정한 concurrency level에 맞게 람다 동작 이후 컨테이너가 삭제되기 떄문에 작업 실패 후 컨테이너가 삭제되면 해당 로그를 확인할 수 없음
파일 형태로 관리해야 할 것 같아 일단 logger 클래스는 handler를 지정해서 인스턴스 생성할 수 있도록 리팩토링을 해두었는데,
로그 파일 path 어떻게 설정할것인가?
spark cluster의 경우 data 경로 마운트 만들어둔게 있는데, ingest 영역에서도 같은 경로 바라보게 할것인지?
아니면 로깅을 위한 path 따로 설정할것인지?
해당 path 변수 환경변수 파일에서 관리할것인지, 아니먄 코드 레벨에서 각 클래스 정의 파일에서 하드코딩핡것인지
problem1. 로깅 방식
stream handler로 로그 표준출력했을때, 수집 단계에서 로그 확인에 문제있음 invoke.sh 스크립트 실행 시 지정한 concurrency level에 맞게 람다 동작 이후 컨테이너가 삭제되기 떄문에 작업 실패 후 컨테이너가 삭제되면 해당 로그를 확인할 수 없음 파일 형태로 관리해야 할 것 같아 일단 logger 클래스는 handler를 지정해서 인스턴스 생성할 수 있도록 리팩토링을 해두었는데,
how am i solve it?