skarltjr / Memory_Write_Record

나의 모든 학습 기록
0 stars 0 forks source link

Issue - s3이미지 축적 or batch delete #86

Open skarltjr opened 2 years ago

skarltjr commented 2 years ago

개요 :

커뮤니티 서비스 개발 중 클라이언트 측에서 게시글 수정에서 업로드할 이미지에서 이슈가 발생

게시글 작성은 
1. 이미지 api를 통해 업로드하고자하는 이미지를 먼저 업로드 후 해당 이미지의 id를 반환
2. 이러한 이미지 id와 게시글 info를 서버에게 전달해주면 서버는 id를 통해 image를 가져와서 image_unit을 저장
3. 추가로 클라이언트단에서 업로드하고자한 이미지를 취소하면 해당 이미지의 id는 delete_image_list로 서버에게 전달
4. 문제는 여기서 만약 게시글 수정 중 의도치않은 종료가 발생했을 때

- 문제 : 이미 이미지를 선택하고 이것들이 s3에 저장된 상태에서 게시글 수정이 중간에 종료된 경우 이 이미지들을 삭제되지 않고
s3에 쌓인다

방안 :

클라이언트와 상의했을 때 크게 2가지 방안을 고려
- 결국 문제는 비용의 문제
- 어느 방법이 더 비용적인 측면에서 효과적일까

1. s3의 저장 공간 임계치에 다다를때 늘리기
- 실제로 현업에서도 이러한 방식으로 많이 진행한다고한다.

2. batch를 사용하여 사용되지 않는 image 삭제 자동화
- batch를 활용해 일정 기간마다 image를 삭제하는것이 1번보다 비용이 덜 든다면 확실히 효율적이라고 생각
- 그러나 아직 유의미한 트래픽도 없는 상황이라 고려 

자문을 구해보기 ..
skarltjr commented 2 years ago
현직자분께도 여쭤보고 검색도 해봤다

큰 기업에서는 일반적으로 쌓아가다 임계치에 도달했을 때 용량을 늘려간다고한다.
그런데 우리는 아무래도 기업이 아니고 돈이 이슈가되는 상황이라 민감할 수 있는데
우선은 S3는 1기가당 50원 즉 1TB에 5만원
반면에 api요청은 처음 3억건까진 1달러

사실상 아직까지 유의미한 트래픽이 없는 상황에서 이러한 고민은 너무 이른 고민이라고 생각했고
어떠한 방법이든 지금으로썬 크게 의미가 없다고 생각한다.
그래도 알아볼 수 있는 좋은 기회였다.