5GB 가 넘는 파일이 존재하는 버킷의 이름과 이 파일에 접속할 수 있는 키를 알고 있다면 멀티파트 아카이빙이 가능합니다.
코드 상에서 standard class 에 있는 파일이 5GB 가 넘는다면 수동으로 아카이빙 하거나 멀티파트 아카이빙 방법을 이용해야 합니다.
멀티파트 아카이빙은 5GB로 파일을 쪼개서 아카이빙 합니다.
다만 이 경우 동기적으로 실행하기 때문에 현재 아카이빙을 진행하는 파일에서 함께하는 것은 어려울 것으로 판단됩니다.
현재 아카이빙을 진행하는 파일인 aws_auto_s3_archiving.py에서 분리되어 따로 진행되어서 구현해야만 합니다.
작업이 오래걸린다는 점에서 인스턴스 내에서 실행해야 합니다.
또한, aws_auto_s3_archiving.py 가 실행된 이후 멀티파트 아카이빙이 실행해야 할 것으로 판단됩니다.
현재 archiving 파트에서 파일에 접속할 수 있는 키를 담은 리스트를 생성하고 슬랙으로 출력하고 있습니다.
이 부분에 버킷 이름을 함께 보관하고, 멀티파트 아카이빙을 진행하는 파일에 넘겨주어 실행하여 자동화를 구현하는 방법이 있어 이슈 오픈했습니다.
멀티파트 아카이빙
5GB 가 넘는 파일이 존재하는 버킷의 이름과 이 파일에 접속할 수 있는 키를 알고 있다면 멀티파트 아카이빙이 가능합니다. 코드 상에서 standard class 에 있는 파일이 5GB 가 넘는다면 수동으로 아카이빙 하거나 멀티파트 아카이빙 방법을 이용해야 합니다.
멀티파트 아카이빙은 5GB로 파일을 쪼개서 아카이빙 합니다. 다만 이 경우 동기적으로 실행하기 때문에 현재 아카이빙을 진행하는 파일에서 함께하는 것은 어려울 것으로 판단됩니다. 현재 아카이빙을 진행하는 파일인 aws_auto_s3_archiving.py에서 분리되어 따로 진행되어서 구현해야만 합니다.
작업이 오래걸린다는 점에서 인스턴스 내에서 실행해야 합니다. 또한, aws_auto_s3_archiving.py 가 실행된 이후 멀티파트 아카이빙이 실행해야 할 것으로 판단됩니다. 현재 archiving 파트에서 파일에 접속할 수 있는 키를 담은 리스트를 생성하고 슬랙으로 출력하고 있습니다. 이 부분에 버킷 이름을 함께 보관하고, 멀티파트 아카이빙을 진행하는 파일에 넘겨주어 실행하여 자동화를 구현하는 방법이 있어 이슈 오픈했습니다.
관련 이슈 : #25