Open cej55 opened 3 years ago
cd /reservation/kubernetes/ deployment.yml 파일 수정
kubectl apply -f kubernetes/deployment.yml
1.seige 로 모니터링
kubectl exec -it siege -n ns-carsharing -- /bin/bash siege -c60 -t60S -r10 -v http get http://rental:8080/rentals
2.without_readiness로 확인
kubectl apply -f deployment_without_readiness.yml -n ns-carsharing
kubectl apply -f deployment_with_readiness.yml -n ns-carsharing
<< Liveness >> 1.pod 모니터링 (새로운 터미널) 가동 kubectl get pod -n ns-carsharing 현재 기동중인 pod 확인 1/1, Running, RESTART 개수 확인, pod : 기재, RETART : 2.siege 에서 접속 상태 발생 현재 기돈중인 상태 확인 => 정상인거 확인 /#siege -c1 -t120S -v http://10.0.240.145:8080/reservations 3.yml에reandness 설정하여 재배포(reandnes 설정하면 재배포 버전 오류 발생) 3.1. rservation/kubernetes deployment.yml 수정 livenessProbe 밑에 path: '/tmp/health' 수정 ==> 장애 발생 유도, url 경로없는것으로 지정 3.2. 재배포 kubectl apply -f deployment.yml -n ns-carsharing 4.siege 에서 접속 상태 발생 일부 오류 나는거 확인 확인 기존 POD 는 정상, 신규 Pod 오류가 발생하여서 나옴
그러다가 전체 정상으로나올 것 같음 => 시규 POD는 기동 안되니까 /#siege -c1 -t120S -v http://10.0.240.145:8080/reservations
5.pod 모니터링 (새로운 터미널) 기존 pod : 1/1 Running RESTART 개수 증가 확인 => 기존 POD로 유지 신규 pod : 0/1 Running => 신규 POD는 레디 상태임, 서비스 안딤