fdcl-data-driven-control / data-driven-control

4 stars 0 forks source link

A review of survey by Romer Ortega, 2020 #17

Open JinraeKim opened 2 years ago

JinraeKim commented 2 years ago

(From https://github.com/fdcl-data-driven-control/data-driven-control/issues/15#issuecomment-1015007403)

다음 논문을 리뷰한다:

질문 리스트 (자유롭게 원하는 항목 추가/수정 바람)

진래

Youngjun-Lee-FDCL commented 2 years ago

새로 팠으니 참여 의사를 한 번 더 밝힙니다 join

JinraeKim commented 2 years ago

식 (3) 의 필터가 어떤 필터인지 이해하신 분? Operator form 이 익숙하지 않네요... 식 (5) 랑 보니까 조금 이해가 되네요. 말 그대로 1/(p+\lambda) 이군요...!

그리고 식 (4) 가 어떻게 유도되는지 잘 모르겠습니다. 식 (2) 에서 \epsilon_{t} 가 어떻게 얻어지는지 잘 모르겠군요...

@nhcho91 혹시 아신다면 도움 부탁드립니다~

image

JinraeKim commented 2 years ago

5.1 에 concurrent learning 이 GES 를 만족하기 위한 조건으로, PE 대신 IE 를 만족해야한다고 되어있는데요. 제 생각에는

이기만 하면 될 것처럼 보이는데, 혹시 "식 (41) implies 위 조건" 을 만족하나요?

EDIT: Proposition P4.2 가 이에 대한 내용인 것 같은데, 증명 방법 아시는 분?

image

nhcho91 commented 2 years ago

식 (3) 의 필터가 어떤 필터인지 이해하신 분? Operator form 이 익숙하지 않네요... 식 (5) 랑 보니까 조금 이해가 되네요. 말 그대로 1/(p+\lambda) 이군요...!

그리고 식 (4) 가 어떻게 유도되는지 잘 모르겠습니다. 식 (2) 에서 \epsilon_{t} 가 어떻게 얻어지는지 잘 모르겠군요...

@nhcho91 혹시 아신다면 도움 부탁드립니다~

20220119_081958.jpg

위 수식은 라플라스 변환의 transfer function이 operator로 작용하는 것을 바탕으로 전개된 것인데요, 이 과정의 목적은 파라미터 \theta에 대해 선형인 형태의 관측치 방정식 Y= \Psi^T * \theta을 이끌어내는 데 있습니다.

사진에 나타낸 것과 같이 \dot{x}의 라플라스 변환에서 초기상태를 0으로 두면 \epsilon_t가 나타나지 않습니다. 만약 초기상태응답이 포함되면 \epsilon_t가 존재할텐데 안정한 전달함수가 변환으로 작용하는 경우에는 해당 초기상태응답이 0으로 수렴한다는 의미입니다

JinraeKim commented 2 years ago

위 수식은 라플라스 변환의 transfer function이 operator로 작용하는 것을 바탕으로 전개된 것인데요, 이 과정의 목적은 파라미터 \theta에 대해 선형인 형태의 관측치 방정식 Y= \Psi^T * \theta을 이끌어내는 데 있습니다.

사진에 나타낸 것과 같이 \dot{x}의 라플라스 변환에서 초기상태를 0으로 두면 \epsilon_t가 나타나지 않습니다. 만약 초기상태응답이 포함되면 \epsilon_t가 존재할텐데 안정한 전달함수가 변환으로 작용하는 경우에는 해당 초기상태응답이 0으로 수렴한다는 의미입니다

아, 라플라스 변환이구나...! 죄다 까먹어버려서 다시 찾아보느라 고생했네요... 하 머리가 휘발성 메모리인듯...

나중에 볼 사람들을 위해, 제가 이해한대로 유도해봤습니다. 제가 라플라스 변환을 잘 몰라서, 이상한 부분 있으면 말씀 부탁드립니다...! (논문이랑 사뭇 달라보여서 좀 우려되네요)

@nhcho91 유도되는 식이 훨씬 깔끔해보이는데, 어떻게 잘 정리되는건지 잘 이해하지 못했습니다... 원래 저렇게 쓸 수 있는건가요? 아래에 step-by-step 풀이를 남깁니다.

Note: 라플라스 변환 표

image

nhcho91 commented 2 years ago

아, 라플라스 변환이구나...! 죄다 까먹어버려서 다시 찾아보느라 고생했네요... 하 머리가 휘발성 메모리인듯...

나중에 볼 사람들을 위해, 제가 이해한대로 유도해봤습니다. 제가 라플라스 변환을 잘 몰라서, 이상한 부분 있으면 말씀 부탁드립니다...! (논문이랑 사뭇 달라보여서 좀 우려되네요)

@nhcho91 유도되는 식이 훨씬 깔끔해보이는데, 어떻게 잘 정리되는건지 잘 이해하지 못했습니다... 원래 저렇게 쓸 수 있는건가요? 아래에 step-by-step 풀이를 남깁니다.

Note: 라플라스 변환 표

네 딱 이렇게 한다는 의미입니다^^

JinraeKim commented 2 years ago

5.1 에 concurrent learning 이 GES 를 만족하기 위한 조건으로, PE 대신 IE 를 만족해야한다고 되어있는데요. 제 생각에는

  • 식 (40) 의 R_l 의 minimum eigenvalue > 0

이기만 하면 될 것처럼 보이는데, 혹시 "식 (41) implies 위 조건" 을 만족하나요?

EDIT: Proposition P4.2 가 이에 대한 내용인 것 같은데, 증명 방법 아시는 분?

혹시 이 질문에 의견 주실 분 계실까요?