Open jwkwak45 opened 5 years ago
-openSMILE 아닌데 MFCC로 만들어주는 알고리즘: https://www.analyticsvidhya.com/blog/2018/01/10-audio-processing-projects-applications/
-openSMILE code: https://github.com/naxingyu/opensmile
-openSMILE tutorials : https://www.academia.edu/12364250/openSMILE_Guide https://s3.amazonaws.com/academia.edu.documents/37621125/openSMILE-book-latest.pdf?response-content-disposition=attachment%3B%20filename%3DopenSMILE_Guide.pdf&X-Amz-Algorithm=AWS4-HMAC-SHA256&X-Amz-Credential=AKIAIWOWYYGZ2Y53UL3A%2F20190812%2Fus-east-1%2Fs3%2Faws4_request&X-Amz-Date=20190812T060607Z&X-Amz-Expires=3600&X-Amz-SignedHeaders=host&X-Amz-Signature=6b151d6395e70ecdf7f11a3731a3ea877d3cddf4bedca97cdae28fb91143dd69
8/16
8/29
연구 방법론 : 특별한 방법이 있다기 보다는 각자만의 노하우 관련 분야에 어떤 히스토리, 어떤 당면한 문제가 있는지 보고 다른 사람들은 어떻게 해결을 했고, 우리는 어떤 답안이 있는가 기존의 아이디어를 참고하고, 필요한 부분들을 습득한다. 어떤 논문이 중요한가는 조금 물어가면서 알아가는게 좋다
한국어로 된 논문 보다, 영어라 하더라도, 좀 더 좋은 저널에 있는 좋은 논문을 읽는 것이 좋다.
/ Cross-corpus acoustic emotion recognition from singing and speaking: A multi-task learning approach / Recognizing emotion from singing and speaking using shared models
좋은 논문을 읽고 방법론을 파악해서, 했던 것을 똑같이 구현해볼 수 있을지 알아보자. 이 두 논문은 좋아보인다. 논문에 대한 세미나 하듯이 준비.
정원 : Cross-corpus acoustic emotion recognition from singing and speaking: A multi-task learning approach 에 대한 세미나를 준비. 윤정 : Bagged support vector machines for emotion recognition from speech / Anjali Bhavan 에 대한 준비
9/27
왜 두개의 중복된 데이터를 사용했더니 성능이 올라가는지? 예상1) mfcc 를 추출하고 정규화 하는 과정에서의 문제 예상2) 트레이닝 모델의 문제
둘 다 한 번 코드를 우선 살펴보기
다른 데이터를(savee 등등) 학습을 시켜보고 성능이 나오는지 확인
문제가 없으면, 추후 다른 테스트 데이터를 직접 녹음해서 시험해보기
프로젝트의 단계
10월 1일까지 논문 초록 작성하고 제출
10/4일 1시 반
3장에서 이론 4장에서 보다 실전적 (어떤 데이터로 어떻게 분석해봤다)
2019 11 19 해커톤 관련 회의 정리
2019 8/12 회의록