Open hyul0408 opened 2 years ago
책에서는 특정 기간 동안의 데이터를 스크레이핑 한 뒤 그래프를 그리거나 분석하는 방식으로 진행하기 때문에 pages_to_fetch 값을 늘리시는 것을 추천드립니다.
만일 현재 갖고 계신 데이터로만 조회를 할 경우 코드 작성 중에 잘못된 부분이 있더라도 알아채기 힘들고 책에서 설명하려는 내용을 이해하기에도 도움이 되지 않을 것으로 예상됩니다.
제가 책을 집필할 당시에 네이버 금융에서 전체 종목별로 4년치 데이터(100페이지)를 읽어오는 데 5시간 정도 소요됐고, 파일 용량은 189MB 정도 필요했었습니다.
책에서 삼성전자 데이터를 2017-01-01부터 사용하고 있으니 6년치 데이터(150페이지) 정도를 읽어오도록 설정하시면 될 것 같고, 대략 8시간 정도 걸릴 것으로 예상됩니다.
답변감사합니다. 200페이지 정도 읽어왔는데 거의 하루 걸린거 같네요 ㅎㅎ 추가적으로 BollingerBand에서 회사값을 input으로 받아서 그때 그때 검색하게 하지 않는 이유가 있으실 까요? 프로그램을 실행할 때 마다 NAVER 또는 SK하이닉스 이런식으로 수정후 디버깅 하시는 건가요?
사용자로부터 종목코드를 입력받도록 코드를 작성해도 되겠지만 책에서 제시한 코드는 볼린저 밴드에 대해서 설명하기 위한 예제 코드이기 때문에 볼린저 밴드 그래프 생성과 직접적인 상관이 없는 코드는 최대한 배제하려고 했습니다.
즉, 특정 기간 동안의 특정 종목의 주가 데이터를 기반으로 그래프를 그리는 방법을 설명해야 했기 때문에 사용자로부터 종목코드를 입력받는 코드는 포함시키지 않았다고 보시면 될 것 같습니다.
책이 나왔을 때와 제가 공부할때의 시간차 때문에 책에서의 기간이 저에겐 조회가 안되고 있습니다. 이 때 fetch를 늘려서 책의 기간과 맞추는게 좋을까요 아니면 제가 가진 기간으로 프로그램을 실행하는게 좋을까요?