paper_caputred_images_repo
논문의 이미지를 캡처 및 보관
🎁[PreTrain]
[Awesome-totally-open-chatgpt](https://github.com/nichtdax/awesome-totally-open-chatgpt) - ChatGPT LLM 오픈소스 대체제 정보 정리
```
- ChatGPT는 채팅을 위한 RLHF가 적용된 GPT-3.5
- 채팅 시스템을 위한 다른 언어 모델을 적용한 오픈소스들만 나열
- 4가지 태그로 구분
- B: Bare(데이터 없음, 모델 가중치 없음, 채팅 시스템 없음)
- M: Mildly bare(데이터 있음, 모델 가중치 있음, API를 이용한 기본 채팅)
- F: Full(데이터 있음, 모델 가중치 있음, TUI와 GUI를 포함한 팬시한 채팅 시스템)
- C: Complicated(세미 오픈소스, 실제론 오픈소스 아님, 클로즈 모델 기반,..)
- 리스트
- lucidrains/PaLM-rlhf-pytorch : Bare
- togethercomputer/OpenChatKit : Full
- oobabooga/text-generation-webui : Full
- KoboldAI/KoboldAI-Client : Full
- LAION-AI/Open-Assistant : Full
- tatsu-lab/stanford_alpaca : Complicated
- BlinkDL/ChatRWKV : Full
- THUDM/ChatGLM-6B : Full
- bigscience-workshop/xmtf : Standard
- carperai/trlx : Bare
- databrickslabs/dolly : Standard
- LianjiaTech/BELLE : Standard
- ethanyanjiali/minChatGPT : Standard
- cerebras/Cerebras-GPT : Standard
- TavernAI/TavernAI : Full
- Cohee1207/SillyTavern : Full
- h2oai/h2ogpt : full
- mlc-ai/web-llm : Full
- Stability-AI/StableLM : Full
- clue-ai/ChatYuan : Full
```
상용❌[LLaMA](https://ai.facebook.com/blog/large-language-model-llama-meta-ai/)
```
- 7B, 13B, 33B, 65B 의 4가지 사이즈로 공개
- 훨씬 작은 규모지만, 데이터 학습 강화 및 파인 튜닝하여 더 큰 규모의 모델과 비교가능한 효율적인 모델
- 33B/65B는 1조 4천억개의 토큰으로 훈련됨(7B는 1조)
- "13B 모델이 175B인 GPT-3보다 뛰어나고, 65B는 훨씬 더 큰 Chinchilla70B 및 PaLM-540B 와 경쟁 가능"
- 인공지능 연구등 비상업적 용도로만 활용 가능(신청하여 승인 필요)
```
상용🔺[StableLM: Stability AI Language Models](https://github.com/Stability-AI/StableLM)
```
- 3B/7B 모델을 공개, 15B/30B/65B 모델도 공개 예정이고 175B까지 계획중. 학습코드는 공개되어 있지 않음.
- 모델은 CC BY-SA-4.0 라이센스로 출처 표기시 상업적 이용 가능
- 오픈 데이터셋인 The Pile에 기반했지만 3배 크기인 1.5T 토큰을 가지는 새로운 데이터셋으로 훈련
- 컨텍스트 길이는 4096 토큰
- PoC로 Alpaca 프로시져를 따라서 파인튜닝한 StableLM-Tuned-Alpha-7B 모델도 공개
- 5개의 대화형 데이터셋을 이용 : Stanford's Alpaca, Nomic-AI's gpt4all, RyokoAI's ShareGPT52K datasets, Databricks labs' Dolly, Anthropic's HH
- 챗봇 데모는 Hugging Face에 공개
```
상용❌[Alpaca](https://crfm.stanford.edu/2023/03/13/alpaca.html) LLaMA + 52,000(davinci-003)
```
- LLaMA 모델의 큰 약점은 질문-답변을 위한 "명령어-튜닝"이 부족하다는 것
- OpenAI의 큰 혁신중 하나는 GPT-3에 명령어 튜닝을 추가한 것
- 스탠포드 CRFM에서 메타의 LLaMA 7B를 52K Instruction-Following 데이터를 통해서 파인튜닝
- OpenAI의 GPT-3.5(text-davinci-003)와 비슷하게 동작하지만, 매우 작고 저렴
- 스탠포드는 여기에 52000개의 훈련 예제를 제공하고 $100 만으로 훈련 가능하게 해줌
- 가장 작은 7B 모델은 이제 라즈베리파이/모바일 폰에서도 도는데, 매우 인상적인 결과를 뽑아내줌
- 하지만, 아직 상업용은 아님(3가지 이유에서 불가능. LLaMA의 라이센스/명령어셋 데이터를 OpenAI 모델에서 만들어냄/안전조치를 설계하지 않음)
- Alpaca는 52K의 예제와 $100의 비용으로도 7B 모델(4bit 양자화로 4GB로 줄인) 파인 튜닝이 가능하며, 최신 text-davinci-003 과 비슷한 결과를 낼수 있다는 것을 보여줌
```