Open rikuto125 opened 3 months ago
効率的で正確な回答が可能な、社内知識に特化したAIアシスタントの構築
継続事前学習 + LoRAを用いたインストラクションチューニング
ベースモデルの選択
継続事前学習
インストラクションチューニング用データセットの作成
LoRAを用いたインストラクションチューニング
モデルの評価と微調整
デプロイと使用
[1] Gururangan, S., et al. (2020). "Don't Stop Pretraining: Adapt Language Models to Domains and Tasks" [2] Howard, J., & Ruder, S. (2018). "Universal Language Model Fine-tuning for Text Classification" [3] Raffel, C., et al. (2020). "Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer" [4] Hu, E. J., et al. (2021). "LoRA: Low-Rank Adaptation of Large Language Models" [5] Houlsby, N., et al. (2019). "Parameter-Efficient Transfer Learning for NLP" [6] Aghajanyan, A., et al. (2020). "Better Fine-Tuning by Reducing Representational Collapse" [7] He, P., et al. (2021). "DeBERTa: Decoding-enhanced BERT with Disentangled Attention" [8] Liu, P. J., et al. (2021). "Few-Shot Learning with Prompt Tuning" [9] Brown, T. B., et al. (2020). "Language Models are Few-Shot Learners"