visionshao / LLMisAllYouNeed

A Comprehensive repository for LLM knowledge
0 stars 0 forks source link

LLMisAllYouNeed

A Comprehensive repository for LLM knowledge

2023.09.12

A100/H100 太贵,何不用 4090?https://zhuanlan.zhihu.com/p/655402388

大模型(LLM) + 上下文检索增强 https://zhuanlan.zhihu.com/p/647112059

如何解决大模型幻觉问题 https://www.zhihu.com/question/613263212

LoRA这种微调方法和全参数比起来有什么劣势吗?https://www.zhihu.com/question/608674675

腾讯多智能体强化学习大赛冠军思路分享 https://zhuanlan.zhihu.com/p/654972230

大模型LLM领域,有哪些可以作为学术研究方向?https://www.zhihu.com/question/595298808/answer/3206297142

想学习大语言模型(LLM),应该从哪个开源模型开始?https://www.zhihu.com/question/608820310

InternLM-123B 12项性能位居第一,中国最接近 GPT-4 的大模型来了?有哪些影响?https://www.zhihu.com/question/620016543

如何评价超越Llama的Falcon模型?碾压LLaMA,「猎鹰」彻底开源!400亿参数,万亿token训练,霸榜Hugging Face https://www.zhihu.com/question/605021170

LLM推理优化技术综述:KVCache、PageAttention、FlashAttention、MQA、GQA https://zhuanlan.zhihu.com/p/655325832

如何看待FLANv2和LIMA关于LLM的指令微调的不同观点?https://www.zhihu.com/question/612864136/answer/3206817387