zhendi / issue-to-ai-search

0 stars 0 forks source link

google gemma 解析 #8

Open zhendi opened 4 months ago

github-actions[bot] commented 4 months ago
  1. Gemma 是什么? Gemma 是 Google 基于 Gemini 技术推出的四款新型大型语言模型(LLM),提供了 2B 和 7B 两种不同规模的版本,每种都包含了预训练基础版本和经过指令优化的版本。
  2. Gemma 模型的性能如何? Gemma 在 7B 参数级别,表现出色,与市场上最佳模型如 Mistral 7B 不相上下。而 2B 版本的 Gemma 虽然规模较小,但在其类别中的表现也颇具竞争力。
  3. Gemma 的基础模型不限定特定的提示格式吗? 是的,Gemma 的基础模型不限定特定的提示格式。如同其他基础模型,它们能够根据输入序列生成一个合理的续接内容,适用于零样本或少样本的推理任务。
  4. Gemma 的指令优化版本采用的是什么样的格式? Gemma 的指令优化版本采用了一种极其简洁的对话结构:user knock knock model who is there user LaMDA model LaMDA who? 要有效利用这一格式,必须严格按照上述结构进行对话。
  5. Gemma 使用什么工具? Gemma 使用了 Transformers 的 4.38 版本,并充分利用 Hugging Face 生态系统内的工具,包括训练和推理脚本及示例、安全文件格式(safetensors)、集成诸如 bitsandbytes(4位量化)、PEFT(参数效率微调)和 Flash Attention 2 等工具、辅助工具和帮助器,以便使用模型进行生成、导出模型以便部署的机制等。
  6. Gemma 可以与 Google Cloud 集成吗? 可以,Gemma 可以通过 Vertex AI 或 Google Kubernetes Engine (GKE) 在 Google Cloud 上部署和训练,利用 文本生成推理 和 Transformers 实现。
  7. Gemma 可以与推理端点集成吗? 可以,Gemma 可以通过 Hugging Face 的 推理端点 部署。
  8. 可以使用 🤗 TRL 对 Gemma 进行微调吗? 可以,Hugging Face 生态系统中可用的工具可以帮助你高效地在消费级 GPU 上训练 Gemma。