Open AkihikoWatanabe opened 5 months ago
https://storage.googleapis.com/deepmind-media/gemma/gemma-report.pdf
blog: https://blog.google/technology/developers/gemma-open-models/
アーキテクチャはTransformer Decoderを利用。モデルのサイズは2Bと7B。 オリジナルのTransformer Decoderアーキテクチャから、下記改善を実施している:
Mistral #1309 よりも高い性能を示している:
https://storage.googleapis.com/deepmind-media/gemma/gemma-report.pdf
blog: https://blog.google/technology/developers/gemma-open-models/