Modèles ouverts Gemma
Une famille de modèles ouverts, légers et à la pointe de la technologie, basés sur les mêmes recherches et technologies que celles utilisées pour créer les modèles Gemini
Présentation de
Gemma 2
Repensé pour offrir des performances exceptionnelles et une efficacité inégalée, Gemma 2 optimise l'inférence ultrarapide sur différents matériels.
5 shots
MMLU
Le benchmark MMLU (Massive Multitask Language Understanding) est un test qui mesure l'étendue des connaissances et les capacités de résolution de problèmes acquises par les grands modèles de langage lors du pré-entraînement.
25 prises de vue
ARC-C
Le benchmark ARC-c est un sous-ensemble plus ciblé de l'ensemble de données ARC-e, qui ne contient que des questions auxquelles les algorithmes courants (base de récupération et cooccurrence de mots) répondent de manière incorrecte.
5 tirs
GSM8K
Le benchmark GSM8K teste la capacité d'un modèle de langage à résoudre des problèmes mathématiques de niveau primaire qui nécessitent souvent plusieurs étapes de raisonnement.
3 à 5 shots
AGIEval
Le benchmark AGIEval teste l'intelligence générale d'un modèle de langage à l'aide de questions issues d'examens réels conçus pour évaluer les capacités intellectuelles humaines.
3-shot, CoT
BBH
Le benchmark BBH (BIG-Bench Hard) se concentre sur les tâches jugées au-delà des capacités des modèles de langage actuels, en testant leurs limites dans divers domaines de raisonnement et de compréhension.
3-shot, F1
DROP
DROP est un benchmark de compréhension en lecture qui nécessite un raisonnement discret sur des paragraphes.
5 tirs
Winogrande
Le benchmark Winogrande teste la capacité d'un modèle de langage à résoudre des tâches de remplissage de blancs ambiguës avec des options binaires, ce qui nécessite un raisonnement généralisé de bon sens.
10 coups
HellaSwag
Le benchmark HellaSwag met à l'épreuve la capacité d'un modèle de langage à comprendre et à appliquer le raisonnement de bon sens en sélectionnant la fin la plus logique d'une histoire.
4 coups
MATH
MATH évalue la capacité d'un modèle de langage à résoudre des problèmes écrits mathématiques complexes, nécessitant un raisonnement, une résolution de problèmes en plusieurs étapes et la compréhension de concepts mathématiques.
Zero-shot
ARC-e
Le benchmark ARC-e évalue les compétences avancées de réponse à des questions d'un modèle de langage à l'aide de questions scientifiques à choix multiples authentiques, de niveau primaire.
0 shot
PIQA
Le benchmark PIQA teste la capacité d'un modèle de langage à comprendre et à appliquer des connaissances de bon sens physiques en répondant à des questions sur les interactions physiques quotidiennes.
Zero-shot
SIQA
Le benchmark SIQA évalue la compréhension d'un modèle de langage des interactions sociales et du bon sens social en posant des questions sur les actions des individus et leurs implications sociales.
Zero-shot
Boolq
Le benchmark BoolQ teste la capacité d'un modèle de langage à répondre aux questions "oui/non" naturelles, ce qui permet de tester sa capacité à effectuer des tâches d'inférence en langage naturel dans le monde réel.
5 shots
TriviaQA
Le benchmark TriviaQA évalue les compétences de compréhension de la lecture à l'aide de triples question-réponse-preuve.
5 shots
NQ
L'analyse comparative des questions naturelles teste la capacité d'un modèle de langage à trouver et à comprendre des réponses dans des articles Wikipédia entiers, en simulant des scénarios réels de réponse à des questions.
pass@1
HumanEval
Le benchmark HumanEval teste les capacités de génération de code d'un modèle de langage en évaluant si ses solutions passent les tests unitaires fonctionnels pour les problèmes de programmation.
3 coups
MBPP
Le benchmark MBPP teste la capacité d'un modèle de langage à résoudre des problèmes de programmation Python de base, en se concentrant sur les concepts de programmation fondamentaux et l'utilisation de la bibliothèque standard.
100 %
75 %
50 %
25 %
0 %
100 %
75 %
50 %
25 %
0 %
Gemma 1
2,5 Mrds
Gemma 2
2,6 Md
Mistral
7B
LLAMA 3
8 B
Gemma 1
7B
Gemma 2
9 milliards
Gemma 2
27B
Gemma 1
2,5 Mrds
Gemma 2
2,6 Mrds
Mistral
7B
LLAMA 3
8 B
Gemma 1
7 Mrds
Gemma 2
9 milliards
Gemma 2
27 Mrds
Gemma 1
2,5 Mrds
Gemma 2
2,6 Mrds
Mistral
7B
LLAMA 3
8 B
Gemma 1
7B
Gemma 2
9 milliards
Gemma 2
27B
Gemma 1
2,5 Mrds
Gemma 2
2,6 Md
Mistral
7B
LLAMA 3
8 Mrds
Gemma 1
7 Mrds
Gemma 2
9 milliards
Gemma 2
27 Mrds
Gemma 1
2,5 Mrds
Gemma 2
2,6 Mrds
Mistral
7B
LLAMA 3
8 B
Gemma 1
7B
Gemma 2
9 milliards
Gemma 2
27B
Gemma 1
2,5 Mrds
Gemma 2
2,6 Mrds
Mistral
7B
LLAMA 3
8 B
Gemma 1
7B
Gemma 2
9 milliards
Gemma 2
27B
Gemma 1
2,5 Mrds
Gemma 2
2,6 Md
Mistral
7B
LLAMA 3
8 B
Gemma 1
7B
Gemma 2
9 milliards
Gemma 2
27B
Gemma 1
2,5 Mrds
Gemma 2
2,6 Md
Mistral
7 Mrds
LLAMA 3
8 Mrds
Gemma 1
7B
Gemma 2
9 milliards
Gemma 2
27B
Gemma 1
2,5 Mrds
Gemma 2
2,6 Md
Mistral
7B
Gemma 1
7B
Gemma 2
9 milliards
Gemma 2
27 Mrds
Gemma 1
2,5 Mrds
Gemma 2
2,6 Md
Mistral
7B
Gemma 1
7B
Gemma 2
9 milliards
Gemma 2
27B
Gemma 1
2,5 Mrds
Gemma 2
2,6 Md
Mistral
7B
Gemma 1
7B
Gemma 2
9 milliards
Gemma 2
27B
Gemma 1
2,5 Mrds
Gemma 2
2,6 Mrds
Mistral
7B
Gemma 1
7B
Gemma 2
9 milliards
Gemma 2
27B
Gemma 1
2,5 Mrds
Gemma 2
2,6 Md
Mistral
7B
Gemma 1
7B
Gemma 2
9 milliards
Gemma 2
27 Mrds
Gemma 1
2,5 Mrds
Gemma 2
2,6 Md
Mistral
7B
Gemma 1
7B
Gemma 2
9 milliards
Gemma 2
27B
Gemma 1
2,5 Mrds
Gemma 2
2,6 Md
Mistral
7B
Gemma 1
7 Mrds
Gemma 2
9 milliards
Gemma 2
27B
Gemma 1
2,5 Mrds
Gemma 2
2,6 Mrds
Mistral
7B
Gemma 1
7B
Gemma 2
9 milliards
Gemma 2
27B
Gemma 1
2,5 Mrds
Gemma 2
2,6 Md
Mistral
7B
Gemma 1
7 Mrds
Gemma 2
9 milliards
Gemma 2
27B
*Il s'agit des benchmarks des modèles pré-entraînés. Consultez le rapport technique pour en savoir plus sur les performances avec d'autres méthodologies.
Famille de modèles Gemma
Explorer nos outils
Guides de démarrage rapide pour les développeurs
Guides de démarrage rapide pour les partenaires
Livre de recettes Gemma
Explorez une collection de recettes pratiques et d'exemples montrant la puissance et la polyvalence de Gemma pour des tâches telles que le sous-titrage d'images avec PaliGemma, la génération de code avec CodeGemma et la création de chatbots avec des modèles Gemma affinés.
Développement d'IA responsable
Responsabilité dès la conception
Nous pré-entraînéons sur des données soigneusement sélectionnées et conçus pour assurer la sécurité, ce qui permet de développer une IA sûre et responsable à l'aide de modèles Gemma.
Évaluation robuste et transparente
Les évaluations complètes et les rapports transparents révèlent les limites des modèles afin d'adopter une approche responsable pour chaque cas d'utilisation.
Favoriser un développement responsable
La boîte à outils d'IA générative responsable aide les développeurs à concevoir et à implémenter les bonnes pratiques d'IA responsable.
Optimisé pour Google Cloud
Avec les modèles Gemma sur Google Cloud, vous pouvez personnaliser le modèle en profondeur en fonction de vos besoins spécifiques à l'aide des outils entièrement gérés de Vertex AI ou de l'option autogérée de GKE, et le déployer sur une infrastructure flexible et rentable optimisée pour l'IA.
Accélérer la recherche universitaire grâce à des crédits Google Cloud
Le programme de recherche universitaire a récemment clôturé sa période de candidature. Il a attribué des crédits Google Cloud pour aider les chercheurs à repousser les limites de la découverte scientifique à l'aide de modèles Gemma. Nous avons hâte de voir les recherches révolutionnaires qui en découleront.
Rejoindre la communauté
Échangez, explorez et partagez vos connaissances avec les autres membres de la communauté des modèles de ML.