Modèles ouverts Gemma

Une famille de modèles ouverts, légers et à la pointe de la technologie, basés sur les mêmes recherches et technologies que celles utilisées pour créer les modèles Gemini

Icône "Responsible by design" (Responsabilité par conception)

Conception responsable

Intégrant des mesures de sécurité complètes, ces modèles contribuent à garantir des solutions d'IA responsables et fiables grâce à des ensembles de données sélectionnés et à un réglage rigoureux.

Icône Performances inégalées

Performances inégalées en termes de taille

Les modèles Gemma obtiennent des résultats de référence exceptionnels dans leurs tailles 2 B, 7 B, 9 B et 27 B, dépassant même certains modèles ouverts plus volumineux.

Souplesse du framework

Souplesse du framework

Avec Keras 3.0, profitez d'une compatibilité totale avec JAX, TensorFlow et PyTorch, ce qui vous permet de choisir et de changer facilement de frameworks en fonction de votre tâche.

Présentation de
Gemma 2

Repensé pour offrir des performances exceptionnelles et une efficacité inégalée, Gemma 2 optimise l'inférence ultrarapide sur différents matériels.

5 shots

MMLU

Le benchmark MMLU (Massive Multitask Language Understanding) est un test qui mesure l'étendue des connaissances et les capacités de résolution de problèmes acquises par les grands modèles de langage lors du pré-entraînement.

25 prises de vue

ARC-C

Le benchmark ARC-c est un sous-ensemble plus ciblé de l'ensemble de données ARC-e, qui ne contient que des questions auxquelles les algorithmes courants (base de récupération et cooccurrence de mots) répondent de manière incorrecte.

5 tirs

GSM8K

Le benchmark GSM8K teste la capacité d'un modèle de langage à résoudre des problèmes mathématiques de niveau primaire qui nécessitent souvent plusieurs étapes de raisonnement.

3 à 5 shots

AGIEval

Le benchmark AGIEval teste l'intelligence générale d'un modèle de langage à l'aide de questions issues d'examens réels conçus pour évaluer les capacités intellectuelles humaines.

3-shot, CoT

BBH

Le benchmark BBH (BIG-Bench Hard) se concentre sur les tâches jugées au-delà des capacités des modèles de langage actuels, en testant leurs limites dans divers domaines de raisonnement et de compréhension.

3-shot, F1

DROP

DROP est un benchmark de compréhension en lecture qui nécessite un raisonnement discret sur des paragraphes.

5 tirs

Winogrande

Le benchmark Winogrande teste la capacité d'un modèle de langage à résoudre des tâches de remplissage de blancs ambiguës avec des options binaires, ce qui nécessite un raisonnement généralisé de bon sens.

10 coups

HellaSwag

Le benchmark HellaSwag met à l'épreuve la capacité d'un modèle de langage à comprendre et à appliquer le raisonnement de bon sens en sélectionnant la fin la plus logique d'une histoire.

4 coups

MATH

MATH évalue la capacité d'un modèle de langage à résoudre des problèmes écrits mathématiques complexes, nécessitant un raisonnement, une résolution de problèmes en plusieurs étapes et la compréhension de concepts mathématiques.

Zero-shot

ARC-e

Le benchmark ARC-e évalue les compétences avancées de réponse à des questions d'un modèle de langage à l'aide de questions scientifiques à choix multiples authentiques, de niveau primaire.

0 shot

PIQA

Le benchmark PIQA teste la capacité d'un modèle de langage à comprendre et à appliquer des connaissances de bon sens physiques en répondant à des questions sur les interactions physiques quotidiennes.

Zero-shot

SIQA

Le benchmark SIQA évalue la compréhension d'un modèle de langage des interactions sociales et du bon sens social en posant des questions sur les actions des individus et leurs implications sociales.

Zero-shot

Boolq

Le benchmark BoolQ teste la capacité d'un modèle de langage à répondre aux questions "oui/non" naturelles, ce qui permet de tester sa capacité à effectuer des tâches d'inférence en langage naturel dans le monde réel.

5 shots

TriviaQA

Le benchmark TriviaQA évalue les compétences de compréhension de la lecture à l'aide de triples question-réponse-preuve.

5 shots

NQ

L'analyse comparative des questions naturelles teste la capacité d'un modèle de langage à trouver et à comprendre des réponses dans des articles Wikipédia entiers, en simulant des scénarios réels de réponse à des questions.

pass@1

HumanEval

Le benchmark HumanEval teste les capacités de génération de code d'un modèle de langage en évaluant si ses solutions passent les tests unitaires fonctionnels pour les problèmes de programmation.

3 coups

MBPP

Le benchmark MBPP teste la capacité d'un modèle de langage à résoudre des problèmes de programmation Python de base, en se concentrant sur les concepts de programmation fondamentaux et l'utilisation de la bibliothèque standard.

100 %

75 %

50 %

25 %

0 %

100 %

75 %

50 %

25 %

0 %

Gemma 1

2,5 Mrds

42.3

Gemma 2

2,6 Md

51.3

Mistral

7B

62,5

LLAMA 3

8 B

66,6

Gemma 1

7B

64,4

Gemma 2

9 milliards

71,3

Gemma 2

27B

75,2

Gemma 1

2,5 Mrds

48,5

Gemma 2

2,6 Mrds

55.4

Mistral

7B

60.5

LLAMA 3

8 B

59.2

Gemma 1

7 Mrds

61.1

Gemma 2

9 milliards

68,4

Gemma 2

27 Mrds

71,4

Gemma 1

2,5 Mrds

15.1

Gemma 2

2,6 Mrds

23,9

Mistral

7B

39,6

LLAMA 3

8 B

45.7

Gemma 1

7B

51,8

Gemma 2

9 milliards

68,6

Gemma 2

27B

74

Gemma 1

2,5 Mrds

24.2

Gemma 2

2,6 Md

30,6

Mistral

7B

44,0

LLAMA 3

8 Mrds

45.9

Gemma 1

7 Mrds

44,9

Gemma 2

9 milliards

52,8

Gemma 2

27 Mrds

55.1

Gemma 1

2,5 Mrds

35.2

Gemma 2

2,6 Mrds

41.9

Mistral

7B

56

LLAMA 3

8 B

61.1

Gemma 1

7B

59

Gemma 2

9 milliards

68.2

Gemma 2

27B

74.9

Gemma 1

2,5 Mrds

48,5

Gemma 2

2,6 Mrds

52

Mistral

7B

63,8

LLAMA 3

8 B

58.4

Gemma 1

7B

56,3

Gemma 2

9 milliards

69,4

Gemma 2

27B

74,2

Gemma 1

2,5 Mrds

66,8

Gemma 2

2,6 Md

70,9

Mistral

7B

78,5

LLAMA 3

8 B

76,1

Gemma 1

7B

79

Gemma 2

9 milliards

80,6

Gemma 2

27B

83,7

Gemma 1

2,5 Mrds

71,7

Gemma 2

2,6 Md

73

Mistral

7 Mrds

83,0

LLAMA 3

8 Mrds

82

Gemma 1

7B

82,3

Gemma 2

9 milliards

81,9

Gemma 2

27B

86,4

Gemma 1

2,5 Mrds

11.8

Gemma 2

2,6 Md

15,0

Mistral

7B

12.7

Gemma 1

7B

24,3

Gemma 2

9 milliards

36,6

Gemma 2

27 Mrds

42.3

Gemma 1

2,5 Mrds

73,2

Gemma 2

2,6 Md

80,1

Mistral

7B

80,5

Gemma 1

7B

81,5

Gemma 2

9 milliards

88

Gemma 2

27B

88,6

Gemma 1

2,5 Mrds

77,3

Gemma 2

2,6 Md

77,8

Mistral

7B

82,2

Gemma 1

7B

81,2

Gemma 2

9 milliards

81,7

Gemma 2

27B

83,2

Gemma 1

2,5 Mrds

49,7

Gemma 2

2,6 Mrds

51,9

Mistral

7B

47,0

Gemma 1

7B

51,8

Gemma 2

9 milliards

53,4

Gemma 2

27B

53,7

Gemma 1

2,5 Mrds

69,4

Gemma 2

2,6 Md

72,5

Mistral

7B

83,2

Gemma 1

7B

83,2

Gemma 2

9 milliards

84,2

Gemma 2

27 Mrds

84,8

Gemma 1

2,5 Mrds

53.2

Gemma 2

2,6 Md

59,4

Mistral

7B

62,5

Gemma 1

7B

63,4

Gemma 2

9 milliards

76,6

Gemma 2

27B

83,7

Gemma 1

2,5 Mrds

12,5

Gemma 2

2,6 Md

16,7

Mistral

7B

23.2

Gemma 1

7 Mrds

23.0

Gemma 2

9 milliards

29,2

Gemma 2

27B

34,5

Gemma 1

2,5 Mrds

22.0

Gemma 2

2,6 Mrds

17.7

Mistral

7B

26.2

Gemma 1

7B

32.3

Gemma 2

9 milliards

40,2

Gemma 2

27B

51,8

Gemma 1

2,5 Mrds

29,2

Gemma 2

2,6 Md

29,6

Mistral

7B

40,2

Gemma 1

7 Mrds

44,4

Gemma 2

9 milliards

52,4

Gemma 2

27B

62,6

*Il s'agit des benchmarks des modèles pré-entraînés. Consultez le rapport technique pour en savoir plus sur les performances avec d'autres méthodologies.

Famille de modèles Gemma

Nouvelle version

Gemma 2

Gemma 2 propose trois nouveaux modèles puissants et efficaces disponibles avec 2, 9 et 27 milliards de tailles de paramètres, le tout avec des améliorations de sécurité intégrées.

Nouvelle version

DataGemma

DataGemma est le premier modèle ouvert conçu pour connecter les LLM à de vastes données réelles issues du Data Commons de Google.

Gemma 1

Les modèles Gemma sont des grands modèles de langage légers, de type texte-vers-texte, basés sur un décodeur uniquement, entraînés sur un immense ensemble de données de texte, de code et de contenu mathématique pour diverses tâches de traitement du langage naturel.

RecurrentGemma

RecurrentGemma est un modèle techniquement distinct qui exploite les réseaux de neurones récurrents et l'attention locale pour améliorer l'efficacité de la mémoire.

PaliGemma

PaliGemma est un modèle de vision-langage ouvert inspiré de PaLI-3, qui exploite SigLIP et Gemma. Il a été conçu comme un modèle polyvalent à transférer vers un large éventail de tâches de vision-langage.

CodeGemma

S'appuyant sur les bases de nos modèles Gemma pré-entraînés d'origine, CodeGemma offre des fonctionnalités de complétion et de génération de code puissantes, adaptées à la taille de votre ordinateur local.

Guides de démarrage rapide pour les développeurs

Livre de recettes Gemma

Explorez une collection de recettes pratiques et d'exemples montrant la puissance et la polyvalence de Gemma pour des tâches telles que le sous-titrage d'images avec PaliGemma, la génération de code avec CodeGemma et la création de chatbots avec des modèles Gemma affinés.

Développement d'IA responsable

Responsabilité dès la conception

Nous pré-entraînéons sur des données soigneusement sélectionnées et conçus pour assurer la sécurité, ce qui permet de développer une IA sûre et responsable à l'aide de modèles Gemma.

Évaluation robuste et transparente

Les évaluations complètes et les rapports transparents révèlent les limites des modèles afin d'adopter une approche responsable pour chaque cas d'utilisation.

Favoriser un développement responsable

La boîte à outils d'IA générative responsable aide les développeurs à concevoir et à implémenter les bonnes pratiques d'IA responsable.

Icône Google Cloud

Optimisé pour Google Cloud

Avec les modèles Gemma sur Google Cloud, vous pouvez personnaliser le modèle en profondeur en fonction de vos besoins spécifiques à l'aide des outils entièrement gérés de Vertex AI ou de l'option autogérée de GKE, et le déployer sur une infrastructure flexible et rentable optimisée pour l'IA.

Accélérer la recherche universitaire grâce à des crédits Google Cloud

Le programme de recherche universitaire a récemment clôturé sa période de candidature. Il a attribué des crédits Google Cloud pour aider les chercheurs à repousser les limites de la découverte scientifique à l'aide de modèles Gemma. Nous avons hâte de voir les recherches révolutionnaires qui en découleront.

Ne manquez pas les prochaines opportunités de faire progresser vos recherches avec Google Cloud.

Rejoindre la communauté

Échangez, explorez et partagez vos connaissances avec les autres membres de la communauté des modèles de ML.