L'article Google Jumps Back Into the Open Source AI Race With Gemma 4 est paru sur BitcoinEthereumNews.com. En bref Google a lancé Gemma 4, une famille de modèles ouvertsL'article Google Jumps Back Into the Open Source AI Race With Gemma 4 est paru sur BitcoinEthereumNews.com. En bref Google a lancé Gemma 4, une famille de modèles ouverts

Google revient dans la course à l'IA open source avec Gemma 4

2026/04/03 03:49
Temps de lecture : 5 min
Pour tout commentaire ou toute question concernant ce contenu, veuillez nous contacter à l'adresse suivante : crypto.news@mexc.com

En bref

  • Google a lancé Gemma 4, une famille de modèles ouverts sous licence Apache 2.0.
  • La gamme de quatre modèles s'étend des téléphones aux centres de données, avec le modèle 31B déjà classé n°3 mondial.
  • L'IA open-source américaine reçoit un coup de pouce nécessaire, car Gemma 4 — soutenu par DeepMind — se positionne comme le concurrent américain le plus puissant face à DeepSeek, Qwen et autres leaders chinois.

Les ambitions de Google en matière d'IA ouverte sont devenues beaucoup plus sérieuses aujourd'hui. L'entreprise a publié Gemma 4, une famille de quatre modèles à poids ouverts construits sur la même recherche que Gemini 3, et sous licence Apache 2.0 — un changement significatif par rapport aux conditions plus restrictives des versions précédentes de Gemma.

Les développeurs ont téléchargé les générations précédentes de Gemma plus de 400 millions de fois, donnant naissance à plus de 100 000 variantes communautaires. Cette version est la plus ambitieuse à ce jour.

Au cours de l'année écoulée, le classement de l'IA open-source a été largement une affaire chinoise. DeepSeek, Minimax, GLM et Qwen ont dominé les premières places, laissant les alternatives américaines se démener pour rester pertinentes. Comme Decrypt l'a rapporté l'année dernière, les modèles ouverts chinois sont passés d'à peine 1,2 % de l'utilisation mondiale des modèles ouverts fin 2024 à environ 30 % fin 2025, le Qwen d'Alibaba dépassant même le Llama de Meta en tant que modèle auto-hébergé le plus utilisé dans le monde.

Le Llama de Meta était autrefois le choix par défaut pour les développeurs qui voulaient un modèle capable et exécutable localement. Cette réputation s'est érodée — la licence contrôlée par Meta de Llama a soulevé des questions sur son véritable statut open-source, et ses performances sont passées derrière la concurrence chinoise. La famille OLMo de l'Allen Institute a tenté de combler le vide mais n'a pas réussi à obtenir une traction significative. OpenAI a publié ses modèles gpt-oss en août 2025, ce qui a donné à l'écosystème un bol d'air frais, mais ils n'ont jamais été conçus pour être des concurrents de pointe.

Et hier, une startup américaine de 30 personnes appelée Arcee AI a publié Trinity, un modèle ouvert de 400 milliards de paramètres qui a fait valoir de manière convaincante que la scène américaine n'était pas complètement morte. Gemma 4 suit cet élan, cette fois avec tout le poids de Google DeepMind derrière lui, le transformant sans doute en meilleur modèle américain dans la scène de l'IA open-source.

Le modèle est "construit à partir de la même recherche et technologie de classe mondiale que Gemini 3", a déclaré Google dans son annonce. Gemma 4 est disponible en quatre tailles : Effective 2B et 4B pour les téléphones et les appareils edge, un modèle Mixture of Experts 26B axé sur la vitesse, et un modèle Dense 31B optimisé pour la qualité brute.

Le 31B Dense se classe actuellement troisième parmi tous les modèles ouverts sur le classement de texte d'Arena AI. Le 26B MoE occupe la sixième place. Google affirme que les deux surpassent des modèles 20 fois plus grands — une affirmation qui tient, du moins par rapport aux chiffres d'Arena AI, où les modèles chinois occupent toujours les deux premières places.

Nous avons testé Gemma 4. Il est capable, avec quelques réserves. Le modèle applique un raisonnement même à des tâches qui n'en nécessitent pas, ce qui peut donner l'impression que les réponses sont sur-conçues pour des invites simples. L'écriture créative est correcte — utilisable, pas inspirée — et s'améliore probablement avec des conseils plus spécifiques et une ingénierie d'invite.

C'est dans le code qu'il a été le plus performant. Invité à générer un jeu, le résultat n'était pas particulièrement flashy ou élaboré, mais il a fonctionné sans erreurs du premier coup. Pas mal pour un modèle de 41 milliards de paramètres. Cette fiabilité zero-shot est sans doute plus précieuse qu'un résultat plus joli qui nécessite du débogage.

Vous pouvez essayer le jeu (basique, mais fonctionnel) ici.

Les quatre variantes couvrent tout le spectre matériel. Les modèles E2B et E4B sont conçus pour les téléphones Android, Raspberry Pi et les appareils edge, fonctionnant complètement hors ligne avec une latence quasi nulle, une entrée audio native et une fenêtre de contexte de 128K. Les modèles 26B et 31B ciblent les stations de travail et les déploiements cloud, étendant le contexte à 256K et ajoutant des appels de fonction natifs et une sortie JSON structurée pour créer des agents autonomes. Les quatre modèles traitent les images et les vidéos de manière native. Les poids en pleine précision des modèles plus grands tiennent sur un seul GPU NVIDIA H100 de 80 Go ; les versions quantifiées fonctionnent sur du matériel grand public.

La licence Apache 2.0 est l'autre titre. Les versions précédentes de Gemma de Google utilisaient une licence personnalisée qui créait une ambiguïté juridique pour les produits commerciaux. Apache 2.0 supprime complètement cette friction — les développeurs peuvent modifier, redistribuer et commercialiser sans craindre que Google ne modifie les conditions plus tard. Le co-fondateur de Hugging Face, Clement Delangue, l'a salué, déclarant que "l'IA locale connaît son moment" et que c'est l'avenir de l'industrie de l'IA. Le PDG de Google DeepMind, Demis Hassabis, est allé plus loin, qualifiant Gemma 4 de "meilleurs modèles ouverts au monde pour leurs tailles respectives".

C'est une affirmation forte. Les systèmes propriétaires d'Anthropic, OpenAI et le propre Gemini de Google sont toujours en tête sur les benchmarks les plus difficiles. Mais pour les modèles à poids ouverts que vous pouvez exécuter localement, modifier librement et déployer sur votre propre infrastructure ? La concurrence vient de devenir considérablement plus mince. Vous pouvez essayer Gemma 4 maintenant dans Google AI Studio (31B et 26B) ou Google AI Edge Gallery (E2B et E4B). Les poids des modèles sont également disponibles sur Hugging Face, Kaggle et Ollama.

Newsletter Daily Debrief

Commencez chaque journée avec les principales actualités du moment, plus des fonctionnalités originales, un podcast, des vidéos et plus encore.

Source : https://decrypt.co/363178/google-gemma-4-open-source-ai

Opportunité de marché
Logo de 4
Cours 4(4)
$0.01195
$0.01195$0.01195
-2.06%
USD
Graphique du prix de 4 (4) en temps réel
Clause de non-responsabilité : les articles republiés sur ce site proviennent de plateformes publiques et sont fournis à titre informatif uniquement. Ils ne reflètent pas nécessairement les opinions de MEXC. Tous les droits restent la propriété des auteurs d'origine. Si vous estimez qu'un contenu porte atteinte aux droits d'un tiers, veuillez contacter crypto.news@mexc.com pour demander sa suppression. MEXC ne garantit ni l'exactitude, ni l'exhaustivité, ni l'actualité des contenus, et décline toute responsabilité quant aux actions entreprises sur la base des informations fournies. Ces contenus ne constituent pas des conseils financiers, juridiques ou professionnels, et ne doivent pas être interprétés comme une recommandation ou une approbation de la part de MEXC.

Tradez du GOLD, partagez 1M USDT

Tradez du GOLD, partagez 1M USDTTradez du GOLD, partagez 1M USDT

0 frais, effet de levier 1 000x, liquidité profonde