Ce graphique représente pour chaque modèle le score de satisfaction (score Bradley Terry) en fonction de l’estimation de la consommation énergétique moyenne pour 1000 tokens. La consommation énergétique est estimée à partir de la méthodologie Ecologits et repose sur la prise en compte de deux paramètres: la taille des modèles (nombre de paramètres) et leur architecture. Pour les modèles propriétaires, ces informations ne sont pas ou que partiellement communiquées. C’est pourquoi ils sont exclus du graphique ci-dessous.
Score de satisfaction Bradley-Terry (BT) VS Consommation moyenne pour 1000 tokens
Sélectionnez un modèle pour connaitre son score Bradley-Terry (BT) et sa consommation énergétique
Score Bradley-Terry (BT)
…
Ce graphique représente pour chaque modèle le score de satisfaction (score Bradley Terry) en fonction de l’estimation de la consommation énergétique moyenne pour 1000 tokens. La consommation énergétique est estimée à partir de la méthodologie Ecologits et repose sur la prise en compte de deux paramètres: la taille des modèles (nombre de paramètres) et leur architecture. Pour les modèles propriétaires, ces informations ne sont pas ou que partiellement communiquées. C’est pourquoi ils sont exclus du graphique ci-dessous.
Score de satisfaction Bradley-Terry (BT) VS Consommation moyenne pour 1000 tokens
Sélectionnez un modèle pour connaitre son score Bradley-Terry (BT) et sa consommation énergétique
Score Bradley-Terry (BT)
Consommation moyenne pour 1000 tokens (Wh)
Comment trouver le bon équilibre entre performance perçue et sobriété énergétique ? Exemples de lecture du graphique
- Plus un modèle est situé en haut du graphique, plus son score de satisfaction Bradley-Terry est élevé. Plus un modèle est situé sur la gauche du graphique, moins il consomme d’énergie par rapport aux autres modèles.
- En haut à gauche se trouvent les modèles qui plaisent et qui consomment peu d’énergie par rapport aux autres modèles.
- Au-delà de la taille, l’architecture a un impact sur la consommation énergétique moyenne des modèles: par exemple, à gabarit similaire, le modèle Llama 3 405B (architecture dense, 405 milliards de paramètres) consomme 10 fois plus d’énergie en moyenne que le modèle GLM 4.5 (architecture MOE, 355 milliards de paramètres et 32 milliards de paramètres actifs).
Pourquoi les modèles propriétaires ne sont-ils pas affichés sur le graphique ?
L’estimation de la consommation énergétique pour l’inférence des modèles repose sur la méthodologie Ecologits qui prend en compte la taille et l’architecture des modèles. Or ces informations ne sont pas rendues publiques par les éditeurs de modèles pour les modèles dits « propriétaires ».
Nous prenons ainsi le parti de ne pas intégrer les modèles propriétaires au graphique tant que les informations contribuant au calcul de consommation énergétique ne sont pas transparentes.
Pourquoi les modèles propriétaires ne sont-ils pas affichés sur le graphique ?
compar:IA utilise la méthodologie développée par Ecologits (GenAI Impact) pour fournir une estimation du bilan énergétique lié à l’inférence des modèles d’IA générative conversationnelle. Cette estimation permet aux utilisateurs de comparer l’impact environnemental de différents modèles d’IA pour une même requête. Cette transparence est essentielle pour encourager le développement et l’adoption de modèles d’IA plus éco-responsables.
Ecologits applique les principes de l’analyse du cycle de vie (ACV) conformément à la norme ISO 14044 en se concentrant pour le moment sur l’impact de l’inférence (c’est-à-dire l’utilisation des modèles pour répondre aux requêtes) et de la fabrication des cartes graphiques (extraction des ressources, fabrication et transport).
La consommation électrique du modèle est estimée en tenant compte de divers paramètres tels que la taille et l’architecture du modèle d’IA utilisé, la localisation des serveurs où sont déployés les modèles et le nombre de tokens de sortie. Le calcul de l’indicateur de potentiel de réchauffement climatique exprimé en équivalent CO2 est dérivé de la mesure de consommation électrique du modèle.
Il est important de noter que les méthodologies d’évaluation de l’impact environnemental de l’IA sont encore en développement.
Données du graphique en tableau
| Modèle | Score de satisfaction BT Infobulle Score statistique estimé selon le modèle Bradley-Terry reflétant la probabilité qu’un modèle soit préféré à un autre. Ce score est calculé à partir de l’ensemble des votes et réactions des utilisateurs. Pour en savoir plus, rendez-vous sur l’onglet méthodologie. | Conso. moyenne (1000 tokens) Infobulle Mesurée en wattheures, l’énergie consommée représente l’électricité utilisée par le modèle pour traiter une requête et générer la réponse correspondante. La consommation énergétique des modèles dépend de leur taille et de leur architecture. Nous prenons le parti d’afficher en grisé non analysés (N/A) les modèles propriétaires pour lesquels nous ne disposons pas d’information transparente sur la taille et l’architecture. | Taille (paramètres) Infobulle Taille du modèle en milliards de paramètres, catégorisée selon cinq classes. Pour les modèles propriétaires, cette taille n’est pas communiquée. | Architecture Infobulle L’architecture d’un modèle LLM désigne les principes de conception qui définissent comment les composants d’un réseau de neurones sont agencés et interagissent pour transformer les données d’entrée en sorties prédictives, incluant le mode d’activation des paramètres (dense vs. sparse), la spécialisation des composants et les mécanismes de traitement de l’information (transformers, réseaux convolutifs, architectures hybrides). | Organisation | Licence |
|---|---|---|---|---|---|---|
| 1095 | 3 Wh | L - 117 Mds | MoE | OpenAI | Semi-ouvert | |
gemma-3-4b | 1047 | 3 Wh | XS - 4 Mds | Dense | Semi-ouvert | |
| 1034 | 3 Wh | S - 21 Mds | MoE | OpenAI | Semi-ouvert | |
gemma-3n-e4b-it | 1024 | 3 Wh | XS - 8 Mds | Matformer | Semi-ouvert | |
qwen3-30b-a3b | 994 | 3 Wh | S - 30 Mds | MoE | Alibaba | Semi-ouvert |
phi-3.5-mini-instruct | 865 | 3 Wh | XS - 3.8 Mds | Dense | Microsoft | Semi-ouvert |
gemma-3-12b | 1077 | 4 Wh | XS - 12 Mds | Dense | Semi-ouvert | |
aya-expanse-8b | 978 | 4 Wh | XS - 8 Mds | Dense | Cohere | Semi-ouvert |
gemma-2-9b-it | 957 | 4 Wh | XS - 9 Mds | Dense | Semi-ouvert | |
| 931 | 4 Wh | XS - 8 Mds | Dense | Meta | Semi-ouvert | |
qwen2.5-7b-instruct | 930 | 4 Wh | XS - 7 Mds | Dense | Alibaba | Semi-ouvert |
mistral-nemo-2407 | 856 | 4 Wh | XS - 12 Mds | Dense | Mistral AI | Semi-ouvert |
| 823 | 4 Wh | XS - 14 Mds | Dense | jpacifico | Semi-ouvert | |
| 771 | 4 Wh | XS - 9 Mds | Dense | 01-ai | Semi-ouvert | |
qwen2-7b-instruct | 733 | 4 Wh | XS - 7 Mds | Dense | Alibaba | Semi-ouvert |
| 1020 | 5 Wh | L - 109 Mds | MoE | Meta | Semi-ouvert | |
phi-4 | 971 | 5 Wh | XS - 14 Mds | Dense | Microsoft | Semi-ouvert |
mixtral-8x7b-instruct-v0.1 | 888 | 5 Wh | S - 56 Mds | MoE | Mistral AI | Semi-ouvert |
| 754 | 5 Wh | XS - 14 Mds | Dense | jpacifico | Semi-ouvert | |
gemma-3-27b | 1097 | 6 Wh | S - 27 Mds | Dense | Semi-ouvert | |
mistral-small-2506 | 1074 | 6 Wh | S - 24 Mds | Dense | Mistral AI | Semi-ouvert |
magistral-small-2506 | 1060 | 6 Wh | S - 24 Mds | Dense | Mistral AI | Semi-ouvert |
mistral-small-3.1-24b | 1012 | 6 Wh | S - 24 Mds | Dense | Mistral AI | Semi-ouvert |
gemma-2-27b-it-q8 | 1006 | 6 Wh | S - 27 Mds | Dense | Semi-ouvert | |
mistral-small-24b-instruct-2501 | 991 | 6 Wh | S - 24 Mds | Dense | Mistral AI | Semi-ouvert |
qwen3-32b | 1047 | 7 Wh | S - 32 Mds | Dense | Alibaba | Semi-ouvert |
aya-expanse-32b | 996 | 7 Wh | S - 32 Mds | Dense | Cohere | Semi-ouvert |
qwq-32b | 956 | 7 Wh | S - 32 Mds | Dense | Alibaba | Semi-ouvert |
| 1050 | 12 Wh | M - 70 Mds | Dense | Nvidia | Semi-ouvert | |
| 987 | 12 Wh | M - 70 Mds | Dense | Meta | Semi-ouvert | |
| 977 | 12 Wh | M - 70 Mds | Dense | Meta | Semi-ouvert | |
deepseek-r1-distill-llama-70b | 957 | 12 Wh | M - 70 Mds | Dense | DeepSeek | Semi-ouvert |
hermes-4-70b | 915 | 12 Wh | M - 70 Mds | Dense | Nous | Semi-ouvert |
| 1017 | 15 Wh | XL - 400 Mds | MoE | Meta | Semi-ouvert | |
command-a | 1065 | 18 Wh | L - 111 Mds | Dense | Cohere | Semi-ouvert |
mixtral-8x22b-instruct-v0.1 | 846 | 18 Wh | L - 176 Mds | MoE | Mistral AI | Semi-ouvert |
deepseek-v3-0324 | 1099 | 47 Wh | XL - 685 Mds | MoE | DeepSeek | Semi-ouvert |
deepseek-chat-v3.1 | 1091 | 47 Wh | XL - 685 Mds | MoE | DeepSeek | Semi-ouvert |
deepseek-v3-chat | 1085 | 47 Wh | XL - 671 Mds | MoE | DeepSeek | Semi-ouvert |
deepseek-r1 | 1034 | 47 Wh | XL - 671 Mds | MoE | DeepSeek | Semi-ouvert |
| 962 | 238 Wh | XL - 405 Mds | Dense | Meta | Semi-ouvert |