Mistral AI dévoile sa toute dernière version du modèle de langage open source: le meilleur compromis coût/performance sur le marché

La startup franaise Mistral AI vient tout juste de lancer une toute nouvelle version de son modle de langage open source, qui connaît un grand succès parmi les modèles existants. Baptisé Mixtral 8x7B, ce modèle a été conçu par une équipe de chercheurs français spécialisés dans le domaine de l’Intelligence Artificielle. Avec 46,7 milliards de paramètres au total mais n’utilisant que 12,9 milliards de paramètres par jeton, Mixtral 8x7B est parvenu à surpasser GPT3.5 sur la plupart des benchmarks, offrant une performance exceptionnelle pour un coût et une latence moindres que d’autres modèles concurrents.

Cette nouvelle version du modèle de langage ouvert de Mistral AI est considérée comme le modèle le plus puissant avec une licence permissive, et le meilleur en termes de compromis coût/performance. En effet, Mixtral 8x7B dépasse largement Llama 2 70B sur la plupart des benchmarks avec une inférence 6 fois plus rapide. Ainsi, il s’impose comme l’une des références en matière de modèles d’IA open source actuellement disponibles.

De plus, Mistral AI a pris le soin de développer Mixtral 8x7B pour qu’il puisse gérer gracieusement un contexte de 32 000 jetons et maîtriser plusieurs langues différentes, dont l’anglais, le français, l’italien, l’allemand et l’espagnol. De plus, le modèle a montré de solides performances dans la génération de code et peut être affiné dans un modèle de suivi d’instructions qui atteint un score de 8,3 sur MT-Bench.

L’entreprise a ainsi démontré que Mixtral 8x7B est un réseau clairsemé d’experts, qui augmente considérablement le nombre de paramètres d’un modèle tout en contrôlant le coût et la latence. Concrètement, le modèle utilise seulement une fraction de l’ensemble total de paramètres par jeton, ce qui lui permet de traiter les entrées et de générer la sortie à la même vitesse et pour le même coût qu’un modèle ayant 12,9 milliards de paramètres.

Mistral AI encourage fortement la communauté de développeurs à utiliser ce nouveau modèle de langage ouvert et à contribuer à l’essor de l’Intelligence Artificielle. La startup a d’ailleurs ouvert un accès bêta à ses premiers services de plateforme, notamment des points de terminaison de chat pour générer du texte suivant des instructions textuelles.

En offrant une version préformée de son modèle, l’équipe de Mistral AI espère bien démocratiser l’accès à des modèles originaux pour favoriser de nouvelles inventions et usages dans le domaine de l’IA. La startup française a ainsi pris sa place dans le paysage mondial de l’IA, avec un modèle révolutionnaire qui vient concurrencer les géants américains tels qu’OpenAI, Google et Meta.

Il est clair que Mistral AI poursuit activement sa mission de fournir les meilleurs modèles ouverts à la communauté des développeurs, en apportant des avancées technologiques significatives en matière de modelage de langage open source. Cette nouvelle version de Mixtral 8x7B témoigne de l’expertise de Mistral AI dans ce domaine et ouvre de nombreuses perspectives pour le développement de l’IA.

Laisser un commentaire