Microsoft et Nvidia s’associent pour simplifier l’exploitation de modèles d’IA sur Windows, offrant des solutions pour le développement local de modèles volumineux.

Microsoft et Nvidia s’associent pour faciliter l’exécution de modèles d’IA sur les PC Windows des développeurs en mettant à leur disposition des outils améliorés. Une récente étude menée par une entreprise tierce a révélé que 78 % des développeurs de modèles d’IA ont rencontré des difficultés pour choisir les bons outils, frameworks et modèles, afin de tester, affiner et optimiser les modèles ou sélectionner les modèles les plus fiables qui répondent le mieux aux différents besoins de l’entreprise.

Pour remédier à cette problématique, Windows AI Studio a été introduit comme un hub central qui permet aux développeurs d’accéder à un large éventail de modèles d’IA et de les personnaliser en fonction de leurs besoins spécifiques. L’outil intègre également des modèles Prompt Flow et Gradio pour faciliter les tests de performances. Selon Microsoft, Windows AI Studio s’appuie sur des plates-formes existantes telles que Azure AI Studio et Hugging Face.

L’idée est de permettre aux développeurs de travailler localement avec des modèles d’IA volumineux, tout en offrant la possibilité d’exécuter ces modèles dans le cloud sur Azure ou en périphérie localement sur Windows, en fonction de leurs besoins.

De son côté, Nvidia a également annoncé des mises à jour pour son outil de développement d’IA TensorRT-LLM. Ces mises à jour visent à améliorer l’efficacité de l’exécution de grands modèles de langage sur les GPU Windows, tout en offrant une interface API similaire à l’API Chat d’OpenAI, via un nouveau wrapper.

Ces avancées permettront aux développeurs de traiter de grands modèles de langage localement sur leurs PC, répondant ainsi aux préoccupations concernant la confidentialité des données. La prochaine version de TensorRT-LLM offrira une inférence jusqu’à cinq fois plus rapide, ainsi que la prise en charge des nouveaux modèles Mistral 7B et Nemotron-3 8B.

Enfin, Microsoft et Nvidia ont également annoncé des améliorations DirectML pour accélérer l’un des modèles d’IA fondamentaux les plus populaires, offrant ainsi une plate-forme complète pour organiser les projets d’IA et adapter les modèles à des cas d’utilisation spécifiques.

Ainsi, cette collaboration entre Microsoft et Nvidia vise à créer un modèle de développement en « boucle hybride » pour favoriser le développement de l’IA à la fois dans le cloud et localement sur les appareils. Ces avancées permettront aux développeurs de se concentrer sur la création et l’optimisation de modèles d’IA sans les contraintes liées au choix des outils et à l’exécution des modèles.

Laisser un commentaire