Un nouveau décret du ministère indien de l’Électronique et des Technologies de l’information (MeitY) a récemment suscité des réactions dans le secteur de l’intelligence artificielle en Inde. Selon ce décret, toute technologie d’IA en cours de développement devra obtenir une autorisation préalable du gouvernement avant d’être lancée sur le marché.
Cette mesure vise à garantir que les technologies d’IA respectent des normes éthiques et ne présentent pas de risques pour la société. Les développeurs devront également identifier toute faille ou incertitude dans les résultats produits par ces technologies avant de les déployer.
De plus, le décret prévoit la mise en place d’un mécanisme de consentement préalable pour informer les utilisateurs des éventuelles erreurs ou inexactitudes générées par l’IA. Il exige également que les deepfakes soient étiquetés avec des métadonnées uniques pour éviter toute utilisation abusive.
L’avis mentionne également la nécessité d’éviter tout biais, discrimination ou menace pour l’intégrité du processus électoral dans les produits basés sur l’IA, y compris les grands modèles linguistiques (LLM).
Certaines voix du secteur ont critiqué ces mesures, les jugeant trop restrictives. Cependant, le ministre de l’informatique, Rajeev Chandrasekhar, a souligné l’importance de ces réglementations pour assurer la responsabilité des plateformes d’IA.
Les développeurs sont invités à se conformer à ce décret dans les 15 jours suivant sa publication. À terme, il est prévu que ces directives soient intégrées dans la législation indienne sur l’IA.
En attendant, cette mesure illustre la volonté du gouvernement indien de réglementer le secteur de l’intelligence artificielle pour garantir la sécurité et l’éthique des technologies émergentes. Cela pourrait également avoir un impact sur l’orientation future de la réglementation dans le domaine de l’IA en Inde.