La France a validé le projet européen pour réguler l’IA, une étape historique pour la législation sur l’intelligence artificielle à l’échelle mondiale. Cette initiative a été approuvée à l’unanimité par les 27 États membres de l’Union européenne, suite à une période de plus de deux ans de négociations. Le commissaire européen au marché intérieur s’est félicité de l’équilibre trouvé dans cet accord, reconnaissant l’importance du compromis entre innovation et sécurité.
Les discussions autour de ce projet de loi ont été intensifiées par l’émergence de nouvelles technologies, telles que le ChatGPT, qui ont suscité des inquiétudes concernant les violations du droit d’auteur, la diffusion de fausses nouvelles, et d’autres pratiques problématiques. La loi sur l’IA devrait entrer en vigueur en 2025, après sa ratification par le Parlement européen.
La France, qui avait exprimé des réticences initiales à l’égard du texte, a finalement accepté l’accord en raison de deux éléments clés. D’une part, l’isolement, car des pays partageant initialement la même position, comme l’Italie et l’Allemagne, ont finalement approuvé la loi IA. D’autre part, la France a réussi à négocier certaines concessions, notamment en ce qui concerne la protection des secrets d’affaires dans la communication des données de formation.
En ce qui concerne le contenu de la loi IA, le texte établit un équilibre entre sécurité et innovation en imposant un cadre juridique pour la conception et l’exploitation commerciale des outils d’IA. Il exige des entreprises de fournir une synthèse des données utilisées pour former les modèles, ce qui pourrait permettre aux auteurs et artistes de réclamer une compensation financière si leur œuvre est utilisée. De plus, la loi stipule que toute utilisation de l’intelligence artificielle dans la création d’une œuvre doit être signalée, comme les photos retouchées dans la publicité, ainsi que l’obligation d’informer les utilisateurs lorsqu’ils interagissent avec un chatbot conversationnel.
Enfin, la loi interdit certains usages de l’IA, tels que le social scoring, l’identification faciale massive, la reconnaissance des émotions ou la manipulation de l’opinion publique. Les systèmes d’IA présentant un risque élevé devront être enregistrés dans une base de données européenne, particulièrement ceux utilisés par les services publics tels que les forces de l’ordre, l’assistance juridique ou la gestion des migrations.
Cette régulation de l’IA représente un tournant majeur dans l’histoire de la législation sur l’intelligence artificielle, et témoigne de l’engagement de l’Union européenne à promouvoir un environnement numérique sûr et éthique pour l’innovation technologique.