Le développement de l’intelligence artificielle (IA) suscite de nombreuses interrogations quant à ses implications sur le système financier mondial. Dans ce contexte, Gary Gensler, président de la SEC (Securities and Exchange Commission), a récemment prévenu que l’IA pourrait déclencher une crise financière majeure dans les dix prochaines années.
Dans une interview accordée au Financial Times, M. Gensler a déclaré qu’il était « presque inévitable » qu’une telle crise se produise, probablement d’ici la fin des années 2020 ou le début des années 2030. Il a souligné que l’utilisation de modèles basés sur l’IA par les entreprises technologiques pourrait entraîner un chaos économique important.
« Je pense que nous aurons une crise financière à l’avenir… [et] dans les rapports post-facto, les gens diront « Ah ! Il y avait soit un agrégateur de données, soit un modèle… sur lequel nous nous appuyions ». Cela peut être le cas sur le marché hypothécaire. Cela peut être le cas dans un certain secteur de la bourse », a-t-il expliqué.
M. Gensler a également appelé à une réglementation de l’IA prenant en compte à la fois les modèles sous-jacents développés par les entreprises technologiques et la manière dont ils sont utilisés par les banques de Wall Street. Selon lui, cela représente un « défi interréglementaire » complexe.
« Il s’agit d’une question de stabilité financière difficile à résoudre car la plupart de nos réglementations concernent des institutions individuelles, des banques individuelles, des fonds du marché monétaire individuels, des courtiers individuels ; c’est simplement la nature de ce que nous faisons », a-t-il souligné. « Il s’agit d’une question horizontale, dans laquelle de nombreuses institutions peuvent s’appuyer sur le même modèle de base ou agrégateur de données sous-jacent. »
Les grandes banques de Wall Street ont été particulièrement enthousiastes quant à l’utilisation de l’IA générative depuis le succès de ChatGPT l’année dernière. Morgan Stanley a récemment lancé un assistant d’IA basé sur le modèle GPT4 d’OpenAI, tandis que JPMorgan a déposé un brevet pour un modèle d’IA appelé « IndexGPT » destiné à aider les traders dans leurs choix d’investissement.
Cependant, certaines restrictions ont également été mises en place quant à l’utilisation de ChatGPT, même si les banques continuent d’expérimenter cette nouvelle technologie. Goldman Sachs, Deutsche Bank et Bank of America ont interdit à leurs employés d’utiliser le chatbot sur leur lieu de travail en début d’année.
Face à ces nouveaux défis, il est essentiel d’adopter une approche réglementaire capable de garantir la stabilité financière tout en favorisant l’innovation technologique. Les régulateurs devront collaborer étroitement avec les entreprises technologiques et les acteurs financiers pour élaborer des règles et des normes qui tiennent compte des spécificités de l’IA.
En conclusion, l’avertissement de Gary Gensler sur les dangers potentiels de l’IA pour le système financier doit être pris au sérieux. Les régulateurs doivent agir rapidement pour mettre en place des mesures de contrôle et de supervision appropriées afin d’éviter une éventuelle crise financière. Il est essentiel de trouver un équilibre entre l’innovation technologique et la stabilité économique pour assurer un avenir durable aux marchés financiers.