Logo webradio media

L'IA révolutionne les marchés financiers mais pose des risques de stabilité


Les autorités de régulation appellent à la prudence face aux risques de l'IA dans les marchés financiers. Le FMI recommande un renforcement de la réglementation.

L'IA révolutionne les marchés financiers mais pose des risques de stabilité

L’intelligence artificielle (IA) est en train de révolutionner de nombreux secteurs, y compris celui des marchés financiers. Cependant, cette innovation ne va pas sans poser des questions cruciales sur la stabilité financière. Les autorités de régulation appellent à la prudence quant à l'utilisation de l'IA, soulignant les risques potentiels tels que les «krachs éclair», le manque de transparence et les analyses parfois erronées. Le Fonds monétaire international (FMI) a d'ailleurs recommandé dans une étude en octobre de «renforcer la réglementation et la surveillance dans les domaines liés à l’intelligence artificielle» au sein du secteur financier.

En France, l’Autorité des marchés financiers (AMF) a lancé une consultation auprès des professionnels des marchés, les invitant à apporter leurs commentaires sur le sujet d’ici le 11 avril. L’objectif est clair : «anticiper les évolutions technologiques et encourager un développement responsable des outils d’intelligence artificielle», que ces acteurs du secteur utilisent de plus en plus.

L’IA et les marchés financiers : opportunités et défis

Traitement rapide des données

L’IA permet aux gestionnaires d’actifs financiers de traiter rapidement d’énormes masses de données sur les entreprises, l’économie et les marchés, sur lesquels ils basent leurs décisions. Les investisseurs utilisent dans ce but des algorithmes puissants depuis des décennies. Mais les modèles actuels vont plus loin : «ils permettent d’intégrer beaucoup plus de données non financières et encore plus facilement», explique Marie Brière, responsable du centre de recherche du gestionnaire d’actifs Amundi. L’IA peut par exemple analyser, au jour le jour, «des images satellites pour évaluer le remplissage des parkings des supermarchés» et en tirer des conclusions sur la consommation des ménages.

Prévisions et limites

Une autre particularité de ces modèles est de réaliser des prévisions. Le gestionnaire Pictet AM a développé un fonds doté d’une IA permettant «de prévoir dans les semaines à venir, comment va se comporter telle ou telle action», à partir des données de l’entreprise et de son environnement, explique Stéphane Daul, son gérant. Problème : «l’IA part du principe que l’avenir sera un prolongement du passé. Cela fonctionne dans un grand nombre de cas, mais pas systématiquement», prévient Thierry Philipponnat, responsable de la recherche de l’ONG Finance Watch.

Les modèles ne prédisent pas les «cygnes noirs», expression qui définit dans le jargon financier des événements rares, imprévisibles et aux conséquences potentiellement désastreuses, qui sont légion lors des krachs boursiers, ajoute-t-il.

Confiance excessive et erreurs

Les utilisateurs ont tendance à avoir une «confiance excessive» en ces outils, les poussant à prendre de mauvaises décisions dans ces situations, selon Jon Danielsson, chercheur à la London School of Economics, spécialiste de la stabilité financière. «Une fois que l’IA a réalisé de bonnes prévisions, deux fois, cinquante fois, les acteurs ont l’impression que l’ordinateur a forcément raison face à l’humain. Mais les modèles font parfois des erreurs grossières», explique-t-il à l’AFP.

Régulation et surveillance

Dans une recommandation récente, l’ESMA, régulateur financier européen, a appelé les gestionnaires d’actifs à établir «des contrôles suffisamment fréquents pour surveiller et évaluer tout processus impliquant la transmission d’informations» par l’IA.

Chez le premier d’entre eux, le français Amundi, on explique être conscient du problème. «Nous expérimentons plusieurs techniques: vérifier manuellement, essayer plusieurs "prompts" (instructions, NDLR) différents pour comparer les réponses, ou même demander à l’IA de revérifier ses affirmations», explique Marie Brière.

Du côté de JPMorgan Asset Management, qui a développé ce qu’il présente comme un «assistant» IA, on «teste constamment» le modèle, qui doit sourcer ses informations, explique à l’AFP Kristian West, responsable des plateformes d’investissement.

Volatilité et comportements moutonniers

Autre risque pointé du doigt par certains experts : l’accroissement de la volatilité et des comportements moutonniers des marchés. Dans un contexte de «quasi-oligopole, où tout le monde utilise les mêmes modèles, il faut s’attendre à ce que des réactions identiques se propagent massivement, provoquant de forts mouvements», selon Thierry Philipponnat.

Le FMI alerte sur des «krachs éclair», de «brutales fluctuations de cours sur de très courtes périodes» provoquées par l’IA et sa capacité «à traiter de façon quasi-instantanée de gros volumes de données», couplée au passage d’ordres automatisé.

Transparence et régulation

Il est en outre de plus en plus «difficile d’expliquer comment» ces outils, qui raisonnent de façon autonome, «parviennent à leurs résultats», selon l’OICV-IOSCO, organisation mondiale des régulateurs, les qualifiant de «boîte noire». Il s’agit d’une différence avec les algorithmes traditionnels, «que leurs développeurs pouvaient comprendre», selon M. Philipponnat.

Compliqué, dans ce contexte, de réguler des mécanismes qu’on ne parvient pas à expliquer et ce, «alors que les superviseurs sont très en retard dans leur usage de ces technologies, coincés dans un monde pré-IA», prévient Jon Danielsson.

En conclusion, l’IA représente à la fois une opportunité et un défi pour les marchés financiers. Si elle permet de traiter des volumes de données considérables et d’améliorer les prévisions, elle pose également des questions cruciales en termes de transparence, de régulation et de stabilité financière. Les autorités et les acteurs du secteur doivent travailler ensemble pour trouver un équilibre entre innovation et sécurité.