Jeudi 22 août, le Nasdaq a subi une panne de plus de trois heures suspendant les ordres d’échanges et les cotations pendant cette période.
Suite à des incidents techniques encore mal connus, la bourse des valeurs technologies du Nasdaq, qui inclut en des sociétés telles qu’Apple, Microsoft, Google, Amazon ou encore Cisco, a dû arrêter les cotations un peu après midi et ne pouvoir les reprendre que trois heures plus tard. C’est la panne la plus importante depuis que la bourse a été créée au début des années 70. Les causes n’ont pas encore clairement établies mais il semblerait qu’elles soient liés au système de communication avec les autres bourses qui empêchaient le transfert des offres de prix vers l’ensemble des acteurs du marché financiers. Ces transferts se faisant évidemment de manière totalement automatisés.
L’incident proprement dit n’a duré qu’une trentaine de minutes à un moment où le volume d’échanges était relativement faible mais c’est la remise en route qui a nécessité les deux heures et demies qui ont suivi. L’ensemble des différents intervenants, Nasdaq, autres bourses, régulateurs et opérateurs de marché, se sont coordonnés pour assurer cette reprise. Cet incident n’a pas eu d’effet sur l’évolution de l’indice composite qui a fini la journée en hausse de 38 points. En revanche, l’action du groupe Nasdaq, qui est lui-même coté en bourse, a perdu un peu plus de 3 %.
Il n’est pas nécessaire de remontrer loin dans le temps pour retrouver un incident important. L’introduction en bourse de Facebook en 2012 avait essuyé des problèmes techniques qui ont coûté quelque 500 millions de dollars aux principales sociétés d’investissements. La même année, le lancement du réseau communautaire par le Nasdaq et l’introduction de la plate-forme d’échanges boursiers BATS avait été confrontés à des problèmes techniques graves. Cette dernière avait même dû renoncer à son introduction.
Un tel événement peut avoir un impact sur la confiance des intervenants et pose plus généralement la question de la robustesse des systèmes financiers d’aujourd’hui qui sont très largement automatisés et pour lesquelles les garde-fous ne fonctionnent pas toujours comme ils devraient.
Au-delà de cet incident qui est peut-être inhérent à la complexité, c’est le système financier qui devrait être repensé. Aujourd’hui la majorité des passages d’ordres sont effectués par des ordinateurs à haute performance qui exécutent ce qu’on appelle les transactions à haute fréquence (High Frequency Trading) prend une place de puis en plus importante. Introduit en 1999 après avoir été autorisé par la SEC, le HFT supportait des transactions avec un temps d’exécution de l’ordre de la seconde pour passer ensuite à la milli puis à la micro-seconde.
On peut se poser des questions sur la rationalité de tels investissements dans le long terme. Aujourd’hui, les sociétés boursières qui utilisent les techniques de HFT ne sont que 2 % des 20 000 que comptent les Etats-Unis, mais elles représentent plus de 70 % des échanges. En Europe, les volumes sont encore moins importants mais suivent une évolution comparable. Le HFT utilise des algorithmes déjà existants mais avec des vitesses d’exécution plus élevées mais aussi des algorithmes qui tirent parti des capacités de traitement extrêmement rapides des ordinateurs. Certaines firmes se sont implanté le plus près possible des places boursières pour réduire au maximum le délai des échanges de données sur le réseau.