This is a photograph by the artist Michael Najjar, and it's real, in the sense that he went there to Argentina to take the photo. But it's also a fiction. There's a lot of work that went into it after that. And what he's done is he's actually reshaped, digitally, all of the contours of the mountains to follow the vicissitudes of the Dow Jones index. So what you see, that precipice, that high precipice with the valley, is the 2008 financial crisis. The photo was made when we were deep in the valley over there. I don't know where we are now. This is the Hang Seng index for Hong Kong. And similar topography. I wonder why.
Voici une photo prise par l'artiste Michael Najjar, et elle est vraie, dans le sens où il est allé en Argentine pour prendre cette photo. Mais c'est aussi de la fiction. Il y a eu beaucoup de travail sur cette photo ensuite. Et ce qu'il a fait c'est qu'il a en fait redessiné, numériquement, tous les contours des montagnes pour suivre les vicissitudes du Dow Jones. Alors ce que vous voyez, ce précipice, ce précipice profond avec la vallée, c'est la crise financière de 2008. La photo a été faite quand nous étions tout au fond de la vallée là-bas. Je ne sais pas où nous sommes maintenant. Voici l'indice Hang Seng de la bourse de Hong Kong. Et une topographie similaire. Je me demande pourquoi
And this is art. This is metaphor. But I think the point is that this is metaphor with teeth, and it's with those teeth that I want to propose today that we rethink a little bit about the role of contemporary math -- not just financial math, but math in general. That its transition from being something that we extract and derive from the world to something that actually starts to shape it -- the world around us and the world inside us. And it's specifically algorithms, which are basically the math that computers use to decide stuff. They acquire the sensibility of truth because they repeat over and over again, and they ossify and calcify, and they become real.
Et c'est de l'art. C'est une métaphore. Mais je pense que l'important, c'est que c'est une métaphore qui a des dents. Et c'est avec ces dents que je veux vous proposer aujourd'hui de repenser un peu ensemble au rôle des mathématiques contemporaines, pas seulement les maths financières, mais les maths en général. Repenser au fait que les maths sont passées de quelque chose qu'on extrait et qu'on dérive du monde à quelque chose qui en fait commence à le façonner, ce monde qui nous entoure et ce monde qui est en nous. Et il s'agit en particulier des algorithmes, qui sont essentiellement les maths que les ordinateurs utilisent pour prendre des décisions. Ils acquièrent le sens de la vérité parce qu'ils recommencent sans cesse. Et il se sclérosent et se calcifient et deviennent réels.
And I was thinking about this, of all places, on a transatlantic flight a couple of years ago, because I happened to be seated next to a Hungarian physicist about my age and we were talking about what life was like during the Cold War for physicists in Hungary. And I said, "So what were you doing?"
Je réfléchissais à ça dans un endroit improbable, à bord d'un vol transatlantique il y a deux ans, parce que je m'étais retrouvé assis à côté d'un physicien hongrois qui avait à peu près mon âge, et nous discutions de ce qu'était la vie des physiciens en Hongrie pendant la guerre froide. Et j'ai dit, "Alors que faisiez-vous ?"
And he said, "Well we were mostly breaking stealth."
Et il a dit, "Et bien la plupart du temps on détruisait les boucliers furtifs.
And I said, "That's a good job. That's interesting. How does that work?" And to understand that, you have to understand a little bit about how stealth works. And so -- this is an over-simplification -- but basically, it's not like you can just pass a radar signal right through 156 tons of steel in the sky. It's not just going to disappear. But if you can take this big, massive thing, and you could turn it into a million little things -- something like a flock of birds -- well then the radar that's looking for that has to be able to see every flock of birds in the sky. And if you're a radar, that's a really bad job.
Et j'ai dit, "C'est bien. C'est intéressant. Comment ça marche ?" Et pour comprendre ça, il faut comprendre un peu comment fonctionne un bouclier furtif. Et donc, je simplifie à l'extrême, mais en gros, ce n'est pas comme de faire passer un signal radar à travers 156 tonnes d'acier dans le ciel. Ça ne va pas disparaitre. Mais si on peut prendre cette chose énorme, et la transformer en un million de petites choses, comme un vol d'oiseaux par exemple, alors le radar qui cherche ça doit être capable de voir tous les vols d'oiseaux dans le ciel. Et si vous êtes un radar, c'est vraiment un sacré boulot.
And he said, "Yeah." He said, "But that's if you're a radar. So we didn't use a radar; we built a black box that was looking for electrical signals, electronic communication. And whenever we saw a flock of birds that had electronic communication, we thought, 'Probably has something to do with the Americans.'"
Et il a dit, "Oui, mais c'est si vous êtes un radar. Alors nous n'avons pas utilisé un radar ; nous avons construit une boite noire qui cherchait des signaux électriques, des communications électroniques. Et chaque fois que nous voyions un vol d'oiseaux qui avait des communications électroniques, on se disait que ça avait un rapport avec les américains."
And I said, "Yeah. That's good. So you've effectively negated 60 years of aeronautic research. What's your act two? What do you do when you grow up?" And he said, "Well, financial services." And I said, "Oh." Because those had been in the news lately. And I said, "How does that work?" And he said, "Well there's 2,000 physicists on Wall Street now, and I'm one of them." And I said, "What's the black box for Wall Street?"
Et j'ai dit, "Oui. C'est bien. Vous avez donc en réalité réduit à néant 60 ans de recherches aéronautiques. Et ensuite, que faites-vous ? Et quand vous serez grand, vous ferez quoi ?" Il a répondu, 'Des services financiers." J'ai dit, "Oh" Parce qu'on en avait parlé dans les infos récemment. Et j'ai dit, Comment ça marche? Et il a répondu "Eh bien, il y a actuellement 2000 physiciens à Wall Street" et j'en fait partie." Et j'ai dit, "C'est quoi la boite noire pour Wall Street?"
And he said, "It's funny you ask that, because it's actually called black box trading. And it's also sometimes called algo trading, algorithmic trading." And algorithmic trading evolved in part because institutional traders have the same problems that the United States Air Force had, which is that they're moving these positions -- whether it's Proctor & Gamble or Accenture, whatever -- they're moving a million shares of something through the market. And if they do that all at once, it's like playing poker and going all in right away. You just tip your hand. And so they have to find a way -- and they use algorithms to do this -- to break up that big thing into a million little transactions. And the magic and the horror of that is that the same math that you use to break up the big thing into a million little things can be used to find a million little things and sew them back together and figure out what's actually happening in the market.
Et il a répondu, "C'est drôle que vous demandiez ça, parce que en fait on appelle ça le trading automatique ou black box trading. On l'appelle aussi parfois algo trading, trading algorithmique." Et le trading algorithmique a évolué en partie parce que les traders institutionnels ont les mêmes problèmes qu'avait l'US Air Force, c'est-à-dire qu'ils changent leur positions, que ce soit Proctor & Gamble ou Accenture, peu importe, ils transfèrent un million d'actions de quelque chose dans le marché. Et s'ils font ça d'un seul coup, c'est comme jouer au poker et tout miser tout de suite. Vous dévoilez votre jeu. Et donc ils doivent trouver une solution, et pour ça ils utilisent des algoritmes, pour diviser ce gros paquet en un million de petites transactions. Et ce qui est magique et horrible là-dedans c'est que les mêmes maths qu'on utilise pour diviser le gros truc en un million de petits trucs peut être utilisé pour trouver un million de petits trucs et les réassembler et comprendre ce qui se passe vraiment dans le marché.
So if you need to have some image of what's happening in the stock market right now, what you can picture is a bunch of algorithms that are basically programmed to hide, and a bunch of algorithms that are programmed to go find them and act. And all of that's great, and it's fine. And that's 70 percent of the United States stock market, 70 percent of the operating system formerly known as your pension, your mortgage.
Alors si vous devez vous faire une image de ce qui se passe à la bourse en ce moment, ce que vous pouvez visualiser c'est un tas d'algoritmes essentiellement programmés pour se cacher, et un tas algorithmes qui sont programmés pour les trouver et agir. Et tout ça c'est super, et c'est bien. Et ça représente 70% de la bourse aux Etats-Unis, 70% du système opérateur qu'on appelait auparavant votre retraite, votre hypothèque.
And what could go wrong? What could go wrong is that a year ago, nine percent of the entire market just disappears in five minutes, and they called it the Flash Crash of 2:45. All of a sudden, nine percent just goes away, and nobody to this day can even agree on what happened because nobody ordered it, nobody asked for it. Nobody had any control over what was actually happening. All they had was just a monitor in front of them that had the numbers on it and just a red button that said, "Stop."
Et qu'est-ce qui pourrait aller de travers? Ce qui pourrait aller de travers c'est qu'il y a un an, 9% de la totalité du marché a disparu en 5 minutes, et on a appelé ça le crash flash de 2:45. Tout à coup, 9% disparaissent, et à ce jour personne n'est d'accord sur ce qui s'est apssé, parce que personne n'en a donné l'ordre, personne n'a voulu ça. Personne n'avait le moindre contrôle sur ce qui se passait vraiment. Tout ce qu'ils avaient c'était un écran devant eux qui affichait des chiffres et un unique bouton rouge qui disait, "Stop."
And that's the thing, is that we're writing things, we're writing these things that we can no longer read. And we've rendered something illegible, and we've lost the sense of what's actually happening in this world that we've made. And we're starting to make our way. There's a company in Boston called Nanex, and they use math and magic and I don't know what, and they reach into all the market data and they find, actually sometimes, some of these algorithms. And when they find them they pull them out and they pin them to the wall like butterflies. And they do what we've always done when confronted with huge amounts of data that we don't understand -- which is that they give them a name and a story. So this is one that they found, they called the Knife, the Carnival, the Boston Shuffler, Twilight.
Et c'est ça le truc, c'est que nous écrivons des trucs, nous écrivons ces trucs que nous ne savons plus lire. Et nous avons rendu quelque chose illisible. Nous avons perdu le sens de ce qui se passe vraiment dans le monde que nous avons fabriqué. Et nous commençons à faire notre chemin. Il y a une compagnie à Boston qui s'appelle Nanex, et ils utilisent les maths et la magie et je ne sais pas quoi d'autre, et ils vont chercher toutes les données du marché et ils trouvent, parfois, certains de ces algorithmes. Et quand ils les trouvent, ils les extraient, et les épinglent au mur comme des papillons. Et ils font ce que nous avons toujours fait quand nous sommes confrontés à d'énormes quantités de données que nous ne comprenons pas, nous leur donnons un nom et une histoire. En voici un qu'ils ont trouvé, ils l'ont appelé le Couteau, le Carnaval, le Jongleur, Twilight.
And the gag is that, of course, these aren't just running through the market. You can find these kinds of things wherever you look, once you learn how to look for them. You can find it here: this book about flies that you may have been looking at on Amazon. You may have noticed it when its price started at 1.7 million dollars. It's out of print -- still ... (Laughter) If you had bought it at 1.7, it would have been a bargain. A few hours later, it had gone up to 23.6 million dollars, plus shipping and handling. And the question is: Nobody was buying or selling anything; what was happening? And you see this behavior on Amazon as surely as you see it on Wall Street. And when you see this kind of behavior, what you see is the evidence of algorithms in conflict, algorithms locked in loops with each other, without any human oversight, without any adult supervision to say, "Actually, 1.7 million is plenty."
Et le gag c'est que bien sûr, ils ne se contentent pas de fonctionner pour le marché. On trouve ce genre de trucs où qu'on regarde une fois que vous savez comment les trouver. Vous voyez ça ici : ce livre sur les mouches que vous avez peut-être cherché sur Amazon. Vous l'avez peut-être remarqué quand son prix est monté à 1,7 millions de dollars. Il est épuisé, pourtant ... (Rires) Si vous l'aviez acheté à 1,7 millions, vous auriez fait une affaire. Quelques heures plus tard, il était monté à 23,6 millions de dollars, plus le port et l'emballage. Et la question est : Personne n'achetait ni ne vendait rien ; que se passait-il? Et vous voyez ce comportement sur AMazon tout aussi surement que vous le voyez à Wall Street. Et quand vous voyez ce genre de comportement, ce que vous voyez c'est la preuve que des algorithmes sont en conflit, des algorithmes pris mutuellement dans des boucles sans surveillance humaine, sans supervision humaine, pour dire, "En fait, 1,7 million c'est beaucoup."
(Laughter)
(rires)
And as with Amazon, so it is with Netflix. And so Netflix has gone through several different algorithms over the years. They started with Cinematch, and they've tried a bunch of others -- there's Dinosaur Planet; there's Gravity. They're using Pragmatic Chaos now. Pragmatic Chaos is, like all of Netflix algorithms, trying to do the same thing. It's trying to get a grasp on you, on the firmware inside the human skull, so that it can recommend what movie you might want to watch next -- which is a very, very difficult problem. But the difficulty of the problem and the fact that we don't really quite have it down, it doesn't take away from the effects Pragmatic Chaos has. Pragmatic Chaos, like all Netflix algorithms, determines, in the end, 60 percent of what movies end up being rented. So one piece of code with one idea about you is responsible for 60 percent of those movies.
Il il est arrivé la même chose à Netflix qu'à Amazon. Netflix a eu plusieurs algorithmes différents au fil du temps. Ils ont commencé avec Cinematch, et ils en ont essayé un tas d'autres. Dinausaur Planet, Gravity. A présent ils utilisent Pragmatic Chaos. Pragmatic Chaos, comme tous les algorithmes de Netflix, essaye de faire la même chose : Il essaye de vous mettre le grappin dessus, sur le firmware à l'intérieur du crâne humain, pour vous recommander quel film vous pourriez avoir envie de voir ensuite, ce qui est un problème très, très difficile. Mais la difficulté du problème et le fait que nous ne nous ne l'avons pas vraiment cerné, c'est qu'il n'enlève rien aux effets du Chaos Pragmatique Le Chaos Pragmatique, comme tous les algorithmes de Netflix, détermine, en fin de compte, 60% des films qui seront effectivement loués. Donc un bout de code qui a une idée sur vous est responsable de 60 % de ces films.
But what if you could rate those movies before they get made? Wouldn't that be handy? Well, a few data scientists from the U.K. are in Hollywood, and they have "story algorithms" -- a company called Epagogix. And you can run your script through there, and they can tell you, quantifiably, that that's a 30 million dollar movie or a 200 million dollar movie. And the thing is, is that this isn't Google. This isn't information. These aren't financial stats; this is culture. And what you see here, or what you don't really see normally, is that these are the physics of culture. And if these algorithms, like the algorithms on Wall Street, just crashed one day and went awry, how would we know? What would it look like?
Mais si vous pouviez évaluer ces films avant qu'ils ne soient tournés? Ce serait pratique, non? Et bien, quelques spécialistes britanniques des données sont à Hollywood, et ils ont des algorithmes d'histoires, une compagnie du nom d'Epagogix. Et vous pouvez leur soumettre votre scénario, et ils peuvent vous dire,de façon quantifiable, que c'est un film à 30 millions de dollars ou un film à 200 millions de dollars. Et le truc, c'est que ce n'est pas Google. Ce n'est pas de l'information. Ce ne sont pas des statistiques financières ; c'est de la culture. Et ce que vous voyez ici, ou, plutôt, ce que normalement vous ne voyez pas, c'est qu'il s'agit de la physique de la culture. Et si ces algorithmes, comme ceux de Wall Street, plantent un jour ou deviennent défaillants, comment le saurons-nous, à quoi cela ressemblera-t-il?
And they're in your house. They're in your house. These are two algorithms competing for your living room. These are two different cleaning robots that have very different ideas about what clean means. And you can see it if you slow it down and attach lights to them, and they're sort of like secret architects in your bedroom. And the idea that architecture itself is somehow subject to algorithmic optimization is not far-fetched. It's super-real and it's happening around you.
Et ils sont dans vos maisons. Voici deux algorithmes se disputant votre salon. Ce sont deux robots nettoyeurs différents qui ont des idées différentes quant au nettoyage. Et vous pouvez le voir si vous filmez en ralenti et que vous fixez des lumières dessus. Ils sont en quelque sorte les architectes secrets de votre chambre à coucher. Et l'idée que l'architecture même est d'une certaine façon sujette à optimisation algorithmique n'est pas si exagérée. Elle est très réelle et ça se passe autour de vous.
You feel it most when you're in a sealed metal box, a new-style elevator; they're called destination-control elevators. These are the ones where you have to press what floor you're going to go to before you get in the elevator. And it uses what's called a bin-packing algorithm. So none of this mishegas of letting everybody go into whatever car they want. Everybody who wants to go to the 10th floor goes into car two, and everybody who wants to go to the third floor goes into car five. And the problem with that is that people freak out. People panic. And you see why. You see why. It's because the elevator is missing some important instrumentation, like the buttons. (Laughter) Like the things that people use. All it has is just the number that moves up or down and that red button that says, "Stop." And this is what we're designing for. We're designing for this machine dialect. And how far can you take that? How far can you take it? You can take it really, really far.
Vous le ressentez le plus quand vous êtes dans une boite en métal scellée, un ascenseur moderne, on appelle ça des ascenseurs à système de contrôle de destination. Ce sont ceux où vous devez appuyer sur l'étage où vous allez avant d'entrer dans l'ascenseur. Il utilise ce qu'on appelle un algorithme de conditionnement de boîtes. Donc rien d'insensé comme de laisser chacun entrer dans la cabine de son choix. Tous ceux qui veulent aller au 10ème étage montent dans la cabine numéro 2, et tous ceux qui veulent aller au 3ème étage montent dans la cabine 5. Et là, le problème est que les gens flippent. Les gens paniquent. Et vous voyez pourquoi. C'est parce qu'il manque à l'ascenseur un équipement important, les boutons. (Rires) Le truc que les gens utilisent. Tout ce qu'il possède, c'est le chiffre qui monte et qui descend et ce bouton rouge marqué "Stop." Et c'est le but de notre travail de conception. Nous concevons pour ce dialecte de machine. Et jusqu'où peut-on aller? Jusqu'où peut-on pousser ça? On peut aller très, très loin.
So let me take it back to Wall Street. Because the algorithms of Wall Street are dependent on one quality above all else, which is speed. And they operate on milliseconds and microseconds. And just to give you a sense of what microseconds are, it takes you 500,000 microseconds just to click a mouse. But if you're a Wall Street algorithm and you're five microseconds behind, you're a loser. So if you were an algorithm, you'd look for an architect like the one that I met in Frankfurt who was hollowing out a skyscraper -- throwing out all the furniture, all the infrastructure for human use, and just running steel on the floors to get ready for the stacks of servers to go in -- all so an algorithm could get close to the Internet.
Alors permettez-moi de revenir à Wall Street. Parce que les algorithmes de Wall Street dépendent d'une qualité par dessus tout, et c'est la vitesse. Et ils opèrent à la milliseconde et à la microseconde. Et pour vous donner une idée de ce qu'est une microseconde, il vous faut 500 000 microsecondes rien que pour cliquer sur une souris. Mais si vous êtes un algorithme de Wall Street et que vous avez 5 microsecondes de retard, Vous êtes fini. Donc si vous étiez un algorithme, vous chercheriez un architecte comme celui que j'ai rencontré à Francfort qui vidait un gratte-ciel, il jetait tous les meubles, toute l'infrastructure destinée à l'usage humain, et ne mettait que de l'acier dans les étages pour préparer l'arrivée des serveurs à installer, tout ça pour qu'un algorithme puisse se rapprocher d'internet.
And you think of the Internet as this kind of distributed system. And of course, it is, but it's distributed from places. In New York, this is where it's distributed from: the Carrier Hotel located on Hudson Street. And this is really where the wires come right up into the city. And the reality is that the further away you are from that, you're a few microseconds behind every time. These guys down on Wall Street, Marco Polo and Cherokee Nation, they're eight microseconds behind all these guys going into the empty buildings being hollowed out up around the Carrier Hotel. And that's going to keep happening. We're going to keep hollowing them out, because you, inch for inch and pound for pound and dollar for dollar, none of you could squeeze revenue out of that space like the Boston Shuffler could.
Et vous pensez qu'internet est une sorte de système décentralisé. Et bien sûr, c'est le cas, mais il est décentralisé depuis des endroits précis. A New York, voici d'où il est décentralisé : le Carrier Hotel sur Hudson Street. Et c'est vraiment de là que les cables partent vers la ville. Et la réalité est que plus vous vous en éloignez, plus vous prenez des microsecondes de retard Ces gars à Wall street, Marco Polo and Cherokee Nation, ont 8 microsecondes de retard sur tous ces gars-là qui vont dans des immeubles qu'on vide autour du Carrier Hotel. Et ça va continuer comme ça. Nous allons continuer à les vider, parce que vous, centimètre pour centimètre, livre pour livre, dollar pour dollar, aucun d'entre vous ne pourrait tirer un profit de cet espace comme le Jongleur peut le faire.
But if you zoom out, if you zoom out, you would see an 825-mile trench between New York City and Chicago that's been built over the last few years by a company called Spread Networks. This is a fiber optic cable that was laid between those two cities to just be able to traffic one signal 37 times faster than you can click a mouse -- just for these algorithms, just for the Carnival and the Knife. And when you think about this, that we're running through the United States with dynamite and rock saws so that an algorithm can close the deal three microseconds faster, all for a communications framework that no human will ever know, that's a kind of manifest destiny; and we'll always look for a new frontier.
Mais si vous prenez du recul, si vous prenez du recul, vous verrez une tranchée de 1 300 kilomètres entre New York et Chicago construite ces dernières années par une compagnie appelée Spread Networks. C'est un câble de fibre optique qui a été posé entre ces deux villes dans le seul but de faire passer un signal 37 fois plus vite qu'un clic de souris, rien que pour ces algorithmes, Rien que pour le Carnaval et le Couteau. Et quand vous y réfléchissez, que nous traversons les Etats-Unis avec de la dynamite et des scies à roches pour qu'un algorithme puisse conclure un marché trois microseconde plus vite, tout ça pour une structure de communication qu'aucun humain ne connaitra jamais, qui est une sorte de destin manifeste et qui cherchera toujours une nouvelle frontière.
Unfortunately, we have our work cut out for us. This is just theoretical. This is some mathematicians at MIT. And the truth is I don't really understand a lot of what they're talking about. It involves light cones and quantum entanglement, and I don't really understand any of that. But I can read this map, and what this map says is that, if you're trying to make money on the markets where the red dots are, that's where people are, where the cities are, you're going to have to put the servers where the blue dots are to do that most effectively. And the thing that you might have noticed about those blue dots is that a lot of them are in the middle of the ocean. So that's what we'll do: we'll build bubbles or something, or platforms. We'll actually part the water to pull money out of the air, because it's a bright future if you're an algorithm.
Malheureusement, nous avons du pain sur la planche. Tout ça est théorique. Voici des mathématiciens du MIT. Et la vérité est que une grande partie de ce qu'ils disent est incompréhensible pour moi. Ils parlent de cônes lumineux, de liaisons quantiques, et ce sont des choses que je ne comprend pas vraiment. Mais je peux lire cette carte. Et ce que cette carte dit c'est que, si vous essayez de faire de l'argent sur ces marchés représentés par des points rouges, c'est là que sont les gens, que sont les villes, vous allez devoir mettre les serveurs là où il y a des points bleus pour avoir le maximum d'efficacité. Et ce que vous avez peut-être remarqué à propos de ces points bleus c'est qu'il y en a beaucoup en plein océan. Alors voilà ce que nous allons faire, nous allons construire des bulles, ou des plateformes, nous allons partager les eaux pour de bon pour tirer de l'argent depuis l'air, parce qu'il y a un avenir radieux si vous êtes un algorithme.
(Laughter)
(Rires)
And it's not the money that's so interesting actually. It's what the money motivates, that we're actually terraforming the Earth itself with this kind of algorithmic efficiency. And in that light, you go back and you look at Michael Najjar's photographs, and you realize that they're not metaphor, they're prophecy. They're prophecy for the kind of seismic, terrestrial effects of the math that we're making. And the landscape was always made by this sort of weird, uneasy collaboration between nature and man. But now there's this third co-evolutionary force: algorithms -- the Boston Shuffler, the Carnival. And we will have to understand those as nature, and in a way, they are.
Et ce n'est pas l'argent qui est si intéressant en fait. C'est la motivation que l'argent amène. Le fait que nous transformons la planète-même avec ce genre d'efficacité algorithmique. Et sous cet éclairage, vous retournez voir les photos de Michael Najjar, et vous vous rendez compte qu'elles ne sont pas métaphoriques, elles sont prophétiques. Elles annoncent les effets sismiques, les effets terrestres des mathématiques que nous construisons. Et le paysage a toujours été façonné par cette collaboration étrange et malaisée entre la nature et l'homme. Mais maintenant il y a une troisième force co-évoutionnaire : les algorithmes, le Jongleur, le Carnaval. Et nous allons devoir les comprendre comme faisant partie de la nature. Et dans un sens, c'est vrai.
Thank you.
Merci.
(Applause)
(Applaudissements)