Whether you like it or not, radical transparency and algorithmic decision-making is coming at you fast, and it's going to change your life. That's because it's now easy to take algorithms and embed them into computers and gather all that data that you're leaving on yourself all over the place, and know what you're like, and then direct the computers to interact with you in ways that are better than most people can.
Les guste o no, la transparencia radical y la toma algorítmica de decisiones llegarán rápido y cambiarán su vida. Esto se debe a que ahora es fácil tomar algoritmos, incorporarlos en computadoras y juntar todos los datos que dejan sobre Uds. por todas partes. Y al saber cómo son Uds., luego se instruye a las computadoras para que interactúen con Uds. mucho mejor de lo que lo haría la mayoría de las personas.
Well, that might sound scary. I've been doing this for a long time and I have found it to be wonderful. My objective has been to have meaningful work and meaningful relationships with the people I work with, and I've learned that I couldn't have that unless I had that radical transparency and that algorithmic decision-making. I want to show you why that is, I want to show you how it works. And I warn you that some of the things that I'm going to show you probably are a little bit shocking.
Bueno, eso puede sonar aterrador. He estado haciendo esto por mucho tiempo y me di cuenta de que me encanta. Mi objetivo ha sido tener un trabajo significativo y relaciones significativas con mis compañeros de trabajo, y aprendí que no podría tener eso sin tener transparencia radical y una toma de decisiones algorítmica. Y les quiero mostrar por qué es eso, les quiero mostrar cómo funciona. Y les advierto que las cosas que les mostraré posiblemente sean un poco chocantes.
Since I was a kid, I've had a terrible rote memory. And I didn't like following instructions, I was no good at following instructions. But I loved to figure out how things worked for myself. When I was 12, I hated school but I fell in love with trading the markets. I caddied at the time, earned about five dollars a bag. And I took my caddying money, and I put it in the stock market. And that was just because the stock market was hot at the time. And the first company I bought was a company by the name of Northeast Airlines. Northeast Airlines was the only company I heard of that was selling for less than five dollars a share.
Desde que era un niño, he tenido una memoria terrible, y no me gustaba seguir las instrucciones, no era bueno siguiendo instrucciones, pero me encantaba averiguar cómo funcionaban las cosas. Cuando tenía 12 años, odiaba ir a la escuela, pero me enamoré del comercio de mercados. Era caddie en ese entonces, ganaba cinco dólares por bolsa. Y tomé mi dinero de caddie, y lo puse en el mercado de valores. Y eso solo porque la bolsa de valores estaba agitada en ese momento. La primera empresa que compré era una empresa llamada Northeast Airlines. Northeast Airlines era la única empresa de la que supe que se vendía por menos de cinco dólares por acción.
(Laughter)
(Risas)
And I figured I could buy more shares, and if it went up, I'd make more money. So, it was a dumb strategy, right? But I tripled my money, and I tripled my money because I got lucky. The company was about to go bankrupt, but some other company acquired it, and I tripled my money. And I was hooked. And I thought, "This game is easy." With time, I learned this game is anything but easy.
Y pensé que podría comprar más acciones y si subían, ganaría más dinero. Así que, era una estrategia tonta, ¿no? Pero tripliqué mi dinero, y tripliqué mi dinero porque tuve suerte. La compañía estaba a punto de quebrar, pero otra compañía la adquirió, y tripliqué mi dinero. Y estaba enganchado. Y pensé "Este juego es fácil". Con el tiempo, aprendí que este juego es todo menos fácil.
In order to be an effective investor, one has to bet against the consensus and be right. And it's not easy to bet against the consensus and be right. One has to bet against the consensus and be right because the consensus is built into the price. And in order to be an entrepreneur, a successful entrepreneur, one has to bet against the consensus and be right. I had to be an entrepreneur and an investor -- and what goes along with that is making a lot of painful mistakes. So I made a lot of painful mistakes, and with time, my attitude about those mistakes began to change. I began to think of them as puzzles. That if I could solve the puzzles, they would give me gems. And the puzzles were: What would I do differently in the future so I wouldn't make that painful mistake? And the gems were principles that I would then write down so I would remember them that would help me in the future. And because I wrote them down so clearly, I could then -- eventually discovered -- I could then embed them into algorithms. And those algorithms would be embedded in computers, and the computers would make decisions along with me; and so in parallel, we would make these decisions. And I could see how those decisions then compared with my own decisions, and I could see that those decisions were a lot better. And that was because the computer could make decisions much faster, it could process a lot more information and it can process decisions much more -- less emotionally. So it radically improved my decision-making.
Para ser un inversor eficaz, uno tiene que apostar contra el consenso y tener razón. Y no es fácil apostar contra el consenso y tener razón. Uno tiene que apostar en contra y tener razón, porque el consenso está basado en el precio. Y para ser un emprendedor, un emprendedor exitoso, uno tiene que apostar contra el consenso y tener razón. Tenía que ser emprendedor e inversor y lo que va unido a eso es cometer un montón de errores dolorosos. Así que cometí muchos errores dolorosos y, con el tiempo, mi actitud sobre esos errores empezó a cambiar. Empecé a mirarlos como rompecabezas y, si podía resolver el rompecabezas, me darían tesoros. Y los rompecabezas eran: ¿Qué haría diferente en el futuro para no cometer ese doloroso error? Y los tesoros eran principios que luego escribiría para recordarlos y ayudarme en el futuro. Y debido a que los escribí muy claramente. Podría entonces... --finalmente descubrí-- ponerlos en algoritmos. Y esos algoritmos serían incorporados en las computadoras, y las computadoras tomarían decisiones conmigo; y así en paralelo, tomaríamos estas decisiones. Y podría ver cómo esas decisiones se comparan con mis propias decisiones, y podría ver que esas decisiones son mucho mejores. Y eso es porque la computadora podría tomar decisiones mucho más rápido. Podría procesar mucha más información y tomar decisiones mucho menos, menos emocionales. Así que mejoró radicalmente mi toma de decisiones.
Eight years after I started Bridgewater, I had my greatest failure, my greatest mistake. It was late 1970s, I was 34 years old, and I had calculated that American banks had lent much more money to emerging countries than those countries were going to be able to pay back and that we would have the greatest debt crisis since the Great Depression. And with it, an economic crisis and a big bear market in stocks. It was a controversial view at the time. People thought it was kind of a crazy point of view. But in August 1982, Mexico defaulted on its debt, and a number of other countries followed. And we had the greatest debt crisis since the Great Depression. And because I had anticipated that, I was asked to testify to Congress and appear on "Wall Street Week," which was the show of the time. Just to give you a flavor of that, I've got a clip here, and you'll see me in there.
Ocho años después empecé Bridgewater. Tuve mi mayor fracaso, mi mayor error. Fue a finales de 1970, tenía 34 años, y había calculado que los bancos estadounidenses habían prestado mucho más dinero a países emergentes y esos países no serían capaces de devolvérselos y que tendríamos la mayor crisis de deuda desde la Gran Depresión. Y, con ello, una crisis económica y un gran mercado con acciones bajas. Fue un raro punto de vista en ese momento. La gente pensó que era un punto de vista alocado. Pero en agosto de 1982, México incumplió su deuda, y muchos otros países lo siguieron. Y así tuvimos la mayor crisis de deuda desde la Gran Depresión. Y como yo había anticipado eso, me solicitaron que testificara ante el Congreso y la revista de Wall Street qué es lo que pasaba en ese momento. Para que vean de lo que hablo, tengo aquí un video y me verán allí.
(Video) Mr. Chairman, Mr. Mitchell, it's a great pleasure and a great honor to be able to appear before you in examination with what is going wrong with our economy. The economy is now flat -- teetering on the brink of failure.
(Video) Sr. Presidente, Sr. Mitchell, es un gran placer y un honor estar ante Uds. para analizar qué va mal en nuestra economía. La economía ahora es plan... se balancea al borde del fracaso.
Martin Zweig: You were recently quoted in an article. You said, "I can say this with absolute certainty because I know how markets work."
Martin Zweig: Fue hace poco citado en un artículo. Dijo: "Puedo decir esto con absoluta certeza porque así funciona el mercado".
Ray Dalio: I can say with absolute certainty that if you look at the liquidity base in the corporations and the world as a whole, that there's such reduced level of liquidity that you can't return to an era of stagflation."
Ray Dalio: Puedo decir con absoluta certeza que si miran la base de liquidez en las corporaciones y el mundo en su conjunto, verán un nivel tan reducido de liquidez que no podrían volver a una era de "estanflación".
I look at that now, I think, "What an arrogant jerk!"
Miro eso ahora, y pienso: "¡Pero qué estúpido arrogante!"
(Laughter)
(Risas)
I was so arrogant, and I was so wrong. I mean, while the debt crisis happened, the stock market and the economy went up rather than going down, and I lost so much money for myself and for my clients that I had to shut down my operation pretty much, I had to let almost everybody go. And these were like extended family, I was heartbroken. And I had lost so much money that I had to borrow 4,000 dollars from my dad to help to pay my family bills.
Era arrogante y estaba muy equivocado. Es decir, mientras la crisis de la deuda ocurría, la bolsa de valores y la economía subieron en lugar de bajar, y perdí tanto dinero mío y de mis clientes que tuve que dar de baja mis operaciones, tuve que dejar ir a casi todos. Y eran como una familia extendida, estaba con el corazón partido. Y había perdido mucho dinero. y tenía que pedir prestado USD 4000 de mi papá para ayudar con las facturas familiares.
It was one of the most painful experiences of my life ... but it turned out to be one of the greatest experiences of my life because it changed my attitude about decision-making. Rather than thinking, "I'm right," I started to ask myself, "How do I know I'm right?" I gained a humility that I needed in order to balance my audacity. I wanted to find the smartest people who would disagree with me to try to understand their perspective or to have them stress test my perspective. I wanted to make an idea meritocracy. In other words, not an autocracy in which I would lead and others would follow and not a democracy in which everybody's points of view were equally valued, but I wanted to have an idea meritocracy in which the best ideas would win out. And in order to do that, I realized that we would need radical truthfulness and radical transparency.
Fue una de las experiencias más dolorosas de mi vida... pero resultó ser una de las más grandes experiencias de mi vida porque cambió la manera en la que tomo decisiones. En lugar de pensar "tengo razón", empecé a preguntarme: "¿Cómo sé que tengo razón?" Conseguí la humildad que necesitaba para equilibrarla con mi audacia. Quería llegar a las personas más capaces que estuviesen en desacuerdo conmigo para intentar entender sus perspectivas o dejar que ellos probaran mi perspectiva. Quería hacer una idea meritocrática. En otras palabras, no una autocracia en donde yo lideraría y otros me seguirían y no una democracia donde los puntos de vista de todos son evaluados, quería tener una idea meritocrática en donde las mejores ideas saldrían ganando. Y para hacer esto me di cuenta de que necesitaríamos una veracidad radical y una transparencia radical.
What I mean by radical truthfulness and radical transparency is people needed to say what they really believed and to see everything. And we literally tape almost all conversations and let everybody see everything, because if we didn't do that, we couldn't really have an idea meritocracy. In order to have an idea meritocracy, we have let people speak and say what they want. Just to give you an example, this is an email from Jim Haskel -- somebody who works for me -- and this was available to everybody in the company. "Ray, you deserve a 'D-' for your performance today in the meeting ... you did not prepare at all well because there is no way you could have been that disorganized." Isn't that great?
Lo que quiero decir con estos términos es que la gente necesita decir lo que en realidad piensa y ver todo. Y, literalmente, grabamos casi todas nuestras conversaciones y dejamos a todos ver todo. porque si no hacíamos eso, no podíamos tener una verdadera idea meritocrática. Para llegar a esto, dejamos a las personas decir y opinar lo que quieren. Para darles un ejemplo, este es un email de Jim Haskel, alguien que trabaja para mí, y esto se le permite a todos en mi empresa: "Ray, te mereces una mala nota por tu rendimiento hoy en la reunión... no te preparaste para nada bien porque no hay razón para que estuvieras así de desorganizado. ¿No es genial?
(Laughter)
(Risas)
That's great. It's great because, first of all, I needed feedback like that. I need feedback like that. And it's great because if I don't let Jim, and people like Jim, to express their points of view, our relationship wouldn't be the same. And if I didn't make that public for everybody to see, we wouldn't have an idea meritocracy.
Es genial. Lo es porque, antes que nada, necesitaba una opinión como esa. La necesito. Y es genial porque si no dejo a Jim, y a otros como Jim, expresar sus puntos de vista, nuestra relación no sería la misma. Y si no dejo que todos los demás lo vean, no tendríamos una idea de meritocracia.
So for that last 25 years that's how we've been operating. We've been operating with this radical transparency and then collecting these principles, largely from making mistakes, and then embedding those principles into algorithms. And then those algorithms provide -- we're following the algorithms in parallel with our thinking. That has been how we've run the investment business, and it's how we also deal with the people management.
Así que durante los últimos 25 años así fue como operamos. Trabajamos con esta transparencia radical y luego, recolectando estos principios la mayoría sobre cometer errores, y luego colocando esos principios en algoritmos. Y luego esos algoritmos proveen... nosotros estamos siguiendo los algoritmos en paralelo con nuestras ideas. Así fue como manejamos el negocio de inversiones y así es como lidiamos con la gestión de las personas.
In order to give you a glimmer into what this looks like, I'd like to take you into a meeting and introduce you to a tool of ours called the "Dot Collector" that helps us do this. A week after the US election, our research team held a meeting to discuss what a Trump presidency would mean for the US economy. Naturally, people had different opinions on the matter and how we were approaching the discussion. The "Dot Collector" collects these views. It has a list of a few dozen attributes, so whenever somebody thinks something about another person's thinking, it's easy for them to convey their assessment; they simply note the attribute and provide a rating from one to 10. For example, as the meeting began, a researcher named Jen rated me a three -- in other words, badly --
Para darles un pantallazo sobre como se ve esto, me gustaría llevarlos a una reunión y presentarles una herramienta nuestra llamada "colector de puntos" que nos ayuda con esto. Una semana tras las elecciones de EE.UU., nuestro equipo de investigación se reunió para hablar sobre la presidencia de Trump y la economía estadounidense. Naturalmente, la gente tenía diferentes opiniones al respecto y sobre cómo abordaríamos la discusión. El "colector de puntos" recolectó estos puntos de vista. Tiene una lista de varias decenas de atributos así que cada vez que alguien piensa algo sobre las ideas de otra persona, es fácil para ellos transmitir su evaluación simplemente seleccionan el atributo y lo califican del 1 al 10. Por ejemplo, cuando comenzó la reunión una investigadora llamada Jen me calificó con un 3 -- en otras palabras, mal --
(Laughter)
(Risas)
for not showing a good balance of open-mindedness and assertiveness. As the meeting transpired, Jen's assessments of people added up like this. Others in the room have different opinions. That's normal. Different people are always going to have different opinions. And who knows who's right? Let's look at just what people thought about how I was doing. Some people thought I did well, others, poorly. With each of these views, we can explore the thinking behind the numbers. Here's what Jen and Larry said. Note that everyone gets to express their thinking, including their critical thinking, regardless of their position in the company. Jen, who's 24 years old and right out of college, can tell me, the CEO, that I'm approaching things terribly.
por no mostrar un buen equilibrio de mente abierta y asertividad. A medida que transcurrió la reunión, las evaluaciones de Jen sobre las personas ocurrieron de esta manera. Otros allí, tuvieron diferentes opiniones. Es normal. Diferentes personas siempre van a tener diferentes opiniones. ¿Y quién sabe quién tiene razón? Veamos lo que la gente pensaba acerca de cómo estaba. Algunas personas pensaron que lo hice bien, otros no. Con todas estas opiniones, podemos explorar el pensamiento que hay detrás de los números. Aquí está lo que dieron Jen y Larry. Tengan en cuenta que todos expresan sus pensamientos incluyendo su pensamiento crítico, independientemente de su posición en la compañía. Jen, que tiene 24 años y acaba de salir de la universidad, puede decirme, al CEO, que tengo un enfoque terrible.
This tool helps people both express their opinions and then separate themselves from their opinions to see things from a higher level. When Jen and others shift their attentions from inputting their own opinions to looking down on the whole screen, their perspective changes. They see their own opinions as just one of many and naturally start asking themselves, "How do I know my opinion is right?" That shift in perspective is like going from seeing in one dimension to seeing in multiple dimensions. And it shifts the conversation from arguing over our opinions to figuring out objective criteria for determining which opinions are best.
Esta herramienta le ayuda a las personas a expresar sus opiniones y luego separarlas de sus opiniones para ver las cosas de un nivel más alto. Cuando Jen y otros cambian sus atención de introducir sus propias opiniones a ver toda la pantalla, sus perspectivas cambian. Ven sus propias opiniones como solo una de muchas y naturalmente, empiezan a preguntarse: "¿Cómo sé si mi opinión es acertada?" Ese cambio en la perspectiva es como pasar de mirar en una dimensión a mirar en múltiples dimensiones. Y cambia la conversación desde argumentar nuestras opiniones a encontrar criterios objetivos para determinar qué opiniones son las mejores.
Behind the "Dot Collector" is a computer that is watching. It watches what all these people are thinking and it correlates that with how they think. And it communicates advice back to each of them based on that. Then it draws the data from all the meetings to create a pointilist painting of what people are like and how they think. And it does that guided by algorithms. Knowing what people are like helps to match them better with their jobs. For example, a creative thinker who is unreliable might be matched up with someone who's reliable but not creative. Knowing what people are like also allows us to decide what responsibilities to give them and to weigh our decisions based on people's merits. We call it their believability. Here's an example of a vote that we took where the majority of people felt one way ... but when we weighed the views based on people's merits, the answer was completely different. This process allows us to make decisions not based on democracy, not based on autocracy, but based on algorithms that take people's believability into consideration.
Detrás del "recolector de puntos" hay una computadora que observa. Observa todo lo que estas personas piensan y relaciona esto con cómo lo piensan. Y ofrece consejos a cada uno basado en ello. Luego, dibuja los datos de todas las reuniones para crear una imagen de puntos de cómo son las personas y cómo piensan. Y hace esto guiado por algoritmos. Saber cómo son las personas les ayuda a coincidir mejor con sus trabajos. Por ejemplo, un pensador creativo que es irresponsable puede ser puesto con alguien responsable pero no creativo. Saber cómo son las personas también nos permite decidir qué responsabilidades darles y medir nuestras decisiones basándonos en el mérito de las personas. Lo llamamos credibilidad. Aquí hay un ejemplo de un voto que tomamos donde la mayoría de la gente se sentía de una manera... pero si medimos las opiniones basadas en los méritos la respuesta es muy diferente. Este proceso nos permite tomar decisiones no basadas en la democracia ni basadas en la autocracia, sino en algoritmos que consideran la credibilidad de las personas.
Yup, we really do this.
Sí, en serio hacemos esto.
(Laughter)
(Risas)
We do it because it eliminates what I believe to be one of the greatest tragedies of mankind, and that is people arrogantly, naïvely holding opinions in their minds that are wrong, and acting on them, and not putting them out there to stress test them. And that's a tragedy. And we do it because it elevates ourselves above our own opinions so that we start to see things through everybody's eyes, and we see things collectively. Collective decision-making is so much better than individual decision-making if it's done well. It's been the secret sauce behind our success. It's why we've made more money for our clients than any other hedge fund in existence and made money 23 out of the last 26 years.
Lo hacemos porque elimina lo que creo es una de las mayores tragedias de la humanidad, y eso es gente arrogante e ingenua que sostienen opiniones equivocadas, y actuar sobre ellas, y no poniéndolos sobre la mesa y poniéndolos a prueba. Y eso es una tragedia. Y lo hacemos porque nos eleva en nuestras propias opiniones. Para que podamos ver las cosas a través de los ojos de todos, para ver las cosas colectivamente. La toma de decisiones colectiva es mejor que la toma de decisiones individual si se hace bien. Ha sido el ingrediente secreto de nuestro éxito. Así hicimos más dinero para los clientes que cualquier otro fondo de cobertura existente ganando dinero 23 años de los últimos 26 años.
So what's the problem with being radically truthful and radically transparent with each other? People say it's emotionally difficult. Critics say it's a formula for a brutal work environment. Neuroscientists tell me it has to do with how are brains are prewired. There's a part of our brain that would like to know our mistakes and like to look at our weaknesses so we could do better. I'm told that that's the prefrontal cortex. And then there's a part of our brain which views all of this as attacks. I'm told that that's the amygdala. In other words, there are two you's inside you: there's an emotional you and there's an intellectual you, and often they're at odds, and often they work against you. It's been our experience that we can win this battle. We win it as a group. It takes about 18 months typically to find that most people prefer operating this way, with this radical transparency than to be operating in a more opaque environment. There's not politics, there's not the brutality of -- you know, all of that hidden, behind-the-scenes -- there's an idea meritocracy where people can speak up. And that's been great. It's given us more effective work, and it's given us more effective relationships. But it's not for everybody. We found something like 25 or 30 percent of the population it's just not for. And by the way, when I say radical transparency, I'm not saying transparency about everything. I mean, you don't have to tell somebody that their bald spot is growing or their baby's ugly. So, I'm just talking about --
Entonces, ¿cuál es el problema con ser radicalmente honestos y radicalmente transparentes entre sí? La gente dice que es emocionalmente difícil. Los críticos dicen que es la fórmula para un ambiente de trabajo bestial. Los neurocientíficos dicen que así está cableado el cerebro. A una parte del cerebro le gustaría saber nuestros errores y le gustaría ver nuestras debilidades para así mejorar. Me dijeron que ese es el córtex prefrontal. Y también hay una parte del cerebro que ve todo esto como un ataque. Me dijeron que esa es la amígdala. En otras palabras, hay dos "yo" dentro de cada uno: hay un "yo" emocional y hay un "yo" intelectual y a veces están en desacuerdo, y a veces están en contra. Sabemos por experiencia que podemos ganar esta batalla. La ganamos como grupo. Típicamente lleva unos 18 meses ver que la mayoría de la gente prefiere operar de esta manera, con una transparencia radical que operar en un ambiente más opaco. No hay política, no existe la brutalidad de... me entienden, todo lo típico entre bastidores, hay una idea meritocrática donde las personas tienen voz. Y eso ha sido genial. Nos dio un trabajo más efectivo, y también nos dio relaciones más efectivas. Pero no es para todos. Encontramos que cerca del 25 o 30 % de la población simplemente no puede hacerlo. Y, por cierto, cuando digo transparencia radical, no estoy hablando de la transparencia sobre todo. Sino de no tener que decirle a alguien que cada vez está más calvo o que su bebé es feo. Solo estoy hablando de...
(Laughter)
(Risas)
talking about the important things. So --
hablando de las cosas importantes. Así que...
(Laughter)
(Risas)
So when you leave this room, I'd like you to observe yourself in conversations with others. Imagine if you knew what they were really thinking, and imagine if you knew what they were really like ... and imagine if they knew what you were really thinking and what were really like. It would certainly clear things up a lot and make your operations together more effective. I think it will improve your relationships. Now imagine that you can have algorithms that will help you gather all of that information and even help you make decisions in an idea-meritocratic way. This sort of radical transparency is coming at you and it is going to affect your life. And in my opinion, it's going to be wonderful. So I hope it is as wonderful for you as it is for me.
Así que cuando dejen la sala, me gustaría que se observen conversando con otros. Imaginen si supieran lo que en realidad estuvieron pensando, e imaginen si supieran cómo son ellos en realidad... e imaginen si ellos supieran lo que Uds. pensaron y cómo son en realidad. Seguramente, se les aclararán mucho las cosas y hagan sus operaciones juntos más efectivas. Yo creo que mejorará su relación. Ahora imagínense que tienen algoritmos que les ayudan a unir esa información, incluso les ayudan a tomar decisiones de una manera meritocrática. Este tipo de transparencia radical se acerca a Uds. y afectará sus vidas. Y en mi opinión, va a ser maravilloso. Así que espero que sea tan maravilloso para Uds. como lo es para mí.
Thank you very much.
Muchas gracias.
(Applause)
(Aplausos)