Whether you like it or not, radical transparency and algorithmic decision-making is coming at you fast, and it's going to change your life. That's because it's now easy to take algorithms and embed them into computers and gather all that data that you're leaving on yourself all over the place, and know what you're like, and then direct the computers to interact with you in ways that are better than most people can.
Gostem ou não, transparência radical e tomada de decisão algorítmica estão chegando rapidamente e vão mudar sua vida. Isso porque, agora, é fácil pegar algoritmos embuti-los em computadores, compilar todos esses dados deixados por vocês por todos os lugares, saber como vocês são, e então direcionar os computadores para interagirem consigo melhor do que muita pessoas.
Well, that might sound scary. I've been doing this for a long time and I have found it to be wonderful. My objective has been to have meaningful work and meaningful relationships with the people I work with, and I've learned that I couldn't have that unless I had that radical transparency and that algorithmic decision-making. I want to show you why that is, I want to show you how it works. And I warn you that some of the things that I'm going to show you probably are a little bit shocking.
Bom, isso pode soar assustador. Faço isso há muito tempo, e acho isso maravilhoso. Meu objetivo tem sido fazer um trabalho relevante e ter relações significativas com as pessoas com que trabalho, e aprendi que não poderia ter isso, sem ter essa transparência radical e essa tomada de decisão algorítmica. Quero mostrar-lhes o porquê disso, quero mostrar como isso funciona. E aviso que algumas coisas que vou mostrar aqui, talvez sejam um pouco chocantes.
Since I was a kid, I've had a terrible rote memory. And I didn't like following instructions, I was no good at following instructions. But I loved to figure out how things worked for myself. When I was 12, I hated school but I fell in love with trading the markets. I caddied at the time, earned about five dollars a bag. And I took my caddying money, and I put it in the stock market. And that was just because the stock market was hot at the time. And the first company I bought was a company by the name of Northeast Airlines. Northeast Airlines was the only company I heard of that was selling for less than five dollars a share.
Desde a infância, tive péssima memória. E eu não gostava de seguir regras, não era bom em seguir regras. Mas eu amava saber como as coisas funcionavam para mim. Quando tinha 12 anos, eu odiava a escola, mas me apaixonei por fazer negócios. Eu carregava sacos de golfe e ganhava US$ 5 por saco. Peguei meu dinheiro de carregador e pus no mercado de ações. Fiz isso só porque o mercado de ações estava no auge naquele tempo. E a primeira empresa que comprei foi a Northeast Airlines. A Northeast Airlines era a única empresa que eu soube que estava vendendo ações a menos de US$ 5.
(Laughter)
(Risos)
And I figured I could buy more shares, and if it went up, I'd make more money. So, it was a dumb strategy, right? But I tripled my money, and I tripled my money because I got lucky. The company was about to go bankrupt, but some other company acquired it, and I tripled my money. And I was hooked. And I thought, "This game is easy." With time, I learned this game is anything but easy.
Notei que podia comprar mais ações, e que, se subissem, eu ganharia mais dinheiro. Então, foi uma estratégia boba, certo? Mas tripliquei meu dinheiro e isso aconteceu porque fui sortudo. A empresa estava prestes a falir, mas outras empresas a compraram e tripliquei meu dinheiro. Fiquei viciado. E pensei: "Esse jogo é fácil". Com o tempo, aprendi que esse jogo é tudo menos fácil.
In order to be an effective investor, one has to bet against the consensus and be right. And it's not easy to bet against the consensus and be right. One has to bet against the consensus and be right because the consensus is built into the price. And in order to be an entrepreneur, a successful entrepreneur, one has to bet against the consensus and be right. I had to be an entrepreneur and an investor -- and what goes along with that is making a lot of painful mistakes. So I made a lot of painful mistakes, and with time, my attitude about those mistakes began to change. I began to think of them as puzzles. That if I could solve the puzzles, they would give me gems. And the puzzles were: What would I do differently in the future so I wouldn't make that painful mistake? And the gems were principles that I would then write down so I would remember them that would help me in the future. And because I wrote them down so clearly, I could then -- eventually discovered -- I could then embed them into algorithms. And those algorithms would be embedded in computers, and the computers would make decisions along with me; and so in parallel, we would make these decisions. And I could see how those decisions then compared with my own decisions, and I could see that those decisions were a lot better. And that was because the computer could make decisions much faster, it could process a lot more information and it can process decisions much more -- less emotionally. So it radically improved my decision-making.
Para ser um investidor eficaz, é preciso ir contra o consenso, e acertar. Não é fácil apostar contra o consenso e acertar. É preciso ir contra o consenso e acertar, porque o consenso está incorporado ao preço. E para ser um empreendedor de sucesso, é necessário apostar contra o consenso e acertar. Tive que ser um empreendedor e um investidor, e isso inclui cometer vários erros. Então cometi vários erros, e, com o tempo, minha atitude em relação a esses erros começou a mudar. Comecei a tratá-los como quebra-cabeças. Se eu montasse os quebra-cabeças, ganharia prêmios. E os quebra-cabeças eram: o que eu poderia fazer diferente no futuro, a fim de não cometer os mesmos erros? E os prêmios eram os princípios que eu escrevia e me lembraria, e que me ajudariam no futuro. E por eu os ter escrito tão bem, pude por fim descobrir que poderia incorporá-los nos algoritmos. E esses algoritmos seriam integrados nos computadores, e os computadores decidiriam comigo; e tomaríamos essas decisões em paralelo. Eu podia ver essas decisões e compará-las com as minhas, e podia ver que tais decisões eram muito melhores. Isso porque o computador pode tomar decisões muito mais rápido, pode processar muito mais informação, e pode processar as decisões sem envolvimento emocional. Isso melhorou radicalmente as minhas tomadas de decisão.
Eight years after I started Bridgewater, I had my greatest failure, my greatest mistake. It was late 1970s, I was 34 years old, and I had calculated that American banks had lent much more money to emerging countries than those countries were going to be able to pay back and that we would have the greatest debt crisis since the Great Depression. And with it, an economic crisis and a big bear market in stocks. It was a controversial view at the time. People thought it was kind of a crazy point of view. But in August 1982, Mexico defaulted on its debt, and a number of other countries followed. And we had the greatest debt crisis since the Great Depression. And because I had anticipated that, I was asked to testify to Congress and appear on "Wall Street Week," which was the show of the time. Just to give you a flavor of that, I've got a clip here, and you'll see me in there.
Oito anos após ter criado a Bridgewater, tive o meu maior fracasso, meu maior erro. Foi no final dos anos 70, eu tinha 34 anos, e havia calculado que os bancos americanos haviam emprestado muito mais dinheiro para países emergentes do que esses países seriam capazes de pagar e teríamos a maior crise de dívidas desde a Grande Depressão. E com isso, uma crise econômica e um mercado com ações em baixas. Era uma opinião controversa naquele tempo. As pessoas achavam que era um ponto de vista louco. Mas em agosto de 1982, o México não pagou suas dívidas, bem como outros países. E tivemos a maior crise de dívidas desde a Grande Depressão. E por eu ter antecipado isso, me chamaram a depor no Congresso e aparecer na "Wall Street Week", que era o show da época. Só para vocês terem ideia, estou com um vídeo aqui, estou nele.
(Video) Mr. Chairman, Mr. Mitchell, it's a great pleasure and a great honor to be able to appear before you in examination with what is going wrong with our economy. The economy is now flat -- teetering on the brink of failure.
(Vídeo) Sr. Presidente, Sr. Mitchell, é um grande prazer e uma grande honra estar aqui em vossa presença, em análise sobre o que há de errado com nossa economia. A economia está estancada agora, equilibrando-se à beira da falência.
Martin Zweig: You were recently quoted in an article. You said, "I can say this with absolute certainty because I know how markets work."
Martin Zweig: Você foi citado em um artigo. Você disse: "Posso dizer com certeza, pois sei como o mercado opera".
Ray Dalio: I can say with absolute certainty that if you look at the liquidity base in the corporations and the world as a whole, that there's such reduced level of liquidity that you can't return to an era of stagflation."
Ray Dalio: "Eu posso dizer com certeza que, se você olhar para a base de liquidez nas empresas e no mundo como um todo, o nível de liquidez está tão reduzido que não se pode voltar a uma era de estagflação".
I look at that now, I think, "What an arrogant jerk!"
Assisto isso agora e penso: "Que arrogante!".
(Laughter)
(Risos)
I was so arrogant, and I was so wrong. I mean, while the debt crisis happened, the stock market and the economy went up rather than going down, and I lost so much money for myself and for my clients that I had to shut down my operation pretty much, I had to let almost everybody go. And these were like extended family, I was heartbroken. And I had lost so much money that I had to borrow 4,000 dollars from my dad to help to pay my family bills.
Eu era tão arrogante e estava tão errado. Enquanto a crise de dívidas acontecia, o mercado de ações e a economia subiram mais do que caíram, e perdi tanto dinheiro meu e dos meus clientes, que tive de encerrar minhas atividades, tive de deixar quase todo mundo sair. Eles eram como parte da família, fiquei com o coração partido. E perdi tanto dinheiro, que tive de pedir emprestado US$ 4 mil ao meu pai, para pagar minhas contas em casa.
It was one of the most painful experiences of my life ... but it turned out to be one of the greatest experiences of my life because it changed my attitude about decision-making. Rather than thinking, "I'm right," I started to ask myself, "How do I know I'm right?" I gained a humility that I needed in order to balance my audacity. I wanted to find the smartest people who would disagree with me to try to understand their perspective or to have them stress test my perspective. I wanted to make an idea meritocracy. In other words, not an autocracy in which I would lead and others would follow and not a democracy in which everybody's points of view were equally valued, but I wanted to have an idea meritocracy in which the best ideas would win out. And in order to do that, I realized that we would need radical truthfulness and radical transparency.
Foi uma das experiências mais doloridas da minha vida. Mas acabou por ser uma das maiores experiências da minha vida, porque mudou minha atitude sobre tomada de decisão. Em vez de pensar: "Eu estou certo", comecei a me perguntar: "Como eu sei se estou certo?" Eu ganhei a humildade que precisava para equilibrar a minha audácia. Eu queria encontrar as pessoas mais inteligentes que discordariam de mim para entender sua perspectiva, ou para que eles pudessem analisar a minha. Eu queria uma "meritocracia de ideias". Em outras palavras, não uma autocracia, na qual eu lideraria e os outros seguiriam, não uma democracia, na qual todas a opiniões são válidas, mas eu queria uma meritocracia em que as melhores ideias venceriam. E para fazer isso, percebi que precisaríamos de autenticidade e transparência radicais.
What I mean by radical truthfulness and radical transparency is people needed to say what they really believed and to see everything. And we literally tape almost all conversations and let everybody see everything, because if we didn't do that, we couldn't really have an idea meritocracy. In order to have an idea meritocracy, we have let people speak and say what they want. Just to give you an example, this is an email from Jim Haskel -- somebody who works for me -- and this was available to everybody in the company. "Ray, you deserve a 'D-' for your performance today in the meeting ... you did not prepare at all well because there is no way you could have been that disorganized." Isn't that great?
O que quero dizer com autenticidade e transparência radicais, é que as pessoas precisam dizer o que elas pensam e ver tudo. E nós literalmente gravamos quase todas as discussões e deixamos todos verem tudo, pois se não fizéssemos isso, não poderíamos ter uma meritocracia de ideias legítima. Para se ter uma meritocracia de ideias, temos deixado as pessoas dizerem o que querem. Só para dar um exemplo, este é um e-mail de Jim Haskel, que trabalha para mim, e isto estava disponível para todos na empresa: "Ray, você merece um 'D -' pela seu desempenho na reunião de hoje, você não se preparou bem, pois você nunca foi tão desorganizado". Isso não é maravilhoso?
(Laughter)
(Risos)
That's great. It's great because, first of all, I needed feedback like that. I need feedback like that. And it's great because if I don't let Jim, and people like Jim, to express their points of view, our relationship wouldn't be the same. And if I didn't make that public for everybody to see, we wouldn't have an idea meritocracy.
Isso é maravilhoso. Isso é maravilhoso, porque eu precisava de uma opinião assim. Preciso de comentários assim. E é maravilhoso porque, se eu não deixar Jim e pessoas como ele expressarem suas opiniões, nosso relacionamento não será o mesmo. E se eu não tornasse isso público para que todos vissem, não teríamos uma meritocracia de ideias.
So for that last 25 years that's how we've been operating. We've been operating with this radical transparency and then collecting these principles, largely from making mistakes, and then embedding those principles into algorithms. And then those algorithms provide -- we're following the algorithms in parallel with our thinking. That has been how we've run the investment business, and it's how we also deal with the people management.
Então, é assim que temos operado nos últimos 25 anos. Temos operado com essa transparência radical e coletado esses princípios, em grande parte por cometer erros, e então embutido esses princípios em algoritmos. E assim esses algoritmos fornecem... nós seguimos os algoritmos em paralelo com nossa lógica. Assim, temos operado no negócio de investimentos, e é assim também que lidamos com a gestão de pessoas.
In order to give you a glimmer into what this looks like, I'd like to take you into a meeting and introduce you to a tool of ours called the "Dot Collector" that helps us do this. A week after the US election, our research team held a meeting to discuss what a Trump presidency would mean for the US economy. Naturally, people had different opinions on the matter and how we were approaching the discussion. The "Dot Collector" collects these views. It has a list of a few dozen attributes, so whenever somebody thinks something about another person's thinking, it's easy for them to convey their assessment; they simply note the attribute and provide a rating from one to 10. For example, as the meeting began, a researcher named Jen rated me a three -- in other words, badly --
Para que vocês tenham ideia de como isso acontece, gostaria de levá-los a uma reunião e mostrar-lhes uma ferramenta que se chama "Coletor de Pontos", que nos ajuda com isso. Uma semana depois das eleições dos EUA, nosso time de pesquisa fez uma reunião e debateu o que a presidência de Trump traria para a economia dos EUA. Claro, as pessoas tiveram opiniões diferentes sobre o assunto e sobre como abordávamos a discussão. O "Coletor de Pontos" coleta essas opiniões. Ele tem uma lista de atributos, então, quando alguém pensa algo sobre o que o outro pensa, é fácil transmitir sua avaliação; eles simplesmente avaliam o atributo e dão uma nota de um a dez. Por exemplo, no início da reunião, uma pesquisadora chamada Jen me deu três. Em outras palavras, mal,
(Laughter)
(Risos)
for not showing a good balance of open-mindedness and assertiveness. As the meeting transpired, Jen's assessments of people added up like this. Others in the room have different opinions. That's normal. Different people are always going to have different opinions. And who knows who's right? Let's look at just what people thought about how I was doing. Some people thought I did well, others, poorly. With each of these views, we can explore the thinking behind the numbers. Here's what Jen and Larry said. Note that everyone gets to express their thinking, including their critical thinking, regardless of their position in the company. Jen, who's 24 years old and right out of college, can tell me, the CEO, that I'm approaching things terribly.
por não mostrar equilíbrio entre mente aberta e assertividade. Durante a reunião, as análises de Jen foram estas. Outros na sala têm visões diferentes. Isso é normal. Pessoas diferentes sempre terão opiniões diferentes. E quem sabe quem está certo? Vamos ver o que pensaram sobre meu desempenho. Algumas pessoas acharam que eu fui bem, outras, mal. Com todas essas opiniões, podemos explorar a lógica por trás dos números. Aqui está o que Jen e Larry disseram. Notem que todos expressam o que pensam, até suas críticas, independente de sua posição na empresa. Jen, que tem 24 anos e acabou de sair da faculdade, pode dizer a mim, o CEO, que estou abordando mal os assuntos.
This tool helps people both express their opinions and then separate themselves from their opinions to see things from a higher level. When Jen and others shift their attentions from inputting their own opinions to looking down on the whole screen, their perspective changes. They see their own opinions as just one of many and naturally start asking themselves, "How do I know my opinion is right?" That shift in perspective is like going from seeing in one dimension to seeing in multiple dimensions. And it shifts the conversation from arguing over our opinions to figuring out objective criteria for determining which opinions are best.
Esta ferramenta ajuda as pessoas a expressarem suas opiniões e também a separar-se de suas opiniões para enxergar as coisas de um nível maior. Quando Jen e outros alternam sua atenção de dar suas opiniões para analisar o quadro todo, sua perspectiva muda. Eles veem suas próprias opiniões como uma entre várias e naturalmente começam a se perguntar: "Como saber se minha opinião está certa?". Essa mudança de perspectiva é como deixar de ver em uma dimensão e passar a ver em várias dimensões. E isso muda a discussão de argumentar sobre nossas opiniões para perceber os critérios objetivos para determinar as melhores opiniões.
Behind the "Dot Collector" is a computer that is watching. It watches what all these people are thinking and it correlates that with how they think. And it communicates advice back to each of them based on that. Then it draws the data from all the meetings to create a pointilist painting of what people are like and how they think. And it does that guided by algorithms. Knowing what people are like helps to match them better with their jobs. For example, a creative thinker who is unreliable might be matched up with someone who's reliable but not creative. Knowing what people are like also allows us to decide what responsibilities to give them and to weigh our decisions based on people's merits. We call it their believability. Here's an example of a vote that we took where the majority of people felt one way ... but when we weighed the views based on people's merits, the answer was completely different. This process allows us to make decisions not based on democracy, not based on autocracy, but based on algorithms that take people's believability into consideration.
Por trás do "Coletor de Pontos" há um computador que observa. Observa o que todas estas pessoas pensam e correlaciona isso com como elas pensam. E dá conselhos a cada um baseados nisso. Então obtém os dados de todas as reuniões para criar uma pintura pontilhista de como as pessoas são e como elas pensam. E ele faz isso conduzido por algoritmos. Saber como as pessoas são ajuda a agrupá-las melhor para suas tarefas. Por exemplo, um pensador criativo que não é confiável pode ser colocado com alguém que é confiável, mas não é criativo. Sabendo como as pessoas são também permite decidir quais responsabilidades dar a elas e ponderar nossas decisões baseadas em méritos pessoais. Essa é a credibilidade deles. Este é um exemplo de uma votação em que a maioria pensou de um jeito, mas quando ponderamos as opiniões baseadas em méritos, a resposta foi totalmente diferente. O processo nos permite decidir não baseados na democracia, nem na autocracia, mas baseados em algoritmos que consideram a credibilidade das pessoas.
Yup, we really do this.
Sim, é assim que fazemos.
(Laughter)
(Risos)
We do it because it eliminates what I believe to be one of the greatest tragedies of mankind, and that is people arrogantly, naïvely holding opinions in their minds that are wrong, and acting on them, and not putting them out there to stress test them. And that's a tragedy. And we do it because it elevates ourselves above our own opinions so that we start to see things through everybody's eyes, and we see things collectively. Collective decision-making is so much better than individual decision-making if it's done well. It's been the secret sauce behind our success. It's why we've made more money for our clients than any other hedge fund in existence and made money 23 out of the last 26 years.
Assim fazemos, porque elimina o que acredito ser uma das maiores tragédias do homem, que é, de forma arrogante e ingênua, manter opiniões erradas em suas mentes, e agir através delas, não as expondo para serem analisadas. E isso é uma tragédia. E fazemos isso porque nos eleva em relação às nossas opiniões, o que nos faz enxergar através da visão de todos e ver as coisas coletivamente. A tomada de decisão coletiva é muito melhor do que a individual, se for bem feita. Esse tem sido o ingrediente secreto do nosso sucesso. Por isso temos captado mais dinheiro do que qualquer outro fundo de cobertura e captado dinheiro por 23 dos últimos 26 anos.
So what's the problem with being radically truthful and radically transparent with each other? People say it's emotionally difficult. Critics say it's a formula for a brutal work environment. Neuroscientists tell me it has to do with how are brains are prewired. There's a part of our brain that would like to know our mistakes and like to look at our weaknesses so we could do better. I'm told that that's the prefrontal cortex. And then there's a part of our brain which views all of this as attacks. I'm told that that's the amygdala. In other words, there are two you's inside you: there's an emotional you and there's an intellectual you, and often they're at odds, and often they work against you. It's been our experience that we can win this battle. We win it as a group. It takes about 18 months typically to find that most people prefer operating this way, with this radical transparency than to be operating in a more opaque environment. There's not politics, there's not the brutality of -- you know, all of that hidden, behind-the-scenes -- there's an idea meritocracy where people can speak up. And that's been great. It's given us more effective work, and it's given us more effective relationships. But it's not for everybody. We found something like 25 or 30 percent of the population it's just not for. And by the way, when I say radical transparency, I'm not saying transparency about everything. I mean, you don't have to tell somebody that their bald spot is growing or their baby's ugly. So, I'm just talking about --
Então, qual o problema de ser radicalmente verdadeiro e transparente com os outros? Dizem que isso é emocionalmente difícil. Os críticos dizem que é uma fórmula para um ambiente de trabalho feroz. Neurocientistas dizem que isso tem relação com como os cérebros são predeterminados. Há uma parte do nosso cérebro que gostaria de conhecer nossos erros e olhar para nossas fraquezas para que pudéssemos melhorar. Soube que é o córtex pré-frontal. E existe uma parte de nosso cérebro que vê tudo isso como ataque. Soube que é a amígdala. Em outras palavras, existem dois "vocês" em vocês: há um você emotivo e um intelectual, que estão em constante conflito, e geralmente trabalham contra você. A nossa experiência diz que podemos vencer esta batalha. Nós a vencemos como equipe. Leva aproximadamente 18 meses para ver que a maioria das pessoas prefere trabalhar assim, com essa transparência radical do que trabalhar em um ambiente mais sombrio. Não há políticas, não há brutalidade de tudo aquilo escondido, nos bastidores, há uma meritocracia de ideias na qual as pessoas podem falar. E tem sido maravilhoso. Isso tem nos dado efetividade, tanto no trabalho, como nas nossas relações. Mas isso não é para todos. Descobrimos que, para 25% ou 30% da população, isso não funciona. E a propósito, quando digo transparência radical, não estou dizendo transparência em qualquer coisa. Quer dizer, você não tem de dizer a alguém que sua calvície está crescendo ou que seu bebê é feio. Estou falando apenas
(Laughter)
(Risos)
talking about the important things. So --
de coisas importantes. Então...
(Laughter)
(Risos)
So when you leave this room, I'd like you to observe yourself in conversations with others. Imagine if you knew what they were really thinking, and imagine if you knew what they were really like ... and imagine if they knew what you were really thinking and what were really like. It would certainly clear things up a lot and make your operations together more effective. I think it will improve your relationships. Now imagine that you can have algorithms that will help you gather all of that information and even help you make decisions in an idea-meritocratic way. This sort of radical transparency is coming at you and it is going to affect your life. And in my opinion, it's going to be wonderful. So I hope it is as wonderful for you as it is for me.
ao saírem daqui, gostaria que se observassem enquanto conversam com outros. Imaginem se vocês soubessem o que eles estão realmente pensando, imaginem se vocês soubessem como eles realmente são, imaginem se eles soubessem o que vocês estão pensando e como vocês são. Isso esclareceria muito as coisas e sua ação seria mais eficiente. Acho que isso melhorará as suas relações. Agora imaginem que podem usar algoritmos que lhes ajudarão a compilar toda essa informação e ajudará até a tomar decisões em um modelo de meritocracia de ideias. Esse tipo de transparência radical está próximo de vocês e vai influenciar suas vidas. E na minha opinião, isso vai ser maravilhoso. Assim, espero que seja tão bom para vocês quanto o é para mim.
Thank you very much.
Muito obrigado!
(Applause)
(Aplausos)