Whether you like it or not, radical transparency and algorithmic decision-making is coming at you fast, and it's going to change your life. That's because it's now easy to take algorithms and embed them into computers and gather all that data that you're leaving on yourself all over the place, and know what you're like, and then direct the computers to interact with you in ways that are better than most people can.
Czy wam się to podoba, czy nie, radykalna przejrzystość i algorytmiczne podejmowanie decyzji szybko się zbliżają i zmienią wasze życie. To dlatego, że łatwo jest teraz wbudować algorytmy w komputery i zebrać wszystkie dane dotyczące was, które wszędzie zostawiacie, i dowiedzieć się, jacy jesteście, po czym pokierować komputery tak, żeby się z wami komunikowały lepiej niż większość ludzi.
Well, that might sound scary. I've been doing this for a long time and I have found it to be wonderful. My objective has been to have meaningful work and meaningful relationships with the people I work with, and I've learned that I couldn't have that unless I had that radical transparency and that algorithmic decision-making. I want to show you why that is, I want to show you how it works. And I warn you that some of the things that I'm going to show you probably are a little bit shocking.
Może to brzmieć przerażająco. Od dawna się tym zajmuję i doszedłem do wniosku, że to cudowne. Moim celem jest wykonywanie wartościowej pracy i wartościowe relacje ze współpracownikami. Okazuje się, że nie można tego osiągnąć bez radykalnej przejrzystości i algorytmicznego decydowania. Chcę wam pokazać, dlaczego i jak to działa. Ostrzegam, że niektóre rzeczy, które wam pokażę, mogą być trochę szokujące.
Since I was a kid, I've had a terrible rote memory. And I didn't like following instructions, I was no good at following instructions. But I loved to figure out how things worked for myself. When I was 12, I hated school but I fell in love with trading the markets. I caddied at the time, earned about five dollars a bag. And I took my caddying money, and I put it in the stock market. And that was just because the stock market was hot at the time. And the first company I bought was a company by the name of Northeast Airlines. Northeast Airlines was the only company I heard of that was selling for less than five dollars a share.
Od dziecka nie umiałem uczyć się na pamięć. Nie lubiłem wykonywać poleceń i nie byłem w tym dobry, ale uwielbiałem rozgryzać, jak coś działa. Kiedy miałem 12 lat, nienawidziłem szkoły, ale zakochałem się w giełdzie. Nosiłem wtedy kije golfowe. Zarabiałem około 5 dolarów za torbę. Zarobione pieniądze inwestowałem na giełdzie, bo była wtedy na topie. Pierwsza firma, w którą zainwestowałem, nazywała się Northeast Airlines. Była jedyną znaną mi firmą, która sprzedawała akcje po mniej niż 5 dolarów.
(Laughter)
(Śmiech)
And I figured I could buy more shares, and if it went up, I'd make more money. So, it was a dumb strategy, right? But I tripled my money, and I tripled my money because I got lucky. The company was about to go bankrupt, but some other company acquired it, and I tripled my money. And I was hooked. And I thought, "This game is easy." With time, I learned this game is anything but easy.
Wyliczyłem, że mógłbym kupić więcej akcji i gdyby poszły w górę, zarobiłbym więcej. Była to więc głupia strategia, prawda? (Śmiech) Ale potroiłem pieniądze, bo miałem szczęście. Firma była bliska bankructwa, ale jakaś inna ją kupiła i potroiłem pieniądze. Wciągnęło mnie to i pomyślałem: "Ta gra jest łatwa". Z czasem nauczyłem się, że ta gra nie jest wcale łatwa.
In order to be an effective investor, one has to bet against the consensus and be right. And it's not easy to bet against the consensus and be right. One has to bet against the consensus and be right because the consensus is built into the price. And in order to be an entrepreneur, a successful entrepreneur, one has to bet against the consensus and be right. I had to be an entrepreneur and an investor -- and what goes along with that is making a lot of painful mistakes. So I made a lot of painful mistakes, and with time, my attitude about those mistakes began to change. I began to think of them as puzzles. That if I could solve the puzzles, they would give me gems. And the puzzles were: What would I do differently in the future so I wouldn't make that painful mistake? And the gems were principles that I would then write down so I would remember them that would help me in the future. And because I wrote them down so clearly, I could then -- eventually discovered -- I could then embed them into algorithms. And those algorithms would be embedded in computers, and the computers would make decisions along with me; and so in parallel, we would make these decisions. And I could see how those decisions then compared with my own decisions, and I could see that those decisions were a lot better. And that was because the computer could make decisions much faster, it could process a lot more information and it can process decisions much more -- less emotionally. So it radically improved my decision-making.
Żeby być skutecznym inwestorem, trzeba obstawiać przeciwko konsensusowi i mieć rację. Nie jest to łatwe. Trzeba tak robić, bo konsensus jest wpisany w cenę. Żeby być przedsiębiorcą odnoszącym sukcesy, trzeba obstawiać przeciwko konsensusowi i mieć rację. Musiałem być przedsiębiorcą i inwestorem, co wiąże się z popełnianiem wielu bolesnych błędów. Popełniłem więc ich sporo i z czasem moja postawa wobec nich zaczęła się zmieniać. Zacząłem myśleć o nich jak o zagadkach, za które, gdyby udało się je rozwiązać, otrzymałbym nagrodę. A zagadką było, co bym zrobił inaczej w przyszłości, żeby uniknąć tego bolesnego błędu. Nagrodą były zasady, które zapisywałem, żeby je zapamiętać i które miały pomagać mi w przyszłości. Ponieważ zapisywałem je bardzo wyraźnie, w końcu odkryłem, że mogłem je wbudować w algorytmy. Algorytmy zostały wbudowane w komputery, a komputery podejmowały decyzje wraz ze mną. Zatem równolegle podejmowaliśmy te decyzje. Zauważyłem, że te decyzje w porównaniu z moimi były znacznie lepsze, a to dlatego, że komputer potrafił decydować znacznie szybciej, mógł przetworzyć znacznie więcej informacji i potrafi podejmować decyzje znacznie mniej emocjonalnie. To zasadniczo ulepszyło podejmowanie przeze mnie decyzji.
Eight years after I started Bridgewater, I had my greatest failure, my greatest mistake. It was late 1970s, I was 34 years old, and I had calculated that American banks had lent much more money to emerging countries than those countries were going to be able to pay back and that we would have the greatest debt crisis since the Great Depression. And with it, an economic crisis and a big bear market in stocks. It was a controversial view at the time. People thought it was kind of a crazy point of view. But in August 1982, Mexico defaulted on its debt, and a number of other countries followed. And we had the greatest debt crisis since the Great Depression. And because I had anticipated that, I was asked to testify to Congress and appear on "Wall Street Week," which was the show of the time. Just to give you a flavor of that, I've got a clip here, and you'll see me in there.
Osiem lat po założeniu Bridgewater poniosłem największą porażkę i popełniłem największy błąd. Były późne lata siedemdziesiąte, miałem 34 lata, i wyliczyłem, że amerykańskie banki pożyczyły znacznie więcej krajom rozwijającym się niż te były w stanie spłacić i że będziemy mieć największy kryzys zadłużenia od czasów Wielkiej Depresji, a co za tym idzie, kryzys gospodarczy i ogromną bessę na giełdzie. Był to wtedy kontrowersyjny pogląd. Ludzie uważali, że wręcz szalony. W sierpniu 1982 roku Meksyk ogłosił niewypłacalność, a za nim szereg innych państw i mieliśmy największy kryzys od czasów Wielkiej Depresji. Ponieważ go przewidziałem, zostałem wezwany przed Kongres i pojawiłem się w Wall Street Week, który był wtedy bardzo popularnym show. Pokażę wam to na nagraniu, na którym mnie zobaczycie.
(Video) Mr. Chairman, Mr. Mitchell, it's a great pleasure and a great honor to be able to appear before you in examination with what is going wrong with our economy. The economy is now flat -- teetering on the brink of failure.
(Video) RD: Panie przewodniczący, panie Mitchell, to wielka przyjemność i zaszczyt móc pojawić się przed państwem, żeby przyjrzeć się temu, co dzieje się nie tak z gospodarką. Gospodarka jest teraz w stagnacji, balansując na krawędzi bankructwa.
Martin Zweig: You were recently quoted in an article. You said, "I can say this with absolute certainty because I know how markets work."
Martin Zweig: Był pan ostatnio cytowany w artykule. Powiedział pan: "Stwierdzam to z całkowitą pewnością, bo wiem, jak działają rynki".
Ray Dalio: I can say with absolute certainty that if you look at the liquidity base in the corporations and the world as a whole, that there's such reduced level of liquidity that you can't return to an era of stagflation."
RD: Mogę stwierdzić z całkowitą pewnością, że jeżeli spojrzymy na stan płynności w przedsiębiorstwach i generalnie na świecie, to poziom płynności jest tak ograniczony, że nie ma powrotu do czasów stagflacji.
I look at that now, I think, "What an arrogant jerk!"
Patrzę na to teraz i myślę: "Co za arogancki palant!"
(Laughter)
(Śmiech)
I was so arrogant, and I was so wrong. I mean, while the debt crisis happened, the stock market and the economy went up rather than going down, and I lost so much money for myself and for my clients that I had to shut down my operation pretty much, I had to let almost everybody go. And these were like extended family, I was heartbroken. And I had lost so much money that I had to borrow 4,000 dollars from my dad to help to pay my family bills.
Byłem tak arogancki i tak bardzo się myliłem. To znaczy, kiedy nastąpił kryzys, giełda i gospodarka poszły w górę zamiast w dół i straciłem tyle pieniędzy, moich i moich klientów, że musiałem praktycznie zamknąć działalność i zwolnić prawie wszystkich, a byliśmy jak duża rodzina. Byłem załamany. Straciłem tak dużo pieniędzy, że musiałem pożyczyć 4000 dolarów od taty, żeby zapłacić domowe rachunki.
It was one of the most painful experiences of my life ... but it turned out to be one of the greatest experiences of my life because it changed my attitude about decision-making. Rather than thinking, "I'm right," I started to ask myself, "How do I know I'm right?" I gained a humility that I needed in order to balance my audacity. I wanted to find the smartest people who would disagree with me to try to understand their perspective or to have them stress test my perspective. I wanted to make an idea meritocracy. In other words, not an autocracy in which I would lead and others would follow and not a democracy in which everybody's points of view were equally valued, but I wanted to have an idea meritocracy in which the best ideas would win out. And in order to do that, I realized that we would need radical truthfulness and radical transparency.
Było to jedno z moich najboleśniejszych doświadczeń, ale okazało się być jednym z najlepszych, bo zmieniło moje podejście do podejmowania decyzji. Zamiast myśleć: "Mam rację", zacząłem się zastanawiać: "Skąd mam wiedzieć, że mam rację?". Zyskałem pokorę potrzebną do zrównoważenia odwagi. Chciałem znaleźć najmądrzejszych ludzi, którzy by się ze mną nie zgadzali, żeby zrozumieć ich punkt widzenia albo sprawdzić swój. Chciałem stworzyć merytokrację pomysłów. Innymi słowy, nie autokrację, w której przewodzę, a inni podążają za mną, i nie demokrację, w której punkt widzenia każdego jest równoważny, ale chciałem mieć merytokrację pomysłów, w której najlepsze pomysły wygrywają. Żeby to osiągnąć, zrozumiałem, że potrzeba radykalnej prawdomówności i radykalnej przejrzystości.
What I mean by radical truthfulness and radical transparency is people needed to say what they really believed and to see everything. And we literally tape almost all conversations and let everybody see everything, because if we didn't do that, we couldn't really have an idea meritocracy. In order to have an idea meritocracy, we have let people speak and say what they want. Just to give you an example, this is an email from Jim Haskel -- somebody who works for me -- and this was available to everybody in the company. "Ray, you deserve a 'D-' for your performance today in the meeting ... you did not prepare at all well because there is no way you could have been that disorganized." Isn't that great?
Rozumiem przez to, że ludzie mają mówić, co naprawdę myślą i wszystko widzieć. Nagrywaliśmy prawie wszystkie rozmowy i pokazywaliśmy je wszystkim, bo w przeciwnym razie, nie mogliśmy naprawdę mieć merytokracji pomysłów. Żeby mieć merytokrację pomysłów, musimy pozwolić ludziom powiedzieć to, co chcą. Podam wam przykład. To jest e-mail od Jima Haskela, mojego pracownika, i był on dostępny dla każdego w firmie. "Ray, zasługujesz na dwóję za wystąpienie na dzisiejszym zebraniu... Wcale się dobrze nie przygotowałeś, bo nie ma mowy, żebyś był aż tak niezorganizowany". Czy to nie wspaniałe?
(Laughter)
(Śmiech)
That's great. It's great because, first of all, I needed feedback like that. I need feedback like that. And it's great because if I don't let Jim, and people like Jim, to express their points of view, our relationship wouldn't be the same. And if I didn't make that public for everybody to see, we wouldn't have an idea meritocracy.
To świetne, bo przede wszystkim potrzebuję takich opinii, a poza tym dlatego, że jeśli nie pozwolę Jimowi i ludziom jak on wyrażać opinii, nasze relacje nie będą takie same. Gdybym tego wszystkim nie udostępnił, nie mielibyśmy merytokracji pomysłów.
So for that last 25 years that's how we've been operating. We've been operating with this radical transparency and then collecting these principles, largely from making mistakes, and then embedding those principles into algorithms. And then those algorithms provide -- we're following the algorithms in parallel with our thinking. That has been how we've run the investment business, and it's how we also deal with the people management.
Od 25 lat tak właśnie działamy. Działamy z taką radykalną przejrzystością i zbieramy później te zasady, głównie dzięki popełnianym błędom, i wbudowujemy te zasady w algorytmy. A później podążamy za tymi algorytmami równolegle z naszymi przemyśleniami. W ten sposób prowadzimy działalność inwestycyjną i zarządzamy ludźmi.
In order to give you a glimmer into what this looks like, I'd like to take you into a meeting and introduce you to a tool of ours called the "Dot Collector" that helps us do this. A week after the US election, our research team held a meeting to discuss what a Trump presidency would mean for the US economy. Naturally, people had different opinions on the matter and how we were approaching the discussion. The "Dot Collector" collects these views. It has a list of a few dozen attributes, so whenever somebody thinks something about another person's thinking, it's easy for them to convey their assessment; they simply note the attribute and provide a rating from one to 10. For example, as the meeting began, a researcher named Jen rated me a three -- in other words, badly --
Żeby pokazać wam, jak to działa, chciałbym zabrać was na zebranie i przedstawić wam narzędzie o nazwie "Zbieracz punktów", które nam pomaga. Tydzień po amerykańskich wyborach nasz zespół badawczy zebrał się, żeby przedyskutować, jak prezydent Trump wpłynie na gospodarkę USA. Oczywiście, ludzie mieli różne opinie na ten temat i na podejście do dyskusji. "Zbieracz punktów" gromadzi te opinie. Posiada listę kilkudziesięciu atrybutów, więc ilekroć ktoś myśli coś na temat czyjejś opinii, łatwo jest im dokonać oceny. Po prostu wybierają atrybut i dokonują oceny od 1 do 10. Na przykład, na początku zebrania badaczka o imieniu Jen oceniła mnie na 3, innymi słowy, źle.
(Laughter)
(Śmiech)
for not showing a good balance of open-mindedness and assertiveness. As the meeting transpired, Jen's assessments of people added up like this. Others in the room have different opinions. That's normal. Different people are always going to have different opinions. And who knows who's right? Let's look at just what people thought about how I was doing. Some people thought I did well, others, poorly. With each of these views, we can explore the thinking behind the numbers. Here's what Jen and Larry said. Note that everyone gets to express their thinking, including their critical thinking, regardless of their position in the company. Jen, who's 24 years old and right out of college, can tell me, the CEO, that I'm approaching things terribly.
Za brak równowagi między tolerancyjnością a asertywnością. Pod koniec zebrania tak wyglądała suma ocen innych ludzi dokonanych przez Jen. Inni w pomieszczeniu mają różne opinie. To normalne. Różni ludzie zawsze będą mieć różne opinie. Skąd wiadomo, kto ma rację? Spójrzmy na to, co ludzie myśleli na mój temat. Niektórzy myśleli, że poradziłem sobie dobrze, a inni, że słabo. Przy każdej opinii możemy dowiedzieć się, co kryje się za liczbami. Oto, co powiedzieli Jen i Larry. Zauważcie, że każdy ma możliwość wyrażenia swojego zdania, również krytycznego, bez względu na stanowisko w firmie. Jen, która ma 24 lata i jest zaraz po studiach, może mi, dyrektorowi naczelnemu, powiedzieć, że mam okropne podejście.
This tool helps people both express their opinions and then separate themselves from their opinions to see things from a higher level. When Jen and others shift their attentions from inputting their own opinions to looking down on the whole screen, their perspective changes. They see their own opinions as just one of many and naturally start asking themselves, "How do I know my opinion is right?" That shift in perspective is like going from seeing in one dimension to seeing in multiple dimensions. And it shifts the conversation from arguing over our opinions to figuring out objective criteria for determining which opinions are best.
To narzędzie pomaga ludziom zarówno wyrazić swoje opinie, a następnie odseparować się od własnych opinii, żeby spojrzeć na wszystko z wyższego poziomu. Kiedy Jen i inni przenoszą uwagę od wpisywania własnych opinii do spojrzenia na cały ekran, ich perspektywa się zmienia. Widzą własne opinie tylko jako jedne z wielu i naturalnie zaczynają się zastanawiać: "Skąd wiem, że moja opinia jest słuszna?". Ta zmiana w perspektywie to jak przejść od widzenia jednowymiarowego do widzenia wielowymiarowego. Przesuwa ona dyskusję od sprzeczania się o opinie do szukania obiektywnych kryteriów w ustaleniu, które opinie są najlepsze.
Behind the "Dot Collector" is a computer that is watching. It watches what all these people are thinking and it correlates that with how they think. And it communicates advice back to each of them based on that. Then it draws the data from all the meetings to create a pointilist painting of what people are like and how they think. And it does that guided by algorithms. Knowing what people are like helps to match them better with their jobs. For example, a creative thinker who is unreliable might be matched up with someone who's reliable but not creative. Knowing what people are like also allows us to decide what responsibilities to give them and to weigh our decisions based on people's merits. We call it their believability. Here's an example of a vote that we took where the majority of people felt one way ... but when we weighed the views based on people's merits, the answer was completely different. This process allows us to make decisions not based on democracy, not based on autocracy, but based on algorithms that take people's believability into consideration.
Za "Zbieraczem punktów" mamy komputer, który obserwuje, co wszyscy ci ludzie myślą i zestawia to ze sposobem, w jaki myślą. Potem daje każdemu na tej podstawie poradę. Następnie czerpie dane ze wszystkich zebrań, żeby stworzyć z punktów obraz tego, jacy są ludzie oraz jak myślą. Robi to w oparciu o algorytmy. Wiedza o tym, jacy są ludzie, pomaga lepiej przydzielać im zadania. Na przykład, kreatywny myśliciel, który jest nierzetelny, może być sparowany z kimś, kto jest rzetelny, ale mało kreatywny. Wiedza o tym, jacy są ludzie, także pozwala nam decydować, jakie obowiązki im powierzać oraz ważyć nasze decyzje na podstawie ludzkich zasług. Nazywamy to ich wiarygodnością. Oto przykład, jak głosowaliśmy, kiedy większość ludzi była określonego zdania, ale kiedy zważyliśmy ich poglądy na podstawie zasług, odpowiedź była zupełnie inna. Ten proces pozwala nam decydować nie w oparciu od demokrację czy autokrację, ale w oparciu o algorytmy, które uwzględniają ludzką wiarygodność.
Yup, we really do this.
Tak, naprawdę tak robimy.
(Laughter)
(Śmiech)
We do it because it eliminates what I believe to be one of the greatest tragedies of mankind, and that is people arrogantly, naïvely holding opinions in their minds that are wrong, and acting on them, and not putting them out there to stress test them. And that's a tragedy. And we do it because it elevates ourselves above our own opinions so that we start to see things through everybody's eyes, and we see things collectively. Collective decision-making is so much better than individual decision-making if it's done well. It's been the secret sauce behind our success. It's why we've made more money for our clients than any other hedge fund in existence and made money 23 out of the last 26 years.
Robimy tak, bo to likwiduje, moim zdaniem, największą tragedię ludzkości, a mianowicie to, że ludzie arogancko i naiwnie mają błędne opinie i działają według nich, nie poddając ich próbom. I to jest tragedia. Robimy tak, bo wynosi nas to ponad nasze własne opinie, zaczynamy widzieć oczami innych i widzimy wszystko wspólnie. Wspólne decydowanie jest o wiele lepsze niż decydowanie w pojedynkę, jeśli zrobi się to dobrze. Był to sekretny składnik naszego sukcesu. To dlatego zarobiliśmy więcej dla naszych klientów niż jakikolwiek inny fundusz inwestycyjny i zarabialiśmy przez 23 lata spośród ostatnich 26.
So what's the problem with being radically truthful and radically transparent with each other? People say it's emotionally difficult. Critics say it's a formula for a brutal work environment. Neuroscientists tell me it has to do with how are brains are prewired. There's a part of our brain that would like to know our mistakes and like to look at our weaknesses so we could do better. I'm told that that's the prefrontal cortex. And then there's a part of our brain which views all of this as attacks. I'm told that that's the amygdala. In other words, there are two you's inside you: there's an emotional you and there's an intellectual you, and often they're at odds, and often they work against you. It's been our experience that we can win this battle. We win it as a group. It takes about 18 months typically to find that most people prefer operating this way, with this radical transparency than to be operating in a more opaque environment. There's not politics, there's not the brutality of -- you know, all of that hidden, behind-the-scenes -- there's an idea meritocracy where people can speak up. And that's been great. It's given us more effective work, and it's given us more effective relationships. But it's not for everybody. We found something like 25 or 30 percent of the population it's just not for. And by the way, when I say radical transparency, I'm not saying transparency about everything. I mean, you don't have to tell somebody that their bald spot is growing or their baby's ugly. So, I'm just talking about --
Jaki jest więc problem z radykalną prawdomównością i przejrzystością? Ludzie mówią, że to emocjonalnie trudne. Krytycy twierdzą, że to recepta na brutalne środowisko pracy. Neurobiolodzy mówią mi, że wiąże się to z budową naszych mózgów. Jedna część mózgu chciałaby poznać nasze błędy i słabości, żebyśmy je poprawili. To kora przedczołowa. Inna część mózgu traktuje to jak atak. To ciało migdałowate. Innymi słowy, nasze ja składa się z emocjonalnego oraz intelektualnego ja, które często są w sprzeczności, i często działają przeciwko tobie. Nasze doświadczenie sugeruje, że możemy wygrać tę walkę. Wygrywamy ją jako grupa. Zwykle około 18 miesięcy zajmuje ludziom stwierdzenie, że wolą działać w ten sposób, z taką radykalną przejrzystością, niż działać w mniej jasnym otoczeniu. Nie ma tam polityki, nie ma tam brutalności, no wiecie, całej tej "zakulisowości". Jest merytokracja pomysłów, w której ludzie mogą się wypowiadać. I to jest wspaniałe. Dało nam to efektywniejszą pracę, a także efektywniejsze relacje. Ale to nie dla każdego. Stwierdziliśmy, że to nie jest dla jakiś 25 do 30 procent ludzi A przy okazji, kiedy mówię o radykalnej przejrzystości, nie mam na myśli przejrzystości na każdy temat. To znaczy, nie trzeba nikomu mówić, że jego łysina się powiększa albo że ma brzydkie dziecko. Mam na myśli tylko...
(Laughter)
(Śmiech)
talking about the important things. So --
istotne rzeczy. A więc...
(Laughter)
(Śmiech)
So when you leave this room, I'd like you to observe yourself in conversations with others. Imagine if you knew what they were really thinking, and imagine if you knew what they were really like ... and imagine if they knew what you were really thinking and what were really like. It would certainly clear things up a lot and make your operations together more effective. I think it will improve your relationships. Now imagine that you can have algorithms that will help you gather all of that information and even help you make decisions in an idea-meritocratic way. This sort of radical transparency is coming at you and it is going to affect your life. And in my opinion, it's going to be wonderful. So I hope it is as wonderful for you as it is for me.
Chciałbym, żebyście po wyjściu stąd, obserwowali siebie w rozmowach z innymi. Wyobraźcie sobie, że wiecie, co oni naprawdę myślą, jacy są naprawdę... i wyobraźcie sobie, że wiecie, co wy sami naprawdę myślicie... i jacy jesteście. To na pewno by wiele rozjaśniło i uskuteczniłoby wasze wspólne działania. Myślę, że polepszyłoby to wasze relacje. Teraz wyobraźcie sobie, że macie dostęp do algorytmów, które pomogą wam zebrać wszystkie te informacje i nawet podjąć decyzje w sposób merytokratyczny. Ten rodzaj radykalnej przejrzystości zbliża się do was i wpłynie na wasze życie. Według mnie będzie wspaniale. Mam nadzieję, że będzie to dla was tak wspaniałe jak jest dla mnie.
Thank you very much.
Dziękuję bardzo.
(Applause)
(Brawa)