Das ist ein Graph über die Wirtschaftsgeschichte der Menschheit.
This is a graph that represents the economic history of human civilization.
[Pro-Kopf-BIP der Welt in den letzten 200.000 Jahren]
[World GDP per capita over the last 200,000 years]
Da passiert nicht viel, oder? Im größten Teil der Menschheitsgeschichte lebte so ziemlich jeder vom Äquivalent eines Dollars pro Tag und das hat sich kaum verändert. Doch dann geschah etwas Außergewöhnliches: die wissenschaftliche und die industrielle Revolution. Der im Grunde flache Graph von eben sieht jetzt so aus. Der Graph bedeutet: Bezüglich der Möglichkeiten, die Welt zu verändern, erleben wir in der Menschheitsgeschichte eine beispiellose Zeit. Unser ethisches Verständnis hinkt dieser Tatsache wohl noch hinterher. Wissenschaftliche und industrielle Revolution wandelten unser Verständnis der Welt und unsere Fähigkeit, sie zu ändern. Wir brauchen eine ethische Revolution, um herauszufinden, wie wir diese Fülle an Ressourcen nutzen können, um die Welt zu verbessern.
There's not much going on, is there. For the vast majority of human history, pretty much everyone lived on the equivalent of one dollar per day, and not much changed. But then, something extraordinary happened: the Scientific and Industrial Revolutions. And the basically flat graph you just saw transforms into this. What this graph means is that, in terms of power to change the world, we live in an unprecedented time in human history, and I believe our ethical understanding hasn't yet caught up with this fact. The Scientific and Industrial Revolutions transformed both our understanding of the world and our ability to alter it. What we need is an ethical revolution so that we can work out how do we use this tremendous bounty of resources to improve the world.
In den letzten zehn Jahren entwickelten Kollegen und ich ein Philosophie- und Forschungsprogramm namens “Effektiver Altruismus”. Es will auf die radikalen Veränderungen der Welt reagieren, nutzt Beweise und durchdachte Argumente, um folgende Frage zu beantworten: Wie können wir am meisten Gutes tun? Bei der Behandlung dieser Frage ergeben sich viele Themen: Soll man Gutes tun über Wohltätigkeit, Berufslaufbahn oder politisches Engagement? Welche Programme soll man nutzen, mit wem zusammenarbeiten? Doch hier möchte ich über das grundlegendste Problem sprechen. Welches von all den Problemen dieser Welt sollten wir zuerst zu lösen versuchen? Ich gebe Ihnen jetzt Optionen zu dieser Frage und die sind sehr einfach. Ein Problem hat höhere Priorität, je größer und lösbarer es ist und je weniger es beachtet wird. Größer ist besser, weil wir mehr gewinnen, wenn wir dieses Problem lösen. Lösbarer ist besser, weil sich das Problem schneller oder billiger lösen lässt. Und am subtilsten: Weniger beachtet ist besser aufgrund sinkender Erträge. Je mehr Ressourcen schon in die Problemlösung investiert wurden, desto schwerer ist es, noch Fortschritte zu machen. Diese Optionen möchte ich Ihnen an die Hand geben, sodass Sie selbst überlegen können, was die globalen Prioritäten sind. Doch ich und andere Vertreter des Effektiven Altruismus haben uns unter diesen Optionen auf drei besonders wichtige moralische Themen geeinigt.
For the last 10 years, my colleagues and I have developed a philosophy and research program that we call effective altruism. It tries to respond to these radical changes in our world, uses evidence and careful reasoning to try to answer this question: How can we do the most good? Now, there are many issues you've got to address if you want to tackle this problem: whether to do good through your charity or your career or your political engagement, what programs to focus on, who to work with. But what I want to talk about is what I think is the most fundamental problem. Of all the many problems that the world faces, which should we be focused on trying to solve first? Now, I'm going to give you a framework for thinking about this question, and the framework is very simple. A problem's higher priority, the bigger, the more easily solvable and the more neglected it is. Bigger is better, because we've got more to gain if we do solve the problem. More easily solvable is better because I can solve the problem with less time or money. And most subtly, more neglected is better, because of diminishing returns. The more resources that have already been invested into solving a problem, the harder it will be to make additional progress. Now, the key thing that I want to leave with you is this framework, so that you can think for yourself what are the highest global priorities. But I and others in the effective altruism community have converged on three moral issues that we believe are unusually important, score unusually well in this framework.
Das erste ist globale Gesundheit. Dieses Thema ist absolut lösbar. Wir haben hier eine fantastische Erfolgsbilanz. Die Sterberaten bei Masern, Malaria und Durchfallerkrankungen sind um über 70 Prozent gefallen. Im Jahr 1980 haben wir die Pocken ausgerottet. Vermutlich wurden so ungefähr 60 Millionen Leben gerettet. Das sind mehr Leben, als wir in der gleichen Zeit durch Weltfrieden gerettet hätten. Nach aktuellen Schätzungen können wir mithilfe insektizidbehandelter Moskitonetze für wenige Tausend Dollar Leben retten. Eine fantastische Gelegenheit.
First is global health. This is supersolvable. We have an amazing track record in global health. Rates of death from measles, malaria, diarrheal disease are down by over 70 percent. And in 1980, we eradicated smallpox. I estimate we thereby saved over 60 million lives. That's more lives saved than if we'd achieved world peace in that same time period. On our current best estimates, we can save a life by distributing long-lasting insecticide-treated bed nets for just a few thousand dollars. This is an amazing opportunity.
Die zweitgrößte Priorität ist Massentierhaltung. Dieses Thema wird kaum beachtet. Pro Jahr werden 50 Milliarden Landtiere für Nahrung verwendet; die überwältigende Mehrheit stammt aus Massentierhaltung und lebt in entsetzlichem Elend. Sie gehören wohl zu den bedauernswertesten Lebewesen der Erde und in vielen Fällen könnten wir ihr Leben für wenige Cents erheblich verbessern. Doch das wird kaum beachtet. Es gibt 3.000 Mal mehr Tiere in Massentierhaltung als streunende Haustiere. Trotzdem wird fünfzig Mal mehr Geld für streunende Haustiere gespendet. Hier könnten also zusätzliche Ressourcen wirklich einiges bewirken.
The second big priority is factory farming. This is superneglected. There are 50 billion land animals used every year for food, and the vast majority of them are factory farmed, living in conditions of horrific suffering. They're probably among the worst-off creatures on this planet, and in many cases, we could significantly improve their lives for just pennies per animal. Yet this is hugely neglected. There are 3,000 times more animals in factory farms than there are stray pets, but yet, factory farming gets one fiftieth of the philanthropic funding. That means additional resources in this area could have a truly transformative impact.
Das dritte Thema möchte ich besonders hervorheben. Es ist die Kategorie existenzieller Risiken: Ereignisse wie ein Atomkrieg oder eine globale Pandemie, die die Zivilisation endgültig scheitern lassen oder sogar zum Aussterben der Menschheit führen könnten. Lassen Sie mich erklären, warum das unter diesen Optionen solche Priorität hat.
Now the third area is the one that I want to focus on the most, and that's the category of existential risks: events like a nuclear war or a global pandemic that could permanently derail civilization or even lead to the extinction of the human race. Let me explain why I think this is such a big priority in terms of this framework.
Zum Ersten: das Ausmaß. Wie schlimm wäre eine wahrhaft existenzielle Katastrophe? Sie würde den Tod aller sieben Milliarden Menschen auf diesem Planeten bedeuten, also Ihren und den derer, die Sie kennen und lieben. Das ist eine Tragödie unvorstellbaren Ausmaßes. Aber das ist noch nicht alles: Sie würde auch das Potential der Menschheit beeinträchtigen, und das ist meiner Meinung nach enorm. Die Menschheit gibt es seit ungefähr 200.000 Jahren. Nach dem Beispiel einer typischen Säugetierart würde sie etwa zwei Millionen Jahre bestehen. Wäre die Menschheit ein einzelnes Individuum, wäre sie heute erst zehn Jahre alt. Dabei sind Menschen keine typische Säugetierart: Es gibt keinen Grund, warum wir nach nur zwei Millionen Jahren aussterben sollten. Die Erde bleibt noch weitere 500 Millionen Jahre bewohnbar. Würden wir einst zu den Sternen aufbrechen, könnte die Zivilisation noch Milliarden Jahre fortdauern.
First, size. How bad would it be if there were a truly existential catastrophe? Well, it would involve the deaths of all seven billion people on this planet and that means you and everyone you know and love. That's just a tragedy of unimaginable size. But then, what's more, it would also mean the curtailment of humanity's future potential, and I believe that humanity's potential is vast. The human race has been around for about 200,000 years, and if she lives as long as a typical mammalian species, she would last for about two million years. If the human race were a single individual, she would be just 10 years old today. And what's more, the human race isn't a typical mammalian species. There's no reason why, if we're careful, we should die off after only two million years. The earth will remain habitable for 500 million years to come. And if someday, we took to the stars, the civilization could continue for billions more.
Ich glaube also, die Zukunft wird gewaltig, aber wird sie auch gut? Ist es die menschliche Spezies wert, zu überleben? Wir hören zwar ständig, dass alles immer schlimmer wird, aber wenn wir Langzeittrends betrachten, hat sich die Lage drastisch verbessert. Da ist zum Beispiel die Lebenserwartung. Da ist der Anteil Menschen, die nicht in extremer Armut leben. Da ist die Zahl der Länder, die Homosexualität entkriminalisieren. Da ist die Zahl der Länder, die zu Demokratien wurden. Wenn wir also in die Zukunft schauen, könnte noch viel mehr erreichbar sein. Wir sind dann so viel reicher, wir können so viele heute unlösbare Probleme lösen.
So I think the future is going to be really big, but is it going to be good? Is the human race even really worth preserving? Well, we hear all the time about how things have been getting worse, but I think that when we take the long run, things have been getting radically better. Here, for example, is life expectancy over time. Here's the proportion of people not living in extreme poverty. Here's the number of countries over time that have decriminalized homosexuality. Here's the number of countries over time that have become democratic. Then, when we look to the future, there could be so much more to gain again. We'll be so much richer, we can solve so many problems that are intractable today.
Wenn dies ein Graph des bisherigen menschlichen Fortschritts und Erfolgs im Lauf der Zeit ist, könnte der künftige Fortschritt so aussehen. Er ist gigantisch.
So if this is kind of a graph of how humanity has progressed in terms of total human flourishing over time, well, this is what we would expect future progress to look like. It's vast.
Ab hier würden wir etwa erwarten, dass niemand mehr in extremer Armut lebt. Ab hier würden wir erwarten, dass es jedem besser geht als der reichsten heute lebenden Person. Vielleicht würden wir hier die fundamentalen Naturgesetze der Welt entdecken. Vielleicht würden wir hier ein ganz neue Kunstform entdecken –- eine Art von Musik, für die uns heute noch das Gehör fehlt. Das sind nur die nächsten Jahrtausende. Danach können wir uns weitere Gipfel menschlicher Errungenschaften kaum mehr vorstellen.
Here, for example, is where we would expect no one to live in extreme poverty. Here is where we would expect everyone to be better off than the richest person alive today. Perhaps here is where we would discover the fundamental natural laws that govern our world. Perhaps here is where we discover an entirely new form of art, a form of music we currently lack the ears to hear. And this is just the next few thousand years. Once we think past that, well, we can't even imagine the heights that human accomplishment might reach.
Die Zukunft könnte also gigantisch und sehr gut sein, aber könnten wir dieses Potenzial auch verlieren? Ich denke, leider schon. Die letzten 200 Jahre brachten unglaublichen technischen Fortschritt, aber auch das globale Risiko eines Atomkriegs und die Möglichkeit extremen Klimawandels. Beim Blick auf kommende Jahrhunderte sollten wir das gleiche Muster erwarten. Am Horizont zeigen sich mächtige Technologien. Mit synthetischer Biologie könnten wir Viren erschaffen, die beispiellos ansteckend und tödlich sind. Mit Hilfe von Geoengineering könnten wir das Klima der Erde drastisch verändern. Durch künstliche Intelligenz können wir intelligente Wesen schaffen, die mehr können als wir. Ich sage nicht, dass diese Risiken wahrscheinlich sind, aber wenn so viel auf dem Spiel steht, fallen auch kleine Wahrscheinlichkeiten ins Gewicht. Stellen Sie sich vor, Sie besteigen etwas nervös ein Flugzeug und der Pilot beruhigt Sie mit den Worten: „Keine Sorge, die Chance eines Absturzes liegt nur bei eins zu tausend.“ Würde Sie das beruhigen? Deshalb glaube ich, dass der Erhalt der Zukunft der Menschheit derzeit eines unserer wichtigsten Probleme ist.
So the future could be very big and it could be very good, but are there ways we could lose this value? And sadly, I think there are. The last two centuries brought tremendous technological progress, but they also brought the global risks of nuclear war and the possibility of extreme climate change. When we look to the coming centuries, we should expect to see the same pattern again. And we can see some radically powerful technologies on the horizon. Synthetic biology might give us the power to create viruses of unprecedented contagiousness and lethality. Geoengineering might give us the power to dramatically alter the earth's climate. Artificial intelligence might give us the power to create intelligent agents with abilities greater than our own. Now, I'm not saying that any of these risks are particularly likely, but when there's so much at stake, even small probabilities matter a great deal. Imagine if you're getting on a plane and you're kind of nervous, and the pilot reassures you by saying, "There's only a one-in-a-thousand chance of crashing. Don't worry." Would you feel reassured? For these reasons, I think that preserving the future of humanity is among the most important problems that we currently face.
Aber bleiben wir bei dieser Option. Wird das Problem wenig beachtet? Ich denke ja. Denn Probleme, die zukünftige Generationen betreffen, werden oft kaum beachtet. Warum? Weil zukünftige Menschen nicht an heutigen Märkten teilhaben. Sie haben kein Mitspracherecht. Es gibt keine Lobby für die Interessen derer, die im Jahr 2300 geboren werden. Sie können unsere heutigen Entscheidungen nicht beeinflussen. Sie haben keine Stimme. Deshalb verschwenden wir kaum Energie auf folgende Themen: Nichtverbreitung von Atomwaffen, Geoengineering, biologische Risiken, die Sicherheit künstlicher Intelligenz. Für all diese Bereiche werden jährlich nur einige Dutzend Millionen Dollar bereitgestellt. Das ist ein Bruchteil im Vergleich zu den 390 Milliarden Dollar, die in den USA insgesamt gespendet werden.
But let's keep using this framework. Is this problem neglected? And I think the answer is yes, and that's because problems that affect future generations are often hugely neglected. Why? Because future people don't participate in markets today. They don't have a vote. It's not like there's a lobby representing the interests of those born in 2300 AD. They don't get to influence the decisions we make today. They're voiceless. And that means we still spend a paltry amount on these issues: nuclear nonproliferation, geoengineering, biorisk, artificial intelligence safety. All of these receive only a few tens of millions of dollars of philanthropic funding every year. That's tiny compared to the 390 billion dollars that's spent on US philanthropy in total.
Der letzte Aspekt unserer Option: Ist das lösbar? Ich glaube ja. Sie können dazu mit Ihrem Geld beitragen, Ihrer beruflichen Laufbahn oder politischem Engagement. Mit Ihrem Geld können Sie entsprechende Organisationen unterstützen: etwa die Nuclear Threat Initiative, die gegen die Nutzung von Atomwaffen in Krisensituationen kämpft, oder das Blue Ribbon Panel, das sich für die Schadensminimierung bei natürlichen und vom Menschen verursachten Pandemien einsetzt, oder das Center for Human-Compatible AI, das mit technischer Forschung KI-Systeme sicher und zuverlässig machen will. Durch politisches Engagement können Sie Kandidaten wählen, denen diese Risiken wichtig sind, und mehr internationale Kooperation unterstützen. Auch im Beruf haben Sie eine Reihe Möglichkeiten. Natürlich brauchen wir Wissenschaftler, Politiker, Organisationsleiter, aber ebenso nötig brauchen wir Buchhalter, Manager und Assistenten, die für solche Organisationen arbeiten.
The final aspect of our framework then: Is this solvable? I believe it is. You can contribute with your money, your career or your political engagement. With your money, you can support organizations that focus on these risks, like the Nuclear Threat Initiative, which campaigns to take nuclear weapons off hair-trigger alert, or the Blue Ribbon Panel, which develops policy to minimize the damage from natural and man-made pandemics, or the Center for Human-Compatible AI, which does technical research to ensure that AI systems are safe and reliable. With your political engagement, you can vote for candidates that care about these risks, and you can support greater international cooperation. And then with your career, there is so much that you can do. Of course, we need scientists and policymakers and organization leaders, but just as importantly, we also need accountants and managers and assistants to work in these organizations that are tackling these problems.
Das Forschungsprogramm des Effektiven Altruismus steckt noch in den Kinderschuhen und es gibt noch so viel, was wir nicht wissen. Aber selbst mit unserem heutigen Wissen wird klar, dass wir durch fundiertes Nachdenken und Fokussieren auf große, lösbare und unbeachtete Probleme auf dieser Welt für Tausende weitere Jahre enorm viel verändern können.
Now, the research program of effective altruism is still in its infancy, and there's still a huge amount that we don't know. But even with what we've learned so far, we can see that by thinking carefully and by focusing on those problems that are big, solvable and neglected, we can make a truly tremendous difference to the world for thousands of years to come.
Vielen Dank.
Thank you.
(Applaus)
(Applause)