Chris Anderson: Elon Musk, great to see you. How are you?
Chris Anderson: Elon Musk, é um prazer ver-te. Como vais? Elon Musk: Bem. E tu?
Elon Musk: Good. How are you?
CA: Estamos aqui na Gigafactory Texas, na véspera da sua abertura.
CA: We're here at the Texas Gigafactory the day before this thing opens. It's been pretty crazy out there. Thank you so much for making time on a busy day.
É uma loucura ali fora. Obrigado por teres tempo num dia tão atarefado.
I would love you to help us, kind of, cast our minds, I don't know, 10, 20, 30 years into the future. And help us try to picture what it would take to build a future that's worth getting excited about.
Gostava que nos ajudasses a transportar o nosso espírito para daqui a 10, 20, 30 anos. E nos ajudasses a imaginar o que será preciso para criar um futuro que nos faça ficarmos entusiasmados.
The last time you spoke at TED, you said that that was really just a big driver. You know, you can talk about lots of other reasons to do the work you're doing, but fundamentally, you want to think about the future and not think that it sucks.
Da última vez que falaste na TED, disseste que isso seria um impulso enorme. Podes falar de muitas outras razões para fazer o trabalho que fazes, mas, fundamentalmente, queres pensar no futuro e não pensar que seja uma chatice.
EM: Yeah, absolutely. I think in general, you know, there's a lot of discussion of like, this problem or that problem. And a lot of people are sad about the future and they're ... Pessimistic. And I think ... this is ... This is not great. I mean, we really want to wake up in the morning and look forward to the future. We want to be excited about what's going to happen. And life cannot simply be about sort of, solving one miserable problem after another.
EM: Exatamente. Penso que, de forma geral, há muita discussão sobre este problema ou aquele problema. E muitas pessoas sentem-se tristes com o futuro e sentem-se... pessimistas. Eu acho que isso não é muito bom. O que nós queremos realmente é acordar de manhã e olhar para o futuro com expetativa. Queremos sentir-nos entusiasmados com o que vai acontecer. A vida não se pode reduzir a resolver problemas lixados uns atrás dos outros.
CA: So if you look forward 30 years, you know, the year 2050 has been labeled by scientists as this, kind of, almost like this doomsday deadline on climate. There's a consensus of scientists, a large consensus of scientists, who believe that if we haven't completely eliminated greenhouse gases or offset them completely by 2050, effectively we're inviting climate catastrophe. Do you believe there is a pathway to avoid that catastrophe? And what would it look like?
CA: Então, se olharmos para daqui a 30 anos, o ano de 2050 tem sido designado pelos cientistas como uma espécie de dia de juízo final quanto ao clima. Há um consenso dos cientistas um consenso enorme dos cientistas, que pensam que, se não eliminarmos totalmente os gases com efeito de estufa ou os compensarmos totalmente, até 2050, estamos a convidar a catástrofe climática. Achas que há uma via para evitar esta catástrofe? Como é que isso será?
EM: Yeah, so I am not one of the doomsday people, which may surprise you. I actually think we're on a good path. But at the same time, I want to caution against complacency. So, so long as we are not complacent, as long as we have a high sense of urgency about moving towards a sustainable energy economy, then I think things will be fine. So I can't emphasize that enough, as long as we push hard and are not complacent, the future is going to be great. Don't worry about it. I mean, worry about it, but if you worry about it, ironically, it will be a self-unfulfilling prophecy.
EM: Eu não pertenço ao grupo de pessoas do dia do juízo final, o que pode surpreender-te. Penso que estamos no bom caminho. Mas, ao mesmo tempo, acho que é preciso cautela contra a complacência. Desde que não sejamos complacentes, desde que tenhamos um alto sentimento da urgência de passarmos para uma economia energética sustentável penso que as coisas ficarão numa boa. Não me canso de sublinhar isto, desde que trabalhemos com afinco e não sejamos complacentes, o futuro vai ser ótimo. Não te preocupes com isso, ou antes, preocupa-te mas, se te preocupares, ironicamente, vai ser uma profecia que não se cumprirá.
So, like, there are three elements to a sustainable energy future. One is of sustainable energy generation, which is primarily wind and solar. There's also hydro, geothermal, I'm actually pro-nuclear. I think nuclear is fine. But it's going to be primarily solar and wind, as the primary generators of energy. The second part is you need batteries to store the solar and wind energy because the sun doesn't shine all the time, the wind doesn't blow all the time. So it's a lot of stationary battery packs. And then you need electric transport. So electric cars, electric planes, boats. And then ultimately, it’s not really possible to make electric rockets, but you can make the propellant used in rockets using sustainable energy.
Há três elementos para um futuro energético sustentável. Um é uma produção energética sustentável, que é sobretudo, a eólica e a solar. Também há a hídrica e a geotérmica. Eu sou a favor da nuclear. Penso que a nuclear é ótima. Mas, primeiro, vão ser a solar e a eólica, como principais geradoras de energia. Em segundo lugar, precisamos de baterias para armazenar a energia solar e eólica porque o Sol não está sempre a brilhar, o vento não está sempre a soprar. Portanto, é uma enorme quantidade de baterias. Depois, precisamos de transportes elétricos. Viaturas elétricas, aviões elétricos, navios elétricos. Por fim, não é possível fazer foguetões elétricos, mas podemos fazer o propulsor usado nos foguetões utilizando energia sustentável.
So ultimately, we can have a fully sustainable energy economy. And it's those three things: solar/wind, stationary battery pack, electric vehicles.
No final, podemos ter uma economia energética totalmente sustentável. São estas três coisas: solar/eólica, baterias de armazenagem, veículos elétricos.
So then what are the limiting factors on progress? The limiting factor really will be battery cell production. So that's going to really be the fundamental rate driver. And then whatever the slowest element of the whole lithium-ion battery cells supply chain, from mining and the many steps of refining to ultimately creating a battery cell and putting it into a pack, that will be the limiting factor on progress towards sustainability.
Quais são os fatores limitativos para o progresso? O real fator limitativo será a produção das baterias. Isso vai ser realmente o fator fundamental. E depois há o elemento mais lento de toda a cadeia de produção de baterias de iões de lítio, da mineração e das muitas fases de refinação à criação final duma célula de bateria e à sua colocação numa pilha que será o fator limitativo do progresso para a sustentabilidade.
CA: All right, so we need to talk more about batteries, because the key thing that I want to understand, like, there seems to be a scaling issue here that is kind of amazing and alarming. You have said that you have calculated that the amount of battery production that the world needs for sustainability is 300 terawatt hours of batteries. That's the end goal?
CA: OK, então precisamos de falar mais sobre baterias, porque aquilo que eu queria perceber é que parece haver aqui uma questão de dimensão que é um tanto espantosa e alarmante. Disseste que calculaste que a quantidade da produção de baterias de que o mundo precisa para a sustentabilidade é de 300 terawatt-hora de baterias. É esse o objetivo final?
EM: Very rough numbers, and I certainly would invite others to check our calculations because they may arrive at different conclusions. But in order to transition, not just current electricity production, but also heating and transport, which roughly triples the amount of electricity that you need, it amounts to approximately 300 terawatt hours of installed capacity.
EM: Isso são números aproximados, e claro que convido outras pessoas a verificar os nossos cálculos porque podem chegar a diferentes conclusões. Mas, para a transição, não apenas para produção da eletricidade atual, mas também para aquecimento e transportes o que quase triplica a quantidade de eletricidade de que precisamos, atinge cerca de 300 terawatt-hora de capacidade instalada.
CA: So we need to give people a sense of how big a task that is. I mean, here we are at the Gigafactory. You know, this is one of the biggest buildings in the world. What I've read, and tell me if this is still right, is that the goal here is to eventually produce 100 gigawatt hours of batteries here a year eventually.
CA: Então, é preciso dar às pessoas a ideia da dimensão desta tarefa. Estamos aqui na Gigafactory, é um dos maiores edifícios do mundo. O que eu li — e diz-me se isto ainda está certo — é que o objetivo é acabar por produzir 100 gigawatt-hora de baterias, por ano.
EM: We will probably do more than that, but yes, hopefully we get there within a couple of years.
EM: Provavelmente, faremos mais do que isso mas, sim, esperamos chegar lá dentro de alguns anos.
CA: Right. But I mean, that is one --
CA: OK. Mas, isso é um...
EM: 0.1 terrawat hours.
EM: Um décimo de terawatt-hora.
CA: But that's still 1/100 of what's needed. How much of the rest of that 100 is Tesla planning to take on let's say, between now and 2030, 2040, when we really need to see the scale up happen?
CA: Mas continua a ser um centésimo do que precisamos. Que parte do restante está a Tesla a planear produzir, entre hoje e daqui a 2030, 2040, quando precisarmos de ver a quantidade a aumentar?
EM: I mean, these are just guesses. So please, people shouldn't hold me to these things. It's not like this is like some -- What tends to happen is I'll make some like, you know, best guess and then people, in five years, there’ll be some jerk that writes an article: "Elon said this would happen, and it didn't happen. He's a liar and a fool." It's very annoying when that happens. So these are just guesses, this is a conversation.
EM: Isto são apenas suposições. Por favor, as pessoas não devem responsabilizar-me por essas coisas. Isto não é como... O que costuma acontecer é que eu posso fazer os melhores palpites e depois, daqui a cinco anos, há um palhaço qualquer que escreve um artigo a dizer: “Elon disse que ia acontecer isto, e não aconteceu. “É um mentiroso e um idiota.” Quando acontece uma coisa dessas é muito aborrecido. Portanto, isto são apenas palpites, isto é uma conversa.
CA: Right.
CA: Certo.
EM: I think Tesla probably ends up doing 10 percent of that. Roughly.
EM. Eu acho que a Tesla provavelmente acaba por fazer 10% disso. Mais ou menos.
CA: Let's say 2050 we have this amazing, you know, 100 percent sustainable electric grid made up of, you know, some mixture of the sustainable energy sources you talked about. That same grid probably is offering the world really low-cost energy, isn't it, compared with now. And I'm curious about like, are people entitled to get a little bit excited about the possibilities of that world?
CA: Digamos que, em 2050, teremos esta rede elétrica 100% sustentável constituída por uma certa mistura das fontes de energia sustentável de que falaste. Essa mesma rede, provavelmente, está a oferecer ao mundo uma energia a baixo custo, em comparação com a nossa, não é? Sinto curiosidade em saber se as pessoas se devem sentir entusiasmadas com as possibilidades deste mundo.
EM: People should be optimistic about the future. Humanity will solve sustainable energy. It will happen if we, you know, continue to push hard, the future is bright and good from an energy standpoint. And then it will be possible to also use that energy to do carbon sequestration. It takes a lot of energy to pull carbon out of the atmosphere because in putting it in the atmosphere it releases energy. So now, you know, obviously in order to pull it out, you need to use a lot of energy. But if you've got a lot of sustainable energy from wind and solar, you can actually sequester carbon. So you can reverse the CO2 parts per million of the atmosphere and oceans. And also you can really have as much fresh water as you want. Earth is mostly water. We should call Earth “Water.” It's 70 percent water by surface area. Now most of that’s seawater, but it's like we just happen to be on the bit that's land.
EM: As pessoas devem ser otimistas em relação ao futuro. A Humanidade vai resolver a energia sustentável. Isso acontecerá se nós continuarmos a esforçar-nos, o futuro é brilhante e bom do ponto de vista da energia. Então será possível usar também essa energia para sequestrar o carbono. É necessária muita energia para retirar o carbono da atmosfera, porque a sua colocação na atmosfera liberta energia. Agora, obviamente, para o extrair da atmosfera, é preciso usar muita energia. Mas se tivermos muita energia sustentável, eólica e solar, podemos sequestrar o carbono. Podemos reverter as partes de CO2 por milhão, da atmosfera e oceanos. E também podemos ter tanta água potável quanto queiramos. A Terra é sobretudo água. Devíamos chamar “Água” à Terra. São 70% de água na área à superfície. A maior parte é água do mar, mas é como se estivéssemos na parte que é terra.
CA: And with energy, you can turn seawater into --
CA: E, com energia, podemos transformar a água do mar
EM: Yes.
em água para irrigação ou qualquer água que precisemos.
CA: Irrigating water or whatever water you need.
EM: A um custo muito baixo.
EM: At very low cost. Things will be good.
As coisas vão correr bem.
CA: Things will be good. And also, there's other benefits to this non-fossil fuel world where the air is cleaner --
CA: Vão correr bem. Também há outros benefícios para este mundo sem combustíveis fósseis em que o ar será mais limpo.
EM: Yes, exactly. Because, like, when you burn fossil fuels, there's all these side reactions and toxic gases of various kinds. And sort of little particulates that are bad for your lungs. Like, there's all sorts of bad things that are happening that will go away. And the sky will be cleaner and quieter. The future's going to be good.
EM: Sim, exatamente. Porque, quando queimamos combustíveis fósseis, há toda uma série de reações e gases tóxicos de diversos tipos. E pequenas partículas que são más para os pulmões. Há todo o tipo de coisas más que acontecem e que vão desaparecer. E o céu ficará mais limpo e mais calmo. O futuro vai ser bom. CA: Agora gostava de mudar para a inteligência artificial.
CA: I want us to switch now to think a bit about artificial intelligence. But the segue there, you mentioned how annoying it is when people call you up for bad predictions in the past. So I'm possibly going to be annoying now, but I’m curious about your timelines and how you predict and how come some things are so amazingly on the money and some aren't. So when it comes to predicting sales of Tesla vehicles, for example, you've kind of been amazing, I think in 2014 when Tesla had sold that year 60,000 cars, you said, "2020, I think we will do half a million a year."
Mas, antes disso, tu referiste como é aborrecido quando as pessoas nos lembram as más previsões do passado. Por isso, talvez te vá aborrecer, mas gostava de conhecer os teus calendários e como prevês e como é que algumas coisas dependem tanto do dinheiro e outras não. Quando se trata de prever vendas dos veículos Tesla, por exemplo, vocês têm sido espantosos. Penso em 2014, ano em que a Tesla tinha vendido 60 000 carros, disseste: “Penso que, em 2020, faremos meio milhão por ano.”
EM: Yeah, we did almost exactly a half million.
EM: Sim, fizemos quase exatamente meio milhão.
CA: You did almost exactly half a million. You were scoffed in 2014 because no one since Henry Ford, with the Model T, had come close to that kind of growth rate for cars. You were scoffed, and you actually hit 500,000 cars and then 510,000 or whatever produced.
CA: Fizeram quase exatamente meio milhão. Fizeram troça de vocês, em 2014, porque ninguém, desde Henry Ford, com o Modelo T, se aproximara desse tipo de crescimento para automóveis. Fizeram troça de vocês mas vocês chegaram aos 500 000 carros e depois aos 510 000, ou o que fosse.
But five years ago, last time you came to TED, I asked you about full self-driving, and you said, “Yeah, this very year, I'm confident that we will have a car going from LA to New York without any intervention."
Mas há cinco anos, a última vez que vieste ao TED, eu falei-te do carro autónomo e tu disseste: “Sim, estou confiante “de que este ano vamos ter um carro que vai de LA a Nova Iorque “sem qualquer intervenção.”
EM: Yeah, I don't want to blow your mind, but I'm not always right. CA: (Laughs)
EM: Pois, não quero dar-te volta à cabeça mas nem sempre acerto. CA: Qual é a diferença entre essas duas coisas?
What's the difference between those two? Why has full self-driving in particular been so hard to predict?
Porque é que a condução autónoma, em especial, é tão difícil de prever?
EM: I mean, the thing that really got me, and I think it's going to get a lot of other people, is that there are just so many false dawns with self-driving, where you think you've got the problem, have a handle on the problem, and then it, no, turns out you just hit a ceiling. Because if you were to plot the progress, the progress looks like a log curve. So it's like a series of log curves. So most people don't know what a log curve is, I suppose.
EM: Aquilo que me surpreendeu e penso que vai surpreender muitas outras pessoas, é que há muitas falsas partidas com a condução autónoma. Pensamos que já resolvemos o problema, que temos o controlo do problema e, depois, acontece que atingimos o limite. Porque, se quisermos entender o progresso, o progresso parece uma curva logarítmica. É como uma série de curvas logarítmicas. Julgo que a maioria das pessoas não sabe o que é uma curva logarítmica.
CA: Show the shape with your hands.
CA: Mostra a forma com as mãos.
EM: It goes up you know, sort of a fairly straight way, and then it starts tailing off and you start getting diminishing returns. And you're like, uh oh, it was trending up and now it's sort of, curving over and you start getting to these, what I call local maxima, where you don't realize basically how dumb you were. And then it happens again.
EM: Vai subindo de forma bastante vertical, e depois começa a abrandar e começamos a receber cada vez menos retornos. E ficamos: Ui! Oh! Estava com tendência para subir e agora está a abrandar a curva e começamos a obter aquilo a que eu chamo o máximo local, em que não percebemos que estúpidos fomos. Depois, volta a acontecer.
And ultimately... These things, you know, in retrospect, they seem obvious, but in order to solve full self-driving properly, you actually have to solve real-world AI. Because what are the road networks designed to work with? They're designed to work with a biological neural net, our brains, and with vision, our eyes. And so in order to make it work with computers, you basically need to solve real-world AI and vision. Because we need cameras and silicon neural nets in order to have self-driving work for a system that was designed for eyes and biological neural nets.
E, por fim... Estas coisas, em retrospetiva, parecem óbvias mas, para resolver a propriedade da condução autónoma temos de resolver a IA do mundo real. Porque como é que são concebidas as redes de estradas reais? São concebidas para funcionar com uma rede neural biológica, o nosso cérebro, a nossa visão, os nossos olhos. Para a pôr a funcionar com computadores, precisamos de resolver a IA e a visão do mundo real. Porque precisamos de câmaras e de redes neurais de silício a fim de a condução autónoma funcionar num sistema que foi concebido para olhos e para redes neurais biológicas.
You know, I guess when you put it that way, it's sort of, like, quite obvious that the only way to solve full self-driving is to solve real world AI and sophisticated vision.
Eu penso que, quando colocamos isto desta forma, é bastante óbvio que a única forma de resolver a condução autónoma total é resolver a IA e a visão sofisticada do mundo real. CA: O que é que achas da estrutura atual?
CA: What do you feel about the current architecture? Do you think you have an architecture now where there is a chance for the logarithmic curve not to tail off any anytime soon?
Achas que tens agora uma estrutura em que há uma hipótese de a curva logarítmica não abrandar tão depressa?
EM: Well I mean, admittedly these may be infamous last words, but I actually am confident that we will solve it this year. That we will exceed -- The probability of an accident, at what point do you exceed that of the average person? I think we will exceed that this year.
EM: Bom, eu acho e reconheço que estas poderão ser as terríveis últimas palavras, mas estou confiante de que vamos resolver isso este ano. Que vamos ultrapassar... Até que ponto a probabilidade de um acidente será ultrapassada pela de uma pessoa média? Penso que vamos ultrapassar isso este ano.
CA: What are you seeing behind the scenes that gives you that confidence?
CA: O que é que estás a ver nos bastidores que te dá tanta confiança?
EM: We’re almost at the point where we have a high-quality unified vector space. In the beginning, we were trying to do this with image recognition on individual images. But if you get one image out of a video, it's actually quite hard to see what's going on without ambiguity. But if you look at a video segment of a few seconds of video, that ambiguity resolves. So the first thing we had to do is tie all eight cameras together so they're synchronized, so that all the frames are looked at simultaneously and labeled simultaneously by one person, because we still need human labeling. So at least they’re not labeled at different times by different people in different ways. So it's sort of a surround picture. Then a very important part is to add the time dimension. So that you’re looking at surround video, and you're labeling surround video. And this is actually quite difficult to do from a software standpoint. We had to write our own labeling tools and then create auto labeling, create auto labeling software to amplify the efficiency of human labelers because it’s quite hard to label. In the beginning, it was taking several hours to label a 10-second video clip. This is not scalable.
EM: Estamos quase no ponto em que temos um espaço vetor unificado de alta qualidade. No início, estivemos a tentar fazer isto com reconhecimento de imagem sobre imagens individuais. Mas, se tirares uma imagem de um vídeo, é muito difícil ver o que se passa sem ambiguidade. Mas se virmos um segmento do vídeo de uns segundos de vídeo, essa ambiguidade desaparece. A primeira coisa que fizemos foi interligar todas as oito câmaras para ficarem sincronizadas, de modo a que todos os fotogramas sejam vistos simultaneamente e rotulados simultaneamente por uma só pessoa porque ainda precisamos da rotulagem humana. Pelo menos não são rotulados em diferentes alturas, por pessoas diferentes, de formas diferentes. Portanto, é uma espécie de imagem Surround. Depois, uma parte muito importante é acrescentar a dimensão do tempo. Assim, estás a olhar para o vídeo Surround e estás a rotular o vídeo Surround. Isto é muito difícil de fazer do ponto de vista do <i>software</i>. Temos de escrever as nossas ferramentas de rotulagem e depois criar a auto-rotulagem, criar um <i>software </i>de auto-rotulagem para amplificar a eficiência dos rotuladores humanos porque é muito difícil rotular. No início, demorávamos várias horas a rotular um <i>vídeoclip </i>de 10 segundos. Isso não serve.
So basically what you have to have is you have to have surround video, and that surround video has to be primarily automatically labeled with humans just being editors and making slight corrections to the labeling of the video and then feeding back those corrections into the future auto labeler, so you get this flywheel eventually where the auto labeler is able to take in vast amounts of video and with high accuracy, automatically label the video for cars, lane lines, drive space.
Basicamente o que temos de ter é um vídeo Surround que tem de ser rotulado automaticamente e os seres humanos depois serão os editores e farão ligeiras correções à rotulagem do vídeo e depois introduzir essas correções no auto-rotulador futuro de modo a obter finalmente este volante onde o auto-rotulador consiga assimilar grandes quantidades de vídeo com grande rigor, faça a rotulagem automaticamente do vídeo para os carros, as pistas das estradas, o espaço de condução.
CA: What you’re saying is ... the result of this is that you're effectively giving the car a 3D model of the actual objects that are all around it. It knows what they are, and it knows how fast they are moving. And the remaining task is to predict what the quirky behaviors are that, you know, that when a pedestrian is walking down the road with a smaller pedestrian, that maybe that smaller pedestrian might do something unpredictable or things like that. You have to build into it before you can really call it safe.
CA: Estás a dizer que o resultado disso é que estão a dar ao carro um modelo 3D dos objetos reais que estão à roda dele. Ele reconhece-os e sabe a que velocidade se movem. E a tarefa final é prever quais são os comportamentos rápidos que, quando um peão vai pela estrada com um peão mais pequeno, talvez esse peão mais pequeno faça qualquer coisa imprevisível ou uma coisa dessas. É preciso introduzir isso antes de podermos dizer que é seguro.
EM: You basically need to have memory across time and space. So what I mean by that is ... Memory can’t be infinite, because it's using up a lot of the computer's RAM basically. So you have to say how much are you going to try to remember? It's very common for things to be occluded. So if you talk about say, a pedestrian walking past a truck where you saw the pedestrian start on one side of the truck, then they're occluded by the truck. You would know intuitively, OK, that pedestrian is going to pop out the other side, most likely.
EM: Basicamente, é preciso ter memória do tempo e do espaço. O que eu quero dizer com isso é que a memória não pode ser infinita, porque utiliza grande parte da RAM do computador. Portanto, temos de definir quanto é que ele vai recordar? É muito vulgar que as coisas sejam ocultadas. Se falas de um peão a atravessar em frente de um camião em que vemos o peão a começar de um lado do camião, depois fica oculto pelo camião. Sabemos intuitivamente que esse peão vai aparecer do outro lado, muito provavelmente.
CA: A computer doesn't know it.
CA: Um computador não sabe isso.
EM: You need to slow down.
EM: Precisamos de abrandar.
CA: A skeptic is going to say that every year for the last five years, you've kind of said, well, no this is the year, we're confident that it will be there in a year or two or, you know, like it's always been about that far away. But we've got a new architecture now, you're seeing enough improvement behind the scenes to make you not certain, but pretty confident, that, by the end of this year, what in most, not in every city, and every circumstance but in many cities and circumstances, basically the car will be able to drive without interventions safer than a human.
CA: Um cético dirá que, todos os anos, nos últimos cinco anos, tens dito: “Este ano não, mas estamos confiantes “que será dentro de um ano ou dois”, como tem sido sempre desde há muito. Mas agora temos uma nova estrutura, estamos a ver uma grande evolução nos bastidores que não te dá a certeza, mas bastante confiança que, no final deste ano, na maioria das cidades, não em todas, e em todas s circunstâncias, mas em muitas cidades e em muitas circunstâncias, o carro conseguirá conduzir sem intervenções, de forma mais segura do que um ser humano.
EM: Yes. I mean, the car currently drives me around Austin most of the time with no interventions. So it's not like ... And we have over 100,000 people in our full self-driving beta program. So you can look at the videos that they post online.
EM: Sim. O carro atualmente leva-me por Austin na maioria das vezes, sem intervenções. Não é como... E temos mais de 100 000 pessoas, no nosso programa beta de autocondução. Podes ver isso nos vídeos que eles publicam <i>online</i>.
CA: I do. And some of them are great, and some of them are a little terrifying. I mean, occasionally the car seems to veer off and scare the hell out of people.
CA: Eu tenho visto. Alguns deles são ótimos, e outros são um pouco assustadores. Ocasionalmente, o carro parece desviar-se e assustar as pessoas.
EM: It’s still a beta. CA: But you’re behind the scenes, looking at the data, you're seeing enough improvement to believe that a this-year timeline is real.
EM: Ainda é um protótipo para teste. CA: Mas vocês estão nos bastidores, a olhar para os dados, estão a ver melhorias suficientes para acreditar que a data limite deste ano é real.
EM: Yes, that's what it seems like. I mean, we could be here talking again in a year, like, well, another year went by, and it didn’t happen. But I think this is the year.
EM: Sim, parece que sim. Quer dizer, podemos estar aqui de novo, dentro de um ano, ter passado um ano e nada ter acontecido. Mas penso que é este ano.
CA: And so in general, when people talk about Elon time, I mean it sounds like you can't just have a general rule that if you predict that something will be done in six months, actually what we should imagine is it’s going to be a year or it’s like two-x or three-x, it depends on the type of prediction. Some things, I guess, things involving software, AI, whatever, are fundamentally harder to predict than others.
CA: Então, em geral, quando as pessoas falam no tempo de Elon, parece que não pode haver uma regra geral que, se prevês que uma coisa está pronta em seis meses, o que devemos imaginar é que vai demorar um ano ou seja, duas ou três vezes mais, consoante o tipo de precisão. Há coisas, suponho, que envolvem <i>software</i>, IA, o que seja, que são mais difíceis de prever que outras.
Is there an element that you actually deliberately make aggressive prediction timelines to drive people to be ambitious? Without that, nothing gets done?
Há algum elemento em que, deliberadamente, faças previsões agressivas de prazos para levar as pessoas a serem ambiciosas? Sem isso, nada se faz?
EM: Well, I generally believe, in terms of internal timelines, that we want to set the most aggressive timeline that we can. Because there’s sort of like a law of gaseous expansion where, for schedules, where whatever time you set, it's not going to be less than that. It's very rare that it'll be less than that. But as far as our predictions are concerned, what tends to happen in the media is that they will report all the wrong ones and ignore all the right ones. Or, you know, when writing an article about me -- I've had a long career in multiple industries. If you list my sins, I sound like the worst person on Earth. But if you put those against the things I've done right, it makes much more sense, you know? So essentially like, the longer you do anything, the more mistakes that you will make cumulatively. Which, if you sum up those mistakes, will sound like I'm the worst predictor ever. But for example, for Tesla vehicle growth, I said I think we’d do 50 percent, and we’ve done 80 percent.
EM: Eu geralmente acredito, em termos de prazos internos, que queremos estabelecer a data limite mais agressiva que podemos. Porque há uma espécie de lei da expansão dos gases em que, para prazos, qualquer que seja o prazo que definirmos, nunca vai ser inferior a isso. É muito raro que seja inferior a isso. Mas, no que diz respeito às nossas previsões, o que normalmente acontece nos <i>media</i> é que eles falam das previsões erradas mas ignoram as previsões certas. Ou, quando escrevem um artigo sobre mim — eu tive uma longa careira em muitas indústrias, se listares os meus pecados, eu pareço a pior pessoa sobre a Terra. Mas, se puserem essas coisas contra as que fiz bem feitas, faz muito mais sentido, não é? Portanto, quando mais tempo levarmos a fazer o que seja, mais erros vamos fazendo cumulativamente, o que, se somarem esses erros, vai fazer com que eu pareça a pessoa que mais previsões erradas faz. Mas, por exemplo, para o crescimento dos veículos Tesla, eu disse que íamos aumentar 50% e aumentámos 80%.
CA: Yes.
CA: Pois foi.
EM: But they don't mention that one. So, I mean, I'm not sure what my exact track record is on predictions. They're more optimistic than pessimistic, but they're not all optimistic. Some of them are exceeded probably more or later, but they do come true. It's very rare that they do not come true. It's sort of like, you know, if there's some radical technology prediction, the point is not that it was a few years late, but that it happened at all. That's the more important part.
EM: Mas nunca referem essa previsão. Ou seja, não sei bem qual é o meu registo exato de previsões. São mais otimistas do que pessimistas, mas nem todas são otimistas. Algumas delas são ultrapassadas provavelmente mais tarde ou mais cedo, mas tornam-se verdade. É muito raro que não venham a verificar-se. É como se tivesse havido uma espécie de previsão radical da tecnologia, a questão não é que ela tenha chegado com anos de atraso, mas que tenha acontecido mesmo. Essa é a parte mais importante.
CA: So it feels like at some point in the last year, seeing the progress on understanding, the Tesla AI understanding the world around it, led to a kind of, an aha moment at Tesla. Because you really surprised people recently when you said probably the most important product development going on at Tesla this year is this robot, Optimus.
CA: Parece que, a certa altura, no ano passado, vendo o progresso na compreensão, a compreensão da IA quanto ao mundo à sua volta levou a um momento de revelação na Tesla. Porque vocês surpreenderam as pessoas há pouco tempo, quando disseram que, provavelmente, o desenvolvimento mais importante de um produto em curso na Tesla, este ano, é este robô, o Optimus.
EM: Yes.
EM: Pois é.
CA: Many companies out there have tried to put out these robots, they've been working on them for years. And so far no one has really cracked it. There's no mass adoption robot in people's homes. There are some in manufacturing, but I would say, no one's kind of, really cracked it. Is it something that happened in the development of full self-driving that gave you the confidence to say, "You know what, we could do something special here."
CA: Muitas empresas têm tentado produzir estes robôs, têm trabalhado neles há anos. Até aqui ninguém o conseguiu. As pessoas não adotam robôs em massa, em suas casas. Há alguns em fabrico, mas eu diria que ninguém conseguiu acertar nisso. É uma coisa que aconteceu no desenvolvimento da condução autónoma que vos deu confiança para dizer; “E sabem? Nós podíamos fazer qui uma coisa especial.”
EM: Yeah, exactly. So, you know, it took me a while to sort of realize that in order to solve self-driving, you really needed to solve real-world AI. And at the point of which you solve real-world AI for a car, which is really a robot on four wheels, you can then generalize that to a robot on legs as well. The two hard parts I think -- like obviously companies like Boston Dynamics have shown that it's possible to make quite compelling, sometimes alarming robots.
EM: Pois foi, exatamente. Eu levei algum tempo a perceber que, para resolver a condução autónoma, precisávamos de resolver a IA do mundo real. E, quando resolvemos a IA do mundo real para um carro, que, na verdade, é um robô de quatro rodas, podemos generalizar isso para um robô com pernas. Penso que as duas partes — como, obviamente, empresas como Boston Dynamics — mostraram que é possível fazer robôs bastante convincentes, por vezes assustadores.
CA: Right.
CA: É mesmo.
EM: You know, so from a sensors and actuators standpoint, it's certainly been demonstrated by many that it's possible to make a humanoid robot. The things that are currently missing are enough intelligence for the robot to navigate the real world and do useful things without being explicitly instructed. So the missing things are basically real-world intelligence and scaling up manufacturing. Those are two things that Tesla is very good at. And so then we basically just need to design the specialized actuators and sensors that are needed for humanoid robot. People have no idea, this is going to be bigger than the car.
EM: Do ponto de vista de sensores e atuadores, claro que muitos têm demonstrado que é possível fazer um robô humanoide. O que falta atualmente é inteligência suficiente para os robôs navegarem no mundo real e fazerem coisas úteis sem serem ensinados explicitamente. As coisas em falta são basicamente a inteligência do mundo real e o fabrico em quantidade. São as duas coisas em que a Tesla é excelente. Assim, só precisamos de conceber atuadores e sensores especializados que são necessários para um robô humanoide. As pessoas não têm ideia de que isto vai ser mais importante do que o carro.
CA: So let's dig into exactly that. I mean, in one way, it's actually an easier problem than full self-driving because instead of an object going along at 60 miles an hour, which if it gets it wrong, someone will die. This is an object that's engineered to only go at what, three or four or five miles an hour. And so a mistake, there aren't lives at stake. There might be embarrassment at stake.
CA: Então, vamos aprofundar isso mais um pouco. De certo modo, é um problema mais fácil do que a condução autónoma, porque, em vez de um objeto que anda a 100 km/hora, e que, se alguma coisa correr mal, pode morrer alguém, este é um objeto que está concebido par andar a 7 ou 8 km/hora. Por isso, se houver um erro, não há vidas em jogo. Pode haver embaraços em jogo.
EM: So long as the AI doesn't take it over and murder us in our sleep or something.
EM: Desde que a IA não assuma o controlo e não nos mate enquanto dormimos.
CA: Right.
CA: Claro.
(Laughter)
So talk about -- I think the first applications you've mentioned are probably going to be manufacturing, but eventually the vision is to have these available for people at home. If you had a robot that really understood the 3D architecture of your house and knew where every object in that house was or was supposed to be, and could recognize all those objects, I mean, that’s kind of amazing, isn’t it? Like the kind of thing that you could ask a robot to do would be what? Like, tidy up?
Então... penso que as primeiras aplicações que referiste. são provavelmente, irem para o setor do fabrico, mas a visão é disponibilizá-los para as pessoas em casa. Se tivéssemos um robô que compreendesse a arquitetura 3D da nossa casa e soubesse onde está cada objeto na nossa casa ou devia estar, e pudesse reconhecer todos esses objetos, isso seria uma coisa fantástica, não é? Qual seria o tipo de coisas que podíamos pedir a um robô? Arrumar as coisas?
EM: Yeah, absolutely. Make dinner, I guess, mow the lawn.
EM: Sim, absolutamente. Fazer o jantar, julgo eu, cortar a relva.
CA: Take a cup of tea to grandma and show her family pictures.
CA: Levar uma chávena de chá à avó e mostrar-lhe os retratos de família.
EM: Exactly. Take care of my grandmother and make sure --
EM: Exatamente. Cuidar da minha avó e garantir...
CA: It could obviously recognize everyone in the home. It could play catch with your kids.
CA: Obviamente, podia reconhecer toda a gente da casa. Podia brincar à apanhada com os miúdos.
EM: Yes. I mean, obviously, we need to be careful this doesn't become a dystopian situation. I think one of the things that's going to be important is to have a localized ROM chip on the robot that cannot be updated over the air. Where if you, for example, were to say, “Stop, stop, stop,” if anyone said that, then the robot would stop, you know, type of thing. And that's not updatable remotely. I think it's going to be important to have safety features like that.
EM: Sim, obviamente, precisamos de ter cautela isto não pode tornar-se numa situação distópica. Penso que uma das coisas que vai ser importante é ter um chip ROM localizado no robô que não possa ser atualizado de qualquer maneira. Se, por exemplo, vocês disserem; “Stop, stop, stop”, se alguém disser isso, o robô tem de parar, esse tipo de coisas. E isso não pode ser alterado por controlo à distância. Penso que vai ser importante ter essas características de segurança.
CA: Yeah, that sounds wise.
CA: Pois, parece aconselhável.
EM: And I do think there should be a regulatory agency for AI. I've said that for many years. I don't love being regulated, but I think this is an important thing for public safety.
EM: Penso que deve haver uma agência reguladora para a IA. Já digo isto há muitos anos. Não gosto de regulamentações mas penso que é uma coisa importante para segurança do público.
CA: Let's come back to that. But I don't think many people have really sort of taken seriously the notion of, you know, a robot at home. I mean, at the start of the computing revolution, Bill Gates said there's going to be a computer in every home. And people at the time said, yeah, whatever, who would even want that. Do you think there will be basically like in, say, 2050 or whatever, like a robot in most homes, is what there will be, and people will love them and count on them? You’ll have your own butler basically.
CA: Já voltamos a isso. Mas penso que não há muita gente que leve a sério a noção de ter um robô em casa. Ou seja, no início da revolução dos computadores, Bill Gates disse que ia haver um comutador em cada casa. Na altura as pessoas disseram: “Pois, quem é que quer uma coisa dessas.” Achas que em 2050 ou noutra data qualquer haverá um robô na maioria das casas? E s pessoas vão adorá-los e contar com eles? Vamos ter o nosso mordomo.
EM: Yeah, you'll have your sort of buddy robot probably, yeah.
EM: Sim, teremos uma espécie de robô amigo, provavelmente, sim.
CA: I mean, how much of a buddy? How many applications have you thought, you know, can you have a romantic partner, a sex partner? EM: It's probably inevitable. I mean, I did promise the internet that I’d make catgirls. We could make a robot catgirl.
CA: Amigo até que ponto? Quantas aplicações pensaste que poderão ter? Podem ter um parceiro romântico, um parceiro sexual? EM: Provavelmente é inevitável. Ou seja, eu prometi na Internet que ia fazer “catgirls”. Podemos fazer um robô “catgirl”.
CA: Be careful what you promise the internet.
CA: Tem cuidado com o que prometes na Internet.
(Laughter)
EM: Sim, penso que será o que as pessoas vão querer.
EM: So, yeah, I guess it'll be whatever people want really, you know.
CA: What sort of timeline should we be thinking about of the first models that are actually made and sold?
CA: Que tipo de calendário devemos aguardar para os primeiros modelos que já estão feitos e vendidos?
EM: Well, you know, the first units that we intend to make are for jobs that are dangerous, boring, repetitive, and things that people don't want to do. And, you know, I think we’ll have like an interesting prototype sometime this year. We might have something useful next year, but I think quite likely within at least two years. And then we'll see rapid growth year over year of the usefulness of the humanoid robots and decrease in cost and scaling up production.
EM: Bom, as primeiras unidades que tencionamos fazer são para profissões que são perigosas, chatas, repetitivas, e coisas que as pessoas não querem fazer. E penso que vamos ter um protótipo interessante ainda este ano. Podemos ter qualquer coisa útil no próximo ano, mas acho muito provável dentro de, pelo menos, dois anos. Depois, veremos um crescimento rápido de ano para ano, da utilidade dos robôs humanoides e a diminuição do custo e o aumento da produção.
CA: Initially just selling to businesses, or when do you picture you'll start selling them where you can buy your parents one for Christmas or something?
CA: Inicialmente, só se venderão para empresas, ou quando achas que começarás a vendê-los a quem os pode comprar para oferecer um aos pais, pelo Natal?
EM: I'd say in less than ten years.
EM: Direi que, dentro de dez anos.
CA: Help me on the economics of this. So what do you picture the cost of one of these being?
CA: Ajuda-me na economia disso. Qual o preço a que ficará um desses seres?
EM: Well, I think the cost is actually not going to be crazy high. Like less than a car. Initially, things will be expensive because it'll be a new technology at low production volume. The complexity and cost of a car is greater than that of a humanoid robot. So I would expect that it's going to be less than a car, or at least equivalent to a cheap car.
EM: Penso que o custo não poderá ser estupidamente alto. Tipo menos que um carro. Inicialmente, as coisas serão caras porque será uma nova tecnologia com pouca produção. A complexidade e o custo de um carro é maior do que o de um robô humanoide. Por isso, espero que o preço vá ser inferior ao de um carro ou, pelo menos, equivalente a um carro barato.
CA: So even if it starts at 50k, within a few years, it’s down to 20k or lower or whatever. And maybe for home they'll get much cheaper still. But think about the economics of this. If you can replace a $30,000, $40,000-a-year worker, which you have to pay every year, with a one-time payment of $25,000 for a robot that can work longer hours, a pretty rapid replacement of certain types of jobs. How worried should the world be about that?
CA: Então, mesmo que comece a 50 mil, dentro de poucos anos terá descido para 20 mil ou menos. E um robô doméstico será ainda muito mais barato. Mas pensa na economia disso. Se substituirmos um trabalhador que ganhe 30 a 40 mil dólares por ano, que temos de pagar todos os anos, por um pagamento de 25 000 dólares para um robô que pode trabalhar mais horas, haverá uma substituição rápida de determinados tipos de empregos. Até que ponto o mundo se deve preocupar com isso?
EM: I wouldn't worry about the sort of, putting people out of a job thing. I think we're actually going to have, and already do have, a massive shortage of labor. So I think we will have ... Not people out of work, but actually still a shortage labor even in the future.
EM: Eu não me preocuparia com o facto de vedar um tipo de trabalho às pessoas. Penso que vamos ter — e até já temos — uma grande falta de mão de obra. Portanto, penso que não vamos ter pessoas desempregadas mas que haverá falta de mão de obra no futuro.
But this really will be a world of abundance. Any goods and services will be available to anyone who wants them. It'll be so cheap to have goods and services, it will be ridiculous.
Mas teremos realmente um mundo de abundância. Os bens e serviços estarão disponíveis a toda a gente que os deseje. Será tão barato ter bens e serviços, que será ridículo.
CA: I'm presuming it should be possible to imagine a bunch of goods and services that can't profitably be made now but could be made in that world, courtesy of legions of robots.
CA: Presumo que será possível imaginar um monte de bens e serviços que não poderão ser fabricados hoje lucrativamente, mas podem sê-lo nesse mundo graças legiões de robôs.
EM: Yeah. It will be a world of abundance. The only scarcity that will exist in the future is that which we decide to create ourselves as humans.
EM: Pois é. Será um mundo de abundância. A única escassez que existirá no futuro é aquela que decidirmos criar enquanto seres humanos.
CA: OK. So AI is allowing us to imagine a differently powered economy that will create this abundance. What are you most worried about going wrong?
CA: OK. Então, a IA vai permitir-nos imaginar uma economia alimentada de forma diferente que criará essa abundância. Quais são as tuas maiores preocupações para isso correr mal?
EM: Well, like I said, AI and robotics will bring out what might be termed the age of abundance. Other people have used this word, and that this is my prediction: it will be an age of abundance for everyone. But I guess there’s ... The dangers would be the artificial general intelligence or digital superintelligence decouples from a collective human will and goes in the direction that for some reason we don't like. Whatever direction it might go.
EM: Como já disse, a IA e robótica trarão aquilo a que podemos chamar a era da abundância. Outras pessoas já usaram esta palavra e esta é a minha previsão: Vai ser uma era de abundância para toda a gente. Mas acho que... os perigos serão que a inteligência artificial geral ou a superinteligência digital se dissocie duma vontade humana coletiva e vá numa direção que, por qualquer razão, não nos agrade. Qualquer direção que ela possa tomar
You know, that’s sort of the idea behind Neuralink, is to try to more tightly couple collective human world to digital superintelligence. And also along the way solve a lot of brain injuries and spinal injuries and that kind of thing. So even if it doesn't succeed in the greater goal, I think it will succeed in the goal of alleviating brain and spine damage.
— é o tipo de ideia por detrás da Neuralink — é tentar associar mais fortemente o mundo coletivo humano à superinteligência digital. E também, pelo caminho, resolver uma série de danos cerebrais, de danos na coluna vertebral e coisas desse tipo. Mesmo que isso não tenha êxito no objetivo maior, penso que terá êxito no objetivo
CA: So the spirit there is that if we're going to make these AIs
de aliviar as lesões no cérebro e na coluna.
that are so vastly intelligent, we ought to be wired directly to them so that we ourselves can have those superpowers more directly. But that doesn't seem to avoid the risk that those superpowers might ... turn ugly in unintended ways.
CA: Então, o espírito é que, se vamos fazer essas IA que são tão inteligentes, devemos estar interligados diretamente com elas de modo atermos esses superpoderes mais diretamente. Mas isso parece que não evita o risco de que esses superpoderes possam dar para o torto, de forma imprevisível.
EM: I think it's a risk, I agree. I'm not saying that I have some certain answer to that risk. I’m just saying like maybe one of the things that would be good for ensuring that the future is one that we want is to more tightly couple the collective human world to digital intelligence.
EM: Concordo que isso é um risco. Eu não digo que tenho a resposta certa para esse risco. Apenas digo que, talvez uma das coisas fosse bom para garantir que o futuro é um futuro que queremos vai associar mais fortemente o mundo coletivo humano à inteligência digital.
The issue that we face here is that we are already a cyborg, if you think about it. The computers are an extension of ourselves. And when we die, we have, like, a digital ghost. You know, all of our text messages and social media, emails. And it's quite eerie actually, when someone dies but everything online is still there. But you say like, what's the limitation? What is it that inhibits a human-machine symbiosis? It's the data rate. When you communicate, especially with a phone, you're moving your thumbs very slowly. So you're like moving your two little meat sticks at a rate that’s maybe 10 bits per second, optimistically, 100 bits per second. And computers are communicating at the gigabyte level and beyond.
A questão que enfrentamos aqui é que já somos um ciborgue. Se pensarem nisso, Os computadores são uma extensão de nós mesmos. Quando morrermos, temos uma espécie de fantasma digital. Todas as mensagens de texto, as redes sociais, os <i>emails</i>. E é muito estranho, realmente, quando alguém morre e tudo se mantém <i>online</i>. Mas perguntamos, qual é o limite? O que é que inibe uma simbiose homem-máquina? É a taxa de dados. Quando comunicamos, especialmente com um telefone, estamos a movimentar os polegares muito lentamente. É como estarem a movimentar os vossos dois palitos de carne a um ritmo talvez de 10 bits por segundo, e se formos otimistas, a 100 bits por segundo. Os computadores comunicam ao nível de gigabytes e mais ainda.
CA: Have you seen evidence that the technology is actually working, that you've got a richer, sort of, higher bandwidth connection, if you like, between like external electronics and a brain than has been possible before?
CA: Tens provas de que a tecnologia está a funcionar que tens uma ligação de banda larga mais rica, mais alta, entre a eletrónica exterior e um cérebro do que tem sido possível até aqui?
EM: Yeah. I mean, the fundamental principles of reading neurons, sort of doing read-write on neurons with tiny electrodes, have been demonstrated for decades. So it's not like the concept is new. The problem is that there is no product that works well that you can go and buy. So it's all sort of, in research labs. And it's like some cords sticking out of your head. And it's quite gruesome, and it's really ... There's no good product that actually does a good job and is high-bandwidth and safe and something actually that you could buy and would want to buy.
EM: Tenho, quer dizer, os princípios fundamentais da leitura dos neurónios, uma espécie de fazer leitura-escrita nos neurónios com pequenos elétrodos, já foram demonstrados há décadas. Portanto, o conceito não é novo. O problema é que não há nenhum produto que funcione bem que possamos adquirir. Está tudo nos laboratórios de investigação. É como umas cordas a sair da nossa cabeça. É muito macabro. Não há um bom produto que consiga fazer um bom trabalho e seja uma banda larga e seguro e uma coisa que possamos comprar e queiramos comprar.
But the way to think of the Neuralink device is kind of like a Fitbit or an Apple Watch. That's where we take out sort of a small section of skull about the size of a quarter, replace that with what, in many ways really is very much like a Fitbit, Apple Watch or some kind of smart watch thing. But with tiny, tiny wires, very, very tiny wires. Wires so tiny, it’s hard to even see them. And it's very important to have very tiny wires so that when they’re implanted, they don’t damage the brain.
Mas temos de pensar no aparelho da Neuralink é como um Fitbit ou um Apple Watch. É onde retiramos uma pequena secção do crânio do tamanho de um quarto, e a substituímos por uma coisa que, em muitos aspetos, é muito parecida com um Fitbit, um Apple Watch ou qualquer tipo de relógio inteligente. Mas com fios minúsculos, fios muito minúsculos. Fios tão minúsculos que é difícil vê-lo. É muito importante ter fios muito minúsculos para que, quando forem implantados, não prejudiquem o cérebro.
CA: How far are you from putting these into humans?
CA: Ainda estão muito longe de os colocar em seres humanos?
EM: Well, we have put in our FDA application to aspirationally do the first human implant this year.
EM: Já colocámos na nossa aplicação FDA e pretendemos fazer este ano o primeiro implante humano.
CA: The first uses will be for neurological injuries of different kinds. But rolling the clock forward and imagining when people are actually using these for their own enhancement, let's say, and for the enhancement of the world, how clear are you in your mind as to what it will feel like to have one of these inside your head?
CA: Os primeiros usos serão para lesões neurológicas de diferentes tipos. Mas, avançando no tempo, e imaginando quando as pessoas estiverem a usar isto para seu próprio aperfeiçoamento, e para aperfeiçoamento do mundo, até que ponto tens bem a noção do que será ter um destes implantes dentro da cabeça?
EM: Well, I do want to emphasize we're at an early stage. And so it really will be many years before we have anything approximating a high-bandwidth neural interface that allows for AI-human symbiosis. For many years, we will just be solving brain injuries and spinal injuries. For probably a decade. This is not something that will suddenly one day it will have this incredible sort of whole brain interface. It's going to be, like I said, at least a decade of really just solving brain injuries and spinal injuries. And really, I think you can solve a very wide range of brain injuries, including severe depression, morbid obesity, sleep, potentially schizophrenia, like, a lot of things that cause great stress to people. Restoring memory in older people.
EM: Bom, quero sublinhar que estamos numa fase inicial. Passarão muitos anos antes de termos qualquer coisa que se aproxime de uma interface neural de banda elevada que permita a simbiose IA-humanos. Durante muitos anos, estaremos apenas a resolver lesões cerebrais e da coluna, durante provavelmente 10 anos. Isto não é uma coisa em que um dia, de repente, aparece esta incrível espécie de interface cerebral. Vai haver, como já disse, pelo menos uma década a resolver apenas lesões cerebrais e lesões da espinal medula. Penso que podemos resolver uma gama muito ampla de lesões cerebrais incluindo depressão grave, obesidade mórbida, sono, esquizofrenia potencialmente, como uma série de coisas que causam grande <i>stress </i>nas pessoas. Restaurar a memória em pessoas mais velhas.
CA: If you can pull that off, that's the app I will sign up for.
CA: Se conseguirem aperfeiçoar isso tudo, é a aplicação que eu subscreverei.
EM: Absolutely.
EM: Com certeza.
CA: Please hurry. (Laughs)
CA: Por favor, despachem-se.
EM: I mean, the emails that we get at Neuralink are heartbreaking. I mean, they'll send us just tragic, you know, where someone was sort of, in the prime of life and they had an accident on a motorcycle and someone who's 25, you know, can't even feed themselves. And this is something we could fix.
EM: Quer dizer, os <i>emails </i>que recebemos na Neuralink são confrangedores, Enviam-nos situações trágicas, com pessoas que, na força da idade, tiveram um acidente de moto e uma pessoa, com 25 anos, que nem consegue comer sozinho. É uma coisa que podemos reparar.
CA: But you have said that AI is one of the things you're most worried about and that Neuralink may be one of the ways where we can keep abreast of it.
CA: Mas tu disseste que a IA é uma das coisas que mais te preocupa e que a Neuralink pode ser uma das formas em que podemos manter-nos a par dela.
EM: Yeah, there's the short-term thing, which I think is helpful on an individual human level with injuries. And then the long-term thing is an attempt to address the civilizational risk of AI by bringing digital intelligence and biological intelligence closer together.
EM: Pois é, há a coisa a curto prazo, que penso é útil a nível de um humano com lesões. E depois a coisa a longo prazo é uma tentativa de resolver o risco civilizacional da IA para juntar mais a inteligência digital com a inteligência biológica.
I mean, if you think of how the brain works today, there are really two layers to the brain. There's the limbic system and the cortex. You've got the kind of, animal brain where -- it’s kind of like the fun part, really.
Ou seja, se pensarmos como funciona o cérebro atualmente, há duas camadas no cérebro. Há o sistema límbico e o córtex. Temos o tipo de cérebro animal, em que — é como a parte divertida.
CA: It's where most of Twitter operates, by the way.
CA: É como funciona a maior parte do Twitter, já agora.
EM: I think Tim Urban said, we’re like somebody, you know, stuck a computer on a monkey. You know, so we're like, if you gave a monkey a computer, that's our cortex. But we still have a lot of monkey instincts. Which we then try to rationalize as, no, it's not a monkey instinct. It’s something more important than that. But it's often just really a monkey instinct. We're just monkeys with a computer stuck in our brain. But even though the cortex is sort of the smart, or the intelligent part of the brain, the thinking part of the brain, I've not yet met anyone who wants to delete their limbic system or their cortex. They're quite happy having both. Everyone wants both parts of their brain. And people really want their phones and their computers, which are really the tertiary, the third part of your intelligence. It's just that it's ... Like the bandwidth, the rate of communication with that tertiary layer is slow. And it's just a very tiny straw to this tertiary layer. And we want to make that tiny straw a big highway. And I’m definitely not saying that this is going to solve everything. Or this is you know, it’s the only thing -- it’s something that might be helpful. And worst-case scenario, I think we solve some important brain injury, spinal injury issues, and that's still a great outcome.
EM: Penso que Tim Urban disse que somos como se alguém tivesse enfiado um computador num macaco. Portanto, se dermos um computador a um macaco, isso é o nosso córtex. Mas ainda temos muitos dos instintos do macaco. O que tentamos racionalizar já não é um instinto de macaco. É uma coisa mais importante do que isso. Mas muitas vezes é realmente um instinto de macaco. Somos apenas macacos com um computador enfiado no cérebro. Mas embora o córtex seja mais inteligente, ou a parte inteligente o cérebro, a parte pensante do cérebro, nunca encontrei ninguém que queira apagar o sistema límbico ou o seu córtex. Estão satisfeitos por terem os dois. Todos querem as duas partes do seu cérebro. As pessoas querem os telefones e os computadores, que são o terciário, a terceira parte da nossa inteligência, É só que... tal como largura da banda, o ritmo das comunicações com essa terceira camada é lento. E é apenas uma palhinha muito fina desta terceira camada. Queremos tornar essa palhinha fina numa grande autoestrada. Não estou a dizer que isso vai resolver tudo. Ou que é a única coisa, é uma coisa que pode ser útil. No cenário do pior caso penso que resolvemos algumas importantes lesões do cérebro, lesões da espinal medula, e isso já é um ótimo resultado.
CA: Best-case scenario, we may discover new human possibility, telepathy, you've spoken of, in a way, a connection with a loved one, you know, full memory and much faster thought processing maybe. All these things. It's very cool.
CA: No melhor dos casos, podemos descobrir novas possibilidades humanas, telepatia, já falaste duma ligação com um ser querido, memória total, e um processamento do pensamento muito mais rápido, talvez. Todas essas coisas. É muito fixe.
If AI were to take down Earth, we need a plan B. Let's shift our attention to space. We spoke last time at TED about reusability, and you had just demonstrated that spectacularly for the first time. Since then, you've gone on to build this monster rocket, Starship, which kind of changes the rules of the game in spectacular ways. Tell us about Starship.
Se a IA acabar por dominar a Terra precisamos de um plano B. Mudemos a nossa atenção para o espaço. Na última vez no TED falámos da possibilidade de reutilização e tu demonstraste isso de forma espetacular, pela primeira vez. Desde então, dedicaste-te a construir esse foguetão monstruoso, o Starship, o que de certa forma altera as regras do jogo de formas espetaculares. Fala-nos do Starship.
EM: Starship is extremely fundamental.
EM: O Starship é extremamente fundamental.
So the holy grail of rocketry or space transport is full and rapid reusability. This has never been achieved. The closest that anything has come is our Falcon 9 rocket, where we are able to recover the first stage, the boost stage, which is probably about 60 percent of the cost of the vehicle of the whole launch, maybe 70 percent. And we've now done that over a hundred times. So with Starship, we will be recovering the entire thing. Or at least that's the goal.
O Sagrado Graal dos foguetões ou do transporte espacial é a capacidade plena e rápida de reutilização. Isto nunca tinha sido conseguido. O mais perto que estivemos foi com o nosso foguetão Falcon 9, em que conseguimos recuperar o primeiro andar, o andar de reforço, o que representa provavelmente 60% do custo do veículo de todo o lançamento, talvez 70%. E agora fizemos isso mais de cem vezes. Com o Starship, vamos recuperar tudo. Pelo menos, é esse o objetivo.
CA: Right.
CA: Certo.
EM: And moreover, recovering it in such a way that it can be immediately re-flown. Whereas with Falcon 9, we still need to do some amount of refurbishment to the booster and to the fairing nose cone. But with Starship, the design goal is immediate re-flight. So you just refill propellants and go again. And this is gigantic. Just as it would be in any other mode of transport.
EM: Além disso, a recuperação é de forma a poder voltar a ser imediatamente lançado. Enquanto que com o Falcon 9 precisámos de fazer reparações no propulsor e no bocal cónico. Mas com o Starship, o objetivo do <i>design</i> é a recuperação imediata. Basta reabastecer os propulsores e continuar. Isto é gigantesco. Tal como seria em qualquer outro modo de transporte.
CA: And the main design is to basically take 100 plus people at a time, plus a bunch of things that they need, to Mars. So, first of all, talk about that piece. What is your latest timeline? One, for the first time, a Starship goes to Mars, presumably without people, but just equipment. Two, with people. Three, there’s sort of, OK, 100 people at a time, let's go.
CA: E o <i>design </i>principal é basicamente levar mais 100 pessoas de cada vez, mais uma quantidade de coisas de que precisam, para Marte. Primeiro que tudo, falemos daquela peça. Qual é o teu último calendário? Um, pela primeira vez o Starship vai a Marte, presumivelmente sem pessoas, só com equipamento. Dois, com pessoas. Três, há uma espécie de 100 pessoas ao mesmo tempo, toca a andar.
EM: Sure. And just to put the cost thing into perspective, the expected cost of Starship, putting 100 tons into orbit, is significantly less than what it would have cost or what it did cost to put our tiny Falcon 1 rocket into orbit. Just as the cost of flying a 747 around the world is less than the cost of a small airplane. You know, a small airplane that was thrown away. So it's really pretty mind-boggling that the giant thing costs less, way less than the small thing. So it doesn't use exotic propellants or things that are difficult to obtain on Mars. It uses methane as fuel, and it's primarily oxygen, roughly 77-78 percent oxygen by weight. And Mars has a CO2 atmosphere and has water ice, which is CO2 plus H2O, so you can make CH4, methane, and O2, oxygen, on Mars.
EM: Certo. Só para pôr em perspetiva a questão do custo, o custo previsto do Starship para pôr em órbita 100 toneladas, é significativamente menos do que o que teria custado ou o que custou pôr em órbita o nosso pequeno foguetão Falcon 1. Tal como o custo de um 747 dar a volta ao mundo é menor do que o custo de um pequeno aeroplano. Um pequeno aeroplano que foi deitado fora. É realmente impressionante que uma coisa gigantesca custe menos do que uma coisa pequena. Não usa propulsores exóticos nem coisas que são difíceis de obter em Marte. Usa metano como combustível, e é sobretudo oxigénio, uns 77-78% de oxigénio em peso. Marte tem uma atmosfera de CO2 e tem água sob a forma de gelo, que é CO2 mais H2O, por isso podemos fazer, em Marte, CH4 — metano — e O2 —oxigénio.
CA: Presumably, one of the first tasks on Mars will be to create a fuel plant that can create the fuel for the return trips of many Starships.
CA: Presumivelmente, uma das primeiras tarefas em Marte será criar uma fábrica de combustível que possa criar o combustível para as viagens de regresso de muitos Starshps.
EM: Yes. And actually, it's mostly going to be oxygen plants, because it's 78 percent oxygen, 22 percent fuel. But the fuel is a simple fuel that is easy to create on Mars. And in many other parts of the solar system. So basically ... And it's all propulsive landing, no parachutes, nothing thrown away. It has a heat shield that’s capable of entering on Earth or Mars. We can even potentially go to Venus. but you don't want to go there. (Laughs) Venus is hell, almost literally. But you could ... It's a generalized method of transport to anywhere in the solar system, because the point at which you have propellant depo on Mars, you can then travel to the asteroid belt and to the moons of Jupiter and Saturn and ultimately anywhere in the solar system.
EM: É mesmo. Na verdade, vão ser sobretudo fábricas de oxigénio, porque há 78% de oxigénio e 22% de combustível. Mas o combustível é um combustível simples que é fácil de criar em Marte e em muitas outras partes do sistema solar. Basicamente, E é tudo aterragem propulsiva, nada de paraquedas, nada é deitado fora. Há um escudo contra o calor capaz de entrar na Terra ou em Marte. Até podemos ir a Vénus, mas não queremos lá ir. Vénus é o inferno, quase literalmente. Mas podíamos. É um método generalizado de transporte para qualquer parte do sistema solar, porque o ponto em que temos depósito de carburante em Marte, podemos viajar para o cinturão de asteroides e para as luas de Júpiter e de Saturno. e para qualquer parte do sistema solar.
CA: But your main focus and SpaceX's main focus is still Mars. That is the mission. That is where most of the effort will go? Or are you actually imagining a much broader array of uses even in the coming, you know, the first decade or so of uses of this. Where we could go, for example, to other places in the solar system to explore, perhaps NASA wants to use the rocket for that reason.
CA: Mas o vosso foco principal e o foco principal da SpaceX continua a ser Marte. É essa a missão. É para aí que vão a maior parte dos vossos esforços? Ou estão a imaginar um leque muito mais amplo de utilizações mesmo na primeira década da sua utilização. Onde poderão ir, por exemplo, explorar outros locais no sistema solar, talvez a NASA queira usar o foguetão por essa razão.
EM: Yeah, NASA is planning to use a Starship to return to the moon, to return people to the moon. And so we're very honored that NASA has chosen us to do this. But I'm saying it is a generalized -- it’s a general solution to getting anywhere in the greater solar system. It's not suitable for going to another star system, but it is a general solution for transport anywhere in the solar system.
EM: Bom, a NASA está a planear usar um Starship para voltar à Lua, para levar de novo pessoas à Lua. Sentimo-nos muito honrados por a NASA nos ter escolhido para isso. Mas digo que isto é generalizado, é uma solução geral para chegar a qualquer parte em todo o sistema solar. Não é adequado para ir a outro sistema estelar, mas é uma solução geral para transporte para qualquer parte do sistema solar.
CA: Before it can do any of that, it's got to demonstrate it can get into orbit, you know, around Earth. What’s your latest advice on the timeline for that?
CA: Antes de poder fazer isso, tem de demonstrar que pode entrar em órbita, em volta da Terra. Qual é o teu último conselho no teu calendário, para isso?
EM: It's looking promising for us to have an orbital launch attempt in a few months. So we're actually integrating -- will be integrating the engines into the booster for the first orbital flight starting in about a week or two. And the launch complex itself is ready to go. So assuming we get regulatory approval, I think we could have an orbital launch attempt within a few months.
EM: Parece-nos promissor fazer uma tentativa de lançamento orbital dentro de meses. Assim, estamos a integrar vamos integrar os motores no propulsor para o primeiro voo orbital que começa dentro de uma semana ou duas. E o complexo de lançamento está pronto par a avançar. Assumindo que obtemos aprovação reguladora, penso que podemos fazer um teste de lançamento orbital dentro de meses.
CA: And a radical new technology like this presumably there is real risk on those early attempts.
CA: E numa nova tecnologia como esta presumivelmente há um risco real nestas primeiras tentativas.
EM: Oh, 100 percent, yeah. The joke I make all the time is that excitement is guaranteed. Success is not guaranteed, but excitement certainly is.
EM: Oh, sim, 100%. A piada que eu digo sempre é que garantimos a excitação. O êxito não está garantido, mas a excitação sem dúvida.
CA: But the last I saw on your timeline, you've slightly put back the expected date to put the first human on Mars till 2029, I want to say?
CA: Mas a última vez que vi o teu calendário, adiaste ligeiramente a data prevista para pôr o primeiro homem em Marte até 2029, não é?
EM: Yeah, I mean, so let's see. I mean, we have built a production system for Starship, so we're making a lot of ships and boosters.
EM: Sim, quer dizer, vejamos. Temos de criar um sistema de produção para o Starship, por isso estamos a construir muitas naves e propulsores.
CA: How many are you planning to make actually?
CA: Quantos é que planeiam fazer, neste momento?
EM: Well, we're currently expecting to make a booster and a ship roughly every, well, initially, roughly every couple of months, and then hopefully by the end of this year, one every month. So it's giant rockets, and a lot of them. Just talking in terms of rough orders of magnitude, in order to create a self-sustaining city on Mars, I think you will need something on the order of a thousand ships. And we just need a Helen of Sparta, I guess, on Mars.
EM: Bom, estamos a prever fazer um propulsor e uma nave inicialmente, mais ou menos, de dois em dois meses, e esperamos que, no fim deste ano, seja um por mês. São foguetões gigantescos e uma grande quantidade deles. Falando em termos de ordens de magnitude, por grosso, a fim de criar em Marte uma cidade autossustentada. Penso que vamos precisar de uma coisa na ordem das mil naves. E acho que precisamos em Marte de uma Helena de Esparta.
CA: This is not in most people's heads, Elon.
CA: Isso não cabe em muitas cabeças, Elon.
EM: The planet that launched 1,000 ships.
EM: O planeta que lançou mil naves.
CA: That's nice. But this is not in most people's heads, this picture that you have in your mind. There's basically a two-year window, you can only really fly to Mars conveniently every two years. You were picturing that during the 2030s, every couple of years, something like 1,000 Starships take off, each containing 100 or more people. That picture is just completely mind-blowing to me. That sense of this armada of humans going to --
CA: É giro. Mas essa ideia que tu tens não cabe em muitas cabeças, Há basicamente uma janela de dois anos, só podemos voar até Marte de dois em dois anos. Estás a projetar que, durante a década de 2030, de dois em dois anos, uns mil Starships descolam, levando cada um 100 pessoas ou mais. Essa visão é totalmente estonteadora para mim. Essa visão de uma armada de pessoas a dirigirem-se para...
EM: It'll be like "Battlestar Galactica," the fleet departs.
EM: Será como o “Battlestar Galactica”, a frota parte.
CA: And you think that it can basically be funded by people spending maybe a couple hundred grand on a ticket to Mars? Is that price about where it has been?
CA: E pensas que pode ser financiado por pessoas que gastam talvez uns duzentos mil num bilhete para Marte? Esse preço será o mesmo que tem sido?
EM: Well, I think if you say like, what's required in order to get enough people and enough cargo to Mars to build a self-sustaining city. And it's where you have an intersection of sets of people who want to go, because I think only a small percentage of humanity will want to go, and can afford to go or get sponsorship in some manner. That intersection of sets, I think, needs to be a million people or something like that. And so it’s what can a million people afford, or get sponsorship for, because I think governments will also pay for it, and people can take out loans. But I think at the point at which you say, OK, like, if moving to Mars costs are, for argument’s sake, $100,000, then I think you know, almost anyone can work and save up and eventually have $100,000 and be able to go to Mars if they want. We want to make it available to anyone who wants to go.
EM: Acho que, se dissermos o que é necessário a fim de arranjar pessoas suficientes e suficiente carga pra Marte para criar uma cidade autossustentada, É aqui que temos uma intersecção de grupos de pessoas que querem ir porque só há uma pequena percentagem de pessoas que querem ir e podem pagar para ir ou arranjar qualquer patrocínio. Penso que essa intersecção de grupos precisa de ser de um milhão de pessoas ou qualquer coisa como isso. Por isso é o que um milhão de pessoas pode gastar, ou arranjar um patrocínio, porque penso que os governos também vão pagar para isso e as pessoas podem fazer empréstimos. Mas penso que na altura em que disserem, OK, se os custos para Marte forem, suponhamos, de 100 000 dólares, penso que quase toda a gente, que puder trabalhar e poupar, terá 100 000 dólares e poderá ir a Marte, se quiser. Queremos que isso seja acessível a quem quiser ir.
It's very important to emphasize that Mars, especially in the beginning, will not be luxurious. It will be dangerous, cramped, difficult, hard work. It's kind of like that Shackleton ad for going to the Antarctic, which I think is actually not real, but it sounds real and it's cool. It's sort of like, the sales pitch for going to Mars is, "It's dangerous, it's cramped. You might not make it back. It's difficult, it's hard work." That's the sales pitch.
É muito importante sublinhar que Marte, especialmente no início, não será um luxo. Será perigoso, desconfortável, difícil, trabalhoso. É uma espécie de anúncio de Schackleton para ir para a Antártida, que acho que não é real mas parece real e fixe. É uma espécie de anúncio de vendas para ir a Marte desta forma: “É perigoso, é desconfortável, “Podem não conseguir voltar. “É difícil, é trabalhoso.” É o anúncio de vendas.
CA: Right. But you will make history.
CA: Certo. Mas ficarão na história.
EM: But it'll be glorious.
EM: Será uma glória.
CA: So on that kind of launch rate you're talking about over two decades, you could get your million people to Mars, essentially.
CA: Com esse ritmo de envios, levarás cerca de 20 anos, para conseguires levar um milhão de pessoas para Marte.
Whose city is it? Is it NASA's city, is it SpaceX's city?
De quem será essa cidade? É uma cidade da NASA? é uma cidade da SpaceX?
EM: It’s the people of Mars’ city. The reason for this, I mean, I feel like why do this thing? I think this is important for maximizing the probable lifespan of humanity or consciousness. Human civilization could come to an end for external reasons, like a giant meteor or super volcanoes or extreme climate change. Or World War III, or you know, any one of a number of reasons. But the probable life span of civilizational consciousness as we know it, which we should really view as this very delicate thing, like a small candle in a vast darkness. That is what appears to be the case. We're in this vast darkness of space, and there's this little candle of consciousness that’s only really come about after 4.5 billion years, and it could just go out.
EM: É a cidade do povo de Marte. A razão para isso é: porque é que eu faço isto? Penso que isso é importante para maximizar a provável esperança de vida da Humanidade ou a sua consciência. A civilização humana pode chegar ao fim por razões externas, como um meteoro gigante ou super vulcões ou uma alteração climática radical. Ou uma III Guerra Mundial ou qualquer outra de uma série de razões. Mas a provável esperança de vida da consciência civilizacional, tal como a conhecemos, que devíamos considerar realmente como uma coisa muito delicada, como uma pequena candeia numa ampla escuridão. Parece que é esse o caso. Estamos nesta ampla escuridão do espaço e há esta pequena candeia de consciência que só apareceu ao fim de 4500 milhões de anos, e pode extinguir-se.
CA: I think that's powerful, and I think a lot of people will be inspired by that vision. And the reason you need the million people is because there has to be enough people there to do everything that you need to survive.
CA: Acho essa ideia poderosa, e penso que muita gente se sentirá inspirada com essa visão. A razão por que precisas de um milhão de pessoas é porque tem de haver ali pessoas suficientes para fazer tudo o que for necessário para sobreviver.
EM: Really, like the critical threshold is if the ships from Earth stop coming for any reason, does the Mars City die out or not? And so we have to -- You know, people talk about like, the sort of, the great filters, the things that perhaps, you know, we talk about the Fermi paradox, and where are the aliens? Well maybe there are these various great filters that the aliens didn’t pass, and so they eventually just ceased to exist. And one of the great filters is becoming a multi-planet species. So we want to pass that filter. And I'll be long-dead before this is, you know, a real thing, before it happens. But I’d like to at least see us make great progress in this direction.
EM: Realmente, o limiar crítico é se as naves da Terra deixarem de aparecer, por qualquer razão, a cidade de Marte morrerá ou não? Por isso, temos de... as pessoas falam dos Grandes Filtros, das coisas que, talvez, falamos do paradoxo de Fermi, e onde estão os extraterrestres? Talvez haja esses diversos Grandes Filtros que os extraterrestres não puderam passar e, por isso, acabaram por deixar de existir. Um dos Grandes Filtros está a tornar-se uma espécie multiplaneta. Por isso, queremos passar esse filtro. E eu estarei morto há muito antes disso, é uma coisa real, antes de isso acontecer. Mas gostava de ver que fazíamos grandes progressos nessa direção.
CA: Given how tortured the Earth is right now, how much we're beating each other up, shouldn't there be discussions going on with everyone who is dreaming about Mars to try to say, we've got a once in a civilization's chance to make some new rules here? Should someone be trying to lead those discussions to figure out what it means for this to be the people of Mars' City?
CA: Vendo até que ponto a Terra está torturada neste momento, até que ponto andamos à pancada uns com os outros, não devia haver debates em curso com todos os que sonham com Marte para tentar dizer que temos uma ocasião única numa civilização de estabelecer novas regras? Não devia haver alguém a tentar liderar esses debates para percebermos o que significa isso para o povo da cidade de Marte?
EM: Well, I think ultimately this will be up to the people of Mars to decide how they want to rethink society. Yeah there’s certainly risk there. And hopefully the people of Mars will be more enlightened and will not fight amongst each other too much. I mean, I have some recommendations, which people of Mars may choose to listen to or not. I would advocate for more of a direct democracy, not a representative democracy, and laws that are short enough for people to understand. Where it is harder to create laws than to get rid of them.
EM: Penso que, em última análise isso competirá ao povo de Marte decidir como é que eles querem repensar a sociedade. Claro, há nisso obviamente um risco. E esperemos que o povo de Marte seja mais esclarecido e não andem a lutar demasiado uns contra os outros. Ou seja, tenho algumas recomendações que as pessoas de Marte podem aceitar ouvir ou não. Eu defenderia uma democracia mais direta em vez de uma democracia representativa e leis suficientemente sucintas para as pessoas compreenderem. Onde seja mais difícil fazer leis do que pô-las de lado.
CA: Coming back a bit nearer term, I'd love you to just talk a bit about some of the other possibility space that Starship seems to have created. So given -- Suddenly we've got this ability to move 100 tons-plus into orbit. So we've just launched the James Webb telescope, which is an incredible thing. It's unbelievable.
CA: Voltando a um prazo mais próximo, gostava que falasses sobre algumas das outras possibilidades espaciais que o Starship parece ter criado. Subitamente, temos esta capacidade de pôr em órbita 100 toneladas. Acabámos de lançar o telescópio James Webb o que é uma coisa incrível. É inacreditável.
EM: Exquisite piece of technology.
EM: Uma peça de tecnologia sofisticada.
CA: Exquisite piece of technology. But people spent two years trying to figure out how to fold up this thing. It's a three-ton telescope.
CA: É mesmo. As pessoas passaram dois anos a imaginar como desdobrar esta coisa. É um telescópio de três toneladas.
EM: We can make it a lot easier if you’ve got more volume and mass.
EM: Podemos fazê-lo muito mais fácil se tivéssemos maior volume e massa.
CA: But let's ask a different question. Which is, how much more powerful a telescope could someone design based on using Starship, for example?
CA: Mas vou fazer uma pergunta diferente. Até que ponto é possível conceber um telescópio mais poderoso com base na utilização do Starship, por exemplo?
EM: I mean, roughly, I'd say it's probably an order of magnitude more resolution. If you've got 100 tons and a thousand cubic meters volume, which is roughly what we have.
EM: Eu diria que é provável uma ordem de grandeza de mais resolução. Se tivermos 100 toneladas e mil metros cúbicos de volume, o que é mais ou menos o que temos aqui.
CA: And what about other exploration through the solar system? I mean, I'm you know --
CA: E quanto a outras explorações pelo sistema solar? EM: A Europa é um grande ponto de interrogação.
EM: Europa is a big question mark.
CA: Right, so there's an ocean there. And what you really want to do is to drop a submarine into that ocean.
CA: Certo, temos um oceano pelo meio. O que realmente queres fazer é lançar um submarino nesse oceano.
EM: Maybe there's like, some squid civilization, cephalopod civilization under the ice of Europa. That would be pretty interesting.
EM: Talvez haja uma civilização de lulas uma civilização de cefalópodes sob o gelo da Europa. Isso seria muito interessante.
CA: I mean, Elon, if you could take a submarine to Europa and we see pictures of this thing being devoured by a squid, that would honestly be the happiest moment of my life.
CA: Elon, se pudesses levar um submarino para a Europa e vermos fotos dessa coisa a ser devorada por uma lula, isso seria o momento mais feliz da minha vida.
EM: Pretty wild, yeah.
EM: Muito louco, sim.
CA: What other possibilities are out there? Like, it feels like if you're going to create a thousand of these things, they can only fly to Mars every two years. What are they doing the rest of the time? It feels like there's this explosion of possibility that I don't think people are really thinking about.
CA: Que outras possibilidades há por aí? Parece que, se vais criar mil coisas dessas, elas só podem voar para Marte de dois em dois anos. O que é que vão fazer durante o tempo restante? Parece que há uma explosão de possibilidades em que acho que as pessoas não estão a pensar.
EM: I don't know, we've certainly got a long way to go. As you alluded to earlier, we still have to get to orbit. And then after we get to orbit, we have to really prove out and refine full and rapid reusability. That'll take a moment. But I do think we will solve this. I'm highly confident we will solve this at this point.
EM: Não sei, mas temos um longo caminho a percorrer. Conforme referiste há bocado, ainda temos de entrar em órbita. E, depois de entrar em órbita, temos de aprovar e refinar uma reutilização completa e rápida. Isso levará tempo. Mas penso que resolveremos isso. Estou muito confiante de que resolveremos isso.
CA: Do you ever wake up with the fear that there's going to be this Hindenburg moment for SpaceX where ...
CA: Alguma vez acordas com medo de que vai haver um momento de Hindenburgo para a SpaceX...
EM: We've had many Hindenburg. Well, we've never had Hindenburg moments with people, which is very important. Big difference. We've blown up quite a few rockets. So there's a whole compilation online that we put together and others put together, it's showing rockets are hard. I mean, the sheer amount of energy going through a rocket boggles the mind. So, you know, getting out of Earth's gravity well is difficult. We have a strong gravity and a thick atmosphere. And Mars, which is less than 40 percent, it's like, 37 percent of Earth's gravity and has a thin atmosphere. The ship alone can go all the way from the surface of Mars to the surface of Earth. Whereas getting to Mars requires a giant booster and orbital refilling.
EM: Já tivemos muitos Hindenburgo. Bem, nunca tivemos momentos Hindenburgo com pessoas, o que é muito importante. Uma grande diferença. Explodimos uns quantos foguetões. Há toda uma compilação <i>online </i>que reunimos e que outros reuniram, que mostra que os foguetões são difíceis. A quantidade enorme de energia que entra num foguetão é de doidos. Sair do campo de gravidade da Terra é muito difícil. Temos uma forte gravidade e uma atmosfera espessa. Marte, que tem menos de 40%, cerca de 37% da gravidade da Terra e tem uma atmosfera fina. A nave sozinha pode fazer todo o caminho da superfície de Marte até à superfície da Terra. Enquanto que chegar a Marte
CA: So, Elon, as I think more about this incredible array of things
exige um propulsor gigantesco e o reabastecimento orbital.
that you're involved with, I keep seeing these synergies, to use a horrible word, between them. You know, for example, the robots you're building from Tesla could possibly be pretty handy on Mars, doing some of the dangerous work and so forth. I mean, maybe there's a scenario where your city on Mars doesn't need a million people, it needs half a million people and half a million robots. And that's a possibility. Maybe The Boring Company could play a role helping create some of the subterranean dwelling spaces that you might need.
CA: Então, Elon, quanto mais penso nesta série incrível de coisas em que andas envolvido, mas vejo estas sinergias — para usar esta palavra horrível — entre elas. Por exemplo, os robôs que estás a construir na Tesla podem dar muito jeito em Marte, a fazer algum do trabalho perigoso, e por aí adiante. Talvez haja um cenário onda a tua cidade em Marte não precise de um milhão de pessoas, precise é de um milhão de pessoas e meio milhão de robôs. Isso é uma possibilidade. Talvez a The Boring Company possa desempenhar um papel que ajude a criar alguns dos espaços subterrâneos para habitação
EM: Yeah.
de que podes precisar
EM: Talvez.
CA: Back on planet Earth, it seems like a partnership between Boring Company and Tesla could offer an unbelievable deal to a city to say, we will create for you a 3D network of tunnels populated by robo-taxis that will offer fast, low-cost transport to anyone. You know, full self-driving may or may not be done this year. And in some cities, like, somewhere like Mumbai, I suspect won't be done for a decade.
CA: Voltemos ao planeta Terra. Parece que uma parceria entre a Boring Company e a Tesla podem propor um negócio irrecusável a uma cidade, quando disseres: “Vamos criar uma rede 3D de túneis “povoada por táxis robôs “que oferece transportes rápidos e baratos a toda a gente.” A condução autónoma pode vir a ser feita ou não, este ano. E, nalgumas cidades, como algures em Mumbai, suspeito que isso não será feito antes de uma década.
EM: Some places are more challenging than others.
EM: Alguns locais são mais problemáticos do que outros.
CA: But today, today, with what you've got, you could put a 3D network of tunnels under there.
CA: Mas hoje, com o que já tens, podes colocar uma rede 3D de túneis lá.
EM: Oh, if it’s just in a tunnel, that’s a solved problem.
EM: Oh, se for apenas num túnel, é um problema resolvido.
CA: Exactly, full self-driving is a solved problem. To me, there’s amazing synergy there. With Starship, you know, Gwynne Shotwell talked about by 2028 having from city to city, you know, transport on planet Earth.
CA: Exatamente, a condução autónoma total é um problema resolvido. Quanto a mim, há aqui uma enorme sinergia. Com o Starship, a Gwynne Shotwell disse que, em 2028, teremos transportes de cidade para cidade no planeta Terra.
EM: This is a real possibility. The fastest way to get from one place to another, if it's a long distance, is a rocket. It's basically an ICBM.
EM: Isso é uma possibilidade real. A forma mais rápida de ir de um local a outro, se é uma longa distância, é um foguetão. É basicamente um ICBM.
CA: But it has to land -- Because it's an ICBM, it has to land probably offshore, because it's loud. So why not have a tunnel that then connects to the city with Tesla? And Neuralink. I mean, if you going to go to Mars having a telepathic connection with loved ones back home, even if there's a time delay...
CA: Mas isso tem de ter... Porque. se for um ICBM, tem de aterrar provavelmente ao largo , porque é barulhento. Porque é que não temos um túnel que ligue a cidade à Tesla? E à Neuralink. Se vamos a Marte, ter uma ligação telepática com os entes que ficaram em casa apesar da diferença de horas...
EM: These are not intended to be connected, by the way. But there certainly could be some synergies, yeah.
EM: A propósito, não se prevê essa ligação. Mas certamente haverá algumas sinergias, sim.
CA: Surely there is a growing argument that you should actually put all these things together into one company and just have a company devoted to creating a future that’s exciting, and let a thousand flowers bloom. Have you been thinking about that?
CA: Certamente, há uma discussão crescente que deves reunir essas coisas numa só empresa e ter uma empresa dedicada a criar um futuro que seja entusiasmante, e deixe florescer mil flores. Tens pensado nisso?
EM: I mean, it is tricky because Tesla is a publicly-traded company, and the investor base of Tesla and SpaceX and certainly Boring Company and Neuralink are quite different. Boring Company and Neuralink are tiny companies.
EM: É complicado, porque a Tesla é uma empresa cotada em Bolsa e as bases de investidores da Tesla e da SpaceX e também da Boring Company e da Neuralink são muito diferentes. A Boring Company e a Neuralink são pequenas empresas.
CA: By comparison.
CA: Em comparação.
EM: Yeah, Tesla's got 110,000 people. SpaceX I think is around 12,000 people. Boring Company and Neuralink are both under 200 people. So they're little, tiny companies, but they will probably get bigger in the future. They will get bigger in the future. It's not that easy to sort of combine these things.
EM: A Tesla tem 110 000 pessoas. A SpaceX tem cerca de 12 000 pessoas. A Boring Company e a Neuralink têm ambas menos de 200 pessoas. Portanto, são empresas minúsculas, mas provavelmente serão maiores no futuro. Vão crescer no futuro. Não é assim tão fácil combinar estas coisas.
CA: Traditionally, you have said that for SpaceX especially, you wouldn't want it public, because public investors wouldn't support the craziness of the idea of going to Mars or whatever.
CA: Já disseste que, no que se refere à SpaceX, não querias que ela fosse pública, porque os investidores públicos não aceitariam a loucura da ideia de ir a Marte ou o que seja.
EM: Yeah, making life multi-planetary is outside of the normal time horizon of Wall Street analysts. (Laughs) To say the least.
EM: Sim, fazer uma vida multiplanetária está fora do horizonte temporal normal dos analistas de Wall Street. Para dizer o mínimo. CA: Mas penso que alguma coisa mudou.
CA: I think something's changed, though. What's changed is that Tesla is now so powerful and so big and throws off so much cash that you actually could connect the dots here. Just tell the public that x-billion dollars a year, whatever your number is, will be diverted to the Mars mission. I suspect you'd have massive interest in that company. And it might unlock a lot more possibility for you, no?
O que mudou é que a Tesla é hoje tão poderosa e tão grande e joga com tanto dinheiro que podes juntar os pontos. Basta dizeres ao público que vais desviar x milhões de dólares por ano — qualquer número que seja — para a missão a Marte. Suspeito que terias um grande interesse nessa empresa. E poderia desbloquear muito mais possibilidades, não é?
EM: I would like to give the public access to ownership of SpaceX, but I mean the thing that like, the overhead associated with a public company is high. I mean, as a public company, you're just constantly sued. It does occupy like, a fair bit of ... You know, time and effort to deal with these things.
EM: Eu gostaria de dar acesso público à propriedade da SpaceX, mas o que acontece é que as despesas gerais associadas a uma empresa pública são altas, Enquanto empresa pública, estás sempre a ser processado. Ocupa muito tempo, muito tempo e esforço para lidar com essas coisas.
CA: But you would still only have one public company, it would be bigger, and have more things going on. But instead of being on four boards, you'd be on one.
CA: Mas tinhas apenas uma empresa pública, seria maior e teria mais coisas em marcha. Mas, em vez de ter quatro administrações teria só uma.
EM: I'm actually not even on the Neuralink or Boring Company boards. And I don't really attend the SpaceX board meetings. We only have two a year, and I just stop by and chat for an hour. The board overhead for a public company is much higher.
EM: Eu nem sequer estou nas administrações da Neuralink e da Boring Company. E não assisto às reuniões de administração da SpaceX. Só temos duas por ano e eu só passo por lá e converso durante uma hora. As despesas duma administração duma empresa pública são muito maiores.
CA: I think some investors probably worry about how your time is being split, and they might be excited by you know, that. Anyway, I just woke up the other day thinking, just, there are so many ways in which these things connect. And you know, just the simplicity of that mission, of building a future that is worth getting excited about, might appeal to an awful lot of people.
CA: Penso que alguns investidores se preocupam como divides o teu tempo, e podem ficar nervosos com isso. Aliás, eu acordei outro dia a pensar, se havia muitas formas de essas coisas se ligarem. E basta a simplicidade dessa missão, de criar um futuro com que vale a pena entusiasmar-nos, para poder apelar imensa gente.
Elon, you are reported by Forbes and everyone else as now, you know, the world's richest person.
Elon, és considerado pela Forbes e por todas as outras, agora, o homem mais rico do mundo.
EM: That’s not a sovereign.
EM: Não é uma soberania.
CA: (Laughs) EM: You know, I think it’s fair to say that if somebody is like, the king or de facto king of a country, they're wealthier than I am.
Penso que é justo dizer que, se alguém é como o rei, ou rei de facto de um país, é muito mais rico do que eu sou.
CA: But it’s just harder to measure -- So $300 billion. I mean, your net worth on any given day is rising or falling by several billion dollars. How insane is that?
CA: Mas é mais difícil medir... São 300 mil milhões de dólares. A tua situação líquida num determinado dia está a subir ou a descer em vários milhares de milhões de dólares. Isto não é uma loucura?
EM: It's bonkers, yeah.
EM: É de loucos, é.
CA: I mean, how do you handle that psychologically? There aren't many people in the world who have to even think about that.
CA: Como é que lidas com isso, psicologicamente? Não há muitas pessoas no mundo que tenham de pensar nisso.
EM: I actually don't think about that too much. But the thing that is actually more difficult and that does make sleeping difficult is that, you know, every good hour or even minute of thinking about Tesla and SpaceX has such a big effect on the company that I really try to work as much as possible, you know, to the edge of sanity, basically. Because you know, Tesla’s getting to the point where probably will get to the point later this year, where every high-quality minute of thinking is a million dollars impact on Tesla. Which is insane. I mean, the basic, you know, if Tesla is doing, you know, sort of $2 billion a week, let’s say, in revenue, it’s sort of $300 million a day, seven days a week. You know, it's ...
EM: Eu não penso muito nisso. Mas o que, para mim, é mais difícil e que me tira o sono é que, cada hora ou cada minuto que penso na Tesla e na SpaceX tem um efeito tão grande na empresa que tento trabalhar o mais possível ao ponto de perder a sanidade. Porque a Tesla está a chegar a um ponto, provavelmente chegaremos ao ponto ainda este ano em que cada minuto de pensamento de alta qualidade tem um impacto de um milhão de dólares na Tesla, o que é uma loucura. Basicamente, se a Tesla estiver a fazer dois mil milhões de dólares por semana, de receitas, são 300 milhões de dólares por dia, sete dias por semana.
CA: If you can change that by five percent in an hour’s brainstorm, that's a pretty valuable hour.
CA: Se mudares isso para 5% num <i>brainstorm </i>de uma hora, é um bonito valor por hora.
EM: I mean, there are many instances where a half-hour meeting, I was able to improve the financial outcome of the company by $100 million in a half-hour meeting.
EM: Há muitas ocasiões em que numa reunião de meia hora consegui melhorar o resultado financeiro da empresa em 100 milhões de dólares, numa reunião de meia hora.
CA: There are many other people out there who can't stand this world of billionaires. Like, they are hugely offended by the notion that an individual can have the same wealth as, say, a billion or more of the world's poorest people.
CA: Há por aí muitas pessoas que não suportam esse mundo de multimilionários. Sentem-se profundamente ofendidos com a noção de que um indivíduo posse ter a mesma riqueza do que mil milhões ou mais das pessoas mais pobres do mundo.
EM: If they examine sort of -- I think there's some axiomatic flaws that are leading them to that conclusion. For sure, it would be very problematic if I was consuming, you know, billions of dollars a year in personal consumption. But that is not the case. In fact, I don't even own a home right now. I'm literally staying at friends' places. If I travel to the Bay Area, which is where most of Tesla engineering is, I basically rotate through friends' spare bedrooms. I don't have a yacht, I really don't take vacations. It’s not as though my personal consumption is high. I mean, the one exception is a plane. But if I don't use the plane, then I have less hours to work.
EM: Se examinarem bem, parece-me que há aí uns erros axiomáticos que os levam a essa conclusão. Claro, seria muito problemático se eu consumisse milhares de milhões de dólares por ano em consumos pessoais. Mas isso não acontece. Eu neste momento nem sequer tenho uma casa. Estou alojado, literalmente, em casa de amigos. Se viajo até à Bay Area, que é onde está a maior parte da engenharia da Tesla, basicamente, faço a ronda aos quartos livres de amigos, não tenho um iate, não faço férias. Os meus consumos pessoais não são grandes. A única exceção é um avião. Mas, se não usasse o avião, perdia horas de trabalho.
CA: I mean, I personally think you have shown that you are mostly driven by really quite a deep sense of moral purpose. Like, your attempts to solve the climate problem have been as powerful as anyone else on the planet that I'm aware of. And I actually can't understand, personally, I can't understand the fact that you get all this criticism from the Left about, "Oh, my God, he's so rich, that's disgusting." When climate is their issue. Philanthropy is a topic that some people go to. Philanthropy is a hard topic. How do you think about that?
CA: Pessoalmente, penso que tens mostrado que és motivado sobretudo por um profundo sentimento de objetivo moral. As tuas tentativas para resolver o problema do clima têm sido tão poderosas como qualquer outra pessoa no planeta que eu conheço. E não posso compreender, pessoalmente, não posso compreender todas as críticas que te fazem, especialmente da Esquerda. “Oh, meu Deus, ele é tão rico, é imoral!” Quando o clima é o problema deles. A filantropia é um tópico que algumas pessoas adotam. A filantropia é um tópico difícil. O que pensas em relação a isso?
EM: I think if you care about the reality of goodness instead of the perception of it, philanthropy is extremely difficult. SpaceX, Tesla, Neuralink and The Boring Company are philanthropy. If you say philanthropy is love of humanity, they are philanthropy. Tesla is accelerating sustainable energy. This is a love -- philanthropy. SpaceX is trying to ensure the long-term survival of humanity with a multiple-planet species. That is love of humanity. You know, Neuralink is trying to help solve brain injuries and existential risk with AI. Love of humanity. Boring Company is trying to solve traffic, which is hell for most people, and that also is love of humanity.
EM: Penso que, se nos preocuparmos com a realidade da bondade, em vez da sua perceção, a filosofia é extremamente difícil. A SpaceX, a Tesla, a Neuralink e a The Boring Company são filantropia. Se disserem que a filantropia é o amor da Humanidade, elas são filantropia. A Tesla está a acelerar a energia sustentável. Isso é um amor — filantropia. A SpaceX está a tentar garantir a sobrevivência da Humanidade, a longo prazo, enquanto espécie multiplanetas. Isso é amor da Humanidade. A Neuralink está a tentar ajudar a resolver lesões cerebrais e o risco existencial com a IA. Amor da Humanidade. A Boring Company está a tentar resolver o tráfego, é um inferno para muita gente. e isso também é amor da Humanidade.
CA: How upsetting is it to you to hear this constant drumbeat of, "Billionaires, my God, Elon Musk, oh, my God?" Like, do you just shrug that off or does it does it actually hurt?
CA: Até que ponto ficas aborrecido ao ouvir este permanente martelar de: “Multimilionários? Meu Deus, Elon Musk, meu Deus?” Encolhes sempre os ombros ou isso magoa mesmo?
EM: I mean, at this point, it's water off a duck's back.
EM: Nesta altura, é o mesmo que chover no molhado.
CA: Elon, I’d like to, as we wrap up now, just pull the camera back and just think ... You’re a father now of seven surviving kids.
CA: Elon, agora que nos aproximamos do fim, muda de agulha e pensa um pouco. Tens sete miúdos.
EM: Well, I mean, I'm trying to set a good example because the birthrate on Earth is so low that we're facing civilizational collapse unless the birth rate returns to a sustainable level.
EM: Estou a tentar dar bom exemplo, porque a taxa de natalidade na Terra é tão baixa que enfrentamos um colapso da civilização, a não ser que a taxa de natalidade volte a um nível sustentável.
CA: Yeah, you've talked about this a lot, that depopulation is a big problem, and people don't understand how big a problem it is.
CA: Sim, já tens falado muito sobre isso. que a redução da população é um grande problema, e as pessoas não percebem que o problema é grande.
EM: Population collapse is one of the biggest threats to the future of human civilization. And that is what is going on right now.
EM: O colapso da população é uma das maiores ameaças ao futuro da civilização humana. É o que se está a passar agora.
CA: What drives you on a day-to-day basis to do what you do?
CA: O que é que te motiva numa base quotidiana para fazer o que fazes?
EM: I guess, like, I really want to make sure that there is a good future for humanity and that we're on a path to understanding the nature of the universe, the meaning of life. Why are we here, how did we get here? And in order to understand the nature of the universe and all these fundamental questions, we must expand the scope and scale of consciousness. Certainly it must not diminish or go out. Or we certainly won’t understand this. I would say I’ve been motivated by curiosity more than anything, and just desire to think about the future and not be sad, you know?
EM: Acho que o que quero é garantir que há um bom futuro para a Humanidade e que estamos no bom caminho pra compreender a natureza do Universo, o sentido da vida. Porque é que estamos aqui, como é que aqui chegámos? E a fim de perceber a natureza do Universo e todas essas questões fundamentais, precisamos de expandir o âmbito e a dimensão da consciência. Claro, ela não pode diminuir nem desaparecer. Senão não vamos compreender isto. Eu tenho sido motivado pela curiosidade, mais do que por qualquer outra coisa, e apenas pelo desejo de pensar no futuro e não ficar triste, percebes?
CA: And are you? Are you not sad?
CA? E não ficas? Não ficas triste?
EM: I'm sometimes sad, but mostly I'm feeling I guess relatively optimistic about the future these days. There are certainly some big risks that humanity faces. I think the population collapse is a really big deal, that I wish more people would think about because the birth rate is far below what's needed to sustain civilization at its current level. And there's obviously ... We need to take action on climate sustainability, which is being done. And we need to secure the future of consciousness by being a multi-planet species. We need to address -- Essentially, it's important to take whatever actions we can think of to address the existential risks that affect the future of consciousness.
EM: Por vezes, sinto-me triste mas na maior parte das vezes, sou relativamente otimista, quanto ao futuro, atualmente. Há certamente grandes riscos que a Humanidade enfrenta. Penso que o colapso da população é um enorme problema e gostava que as pessoas pensassem nisso porque a taxa de natalidade está muito abaixo do que uma civilização sustentada precisa no seu nível atual. E há obviamente... Precisamos de agir sobre a sustentabilidade do clima coisa que está a ser feita. Precisamos de garantir o futuro da consciência de sermos uma espécie multiplanetas. Precisamos de abordar... Essencialmente, é importante agir como for possível para abordar os riscos existenciais que afetam o futuro da consciência.
CA: There's a whole generation coming through who seem really sad about the future. What would you say to them?
CA: Está a aparecer toda uma geração que parece estar triste com o futuro. O que é que lhes dirias?
EM: Well, I think if you want the future to be good, you must make it so. Take action to make it good. And it will be.
EM: Penso que, se vocês querem que o futuro seja bom, têm de o fazer. Atuem para o fazerem bom. E assim será.
CA: Elon, thank you for all this time. That is a beautiful place to end. Thanks for all you're doing.
CA: Elon, obrigado por todo este tempo. É um ponto perfeito para acabar. Obrigado por tudo o que vens fazendo.
EM: You're welcome.
EM: De nada.