After 13.8 billion years of cosmic history, our universe has woken up and become aware of itself. From a small blue planet, tiny, conscious parts of our universe have begun gazing out into the cosmos with telescopes, discovering something humbling. We've discovered that our universe is vastly grander than our ancestors imagined and that life seems to be an almost imperceptibly small perturbation on an otherwise dead universe. But we've also discovered something inspiring, which is that the technology we're developing has the potential to help life flourish like never before, not just for centuries but for billions of years, and not just on earth but throughout much of this amazing cosmos.
Dopo 13,8 miliardi di anni di storia cosmica, il nostro universo si è risvegliato e ha preso coscienza di se stesso. Da un piccolo pianeta blu, minuscole parti coscienti del nostro universo hanno iniziato a osservare il cosmo con telescopi, scoprendo umiltà. Abbiamo scoperto che il nostro universo è molto più grande di quanto abbiano immaginato i nostri antenati e che la vita sembra essere una perturbazione quasi impercettibile in un universo altrimenti morto. Ma abbiamo anche scoperto qualcosa di stimolante, ossia che la tecnologia che stiamo sviluppando può potenzialmente aiutare la vita a fiorire come mai prima d'ora, non solo per secoli, ma per miliardi di anni, e non solo sulla terra ma in gran parte dell'universo.
I think of the earliest life as "Life 1.0" because it was really dumb, like bacteria, unable to learn anything during its lifetime. I think of us humans as "Life 2.0" because we can learn, which we in nerdy, geek speak, might think of as installing new software into our brains, like languages and job skills. "Life 3.0," which can design not only its software but also its hardware of course doesn't exist yet. But perhaps our technology has already made us "Life 2.1," with our artificial knees, pacemakers and cochlear implants.
Vedo la vita precedente come una "Vita 1.0" perché era davvero stupida, come i batteri, incapaci di imparare alcunché. Vedo gli esseri umani come una "Vita 2.0" perché possiamo imparare, che in linguaggio nerd o geek, significa installare nuovi software nel cervello, come le lingue e le capacità lavorative. La "Vita 3.0", che può progettare l'hardware oltre che il software ovviamente non esiste ancora. Ma forse la nostra tecnologia ci ha già resi "Vita 2.1", con le ginocchia artificiali, i pacemaker e gli apparecchi acustici.
So let's take a closer look at our relationship with technology, OK? As an example, the Apollo 11 moon mission was both successful and inspiring, showing that when we humans use technology wisely, we can accomplish things that our ancestors could only dream of. But there's an even more inspiring journey propelled by something more powerful than rocket engines, where the passengers aren't just three astronauts but all of humanity. Let's talk about our collective journey into the future with artificial intelligence.
Diamo uno sguardo più da vicino alla nostra relazione con la tecnologia. Ad esempio, la missione lunare Apollo 11 è riuscita ed è stata stimolante, mostrando che quando gli esseri umani usano la tecnologia con saggezza, possiamo compiere cose che i nostri antenati si sognavano. Ma c'è un percorso ancora più stimolante spinto da qualcosa di ancora più forte dei motori dei razzi, in cui i passeggeri non sono solo tre astronauti ma tutta l'umanità. Parliamo del nostro viaggio collettivo nel futuro con l'intelligenza artificiale.
My friend Jaan Tallinn likes to point out that just as with rocketry, it's not enough to make our technology powerful. We also have to figure out, if we're going to be really ambitious, how to steer it and where we want to go with it. So let's talk about all three for artificial intelligence: the power, the steering and the destination.
Il mio amico Jaan Tallinn ama sottolineare che proprio come i razzi, non basta rendere potente la tecnologia. Dobbiamo anche capire se saremo davvero ambiziosi, dove indirizzarla e dove vogliamo andarci. Parliamo di tutti e tre per l'intelligenza artificiale: la potenza, la direzione e la destinazione.
Let's start with the power. I define intelligence very inclusively -- simply as our ability to accomplish complex goals, because I want to include both biological and artificial intelligence. And I want to avoid the silly carbon-chauvinism idea that you can only be smart if you're made of meat. It's really amazing how the power of AI has grown recently. Just think about it. Not long ago, robots couldn't walk. Now, they can do backflips. Not long ago, we didn't have self-driving cars. Now, we have self-flying rockets. Not long ago, AI couldn't do face recognition. Now, AI can generate fake faces and simulate your face saying stuff that you never said. Not long ago, AI couldn't beat us at the game of Go. Then, Google DeepMind's AlphaZero AI took 3,000 years of human Go games and Go wisdom, ignored it all and became the world's best player by just playing against itself. And the most impressive feat here wasn't that it crushed human gamers, but that it crushed human AI researchers who had spent decades handcrafting game-playing software. And AlphaZero crushed human AI researchers not just in Go but even at chess, which we have been working on since 1950.
Iniziamo con la potenza. Definisco l'intelligenza in modo molto inclusivo -- semplicemente la nostra capacità di realizzare obiettivi complessi, perché voglio includere sia l'intelligenza biologica che quella artificiale. E voglio evitare quella stupida idea carbonio-sciovinistica che si può essere intelligenti solo se fatti di carne. È incredibile quanto sia migliorata l'IA ultimamente. Pensateci un po'. Non molto tempo fa, i robot non potevano camminare. Ora possono fare capriole. Poco tempo fa, non avevamo le auto a guida autonoma. Ora abbiamo razzi a volo autonomo. Poco tempo fa, l'IA non era capace di riconoscimento facciale. Ora l'IA può generare falsi visi e similare la vostra faccia che dice cose che non avete mai detto. Poco tempo fa, l'IA non poteva batterci a Go. Poi, l'IA AlphaZero di Google DeepMind ha preso 3000 anni di giochi di Go e saggezza Go, li ha ignorati tutti ed è diventato il miglior giocatore al mondo giocando contro se stesso. E l'aspetto più impressionante non è che ha stracciato gli umani, ma che ha stracciato i ricercatori di IA che avevano passato decenni a creare il software di gioco. E AlphaZero ha stracciato i ricercatori di IA non solo a Go, ma anche a scacchi, su cui lavoriamo dal 1950.
So all this amazing recent progress in AI really begs the question: How far will it go? I like to think about this question in terms of this abstract landscape of tasks, where the elevation represents how hard it is for AI to do each task at human level, and the sea level represents what AI can do today. The sea level is rising as AI improves, so there's a kind of global warming going on here in the task landscape. And the obvious takeaway is to avoid careers at the waterfront --
Questi straordinari progressi recenti in IA sollevano la questione: fin dove ci spingeremo? Mi piace pensare a questa domanda in termini di astratto panorama di compiti in cui l'elevazione rappresenta la difficoltà di ogni compito per l'IA a livello umano, e il livello del mare rappresenta quello che l'IA può fare oggi. Il livello del mare si innalza quando l'IA migliora, c'è una specie di riscaldamento globale nel panorama dei compiti. Il risultato ovvio è evitare carriere lungo la costa --
(Laughter)
(Risate)
which will soon be automated and disrupted. But there's a much bigger question as well. How high will the water end up rising? Will it eventually rise to flood everything, matching human intelligence at all tasks. This is the definition of artificial general intelligence -- AGI, which has been the holy grail of AI research since its inception. By this definition, people who say, "Ah, there will always be jobs that humans can do better than machines," are simply saying that we'll never get AGI. Sure, we might still choose to have some human jobs or to give humans income and purpose with our jobs, but AGI will in any case transform life as we know it with humans no longer being the most intelligent. Now, if the water level does reach AGI, then further AI progress will be driven mainly not by humans but by AI, which means that there's a possibility that further AI progress could be way faster than the typical human research and development timescale of years, raising the controversial possibility of an intelligence explosion where recursively self-improving AI rapidly leaves human intelligence far behind, creating what's known as superintelligence.
che saranno presto scombussolate e automatizzate. Ma la questione è molto più ampia. Quanto si innalzerà l'acqua? Si innalzerà per inondare tutto, arriverà a livello di tutti i compiti umani. Questa è la definizione di intelligenza artificiale generale -- AGI, che è stato il santo graal dell'IA fin dalla sua nascita. Con questa definizione, la gente che dice, "Ci saranno sempre lavori che gli esseri umani possono fare meglio delle macchine, sta semplicemente dicendo che non arriveremo mai all'AGI. Certo, potremo anche scegliere di avere lavori umani o di dare agli esseri umani reddito e scopo con i nostri lavori, ma l'AGI trasformerà comunque la vita come la conosciamo e gli esseri umani non saranno più i più intelligenti. Se il livello dell'acqua raggiunge l'AGI, gli ulteriori progressi dell'IA non saranno più guidati dagli esseri umani, ma dalla IA, che significa che c'è la possibilità che un'ulteriore progresso dell'IA sia ancora più veloce della tipica scala temporale di ricerca e sviluppo umani di anni, sollevando la possibile controversia di un'esplosione di intelligenza in cui una IA che auto-migliora in modo ricorrente lascia rapidamente molto indietro l'intelligenza umana, creando quello che chiamiamo una superintelligenza.
Alright, reality check: Are we going to get AGI any time soon? Some famous AI researchers, like Rodney Brooks, think it won't happen for hundreds of years. But others, like Google DeepMind founder Demis Hassabis, are more optimistic and are working to try to make it happen much sooner. And recent surveys have shown that most AI researchers actually share Demis's optimism, expecting that we will get AGI within decades, so within the lifetime of many of us, which begs the question -- and then what? What do we want the role of humans to be if machines can do everything better and cheaper than us?
Controllo della realtà: avremo a breve l'AGI? Alcuni famosi ricercatori di IA, come Rodney Brooks, pensano che non succederà per centinaia di anni. Ma altri, come il fondatore di Google DeepMind Demis Hassabis, sono più ottimisti e stanno lavorando per farlo accadere molto prima. Ricerche recenti hanno dimostrato che molti ricercatori di IA condividono l'ottimismo di Demis, e si aspettano di vedere l'AGI in qualche decennio, quindi durante le vita di molti di noi, il che solleva la domanda: e poi? Quale vogliamo che sia il ruolo degli esseri umani se le macchina possono fare tutto meglio e a minor costo?
The way I see it, we face a choice. One option is to be complacent. We can say, "Oh, let's just build machines that can do everything we can do and not worry about the consequences. Come on, if we build technology that makes all humans obsolete, what could possibly go wrong?"
La vedo così: abbiamo di fronte una scelta. Un'opzione è esserne soddisfatti. Possiamo dire, "Dai, costruiamo macchine che possano fare tutto quel che facciamo noi e non ci preoccupiamo delle conseguenze. Dai, se costruiamo tecnologie che rendono gli umani obsoleti, cosa potrebbe andare storto?"
(Laughter)
(Risate)
But I think that would be embarrassingly lame. I think we should be more ambitious -- in the spirit of TED. Let's envision a truly inspiring high-tech future and try to steer towards it. This brings us to the second part of our rocket metaphor: the steering. We're making AI more powerful, but how can we steer towards a future where AI helps humanity flourish rather than flounder? To help with this, I cofounded the Future of Life Institute. It's a small nonprofit promoting beneficial technology use, and our goal is simply for the future of life to exist and to be as inspiring as possible. You know, I love technology. Technology is why today is better than the Stone Age. And I'm optimistic that we can create a really inspiring high-tech future ... if -- and this is a big if -- if we win the wisdom race -- the race between the growing power of our technology and the growing wisdom with which we manage it. But this is going to require a change of strategy because our old strategy has been learning from mistakes. We invented fire, screwed up a bunch of times -- invented the fire extinguisher.
Ma credo che sarebbe davvero poco convincente. Credo che dovremmo essere più ambiziosi, nello spirito di TED. Immaginiamo un futuro high-tech davvero stimolante e cerchiamo di andare in quella direzione. Questo ci porta alla seconda parte della metafora del razzo: la direzione. Facciamo l'IA più potente, ma come possiamo indirizzarci verso un futuro in cui l'IA aiuti l'umanità a progredire invece di annaspare? Per aiutare, ho cofondato il Future of Life Institute. È una piccola no profit che promuove l'uso benefico della tecnologia, e il nostro obiettivo è il futuro della vita e essere più stimolanti possibile. Sapete che adoro la tecnologia. La tecnologia è il motivo per cui oggi stiamo meglio che nell'età della pietra. E sono ottimista, possiamo creare un futuro high-tech davvero stimolante... se, ed è un grande se, se vinciamo la gara della saggezza, la gara tra il potere crescente della tecnologia e la saggezza crescente con cui la gestiamo. Ma sarà necessario un cambio di strategia perché la nostra vecchia strategia prevedeva di imparare dagli errori. Abbiamo inventato il fuoco, abbiamo fatto qualche casino -- abbiamo inventato l'estintore.
(Laughter)
(Risate)
We invented the car, screwed up a bunch of times -- invented the traffic light, the seat belt and the airbag, but with more powerful technology like nuclear weapons and AGI, learning from mistakes is a lousy strategy, don't you think?
Abbiamo inventato la macchina, fatto qualche casino -- abbiamo inventato i semafori, le cinture e gli airbag, ma con una tecnologia più potente come le armi nucleari e l'AGI, imparare dagli errori è una strategia che fa schifo, siete d'accordo?
(Laughter)
(Risate)
It's much better to be proactive rather than reactive; plan ahead and get things right the first time because that might be the only time we'll get. But it is funny because sometimes people tell me, "Max, shhh, don't talk like that. That's Luddite scaremongering." But it's not scaremongering. It's what we at MIT call safety engineering. Think about it: before NASA launched the Apollo 11 mission, they systematically thought through everything that could go wrong when you put people on top of explosive fuel tanks and launch them somewhere where no one could help them. And there was a lot that could go wrong. Was that scaremongering? No. That's was precisely the safety engineering that ensured the success of the mission, and that is precisely the strategy I think we should take with AGI. Think through what can go wrong to make sure it goes right.
È molto meglio essere proattivi invece che reattivi; pianificare in anticipo e fare le cose bene la prima volta perché potrebbe essere la nostra unica occasione. Ma è divertente perché talvolta la gente mi dice, "Max, shhh, non dire così. È allarmismo luddista." Ma non è allarmismo. È quello che noi all'MIT chiamiamo ingegneria di sicurezza. Pensateci: prima del lancio della missione Apollo 11, la NASA ha pensato sistematicamente a tutto quello che poteva andare storto a mettere persone su serbatoi carburante esplosivi e lanciarle dove nessuno avrebbe potuto aiutarle. E molte cose potevano andare storte. Era allarmismo? No. Era esattamente l'ingegneria di sicurezza che assicurava il successo della missione, ed è esattamente la strategia che credo dovremmo adottare per l'AGI. Pensare a quello che potrebbe andare storto per fare le cose giuste.
So in this spirit, we've organized conferences, bringing together leading AI researchers and other thinkers to discuss how to grow this wisdom we need to keep AI beneficial. Our last conference was in Asilomar, California last year and produced this list of 23 principles which have since been signed by over 1,000 AI researchers and key industry leaders, and I want to tell you about three of these principles.
Con questo spirito, abbiamo organizzato conferenze, riunito grandi ricercatori di IA e altri esperti per discutere di come coltivare la saggezza utile perché l'IA sia vantaggiosa. La nostra ultima conferenza è stata a Asilomar, California, l'anno scorso e ha prodotto una lista di 23 principi che da allora sono stati sottoscritti da più di 1000 ricercatori di IA e importanti leader industriali. Voglio raccontarvi tre di questi principi.
One is that we should avoid an arms race and lethal autonomous weapons. The idea here is that any science can be used for new ways of helping people or new ways of harming people. For example, biology and chemistry are much more likely to be used for new medicines or new cures than for new ways of killing people, because biologists and chemists pushed hard -- and successfully -- for bans on biological and chemical weapons. And in the same spirit, most AI researchers want to stigmatize and ban lethal autonomous weapons. Another Asilomar AI principle is that we should mitigate AI-fueled income inequality. I think that if we can grow the economic pie dramatically with AI and we still can't figure out how to divide this pie so that everyone is better off, then shame on us.
Uno è che dovremmo evitare una corsa agli armamenti e armi autonome letali. L'idea è che qualunque scienza può essere usata per aiutare la gente o per armare la gente. Per esempio, è più probabile che la biologia e la chimica vengano usate per nuovi medicinali o nuove cure che per uccidere le persone, perché biologi e chimici fanno pressione, in modo efficace, per proibire armi chimiche e biologiche. Con lo stesso spirito, molti ricercatori vogliono stigmatizzare e proibire le armi letali autonome. Un altro principio Asilomar dell'IA è che dovremmo mitigare le disparità di reddito alimentate dall'IA. Credo che se possiamo far crescere significativamente l'economia con l'IA senza capire come dividerci questa torta in modo che tutti stiano meglio, è una vergogna.
(Applause)
(Applausi)
Alright, now raise your hand if your computer has ever crashed.
Bene, ora alzate la mano se vi si è mai impallato il computer.
(Laughter)
(Risate)
Wow, that's a lot of hands. Well, then you'll appreciate this principle that we should invest much more in AI safety research, because as we put AI in charge of even more decisions and infrastructure, we need to figure out how to transform today's buggy and hackable computers into robust AI systems that we can really trust, because otherwise, all this awesome new technology can malfunction and harm us, or get hacked and be turned against us. And this AI safety work has to include work on AI value alignment, because the real threat from AGI isn't malice, like in silly Hollywood movies, but competence -- AGI accomplishing goals that just aren't aligned with ours. For example, when we humans drove the West African black rhino extinct, we didn't do it because we were a bunch of evil rhinoceros haters, did we? We did it because we were smarter than them and our goals weren't aligned with theirs. But AGI is by definition smarter than us, so to make sure that we don't put ourselves in the position of those rhinos if we create AGI, we need to figure out how to make machines understand our goals, adopt our goals and retain our goals.
Wow, sono tante mani. Allora vi piacerà questo principio per cui dovremmo investire molto di più nella sicurezza dell'IA, perché se cediamo il controllo all'IA in sempre più decisioni e infrastrutture, dobbiamo capire come trasformare i bug e i computer attaccabili di oggi in sistemi di IA solidi in cui avere fiducia, perché altrimenti, questa meravigliosa nuova tecnologia, può funzionare male e danneggiarci, o essere attaccata e rivoltarsi contro di noi. Questo lavoro di sicurezza sull'IA deve includere un allineamento dei valori, perché la vera minaccia dell'AGI non è la malizia, come negli stupidi film hollywoodiani, ma la competenza -- l'AGI realizza obiettivi che non sono allineati ai nostri. Per esempio, quando noi umani abbiamo portato il rinoceronte all'estinzione, non l'abbiamo fatto perché eravamo nemici dei rinoceronti, no? L'abbiamo fatto perché eravamo più intelligenti di loro e i nostri obiettivi non erano allineati con i loro. Ma l'AGI per definizione è più intelligente di noi, quindi per essere sicuri di non metterci nella posizione di quei rinoceronti se creiamo l'AGI, dobbiamo capire come fare macchine che capiscano i nostri obiettivi, li adottino e li memorizzino.
And whose goals should these be, anyway? Which goals should they be?
E comunque di chi dovrebbero essere questi obiettivi? Quali obiettivi dovrebbero essere?
This brings us to the third part of our rocket metaphor: the destination. We're making AI more powerful, trying to figure out how to steer it, but where do we want to go with it? This is the elephant in the room that almost nobody talks about -- not even here at TED -- because we're so fixated on short-term AI challenges. Look, our species is trying to build AGI, motivated by curiosity and economics, but what sort of future society are we hoping for if we succeed? We did an opinion poll on this recently, and I was struck to see that most people actually want us to build superintelligence: AI that's vastly smarter than us in all ways. What there was the greatest agreement on was that we should be ambitious and help life spread into the cosmos, but there was much less agreement about who or what should be in charge. And I was actually quite amused to see that there's some some people who want it to be just machines.
Questo ci porta alla terza parte della nostra metafora del razzo: la destinazione. Facciamo IA più potente, per capire come indirizzarla, ma dove vogliamo andarci? È l'elefante nella stanza di cui quasi nessuno parla, nemmeno qui a TED, perché siamo così fissati sulle sfide a breve termine dell'IA. La nostra specie sta cercando di costruire l'AGI, motivata da curiosità e interessi economici, ma in che tipo di società futura speriamo se abbiamo successo? Di recente, abbiamo fatto un sondaggio, sono stato colpito del fatto che in realtà molti vogliono che si costruisca una superintelligenza: IA che sia molto più intelligente di noi in tutti i sensi. Il più grande accordo è stato sull'ambizione e sull'aiutare la vita a diffondersi nel cosmo, ma c'è stato molto meno accordo su chi o cosa fosse responsabile. E mi sono quasi divertito a vedere che qualcuno vorrebbe solo le macchine.
(Laughter)
(Risate)
And there was total disagreement about what the role of humans should be, even at the most basic level, so let's take a closer look at possible futures that we might choose to steer toward, alright?
C'era totale disaccordo su quale debba essere il ruolo degli esseri umani, anche a livello più basilare, allora guardiamo più da vicino i futuri possibili verso i quali potremmo andare.
So don't get me wrong here. I'm not talking about space travel, merely about humanity's metaphorical journey into the future. So one option that some of my AI colleagues like is to build superintelligence and keep it under human control, like an enslaved god, disconnected from the internet and used to create unimaginable technology and wealth for whoever controls it. But Lord Acton warned us that power corrupts, and absolute power corrupts absolutely, so you might worry that maybe we humans just aren't smart enough, or wise enough rather, to handle this much power. Also, aside from any moral qualms you might have about enslaving superior minds, you might worry that maybe the superintelligence could outsmart us, break out and take over. But I also have colleagues who are fine with AI taking over and even causing human extinction, as long as we feel the the AIs are our worthy descendants, like our children. But how would we know that the AIs have adopted our best values and aren't just unconscious zombies tricking us into anthropomorphizing them? Also, shouldn't those people who don't want human extinction have a say in the matter, too? Now, if you didn't like either of those two high-tech options, it's important to remember that low-tech is suicide from a cosmic perspective, because if we don't go far beyond today's technology, the question isn't whether humanity is going to go extinct, merely whether we're going to get taken out by the next killer asteroid, supervolcano or some other problem that better technology could have solved.
Non fraintendetemi. Non sto parlando di viaggio nello spazio, semplicemente di un metaforico viaggio dell'umanità nel futuro. Un'opzione che piace ai miei colleghi IA è costruire una superintelligenza e tenerla sotto controllo umano, come un Dio schiavizzato, sconnesso da Internet e usato per creare tecnologia e ricchezza inimmaginabili per chiunque la controlli. Ma Lord Acton ci ha avvisati che il potere corrompe, e il potere assoluto corrompe assolutamente, penserete che forse gli esseri umani non sono abbastanza intelligenti, o piuttosto abbastanza saggi, per gestire un tale potere. Inoltre, fatta eccezione per gli scrupoli morali che potreste avere sulla sottomissione di menti superiori, potreste preoccuparvi di un'intelligenza più furba di noi, che scappa e prende il controllo. Ma ho anche colleghi a cui sta bene una IA che prende il controllo che causa addirittura l'estinzione dell'uomo, purché sentiamo che l'IA è un nostro degno discendente, come i nostri figli. Ma come sapremo che l'IA ha adottato i nostri migliori valori e non è solo fatta di zombie inconsapevoli che ci ingannano a antropomorfizzarli? E quelli che non vogliono l'estinzione della razza umana non dovrebbero dire qualcosa anche loro? Se non vi piace nessuna di queste opzioni high-tech, è importante ricordare che low-tech equivale a suicidio da un punto di vista cosmico, perché se non andiamo molto oltre la tecnologia di oggi, la questione non è se l'umanità si estinguerà, ma se verremo spazzati via dal prossimo asteroide killer, supervulcano o qualche altro problema
So, how about having our cake and eating it ...
che una migliore tecnologia avrebbe potuto risolvere.
with AGI that's not enslaved but treats us well because its values are aligned with ours? This is the gist of what Eliezer Yudkowsky has called "friendly AI," and if we can do this, it could be awesome. It could not only eliminate negative experiences like disease, poverty, crime and other suffering, but it could also give us the freedom to choose from a fantastic new diversity of positive experiences -- basically making us the masters of our own destiny.
Allora perché non mangiarci la nostra torta... con AGI non sottomessa ma ci tratta bene perché i suoi valori sono allineati ai nostri? Questo è il concetto di quello che Eliezer Yudowsky chiama "IA amica," e se potessimo farlo, sarebbe meraviglioso. Potrebbe non solo eliminare le esperienze negative come malattie, povertà, crimini e altre sofferenze, ma potrebbe darci anche la libertà di scelta tra un fantastica nuova varietà di esperienze positive -- in sostanza rendendoci padroni del nostro destino.
So in summary, our situation with technology is complicated, but the big picture is rather simple. Most AI researchers expect AGI within decades, and if we just bumble into this unprepared, it will probably be the biggest mistake in human history -- let's face it. It could enable brutal, global dictatorship with unprecedented inequality, surveillance and suffering, and maybe even human extinction. But if we steer carefully, we could end up in a fantastic future where everybody's better off: the poor are richer, the rich are richer, everybody is healthy and free to live out their dreams.
Per riassumere, la nostra situazione con la tecnologia è complicata, ma il quadro generale è piuttosto semplice. Molti ricercatori di IA si aspettano l'AGI entro qualche decennio, e se ci arriviamo impreparati, sarà probabilmente il più grande errore della storia -- accettiamolo. Potrebbe permettere una dittatura globale brutale con ineguaglianze, sorveglianza e sofferenza senza precedenti, e forse addirittura l'estinzione del genere umano. Ma se la indirizziamo attentamente, potremmo finire in un futuro fantastico in cui tutti stanno meglio: i poveri sono più ricchi, i ricchi sono più ricchi, tutti sono più in salute e liberi di vivere i loro sogni.
Now, hang on. Do you folks want the future that's politically right or left? Do you want the pious society with strict moral rules, or do you an hedonistic free-for-all, more like Burning Man 24/7? Do you want beautiful beaches, forests and lakes, or would you prefer to rearrange some of those atoms with the computers, enabling virtual experiences? With friendly AI, we could simply build all of these societies and give people the freedom to choose which one they want to live in because we would no longer be limited by our intelligence, merely by the laws of physics. So the resources and space for this would be astronomical -- literally.
Ora, tenetevi forte. Volete un futuro politicamente di destra o di sinistra? Volete la devota società con regole morali rigide, o ne volete una edonistica gratis per tutti, un po' come Burning Man H24? Volete belle spiagge, foreste e laghi, o preferite risistemare un po' di atomi con il computer, che apra a esperienze di realtà virtuale? Con una IA amichevole, potremmo costruire tutte queste società e dare alla gente la libertà di scegliere in quale vivere perché non saremmo più limitati dalla nostra intelligenza, solamente dalla leggi della fisica. Quindi le risorse e lo spazio diventerebbero astronomiche -- letteralmente.
So here's our choice. We can either be complacent about our future, taking as an article of blind faith that any new technology is guaranteed to be beneficial, and just repeat that to ourselves as a mantra over and over and over again as we drift like a rudderless ship towards our own obsolescence. Or we can be ambitious -- thinking hard about how to steer our technology and where we want to go with it to create the age of amazement. We're all here to celebrate the age of amazement, and I feel that its essence should lie in becoming not overpowered but empowered by our technology.
Ecco la scelta. Possiamo essere soddisfatti del nostro futuro, prendere come dato con fede cieca che qualunque nuova tecnologia è garantita vantaggiosa, e ripetercelo come un mantra in continuazione e andare alla deriva come una nave senza timone verso l'obsolescenza. O possiamo essere ambiziosi -- pensare bene a come indirizzare la tecnologia e dove vogliamo andarci per creare l'era della meraviglia. Siamo qui tutti per festeggiare l'era della meraviglia, e sento che la sua essenza non dovrebbe stare nella sopraffazione ma nella responsabilizzazione da parte della nostra tecnologia.
Thank you.
Grazie.
(Applause)
(Applausi)