When I was a kid, I was the quintessential nerd. I think some of you were, too.
Quando ero piccolo, ero la quintessenza dell'essere nerd. Penso che anche alcuni di voi lo fossero.
(Laughter)
(Risate)
And you, sir, who laughed the loudest, you probably still are.
E lei, che ride più forte degli altri, probabilmente lo è ancora.
(Laughter)
(Risate)
I grew up in a small town in the dusty plains of north Texas, the son of a sheriff who was the son of a pastor. Getting into trouble was not an option. And so I started reading calculus books for fun.
Sono cresciuto in una piccola città nelle piane polverose del nord Texas, figlio di uno sceriffo che era figlio di un pastore. Mettersi nei guai non era contemplato. Quindi ho iniziato a leggere libri di calcolo per divertimento.
(Laughter)
(Risate)
You did, too. That led me to building a laser and a computer and model rockets, and that led me to making rocket fuel in my bedroom. Now, in scientific terms, we call this a very bad idea.
Lo avete fatto anche voi. Ciò mi ha portato a costruire un laser, un computer e modellini di razzi, e poi a creare del propellente per razzi nella mia stanza. Ora, in termini scientifici, questa si chiama "una pessima idea".
(Laughter)
(Risate)
Around that same time, Stanley Kubrick's "2001: A Space Odyssey" came to the theaters, and my life was forever changed. I loved everything about that movie, especially the HAL 9000. Now, HAL was a sentient computer designed to guide the Discovery spacecraft from the Earth to Jupiter. HAL was also a flawed character, for in the end he chose to value the mission over human life. Now, HAL was a fictional character, but nonetheless he speaks to our fears, our fears of being subjugated by some unfeeling, artificial intelligence who is indifferent to our humanity.
All'incirca in quel periodo, "2001: Odissea nello spazio" di Kubrick, usciva nei cinema e lì la mia vita cambiò per sempre. Ho amato tutto di quel film, specialmente HAL 9000. HAL era un computer senziente progettato per guidare l'astronave Discovery dalla Terra a Giove. HAL era anche un personaggio fallace, perché alla fine preferì la missione alla vita umana. HAL era un personaggio fittizio ma nonostante ciò riusciva a parlare alle nostre paure, quelle di essere soggiogati da qualche intelligenza artificiale, priva di sentimenti che è indifferente alla nostra umanità.
I believe that such fears are unfounded. Indeed, we stand at a remarkable time in human history, where, driven by refusal to accept the limits of our bodies and our minds, we are building machines of exquisite, beautiful complexity and grace that will extend the human experience in ways beyond our imagining.
Credo che tali paure siano infondate. Infatti, viviamo in un'epoca significativa della storia dell'umanità, in cui, guidati dal rifiuto di accettare i limiti del corpo e della mente costruiamo macchine di ricercata, bellissima complessità e grazia che espanderà l'esperienza umana in modi che non possiamo immaginare.
After a career that led me from the Air Force Academy to Space Command to now, I became a systems engineer, and recently I was drawn into an engineering problem associated with NASA's mission to Mars. Now, in space flights to the Moon, we can rely upon mission control in Houston to watch over all aspects of a flight. However, Mars is 200 times further away, and as a result it takes on average 13 minutes for a signal to travel from the Earth to Mars. If there's trouble, there's not enough time. And so a reasonable engineering solution calls for us to put mission control inside the walls of the Orion spacecraft. Another fascinating idea in the mission profile places humanoid robots on the surface of Mars before the humans themselves arrive, first to build facilities and later to serve as collaborative members of the science team.
Dopo una carriera che va dall'Air Force Academy allo Space Command a oggi, sono un ingegnere sistemista, e da poco sono stato coinvolto in un problema d'ingegneria associato alla spedizione NASA su Marte. Nelle spedizioni verso la Luna, possiamo affidarci al centro di controllo di Houston perché sorvegli la spedizione. In ogni caso, Marte è 200 volte più lontano, e perciò ci vogliono in media 13 minuti perché un segnale arrivi dalla Terra a Marte. Se si verifica un problema, non c'è abbastanza tempo. E quindi una soluzione ingegneristica ragionevole ci chiama a mettere dispositivi di controllo dentro la navicella Orion. Un'altra affascinante idea per le missioni è piazzare robot umanoidi sulla superficie di Marte prima che vi arrivino gli esseri umani, affinché facilitino il lavoro e collaborino con la squadra scientifica.
Now, as I looked at this from an engineering perspective, it became very clear to me that what I needed to architect was a smart, collaborative, socially intelligent artificial intelligence. In other words, I needed to build something very much like a HAL but without the homicidal tendencies.
Ora, lavorando da una prospettiva ingegneristica, fu molto chiaro per me che ciò che dovevo architettare era un'intelligenza artificiale brillante, collaborativa, socialmente ragionevole. In altre parole, dovevo creare qualcosa molto simile ad HAL ma senza le sue tendenze omicide.
(Laughter)
(Risate)
Let's pause for a moment. Is it really possible to build an artificial intelligence like that? Actually, it is. In many ways, this is a hard engineering problem with elements of AI, not some wet hair ball of an AI problem that needs to be engineered. To paraphrase Alan Turing, I'm not interested in building a sentient machine. I'm not building a HAL. All I'm after is a simple brain, something that offers the illusion of intelligence.
Fermiamoci per un momento. È davvero possibile costruire un'intelligenza artificiale come quella? In effetti sì. Sotto molti aspetti, è un complesso problema ingegneristico con elementi di IA, non un inestricabile problema di IA che ha bisogno dell'ingegneria. Parafrasando Alan Turing, non voglio costruire una macchina senziente. Non sto costruendo un HAL. Ciò che cerco è un semplice cervello, qualcosa che offra l'illusione dell'intelligenza.
The art and the science of computing have come a long way since HAL was onscreen, and I'd imagine if his inventor Dr. Chandra were here today, he'd have a whole lot of questions for us. Is it really possible for us to take a system of millions upon millions of devices, to read in their data streams, to predict their failures and act in advance? Yes. Can we build systems that converse with humans in natural language? Yes. Can we build systems that recognize objects, identify emotions, emote themselves, play games and even read lips? Yes. Can we build a system that sets goals, that carries out plans against those goals and learns along the way? Yes. Can we build systems that have a theory of mind? This we are learning to do. Can we build systems that have an ethical and moral foundation? This we must learn how to do. So let's accept for a moment that it's possible to build such an artificial intelligence for this kind of mission and others.
L'arte e la scienza dell'elaborazione dati ha fatto molta strada da quando è apparso HAL, e immagino che se il suo inventore, il Dott. Chandra, fosse qui oggi avrebbe un sacco di domande per noi. È davvero possibile per noi prendere un sistema di milioni e milioni di dispositivi, leggere le loro sequenze dati, prevedere i loro fallimenti e azioni in anticipo? Sì. Possiamo costruire sistemi che conversino con noi in linguaggio naturale? Sì. Sistemi che riconoscano oggetti, identifichino emozioni, si emozionino a loro volta, giochino e leggano persino il labiale? Sì. Un sistema che ponga degli obiettivi, che pianifichi in base ad essi e che impari strada facendo? Sì. Costruire sistemi che abbiano una teoria della mente? Stiamo imparando a farlo. Possiamo costruire sistemi che abbiano un'etica e una morale? Dobbiamo imparare a farlo. Accettiamo per un momento che si possa costruire una simile intelligenza artificiale per questo tipo di missioni o per altre.
The next question you must ask yourself is, should we fear it? Now, every new technology brings with it some measure of trepidation. When we first saw cars, people lamented that we would see the destruction of the family. When we first saw telephones come in, people were worried it would destroy all civil conversation. At a point in time we saw the written word become pervasive, people thought we would lose our ability to memorize. These things are all true to a degree, but it's also the case that these technologies brought to us things that extended the human experience in some profound ways.
La domanda successiva che dovete porvi è: dovremmo averne paura? Qualsiasi nuova tecnologia porta con sé un po' di apprensione. Quando arrivarono le prime auto, la gente temeva di assistere alla distruzione della famiglia. Quando arrivarono i telefoni, si preoccupò per la fine della conversazione civile. E, quando assistette alla diffusione della scrittura, la gente pensò di perdere la capacità di memorizzare. Tutto questo è vero fino a un certo punto, ma si dà anche il caso che queste tecnologie ci abbiano portato cose che hanno allargato l'esperienza umana profondamente.
So let's take this a little further. I do not fear the creation of an AI like this, because it will eventually embody some of our values. Consider this: building a cognitive system is fundamentally different than building a traditional software-intensive system of the past. We don't program them. We teach them. In order to teach a system how to recognize flowers, I show it thousands of flowers of the kinds I like. In order to teach a system how to play a game -- Well, I would. You would, too. I like flowers. Come on. To teach a system how to play a game like Go, I'd have it play thousands of games of Go, but in the process I also teach it how to discern a good game from a bad game. If I want to create an artificially intelligent legal assistant, I will teach it some corpus of law but at the same time I am fusing with it the sense of mercy and justice that is part of that law. In scientific terms, this is what we call ground truth, and here's the important point: in producing these machines, we are therefore teaching them a sense of our values. To that end, I trust an artificial intelligence the same, if not more, as a human who is well-trained.
Approfondiamo la questione. Non ho paura della creazione di un'IA come questa, perché alla fine incarnerà alcuni dei nostri valori. Considerate questo: costruire un sistema cognitivo è molto diverso dal costruire un sistema software intensivo tradizionale del passato. Non li programmiamo ma insegniamo loro. Per insegnare a un sistema a riconoscere i fiori, gli mostro migliaia di fiori, dei tipi che piacciono a me. Per insegnare a un sistema a giocare a un gioco -- beh lo farei, farei anche questo. Mi piacciono i fiori. Andiamo. Per insegnare a un sistema a giocare a un gioco come Go, devo fargli fare migliaia di partite a Go, e nel frattempo gli insegno anche a distinguere un buon gioco da un gioco cattivo. Se voglio creare un assistente legale artificialmente intelligente, gli insegnerò il corpus legislativo ma allo stesso tempo gli infonderò il senso di pietà e giustizia che è parte di quella legge. In termini scientifici definiamo tutto questo "ground truth", e questo è il punto fondamentale: nel produrre queste macchine, insegniamo anche loro il senso dei nostri valori. Con questo fine, mi fido di un'intelligenza artificiale come, se non di più, mi fido di un essere umano ben istruito.
But, you may ask, what about rogue agents, some well-funded nongovernment organization? I do not fear an artificial intelligence in the hand of a lone wolf. Clearly, we cannot protect ourselves against all random acts of violence, but the reality is such a system requires substantial training and subtle training far beyond the resources of an individual. And furthermore, it's far more than just injecting an internet virus to the world, where you push a button, all of a sudden it's in a million places and laptops start blowing up all over the place. Now, these kinds of substances are much larger, and we'll certainly see them coming.
Ma, potreste chiedere, che ne è degli agenti corrotti, di qualche organizzazione non governativa ben finanziata? Non ho paura di un'intelligenza artificiale in mano a un lupo solitario. È ovvio, non possiamo proteggerci da tutti gli arbitrari atti di violenza, ma la realtà è che un simile sistema richiede un allenamento tanto acuto da andare ben oltre le risorse di un individuo. E inoltre, è molto più che iniettare un virus via internet al mondo, dove premi un bottone e subito lo ritrovi in milioni di posti e i computer iniziano ovunque ad andare in tilt. Questo tipo di elementi è molto più complesso e certamente lo sperimenteremo.
Do I fear that such an artificial intelligence might threaten all of humanity? If you look at movies such as "The Matrix," "Metropolis," "The Terminator," shows such as "Westworld," they all speak of this kind of fear. Indeed, in the book "Superintelligence" by the philosopher Nick Bostrom, he picks up on this theme and observes that a superintelligence might not only be dangerous, it could represent an existential threat to all of humanity. Dr. Bostrom's basic argument is that such systems will eventually have such an insatiable thirst for information that they will perhaps learn how to learn and eventually discover that they may have goals that are contrary to human needs. Dr. Bostrom has a number of followers. He is supported by people such as Elon Musk and Stephen Hawking. With all due respect to these brilliant minds, I believe that they are fundamentally wrong. Now, there are a lot of pieces of Dr. Bostrom's argument to unpack, and I don't have time to unpack them all, but very briefly, consider this: super knowing is very different than super doing. HAL was a threat to the Discovery crew only insofar as HAL commanded all aspects of the Discovery. So it would have to be with a superintelligence. It would have to have dominion over all of our world. This is the stuff of Skynet from the movie "The Terminator" in which we had a superintelligence that commanded human will, that directed every device that was in every corner of the world. Practically speaking, it ain't gonna happen. We are not building AIs that control the weather, that direct the tides, that command us capricious, chaotic humans. And furthermore, if such an artificial intelligence existed, it would have to compete with human economies, and thereby compete for resources with us. And in the end -- don't tell Siri this -- we can always unplug them.
Ho paura che una simile intelligenza artificiale possa minacciare tutta l'umanità? Se guardate film come "Matrix", "Metropolis", "Terminator", show come "Westworld", tutti parlano di questo tipo di paura. Infatti, nel libro "Superintelligence" del filosofo Nick Bostrom, l'autore considera questo tema e osserva che una super intelligenza potrebbe non solo essere pericolosa, ma rappresentare anche una minaccia esistenziale per tutta l'umanità. La principale argomentazione del Dott. Bostrom è che tali sistemi potrebbero prima o poi avere una sete tale di informazioni che potrebbero forse imparare come si impara e anche scoprire che potrebbero avere obiettivi contrari ai bisogni umani. Bostrom ha un gran numero di seguaci. È supportato da persone come Elon Musk e Stephen Hawking. Con tutto il rispetto dovuto a queste menti brillanti, credo che siano gravemente in errore. Ci sarebbero molte parti della teoria di Bostrom da analizzare, e non ho il tempo di analizzarle tutte, ma molto brevemente, considerate questo: una grande conoscenza è diversa da una grande capacità di azione. HAL era una minaccia per l'equipaggio solo finché controllava tutti gli aspetti del Discovery. Quindi avrebbe dovuto avere una super intelligenza. Avrebbe dovuto dominare tutto il mondo. Questa è la squadra Skynet dal film "Terminator" in cui abbiamo una super intelligenza che domina la volontà umana e ogni congegno in ogni parte del mondo. In pratica, questo non succederà. Non stiamo costruendo IA che controllino il meteo, le maree, che comandino su noi capricciosi e caotici umani. Inoltre, se una simile intelligenza artificiale esistesse, dovrebbe competere con le economie degli esseri umani, e quindi competere con noi per le risorse disponibili. E infine -- non ditelo a Siri -- possiamo sempre disattivarli.
(Laughter)
(Risate)
We are on an incredible journey of coevolution with our machines. The humans we are today are not the humans we will be then. To worry now about the rise of a superintelligence is in many ways a dangerous distraction because the rise of computing itself brings to us a number of human and societal issues to which we must now attend. How shall I best organize society when the need for human labor diminishes? How can I bring understanding and education throughout the globe and still respect our differences? How might I extend and enhance human life through cognitive healthcare? How might I use computing to help take us to the stars?
Siamo parte di un incredibile viaggio di co-evoluzione con altre macchine. Gli esseri umani che siamo oggi non sono quelli che saremo in futuro. Preoccuparsi ora della minaccia di una super-intelligenza è per molti aspetti una distrazione pericolosa perché l'incremento della computerizzazione ci presenta una quantità di questioni umane e sociali di cui adesso dobbiamo occuparci. Come posso organizzare al meglio la società quando diminuirà la necessità del lavoro umano? Come posso fornire al mondo conoscenza ed educazione rispettando le nostre differenze? Come posso estendere e migliorare la vita umana attraverso la salute cognitiva? Come posso usare la computerizzazione per raggiungere le stelle?
And that's the exciting thing. The opportunities to use computing to advance the human experience are within our reach, here and now, and we are just beginning.
Ed è questa la cosa eccitante. Le opportunità di elaborare dati per affinare l'esperienza umana sono alla nostra portata, qui e adesso, e siamo solo all'inizio.
Thank you very much.
Grazie mille.
(Applause)
(Applausi)