When I was a kid, I was the quintessential nerd. I think some of you were, too.
Când eram copil, eram tocilar prin chintesență. Cred că și unii dintre voi ați fost la fel.
(Laughter)
(Râsete)
And you, sir, who laughed the loudest, you probably still are.
Și dumneavoastră domnule, care ați râs cel mai tare,
(Laughter)
probabil că încă mai sunteți. (Râsete)
I grew up in a small town in the dusty plains of north Texas, the son of a sheriff who was the son of a pastor. Getting into trouble was not an option. And so I started reading calculus books for fun.
Am crescut într-un mic oraș în câmpiile prăfuite din nordul Texasului, fiu de șerif care a fost fiul unui pastor. A intra în belele nu era o opțiune. Așa că am început să citesc cărți cu calcule ca sursă de distracție.
(Laughter)
(Râsete)
You did, too. That led me to building a laser and a computer and model rockets, and that led me to making rocket fuel in my bedroom. Now, in scientific terms, we call this a very bad idea.
Și tu la fel. Și asta m-a făcut să construiesc un laser și un computer și să modelez rachete, iar apoi să fac combustibil pentru rachete în dormitorul meu. Acum, în termeni științifici, numim asta o idee foarte proastă.
(Laughter)
(Râsete)
Around that same time, Stanley Kubrick's "2001: A Space Odyssey" came to the theaters, and my life was forever changed. I loved everything about that movie, especially the HAL 9000. Now, HAL was a sentient computer designed to guide the Discovery spacecraft from the Earth to Jupiter. HAL was also a flawed character, for in the end he chose to value the mission over human life. Now, HAL was a fictional character, but nonetheless he speaks to our fears, our fears of being subjugated by some unfeeling, artificial intelligence who is indifferent to our humanity.
Cam pe atunci, „2001: Odiseea spațială” a lui Stanley Kubrick apăruse în cinematografe, iar viața mi s-a schimbat pentru totdeauna. Am iubit absolut totul legat de acel film, în special pe HAL 9000. HAL era un computer dotat cu conștiință, conceput pentru a ghida nava spațială Discovery de la Pământ până la Jupiter. HAL avea de asemenea un caracter imperfect, întrucât a ales să prețuiască mai mult misiunea, în defavoarea vieții umane. HAL a fost un personaj fictiv, dar cu toate acestea, el vorbește despre temerile noastre, temerile noastre de a fi subjugați de o inteligență artificială fără sentimente, care este indiferentă în fața omenirii.
I believe that such fears are unfounded. Indeed, we stand at a remarkable time in human history, where, driven by refusal to accept the limits of our bodies and our minds, we are building machines of exquisite, beautiful complexity and grace that will extend the human experience in ways beyond our imagining.
Cred că astfel de temeri sunt nefondate. Într-adevăr, ne aflăm într-un moment remarcabil în istoria omenirii, când, motivați de refuzul de a accepta limitele corpurilor și minților noastre, construim mașinării de un rafinament și o grație frumoasă și complexă care va extinde cunoașterea umană dincolo de imaginația noastră.
After a career that led me from the Air Force Academy to Space Command to now, I became a systems engineer, and recently I was drawn into an engineering problem associated with NASA's mission to Mars. Now, in space flights to the Moon, we can rely upon mission control in Houston to watch over all aspects of a flight. However, Mars is 200 times further away, and as a result it takes on average 13 minutes for a signal to travel from the Earth to Mars. If there's trouble, there's not enough time. And so a reasonable engineering solution calls for us to put mission control inside the walls of the Orion spacecraft. Another fascinating idea in the mission profile places humanoid robots on the surface of Mars before the humans themselves arrive, first to build facilities and later to serve as collaborative members of the science team.
După o carieră care mi-a purtat pașii de la Academia Forțelor Aeriene la Space Command în prezent, am devenit inginer de sisteme și recent am fost implicat într-o problemă de inginerie în legătură cu misiunea NASA către Marte. În zborurile spațiale către Lună ne putem baza că cei de la controlul misiunii din Houston urmăresc toate aspectele unui zbor. Însă Marte e de 200 de ori mai departe și în consecință, e nevoie în medie de 13 minute ca un sunet să parcurgă distanța dintre Pământ și Marte. Dacă apare o problemă, nu există suficient timp. Astfel, o soluție rezonabilă de inginerie ne determină să punem controlul misiunii între pereții navetei spațiale Orion. O altă idee fascinantă din profilul misiunii e plasarea de roboți humanoizi pe suprafața planetei Marte înaintea sosirii oamenilor, mai întâi pentru a construi echipamente și instalații și apoi pentru a servi ca membri colaboratori ai echipei științifice.
Now, as I looked at this from an engineering perspective, it became very clear to me that what I needed to architect was a smart, collaborative, socially intelligent artificial intelligence. In other words, I needed to build something very much like a HAL but without the homicidal tendencies.
Pe măsură ce priveam asta dintr-o perspectivă inginerească, devenea foarte clar pentru mine că ceea ce aveam nevoie să creez era o inteligență artificială abilă, cooperantă și dotată cu inteligență socială. Cu alte cuvinte, aveam nevoie să construiesc ceva asemănător lui HAL, dar fără tendințele sale ucigătoare.
(Laughter)
(Râsete)
Let's pause for a moment. Is it really possible to build an artificial intelligence like that? Actually, it is. In many ways, this is a hard engineering problem with elements of AI, not some wet hair ball of an AI problem that needs to be engineered. To paraphrase Alan Turing, I'm not interested in building a sentient machine. I'm not building a HAL. All I'm after is a simple brain, something that offers the illusion of intelligence.
Să facem o mică pauză. Este oare posibil să construim o asemenea inteligență artificială? De fapt, chiar este. În multe feluri, aceasta este o problemă grea de inginerie cu elemente de inteligență artificială, și nu o problemă inextricabilă de IA care necesită inginerie. Ca să-l parafrazez pe Alan Turing: „Nu sunt interesat să construiesc o mașinărie dotată cu conștiință”. Nu construiesc un HAL. Tot ce vreau este un creier simplu, ceva ce oferă iluzia inteligenței.
The art and the science of computing have come a long way since HAL was onscreen, and I'd imagine if his inventor Dr. Chandra were here today, he'd have a whole lot of questions for us. Is it really possible for us to take a system of millions upon millions of devices, to read in their data streams, to predict their failures and act in advance? Yes. Can we build systems that converse with humans in natural language? Yes. Can we build systems that recognize objects, identify emotions, emote themselves, play games and even read lips? Yes. Can we build a system that sets goals, that carries out plans against those goals and learns along the way? Yes. Can we build systems that have a theory of mind? This we are learning to do. Can we build systems that have an ethical and moral foundation? This we must learn how to do. So let's accept for a moment that it's possible to build such an artificial intelligence for this kind of mission and others.
Arta și știința informatică au parcurs un drum lung de când HAL a fost adus pe ecran și-mi imaginez că dacă inventatorul său, Dr. Chandra, ar fi fost aici azi, ar fi avut o listă întreagă de întrebări pentru noi. E într-adevăr posibil pentru noi să folosim un sistem de milioane și milioane de dispozitive, ca să citim în fluxurile lor de date, pentru a le prezice erorile și a acționa înainte? Da. Putem construi sisteme care să converseze cu oamenii în limba lor naturală? Da. Putem construi sisteme care să recunoască obiecte, să identifice emoții, să arate emoții, să joace jocuri și chiar să citească de pe buze? Da. Putem construi sisteme care să stabilească obiective, să realizeze planuri pentru îndeplinirea acestor obiective și să învețe pe parcurs? Da. Putem construi sisteme care să aibă o gândire empatică? Asta învățăm să facem. Putem construi sisteme care să aibă o baza etică și morală? Asta trebuie să învățăm cum se face. Așa că haideți să acceptăm pentru moment că este posibil să construim o astfel de inteligență artificială pentru acest tip de misiuni și pentru altele.
The next question you must ask yourself is, should we fear it? Now, every new technology brings with it some measure of trepidation. When we first saw cars, people lamented that we would see the destruction of the family. When we first saw telephones come in, people were worried it would destroy all civil conversation. At a point in time we saw the written word become pervasive, people thought we would lose our ability to memorize. These things are all true to a degree, but it's also the case that these technologies brought to us things that extended the human experience in some profound ways.
Următoarea întrebare pe care trebuie să v-o puneți e: ar trebui să ne fie frică de ea? Ei bine, fiecare tehnologie nouă ne dă palpitații într-o anumită măsură. Când au apărut pentru prima oară automobilele, oamenii s-au lamentat că vom asista la destrămarea familiei. Când au apărut pentru prima oară telefoanele, oamenii erau îngrijorați că vor distruge complet conversația. La un moment dat am văzut cum cuvântul scris a devenit omniprezent, iar oamenii au crezut că vom pierde abilitatea de a memora. Toate acestea sunt adevărate până la un anumit punct, dar de asemenea este adevărat și că aceste tehnologii ne-au adus lucruri care ne-au lărgit cunoașterea umană în câteva moduri profunde.
So let's take this a little further. I do not fear the creation of an AI like this, because it will eventually embody some of our values. Consider this: building a cognitive system is fundamentally different than building a traditional software-intensive system of the past. We don't program them. We teach them. In order to teach a system how to recognize flowers, I show it thousands of flowers of the kinds I like. In order to teach a system how to play a game -- Well, I would. You would, too. I like flowers. Come on. To teach a system how to play a game like Go, I'd have it play thousands of games of Go, but in the process I also teach it how to discern a good game from a bad game. If I want to create an artificially intelligent legal assistant, I will teach it some corpus of law but at the same time I am fusing with it the sense of mercy and justice that is part of that law. In scientific terms, this is what we call ground truth, and here's the important point: in producing these machines, we are therefore teaching them a sense of our values. To that end, I trust an artificial intelligence the same, if not more, as a human who is well-trained.
Așa că hai să mergem un pic mai departe. Eu nu mă tem de crearea unei astfel de inteligențe artificiale pentru că în final ea va îngloba câteva dintre valorile noastre. Luați în considerare acest lucru: construirea unui sistem cognitiv este fundamental diferită de construirea unui sistem software-intensiv tradițional, din trecut. Nu le programăm. Le învățăm. Pentru a învăța un sistem cum să recunoască florile, îi arăt mii de flori din diverse tipuri care-mi plac. Pentru a învăța un sistem cum să joace un joc... Ei bine, eu aș face-o. Și tu la fel. Îmi plac florile. Pe bune! Ca să înveți un sistem cum se joacă un joc de GO, ar trebui să joc mii de partide de GO, dar în acest proces aș învăța de asemenea cum să discern între un joc bun și unul prost. Dacă vreau să creez IA care să ofere asistență juridică, o s-o învăț corpusul legislativ, dar în același timp voi integra și simțul clemenței și al dreptății ca parte a legii respective. În termeni științifici, asta este ceea ce numim adevărul de bază, și asta e ce contează cu adevărat: când producem aceste mașinării, le învățăm o parte din valorile noastre. În acest scop, mă încred în inteligență artificială la fel, dacă nu și mai mult decât într-un om care este bine instruit.
But, you may ask, what about rogue agents, some well-funded nongovernment organization? I do not fear an artificial intelligence in the hand of a lone wolf. Clearly, we cannot protect ourselves against all random acts of violence, but the reality is such a system requires substantial training and subtle training far beyond the resources of an individual. And furthermore, it's far more than just injecting an internet virus to the world, where you push a button, all of a sudden it's in a million places and laptops start blowing up all over the place. Now, these kinds of substances are much larger, and we'll certainly see them coming.
Dar ați putea întreba: ce ne facem cu agenții necinstiți, cu anumite ONG-uri bine finanțate? Nu mă tem de o inteligență artificială aflată în mâinile unui lup singuratic. Cu certitudine, nu ne putem proteja împotriva tuturor actelor aleatorii de violență, dar realitatea e că un asemenea sistem necesită o instruire substanțială și subtilă, cu mult peste resursele unui singur individ. În plus, înseamnă mult mai mult decât să introduci un virus informatic în societate, unde apeși pe un buton deodată și se răspândește în milioane de locuri și laptopurile explodează pretutindeni. Ei bine, acest fel de conținut este mult mai amplu și cu siguranță ne așteptam la el.
Do I fear that such an artificial intelligence might threaten all of humanity? If you look at movies such as "The Matrix," "Metropolis," "The Terminator," shows such as "Westworld," they all speak of this kind of fear. Indeed, in the book "Superintelligence" by the philosopher Nick Bostrom, he picks up on this theme and observes that a superintelligence might not only be dangerous, it could represent an existential threat to all of humanity. Dr. Bostrom's basic argument is that such systems will eventually have such an insatiable thirst for information that they will perhaps learn how to learn and eventually discover that they may have goals that are contrary to human needs. Dr. Bostrom has a number of followers. He is supported by people such as Elon Musk and Stephen Hawking. With all due respect to these brilliant minds, I believe that they are fundamentally wrong. Now, there are a lot of pieces of Dr. Bostrom's argument to unpack, and I don't have time to unpack them all, but very briefly, consider this: super knowing is very different than super doing. HAL was a threat to the Discovery crew only insofar as HAL commanded all aspects of the Discovery. So it would have to be with a superintelligence. It would have to have dominion over all of our world. This is the stuff of Skynet from the movie "The Terminator" in which we had a superintelligence that commanded human will, that directed every device that was in every corner of the world. Practically speaking, it ain't gonna happen. We are not building AIs that control the weather, that direct the tides, that command us capricious, chaotic humans. And furthermore, if such an artificial intelligence existed, it would have to compete with human economies, and thereby compete for resources with us. And in the end -- don't tell Siri this -- we can always unplug them.
Să mă tem că o astfel de inteligență artificială ar putea amenința întreaga umanitate? Dacă vă uitați la filme precum „Matrix”, „Metropolis” „Terminatorul”, seriale ca „Westworld” toate vorbesc despre acest tip de teamă. Într-adevăr, în cartea „Superinteligență”, filozoful Nick Bostrom abordează această temă și observă că superinteligența poate fi nu doar periculoasă, ci poate reprezenta o amenințare existențială la adresa întregii omeniri. Argumentul de bază al Dr. Bostrom este că astfel de sisteme vor sfârși prin a avea o nestăvilită sete de informație așa încât, probabil, vor învăța cum să învețe și în final să descopere că pot avea interese care sunt contrarii nevoilor umanității. Dr. Bostrom are un număr de persoane care-l urmăresc. El este sprijinit de persoane ca Elon Musk și Stephen Hawking. Cu tot respectul pentru aceste minți luminate, cred că greșesc fundamental. Există numeroase aspecte de disecat la argumentul Dr. Bostrom și nu am timp să le expun pe toate, dar foarte pe scurt, luați în considerare asta: super cunoașterea este foarte diferită de super acțiunea. HAL a fost o amenințare pentru echipajul Discovery doar în măsura în care HAL avea comanda tuturor aspectelor legate de Discovery. Așa ar trebui să fie și în cazul unei superinteligențe.??? ar trebui să stăpânească toată lumea noastră. Aceste idei provin de la Skynet din filmul „Terminatorul” în care avem o superinteligență care comanda voința umană, care controla fiecare dispozitiv aflat în orice colț al lumii. Practic vorbind, asta nu se va întâmpla. Nu vom construi inteligențe artificiale care să controleze vremea, să direcționeze valurile, care să ne comande pe noi, oameni capricioși și haotici. Și mai mult decât atât, dacă astfel de inteligență artificială ar exista, ar trebui să concureze cu economiile oamenilor, și astfel să concureze pentru resurse cu noi. Și la sfârșit... Nu-i spuneți asta lui Siri... Noi putem oricând să-i scoatem din priză.
(Laughter)
(Râsete)
We are on an incredible journey of coevolution with our machines. The humans we are today are not the humans we will be then. To worry now about the rise of a superintelligence is in many ways a dangerous distraction because the rise of computing itself brings to us a number of human and societal issues to which we must now attend. How shall I best organize society when the need for human labor diminishes? How can I bring understanding and education throughout the globe and still respect our differences? How might I extend and enhance human life through cognitive healthcare? How might I use computing to help take us to the stars?
Suntem într-o incredibilă călătorie de evoluție comună cu mașinăriile noastre. Oamenii de azi nu sunt oamenii de mâine. Să îți faci griji acum de ascensiunea superinteligenței este într-o mulțime de feluri, o periculoasă distragere a atenției, deoarece însăși ascensiunea computerelor ne aduce o serie de probleme umane și sociale la care trebuie să participăm acum. Cum să organizez societatea cel mai bine când nevoia de munci executate de oameni se diminuează? Cum să aduc înțelegere și educație de-a lungul globului și totuși să respect diferențele dintre noi? Cum aș putea să prelungesc și să îmbunătățesc viața prin asistență medicală cognitivă? Cum aș putea utiliza informatica pentru a ne ajuta să ajungem la stele?
And that's the exciting thing. The opportunities to use computing to advance the human experience are within our reach, here and now, and we are just beginning.
Și acesta este lucrul interesant. Oportunitățile de a utiliza informatica pentru a îmbunătăți cunoașterea umană stă în puterea noastră, aici și acum și suntem doar la început.
Thank you very much.
Vă mulțumesc foarte mult.
(Applause)
(Aplauze)