I work on helping computers communicate about the world around us. There are a lot of ways to do this, and I like to focus on helping computers to talk about what they see and understand. Given a scene like this, a modern computer-vision algorithm can tell you that there's a woman and there's a dog. It can tell you that the woman is smiling. It might even be able to tell you that the dog is incredibly cute. I work on this problem thinking about how humans understand and process the world. The thoughts, memories and stories that a scene like this might evoke for humans. All the interconnections of related situations. Maybe you've seen a dog like this one before, or you've spent time running on a beach like this one, and that further evokes thoughts and memories of a past vacation, past times to the beach, times spent running around with other dogs. One of my guiding principles is that by helping computers to understand what it's like to have these experiences, to understand what we share and believe and feel, then we're in a great position to start evolving computer technology in a way that's complementary with our own experiences.
Ik help computers communiceren over de wereld om ons heen. Er zijn veel manieren om dit te doen en ik help computers om te praten over wat ze zien en begrijpen. In een scène als deze kan een modern computer-visie-algoritme je vertellen dat er een vrouw en een hond is te zien. Het kan je vertellen dat de vrouw lacht. Het kan je misschien vertellen dat de hond ongelooflijk schattig is. Ik werk aan dit probleem door na te denken over hoe mensen de wereld begrijpen en verwerken. De gedachten, herinneringen en verhalen die een scène als deze voor de mens zou kunnen oproepen. Al de verwevenheid van verwante situaties. Misschien heb je een hond als deze al eerder gezien of was je ooit op een strand als dit, wat dan weer gedachten en herinneringen aan een voorbije vakantie oproept, tijd doorgebracht op het strand of tijd doorgebracht met andere honden. Een van mijn uitgangspunten is computers helpen begrijpen hoe het is om deze ervaringen te hebben, om te begrijpen wat we delen, geloven en voelen. We kunnen dan computertechnologie ontwikkelen op een manier die complementair is met onze eigen ervaringen.
So, digging more deeply into this, a few years ago I began working on helping computers to generate human-like stories from sequences of images. So, one day, I was working with my computer to ask it what it thought about a trip to Australia. It took a look at the pictures, and it saw a koala. It didn't know what the koala was, but it said it thought it was an interesting-looking creature. Then I shared with it a sequence of images about a house burning down. It took a look at the images and it said, "This is an amazing view! This is spectacular!" It sent chills down my spine. It saw a horrible, life-changing and life-destroying event and thought it was something positive. I realized that it recognized the contrast, the reds, the yellows, and thought it was something worth remarking on positively. And part of why it was doing this was because most of the images I had given it were positive images. That's because people tend to share positive images when they talk about their experiences. When was the last time you saw a selfie at a funeral?
Ik verdiepte me hier verder in en begon een paar jaar geleden computers te helpen om menselijke verhalen te genereren vanuit beeldsequenties. Op een dag vroeg ik mijn computer wat hij dacht over een reis naar Australië. Hij bekeek de foto's en zag een koala. Het wist niet wat een koala was, maar vond het een interessant uitziend wezen. Toen toonde ik een opeenvolging van beelden over een afbrandend huis. Hij bekeek de beelden en zei: "Dit is een geweldig uitzicht! Dit is spectaculair!" Dat gaf me koude rillingen. Hij zag een afschuwelijke, ingrijpende, het leven vernietigende gebeurtenis en dacht dat het iets positiefs was. Ik besefte dat hij het contrast herkende, het rood, het geel, en vond dat hij er positief op moest reageren. Voor een deel kwam dat omdat de meeste beelden die ik had getoond over positieve zaken gingen. Dat komt omdat mensen de neiging hebben om positieve beelden te delen als ze praten over hun ervaringen. Wanneer zag je de laatste keer een selfie op een begrafenis?
I realized that, as I worked on improving AI task by task, dataset by dataset, that I was creating massive gaps, holes and blind spots in what it could understand. And while doing so, I was encoding all kinds of biases. Biases that reflect a limited viewpoint, limited to a single dataset -- biases that can reflect human biases found in the data, such as prejudice and stereotyping. I thought back to the evolution of the technology that brought me to where I was that day -- how the first color images were calibrated against a white woman's skin, meaning that color photography was biased against black faces. And that same bias, that same blind spot continued well into the '90s. And the same blind spot continues even today in how well we can recognize different people's faces in facial recognition technology. I though about the state of the art in research today, where we tend to limit our thinking to one dataset and one problem. And that in doing so, we were creating more blind spots and biases that the AI could further amplify.
Ik realiseerde me dat, terwijl ik werkte aan het verbeteren van AI, taak voor taak, dataset voor dataset, ik enorme gaten creëerde, gaten en blinde vlekken in wat hij zou kunnen begrijpen. En zodoende codeerde ik allerlei vooroordelen. Vooroordelen die een beperkt standpunt weergaven, beperkt tot één enkele dataset -- vooroordelen die menselijke vooroordelen in de data kunnen reflecteren, zoals vooringenomenheid en stereotypering. Ik overdacht de evolutie van de technologie die me zover had gebracht -- hoe de eerste afbeeldingen in kleur werden geijkt op de huid van een blanke vrouw, wat betekende dat de kleurenfotografie vooringenomen was tegen zwarte gezichten. Datzelfde vooroordeel, diezelfde blinde vlek duurde voort tot in de jaren 90. En dezelfde blinde vlek werkt zelfs vandaag nog door in hoe goed we de gezichten van verschillende mensen kunnen herkennen met gezichtsherkenningtechnologie. Ik dacht na over de stand van de techniek in hedendaags onderzoek, waar we ons denken neigen te beperken tot één dataset en één probleem. Daardoor creëren we meer blinde vlekken en vooroordelen die de AI dan verder kan versterken.
I realized then that we had to think deeply about how the technology we work on today looks in five years, in 10 years. Humans evolve slowly, with time to correct for issues in the interaction of humans and their environment. In contrast, artificial intelligence is evolving at an incredibly fast rate. And that means that it really matters that we think about this carefully right now -- that we reflect on our own blind spots, our own biases, and think about how that's informing the technology we're creating and discuss what the technology of today will mean for tomorrow.
Ik realiseerde me dat we diep moesten nadenken over hoe de technologie waar we vandaag aan werken er over vijf of tien jaar zal uitzien. Mensen evolueren langzaam met tijd om problemen te corrigeren bij de interactie tussen mensen en hun omgeving. Kunstmatige intelligentie daarentegen ontwikkelt zich ongelooflijk snel. Daarom is het echt belangrijk dat we er zorgvuldig over nadenken – dat we nadenken over onze eigen blinde vlekken, onze eigen vooroordelen, en nadenken over hoe dat inwerkt op de technologie die we maken, en dat we bespreken wat de technologie van vandaag zal betekenen voor morgen.
CEOs and scientists have weighed in on what they think the artificial intelligence technology of the future will be. Stephen Hawking warns that "Artificial intelligence could end mankind." Elon Musk warns that it's an existential risk and one of the greatest risks that we face as a civilization. Bill Gates has made the point, "I don't understand why people aren't more concerned." But these views -- they're part of the story. The math, the models, the basic building blocks of artificial intelligence are something that we call access and all work with. We have open-source tools for machine learning and intelligence that we can contribute to. And beyond that, we can share our experience. We can share our experiences with technology and how it concerns us and how it excites us. We can discuss what we love. We can communicate with foresight about the aspects of technology that could be more beneficial or could be more problematic over time.
CEO's en wetenschappers hebben laten weten hoe ze dachten over de kunstmatige intelligentie technologie van de toekomst. Stephen Hawking waarschuwt: "Kunstmatige intelligentie kan het einde van de mensheid betekenen." Elon Musk waarschuwt dat het een existentieel risico is en een van de grootste risico's waarmee wij als beschaving worden geconfronteerd. Bill Gates maakte het punt: "Ik begrijp niet waarom dit de mensen niet méér bezighoudt." Maar deze opvattingen -- maken deel uit van het verhaal. De wiskunde, de modellen, de bouwstenen van kunstmatige intelligentie, we hebben er allemaal toegang toe en kunnen ermee werken. We hebben opensourcesoftware voor machinaal leren en kunstmatige intelligentie, waar we aan kunnen bijdragen. Daarenboven kunnen we onze ervaring delen. Onze ervaringen met de technologie, hoe we ermee te maken hebben en hoe ze ons boeit. We kunnen bespreken waar we van houden. We kunnen communiceren met vooruitziende blik over aspecten van de technologie die mettertijd ofwel gunstiger ofwel problematischer zouden kunnen uitvallen.
If we all focus on opening up the discussion on AI with foresight towards the future, this will help create a general conversation and awareness about what AI is now, what it can become and all the things that we need to do in order to enable that outcome that best suits us. We already see and know this in the technology that we use today. We use smart phones and digital assistants and Roombas. Are they evil? Maybe sometimes. Are they beneficial? Yes, they're that, too. And they're not all the same. And there you already see a light shining on what the future holds. The future continues on from what we build and create right now. We set into motion that domino effect that carves out AI's evolutionary path.
Als we ons allemaal focussen op het opentrekken van de discussie over AI met vooruitziende blik naar de toekomst, zal dit bijdragen aan het creëren van een algemeen gesprek en bewustwording over wat AI nu is, wat het kan worden en alle dingen die we moeten doen om het resultaat te krijgen dat ons het beste past. We zien en kennen dit al in de technologie van vandaag. We maken gebruik van smartphones, pda's en Roomba’s. Zijn ze kwaadaardig? Misschien af en toe. Zijn ze nuttig? Ja, dat ook. En ze zijn niet allemaal hetzelfde. Daar zie je al wat de toekomst belooft. De toekomst bouwt verder op wat we op dit moment maken. We hebben een domino-effect in gang gezet dat het evolutionaire pad van AI uitzet.
In our time right now, we shape the AI of tomorrow. Technology that immerses us in augmented realities bringing to life past worlds. Technology that helps people to share their experiences when they have difficulty communicating. Technology built on understanding the streaming visual worlds used as technology for self-driving cars. Technology built on understanding images and generating language, evolving into technology that helps people who are visually impaired be better able to access the visual world. And we also see how technology can lead to problems. We have technology today that analyzes physical characteristics we're born with -- such as the color of our skin or the look of our face -- in order to determine whether or not we might be criminals or terrorists. We have technology that crunches through our data, even data relating to our gender or our race, in order to determine whether or not we might get a loan. All that we see now is a snapshot in the evolution of artificial intelligence. Because where we are right now, is within a moment of that evolution. That means that what we do now will affect what happens down the line and in the future.
Nu geven we vorm aan de AI van morgen. Technologie die ons onderdompelt in toegevoegde realiteit die vergane werelden tot leven brengen. Technologie die mensen helpt om hun ervaringen te delen wanneer ze moeite hebben om te communiceren. Technologie gebouwd op het begrijpen van continu veranderende beeldsituaties, die gebruikt wordt als technologie voor zelfrijdende auto's. Technologie gebouwd voor het begrijpen van beelden en het genereren van taal, evoluerend naar technologie die mensen met een visuele beperking betere toegang verschaft tot de visuele wereld. Daarnaast zien we hoe technologie tot problemen kan leiden. We hebben vandaag technologie die fysieke kenmerken waarmee we zijn geboren analyseert -- zoals de kleur van onze huid of hoe ons gezicht eruitziet -- om te bepalen of we misschien criminelen of terroristen zijn. We hebben technologie die onze data doorspit, zelfs gegevens die betrekking hebben op geslacht of ras, om te bepalen of we al dan niet een lening kunnen krijgen. Alles wat we nu zien is een momentopname in de ontwikkeling van kunstmatige intelligentie. Want waar we nu zijn, is één moment in die evolutie. Dat betekent dat wat we nu doen beïnvloedt wat als volgende gebeurt, en in de toekomst.
If we want AI to evolve in a way that helps humans, then we need to define the goals and strategies that enable that path now. What I'd like to see is something that fits well with humans, with our culture and with the environment. Technology that aids and assists those of us with neurological conditions or other disabilities in order to make life equally challenging for everyone. Technology that works regardless of your demographics or the color of your skin. And so today, what I focus on is the technology for tomorrow and for 10 years from now.
Als we willen dat AI evolueert op een manier die de mens helpt, moeten we nu de doelstellingen en strategieën definiëren die dat mogelijk zullen maken. Wat ik graag zou willen zien is iets dat goed past bij de mens, bij onze cultuur en onze omgeving. Technologie die mensen met neurologische aandoeningen of andere handicaps helpt en begeleidt om het leven voor iedereen even uitdagend te maken. Technologie die werkt ongeacht je demografie of de kleur van je huid. Vandaag richt ik mij op de technologie voor morgen en voor over tien jaar.
AI can turn out in many different ways. But in this case, it isn't a self-driving car without any destination. This is the car that we are driving. We choose when to speed up and when to slow down. We choose if we need to make a turn. We choose what the AI of the future will be. There's a vast playing field of all the things that artificial intelligence can become. It will become many things. And it's up to us now, in order to figure out what we need to put in place to make sure the outcomes of artificial intelligence are the ones that will be better for all of us.
AI kan zich op veel verschillende manieren realiseren. Maar in dit geval is het geen zelfrijdende auto zonder bestemming. Het is een auto die wij zelf besturen. Wij kiezen wanneer we gaan versnellen of vertragen. Wij beslissen om een bocht te maken. Wij kiezen wat de AI van de toekomst zal zijn. Er is een groot speelveld van alle dingen die kunstmatige intelligentie kan worden. Het zal véél dingen worden. Het is nu aan ons om te bepalen wat we moeten regelen om ervoor te zorgen dat kunstmatige intelligentie zo uitpakt dat we er allemaal beter van worden.
Thank you.
Dank je.
(Applause)
(Applaus)