I work on helping computers communicate about the world around us. There are a lot of ways to do this, and I like to focus on helping computers to talk about what they see and understand. Given a scene like this, a modern computer-vision algorithm can tell you that there's a woman and there's a dog. It can tell you that the woman is smiling. It might even be able to tell you that the dog is incredibly cute. I work on this problem thinking about how humans understand and process the world. The thoughts, memories and stories that a scene like this might evoke for humans. All the interconnections of related situations. Maybe you've seen a dog like this one before, or you've spent time running on a beach like this one, and that further evokes thoughts and memories of a past vacation, past times to the beach, times spent running around with other dogs. One of my guiding principles is that by helping computers to understand what it's like to have these experiences, to understand what we share and believe and feel, then we're in a great position to start evolving computer technology in a way that's complementary with our own experiences.
Trabajo para ayudar a las computadoras a comunicarse en el mundo que nos rodea. Hay muchas maneras de hacer esto, y yo me centro en ayudar a las computadoras a que hablen sobre lo que ven y entienden. Ante una escena como esta, un algoritmo moderno de visión por computadora puedo decir que hay una mujer y un perro. Puede decir que la mujer está sonriendo. Incluso podría decir que el perro es muy lindo. Yo trabajo en este problema pensando en cómo los humanos entienden y procesan el mundo. Los pensamientos, recuerdos e historias que una escena como esta pueda evocar a los humanos. Todas las interconexiones de situaciones relacionadas. Tal vez hayan visto un perro como este antes, o han estado tiempo corriendo en una playa como esta, y eso además evoca pensamientos y recuerdos de vacaciones pasadas, tiempos pasados a la playa, tiempos pasados corriendo con otros perros. Uno de mis principios rectores al ayudar a las computadoras a entender, lo que significan estas experiencias, para que entiendan lo que compartimos, creemos y sentimos. Estamos en una excelente posición para hacer crecer la tecnología informática de manera complementaria a nuestras propias experiencias.
So, digging more deeply into this, a few years ago I began working on helping computers to generate human-like stories from sequences of images. So, one day, I was working with my computer to ask it what it thought about a trip to Australia. It took a look at the pictures, and it saw a koala. It didn't know what the koala was, but it said it thought it was an interesting-looking creature. Then I shared with it a sequence of images about a house burning down. It took a look at the images and it said, "This is an amazing view! This is spectacular!" It sent chills down my spine. It saw a horrible, life-changing and life-destroying event and thought it was something positive. I realized that it recognized the contrast, the reds, the yellows, and thought it was something worth remarking on positively. And part of why it was doing this was because most of the images I had given it were positive images. That's because people tend to share positive images when they talk about their experiences. When was the last time you saw a selfie at a funeral?
Y profundizando más en esto, hace algunos años comencé a trabajar para ayudar a las computadoras a generar historias similares a las humanas de secuencias de imágenes. Un día trabajando con mi computadora le pregunté qué pensaba acerca de un viaje a Australia. Echó un vistazo a las imágenes y vio un koala. La computadora no sabía qué era un koala, pero dijo que creía que era una criatura de aspecto interesante. Luego compartí con ella una secuencia de imágenes sobre una casa ardiendo. Echó un vistazo a las imágenes y dijo: "¡Esta es una vista increíble! ¡Esto es espectacular!" Me produjo escalofríos. Vio un evento horrible, que cambia y que destruye la vida y la computadora pensó que era algo positivo. Me di cuenta de que reconocía el contraste los rojos, los amarillos, y pensó que era algo digno de comentar positivamente. Y en parte la razón del porqué hacía esto era porque la mayoría de las imágenes que le había dado eran imágenes positivas, Eso es porque la gente tiende a compartir imágenes positivas cuando hablan de sus experiencias. ¿Cuándo fue la última vez que vieron un selfie en un funeral?
I realized that, as I worked on improving AI task by task, dataset by dataset, that I was creating massive gaps, holes and blind spots in what it could understand. And while doing so, I was encoding all kinds of biases. Biases that reflect a limited viewpoint, limited to a single dataset -- biases that can reflect human biases found in the data, such as prejudice and stereotyping. I thought back to the evolution of the technology that brought me to where I was that day -- how the first color images were calibrated against a white woman's skin, meaning that color photography was biased against black faces. And that same bias, that same blind spot continued well into the '90s. And the same blind spot continues even today in how well we can recognize different people's faces in facial recognition technology. I though about the state of the art in research today, where we tend to limit our thinking to one dataset and one problem. And that in doing so, we were creating more blind spots and biases that the AI could further amplify.
Mientras trabajaba en la mejora de la IA tarea por tarea, grupo de datos tras grupo de datos, Me di cuenta de que estaba creando lagunas masivas, agujeros y puntos ciegos en lo que podría entender. Y al hacerlo, estaba codificando todo tipo de prejuicios. Sesgos que reflejan un punto de vista limitado limitado a un solo conjunto de datos. Sesgos que pueden reflejar sesgos humanos encontrados en los datos, como los prejuicios y los estereotipos. Pensé en la evolución de la tecnología eso me llevó a donde estaba ese día. Las primeras imágenes en color fueron calibradas contra la piel de una mujer blanca, lo que significa que la foto en color estaba sesgada contra las caras negras. Y ese mismo sesgo, ese mismo punto ciego continuó hasta bien entrada la década de los 90. Y el mismo punto ciego continúa incluso hoy al intentar reconocer las caras de las personas mediante tecnología de reconocimiento facial. Pensé en el estado de la cuestión en la investigación en la actualidad donde se tiende a ceñir nuestro pensamiento a un solo conjunto de datos y a un problema. Y al hacerlo, creamos aún más puntos ciegos y sesgos que la propia IA podría generar.
I realized then that we had to think deeply about how the technology we work on today looks in five years, in 10 years. Humans evolve slowly, with time to correct for issues in the interaction of humans and their environment. In contrast, artificial intelligence is evolving at an incredibly fast rate. And that means that it really matters that we think about this carefully right now -- that we reflect on our own blind spots, our own biases, and think about how that's informing the technology we're creating and discuss what the technology of today will mean for tomorrow.
Me di cuenta de que había que pensar profundamente en cómo será la tecnología en la que trabajamos hoy en cinco o en 10 años. Los humanos evolucionan lentamente, con tiempo para corregir problemas en la interacción de los humanos y su entorno. Por el contrario, la inteligencia artificial evoluciona a un ritmo increíblemente rápido. Y eso significa que realmente importa que pensemos en esto cuidadosamente ya. Que reflexionemos sobre nuestros propios puntos ciegos, nuestros propios sesgos. Y que pensemos en cómo eso alimenta la tecnología que estamos creando y que discutamos qué significará la tecnología de hoy para mañana.
CEOs and scientists have weighed in on what they think the artificial intelligence technology of the future will be. Stephen Hawking warns that "Artificial intelligence could end mankind." Elon Musk warns that it's an existential risk and one of the greatest risks that we face as a civilization. Bill Gates has made the point, "I don't understand why people aren't more concerned." But these views -- they're part of the story. The math, the models, the basic building blocks of artificial intelligence are something that we call access and all work with. We have open-source tools for machine learning and intelligence that we can contribute to. And beyond that, we can share our experience. We can share our experiences with technology and how it concerns us and how it excites us. We can discuss what we love. We can communicate with foresight about the aspects of technology that could be more beneficial or could be more problematic over time.
CEOs y científicos han influido en lo que piensan que será la tecnología de inteligencia artificial del futuro. Stephen Hawking advierte que "La inteligencia artificial podría acabar con la humanidad". Elon Musk advierte que es un riesgo existencial y uno de los mayores riesgos que enfrentamos como civilización. Bill Gates ha señalado: "No entiendo por qué la gente no está más preocupada". Pero estos puntos de vista, son parte de la historia. Las matemáticas, los modelos, los bloques de construcción básicos de la inteligencia artificial son algo a lo que llamamos acceso y con el que todos trabajamos. Tenemos herramientas de código abierto para el aprendizaje automático y la inteligencia artificial a lo que podemos contribuir. Y más allá de eso, podemos compartir nuestra experiencia. Podemos compartir nuestras experiencias con la tecnología, cómo nos concierne y cómo nos entusiasma Podemos discutir sobre lo que amamos. Podemos comunicarnos con previsión sobre los aspectos de la tecnología que podrían ser más beneficiosos o más problemáticos con el tiempo.
If we all focus on opening up the discussion on AI with foresight towards the future, this will help create a general conversation and awareness about what AI is now, what it can become and all the things that we need to do in order to enable that outcome that best suits us. We already see and know this in the technology that we use today. We use smart phones and digital assistants and Roombas. Are they evil? Maybe sometimes. Are they beneficial? Yes, they're that, too. And they're not all the same. And there you already see a light shining on what the future holds. The future continues on from what we build and create right now. We set into motion that domino effect that carves out AI's evolutionary path.
Si todos nos enfocamos en abrir la discusión sobre la IA con visión de futuro, esto ayudará a crear una conversación y conciencia general sobre lo que es la AI ahora, en qué puede llegar a convertirse y sobre todas las cosas que tenemos que hacer para permitir ese resultado que mejor nos convenga. Ya vemos y sabemos esto en la tecnología que usamos hoy. Usamos teléfonos inteligentes y asistentes digitales y Roombas. ¿Son malvados? Quizá algunas veces. ¿Son beneficiosos? Sí, también lo son también. Y no son todos lo mismo. Y allí ya ves una luz que brilla en lo que depara el futuro. El futuro continúa en base a lo que construimos y creamos ahora. Ponemos en movimiento ese efecto dominó que esculpe el camino evolutivo de la AI.
In our time right now, we shape the AI of tomorrow. Technology that immerses us in augmented realities bringing to life past worlds. Technology that helps people to share their experiences when they have difficulty communicating. Technology built on understanding the streaming visual worlds used as technology for self-driving cars. Technology built on understanding images and generating language, evolving into technology that helps people who are visually impaired be better able to access the visual world. And we also see how technology can lead to problems. We have technology today that analyzes physical characteristics we're born with -- such as the color of our skin or the look of our face -- in order to determine whether or not we might be criminals or terrorists. We have technology that crunches through our data, even data relating to our gender or our race, in order to determine whether or not we might get a loan. All that we see now is a snapshot in the evolution of artificial intelligence. Because where we are right now, is within a moment of that evolution. That means that what we do now will affect what happens down the line and in the future.
Ahora en este momento, damos forma a la IA del mañana. Tecnología que nos sumerge en realidades aumentadas dando vida a mundos pasados. Tecnología que ayuda a las personas a compartir sus experiencias cuando tienen dificultad para comunicarse. Tecnología basada en la comprensión de la transmisión de mundos visuales utilizado como tecnología automóviles sin conductor. Tecnología basada en entender imágenes y generar lenguaje, evolucionando hacia tecnología que ayuda a las personas con discapacidad visual a tener mayor acceso al mundo visual. Y también vemos cómo la tecnología puede generar problemas. Tenemos tecnología hoy que analiza las características físicas con las que nacemos, como el color de nuestra piel o el aspecto de nuestra cara para determinar si somos o no criminales o terroristas. Tenemos tecnología que cruje a través de nuestros datos, incluso datos relacionados con nuestro género o nuestra raza, para determinar si podemos o no obtener un préstamo. Todo lo que vemos ahora es una instantánea de la evolución de la inteligencia artificial. Porque donde estamos ahora, está dentro de un momento de esa evolución. Eso significa que lo que hacemos ahora afectará lo que sucede inmediatamente y en el futuro
If we want AI to evolve in a way that helps humans, then we need to define the goals and strategies that enable that path now. What I'd like to see is something that fits well with humans, with our culture and with the environment. Technology that aids and assists those of us with neurological conditions or other disabilities in order to make life equally challenging for everyone. Technology that works regardless of your demographics or the color of your skin. And so today, what I focus on is the technology for tomorrow and for 10 years from now.
Si queremos que la IA evolucione de una manera que ayude a los humanos, debemos definir los objetivos y estrategias que habilita ese camino ahora. Lo que me gustaría ver es algo que se adapte bien a los humanos, a nuestra cultura y medio ambiente. Tecnología que ayuda y asiste a aquellos de nosotros con alteraciones neurológicas u otras discapacidades para hacer la vida igualmente desafiante para todos. Tecnología que funciona independientemente de su demografía o su color de piel. Y hoy, en lo que me enfoco es en la tecnología para el mañana y para los próximos 10 años a partir de ahora.
AI can turn out in many different ways. But in this case, it isn't a self-driving car without any destination. This is the car that we are driving. We choose when to speed up and when to slow down. We choose if we need to make a turn. We choose what the AI of the future will be. There's a vast playing field of all the things that artificial intelligence can become. It will become many things. And it's up to us now, in order to figure out what we need to put in place to make sure the outcomes of artificial intelligence are the ones that will be better for all of us.
La IA puede aparecer de muchas maneras diferentes. Pero en este caso, no es un auto sin conductor y sin destino. Este es el auto que estamos manejando. Elegimos cuándo acelerar y cuándo disminuir la velocidad. Elegimos si necesitamos dar un giro. Elegimos cuál será la IA del futuro. Hay un vasto campo de juego de todas las cosas que la inteligencia artificial puede llegar a ser. Se convertirá en muchas cosas. Y depende de nosotros ahora, descubrir lo que debemos poner en marcha para asegurarnos de que los resultados de la inteligencia artificial son los que serán mejores para todos nosotros.
Thank you.
Gracias.
(Applause)
(Aplausos)