In the coming years, artificial intelligence is probably going to change your life, and likely the entire world. But people have a hard time agreeing on exactly how. The following are excerpts from a World Economic Forum interview where renowned computer science professor and AI expert Stuart Russell helps separate the sense from the nonsense.
En algunos años, la inteligencia artificial probablemente cambiará tu vida, y la del resto del mundo. Pero la gente no se pone de acuerdo sobre cómo exactamente. Los siguientes fragmentos son de una entrevista en la que Stuart Russell, un conocido profesor de informática y experto en IA, ayuda a separar el sentido del sinsentido.
There’s a big difference between asking a human to do something and giving that as the objective to an AI system. When you ask a human to get you a cup of coffee, you don’t mean this should be their life’s mission, and nothing else in the universe matters. Even if they have to kill everybody else in Starbucks to get you the coffee before it closes— they should do that. No, that’s not what you mean. All the other things that we mutually care about, they should factor into your behavior as well.
Hay una gran diferencia entre pedirle a un humano que haga algo y asignar eso como objetivo a un sistema de IA. Cuando le pides a un humano que traiga una taza de café, no quieres decir que esta deba ser la misión de su vida y que nada más importa en el universo. Deben de hacerlo, incluso si tienen que matar a todos en el Starbucks para conseguirlo antes de que cierre, Eso no es lo que quiero decir. Todas las cosas que nos importan mutuamente también deberían influir en tu comportamiento.
And the problem with the way we build AI systems now is we give them a fixed objective. The algorithms require us to specify everything in the objective. And if you say, can we fix the acidification of the oceans? Yeah, you could have a catalytic reaction that does that extremely efficiently, but it consumes a quarter of the oxygen in the atmosphere, which would apparently cause us to die fairly slowly and unpleasantly over the course of several hours.
El problema con la forma en que construimos sistemas de IA hoy es que les damos un objetivo fijo. Los algoritmos necesitan que especifiquemos todo en el objetivo. Y si dijeras: “¿Podemos solucionar la acidificación de los océanos?” Sí, podrías conseguir una reacción catalítica que haga eso eficientemente, pero consumiría un cuarto del oxígeno de la atmósfera, lo que causaría nuestra muerte de manera lenta y desagradable en el transcurso de varias horas.
So, how do we avoid this problem? You might say, okay, well, just be more careful about specifying the objective— don’t forget the atmospheric oxygen. And then, of course, some side effect of the reaction in the ocean poisons all the fish. Okay, well I meant don’t kill the fish either. And then, well, what about the seaweed? Don’t do anything that’s going to cause all the seaweed to die. And on and on and on.
Entonces, ¿cómo evitamos este problema? Podrías decir: “sólo hay que ser más cuidadoso al especificar el objetivo; no olvidar el oxígeno atmosférico”. Y luego, por supuesto, algún efecto secundario de la reacción en el océano envenena a todos los peces. “Bueno, lo que quise decir es que no maten a los peces”. Y entonces, ¿qué pasa con las algas? “No hagas nada que cause la muerte de las algas”. Y así sucesivamente.
And the reason that we don’t have to do that with humans is that humans often know that they don’t know all the things that we care about. If you ask a human to get you a cup of coffee, and you happen to be in the Hotel George Sand in Paris, where the coffee is 13 euros a cup, it’s entirely reasonable to come back and say, well, it’s 13 euros, are you sure you want it, or I could go next door and get one? And it’s a perfectly normal thing for a person to do. To ask, I’m going to repaint your house— is it okay if I take off the drainpipes and then put them back? We don't think of this as a terribly sophisticated capability, but AI systems don’t have it because the way we build them now, they have to know the full objective. If we build systems that know that they don’t know what the objective is, then they start to exhibit these behaviors, like asking permission before getting rid of all the oxygen in the atmosphere.
La razón por la que no tenemos que hacer eso con los humanos es que los humanos a menudo saben que no conocen todas las cosas que nos importan. Si le pides a un humano que te traiga una taza de café, y resulta que tú estás en el hotel George Sand en París, donde la taza de café cuesta 13 euros, es completamente razonable, que la persona vuelva y diga: “son 13 euros, ¿seguro lo quieres o podría ir a otro lado a comprarlo?” Y es algo completamente normal que hace una persona. Si preguntas, voy a re-pintar tu casa. ¿Está bien si quito las cañerías y luego las vuelvo a poner? No pensamos que esto es una capacidad muy sofisticada, pero los sistemas de IA no la poseen, ya que por su construcción requieren de un objetivo completo. Si construimos sistemas que no conocen cuál es el objetivo, estos comienzan a manifestar comportamientos tales como pedir permiso antes de eliminar todo el oxígeno de la tierra.
In all these senses, control over the AI system comes from the machine’s uncertainty about what the true objective is. And it’s when you build machines that believe with certainty that they have the objective, that’s when you get this sort of psychopathic behavior. And I think we see the same thing in humans.
En todos los sentidos, el control sobre el sistema de IA proviene de la incertidumbre de la máquina sobre cuál es el verdadero objetivo. Y es que cuando construyes máquinas que creen con certeza que cuentan con el objetivo, se obtiene este comportamiento psicópata. Y creo que vemos lo mismo en humanos.
What happens when general purpose AI hits the real economy? How do things change? Can we adapt? This is a very old point. Amazingly, Aristotle actually has a passage where he says, look, if we had fully automated weaving machines and plectrums that could pluck the lyre and produce music without any humans, then we wouldn’t need any workers.
¿Qué pasará cuando la IA de propósito general impacte la economía real? ¿Cómo cambiarán las cosas? ¿Podremos adaptarnos? Este es un planteamiento muy antiguo. Sorprendentemente, hay un pasaje de Aristóteles que dice que si tuviéramos máquinas de tejer totalmente automatizadas y plectros que pudieran tocar la lira y producir música sin ningún humano, entonces no necesitaríamos trabajadores.
That idea, which I think it was Keynes who called it technological unemployment in 1930, is very obvious to people. They think, yeah, of course, if the machine does the work, then I'm going to be unemployed.
Esta idea, la cual creo que fue Keynes quien la llamó desempleo tecnológico en 1930, es bastante obvia para la gente. Ellos piensan: “obviamente, si la máquina hace todo el trabajo entonces voy a estar desempleado”.
You can think about the warehouses that companies are currently operating for e-commerce, they are half automated. The way it works is that an old warehouse— where you’ve got tons of stuff piled up all over the place and humans go and rummage around and then bring it back and send it off— there’s a robot who goes and gets the shelving unit that contains the thing that you need, but the human has to pick the object out of the bin or off the shelf, because that’s still too difficult. But, at the same time, would you make a robot that is accurate enough to be able to pick pretty much any object within a very wide variety of objects that you can buy? That would, at a stroke, eliminate 3 or 4 million jobs?
Piensa en los almacenes que las compañías utilizan actualmente para el comercio online, estos son semi-automatizados. En un viejo almacén, donde hay toneladas de cosas apiladas por todas partes donde humanos van a hurgar y luego traen de vuelta para enviar, hay un robot que va y toma lo que necesitas de la estantería que la contiene, pero el humano tiene que tomar el objeto del contenedor o estantería, porque esto sigue siendo muy difícil. Pero, al mismo tiempo, ¿podrías crear un robot que sea lo suficientemente preciso como para recoger prácticamente cualquier objeto de una amplia variedad que puedes comprar? Esto eliminaría de golpe 3 o 4 millones de trabajos.
There's an interesting story that E.M. Forster wrote, where everyone is entirely machine dependent. The story is really about the fact that if you hand over the management of your civilization to machines, you then lose the incentive to understand it yourself or to teach the next generation how to understand it. You can see “WALL-E” actually as a modern version, where everyone is enfeebled and infantilized by the machine, and that hasn’t been possible up to now.
Hay una historia interesante escrita por E.M Foster, donde todos son completamente dependientes de las máquinas, En realidad, la historia es sobre el hecho de que si le entregas la gestión de tu civilización a las máquinas, pierdes el incentivo para comprenderla tu mismo o enseñarle a la siguiente generación a comprendela. Puedes ver a “WALL-E”, como una versión moderna donde todos están debilitados e infantilizados por las máquinas, y esto no había sido posible hasta ahora.
We put a lot of our civilization into books, but the books can’t run it for us. And so we always have to teach the next generation. If you work it out, it’s about a trillion person years of teaching and learning and an unbroken chain that goes back tens of thousands of generations. What happens if that chain breaks?
Ponemos gran parte de nuestra civilización en los libros, que no pueden reemplazarnos. Debemos instruir a la próxima generación. Si lo calculas, es alrededor de un billón de años-persona de enseñanza y aprendizaje y una cadena intacta que remonta a decenas de miles de generaciones atrás. ¿Qué pasa si se rompe esa cadena?
I think that’s something we have to understand as AI moves forward. The actual date of arrival of general purpose AI— you’re not going to be able to pinpoint, it isn’t a single day. It’s also not the case that it’s all or nothing. The impact is going to be increasing. So with every advance in AI, it significantly expands the range of tasks.
Creo que es algo que tenemos que entender a medida que la IA avanza. La fecha real de llegada de la IA de propósito general. no se puede identificar, no es sólo un día y tampoco es todo o nada. El impacto va a aumentar. Con cada avance de la IA, se amplia mucho el rango de tareas.
So in that sense, I think most experts say by the end of the century, we’re very, very likely to have general purpose AI. The median is something around 2045. I'm a little more on the conservative side. I think the problem is harder than we think.
En ese sentido, creo que la mayoría de los expertos dicen que para fines de siglo, muy probablemente tengamos IA de propósito general. Se estima alrededor del 2045. Yo soy un poco más conservador. Creo que aún falta mucho para llegar a eso.
I like what John McAfee, he was one of the founders of AI, when he was asked this question, he said, somewhere between five and 500 years. And we're going to need, I think, several Einsteins to make it happen.
Me gusta lo que John McAfee decía, uno de los creadores de la IA, cuando le hicieron la pregunta, dijo: “en algún punto entre 5 y 500 años, y creo que vamos a requerir de varios Einsteins para lograrlo”.