Let me share a paradox. For the last 10 years, many companies have been trying to become less bureaucratic, to have fewer central rules and procedures, more autonomy for their local teams to be more agile. And now they are pushing artificial intelligence, AI, unaware that cool technology might make them more bureaucratic than ever. Why? Because AI operates just like bureaucracies.
Déjenme compartir una paradoja. Durante los últimos 10 años, muchas compañías han intentado ser menos burocráticas, tener menos reglas centrales y procedimientos, más autonomía para que sus equipos locales sean más ágiles. Y ahora están dando cuerda a la inteligencia artificial, IA, sin darse cuenta de que esta genial tecnología podría hacerlos más burocráticos que nunca. ¿Por qué? Porque la IA opera al igual que las burocracias.
The essence of bureaucracy is to favor rules and procedures over human judgment. And AI decides solely based on rules. Many rules inferred from past data but only rules. And if human judgment is not kept in the loop, AI will bring a terrifying form of new bureaucracy -- I call it "algocracy" -- where AI will take more and more critical decisions by the rules outside of any human control. Is there a real risk? Yes.
La esencia de la burocracia es favorecer reglas y procedimientos sobre el juicio humano. Y la IA decide únicamente según las reglas. Muchas reglas inferidas de datos pasados, pero solo reglas. Y si no se involucra el juicio humano la AI traerá una forma aterradora de nueva burocracia, yo la llamo "algocracia" donde la IA tomará más y más decisiones críticas basada en reglas fuera de cualquier control humano. ¿Existe un riesgo real? Sí.
I'm leading a team of 800 AI specialists. We have deployed over 100 customized AI solutions for large companies around the world. And I see too many corporate executives behaving like bureaucrats from the past. They want to take costly, old-fashioned humans out of the loop and rely only upon AI to take decisions. I call this the "human-zero mindset." And why is it so tempting? Because the other route, "Human plus AI," is long, costly and difficult. Business teams, tech teams, data-science teams have to iterate for months to craft exactly how humans and AI can best work together. Long, costly and difficult. But the reward is huge.
Lidero un equipo de 800 especialistas en IA. Hemos instalados más de 100 soluciones de IA personalizadas para grandes empresas de todo el mundo. Y veo demasiados ejecutivos corporativos comportándose como burócratas del pasado. Quieren sacar a humanos costosos y anticuados del proceso y confiar solo en la IA en la toma de decisiones. Yo llamo a esto la "mentalidad de cero humanos". ¿Y por qué es eso tan tentador? Porque la otra ruta, "Humano más IA" es larga, costosa y difícil. Equipos de negocios, equipos tecnológicos, equipos de ciencia de datos tienen que interaccionar meses para encontrar cómo los humanos y la IA pueden trabajar mejor juntos. Largo, costoso y difícil. Pero la recompensa es enorme.
A recent survey from BCG and MIT shows that 18 percent of companies in the world are pioneering AI, making money with it. Those companies focus 80 percent of their AI initiatives on effectiveness and growth, taking better decisions -- not replacing humans with AI to save costs.
Una encuesta reciente de BCG y MIT muestra que el 18 % de empresas en el mundo son pioneras en IA, haciendo dinero con eso. Esas compañías se enfocan un 80 % de sus iniciativas de IA en efectividad y crecimiento, tomando mejores decisiones no reemplazando humanos con IA para ahorrar costos.
Why is it important to keep humans in the loop? Simply because, left alone, AI can do very dumb things. Sometimes with no consequences, like in this tweet. "Dear Amazon, I bought a toilet seat. Necessity, not desire. I do not collect them, I'm not a toilet-seat addict. No matter how temptingly you email me, I am not going to think, 'Oh, go on, then, one more toilet seat, I'll treat myself.' "
¿Por qué es importante mantener a los humanos involucrados? Simplemente porque, dejándola sola, la IA puede hacer cosas muy tontas. A veces sin consecuencias, como en este tuit. "Querida Amazon, compré un asiento de inodoro. Por necesidad, no por deseo. No los colecciono. No soy un adicto a los inodoros. No importa cuán tentador sea el correo, No voy a pensar, 'Oh, adelante, entonces, un asiento de inodoro más, Trataré yo mismo".
(Laughter)
(Risas)
Sometimes, with more consequence, like in this other tweet. "Had the same situation with my mother's burial urn."
A veces, con más consecuencia, como en este otro tuit. "Tenía la misma situación con la urna funeraria de mi madre".
(Laughter)
(Risas)
"For months after her death, I got messages from Amazon, saying, 'If you liked that ...' "
"Por meses tras su muerte, recibí mensajes de Amazon, diciendo: 'Si te gustó eso...' ".
(Laughter)
(Risas)
Sometimes with worse consequences. Take an AI engine rejecting a student application for university. Why? Because it has "learned," on past data, characteristics of students that will pass and fail. Some are obvious, like GPAs. But if, in the past, all students from a given postal code have failed, it is very likely that AI will make this a rule and will reject every student with this postal code, not giving anyone the opportunity to prove the rule wrong.
A veces con peores consecuencias. Por ejemplo, una IA rechazando una solicitud para la universidad. ¿Por qué? Porque ha "aprendido" de datos pasados, características de los estudiantes este pasará y este fallará. Algunos obvios, como los exámenes de grado. Pero si, en el pasado, los estudiantes de un código postal dado han fallado, es muy probable que la IA hará de esto una regla y rechazará a cada estudiante con este código postal, sin darle a nadie la oportunidad para demostrar que la regla está equivocada.
And no one can check all the rules, because advanced AI is constantly learning. And if humans are kept out of the room, there comes the algocratic nightmare. Who is accountable for rejecting the student? No one, AI did. Is it fair? Yes. The same set of objective rules has been applied to everyone. Could we reconsider for this bright kid with the wrong postal code? No, algos don't change their mind.
Y nadie puede verificar todas las reglas, porque la IA avanzada está constantemente aprendiendo. Y si los humanos no están involucrados, llega la pesadilla algocrática. ¿Quién es responsable? de rechazar al estudiante? Nadie, la AI lo hizo. ¿Es justo? Sí. El mismo conjunto de reglas objetivas se ha aplicado a todos. ¿Podríamos reconsiderar a este niño brillante con el código postal incorrecto? No, los algoritmos no cambian de opinión.
We have a choice here. Carry on with algocracy or decide to go to "Human plus AI." And to do this, we need to stop thinking tech first, and we need to start applying the secret formula. To deploy "Human plus AI," 10 percent of the effort is to code algos; 20 percent to build tech around the algos, collecting data, building UI, integrating into legacy systems; But 70 percent, the bulk of the effort, is about weaving together AI with people and processes to maximize real outcome.
Tenemos una opción aquí. Continuar con algoritmocracia o decidir ir a "Humano más IA". Y para hacer esto, primero tenemos que dejar de pensar en tecnología y debemos comenzar a aplicar la fórmula secreta. Para usar "Humano más IA" el 10 % del esfuerzo es de codificar algoritmos; el 20 % construir tecnología alrededor de los algoritmos, recolectando datos, construyendo IU, integración en sistemas heredados; pero el 70 %, la mayor parte del esfuerzo, se dedica a entrelazar la AI con personas y procesos para maximizar el resultado real.
AI fails when cutting short on the 70 percent. The price tag for that can be small, wasting many, many millions of dollars on useless technology. Anyone cares? Or real tragedies: 346 casualties in the recent crashes of two B-737 aircrafts when pilots could not interact properly with a computerized command system.
La IA falla cuando se corta en el 70 %. El precio para eso puede ser pequeño, desperdiciando muchos, muchos millones de dólares en tecnología inútil. ¿A alguien le importa? O tragedias reales: Las 346 bajas en los accidentes recientes de dos aviones B-737 cuando los pilotos no podían interactuar adecuadamente con un sistema de comando computarizado.
For a successful 70 percent, the first step is to make sure that algos are coded by data scientists and domain experts together. Take health care for example. One of our teams worked on a new drug with a slight problem. When taking their first dose, some patients, very few, have heart attacks. So, all patients, when taking their first dose, have to spend one day in hospital, for monitoring, just in case. Our objective was to identify patients who were at zero risk of heart attacks, who could skip the day in hospital. We used AI to analyze data from clinical trials, to correlate ECG signal, blood composition, biomarkers, with the risk of heart attack. In one month, our model could flag 62 percent of patients at zero risk. They could skip the day in hospital. Would you be comfortable staying at home for your first dose if the algo said so?
Para un exitoso 70 %, el primer paso es asegurarse de que los algoritmos están codificados por científicos de datos junto a expertos en dominios. Tomen, por ejemplo, el cuidado de la salud. Uno de nuestros equipos trabajó en un nuevo medicamento con un pequeño problema Al tomar la primera dosis, algunos pacientes, muy pocos, tienen ataques al corazón Entonces, todos los pacientes, cuando toman su primera dosis, tienen que pasar un día en el hospital para monitorización, por si acaso. Nuestro objetivo era identificar pacientes que tenían cero riesgo de ataques, que podrían pasar el día en el hospital. Utilizamos la IA para analizar datos de ensayos clínicos, para correlacionar la señal del ECG, composición sanguínea, biomarcadores, con riesgo de infarto. En un mes, nuestro modelo podría marcar el 62 % de los pacientes con riesgo cero. Podrían saltarse el día en el hospital. ¿Estarían cómodos quedándose en casa para su primera dosis si es que el algoritmo lo dijo?
(Laughter)
(Risas)
Doctors were not. What if we had false negatives, meaning people who are told by AI they can stay at home, and die?
Los médicos no. ¿Y si tuviéramos falsos negativos, es decir, personas a quienes les dice la AI pueden quedarse en casa y morir?
(Laughter)
(Risas)
There started our 70 percent. We worked with a team of doctors to check the medical logic of each variable in our model. For instance, we were using the concentration of a liver enzyme as a predictor, for which the medical logic was not obvious. The statistical signal was quite strong. But what if it was a bias in our sample? That predictor was taken out of the model. We also took out predictors for which experts told us they cannot be rigorously measured by doctors in real life. After four months, we had a model and a medical protocol. They both got approved my medical authorities in the US last spring, resulting in far less stress for half of the patients and better quality of life. And an expected upside on sales over 100 million for that drug.
Ahí comenzó nuestro 70 %. Trabajamos con un equipo de médicos para verificar la lógica médica de cada variable en nuestro modelo. Por ejemplo, estábamos usando la concentración de una enzima hepática como predictor lo cual para la lógica médica no era obvio. La señal estadística fue bastante fuerte. Pero ¿y si fue un sesgo en nuestra muestra? Ese predictor fue sacado del modelo. También sacamos predictores para los que los expertos nos dijeron que no pueden medirse rigurosamente por médicos en la vida real. Después de cuatro meses teníamos un modelo y un protocolo médico. Ambos fueron aprobados por mis autoridades medicas en EE. UU. la primavera pasada, resultando en mucho menos estrés para la mitad de los pacientes y mejor calidad de vida. Y un alza esperada en las ventas más de 100 millones para ese fármaco.
Seventy percent weaving AI with team and processes also means building powerful interfaces for humans and AI to solve the most difficult problems together. Once, we got challenged by a fashion retailer. "We have the best buyers in the world. Could you build an AI engine that would beat them at forecasting sales? At telling how many high-end, light-green, men XL shirts we need to buy for next year? At predicting better what will sell or not than our designers." Our team trained a model in a few weeks, on past sales data, and the competition was organized with human buyers. Result? AI wins, reducing forecasting errors by 25 percent. Human-zero champions could have tried to implement this initial model and create a fight with all human buyers. Have fun. But we knew that human buyers had insights on fashion trends that could not be found in past data.
Invertir el 70 % entrelazando la IA con equipo y procesos también significa construir interfaces potentes para humanos y para la IA a fin de juntos resolver los problemas más difíciles. Una vez, nos desafió un minorista de moda. "Tenemos los mejores compradores del mundo. ¿Podrías construir un motor de IA que los venciera al pronosticar las ventas? ¿Decir cuántas camisas de hombre XL de gama alta, verde claro, tenemos que comprar para el año que viene? Predecir mejor lo que se venderá o no que nuestros diseñadores". Nuestro equipo entrenó un modelo en pocas semanas, en datos de ventas anteriores, y se organizó la competencia con compradores humanos ¿Resultado? La IA gana, reduciendo los errores de pronóstico en un 25 %. Los campeones del cero humanos podrían haber intentado implementar este modelo inicial y crear una pelea con todos los compradores humanos. Que les vaya bien. Pero sabíamos que los compradores humanos tenían ideas sobre tendencias de la moda que no se pudieron encontrar en datos pasados.
There started our 70 percent. We went for a second test, where human buyers were reviewing quantities suggested by AI and could correct them if needed. Result? Humans using AI ... lose. Seventy-five percent of the corrections made by a human were reducing accuracy.
Ahí comenzó nuestro 70 %. Fuimos a una segunda prueba, donde los compradores humanos estaban revisando cantidades sugerida por IA y podían corregirlos si fuera necesario. ¿Resultado? Humanos que usan IA... pierde. El 75 % de las correcciones hechas por un humano estaban reduciendo la precisión.
Was it time to get rid of human buyers? No. It was time to recreate a model where humans would not try to guess when AI is wrong, but where AI would take real input from human buyers. We fully rebuilt the model and went away from our initial interface, which was, more or less, "Hey, human! This is what I forecast, correct whatever you want," and moved to a much richer one, more like, "Hey, humans! I don't know the trends for next year. Could you share with me your top creative bets?" "Hey, humans! Could you help me quantify those few big items? I cannot find any good comparables in the past for them." Result? "Human plus AI" wins, reducing forecast errors by 50 percent. It took one year to finalize the tool. Long, costly and difficult. But profits and benefits were in excess of 100 million of savings per year for that retailer.
¿Era hora de deshacerse de los compradores humanos? No. Era hora de recrear un modelo. donde los humanos no intentarían adivinar cuando la IA está mal, sino donde la IA tomaría una entrada real de compradores humanos. Reconstruimos completamente el modelo. y nos alejamos de nuestra interfaz inicial, que era, más o menos, "¡Oye, humano! Esto es lo que predije, corrige lo que quieras" y se mudó a uno mucho más rico, más como, "¡Hola, humanos! No sé las tendencias para el próximo año. ¿Podrían compartir conmigo? sus mejores apuestas creativas? "¡Hola, humanos! Podrían ayudarme a cuantificar esos pocos artículos grandes? No puedo encontrar buenos datos comparables en el pasado para ellos". ¿Resultado? "Humano más IA" gana, reduciendo errores de pronóstico en un 50 %. Se tardó un año en finalizar la herramienta. Largo, costoso y difícil. Pero las ganancias y beneficios fueron más de 100 millones de ahorro por año para ese minorista.
Seventy percent on very sensitive topics also means human have to decide what is right or wrong and define rules for what AI can do or not, like setting caps on prices to prevent pricing engines [from charging] outrageously high prices to uneducated customers who would accept them. Only humans can define those boundaries -- there is no way AI can find them in past data.
El 70 % en temas muy delicados también significa que los humanos tienen que decidir lo que está bien o mal y definir reglas sobre lo que la IA puede o no hacer, como establecer límites en precios para evitar que motores de fijación de precios cobren precios escandalosamente altos a clientes sin educación ¿Quién los aceptaría? Solo los humanos pueden definir esos límites. no hay manera de que la IA pueda encontrarlos en datos pasados.
Some situations are in the gray zone. We worked with a health insurer. He developed an AI engine to identify, among his clients, people who are just about to go to hospital to sell them premium services. And the problem is, some prospects were called by the commercial team while they did not know yet they would have to go to hospital very soon. You are the CEO of this company. Do you stop that program? Not an easy question.
Algunas situaciones están en la zona gris. Trabajamos con una aseguradora de salud. Desarrolló un motor de IA. para identificar, entre sus clientes, personas que están a punto de ir al hospital para venderles servicios premium. Y el problema es que algunos prospectos los llamó el equipo comercial mientras aún no sabían que tendrían que ir al hospital muy pronto Eres el CEO de esta empresa. ¿Paras ese programa? No es una pregunta fácil.
And to tackle this question, some companies are building teams, defining ethical rules and standards to help business and tech teams set limits between personalization and manipulation, customization of offers and discrimination, targeting and intrusion.
Y para abordar esta pregunta, algunas compañías están formando equipos, definen reglas y estándares éticos para ayudar a equipos empresariales y tecnológicos a establecer límites entre personalización y manipulación, personalización de ofertas y discriminación, focalización e intrusión.
I am convinced that in every company, applying AI where it really matters has massive payback. Business leaders need to be bold and select a few topics, and for each of them, mobilize 10, 20, 30 people from their best teams -- tech, AI, data science, ethics -- and go through the full 10-, 20-, 70-percent cycle of "Human plus AI," if they want to land AI effectively in their teams and processes. There is no other way.
Estoy convencido de que en cada empresa, aplicar IA donde realmente importa tiene una recuperación masiva. Los líderes empresariales deben ser valientes y seleccionar algunos temas, y para cada uno de ellos, movilizar 10, 20, 30 personas de sus mejores equipos, tecnología, IA, ciencia de datos, ética, e ir a través del ciclo completo 10, 20 y 70 % de "Humano más IA" si quieren usar IA de manera efectiva en sus equipos y procesos. No hay otra manera.
Citizens in developed economies already fear algocracy. Seven thousand were interviewed in a recent survey. More than 75 percent expressed real concerns on the impact of AI on the workforce, on privacy, on the risk of a dehumanized society. Pushing algocracy creates a real risk of severe backlash against AI within companies or in society at large. "Human plus AI" is our only option to bring the benefits of AI to the real world. And in the end, winning organizations will invest in human knowledge, not just AI and data. Recruiting, training, rewarding human experts. Data is said to be the new oil, but believe me, human knowledge will make the difference, because it is the only derrick available to pump the oil hidden in the data.
Ciudadanos en economías desarrolladas ya temen la algoritmocracia. Siete mil fueron entrevistados en una encuesta reciente. Más del 75 % expresó preocupaciones reales sobre el impacto de la IA en la fuerza laboral, en la privacidad, sobre el riesgo de una sociedad deshumanizada. Empujar la algoritmocracia crea un riesgo real de reacción severa contra la IA dentro de las empresas o en la sociedad en general. "Humano más IA" es nuestra única opción para traer los beneficios de la IA al mundo real Y al fin, las organizaciones ganadoras invertirán en conocimiento humano, no solo en IA y en datos. Reclutamiento, entrenamiento, recompensar a los expertos humanos. Se dice que los datos son el nuevo petróleo, pero créanme, el conocimiento humano marcará la diferencia porque es la única torre de perforación disponible para bombear el petróleo oculto en los datos.
Thank you.
Gracias.
(Applause)
(Aplausos)