Let me share a paradox. For the last 10 years, many companies have been trying to become less bureaucratic, to have fewer central rules and procedures, more autonomy for their local teams to be more agile. And now they are pushing artificial intelligence, AI, unaware that cool technology might make them more bureaucratic than ever. Why? Because AI operates just like bureaucracies.
Để tôi chia sẻ với các bạn một nghịch lí. Trong suốt mười năm qua, nhiều công ty đã cố gắng hạn chế tình trạng quan liêu, giảm bớt các quy tắc và quy trình, cho phép các địa phương tự quản để bộ máy trở nên tinh gọn hơn. Và giờ họ đang làm việc nhiều hơn với trí tuệ nhân tạo, AI, mà không biết rằng công nghệ có thể gia tăng tình trạng quan liêu hơn trước. Tại sao? Vì trí tuệ nhân tạo vận hành giống nạn quan liêu.
The essence of bureaucracy is to favor rules and procedures over human judgment. And AI decides solely based on rules. Many rules inferred from past data but only rules. And if human judgment is not kept in the loop, AI will bring a terrifying form of new bureaucracy -- I call it "algocracy" -- where AI will take more and more critical decisions by the rules outside of any human control. Is there a real risk? Yes.
Bản chất của nạn quan liêu là đề cao các quy tắc và quy trình hơn quyết định của con người. Và trí tuệ nhân tạo quyết định hoàn toàn dựa trên các quy tắc. Rất nhiều các quy tắc dựa trên dữ liệu trước nhưng chỉ là các quy tắc. Và nếu quyết định của con người không được xem trọng, trí tuệ nhân tạo sẽ tạo ra một kiểu quan liêu mới đáng sợ hơn -- tôi gọi nó là "algocracy" -- nơi trí tuệ nhân tạo sẽ đưa ra nhiều quyết định hoàn toàn dựa trên các quy tắc ngoài tầm kiểm soát của con người. Có rủi ro gì đằng sau đó không? Có.
I'm leading a team of 800 AI specialists. We have deployed over 100 customized AI solutions for large companies around the world. And I see too many corporate executives behaving like bureaucrats from the past. They want to take costly, old-fashioned humans out of the loop and rely only upon AI to take decisions. I call this the "human-zero mindset." And why is it so tempting? Because the other route, "Human plus AI," is long, costly and difficult. Business teams, tech teams, data-science teams have to iterate for months to craft exactly how humans and AI can best work together. Long, costly and difficult. But the reward is huge.
Tôi lãnh đạo một đội gồm 800 chuyên gia về trí tuệ nhân tạo. Chúng tôi đã triển khai hơn 100 giải pháp đặc chế về trí tuệ nhân tạo tại các công ty lớn trên toàn thế giới. Và tôi chứng kiến nhiều tổ chức đoàn thể vận hành giống nạn quan liêu ngày trước. Họ muốn chiếm nhiều tiền, loại bỏ những người kiểu cũ ra khỏi cuộc chơi và dựa hoàn toàn vào trí tuệ nhân tạo để đưa ra quyết định. Tôi gọi đó là "con người có tư duy bằng không." Tại sao điều này lại lôi cuốn đến vậy? Vì "Con người với trí tuệ nhân tạo" là một quá trình dài, tốn kém và đầy khó khăn. Đội kinh doanh, đội công nghệ, đội dữ liệu khoa học phải nhắc đi nhắc lại trong nhiều tháng với nhân viên cách để con người và trí tuệ nhân tạo có thể hợp tác với nhau tốt nhất. Một hành trình dài, tốn kém và đầy khó khăn. Nhưng thành quả nhận được vô cùng to lớn.
A recent survey from BCG and MIT shows that 18 percent of companies in the world are pioneering AI, making money with it. Those companies focus 80 percent of their AI initiatives on effectiveness and growth, taking better decisions -- not replacing humans with AI to save costs.
Một cuộc khảo sát gần đây từ BCG và MIT cho thấy 18% các công ty trên thế giới đã đi đầu trong lĩnh vực trí tuệ nhân tạo, kiếm tiền từ nó. Các công ty này tập trung 80% nguồn lực về trí tuệ nhân tạo để đảm bảo tính hiệu quả và sự phát triển và đưa ra các quyết định đúng đắn -- và không thay thế con người bằng trí tuệ nhân tạo để tiết kiệm chi phí.
Why is it important to keep humans in the loop? Simply because, left alone, AI can do very dumb things. Sometimes with no consequences, like in this tweet. "Dear Amazon, I bought a toilet seat. Necessity, not desire. I do not collect them, I'm not a toilet-seat addict. No matter how temptingly you email me, I am not going to think, 'Oh, go on, then, one more toilet seat, I'll treat myself.' "
Tại sao quyết định của con người vẫn quan trọng? Đơn giản vì làm một mình, trí tuệ nhân tạo có thể sẽ làm những việc ngớ ngẩn. Có khi không có gì nghiêm trọng, như dòng tweet này. "Amazon thân mến, tôi đã mua một cái bồn cầu. Do tôi cần, chứ không phải ao ước. Tôi không sưu tầm chúng, tôi không phải là người thích bồn cầu. Dù bạn có gửi một email hấp dẫn thế nào, tôi cũng không bao giờ nghĩ, "Oh, tiếp tục đi, cho tôi một cái bồn cầu nữa, tôi sẽ tự xử."
(Laughter)
(Cười)
Sometimes, with more consequence, like in this other tweet. "Had the same situation with my mother's burial urn."
Nhưng đôi khi nghiêm trọng hơn, như dòng tweet này. "Cùng tình trạng với hũ đựng tro cốt của mẹ tôi."
(Laughter)
(Cười)
"For months after her death, I got messages from Amazon, saying, 'If you liked that ...' "
"Nhiều tháng sau khi bà mất, tôi liên tục nhận được tin nhắn từ Amazon, nói rằng, "Nếu bạn thích..."
(Laughter)
(Cười)
Sometimes with worse consequences. Take an AI engine rejecting a student application for university. Why? Because it has "learned," on past data, characteristics of students that will pass and fail. Some are obvious, like GPAs. But if, in the past, all students from a given postal code have failed, it is very likely that AI will make this a rule and will reject every student with this postal code, not giving anyone the opportunity to prove the rule wrong.
Có khi lại gây hậu quả nghiêm trọng hơn. Để trí tuệ nhân tạo đánh trượt hồ sơ của học sinh nộp vào trường đại học. Tại sao? Vì nó được "lập trình", dựa trên dữ liệu và đặc điểm của những học sinh sẽ đỗ hoặc trượt. Một số cái rất rõ ràng, như điểm GPA. Nhưng nếu tất cả học sinh cùng một mã bưu chính bị trượt, rất có thể trí tuệ nhân tạo sẽ lấy đó làm nguyên tắc và sẽ đánh trượt tất cả học sinh có mã bưu chính đó, không cho ai cơ hội chứng minh rằng nguyên tắc đó là sai.
And no one can check all the rules, because advanced AI is constantly learning. And if humans are kept out of the room, there comes the algocratic nightmare. Who is accountable for rejecting the student? No one, AI did. Is it fair? Yes. The same set of objective rules has been applied to everyone. Could we reconsider for this bright kid with the wrong postal code? No, algos don't change their mind.
Và không ai có thể kiểm tra toàn bộ nguyên tắc, vì trí tuệ nhân tạo làm việc liên tục. Và nếu con người không có ở đó, sẽ xảy ra những ác mộng trí tuệ nhân tạo. Ai sẽ chịu trách nhiệm cho việc đánh trượt thí sinh? Không ai, sẽ là trí tuệ nhân tạo. Điều này có công bằng không? Có. Bộ nguyên tắc tương tự cũng được áp dụng với mọi người. Liệu có thể cân nhắc lại về trường hợp của những đứa trẻ có mã bưu chính sai? Không, thuật toán không thể quyết định.
We have a choice here. Carry on with algocracy or decide to go to "Human plus AI." And to do this, we need to stop thinking tech first, and we need to start applying the secret formula. To deploy "Human plus AI," 10 percent of the effort is to code algos; 20 percent to build tech around the algos, collecting data, building UI, integrating into legacy systems; But 70 percent, the bulk of the effort, is about weaving together AI with people and processes to maximize real outcome.
Chúng ta có một lựa chọn ở đây. Tiếp tục làm việc với trí tuệ nhân tạo hoặc quyết định đi tới "Con người với trí tuệ nhân tạo." Và để làm được việc này, ta cần dừng nghĩ đến công nghệ đầu tiên, và cần bắt đầu áp dụng một công thức bí mật. Để triển khai "Con người và trí tuệ nhân tạo" cần 10% nỗ lực lập trình thuật toán; 20% xây dựng công nghệ xung quanh thuật toán, thu thập dữ liệu, xây dựng giao diện người dùng, hợp nhất vào hệ thống; nhưng 70% còn lại sẽ khớp trí tuệ nhân tạo với con người và các quy trình để tối đa hoá giá trị sản phẩm thu được.
AI fails when cutting short on the 70 percent. The price tag for that can be small, wasting many, many millions of dollars on useless technology. Anyone cares? Or real tragedies: 346 casualties in the recent crashes of two B-737 aircrafts when pilots could not interact properly with a computerized command system.
Trí tuệ nhân tạo thất bại khi ta rút ngắn 70% kia. Tag giá có thể nhỏ, nhưng lại tốn rất nhiều triệu đô vào thứ công nghệ vô dụng. Có ai quan tâm không? Hoặc là những bi kịch có thực: Có 346 thương vong trong vụ va chạm gần đây giữa hai máy bay B-737 khi các phi công không thể kết nối trực tiếp với hệ thống máy tính.
For a successful 70 percent, the first step is to make sure that algos are coded by data scientists and domain experts together. Take health care for example. One of our teams worked on a new drug with a slight problem. When taking their first dose, some patients, very few, have heart attacks. So, all patients, when taking their first dose, have to spend one day in hospital, for monitoring, just in case. Our objective was to identify patients who were at zero risk of heart attacks, who could skip the day in hospital. We used AI to analyze data from clinical trials, to correlate ECG signal, blood composition, biomarkers, with the risk of heart attack. In one month, our model could flag 62 percent of patients at zero risk. They could skip the day in hospital. Would you be comfortable staying at home for your first dose if the algo said so?
Muốn thành công ở 70% này bước đầu tiên là phải đảm bảo thuật toán phải được các nhà khoa học dữ liệu và các chuyên gia trong ngành lập trình. Lấy một ví dụ thuộc ngành chăm sóc sức khoẻ. Một nhóm của tôi gặp phải một vấn đề nhỏ khi nghiên cứu loại thuốc mới. Khi uống liều đầu tiên, một số ít bệnh nhân có thể bị đau tim. Vậy nên tất cả các bệnh nhân sau khi uống liều đầu tiên phải ở lại bệnh viện một ngày để được theo dõi. Mục tiêu là xác định những bệnh nhân không có nguy cơ đau tim, để có thể không phải ở lại bệnh viện nữa. Chúng tôi dùng trí tuệ nhân tạo phân tích dữ liệu từ các cuộc thử nghiệm y học, liên hệ dấu hiệu điện tim, thành phần của máu, các dấu ấn sinh học với nguy cơ bị đau tim. Trong một tháng, mẫu của chúng tôi đã giúp 62% bệnh nhân không có nguy cơ mắc đau tim. Họ không cần phải ở lại bệnh viện. Bạn có cảm thấy thoải mái khi được ở nhà sau lần uống thuốc đầu tiên nếu thuật toán nói như thế?
(Laughter)
(Cười)
Doctors were not. What if we had false negatives, meaning people who are told by AI they can stay at home, and die?
Các bác sĩ thì không. Sẽ ra sao nếu ta đánh giá sai, nhỡ các bệnh nhân mà trí tuệ nhân tạo cho rằng họ có thể ở nhà, lại qua đời?
(Laughter)
(Cười)
There started our 70 percent. We worked with a team of doctors to check the medical logic of each variable in our model. For instance, we were using the concentration of a liver enzyme as a predictor, for which the medical logic was not obvious. The statistical signal was quite strong. But what if it was a bias in our sample? That predictor was taken out of the model. We also took out predictors for which experts told us they cannot be rigorously measured by doctors in real life. After four months, we had a model and a medical protocol. They both got approved my medical authorities in the US last spring, resulting in far less stress for half of the patients and better quality of life. And an expected upside on sales over 100 million for that drug.
Đây là khởi đầu cho 70% của chúng tôi. Chúng tôi đã làm việc với đội ngũ bác sĩ để kiểm tra tính logic về mặt y học của mỗi biến số trong mẫu của mình. Ví dụ, chúng tôi dùng sự tập trung các enzym của gan để dự đoán, trong trường hợp này tính logic không hề rõ ràng. Các dấu hiệu thống kê khá nhiều. Nhưng sẽ ra sao nếu có một đường chéo ở mẫu của chúng tôi? Sự dự đoán này vượt ra ngoài mẫu của chúng tôi. Chúng tôi cũng thử nghiệm một vài dự đoán do các chuyên gia gợi ý nhưng không được các bác sĩ đánh giá chặt chẽ. Sau bốn tháng, chúng tôi đã có mô hình và biên bản y tế. Cả hai đều được đồng ý. Nghiên cứu của tôi ở Mỹ vào mùa xuân năm ngoái giúp giảm sự căng thẳng cho một nửa bệnh nhân và cải thiện chất lượng cuộc sống. Và chúng tôi hi vọng sẽ bán được 100 triệu cho loại thuốc này.
Seventy percent weaving AI with team and processes also means building powerful interfaces for humans and AI to solve the most difficult problems together. Once, we got challenged by a fashion retailer. "We have the best buyers in the world. Could you build an AI engine that would beat them at forecasting sales? At telling how many high-end, light-green, men XL shirts we need to buy for next year? At predicting better what will sell or not than our designers." Our team trained a model in a few weeks, on past sales data, and the competition was organized with human buyers. Result? AI wins, reducing forecasting errors by 25 percent. Human-zero champions could have tried to implement this initial model and create a fight with all human buyers. Have fun. But we knew that human buyers had insights on fashion trends that could not be found in past data.
70% trong việc hợp tác trí tuệ nhân tạo với đội ngũ và các quy trình đã xây dựng được mặt phân giãn vững chắc cho con người và trí tuệ nhân tạo cùng giải quyết những vấn đề hóc búa nhất. Một lần chúng tôi có thử thách từ nhà bán lẻ thời trang. "Chúng tôi đã có khách hàng tốt nhất trên thế giới. Các bạn có thể thiết kế động cơ dùng trí tuệ nhân tạo mà dự đoán được mặt hàng? Nói cho chúng tôi biết bao nhiêu áo phông nam cao cấp, màu xanh nhạt chúng tôi cần mua cho năm sau? Và dự đoán xem cái gì bán được hay không tốt hơn các nhà thiết kế." Đội chúng tôi đã nghiên cứu mô hình trong vài tuần, dựa vào dữ liệu bán hàng trước, và cuộc thi được tổ chức với khách hàng thật. Kết quả ư? Trí tuệ nhân tạo đã thắng, tỉ lệ dự đoán sai ít hơn 25%. Con người cũng có thể thử sử dụng mô hình này và tạo ra một cuộc thách đấu với các khách hàng. Thật thú vị. Nhưng chúng tôi biết khách hàng có những hiểu biết về xu hướng thời trang mà không có ở dữ liệu trước.
There started our 70 percent. We went for a second test, where human buyers were reviewing quantities suggested by AI and could correct them if needed. Result? Humans using AI ... lose. Seventy-five percent of the corrections made by a human were reducing accuracy.
Bắt đầu 70% của chúng tôi. Chúng tôi thực hiện bài kiểm tra thứ hai để khách hàng kiểm tra số lượng sản phẩm được trí tuệ nhân tạo gợi ý và có thể sửa chúng nếu cần. Kết quả ư? Người sử dụng trí tuệ nhân tạo... thất bại. 75% lỗi được sửa bởi con người lại ít chính xác hơn.
Was it time to get rid of human buyers? No. It was time to recreate a model where humans would not try to guess when AI is wrong, but where AI would take real input from human buyers. We fully rebuilt the model and went away from our initial interface, which was, more or less, "Hey, human! This is what I forecast, correct whatever you want," and moved to a much richer one, more like, "Hey, humans! I don't know the trends for next year. Could you share with me your top creative bets?" "Hey, humans! Could you help me quantify those few big items? I cannot find any good comparables in the past for them." Result? "Human plus AI" wins, reducing forecast errors by 50 percent. It took one year to finalize the tool. Long, costly and difficult. But profits and benefits were in excess of 100 million of savings per year for that retailer.
Có phải đã đến lúc loại bỏ các khách hàng không? Không. Đến lúc cần phải thiết kế lại mô hình để con người không cần phải cố gắng dự đoán khi trí tuệ nhân tạo làm việc sai, nhưng là nơi trí tuệ nhân tạo có thể xử lí được thông tin từ khách hàng. Chúng tôi xây dựng lại mô hình và tránh xa giao diện ban đầu, giao diện đó như muốn nói: "Hey! Đây là những gì tôi dự đoán, đối chiếu với cái bạn cần," và chuyển đến một giao diện giàu có hơn, như, "Hey, tôi không biết xu hướng của năm sau. Bạn có thể chia sẻ dự đoán tốt nhất của mình được không?" "Hey, bạn giúp tôi xác định số lượng một ít đồ lớn được không? Tôi không thể tìm thấy bất kì sự so sánh nào tốt trong quá khứ." Kết quả ư? "Con người và trí tuệ nhân tạo" đã thắng, giảm 50% tỉ lệ đoán sai. Phải mất một năm để hoàn thành công cụ này. Một quá trình dài, tốn kém và đầy khó khăn. Nhưng lợi nhuận và lợi ích mà nó mang lại là tiết kiệm được 100 triệu cho nhà bán lẻ mỗi năm.
Seventy percent on very sensitive topics also means human have to decide what is right or wrong and define rules for what AI can do or not, like setting caps on prices to prevent pricing engines [from charging] outrageously high prices to uneducated customers who would accept them. Only humans can define those boundaries -- there is no way AI can find them in past data.
70% thành công ở các chủ đề nhạy cảm nghĩa là con người phải quyết định đúng sai và đặt ra các luật lệ những gì trí tuệ nhân tạo có thể làm hoặc không, như đặt giá để ngăn chặn máy trả mức giá cao quá cho những khách hàng không có học thức chấp nhận chúng. Chỉ con người mới có thể đặt ra ranh giới như vậy -- trí tuệ nhân tạo không thể tìm thấy chúng trong dữ liệu.
Some situations are in the gray zone. We worked with a health insurer. He developed an AI engine to identify, among his clients, people who are just about to go to hospital to sell them premium services. And the problem is, some prospects were called by the commercial team while they did not know yet they would have to go to hospital very soon. You are the CEO of this company. Do you stop that program? Not an easy question.
Một số trường hợp trong vùng màu xám. Chúng tôi làm việc với một công ty bảo hiểm sức khoẻ. Anh phát triển thiết bị dùng trí tuệ nhân tạo để xác định trong các khách hàng, những người sẽ đến bệnh viện để bán dịch vụ bảo hiểm của mình. Vấn đề là, viễn cảnh được vẽ ra bởi những người làm thương mại trong khi họ không biết rằng mình sẽ sớm phải đến bệnh viện. Nếu là CEO của công ty này, bạn có dừng chương trình này không? Không phải là một câu hỏi dễ.
And to tackle this question, some companies are building teams, defining ethical rules and standards to help business and tech teams set limits between personalization and manipulation, customization of offers and discrimination, targeting and intrusion.
Và để trả lời câu hỏi này, một số công ty đang xây dựng đội ngũ, đặt ra các tiêu chuẩn đạo đức giúp đội kinh doanh và công nghệ đặt giới hạn giữa việc cá nhân hoá và thao túng, giữ việc tùy chỉnh đề nghị với việc phân biệt đối xử, mục tiêu và sự xâm lấn.
I am convinced that in every company, applying AI where it really matters has massive payback. Business leaders need to be bold and select a few topics, and for each of them, mobilize 10, 20, 30 people from their best teams -- tech, AI, data science, ethics -- and go through the full 10-, 20-, 70-percent cycle of "Human plus AI," if they want to land AI effectively in their teams and processes. There is no other way.
Tôi bị thuyết phục rằng ở mỗi công ty, áp dụng trí tuệ nhân tạo thu được một nguồn lợi vô cùng lớn. Lãnh đạo các công ty cần dũng cảm lựa chọn các chủ đề, và với mỗi chủ đề đó, huy động 10, 20, 30 người từ các đội tốt nhất -- công nghệ, trí tuệ nhân tạo, khoa học dữ liệu, nội quy -- và áp dụng đầy đủ vòng xoay 10, 20, 70% của "Con người và trí tuệ nhân tạo," nếu họ muốn khai thác trí tuệ nhân tạo hiệu quả trong đội và các quá trình. Không còn cách nào khác.
Citizens in developed economies already fear algocracy. Seven thousand were interviewed in a recent survey. More than 75 percent expressed real concerns on the impact of AI on the workforce, on privacy, on the risk of a dehumanized society. Pushing algocracy creates a real risk of severe backlash against AI within companies or in society at large. "Human plus AI" is our only option to bring the benefits of AI to the real world. And in the end, winning organizations will invest in human knowledge, not just AI and data. Recruiting, training, rewarding human experts. Data is said to be the new oil, but believe me, human knowledge will make the difference, because it is the only derrick available to pump the oil hidden in the data.
Các cư dân ở các nước phát triển sợ nạn quan liêu gây ra bởi trí tuệ nhân tạo. 7000 người được hỏi trong cuộc khảo sát gần đây. Hơn 75% bày tỏ sự lo lắng về ảnh hưởng của trí tuệ nhân tạo đến lực lượng lao động, chính sách, và nguy cơ xã hội trở thành vô nhân đạo. Sự gia tăng của nạn quan liêu này sẽ tạo ra khe hở chống lại trí tuệ nhân tạo ở các công ty và xã hội nói chung. "Con người với trí tuệ nhân tạo" là lựa chọn duy nhất của chúng ta để mang những lợi ích của trí tuệ nhân tạo đến với thế giới. Và cuối cùng, chiến thắng các cuộc thi còn cung cấp cho con người kiến thức, không chỉ trí tuệ nhân tạo và dữ liệu. Tuyển dụng, đào tạo và khen thưởng thành tích của con người. Dữ liệu được cho là mỏ dầu mới, nhưng tin tôi đi, kiến thức của con người mới tạo ra sự khác biệt, vì nó là cái cần cẩu có sẵn duy nhất để hút dầu trong dữ liệu.
Thank you.
Xin cảm ơn.
(Applause)
(Vỗ tay)