So, I started my first job as a computer programmer in my very first year of college -- basically, as a teenager.
Mitt första jobb var som dataprogrammerare under mitt första år på högskolan - jag var tonåring då.
Soon after I started working, writing software in a company, a manager who worked at the company came down to where I was, and he whispered to me, "Can he tell if I'm lying?" There was nobody else in the room.
Strax efter att jag börjat jobba, med att utveckla programvara, kom en chef på företaget ner där jag satt, och viskade till mig, "Kan han se om jag ljuger?" Där fanns ingen annan i rummet.
"Can who tell if you're lying? And why are we whispering?"
"Kan vem se om du ljuger? Och varför viskar vi?"
The manager pointed at the computer in the room. "Can he tell if I'm lying?" Well, that manager was having an affair with the receptionist.
Chefen pekade på datorn som stod i rummet. "Kan han se om jag ljuger?" Den här chefen hade en affär med receptionisten.
(Laughter)
(Skratt)
And I was still a teenager. So I whisper-shouted back to him, "Yes, the computer can tell if you're lying."
Och jag var fortfarande tonåring. Så jag visk-skrek tillbaka, "Ja, datorn kan se om du ljuger."
(Laughter)
(Skratt)
Well, I laughed, but actually, the laugh's on me. Nowadays, there are computational systems that can suss out emotional states and even lying from processing human faces. Advertisers and even governments are very interested.
Jag skrattade, men egentligen är det jag som är skämtet. Idag finns det beräkningssystem som kan sortera ut känslor och även lögner genom att processa data från ansikten. Annonsörer och till och med regeringar är mycket intresserade.
I had become a computer programmer because I was one of those kids crazy about math and science. But somewhere along the line I'd learned about nuclear weapons, and I'd gotten really concerned with the ethics of science. I was troubled. However, because of family circumstances, I also needed to start working as soon as possible. So I thought to myself, hey, let me pick a technical field where I can get a job easily and where I don't have to deal with any troublesome questions of ethics. So I picked computers.
Jag blev programmerare för som barn var jag som tokig i matematik och vetenskap. Men någonstans längs vägen fick jag vetskap om kärnvapen, och blev mycket oroad över etiken i forskningen. Jag var bekymrad. Emellertid, på grund av familjeomständigheter, var jag också tvungen att börja arbeta tidigt. Jag tänkte för mig själv; jag väljer ett tekniskt område där jag lätt kan få arbete och där jag inte behöver bekymra mig om några svårlösta etiska frågor. Så jag valde datorer.
(Laughter)
(Skratt)
Well, ha, ha, ha! All the laughs are on me. Nowadays, computer scientists are building platforms that control what a billion people see every day. They're developing cars that could decide who to run over. They're even building machines, weapons, that might kill human beings in war. It's ethics all the way down.
Ja, ha, ha, ha! Skratta gärna åt mig. Idag bygger datorforskare plattformar som kontrollerar vad som visas för miljarder människor varje dag. De utvecklar bilar som skulle kunna bestämma vem de ska köra över. De bygger till och med maskiner, vapen, som kan döda människor i krig. Det handlar om etik i hela ledet.
Machine intelligence is here. We're now using computation to make all sort of decisions, but also new kinds of decisions. We're asking questions to computation that have no single right answers, that are subjective and open-ended and value-laden.
De intelligenta maskinerna är här. Idag använder vi beräkningssystem för alla sorters beslut, men också för nya typer av beslut. Vi ställer frågor till algoritmerna som inte har ett entydigt korrekt svar, frågor som är subjektiva, öppna och värdeladdade.
We're asking questions like, "Who should the company hire?" "Which update from which friend should you be shown?" "Which convict is more likely to reoffend?" "Which news item or movie should be recommended to people?"
Vi ställer frågor som, "Vem ska företaget anställa?" "Vilken av dina vänners uppdateringar ska du kunna se?" "Vem återfaller troligast i brott?" "Vilka nyheter eller filmer ska rekommenderas till folk?"
Look, yes, we've been using computers for a while, but this is different. This is a historical twist, because we cannot anchor computation for such subjective decisions the way we can anchor computation for flying airplanes, building bridges, going to the moon. Are airplanes safer? Did the bridge sway and fall? There, we have agreed-upon, fairly clear benchmarks, and we have laws of nature to guide us. We have no such anchors and benchmarks for decisions in messy human affairs.
Visst, vi har använt datorer ett tag, men det här är annorlunda. Det är en historisk vridning, för vi kan inte verifiera beräkningarna för sådana subjektiva beslut på samma sätt som vi kan verifiera dem vi gör för flygplan, brokonstruktioner, eller månfärder. Är flygplan säkrare? Började bron självsvänga och rasa? Där har vi kommit överens om ganska tydliga ramverk, och vi har lagar som vägleder oss. Såna ramverk eller normer finns inte för beslut gällande krångliga mänskliga relationer.
To make things more complicated, our software is getting more powerful, but it's also getting less transparent and more complex. Recently, in the past decade, complex algorithms have made great strides. They can recognize human faces. They can decipher handwriting. They can detect credit card fraud and block spam and they can translate between languages. They can detect tumors in medical imaging. They can beat humans in chess and Go.
För att göra det än mer komplicerat, blir vår mjukvara kraftfullare, samtidigt som den blir både mindre transparent och mer komplex. Under det senaste årtiondet, har komplexa algoritmer gjort enorma framsteg. De kan känna igen ansikten. De kan tolka handskriven text. De kan upptäcka kontokortsbedrägerier, blockera spam och de kan översätta språk. De kan upptäcka tumörer genom medicinsk bildteknik. De kan slå människor i schack och Go.
Much of this progress comes from a method called "machine learning." Machine learning is different than traditional programming, where you give the computer detailed, exact, painstaking instructions. It's more like you take the system and you feed it lots of data, including unstructured data, like the kind we generate in our digital lives. And the system learns by churning through this data. And also, crucially, these systems don't operate under a single-answer logic. They don't produce a simple answer; it's more probabilistic: "This one is probably more like what you're looking for."
Många av de här framstegen härrör från en metod som kallas "maskininlärning." Maskininlärning skiljer sig från traditionell programmering, där du ger datorn detaljerade, exakta, noggranna instruktioner. Det här är mer som att du matar systemet med en massa data, inkluderat ostrukturerad data, till exempel från våra digitala liv. Systemet lär sig genom att bearbeta datamängderna. Avgörande är också, att systemen inte kommer fram till något entydigt svar. Du får inte ett enkelt svar, utan en sannolikhetsbedömning; "Det här är sannolikt det du letar efter."
Now, the upside is: this method is really powerful. The head of Google's AI systems called it, "the unreasonable effectiveness of data." The downside is, we don't really understand what the system learned. In fact, that's its power. This is less like giving instructions to a computer; it's more like training a puppy-machine-creature we don't really understand or control. So this is our problem. It's a problem when this artificial intelligence system gets things wrong. It's also a problem when it gets things right, because we don't even know which is which when it's a subjective problem. We don't know what this thing is thinking.
Fördelen är att metoden är kraftfull. Chefen för Googles AI-system kallade det "datas orimliga effektivitet." Nackdelen är att vi inte förstår vad systemet lär sig. Faktum är att det är dess makt. Det är mindre av att ge en dator instruktioner, och mer som att träna en Tamagotschi som vi varken förstår eller kontrollerar. Det är vårt stora problem. Det är problematiskt när såna här system får saker och ting om bakfoten. Det är också ett problem när de får till det rätt, för vi vet inte vad som är vad, när frågeställningen är subjektiv. Vi vet inte vad den här tingesten tänker.
So, consider a hiring algorithm -- a system used to hire people, using machine-learning systems. Such a system would have been trained on previous employees' data and instructed to find and hire people like the existing high performers in the company. Sounds good. I once attended a conference that brought together human resources managers and executives, high-level people, using such systems in hiring. They were super excited. They thought that this would make hiring more objective, less biased, and give women and minorities a better shot against biased human managers.
Föreställ er en algoritm för anställning - ett maskininlärningssystem som används för att anställa människor. Ett sådant system har lärt sig av data över tidigare anställda och instruerats att hitta och anställa likadana högpresterare som redan är anställda i företaget. Det låter ju bra. Jag deltog en gång i en konferens med personalchefer och chefer, högt uppsatta människor, som använder såna system. De var otroligt entusiastiska. De trodde att det här skulle göra anställningsprocessen objektiv, och mindre fördomsfull, och ge kvinnor och minoriteter en bättre chans mot fördomsfulla, partiska personalchefer.
And look -- human hiring is biased. I know. I mean, in one of my early jobs as a programmer, my immediate manager would sometimes come down to where I was really early in the morning or really late in the afternoon, and she'd say, "Zeynep, let's go to lunch!" I'd be puzzled by the weird timing. It's 4pm. Lunch? I was broke, so free lunch. I always went. I later realized what was happening. My immediate managers had not confessed to their higher-ups that the programmer they hired for a serious job was a teen girl who wore jeans and sneakers to work. I was doing a good job, I just looked wrong and was the wrong age and gender.
Men lyssna här - anställningar är fördomsfulla. Jag vet. Jag menar, under mitt första jobb som programmerare, kom ibland min närmsta chef förbi antingen väldigt tidigt på morgonen eller mycket sent på eftermiddagen, och sade; "Zeynep, nu går vi på lunch!" Jag var brydd av den märkliga tajmingen. Klockan är fyra på eftermiddagen. Lunch? Jag var pank, så gratis lunch. Jag följde alltid med. Senare förstod jag vad som hände. Min närmaste chef hade inte erkänt för de högre cheferna att programmeraren de anställt var en tonårstjej i jeans och gymnastikskor. Jag gjorde ett bra jobb, jag såg bara fel ut och var ung och kvinna.
So hiring in a gender- and race-blind way certainly sounds good to me. But with these systems, it is more complicated, and here's why: Currently, computational systems can infer all sorts of things about you from your digital crumbs, even if you have not disclosed those things. They can infer your sexual orientation, your personality traits, your political leanings. They have predictive power with high levels of accuracy. Remember -- for things you haven't even disclosed. This is inference.
Så att anställa utan att ta hänsyn till kön och ras låter verkligen bra i mina öron. Men med de här systemen blir det mer komplicerat; Idag kan beräkningssystem dra alla möjliga slutsatser om dig utifrån dina digitala avtryck, även om du inte har avslöjat dem. De kan dra slutsatser om din sexuella läggning, dina karaktärsdrag, dina politiska böjelser. De kan prognostisera med hög noggrannhet. Kom ihåg - kring saker du inte avslöjat. Det är slutledningsförmåga.
I have a friend who developed such computational systems to predict the likelihood of clinical or postpartum depression from social media data. The results are impressive. Her system can predict the likelihood of depression months before the onset of any symptoms -- months before. No symptoms, there's prediction. She hopes it will be used for early intervention. Great! But now put this in the context of hiring.
Jag har en vän som utvecklat ett beräkningssystem för att beräkna sannolikheten för klinisk- eller förlossningsdepression utifrån digitala avtryck. Resultaten är imponerande. Hennes system kan beräkna sannolikheten för depression månader innan symtomen visar sig - månader i förväg. Inga symtom, bara förutsägelse. Hon hoppas att det ska användas för behandling i ett tidigt stadium. Jättebra! Men sätt in det i ett anställningssammanhang.
So at this human resources managers conference, I approached a high-level manager in a very large company, and I said to her, "Look, what if, unbeknownst to you, your system is weeding out people with high future likelihood of depression? They're not depressed now, just maybe in the future, more likely. What if it's weeding out women more likely to be pregnant in the next year or two but aren't pregnant now? What if it's hiring aggressive people because that's your workplace culture?" You can't tell this by looking at gender breakdowns. Those may be balanced. And since this is machine learning, not traditional coding, there is no variable there labeled "higher risk of depression," "higher risk of pregnancy," "aggressive guy scale." Not only do you not know what your system is selecting on, you don't even know where to begin to look. It's a black box. It has predictive power, but you don't understand it.
På den här personalchefskonferensen, frågade jag en högt uppsatt chef i ett mycket stort företag, "Du, tänk om, utan att du vet, ert system gallrar ut personer med hög sannolikhet att drabbas av depression? De är inte deprimerade nu, men kanske blir någon gång i framtiden. Tänk om det gallrar ut kvinnor som kan komma att bli gravida inom ett till två år men som inte är gravida nu? Tänk om aggressiva människor anställs för att det är en del av er företagskultur?" Du kan inte bedöma det utifrån könsfördelningen. De kan vara i balans. Eftersom detta gäller maskininlärning, och inte traditionell kodning, finns det ingen variabel som säger "högre risk för depression," "högre risk för graviditet," "macho-tendenser." Du vet varken vad ditt system selekterar på, eller var du ska börja titta. Det är en svart låda. Det har en förutsägbar kraft, men du förstår inte det.
"What safeguards," I asked, "do you have to make sure that your black box isn't doing something shady?" She looked at me as if I had just stepped on 10 puppy tails.
"Vilka garantier, frågade jag, har du för att försäkra dig om att din svarta låda inte gör något skumt?" Hon tittade på mig som om jag just trampat på hennes hund.
(Laughter)
(Skratt)
She stared at me and she said, "I don't want to hear another word about this." And she turned around and walked away. Mind you -- she wasn't rude. It was clearly: what I don't know isn't my problem, go away, death stare.
Hon stirrade på mig och sade, "Jag vill inte höra ett enda ord till." Hon vände sig om och gick. Kom ihåg - hon var inte oförskämd. Det var tydligt: Det jag inte vet är inte mitt problem, stick iväg.
(Laughter)
(Skratt)
Look, such a system may even be less biased than human managers in some ways. And it could make monetary sense. But it could also lead to a steady but stealthy shutting out of the job market of people with higher risk of depression. Is this the kind of society we want to build, without even knowing we've done this, because we turned decision-making to machines we don't totally understand?
Ett sånt system kan vara mindre subjektivt än personalchefer på vissa sätt. Och det kan vara ekonomiskt rimligt. Men det kan också leda till ett smygande utestängande från arbetsmarknaden av människor med högre risk för psykisk ohälsa. Vill vi bygga den sortens samhälle, utan att ens märka att vi gör det, för att vi låter maskiner ta besluten?
Another problem is this:
Maskiner som vi inte begriper oss på?
these systems are often trained on data generated by our actions, human imprints. Well, they could just be reflecting our biases, and these systems could be picking up on our biases and amplifying them and showing them back to us, while we're telling ourselves, "We're just doing objective, neutral computation."
Ett annat problem är att dessa system ofta reagerar på data som genererats av våra aktiviteter, våra digitala avtryck. De kan ju bara reflektera våra fördomar, och dessa system kan plocka upp fördomarna, förstärka dem och återspegla dem för oss, alltmedan vi intalar oss, att "Vi gör bara objektiva neutrala beräkningar."
Researchers found that on Google, women are less likely than men to be shown job ads for high-paying jobs. And searching for African-American names is more likely to bring up ads suggesting criminal history, even when there is none. Such hidden biases and black-box algorithms that researchers uncover sometimes but sometimes we don't know, can have life-altering consequences.
Forskare fann att på Google, är det mindre troligt att kvinnor får se annonser för välbetalda jobb än män. Söker man på afro-amerikanska namn är det mer troligt att man får annonser som antyder kriminell bakgrund, även när det inte finns någon koppling. Sådana dolda fördomar och svarta lådor-algoritmer som forskare ibland upptäcker, och ibland inte, kan få livsavgörande konsekvenser.
In Wisconsin, a defendant was sentenced to six years in prison for evading the police. You may not know this, but algorithms are increasingly used in parole and sentencing decisions. He wanted to know: How is this score calculated? It's a commercial black box. The company refused to have its algorithm be challenged in open court. But ProPublica, an investigative nonprofit, audited that very algorithm with what public data they could find, and found that its outcomes were biased and its predictive power was dismal, barely better than chance, and it was wrongly labeling black defendants as future criminals at twice the rate of white defendants.
I Wisconsin dömdes en åtalad till sex års fängelse för att ha kört från polisen. Du vet det kanske inte, men algoritmer används mer och mer vid förelägganden och villkorliga straff. Han ville veta: Hur beräknades straffsatsen? Av en kommersiell svart låda. Företaget vägrade att få sin algoritm bedömd i en offentlig rättegång. Men det granskande, icke-vinstdrivande företaget Pro-Publica, jämförde den med den offentliga data de kunde hitta, och fann att algoritmens utfall var partiskt och dess kraftfulla beräkningar usla, knappt bättre än slumpen, och att den felaktigt pekade ut svarta åtalade som presumtiva brottslingar dubbelt så ofta som vita åtalade.
So, consider this case: This woman was late picking up her godsister from a school in Broward County, Florida, running down the street with a friend of hers. They spotted an unlocked kid's bike and a scooter on a porch and foolishly jumped on it. As they were speeding off, a woman came out and said, "Hey! That's my kid's bike!" They dropped it, they walked away, but they were arrested.
Så, tänk över det här fallet: Den här kvinnan var sen när hon skulle hämta sitt gudbarn på en skola i Broward County i Florida, hon och hennes vänner sprang nerför gatan. De fick syn på en olåst barncykel och en sparkcykel på en veranda och tog dem dumt nog. När de stack iväg, kom en kvinna ut och sade, "Hallå! Det där är mitt barns prylar." De släppte dem, gick därifrån, men blev anhållna.
She was wrong, she was foolish, but she was also just 18. She had a couple of juvenile misdemeanors. Meanwhile, that man had been arrested for shoplifting in Home Depot -- 85 dollars' worth of stuff, a similar petty crime. But he had two prior armed robbery convictions. But the algorithm scored her as high risk, and not him. Two years later, ProPublica found that she had not reoffended. It was just hard to get a job for her with her record. He, on the other hand, did reoffend and is now serving an eight-year prison term for a later crime. Clearly, we need to audit our black boxes and not have them have this kind of unchecked power.
Hon gjorde fel, hon betedde sig dumt, men hon var också bara arton år. Hon hade några ungsdomsförseelser sedan tidigare. Samtidigt hade den här mannen blivit anhållen för snatteri i Home Depot, prylar för 85 dollar, ett ganska litet brott. Men han hade tidigare blivit dömd för två väpnade rån. Men algoritmen bedömde henne som en högre risk än honom. Två år senare fann ProPublica att hon inte återfallit i brott. Hon hade bara svårt att få jobb med sin bakgrund. Han, å andra sidan, återföll i brottslighet och avtjänar nu ett åttaårigt fängelsestraff för ett nytt brott. Det är tydligt att vi måste revidera våra svarta lådor och inte låta dem få sådan här okontrollerad makt.
(Applause)
(Applåder)
Audits are great and important, but they don't solve all our problems. Take Facebook's powerful news feed algorithm -- you know, the one that ranks everything and decides what to show you from all the friends and pages you follow. Should you be shown another baby picture?
Kontroller är bra och viktiga, men de löser inte alla våra problem. Ta Facebooks kraftfulla algoritm för vårt nyhetsflöde - ni vet, den som rangordnar allt och bestämmer vad som ska visas för dig från alla vänner och sidor du följer. Ska du få se ännu en spädbarnsbild?
(Laughter)
(Skratt)
A sullen note from an acquaintance? An important but difficult news item? There's no right answer. Facebook optimizes for engagement on the site: likes, shares, comments.
En vresig kommentar från en bekant? En viktig men svår nyhetsnotis? Det finns inget rätt svar. Facebook optimerar flödet för att få engagemang: gilla, dela, kommentera.
In August of 2014, protests broke out in Ferguson, Missouri, after the killing of an African-American teenager by a white police officer, under murky circumstances. The news of the protests was all over my algorithmically unfiltered Twitter feed, but nowhere on my Facebook. Was it my Facebook friends? I disabled Facebook's algorithm, which is hard because Facebook keeps wanting to make you come under the algorithm's control, and saw that my friends were talking about it. It's just that the algorithm wasn't showing it to me. I researched this and found this was a widespread problem.
I augusti 2014 bröt protester ut i Ferguson, Missouri, efter att en vit polis dödat en afro-amerikansk tonåring, under märkliga omständigheter. Nyheten om protesterna fanns överallt i mitt i stort sett algoritmfria Twitter-flöde, men inte alls på min Facebook. Berodde det på mina Facebook-vänner? Jag inaktiverade Facebooks algoritm, vilket är svårt för de vill ha dig under algoritmens kontroll, och såg att mina vänner pratade om händelsen. Det var bara det att algoritmen inte visade det. Jag undersökte saken och fann att det är ett vanligt problem.
The story of Ferguson wasn't algorithm-friendly. It's not "likable." Who's going to click on "like?" It's not even easy to comment on. Without likes and comments, the algorithm was likely showing it to even fewer people, so we didn't get to see this. Instead, that week, Facebook's algorithm highlighted this, which is the ALS Ice Bucket Challenge. Worthy cause; dump ice water, donate to charity, fine. But it was super algorithm-friendly. The machine made this decision for us. A very important but difficult conversation might have been smothered, had Facebook been the only channel.
Händelsen i Ferguson var inte algoritm-vänlig. Den var inte "sympatisk." Vem skulle klicka på "gilla?" Den är inte ens lätt att kommentera. Utan gillanden och kommentarer skulle algoritmen troligen visa den för ännu färre människor, så därför fick vi inte se den. Istället, den veckan, lyfte Facebooks algoritm fram det här, ALS Ice Bucket Challenge. Häll iskallt vatten över dig, och skänk pengar för ett gott syfte. Den var superalgoritmvänlig. Maskinen tog beslutet åt oss. En mycket viktig men svår diskussion skulle förmodligen kvävts om Facebook hade varit den enda nyhetskällan.
Now, finally, these systems can also be wrong in ways that don't resemble human systems. Do you guys remember Watson, IBM's machine-intelligence system that wiped the floor with human contestants on Jeopardy? It was a great player. But then, for Final Jeopardy, Watson was asked this question: "Its largest airport is named for a World War II hero, its second-largest for a World War II battle."
Till sist, de här systemen kan också göra fel på sätt som människor inte skulle göra. Kommer ni ihåg Watson, IBMs intelligenta dator som sopade mattan med deltagarna i Jeopardy? Den var en duktig motståndare. Men sen, som sista fråga i Jeopardy, fick Watson följande fråga: "Största flygplatsen är döpt efter en hjälte i 2:a världskriget, den andra största, från ett slag i samma krig."
(Hums Final Jeopardy music)
(Nynnar Jeopardy-vinjetten)
Chicago. The two humans got it right. Watson, on the other hand, answered "Toronto" -- for a US city category! The impressive system also made an error that a human would never make, a second-grader wouldn't make.
Chicago. De två människorna svarade rätt. Watson, å sin sida, svarade "Toronto" - i kategorin amerikanska städer! Den imponerande maskinen gjorde också fel som en människa aldrig skulle göra, en lågstadieelev aldrig skulle göra.
Our machine intelligence can fail in ways that don't fit error patterns of humans, in ways we won't expect and be prepared for. It'd be lousy not to get a job one is qualified for, but it would triple suck if it was because of stack overflow in some subroutine.
Våra intelligenta maskiner kan misslyckas på sätt som inte följer mänskliga mönster, på sätt som vi inte förväntar oss och är förberedda för. Det är botten att inte få ett jobb man är kvalificerad för, men det skulle suga om det berodde på minneshanteringen i någon subrutin.
(Laughter)
(Skratt)
In May of 2010, a flash crash on Wall Street fueled by a feedback loop in Wall Street's "sell" algorithm wiped a trillion dollars of value in 36 minutes. I don't even want to think what "error" means in the context of lethal autonomous weapons.
I maj 2010 drabbades Wall Street av en "blixtkrasch" som förstärktes av en loop i Wall Streets sälj-algoritm som på 36 minuter raderade en miljard dollar. Jag vill inte tänka på vad "error" betyder i samband med automatiserade vapensystem.
So yes, humans have always made biases. Decision makers and gatekeepers, in courts, in news, in war ... they make mistakes; but that's exactly my point. We cannot escape these difficult questions. We cannot outsource our responsibilities to machines.
Visst, människor har alltid gjort partiska antaganden. Beslutsfattare och andra grindvakter, i domstolar, i nyheter, i krig ... de gör misstag; och det är det här jag menar. Vi kan inte rymma från de här svåra frågeställningarna. Vi kan inte lämna över ansvaret till maskiner.
(Applause)
(Applåder)
Artificial intelligence does not give us a "Get out of ethics free" card.
Artificiell intelligens ger oss inte ett frikort när det gäller etik.
Data scientist Fred Benenson calls this math-washing. We need the opposite. We need to cultivate algorithm suspicion, scrutiny and investigation. We need to make sure we have algorithmic accountability, auditing and meaningful transparency. We need to accept that bringing math and computation to messy, value-laden human affairs does not bring objectivity; rather, the complexity of human affairs invades the algorithms. Yes, we can and we should use computation to help us make better decisions. But we have to own up to our moral responsibility to judgment, and use algorithms within that framework, not as a means to abdicate and outsource our responsibilities to one another as human to human.
Dataanalytikern Fred Benenson kallar det för matematik-tvätt. Vi behöver motsatsen. Vi måste förfina algoritmerna, granska och kontrollera dem. Vi måste se till att ha ansvarsfulla algoritmer, revideringar och meningsfull transparens. Vi måste förstå att användande av matematik och maskinberäkningar i krångliga, värdeladdade mänskliga relationer inte skapar objektivitet; utan snarare, att komplexa handlingar påverkar algoritmerna. Ja, vi kan och vi bör använda maskinberäkningar som en hjälp för att ta bättre beslut. Men vi måste ta vårt moraliska ansvar i beaktande i bedömningarna och använda algoritmerna i det ramverket, och inte som ett sätt att frånsäga oss eller outsourca vårt ansvar till varandra som människa till människa.
Machine intelligence is here. That means we must hold on ever tighter to human values and human ethics.
Maskinintelligens är här för att stanna. Det betyder att vi måste hålla ännu hårdare i våra värderingar och vår etik.
Thank you.
Tack.
(Applause)
(Applåder)