So, I started my first job as a computer programmer in my very first year of college -- basically, as a teenager.
Ho iniziato il mio primo lavoro come programmatrice di computer nel mio primo anno di college - sostanzialmete un'adolescente.
Soon after I started working, writing software in a company, a manager who worked at the company came down to where I was, and he whispered to me, "Can he tell if I'm lying?" There was nobody else in the room.
Subito dopo ho cominciato a lavorare, scrivendo software in una azienda, un manager che lavorava nell'azienda mi venne a trovare dove stavo, e mi susssurrò, "Può lui dirmi se sto mentendo?" Non c'era nessun altro nella stanza.
"Can who tell if you're lying? And why are we whispering?"
"Chi può dire se stai mentendo? E perché sussurriamo?"
The manager pointed at the computer in the room. "Can he tell if I'm lying?" Well, that manager was having an affair with the receptionist.
Il manager indicò il computer nella stanza. "Può lui dirmi se sto mentendo?" Ebbene, quel manager aveva una relazione con la segretaria alla reception.
(Laughter)
(Risate)
And I was still a teenager. So I whisper-shouted back to him, "Yes, the computer can tell if you're lying."
Ed ero ancora una adolescente. Così gli sussurrai-urlai, "Si, il computer può dire se stai mentendo."
(Laughter)
(Risate)
Well, I laughed, but actually, the laugh's on me. Nowadays, there are computational systems that can suss out emotional states and even lying from processing human faces. Advertisers and even governments are very interested.
Bene, io risi, ma in effetti, la risata era nei mei confronti. Oggi, vi sono sistemi di calcolo che possono scoprire gli stati emotivi e pure la menzogna tramite la elaborazione dei volti umani. I pubblicitari ed anche i governi sono molto interessati.
I had become a computer programmer because I was one of those kids crazy about math and science. But somewhere along the line I'd learned about nuclear weapons, and I'd gotten really concerned with the ethics of science. I was troubled. However, because of family circumstances, I also needed to start working as soon as possible. So I thought to myself, hey, let me pick a technical field where I can get a job easily and where I don't have to deal with any troublesome questions of ethics. So I picked computers.
Sono diventata programmatrice di computer perchè ero uno di quei giovani pazzi per matematica e scienze Ma lungo il mio percorso ho imparato a conoscere le armi nucleari, e mi sono proprio preoccupata dell'etica della scienza. Ero preoccupata. Tuttavia, a causa della mia situazione familiare, dovevo iniziare a lavorare al più presto. Così mi sono detta, hey, scegliamo un settore tecnico dove posso trovare facilmente un lavoro e dove non devo aver a che fare con qualche fastidiosa questione etica. Così ho scelto i computer.
(Laughter)
(Risate)
Well, ha, ha, ha! All the laughs are on me. Nowadays, computer scientists are building platforms that control what a billion people see every day. They're developing cars that could decide who to run over. They're even building machines, weapons, that might kill human beings in war. It's ethics all the way down.
Bene, ah, ah! Tutti ridono di me. Ora, gli scienziati del computer costruicono piattaforme che controllano ciò che un miliardo di persone vedono ogni giorno. Stanno sviluppando auto che potrebbero decidere chi investire. Stanno anche costruendo macchine, armi, che possono uccidere persone in guerra. C'è sempre l'etica alla fine.
Machine intelligence is here. We're now using computation to make all sort of decisions, but also new kinds of decisions. We're asking questions to computation that have no single right answers, that are subjective and open-ended and value-laden.
L'intelligenza delle macchine è qui. Ora utilizziamo il computer per prendere ogni tipo di decisioni, ma anche nuovi tipi di decisioni. Stiamo ponendo al computer domande che non hanno una sola risposta giusta, che sono soggettive e sono <i>aperte</i> e cariche di valore.
We're asking questions like, "Who should the company hire?" "Which update from which friend should you be shown?" "Which convict is more likely to reoffend?" "Which news item or movie should be recommended to people?"
Domandiamo cose come, "Chi dovrebbe essere assunto?" "Quale update e di quale amico dovrebbe essere mostrato?" "Quale pregiudicato sarà più probabilmente recidivo?" "Quale notizia o film dovrebbe essere consigliato alla gente?"
Look, yes, we've been using computers for a while, but this is different. This is a historical twist, because we cannot anchor computation for such subjective decisions the way we can anchor computation for flying airplanes, building bridges, going to the moon. Are airplanes safer? Did the bridge sway and fall? There, we have agreed-upon, fairly clear benchmarks, and we have laws of nature to guide us. We have no such anchors and benchmarks for decisions in messy human affairs.
Certo, stiamo usando il computer da un po', ma questo è diverso. Questa è un svolta storica, perchè non possiamo poggiarci sul computer per queste decisioni soggettive allo stesso modo in cui si usa il computer per far volare gli aerei, costruire ponti, andare sulla luna. Sono più sicuri gli aerei? Vacillano e cadono i ponti? Qui abbiamo chiari livelli di riferimento, su cui concordiamo, ed abbiamo le leggi naturali per guidarci. Non abbiamo tali riferimenti per decidere nelle complicate faccende umane.
To make things more complicated, our software is getting more powerful, but it's also getting less transparent and more complex. Recently, in the past decade, complex algorithms have made great strides. They can recognize human faces. They can decipher handwriting. They can detect credit card fraud and block spam and they can translate between languages. They can detect tumors in medical imaging. They can beat humans in chess and Go.
Per rendere le cose più complicate, il software sta diventando più potente, ma anche meno trasparente e più complesso. Recentemente, nell'ultima decennio, algoritmi complessi hanno fatto notevoli passi avanti. Possono riconoscere le facce umane. Possono decifrare la scrittura manuale. possono individuare le frodi sulle carte di credito e bloccare lo spam e possono tradurre le lingue. Possono individuare i tumori nelle diagnostica per immagini. Possono battere gli umani a scacchi e nel <i>GO</i>
Much of this progress comes from a method called "machine learning." Machine learning is different than traditional programming, where you give the computer detailed, exact, painstaking instructions. It's more like you take the system and you feed it lots of data, including unstructured data, like the kind we generate in our digital lives. And the system learns by churning through this data. And also, crucially, these systems don't operate under a single-answer logic. They don't produce a simple answer; it's more probabilistic: "This one is probably more like what you're looking for."
Molti di questi progressi derivano dal metodo di "apprendimento automatico". L'apprendimento automatico è diverso dalla tradizionale programmazione, dove si danno al computer istruzioni dettagliate, precise ed accurate. Sembra di più come se forniste al sistema molti dati, Inclusi dati non strutturati, del tipo che generiamo nella nostre vite digitali. E il sistema impara maneggiando quei dati. Ed anche, crucialmente, quei sistemi non lavorano con la logica di una sola risposta. Non forniscono una semplice risposta; è piuttosto probabilistica: "Questo è probabilmente quello che state cercando."
Now, the upside is: this method is really powerful. The head of Google's AI systems called it, "the unreasonable effectiveness of data." The downside is, we don't really understand what the system learned. In fact, that's its power. This is less like giving instructions to a computer; it's more like training a puppy-machine-creature we don't really understand or control. So this is our problem. It's a problem when this artificial intelligence system gets things wrong. It's also a problem when it gets things right, because we don't even know which is which when it's a subjective problem. We don't know what this thing is thinking.
Ora, la parte positiva è: questo metodo è veramente potente. Il capo sistema AI di Google lo ha chiamato "la irragionevole efficacia dei dati." La parte negativa è, non capiamo veramente cosa il sistema ha imparato. Infatti, questa è la sua forza. Ciò è meno simile a dare istruzioni ad un computer; è più simile all'istruire un cucciolo-macchina che noi non capiamo o controlliamo veramente Questo è il nostro problema. Il problema è quando questi sistemi di intelligenza artificiale lavorano male. Vi è anche il problema di quando lavorano bene, perchè non sappiamo chi è chi quando il problema è soggettivo. Non sappiamo come il computer ragioni.
So, consider a hiring algorithm -- a system used to hire people, using machine-learning systems. Such a system would have been trained on previous employees' data and instructed to find and hire people like the existing high performers in the company. Sounds good. I once attended a conference that brought together human resources managers and executives, high-level people, using such systems in hiring. They were super excited. They thought that this would make hiring more objective, less biased, and give women and minorities a better shot against biased human managers.
Così, considerate un algoritmo per le assunzioni-- un sistema per assumere la gente, usando l'apprendimento automatico. Un tale sistema sarebbe stato formato sui dati dei precedenti assunti e istruito per trovare ed assumere le persone simili a quelli più performanti in azienda. Sembra giusto. Una volta ho partecipato ad una conferenza che coinvolgeva i responsabili delle Risorse Umane e i manager aziendali, persone ad alto livello, che usavano questo sistema per assumere. Erano super entusiasti. Pensavano che ciò avrebbe portato ad assunzioni più oggettive, meno distorte, e dato alle donne e alle minoranze una migliore opportunità rispetto a manager umani influenzabili.
And look -- human hiring is biased. I know. I mean, in one of my early jobs as a programmer, my immediate manager would sometimes come down to where I was really early in the morning or really late in the afternoon, and she'd say, "Zeynep, let's go to lunch!" I'd be puzzled by the weird timing. It's 4pm. Lunch? I was broke, so free lunch. I always went. I later realized what was happening. My immediate managers had not confessed to their higher-ups that the programmer they hired for a serious job was a teen girl who wore jeans and sneakers to work. I was doing a good job, I just looked wrong and was the wrong age and gender.
E guarda - le assunzioni fatte dagli uomini sono distorte. Lo so. Voglio dire, in uno dei miei primi lavori, come programmatrice, la manager da cui dipendevo qualche volta scendeva dove stavo molto presto alla mattina o molto tardi nel pomeriggio, e mi diceva, "Zeynep, andiamo a pranzo!" Ero perplessa per la strana tempistica. Sono le 4 del pomeriggio. Pranzo? Ero al verde, ed è un pranzo gratis. Quindi andavo sempre. Più tardi capii cosa stava accadendo. La manager da cui dipendevo non aveva confessato ai livelli superiori che il programmatore da lei assunto per un importante lavoro era adolescente che indossava jeans e <i>sneaker</i> al lavoro. Lavoravo bene, solo sembravo sbagliata, ed era l'età e genere sbagliato.
So hiring in a gender- and race-blind way certainly sounds good to me. But with these systems, it is more complicated, and here's why: Currently, computational systems can infer all sorts of things about you from your digital crumbs, even if you have not disclosed those things. They can infer your sexual orientation, your personality traits, your political leanings. They have predictive power with high levels of accuracy. Remember -- for things you haven't even disclosed. This is inference.
Così asssumere senza considerare genere e razza certamante mi sembra giusto. Ma con questi sistemi, è più complicato, ed ecco perchè: Ad oggi, i sistemi di calcolo possono desumere qualsiasi cosa su di voi dalle vostre <i>briciole</i> digitali, pur se non avete reso pubbliche quelle cose. Possono desumere il vostro orientamento sessuale, caratteristiche personali, orientamento politico. Hanno potenza predittiva con alto livello di accuratezza. Ricordate -- per cose che non avete mai dichiarato. Questa è l'inferenza.
I have a friend who developed such computational systems to predict the likelihood of clinical or postpartum depression from social media data. The results are impressive. Her system can predict the likelihood of depression months before the onset of any symptoms -- months before. No symptoms, there's prediction. She hopes it will be used for early intervention. Great! But now put this in the context of hiring.
Ho un'amica che ha sviluppato un sistema di elaborazione per predire la probabilità della depressione <i>postpartum</i> dai dati delle reti sociali. Risultati impressionanti! Il suo sistema può predire la probabilità della depressione mesi prima dell'insorgere di un qualsiasi sintomo -- mesi prima. Nessun sintomo, ma c'è predizione. Lei spera che sarà usato per anticipare un intervento. Ottimo! Ma ora consideratelo in una assunzione.
So at this human resources managers conference, I approached a high-level manager in a very large company, and I said to her, "Look, what if, unbeknownst to you, your system is weeding out people with high future likelihood of depression? They're not depressed now, just maybe in the future, more likely. What if it's weeding out women more likely to be pregnant in the next year or two but aren't pregnant now? What if it's hiring aggressive people because that's your workplace culture?" You can't tell this by looking at gender breakdowns. Those may be balanced. And since this is machine learning, not traditional coding, there is no variable there labeled "higher risk of depression," "higher risk of pregnancy," "aggressive guy scale." Not only do you not know what your system is selecting on, you don't even know where to begin to look. It's a black box. It has predictive power, but you don't understand it.
Così a quella conferenza dei manager delle risorse umane, ho avvicinato un manager di alto livello in una grande azienda, e le ho detto, "Guarda, che succederebbe se, alla tua insaputa, il vostro sistema elimina le persone con un'alta probabilità di depressione? Non sono depresse ora, magari forse in futuro, più probabilmente. Che succederebbe se eliminasse le donne più probabilmente incinte nei prossimi uno o due anni ma che non lo sono ora? E se assumeste persone aggressive perchè questa è la vostra cultura aziendale?" Non potete parlarne guardando solo alle quote di genere. Queste si possono bilanciare. E dato che ciò è apprendimento automatico, non programmazione tradizionale, non c'è alcuna variabile di codifica etichettata "alto rischio di depressione", "maggior rischio di gravidanza," "gradazione di maschio aggressivo." Non solo non sapete su cosa il vostro sistema basi la selezione, ma neppure sapete dove cominciare a guardare. E' una "scatola nera". Ha una potenza predittiva ma non la capite.
"What safeguards," I asked, "do you have to make sure that your black box isn't doing something shady?" She looked at me as if I had just stepped on 10 puppy tails.
"Quali garanzie," chiesi, "avete per essere sicuri che la scatola nera non sta facendo qualcosa losco?" Mi ha guardato come se avessi schiacciato la coda a 10 cuccioli.
(Laughter)
(Risate)
She stared at me and she said, "I don't want to hear another word about this." And she turned around and walked away. Mind you -- she wasn't rude. It was clearly: what I don't know isn't my problem, go away, death stare.
Mi fissò e disse, "Non voglio sentire altro su questo." E si girò andandosene via. Considerate - non era maleducata. Era chiaro: quello che non so non è un mio problema. Va via, sguardo assassino.
(Laughter)
(Risate)
Look, such a system may even be less biased than human managers in some ways. And it could make monetary sense. But it could also lead to a steady but stealthy shutting out of the job market of people with higher risk of depression. Is this the kind of society we want to build, without even knowing we've done this, because we turned decision-making to machines we don't totally understand?
Vedete, un tale sistema può anche essere meno influenzata in molti modi rispetto ai manager umani. E potrebbe avere senso economico. Ma può anche portare a una stabile, ma furtiva chiusura dal mercato del lavoro di gente più a rischio di depressione. Questo è il tipo di società che vogliamo costruire, senza neppure sapere che lo abbiamo fatto, poichè abbiamo lasciato la decisione a macchine che non comprendiamo del tutto?
Another problem is this: these systems are often trained on data generated by our actions, human imprints. Well, they could just be reflecting our biases, and these systems could be picking up on our biases and amplifying them and showing them back to us, while we're telling ourselves, "We're just doing objective, neutral computation."
Un altro problema è questo: quei sistemi sono spesso addestrati con dati generati dalle nostre azioni, di impronta umana. Bene, possono proprio riflettere le nostre distorsioni o pregiudizi, e questi sistemi si portano dietro i nostri pregiudizi e li amplificano e ce li rispecchiano, mentre ci diciamo, "Stiamo facendo solo elaborazioni oggettive e neutrali."
Researchers found that on Google, women are less likely than men to be shown job ads for high-paying jobs. And searching for African-American names is more likely to bring up ads suggesting criminal history, even when there is none. Such hidden biases and black-box algorithms that researchers uncover sometimes but sometimes we don't know, can have life-altering consequences.
Ricerche effettuate su Google trovano, che è meno probabile vengano mostrati alle donne avvisi per lavori ben pagati. E cercando nomi di Afro-Americani è più probabile trovare avvisi alludenti a storie criminali, anche quando non ce ne sono. Questi sono i pregiudizi nascosti e gli algoritmi a scatola nera che i ricercatori talvolta scoprono ma che altre volte non conosciamo, possono avere la conseguenza di alterare la vita.
In Wisconsin, a defendant was sentenced to six years in prison for evading the police. You may not know this, but algorithms are increasingly used in parole and sentencing decisions. He wanted to know: How is this score calculated? It's a commercial black box. The company refused to have its algorithm be challenged in open court. But ProPublica, an investigative nonprofit, audited that very algorithm with what public data they could find, and found that its outcomes were biased and its predictive power was dismal, barely better than chance, and it was wrongly labeling black defendants as future criminals at twice the rate of white defendants.
In Wisconsin, un accusato è stato condannato a sei anni di prigione per aver eluso la polizia. Si può non saperlo, ma gli algoritmi sono sempre più usati per prendere decisioni giudiziarie. Egli voleva sapere: come è stato calcolato il punteggio? Ma è una scatola nera sul mercato L'azienda si è rifiutata di far verificare il suo algoritmo in una corte pubblica. Ma ProPublica, associazione investigativa non-profit, ha verificato quell'algoritmo con i dati pubblici disponibili, trovando che i risultati erano influenzati e la sua potenza predittiva era niente più di una possibilità, e che era sbagliato etichettare accusati neri come futuri criminali a livello doppio degli accusati bianchi.
So, consider this case: This woman was late picking up her godsister from a school in Broward County, Florida, running down the street with a friend of hers. They spotted an unlocked kid's bike and a scooter on a porch and foolishly jumped on it. As they were speeding off, a woman came out and said, "Hey! That's my kid's bike!" They dropped it, they walked away, but they were arrested.
Così considerate questo caso: questa donna è in ritardo nel prelevare la sua figlioccia da scuola nella Contea di Broward, Florida, correndo per la strada con un suo amico. Vedono una bici da ragazzo non bloccata ed uno scooter in una veranda e stupidamente vi saltano su. Come stavano scappando via, una donna uscì fuori e disse, "Ehi, quella bicicletta è mia!" Essi la lascarono, andarono via, ma furono arrestati.
She was wrong, she was foolish, but she was also just 18. She had a couple of juvenile misdemeanors. Meanwhile, that man had been arrested for shoplifting in Home Depot -- 85 dollars' worth of stuff, a similar petty crime. But he had two prior armed robbery convictions. But the algorithm scored her as high risk, and not him. Two years later, ProPublica found that she had not reoffended. It was just hard to get a job for her with her record. He, on the other hand, did reoffend and is now serving an eight-year prison term for a later crime. Clearly, we need to audit our black boxes and not have them have this kind of unchecked power.
Aveva sbagliato, era stata sciocca, ma era appena diventata diciottenne. Fu condannata per un paio di crimini giovanili. Nel frattempo, quell'uomo fu arrestato per furto di merce al Home Depot -- merce per 85 dollari di valore, un simile piccolo crimine. Ma lui aveva due precedenti condanne per rapina a mano armata Ma l'algoritmo aveva valutato lei ad alto rischio, non lui. Due anni dopo, ProPublica trovò che lei non era stata recidiva. Ma le fu duro trovare lavoro, visti i precedenti. Lui, d'altra parte, fu recidivo ed ora è in prigione per 8 anni a causa di un successivo crimine. Chiaramente, ci bisogna verificare le scatole nere per non dare loro questo incontrollato potere.
(Applause)
(Applausi)
Audits are great and important, but they don't solve all our problems. Take Facebook's powerful news feed algorithm -- you know, the one that ranks everything and decides what to show you from all the friends and pages you follow. Should you be shown another baby picture?
Le verifiche sono importanti, ma da sole non risolvono tutti i problemi. Prendete l'algoritmo di Facebook per caricare le <i>news</i>-- sapete, quello che riordina tutto e decide cosa mostrarvi da tutti gli amici e le pagine seguite. Dovrebbe mostrarvi un'altra foto di bimbo?
(Laughter)
(Risate)
A sullen note from an acquaintance? An important but difficult news item? There's no right answer. Facebook optimizes for engagement on the site: likes, shares, comments.
Una nota <i>imbronciata</i> da un conoscente? Una importante ma scabrosa notizia? Non c'è una risposta giusta. Facebook ottimizza per attraervi al loro sito: i <i>like</i>, <i>condividi</i>, commenti
In August of 2014, protests broke out in Ferguson, Missouri, after the killing of an African-American teenager by a white police officer, under murky circumstances. The news of the protests was all over my algorithmically unfiltered Twitter feed, but nowhere on my Facebook. Was it my Facebook friends? I disabled Facebook's algorithm, which is hard because Facebook keeps wanting to make you come under the algorithm's control, and saw that my friends were talking about it. It's just that the algorithm wasn't showing it to me. I researched this and found this was a widespread problem.
Nell'agosto 2014, proteste scoppiarono a Ferguson, Missouri, dopo l'uccisione di un ragazzo Afro-Americano da parte di un poliziotto bianco, in circostanze oscure. La notizia delle proteste era presente sul mio caricatore Twitter non filtrato da algoritmi, ma nulla sul mio Facebook. Era a causa dei miei amici su Facebook? Ho disabilitato l'algoritmo di Facebook, che non è facile, poichè Facebook vuole mantenervi sotto il controllo dell'algoritmo, e vidi che i miei amici parlavano di questo. Era proprio l'algoritmo che non me lo mostrava. Ho approfondito ed ho trovato che è un problema diffuso.
The story of Ferguson wasn't algorithm-friendly. It's not "likable." Who's going to click on "like?" It's not even easy to comment on. Without likes and comments, the algorithm was likely showing it to even fewer people, so we didn't get to see this. Instead, that week, Facebook's algorithm highlighted this, which is the ALS Ice Bucket Challenge. Worthy cause; dump ice water, donate to charity, fine. But it was super algorithm-friendly. The machine made this decision for us. A very important but difficult conversation might have been smothered, had Facebook been the only channel.
La storia di Ferguson non è facile per l'algoritmo. Non è <i>likable</i>. Chi sta cliccando su "like?" Non è neppure facile da commentarsi. Senza <i>like</i> e commenti, l'algoritmo tende a mostrare la notizia ad ancora meno persone, così non riusciamo a vederla. Invece, questa settimana, l'algoritmo di Facebook ha evidenziato questo: il <i>ALS Ice Bucket Challenge</i>. Causa benefica; svuota acqua ghiacciata, dona alla beneficenza, bene. Ottimo per agevolare l'algoritmo. Una decisione automatica è stata presa per noi Una conversazione molto importante ma scabrosa può essere moderata, essendo Facebook l'unica via trasmissiva.
Now, finally, these systems can also be wrong in ways that don't resemble human systems. Do you guys remember Watson, IBM's machine-intelligence system that wiped the floor with human contestants on Jeopardy? It was a great player. But then, for Final Jeopardy, Watson was asked this question: "Its largest airport is named for a World War II hero, its second-largest for a World War II battle."
Ora, infine, quei sistemi possono sbagliare in modi che non somigliano a sistemi umani. Vi ricordate Watson, la macchina intelligente di IBM che ha spazzato via i contendenti umani a <i>Jeopardy</i>? Era un grande giocatore. Ma poi, alla finale di <i>Jeopardy</i>, fu posta questa domanda a Watson: "Il suo più grande aeroporto è intitolato a un eroe della II Guerra Mondiale, il suo secondo più grande a una sua battaglia."
(Hums Final Jeopardy music)
(Musica della finale di <i>Jeopardy</i>)
Chicago. The two humans got it right. Watson, on the other hand, answered "Toronto" -- for a US city category! The impressive system also made an error that a human would never make, a second-grader wouldn't make.
Chicago. I due umani risposero bene. Watson, da altra parte, rispose "Toronto" -- per una città nella categoria USA! L'impressionante sistema aveva sbagliato come un umano non avrebbbe mai fatto, neppure un alunno delle elementari.
Our machine intelligence can fail in ways that don't fit error patterns of humans, in ways we won't expect and be prepared for. It'd be lousy not to get a job one is qualified for, but it would triple suck if it was because of stack overflow in some subroutine.
L'intelligenza automatica può sbagliare in modi non paragonabili con l'approccio dell'errore umano, in modi che non ci aspetteremmo e per i quali siamo preparati. Sarebbe pessimo non ottenere un lavoro per il quale si è qualificati, ma sarebbe tre volte peggio se fosse causato da un errore software in qualche sua subroutine.
(Laughter)
(Risate)
In May of 2010, a flash crash on Wall Street fueled by a feedback loop in Wall Street's "sell" algorithm wiped a trillion dollars of value in 36 minutes. I don't even want to think what "error" means in the context of lethal autonomous weapons.
Nel maggio 2010, una crisi improvvisa a Wall Street, alimentata da un erroneo ciclo di calcolo nell'algoritmo di "vendi" di Wall Street ha spazzato via un valore di un trilione di dollari in 36 minuti. Non voglio pensare cosa significhi "errore" nel contesto di armi letali autonome.
So yes, humans have always made biases. Decision makers and gatekeepers, in courts, in news, in war ... they make mistakes; but that's exactly my point. We cannot escape these difficult questions. We cannot outsource our responsibilities to machines.
Si certo, gli umani sono sempre parziali. I decisori e controllori, nelle corti, nei notiziari, in guerra ... commettono errori; ma questo è proprio il mio punto. non possiamo sfuggire a queste difficili domande. Non possiamo delegare le nostre responsabilità alle macchine.
(Applause)
(Applausi)
Artificial intelligence does not give us a "Get out of ethics free" card.
L'intelligenza artificiale non ci dà un permesso di "uscire dall'etica" gratis.
Data scientist Fred Benenson calls this math-washing. We need the opposite. We need to cultivate algorithm suspicion, scrutiny and investigation. We need to make sure we have algorithmic accountability, auditing and meaningful transparency. We need to accept that bringing math and computation to messy, value-laden human affairs does not bring objectivity; rather, the complexity of human affairs invades the algorithms. Yes, we can and we should use computation to help us make better decisions. But we have to own up to our moral responsibility to judgment, and use algorithms within that framework, not as a means to abdicate and outsource our responsibilities to one another as human to human.
Lo scienziato sui dati Fred Benenson lo chiama "pulizia matematica". Necessitiamo del contrario. Verso gli algoritmi occorre coltivare la diffidenza, verifica e indagine. Occorre essere sicuri che di sia una responsabilità sugli algoritmi, metodi di verifica e una comprensibile trasparenza. È necessario accettare che portare matematica ed elaborazione in relazioni umane caotiche e di valore, non aggiunge obiettività; piuttosto, la complessità degli affari umani invade gli algoritmi. Si, possiamo e dovremmo usare il calcolo per aiutarci nel decidere meglio. Ma dobbiamo mantenere la responsabilità morale del giudizio, e usare algoritmi dentro quel contesto, non come gli strumenti per abdicare e dare in outsource le nostre responsibilità a qualcun altro come fra umani.
Machine intelligence is here. That means we must hold on ever tighter to human values and human ethics.
La intelligenza delle macchine è qui. Significa che dobbiamo tenerci più forti ai valori ed etica umani.
Thank you.
Grazie.
(Applause)
(Applausi)