So, I started my first job as a computer programmer in my very first year of college -- basically, as a teenager.
Mi-am început primul job ca programator în primul an de facultate, practic, în adolescență.
Soon after I started working, writing software in a company, a manager who worked at the company came down to where I was, and he whispered to me, "Can he tell if I'm lying?" There was nobody else in the room.
Curând după ce am început să lucrez, scriind programe la o companie, un manager care lucra acolo a venit la mine și mi-a șoptit: „Știe dacă mint?” Nu mai era nimeni în încăpere.
"Can who tell if you're lying? And why are we whispering?"
„Cine să știe dacă minți? Și de ce vorbim în șoaptă?”
The manager pointed at the computer in the room. "Can he tell if I'm lying?" Well, that manager was having an affair with the receptionist.
Managerul a arătat spre calculatorul din cameră. „Știe dacă mint?” Acel manager avea o relație cu recepționista.
(Laughter)
(Râsete)
And I was still a teenager. So I whisper-shouted back to him, "Yes, the computer can tell if you're lying."
Iar eu eram încă o adolescentă. I-am strigat în șoaptă: „Da, calculatorul știe dacă minți.”
(Laughter)
(Râsete)
Well, I laughed, but actually, the laugh's on me. Nowadays, there are computational systems that can suss out emotional states and even lying from processing human faces. Advertisers and even governments are very interested.
Am râs, dar de fapt m-am înșelat. Azi, există sisteme de calcul care deduc stările emoționale și știu dacă minți, prin simpla procesare a chipurilor umane. Companiile de publicitate și guvernele sunt foarte interesate.
I had become a computer programmer because I was one of those kids crazy about math and science. But somewhere along the line I'd learned about nuclear weapons, and I'd gotten really concerned with the ethics of science. I was troubled. However, because of family circumstances, I also needed to start working as soon as possible. So I thought to myself, hey, let me pick a technical field where I can get a job easily and where I don't have to deal with any troublesome questions of ethics. So I picked computers.
Am devenit programator, fiindcă eram unul din acei copii înnebuniți după matematică și știință. Dar la un moment dat, am învățat despre armele nucleare și m-am îngrijorat cu privire la etica științei. Eram tulburată. Totuși, din cauza situației familiale, trebuia să încep să lucrez cât mai repede posibil. M-am gândit să aleg un domeniu tehnic, unde să mă pot angaja ușor și să nu trebuiască să am de a face cu întrebări supărătoare de etică. Așa că am ales informatica.
(Laughter)
(Râsete)
Well, ha, ha, ha! All the laughs are on me. Nowadays, computer scientists are building platforms that control what a billion people see every day. They're developing cars that could decide who to run over. They're even building machines, weapons, that might kill human beings in war. It's ethics all the way down.
Ei, ha, ha, ha! M-am înșelat. Azi, informaticienii construiesc platforme care controlează ce văd un miliard de oameni zilnic. Dezvoltă mașini care pot decide pe cine să calce. Construiesc chiar și mașinării, arme care pot omorî oameni în război. Totul se rezumă la etică.
Machine intelligence is here. We're now using computation to make all sort of decisions, but also new kinds of decisions. We're asking questions to computation that have no single right answers, that are subjective and open-ended and value-laden.
Inteligența artificială e aici. Folosim acum calculul pentru a lua tot felul de decizii, dar și noi tipuri de decizii. Punem întrebări calculatoarelor care nu au un singur răspuns corect, care sunt subiective, cu răspuns nelimitat și relativ.
We're asking questions like, "Who should the company hire?" "Which update from which friend should you be shown?" "Which convict is more likely to reoffend?" "Which news item or movie should be recommended to people?"
Punem întrebări ca: „Pe cine ar trebui să angajăm?” „Ce noutate și de la ce prieten ar trebui să vezi?” „Ce condamnat are mai multe șanse să recidiveze?” „Ce știre sau film ar trebui să recomandăm oamenilor?”
Look, yes, we've been using computers for a while, but this is different. This is a historical twist, because we cannot anchor computation for such subjective decisions the way we can anchor computation for flying airplanes, building bridges, going to the moon. Are airplanes safer? Did the bridge sway and fall? There, we have agreed-upon, fairly clear benchmarks, and we have laws of nature to guide us. We have no such anchors and benchmarks for decisions in messy human affairs.
Folosim calculatoare de ceva timp, dar asta e diferit. E o răsturnare de situație importantă, deoarece nu putem să ne bazăm pe calcul pentru astfel de decizii subiective, așa cum o facem pentru pilotarea avioanelor, construirea de poduri, mersul pe lună. Sunt avioanele mai sigure? S-a clătinat podul și a căzut? Acolo am convenit asupra unor repere destul de clare și am lăsat legile naturii să ne ghideze. Nu avem astfel de baze și repere pentru deciziile în problemele umane dificile.
To make things more complicated, our software is getting more powerful, but it's also getting less transparent and more complex. Recently, in the past decade, complex algorithms have made great strides. They can recognize human faces. They can decipher handwriting. They can detect credit card fraud and block spam and they can translate between languages. They can detect tumors in medical imaging. They can beat humans in chess and Go.
Pentru a complica și mai mult lucrurile, programul e din ce în ce mai puternic, dar mai puțin transparent și mult mai complex. Recent, în ultimii zece ani, algoritmii complecși au făcut mari progrese. Pot recunoaște fețe umane. Pot descifra scrisul de mână. Pot detecta frauda cu cardul de credit, pot bloca spamul și pot traduce în alte limbi. Pot detecta tumori în imagistica medicală. Îi pot bate pe oameni la șah și Go.
Much of this progress comes from a method called "machine learning." Machine learning is different than traditional programming, where you give the computer detailed, exact, painstaking instructions. It's more like you take the system and you feed it lots of data, including unstructured data, like the kind we generate in our digital lives. And the system learns by churning through this data. And also, crucially, these systems don't operate under a single-answer logic. They don't produce a simple answer; it's more probabilistic: "This one is probably more like what you're looking for."
Majoritatea acestui progres vine dintr-o metodă numită „învățare automată”. Învățarea automată diferă de programarea tradițională, unde poți da calculatorului indicații detaliate, exacte, minuțioase. E ca atunci când iei sistemul și îl alimentezi cu multe date, inclusiv date nestructurate, ca cele pe care le generăm în viețile noastre digitale. Iar sistemul învață prin parcurgerea acestor date. De asemenea, e esențial că aceste sisteme nu operează cu o logică bazată pe un singur răspuns. Nu emit un răspuns simplu, se bazează mai mult pe probabilitate: „Asta depășește probabil ce cauți tu.”
Now, the upside is: this method is really powerful. The head of Google's AI systems called it, "the unreasonable effectiveness of data." The downside is, we don't really understand what the system learned. In fact, that's its power. This is less like giving instructions to a computer; it's more like training a puppy-machine-creature we don't really understand or control. So this is our problem. It's a problem when this artificial intelligence system gets things wrong. It's also a problem when it gets things right, because we don't even know which is which when it's a subjective problem. We don't know what this thing is thinking.
Avantajul e că această metodă chiar e puternică. Directorul sistemelor AI Google i-a spus „eficiența irațională a datelor”. Dezavantajul este că nu înțelegem ce a învățat sistemul. De fapt, asta e puterea lui. E mai puțin decât să dai instrucțiuni unui calculator; e ca și când ai antrena o creatură-cățeluș pe care nu o înțelegem și nu o controlăm. Așa că asta e problema noastră. E o problemă când acest sistem de inteligență artificială greșește. E o problemă și când face lucrurile bine, pentru că nici nu știm să deosebim atunci când e o problemă subiectivă. Nu știm ce gândește chestia asta.
So, consider a hiring algorithm -- a system used to hire people, using machine-learning systems. Such a system would have been trained on previous employees' data and instructed to find and hire people like the existing high performers in the company. Sounds good. I once attended a conference that brought together human resources managers and executives, high-level people, using such systems in hiring. They were super excited. They thought that this would make hiring more objective, less biased, and give women and minorities a better shot against biased human managers.
Gândiți-vă la un algoritm de angajare, un sistem utilizat să angajeze oameni, folosind sisteme de învățare automată. Un astfel de sistem ar fi fost antrenat cu datele foștilor angajați și instruit să găsească și să angajeze oameni ca cei existenți, cu rezultate înalte în companie. Sună bine. Am fost odată la o conferință care aducea împreună manageri și directori de resurse umane, oameni de nivel înalt, care foloseau aceste sisteme la angajare. Erau foarte entuziasmați. Credeau că asta face angajarea mai obiectivă, mai puțin părtinitoare, și oferă femeilor și minorităților o șansă mai bună împotriva managerilor umani ostili.
And look -- human hiring is biased. I know. I mean, in one of my early jobs as a programmer, my immediate manager would sometimes come down to where I was really early in the morning or really late in the afternoon, and she'd say, "Zeynep, let's go to lunch!" I'd be puzzled by the weird timing. It's 4pm. Lunch? I was broke, so free lunch. I always went. I later realized what was happening. My immediate managers had not confessed to their higher-ups that the programmer they hired for a serious job was a teen girl who wore jeans and sneakers to work. I was doing a good job, I just looked wrong and was the wrong age and gender.
Angajarea umană e părtinitoare. Știu. La unul dintre primele mele joburi ca programator, șefa mea directă venea la mine uneori foarte devreme dimineața sau foarte târziu după-amiaza și-mi spunea: „Zeynep, hai să mâncăm!” Mă nedumerea ora aleasă. E 16:00. Prânz? Nu aveam bani, masa era gratis, așa că mă duceam de fiecare dată. Mai târziu, am realizat ce se întâmpla. Șefii mei direcți nu le spuneau superiorilor lor că programatorul pe care l-au angajat pentru un job serios era o adolescentă care purta blugi și teniși la muncă. Mereu făceam o treabă bună, doar că arătam neobișnuit și aveam vârsta și genul greșit.
So hiring in a gender- and race-blind way certainly sounds good to me. But with these systems, it is more complicated, and here's why: Currently, computational systems can infer all sorts of things about you from your digital crumbs, even if you have not disclosed those things. They can infer your sexual orientation, your personality traits, your political leanings. They have predictive power with high levels of accuracy. Remember -- for things you haven't even disclosed. This is inference.
Așa că angajarea bazată pe necunoașterea genului și a rasei sună bine. Dar e mai complicat cu aceste sisteme și motivul e următorul: În prezent, sistemele de calcul pot deduce tot felul de lucruri despre noi, de la urmele digitale, chiar dacă nu ați dezvăluit acele lucruri; pot deduce orientarea sexuală, trăsăturile de personalitate, înclinațiile politice. Au putere de predicție cu nivel ridicat de precizie. Iar asta pentru lucruri pe care nici măcar nu le-ați dezvăluit. Asta e deducție.
I have a friend who developed such computational systems to predict the likelihood of clinical or postpartum depression from social media data. The results are impressive. Her system can predict the likelihood of depression months before the onset of any symptoms -- months before. No symptoms, there's prediction. She hopes it will be used for early intervention. Great! But now put this in the context of hiring.
Am o prietenă care a dezvoltat astfel de sisteme de calcul care să prezică probabilitatea depresiei clinice sau postnatale din datele de pe rețelele de socializare. Rezultatele sunt impresionante. Sistemul ei poate prezice probabilitatea depresiei cu luni înainte de apariția unui simptom, cu luni înainte. Fără simptome, există o predicție. Ea speră că va fi folosit pentru intervențiile timpurii. Minunat! Dar să luăm contextul angajării.
So at this human resources managers conference, I approached a high-level manager in a very large company, and I said to her, "Look, what if, unbeknownst to you, your system is weeding out people with high future likelihood of depression? They're not depressed now, just maybe in the future, more likely. What if it's weeding out women more likely to be pregnant in the next year or two but aren't pregnant now? What if it's hiring aggressive people because that's your workplace culture?" You can't tell this by looking at gender breakdowns. Those may be balanced. And since this is machine learning, not traditional coding, there is no variable there labeled "higher risk of depression," "higher risk of pregnancy," "aggressive guy scale." Not only do you not know what your system is selecting on, you don't even know where to begin to look. It's a black box. It has predictive power, but you don't understand it.
La această conferință cu manageri de la resurse umane, m-am apropiat de un manager de nivel înalt dintr-o companie foarte mare și i-am spus: „Ce-ar fi dacă, fără știrea ta, sistemul tău elimină oameni cu o viitoare probabilitate de depresie? Nu sunt depresivi acum, dar poate în viitor sunt șanse. Ce-ar fi dacă elimină femei care e posibil să rămână însărcinate anul viitor sau în doi ani, dar nu sunt însărcinate acum? Dacă angajează oameni agresivi, pentru că așa e cultura locului de muncă?” Nu-ți poți da seama de asta din defalcare de gen. Trebuie să fie în echilibru. Și din moment ce asta e învățare automată, nu programare tradițională, nu e o variabilă etichetată „risc ridicat de depresie”, „risc ridicat de sarcină”, „persoană agresivă”. Nu doar că nu știi cum face sistemul selecția, nu știi nici de unde începe să caute. E o cutie neagră. Are putere de predicție, dar n-o înțelegi.
"What safeguards," I asked, "do you have to make sure that your black box isn't doing something shady?" She looked at me as if I had just stepped on 10 puppy tails.
Ce măsuri de protecție ai, am întrebat, ca să te asiguri că cutia ta neagră nu face ceva suspect?” M-a privit ca și când aș fi călcat pe zece cozi de cățeluși.
(Laughter)
(Râsete)
She stared at me and she said, "I don't want to hear another word about this." And she turned around and walked away. Mind you -- she wasn't rude. It was clearly: what I don't know isn't my problem, go away, death stare.
M-a privit și a spus: „Nu vreau să mai aud un cuvânt despre așa ceva.” S-a întors și a plecat. Rețineți, n-a fost nepoliticoasă. Era clar: ce nu știu nu-i problema mea, lasă-mă, privire dușmănoasă.
(Laughter)
(Râsete)
Look, such a system may even be less biased than human managers in some ways. And it could make monetary sense. But it could also lead to a steady but stealthy shutting out of the job market of people with higher risk of depression. Is this the kind of society we want to build, without even knowing we've done this, because we turned decision-making to machines we don't totally understand?
Un astfel de sistem poate fi mai puțin ostil decât managerii umani câteodată. Și ar putea avea un sens din punct de vedere monetar. Dar ar putea duce și la o închidere constantă dar ascunsă de pe piața muncii, a celor cu risc mai mare de depresie. E ăsta genul de societate pe care vrem s-o construim, fără să știm că am făcut asta, că am îndreptat luarea deciziilor spre mașini pe care nu le înțelegem bine?
Another problem is this: these systems are often trained on data generated by our actions, human imprints. Well, they could just be reflecting our biases, and these systems could be picking up on our biases and amplifying them and showing them back to us, while we're telling ourselves, "We're just doing objective, neutral computation."
O altă problemă e asta: aceste sisteme sunt deseori antrenate pe date generate de acțiunile noastre, amprentele umane. Ele ar putea doar să reflecte prejudecățile noastre și aceste sisteme ne-ar putea prelua prejudecățile, le-ar amplifica și ni le-ar arăta înapoi, în timp ce ne spunem: „Facem doar calcule obiective și neutre.”
Researchers found that on Google, women are less likely than men to be shown job ads for high-paying jobs. And searching for African-American names is more likely to bring up ads suggesting criminal history, even when there is none. Such hidden biases and black-box algorithms that researchers uncover sometimes but sometimes we don't know, can have life-altering consequences.
Cercetătorii au aflat că pe Google posibilitatea de afișare a joburilor bine plătite e mai mică pentru femei. Și căutând nume afro-americane e mai posibil să apară anunțuri ce sugerează antecedente penale, chiar dacă nu există niciunul. Astfel de prejudecăți ascunse și algoritmi de tip cutie neagră pe care cercetătorii le descoperă uneori, dar noi nu știm, pot avea consecințe ce pot schimba viața.
In Wisconsin, a defendant was sentenced to six years in prison for evading the police. You may not know this, but algorithms are increasingly used in parole and sentencing decisions. He wanted to know: How is this score calculated? It's a commercial black box. The company refused to have its algorithm be challenged in open court. But ProPublica, an investigative nonprofit, audited that very algorithm with what public data they could find, and found that its outcomes were biased and its predictive power was dismal, barely better than chance, and it was wrongly labeling black defendants as future criminals at twice the rate of white defendants.
În Wisconsin, un acuzat a primit șase ani de închisoare pentru că a fugit de poliție. Poate nu știți asta, dar se folosesc tot mai mult algoritmi pentru eliberări condiționate și sentințe. Voia să știe cum se calcula rezultatul. Era o cutie neagră comercială. Compania a refuzat ca algoritmul său să fie contestat în ședință publică. Dar ProPublica, un ONG de investigație, a verificat anume acel algoritm cu datele publice pe care le-au putut găsi și au aflat că rezultatele lor erau ostile și puterea sa de predicție era slabă, abia avea vreo șansă, și eticheta greșit pe acuzații de culoare ca fiind viitori infractori la o rată de două ori mai mare față de acuzații albi.
So, consider this case: This woman was late picking up her godsister from a school in Broward County, Florida, running down the street with a friend of hers. They spotted an unlocked kid's bike and a scooter on a porch and foolishly jumped on it. As they were speeding off, a woman came out and said, "Hey! That's my kid's bike!" They dropped it, they walked away, but they were arrested.
Gândiți-vă la cazul ăsta. Această femeie a întârziat să o ia pe fata nașilor de la o școală din Broward, Florida, deoarece era la plimbare cu o prietenă. Au văzut bicicleta unui copil și un scuter pe verandă și s-au urcat pe ea. În timp ce prindeau viteză, o femeie a ieșit și a spus: „Hei! Aia-i bicicleta copilului meu!” Au lăsat-o, au plecat, dar au fost arestate.
She was wrong, she was foolish, but she was also just 18. She had a couple of juvenile misdemeanors. Meanwhile, that man had been arrested for shoplifting in Home Depot -- 85 dollars' worth of stuff, a similar petty crime. But he had two prior armed robbery convictions. But the algorithm scored her as high risk, and not him. Two years later, ProPublica found that she had not reoffended. It was just hard to get a job for her with her record. He, on the other hand, did reoffend and is now serving an eight-year prison term for a later crime. Clearly, we need to audit our black boxes and not have them have this kind of unchecked power.
Greșise, făcuse ceva imprudent, dar avea 18 ani. Avea două delicte juvenile. Între timp, acest bărbat a fost arestat pentru furt în Home Depot, lucruri în valoare de 85 de dolari, o infracțiune minoră. Dar mai avea două condamnări anterioare pentru jaf armat. Dar algoritmul a considerat-o pe femeie ca fiind un risc ridicat și nu pe el. Doi ani mai târziu, ProPublica a aflat că ea nu recidivase. Ei i-a fost greu să-și găsească un job cu acel cazier. El, pe de altă parte, a recidivat și acum ispășește o pedeapsă de opt ani de închisoare pentru o crimă ulterioară. Evident, trebuie să examinăm cutiile negre și să nu le lăsăm să aibă acest tip de putere necontrolată.
(Applause)
(Aplauze)
Audits are great and important, but they don't solve all our problems. Take Facebook's powerful news feed algorithm -- you know, the one that ranks everything and decides what to show you from all the friends and pages you follow. Should you be shown another baby picture?
Auditul e minunat și important, dar nu ne rezolvă toate problemele. Luați algoritmul puternic al fluxului de știri de pe Facebook, cel care clasează totul și decide ce să vă arate de la toți prietenii și paginile pe care le urmăriți. Ar trebui să vezi o altă poză de bebeluș?
(Laughter)
(Râsete)
A sullen note from an acquaintance? An important but difficult news item? There's no right answer. Facebook optimizes for engagement on the site: likes, shares, comments.
Un articol trist de la un cunoscut? O știre importantă dar complicată? Nu există un răspuns corect. Facebook se optimizează pentru implicarea pe site: like-uri, distribuiri, comentarii.
In August of 2014, protests broke out in Ferguson, Missouri, after the killing of an African-American teenager by a white police officer, under murky circumstances. The news of the protests was all over my algorithmically unfiltered Twitter feed, but nowhere on my Facebook. Was it my Facebook friends? I disabled Facebook's algorithm, which is hard because Facebook keeps wanting to make you come under the algorithm's control, and saw that my friends were talking about it. It's just that the algorithm wasn't showing it to me. I researched this and found this was a widespread problem.
În august 2014, protestele au izbucnit în Ferguson, Missouri, după uciderea unui adolescent afro-american de un polițist alb, în condiții obscure. Știrea despre proteste era peste tot, în feedul meu Twitter, nefiltrat algoritmic, dar nicăieri pe pagina mea de Facebook. Au făcut asta prietenii mei de la Facebook? Am dezactivat algoritmul Facebook, ceea ce părea greu, deoarece Facebook tot vrea să te facă să fii sub controlul algoritmului, și am văzut că prietenii mei vorbeau despre asta. Era doar algoritmul care nu-mi arăta. Am cercetat și am aflat că e o problemă răspândită.
The story of Ferguson wasn't algorithm-friendly. It's not "likable." Who's going to click on "like?" It's not even easy to comment on. Without likes and comments, the algorithm was likely showing it to even fewer people, so we didn't get to see this. Instead, that week, Facebook's algorithm highlighted this, which is the ALS Ice Bucket Challenge. Worthy cause; dump ice water, donate to charity, fine. But it was super algorithm-friendly. The machine made this decision for us. A very important but difficult conversation might have been smothered, had Facebook been the only channel.
Povestea din Ferguson nu era prietenoasă cu algoritmii. Nu era „apreciabilă”. Cine o să dea „like”? Nici măcar nu e ușor să lași un comentariu despre asta. Fără like-uri și comentarii, algoritmul lăsa probabil și mai puțini oameni să vadă, așa că noi n-am văzut. În schimb, în acea săptămână, algoritmii Facebook au subliniat asta: ALS Ice Bucket Challenge. Cauză demnă: îți torni apă rece, donezi pentru caritate, perfect. Dar era super prietenoasă cu algoritmii. Mașinăria a decis asta pentru noi. O conversație foarte importantă, dar dificilă, ar fi putut fi eliminată dacă Facebook ar fi fost singurul canal.
Now, finally, these systems can also be wrong in ways that don't resemble human systems. Do you guys remember Watson, IBM's machine-intelligence system that wiped the floor with human contestants on Jeopardy? It was a great player. But then, for Final Jeopardy, Watson was asked this question: "Its largest airport is named for a World War II hero, its second-largest for a World War II battle."
Aceste sisteme pot și greși în feluri care nu seamănă cu sistemele umane. Vă amintiți de Watson, sistemul IBM cu inteligență artificială, care a șters pe jos cu concurenții umani la Jeopardy? A fost un jucător grozav. Dar atunci, în finala Jeopardy, lui Watson i s-a pus această întrebare: „Cel mai mare aeroport al său e numit după un erou din al Doilea Război Mondial, al doilea ca mărime din o luptă a acestui război.”
(Hums Final Jeopardy music)
(Fredonează melodia finalei Jeopardy)
Chicago. The two humans got it right. Watson, on the other hand, answered "Toronto" -- for a US city category! The impressive system also made an error that a human would never make, a second-grader wouldn't make.
Chicago. Cei doi oameni au răspuns corect. Watson, pe de altă parte, a răspuns „Toronto”, pentru categoria unui oraș american. Sistemul impresionant a făcut și el o eroare pe care un om n-ar face-o niciodată, un copil de clasa a doua n-ar face-o.
Our machine intelligence can fail in ways that don't fit error patterns of humans, in ways we won't expect and be prepared for. It'd be lousy not to get a job one is qualified for, but it would triple suck if it was because of stack overflow in some subroutine.
Inteligența noastră artificială poate da greș în moduri care nu se potrivesc cu tiparele de erori ale oamenilor, în moduri neașteptate și pentru care trebuie să ne pregătim. Ar fi groaznic ca cineva să nu primească un job pentru care e calificat, dar ar fi de trei ori mai rău dacă ar fi din cauza depășirii seriei în vreo subrutină.
(Laughter)
(Râsete)
In May of 2010, a flash crash on Wall Street fueled by a feedback loop in Wall Street's "sell" algorithm wiped a trillion dollars of value in 36 minutes. I don't even want to think what "error" means in the context of lethal autonomous weapons.
În mai 2010, un flash crash de pe Wall Street alimentat de o buclă de reacție în algoritmul de „vânzare” de pe Wall Street a șters un trilion de dolari în 36 de minute. Nici nu vreau să mă gândesc ce înseamnă „eroare” în contextul armelor autonome letale.
So yes, humans have always made biases. Decision makers and gatekeepers, in courts, in news, in war ... they make mistakes; but that's exactly my point. We cannot escape these difficult questions. We cannot outsource our responsibilities to machines.
Deci da, oamenii au avut mereu prejudecăți. Factori de decizie și gardieni, în instanță, la știri, în război... ei iau decizii și asta vreau să subliniez. Nu putem scăpa de aceste întrebări dificile. Nu ne putem externaliza responsabilitățile către mașinării.
(Applause)
(Aplauze)
Artificial intelligence does not give us a "Get out of ethics free" card.
Inteligența artificială nu ne dă un permis care să ne scape de etică.
Data scientist Fred Benenson calls this math-washing. We need the opposite. We need to cultivate algorithm suspicion, scrutiny and investigation. We need to make sure we have algorithmic accountability, auditing and meaningful transparency. We need to accept that bringing math and computation to messy, value-laden human affairs does not bring objectivity; rather, the complexity of human affairs invades the algorithms. Yes, we can and we should use computation to help us make better decisions. But we have to own up to our moral responsibility to judgment, and use algorithms within that framework, not as a means to abdicate and outsource our responsibilities to one another as human to human.
Analistul de date Fred Benenson numește asta spălarea prin matematică. Avem nevoie de exact contrariul. Trebuie să cultivăm suspiciunea algoritmului, controlul și investigația. Trebuie să ne asigurăm că avem contabilitate algoritmică, revizie contabilă și transparență însemnată. Trebuie să acceptăm că aducerea matematicii și informaticii în problemele umane încurcate și pline de valori nu aduce obiectivitate. Mai degrabă, complexitatea problemelor umane invadează algoritmii. Putem și trebuie să folosim informatica pentru a ne ajuta să luăm decizii mai bune. Dar trebuie să ne recunoaștem responsabilitatea morală față de judecată și să folosim algoritmii în acest cadru, nu ca mijloc de abdicare și externalizare a responsabilităților unul față de celălalt, de la om la om.
Machine intelligence is here. That means we must hold on ever tighter to human values and human ethics.
Inteligența artificială e aici. Asta înseamnă că trebuie să ținem și mai bine de valorile și eticile umane.
Thank you.
Vă mulțumesc!
(Applause)
(Aplauze)