So I've been an AI researcher for over a decade. And a couple of months ago, I got the weirdest email of my career. A random stranger wrote to me saying that my work in AI is going to end humanity. Now I get it, AI, it's so hot right now.
Nu, mi esploras Artefaritan Intelekton (AI) jam de pli ol jardeko. Kaj antaŭnelonge mi ricevis la plej strangan retpoŝton de mia kariero. Iu nekonato skribis al mi dirante, ke mia laboro pri AI finos la homaron. Nu, kompreneble, AI, estas tiel sensacia ĝuste nun.
(Laughter)
(Ridoj)
It's in the headlines pretty much every day, sometimes because of really cool things like discovering new molecules for medicine or that dope Pope in the white puffer coat. But other times the headlines have been really dark, like that chatbot telling that guy that he should divorce his wife or that AI meal planner app proposing a crowd pleasing recipe featuring chlorine gas. And in the background, we've heard a lot of talk about doomsday scenarios, existential risk and the singularity, with letters being written and events being organized to make sure that doesn't happen.
Ĝi estas en la frontpaĝoj preskaŭ ĉiutage, foje pro tre mojosaj aferoj kiel malkovri molekulojn por medikamento aŭ tiu drogiĝinta Papo en la blanka pufa jako. Sed aliokaze la fraptitoloj estis vere ombraj, kiel babliraboto, kiu diras al iu, ke li devas divorci disde la edzino aŭ aplikaĵo, kiu planas manĝojn per AI, proponanta popularan recepton, kiu uzas kloran gason. Kaj en la malantaŭo ni aŭdis amason da mondofinaj perspektivoj, ekzistadaj riskoj kaj la singulareco, kun leteroj verkataj kaj eventoj aranĝataj por certigi, ke tio ne okazos.
Now I'm a researcher who studies AI's impacts on society, and I don't know what's going to happen in 10 or 20 years, and nobody really does. But what I do know is that there's some pretty nasty things going on right now, because AI doesn't exist in a vacuum. It is part of society, and it has impacts on people and the planet.
Mi estas esploristo, kiu studas efikojn de Artefarita Intelekto en la socio, kaj mi ne scias tion, kio okazos post 10 aŭ 20 jaroj, kaj neniu vere scias. Sed mi ja scias, ke estas kelkaj aĉaj aferoj okazantaj ĝuste nun, ĉar AI ne ekzistas en vakuo. Ĝi estas parto de la socio kaj ĝi havas sekvojn sur homoj kaj la planedo.
AI models can contribute to climate change. Their training data uses art and books created by artists and authors without their consent. And its deployment can discriminate against entire communities. But we need to start tracking its impacts. We need to start being transparent and disclosing them and creating tools so that people understand AI better, so that hopefully future generations of AI models are going to be more trustworthy, sustainable, maybe less likely to kill us, if that's what you're into.
Modeloj de AI povas kontribui al la klimatŝanĝo. Iliaj trejn-datumoj uzas arton kaj librojn kreitajn de artistoj kaj aŭtoroj sen ilia konsento. Kaj ĝia distribuado povas diskriminacii kontraŭ tutaj komunumoj. Sed ni bezonas ekspuri tiujn sekvojn. Ni bezonas fariĝi travideblaj kaj dissemi ilin kaj krei ilojn tiel ke la homoj pli bone komprenu AI, tiel espereble estontaj generacioj de AI-modeloj estos pli fidindaj, daŭripovaj eble malpli inklinaj mortigi nin, se vi pensas tion.
But let's start with sustainability, because that cloud that AI models live on is actually made out of metal, plastic, and powered by vast amounts of energy. And each time you query an AI model, it comes with a cost to the planet. Last year, I was part of the BigScience initiative, which brought together a thousand researchers from all over the world to create Bloom, the first open large language model, like ChatGPT, but with an emphasis on ethics, transparency and consent. And the study I led that looked at Bloom's environmental impacts found that just training it used as much energy as 30 homes in a whole year and emitted 25 tons of carbon dioxide, which is like driving your car five times around the planet just so somebody can use this model to tell a knock-knock joke. And this might not seem like a lot, but other similar large language models, like GPT-3, emit 20 times more carbon. But the thing is, tech companies aren't measuring this stuff. They're not disclosing it. And so this is probably only the tip of the iceberg, even if it is a melting one.
Sed ni komencu per daŭripoveco, ĉar la “nubo” en kiu la modeloj de AI vivas estas vere farita el metalo, plasto, kaj povumita de grandaj kvantoj da energio. Kaj ĉiam, kiam vi pridemandas AI-modelon, ĝia respondo havas koston por la planedo Lastjare mi partoprenis en la iniciato BigScience, kiu kunvenigis milon da esploristoj el la tuta mondo por krei <i>Bloom</i>, la unuan malferman grandan lingvan modelon, kiel ChatGPT, sed ku emfazo al etiko, travidebleco kaj konsento. Kaj la studo, kiun mi gvidis pri la naturmediaj sekvoj de Bloom malkovris, ke nur ĝia trejnado uzis tiom da energio kiom 30 hejmoj dum tuta jaro elsendante 25 tunojn da karbona dioksido, kio egalas al la stirado de aŭtomobilo kvin fojojn ĉirkaŭ la terglobo por ke iu povu uzi tiun modelon por rakonti infanecan ŝercon. Kaj tio povas ne ŝajni tiel multe, sed aliaj simile grandaj lingvaj modeloj, kiel GPT-3, elsendas 20-oble pli da karbono. Sed efektive teĥnikaj kompanioj ne mezuras tiun aferon. Ili ne diskonigas tion. Kaj jen probable nur la pinto de la glacimonto, eĉ se ĝi estas fandiĝanta.
And in recent years we've seen AI models balloon in size because the current trend in AI is "bigger is better." But please don't get me started on why that's the case. In any case, we've seen large language models in particular grow 2,000 times in size over the last five years. And of course, their environmental costs are rising as well. The most recent work I led, found that switching out a smaller, more efficient model for a larger language model emits 14 times more carbon for the same task. Like telling that knock-knock joke. And as we're putting in these models into cell phones and search engines and smart fridges and speakers, the environmental costs are really piling up quickly. So instead of focusing on some future existential risks, let's talk about current tangible impacts and tools we can create to measure and mitigate these impacts.
Kaj en la lastaj jaroj ni vidis AI-modelojn ŝveliĝi ĉar la nuntempa tendenco en AI estas “ju pli granda, des pli bona.” Sed mi ne ekparolu kial tio estas la okazo. Ĉiuokaze ni vidis grandajn lingvajn modelojn aparte kreski 2-miloble laŭ grandeco tra la lastaj kvin jaroj. Kaj kompreneble ilia naturmediaj kostoj same kreskas. La plej ĵusa esploro, kiun mi gvidis, malkovris, ke forlasi pli malgrandan pli efikan modelon favore al pli granda lingva modelo elsendas 14-oble pli da karbono por la sama tasko. Kiel rakonti tiun infanecan ŝercon. Kaj dum ni metas tiujn modelojn en poŝtelefonojn kaj serĉilojn kaj en ruzajn glaciŝrankojn kaj laŭtparolilojn, vere rapide akumuliĝas la naturmediaj kostoj. Do anstataŭ fokusi pri kelkaj estontaj ekzistadaj riskoj, ni parolu pri aktualaj tuŝeblaj sekvoj kaj pri iloj, kiujn ni povas krei por mezuri kaj mildigi tiujn sekvojn.
I helped create CodeCarbon, a tool that runs in parallel to AI training code that estimates the amount of energy it consumes and the amount of carbon it emits. And using a tool like this can help us make informed choices, like choosing one model over the other because it's more sustainable, or deploying AI models on renewable energy, which can drastically reduce their emissions.
Mi helpis krei CodeCarbon, ilo, kiu ruliĝas paralele al AI-trejnokodo kaj kiu estimas la kvanton da konsumata energio kaj kiom da karbono ĝi elsendas. Kaj uzi tian ilon povas helpi nin elekti surbaze de informoj, kiel elekti unu modelon anstataŭ la alian ĉar ĝi estas pli daŭripova, aŭ efektivigi AI-modelojn pri renovigebla energio, kiu povas severe redukti iliajn elsendojn.
But let's talk about other things because there's other impacts of AI apart from sustainability. For example, it's been really hard for artists and authors to prove that their life's work has been used for training AI models without their consent. And if you want to sue someone, you tend to need proof, right? So Spawning.ai, an organization that was founded by artists, created this really cool tool called “Have I Been Trained?” And it lets you search these massive data sets to see what they have on you. Now, I admit it, I was curious. I searched LAION-5B, which is this huge data set of images and text, to see if any images of me were in there. Now those two first images, that's me from events I've spoken at. But the rest of the images, none of those are me. They're probably of other women named Sasha who put photographs of themselves up on the internet. And this can probably explain why, when I query an image generation model to generate a photograph of a woman named Sasha, more often than not I get images of bikini models. Sometimes they have two arms, sometimes they have three arms, but they rarely have any clothes on. And while it can be interesting for people like you and me to search these data sets, for artists like Karla Ortiz, this provides crucial evidence that her life's work, her artwork, was used for training AI models without her consent, and she and two artists used this as evidence to file a class action lawsuit against AI companies for copyright infringement. And most recently --
Sed ni parolu pri aliaj aferoj, ĉar estas aliaj sekvoj de AI krom la daŭripoveco. Ekzemple, estas vere malfacile por artistoj kaj aŭtoroj pruvi, ke ilia vivoverko estis uzata por trejni AI-modelojn sen ilia konsento. Kaj se vi volas procesi iun, vi bezonas havi pruvaĵojn, ĉu ne? Tial spawning.ai, organizaĵo fondita de artistoj, kreis tre mojosan ilon “Have I Been Trained?” (Ĉu mi estis trenita?) Kaj ĝi ebligas traserĉon de amasaj datum-ensembloj por vidi kion ili havas pri vi. Nu, konfese, mi estis scivolema. Mi serĉis LAION-5B, kiu estas grandega datumaro kun bildoj kaj tekstoj por vidi ĉu bildoj de mi estis tie. Jen, tiuj ĉi du unuaj bildoj estas pri mi, el aranĝoj ĉe kiuj mi prelegis Sed el la ceteraj bildoj, neniu estas pri mi. Ili probable estas virinoj kun la nomo Saŝa kiuj metis en la reton siajn fotojn. Kaj tio eble povas klarigi, kiam mi pridemandas bildokrean modelon por krei foton de virino nomata Saŝa, kial plejofte mi ricevas bildojn de bikino-modelulinoj. Foje ili havas du brakojn, foje ili havas tri brakojn, sed malofte ili estas plene vestitaj. Kaj dum tio povas esti interesa por homoj kiel vi kaj mi traserĉi tiujn datumarojn, por artistoj kiel Karla Ortiz, tio provizas esencan evidentaĵon, ke ŝia vivoverko, ŝia arta verkaro, estis uzata por trejni AI-modelojn sen ŝia konsento, kaj ŝi kaj du artistoj uzis tion kiel evidentaĵon por iniciati klasan proceson kontraŭ AI-kompanioj pro kopirajta malrespekto. Kaj tre antaŭnelonge --
(Applause)
(Aplaŭdoj)
And most recently Spawning.ai partnered up with Hugging Face, the company where I work at, to create opt-in and opt-out mechanisms for creating these data sets. Because artwork created by humans shouldn’t be an all-you-can-eat buffet for training AI language models.
Kaj tre antaŭnelonge Spawning.ai partneriĝis kun <i>Hugging Face</i>, la kompanio por kiu mi laboras, por krei mekanismojn de aliĝo kaj eliĝo en la kreado de tiuj datumaroj. Ĉar artaĵoj kreitaj de homoj ne devus esti laŭvola bufedo por trejni lingvo-modelojn de AI.
(Applause)
(Aplaŭdoj)
The very last thing I want to talk about is bias. You probably hear about this a lot. Formally speaking, it's when AI models encode patterns and beliefs that can represent stereotypes or racism and sexism. One of my heroes, Dr. Joy Buolamwini, experienced this firsthand when she realized that AI systems wouldn't even detect her face unless she was wearing a white-colored mask. Digging deeper, she found that common facial recognition systems were vastly worse for women of color compared to white men. And when biased models like this are deployed in law enforcement settings, this can result in false accusations, even wrongful imprisonment, which we've seen happen to multiple people in recent months. For example, Porcha Woodruff was wrongfully accused of carjacking at eight months pregnant because an AI system wrongfully identified her.
Laste mi volas trakti pri biaso. Vi eble jam multe aŭdis pri tio. Formale dirite, kiam AI-modeloj enplektas ripetaĵojn kaj kredojn kiuj povas reprezenti stereotipajn vidojn de rasismo kaj seksismo. Unu el miaj herooj, D-rino Joy Buolamwini, spertis mem tion kiam ŝi rimarkis, ke AI-sistemoj eĉ ne detektas ŝian vizaĝon krom se ŝi portas blankan maskon. Funde esplorante, ŝi malkovris, ke ordinaraj vizaĝo-detektaj sistemoj malpli funkcias por haŭtkoloraj virinoj kompare al blankaj viroj. Kaj kiam biasaj modeloj kiel tio estas aplikataj en la sfero de leĝoj, tio povas rezultigi falsajn akuzojn kaj eĉ misarestojn, kiel ni vidis okazi al pluraj homoj en la lastaj monatoj. Ekzemple, Procha Woodruff estis misakuzita pri rabado de aŭto kiam graveda je ok monatoj ĉar AI-sistemo erare identigis ŝin.
But sadly, these systems are black boxes, and even their creators can't say exactly why they work the way they do. And for example, for image generation systems, if they're used in contexts like generating a forensic sketch based on a description of a perpetrator, they take all those biases and they spit them back out for terms like dangerous criminal, terrorists or gang member, which of course is super dangerous when these tools are deployed in society.
Malfeliĉe, sistemoj estas nigraj skatoloj, kaj eĉ iliaj kreintoj ne povas diri kial tio funkcias tiumaniere. Kaj ekzemple, por bildokreaj sistemoj, se ili estas uzataj por krei enketajn scenarojn bazitajn en la priskribo de krimulo, ili prenas ĉiujn biasojn kaj elsputas ilin per terminoj kiel danĝera krimulo, teroristoj aŭ bandano, kio kompreneble estas danĝerega kiam tiuj iloj estas liverataj al la socio.
And so in order to understand these tools better, I created this tool called the Stable Bias Explorer, which lets you explore the bias of image generation models through the lens of professions. So try to picture a scientist in your mind. Don't look at me. What do you see? A lot of the same thing, right? Men in glasses and lab coats. And none of them look like me. And the thing is, is that we looked at all these different image generation models and found a lot of the same thing: significant representation of whiteness and masculinity across all 150 professions that we looked at, even if compared to the real world, the US Labor Bureau of Statistics. These models show lawyers as men, and CEOs as men, almost 100 percent of the time, even though we all know not all of them are white and male.
Kaj por pli bone kompreni tiujn ilojn, mi kreis la ilon Stable Bias Explorer (Stabila Biasa Esplorilo) kiu ebligas al vi esplori la biason de bildokreaj modeloj tra la lenso de profesioj. Do provu bildigi scienciston en via menso. Ne rigardu min. Kion vi vidas? Amason de la samo, ĉu ne? Virojn kun okulvitroj kaj laboratoriaj jakoj. Kaj neniu el ili similas al mi. Kaj la afero estas tio, ke ni rigardis ĉiujn ĉi malsamajn bildokreajn modelojn kaj malkovris amason de la samo: signifa reprezentado de blankeco kaj vireco tra ĉiuj 150 profesioj, kiujn ni rigardis, eĉ se kompare al la reala mondo, la usona Labor-statistika Oficejo. Modeloj montras advokatojn kiel virojn, kaj kompani-prezidantoj kiel viroj, en preskaŭ 100% de la okazoj, eĉ se ni scias, ke ne ĉiuj estas blankaj kaj viroj.
And sadly, my tool hasn't been used to write legislation yet. But I recently presented it at a UN event about gender bias as an example of how we can make tools for people from all walks of life, even those who don't know how to code, to engage with and better understand AI because we use professions, but you can use any terms that are of interest to you.
Kaj bedaŭrinde mia ilo ankoraŭ ne estis uzata por redakti leĝojn. Sed antaŭnelonge mi ĝin prezentis en UN-aranĝo pri genra biaso kiel ekzemplon de iloj, kiujn ni povas fari por homoj el ĉiuj vivo-sferoj, eĉ tiuj, kiuj ne scipovas programi, por engaĝiĝi kaj pli bone kompreni AI, ĉar ni uzas profesiojn, sed vi povas uzi kiujn ajn terminojn de via intereso.
And as these models are being deployed, are being woven into the very fabric of our societies, our cell phones, our social media feeds, even our justice systems and our economies have AI in them. And it's really important that AI stays accessible so that we know both how it works and when it doesn't work. And there's no single solution for really complex things like bias or copyright or climate change. But by creating tools to measure AI's impact, we can start getting an idea of how bad they are and start addressing them as we go. Start creating guardrails to protect society and the planet. And once we have this information, companies can use it in order to say, OK, we're going to choose this model because it's more sustainable, this model because it respects copyright. Legislators who really need information to write laws, can use these tools to develop new regulation mechanisms or governance for AI as it gets deployed into society. And users like you and me can use this information to choose AI models that we can trust, not to misrepresent us and not to misuse our data.
Kaj dum tiuj modeloj estas liverataj, ni ellaboras la konsiston de niaj socioj, niaj poŝtelefonoj, niaj sociretaj afiŝoj, eĉ niaj juĝaj sistemoj kaj niaj ekonomioj enhavas AI. Kaj estas vere grave, ke AI restu alirebla, tiel ke ni sciu kiel ĝi funkcias kaj kiam ĝi ne funkcias. Kaj ne estas simpla solvo por vere kompleksaj aferoj kiel biaso aŭ kopirajtoj aŭ klimatŝanĝo. Sed kreante ilojn por mezuri la sekvojn de AI, ni povas ekhavi komprenon kiel malbonaj ili estas kaj pritrakti ilin ĉefare. Ekkrei gardilojn por protekti la socion kaj la planedon. Kaj kiam ni havos tiun informon, kompanioj povos uzi ĝin por diri Okej, ni elektos tiun ĉi modelon ĉar ĝi estas pli daŭripova, tiu ĉi modelo respektas kopirajtojn. Leĝofarantoj, kiuj vere bezonas informojn por verki leĝojn, povas uzi tiujn ilojn por disvolvi novajn regulajn mekanismojn aŭ mastrumadon por AI dum ĝi implementiĝas en la socio. Kaj uzantoj kiel vi kaj mi povos uzi la informon por elekti AI-modelojn, kiujn ni povas fidi, ne por misreprezenti nin kaj ne por misuzi niajn datumojn.
But what did I reply to that email that said that my work is going to destroy humanity? I said that focusing on AI's future existential risks is a distraction from its current, very tangible impacts and the work we should be doing right now, or even yesterday, for reducing these impacts. Because yes, AI is moving quickly, but it's not a done deal. We're building the road as we walk it, and we can collectively decide what direction we want to go in together.
Sed kion mi respondis al tiu retmesaĝo kiu diris, ke mia vivolaboro detruos la homaron? Mi diris, ke fokusi al la estontaj ekzistadaj riskoj de AI deturnas atenton pri ĝiaj nuntempaj, tre tuŝeblaj sekvoj kaj la laboro, kiun ni devus fari nun, aŭ eĉ hieraŭ, por redukti tiujn sekvojn. Ĉar jes, AI rapide moviĝas sed ĝi ne estas definitiva afero. Ni konstruas la vojon, dum ni laŭiras ĝin kaj ni povas kolektive decidi laŭ kiu direkto ni volas kune iri.
Thank you.
Dankon.
(Applause)
(Aplaŭdoj)