So I've been an AI researcher for over a decade. And a couple of months ago, I got the weirdest email of my career. A random stranger wrote to me saying that my work in AI is going to end humanity. Now I get it, AI, it's so hot right now.
On yıldan fazla bir süredir yapay zeka araştırmacılığı yapmaktayım. Ve birkaç ay önce kariyerimin en garip e-postasını aldım. Rastgele bir yabancı bana yazıp yapay zekadaki çalışmalarımın insanlığın sonunu getireceğini söyledi. Tamam anladım; yapay zeka, şu anda çok ateşli.
(Laughter)
(Kahkahalar)
It's in the headlines pretty much every day, sometimes because of really cool things like discovering new molecules for medicine or that dope Pope in the white puffer coat. But other times the headlines have been really dark, like that chatbot telling that guy that he should divorce his wife or that AI meal planner app proposing a crowd pleasing recipe featuring chlorine gas. And in the background, we've heard a lot of talk about doomsday scenarios, existential risk and the singularity, with letters being written and events being organized to make sure that doesn't happen.
Hemen hemen her gün bazen çeşitli havalı şeylerden, bir ilaç için yeni moleküller keşfetmekten veya beyaz şişme montlu Papa resminden dolayı manşetlerde yer alıyor. Ama bazen manşetler karanlık olabiliyor. Örneğin bir ara, bir sohbet robotu bir adama karısını boşamasını söylemişti ve bir yapay zeka uygulaması klor gazlı, herkesin hoşuna gidecek yemek tarifleri vermişti. Ve önceden kıyamet senaryoları, varoluşsal risk ve tekillikler hakkında çok konuşma yapıldı. Bunların gerçekleşmeyeceğinden emin olmak için bu konularda mektuplar yazıldı, etkinlikler düzenlendi.
Now I'm a researcher who studies AI's impacts on society, and I don't know what's going to happen in 10 or 20 years, and nobody really does. But what I do know is that there's some pretty nasty things going on right now, because AI doesn't exist in a vacuum. It is part of society, and it has impacts on people and the planet.
Bakın, ben yapay zekanın toplum üzerindeki etkilerini inceleyen bir araştırmacıyım ve 10 veya 20 yıl içinde neler olacağını bilmiyorum ve aslında kimse bilmiyor. Ama şunu biliyorum ki şu anda bazı fena şeyler yaşanmakta çünkü yapay zeka, dünyadan kopuk var olamaz. Toplumun bir parçasıdır ve insanlar ile gezegenimiz üzerinde etkisi vardır.
AI models can contribute to climate change. Their training data uses art and books created by artists and authors without their consent. And its deployment can discriminate against entire communities. But we need to start tracking its impacts. We need to start being transparent and disclosing them and creating tools so that people understand AI better, so that hopefully future generations of AI models are going to be more trustworthy, sustainable, maybe less likely to kill us, if that's what you're into.
Yapay zeka modelleri, iklim değişikliğine katkıda bulunabilir. Yapay zeka eğitim verileri, sanatçıların yaptığı sanatları ve kitapları onların rızası olmadan kullanıyor. Ve yapay zeka yayılırsa bütün topluluklara karşı ırkçılık yapabilir. Ama etkilerini takip etmeye başlamalıyız. Şeffaf olmaya, etkilerini ortaya çıkmaya ve araçlar üretmeye başlayalım ki insanlar yapay zekayı daha iyi anlayabilsin ve böylece gelecek jenerasyon yapay zeka modelleri daha güvenilir, sürdürülebilir ve bizi öldürme olasılığı daha düşük olsun; eğer ilgilendiğiniz buysa tabii.
But let's start with sustainability, because that cloud that AI models live on is actually made out of metal, plastic, and powered by vast amounts of energy. And each time you query an AI model, it comes with a cost to the planet. Last year, I was part of the BigScience initiative, which brought together a thousand researchers from all over the world to create Bloom, the first open large language model, like ChatGPT, but with an emphasis on ethics, transparency and consent. And the study I led that looked at Bloom's environmental impacts found that just training it used as much energy as 30 homes in a whole year and emitted 25 tons of carbon dioxide, which is like driving your car five times around the planet just so somebody can use this model to tell a knock-knock joke. And this might not seem like a lot, but other similar large language models, like GPT-3, emit 20 times more carbon. But the thing is, tech companies aren't measuring this stuff. They're not disclosing it. And so this is probably only the tip of the iceberg, even if it is a melting one.
Sürdürülebilirlikle başlayalım, çünkü yapay zekanın yaşadığı o bulut, aslında metal ile plastikten yapılma ve büyük miktarda enerji tüketmektedir. Ve bir yapay zeka modeline soru sorduğunuzda, gezegenimiz etkilenir. Geçen yıl, dünyanın her yerinden binlerce araştırmayı getiren BigScience girişiminin bir parçasıydım. Burada, ChatGPT gibi ilk açık kodlu, büyük bir dil modeli olan Bloom'u ahlaka, şeffaflığa ve rızaya önem vererek kurduk. Benim yürüttüğüm araştırma, Bloom'un çevreye verdiği etkiyi araştırdı ve onu eğitmenin, bütün yıl boyunca 30 haneye sağlanan enerjiye eşit olduğunu ve 25 ton karbondioksit salımına yol açtığını buldu. Bu da arabanızla tüm gezegeni 5 kere turlamaya eşdeğerdir. Bütün bunlar, sırf biri bu modele bulmaca sorabilsin diye yapılıyor. Bütün bunlar fazla gibi gözükmese de GPT-3 gibi diğer büyük dil modelleri, 20 kat daha fazla karbon salınımı yapmakta. Ama mesele şu ki teknoloji şirketleri bu şeyleri ölçmüyor. Bunları açıklamıyorlar. Yani bu büyük ihtimalle buzdağının görünen ucu, her ne kadar erimekte olsa bile.
And in recent years we've seen AI models balloon in size because the current trend in AI is "bigger is better." But please don't get me started on why that's the case. In any case, we've seen large language models in particular grow 2,000 times in size over the last five years. And of course, their environmental costs are rising as well. The most recent work I led, found that switching out a smaller, more efficient model for a larger language model emits 14 times more carbon for the same task. Like telling that knock-knock joke. And as we're putting in these models into cell phones and search engines and smart fridges and speakers, the environmental costs are really piling up quickly. So instead of focusing on some future existential risks, let's talk about current tangible impacts and tools we can create to measure and mitigate these impacts.
Ve son yıllarda, yapay zeka boyutlarının şiştiğine tanıklık ettik çünkü yapay zekada şu anda "daha büyük, daha iyi" akımı var. Ama bunun neden böyle olduğu konusuna hiç girmeyeyim. Her halükarda, bazı büyük dil modellerinin son beş yılda, özellikle 2000 kat büyüdüğünü gördük. Ve tabii ki çevreye olan masrafları da git gide artıyor. Yürüttüğüm en son çalışmada, daha büyük bir dil modelini daha küçük ve daha verimli bir modelle değiştirmenin aynı görev için 14 kat daha fazla karbon salınımı yaptığını bulduk. O bulmaca sorusunu sormak gibi. Bu modelleri cep telefonlarına, arama motorlarına, akıllı buzdolaplarına ve hoparlörlere koyduğumuzda çevreye olan masrafları hızlıca birikiyor. Yani gelecekteki bazı varoluşsal risklere odaklanmak yerine, hadi şu anki hissedilir etkiler ve bu etkileri ölçebilecek ve azaltabilecek araçların yapımı hakkında konuşalım.
I helped create CodeCarbon, a tool that runs in parallel to AI training code that estimates the amount of energy it consumes and the amount of carbon it emits. And using a tool like this can help us make informed choices, like choosing one model over the other because it's more sustainable, or deploying AI models on renewable energy, which can drastically reduce their emissions.
CodeCarbon'u kurmaya yardım ettim. CodeCarbon, yapay zeka eğitim koduyla paralel çalışıp ne kadar enerji tüketildiğini ve ne kadar karbon salındığını hesaplayan bir araçtır. Ve bunun gibi araçlar, bir modeli sürdürülebilir olduğu için seçmek veya yapay zeka modellerini salınımlarını şiddetle düşürecek yenilenebilir enerji üzerinde kurmak gibi daha bilinçli seçimler yapmamıza yardımcı olabilir.
But let's talk about other things because there's other impacts of AI apart from sustainability. For example, it's been really hard for artists and authors to prove that their life's work has been used for training AI models without their consent. And if you want to sue someone, you tend to need proof, right? So Spawning.ai, an organization that was founded by artists, created this really cool tool called “Have I Been Trained?” And it lets you search these massive data sets to see what they have on you. Now, I admit it, I was curious. I searched LAION-5B, which is this huge data set of images and text, to see if any images of me were in there. Now those two first images, that's me from events I've spoken at. But the rest of the images, none of those are me. They're probably of other women named Sasha who put photographs of themselves up on the internet. And this can probably explain why, when I query an image generation model to generate a photograph of a woman named Sasha, more often than not I get images of bikini models. Sometimes they have two arms, sometimes they have three arms, but they rarely have any clothes on. And while it can be interesting for people like you and me to search these data sets, for artists like Karla Ortiz, this provides crucial evidence that her life's work, her artwork, was used for training AI models without her consent, and she and two artists used this as evidence to file a class action lawsuit against AI companies for copyright infringement. And most recently --
Ancak gelin başka şeyler konuşalım çünkü yapay zekanın sürdürülebilirlik dışında başka etkileri de var. Örneğin sanatçılar ve yazarlar için hayatlarının çalışmalarının rızaları olmadan yapay zeka modellerinin eğitiminde kullanıldığını kanıtlamak gerçekten zor olmuştur. Ve eğer birine dava açacaksan genelde kanıta ihtiyacın olur, değil mi? Öyle ki sanatçılar tarafından kurulan bir kuruluş olan Spawning.ai, "Have I Been Trained?" adında gerçekten havalı bir araç yarattılar. Burada, büyük veri setlerinde arama yapıp sizi kullanıyorlar mı görebilirsiniz. İtiraf ediyorum, merak ettim. İçinde görüntüler ve metinler bulunduran büyük veri seti LAION-5B'yi benim resimlerimi kullanıyor mı görmek için arama yaptım. Orada ilk iki görüntü benim, konuştuğum etkinliklerdeki ben. Ama resimlerin geri kalanı ben değilim. Muhtemelen internete fotoğrafını koyan Sasha adındaki diğer kadınlardan. Ve bu da muhtemelen, sık sık, bir görsel oluşturma modeline Sasha adında bir kadın fotoğrafı oluştur dediğimde bikini modelleri görüntülerini aldığımı açıklayabilir. Bazen iki kolları, bazen de üç kolları olsa da (Kahkahalar) üzerlerinde nadiren kıyafetleri vardır. Bu veri setlerinde arama yapmak sizin benim gibi insanların hoşuna gitse de Karla Ortiz gibi sanatçılar için hayatının çalışmasının, kendi sanatının, yapay zeka modellerinin eğitiminde rızası olmadan kullanıldığına ilişkin önemli kanıt taşıyor. Karla ile iki sanatçı, bunu yapay zeka şirketlerine telif ihlali sebebiyle toplu dava açmada kanıt olarak kullandı. Ve yakın zamanda--
(Applause)
(Alkışlar)
And most recently Spawning.ai partnered up with Hugging Face, the company where I work at, to create opt-in and opt-out mechanisms for creating these data sets. Because artwork created by humans shouldn’t be an all-you-can-eat buffet for training AI language models.
Ve yakın zamanda Spawning.ai, çalıştığım Hugging Face şirketiyle ortaklık kurarak bu veri setlerini yaratırken kullanılacak isteğe bağlı veri paylaşım mekanizmalarını yarattılar. Çünkü insanların yaptığı sanat eserleri, yapay zeka modellerini eğitirken kullanılan açık bir büfe olmamalı.
(Applause)
(Alkışlar)
The very last thing I want to talk about is bias. You probably hear about this a lot. Formally speaking, it's when AI models encode patterns and beliefs that can represent stereotypes or racism and sexism. One of my heroes, Dr. Joy Buolamwini, experienced this firsthand when she realized that AI systems wouldn't even detect her face unless she was wearing a white-colored mask. Digging deeper, she found that common facial recognition systems were vastly worse for women of color compared to white men. And when biased models like this are deployed in law enforcement settings, this can result in false accusations, even wrongful imprisonment, which we've seen happen to multiple people in recent months. For example, Porcha Woodruff was wrongfully accused of carjacking at eight months pregnant because an AI system wrongfully identified her.
Konuşmak istediğim son konu taraflılık. Muhtemelen bunu çok kez duymuşsunuzdur. Tanımı, yapay zeka modellerinin kodlarında basmakalıp veya ırkçılık ile cinsiyetçilik yansıtıcı kalıp ve inançların kullanılmasıdır. Kahramanlarımdan biri olan Dr. Joy Buolamwini, kendi gözleriyle yapay zeka sistemlerinin kendisi beyaz bir maske takmadığı sürece yüzünü tanımadıklarına şahit oldu. Daha derine indiğinde, sıradan yüz tanıma sistemlerinin beyaz erkeklerle kıyasla beyaz olmayan kadınlar için çok daha kötü olduğunu buldu. Ve bunun gibi taraf tutan modeller, yasa uygulama ortamlarında kullanıldığında geçtiğimiz aylarda birçok kişiye olduğu gibi haksız suçlamalara, hatta ve hatta haksız tutuklamalara yol açabilir. Örneğin, sekiz aylık hamile Porcha Woodruff, yapay zeka sistemi onu yanlış bir şekilde tanımladığından araba kaçırmayla suçlandı.
But sadly, these systems are black boxes, and even their creators can't say exactly why they work the way they do. And for example, for image generation systems, if they're used in contexts like generating a forensic sketch based on a description of a perpetrator, they take all those biases and they spit them back out for terms like dangerous criminal, terrorists or gang member, which of course is super dangerous when these tools are deployed in society.
Ama ne yazık ki bu sistemler kara kutular gibilerdir. Yani yaratıcıları bile niye böyle çalıştıklarını bilmiyorlar. Örneğin, görüntü oluşturma sistemleri sanığın tasviri baz alınan robot resim oluşturma bağlamlarında kullanıldığında o taraflılığı tehlikeli bir suçlu, terörist veya çete üyesi tanımlamada kullanıyor ve yansıtıyorlar. Bu araçlar haliyle, toplumda kullanılmaya başlandığı zaman aşırı tehlikelidir.
And so in order to understand these tools better, I created this tool called the Stable Bias Explorer, which lets you explore the bias of image generation models through the lens of professions. So try to picture a scientist in your mind. Don't look at me. What do you see? A lot of the same thing, right? Men in glasses and lab coats. And none of them look like me. And the thing is, is that we looked at all these different image generation models and found a lot of the same thing: significant representation of whiteness and masculinity across all 150 professions that we looked at, even if compared to the real world, the US Labor Bureau of Statistics. These models show lawyers as men, and CEOs as men, almost 100 percent of the time, even though we all know not all of them are white and male.
Ben de bu tarz araçları daha iyi anlamak için Stable Bias Explorer adında bir araç yarattım. Bu araçla görsel oluşturma modellerindeki taraflılığa mesleklerin bakış açısından bakabiliyorsunuz. Bu yüzden zihninizde bir bilim insanı hayal etmeye çalışın. Bana bakmayın. Ne görüyorsunuz? Bir sürü aynı şeyi, değil mi? Gözlüklü ve laboratuvar önlüklü erkekler. Ve hiçbiri bana benzemiyor. Demek istediğim, tüm bu farklı görsel oluşturma modellerine baktık ve hep aynı şeyi bulduk: Baktığımız her 150 meslekte, gerçek dünyayla kıyaslandığında bile, kayda değer beyaz ırk ve erkeklik temsili, ABD işçi istatistikleri bürosu. Bu modeller avukatları ve CEO'ları neredeyse her zaman %100 erkek olarak gösteriyor. Ama tabii ki hepsinin beyaz ve erkek olmadığını biliyoruz.
And sadly, my tool hasn't been used to write legislation yet. But I recently presented it at a UN event about gender bias as an example of how we can make tools for people from all walks of life, even those who don't know how to code, to engage with and better understand AI because we use professions, but you can use any terms that are of interest to you.
Ne yazık ki aracım henüz bir yasa yazmada kullanılmadı. Ama geçenlerde onu bir Birleşmiş Milletler cinsiyet taraflılığı oturumunda her çeşit meslekten insan için araç yapabileceğimizi göstermek için sundum. Böylece kodlamayı bilmeyen insanlar bile meslekleri kullandığımızdan yapay zekayla etkileşime girip onu anlayabilir. Ama tabii ki meslek yerine istediğiniz terimi kullanabilirsiniz.
And as these models are being deployed, are being woven into the very fabric of our societies, our cell phones, our social media feeds, even our justice systems and our economies have AI in them. And it's really important that AI stays accessible so that we know both how it works and when it doesn't work. And there's no single solution for really complex things like bias or copyright or climate change. But by creating tools to measure AI's impact, we can start getting an idea of how bad they are and start addressing them as we go. Start creating guardrails to protect society and the planet. And once we have this information, companies can use it in order to say, OK, we're going to choose this model because it's more sustainable, this model because it respects copyright. Legislators who really need information to write laws, can use these tools to develop new regulation mechanisms or governance for AI as it gets deployed into society. And users like you and me can use this information to choose AI models that we can trust, not to misrepresent us and not to misuse our data.
Ve bu modeller kullanılmaya başlandıkça toplumlarımızın, cep telefonlarımızın ve sosyal medya akışlarımızın kumaşına işliyor. Hatta adalet sistemlerimiz ve ekonomilerimizde bile yapay zeka var. Ve yapay zekanın erişilebilir kalması çok önemlidir çünkü böylece hem nasıl çalıştığını hem de ne zaman çalışmadığını biliriz. Ayrıca taraflılık, telif hakkı ve iklim değişikliği gibi karmaşık şeylerin tek bir çözümü yok. Ancak, yapay zekanın etkisini ölçmek için araçlar yaratalım ki ne kadar kötü olduklarına dair bir fikir edinmeye başlayalım ve ilerledikçe onları ele alalım. Toplumu ve gezegeni korumak için korkuluklar kurmaya başlayalım. Ve o bilgilere sahip olduğumuzda şirketler bunu kullanarak şöyle diyebilir: Tamam, bu modeli seçeceğiz çünkü daha sürdürülebilir ya da şu modeli çünkü telife saygı duyuyor. Yasa yazarken gerçekten bilgilere ihtiyaç duyan yasa koyucular, bu araçları kullanarak yeni yasa mekanizmaları veya topluma girmeye başladıkça yapay zeka denetimi geliştirebilirler. Siz ve ben gibi kullanıcılar da bu bilgiyi kullanarak bizi yanlış temsil etmeyecek ve verilerimizi hor kullanmayacak güvenilir bir yapay modeli seçebiliriz.
But what did I reply to that email that said that my work is going to destroy humanity? I said that focusing on AI's future existential risks is a distraction from its current, very tangible impacts and the work we should be doing right now, or even yesterday, for reducing these impacts. Because yes, AI is moving quickly, but it's not a done deal. We're building the road as we walk it, and we can collectively decide what direction we want to go in together.
Peki, çalışmalarımın insanlığın sonunu getireceğini söyleyen e-postaya ne dedim? Ona, yapay zekanın gelecekteki varoluşsal risklerine odaklanmak şu anki fazlasıyla hissedilir etkilerinden ve bu etkileri azaltmak için şu an, hatta dün yapmamız gereken çalışmalardan bizi saptırır dedim. Çünkü evet, yapay zeka hızlı gelişiyor ama henüz bu iş bitmedi. Bu yolu üzerinde yürürken inşa ediyoruz ve birlikte, beraber hangi yöne gitmek istediğimize karar verebiliriz.
Thank you.
Teşekkür ederim.
(Applause)
(Alkışlar)