My relationship with the internet reminds me of the setup to a clichéd horror movie. You know, the blissfully happy family moves in to their perfect new home, excited about their perfect future, and it's sunny outside and the birds are chirping ... And then it gets dark. And there are noises from the attic. And we realize that that perfect new house isn't so perfect.
İnternetle olan ilişkim bana klişe bir korku filminin kurgusunu hatırlatıyor. Çok mutlu bir aile yeni, mükemmel evlerine taşınır, mükemmel geleeceklerinin heyecanı içindedirler, hava güneşlidir, kuşlar cıvıldaşıyordur... Sonra bir anda karanlık çöker. Tavan arasından sesler gelmeye başlar. Anlarız ki bu yeni mükemel ev, o kadar da mükemmel değildir.
When I started working at Google in 2006, Facebook was just a two-year-old, and Twitter hadn't yet been born. And I was in absolute awe of the internet and all of its promise to make us closer and smarter and more free. But as we were doing the inspiring work of building search engines and video-sharing sites and social networks, criminals, dictators and terrorists were figuring out how to use those same platforms against us. And we didn't have the foresight to stop them. Over the last few years, geopolitical forces have come online to wreak havoc. And in response, Google supported a few colleagues and me to set up a new group called Jigsaw, with a mandate to make people safer from threats like violent extremism, censorship, persecution -- threats that feel very personal to me because I was born in Iran, and I left in the aftermath of a violent revolution. But I've come to realize that even if we had all of the resources of all of the technology companies in the world, we'd still fail if we overlooked one critical ingredient: the human experiences of the victims and perpetrators of those threats.
2006 yılında Google'da işe başladığımda Facebook henüz iki yaşındaydı, Twitter ise henüz doğmamıştı. Bu süreçte internete ve bizi sunduklarına hayrandım: bizi birbirimize yaklaştırmak, daha zeki kılmak ve özgürleştirmek gibi. Biz arama motorları, video paylaşım siteleri ve sosyal ağlar gibi ilham verici şeyler yaptıkça suçlular, diktatörler ve teröristler de aynı şekilde bu platformları nasıl kullanacaklarını öğreniyorlardı. Onları nasl durduracağımıza dair bir planımız yoktu. Son yıllarda jeopolitik güçler zarar vermek adına interneti kullandılar. Bunun üzerine Google, beni ve birkaç meslektaşımı Jigsaw adında yeni bir grup kurmaya teşvik etti, insanları şiddet, sansürcülük ve işkence gibi tehditlere karşı daha güvenilir kılmak için. İran doğumlu olduğum ve şiddet içeren bir devrim sonrası ülkemi terk ettiğimden bu tehditler beni bilhassa etkiliyordu. Fakat anlamaya başladım ki dünyadaki tüm teknoloji kuruluşlarının tüm imkânlarına sahip olsak bile önemli bir etkeni görmezden gelirsek yine başarısız oluruz: mağdurların ve suçluların insani deneyimleri.
There are many challenges I could talk to you about today. I'm going to focus on just two. The first is terrorism. So in order to understand the radicalization process, we met with dozens of former members of violent extremist groups. One was a British schoolgirl, who had been taken off of a plane at London Heathrow as she was trying to make her way to Syria to join ISIS. And she was 13 years old. So I sat down with her and her father, and I said, "Why?" And she said, "I was looking at pictures of what life is like in Syria, and I thought I was going to go and live in the Islamic Disney World." That's what she saw in ISIS. She thought she'd meet and marry a jihadi Brad Pitt and go shopping in the mall all day and live happily ever after.
Bugün size bahsetmek istediğim pek çok zorluk var. Sadece iki tanesine odaklanacağım. Birincisi terörizm. Radikalleşme sürecini anlamak için şiddet yanlısı grupların eski üyelerinden düzinecelerce kişiyle tanıştık. Bir tanesi İngiliz bir kız öğrenciydi. Londra Heathrow havalimanından kalkan bir uçağa binmiş ve IŞİD'e katılabilmek üzere Suriye'ye gitmeyi denemişti. 13 yaşındaydı. O ve babasıyla birlikte oturduğumda ona "Neden?" diye sordum. Şöyle dedi, ''Suriye'deki yaşamın neye benzediğine dair resimlere bakıyordum, sonra düşündüm ki ben de gidip İslami Disney World'de yaşamalıyım.'' IŞİD'e bakınca gördüğü buydu. Orada cihatçı bir Brad Pitt ile evlenip bütün gün alışveriş yaparak mutlu bir hayat süreceğini düşünmüş.
ISIS understands what drives people, and they carefully craft a message for each audience. Just look at how many languages they translate their marketing material into. They make pamphlets, radio shows and videos in not just English and Arabic, but German, Russian, French, Turkish, Kurdish, Hebrew, Mandarin Chinese. I've even seen an ISIS-produced video in sign language. Just think about that for a second: ISIS took the time and made the effort to ensure their message is reaching the deaf and hard of hearing. It's actually not tech-savviness that is the reason why ISIS wins hearts and minds. It's their insight into the prejudices, the vulnerabilities, the desires of the people they're trying to reach that does that. That's why it's not enough for the online platforms to focus on removing recruiting material. If we want to have a shot at building meaningful technology that's going to counter radicalization, we have to start with the human journey at its core.
IŞİD insanların nasıl yönlendirilebileceğini iyi biliyor, onları takip edenlere dikkatlice bir mesaj gönderiyorlar. Pazarlama materyallerini kaç dile çevirdiklerine bir bakın. Broşürler, radyo programları ve videolar yapıyorlar, sadece İngilizce ve Arapça da değil, Almanca, Rusça, Fransızca, Türkçe, Kürtçe, İbranice, Mandarin. Hatta işaret dili ile hazırlanmış bir videolarını bile gördüm. Sadece bir saniye düşünün. IŞİD mesajının iletimini sağlamak için işitme engelliler için bile zaman ve çaba sarf ediyor. IŞİD'in insanların aklını çelmesinin sebebi yalnızca teknoloji ustalığı değil. Ulaşmaya çalıştıkları insanların önyargı, zayıflık ve tutkularına anlayışla bakmaları. Bu yüzden de internet platformlarında onların mürit bulma materyallerini silmeye odaklanmak yeterli değil. Eğer biz de anlamlı bir teknoloji kurma gücüne sahip olmak istiyorsak biz de karşı radikalleşmeye gitmeliyiz, bunun için insanoğlu yolculuğunun merkezine inmek zorundayız.
So we went to Iraq to speak to young men who'd bought into ISIS's promise of heroism and righteousness, who'd taken up arms to fight for them and then who'd defected after they witnessed the brutality of ISIS's rule. And I'm sitting there in this makeshift prison in the north of Iraq with this 23-year-old who had actually trained as a suicide bomber before defecting. And he says, "I arrived in Syria full of hope, and immediately, I had two of my prized possessions confiscated: my passport and my mobile phone." The symbols of his physical and digital liberty were taken away from him on arrival. And then this is the way he described that moment of loss to me. He said, "You know in 'Tom and Jerry,' when Jerry wants to escape, and then Tom locks the door and swallows the key and you see it bulging out of his throat as it travels down?" And of course, I really could see the image that he was describing, and I really did connect with the feeling that he was trying to convey, which was one of doom, when you know there's no way out.
Nitekim Irak'a gittik, IŞİD'e kahramanlık ve dürüstlük sözü vermiş, savaşmak için ordularında yer almış, sonra onların vahşiliklerine şahit olunca onlardan kaçmış genç erkeklerle konuşmak istiyorduk. Burada, kaçmadan önce intihar bombacısı olarak eğitilmiş 23 yaşında biriyle Irak'ın kuzeyinde derme çatma bir hapishanede oturuyorum. Ve o diyor ki "Suriye'ye umut dolu bir şekilde vardım. Fakat bir anda iki değerli eşyama el konuldu: pasaportum ve cep telefonum." Fiziksel ve dijital özgürlüğünün sembolleri varır varmaz elinden alınmıştı. O kayıp anını bana şöyle tarif etti. Şöyle dedi: "Tom ve Jerry'yi biliyorsundur, Jerry kaçmak ister ama Tom kapıyı kilitler ve anahtarı yutar, biz de anahtarın onun boğazından geçişini görürüz ya?'' Tarif ettiği şeyi gerçekten de görebiliyordum, iletmeyi denediği hisleriyle bağlantı kurabiliyordum, bu bir felaket hissiydi, hiçbir çıkış yolunuz olmadığını bildiğiniz an.
And I was wondering: What, if anything, could have changed his mind the day that he left home? So I asked, "If you knew everything that you know now about the suffering and the corruption, the brutality -- that day you left home, would you still have gone?" And he said, "Yes." And I thought, "Holy crap, he said 'Yes.'" And then he said, "At that point, I was so brainwashed, I wasn't taking in any contradictory information. I couldn't have been swayed."
Şunu merak ediyordum: Acaba evden ayrıldığı zamanki düşünceleri değişmiş olabilir miydi? Ona sordum, "Eğer evinden ayrılmadan önce bu işkence, yolsuzluk ve vahşet hakkında her şeyi biliyor olsaydın yine de gider miydin?" "Evet" dedi. "Vay be, evet dedi." diye düşündüm. Sonra dedi ki: ''O zaman o kadar beynim yıkanmıştı ki kafamdakilerle çelişen hiçbir bilgiyi kabul etmiyordum. O durumdan geri dönemezdim.''
"Well, what if you knew everything that you know now six months before the day that you left?"
"Peki ya şu an bildiğin her şeyi altı ay önce evden ayrıldığın gün de bilseydin?"
"At that point, I think it probably would have changed my mind."
"O zaman sanırım fikirlerim muhtemelen değişmiş olurdu."
Radicalization isn't this yes-or-no choice. It's a process, during which people have questions -- about ideology, religion, the living conditions. And they're coming online for answers, which is an opportunity to reach them. And there are videos online from people who have answers -- defectors, for example, telling the story of their journey into and out of violence; stories like the one from that man I met in the Iraqi prison. There are locals who've uploaded cell phone footage of what life is really like in the caliphate under ISIS's rule. There are clerics who are sharing peaceful interpretations of Islam. But you know what? These people don't generally have the marketing prowess of ISIS. They risk their lives to speak up and confront terrorist propaganda, and then they tragically don't reach the people who most need to hear from them. And we wanted to see if technology could change that.
Radikalleşme, evet veya hayır diye bir seçenek değil. Bu, insanların ideolojilerini, dinlerini ve yaşadıkları ortamı sorguladıkları bir süreç. İnterneti ise cevaplarına erişebilecekleri bir fırsat olarak görüyorlar. İnternette bu cevapları içeren videolar var. Örneğin sığınmacılar şiddetle iç içe geçen yolculuklarının hikâyesini anlatıyor; Irak hapishanesinde böyle bir hikâyesi olan biriyle tanıştım. IŞİD halifeliği altında hayatın nasıl olduğunu gösteren cep telefonu görüntülerini internete yükleyen yerliler var. İslam'ın barış dolu olduğunu gösteren din adamları var. Ama asıl sorun şu, Bu insanlar IŞİD'in uyguladığı pazarlama yetisine sahip değiller. Seslerini duyurup terörle yüzleşmek için hayatlarını riske atıyorlar, ancak üzücü bir şekilde en çok ihtiyaç duyanlara seslerini duyuramıyorlar. Biz de teknoloji bunu değiştirebilir mi diye görmek istedik.
So in 2016, we partnered with Moonshot CVE to pilot a new approach to countering radicalization called the "Redirect Method." It uses the power of online advertising to bridge the gap between those susceptible to ISIS's messaging and those credible voices that are debunking that messaging. And it works like this: someone looking for extremist material -- say they search for "How do I join ISIS?" -- will see an ad appear that invites them to watch a YouTube video of a cleric, of a defector -- someone who has an authentic answer. And that targeting is based not on a profile of who they are, but of determining something that's directly relevant to their query or question.
Böylece 2016'da Moonshot CVE ile birlikte ortaklık kurup ''Yeniden Yönlendirme Metodu'' adında ve radikalleşmeye karşı koyacak yeni bir yaklaşıma öncülük ettik. Bu yaklaşım internet reklamcılığı gücünü kullanarak bu örgütün mesajlarına inanabilecek insanlar ve bu mesajları alaşağı edecek güvenilir kişiler arasındaki açığı kapatıyor. Şu şekilde çalışıyor: Örneğin birisi fanatik bir materyal arıyor ''IŞİD'e nasıl katılırım?'' diye arama yapıyorlar, bir reklam belirecek ve onları bir din insanı veya aralarından ayrılmış birinin YouTube videosuna yönlendirecek. Konuya dair özgün bir cevabı olan birine. Bu hedefleme kişinin kimliğine ilişkin olmayacak, tamamen yaptığı arama veya sorduğu soruya göre belirlenecek.
During our eight-week pilot in English and Arabic, we reached over 300,000 people who had expressed an interest in or sympathy towards a jihadi group. These people were now watching videos that could prevent them from making devastating choices. And because violent extremism isn't confined to any one language, religion or ideology, the Redirect Method is now being deployed globally to protect people being courted online by violent ideologues, whether they're Islamists, white supremacists or other violent extremists, with the goal of giving them the chance to hear from someone on the other side of that journey; to give them the chance to choose a different path.
İngilizce ve Arapça sekiz hafta süren denememizde, 300.000 insana ulaştık, hepsi cihadist bir gruba ilgi ve sempati duyuyorlardı. Artık bu insanlar çok yıkıcı bir karar vermekten kendilerini alıkoyacak videolar izliyorlardı. Şiddet yalnızca tek bir dile, dine ve ideolojiye bağlı olmadığından Yeniden Yönlendirme Yöntemi küresel çapta uygulamaya sokularak gerek islamist, beyaz ırkçı veya başka bir tür şiddet yanlısı olsun herkesin bu şiddet içeriklerinden internette korunmasını sağlıyor ve onlara bu yolculuğun diğer tarafından birinden işin özünü dinleme şansı sunuyor; başka bir yol izleme şansı.
It turns out that often the bad guys are good at exploiting the internet, not because they're some kind of technological geniuses, but because they understand what makes people tick. I want to give you a second example: online harassment. Online harassers also work to figure out what will resonate with another human being. But not to recruit them like ISIS does, but to cause them pain. Imagine this: you're a woman, you're married, you have a kid. You post something on social media, and in a reply, you're told that you'll be raped, that your son will be watching, details of when and where. In fact, your home address is put online for everyone to see. That feels like a pretty real threat. Do you think you'd go home? Do you think you'd continue doing the thing that you were doing? Would you continue doing that thing that's irritating your attacker?
Genellikle kötü insanların interneti kullanmada iyi olduğunu görürüz, teknoloji dâhisi oldukları için değil, insanları neyin teşvik ettiğini bildikleri için. Size ikinci bir örnek vermek istiyorum: internet tacizi. İnternet tacizcileri başka bir insana neyin anlamlı geldiğini anlamaya çalışıyorlar. Ama onları o örgüt gibi yanına almıyor, onlara acı veriyor. Şunu bir düşünün: Bir kadınsınız, evlisiniz ve çocuğunuz var. Sosyal medyada bir şey paylaşıyorsunuz, yanıtlardan birinde tecavüze uğrayacağınız yazıyor, oğlunuzun izleyeceği ve hatta yeri ve zamanı. Üstüne ev adresiniz herkesin göreceği şekilde internete konuluyor. Gerçek bir tehdit gibi hissedersiniz. Eve gider miydiniz? Yaptığınız şeyi yapmaya devam eder miydiniz? Saldırganı kızdıracak o şeyi yapmaya devam eder miydiniz?
Online abuse has been this perverse art of figuring out what makes people angry, what makes people afraid, what makes people insecure, and then pushing those pressure points until they're silenced. When online harassment goes unchecked, free speech is stifled. And even the people hosting the conversation throw up their arms and call it quits, closing their comment sections and their forums altogether. That means we're actually losing spaces online to meet and exchange ideas. And where online spaces remain, we descend into echo chambers with people who think just like us. But that enables the spread of disinformation; that facilitates polarization. What if technology instead could enable empathy at scale?
Çünkü internet tacizi insanları kızdıran şeyi anlamaya yönelik sapkın bir sanat, onları korkutan, kendilerine olan güveni sarsan ve susturulana kadar tüm diğer zayıf noktalarına baskı uygulayan. İnternet tacizi kontrol edilmedikçe özgür konuşma bastırılıyor. Hatta konuşmayı başlatan insanlar bile ellerini havaya kaldırıp teslim oluyor, yorum kısmını ve forumlarını kapatıyorlar. Bu da şu demek oluyor ki fikir alışverişi için internette ortam kaybediyoruz. İnternet ortamlarının olduğu yerlerde de bizimle tamamen aynı düşünen insanlarla birlikte sadece kendimizi dinliyoruz. Bu da yanlış bilginin yayılmasına sebep oluyor; kutuplaşmaya sebep oluyor. Bunun yerine teknoloji empati duygusunu ölçeklendirse daha iyi olmaz mı?
This was the question that motivated our partnership with Google's Counter Abuse team, Wikipedia and newspapers like the New York Times. We wanted to see if we could build machine-learning models that could understand the emotional impact of language. Could we predict which comments were likely to make someone else leave the online conversation? And that's no mean feat. That's no trivial accomplishment for AI to be able to do something like that. I mean, just consider these two examples of messages that could have been sent to me last week. "Break a leg at TED!" ... and "I'll break your legs at TED."
Bu soru Google'ın Taciz Karşıtı ekibi, Wikipedia ve New York Times gibi gazetelerle işbirliği yapmamızı sağladı. Dilin duygusal etkisini anlayabilecek makine öğrenimli modeller yapabileceğimizi görmek istedik. Hangi yorumların bir başkasının o sohbeti terk etmesine neden olduğunu öngörebilir miydik? Bu küçük bir şey değil. Yapay zekânın böyle bir şeyi yapabileceğine dair herhangi bir çalışma yok. Bana geçen hafta gönderilebilecek şu iki mesaj örneğini ele alalım. ''TED'de şeytanın bacağını kır!'' ve... ''TED'de şeytan bacağını kırsın.''
(Laughter)
(Kahkahalar)
You are human, that's why that's an obvious difference to you, even though the words are pretty much the same. But for AI, it takes some training to teach the models to recognize that difference. The beauty of building AI that can tell the difference is that AI can then scale to the size of the online toxicity phenomenon, and that was our goal in building our technology called Perspective. With the help of Perspective, the New York Times, for example, has increased spaces online for conversation. Before our collaboration, they only had comments enabled on just 10 percent of their articles. With the help of machine learning, they have that number up to 30 percent. So they've tripled it, and we're still just getting started.
Bizler insanız, o yüzden biz bariz farkı görüyoruz, kelimeler aşağı yukarı aynı olsa da. Ama yapay zekânın bu farkı anlaması için ona bazı modellerin öğretilmesi gerekiyor. Fark anlayabilen yapay zekâ yapmanın güzel yanı yapay zekânın internetteki tüm kötü niyetli yorumlara ölçeklenebilir olması ve Perspective adındaki teknolojimizi geliştirirken de amacımız buydu. Perspective'in de yardımıyla New York Times gazetesi, örneğin, internet sohbetleri için daha fazla yer ayırabiliyor. İşbirliğimizden önce, çıkan haberlerin yalnızca yüzde onu için yer ayırabiliyorlardı. Makine öğrenimi yardımıyla bu rakamı yüzde 30 yaptılar. Yani üçe katladılar ve biz daha yeni başladık.
But this is about way more than just making moderators more efficient. Right now I can see you, and I can gauge how what I'm saying is landing with you. You don't have that opportunity online. Imagine if machine learning could give commenters, as they're typing, real-time feedback about how their words might land, just like facial expressions do in a face-to-face conversation. Machine learning isn't perfect, and it still makes plenty of mistakes. But if we can build technology that understands the emotional impact of language, we can build empathy. That means that we can have dialogue between people with different politics, different worldviews, different values. And we can reinvigorate the spaces online that most of us have given up on.
Ancak bu konu moderatörleri daha etkili kılmaktan çok daha öte. Şu an sizi görebiliyorum, ve söylediklerimin sizde bıraktığı etkiyi sezebiliyorum. İnternette böyle bir fırsatınız yok. Makine öğreniminin, daha insanlar yorum yazarken onlara geri bildirimde bulunarak sözlerinin nereye varabileceğini açıkladığını düşünün, yüz yüze bir konuşmada mimiklerimizin yaptığı gibi. Makine öğrenimi mükemmel değil, hâlâ pek çok hata yapıyor. Ama dilin duygusal etkisini anlayabilen bir teknoloji geliştirirsek empati de geliştirebiliriz. Bu farklı düşünen insanların diyalog kurması demek; farklı politik görüş, farklı dünya görüşü ve farklı değerlere sahip insanların. Böylelikle vazgeçtiğimiz internet ortamlarını yeniden işler kılabiliriz.
When people use technology to exploit and harm others, they're preying on our human fears and vulnerabilities. If we ever thought that we could build an internet insulated from the dark side of humanity, we were wrong. If we want today to build technology that can overcome the challenges that we face, we have to throw our entire selves into understanding the issues and into building solutions that are as human as the problems they aim to solve. Let's make that happen.
İnsanlar teknolojiyi zarar amaçlı kullandığında insanların korku ve zayıflıklarını avlıyorlar. İnsanoğlunun karanlık yanından etkilenmeyen bir internet yaratabileceğimizi sandıysak yanıldık. Bugün bizim karşılaştığımız zorlukları aşabilecek bir internet yaratmak istiyorsak en az çözmeye çalıştığımız sorunlar kadar insani çözümler üretmek için tüm benliğimizi ortaya koymalıyız. Bunu başaralım.
Thank you.
Teşekkürler.
(Applause)
(Alkışlar)