No matter who you are or where you live, I'm guessing that you have at least one relative that likes to forward those emails. You know the ones I'm talking about -- the ones with dubious claims or conspiracy videos. And you've probably already muted them on Facebook for sharing social posts like this one.
Mindegy, ki ön és hol él, biztos, hogy van legalább egy olyan ismerőse, akitől időnként megkapja ezeket az üzeneteket. Tudják, melyekről beszélek. Amik gyanús állításokat, összeesküvés-elméleteket tartalmaznak. Valószínűleg már blokkolta is őket a Facebookon, mert ilyesmiket posztoltak.
It's an image of a banana with a strange red cross running through the center. And the text around it is warning people not to eat fruits that look like this, suggesting they've been injected with blood contaminated with the HIV virus. And the social share message above it simply says, "Please forward to save lives." Now, fact-checkers have been debunking this one for years, but it's one of those rumors that just won't die. A zombie rumor. And, of course, it's entirely false.
Ez a kép egy banánt ábrázol, furcsa vörös kereszttel a közepén. A hozzá tartozó szöveg arra figyelmeztet, hogy ne együnk olyan gyümölcsöt, ami így néz ki, mert vért fecskendezhettek bele, méghozzá HIV-vírussal fertőzöttet. Legfelül pedig az üzenet egyszerűen ennyi: "Továbbítsa, és életet ment!" Tényellenőrzők már évek óta cáfolják ezt a posztot, de a szóbeszéd mégis makacsul tovább él. Zombi szóbeszéd. És persze valótlanság az egész.
It might be tempting to laugh at an example like this, to say, "Well, who would believe this, anyway?" But the reason it's a zombie rumor is because it taps into people's deepest fears about their own safety and that of the people they love. And if you spend as enough time as I have looking at misinformation, you know that this is just one example of many that taps into people's deepest fears and vulnerabilities.
Hajlamosak vagyunk rálegyinteni egy ilyen példára: "Ugyan már, ki dől be ennek?" De a zombi szóbeszéd pont azért nem hal ki, mert az emberek legmélyebb félelmeire játszik rá saját maguk és szeretteik biztonságával kapcsolatban. Ha önök is ugyanannyit tanulmányozzák a tévinformációkat, mint én, akkor tudják, hogy ez csupán egy példa a sok közül, mely az emberek félelmeire, sebezhetőségére épít.
Every day, across the world, we see scores of new memes on Instagram encouraging parents not to vaccinate their children. We see new videos on YouTube explaining that climate change is a hoax. And across all platforms, we see endless posts designed to demonize others on the basis of their race, religion or sexuality.
Világszerte naponta újabb és újabb mémek bukkannak fel az Instagramon, melyek arra buzdítanak, hogy ne oltassuk be gyerekünket. YouTube-videókban elmagyarázzák, hogy a klímaváltozás merő kitaláció. És bárhova nézünk, posztok tömkelege heccel mások ellen faji, vallási vagy szexuális alapon.
Welcome to one of the central challenges of our time. How can we maintain an internet with freedom of expression at the core, while also ensuring that the content that's being disseminated doesn't cause irreparable harms to our democracies, our communities and to our physical and mental well-being? Because we live in the information age, yet the central currency upon which we all depend -- information -- is no longer deemed entirely trustworthy and, at times, can appear downright dangerous. This is thanks in part to the runaway growth of social sharing platforms that allow us to scroll through, where lies and facts sit side by side, but with none of the traditional signals of trustworthiness.
Hadd mutassam be önöknek korunk egyik legnagyobb kihívását! Hogyan tartsuk meg az internetet a szólásszabadság színhelyének, miközben azt is biztosítjuk, hogy az ott terjedő tartalmak nem okoznak jóvátehetetlen károkat demokráciáinkban, közösségeinkben, fizikai és mentális egészségünkben? Információs korban élünk, ám a legfontosabb valuta, melytől mind függünk – vagyis az információ –, kezd megbízhatatlanná válni, sőt, időnként kifejezetten veszélyesnek tűnik. Ez részben a közösségi platformok rohamos terjedésének köszönhető, amelyeket lapozgatva egymás mellett jelennek meg tények és hazugságok, bármiféle megkülönböztető jelzés nélkül.
And goodness -- our language around this is horribly muddled. People are still obsessed with the phrase "fake news," despite the fact that it's extraordinarily unhelpful and used to describe a number of things that are actually very different: lies, rumors, hoaxes, conspiracies, propaganda. And I really wish we could stop using a phrase that's been co-opted by politicians right around the world, from the left and the right, used as a weapon to attack a free and independent press.
És Istenem, az ezzel kapcsolatos szóhasználatunk is mennyire zűrzavaros! Imádjuk az "álhír" kifejezést, annak ellenére, hogy rendkívül félrevezető! Mégis számos jelenségre ráhúzzuk, amelyek valójában mást jelentenek: a hazugságra, a pletykára, a kitalációra, az összeesküvésre, a propagandára. Bárcsak ne használnánk többé olyan kifejezést, melyet a politikusok világszerte magukévá tettek pártállástól függetlenül, hogy segítségével a szabad és független sajtót támadják.
(Applause)
(Taps)
Because we need our professional news media now more than ever. And besides, most of this content doesn't even masquerade as news. It's memes, videos, social posts. And most of it is not fake; it's misleading. We tend to fixate on what's true or false. But the biggest concern is actually the weaponization of context. Because the most effective disinformation has always been that which has a kernel of truth to it.
Szakértő sajtóra van szükségünk, most jobban, mint eddig bármikor. Ezek a tartalmak egyébként még csak nem is hasonlítanak hírekre. Ezek mémek, videók, közösségi posztok. És legtöbbjük nem "ál", hanem félrevezetés. Hajlamosak vagyunk arra koncentrálni, hogy mi igaz és mi hamis. De ennél aggasztóbb az, hogy e posztok fegyverként használhatók. A leghatékonyabb tévinformáció ugyanis az, aminek van némi igazságtartalma.
Let's take this example from London, from March 2017, a tweet that circulated widely in the aftermath of a terrorist incident on Westminster Bridge. This is a genuine image, not fake. The woman who appears in the photograph was interviewed afterwards, and she explained that she was utterly traumatized. She was on the phone to a loved one, and she wasn't looking at the victim out of respect. But it still was circulated widely with this Islamophobic framing, with multiple hashtags, including: #BanIslam. Now, if you worked at Twitter, what would you do? Would you take that down, or would you leave it up? My gut reaction, my emotional reaction, is to take this down. I hate the framing of this image. But freedom of expression is a human right, and if we start taking down speech that makes us feel uncomfortable, we're in trouble.
Nézzük példaként ezt a tweetet Londonból 2017 márciusából, a Westminster-hídon történt terrorista támadás utánról. Ez eredeti fotó, nem hamisítvány. A képen szereplő nőt később meginterjúvolták, és elmagyarázta, hogy nagyon megrázták az események. Éppen egy szerettével beszélt telefonon, és hogy tiszteletből nem figyelt az áldozatra. Mégis elterjedt az interneten a fotó, mégpedig iszlámellenes feliratokkal, olyan hashtagekkel, mint pl. #BanIslam. Ha ön a Twitter munkatársa lenne, mit tenne? Levenné az oldalról, vagy fent hagyná? Az én ösztönös, érzelmi reakcióm az lenne: vegyük le. Nem tetszik a körítése. De a szólásszabadság alapvető emberi jog, és ha minden, számunkra kényelmetlen szöveget letörlünk, akkor nagy a gond.
And this might look like a clear-cut case, but, actually, most speech isn't. These lines are incredibly difficult to draw. What's a well-meaning decision by one person is outright censorship to the next. What we now know is that this account, Texas Lone Star, was part of a wider Russian disinformation campaign, one that has since been taken down. Would that change your view? It would mine, because now it's a case of a coordinated campaign to sow discord. And for those of you who'd like to think that artificial intelligence will solve all of our problems, I think we can agree that we're a long way away from AI that's able to make sense of posts like this.
Ez egyértelmű ügynek tűnik, de a legtöbb poszt nem az. Hihetetlenül nehéz meghúzni a határvonalat: amit egyikünk jószándékú döntésnek tart, az más számára egyértelmű cenzúrázás. Már tudjuk, hogy ez a felhasználói fiók, a Texas Lone Star, egy orosz, tévinformációkat terjesztő kampány része volt, közben már törölték. Ettől megváltozna a véleménye? Az enyém biztosan, hiszen most már szervezett kampányról beszélünk, amivel viszályt akarnak kelteni. Azoknak üzenem, akik azt hiszik, hogy a mesterséges intelligencia majd megoldja minden problémánkat: azt hiszem, egyetérthetünk, hogy hosszú még az út, amíg az MI értelmezni tudja az ilyen posztokat.
So I'd like to explain three interlocking issues that make this so complex and then think about some ways we can consider these challenges. First, we just don't have a rational relationship to information, we have an emotional one. It's just not true that more facts will make everything OK, because the algorithms that determine what content we see, well, they're designed to reward our emotional responses. And when we're fearful, oversimplified narratives, conspiratorial explanations and language that demonizes others is far more effective. And besides, many of these companies, their business model is attached to attention, which means these algorithms will always be skewed towards emotion.
Hadd fejtsek ki itt három összetartozó gondolatot, amik miatt a helyzet olyan bonyolult, aztán pedig lássuk, hogyan nézhetünk szembe ezekkel a kihívásokkal. Először is: sosem észérvek alapján közelítünk egy információhoz, hanem érzelmi alapon. Nem igaz, hogy a tények mindent a helyükre tesznek, mert az algoritmusok, melyek meghatározzák, mit látunk, úgy vannak beállítva, hogy érzelmi reakcióinkat jutalmazzák. Ha éppen félünk, a lebutított történetek, az összeesküvés-elméletek, és a gyűlöletbeszéd óriási hatást gyakorol ránk. Ezenkívül e cégek üzleti modellje a figyelemfelkeltésen alapul, ezek az algoritmusok tehát mindig az érzelmekre fognak építeni.
Second, most of the speech I'm talking about here is legal. It would be a different matter if I was talking about child sexual abuse imagery or content that incites violence. It can be perfectly legal to post an outright lie. But people keep talking about taking down "problematic" or "harmful" content, but with no clear definition of what they mean by that, including Mark Zuckerberg, who recently called for global regulation to moderate speech. And my concern is that we're seeing governments right around the world rolling out hasty policy decisions that might actually trigger much more serious consequences when it comes to our speech. And even if we could decide which speech to take up or take down, we've never had so much speech. Every second, millions of pieces of content are uploaded by people right around the world in different languages, drawing on thousands of different cultural contexts. We've simply never had effective mechanisms to moderate speech at this scale, whether powered by humans or by technology.
Másodszor: e tartalmak többsége nem törvényellenes. Más lenne a helyzet, ha gyerekek szexuális bántalmazását jelenítenék meg, vagy ha erőszakra bujtanának. Teljesen törvényes az, ha valaki hazugságot posztol. Sokat beszélünk a "problémás", "káros" tartalmak törléséről, anélkül, hogy meghatároznánk, mit értünk ez alatt. Mark Zuckerberg például nemrégiben az internetes tartalmak világszintű szabályozására hívott fel. Ez azért aggályos, mert láthatjuk, hogy a kormányok világszerte elhamarkodott, stratégiai alapú döntéseket hoznak ez ügyben, ami viszont súlyos következményekhez vezet az internetes tartalmakat illetően. Ha el is tudnánk dönteni, mit jelentessünk meg és mit töröljünk, még sosem volt dolgunk ekkora mennyiségű tartalommal. Másodpercenként több milliónyi új poszt jelenik meg szerte a világon, különböző nyelveken, különböző kulturális közegekben. Egyszerűen nem létezik hatékony módszerünk arra, amivel ilyen mennyiségű tartalmat moderáljunk, akár emberi erőforrások, akár a technológia segítségével.
And third, these companies -- Google, Twitter, Facebook, WhatsApp -- they're part of a wider information ecosystem. We like to lay all the blame at their feet, but the truth is, the mass media and elected officials can also play an equal role in amplifying rumors and conspiracies when they want to. As can we, when we mindlessly forward divisive or misleading content without trying. We're adding to the pollution.
Harmadszor: e cégek – a Google, a Twitter, a Facebook, a WhatsApp – egy tágabb információs ökoszisztéma részei. Csábító mindig őket hibáztatni, de az az igazság, hogy a tömegkommunikáció és választott képviselőink pont ugyanígy tudnak terjeszteni tévinformációkat, ha akarnak. Ahogy mi magunk is, amikor gondolkozás nélkül továbbítunk félrevezető, viszályt keltő posztokat. Mi is növeljük az információ-szennyeződést.
I know we're all looking for an easy fix. But there just isn't one. Any solution will have to be rolled out at a massive scale, internet scale, and yes, the platforms, they're used to operating at that level. But can and should we allow them to fix these problems? They're certainly trying. But most of us would agree that, actually, we don't want global corporations to be the guardians of truth and fairness online. And I also think the platforms would agree with that. And at the moment, they're marking their own homework. They like to tell us that the interventions they're rolling out are working, but because they write their own transparency reports, there's no way for us to independently verify what's actually happening.
Tudom, hogy jó lenne ezt egyszerűen megoldani. De nem létezik egyszerű megoldás. A megoldásnak nagyszabásúnak kell lennie, az egész internetre kiterjedőnek, és igen, e platformok valóban ezen a szinten dolgoznak. De vajon rájuk bízhatjuk e problémák megoldását? Próbálnak ők tökéletesedni, ez igaz. Mégis legtöbben úgy véljük, ne világcégek döntsenek az igazság és méltányosság kérdéseiről a világhálón. És azt hiszem, ebben e platformok is egyetértenének velünk. Jelenleg amúgy is a saját házi feladatukkal vannak elfoglalva. Bár azt hangoztatják, az általuk kidolgozott intervenciós eljárások működnek, mégis lehetetlen ezeket az állításokat független módon megerősíteni, hiszen ők maguk írják saját átláthatósági jelentéseiket.
(Applause)
(Taps)
And let's also be clear that most of the changes we see only happen after journalists undertake an investigation and find evidence of bias or content that breaks their community guidelines. So yes, these companies have to play a really important role in this process, but they can't control it.
És szögezzük le, hogy a legtöbb változtatás akkor történik, miután újságírók oknyomozásba kezdenek, és rámutatnak olyan torzulásokra és tartalmakra, melyek szemben állnak a közösségi irányelvekkel. Igen, e cégeknek fontos szerep jut ebben a folyamatban, de nem kell, hogy ők végezzék az ellenőrzést.
So what about governments? Many people believe that global regulation is our last hope in terms of cleaning up our information ecosystem. But what I see are lawmakers who are struggling to keep up to date with the rapid changes in technology. And worse, they're working in the dark, because they don't have access to data to understand what's happening on these platforms. And anyway, which governments would we trust to do this? We need a global response, not a national one.
És mi a helyzet a kormányokkal? Sokan hiszik, hogy a világszintű szabályozás az utolsó reményünk információs környezetünk megtisztítása érdekében. De én csak törvényhozókat látok, akik megpróbálnak lépést tartani a gyors technológiai fejlődéssel. És ami még rosszabb, hogy sötétben tapogatóznak, hisz nem férnek hozzá olyan adatokhoz, amelyek segítségével megértenék, mi történik e platformokon. És különben is: melyik kormányra bíznánk rá e munkát? Világszinten kell cselekednünk, nem nemzeti szinten.
So the missing link is us. It's those people who use these technologies every day. Can we design a new infrastructure to support quality information? Well, I believe we can, and I've got a few ideas about what we might be able to actually do. So firstly, if we're serious about bringing the public into this, can we take some inspiration from Wikipedia? They've shown us what's possible. Yes, it's not perfect, but they've demonstrated that with the right structures, with a global outlook and lots and lots of transparency, you can build something that will earn the trust of most people. Because we have to find a way to tap into the collective wisdom and experience of all users. This is particularly the case for women, people of color and underrepresented groups. Because guess what? They are experts when it comes to hate and disinformation, because they have been the targets of these campaigns for so long. And over the years, they've been raising flags, and they haven't been listened to. This has got to change. So could we build a Wikipedia for trust? Could we find a way that users can actually provide insights? They could offer insights around difficult content-moderation decisions. They could provide feedback when platforms decide they want to roll out new changes.
A hiányzó láncszem tehát mi magunk vagyunk. Azok az emberek, akik naponta használják e technológiát. Létrehozható olyan infrastruktúra, mely a minőségi információkat támogatja? Én azt hiszem, igen, és van is néhány ötletem, mit tehetnénk ez ügyben. Először is: ha valóban be akarjuk vonni a nyilvánosságot, forduljunk inspirációért a Wikipédiához. Ott látjuk, mi minden lehetséges. Nem tökéletes, ez igaz. De itt bebizonyosodott, hogy megfelelő struktúrával, átfogó szemlélettel és átláthatósággal olyasmit alkothatunk, ami kivívja legtöbbünk bizalmát. Meg kell találnunk az utat a felhasználók kollektív tudásához és tapasztalatához. Különösen igaz ez a nők, a színes bőrűek és a kisebbségek esetére. Tudják, miért? Mert ha gyűlöletkeltésről és tévinformációkról van szó, ők a szakértők, hiszen volt ebben részük bőven. És bár évek óta próbálják felhívni a figyelmet a problémára, mégsem hallgat rájuk senki. Ennek meg kell változnia. Ki tudunk tehát építeni egy Wikipédiát, amiben mindenki megbízik? Melyben a felhasználók véleménye is kifejezésre jut? E vélemények befolyásolhatnák a nehéz moderálási döntéseket. Visszajelzéseket adhatnának, mikor változásokat vezet be egy-egy platform.
Second, people's experiences with the information is personalized. My Facebook news feed is very different to yours. Your YouTube recommendations are very different to mine. That makes it impossible for us to actually examine what information people are seeing. So could we imagine developing some kind of centralized open repository for anonymized data, with privacy and ethical concerns built in? Because imagine what we would learn if we built out a global network of concerned citizens who wanted to donate their social data to science. Because we actually know very little about the long-term consequences of hate and disinformation on people's attitudes and behaviors. And what we do know, most of that has been carried out in the US, despite the fact that this is a global problem. We need to work on that, too.
Másodszor: az információkkal kapcsolatos élményünk egyedi. Az én Facebook hírfolyamom nagyon más, mint az önöké. Az önök YouTube videóajánlatai mások, mint az enyémek. Ezért gyakorlatilag lehetetlen megvizsgálni, ki milyen információt lát. El tudnánk tehát képzelni egy anonimizált adatokat tartalmazó központi, nyílt adatbázis kiépítését, mely adatvédelmi és etikai alapelveket is figyelembe vesz? Gondolják csak el, mennyi mindent tanulhatnánk abból, ha világszerte összefognának a felelős állampolgárok, és közösségi adataikat hozzáférhetővé tennék tudományos célokra. Mert igaziból nagyon keveset tudunk a gyűlölködés és a tévinformációk hosszú távú, az attitűdöt és viselkedést befolyásoló hatásairól. És amit tudunk róla, az is mind az Egyesült Államokban szerzett adatokon alapul, pedig a probléma világjelenség. Ezen is dolgoznunk kell.
And third, can we find a way to connect the dots? No one sector, let alone nonprofit, start-up or government, is going to solve this. But there are very smart people right around the world working on these challenges, from newsrooms, civil society, academia, activist groups. And you can see some of them here. Some are building out indicators of content credibility. Others are fact-checking, so that false claims, videos and images can be down-ranked by the platforms.
És harmadszor: vajon össze tudnánk kötni a pontokat? Egyetlen szektor, de még nonprofit, start-up szervezet vagy kormány sem fogja ezt megoldani. De szerte a világban okos emberek ezen dolgoznak, hírszerkesztőségekben, civil szervezetekben, az egyetemi életben. Néhányukat itt láthatják. Vannak, akik a tartalmak hitelességének mutatóit kutatják. Mások a tartalmak megbízhatóságát ellenőrzik, így a hamis tartalmak lejjebb kerülnek a hírfolyamban.
A nonprofit I helped to found, First Draft, is working with normally competitive newsrooms around the world to help them build out investigative, collaborative programs. And Danny Hillis, a software architect, is designing a new system called The Underlay, which will be a record of all public statements of fact connected to their sources, so that people and algorithms can better judge what is credible. And educators around the world are testing different techniques for finding ways to make people critical of the content they consume. All of these efforts are wonderful, but they're working in silos, and many of them are woefully underfunded.
Egy nonprofit szervezet, a First Draft, melynek alapításában segédkeztem, egymással versengő hírszerkesztőségeknek segít világszerte az együttműködésben és az oknyomozó újságírásban. Danny Hillis szoftvertervező pedig új rendszert tervez The Underlay néven, mely nyilvános kijelentések tárháza lesz, ellátva forráshivatkozásokkal, így az olvasók és az algoritmusok könnyebben dönthetnek a hitelességükről. Pedagógusok világszerte különböző technikákat tesztelnek, hogy megtanuljuk kritikával fogadni az internetes tartalmakat. E teljesítmények csodálatraméltóak, de ezek az emberek elszigetelten dolgoznak, sokuk siralmasan alulfizetett.
There are also hundreds of very smart people working inside these companies, but again, these efforts can feel disjointed, because they're actually developing different solutions to the same problems.
És okos emberek százai dolgoznak e cégeken belül, de az ő erőfeszítéseik is csak lógnak a levegőben, hiszen különböző megoldásokat fejlesztenek ki ugyanarra a problémára.
How can we find a way to bring people together in one physical location for days or weeks at a time, so they can actually tackle these problems together but from their different perspectives? So can we do this? Can we build out a coordinated, ambitious response, one that matches the scale and the complexity of the problem? I really think we can. Together, let's rebuild our information commons.
Hogyan tudnánk ezeket az embereket összehozni ugyanarra a helyre, néhány napra vagy hétre, hogy e problémákon együtt dolgozhassanak, de mindegyikük a saját szemszögéből? Képesek vagyunk erre? Képesek vagyunk koordinált, igényes választ adni, mely megfelel a probléma méretének és összetettségének? Azt hiszem, képesek vagyunk. Építsük újjá együtt információs környezetünket!
Thank you.
Köszönöm.
(Applause)
(Taps)