Η σχέση μου με το διαδίκτυο μου θυμίζει την πλοκή ενός κλασικού θρίλερ. Μια ευτυχισμένη οικογένεια μετακομίζει στο τέλειο νέο της σπίτι, ενθουσιασμένη για το τέλειο μέλλον τους, έξω έχει λιακάδα, τα πουλάκια κελαηδούν... και μετά σκοτάδι. Ακούγονται θόρυβοι από τη σοφίτα. Καταλαβαίνουμε ότι το νέο, τέλειο σπίτι, δεν είναι και τόσο τέλειο.
My relationship with the internet reminds me of the setup to a clichéd horror movie. You know, the blissfully happy family moves in to their perfect new home, excited about their perfect future, and it's sunny outside and the birds are chirping ... And then it gets dark. And there are noises from the attic. And we realize that that perfect new house isn't so perfect.
Όταν ξεκίνησα να εργάζομαι στην Google το 2006, το Facebook ήταν μόλις δύο χρονών, και το Twitter δεν είχε γεννηθεί ακόμη. Αισθανόμουν απόλυτο δέος για το διαδίκτυο και τις προοπτικές του να μας φέρει πιο κοντά να μας κάνει πιο έξυπνους και πιο ελεύθερους. Καθώς όμως γεμάτοι έμπνευση φτιάχναμε μηχανές αναζήτησης, ιστοσελίδες για να μοιραζόμαστε βίντεο και μέσα κοινωνικής δικτύωσης, εγκληματίες, δικτάτορες και τρομοκράτες έβρισκαν τρόπους να χρησιμοποιούν εναντίον μας αυτές τις ίδιες πλατφόρμες. Και δεν προνοήσαμε να τους σταματήσουμε. Τα τελευταία χρόνια, γεωπολιτικές δυνάμεις σπέρνουν τον όλεθρο στο διαδίκτυο. Απαντώντας σε αυτό, η Google στήριξε μερικούς συναδέλφους κι εμένα να κάνουμε μια ομάδα, την jigsaw, με αποστολή την προστασία όλων από απειλές όπως ο βίαιος εξτρεμισμός, η λογοκρισία, οι διώξεις, απειλές που μου με αφορούν προσωπικά γιατί γεννήθηκα στο Ιράν κι έφυγα αμέσως μετά από μια βίαιη επανάσταση. Έμαθα όμως ότι ακόμη κι αν έχουμε όλους τους πόρους από όλες τις εταιρείες τεχνολογίας του κόσμου, και πάλι αποτυγχάνουμε αν παραβλέψουμε ένα στοιχείο ζωτικής σημασίας: τις ανθρώπινες εμπειρίες των θυμάτων και των αυτουργών αυτών των απειλών.
When I started working at Google in 2006, Facebook was just a two-year-old, and Twitter hadn't yet been born. And I was in absolute awe of the internet and all of its promise to make us closer and smarter and more free. But as we were doing the inspiring work of building search engines and video-sharing sites and social networks, criminals, dictators and terrorists were figuring out how to use those same platforms against us. And we didn't have the foresight to stop them. Over the last few years, geopolitical forces have come online to wreak havoc. And in response, Google supported a few colleagues and me to set up a new group called Jigsaw, with a mandate to make people safer from threats like violent extremism, censorship, persecution -- threats that feel very personal to me because I was born in Iran, and I left in the aftermath of a violent revolution. But I've come to realize that even if we had all of the resources of all of the technology companies in the world, we'd still fail if we overlooked one critical ingredient: the human experiences of the victims and perpetrators of those threats.
Θα μπορούσα για πολλές προκλήσεις να σας μιλήσω σήμερα. Θα εστιάσω σε δύο μόνο. Η πρώτη είναι η τρομοκρατία. Για να καταλάβουμε τη διαδικασία της ριζοσπαστικοποίησης συναντηθήκαμε με πολλά πρώην μέλη βίαιων εξτρεμιστικών ομάδων. Ανάμεσά τους ήταν μια Βρετανή μαθήτρια σχολείου που συνελήφθη σε ένα αεροπλάνο στο Χίθροου του Λονδίνου καθώς προσπαθούσε να φτάσει στη Συρία για να ενταχθεί στον ISIS. Ήταν 13 χρονών. Κάθισα λοιπόν με την ίδια και τον πατέρα της και ρώτησα «Γιατί;» Μου απάντησε: «Έβλεπα φωτογραφίες για το πώς είναι η ζωή στη Συρία και σκέφτηκα ότι θα πήγαινα και θα ζούσα σε μια Ισλαμική Ντίσνεϋλαντ». Αυτό έβλεπε εκείνη στον ISIS. Νόμιζε ότι θα συναντούσε και θα παντρευόταν έναν τζιχαντιστή Μπραντ Πιτ και θα πήγαινε κάθε μέρα για ψώνια και θα ζούσαν όπως στα παραμύθια.
There are many challenges I could talk to you about today. I'm going to focus on just two. The first is terrorism. So in order to understand the radicalization process, we met with dozens of former members of violent extremist groups. One was a British schoolgirl, who had been taken off of a plane at London Heathrow as she was trying to make her way to Syria to join ISIS. And she was 13 years old. So I sat down with her and her father, and I said, "Why?" And she said, "I was looking at pictures of what life is like in Syria, and I thought I was going to go and live in the Islamic Disney World." That's what she saw in ISIS. She thought she'd meet and marry a jihadi Brad Pitt and go shopping in the mall all day and live happily ever after.
Ο ISIS καταλαβαίνει τα κίνητρα των ανθρώπων και κατασκευάζουν προσεκτικά μηνύματα για κάθε ακροατήριο. Δείτε απλώς σε πόσο πολλές γλώσσες μεταφράζουν το διαφημιστικό τους υλικό. Κάνουν φυλλάδια, ραδιοφωνικές εκπομπές και βίντεο όχι μόνο στα Αγγλικά και τα Αραβικά, αλλά στα Γερμανικά, τα Ρωσικά, τα Γαλλικά, τα Τουρκικά, τα Κουρδικά, τα Εβραϊκά, τα Μανδαρίνικα Κινεζικά. Έχω δει βίντεο του ISIS ακόμη και στη νοηματική. Σκεφτείτε το λίγο: O ISIS κάθισε και έκανε προσπάθειες να βεβαιωθεί ότι το μήνυμά του φτάνει ως τα κωφά και βαρήκοα άτομα. Δεν είναι ότι γνωρίζουν καλά την τεχνολογία, δεν είναι έτσι που ο ISIS κατακτά τον νου και την καρδιά. Είναι η γνώση που έχουν των προκαταλήψεων, των ευαίσθητων σημείων, των επιθυμιών των ανθρώπων που προσπαθούν να φτάσουν, αυτός είναι ο τρόπος τους. Γι' αυτό δεν είναι αρκετό για τις διαδικτυακές πλατφόρμες να αφαιρούν προσηλυτιστικό περιεχόμενο. Αν θέλουμε να έχουμε την ευκαιρία να φτιάξουμε μια τεχνολογία με ουσία που θα αντιμετωπίσει τη ριζοσπαστικοποίηση πρέπει να ξεκινήσουμε με την ανθρώπινη πορεία στον πυρήνα του.
ISIS understands what drives people, and they carefully craft a message for each audience. Just look at how many languages they translate their marketing material into. They make pamphlets, radio shows and videos in not just English and Arabic, but German, Russian, French, Turkish, Kurdish, Hebrew, Mandarin Chinese. I've even seen an ISIS-produced video in sign language. Just think about that for a second: ISIS took the time and made the effort to ensure their message is reaching the deaf and hard of hearing. It's actually not tech-savviness that is the reason why ISIS wins hearts and minds. It's their insight into the prejudices, the vulnerabilities, the desires of the people they're trying to reach that does that. That's why it's not enough for the online platforms to focus on removing recruiting material. If we want to have a shot at building meaningful technology that's going to counter radicalization, we have to start with the human journey at its core.
Πήγαμε λοιπόν στο Ιράκ να μιλήσουμε σε νεαρούς που πίστεψαν τις υποσχέσεις του ISIS για ηρωισμούς και δικαιοσύνη, που πήραν τα όπλα να πολεμήσουν γι' αυτούς και μετά αποστάτησαν, αφού διαπίστωσαν τη σκληρότητα της εξουσίας του ISIS. Καθόμουν εκεί, σ' αυτή την αυτοσχέδια φυλακή στα βόρεια του Ιράκ μ' έναν 23χρονο που είχε εκπαιδευτεί ως βομβιστής αυτοκτονίας πριν αποστατήσει. Και μου λέει: «Έφτασα στη Συρία γεμάτος ελπίδες και αμέσως μου κατέσχεσαν τα πιο πολύτιμα πράγματά μου: το διαβατήριο και το κινητό μου». Τα σύμβολα αυτής της σωματικής και ψηφιακής ελευθερίας του τα πήραν με το που έφτασε. Με αυτό τον τρόπο μού περιέγραψε τη στιγμή της απώλειας. Μου είπε: «Ξέρεις, στο καρτούν Τομ και Τζέρι, όταν ο Τζέρι θέλει να ξεφύγει και ο Τομ κλειδώνει την πόρτα και μετά καταπίνει το κλειδί κι εσύ το βλέπεις να κατεβαίνει στον λαιμό του;» Φυσικά, μπορούσα να δω την εικόνα όπως την περιέγραφε και στ' αλήθεια ένιωσα αυτό που προσπαθούσε να μεταδώσει, την αίσθηση ότι είσαι καταδικασμένος, όταν ξέρεις ότι δεν υπάρχει διέξοδος.
So we went to Iraq to speak to young men who'd bought into ISIS's promise of heroism and righteousness, who'd taken up arms to fight for them and then who'd defected after they witnessed the brutality of ISIS's rule. And I'm sitting there in this makeshift prison in the north of Iraq with this 23-year-old who had actually trained as a suicide bomber before defecting. And he says, "I arrived in Syria full of hope, and immediately, I had two of my prized possessions confiscated: my passport and my mobile phone." The symbols of his physical and digital liberty were taken away from him on arrival. And then this is the way he described that moment of loss to me. He said, "You know in 'Tom and Jerry,' when Jerry wants to escape, and then Tom locks the door and swallows the key and you see it bulging out of his throat as it travels down?" And of course, I really could see the image that he was describing, and I really did connect with the feeling that he was trying to convey, which was one of doom, when you know there's no way out.
Και αναρωτιόμουν: Τι θα υπήρχε, αν υπήρχε, που θα μπορούσε να του αλλάξει γνώμη την ημέρα που έφευγε από το σπίτι του; Έτσι τον ρώτησα: «Αν ήξερες αυτά που ξέρεις τώρα, για τον πόνο, τη διαφθορά, τη σκληρότητα, την ημέρα που έφευγες από το σπίτι, θα πήγαινες και πάλι εκεί;» Μου απάντησε: «Ναι». Σκέφτηκα: «Θεέ μου, είπε ναι». Και μετά είπε: «Σ' εκείνο το σημείο, μου είχαν κάνει τέτοια πλύση εγκεφάλου που δεν προσλάμβανα καμία αντίθετης άποψης πληροφορία. Κανείς δεν θα μπορούσε να με μεταπείσει».
And I was wondering: What, if anything, could have changed his mind the day that he left home? So I asked, "If you knew everything that you know now about the suffering and the corruption, the brutality -- that day you left home, would you still have gone?" And he said, "Yes." And I thought, "Holy crap, he said 'Yes.'" And then he said, "At that point, I was so brainwashed, I wasn't taking in any contradictory information. I couldn't have been swayed."
«Καλά, κι αν ήξερες αυτά που ξέρεις τώρα έξι μήνες πριν από την ημέρα που έφυγες;»
"Well, what if you knew everything that you know now six months before the day that you left?"
«Εκείνη τη στιγμή, νομίζω ότι πιθανόν να άλλαζα γνώμη». Η ριζοσπαστικοποίηση δεν είναι μια επιλογή «ναι ή όχι». Είναι μια διαδικασία, κατά την οποία οι άνθρωποι έχουν ερωτήματα για την ιδεολογία, τη θρησκεία, τις συνθήκες διαβίωσης. Και ψάχνουν στο διαδίκτυο για απαντήσεις, κι αυτή είναι μια ευκαιρία να επικοινωνήσει κανείς μαζί τους. Υπάρχουν βίντεο στο διαδίκτυο από ανθρώπους που έχουν απαντήσεις, αυτούς που αποστάτησαν, για παράδειγμα, που λένε την ιστορία τους εντός και εκτός της βίας. Ιστορίες σαν αυτή εκείνου του άντρα που συνάντησα στη φυλακή του Ιράκ. Υπάρχουν ντόπιοι που ανέβασαν βίντεο από κινητά που δείχνουν πώς είναι στ' αλήθεια η ζωή στο χαλιφάτο του ISIS. Είναι κληρικοί που μοιράζονται ειρηνικές ερμηνείες για το Ισλάμ. Αλλά ξέρετε τι; Αυτοί οι άνθρωποι δεν έχουν το μάρκετινγκ που έχει ο ISIS. Ρισκάρουν τις ζωές τους για να μιλήσουν και να αντιμετωπίσουν την τρομοκρατική προπαγάνδα και μετά δυστυχώς δεν μπορούν να φτάσουν στους ανθρώπους με τη μεγαλύτερη ανάγκη να τους ακούσουν. Θέλαμε να δούμε αν η τεχνολογία μπορούσε να το αλλάξει αυτό.
"At that point, I think it probably would have changed my mind." Radicalization isn't this yes-or-no choice. It's a process, during which people have questions -- about ideology, religion, the living conditions. And they're coming online for answers, which is an opportunity to reach them. And there are videos online from people who have answers -- defectors, for example, telling the story of their journey into and out of violence; stories like the one from that man I met in the Iraqi prison. There are locals who've uploaded cell phone footage of what life is really like in the caliphate under ISIS's rule. There are clerics who are sharing peaceful interpretations of Islam. But you know what? These people don't generally have the marketing prowess of ISIS. They risk their lives to speak up and confront terrorist propaganda, and then they tragically don't reach the people who most need to hear from them. And we wanted to see if technology could change that.
Έτσι το 2016, συνεργαστήκαμε με τη Moonshot CVE για μια νέα πιλοτική προσέγγιση αντιμετώπισης της ριζοσπαστικοποίησης που λέγεται «Μέθοδος Ανακατεύθυνσης». Χρησιμοποιεί τη μέθοδο της διαδικτυακής διαφήμισης για να γεφυρώσει το χάσμα μεταξύ αυτών που δέχονται τα μηνύματα του ISIS κι εκείνες τις αξιόπιστες φωνές που αποδομούν αυτά τα μηνύματα. Λειτουργεί ως εξής: κάποιος αναζητά εξτρεμιστικό υλικό, ας πούμε ότι ψάχνουν «Πώς στρατολογούμαι στον ISIS;», θα δουν να εμφανίζεται μια διαφήμιση για να δουν ένα βίντεο στο YouTube ενός κληρικού, ενός που αποστάτησε, κάποιου που έχει μια πραγματική απάντηση. Και αυτή η στόχευση δεν βασίζεται στο προφίλ τους, αλλά οδηγεί σε κάτι απόλυτα σχετικό με την αναζήτηση ή την ερώτησή τους.
So in 2016, we partnered with Moonshot CVE to pilot a new approach to countering radicalization called the "Redirect Method." It uses the power of online advertising to bridge the gap between those susceptible to ISIS's messaging and those credible voices that are debunking that messaging. And it works like this: someone looking for extremist material -- say they search for "How do I join ISIS?" -- will see an ad appear that invites them to watch a YouTube video of a cleric, of a defector -- someone who has an authentic answer. And that targeting is based not on a profile of who they are, but of determining something that's directly relevant to their query or question.
Κατά τη διάρκεια του πιλοτικού σχεδίου των οκτώ εβδομάδων στα Αγγλικά και Αραβικά φτάσαμε ως 300.000 ανθρώπους που έδειξαν ενδιαφέρον ή συμπάθεια προς μια τζιχαντιστική ομάδα. Αυτοί οι άνθρωποι βλέπουν τώρα βίντεο που θα μπορούσαν να τους εμποδίζουν να κάνουν ολέθριες επιλογές. Κι επειδή ο βίαιος εξτρεμισμός δεν περιορίζεται σε μια μόνο γλώσσα, μια θρησκεία ή μια ιδεολογία, η Μέθοδος Ανακατεύθυνσης τώρα εφαρμόζεται παγκοσμίως για να προστατεύσει ανθρώπους που τους πλησίασαν υποστηρικτές μιας βίαιης ιδεολογίας, είτε αυτοί είναι ισλαμιστές, είτε φασίστες ρατσιστές, ή άλλοι βίαιοι εξτρεμιστές, με στόχο να τους δώσουμε την ευκαιρία να ακούσουν και κάποιον από την άλλη πλευρά αυτού του νομίσματος. Να τους δώσουμε την ευκαιρία να διαλέξουν ένα άλλο μονοπάτι.
During our eight-week pilot in English and Arabic, we reached over 300,000 people who had expressed an interest in or sympathy towards a jihadi group. These people were now watching videos that could prevent them from making devastating choices. And because violent extremism isn't confined to any one language, religion or ideology, the Redirect Method is now being deployed globally to protect people being courted online by violent ideologues, whether they're Islamists, white supremacists or other violent extremists, with the goal of giving them the chance to hear from someone on the other side of that journey; to give them the chance to choose a different path.
Φαίνεται ότι συχνά οι κακοί είναι καλοί στην εκμετάλλευση του διαδικτύου, όχι επειδή είναι τίποτα ιδιοφυΐες στην τεχνολογία, αλλά επειδή καταλαβαίνουν αυτό που κινητοποιεί τους ανθρώπους. Θέλω να σας δώσω ένα δεύτερο παράδειγμα: διαδικτυακή παρενόχληση. Αυτοί που παρενοχλούν στο διαδίκτυο επίσης προσπαθούν να βρουν τι έχει απήχηση σε έναν άλλον άνθρωπο. Όχι όμως όπως ο ISIS, για να τους στρατολογήσουν, αλλά για να τους προκαλέσουν πόνο. Φανταστείτε το εξής: είστε μια γυναίκα, παντρεμένη, με ένα παιδί. Κάνετε μια ανάρτηση στα μέσα κοινωνικής δικτύωσης, και σας απαντούν ότι θα σας βιάσουν και ότι θα βάλουν τον γιο σας να βλέπει, με λεπτομέρειες για το πότε και πού. Βάζουν τη διεύθυνση του σπιτιού σας στο διαδίκτυο να τη δουν όλοι. Το νιώθουμε σαν μια πραγματική απειλή. Νομίζετε ότι θα πηγαίνατε σπίτι σας; Νομίζετε ότι θα συνεχίζατε να κάνετε αυτό που κάνατε; Θα συνεχίζατε γνωρίζοντας ότι αυτό εξοργίζει αυτόν που επιτίθεται;
It turns out that often the bad guys are good at exploiting the internet, not because they're some kind of technological geniuses, but because they understand what makes people tick. I want to give you a second example: online harassment. Online harassers also work to figure out what will resonate with another human being. But not to recruit them like ISIS does, but to cause them pain. Imagine this: you're a woman, you're married, you have a kid. You post something on social media, and in a reply, you're told that you'll be raped, that your son will be watching, details of when and where. In fact, your home address is put online for everyone to see. That feels like a pretty real threat. Do you think you'd go home? Do you think you'd continue doing the thing that you were doing? Would you continue doing that thing that's irritating your attacker?
Η διαδικτυακή παρενόχληση είναι αυτή η διεστραμμένη τέχνη να βρίσκει κανείς αυτό που κάνει τους ανθρώπους να θυμώνουν, αυτό που τους κάνει να φοβούνται, αυτό που τους κάνει ανασφαλείς, και μετά να πιέζει εκεί ακριβώς μέχρι να τους κάνει να σωπάσουν. Όταν είναι ανεξέλεγκτη η διαδικτυακή παρενόχληση, η ελευθερία του λόγου καταπνίγεται. Ακόμη και οι άνθρωποι που φιλοξενούν τη συζήτηση σηκώνουν τα χέρια και παραιτούνται, κλειδώνοντας τα σχόλια και τα φόρουμ μαζί. Αυτό σημαίνει ότι ουσιαστικά χάνουμε διαδικτυακούς χώρους όπου συναντιόμαστε και ανταλλάζουμε ιδέες. Όπου παραμένουν οι διαδικτυακοί χώροι, καταλήγουμε σε δωμάτια με ηχώ με ανθρώπους που σκέφτονται όπως εμείς. Αυτό όμως δίνει τη δυνατότητα διάδοσης της παραπληροφόρησης. Διευκολύνει την πόλωση. Κι αν, αντίθετα, η τεχνολογία μπορούσε να διευκολύνει την ενσυναίσθηση;
Online abuse has been this perverse art of figuring out what makes people angry, what makes people afraid, what makes people insecure, and then pushing those pressure points until they're silenced. When online harassment goes unchecked, free speech is stifled. And even the people hosting the conversation throw up their arms and call it quits, closing their comment sections and their forums altogether. That means we're actually losing spaces online to meet and exchange ideas. And where online spaces remain, we descend into echo chambers with people who think just like us. But that enables the spread of disinformation; that facilitates polarization. What if technology instead could enable empathy at scale?
Αυτό ήταν το ερώτημα που κινητοποίησε τη συνεργασία μας με την ομάδα της Google Ενάντια στην Παρενόχληση, με τη Wikipedia, και με εφημερίδες όπως οι New York Times. Θέλαμε να δούμε αν μπορούσαμε να φτιάξουμε μοντέλα μηχανικής μάθησης που θα μπορούσαν να καταλάβουν τη συναισθηματική απήχηση της γλώσσας. Θα μπορούσαμε να προβλέψουμε ποια σχόλια θα έκαναν κάποιον να εγκαταλείψει τη διαδικτυακή συζήτηση; Αυτό είναι μεγάλη υπόθεση. Δεν είναι μικρό κατόρθωμα για την Τεχνητή Νοημοσύνη να μπορεί να καταλάβει κάτι τέτοιο. Ακούστε αυτά τα δύο παραδείγματα μηνυμάτων που θα μπορούσα να είχα λάβει την περασμένη εβδομάδα. «Φτου σου, καλή επιτυχία στο TED!» και «Φτου σου, είσαι για φτύσιμο στο TED.»
This was the question that motivated our partnership with Google's Counter Abuse team, Wikipedia and newspapers like the New York Times. We wanted to see if we could build machine-learning models that could understand the emotional impact of language. Could we predict which comments were likely to make someone else leave the online conversation? And that's no mean feat. That's no trivial accomplishment for AI to be able to do something like that. I mean, just consider these two examples of messages that could have been sent to me last week. "Break a leg at TED!" ... and "I'll break your legs at TED."
(Γέλια)
(Laughter)
Είστε άνθρωποι, γι' αυτό η διαφορά είναι προφανής για σας, παρόλο που οι λέξεις μοιάζουν λίγο. Η Τεχνητή Νοημοσύνη χρειάζεται εκπαίδευση για να μάθει τα μοντέλα και να αναγνωρίζει τη διαφορά. Το ωραίο στην κατασκευή Τεχνητής Νοημοσύνης που καταλαβαίνει τη διαφορά είναι ότι η Τεχνητή Νοημοσύνη μπορεί να επεκταθεί σε όλη την κλίμακα του φαινομένου της διαδικτυακής τοξικότητας κι αυτός ήταν ο στόχος μας όταν φτιάξαμε την τεχνολογία Perspective. Με τη βοήθεια του Perspective, οι New York Times, για παράδειγμα, κατάφεραν να αυξήσουν τους διαδικτυακούς χώρους προς συζήτηση. Πριν από τη συνεργασία μας είχαν ανοιχτά τα σχόλια μόνο στο 10% των άρθρων τους. Με τη βοήθεια της μηχανικής μάθησης, το ποσοστό αυξήθηκε σε 30%. Το τριπλασίασαν, και είμαστε ακόμη στην αρχή.
You are human, that's why that's an obvious difference to you, even though the words are pretty much the same. But for AI, it takes some training to teach the models to recognize that difference. The beauty of building AI that can tell the difference is that AI can then scale to the size of the online toxicity phenomenon, and that was our goal in building our technology called Perspective. With the help of Perspective, the New York Times, for example, has increased spaces online for conversation. Before our collaboration, they only had comments enabled on just 10 percent of their articles. With the help of machine learning, they have that number up to 30 percent. So they've tripled it, and we're still just getting started.
Είναι κάτι πολύ περισσότερο από το να κάνουμε πιο αποτελεσματικό έλεγχο. Μπορώ να σας δω τώρα, και μπορώ να καταλάβω πώς αντιλαμβάνεστε αυτό που λέω. Δεν υπάρχει αυτή η δυνατότητα στο διαδίκτυο. Φανταστείτε η μηχανική μάθηση να μπορούσε να δίνει στους σχολιαστές, καθώς αυτοί πληκτρολογούν, ανατροφοδότηση σε πραγματικό χρόνο για το πώς εκλαμβάνονται τα λόγια τους, όπως γίνεται με τις εκφράσεις του προσώπου σε μια συζήτηση πρόσωπο με πρόσωπο. Η μηχανική μάθηση δεν είναι τέλεια, και κάνει ακόμη πολλά λάθη. Αλλά αν μπορούμε να φτιάξουμε μια τεχνολογία που καταλαβαίνει τη συναισθηματική επίδραση της γλώσσας, μπορούμε να δημιουργήσουμε ενσυναίσθηση. Κι έτσι να μπορεί να υπάρχει διάλογος μεταξύ ανθρώπων με διαφορετικές πολιτικές απόψεις, διαφορετικές νοοτροπίες, διαφορετικές αξίες. Μπορούμε επίσης να ζωντανέψουμε ξανά τους διαδικτυακούς χώρους που παρατήσαμε.
But this is about way more than just making moderators more efficient. Right now I can see you, and I can gauge how what I'm saying is landing with you. You don't have that opportunity online. Imagine if machine learning could give commenters, as they're typing, real-time feedback about how their words might land, just like facial expressions do in a face-to-face conversation. Machine learning isn't perfect, and it still makes plenty of mistakes. But if we can build technology that understands the emotional impact of language, we can build empathy. That means that we can have dialogue between people with different politics, different worldviews, different values. And we can reinvigorate the spaces online that most of us have given up on.
Όταν οι άνθρωποι εκμεταλλεύονται την τεχνολογία για να βλάψουν τους άλλους, εκμεταλλεύονται τους ανθρώπινους φόβους και τα ευάλωτα σημεία μας. Αν σκεφτήκαμε ποτέ ότι θα μπορούσαμε να χτίσουμε ένα διαδίκτυο απομονωμένο από τη σκοτεινή πλευρά της ανθρωπότητας, κάναμε λάθος. Αν θέλουμε σήμερα να φτιάξουμε μια τεχνολογία που μπορεί να ξεπεράσει τις προκλήσεις που αντιμετωπίζουμε πρέπει να βάλουμε όλες μας τις δυνάμεις για να καταλάβουμε τα θέματα και να βρούμε λύσεις που είναι τόσο ανθρώπινες όσο και τα προβλήματα που σκοπεύουν να λύσουν. Ας το κάνουμε να συμβεί.
When people use technology to exploit and harm others, they're preying on our human fears and vulnerabilities. If we ever thought that we could build an internet insulated from the dark side of humanity, we were wrong. If we want today to build technology that can overcome the challenges that we face, we have to throw our entire selves into understanding the issues and into building solutions that are as human as the problems they aim to solve. Let's make that happen.
Ευχαριστώ.
Thank you.
(Χειροκρότημα)
(Applause)