We are built out of very small stuff, and we are embedded in a very large cosmos, and the fact is that we are not very good at understanding reality at either of those scales, and that's because our brains haven't evolved to understand the world at that scale.
Bizler çok küçük şeylerden meydana geldik ve büyük bir evrenin içine yerleştirildik. Gerçek şu ki, bizler bu iki ölçekteki gerçekliği de anlayamıyoruz; çünkü beyinlerimiz henüz dünyayı bu ölçekte anlayacak kadar gelişmedi.
Instead, we're trapped on this very thin slice of perception right in the middle. But it gets strange, because even at that slice of reality that we call home, we're not seeing most of the action that's going on. So take the colors of our world. This is light waves, electromagnetic radiation that bounces off objects and it hits specialized receptors in the back of our eyes. But we're not seeing all the waves out there. In fact, what we see is less than a 10 trillionth of what's out there. So you have radio waves and microwaves and X-rays and gamma rays passing through your body right now and you're completely unaware of it, because you don't come with the proper biological receptors for picking it up. There are thousands of cell phone conversations passing through you right now, and you're utterly blind to it.
Bunun yerine, bizler tam ortada duran bu çok dar algı dilimine hapsedildik. Daha da tuhafı, ev dediğimiz gerçeklik diliminde bile gerçekleşen pek çok olayı göremiyoruz. Dünyamızdaki renkleri ele alalım. Bunlar, nesnelerden seken ve gözlerimizin arkasındaki özel alıcılara çarpan ışık dalgaları, elektromanyetik ışınımlar. Ancak biz buradaki bütün dalgaları göremiyoruz. Aslında gördüğümüz, burada bulunanın 10 trilyonda birinden daha azı. Şu an radyo dalgaları, mikrodalgalar, X-ray ışınları ve gama ışınları vücudunuzdan geçiyor ve sizin bundan hiç haberiniz olmuyor; çünkü bunları görmek için gereken biyolojik alıcılarla doğmadınız. Şu an vücudunuzdan geçen binlerce telefon konuşması var ve siz hiçbirini fark etmiyorsunuz.
Now, it's not that these things are inherently unseeable. Snakes include some infrared in their reality, and honeybees include ultraviolet in their view of the world, and of course we build machines in the dashboards of our cars to pick up on signals in the radio frequency range, and we built machines in hospitals to pick up on the X-ray range. But you can't sense any of those by yourself, at least not yet, because you don't come equipped with the proper sensors.
Dediklerim doğası gereği görünmez olan şeyler değiller. Yılanlar çevrelerini algılamak için bazı kızılötesi ışınlara sahiptir, arılar dünyayı morötesi ışınlarla görür ve bizler araba göstergesinde radyo frekansı aralığındaki sinyalleri algılayan makineler yapıyoruz. Hastanelerde X-ray ışınlarını algılayan araçlar yapıyoruz. Fakat bunların hiçbirisini kendiniz hissedemezsiniz, en azından henüz değil, çünkü uygun algılayıcılarla donatılı değilsiniz.
Now, what this means is that our experience of reality is constrained by our biology, and that goes against the common sense notion that our eyes and our ears and our fingertips are just picking up the objective reality that's out there. Instead, our brains are sampling just a little bit of the world.
Bu demek oluyor ki, gerçeklik deneyimimiz biyolojik yapımızla kısıtlanmış durumda. Söylediklerim; gözlerimizin, kulaklarımızın, parmak uçlarımızın değişmez gerçekliği algıladığını savunan düşünceye aykırıdır. Bunun yerine, beyinlerimiz dünyanın yalnızca küçük bir kısmını örnekliyor.
Now, across the animal kingdom, different animals pick up on different parts of reality. So in the blind and deaf world of the tick, the important signals are temperature and butyric acid; in the world of the black ghost knifefish, its sensory world is lavishly colored by electrical fields; and for the echolocating bat, its reality is constructed out of air compression waves. That's the slice of their ecosystem that they can pick up on, and we have a word for this in science. It's called the umwelt, which is the German word for the surrounding world. Now, presumably, every animal assumes that its umwelt is the entire objective reality out there, because why would you ever stop to imagine that there's something beyond what we can sense. Instead, what we all do is we accept reality as it's presented to us.
Hayvanlar aleminde, farklı hayvanlar, gerçekliğin farklı noktalarını algılar. Kenenin kör ve sağır dünyasında, önemli uyarıcılar, ısı ve bütirik asittir; kara hayalet balığının dünyasında, algı dünyası elektriksel alanlarla dolu dolu boyanmıştır ve yankıyla yön bulan yarasa için, gerçeklik, hava basınçlı dalgalardan oluşur. Her birisinin, çevresini algılayabileyeceği dilim bu kadardır ve bilimde buna bir ad veriyoruz. Verilen ad umwelt, çevre sözcüğünü karşılayan Almanca bir sözcük. Muhtemelen, her hayvan umwelt'inin değişmez gerçeklik olduğunu varsayar; algılayabildiğimizin dışında bir şeyin olduğunu düşünmemize ne gerek var ki? Bunun yerine, hepimiz de gerçekliği bize sunulan neyse o olarak kabul ederiz.
Let's do a consciousness-raiser on this. Imagine that you are a bloodhound dog. Your whole world is about smelling. You've got a long snout that has 200 million scent receptors in it, and you have wet nostrils that attract and trap scent molecules, and your nostrils even have slits so you can take big nosefuls of air. Everything is about smell for you. So one day, you stop in your tracks with a revelation. You look at your human owner and you think, "What is it like to have the pitiful, impoverished nose of a human? (Laughter) What is it like when you take a feeble little noseful of air? How can you not know that there's a cat 100 yards away, or that your neighbor was on this very spot six hours ago?" (Laughter)
Farkındalık sağlayacak bir şey yapalım. Bir tazı olduğunuzu düşleyin. Bütün dünyanız koku üzerine kurulu. 200 milyon koku alıcısı bulunan uzun bir burnunuz var, koku moleküllerini çekip yakalayan ıslak burun delikleriniz var ve hatta burun deliklerinizde, kocaman nefesler alabilmek için yarıklarınız var. Sizin için her şey koku demek. Bir gün, iz peşindeyken bir aydınlanmayla duruyorsunuz. İnsan sahibinize bakıp düşünüyorsunuz: "Acınası ve kısıtlı bir insan burnuna sahip olmak acaba nasıldır? (Gülüşmeler) Cılız cılız solumak acaba nasıldır? 100 metre ötede kedi olduğunu nasıl olur da bilemezsin ya da komşunun altı saat önce tam burada olduğunu?" (Gülüşmeler)
So because we're humans, we've never experienced that world of smell, so we don't miss it, because we are firmly settled into our umwelt. But the question is, do we have to be stuck there? So as a neuroscientist, I'm interested in the way that technology might expand our umwelt, and how that's going to change the experience of being human.
İnsan olduğumuz için, bu türde bir koku dünyasında hiç yaşamadık, bu yüzden de yokluğunu hissetmiyoruz; çünkü kendi umwelt'imize sıkı sıkıya bağlıyız. Ancak esas soru şu: Burada sıkışıp kalmak zorunda mıyız? Bir sinirbilimci olarak, teknolojinin umwelt'imizi genişletme yollarıyla ve insan olma hissini nasıl değiştireceğiyle ilgileniyorum.
So we already know that we can marry our technology to our biology, because there are hundreds of thousands of people walking around with artificial hearing and artificial vision. So the way this works is, you take a microphone and you digitize the signal, and you put an electrode strip directly into the inner ear. Or, with the retinal implant, you take a camera and you digitize the signal, and then you plug an electrode grid directly into the optic nerve. And as recently as 15 years ago, there were a lot of scientists who thought these technologies wouldn't work. Why? It's because these technologies speak the language of Silicon Valley, and it's not exactly the same dialect as our natural biological sense organs. But the fact is that it works; the brain figures out how to use the signals just fine.
Teknolojiyle biyolojimizi birleştirebileceğimizi zaten biliyoruz; çünkü yapay duyma ve görme araçlarıyla etrafta dolaşan yüzbinlerce insan var. Çalışma şekli şöyle: Bir mikrofonu alıp sinyali sayısallaştırıyorsunuz ve bir elektrot şeridini doğrudan iç kulağa yerleştiriyorsunuz. Ya da retina yerleştirmesinde, bir kamerayı alıp sinyali sayısallaştırıyorsunuz ve sonra bir elektrot ağını doğrudan göz sinirine bağlıyorsunuz. 15 yıl gibi yakın zamana kadar, bu teknolojilerin çalışmayacağını söyleyen birçok bilim insanı vardı. Neden? Çünkü bu teknolojiler Silikon Vadisi'nin dilini konuşuyor ve doğal biyolojik duyu organlarıyla aynı ağız olmuyor bu dil. Ancak gerçek şu ki, çalışıyor; beyin sinyalleri kullanmanın bir yolunu buluyor.
Now, how do we understand that? Well, here's the big secret: Your brain is not hearing or seeing any of this. Your brain is locked in a vault of silence and darkness inside your skull. All it ever sees are electrochemical signals that come in along different data cables, and this is all it has to work with, and nothing more. Now, amazingly, the brain is really good at taking in these signals and extracting patterns and assigning meaning, so that it takes this inner cosmos and puts together a story of this, your subjective world.
Peki bunu nasıl anlıyoruz? Büyük sırrı söylüyorum: Beyniniz ne duyuyor, ne de görüyor. Beyniniz kafatasınızın içindeki sessiz ve karanlık kasanın içinde kilitli. Görüp görebileceği şey, elektrokimyasal sinyaller, farklı veri kablolarından gelen sinyaller ve tek işleyeceği şey bu, fazlası değil. Şaşırtıcı bir biçimde, beyin, bu sinyalleri alıp desenleri yakalayarak anlam vermede çok başarılı, bunu, iç evrenindekilerden bir hikâye oluşturmak için yapıyor bu hikâye de sizin öznel dünyanız.
But here's the key point: Your brain doesn't know, and it doesn't care, where it gets the data from. Whatever information comes in, it just figures out what to do with it. And this is a very efficient kind of machine. It's essentially a general purpose computing device, and it just takes in everything and figures out what it's going to do with it, and that, I think, frees up Mother Nature to tinker around with different sorts of input channels.
Ama asıl mesele şu: Beyniniz veriyi nereden aldığını bilmiyor ve umrunda da değil. Hangi bilgi gelirse gelsin, bilgiyi nasıl işleyeceğini anlıyor. Beyin çok verimli türde bir makine. Özünde, çok amaçlı bir bilgi işleme aygıtı ve her şeyi içine alıyor ve aldıklarıyla ne yapacağını anlıyor ve bence bu durum, Doğa Ana'ya farklı türde girdi yollarını kurcalama özgürlüğü sunuyor. Ben buna, evrimin P.K. modeli diyorum,
So I call this the P.H. model of evolution, and I don't want to get too technical here, but P.H. stands for Potato Head, and I use this name to emphasize that all these sensors that we know and love, like our eyes and our ears and our fingertips, these are merely peripheral plug-and-play devices: You stick them in, and you're good to go. The brain figures out what to do with the data that comes in. And when you look across the animal kingdom, you find lots of peripheral devices. So snakes have heat pits with which to detect infrared, and the ghost knifefish has electroreceptors, and the star-nosed mole has this appendage with 22 fingers on it with which it feels around and constructs a 3D model of the world, and many birds have magnetite so they can orient to the magnetic field of the planet. So what this means is that nature doesn't have to continually redesign the brain. Instead, with the principles of brain operation established, all nature has to worry about is designing new peripherals.
çok teknik konuşmak istemiyorum ama P.K. Patates Kafa demek ve bu adı şunu vurgulamak için kullanıyorum: Bildiğimiz ve sevdiğimiz bütün duyular; gözlerimiz, kulaklarımız, parmak uçlarımız, hepsi de yalnızca çevresel tak-kullan türü aygıtlar: Takıyorsunuz ve kullanmaya hazırlar. Beyin bunlardan gelen veriyle ne yapması gerektiğini çözüyor. Hayvanlar alemine baktığınızda da, birçok çevresel aygıt buluyorsunuz. Yılanların kızılötesini algılamak için ısı çukurları var, hayalet balıklarının elektrik alıcıları ve yıldız burunlu köstebeğin 22 parmaklı uzantısı var, bununla çevresini hissederek dünyanın 3B bir örneklemini oluşturuyor ve birçok kuşun manyetiti var, bu sayede yönlerini gezegenin manyetik alanına göre buluyorlar. Bütün bunlar şu anlama geliyor: Doğanın sürekli olarak beyni yeniden tasarlaması gerekmiyor. Bunun yerine, beynin belirlenen kurallarıyla, doğanın tek derdi, yeni çevresel aygıtlar tasarlamak olmalı.
Okay. So what this means is this: The lesson that surfaces is that there's nothing really special or fundamental about the biology that we come to the table with. It's just what we have inherited from a complex road of evolution. But it's not what we have to stick with, and our best proof of principle of this comes from what's called sensory substitution. And that refers to feeding information into the brain via unusual sensory channels, and the brain just figures out what to do with it.
Pekâlâ. Bu, şu demek: Ortaya çıkan ders diyor ki ele aldığımız biyolojiyle ilgili olarak aslında özel ya da temel hiçbir şey yok. Bunlar, karmaşık evrim sürecinden bize miras kalan şeyler. Ama bunlara uymamız gerekmiyor, bunun en iyi kanıtı da duyu değiştirme denilen kavramdan geliyor. Duyu değiştirme, beyne bilgiyi alışılmadık duyu yollarından sağlamak demek ve beyin bu bilgiyi anlamanın bir yolunu buluyor.
Now, that might sound speculative, but the first paper demonstrating this was published in the journal Nature in 1969. So a scientist named Paul Bach-y-Rita put blind people in a modified dental chair, and he set up a video feed, and he put something in front of the camera, and then you would feel that poked into your back with a grid of solenoids. So if you wiggle a coffee cup in front of the camera, you're feeling that in your back, and amazingly, blind people got pretty good at being able to determine what was in front of the camera just by feeling it in the small of their back. Now, there have been many modern incarnations of this. The sonic glasses take a video feed right in front of you and turn that into a sonic landscape, so as things move around, and get closer and farther, it sounds like "Bzz, bzz, bzz." It sounds like a cacophony, but after several weeks, blind people start getting pretty good at understanding what's in front of them just based on what they're hearing. And it doesn't have to be through the ears: this system uses an electrotactile grid on the forehead, so whatever's in front of the video feed, you're feeling it on your forehead. Why the forehead? Because you're not using it for much else.
Dediklerim kuruntu gibi gelebilir; fakat bunu kanıtlayan ilk makale Nature dergisinde 1969'da yayımlandı. Paul Bach-y-Rita adlı bir biliminsanı kör insanları değiştirilmiş bir diş hekimi koltuğuna oturtup bir video yayın düzeneği koyarak kameranın önüne bir nesne koydu ve kameranın önündeki nesne, bobin telleri sayesinde sırta bastırılıyor gibi hissettirdi. Kamerada bir fincanı kımıldatırsanız sırtınızda hissediyorsunuz ve şaşılacak biçimde, kör insanlar kameranın önünde ne olduğunu nesneyi yalnızca sırt boşluklarında hissederek anlama noktasında oldukça başarılı oldular. Bu deneyin birçok güncel uygulanışları gün yüzüne çıktı. Ses dalgası yayan gözlükler önünüzdeki nesneyi videoya alıyor ve bunu bir ses manzarasına dönüştürüyor, nesneler hareket ettikçe, yakınlaşıp uzaklaştıkça "Bızz, bızz, bızz." diye ses çıkarıyor. Uyumsuz sesler gibi geliyor kulağa; fakat birkaç hafta sonra, kör insanlar önlerindeki nesneleri anlamakta oldukça başarılı oluyorlar, bunu yalnızca duyarak başarıyorlar. İllâ kulakların görev alması gerekmiyor: bu sistem alın üzerinde dokunmaya duyarlı elektrikli bir ağa sahip, video akışının önünde her ne varsa bunu alnınızda hissediyorsunuz. Neden alın? Çünkü pek de başka bir iş için kullanmıyorsunuz.
The most modern incarnation is called the brainport, and this is a little electrogrid that sits on your tongue, and the video feed gets turned into these little electrotactile signals, and blind people get so good at using this that they can throw a ball into a basket, or they can navigate complex obstacle courses. They can come to see through their tongue. Now, that sounds completely insane, right? But remember, all vision ever is is electrochemical signals coursing around in your brain. Your brain doesn't know where the signals come from. It just figures out what to do with them.
En güncel uygulanışın adı beyinkapısı, küçük bir elektrik ağı dilinize konuyor ve video akışı dokunmaya duyarlı küçük uyarımlara dönüşüyor ve kör insanlar bunu kullanmakta o kadar başarılı ki bir topu sepete atabiliyor ya da engelli koşu parkurunda hareket edebiliyorlar. Dilleriyle görebilir bir hâle geliyorlar. Dediklerim tamamen çılgınca geliyor, değil mi? Fakat unutmayın, bütün görüş dediğimiz şey beyninizin içinde dolanan elektrokimyasal uyarımlardan ibaret. Beyniniz uyarımların nereden geldiğini bilmiyor. Yalnızca uyarımlara ne yapacağını çözüyor.
So my interest in my lab is sensory substitution for the deaf, and this is a project I've undertaken with a graduate student in my lab, Scott Novich, who is spearheading this for his thesis. And here is what we wanted to do: we wanted to make it so that sound from the world gets converted in some way so that a deaf person can understand what is being said. And we wanted to do this, given the power and ubiquity of portable computing, we wanted to make sure that this would run on cell phones and tablets, and also we wanted to make this a wearable, something that you could wear under your clothing. So here's the concept. So as I'm speaking, my sound is getting captured by the tablet, and then it's getting mapped onto a vest that's covered in vibratory motors, just like the motors in your cell phone. So as I'm speaking, the sound is getting translated to a pattern of vibration on the vest. Now, this is not just conceptual: this tablet is transmitting Bluetooth, and I'm wearing the vest right now. So as I'm speaking -- (Applause) -- the sound is getting translated into dynamic patterns of vibration. I'm feeling the sonic world around me.
Laboratuvarımda benim ilgi alanım, sağır insanlarda duyu değiştirmek ve bu projeyi laboratuvarımda yüksek lisans öğrencisi Scott Novich'le üstlendik, kendi tezi için projeye öncülük ediyor. Yapmak istediğimiz şey şuydu: Dünyadaki sesi öyle bir şeye dönüştürelim ki sağır birisi söylenenleri bir şekilde anlayabilsin. Taşınabilir bilgi işlemenin gücü ve yaygınlığıyla bunu yapmak istedik, cep telefonlarında ve tabletlerde çalışmasını sağlamak istedik ve ayrıca bunun giyilebilir olmasını, elbisenizin altına giyebileceğiniz bir şey olmasını istedik. Taslak düşüncemiz şöyle. Şu anda ben konuşurken, sesim tablet tarafından alınıyor ve üstünde titreşim motorları bulunan bir yeleğe eşleniyor, telefonunuzdaki titreşim motoru gibi. Şu anda ben konuşurken, ses yeleğe titreşim deseni olarak dönüştürülüyor. Aslında yalnızca taslak değil: Bu tablet Bluetooth'la veri gönderiyor ve ben yeleği şu anda giyiyorum. Şu anda ben konuşurken -- (Alkış) -- ses, hareketli titreşim desenlerine dönüşüyor. Etrafımdaki ses dalgası dünyasını hissediyorum.
So, we've been testing this with deaf people now, and it turns out that after just a little bit of time, people can start feeling, they can start understanding the language of the vest.
Bunu sağır insanlarla bir süredir deniyoruz ve yalnızca biraz süre geçtikten sonra insanların bunu hissedebildiği ortaya çıktı, yeleğin dilini anlayabildiği.
So this is Jonathan. He's 37 years old. He has a master's degree. He was born profoundly deaf, which means that there's a part of his umwelt that's unavailable to him. So we had Jonathan train with the vest for four days, two hours a day, and here he is on the fifth day.
Bu Jonathan. 37 yaşında. Yüksek lisans mezunu. Tamamen sağır olarak doğdu, yani umwelt'inin bir bölümü ona tamamen kapalı. Jonathan'ı, yeleği günde iki saat kullanarak dört gün boyunca eğittik ve burada beşinci gününü görüyoruz.
Scott Novich: You.
Scott Novich: Sen.
David Eagleman: So Scott says a word, Jonathan feels it on the vest, and he writes it on the board.
David Eaglemen: Scott bir sözcük söylüyor, Jonathan bunu yelekte hissedip tahtaya yazıyor.
SN: Where. Where.
SN: Nerede. Nerede.
DE: Jonathan is able to translate this complicated pattern of vibrations into an understanding of what's being said.
DE: Jonathan bu karmaşık titreşim desenlerini söyleneni anlayacak biçimde dönüştürebiliyor.
SN: Touch. Touch.
SN: Dokunmak. Dokunmak.
DE: Now, he's not doing this -- (Applause) -- Jonathan is not doing this consciously, because the patterns are too complicated, but his brain is starting to unlock the pattern that allows it to figure out what the data mean, and our expectation is that, after wearing this for about three months, he will have a direct perceptual experience of hearing in the same way that when a blind person passes a finger over braille, the meaning comes directly off the page without any conscious intervention at all. Now, this technology has the potential to be a game-changer, because the only other solution for deafness is a cochlear implant, and that requires an invasive surgery. And this can be built for 40 times cheaper than a cochlear implant, which opens up this technology globally, even for the poorest countries.
DE: Jonathan bunu -- (Alkış) -- Jonathan bunu bilinçli yapmıyor, çünkü desenler çok karmaşık; fakat beyni desendeki verinin ne anlama geldiğini çözmeye başlıyor ve bunu ortalama üç ay giydikten sonra, kör birisinin parmağı Braille alfabesine dokununca bilinçli bir müdahale olmadan anlamanın gerçekleştiği gibi doğrudan algısal duyma hissi yaşamasını bekliyoruz. Bu teknolojinin gerçekten de ezber bozan olma potansiyeli var; çünkü sağırlık için diğer tek seçenek biyonik kulak ve bu da tahrip edici bir ameliyat gerektiriyor. Elimizdeki teknoloji biyonik kulaktan 40 kat daha ucuza uygulanabilir, bu da teknolojiyi tüm dünyaya, en fakir ülkelere bile erişilebilir kılıyor.
Now, we've been very encouraged by our results with sensory substitution, but what we've been thinking a lot about is sensory addition. How could we use a technology like this to add a completely new kind of sense, to expand the human umvelt? For example, could we feed real-time data from the Internet directly into somebody's brain, and can they develop a direct perceptual experience?
Duyu değiştirmedeki sonuçlardan oldukça cesaretlendik, fakat uzun süredir düşündüğümüz asıl şey duyu ekleme. Bu teknolojiyi, tamamen yeni bir duyu eklemek için nasıl kullanabiliriz? İnsan umwelt'ini nasıl genişletebiliriz? Örneğin, Genel Ağ'daki gerçek zamanlı veriyi doğrudan insan beynine gönderip doğrudan algısal bir his oluşturabilir miyiz?
So here's an experiment we're doing in the lab. A subject is feeling a real-time streaming feed from the Net of data for five seconds. Then, two buttons appear, and he has to make a choice. He doesn't know what's going on. He makes a choice, and he gets feedback after one second. Now, here's the thing: The subject has no idea what all the patterns mean, but we're seeing if he gets better at figuring out which button to press. He doesn't know that what we're feeding is real-time data from the stock market, and he's making buy and sell decisions. (Laughter) And the feedback is telling him whether he did the right thing or not. And what we're seeing is, can we expand the human umvelt so that he comes to have, after several weeks, a direct perceptual experience of the economic movements of the planet. So we'll report on that later to see how well this goes. (Laughter)
Laboratuvarda yaptığımız bir deney şöyle: Deneğimiz Genel Ağ'dan gelen veriyi gerçek zamanlı olarak 5 saniye boyunca hissediyor. Sonra, iki düğme beliriyor ve bir seçim yapması gerekiyor. Neler olduğunu bilmiyor. Seçim yapıyor ve bir saniye sonrasında dönüt alıyor. Çarpıcı olan şey şu: Deneğin, desenlerin anlamı hakkında hiçbir fikri yok; ama doğru düğmeye basmada iyiye gidip gitmediğini görüyoruz. Denek, sağladığımız verinin gerçek zamanlı borsa verisi olduğunu bilmiyor, aslında hisse alıp satma kararı veriyor. (Gülüşmeler) Gelen dönüt, doğru şeyi yapıp yapmadığını bildiriyor. Ve gördüklerimize göre insan umwelt'ini genişletebiliyoruz, böylelikle deneğimiz, birkaç haftanın ardından gezegendeki ekonomik dalgalanmaları doğrudan algılar hâle geldi. Ne kadar başarılı olduğunu daha sonra bildireceğiz. (Gülüşmeler)
Here's another thing we're doing: During the talks this morning, we've been automatically scraping Twitter for the TED2015 hashtag, and we've been doing an automated sentiment analysis, which means, are people using positive words or negative words or neutral? And while this has been going on, I have been feeling this, and so I am plugged in to the aggregate emotion of thousands of people in real time, and that's a new kind of human experience, because now I can know how everyone's doing and how much you're loving this. (Laughter) (Applause) It's a bigger experience than a human can normally have.
Sürdürdüğümüz bir başka deney: Sabahki konuşmalardan beri, Twitter'daki TED2015 etiketli gönderileri otomatik olarak tarıyoruz ve otomatik duygu çözümlemesi uyguluyoruz, olumlu, olumsuz ya da yansız sözcüklerden hangilerini kullanıldığına bakıyoruz. Konuşmam sürerken bunu hissedebiliyorum ve şu anda binlerce insanın duygusunu gerçek zamanlı olarak toplayacak biçimde bağlıyım, bu yeni türde bir insan deneyimi, çünkü şu anda insanların nasıl hissettiğini ve konuşmadan ne kadar zevk aldığını bilebiliyorum. (Gülüşmeler) (Alkış) Sıradan bir insanın edinebileceğinden daha büyük bir his bu.
We're also expanding the umvelt of pilots. So in this case, the vest is streaming nine different measures from this quadcopter, so pitch and yaw and roll and orientation and heading, and that improves this pilot's ability to fly it. It's essentially like he's extending his skin up there, far away.
Ayrıca pilotların da umwelt'ini genişletiyoruz. Buradaki durumda, yelek dokuz farklı bilgiyi alıyor buradaki dörtpervaneden, bu bilgiler yalpalama, sapma, yönelim ve ilerleme bilgileri ve bu durum pilotun uçurma yeteneğini geliştiriyor. İşin özünde, sanki derisi yukarıda uçuyormuş gibi oluyor.
And that's just the beginning. What we're envisioning is taking a modern cockpit full of gauges and instead of trying to read the whole thing, you feel it. We live in a world of information now, and there is a difference between accessing big data and experiencing it.
Bu yalnızca başlangıç. Öngördüğümüz şey, birçok düğmeyle dolu pilot kabinini alıp bütün her şeyi okumaya çalıştığımız durumdan hissettiğimiz duruma döndürmek. Artık bilgi dünyasında yaşıyoruz ve büyük verilere erişmekle deneyimlemek arasında fark var.
So I think there's really no end to the possibilities on the horizon for human expansion. Just imagine an astronaut being able to feel the overall health of the International Space Station, or, for that matter, having you feel the invisible states of your own health, like your blood sugar and the state of your microbiome, or having 360-degree vision or seeing in infrared or ultraviolet.
Bence, insan duyularını genişletmede ufuktaki olasılıklarda bir son yok. Bi düşünsenize; bir uzay insanı, Uluslararası Uzay İstasyonu'nun genel durumunu vücudunda hissedebilecek, ya da, hissetmek demişken, sağlığınız için gözle görülmeyenleri hissedebileceksiniz, kan şekeriniz, vücudunuzdaki mikrop oranı, 360 derecelik görüş açısı, kızılötesi veya morötesi görebilmek gibi şeyler.
So the key is this: As we move into the future, we're going to increasingly be able to choose our own peripheral devices. We no longer have to wait for Mother Nature's sensory gifts on her timescales, but instead, like any good parent, she's given us the tools that we need to go out and define our own trajectory. So the question now is, how do you want to go out and experience your universe?
Kilit noktası şu: Geleceğe doğru ilerledikçe, gitgide daha çok kendi tak-kullan çevresel aygıtlarımızı seçebileceğiz. Doğa Ana'nın kendi zaman akışına göre duyu organları hediye etmesini artık beklemek zorunda değiliz, bunun yerine, iyi anne babalar gibi, Doğa Ana kendi yörüngemizi belirlememiz için gereken araçları verdi. Şu anki sorumuz şu: Kendi evreninizi nasıl keşfetmek ve hissetmek istiyorsunuz?
Thank you.
Teşekkür ederim.
(Applause)
(Alkış)
Chris Anderson: Can you feel it? DE: Yeah.
Chris Anderson: Hissedebiliyor musun? DE: Evet.
Actually, this was the first time I felt applause on the vest. It's nice. It's like a massage. (Laughter)
Aslına bakarsan, alkışları ilk kez yeleğimde hissediyorum. Güzelmiş. Masaj gibi. (Gülüşmeler)
CA: Twitter's going crazy. Twitter's going mad. So that stock market experiment. This could be the first experiment that secures its funding forevermore, right, if successful?
CA: Twitter kafayı yedi. Twitter delirdi. Şu borsa deneyi. Kaynak bütçesini sonsuza dek güvenceye alan ilk deney olabilir, başarılı olursa, değil mi?
DE: Well, that's right, I wouldn't have to write to NIH anymore.
DE: Doğru, maddî destek için Ulusal Sağlık Enstitüsü'ne başvurmama gerek kalmaz.
CA: Well look, just to be skeptical for a minute, I mean, this is amazing, but isn't most of the evidence so far that sensory substitution works, not necessarily that sensory addition works? I mean, isn't it possible that the blind person can see through their tongue because the visual cortex is still there, ready to process, and that that is needed as part of it?
CA: Fakat, yalnızca biraz şüpheci olmak için soruyorum: Harika bir şey, ama şimdiye kadarki kanıtların çoğunluğu duyu değiştirmenin işe yaradığını gösteriyor, duyu ekleme işe yarayacak demek değil? Demek istediğim, kör insanlar dilleri aracılığıyla görebiliyor; çünkü görme merkezi hâlâ var, işlemeye hazır, böyle bir şey gerekmiyor mu?
DE: That's a great question. We actually have no idea what the theoretical limits are of what kind of data the brain can take in. The general story, though, is that it's extraordinarily flexible. So when a person goes blind, what we used to call their visual cortex gets taken over by other things, by touch, by hearing, by vocabulary. So what that tells us is that the cortex is kind of a one-trick pony. It just runs certain kinds of computations on things. And when we look around at things like braille, for example, people are getting information through bumps on their fingers. So I don't think we have any reason to think there's a theoretical limit that we know the edge of.
DE: Harika bir soru. Aslına bakarsan beynin işleyeceği veri türlerindeki kuramsal sınırlar hakkında hiçbir fikrimiz yok. Genel görüşe göre, beyin olağanüstü bir biçimde esnek. Bu yüzden, bir insan kör olunca, eskiden görme merkezi olan bölge, diğer duyularla; dokunma, duyma, sözcüklerle yer değiştiriyor. Buna göre, beyin kabuğu tek işlevli bir birim. Tek bildiği, gelen bilgiyle belirli hesaplamalar yapmak. Örneğin Braille alfabesine bakarsak, insanlar bilgiyi parmaklarındaki çıkıntılardan ediniyor. Bu yüzden, sonunu bildiğimiz bir kuramsal sınır olduğunu düşündürecek bir neden yok.
CA: If this checks out, you're going to be deluged. There are so many possible applications for this. Are you ready for this? What are you most excited about, the direction it might go? DE: I mean, I think there's a lot of applications here. In terms of beyond sensory substitution, the things I started mentioning about astronauts on the space station, they spend a lot of their time monitoring things, and they could instead just get what's going on, because what this is really good for is multidimensional data. The key is this: Our visual systems are good at detecting blobs and edges, but they're really bad at what our world has become, which is screens with lots and lots of data. We have to crawl that with our attentional systems. So this is a way of just feeling the state of something, just like the way you know the state of your body as you're standing around. So I think heavy machinery, safety, feeling the state of a factory, of your equipment, that's one place it'll go right away.
CA: Eğer bu doğrulanırsa, insanlar sana akın edecek. Bunun birçok olası uygulama yolu bulunuyor. Hazır mısın buna? Seni en çok ne heyecanlandırıyor, ucu nereye gidiyor? DE: Sanırım birçok uygulama yolu bulunuyor. Duyu değiştirmeyle ilgili olarak, ilk bahsetttiğim şeyler var, uzay istasyonundaki uzay insanları, vakitlerinin büyük bir bölümünde göstergeleri izliyorlar, bunun yerine olan biteni hissedebilirler; çünkü duyu değiştirme, çok boyutlu veriyle uğraşırken oldukça yararlı. Kilit nokta şu: Görsel sistemimiz kenarları ve içeriği algılamada başarılı, ama dünyamızın şimdiki hâlini algılamada başarısız, ekranlar ve tonlarca veriyle dolu dünyamız. Bu veriyi odaklanarak yavaş algılamak zorundayız. Bu yenilik, nesnenin durumunu hissetmemizi sağlıyor bize, tıpkı etrafta yürürken vücudumuzun durumunu bildiğimiz gibi. Bence, ağır iş makinelerini, güvenliği, bir fabrikanın durumunu, donanımlarınızı hissetmek, işe yarayacağı noktalardan birisi.
CA: David Eagleman, that was one mind-blowing talk. Thank you very much.
CA: David Eagleman, akılları baştan alan bir konuşmaydı. Çok teşekkürler.
DE: Thank you, Chris. (Applause)
DE: Teşekkürler Chris. (Alkış)