I'm really excited to be here today. I'll show you some stuff that's just ready to come out of the lab, literally, and I'm really glad that you guys are going to be among the first to see it in person, because I really think this is going to really change the way we interact with machines from this point on.
Bugün burada olduğum için çok heyecanlıyım, çünkü laboratuvarımdan yeni çıkardığım bir şeyi göstermek üzereyim, bunu ilk görenler sizler olacağınız için çok memnunum, çünkü bunun gerçekten makinelerle olan ilişkimizi derinden değiştireceğine inanıyorum. Bu geriden gösterim yapan bir çizim ekranı. 36 inç genişliğinde,
Now, this is a rear-projected drafting table. It's about 36 inches wide and it's equipped with a multi-touch sensor. Normal touch sensors that you see, like on a kiosk or interactive whiteboards, can only register one point of contact at a time. This thing allows you to have multiple points at the same time. They can use both my hands; I can use chording actions; I can just go right up and use all 10 fingers if I wanted to. You know, like that.
ve çoklu dokunmatik bir sensör eklenmiş durumda. Bir telefon kulübesinde veya interaktif yazı tahtalarında gördüğünüz normal dokunmatik sensörler bir anda sadece bir noktayı algılayabilir. Bu alet size aynı anda birden fazla nokta işaretleme imkanı veriyor. İki elimi de kullanabilirim, kiriş hareketleri yapabilirim, ve istersem 10 parmağımı aynı anda kullanabilirim. İşte böyle.
Now, multi-touch sensing isn't completely new. People like Bill Buxton have been playing around with it in the '80s. However, the approach I built here is actually high-resolution, low-cost, and probably most importantly, very scalable. So, the technology, you know, isn't the most exciting thing here right now, other than probably its newfound accessibility. What's really interesting here is what you can do with it and the kind of interfaces you can build on top of it. So let's see.
Çoklu dokunmatik sensörler tamamen yeni değiller. Örneğin, Bill Buxton 80'lerden beri bunlarla oynuyor. Ama, burada benim ürettiğim gerçekten yüksek-çözünürlüklü, düşük maliyetli, ve sanırım en önemlisi, görüntü yakınlaştırılabilir. Teknoloji şu an buradaki en heyecan verici şey değil, daha çok onun yeni bulduğumuz erişilebilecek noktaları bizi heyecanlandırıyor. Burada ilginç olan, onunla neler yapabileceğimiz, ve üstüne neler ilave edebileceğimiz. Şimdi görelim.
So, for instance, we have a lava lamp application here. Now, you can see, I can use both of my hands to kind of squeeze and put the blobs together. I can inject heat into the system here, or I can pull it apart with two of my fingers. It's completely intuitive; there's no instruction manual. The interface just kind of disappears. This started out as a screensaver app that one of the Ph.D. students in our lab, Ilya Rosenberg, made. But I think its true identity comes out here.
Mesela, burada bir lav ışığı uygulamamız var. Gördüğünüz gibi, iki elimi baloncukları toplayıp bir araya getirmek için kullanabiliyorum. Sisteme bu şekilde ısı enjekte edebiliyorum, veya iki parmağım ile ayırabilirim. Bu tamamen sezgisel; bunun bir el kitabı yok. Arayüz kayboluyor. Bu uygulama bir ekran koruyucu olarak başladı, doktora öğrencisi Ilya Rosenberg yaptı. Ama, sanırım asıl kullanılması gereken yer burası.
Now what's great about a multi-touch sensor is that, you know, I could be doing this with as many fingers here, but of course multi-touch also inherently means multi-user. Chris could be interacting with another part of Lava, while I play around with it here. You can imagine a new kind of sculpting tool, where I'm kind of warming something up, making it malleable, and then letting it cool down and solidifying in a certain state. Google should have something like this in their lobby.
Çoklu dokunmatik sensör ile ilgili harika olan şey şu, bunu buradaki tüm parmaklar ile gerçekleştirebilirdim, ama çoklu dokunmatik aynı zamanda çok kullanıcılı anlamına geliyor. Chris buraya gelip lavın bir diğer tarafında çalışabilir, ben buralarda oynarken. Yeni bir şekil verme aleti hayal edebilirsiniz, buradaki bölümü ısıtıyorum, sonra şekil veriyorum, sonra soğuyup belli bir şekilde katılaşmaya bırakıyorum. Google'ın lobisinde böyle bir alet hoş olurdu. (Gülüşmeler)
(Laughter)
I'll show you a little more of a concrete example here, as this thing loads. This is a photographer's light-box application. Again, I can use both of my hands to interact and move photos around. But what's even cooler is that if I have two fingers, I can actually grab a photo and then stretch it out like that really easily. I can pan, zoom and rotate it effortlessly. I can do that grossly with both of my hands, or I can do it just with two fingers on each of my hands together. If I grab the canvas, I can do the same thing -- stretch it out. I can do it simultaneously, holding this down, and gripping on another one, stretching this out.
Size bir şey göstereceğim -- daha somut bir örnek, bu yüklerken. Bu bir fotoğrafçının ışık kabini uygulaması. İki elimi birden kullanıp, resimlerin yönünü değiştirebiliyorum. Ama daha da iyisi, eğer iki parmağımı kullanırsam, bir resmi tutup, kolaylıkla böyle büyütebilirim. Kolayca açısını değiştirebilir, yakınlaştırıp uzaklaştırabilirim, döndürebilirim. Bunu iki elimle de yapabilirim, ya da bir elimdeki iki parmağımla da yapabilirim. Eğer taslağı yakalarsam, aynı şeyleri yapabilirim -- büyütebilirim. Aynı anda yapabilirim, bunu bu şekilde tutarken, bir resmi seçip, onu bu şekilde büyütebilirim.
Again, the interface just disappears here. There's no manual. This is exactly what you expect, especially if you haven't interacted with a computer before. Now, when you have initiatives like the $100 laptop, I kind of cringe at the idea of introducing a whole new generation to computing with this standard mouse-and-windows-pointer interface. This is something that I think is really the way we should be interacting with machines from now on.
Yine, arayüz burada kayboluyor. Herhangi bir kullanma kılavuzu yok. Bu özellikle daha önce bir bilgisayar kullanmadıysanız tam aradığınız şey. Şimdi, eğer 100 dolarlık laptoplar gibi girişimleriniz varsa, bu tanıtacağımız yeni jenerasyondan, insanların bu standartta mouse ve windows kursör arayüzü ile bilgisayar kullanacağından korkardım. Şu andan itibaren bana göre makinalar ile bu şekilde etkileşimde olmalıyız. (Alkışlar)
(Applause)
Now, of course, I can bring up a keyboard.
Tabi ki bir klavye çıkarabilirim.
(Laughter) And I can bring that around, put that up there. Obviously, this is a standard keyboard, but of course I can rescale it to make it work well for my hands. That's really important, because there's no reason in this day and age that we should be conforming to a physical device. That leads to bad things, like RSI. We have so much technology nowadays that these interfaces should start conforming to us. There's so little applied now to actually improving the way we interact with interfaces from this point on. This keyboard is probably actually the really wrong direction to go. You can imagine, in the future, as we develop this kind of technology, a keyboard that kind of automatically drifts as your hand moves away, and really intelligently anticipates which key you're trying to stroke. So -- again, isn't this great?
Bunu alabilirim, buraya koyabilirim. Gördüğünüz gibi, bu standart bir klavye, ama tabi ki bunu elimin büyüklüğüne göre büyütebilirim. Bu gerçekten önemli, çünkü teknolojinin geldiği bu seviyede fiziksel bir alete uyum sağlamamız için bir neden yok. Bu RSI gibi kötü şeylere neden olur. Bugünlerde teknolojimiz çok gelişti, artık arayüzler bizlere ayak uydurmalı. Şu ana kadar çok az bir kısmı uygulandı bundan sonra arayüzler ile etkileşimimiz gelişecektir. Bu klavyelerde yaptığımız gelişmeler büyük ihtimalle yanlış yönde. Düşünün, gelecekte bu tür teknolojiyi geliştirdiğimizde, eliniz hareket ettiğinde otomatik olarak hareket eden ve elinizin hangi tuşu aradığını anlayabilecek zekada klavyeler yaratılacak. Evet -- yeniden, harika değil mi?
(Laughter)
Seyirci: Laboratuvarın nerede?
Audience: Where's your lab?
Jeff Han: I'm a research scientist at NYU in New York.
Jeff Han: Ben New York Üniversitesi'nde araştırma görevlisiyim.
Here's an example of another kind of app. I can make these little fuzz balls. It'll remember the strokes I'm making. Of course I can do it with all my hands. It's pressure-sensitive. What's neat about that is, I showed that two-finger gesture that zooms in really quickly. Because you don't have to switch to a hand tool or the magnifying glass tool, you can just continuously make things in real multiple scales, all at the same time. I can create big things out here, but I can go back and really quickly go back to where I started, and make even smaller things here.
Burada başka bir uygulama örneği var. Bunları küçük tüy topları yapabilirim. Yaptığım vuruşları hatırlayacak. Tabi ki bunu tüm parmaklarımla yapabilirim. Dokunuşuma duyarlı olduğunu fark edebilirsiniz. Bu aletin güzel yanı, az önce gösterdiğim gibi görüntüyü hızlı bir şekilde büyütmeniz için iki parmak yeterli. Çünkü bir büyütme aletine veya bir başka menüye gerek yok; devamlı olarak büyütebilirsiniz, hepsi aynı anda. Burada büyük şeyler yaratabilirim, buraya başladığım notaya çok hızlı dönebilir ve daha küçük şeyler yapabilirim.
This is going to be really important as we start getting to things like data visualization. For instance, I think we all enjoyed Hans Rosling's talk, and he really emphasized the fact I've been thinking about for a long time: We have all this great data, but for some reason, it's just sitting there. We're not accessing it. And one of the reasons why I think that is will be helped by things like graphics and visualization and inference tools, but I also think a big part of it is going to be having better interfaces, to be able to drill down into this kind of data, while still thinking about the big picture here.
Veri görüntüleme gibi şeylere başladığımız için bu çok önemli olacak. Mesela, sanırım hepimiz Hans Rosling'in konuşmasını beğendik, ve gerçekten uzun zamandır düşündüğüm bir gerçeği vurguladı: hepimiz bu bilgiye sahibiz ama bir sebepten ötürü orada öylece duruyor. Onu kullanmıyoruz. Bana göre bunun bir sebebi, -- grafik, görüntüleme, netice araçlarından hepimiz faydalanacağız. Sanırım büyük bir çoğunluğu daha iyi arayüzlere sahip olmaya başlayacak, buradaki büyük resim ile uğraşırken bu tür verilere erişebilmek için.
Let me show you another app here. This is called WorldWind. It's done by NASA. We've all seen Google Earth; this is an open-source version of that. There are plug-ins to be able to load in different data sets that NASA's collected over the years. As you can see, I can use the same two-fingered gestures to go down and go in really seamlessly. There's no interface, again. It really allows anybody to kind of go in -- and it just does what you'd expect, you know? Again, there's just no interface here. The interface just disappears. I can switch to different data views. That's what's neat about this app here. NASA's really cool. These hyper-spectral images are false-colored so you can -- it's really good for determining vegetative use. Well, let's go back to this.
Bu da WorldWind adlı başka bir uygulama. NASA tarafından yapıldı. Hepimiz Google Earth'ü görmüşüzdür; bu da onun açık-kaynaklı versiyonu gibi. NASA'nın uzun yıllar boyu topladığı farklı verileri yüklemek için özel bir uygulaması. Gördüğünüz gibi, yakınlaşmak için aynı iki parmak hareketini kullanıyorum. Yine, hiçbir arayüz yok. Herkese istediği kadar gidebilme imkanı sunuyor -- ve, tam olarak beklediğinizi yapıyor. Tekrar, burada arayüz yok. Arayüz hemen kayboluyor. Farklı bir veri görüntüsüne geçebilirim. Bu uygulamanın güzelliği de bu. İşte böyle. NASA gerçekten harika. Bu farklı renklere ayıran elektromanyetik görünüme sahip -- bitkileri ayırt etmek için harika. Şuraya geri gidelim. Haritalama uygulamaları hakkında en harika şey --
The great thing about mapping applications -- it's not really 2D, it's 3D. So, again, with a multi-point interface, you can do a gesture like this -- so you can be able to tilt around like that --
2D değil, bir çeşit 3D olması. Çoklu dokunmatik arayüzle, böyle bir hareket yapabilirsiniz -- böylece etrafı böyle eğip bükebilirsiniz.
(Surprised laughter)
Bu basit bir 2D yaklaşma ve hareket ettirmeden ibaret değil.
It's not just simply relegated to a kind of 2D panning and motion. This gesture is just putting two fingers down -- it's defining an axis of tilt -- and I can tilt up and down that way. We just came up with that on the spot, it's probably not the right thing to do, but there's such interesting things you can do with this interface. It's just so much fun playing around with it, too.
Bu geliştirdiğimiz hareket ile iki parmağınızı buraya koyuyorsunuz, eğim için bir eksen belirliyor, ve ben de ona göre eğip bükebiliyorum. Bu tam bu durum için bulduğumuz bir çözüm, belki yapılması gereken şey değil ama böyle bir arayüzle yapabileceğiniz bir çok ilginç şey var. Böyle oynamak çok eğlenceli aynı zamanda. (Gülüşmeler)
(Laughter)
Göstermek istediğim son şey --
And so the last thing I want to show you is -- I'm sure we can all think of a lot of entertainment apps that you can do with this thing. I'm more interested in the creative applications we can do with this. Now, here's a simple application here -- I can draw out a curve. And when I close it, it becomes a character. But the neat thing about it is I can add control points. And then what I can do is manipulate them with both of my fingers at the same time. And you notice what it does. It's kind of a puppeteering thing, where I can use as many fingers as I have to draw and make --
eminim böyle bir aletle yapabileceğimiz bir çok eğlence uygulaması aklınıza gelmiştir. Ben daha çok bu tür yaratıcı uygulamalarla ilgiliyim. İşte basit bir uygulama-- Bir eğri çizebiliyorum. Ve eğriyi kapattığımda bir karakter haline geliyor. Güzel olan yanı ise, kontrol noktaları ekleyebilirim. Şimdi de parmaklarımla eş zamanlı olarak onu hareket ettirebilirim. Ne olduğunu görebiliyorsunuz. Bir çeşit kuklacılık, çizmek için ihtiyacım olan parmak sayısı kadar parmağımı kullanabilirim --
Now, there's a lot of actual math going on under here for this to control this mesh and do the right thing. This technique of being able to manipulate a mesh here, with multiple control points, is actually state of the art. It was released at SIGGRAPH last year. It's a great example of the kind of research I really love: all this compute power to make things do the right things, intuitive things, to do exactly what you expect.
Burada kontrol noktalarını tutmak ve doğru şeyi yapmak için çok fazla matematiksel işlem var. Yani, buradaki cismi kontrol noktaları ile hareket ettirme tekniği, gerçekten teknolojinin son harikası olarak değerlendirilmeli. Geçen sene Siggraph'ta tanıtıldı, hayranı olduğum bir araştırma çeşidinin mükemmel bir örneği. Her şeyin doğru olanı yapması için gereken gücü hesaplıyor, sezgisel şeyleri. Umduğunuz şeyi gerçekleştiriyor.
So, multi-touch interaction research is a very active field right now in HCI. I'm not the only one doing it, a lot of other people are getting into it. This kind of technology is going to let even more people get into it, I'm looking forward to interacting with all of you over the next few days and seeing how it can apply to your respective fields.
Çoklu dokunmatik araştırmaları şu anda HCI (Human Computer Interaction- İnsan Bilgisayar Etkileşimi)'da çok aktif bir alan. Bunu yapan sadece ben değilim, bununla uğraşan bir sürü kişi var. Böyle bir teknoloji daha da fazla kişinin uğraşmasını sağlayacak, ve sizlerle önümüzdeki günlerde ilgili alanlara nasıl uygulayabileceğimiz hakkında konuşmak için sabırsızlanıyorum.
Thank you.
Teşekkür ederim.
(Applause)
(Alkışlar)