I'm really excited to be here today. I'll show you some stuff that's just ready to come out of the lab, literally, and I'm really glad that you guys are going to be among the first to see it in person, because I really think this is going to really change the way we interact with machines from this point on.
Ik ben heel erg blij om hier vandaag te zijn. Ik toon jullie zo meteen iets dat net uit het laboratorium is gekomen, letterlijk, en ik ben erg blij dat jullie bij de eersten zullen zijn die het persoonlijk zullen kunnen zien, want volgens mij zal dit echt de manier waarop wij met machines interageren, grondig veranderen. Dit is een videoprojectie-ontwerptafel. Ze is ongeveer 91 cm breed
Now, this is a rear-projected drafting table. It's about 36 inches wide and it's equipped with a multi-touch sensor. Normal touch sensors that you see, like on a kiosk or interactive whiteboards, can only register one point of contact at a time. This thing allows you to have multiple points at the same time. They can use both my hands; I can use chording actions; I can just go right up and use all 10 fingers if I wanted to. You know, like that.
en is uitgerust met een multi-aanraaksensor. Normale aanraaksensoren, bijvoorbeeld op een kiosk of op een interactief bord, kunnen maar één contactpunt tegelijk registreren. Dit ding laat je meerdere punten tegelijk toe. Ik kan mijn beide handen gebruiken. Ik kan een akkoord spelen. Ik kan naar boven gaan en alle 10 vingers gebruiken, als ik wil. Op deze manier.
Now, multi-touch sensing isn't completely new. People like Bill Buxton have been playing around with it in the '80s. However, the approach I built here is actually high-resolution, low-cost, and probably most importantly, very scalable. So, the technology, you know, isn't the most exciting thing here right now, other than probably its newfound accessibility. What's really interesting here is what you can do with it and the kind of interfaces you can build on top of it. So let's see.
Multi-aanraaksensoren zijn niet helemaal nieuw. Mensen als Bill Buxton speelden er al mee in de jaren '80. Maar mijn aanpak hier heeft een hoge resolutie, een lage kost, en -- het belangrijkste -- een hoge schaalbaarheid. De technologie is hier dus niet het spannendste, afgezien van haar nieuwe toegankelijkheid. Wat interessant is, zijn de toepassingsmogelijkheden en de interfaces die je er bovenop kan bouwen. Even kijken.
So, for instance, we have a lava lamp application here. Now, you can see, I can use both of my hands to kind of squeeze and put the blobs together. I can inject heat into the system here, or I can pull it apart with two of my fingers. It's completely intuitive; there's no instruction manual. The interface just kind of disappears. This started out as a screensaver app that one of the Ph.D. students in our lab, Ilya Rosenberg, made. But I think its true identity comes out here.
Hier hebben we bijvoorbeeld een lavalamptoepassing. Je ziet dat ik mijn twee handen kan gebruiken om samen te knijpen en de blobs te verzamelen. Ik kan hier hitte in het systeem injecteren, of ik kan het uiteentrekken met twee vingers. Het is volledig intuïtief. Er is geen handleiding. De interface verdwijnt zowat. Dit begon als een soort screensaver gemaakt door één van mijn doctoraatsstudenten, Ilya Rosenberg. Maar volgens mij komt zijn ware aard hier boven.
Now what's great about a multi-touch sensor is that, you know, I could be doing this with as many fingers here, but of course multi-touch also inherently means multi-user. Chris could be interacting with another part of Lava, while I play around with it here. You can imagine a new kind of sculpting tool, where I'm kind of warming something up, making it malleable, and then letting it cool down and solidifying in a certain state. Google should have something like this in their lobby.
Het geweldige aan een multi-aanraaksensor is dat ik dat hier kan doen met zoveel vingers, maar multi-aanraak is inherent natuurlijk ook multi-gebruiker. Chris zou dus hier kunnen interageren met een ander deel van Lava, terwijl ik hier dingen uitprobeer. Stel je een nieuw soort beeldhouwgereedschap voor, waarbij ik iets voorverwarm, het kneedbaar maak, en het dan laat afkoelen en hard worden in een bepaalde staat. Google zou dit ding in zijn lobby moeten zetten. (Gelach)
(Laughter)
I'll show you a little more of a concrete example here, as this thing loads. This is a photographer's light-box application. Again, I can use both of my hands to interact and move photos around. But what's even cooler is that if I have two fingers, I can actually grab a photo and then stretch it out like that really easily. I can pan, zoom and rotate it effortlessly. I can do that grossly with both of my hands, or I can do it just with two fingers on each of my hands together. If I grab the canvas, I can do the same thing -- stretch it out. I can do it simultaneously, holding this down, and gripping on another one, stretching this out.
Ik toon je hier een wat concreter voorbeeld, terwijl dit ding geladen wordt. Dit is een toepassing voor een lichtbak van een fotograaf. Ik kan mijn beide handen gebruiken om te interageren en foto's te verplaatsen. Nog leuker: met twee vingers kan ik een foto beetnemen en ze heel eenvoudig groter maken, zo. Ik kan zonder moeite pannen, inzoomen en roteren. Ik kan dat ruwweg doen met mijn twee handen, of met een combinatie van twee vingers van elk van mijn handen. Als ik het canvas beetneem, kan ik hetzelfde doen -- het oprekken. Ik kan dit tegelijk doen: ik hou dit naar beneden en trek aan een andere, waardoor ik dit oprek.
Again, the interface just disappears here. There's no manual. This is exactly what you expect, especially if you haven't interacted with a computer before. Now, when you have initiatives like the $100 laptop, I kind of cringe at the idea of introducing a whole new generation to computing with this standard mouse-and-windows-pointer interface. This is something that I think is really the way we should be interacting with machines from now on.
De interface verdwijnt ook hier. Er is geen handleiding. Dit is precies wat je verwacht, vooral als je nooit eerder met een computer hebt gewerkt. Met initiatieven als de laptop van 100 dollar krimp ik zowat ineen bij de idee dat we een hele nieuwe generatie mensen met computers vertrouwd zullen maken via de standaard-muis-en-windows-interface. Volgens mij is dit echt de manier waarop we met machines moeten intereageren, van nu af aan. (Applaus)
(Applause)
Now, of course, I can bring up a keyboard.
Ik kan er natuurlijk een toetsenbord bijhalen.
(Laughter) And I can bring that around, put that up there. Obviously, this is a standard keyboard, but of course I can rescale it to make it work well for my hands. That's really important, because there's no reason in this day and age that we should be conforming to a physical device. That leads to bad things, like RSI. We have so much technology nowadays that these interfaces should start conforming to us. There's so little applied now to actually improving the way we interact with interfaces from this point on. This keyboard is probably actually the really wrong direction to go. You can imagine, in the future, as we develop this kind of technology, a keyboard that kind of automatically drifts as your hand moves away, and really intelligently anticipates which key you're trying to stroke. So -- again, isn't this great?
En ik kan dat meebrengen, het daar zetten. Dit is een soort standaardtoetsenbord, maar ik kan de schaal aanpassen aan mijn handen. Dat is erg belangrijk, want heden ten dage is er geen enkele reden waarom we ons aan een fysiek toestel zouden moeten aanpassen. Daar komen slechte dingen van, zoals RSI. We hebben heden ten dage zoveel technologie dat die interfaces zich aan ons zouden moeten aanpassen. Vandaag gaat er zo weinig inspanning naar de verbetering van hoe we met interfaces omgaan. Dit toetsenbord is waarschijnlijk echt een stap in de verkeerde richting. Beeld je in dat in de toekomst, naarmate we deze technologie verder ontwikkelen, een toetsenbord automatisch wegdrijft als je hand zich verwijdert, en echt intelligent anticipeert welke toets je wil aanslaan met je vinger. Is dit niet geweldig?
(Laughter)
Publiek: Waar is je laboratorium?
Audience: Where's your lab?
Jeff Han: I'm a research scientist at NYU in New York.
Jeff Han: Ik ben onderzoeker in NYU in New York.
Here's an example of another kind of app. I can make these little fuzz balls. It'll remember the strokes I'm making. Of course I can do it with all my hands. It's pressure-sensitive. What's neat about that is, I showed that two-finger gesture that zooms in really quickly. Because you don't have to switch to a hand tool or the magnifying glass tool, you can just continuously make things in real multiple scales, all at the same time. I can create big things out here, but I can go back and really quickly go back to where I started, and make even smaller things here.
Hier is een ander soort toepassing. Ik kan kleine pluisballetjes maken. Het onthoudt welke bewegingen ik maak. Ik kan het met al mijn handen doen. Je merkt dat het drukgevoelig is. Maar wat geweldig is: ik heb je die beweging met twee vingers getoond waardoor je supersnel kan inzoomen. Omdat je niet moet overschakelen naar een handgereedschap, of naar het vergrootglas, kan je continu dingen maken op verschillende schalen, allemaal tegelijk. Ik kan hier grote dingen maken, maar ik kan teruggaan naar de start, heel snel, en daar kan ik nog kleinere dingen maken.
This is going to be really important as we start getting to things like data visualization. For instance, I think we all enjoyed Hans Rosling's talk, and he really emphasized the fact I've been thinking about for a long time: We have all this great data, but for some reason, it's just sitting there. We're not accessing it. And one of the reasons why I think that is will be helped by things like graphics and visualization and inference tools, but I also think a big part of it is going to be having better interfaces, to be able to drill down into this kind of data, while still thinking about the big picture here.
Dit zal heel belangrijk zijn als we dingen als we bijvoorbeeld beginnen met datavisualisatie. We hebben allemaal genoten van de toespraak van Hans Rosling. Hij heeft benadrukt wat ik ook al lang aan het bedenken ben: we hebben hopen geweldige gegevens, maar om één of andere reden liggen die daar maar. We vragen ze niet echt op. Eén van de redenen is volgens mij dat grafische weergave en visualisatie en conclusie-ondersteuning zal wel helpen, maar het zal belangrijker worden om betere interfaces te hebben, om dieper te kunnen graven in dit soort gegevens, terwijl je daar nog over het grotere plaatje nadenkt.
Let me show you another app here. This is called WorldWind. It's done by NASA. We've all seen Google Earth; this is an open-source version of that. There are plug-ins to be able to load in different data sets that NASA's collected over the years. As you can see, I can use the same two-fingered gestures to go down and go in really seamlessly. There's no interface, again. It really allows anybody to kind of go in -- and it just does what you'd expect, you know? Again, there's just no interface here. The interface just disappears. I can switch to different data views. That's what's neat about this app here. NASA's really cool. These hyper-spectral images are false-colored so you can -- it's really good for determining vegetative use. Well, let's go back to this.
Ik toon jullie nog een app. Dit heet WorldWind. Het is van NASA. We kennen allemaal Google Earth. Dit is een open-source-versie daarvan. Er zijn plug-ins waarmee je verschillende sets gegevens kan opladen die NASA door de jaren heen heeft verzameld. Zoals je ziet, kan ik dezelfde beweging van twee vingers gebruiken om naadloos af te dalen en binnen te gaan. Nogmaals, er is geen interface. Iedereen kan hierlangs naar binnen -- en het doet wat je verwacht. Er is geen interface. De interface verdwijnt gewoon. Ik kan overschakelen naar andere voorstellingen van gegevens. Dat is zo leuk aan deze app. Kijk maar. NASA is echt cool. Ze hebben hyperspectrale beelden met valse kleuren. Prima om vegetatief gebruik te bepalen. Laten we eens terugkeren. Het geweldige aan kaarttoepassingen --
The great thing about mapping applications -- it's not really 2D, it's 3D. So, again, with a multi-point interface, you can do a gesture like this -- so you can be able to tilt around like that --
het is niet echt 2D, het is een soort 3D. Met een multipunt-interface kan je een gebaar als dit doen -- je kan het zo kantelen.
(Surprised laughter)
Het is niet zomaar een soort 2D-panning met beweging.
It's not just simply relegated to a kind of 2D panning and motion. This gesture is just putting two fingers down -- it's defining an axis of tilt -- and I can tilt up and down that way. We just came up with that on the spot, it's probably not the right thing to do, but there's such interesting things you can do with this interface. It's just so much fun playing around with it, too.
De beweging die we hebben ontwikkeld, bestaat eruit dat je twee vingers neerzet -- dat bepaalt de as waarmee je optilt -- en je kan het zo op en neer kantelen. Dat hebben we gewoon ter plekke bedacht. Het is waarschijnlijk niet ideaal. Maar er zijn zoveel interessante dingen die je met deze interface kan doen. Het is zo leuk om mee te spelen. (Gelach)
(Laughter)
Het laatste dat ik jullie wil tonen, is dit.
And so the last thing I want to show you is -- I'm sure we can all think of a lot of entertainment apps that you can do with this thing. I'm more interested in the creative applications we can do with this. Now, here's a simple application here -- I can draw out a curve. And when I close it, it becomes a character. But the neat thing about it is I can add control points. And then what I can do is manipulate them with both of my fingers at the same time. And you notice what it does. It's kind of a puppeteering thing, where I can use as many fingers as I have to draw and make --
We kunnen allemaal vele ontspanningsapps bedenken voor dit ding. Ik ben meer geïnteresseerd in de creatieve toepassingen hiervan. Dit is een eenvoudige toepassing. Ik teken een curve. Als ik ze sluit, wordt het een personage. Het leuke is dat ik controlepunten kan toevoegen; Vervolgens kan ik ze met mijn twee vingers tegelijk manipuleren. Kijk wat het doet. Het is een soort poppenspel, waarbij ik al mijn vingers kan gebruiken om te tekenen.
Now, there's a lot of actual math going on under here for this to control this mesh and do the right thing. This technique of being able to manipulate a mesh here, with multiple control points, is actually state of the art. It was released at SIGGRAPH last year. It's a great example of the kind of research I really love: all this compute power to make things do the right things, intuitive things, to do exactly what you expect.
Hieronder komt er een hoop wiskunde bij kijken om te zorgen dit net goed wordt aangestuurd en goed werkt. Deze techniek waarbij je hier een net kan manipuleren met verschillende controlepunten, dat is echt het neusje van de zalm. Het werd pas vorig jaar op Siggraph gelanceerd. Het is een prachtig voorbeeld van het soort onderzoek waar ik van hou: al die computerkracht om te zorgen dat dingen de juiste dingen doen, intuïtieve dingen, precies wat je verwacht.
So, multi-touch interaction research is a very active field right now in HCI. I'm not the only one doing it, a lot of other people are getting into it. This kind of technology is going to let even more people get into it, I'm looking forward to interacting with all of you over the next few days and seeing how it can apply to your respective fields.
Onderzoek naar multi-aanraak-interactie is momenteel heel actief in HCI. Ik ben niet de enige die het doet, er zijn veel andere mensen mee bezig. Deze technologie zal nog meer mensen toelaten tot het domein, en ik kijk ernaar uit om met jullie allemaal in dialoog te gaan de komende dagen, om te bekijken wat dit voor jullie domein kan betekenen.
Thank you.
Hartelijk dank.
(Applause)
(Applaus)