What I'm going to show you first, as quickly as I can, is some foundational work, some new technology that we brought to Microsoft as part of an acquisition almost exactly a year ago. This is Seadragon, and it's an environment in which you can either locally or remotely interact with vast amounts of visual data.
สิ่งที่ผมจะนำเสนอคุณอันดับแรก และจะไปให้เร็วที่สุดเท่าที่ทำได้ นั่นคืองานรากฐาน ซึ่งเป็นเทคโนโลยีใหม่ที่เรานำมาให้ แก่ไมโครซอฟท์ที่ถือเป็นส่วนหนึ่งของการควบรวมกิจการ ที่มีขึ้นเกือบครบหนึ่งปีแล้ว นี่คือ Seadragon และนี่เป็นสภาพแวดล้อมที่คุณ สามารถสื่อสารระหว่างกับข้อมูล จำนวนมหาศาลได้ทั้งในระยะใกล้และระยะไกล
We're looking at many, many gigabytes of digital photos here and kind of seamlessly and continuously zooming in, panning through it, rearranging it in any way we want. And it doesn't matter how much information we're looking at, how big these collections are or how big the images are. Most of them are ordinary digital camera photos, but this one, for example, is a scan from the Library of Congress, and it's in the 300 megapixel range. It doesn't make any difference because the only thing that ought to limit the performance of a system like this one is the number of pixels on your screen at any given moment. It's also very flexible architecture. This is an entire book, so this is an example of non-image data. This is "Bleak House" by Dickens. Every column is a chapter. To prove to you that it's really text, and not an image, we can do something like so, to really show that this is a real representation of the text; it's not a picture. Maybe this is an artificial way to read an e-book. I wouldn't recommend it.
เรากำลังดูที่ภาพถ่ายดิจิตอล จำนวนมากมายหลายกิกะไบต์อยู่ และการดึงภาพเข้ามาใกล้อย่างต่อเนื่องและลื่นไหล การแพนผ่านวัตถุ การจัดเรียงภาพ ในแบบใดก็ได้ที่เราต้องการ และไม่ต้องสนใจว่าเรากำลังดู ข้อมูลมากน้อยเพียงใด ว่างานสะสมจะใหญ่โตแค่ไหน หรือภาพจะมีขนาดใหญ่เพียงใด รูปส่วนใหญ่จะเป็นรูปถ่ายจากกล้องดิจิตอลธรรมดานี่เอง แต่ภาพนี้เป็นภาพสแกนจากห้องสมุด รัฐสภาอเมริกัน และเป็นภาพขนาด 300 เมกะพิกเซล จะเห็นว่าไม่ได้แตกต่างอะไรเลย เพราะมีเพียงสิ่งเดียวเท่านั้นที่จะจำกัดสมรรถนะ ของระบบที่คล้ายกับระบบนี้คือ จำนวนพิกเซลบนจอภาพของคุณ ณ ช่วงเวลาใดเวลาหนึ่ง ระบบนี้ยังมีสถาปัตยกรรมที่ยืดหยุ่นมาก นี่ก็คือหนังสือทั้งเล่ม เป็นตัวอย่างข้อมูลที่ไม่ใช่รูปภาพ นี่คือหนังสือบรีกเฮ้าส์แต่งโดยดิกเคนส์ แต่ละคอลัมน์คือหนื่งบท เพื่อพิสูจน์ให้คุณเห็นว่านี่เป็นตัวหนังสือจริงๆ และไม่ใช่รูปภาพ เราทำได้แบบนี้ เพื่อแสดงให้เห็นว่า นี่คือการนำเสนอตัวหนังสือจริงๆ สิ่งที่เห็นไม่ใช่รูปภาพ บางทีนี่อาจเป็นวิธีประดิษฐ์ในการอ่านอี-บุ๊คก็ได้ ผมไม่ขอแนะนำวิธีนี้นะครับ
This is a more realistic case, an issue of The Guardian. Every large image is the beginning of a section. And this really gives you the joy and the good experience of reading the real paper version of a magazine or a newspaper, which is an inherently multi-scale kind of medium. We've done something with the corner of this particular issue of The Guardian. We've made up a fake ad that's very high resolution -- much higher than in an ordinary ad -- and we've embedded extra content. If you want to see the features of this car, you can see it here. Or other models, or even technical specifications. And this really gets at some of these ideas about really doing away with those limits on screen real estate. We hope that this means no more pop-ups and other rubbish like that -- shouldn't be necessary.
ต่อไปนี้คือกรณีที่ใกล้เคียงความจริงมากกว่า นี่คือหนังสือพิมพ์ Guardian ภาพขนาดใหญ่ทุกภาพเป็นจุดแรกของของส่วน และนี่จะให้ความเพลิดเพลิน และประสบการณ์ที่ดีสำหรับคุณจริงๆ ในการอ่านรูปแบบสมจริงของ นิตยสารหรือหนังสือพิมพ์ ซึ่งเป็นสื่อประเภทที่หลากหลายระดับมาตั้งแต่แรก เรายังได้ทำอะไรเพิ่มอีกเล็กน้อย กับหัวมุมของหนังสือพิมพ์ The Guardian ฉบับนี้ด้วย เราได้ทำโฆษณาปลอมที่มีรายละเอียดสูงมาก-- สูงกว่าที่คุณจะนำไปใช้กับโฆษณาทั่วๆ ไปได้ -- แล้วเราใส่เนื้อหาเพิ่มเติมลงไป ถ้าคุณอยากคุณสมบัติเด่นๆ ของรถยนต์คันนี้ คุณสามารถดูได้ที่นี่ หรือรุ่นอื่นๆ หรือแม้แต่รายละเอียดจำเพาะทางเทคนิค และนี่ทำให้เกิดแนวความคิดบางอย่าง เกี่ยวกับการฉีกข้อจำกัดในเรื่องพื้นที่ บนจอภาพเหล่านั้น เราหวังว่านี่หมายถึงไม่มีพวกป๊อบอัพอีกต่อไป และบรรดาข้อมูลขยะประเภทอื่นๆ ไม่จำเป็นต้องมี
Of course, mapping is one of those obvious applications for a technology like this. And this one I really won't spend any time on, except to say that we have things to contribute to this field as well. But those are all the roads in the U.S. superimposed on top of a NASA geospatial image. So let's pull up, now, something else. This is actually live on the Web now; you can go check it out.
แน่นอนครับ การทำแผนที่ถือเป็น โปรแกรมหนึ่งที่เห็นได้ชัดเจนที่สุด ของเทคโนโลยีแบบนี้ ส่วนนี้ผมจะไม่พูดถึงนะครับ เพียงแค่จะพูดว่า เรามีความสามารถที่จะช่วยส่งเสริม ในการทำงานด้านนี้ด้วยเข่นกัน แต่ภาพที่เห็นคือถนนทั้งหมดในสหรัฐอเมริกา ที่วางซ้อนทับบนภาพถ่ายกำหนดพิกัด ทางภูมิศาสตร์ของนาซ่า ตอนนี้เรามาดูส่วนอื่นกันนะครับ ภาพนี้อยู่บนเวปไซต์แล้วในขณะนี้ คุณสามารถลองใช้ดูได้เลยครับ
This is a project called Photosynth, which marries two different technologies. One of them is Seadragon and the other is some very beautiful computer-vision research done by Noah Snavely, a graduate student at the University of Washington, co-advised by Steve Seitz at U.W. and Rick Szeliski at Microsoft Research. A very nice collaboration. And so this is live on the Web. It's powered by Seadragon. You can see that when we do these sorts of views, where we can dive through images and have this kind of multi-resolution experience.
นี่คือโครงการชื่อว่า Photosynth ซึ่งผสมผสานเทคโลยี่ที่แตกต่างกันสองแบบ หนึ่งในเทคโนโลยีคือ Seadragon และอีกอีกแบบคืองานวิจัยการมองภาพของคอมพิวเตอร์ที่สวยงามมาก สร้างขึ้นโดย โนอาห์ สเนฟลี่ นักศึกษาปริญญาโทที่มหาวิทยาลัยวอร์ชิงตัน ร่วมให้คำปรึกษาโดย สตีฟ ไซส์ ที่มหาวิทยาลัยวอร์ชิงตัน และ ริกค์ สลิซกี้ แห่งหน่วยวิจัยของไมโครซอฟท์ การร่วมมือที่ดีจริงๆ ครับ และนี่ก็แสดงอยู่บนเวปไซต์แล้วและมี Seadragon เป็นตัวขับเคลื่อน คุณจะเห็นว่าเมื่อเราทำมุมภาพต่างๆ เหล่านั้น เมื่อเราดำดิ่งผ่านรูปภาพต่างๆ และได้รับ ประสบการณ์ที่รูปภาพมีรายละเอียดหลากหลาย
But the spatial arrangement of the images here is actually meaningful. The computer vision algorithms have registered these images together so that they correspond to the real space in which these shots -- all taken near Grassi Lakes in the Canadian Rockies -- all these shots were taken. So you see elements here of stabilized slide-show or panoramic imaging, and these things have all been related spatially. I'm not sure if I have time to show you any other environments. Some are much more spatial. I would like to jump straight to one of Noah's original data-sets -- this is from an early prototype that we first got working this summer -- to show you what I think is really the punch line behind the Photosynth technology, It's not necessarily so apparent from looking at the environments we've put up on the website. We had to worry about the lawyers and so on.
แต่การจัดวางรูปภาพที่ล่องลอยอยู่ในอากาศนี้ มีความหมายอย่างยิ่ง อัลกอลิธึมการมองของคอมพิวเตอร์ ได้เก็บบันทึกรูปภาพเหล่านี้ไว้ด้วยกัน ดังนั้นเมื่ออัลกอลิธึมสัมพันธ์กับพื้นที่จริงในรูปภาพเหล่านี้ -- ซึ่งถูกถ่ายใกล้ทะเลสาบกราสซี่ ในเทือกเขาร๊อกกี้ประเทศแคนาดา -- เพราะฉะนั้น คุณเห็นองค์ประกอบต่างๆ ที่นี้ ของภาพสไลด์ที่เสถียรคงที่ หรือการแสดงภาพแบบพาโนรามิก และภาพเหล่านี้ทั้งหมดสัมพันธ์กันทางอากาศ ผมไม่แน่ใจว่าจะมีเวลาพอที่จะ แสดงให้คุณเห็นสภาพแวดล้อมอื่นๆ ยังมีสภาพแวดล้อมบางอย่างที่สัมพันธ์กับอากาศมากกว่านี้ ผมอยากไปที่หนึ่งในชุดข้อมูลต้นฉบับของโนอาห์เลย -- และภาพนี้มาจากต้นแบบช่วงแรกๆ ของ Photosynth ที่เราทำให้ระบบทำงานครั้งแรกในช่วงฤดูร้อน -- เพื่อแสดงให้คุณเห็นถึงสิ่งที่ผมคิด ว่าเป็นสิ่งสำคัญที่อยู่เบื้องหลังเทคโนโลยีนี้ นั่นคือเทคโนโลยี Photosynth และไม่จำเป็นจะต้องชัดเจน จากการดูที่สภาพแวดล้อมที่เราได้เอาขึ้นบนเวปไซต์ เมื่อก่อนเรากังวลเรื่องทนายความและเรื่องอื่นๆ
This is a reconstruction of Notre Dame Cathedral that was done entirely computationally from images scraped from Flickr. You just type Notre Dame into Flickr, and you get some pictures of guys in T-shirts, and of the campus and so on. And each of these orange cones represents an image that was discovered to belong to this model. And so these are all Flickr images, and they've all been related spatially in this way. We can just navigate in this very simple way.
นี่คือการสร้างโมเดลโบสถ์นอร์ทเธอดามขึ้นใหม่ ที่ถูกทำขึ้นด้วยการคำนวณทางคอมพิวเตอร์ทั้งหมด จากรูปภาพที่ได้มาจาก Flickr คุณแค่พิมพ์คำว่านอร์ทเธอดามใน Flickr เท่านั้น แล้วคุณจะได้รูปภาพของชายสวมเสื้อยืด และรูปภาพมหาวิทยาลัย และรูปอื่นๆ และโดยกรวยสีส้ม แต่ละอันจะแสดงรูปภาพหนึ่งภาพ ที่ถูกค้นพบเพื่อให้เป็นของโมเดลนี้ และรูปภาพเหล่านี้ทั้งหมดได้จาก Flickr และถูกเชื่อมสัมพันธ์กันในเชิงอากาศในวิธีนี้ และเราสามารถท่องไปได้ด้วยวิธีการที่แสนธรรมดานี้
(Applause)
(เสียงปรบมือ)
(Applause ends)
You know, I never thought that I'd end up working at Microsoft. It's very gratifying to have this kind of reception here.
ผมไม่เคยคิดเลยว่าจะมาลงเอยทำงานที่ไมโครซอฟท์ ผมรู้สึกยินดีอย่างยิ่งที่ได้รับการต้อนรับ เป็นอย่างดี ณ ที่นี้
(Laughter)
(เสียงหัวเราะ)
I guess you can see this is lots of different types of cameras: it's everything from cell-phone cameras to professional SLRs, quite a large number of them, stitched together in this environment. If I can find some of the sort of weird ones -- So many of them are occluded by faces, and so on. Somewhere in here there is actually a series of photographs -- here we go. This is actually a poster of Notre Dame that registered correctly. We can dive in from the poster to a physical view of this environment.
ผมกะว่าคุณจะเห็น มีกล้องถ่ายรูปที่แตกต่างกันหลายชนิด มีตั้งแต่กล้องถ่ายรูปในโทรศัพท์มือถือ ไปจนถึงกล้องเอสแอลอาร์ของมืออาชีพ รูปภาพจำนวนมากถูกผูกติดเข้าไว้กัน ในสภาพแวดล้อมนี้ และถ้าทำได้ ผมจะหารูปแปลกๆ มาให้คุณดู ดังนั้นภาพต่างๆ ปิดเหลื่อมกันด้วยหน้าและส่วนอื่นๆ จริงๆ แล้ว รูปภาพที่อยู่ในที่นี้บางแห่ง คือชุดของภาพถ่าย -- เชิญครับ จริงๆ นี่คือรูปโปสเตอร์ของโบสถ์นอร์ทเธอดาม ที่ถูกบันทึกไว้อย่างถูกต้อง เราสามารถดำดิ่งจากโปสเตอร์ ลงไปยังมุมมองกายภาพของสภาพแวดล้อมนี้ได้
What the point here really is is that we can do things with the social environment. This is now taking data from everybody -- from the entire collective memory, visually, of what the Earth looks like -- and link all of that together. Those photos become linked, and they make something emergent that's greater than the sum of the parts. You have a model that emerges of the entire Earth. Think of this as the long tail to Stephen Lawler's Virtual Earth work. And this is something that grows in complexity as people use it, and whose benefits become greater to the users as they use it. Their own photos are getting tagged with meta-data that somebody else entered. If somebody bothered to tag all of these saints and say who they all are, then my photo of Notre Dame Cathedral suddenly gets enriched with all of that data, and I can use it as an entry point to dive into that space, into that meta-verse, using everybody else's photos, and do a kind of a cross-modal and cross-user social experience that way. And of course, a by-product of all of that is immensely rich virtual models of every interesting part of the Earth, collected not just from overhead flights and from satellite images and so on, but from the collective memory.
จุดประสงค์ ณ ที่นี้ก็คือว่า เราสามารถทำหลายสิ่งได้ ด้วยสภาพแวดล้อมทางสังคม นั่นคือการนำข้อมูลจากทุกคน -- จากความทรงจำรวมทั้งหมด ของภาพของโลกมนุษย์ผ่านสายตาของเรา -- แล้วเชื่อมสิ่งทั้งหมดเข้าด้วยกัน ภาพถ่ายทั้งหมดกลายเป็นภาพที่ถูกเชื่อมต่อกัน แล้วสร้างบางสิ่งบางอย่างให้ปรากฎขึ้น ซึ่งยิ่งใหญ่กว่าผลรวมของส่วนต่างๆ ที่ประกอบขึ้นมา คุณมีโมเดลที่จะสร้างโลกมนุษย์ทั้งใบได้ ลองเปรียบเทียบ สิ่งนี้เป็นกลยุทธ์การตลาดกับงาน Virtual Earth ของสตีเฟ่น ลอว์เลอร์ และนี่คือสิ่งที่เติบโตขึ้นในความสลับซับซ้อน เมื่อผู้คนใช้งานระบบ และผู้ใช้ได้รับผลประโยชน์มากกว่า เมื่อพวกเขาใช้งานระบบ ภาพถ่ายของพวกเขาจะถูกใส่ คำอธิบายด้วยข้อมูล-เมต้า ที่คนอื่นเป็นผู้ใส่ ถ้าใครบางพยายามใส่คำอธิบายให้นักบุญทั้งหมดนี้ แล้วบอกว่าพวกเขาคือใคร ทันใดนั้นเอง รูปภาพโบสถ์นอร์ทเธอร์ดามของผม ก็จะเต็มไปด้วยข้อมูลนั่นทั้งหมด และผมสามารถใช้มันเป็นจุดเข้าถึง ที่จะดำดิ่งไปในอากาศนั้น เข้าไปสู่โลกจำลองด้วยการใช้รูปภาพของคนอื่น และได้ประสบการณ์ทางสังคมที่รับรู้ แตกต่างและผู้ใช้ที่แตกต่างด้วยวิธีนั้น และแน่นอน ผลผลิตที่เกิดตามมาจากสิ่งเหล่านั้น จะเป็นโมเดลจำลองที่อุดมสมบูรณ์อย่างมาก ของสิ่งที่น่าสนใจทุกส่วนของโลก ที่ถูกรวบรวมไว้ ไม่ใช่แค่รูปภาพทางอากาศและจากดาวเทียมเท่านั้น และอื่นๆ แต่มาจากความทรงจำรวม
Thank you so much.
ขอบคุณมากครับ
(Applause)
(เสียงปรบมือ)
(Applause ends)
Chris Anderson: Do I understand this right? What your software is going to allow, is that at some point, really within the next few years, all the pictures that are shared by anyone across the world are going to link together?
คริส แอนเดอร์สัน: ไม่ทราบว่าผมเข้าใจถูกมั้ยครับ สิ่งที่ซอฟต์แวร์ของคุณจะทำให้เกิดขึ้น ในเวลาเวลาใดเวลาหนึ่ง จริงๆ แล้ว ภายในเวลาอีกไม่กีปี ภาพทั้งหมดที่ถูกแบ่งปันกันกับผู้อื่นทั่วโลก จะถูกเชื่อมโยงเข้าด้วยกันจริงๆ หรือครับ
BAA: Yes. What this is really doing is discovering, creating hyperlinks, if you will, between images. It's doing that based on the content inside the images. And that gets really exciting when you think about the richness of the semantic information a lot of images have. Like when you do a web search for images, you type in phrases, and the text on the web page is carrying a lot of information about what that picture is of. What if that picture links to all of your pictures? The amount of semantic interconnection and richness that comes out of that is really huge. It's a classic network effect.
บีเอเอ: ใช่ครับ สิ่งที่ระบบทำจริงๆ แล้ว ก็คือการค้นพบ ระบบจะสร้างไฮเปอร์ลิงค์ ถ้าคุณจะทำ ระหว่างรูปภาพ และระบบก็กำลังสิ่งนี้อยู่ โดยใช้เนื้อหาภายในรูปภาพเป็นหลัก และมันน่าตื่นเต้นจริงๆ เมื่อคุณคิดเกี่ยวกับความอุดมสมบูรณ์ ของข้อมูลข่าวสารที่มีความหมายที่รูปภาพเหล่านั้นมี เหมือนกับตอนที่คุณค้นหารูปภาพในเว็บ คุณพิมพ์วลีและข้อความหน้าเวป จะนำข้อมูลจำนวนมากเกี่ยวกับรายละเอียดของรูปภาพนั้น ตอนนี้ จะเกิดอะไรขึ้นหากรูปภาพนั่น เชื่อมต่อกับรูปภาพของคุณทั้งหมด จากนั้นปริมาณการเชื่อมต่อถึงกันอย่างมีความหมาย และปริมาณความสมบูรณ์ที่ออกมากจากการเชื่อมต่อนั้น มหาศาลจริงๆ นี่คือปรากฎการณ์เครือข่ายแบบคลาสสิก ซีเอ: เบลส เหลือเชื่อจริงๆ ขอแสดงความยินดีด้วยครับ
CA: Truly incredible. Congratulations.
บีเอเอ: ขอบคุณมากครับ