Hello! My name is Golan Levin. I'm an artist and an engineer, which is, increasingly, a more common kind of hybrid. But I still fall into this weird crack where people don't seem to understand me. And I was looking around and I found this wonderful picture. It's a letter from "Artforum" in 1967 saying "We can't imagine ever doing a special issue on electronics or computers in art." And they still haven't. And lest you think that you all, as the digerati, are more enlightened, I went to the Apple iPhone app store the other day. Where's art? I got productivity. I got sports. And somehow the idea that one would want to make art for the iPhone, which my friends and I are doing now, is still not reflected in our understanding of what computers are for.
שלום! שמי גולן לוין. אני אמן ומהנדס. שבהדרגה הופכת להכלאה נפוצה יותר ויותר. אבל אני עדיין נופל בחרך מוזר כזה שאנשים לא ממש מבינים אותי. וחיפשתי יום אחד ומצאתי את התמונה הנפלאה הזאת. זה מכתב מתוך מגזין "ארט-פורום" בשנת 1967 שאומר "אנחנו לא יכולים לדמיין שאי פעם נוציא גיליון מיוחד בנושא אלקטרוניקה או מחשבים באומנות". והם עדיין לא עשו את זה... ואם אתם חושבים שכולכם, אליטת תעשיית המחשבים, נאורים יותר, נכנסתי לחנות תוכנות המקוונת של iPhone לפני כמה זמן. איפה קטגוריית אומנות? מצאתי קטגוריית פרודוקטיביות, ספורט. ואיכשהו, הרעיון שמישהו ירצה ליצור אומנות לiPhone, מה שאני וחבריי עושים עכשיו, עדיין לא משתקף בהבנה שלנו על מהו ייעודם של המחשבים.
So, from both directions, there is kind of, I think, a lack of understanding about what it could mean to be an artist who uses the materials of his own day, or her own day, which I think artists are obliged to do, is to really explore the expressive potential of the new tools that we have. In my own case, I'm an artist, and I'm really interested in expanding the vocabulary of human action, and basically empowering people through interactivity. I want people to discover themselves as actors, as creative actors, by having interactive experiences.
אז משני הכיוונים, יש סוג של... אני חושב, חוסר הבנה לגבי מה המשמעות של להיות אמן שמשתמש בחומרים של זמנו שלו, או של זמנה שלה. שלפי דעתי אמנים מחויבים לכך, ללחקור באמת את פוטנציאל הביטוי של הכלים החדשים שיש לנו. במקרה הפרטי שלי, אני אמן, ואני מאוד מתעניין בהרחבת "אוצר המילים" של הפעולה האנושית, ובעצם להעצים אנשים דרך אינטראקטיביות. אני רוצה שאנשים יגלו את עצמם כשחקנים, כשחקנים יצירתיים, כתוצאה מהתנסויות אינטראקטיביות.
A lot of my work is about trying to get away from this. This a photograph of the desktop of a student of mine. And when I say desktop, I don't just mean the actual desk where his mouse has worn away the surface of the desk. If you look carefully, you can even see a hint of the Apple menu, up here in the upper left, where the virtual world has literally punched through to the physical. So this is, as Joy Mountford once said, "The mouse is probably the narrowest straw you could try to suck all of human expression through."
הרבה מהעבודה שלי היא ניסיון להתחמק מזה: זאת תמונה של שולחן העבודה של סטודנט שלי. וכשאני אומר שולחן עבודה, אני מתכוון לא רק לשולחן עצמו, איפה שהעכבר שלו שחק את משטח השולחן. אם תסתכלו טוב, תוכלו אפילו לראות רמז מהתפריט של Apple, כאן בצד שמאל למעלה, במקום שבו העולם הוירטואלי חדר הלכה למעשה לתוך העולם הפיזי. אז זה בעצם, כמו שג'וי מונטפורד אמר פעם, "העכבר הוא כנראה הקשית הצרה ביותר דרכה אתה יכול לנסות לשאוב את כל ההבעה האנושית."
(Laughter)
(צחוק)
And the thing I'm really trying to do is enabling people to have more rich kinds of interactive experiences. How can we get away from the mouse and use our full bodies as a way of exploring aesthetic experiences, not necessarily utilitarian ones. So I write software. And that's how I do it. And a lot of my experiences resemble mirrors in some way. Because this is, in some sense, the first way, that people discover their own potential as actors, and discover their own agency. By saying "Who is that person in the mirror? Oh it's actually me."
והדבר שאני באמת מנסה לעשות הוא לאפשר לאנשים סוגים מגוונים יותר של חוויות אינטראקטיביות. איך אנחנו יכולים להתחמק מהשימוש בעכבר ולהשתמש בכל הגוף שלנו כדרך לחקור חוויות אסתטיות, לאו דווקא כאלה עם תועלת. אני כותב תוכנות. וככה אני עושה את זה. והרבה מההתנסויות שלי דומות למראות בדרך מסויימת. בגלל שזה, במובן מסויים, הדרך הראשונה, שבה אנשים מגלים את הפוטנציאל שלהם כשחקנים, ומגלים את היכולת שלהם. בכך שאומרים "מי הוא האדם שבמראה? אהה זה בעצם אני."
And so, to give an example, this is a project from last year, which is called the Interstitial Fragment Processor. And it allows people to explore the negative shapes that they create when they're just going about their everyday business. So as people make shapes with their hands or their heads and so forth, or with each other, these shapes literally produce sounds and drop out of thin air -- basically taking what's often this, kind of, unseen space, or this undetected space, and making it something real, that people then can appreciate and become creative with. So again, people discover their creative agency in this way. And their own personalities come out in totally unique ways.
וכדי לתת דוגמא: זה פרוייקט משנה שעברה שנקרא "מעבד החלק שבמרווח". והוא מאפשר לאנשים לחקור את תשליל הצורות שהם יוצרים כשהם רק מתעסקים בעניינים היום-יומיים שלהם. כך כשאנשים יוצרים צורות עם הידיים והראש וכו' , או אחד עם השני, הצורות האלה ממש מפיקות קולות ונופלות מהאוויר. ככה לוקחים מה שבדרך כלל הוא סוג של חלל בלתי נראה, או חלל שלא התגלה, ויוצרים ממנו דבר מציאותי, שאנשים יכולים להעריך ולהיות יצירתיים איתו. אז שוב, כך אנשים מגלים את היכולת היצירתית שלהם. והאישיות שלהם עצמם יוצאת החוצה בדרכים ייחודיות לחלוטין.
So in addition to using full-body input, something that I've explored now, for a while, has been the use of the voice, which is an immensely expressive system for us, vocalizing. Song is one of our oldest ways of making ourselves heard and understood. And I came across this fantastic research by Wolfgang Köhler, the so-called father of gestalt psychology, from 1927, who submitted to an audience like yourselves the following two shapes. And he said one of them is called Maluma. And one of them is called Taketa. Which is which? Anyone want to hazard a guess? Maluma is on top. Yeah. So. As he says here, most people answer without any hesitation.
אז בנוסף לקלט דרך כל הגוף, משהו שאני חוקר, כבר זמן מה, הוא השימוש בקול, שהוא מערכת מאד הבעתית בשבילנו, כשאנחנו מדברים. שירה היא אחת הדרכים העתיקות שלנו לגרום לעצמנו להישמע ולהיות מובנים. ונתקלתי במחקר הנפלא הזה של וולפגנג קולר (פסיכולוג גרמני), שנחשב לאבי פסיכולוגיית הגשטלט (צורה), משנת 1927, שהציג לקהל כמוכם את שתי הצורות הבאות: והוא אמר שאחת מהן נקראת מאלומה (Maluma) ולשניה קוראים טאקטה (Taketa). איזה מהן היא מי? מישהו רוצה לנחש ? מאלומה היא העליונה. כן. אז, כפי שהוא אומר כאן, רוב האנשים עונים בלי להסס.
So what we're really seeing here is a phenomenon called phonaesthesia, which is a kind of synesthesia that all of you have. And so, whereas Dr. Oliver Sacks has talked about how perhaps one person in a million actually has true synesthesia, where they hear colors or taste shapes, and things like this, phonaesthesia is something we can all experience to some extent. It's about mappings between different perceptual domains, like hardness, sharpness, brightness and darkness, and the phonemes that we're able to speak with.
אז הדבר שאנחנו רואים כאן הוא תופעה שנקראת פונאסטזיה (ענף בבלשנות), שהוא סוג של סינסטזיה (ערבוב חושי) שקיימת אצל כולכם. וכך, בעוד שד"ר אוליבר סאקס (נוירולוג וסופר בריטי) דיבר על איך שאולי לאחד מתוך מיליון אנשים יש סינסטזיה אמיתית, כאשר הוא "שומע" צבעים או "טועם" צורות, וכדומה... פונאסטזיה היא תופעה שכולנו יכולים לחוות עד מידה מסויימת. מדובר במיפויים בין מרחבים שונים של תפיסה. כמו קַשְׁיוּת, חדות, בהירות וחשכה, והפונמות (היחידה הקטנה ביותר בהגיה) איתן אנחנו יכולים לדבר.
So 70 years on, there's been some research where cognitive psychologists have actually sussed out the extent to which, you know, L, M and B are more associated with shapes that look like this, and P, T and K are perhaps more associated with shapes like this. And here we suddenly begin to have a mapping between curvature that we can exploit numerically, a relative mapping between curvature and shape.
אז, במשך 70 שנה נעשה מחקר מסוים בו פסיכולוגים קוגניטיבים (הכרתיים) למעשה הסיקו את המידה, זאת אומרת, שבה האותיות L,M ו-B נקשרות יותר לצורות שנראות כך: ואילו האותיות P,T ו-K כנראה יותר נקשרות לצורות כמו אלה: וכאן, אנחנו פתאום מתחילים לקבל מיפוי בין עקמימות שמהם אנחנו יכולים להפיק מידע מספרי, מיפוי היחסים בין עקמימות וצורה
So it occurred to me, what happens if we could run these backwards? And thus was born the project called Remark, which is a collaboration with Zachary Lieberman and the Ars Electronica Futurelab. And this is an interactive installation which presents the fiction that speech casts visible shadows. So the idea is you step into a kind of a magic light. And as you do, you see the shadows of your own speech. And they sort of fly away, out of your head. If a computer speech recognition system is able to recognize what you're saying, then it spells it out. And if it isn't then it produces a shape which is very phonaesthetically tightly coupled to the sounds you made. So let's bring up a video of that.
אז עלה בדעתי: מה קורה אם היינו מריצים את אלה הפוך ? וכך נולד הפרוייקט שנקרא "Remark" (הערה), שהוא שיתוף פעולה עם זאקרי ליברמן ו- Ars Electronica Futurelab. וזה התקן אינטרקטיבי שמציג את הפיקציה שדיבור מטיל צללים נראים לעין. אז הרעיון הוא שאתה נכנס למעין אור קסום וכאשר אתה נכנס, אתה רואה צללים של הדיבור של עצמך. והם כאילו עפים להם, מתוך הראש שלך. ואם מערכת זיהוי קולי של מחשב מסוגלת לזהות מה שאתה אומר, אז היא מאייתת את זה ואם היא לא אז היא מפיקה צורה שמבחינה פונאסטזית מאוד קרובה לקולות שאתה מפיק. אז בואו נעלה את הוידאו של זה.
(Applause)
(מחיאות כפיים)
Thanks. So. And this project here, I was working with the great abstract vocalist, Jaap Blonk. And he is a world expert in performing "The Ursonate," which is a half-an-hour nonsense poem by Kurt Schwitters, written in the 1920s, which is half an hour of very highly patterned nonsense. And it's almost impossible to perform. But Jaap is one of the world experts in performing it. And in this project we've developed a form of intelligent real-time subtitles. So these are our live subtitles, that are being produced by a computer that knows the text of "The Ursonate" -- fortunately Jaap does too, very well -- and it is delivering that text at the same time as Jaap is. So all the text you're going to see is real-time generated by the computer, visualizing what he's doing with his voice. Here you can see the set-up where there is a screen with the subtitles behind him. Okay. So ... (Applause) The full videos are online if you are interested.
תודה. אז. והפרוייקט הזה פה, עבדתי עם הזמר האבסטרקטי המעולה , יאפ בלונק. והוא מומחה בעל שם עולמי בביצוע "The Ursonate", שהיא שיר איגיון (נונסנס) בן חצי שעה שנכתב על ידי קורט שוויטרס (אמן גרמני) בשנות ה-20. שהיא חצי שעה של איגיון בעל תבנית מאוד ברורה. וזה כמעט בלתי אפשרי לביצוע, אבל יאפ הוא בין המומחים היחידים בעולם בביצוע השיר. ובפרוייקט הזה פיתחנו סוג של כתוביות אינטיליגנטיות בזמן אמת. אז אלו הם הכתוביות-בשידור-חי שלנו, שמופקות על ידי מחשב שיודע את הטקסט של "The Ursonate" , למרבה המזל, יאפ יודע גם, טוב מאוד. והוא מציג את הטקסט בוא זמנית עם יאפ. כל הטקסט שאתם עומדים לראות מופק בזמן אמת על ידי המחשב, מדמה את מה שהוא עושה עם הקול שלו. כאן אתם יכולים לראות את התפאורה כאשר יש מסך עם הכתוביות מאחוריו. טוב. אז... (מחיאות כפיים) הסרטונים המלאים נמצאים ברשת אם אתם מעוניינים.
I got a split reaction to that during the live performance, because there is some people who understand live subtitles are a kind of an oxymoron, because usually there is someone making them afterwards. And then a bunch of people who were like, "What's the big deal? I see subtitles all the time on television." You know? They don't imagine the person in the booth, typing it all.
קיבלתי תגובות מעורבות לזה בזמן ההופעה החיה, בגלל שישנם אנשים שמבינים שכתוביות בזמן אמת הם סוג של אוקסימורון (ניגוד). בגלל שבדרך כלל יש מישהו שמכין אותן לאחר מכן. וגם קבוצת אנשים שאומרים כאילו, "מה הביג דיל ? אני רואה כתוביות כל הזמן בטלוויזיה." אתם יודעים, הם לא מדמיינים לעצמם את האדם בתא שלו, מקליד את כל זה.
So in addition to the full body, and in addition to the voice, another thing that I've been really interested in, most recently, is the use of the eyes, or the gaze, in terms of how people relate to each other. It's a really profound amount of nonverbal information that's communicated with the eyes. And it's one of the most interesting technical challenges that's very currently active in the computer sciences: being able to have a camera that can understand, from a fairly big distance away, how these little tiny balls are actually pointing in one way or another to reveal what you're interested in, and where your attention is directed. So there is a lot of emotional communication that happens there.
אז בנוסף לגוף כולו , ובנוסף לקול, דבר אחר שאני מאוד מתעניין בו, ממש לאחרונה, הוא השימוש בעיניים, או המבט, במונחים של איך אנשים מתקשרים אחד לשני. זו כמות משמעותית של אינפורמציה א-ורבלית שמתוקשרת בעזרת העיניים. וזה אחד מהאתגרים הטכניים המעניינים ביותר שמאוד פעיל עכשיו במדעי המחשב. היכולת שתהיה מצלמה שתוכל להבין ממרחק גדול למדי, איך הכדורים הקטנים האלה (גלגל העין) ממש מצביעים בכיוון כזה או אחר, ולחשוף במה אתה מתעניין, ולאן תשומת הלב שלך מכוונת. אז יש הרבה תקשורת רגשית שמתרחשת שם.
And so I've been beginning, with a variety of different projects, to understand how people can relate to machines with their eyes. And basically to ask the questions: What if art was aware that we were looking at it? How could it respond, in a way, to acknowledge or subvert the fact that we're looking at it? And what could it do if it could look back at us? And so those are the questions that are happening in the next projects.
אז התחלתי, על ידי מגוון פרוייקטים שונים, להבין איך אנשים יכולים להתקשר עם מכונות בעזרת העיניים. ובעצם לשאול את השאלות, מה היה אם אומנות היתה מודעת לכך שאנחנו מסתכלים עליה? איך היא היתה יכולה להגיב, בדרך מסוימת, כדי לאשר את העובדה שאנחנו מסתכלים עליה? ומה היא היתה יכולה לעשות אם היתה יכולה להביט בנו בחזרה ? ואלה הם השאלות שקורות בפרוייקטים הבאים,
In the first one which I'm going to show you, called Eyecode, it's a piece of interactive software in which, if we read this little circle, "the trace left by the looking of the previous observer looks at the trace left by the looking of previous observer." The idea is that it's an image wholly constructed from its own history of being viewed by different people in an installation. So let me just switch over so we can do the live demo. So let's run this and see if it works.
בראשון, שאני הולך להראות לכם, שנקרא Eyecode, זו חלק מתוכנה אינטרקטיבית שבה, אם נקרא את המעגל הקטן הזה, הסימן שהושאר על ידי המבט של הצופה הקודם מביט בסימן שהושאר על ידי המבט של הצופה הקודם. הרעיון הוא שזוהי תמונה שכולה נבנתה מההיסטוריה של הצפיה בה עצמה על ידי אנשים שונים בתוך מערך מסוים. אז תנו לי רק לעבור כדי שנוכל לעשות את ההדגמה החיה. אז בואו נריץ את זה ונראה אם זה עובד.
Okay. Ah, there is lots of nice bright video. There is just a little test screen that shows that it's working. And what I'm just going to do is -- I'm going to hide that. And you can see here that what it's doing is it's recording my eyes every time I blink. Hello? And I can ... hello ... okay. And no matter where I am, what's really going on here is that it's an eye-tracking system that tries to locate my eyes. And if I get really far away I'm blurry. You know, you're going to have these kind of blurry spots like this that maybe only resemble eyes in a very very abstract way. But if I come up really close and stare directly at the camera on this laptop then you'll see these nice crisp eyes.
אוקיי, אהה, יש הרבה וידאו בהיר ונחמד. יש פה מסך בדיקה קטן שמראה שזה עובד. ומה שאני רק הולך לעשות אני אסתיר את זה... ואתם יכולים לראות פה שמה שזה עושה זה להקליט את העיניים שלי בכל פעם שאני ממצמץ. שלום? ואני יכול... שלוווום... אוקיי. ולא משנה איפה אני, מה שבאמת קורה כאן הוא שזוהי מערכת-מעקב-אחרי-העין שמנסה לאתר את העיניים שלי. ואם אני מתרחק אני מטושטש. אתם יודעים, יהיו לכם נקודות מטושטשות כמו זו שאולי רק דומות לעיניים בדרך מאוד מאוד מופשטת. אבל אם אני מתקרב מאוד ומביט ישירות במצלמה בלפטופ הזה אז אתם יכולים לראות את העיניים בחדות נהדרת.
You can think of it as a way of, sort of, typing, with your eyes. And what you're typing are recordings of your eyes as you're looking at other peoples' eyes. So each person is looking at the looking of everyone else before them. And this exists in larger installations where there are thousands and thousands of eyes that people could be staring at, as you see who's looking at the people looking at the people looking before them. So I'll just add a couple more. Blink. Blink. And you can see, just once again, how it's sort of finding my eyes and doing its best to estimate when it's blinking. Alright. Let's leave that. So that's this kind of recursive observation system. (Applause) Thank you.
אתם יכולים לחשוב על זה כדרך, של פחות או יותר, הקלדה, בעזרת העיניים. ומה שאתם מקלידים הוא הקלטות של העיניים שלכם כאשר אתם מביטים בעיניים של אחרים. כך שכל אדם אדם מביט במבט של כל אלה שהיו לפניו. וזה קיים גם בהתקנים גדולים יותר איפה שיש אלפים על גבי אלפים של עיניים שאנשים יכולים לצפות בהם, כאשר אתם יכולים לראות מי מסתכל על האנשים שמסתכלים על האנשים שמסתכלים לפניהם. אז רק אוסיף עוד שני מצמוצים. בלינק. בלינק. ואתם יכולים לראות, שוב, איך זה פחות או יותר מוצא את העיניים שלי ועושה את המאמץ להעריך מתי הן ממצמצות. אוקיי. בואו נניח לזה. אז זה לגבי הסוג הזה של של מערכת צפייה רקורסיבית. (מחיאות כפיים) תודה לכם.
The last couple pieces I'm going to show are basically in the new realm of robotics -- for me, new for me. It's called Opto-Isolator. And I'm going to show a video of the older version of it, which is just a minute long. Okay. In this case, the Opto-Isolator is blinking in response to one's own blinks. So it blinks one second after you do. This is a device which is intended to reduce the phenomenon of gaze down to the simplest possible materials. Just one eye, looking at you, and eliminating everything else about a face, but just to consider gaze in an isolated way as a kind of, as an element. And at the same time, it attempts to engage in what you might call familiar psycho-social gaze behaviors. Like looking away if you look at it too long because it gets shy, or things like that.
שני הדברים האחרונים שאני הולך להראות למעשה נכנסים תחת תחום חדש של רובוטיקה, בשבילי, חדש בשבילי. זה נקרא "אופטו-אייסולטור" ואני הולך להציג וידאו של הגרסה הישנה שלו, שהוא רק באורך דקה. אוקיי. במקרה הזה, ה"אופטו-אייסולטור" ממצמץ כתגובה למישהו שממצמץ. כך שזה ממצמץ שניה אחרי שאתה ממצמץ. זה מכשיר שמיועד להפחית את התופעה של בהיה על ידי החומרים הפשוטים ביותר. רק עין אחת, מסתכלת עלייך, ומעלימה כל דבר אחר שיש בפנים. רק מחשיבה מבט בדרך אחת ובודדת כסוג של, כמו יסוד. ובו זמנית, היא מנסה ליצור קשר במה שאם תרצו לקרוא לו התנהגויות מבט/בהייה פסיכולוגיות-סוציאליות מוכרות. כמו להביט הצידה אם אתה בוהה בה יותר מידי כי היא נהיית ביישנית. או דברים דומים.
Okay. So the last project I'm going to show is this new one called Snout. (Laughter) It's an eight-foot snout, with a googly eye. (Laughter) And inside it's got an 800-pound robot arm that I borrowed, (Laughter) from a friend. (Laughter) It helps to have good friends. I'm at Carnegie Mellon; we've got a great Robotics Institute there. I'd like to show you thing called Snout, which is -- The idea behind this project is to make a robot that appears as if it's continually surprised to see you. (Laughter) The idea is that basically -- if it's constantly like "Huh? ... Huh?" That's why its other name is Doubletaker, Taker of Doubles. It's always kind of doing a double take: "What?" And the idea is basically, can it look at you and make you feel as if like, "What? Is it my shoes?" "Got something on my hair?" Here we go. Alright.
אוקיי. אז הפרוייקט האחרון שאני הולך להראות הוא פרוייקט חדש שמקרא "סנאוט" (צחוק בקהל) זה חוטם באורך 2.5 מטר, עם עין "מתנדנדת". (צחוק בקהל) ובתוכו יש זרוע רובוטית במשקל 360 קילו שהשאלתי, (צחוק בקהל) מחבר. (צחוק בקהל) זה עוזר כשיש חברים טובים. אני ב"קרנגי מלון" (אוניברסיטה). יש לנו מכון רובוטי מעולה שם. אני רוצה להראות לכם דבר שנקרא סנאוט, שהוא - הרעיון מאחורי הפרוייקט הוא ליצור רובוט שנראה כאילו מופתע לראות אותך כל הזמן. (צחוק בקהל) הרעיון הוא שבעצם - הוא כאילו כל הזמן "מה?.... מה?" בגלל זה השם השני שלו הוא דאבלטייקר, מכפיל מבטים. הוא כל הזמן כאילו עושה קטע כפול: "מה?" והרעיון הוא בעיקרון, שהוא יכול להסתכל עלייך ולגרום לך להרגיש כאילו, "מה זה? הנעליים שלי?" "יש לי משהו על השיער?" בואו נתחיל. יאללה.
Checking him out ... For you nerds, here's a little behind-the-scenes. It's got a computer vision system, and it tries to look at the people who are moving around the most. Those are its targets. Up there is the skeleton, which is actually what it's trying to do. It's really about trying to create a novel body language for a new creature. Hollywood does this all the time, of course. But also have the body language communicate something to the person who is looking at it. This language is communicating that it is surprised to see you, and it's interested in looking at you.
בודק אותו. לגיקים שביניכם, הנה חלק קטן מאחורי הקלעים. יש לו מערכת צפייה ממוחשבת ותראו שהוא מנסה להסתכל על האנשים שזזים הכי הרבה. אלו הן המטרות שלו. שם רואים את השלד. שזה בעצם מה שהוא מנסה לעשות. והעניין הוא לנסות ליצור שפת גוף מקורית לייצור חדש. הוליווד עושה את זה כל הזמן, כמובן. אבל גם ששפת הגוף תעביר משהו עם הבנאדם שמסתכל עליה. השפה הזאת היא תקשורת כשהיא מופתעת לראות אותך והיא מתעניינת להסתכל עלייך.
(Laughter)
(צחוק בקהל)
(Applause)
(מחיאות כפיים)
Thank you very much. That's all I've got for today. And I'm really happy to be here. Thank you so much.
תודה רבה לכם. זה כל מה שיש לי להיום. ואני מאוד שמח להיות כאן. תודה רבה רבה לכם
(Applause)
(מחיאות כפיים)