ABOUT THE SPEAKER
Cynthia Breazeal - Roboticist
At MIT, Cynthia Breazeal and her team are building robots with social intelligence that communicate and learn the same way people do.

Why you should listen

Cynthia Breazeal founded and directs the Personal Robots Group at MIT’s Media Lab. Her research focuses on developing the principles and technologies for building personal robots that are socially intelligent—that interact and communicate with people in human-centric terms, work with humans as peers, and learn from people as an apprentice.

She has developed some of the world’s most famous robotic creatures, ranging from small hexapod robots to highly expressive humanoids, including the social robot Kismet and the expressive robot Leonardo. Her recent work investigates the impact of social robots on helping people of all ages to achieve personal goals that contribute to quality of life, in domains such as physical performance, learning and education, health, and family communication and play over distance.

More profile about the speaker
Cynthia Breazeal | Speaker | TED.com
TEDWomen 2010

Cynthia Breazeal: The rise of personal robots

סינטיה בראזל: עלייתם של רובוטים לשימוש אישי

Filmed:
1,201,057 views

בוגרת MIT סינטיה בראזל תהתה מדוע אנו משתמשים ברובוטים על המאדים, אבל לא בסלון שלנו. המפתח, היא הבינה, הוא לאמן רובוטים להגיב לבני-אדם. עכשיו היא חולמת ובונה רובוטים שמלמדים, לומדים, ומשחקים. צפו לקדימון מעניין למשחקים אינטרקטיביים
- Roboticist
At MIT, Cynthia Breazeal and her team are building robots with social intelligence that communicate and learn the same way people do. Full bio

Double-click the English transcript below to play the video.

00:15
Ever sinceמאז I was a little girlילדה
0
0
3000
מאז שהייתי ילדה קטנה
00:18
seeingרְאִיָה "Starכוכב Warsמלחמות" for the first time,
1
3000
2000
כשראיתי את "מלחמת הכוכבים" בפעם הראשונה
00:20
I've been fascinatedמוּקסָם by this ideaרַעְיוֹן
2
5000
2000
היתי מרותקת לרעיון
00:22
of personalאישי robotsרובוטים.
3
7000
2000
של רובוטים אישיים
00:24
And as a little girlילדה,
4
9000
2000
כילדה קטנה,
00:26
I lovedאהוב the ideaרַעְיוֹן of a robotרוֹבּוֹט that interactedאינטראקציה with us
5
11000
2000
אהבתי את הרעיון של רובוטים הפועלים איתנו
00:28
much more like a helpfulמוֹעִיל, trustedמהימן sidekickSidekick --
6
13000
3000
יותר כמו עוזרים או שותפים נאמנים
00:31
something that would delightתַעֲנוּג us, enrichלהעשיר our livesחיים
7
16000
2000
כמשהו שיענג אותנו, יעשיר את חיינו
00:33
and help us saveלשמור a galaxyגָלַקסִיָה or two.
8
18000
3000
ויעזור לנו להציל גלקסיה, או שתים.
00:37
I knewידע robotsרובוטים like that didn't really existקיימים,
9
22000
3000
ידעתי שרובוטים כאלו לא באמת קיימים
00:40
but I knewידע I wanted to buildלִבנוֹת them.
10
25000
2000
אבל ידעתי שאני רוצה לבנות אותם
00:42
So 20 yearsשנים passלַעֲבוֹר --
11
27000
2000
עשרים שנה חלפו --
00:44
I am now a graduateבוגר studentתלמיד at MITMIT
12
29000
2000
ואני תלמידת תואר שני בMIT
00:46
studyingלומד artificialמְלָאכוּתִי intelligenceאינטליגנציה,
13
31000
2000
למדתי בינה מלאכותית.
00:48
the yearשָׁנָה is 1997,
14
33000
2000
השנה היא 1997
00:50
and NASAנאס"א has just landedנחת the first robotרוֹבּוֹט on Marsמַאְדִים.
15
35000
3000
ונאס"א הנחיתה את הרובוט הראשון על מאדים
00:53
But robotsרובוטים are still not in our home, ironicallyבאופן אירוני.
16
38000
3000
אבל עדין אין רובוטים בבתים שלנו, באופן אירוני.
00:56
And I rememberלִזכּוֹר thinkingחושב about
17
41000
2000
ואני זוכרת שחשבתי על
00:58
all the reasonsסיבות why that was the caseמקרה.
18
43000
2000
כל הסיבות מדוע זה כך
01:00
But one really struckהיכה me.
19
45000
2000
אבל סיבה אחת הכתה בי
01:02
Roboticsרובוטיקה had really been about interactingאינטראקציה with things,
20
47000
3000
רובוטיקה עוסקת רבות באינטראקציה עם דברים
01:05
not with people --
21
50000
2000
לא עם אנשים --
01:07
certainlyבְּהֶחלֵט not in a socialחֶברָתִי way that would be naturalטִבעִי for us
22
52000
2000
ובודאי לא בצורה חברתית שתהיה טבעית לנו
01:09
and would really help people acceptלְקַבֵּל robotsרובוטים
23
54000
2000
ותעזור לאנשים לקבל רובוטים
01:11
into our dailyיום יומי livesחיים.
24
56000
2000
לחיי היום יום שלנו.
01:13
For me, that was the whiteלבן spaceמֶרחָב; that's what robotsרובוטים could not do yetעדיין.
25
58000
3000
עבורי, זה היה החלל, זה היה הדבר שרובוטים לא יכולים לעשות, עדין.
01:16
And so that yearשָׁנָה, I startedהתחיל to buildלִבנוֹת this robotרוֹבּוֹט, Kismetקיסמט,
26
61000
3000
ולכן, באותה שנה, התחלתי לבנות את הרובוט הזה, קיזמט
01:19
the world'sשל העולם first socialחֶברָתִי robotרוֹבּוֹט.
27
64000
3000
הרובוט החברתי הראשון בעולם
01:22
Threeשְׁלוֹשָׁה yearsשנים laterיותר מאוחר --
28
67000
2000
ושלוש שנים לאחר מכן--
01:24
a lot of programmingתִכנוּת,
29
69000
2000
אחרי הרבה תכנות
01:26
workingעובד with other graduateבוגר studentsסטודנטים in the labמַעבָּדָה --
30
71000
2000
ועבודה עם עוד סטודנטים במעבדה
01:28
Kismetקיסמט was readyמוּכָן to startהַתחָלָה interactingאינטראקציה with people.
31
73000
2000
קיזמט היה מוכן להתחיל להגיב לאנשים
01:30
(Videoוִידֵאוֹ) Scientistמַדְעָן: I want to showלְהַצִיג you something.
32
75000
2000
(וידאו) מדען: אני רוצה להראות לך משהו.
01:32
Kismetקיסמט: (Nonsenseשְׁטוּיוֹת)
33
77000
2000
קיזמט (עושה פרצוף)
01:34
Scientistמַדְעָן: This is a watch that my girlfriendחֲבֵרָה gaveנתן me.
34
79000
3000
מדען: זה שעון שהחברה שלי נתנה לי
01:37
Kismetקיסמט: (Nonsenseשְׁטוּיוֹת)
35
82000
2000
קיזמט (פרצוף אחר)
01:39
Scientistמַדְעָן: Yeah, look, it's got a little blueכָּחוֹל lightאוֹר in it too.
36
84000
2000
מדען: כן, תסתכל יש בו גם אור כחול קטן.
01:41
I almostכִּמעַט lostאבד it this weekשָׁבוּעַ.
37
86000
3000
כמעט איבדתי אותו השבוע
01:44
Cynthiaסינתיה BreazealBreazeal: So Kismetקיסמט interactedאינטראקציה with people
38
89000
3000
סינטיה: אז קיזמט מגיב לבני אדם
01:47
like kindסוג of a non-verbalלא מילולית childיֶלֶד or pre-verbalטרום-מילולית childיֶלֶד,
39
92000
3000
כמו ילד ללא-שפה, או ילד לפני שלמד שפה מילולית
01:50
whichאיזה I assumeלְהַנִיחַ was fittingהוֹלֵם because it was really the first of its kindסוג.
40
95000
3000
ואני מניחה שזה מתאים כי זה באמת היה הראשון מסוגו
01:53
It didn't speakלְדַבֵּר languageשפה, but it didn't matterחוֹמֶר.
41
98000
2000
זה לא דיבר שפה, אבל זה לא שינה כלום.
01:55
This little robotרוֹבּוֹט was somehowאיכשהו ableיכול
42
100000
2000
הרובוט הקטן הזה הצליח, איכשהו
01:57
to tapבֶּרֶז into something deeplyבאופן מעמיק socialחֶברָתִי withinבְּתוֹך us --
43
102000
3000
להתחבר למשהו חברתי עמוק בתוכנו
02:00
and with that, the promiseהַבטָחָה of an entirelyלַחֲלוּטִין newחָדָשׁ way
44
105000
2000
וכך, פתח דרך חדשה לחלוטין
02:02
we could interactאינטראקציה with robotsרובוטים.
45
107000
2000
שבה אנחנו יכולים להגיב עם רובוטים
02:04
So over the pastעבר severalכַּמָה yearsשנים
46
109000
2000
וכך, במשך השנים האחרונות
02:06
I've been continuingהמשך to exploreלַחקוֹר this interpersonalבינאישית dimensionמֵמַד of robotsרובוטים,
47
111000
2000
המשכתי לחקור את ההיבט הבין-אישי ברובוטים
02:08
now at the mediaכְּלֵי תִקְשׁוֹרֶת labמַעבָּדָה
48
113000
2000
ועכשיו במעבדת המדיה
02:10
with my ownשֶׁלוֹ teamקְבוּצָה of incrediblyבצורה מדהימה talentedמוּכשָׁר studentsסטודנטים.
49
115000
2000
עם הצות שלי של סטודנטים מאוד מוכשרים
02:12
And one of my favoriteהכי אהוב robotsרובוטים is Leonardoלאונרדו.
50
117000
3000
ואחד מהרובוטים החביבים עלי - ליאונרדו
02:15
We developedמפותח Leonardoלאונרדו in collaborationשיתוף פעולה with Stanסטן Winstonוינסטון Studioסטוּדִיוֹ.
51
120000
3000
פיתחנו את ליאונרדו בשיתוף עם אולפני סטאן וינסטון
02:18
And so I want to showלְהַצִיג you a specialמיוחד momentרֶגַע for me of Leoמַזַל אַריֵה.
52
123000
3000
ואני רוצה להראות לכם רגע מיוחד בעבורי מליאו
02:21
This is Mattמאט Berlinברלין interactingאינטראקציה with Leoמַזַל אַריֵה,
53
126000
2000
זה הוא מאט ברלין מתקשר עם ליאו,
02:23
introducingמציגה Leoמַזַל אַריֵה to a newחָדָשׁ objectלְהִתְנַגֵד.
54
128000
2000
מציג לליאו חפץ חדש
02:25
And because it's newחָדָשׁ, Leoמַזַל אַריֵה doesn't really know what to make of it.
55
130000
3000
ובגלל שהחפץ חדש, ליאו לא כל כך יודע מה לעשות עם זה
02:28
But sortסוג of like us, he can actuallyלמעשה learnלִלמוֹד about it
56
133000
2000
אבל, בערך כמונו, הוא יכול ללמוד על זה
02:30
from watchingצופה Matt'sשל מאט reactionתְגוּבָה.
57
135000
3000
מצפייה בתגובות של מאט
02:33
(Videoוִידֵאוֹ) Mattמאט Berlinברלין: Helloשלום, Leoמַזַל אַריֵה.
58
138000
2000
(וידאו) מאט ברלין: שלום ליאו
02:38
Leoמַזַל אַריֵה, this is Cookieעוגייה Monsterמִפלֶצֶת.
59
143000
3000
ליאו, זה עוגיפלצת
02:44
Can you find Cookieעוגייה Monsterמִפלֶצֶת?
60
149000
3000
אתה יכול לראות את עוגיפלצת?
02:52
Leoמַזַל אַריֵה, Cookieעוגייה Monsterמִפלֶצֶת is very badרַע.
61
157000
3000
ליאו, עוגיפלצת הוא מאוד רע
02:56
He's very badרַע, Leoמַזַל אַריֵה.
62
161000
2000
מאוד רע, ליאו
03:00
Cookieעוגייה Monsterמִפלֶצֶת is very, very badרַע.
63
165000
3000
מאוד מאוד רע
03:07
He's a scaryמַפְחִיד monsterמִפלֶצֶת.
64
172000
2000
עוגיפלצת הוא מפלצת מפחידה
03:09
He wants to get your cookiesעוגיות.
65
174000
2000
הוא רוצה לקחת את העוגיות שלך
03:12
(Laughterצחוק)
66
177000
2000
(צחוק)
03:14
CBCB: All right, so Leoמַזַל אַריֵה and Cookieעוגייה
67
179000
3000
טוב, אז ליאו ועוגיפלצת
03:17
mightאולי have gottenקיבל off to a little bitbit of a roughמְחוּספָּס startהַתחָלָה,
68
182000
2000
אולי היתה להם התחלה קשה קצת
03:19
but they get alongלְאוֹרֶך great now.
69
184000
3000
אבל הם מסתדרים היטב עכשיו
03:22
So what I've learnedמְלוּמָד
70
187000
2000
אז מה שלמדתי
03:24
throughדרך buildingבִּניָן these systemsמערכות
71
189000
2000
כשבניתי את המערכות הללו
03:26
is that robotsרובוטים are actuallyלמעשה
72
191000
2000
הוא שרובוטים הם בעצם
03:28
a really intriguingמסקרן socialחֶברָתִי technologyטֶכנוֹלוֹגִיָה,
73
193000
2000
טכנולוגיה חברתית מאוד מעניינת
03:30
where it's actuallyלמעשה theirשֶׁלָהֶם abilityיְכוֹלֶת
74
195000
2000
כשבעצם ביכולתם
03:32
to pushלִדחוֹף our socialחֶברָתִי buttonsכפתורים
75
197000
2000
ללחוץ על הכפתורים החברתיים שלנו
03:34
and to interactאינטראקציה with us like a partnerבת זוג
76
199000
2000
ולהגיב איתנו כמו שותפים
03:36
that is a coreהליבה partחֵלֶק of theirשֶׁלָהֶם functionalityפונקציונליות.
77
201000
3000
וזהו מצב בסיסי בתפקוד שלהם
03:39
And with that shiftמִשׁמֶרֶת in thinkingחושב, we can now startהַתחָלָה to imagineלדמיין
78
204000
2000
ולאחר שעברנו את שינוי החשיבה הזה, אנחנו יכולים להתחיל לדמיין
03:41
newחָדָשׁ questionsשאלות, newחָדָשׁ possibilitiesאפשרויות for robotsרובוטים
79
206000
3000
שאלות חדשות, אפשרויות חדשות, בעבור רובוטים
03:44
that we mightאולי not have thought about otherwiseאחרת.
80
209000
3000
שאולי לא נחשוב עליהם במצב אחר.
03:47
But what do I mean when I say "pushלִדחוֹף our socialחֶברָתִי buttonsכפתורים?"
81
212000
2000
אך למה אני מתכוונת כשאני אומרת "ללחוץ על כפתורים חברתיים"?
03:49
Well, one of the things that we'veיש לנו learnedמְלוּמָד
82
214000
2000
ובכן, אחד הדברים שלמדנו
03:51
is that, if we designלְעַצֵב these robotsרובוטים to communicateלתקשר with us
83
216000
2000
הוא שאם נעצב את הרבוטים לתקשר איתנו
03:53
usingמבנה יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוני the sameאותו bodyגוּף languageשפה,
84
218000
2000
באמצעות אותה שפת-גוף
03:55
the sameאותו sortסוג of non-verbalלא מילולית cuesרמזים that people use --
85
220000
2000
אותם סוגים של רמזים לא-מילוליים שבהם אנשים משתמשים --
03:57
like NexiNexi, our humanoidאנושי robotרוֹבּוֹט, is doing here --
86
222000
3000
כמו ש"נקסי", הרובוט דמוי האנוש מבצע כאן
04:00
what we find is that people respondלְהָגִיב to robotsרובוטים
87
225000
2000
מצאנו שאנשים מגיבים לרובוטים
04:02
a lot like they respondלְהָגִיב to people.
88
227000
2000
באופן דומה לתגובתם לאנשים
04:04
People use these cuesרמזים to determineלקבוע things like how persuasiveמְשַׁכנֵעַ someoneמִישֶׁהוּ is,
89
229000
3000
אנשים משתמשים ברמזים הללו כדי לקבוע דברים כמו כמה משכנע מישהו
04:07
how likableחָבִיב, how engagingמרתק,
90
232000
2000
כמה אהוד, כמה מקסים,
04:09
how trustworthyאָמִין.
91
234000
2000
כמה אמין.
04:11
It turnsפונה out it's the sameאותו for robotsרובוטים.
92
236000
2000
התברר שכך זה גם עם רובוטים
04:13
It's turningחֲרִיטָה out now
93
238000
2000
מתברר עכשיו
04:15
that robotsרובוטים are actuallyלמעשה becomingהִתהַוּוּת a really interestingמעניין newחָדָשׁ scientificמַדָעִי toolכְּלִי
94
240000
3000
שרובוטים מתחילים להיות כלי מדעי חדש ומעניין
04:18
to understandמבין humanבן אנוש behaviorהִתְנַהֲגוּת.
95
243000
2000
להבנת ההתנהגות האנושית.
04:20
To answerתשובה questionsשאלות like, how is it that, from a briefקָצָר encounterפְּגִישָׁה,
96
245000
3000
למציאת תשובות לשאלות כגון, איך יתכן, שממפגש קצר
04:23
we're ableיכול to make an estimateלְהַעֲרִיך of how trustworthyאָמִין anotherאַחֵר personאדם is?
97
248000
3000
אנחנו מסוגלים להעריך כמה מהימן אדם אחר?
04:26
Mimicry'sחיקוי believedהאמינו to playלְשַׂחֵק a roleתַפְקִיד, but how?
98
251000
3000
מאמינים שחיקוי משחק תפקיד, אך איך?
04:29
Is it the mimickingחיקוי of particularמיוחד gesturesמחוות that mattersעניינים?
99
254000
3000
האם מדובר בחיקוי של מחוות מסוימות?
04:32
It turnsפונה out it's really hardקָשֶׁה
100
257000
2000
מתברר שזה באמת קשה
04:34
to learnלִלמוֹד this or understandמבין this from watchingצופה people
101
259000
2000
ללמוד על זה או להבין את זה מצפייה באנשים
04:36
because when we interactאינטראקציה we do all of these cuesרמזים automaticallyבאופן אוטומטי.
102
261000
3000
כי כשאנחנו מתקשרים אנחנו מעבירים את כל הרמזים האלו בצורה אוטומטית
04:39
We can't carefullyבקפידה controlלִשְׁלוֹט them because they're subconsciousתַת הַכָּרָתִי for us.
103
264000
2000
אנחנו לא יכולים לשלוט בהם בעדינות כי מקורם בתת-מודע שלנו
04:41
But with the robotרוֹבּוֹט, you can.
104
266000
2000
אך באמצעות רובוטים אנחנו יכולים.
04:43
And so in this videoוִידֵאוֹ here --
105
268000
2000
וכך בוידאו הזה --
04:45
this is a videoוִידֵאוֹ takenנלקח from Davidדוד DeSteno'sשל דסטנו labמַעבָּדָה at Northeasternצפון מזרח Universityאוּנִיבֶרְסִיטָה.
106
270000
3000
הוידאו נלקח מהמעבדה של דויד דה-סטאנו באוניברסיטת נורסטאיסטרן.
04:48
He's a psychologistפְּסִיכוֹלוֹג we'veיש לנו been collaboratingמשתף פעולה with.
107
273000
2000
הוא פסיכולוג שאיתו שיתפנו פעולה
04:50
There's actuallyלמעשה a scientistמַדְעָן carefullyבקפידה controllingשליטה Nexi'sשל Nexi cuesרמזים
108
275000
3000
מוצג מדען השולט ברמזים ש"נקסי" מעביר
04:53
to be ableיכול to studyלימוד this questionשְׁאֵלָה.
109
278000
3000
על מנת ללמוד את השאלה הזו
04:56
And the bottomתַחתִית lineקַו is -- the reasonסיבה why this worksעובד is
110
281000
2000
והשורה התחתונה היא -- הסיבה לכך שזה עובד היא --
04:58
because it turnsפונה out people just behaveלְהִתְנַהֵג like people
111
283000
2000
כי מסתבר שאנשים מתנהגים כמו אנשים
05:00
even when interactingאינטראקציה with a robotרוֹבּוֹט.
112
285000
3000
אפילו כשמתקשרים עם רובוט.
05:03
So givenנָתוּן that keyמַפְתֵחַ insightתוֹבָנָה,
113
288000
2000
אז, מצויידים בתובנה מרכזית זו,
05:05
we can now startהַתחָלָה to imagineלדמיין
114
290000
2000
אנחנו יכולים להתחיל לדמיין
05:07
newחָדָשׁ kindsמיני of applicationsיישומים for robotsרובוטים.
115
292000
3000
שימושים חדשים עבור רובוטים.
05:10
For instanceלמשל, if robotsרובוטים do respondלְהָגִיב to our non-verbalלא מילולית cuesרמזים,
116
295000
3000
לדוגמה, אם רובוט אכן מגיב לרמזים הלא-מילוליים שלנו,
05:13
maybe they would be a coolמגניב, newחָדָשׁ communicationתִקשׁוֹרֶת technologyטֶכנוֹלוֹגִיָה.
117
298000
4000
אולי הם יוכלו להיות טכנולוגית תקשורת חדשה ומגניבה
05:17
So imagineלדמיין this:
118
302000
2000
דמיינו את זה:
05:19
What about a robotרוֹבּוֹט accessoryאבזר for your cellphoneטלפון נייד?
119
304000
2000
מה בדבר אביזר-רובוטי לטלפון סלולרי?
05:21
You call your friendחָבֵר, she putsמעמיד her handsetמכשיר in a robotרוֹבּוֹט,
120
306000
2000
אתה מתקשר לחברה שלך, היא שמה את השפופרת ברובוט
05:23
and, bamבם! You're a MeBotMebot --
121
308000
2000
ובאם! אתה מדבר עם רובוט-אני
05:25
you can make eyeעַיִן contactאיש קשר, you can talk with your friendsחברים,
122
310000
3000
אתה יכול ליצור קשר-עין, לדבר עם החברים שלך
05:28
you can moveמהלך \ לזוז \ לעבור around, you can gestureמחווה --
123
313000
2000
לנוע בסביבה, להחוות מחוות --
05:30
maybe the nextהַבָּא bestהטוב ביותר thing to really beingלהיות there, or is it?
124
315000
3000
אולי הכי קרוב ללהיות שם בעצמך? או שלא?
05:33
To exploreלַחקוֹר this questionשְׁאֵלָה,
125
318000
2000
כדי לחקור את השאלה הזו
05:35
my studentתלמיד, Siggyזיגי Adalgeirssonאדאלג'ירסון, did a studyלימוד
126
320000
3000
הסטודנט שלי, סיגי אדאלגריסון, ביצע מחקר
05:38
where we broughtהביא humanבן אנוש participantsמשתתפים, people, into our labמַעבָּדָה
127
323000
3000
שבו הבאנו משתתפים אנושים, אנשים, למעבדה שלנו
05:41
to do a collaborativeשיתופי taskמְשִׁימָה
128
326000
2000
כדי לבצע משימה הדורשת לשתף פעולה
05:43
with a remoteמְרוּחָק collaboratorמְשַׁתֵף פְּעוּלָה.
129
328000
2000
עם שותף מרוחק
05:45
The taskמְשִׁימָה involvedמְעוּרָב things
130
330000
2000
המשימה עסקה בדברים
05:47
like looking at a setמַעֲרֶכֶת of objectsחפצים on the tableשולחן,
131
332000
2000
כגון להתבונן במספר עצמים על השולחן
05:49
discussingדנים them in termsמונחים of theirשֶׁלָהֶם importanceחֲשִׁיבוּת and relevanceהרלוונטיות to performingמְבַצֵעַ a certainמסוים taskמְשִׁימָה --
132
334000
3000
ולהתדיין בהם במונחים של חשיבותם והשייכות שלהם לביצוע משימה מסויימת
05:52
this endedהסתיים up beingלהיות a survivalהישרדות taskמְשִׁימָה --
133
337000
2000
שבסופו של דבר התברר שהיתה משימת שרידה --
05:54
and then ratingדֵרוּג them in termsמונחים
134
339000
2000
ואז לדרג אותם במונחים של
05:56
of how valuableבעל ערך and importantחָשׁוּב they thought they were.
135
341000
2000
של כמה בעלי ערך וחשובים החפצים
05:58
The remoteמְרוּחָק collaboratorמְשַׁתֵף פְּעוּלָה was an experimenterנסיין from our groupקְבוּצָה
136
343000
3000
השותף המרוחק היה נסיין מהקבוצה שלנו
06:01
who used one of threeשְׁלוֹשָׁה differentשונה technologiesטכנולוגיות
137
346000
2000
הם השתמשו באחת משלוש טכנולוגיות שונות
06:03
to interactאינטראקציה with the participantsמשתתפים.
138
348000
2000
לתקשר עם המשתתפים.
06:05
The first was just the screenמָסָך.
139
350000
2000
הראשונה היתה מסך בלבד
06:07
This is just like videoוִידֵאוֹ conferencingועידה todayהיום.
140
352000
3000
כך שזה בדיוק כמו ועידת-וידאו היום.
06:10
The nextהַבָּא was to addלְהוֹסִיף mobilityניידות -- so, have the screenמָסָך on a mobileנייד baseבסיס.
141
355000
3000
בשניה הוספנו יכולת תנועה, כך שהיה לנו מסך מוצב על בסיס מתנייע
06:13
This is like, if you're familiarמוּכָּר with any of the telepresence- robotsרובוטים todayהיום --
142
358000
3000
זה כמו, אם אתם מכירים את טכנולוגית המציאות-מרחוק של היום
06:16
this is mirroringשיקוף that situationמַצָב.
143
361000
3000
חיקינו את המצב הזה
06:19
And then the fullyלְגַמרֵי expressiveאֶקְסְפּרֶסִיבִי MeBotMebot.
144
364000
2000
ולבסוף, בוט-אני עם יכולות ההבעה המלאות שלו
06:21
So after the interactionאינטראקציה,
145
366000
2000
וכך, לאחר האינטראקציה
06:23
we askedשאל people to rateציון theirשֶׁלָהֶם qualityאיכות of interactionאינטראקציה
146
368000
3000
ביקשנו מהאנשים לדרג את חווית התקשורת
06:26
with the technologyטֶכנוֹלוֹגִיָה, with a remoteמְרוּחָק collaboratorמְשַׁתֵף פְּעוּלָה
147
371000
2000
בעזרת הטכנולוגיה, עם המשתתף המרוחק
06:28
throughדרך this technologyטֶכנוֹלוֹגִיָה, in a numberמספר of differentשונה waysדרכים.
148
373000
3000
דרך טכנולוגיה מסוימת זו, במספר דרכים שונות.
06:31
We lookedהביט at psychologicalפְּסִיכוֹלוֹגִי involvementמְעוֹרָבוּת --
149
376000
2000
בדקנו מעורבות פסיכולוגית --
06:33
how much empathyאֶמפַּתִיָה did you feel for the other personאדם?
150
378000
2000
כמה אמפתיה הורגשה כלפי האדם השני?
06:35
We lookedהביט at overallבאופן כללי engagementאירוסין.
151
380000
2000
בדקנו מחויבות כוללת
06:37
We lookedהביט at theirשֶׁלָהֶם desireרצון עז to cooperateלְשַׁתֵף פְּעוּלָה.
152
382000
2000
בדקנו את הרצון שלהם לשתף פעולה
06:39
And this is what we see when they use just the screenמָסָך.
153
384000
3000
וזה מה שראינו כשהמשתתפים השתמשו במסך בלבד.
06:42
It turnsפונה out, when you addלְהוֹסִיף mobilityניידות -- the abilityיְכוֹלֶת to rollגָלִיל around the tableשולחן --
154
387000
3000
מסתבר, כאשר אתה מוסיף יכולת תנועה - היכולת להתגלגל סביב לשולחן --
06:45
you get a little more of a boostלְהַגבִּיר.
155
390000
2000
מתקבלות תוצאות יותר גבוהות
06:47
And you get even more of a boostלְהַגבִּיר when you addלְהוֹסִיף the fullמלא expressionביטוי.
156
392000
3000
והתוצאות עוד יותר גבוהות אם מוסיפים יכולת הבעה מלאה
06:50
So it seemsנראה like this physicalגוּפָנִי, socialחֶברָתִי embodimentהִתגַלְמוּת
157
395000
2000
כך שנראה שהגילום הפיזי-חברתי הזה
06:52
actuallyלמעשה really makesעושה a differenceהֶבדֵל.
158
397000
2000
באמת עושה הבדל
06:54
Now let's try to put this into a little bitbit of contextהֶקשֵׁר.
159
399000
3000
עכשיו בואו ננסה לתת לזה הקשר
06:57
Todayהיום we know that familiesמשפחות are livingחַי furtherנוסף and furtherנוסף apartמלבד,
160
402000
3000
אנחנו יודעים שכיום בני המשפחה יכולים לגור במרחק גדול אחד מהשני
07:00
and that definitelyבהחלט takes a tollאַגרָה on familyמִשׁפָּחָה relationshipsיחסים
161
405000
2000
וזה בהחלט גובה מחיר ממערכת היחסים המשפחתית
07:02
and familyמִשׁפָּחָה bondsקשרים over distanceמֶרְחָק.
162
407000
2000
והקשר המשפחתי מעבר למרחק גדול
07:04
For me, I have threeשְׁלוֹשָׁה youngצָעִיר boysבנים,
163
409000
2000
לי לדוגמא, יש שלושה בנים צעירים,
07:06
and I want them to have a really good relationshipמערכת יחסים
164
411000
2000
ואני רוצה שיהיה להם קשר טוב מאוד
07:08
with theirשֶׁלָהֶם grandparentsסבים.
165
413000
2000
עם הסבים והסבתות שלהם
07:10
But my parentsהורים liveלחיות thousandsאלפים of milesstomach away,
166
415000
2000
אבל הורי גרים במרחק אלפי קילומטרים
07:12
so they just don't get to see eachכל אחד other that oftenלעתים קרובות.
167
417000
2000
כך שאין להם הרבה הזדמנויות להפגש בתדירות גבוהה
07:14
We try Skypeסקייפ, we try phoneטלפון callsשיחות,
168
419000
2000
ניסינו סקייפ, ניסינו שיחות טלפון,
07:16
but my boysבנים are little -- they don't really want to talk;
169
421000
2000
אבל הבנים שלי קטנים, הם לא רוצים לדבר
07:18
they want to playלְשַׂחֵק.
170
423000
2000
הם רוצים לשחק.
07:20
So I love the ideaרַעְיוֹן of thinkingחושב about robotsרובוטים
171
425000
2000
לכן אני אוהבת את הרעיון של לחשוב על רובוטים
07:22
as a newחָדָשׁ kindסוג of distance-playמרחק לשחק technologyטֶכנוֹלוֹגִיָה.
172
427000
3000
כטכנולוגיה חדשה למשחק-מרחוק
07:25
I imagineלדמיין a time not too farרָחוֹק from now --
173
430000
3000
אני מדמיינת שלא כך כך רחוק בעתיד --
07:28
my momאִמָא can go to her computerמַחשֵׁב,
174
433000
2000
אמא שלי תוכל לגשת למחשב שלה,
07:30
openלִפְתוֹחַ up a browserדפדפן and jackג'ֵק into a little robotרוֹבּוֹט.
175
435000
2000
לפתוח דפדפן אינטרנט, ולהתחבר לרובוט קטן
07:32
And as grandma-botסבתא-בוט,
176
437000
3000
ואז, כ"סבתא-בוט"
07:35
she can now playלְשַׂחֵק, really playלְשַׂחֵק,
177
440000
2000
היא יכולה לשחק, באמת לשחק
07:37
with my sonsבנים, with her grandsonsנכדים,
178
442000
2000
עם הבנים שלי, הנכדים שלה.
07:39
in the realאמיתי worldעוֹלָם with his realאמיתי toysצעצועים.
179
444000
3000
בעולם האמיתי, עם הצעצועים האמיתיים שלו
07:42
I could imagineלדמיין grandmothersסבתות beingלהיות ableיכול to do social-playsמחזות חברתיים
180
447000
2000
אני יכולה לדמיין סבתות יכולת לשחק משחקי חברה
07:44
with theirשֶׁלָהֶם granddaughtersנכדות, with theirשֶׁלָהֶם friendsחברים,
181
449000
2000
עם הנכדות שלהן, עם החברות שלהן,
07:46
and to be ableיכול to shareלַחֲלוֹק all kindsמיני of other activitiesפעילויות around the houseבַּיִת,
182
451000
2000
ולחלוק כל מיני סוגים של פעילויות אחרות בבית
07:48
like sharingשיתוף a bedtimeשעת השינה storyכַּתָבָה.
183
453000
2000
כגון לחלוק סיפור-לפני-השינה
07:50
And throughדרך this technologyטֶכנוֹלוֹגִיָה,
184
455000
2000
ובאמצעות הטכנולוגיה הזו,
07:52
beingלהיות ableיכול to be an activeפָּעִיל participantמִשׁתַתֵף
185
457000
2000
להיות מסוגלים לקחת חלק פעיל
07:54
in theirשֶׁלָהֶם grandchildren'sשל נכדים livesחיים
186
459000
2000
בחיי הנכדים שלהם
07:56
in a way that's not possibleאפשרי todayהיום.
187
461000
2000
בדרכים שלא אפשריות כיום
07:58
Let's think about some other domainsדומיינים,
188
463000
2000
בואו נחשוב על תחומים אחרים
08:00
like maybe healthבְּרִיאוּת.
189
465000
2000
כמו למשל, בריאות.
08:02
So in the Unitedמאוחד Statesמדינות todayהיום,
190
467000
2000
כיום, בארה"ב,
08:04
over 65 percentאָחוּז of people are eitherאוֹ overweightמשקל עודף or obeseשָׁמֵן מְאֹד,
191
469000
3000
מעל 65% מהאנשים סובלים מעודף משקל או השמנת יתר
08:07
and now it's a bigגָדוֹל problemבְּעָיָה with our childrenיְלָדִים as well.
192
472000
2000
וכעת זו בעייה גדולה גם עבור ילדינו.
08:09
And we know that as you get olderישן יותר in life,
193
474000
2000
ואנחנו יודעים שככל שאתה מתבגר
08:11
if you're obeseשָׁמֵן מְאֹד when you're youngerצעיר יותר, that can leadעוֹפֶרֶת to chronicכְּרוֹנִי diseasesמחלות
194
476000
3000
אם היית בעל משקל עודף בילדותך, אתה חשוף למחלות כרוניות
08:14
that not only reduceלְהַפחִית your qualityאיכות of life,
195
479000
2000
שלא רק מפחיתות מרמת החיים
08:16
but are a tremendousעָצוּם economicכַּלְכָּלִי burdenנטל on our healthבְּרִיאוּת careלְטַפֵּל systemמערכת.
196
481000
3000
אלא גורמות לנטל כלכלי עצום על מערכות הבריאות שלנו
08:19
But if robotsרובוטים can be engagingמרתק,
197
484000
2000
אבל אם רובוטים יוכלו להיות מקסימים,
08:21
if we like to cooperateלְשַׁתֵף פְּעוּלָה with robotsרובוטים,
198
486000
2000
אם נרצה לשתף פעולה עם רובוטים,
08:23
if robotsרובוטים are persuasiveמְשַׁכנֵעַ,
199
488000
2000
אם רובוטים יהיו משכנעים,
08:25
maybe a robotרוֹבּוֹט can help you
200
490000
2000
אולי רובוט יוכל לעזור לך
08:27
maintainלְתַחְזֵק a dietדִיאֵטָה and exerciseתרגיל programתָכְנִית,
201
492000
2000
לשמור על דיאטה ותוכנית אימון,
08:29
maybe they can help you manageלנהל your weightמִשׁקָל.
202
494000
3000
אולי הם יוכלו לעזור לך לשמור על משקלך.
08:32
Sortסוג of like a digitalדִיגִיטָלי Jiminyג 'ימיני --
203
497000
2000
הם יהיו כמו "ג'ימיני הצרצר" דיגיטאלי --
08:34
as in the well-knownידוע היטב fairyפיות taleמַעֲשִׂיָה --
204
499000
2000
כמו בפינוקיו --
08:36
a kindסוג of friendlyיְדִידוּתִי, supportiveתומכת presenceנוכחות that's always there
205
501000
2000
סוג של חבר תומך שתמיד נמצא שם
08:38
to be ableיכול to help you make the right decisionהַחְלָטָה
206
503000
2000
לעזור לך לקבל את ההחלטה הנכונה
08:40
in the right way at the right time
207
505000
2000
בדרך הנכונה, בזמן הנכון,
08:42
to help you formטופס healthyבָּרִיא habitsהרגל.
208
507000
2000
לעזור לך ליצור הרגלים בריאים.
08:44
So we actuallyלמעשה exploredנחקרו this ideaרַעְיוֹן in our labמַעבָּדָה.
209
509000
2000
אנחנו יכולים לחקור רעיונות אלו במעבדה.
08:46
This is a robotרוֹבּוֹט, Automאוטומטי.
210
511000
2000
זהו הרובוט "אוטום" (סתיו)
08:48
Coryקורי Kiddקיד developedמפותח this robotרוֹבּוֹט for his doctoralדוקטורט work.
211
513000
3000
קורי קיד פיתח את הרובוט הזה במהלך עבודת הדוקטורט שלו
08:51
And it was designedמְעוּצָב to be a robotרוֹבּוֹט diet-and-exerciseדיאטה ופעילות גופנית coachמְאַמֵן.
212
516000
3000
וזה תוכנן להיות רובוט-מאמן לדיאטה ותירגול
08:54
It had a coupleזוּג of simpleפָּשׁוּט non-verbalלא מילולית skillsמיומנויות it could do.
213
519000
2000
יש לזה מספר מיומנויות לא-מילוליות שביכולתו לבצע.
08:56
It could make eyeעַיִן contactאיש קשר with you.
214
521000
2000
זה יוצר קשר עין אתך.
08:58
It could shareלַחֲלוֹק informationמֵידָע looking down at a screenמָסָך.
215
523000
2000
זה יכול לחלוק מידע באמצעות מסך.
09:00
You'dהיית רוצה use a screenמָסָך interfaceמִמְשָׁק to enterלהיכנס informationמֵידָע,
216
525000
2000
אתה יכול להשתמש במסך ממשק על מנת להזין אינפורמציה
09:02
like how manyרב caloriesקלוריות you ateאכלתי that day,
217
527000
2000
כגון כמה קלוריות אכלת היום,
09:04
how much exerciseתרגיל you got.
218
529000
2000
כמה תרגילי כושר ביצעת.
09:06
And then it could help trackמַסלוּל that for you.
219
531000
2000
וזה יכול לעזור לעקוב אחרי זה בעבורך.
09:08
And the robotרוֹבּוֹט spokeדיבר with a syntheticמְלָאכוּתִי voiceקוֹל
220
533000
2000
והרובוט מדבר באמצעות קול סינטטי
09:10
to engageלְהַעֲסִיק you in a coachingאימון dialogueדו שיח
221
535000
2000
ויוצר דיאלוג של אימון (קואצ'ינג)
09:12
modeledמודל after trainersמאמנים
222
537000
2000
שעוצב על ידי מאמנים
09:14
and patientsחולים and so forthהָלְאָה.
223
539000
2000
ופציינטים וכולי.
09:16
And it would buildלִבנוֹת a workingעובד allianceבְּרִית with you
224
541000
2000
והוא יבנה יחסי עבודה איתך
09:18
throughדרך that dialogueדו שיח.
225
543000
2000
דרך הדיאלוג הזה
09:20
It could help you setמַעֲרֶכֶת goalsמטרות and trackמַסלוּל your progressהתקדמות,
226
545000
2000
הוא יכול לעזור לך להשיג מטרות ולעקוב אחרי התקדמותך
09:22
and it would help motivateלְהַנִיעַ you.
227
547000
2000
והוא יכול לדרבן אותך
09:24
So an interestingמעניין questionשְׁאֵלָה is,
228
549000
2000
וכך, שאלה מעניינת היא
09:26
does the socialחֶברָתִי embodimentהִתגַלְמוּת really matterחוֹמֶר? Does it matterחוֹמֶר that it's a robotרוֹבּוֹט?
229
551000
3000
האם ההתחברות החברתית באמת משנה? האם זה משנה שמדובר ברובוט?
09:29
Is it really just the qualityאיכות of adviceעֵצָה and informationמֵידָע that mattersעניינים?
230
554000
3000
האם מדובר רק באיכות היעוץ והמידע שמשנה?
09:32
To exploreלַחקוֹר that questionשְׁאֵלָה,
231
557000
2000
כדי לפתור את השאלה הזו
09:34
we did a studyלימוד in the Bostonבוסטון areaאֵזוֹר
232
559000
2000
ביצענו מחקר באיזור בוסטון
09:36
where we put one of threeשְׁלוֹשָׁה interventionsהתערבויות in people'sשל אנשים homesבתים
233
561000
3000
שמנו אחת משלוש שיטות אימון בבתים של אנשים
09:39
for a periodפרק זמן of severalכַּמָה weeksשבועות.
234
564000
2000
לתקופה של מספר שבועות
09:41
One caseמקרה was the robotרוֹבּוֹט you saw there, Automאוטומטי.
235
566000
3000
במקרה הראשון השארנו את הרובוט שראיתם, "אוטום".
09:44
Anotherאַחֵר was a computerמַחשֵׁב that ranרץ the sameאותו touch-screenמסך מגע interfaceמִמְשָׁק,
236
569000
3000
במקרה אחר שמנו מחשב שהריץ בדיוק את אותה תוכנת ממשק של מסך-מגע
09:47
ranרץ exactlyבְּדִיוּק the sameאותו dialoguesדיאלוגים.
237
572000
2000
הריץ בדיוק את אותם דיאלוגים
09:49
The qualityאיכות of adviceעֵצָה was identicalזֵהֶה.
238
574000
2000
האיכות של היעוץ היתה זהה
09:51
And the thirdשְׁלִישִׁי was just a penעֵט and paperעיתון logעֵץ,
239
576000
2000
והשלישית היתה יומן רגיל, מנייר, ועפרון
09:53
because that's the standardתֶקֶן interventionהתערבות you typicallyבדרך כלל get
240
578000
2000
מכיוון שזו השיטה הרגילה שבה משתמשים
09:55
when you startהַתחָלָה a diet-and-exerciseדיאטה ופעילות גופנית programתָכְנִית.
241
580000
3000
כשאתה מתחיל דיאטה ותוכנית אימונים
09:58
So one of the things we really wanted to look at
242
583000
3000
אחד הדברים שבאמת רצינו להבין
10:01
was not how much weightמִשׁקָל people lostאבד,
243
586000
3000
לא היה כמה משקל אנשים איבדו
10:04
but really how long they interactedאינטראקציה with the robotרוֹבּוֹט.
244
589000
3000
אלא למשך כמה זמן הם תיקשרו עם הרובוט
10:07
Because the challengeאתגר is not losingלאבד weightמִשׁקָל, it's actuallyלמעשה keepingשְׁמִירָה it off.
245
592000
3000
מכיוון שהאתגר הוא לא לרדת במשקל, אלא לשמור את המשקל נמוך.
10:10
And the longerארוך יותר you could interactאינטראקציה with one of these interventionsהתערבויות,
246
595000
3000
וככל שאתה ממשיך להשתמש באחת השיטות הללו
10:13
well that's indicativeמְעִיד עַל, potentiallyפוטנציאל, of longer-termטווח ארוך יותר successהַצלָחָה.
247
598000
3000
זו אינדיקציה, באופן פוטנציאלי, להצלחה לטווח ארוך יותר
10:16
So the first thing I want to look at is how long,
248
601000
2000
כך שהדבר הראשון שרצינו לדעת הוא לכמה זמן
10:18
how long did people interactאינטראקציה with these systemsמערכות.
249
603000
2000
כמה זמן, אנשים השתמשו במערכות הללו.
10:20
It turnsפונה out that people interactedאינטראקציה with the robotרוֹבּוֹט
250
605000
2000
התברר שאנשים תקשרו עם הרובוט
10:22
significantlyבאופן משמעותי more,
251
607000
2000
יותר, באופן משמעותי
10:24
even thoughאם כי the qualityאיכות of the adviceעֵצָה was identicalזֵהֶה to the computerמַחשֵׁב.
252
609000
3000
למרות שהאיכות של היעוץ היתה זהה לאיכות שהמחשב סיפק
10:28
When it askedשאל people to rateציון it on termsמונחים of the qualityאיכות of the workingעובד allianceבְּרִית,
253
613000
3000
כשהתבקשו לדרג את השיטה במונחים של איכות קשר העבודה
10:31
people ratedמדורג the robotרוֹבּוֹט higherגבוה יותר
254
616000
2000
אנשים דירגו את הרובוט גבוה יותר
10:33
and they trustedמהימן the robotרוֹבּוֹט more.
255
618000
2000
והם בטחו ברובוט יותר
10:35
(Laughterצחוק)
256
620000
2000
(צחוק)
10:37
And when you look at emotionalרִגשִׁי engagementאירוסין,
257
622000
2000
וכשבודקים מעורבות רגשית
10:39
it was completelyלַחֲלוּטִין differentשונה.
258
624000
2000
זה היה שונה לגמרי
10:41
People would nameשֵׁם the robotsרובוטים.
259
626000
2000
אנשים נתנו לרובוט שם
10:43
They would dressשמלה the robotsרובוטים.
260
628000
2000
הלבישו את הרובוט
10:45
(Laughterצחוק)
261
630000
2000
(צחוק)
10:47
And even when we would come up to pickלִבחוֹר up the robotsרובוטים at the endסוֹף of the studyלימוד,
262
632000
3000
ולפעמים, כשבאנו לאסוף את הרובוט בסוף המחקר,
10:50
they would come out to the carאוטו and say good-byeהֱיה שלום to the robotsרובוטים.
263
635000
2000
אנשים יצאו איתנו לרכב ואמרו שלום לרובוטים.
10:52
They didn't do this with a computerמַחשֵׁב.
264
637000
2000
הם לא עשו את זה במקרה של המחשב.
10:54
The last thing I want to talk about todayהיום
265
639000
2000
הדבר האחרון שעליו אני רוצה לדבר היום
10:56
is the futureעתיד of children'sילדים mediaכְּלֵי תִקְשׁוֹרֶת.
266
641000
2000
הוא עתיד תקשורת ההמונים לילדים
10:58
We know that kidsילדים spendלְבַלוֹת a lot of time behindמֵאָחוֹר screensמסכים todayהיום,
267
643000
3000
אנחנו יודעים שהיום ילדים מבלים זמן רב מאחורי מסכים
11:01
whetherהאם it's televisionטֵלֶוִיזִיָה or computerמַחשֵׁב gamesמשחקים or whatnotמה לא.
268
646000
3000
בין אם מדובר בטלויזיה או משחקי מחשב ומה לא.
11:04
My sonsבנים, they love the screenמָסָך. They love the screenמָסָך.
269
649000
3000
הבנים שלי אוהבים את המסך. אוהבים את המסך
11:07
But I want them to playלְשַׂחֵק; as a momאִמָא, I want them to playלְשַׂחֵק,
270
652000
3000
אבל אני רוצה שהם ישחקו, כאמא אני רוצה שהם ישחקו
11:10
like, real-worldעולם אמיתי playלְשַׂחֵק.
271
655000
2000
במשחקים בעולם האמיתי
11:12
And so I have a newחָדָשׁ projectפּרוֹיֶקט in my groupקְבוּצָה I wanted to presentמתנה to you todayהיום
272
657000
3000
וכך יש לנו בקבוצה מיזם חדש שאותו אני רוצה להציג בפניכם היום
11:15
calledשקוראים לו Playtimeזמן Computingמחשוב
273
660000
2000
שנקרא מחשב למשחק
11:17
that's really tryingמנסה to think about how we can take
274
662000
2000
זהו נסיון לחשוב באמת
11:19
what's so engagingמרתק about digitalדִיגִיטָלי mediaכְּלֵי תִקְשׁוֹרֶת
275
664000
2000
מה כל כך מושך במדיה הדיגיאלית
11:21
and literallyפשוטו כמשמעו bringלְהָבִיא it off the screenמָסָך
276
666000
2000
ובאופן מילולי "להוציא את זה מהמסך",
11:23
into the realאמיתי worldעוֹלָם of the childיֶלֶד,
277
668000
2000
ולהביא את זה לעולם האמיתי של הילד.
11:25
where it can take on manyרב of the propertiesנכסים of real-worldעולם אמיתי playלְשַׂחֵק.
278
670000
3000
שבו זה יוכל לקחת הרבה מהתכונות של משחק אמיתי בעולם האמיתי
11:29
So here'sהנה the first explorationחֲקִירָה of this ideaרַעְיוֹן,
279
674000
4000
וכך, הנה הנסיון הראשון לחקור רעיון זה
11:33
where charactersדמויות can be physicalגוּפָנִי or virtualוירטואלי,
280
678000
3000
בו הדמויות יכולות להיות פיזיות או וירטואליות
11:36
and where the digitalדִיגִיטָלי contentתוֹכֶן
281
681000
2000
ובו התוכן הדיגיטאלי
11:38
can literallyפשוטו כמשמעו come off the screenמָסָך
282
683000
2000
יכול, באופן מילולי, לצאת מהמסך
11:40
into the worldעוֹלָם and back.
283
685000
2000
לעולם ובחזרה
11:42
I like to think of this
284
687000
2000
אני אוהבת לחשוב על זה
11:44
as the Atariעטרי Pongפונג
285
689000
2000
כ"אטארי פונג"
11:46
of this blended-realityמציאות מעורבת playלְשַׂחֵק.
286
691000
2000
של המשחק מערב המציאות הזה
11:48
But we can pushלִדחוֹף this ideaרַעְיוֹן furtherנוסף.
287
693000
2000
אבל אנחנו יכולים לדחוף את הרעיון הזה יותר רחוק
11:50
What if --
288
695000
2000
מה אם ---
11:52
(Gameמִשְׂחָק) Nathanנתן: Here it comesבא. Yayיש!
289
697000
3000
(משחק) נתן: הנה זה בא... ואי!
11:55
CBCB: -- the characterאופי itselfעצמה could come into your worldעוֹלָם?
290
700000
3000
סינתיה: -- הדמות עצמה יכולה לבוא לעולם שלך?
11:58
It turnsפונה out that kidsילדים love it
291
703000
2000
מתברר שהילדים אוהבים את זה
12:00
when the characterאופי becomesהופך realאמיתי and entersנכנס into theirשֶׁלָהֶם worldעוֹלָם.
292
705000
3000
כשהדמות הופכת להיות אמיתית ונכנסת לעולם שלהם
12:03
And when it's in theirשֶׁלָהֶם worldעוֹלָם,
293
708000
2000
וכאשר הדמות בעולם שלהם
12:05
they can relateמתייחס to it and playלְשַׂחֵק with it in a way
294
710000
2000
הם יכולים להתיחס אליה ולשחק איתה בדרך
12:07
that's fundamentallyבִּיסוֹדוֹ differentשונה from how they playלְשַׂחֵק with it on the screenמָסָך.
295
712000
2000
שהיא שונה באופן מהותי מדרך המשחק איתה כשהיא במסך
12:09
Anotherאַחֵר importantחָשׁוּב ideaרַעְיוֹן is this notionרעיון
296
714000
2000
עוד רעיון חשוב הוא העניין
12:11
of persistenceהַתמָדָה of characterאופי acrossלְרוֹחָב realitiesמציאויות.
297
716000
3000
של קיום דמות בכמה מציאויות.
12:14
So changesשינויים that childrenיְלָדִים make in the realאמיתי worldעוֹלָם
298
719000
2000
כך ששינוים שהילד מבצע בעולם האמיתי
12:16
need to translateלתרגם to the virtualוירטואלי worldעוֹלָם.
299
721000
2000
מתורגמים לעולם הוירטואלי.
12:18
So here, Nathanנתן has changedהשתנה the letterמִכְתָב A to the numberמספר 2.
300
723000
3000
כאן, נתן שינה את האות A למספר 2
12:21
You can imagineלדמיין maybe these symbolsסמלים
301
726000
2000
אתם יכולים לדמיין שאולי הסמלים הללו
12:23
give the charactersדמויות specialמיוחד powersכוחות when it goesהולך into the virtualוירטואלי worldעוֹלָם.
302
728000
3000
מעניקים לדמויות כוחות מיוחדים כאשר הם נמצאים בעולם הוירטואלי
12:26
So they are now sendingשְׁלִיחָה the characterאופי back into that worldעוֹלָם.
303
731000
3000
כך שעכשיו הם שולחים את הדמות חזרה לעולם הזה
12:29
And now it's got numberמספר powerכּוֹחַ.
304
734000
3000
וכעת יש לה כוח של מספר.
12:32
And then finallyסוף כל סוף, what I've been tryingמנסה to do here
305
737000
2000
ולבסוף, מה שניסיתי לעשות כאן
12:34
is createלִיצוֹר a really immersiveאימרסיבי experienceניסיון for kidsילדים,
306
739000
3000
זה להעניק לילדים התנסות שאפשר ממש לשקוע בה
12:37
where they really feel like they are partחֵלֶק of that storyכַּתָבָה,
307
742000
3000
כך שהם ממש מרגישים כאילו הם חלק מהסיפור
12:40
a partחֵלֶק of that experienceניסיון.
308
745000
2000
חלק מההתנסות.
12:42
And I really want to sparkלְעוֹרֵר theirשֶׁלָהֶם imaginationsדמיונות
309
747000
2000
ואני ממש רוצה להצית את הדמיון שלהם
12:44
the way mineשלי was sparkedנצצו as a little girlילדה watchingצופה "Starכוכב Warsמלחמות."
310
749000
3000
כמו שהדמיון שלי ניצת כשהיתי ילדה קטנה וצפיתי ב"מלחמת הכוכבים."
12:47
But I want to do more than that.
311
752000
2000
אבל אני רוצה לעשות יותר מכך
12:49
I actuallyלמעשה want them to createלִיצוֹר those experiencesחוויות.
312
754000
3000
אני רוצה שהם ייצרו את ההתנסויות האלו
12:52
I want them to be ableיכול to literallyפשוטו כמשמעו buildלִבנוֹת theirשֶׁלָהֶם imaginationדִמיוֹן
313
757000
2000
אני רוצה שהם יוכלו ממש לבנות את הדמיון שלהם
12:54
into these experiencesחוויות and make them theirשֶׁלָהֶם ownשֶׁלוֹ.
314
759000
2000
לתוך ההתנסויות האלו, להפוך אותם לשלהם.
12:56
So we'veיש לנו been exploringחקר a lot of ideasרעיונות
315
761000
2000
כך שאחנו חקרנו רעיונות רבים
12:58
in telepresence- and mixedמעורב realityמְצִיאוּת
316
763000
2000
בנוכחות-מרחוק וערבוב מציאויות
13:00
to literallyפשוטו כמשמעו allowלהתיר kidsילדים to projectפּרוֹיֶקט theirשֶׁלָהֶם ideasרעיונות into this spaceמֶרחָב
317
765000
3000
כדי לאפשר לילדים להקרין את הרעיונות שלהם לתוך החלל הזה
13:03
where other kidsילדים can interactאינטראקציה with them
318
768000
2000
שבו ילדים אחרים יוכלו להגיב איתם
13:05
and buildלִבנוֹת uponעַל them.
319
770000
2000
ולבנות עליהם.
13:07
I really want to come up with newחָדָשׁ waysדרכים of children'sילדים mediaכְּלֵי תִקְשׁוֹרֶת
320
772000
3000
אני ממש רוצה לבוא עם רעיונות שונים למדיה לילדים
13:10
that fosterלְטַפֵּחַ creativityיְצִירָתִיוּת and learningלְמִידָה and innovationחדשנות.
321
775000
3000
שמעודדת יצירתיות, למידה וחדשנות
13:13
I think that's very, very importantחָשׁוּב.
322
778000
3000
אני חושבת שזה מאוד, מאוד חשוב
13:16
So this is a newחָדָשׁ projectפּרוֹיֶקט.
323
781000
2000
כך שזה מיזם חדש.
13:18
We'veללא שם: יש לנו invitedמוזמן a lot of kidsילדים into this spaceמֶרחָב,
324
783000
2000
הזמנו הרבה ילדים לחלל הזה
13:20
and they think it's prettyיפה coolמגניב.
325
785000
3000
והם חושבים שזה די "קול"
13:23
But I can tell you, the thing that they love the mostרוב
326
788000
2000
אבל אני יכולה להגיד לכם, שהדבר שהם הכי אוהבים
13:25
is the robotרוֹבּוֹט.
327
790000
2000
הוא הרובוט
13:27
What they careלְטַפֵּל about is the robotרוֹבּוֹט.
328
792000
3000
מה שאכפת להם ממנו הוא הרובוט.
13:30
Robotsרובוטים touchלגעת something deeplyבאופן מעמיק humanבן אנוש withinבְּתוֹך us.
329
795000
3000
רובוטים נוגעים במשהו עמוק באנושיות שלנו
13:33
And so whetherהאם they're helpingמָנָה us
330
798000
2000
וכך, בין שהם עוזרים לנו
13:35
to becomeהפכו creativeיְצִירָתִי and innovativeחדשני,
331
800000
2000
להיות יצירתיים וחדשניים,
13:37
or whetherהאם they're helpingמָנָה us
332
802000
2000
או שהם עוזרים לנו
13:39
to feel more deeplyבאופן מעמיק connectedמְחוּבָּר despiteלמרות distanceמֶרְחָק,
333
804000
2000
להרגיש מחוברים יותר למרות המרחק,
13:41
or whetherהאם they are our trustedמהימן sidekickSidekick
334
806000
2000
או שהם עוזרים נאמנים
13:43
who'sמי זה helpingמָנָה us attainלְהַשִׂיג our personalאישי goalsמטרות
335
808000
2000
שעוזרים לנו להשיג את מטרותינו האישיות
13:45
in becomingהִתהַוּוּת our highestהכי גבוה and bestהטוב ביותר selvesהאני,
336
810000
2000
להיות הכי טובים שאפשר,
13:47
for me, robotsרובוטים are all about people.
337
812000
3000
עבורי, רובוטים קשורים לאנשים.
13:50
Thank you.
338
815000
2000
תודה.
13:52
(Applauseתְשׁוּאוֹת)
339
817000
5000
(מחיאות כפיים)
Translated by amir Goldstein
Reviewed by Sigal Tifferet

▲Back to top

ABOUT THE SPEAKER
Cynthia Breazeal - Roboticist
At MIT, Cynthia Breazeal and her team are building robots with social intelligence that communicate and learn the same way people do.

Why you should listen

Cynthia Breazeal founded and directs the Personal Robots Group at MIT’s Media Lab. Her research focuses on developing the principles and technologies for building personal robots that are socially intelligent—that interact and communicate with people in human-centric terms, work with humans as peers, and learn from people as an apprentice.

She has developed some of the world’s most famous robotic creatures, ranging from small hexapod robots to highly expressive humanoids, including the social robot Kismet and the expressive robot Leonardo. Her recent work investigates the impact of social robots on helping people of all ages to achieve personal goals that contribute to quality of life, in domains such as physical performance, learning and education, health, and family communication and play over distance.

More profile about the speaker
Cynthia Breazeal | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee