ABOUT THE SPEAKER
Cynthia Breazeal - Roboticist
At MIT, Cynthia Breazeal and her team are building robots with social intelligence that communicate and learn the same way people do.

Why you should listen

Cynthia Breazeal founded and directs the Personal Robots Group at MIT’s Media Lab. Her research focuses on developing the principles and technologies for building personal robots that are socially intelligent—that interact and communicate with people in human-centric terms, work with humans as peers, and learn from people as an apprentice.

She has developed some of the world’s most famous robotic creatures, ranging from small hexapod robots to highly expressive humanoids, including the social robot Kismet and the expressive robot Leonardo. Her recent work investigates the impact of social robots on helping people of all ages to achieve personal goals that contribute to quality of life, in domains such as physical performance, learning and education, health, and family communication and play over distance.

More profile about the speaker
Cynthia Breazeal | Speaker | TED.com
TEDWomen 2010

Cynthia Breazeal: The rise of personal robots

سینتیا بریزیل: ظهور روبات های شخصی

Filmed:
1,201,057 views

برای سینتیا بریزیل، زمانی که دانشجوی تحصیلات تکمیلی بود،این سوال مطرح شد که چرا در حالیکه از روبات ها روی مریخ استفاده می کنم اما در خانه های خودمان خبری از آنها نیست.او متوجه نکته کلیدی در مورد آموزش رباتها برای تعامل با انسانها، شد. او رویای خود را دنبال کرد و اکنون روبات هایی می سازد که می توانند بیاموزند، آموزش دهند و بازی کنند. در این سخنرانی او قسمت هایی از یک بازی فعال جدید برای بچه ها را به شما نشان می دهد.
- Roboticist
At MIT, Cynthia Breazeal and her team are building robots with social intelligence that communicate and learn the same way people do. Full bio

Double-click the English transcript below to play the video.

00:15
Ever sinceاز آنجا که I was a little girlدختر
0
0
3000
از زمانی که دختر کوچکی بودم و
00:18
seeingدیدن "Starستاره Warsجنگ ها" for the first time,
1
3000
2000
برای اولین بار فیلم «جنگ ستارگان» را دیدم،
00:20
I've been fascinatedمجذوب by this ideaاندیشه
2
5000
2000
تا همین اکنون، ایده روبات های شخصی
00:22
of personalشخصی robotsروبات ها.
3
7000
2000
مرا مسحور خود ساخته است.
00:24
And as a little girlدختر,
4
9000
2000
به عنوان یک دختر بچه کوچک،
00:26
I lovedدوست داشتنی the ideaاندیشه of a robotربات that interactedتعامل with us
5
11000
2000
عاشق ایده روباتی بودم که تعاملش با ما
00:28
much more like a helpfulمفید است, trustedاعتماد به نفس sidekickپیوند زدن --
6
13000
3000
بیشتر شبیه یک همراه مورد اعتماد و یاری گر باشد.
00:31
something that would delightلذت us, enrichغنی سازی کنید our livesزندگی می کند
7
16000
2000
چیزی که گاهی بتواند باعث سرخوشی ما شود، زندگی ما راغنی تر کند
00:33
and help us saveصرفه جویی a galaxyکهکشان or two.
8
18000
3000
و کمکمان کند که یکی دو تا کهکشان را نجات دهیم.
00:37
I knewمی دانست robotsروبات ها like that didn't really existوجود دارد,
9
22000
3000
می دانستم که چنین روبات هایی واقعا وجود ندارند،
00:40
but I knewمی دانست I wanted to buildساختن them.
10
25000
2000
اما می دانستم که دوست دارم چنین چیزهایی را بسازم.
00:42
So 20 yearsسالها passعبور --
11
27000
2000
20 سال بدین ترتیب گذشت --
00:44
I am now a graduateفارغ التحصیل studentدانشجو at MITMIT
12
29000
2000
حالا من دانشجوی تحصیلات تکمیلی در موسسه فناوری ماساچوست هستم،
00:46
studyingدر حال مطالعه artificialمصنوعی intelligenceهوش,
13
31000
2000
و در رشته هوش مصنوعی تحصیل میکنم.
00:48
the yearسال is 1997,
14
33000
2000
این داستان مربوط به سال 1997 است.
00:50
and NASAناسا has just landedفرود آمد the first robotربات on Marsمریخ.
15
35000
3000
و همان زمان بود که ناسا نخستین روبات را روی مریخ فرود آورده بود.
00:53
But robotsروبات ها are still not in our home, ironicallyاز قضا.
16
38000
3000
اما طعنه آمیز این بود که روبات ها هنوز جایی در خانه های ما نداشتند.
00:56
And I rememberیاد آوردن thinkingفكر كردن about
17
41000
2000
یادم می آید که به تمام دلایلی که
00:58
all the reasonsدلایل why that was the caseمورد.
18
43000
2000
ممکن بود باعث این وضع شود فکر می کردم.
01:00
But one really struckرخ داد me.
19
45000
2000
اما یک دلیل به نظرم بسیار مهم بود.
01:02
Roboticsروباتیک had really been about interactingتعامل with things,
20
47000
3000
دانش روباتیک واقعا بر مبنای تعامل با اشیا بنا شده بود،
01:05
not with people --
21
50000
2000
ونه بر اساس تعامل با انسان ها --
01:07
certainlyقطعا not in a socialاجتماعی way that would be naturalطبیعی است for us
22
52000
2000
و به طور قطع نه به روشی اجتماعی که از دید ما طبیعی به نظر می رسد
01:09
and would really help people acceptقبول کردن robotsروبات ها
23
54000
2000
و می تواند به مردم کمک کند تا روبات ها را واقعا
01:11
into our dailyروزانه livesزندگی می کند.
24
56000
2000
در زندگی روزمره خود بپذیرند.
01:13
For me, that was the whiteسفید spaceفضا; that's what robotsروبات ها could not do yetهنوز.
25
58000
3000
برای من این موضوع دقیقا فضایی خالی را نشان می داد: چیزی که روبات ها هنوز قادر به انجام آن نیستند.
01:16
And so that yearسال, I startedآغاز شده to buildساختن this robotربات, KismetKismet,
26
61000
3000
و به همین دلیل در همان سال، من شروع به ساختن این روبات کردم که اسمش کیسمت است
01:19
the world'sجهان first socialاجتماعی robotربات.
27
64000
3000
اولین روبات اجتماعی دنیا.
01:22
Threeسه yearsسالها laterبعد --
28
67000
2000
سه سال بعد --
01:24
a lot of programmingبرنامه نويسي,
29
69000
2000
بعد از کلی برنامه نویسی و
01:26
workingکار کردن with other graduateفارغ التحصیل studentsدانش آموزان in the labآزمایشگاه --
30
71000
2000
و همکاری با دیگر دانشجویان در آزمایشگاه --
01:28
KismetKismet was readyآماده to startشروع کن interactingتعامل with people.
31
73000
2000
کیسمت، آماده آغاز تعامل با مردم بود.
01:30
(Videoویدئو) Scientistدانشمند: I want to showنشان بده you something.
32
75000
2000
(ویدئو) دانشمند : می خواهم یک چیزی بهت نشان بدهم.
01:32
KismetKismet: (Nonsenseمزخرف)
33
77000
2000
کیسمت: (نا مفهوم)
01:34
Scientistدانشمند: This is a watch that my girlfriendدوست دختر gaveداد me.
34
79000
3000
دانشمند : این یک ساعت است که دوست دخترم به من داده.
01:37
KismetKismet: (Nonsenseمزخرف)
35
82000
2000
کیسمت:(نا مفهوم)
01:39
Scientistدانشمند: Yeah, look, it's got a little blueآبی lightسبک in it too.
36
84000
2000
دانشمند : بله، نگاه کن، یک نور آبی رنگ کوچک هم در آن هست.
01:41
I almostتقریبا lostکم شده it this weekهفته.
37
86000
3000
نزدیک بود این هفته گمش کنم.
01:44
Cynthiaسینتیا BreazealBreazeal: So KismetKismet interactedتعامل with people
38
89000
3000
سینتیا بریزیل : خوب تعامل کیسمت با مردم شبیه به
01:47
like kindنوع of a non-verbalغیر کلامی childکودک or pre-verbalپیش زبان childکودک,
39
92000
3000
کودکی بود که قادر به حرف زدن نیست و یا هنوز زبان باز نکرده است،
01:50
whichکه I assumeفرض was fittingمناسب because it was really the first of its kindنوع.
40
95000
3000
که البته قابل درک بود، چرا که این روبات اولین نوع از خانواده روبات های اجتماعی بود.
01:53
It didn't speakصحبت languageزبان, but it didn't matterموضوع.
41
98000
2000
کیسمت نمی توانست حرف بزند، اما این مسئله اهمیتی نداشت.
01:55
This little robotربات was somehowبه نحوی ableتوانایی
42
100000
2000
این روبات کوچک به نوعی قادر بود
01:57
to tapشیر into something deeplyعمیقا socialاجتماعی withinدر داخل us --
43
102000
3000
که ماهیتی بسیار اجتماعی در درون ما را لمس کند --
02:00
and with that, the promiseوعده of an entirelyبه طور کامل newجدید way
44
105000
2000
و بدین ترتیب به ما وعده پیمودن مسیر کاملا جدیدی
02:02
we could interactتعامل with robotsروبات ها.
45
107000
2000
در تعامل با روبات ها را می داد.
02:04
So over the pastگذشته severalچند yearsسالها
46
109000
2000
بدین ترتیب در چند سال گذشته
02:06
I've been continuingادامه دادن to exploreکاوش کنید this interpersonalدرون فردی dimensionابعاد of robotsروبات ها,
47
111000
2000
من به کشف این بعُد میان شخصیتی روبات ها ادامه دادم ،
02:08
now at the mediaرسانه ها labآزمایشگاه
48
113000
2000
و در حال حاضر در آزمایشگاهای رسانه ای و به همراه
02:10
with my ownخودت teamتیم of incrediblyطور باور نکردنی talentedبا استعداد studentsدانش آموزان.
49
115000
2000
تیم همکارانم که از دانشجویان فوق العاده با هوش تشکیل شده ند، روی این موضوع کار می کنیم.
02:12
And one of my favoriteمورد علاقه robotsروبات ها is Leonardoلئوناردو.
50
117000
3000
و یکی از ربات های مورد علاقه من لئوناردو است.
02:15
We developedتوسعه یافته Leonardoلئوناردو in collaborationهمکاری with Stanاستن Winstonوینستون Studioاستودیو.
51
120000
3000
ما لئوناردو را با همکاری استودیو استن وینستون توسعه دادیم.
02:18
And so I want to showنشان بده you a specialویژه momentلحظه for me of Leoلئو.
52
123000
3000
و می خواهم لحظه ای که برایم درباره لئو، بسیار خاص است را به شما نشان دهم.
02:21
This is Mattمات Berlinبرلین interactingتعامل with Leoلئو,
53
126000
2000
مت برلین که در حال کار و تعامل با لئو است
02:23
introducingمعرفی Leoلئو to a newجدید objectشی.
54
128000
2000
شی جدیدی را به لئو معرفی می کند.
02:25
And because it's newجدید, Leoلئو doesn't really know what to make of it.
55
130000
3000
و از آنجایی که این شی برای او جدید است، لئو نمی داند واقعا با چی سر و کار دارد
02:28
But sortمرتب سازی of like us, he can actuallyدر واقع learnیاد گرفتن about it
56
133000
2000
اما در واقع و به نوعی شبیه خود ما، او هم می تواند از واکنش های مت
02:30
from watchingتماشا کردن Matt'sمات reactionواکنش.
57
135000
3000
چیزهایی در باره آن یاد بگیرد.
02:33
(Videoویدئو) Mattمات Berlinبرلین: Helloسلام, Leoلئو.
58
138000
2000
(ویدیو) مت برلین: سلام لئو
02:38
Leoلئو, this is Cookieکوکی Monsterهیولا.
59
143000
3000
لئو این هیولای شیرینی خوار است. لئو این کوکی مانستر( شخصیتی عروسکی هیولا مانند) است.
02:44
Can you find Cookieکوکی Monsterهیولا?
60
149000
3000
میتوانی کوکی مانستر را پیدا کنی؟
02:52
Leoلئو, Cookieکوکی Monsterهیولا is very badبد.
61
157000
3000
لئو، کوکی مانستر بسیار بده.لئو
02:56
He's very badبد, Leoلئو.
62
161000
2000
لئو، اون خیلی بده
03:00
Cookieکوکی Monsterهیولا is very, very badبد.
63
165000
3000
کوکی مانستر خیلی خیلی بده
03:07
He's a scaryترسناک monsterهیولا.
64
172000
2000
اون یک هیولای ترسناکه
03:09
He wants to get your cookiesبیسکویت ها.
65
174000
2000
او می خواهد همه شیرینی های تو را ازت بگیرد.
03:12
(Laughterخنده)
66
177000
2000
(خنده)
03:14
CBCB: All right, so Leoلئو and Cookieکوکی
67
179000
3000
سینتیا بریزیل : خوب ليو و کوکی مانستر
03:17
mightممکن have gottenدریافت کردم off to a little bitبیت of a roughخشن startشروع کن,
68
182000
2000
شاید شروع خیلی خوبی با هم نداشتند
03:19
but they get alongدر امتداد great now.
69
184000
3000
اما الان با هم به خوبی کنار می آیند
03:22
So what I've learnedیاد گرفتم
70
187000
2000
چیزی که من واقعا در خلال
03:24
throughاز طریق buildingساختمان these systemsسیستم های
71
189000
2000
ساخت این سیستم ها آموختم این بود که
03:26
is that robotsروبات ها are actuallyدر واقع
72
191000
2000
روبات ها در واقع
03:28
a really intriguingجذاب socialاجتماعی technologyتکنولوژی,
73
193000
2000
یک فناوری بسیار جذاب اجتماعی هستند.
03:30
where it's actuallyدر واقع theirخودشان abilityتوانایی
74
195000
2000
که این توانایی را دارند که برروی
03:32
to pushفشار دادن our socialاجتماعی buttonsدکمه ها
75
197000
2000
نقاط حساس اجتماعی ما انگشت بگذارند
03:34
and to interactتعامل with us like a partnerشریک
76
199000
2000
و همانند یک همکار با ما به تعامل بپردازند که
03:36
that is a coreهسته partبخشی of theirخودشان functionalityعملکرد.
77
201000
3000
این موضوع در واقع هسته اصلی کاربری آنها است.
03:39
And with that shiftتغییر مکان in thinkingفكر كردن, we can now startشروع کن to imagineتصور کن
78
204000
2000
حالا با این طرز تفکر جدید می توانیم به
03:41
newجدید questionsسوالات, newجدید possibilitiesامکانات for robotsروبات ها
79
206000
3000
سوال ها و امکانات جدیدی در باره روبات ها فکر کنیم
03:44
that we mightممکن not have thought about otherwiseدر غیر این صورت.
80
209000
3000
که در غیر این صورت، نمی توانستیم به آنها بپردازیم
03:47
But what do I mean when I say "pushفشار دادن our socialاجتماعی buttonsدکمه ها?"
81
212000
2000
اما منظورم از اینکه برروی نقاط حساس اجتماعی ما انگشت می گذارند چیست؟
03:49
Well, one of the things that we'veما هستیم learnedیاد گرفتم
82
214000
2000
خوب، یکی از چیزهایی که ما یاد گرفته ایم
03:51
is that, if we designطرح these robotsروبات ها to communicateبرقراری ارتباط with us
83
216000
2000
این است که اگر می خواهیم این روبات ها را به گونه ای طراحی کنیم که با ما ارتباط برقرار کنیم
03:53
usingاستفاده كردن the sameیکسان bodyبدن languageزبان,
84
218000
2000
از همان زبان بدن و از همان
03:55
the sameیکسان sortمرتب سازی of non-verbalغیر کلامی cuesنشانه that people use --
85
220000
2000
مجموعه از اشاره های غیر کلامی که مردم استفاده می کنند استفاده کنیم --
03:57
like NexiNexi, our humanoidانسان شناسی robotربات, is doing here --
86
222000
3000
مانند کاری که روبات انسان نمای ما نکسی، در اینجا انجام می دهد --
04:00
what we find is that people respondپاسخ دادن to robotsروبات ها
87
225000
2000
چیزی که در این مورد متوجه شدیم این است که در این شرایط واکنش مردم به روبات ها
04:02
a lot like they respondپاسخ دادن to people.
88
227000
2000
شبیه به واکنش آنها نسبت به مردم عادی است.
04:04
People use these cuesنشانه to determineتعیین کنید things like how persuasiveمتقاعد کننده someoneکسی is,
89
229000
3000
مردم از این نشانه ها استفاده می کنند برای مشخص کردن چیزهایی مانند چگونه فردی قانع میشود، به چه سبب دوست داشتنی است، چطور جذاب است و چقدر قابل اعتماد است.
04:07
how likableدوست داشتنی, how engagingجذاب,
90
232000
2000
مردم از این نشانه ها استفاده می کنند برای مشخص کردن چیزهایی مانند چگونه فردی قانع میشود، به چه سبب دوست داشتنی است، چطور جذاب است و چقدر قابل اعتماد است.
04:09
how trustworthyقابل اعتماد.
91
234000
2000
مردم از این نشانه ها استفاده می کنند برای مشخص کردن چیزهایی مانند چگونه فردی قانع میشود، به چه سبب دوست داشتنی است، چطور جذاب است و چقدر قابل اعتماد است.
04:11
It turnsچرخش out it's the sameیکسان for robotsروبات ها.
92
236000
2000
معلوم شده است که عین این رفتار درمواجهه با روبات ها هم صادق است.
04:13
It's turningچرخش out now
93
238000
2000
اکنون مشخص شده است
04:15
that robotsروبات ها are actuallyدر واقع becomingتبدیل شدن به a really interestingجالب هست newجدید scientificعلمی toolابزار
94
240000
3000
که روبات ها در واقع یک ابزار علمی بسیار جذاب
04:18
to understandفهمیدن humanانسان behaviorرفتار.
95
243000
2000
برای درک رفتارهای انسان هم هستند.
04:20
To answerپاسخ questionsسوالات like, how is it that, from a briefمختصر encounterرویارویی,
96
245000
3000
مثلا درباره اینکه چگونه ما می توانیم در خلال یک ملاقات کوتاه
04:23
we're ableتوانایی to make an estimateتخمین زدن of how trustworthyقابل اعتماد anotherیکی دیگر personفرد is?
97
248000
3000
تخمینی از اینکه شخص مقابل ما چقدر قابل اعتماد است را به دست بیاوریم؟
04:26
Mimicry'sتقلید believedمعتقد to playبازی a roleنقش, but how?
98
251000
3000
اعتقاد بر این است که در این شرایط واکنش های غیر کلامی نقش مهمی بر عهده دارند، اما چگونه ؟
04:29
Is it the mimickingتقلید کردن of particularخاص gesturesحرکات that mattersمسائل?
99
254000
3000
آیا در این مورد تقلید از رفتارهای ویژه دارای اهمیت است؟
04:32
It turnsچرخش out it's really hardسخت
100
257000
2000
معلوم شده است که بررسی این موضوع
04:34
to learnیاد گرفتن this or understandفهمیدن this from watchingتماشا کردن people
101
259000
2000
از طریق تماشای رفتار مردم کار بسیار دشواری است
04:36
because when we interactتعامل we do all of these cuesنشانه automaticallyبطور خودکار.
102
261000
3000
چون، وقتی در حال تعامل با دیگران هستیم این رفتارها به طور خودکار اتفاق می افتد.
04:39
We can't carefullyبا دقت controlکنترل them because they're subconsciousناخودآگاه for us.
103
264000
2000
ما نمی توانیم با دقت این رفتارها را کنترل کنیم چون این رفتارها در ناخودآگاه ما است.
04:41
But with the robotربات, you can.
104
266000
2000
اما در باره روباتها ، شما می توانید چنین بررسی هایی را انجام دهید.
04:43
And so in this videoویدئو here --
105
268000
2000
و در این ویدیو --
04:45
this is a videoویدئو takenگرفته شده from Davidدیوید DeSteno'sDeSteno's labآزمایشگاه at Northeasternشمال شرقی Universityدانشگاه.
106
270000
3000
این ویدوی در آزمایشگاه دیوید دی استنو در دانشگاه نورت ایسترن تهیه شده است.
04:48
He's a psychologistروانشناس we'veما هستیم been collaboratingهمکاری with.
107
273000
2000
او روان شناسی است که با ما همکاری می کند.
04:50
There's actuallyدر واقع a scientistدانشمند carefullyبا دقت controllingکنترل Nexi'sNexi's cuesنشانه
108
275000
3000
در این مورد در واقع یک دانشمند با دقت در حال کنترل واکنش و نشانه های نکسی است
04:53
to be ableتوانایی to studyمطالعه this questionسوال.
109
278000
3000
تا با کمک آن بتوان به بررسی مساله بپردازد.
04:56
And the bottomپایین lineخط is -- the reasonدلیل why this worksآثار is
110
281000
2000
و نکته نهایی در این مورد -- و دلیلی که این بررسی کارآمد است
04:58
because it turnsچرخش out people just behaveرفتار كردن like people
111
283000
2000
این است که معلوم شده که انسان ها حتی زمانی که با روبات ها
05:00
even when interactingتعامل with a robotربات.
112
285000
3000
تعامل دارند دقیقا مثل انسان ها واکنش نشان می دهند.
05:03
So givenداده شده that keyکلیدی insightبینش، بصیرت، درون بینی,
113
288000
2000
بنابراین با این دیدگاه کلیدی
05:05
we can now startشروع کن to imagineتصور کن
114
290000
2000
اکنون می توانیم نوع جدیدی از
05:07
newجدید kindsانواع of applicationsبرنامه های کاربردی for robotsروبات ها.
115
292000
3000
کاربرد برای روبات ها را تصور کنیم.
05:10
For instanceنمونه, if robotsروبات ها do respondپاسخ دادن to our non-verbalغیر کلامی cuesنشانه,
116
295000
3000
برای مثال، اگر روبات ها به علایم غیر گفتاری ما واکنش نشان دهند،
05:13
maybe they would be a coolسرد, newجدید communicationارتباطات technologyتکنولوژی.
117
298000
4000
شاید کار کردن با آنها جذاب تر شده و به فناوری ارتباطی جذاب تری بدل شوند
05:17
So imagineتصور کن this:
118
302000
2000
بیایید چنین مواردی را تصورم کنید:
05:19
What about a robotربات accessoryلوازم جانبی for your cellphoneتلفن همراه?
119
304000
2000
نظرتان درباره یک روبات در نقش ابزار جنبی برای تلفن همراهتان چیست؟
05:21
You call your friendدوست, she putsقرار می دهد her handsetگوشی in a robotربات,
120
306000
2000
شما به دوستتان زنگ می زنید و او گوشی را به روبات می دهد،
05:23
and, bamبم! You're a MeBotMeBot --
121
308000
2000
و ناگهان خود شما تبدیل به یک می بوت ( رباتی که توانایی سخن گفتن و بدنی مشابه انشان دارد) می شوید --
05:25
you can make eyeچشم contactتماس, you can talk with your friendsدوستان,
122
310000
3000
شما به واسطه آن می توانید ارتباط چشمی برقرار کنید، با دوستانتان حرف بزنید،
05:28
you can moveحرکت around, you can gestureژست --
123
313000
2000
به اطراف حرکت کنید ، قیافه بگیرید --
05:30
maybe the nextبعد bestبهترین thing to really beingبودن there, or is it?
124
315000
3000
ابن شاید بهترین جایگزین ممکن به جای حضور خود شخص در ان محیط باشد، اینطور نیست؟
05:33
To exploreکاوش کنید this questionسوال,
125
318000
2000
برای بررسی این امکان
05:35
my studentدانشجو, Siggyسیگگی AdalgeirssonAdalgeirsson, did a studyمطالعه
126
320000
3000
یکی از دانشجویان من، سیگی آدالجرسون، تحقیقی انجام داد
05:38
where we broughtآورده شده humanانسان participantsشركت كنندگان, people, into our labآزمایشگاه
127
323000
3000
او یک فرد عادی را به آزمایشگاه آورد
05:41
to do a collaborativeمشارکتی taskوظیفه
128
326000
2000
تا یک فعالیت مشترک را
05:43
with a remoteاز راه دور collaboratorمشارکت کننده.
129
328000
2000
با یک مشارکت کننده از راه دور انجام دهد.
05:45
The taskوظیفه involvedگرفتار things
130
330000
2000
این کار، شامل چند چیز مختلف بود
05:47
like looking at a setتنظیم of objectsاشیاء on the tableجدول,
131
332000
2000
مثل نگاه کردن به اشیای روی میز،
05:49
discussingبحث در مورد them in termsاصطلاحات of theirخودشان importanceاهمیت and relevanceارتباط to performingاجرای a certainمسلم - قطعی taskوظیفه --
132
334000
3000
بحث کردن در باره اهمیت و کارآمدی آنها در یک کار مشخص --
05:52
this endedبه پایان رسید up beingبودن a survivalبقاء taskوظیفه --
133
337000
2000
بعدا معلوم شد که این عمل ، کاری برای بقا است --
05:54
and then ratingرتبه بندی them in termsاصطلاحات
134
339000
2000
و سپس رتبه بندی آنها از نظر
05:56
of how valuableبا ارزش and importantمهم they thought they were.
135
341000
2000
ارزشمندی و اهمیتی که به نظر آنها هر یک از اشیا داشتند.
05:58
The remoteاز راه دور collaboratorمشارکت کننده was an experimenterآزمایش کننده from our groupگروه
136
343000
3000
همکار راه دور این بررسی یکی از آزمایش کنندگان گروه ما بود
06:01
who used one of threeسه differentناهمسان technologiesفن آوری ها
137
346000
2000
ما از یکی از 3 فناوری متفاوت
06:03
to interactتعامل with the participantsشركت كنندگان.
138
348000
2000
را برای تعامل با شرکت کننده ها به کار می گرفتیم
06:05
The first was just the screenصفحه نمایش.
139
350000
2000
اولین فناوری فقط یک صفحه نمایش بود
06:07
This is just like videoویدئو conferencingکنفرانس todayامروز.
140
352000
3000
چیزی شبیه به ویدیو کنفرانس های امروزی
06:10
The nextبعد was to addاضافه کردن mobilityتحرک -- so, have the screenصفحه نمایش on a mobileسیار baseپایه.
141
355000
3000
بعدی قابلیت حرکت بود -- مثل اینکه صفحه نمایش را روی یک پایه متحرک قرار دهیم
06:13
This is like, if you're familiarآشنا with any of the telepresenceتلوزیون robotsروبات ها todayامروز --
142
358000
3000
این چیزی شبیه روبات های ارتباطات حضوری (تله پرسنس) است که اکنون هم موجودند --
06:16
this is mirroringمعکوس that situationوضعیت.
143
361000
3000
این نمایی از حالت نهایی را ایجاد می کرد.
06:19
And then the fullyبه طور کامل expressiveرسا MeBotMeBot.
144
364000
2000
و در نهایت نسخه نهایی می بوت (MeBot)
06:21
So after the interactionاثر متقابل,
145
366000
2000
پس از تعامل
06:23
we askedپرسید: people to rateنرخ theirخودشان qualityکیفیت of interactionاثر متقابل
146
368000
3000
از شرکت کننده ها می خواستیم تا کیفیت تعاملشان
06:26
with the technologyتکنولوژی, with a remoteاز راه دور collaboratorمشارکت کننده
147
371000
2000
با شخص راه دور و به کمک فناوری را
06:28
throughاز طریق this technologyتکنولوژی, in a numberعدد of differentناهمسان waysراه ها.
148
373000
3000
به طرق مختلفی به شکل عددی بیان کنند
06:31
We lookedنگاه کرد at psychologicalروانشناسی involvementدست داشتن --
149
376000
2000
ما به دنبال درگیری روانشانختی می گشتیم --
06:33
how much empathyیکدلی did you feel for the other personفرد?
150
378000
2000
چقدر با آن فرد احساس همراهی و همدلی پیدا می کنید ؟
06:35
We lookedنگاه کرد at overallبه طور کلی engagementنامزدی.
151
380000
2000
ما به دنبال درگیری کلی بودیم
06:37
We lookedنگاه کرد at theirخودشان desireمیل to cooperateهمکاری کردن.
152
382000
2000
همچنین میل آنها به تعامل را مشاهده می کردیم
06:39
And this is what we see when they use just the screenصفحه نمایش.
153
384000
3000
و این چیزی بود که ما وقتی آنها فقط از صفحه نمایش استفاده می کردند دیدیم.
06:42
It turnsچرخش out, when you addاضافه کردن mobilityتحرک -- the abilityتوانایی to rollرول around the tableجدول --
154
387000
3000
معلوم شد وقتی شما تحرک -- قابلیت حرکت کردن در اطراف میز -- را اضافه می کنید
06:45
you get a little more of a boostتقویت.
155
390000
2000
شاهد اندکی بهبود در این تعامل هستید.
06:47
And you get even more of a boostتقویت when you addاضافه کردن the fullپر شده expressionاصطلاح.
156
392000
3000
و وقتی حالات بیان کامل را اضافه می کنید بازهم تعامل بهبود پیدا می کند.
06:50
So it seemsبه نظر می رسد like this physicalفیزیکی, socialاجتماعی embodimentتجسم
157
395000
2000
به نظر می رسد این تجسم های فیزیکی و اجتماعی
06:52
actuallyدر واقع really makesباعث می شود a differenceتفاوت.
158
397000
2000
واقعا تغییر ایجاد می کند.
06:54
Now let's try to put this into a little bitبیت of contextزمینه.
159
399000
3000
حالا بیایید سعی کنیم این را اندکی درون یک چهارچوب قرار دهیم
06:57
Todayامروز we know that familiesخانواده ها are livingزندگي كردن furtherبیشتر and furtherبیشتر apartجدا از هم,
160
402000
3000
می دانیم امروزه خانواده ها دور از هم زندگی می کنند.
07:00
and that definitelyقطعا takes a tollتلفات on familyخانواده relationshipsروابط
161
405000
2000
و طبیعتا این باعث ایجاد نواقصی در روابط خانوادگی می شود
07:02
and familyخانواده bondsاوراق قرضه over distanceفاصله.
162
407000
2000
و فاصله های مانعی میان خانواده ها ایجاد می کنند.
07:04
For me, I have threeسه youngجوان boysپسران,
163
409000
2000
خود من 3 پسر جوان دارم
07:06
and I want them to have a really good relationshipارتباط
164
411000
2000
و دوست دارم آنها روابط خوبی با
07:08
with theirخودشان grandparentsپدربزرگ و مادربزرگ.
165
413000
2000
پدربزرگ و مادربزرگ خود داشته باشند
07:10
But my parentsپدر و مادر liveزنده thousandsهزاران نفر of milesمایل away,
166
415000
2000
اما والدین من هزاران کیلومتر دور از ما زندگی می کنند.
07:12
so they just don't get to see eachهر یک other that oftenغالبا.
167
417000
2000
به همین دلیل انها فرصت چندانی برای دیدن هم ندارند
07:14
We try Skypeاسکایپ, we try phoneتلفن callsتماس می گیرد,
168
419000
2000
ما اسکایپ و تماس های تلفنی را امتحان کردیم
07:16
but my boysپسران are little -- they don't really want to talk;
169
421000
2000
اما پسرهای من کوچکند -- خیلی دوست ندارند حرف بزنند
07:18
they want to playبازی.
170
423000
2000
دوست دارند بازی کنند
07:20
So I love the ideaاندیشه of thinkingفكر كردن about robotsروبات ها
171
425000
2000
به همین دلیل من عاشق فکر کردن به ایده روبات هایی هستم
07:22
as a newجدید kindنوع of distance-playفاصله بازی technologyتکنولوژی.
172
427000
3000
که از آنها به عنوان نوعی فناوری بازی از راه دور بتوان استفاده کرد
07:25
I imagineتصور کن a time not too farدور from now --
173
430000
3000
من زمانی را تصور می کنم که خیلی دور از ما نخواهد بود --
07:28
my momمامان can go to her computerکامپیوتر,
174
433000
2000
مادرم به سراغ کامپیوترش برود
07:30
openباز کن up a browserمرورگر and jackجک into a little robotربات.
175
435000
2000
یک مرور گر را باز کند و اتصالی را با یک روبات کوچک ایجاد کند
07:32
And as grandma-botمادربزرگ,
176
437000
3000
و به عنوان یک مادربزرگ بات (grandma-bot)
07:35
she can now playبازی, really playبازی,
177
440000
2000
بتواند به معنی واقعی کلمه
07:37
with my sonsپسران, with her grandsonsنوه ها,
178
442000
2000
با پسرهای من و نوه های خودش در یک
07:39
in the realواقعی worldجهان with his realواقعی toysاسباب بازی ها.
179
444000
3000
دنیای واقعی و با اسباب بازی های واقعی بازی کند.
07:42
I could imagineتصور کن grandmothersمادربزرگ beingبودن ableتوانایی to do social-playsاجتماعی بازی می کند
180
447000
2000
من می توانم تصور کنم که مادربزرگ ها و پدر بزرگ ها قادر به انجام بازی های دسته جمعی با نوه ها و
07:44
with theirخودشان granddaughtersپدربزرگها, with theirخودشان friendsدوستان,
181
449000
2000
دوستان آنها شوند
07:46
and to be ableتوانایی to shareاشتراک گذاری all kindsانواع of other activitiesفعالیت ها around the houseخانه,
182
451000
2000
و بتوانند فعالیت های دیگری را با آنها به اشتراک بگذارند،
07:48
like sharingبه اشتراک گذاری a bedtimeوقت خواب storyداستان.
183
453000
2000
مثلا برای آنها قصه دم خوابشان را تعریف کنند.
07:50
And throughاز طریق this technologyتکنولوژی,
184
455000
2000
و به کمک این فناوری ها
07:52
beingبودن ableتوانایی to be an activeفعال participantشرکت کننده
185
457000
2000
آنها قادر خواهند بود نقش فعال تری
07:54
in theirخودشان grandchildren'sنوه livesزندگی می کند
186
459000
2000
در زندگی نوه های خود ایفا کنند
07:56
in a way that's not possibleامکان پذیر است todayامروز.
187
461000
2000
ان هم به روشی که امروز میسر نیست .
07:58
Let's think about some other domainsدامنه ها,
188
463000
2000
بیایید به برخی از حوزه های دیگر فکر کنیم
08:00
like maybe healthسلامتی.
189
465000
2000
مثلا سلامت
08:02
So in the Unitedیونایتد Statesایالت ها todayامروز,
190
467000
2000
امروزه در ایالات متحده
08:04
over 65 percentدرصد of people are eitherیا overweightاضافه وزن or obeseچاق,
191
469000
3000
بیش از 65 درصد مردم به نوعی درگیر چاقی یا اضافه وزن هستند
08:07
and now it's a bigبزرگ problemمسئله with our childrenفرزندان as well.
192
472000
2000
و این یکی از مسایل بزرگ در مورد بچه های ما هم هست.
08:09
And we know that as you get olderمسن تر in life,
193
474000
2000
و می دانیم که هر چقدر سن شما بیشتر می شود
08:11
if you're obeseچاق when you're youngerجوانتر, that can leadسرب to chronicمزمن diseasesبیماری ها
194
476000
3000
اگر شما در جوانی دچار چاقی بوده اید ، احتمال بیشتری دارد که به بیماریهای عروقی مبتلا شوید
08:14
that not only reduceكاهش دادن your qualityکیفیت of life,
195
479000
2000
که نه تنها کیفیت زندگی شما را کاهش می دهد
08:16
but are a tremendousفوق العاده economicاقتصادی burdenبارگیری on our healthسلامتی careاهميت دادن systemسیستم.
196
481000
3000
که تاثیر اقتصادی شدیدی بر سیستم سلامت و درمان کشور نیز دارد.
08:19
But if robotsروبات ها can be engagingجذاب,
197
484000
2000
اما اگر روبات ها درگیر این موضوع شوند
08:21
if we like to cooperateهمکاری کردن with robotsروبات ها,
198
486000
2000
اگر ما تعامل با روبات ها را دوست داشته باشیم
08:23
if robotsروبات ها are persuasiveمتقاعد کننده,
199
488000
2000
اگر روبا تها متقاعد کننده باشند
08:25
maybe a robotربات can help you
200
490000
2000
شاید یک روبات بتواند به شما کمک کند
08:27
maintainحفظ a dietرژیم غذایی and exerciseورزش programبرنامه,
201
492000
2000
که یک رژیم غذایی و برنامه تمرینی را در پیش بگیرید
08:29
maybe they can help you manageمدیریت کردن your weightوزن.
202
494000
3000
شاید آنها بتوانند شما را در کنترل وزنتان یاری دهند
08:32
Sortمرتب سازی of like a digitalدیجیتال Jiminyجیمیینا --
203
497000
2000
شاید چیزی شبیه یک موجود محافظ دیجیتال --
08:34
as in the well-knownمشهور است fairyپری taleداستان --
204
499000
2000
شبیه همان شخصیت های داستان های افسانه ای --
08:36
a kindنوع of friendlyدوستانه, supportiveحمایتی presenceحضور that's always there
205
501000
2000
یک حضور دوستانه و حمایت کننده که همیشه حضور دارد
08:38
to be ableتوانایی to help you make the right decisionتصمیم گیری
206
503000
2000
تا به شما در اتخاذ تصمیم درست کمک کند
08:40
in the right way at the right time
207
505000
2000
و در زمان و به روش مناسب
08:42
to help you formفرم healthyسالم habitsعادات.
208
507000
2000
به شما برای داشتن عادت های سالم یاری برساند
08:44
So we actuallyدر واقع exploredکاوش this ideaاندیشه in our labآزمایشگاه.
209
509000
2000
خوب در واقع ما این ایده را در آزمایشگاهمان بررسی کردیم
08:46
This is a robotربات, Automماشین.
210
511000
2000
این یک روبات است به نام آتوم
08:48
Coryکوری Kiddکید developedتوسعه یافته this robotربات for his doctoralدکترا work.
211
513000
3000
کوری کید این روبات را برای پژوهش دکترایش طراحی کرده است
08:51
And it was designedطراحی شده to be a robotربات diet-and-exerciseرژیم غذایی و ورزش coachمربی.
212
516000
3000
و این روبات به عنوان یک مربی ورزش و رژیم غذایی طراحی شده است.
08:54
It had a coupleزن و شوهر of simpleساده non-verbalغیر کلامی skillsمهارت ها it could do.
213
519000
2000
چند تا توانایی غیر کلامی هم هست که این روبات می تواند انجام دهد
08:56
It could make eyeچشم contactتماس with you.
214
521000
2000
می تواند با شما ارتباط بصری ایجاد کند
08:58
It could shareاشتراک گذاری informationاطلاعات looking down at a screenصفحه نمایش.
215
523000
2000
می تواند اطلاعاتی را با نگاه کردن به پایین تصویر با شما در میان بگذارد
09:00
You'dمی خواهی use a screenصفحه نمایش interfaceرابط to enterوارد informationاطلاعات,
216
525000
2000
شما می توانید از صفحه واسطه برای ورود داده ها استفاده کنید
09:02
like how manyبسیاری caloriesکالری you ateخوردم that day,
217
527000
2000
مثل اینکه چند کالری در روز غذا خورده اید
09:04
how much exerciseورزش you got.
218
529000
2000
چقدر تمرین کرده اید
09:06
And then it could help trackمسیر that for you.
219
531000
2000
و سپس این روبات می تواند به شما برای پیگیری آنها کمک کند.
09:08
And the robotربات spokeصحبت کرد with a syntheticمصنوعی voiceصدای
220
533000
2000
و این روبات با یک سیستم صوتی ترکیبی با شما صحبت می کند
09:10
to engageمشغول کردن you in a coachingمربیگری dialogueگفتگو
221
535000
2000
تا شما را وادار به انجام مکالمه ای مربوط به وظایف مربی گریش بکند
09:12
modeledمدل سازی شده after trainersمربیان
222
537000
2000
و برای تمرین کننده ها و
09:14
and patientsبیماران and so forthچهارم.
223
539000
2000
یا بیماران و دیگران می تواند برنامه ریزی شود
09:16
And it would buildساختن a workingکار کردن allianceاتحاد with you
224
541000
2000
و می تواند یک ارتباط کاری به واسطه
09:18
throughاز طریق that dialogueگفتگو.
225
543000
2000
دیالوگ با شما برقرار کند
09:20
It could help you setتنظیم goalsاهداف and trackمسیر your progressپیش رفتن,
226
545000
2000
می تواند کمک کند که اهداف خود را تعیین و و بر فرآیند خود نظارت کنید
09:22
and it would help motivateایجاد انگیزه you.
227
547000
2000
و می تواند شما را ترغیب کند
09:24
So an interestingجالب هست questionسوال is,
228
549000
2000
خوب سوال جالب توجه این است
09:26
does the socialاجتماعی embodimentتجسم really matterموضوع? Does it matterموضوع that it's a robotربات?
229
551000
3000
آیا داشتن پارامترهای اجتماعی واقعا مهم است ؟ آیا مهم است که طرف مقابل یک روبات است؟
09:29
Is it really just the qualityکیفیت of adviceمشاوره and informationاطلاعات that mattersمسائل?
230
554000
3000
یا تنها کیفیت یک راهنمایی و اطلاعات است که اهمیت دارد؟
09:32
To exploreکاوش کنید that questionسوال,
231
557000
2000
برای بررسی این سوال
09:34
we did a studyمطالعه in the Bostonبوستون areaمنطقه
232
559000
2000
ما تحقیقی را در منطقه بوستون انجام دادیم
09:36
where we put one of threeسه interventionsمداخلات in people'sمردم homesخانه ها
233
561000
3000
ما یکی از سه گونه واسط ارتباطی را در خانه مردم قرار دادیم
09:39
for a periodدوره زمانی of severalچند weeksهفته ها.
234
564000
2000
برای مدت چند هفته
09:41
One caseمورد was the robotربات you saw there, Automماشین.
235
566000
3000
یکی از این واسطه ها روباتی بود که شما اینجا دیدید: آتوم
09:44
Anotherیکی دیگر was a computerکامپیوتر that ranفرار کرد the sameیکسان touch-screenصفحه لمسی interfaceرابط,
236
569000
3000
دیگری کامپیوتری بود که با یک واسطه صفحه لمسی کار می کرد
09:47
ranفرار کرد exactlyدقیقا the sameیکسان dialoguesگفتگوها.
237
572000
2000
و دقیقا همان دیالوگ ها را منتقل می کرد
09:49
The qualityکیفیت of adviceمشاوره was identicalیکسان.
238
574000
2000
کیفیت توصیه ها نیز دقیقا یکسان بودند.
09:51
And the thirdسوم was just a penخودکار and paperکاغذ logوارد شوید,
239
576000
2000
سومی هم یک قلم و کاغذ بود
09:53
because that's the standardاستاندارد interventionمداخله you typicallyمعمولا get
240
578000
2000
چرا که معمولا این چیزی است که وقتی می خواهید یک برنامه
09:55
when you startشروع کن a diet-and-exerciseرژیم غذایی و ورزش programبرنامه.
241
580000
3000
رژیمی و یا تمرینی را شروع کنید در اختیار شما قرار داده می شود.
09:58
So one of the things we really wanted to look at
242
583000
3000
خوب یکی از چیزهایی که ما واقعا دنبالش بودیم
10:01
was not how much weightوزن people lostکم شده,
243
586000
3000
این نبود که مردم چقدر وزن کم می کنند
10:04
but really how long they interactedتعامل with the robotربات.
244
589000
3000
بلکه این بود که چه مدتی با روبات به تعامل می پردازند.
10:07
Because the challengeچالش is not losingاز دست دادن weightوزن, it's actuallyدر واقع keepingنگه داشتن it off.
245
592000
3000
چرا که اینجا رقابت در کاهش وزن نبود بلکه ادامه دان به تمرینات بود
10:10
And the longerطولانی تر you could interactتعامل with one of these interventionsمداخلات,
246
595000
3000
و هرچه بیشتر شما می توانستید با یکی از این واسطه ها به تعامل بپردازید
10:13
well that's indicativeنشان دهنده, potentiallyبالقوه, of longer-termبلند مدت successموفقیت.
247
598000
3000
در اینجا به طور بالقوه آن واسطه دارای موفقیت دراز مدت تری خواهد بود.
10:16
So the first thing I want to look at is how long,
248
601000
2000
خوب اولین چیزی که می خواهم به آن نگاه کنم این است که چه قدر،
10:18
how long did people interactتعامل with these systemsسیستم های.
249
603000
2000
چه مدتی مردم با این سیستم ها تعامل داشتند.
10:20
It turnsچرخش out that people interactedتعامل with the robotربات
250
605000
2000
مشخص شد که مردم با روبات ها
10:22
significantlyبه طور قابل ملاحظه more,
251
607000
2000
به طور چشمگیری بیش از بقیه به تعامل می پردازند
10:24
even thoughگرچه the qualityکیفیت of the adviceمشاوره was identicalیکسان to the computerکامپیوتر.
252
609000
3000
حتی با توجه به اینکه کیفیت توصیه ها در مقایسه با کامپیوتر کاملا یکسان بودند.
10:28
When it askedپرسید: people to rateنرخ it on termsاصطلاحات of the qualityکیفیت of the workingکار کردن allianceاتحاد,
253
613000
3000
وقتی از مردم خواستیم تا از نظر سطح کیفی همکاری با انها نمره دهند
10:31
people ratedدارای رتبه the robotربات higherبالاتر
254
616000
2000
روبات ها رتبه بالاتری به دست آوردند
10:33
and they trustedاعتماد به نفس the robotربات more.
255
618000
2000
و مردم به روبات ها اعتماد بیشتری داشتند
10:35
(Laughterخنده)
256
620000
2000
(خنده)
10:37
And when you look at emotionalعاطفی engagementنامزدی,
257
622000
2000
و وقتی به درگیری احساسی نگاه کنید
10:39
it was completelyبه صورت کامل differentناهمسان.
258
624000
2000
داستان کاملا متفاوت است
10:41
People would nameنام the robotsروبات ها.
259
626000
2000
آنها روی روبات ها اسم گذاشته بودند
10:43
They would dressلباس the robotsروبات ها.
260
628000
2000
آنها لباس تن روبات می کردند
10:45
(Laughterخنده)
261
630000
2000
(خنده)
10:47
And even when we would come up to pickانتخاب کنید up the robotsروبات ها at the endپایان of the studyمطالعه,
262
632000
3000
و حتی زمانی که در پایان مدت آزمون برای بردن روبات ها رفتیم
10:50
they would come out to the carماشین and say good-byeخداحافظ to the robotsروبات ها.
263
635000
2000
آنها از خانه بیرون آمدند و با روبات ها خداحافظی کردند
10:52
They didn't do this with a computerکامپیوتر.
264
637000
2000
آنها این کار را با کامپیوتر ها انجام ندادند
10:54
The last thing I want to talk about todayامروز
265
639000
2000
آخرین نکته ای که امروز می خواهم بگویم
10:56
is the futureآینده of children'sکودکان mediaرسانه ها.
266
641000
2000
آینده رسانه های بچه ها است.
10:58
We know that kidsبچه ها spendخرج کردن a lot of time behindپشت screensصفحه نمایش todayامروز,
267
643000
3000
می دانیم که بچه ها امروزه وقت زیادی را پشت صفحات نمایشگر می گذرانند
11:01
whetherچه it's televisionتلویزیون or computerکامپیوتر gamesبازی ها or whatnotچطوری؟.
268
646000
3000
حالا چه تلوزیون یا بازی های کامپیوتری و یا هر چیز دیگری
11:04
My sonsپسران, they love the screenصفحه نمایش. They love the screenصفحه نمایش.
269
649000
3000
پسرهای من عاشق این صفحات نمایش هستند
11:07
But I want them to playبازی; as a momمامان, I want them to playبازی,
270
652000
3000
اما من می خواهم که آنها بازی کنند : به عنوان یک مادر می خواهم که آنها بازی کنند
11:10
like, real-worldدنیای واقعی playبازی.
271
655000
2000
منظورم بازی واقعی است
11:12
And so I have a newجدید projectپروژه in my groupگروه I wanted to presentحاضر to you todayامروز
272
657000
3000
و به همین دلیل پروژه جدیدی را در گروهم دارم که دوست دارم امروز به شما معرفی اش کنم
11:15
calledبه نام Playtimeزمان پخش Computingمحاسبه
273
660000
2000
اسمش پلی تایم کامپیوتینگ است
11:17
that's really tryingتلاش کن to think about how we can take
274
662000
2000
این پروژه سعی می کند به این موضع فکر کند که ما چه کار می توانیم کنیم
11:19
what's so engagingجذاب about digitalدیجیتال mediaرسانه ها
275
664000
2000
چه چیزی در رسانه های دیجیتال تا این حد در گیر کننده است
11:21
and literallyعینا bringآوردن it off the screenصفحه نمایش
276
666000
2000
و سپس به معنی واقعی آن را از صفحات نمایش جدا کرده
11:23
into the realواقعی worldجهان of the childکودک,
277
668000
2000
و به دنیای واقعی یک کودک بیاوریم
11:25
where it can take on manyبسیاری of the propertiesخواص of real-worldدنیای واقعی playبازی.
278
670000
3000
جایی که می توان آن را روی بسیاری از ویژگی های بازی های دنیای واقعی سوار کرد
11:29
So here'sاینجاست the first explorationاکتشاف of this ideaاندیشه,
279
674000
4000
خوب این اولین بررسی و کاوش این ایده بود
11:33
where charactersشخصیت ها can be physicalفیزیکی or virtualمجازی,
280
678000
3000
جایی که شخصیت ها می توانند فیزیکی یا مجازی باشند
11:36
and where the digitalدیجیتال contentمحتوا
281
681000
2000
و جایی که محتوای دیجیتال
11:38
can literallyعینا come off the screenصفحه نمایش
282
683000
2000
می توانست به طور واقعی از صفحه جدا شده و
11:40
into the worldجهان and back.
283
685000
2000
به درون جهان بیاید و برگردد.
11:42
I like to think of this
284
687000
2000
من دوست دارم به این ایده به شکل
11:44
as the Atariآتاری Pongپنگ
285
689000
2000
آتاری پونگ نگاه کنم
11:46
of this blended-realityمخلوط واقعیت playبازی.
286
691000
2000
بازی که ترکیبی از واقعیت را هم دارد
11:48
But we can pushفشار دادن this ideaاندیشه furtherبیشتر.
287
693000
2000
اما ما می توانیم این ایده را پیش تر هم ببریم
11:50
What if --
288
695000
2000
چه می شود اگر --
11:52
(Gameبازی) Nathanناتان: Here it comesمی آید. Yayبله!
289
697000
3000
(بازی) ناتان : الان می آید . وای !
11:55
CBCB: -- the characterشخصیت itselfخودش could come into your worldجهان?
290
700000
3000
سینتیا بریزیل: خود شخصیت های بازی به دنیای شما وارد شوند؟
11:58
It turnsچرخش out that kidsبچه ها love it
291
703000
2000
معلوم شد که بچه ها وقتی
12:00
when the characterشخصیت becomesتبدیل می شود realواقعی and entersوارد می شود into theirخودشان worldجهان.
292
705000
3000
شخصیت ها واقعی شده و وارد دنیای آنها می شوند عاشقشان می شوند
12:03
And when it's in theirخودشان worldجهان,
293
708000
2000
و وقتی این شخصیت در دنیای آنها باشد ،
12:05
they can relateمربوط بودن to it and playبازی with it in a way
294
710000
2000
آنها می توانند به گونه ای با آن ارتباط برقرار کرده و بازی کنند
12:07
that's fundamentallyاساسا differentناهمسان from how they playبازی with it on the screenصفحه نمایش.
295
712000
2000
که به طور بنیادی با روشی که آنها در صفحه تلوزیون با شخصیت ها بازی می کنند فرق دارد
12:09
Anotherیکی دیگر importantمهم ideaاندیشه is this notionایده
296
714000
2000
ایده مهم دیگر این دوام و پیوستگی
12:11
of persistenceماندگاری of characterشخصیت acrossدر سراسر realitiesواقعیت ها.
297
716000
3000
شخصیتها در واقعیت های متفاوت است.
12:14
So changesتغییرات that childrenفرزندان make in the realواقعی worldجهان
298
719000
2000
تغییری که بچه ها در دنیای واقعی ایجاد می کنند
12:16
need to translateترجمه کردن to the virtualمجازی worldجهان.
299
721000
2000
باید به دنیای دیجیتال نیز ترجمه و اعمال شود.
12:18
So here, Nathanناتان has changedتغییر کرد the letterنامه A to the numberعدد 2.
300
723000
3000
خوب ، اینجا، ناتان حرف A را به عدد 2 تغییر می دهد
12:21
You can imagineتصور کن maybe these symbolsنمادها
301
726000
2000
مثلا میتوانید فرض کنید این علایم و یا اعداد
12:23
give the charactersشخصیت ها specialویژه powersقدرت when it goesمی رود into the virtualمجازی worldجهان.
302
728000
3000
به شخصیت ها قدرت های ویژه ای را در دنیای مجازی می دهد
12:26
So they are now sendingدر حال ارسال the characterشخصیت back into that worldجهان.
303
731000
3000
خوب حالا آنها این شخصیت را به آن دنیا می فرستند.
12:29
And now it's got numberعدد powerقدرت.
304
734000
3000
و حالا آن شخصیت قدرت اعداد را به خود گرفته است
12:32
And then finallyسرانجام, what I've been tryingتلاش کن to do here
305
737000
2000
و در نهایت کاری که من اینجا قصد دارم انجام دهم
12:34
is createايجاد كردن a really immersiveغواصی experienceتجربه for kidsبچه ها,
306
739000
3000
خلق تجربه ای همه جانبه برای کودکان است
12:37
where they really feel like they are partبخشی of that storyداستان,
307
742000
3000
چیزی که آنها احساس کنند واقعا به بخشی از داستان بدل شده اند
12:40
a partبخشی of that experienceتجربه.
308
745000
2000
به بخشی از تجربه
12:42
And I really want to sparkجرقه theirخودشان imaginationsتصورات
309
747000
2000
و واقعا مایلم بتوانم تخیل آنها را فعال کنم
12:44
the way mineمال خودم was sparkedجرقه زد as a little girlدختر watchingتماشا کردن "Starستاره Warsجنگ ها."
310
749000
3000
همانطور که تخیلات من زمانی که دختر کوچکی بودم با دیدن فیلم «جنگ ستارگان» فعال شد
12:47
But I want to do more than that.
311
752000
2000
اما در عین حال می خواهم کاری بیش از این هم انجام دهم
12:49
I actuallyدر واقع want them to createايجاد كردن those experiencesتجربیات.
312
754000
3000
من می خواهم که خود آنها این تجربیات را خلق کنند
12:52
I want them to be ableتوانایی to literallyعینا buildساختن theirخودشان imaginationخیال پردازی
313
757000
2000
من می خواهم آنها به معنی واقعی کلمه قادر به ساخت تخیلات خود
12:54
into these experiencesتجربیات and make them theirخودشان ownخودت.
314
759000
2000
به واسطه این تجربه ها باشند و آن را مال خود کنند.
12:56
So we'veما هستیم been exploringکاوش a lot of ideasایده ها
315
761000
2000
خوب ، ما ایده های متعددی را بررسی کردیم
12:58
in telepresenceتلوزیون and mixedمخلوط شده realityواقعیت
316
763000
2000
ایده هایی در باره حضور از راه دور و واقعیت ترکیبی
13:00
to literallyعینا allowاجازه دادن kidsبچه ها to projectپروژه theirخودشان ideasایده ها into this spaceفضا
317
765000
3000
تا اینکه واقعا به بچه ها این امکان داده شود که تخیلات خود را در این فضا منعکس کنند
13:03
where other kidsبچه ها can interactتعامل with them
318
768000
2000
جایی که بقیه بچه ها هم بتوانند با آن ها تعامل کنند
13:05
and buildساختن uponبر them.
319
770000
2000
و آنها را بسازند.
13:07
I really want to come up with newجدید waysراه ها of children'sکودکان mediaرسانه ها
320
772000
3000
من واقعا مایلم به راه های جدیدی در رسانه بچه ها دست پیدا کنم
13:10
that fosterفاستر creativityخلاقیت and learningیادگیری and innovationنوآوری.
321
775000
3000
که موجب پرورش خلاقیت و یادگیری و ابداعات انها شود.
13:13
I think that's very, very importantمهم.
322
778000
3000
من فکر می کنم این بسیار بسیار مهم است.
13:16
So this is a newجدید projectپروژه.
323
781000
2000
خوب این پروژه جدید است.
13:18
We'veما هستیم invitedدعوت کرد a lot of kidsبچه ها into this spaceفضا,
324
783000
2000
ما تعداد زیادی از بچه ها را به این فضا دعوت کردیم،
13:20
and they think it's prettyبسیار coolسرد.
325
785000
3000
و آنها به این نتیجه رسیدند که خیلی هیجان انگیز است.
13:23
But I can tell you, the thing that they love the mostاکثر
326
788000
2000
اما می توانم به شما بگویم چیزی که آنها بیش از همه عاشقش شدند
13:25
is the robotربات.
327
790000
2000
روبات بود.
13:27
What they careاهميت دادن about is the robotربات.
328
792000
3000
چیزی که بهش اهمیت می دادند روبات بود.
13:30
Robotsروبات ها touchدست زدن به something deeplyعمیقا humanانسان withinدر داخل us.
329
795000
3000
روبات چیزی عمیقا انسانی را در اعماق ما لمس می کند.
13:33
And so whetherچه they're helpingکمک us
330
798000
2000
و چه به ما کمک کندد که
13:35
to becomeتبدیل شدن به creativeخلاقانه and innovativeخلاقانه,
331
800000
2000
خلاق تر و مبتکر تر شویم
13:37
or whetherچه they're helpingکمک us
332
802000
2000
یا کمکمان کنند
13:39
to feel more deeplyعمیقا connectedمتصل despiteبا وجود distanceفاصله,
333
804000
2000
تا علی رغم وجود فاصله های عمیق به هم احساس ارتباط بیشتری کنیم
13:41
or whetherچه they are our trustedاعتماد به نفس sidekickپیوند زدن
334
806000
2000
یا به همکار و یاور قابل اعتماد ما بدل شوند
13:43
who'sچه کسی است helpingکمک us attainرسیدن our personalشخصی goalsاهداف
335
808000
2000
که ما را در رسیدن به اهداف شخصی امام کمک می کنند
13:45
in becomingتبدیل شدن به our highestبالاترین and bestبهترین selvesخودت,
336
810000
2000
تا بالاترین و برترین بخش های شخصیت خود را بروز دهیم
13:47
for me, robotsروبات ها are all about people.
337
812000
3000
برای من همه چیز روبا تها درباره انسان و مردم است
13:50
Thank you.
338
815000
2000
ممنونم
13:52
(Applauseتشویق و تمجید)
339
817000
5000
(تشویق)
Translated by pouria nazemi
Reviewed by soheila Jafari

▲Back to top

ABOUT THE SPEAKER
Cynthia Breazeal - Roboticist
At MIT, Cynthia Breazeal and her team are building robots with social intelligence that communicate and learn the same way people do.

Why you should listen

Cynthia Breazeal founded and directs the Personal Robots Group at MIT’s Media Lab. Her research focuses on developing the principles and technologies for building personal robots that are socially intelligent—that interact and communicate with people in human-centric terms, work with humans as peers, and learn from people as an apprentice.

She has developed some of the world’s most famous robotic creatures, ranging from small hexapod robots to highly expressive humanoids, including the social robot Kismet and the expressive robot Leonardo. Her recent work investigates the impact of social robots on helping people of all ages to achieve personal goals that contribute to quality of life, in domains such as physical performance, learning and education, health, and family communication and play over distance.

More profile about the speaker
Cynthia Breazeal | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee