ABOUT THE SPEAKER
Cynthia Breazeal - Roboticist
At MIT, Cynthia Breazeal and her team are building robots with social intelligence that communicate and learn the same way people do.

Why you should listen

Cynthia Breazeal founded and directs the Personal Robots Group at MIT’s Media Lab. Her research focuses on developing the principles and technologies for building personal robots that are socially intelligent—that interact and communicate with people in human-centric terms, work with humans as peers, and learn from people as an apprentice.

She has developed some of the world’s most famous robotic creatures, ranging from small hexapod robots to highly expressive humanoids, including the social robot Kismet and the expressive robot Leonardo. Her recent work investigates the impact of social robots on helping people of all ages to achieve personal goals that contribute to quality of life, in domains such as physical performance, learning and education, health, and family communication and play over distance.

More profile about the speaker
Cynthia Breazeal | Speaker | TED.com
TEDWomen 2010

Cynthia Breazeal: The rise of personal robots

신시아 브리질: 개인용 로봇의 발흥

Filmed:
1,201,057 views

대학원생 시절에 신시아 브리질은 왜 로봇을 화성에서만 사용하고 우리의 거실에서는 사용하지 않는지 의아했습니다. 그녀가 이를 실현한 비결은 인간과 소통하도록 로봇을 훈련시키는 것이었습니다. 이제 그녀는 가르치고, 배우고 놀이를 하는 로봇들을 고안하고 만듭니다. 아이들을 위한 새로운 쌍방향의 게임의 놀라운 데모 영상을 보세요.
- Roboticist
At MIT, Cynthia Breazeal and her team are building robots with social intelligence that communicate and learn the same way people do. Full bio

Double-click the English transcript below to play the video.

00:15
Ever since이후 I was a little girl소녀
0
0
3000
어릴적 "스타워즈"를
00:18
seeing "Star Wars전쟁" for the first time,
1
3000
2000
처음 봤던 이후로 계속
00:20
I've been fascinated매혹적인 by this idea생각
2
5000
2000
저는 개인용 로봇의 아이디어에
00:22
of personal개인적인 robots로봇.
3
7000
2000
매료되었습니다.
00:24
And as a little girl소녀,
4
9000
2000
그리고 어린 소녀로서,
00:26
I loved사랑하는 the idea생각 of a robot기계 인간 that interacted상호 작용 한 with us
5
11000
2000
우리와 소통하고, 매우 유용하며 믿을 수 있는 친구 같은
00:28
much more like a helpful도움이되는, trusted신뢰할 수있는 sidekick친구 --
6
13000
3000
로봇의 아이디어를 너무 좋아했습니다.
00:31
something that would delight기쁨 us, enrich높이다 our lives
7
16000
2000
그런 것이 우리를 즐겁게 만들고, 우리 삶을 풍요롭게 하며,
00:33
and help us save구하다 a galaxy은하 or two.
8
18000
3000
우리가 은하계 한두개를 구할 수 있도록 도와줍니다.
00:37
I knew알고 있었다 robots로봇 like that didn't really exist있다,
9
22000
3000
그런 로봇이 실제로 존재하지 않는다는건 알았지만,
00:40
but I knew알고 있었다 I wanted to build짓다 them.
10
25000
2000
제가 그것을 만들어 보고 싶어 한다는 걸 깨달았습니다.
00:42
So 20 years연령 pass패스 --
11
27000
2000
20년이 지났습니다.
00:44
I am now a graduate졸업하다 student학생 at MITMIT
12
29000
2000
저는 이제 인공지능을 연구하고 있는
00:46
studying공부하는 artificial인공의 intelligence지성,
13
31000
2000
MIT 대학원생입니다.
00:48
the year is 1997,
14
33000
2000
1997년은
00:50
and NASANASA has just landed착륙 the first robot기계 인간 on Mars화성.
15
35000
3000
나사가 화성에 첫 로봇을 착륙시킨 해였습니다.
00:53
But robots로봇 are still not in our home, ironically역설적으로.
16
38000
3000
하지만 아이러니하게도 로봇은 아직 우리들의 집에는 없습니다.
00:56
And I remember생각해 내다 thinking생각 about
17
41000
2000
그리고 왜 그것이 문제인가의
00:58
all the reasons원인 why that was the case케이스.
18
43000
2000
모든 이유들에 대해서 생각한 것을 기억합니다.
01:00
But one really struck쳤다 me.
19
45000
2000
그러다 갑자기 떠오른 생각이 있었습니다.
01:02
Robotics로봇 공학 had really been about interacting상호 작용하는 with things,
20
47000
3000
로봇공학은 사물들과의 상호작용에 대한 것이지,
01:05
not with people --
21
50000
2000
인간과의 상호작용에 관한게 아니었습니다.
01:07
certainly확실히 not in a social사회적인 way that would be natural자연스러운 for us
22
52000
2000
우리에게 자연스럽고, 사람들이 로봇을 우리의 일상에
01:09
and would really help people accept받아 들인다 robots로봇
23
54000
2000
로봇을 받아들이도록 하는 사회적 방법은
01:11
into our daily매일 lives.
24
56000
2000
확실히 아니었습니다.
01:13
For me, that was the white화이트 space공간; that's what robots로봇 could not do yet아직.
25
58000
3000
제게 그것은 빈칸이었고, 로봇이 아직까지 할 수 없는 것이었습니다.
01:16
And so that year, I started시작한 to build짓다 this robot기계 인간, Kismet키이스 멧,
26
61000
3000
그래서 그 해, 저는 세계 최초의 사회적 로봇인
01:19
the world's세계의 first social사회적인 robot기계 인간.
27
64000
3000
이 키즈맷을 만들기 시작했습니다.
01:22
Three years연령 later후에 --
28
67000
2000
3년 후에,
01:24
a lot of programming프로그램 작성,
29
69000
2000
수 많은 프로그래밍과
01:26
working with other graduate졸업하다 students재학생 in the lab --
30
71000
2000
연구실에 있는 다른 대학원생들과의 협업을 통해
01:28
Kismet키이스 멧 was ready준비된 to start스타트 interacting상호 작용하는 with people.
31
73000
2000
키즈맷은 사람들과 상호소통을 시작할 준비가 되었습니다.
01:30
(Video비디오) Scientist과학자: I want to show보여 주다 you something.
32
75000
2000
(영상) 과학자: 뭔가 보여줄게.
01:32
Kismet키이스 멧: (Nonsense무의미한 말)
33
77000
2000
키즈맷: (아무 의미 없는 말)
01:34
Scientist과학자: This is a watch that my girlfriend여자 친구 gave me.
34
79000
3000
과학자: 내 여자친구가 준 시계야.
01:37
Kismet키이스 멧: (Nonsense무의미한 말)
35
82000
2000
키즈맷: (아무 의미 없는 말)
01:39
Scientist과학자: Yeah, look, it's got a little blue푸른 light in it too.
36
84000
2000
과학자: 그래, 봐봐, 파란 불빛도 나온다.
01:41
I almost거의 lost잃어버린 it this week.
37
86000
3000
이번 주에 잃어버릴뻔 했어.
01:44
Cynthia BreazealBreazeal: So Kismet키이스 멧 interacted상호 작용 한 with people
38
89000
3000
신시아 브리질: 자, 키즈맷은 정말 최초의 형태였기 때문에
01:47
like kind종류 of a non-verbal비언어적 인 child어린이 or pre-verbal사전 구두로 child어린이,
39
92000
3000
말을 시작하기 전의 아이처럼 사람과 상호소통하는 것이
01:50
which어느 I assume취하다 was fitting입어 보기 because it was really the first of its kind종류.
40
95000
3000
어울린다고 생각했습니다.
01:53
It didn't speak말하다 language언어, but it didn't matter문제.
41
98000
2000
언어를 말하지 못했지만 문제되지 않았습니다.
01:55
This little robot기계 인간 was somehow어쩐지 able할 수 있는
42
100000
2000
이 작은 로봇은 어떻게든 우리 내부의
01:57
to tap꼭지 into something deeply깊이 social사회적인 within이내에 us --
43
102000
3000
깊이 사회적인 것에 다가설 수 있었습니다.
02:00
and with that, the promise약속 of an entirely전적으로 new새로운 way
44
105000
2000
그리고 그것이 우리가 로봇과 상호소통할 수 있다는
02:02
we could interact상호 작용하다 with robots로봇.
45
107000
2000
완전히 새로운 방식의 가능성입니다.
02:04
So over the past과거 several수개 years연령
46
109000
2000
그래서 지난 몇 년 동안,
02:06
I've been continuing계속하다 to explore탐험하다 this interpersonal대인 관계 dimension치수 of robots로봇,
47
111000
2000
미디어 랩에서, 매우 재능있는 학생들로 이루어진 제 팀과 함께
02:08
now at the media미디어 lab
48
113000
2000
로봇의 이런 대인관계적 측면을
02:10
with my own개인적인 team of incredibly엄청나게 talented재간 있는 students재학생.
49
115000
2000
계속해서 탐구해왔습니다.
02:12
And one of my favorite특히 잘하는 robots로봇 is Leonardo레오나르도.
50
117000
3000
제가 제일 좋아하는 로봇은 레오나르도입니다.
02:15
We developed개발 된 Leonardo레오나르도 in collaboration협동 with Stan스탠 Winston윈스턴 Studio사진관.
51
120000
3000
우리는 스탠 윈스톤 스튜디오와 협력하여 레오나르도를 개발했습니다.
02:18
And so I want to show보여 주다 you a special특별한 moment순간 for me of Leo사자 별자리.
52
123000
3000
여러분께 레오나르도와 관련해 제게 특별했던 순간을 보여드리고 싶습니다.
02:21
This is Matt매트 Berlin베를린 interacting상호 작용하는 with Leo사자 별자리,
53
126000
2000
이 사람은 레오와 상호소통하고
02:23
introducing도입 Leo사자 별자리 to a new새로운 object목적.
54
128000
2000
레오에게 새로운 것을 소개하는 맷 베를린입니다.
02:25
And because it's new새로운, Leo사자 별자리 doesn't really know what to make of it.
55
130000
3000
새로운 걸 소개했기 때문에, 레오는 무엇을 해야할지 전혀 모릅니다.
02:28
But sort종류 of like us, he can actually사실은 learn배우다 about it
56
133000
2000
하지만 우리와 유사하게, 레오는 맷의 반응을 관찰하여
02:30
from watching보고있다 Matt's매트 reaction반응.
57
135000
3000
학습할 수 있습니다.
02:33
(Video비디오) Matt매트 Berlin베를린: Hello여보세요, Leo사자 별자리.
58
138000
2000
(영상) 맷 베를린: 안녕, 레오.
02:38
Leo사자 별자리, this is Cookie쿠키 Monster괴물.
59
143000
3000
레오, 이것은 쿠키 몬스터야.
02:44
Can you find Cookie쿠키 Monster괴물?
60
149000
3000
쿠키 몬스터를 찾을 수 있겠어?
02:52
Leo사자 별자리, Cookie쿠키 Monster괴물 is very bad나쁜.
61
157000
3000
레오, 쿠키 몬스터는 매우 나빠.
02:56
He's very bad나쁜, Leo사자 별자리.
62
161000
2000
아주 나쁘지, 레오.
03:00
Cookie쿠키 Monster괴물 is very, very bad나쁜.
63
165000
3000
쿠키 몬스터는 아주 아주 나빠.
03:07
He's a scary무서운 monster괴물.
64
172000
2000
무시무시한 괴물이지.
03:09
He wants to get your cookies쿠키.
65
174000
2000
그건 네 쿠키를 뺏어가고 싶어해.
03:12
(Laughter웃음)
66
177000
2000
(웃음)
03:14
CBCB: All right, so Leo사자 별자리 and Cookie쿠키
67
179000
3000
CB: 좋습니다. 그래서 레오와 쿠키는
03:17
might have gotten얻은 off to a little bit비트 of a rough거칠게 start스타트,
68
182000
2000
첫 만남이 조금은 힘들게 시작한 것 같지만,
03:19
but they get along...을 따라서 great now.
69
184000
3000
지금은 아주 잘 지내고 있습니다.
03:22
So what I've learned배운
70
187000
2000
자, 제가 이 시스템을
03:24
through...을 통하여 building건물 these systems시스템
71
189000
2000
개발하면서 배운 것은,
03:26
is that robots로봇 are actually사실은
72
191000
2000
로봇이 실제로 매우 흥미로운
03:28
a really intriguing흥미 진진한 social사회적인 technology과학 기술,
73
193000
2000
사회적 기술이라는 것입니다.
03:30
where it's actually사실은 their그들의 ability능력
74
195000
2000
실제로 우리의 사회적 버튼을 누르고
03:32
to push푸시 our social사회적인 buttons버튼
75
197000
2000
우리와 파트너처럼
03:34
and to interact상호 작용하다 with us like a partner파트너
76
199000
2000
상호소통 하는 로봇의 능력은
03:36
that is a core핵심 part부품 of their그들의 functionality기능성.
77
201000
3000
로봇 기능의 핵심 부분입니다.
03:39
And with that shift시프트 in thinking생각, we can now start스타트 to imagine상상하다
78
204000
2000
그리고 그 생각의 변화로, 우리는 이제
03:41
new새로운 questions질문들, new새로운 possibilities가능성 for robots로봇
79
206000
3000
달리 생각 못해 봤었을지도 모를
03:44
that we might not have thought about otherwise그렇지 않으면.
80
209000
3000
로봇에 대한 새로운 문제와 새로운 가능성을 상상할 수 있습니다.
03:47
But what do I mean when I say "push푸시 our social사회적인 buttons버튼?"
81
212000
2000
제가 "사회적 버튼을 누른다"고 했을 때 무엇을 의미하는 것일까요?
03:49
Well, one of the things that we've우리는 learned배운
82
214000
2000
자, 우리가 배워온 것들 중 하나는
03:51
is that, if we design디자인 these robots로봇 to communicate소통하다 with us
83
216000
2000
우리가 동일한 바디 랭귀지와
03:53
using~을 사용하여 the same같은 body신체 language언어,
84
218000
2000
사람들이 사용하는 동일한 비언어적 신호를 사용하여
03:55
the same같은 sort종류 of non-verbal비언어적 인 cues단서 that people use --
85
220000
2000
우리와 의사소통하도록 이 로봇들을 디자인 한다면,
03:57
like Nexi넥시, our humanoid휴머노이드 robot기계 인간, is doing here --
86
222000
3000
-- 여기 작동하고 있는 휴머노이드 로봇 넥시 같이 말입니다. --
04:00
what we find is that people respond응창 성가 to robots로봇
87
225000
2000
우리가 발견한 것은 사람들이 사람들에게 반응하는 것과
04:02
a lot like they respond응창 성가 to people.
88
227000
2000
매우 유사하게 로봇에게 반응한다는 것입니다.
04:04
People use these cues단서 to determine결정 things like how persuasive동기 someone어떤 사람 is,
89
229000
3000
사람들은 누군가가 얼마나 설득력 있고, 얼마나 호감이 가는지,
04:07
how likable바람직한, how engaging매력적인,
90
232000
2000
얼마나 매력적인가, 얼마나 신뢰할 수 있을지를
04:09
how trustworthy신뢰할 수 있는.
91
234000
2000
결정하기 위해서 이 신호를 이용합니다.
04:11
It turns회전 out it's the same같은 for robots로봇.
92
236000
2000
로봇에게도 동일하다는 것이 나타나고 있습니다.
04:13
It's turning선회 out now
93
238000
2000
로봇이 인간의 행위를 이해하는데
04:15
that robots로봇 are actually사실은 becoming어울리는 a really interesting재미있는 new새로운 scientific과학적 tool수단
94
240000
3000
사실 정말 흥미로운 새 과학적 도구가 되고 있음이
04:18
to understand알다 human인간의 behavior행동.
95
243000
2000
지금 나타나고 있습니다.
04:20
To answer대답 questions질문들 like, how is it that, from a brief간결한 encounter교전,
96
245000
3000
그런 질문에 답을 하기 위해서, 짧은 만남에서
04:23
we're able할 수 있는 to make an estimate견적 of how trustworthy신뢰할 수 있는 another다른 person사람 is?
97
248000
3000
다른 사람을 얼마나 신뢰할 수 있을지 어떻게 평가할 수 있을까요?
04:26
Mimicry's모방의 believed믿었다 to play놀이 a role역할, but how?
98
251000
3000
흉내는 것을 통해서라고 여겨집니다. 하지만 어떻게요?
04:29
Is it the mimicking흉내내는 of particular특별한 gestures제스처 that matters사안?
99
254000
3000
중요한 특정 동작을 흉내내는 것일까요?
04:32
It turns회전 out it's really hard단단한
100
257000
2000
사람들을 관찰하는 것에서
04:34
to learn배우다 this or understand알다 this from watching보고있다 people
101
259000
2000
이를 학습하거나 이해하는 것은 정말 어려운 일입니다.
04:36
because when we interact상호 작용하다 we do all of these cues단서 automatically자동으로.
102
261000
3000
우리가 상호소통할 때, 신호들을 무의식적으로 실행하기 때문입니다.
04:39
We can't carefully면밀히 control제어 them because they're subconscious잠재 의식 for us.
103
264000
2000
잠재의식적인 것이기 때문에, 우리는 그것들을 세심하게 통제할 수 없습니다.
04:41
But with the robot기계 인간, you can.
104
266000
2000
하지만 로봇으로는 가능합니다.
04:43
And so in this video비디오 here --
105
268000
2000
여기 보시는 영상에서,
04:45
this is a video비디오 taken취한 from David데이비드 DeSteno's데스 테노 lab at Northeastern노스 이스턴 University대학.
106
270000
3000
이 영상은 노스이스턴 대학, 데이비드 데스테노의 연구실에서 찍은 영상입니다.
04:48
He's a psychologist심리학자 we've우리는 been collaborating협력 with.
107
273000
2000
그는 우리가 함께 일했던 심리학자입니다.
04:50
There's actually사실은 a scientist과학자 carefully면밀히 controlling제어 Nexi's넥시 cues단서
108
275000
3000
이 질문을 연구할 수 있도록 넥시의 신호를
04:53
to be able할 수 있는 to study연구 this question문제.
109
278000
3000
주의 깊게 조절했던 과학자가 실제로 있습니다.
04:56
And the bottom바닥 line is -- the reason이유 why this works공장 is
110
281000
2000
그리고 결국, 이런 일을 하는 이유는
04:58
because it turns회전 out people just behave굴다 like people
111
283000
2000
사람들이 로봇과 상호소통할 때도
05:00
even when interacting상호 작용하는 with a robot기계 인간.
112
285000
3000
사람인 것처럼 행동한다는 것을 밝혀내기 때문입니다.
05:03
So given주어진 that key insight통찰력,
113
288000
2000
그래서 핵심 견해를 고려해볼 때,
05:05
we can now start스타트 to imagine상상하다
114
290000
2000
우리는 이제 새로운 방식의
05:07
new새로운 kinds종류 of applications응용 프로그램 for robots로봇.
115
292000
3000
로봇 활용을 상상할 수 있습니다.
05:10
For instance, if robots로봇 do respond응창 성가 to our non-verbal비언어적 인 cues단서,
116
295000
3000
예를 들어, 로봇이 우리의 비언어적 신호에 반응한다면,
05:13
maybe they would be a cool시원한, new새로운 communication통신 technology과학 기술.
117
298000
4000
멋지고 새로운 의사소통 기술이 될 것입니다.
05:17
So imagine상상하다 this:
118
302000
2000
자, 이것을 상상해보세요.
05:19
What about a robot기계 인간 accessory종범 for your cellphone핸드폰?
119
304000
2000
여러분 휴대폰을 위한 로봇 악세사리는 어떤가요?
05:21
You call your friend친구, she puts넣다 her handset송수화기 in a robot기계 인간,
120
306000
2000
여러분은 친구에게 전화를 합니다. 그녀는 송수화기를 로봇에 올려 놓습니다.
05:23
and, bam! You're a MeBot메봇 --
121
308000
2000
그리고 짠! 여러분은 이제 '미봇'입니다.
05:25
you can make eye contact접촉, you can talk with your friends친구,
122
310000
3000
여러분은 시선을 맞출 수도 있고, 친구들과 대화를 나눌 수도 있습니다.
05:28
you can move움직임 around, you can gesture몸짓 --
123
313000
2000
돌아다니고, 몸짓을 할 수도 있습니다.
05:30
maybe the next다음 것 best베스트 thing to really being존재 there, or is it?
124
315000
3000
아마도 실제 그 자리에 같이 있는 것 다음으로 좋은 것이 아닐까요?
05:33
To explore탐험하다 this question문제,
125
318000
2000
이 질문을 탐구하기 위해서
05:35
my student학생, SiggySiggy AdalgeirssonAdalgeirsson, did a study연구
126
320000
3000
제 학생인 '시기 아댈기어슨'은
05:38
where we brought가져온 human인간의 participants참가자, people, into our lab
127
323000
3000
원격의 협력자와 협업을 할 수 있도록
05:41
to do a collaborative협력적인 task태스크
128
326000
2000
연구실로 데려온 참여자들을
05:43
with a remote collaborator협력자.
129
328000
2000
연구했습니다.
05:45
The task태스크 involved뒤얽힌 things
130
330000
2000
그 과제는 탁자 위에 놓인
05:47
like looking at a set세트 of objects사물 on the table,
131
332000
2000
일련의 물체들을 바라보고,
05:49
discussing토론하다 them in terms자귀 of their그들의 importance중요성 and relevance관련성 to performing실행할 수 있는 a certain어떤 task태스크 --
132
334000
3000
그것의 중요성과 특정 작업 수행과의 관련성에 대해 토론하며,
05:52
this ended끝난 up being존재 a survival활착 task태스크 --
133
337000
2000
-- 이것은 서바이벌 과제가 되었습니다. --
05:54
and then rating평가 them in terms자귀
134
339000
2000
그들이 그 물체들이 얼마나 가치있고 중요하다고
05:56
of how valuable가치 있는 and important중대한 they thought they were.
135
341000
2000
생각하는지에 대한 등급을 매기는 것을 포함합니다.
05:58
The remote collaborator협력자 was an experimenter실험자 from our group그룹
136
343000
3000
원격 협력자는 참가자들과 상호작용하기 위해
06:01
who used one of three different다른 technologies기술
137
346000
2000
세 가지의 다른 기술 중 하나를 사용하는
06:03
to interact상호 작용하다 with the participants참가자.
138
348000
2000
저희 그룹의 실험자들이었습니다.
06:05
The first was just the screen화면.
139
350000
2000
첫 번째 기술은 그냥 화면입니다.
06:07
This is just like video비디오 conferencing회의 today오늘.
140
352000
3000
이것은 오늘날의 비디오 화상회의와 유사합니다.
06:10
The next다음 것 was to add더하다 mobility유동성 -- so, have the screen화면 on a mobile변하기 쉬운 base베이스.
141
355000
3000
다음 기술은 이동성을 더하는 것입니다. 화면을 모바일 기반으로 만듭니다.
06:13
This is like, if you're familiar익숙한 with any of the telepresence텔레프레즌스 robots로봇 today오늘 --
142
358000
3000
여러분이 오늘날의 텔레프레전스 로봇 같은 것에 익숙하다면,
06:16
this is mirroring미러링 that situation상태.
143
361000
3000
이것은 그 환경을 반영하고 있습니다.
06:19
And then the fully충분히 expressive나타내는 MeBot메봇.
144
364000
2000
그리고 나서 아주 표현적인 미봇이 있습니다.
06:21
So after the interaction상호 작용,
145
366000
2000
그래서 상호작용 후에,
06:23
we asked물었다 people to rate their그들의 quality품질 of interaction상호 작용
146
368000
3000
우리는 사람들에게 기술과,
06:26
with the technology과학 기술, with a remote collaborator협력자
147
371000
2000
원격 협력자와의 상호작용 품질을
06:28
through...을 통하여 this technology과학 기술, in a number번호 of different다른 ways.
148
373000
3000
평가하도록 요청합니다.
06:31
We looked보았다 at psychological심리적 인 involvement개입 --
149
376000
2000
다른 사람에게 얼마나 공감을 느꼈는지
06:33
how much empathy감정 이입 did you feel for the other person사람?
150
378000
2000
심리적 관여를 살펴봅니다.
06:35
We looked보았다 at overall사무용 겉옷 engagement약혼.
151
380000
2000
우리는 전반적인 참여를 살펴봅니다.
06:37
We looked보았다 at their그들의 desire염원 to cooperate협력.
152
382000
2000
그들이 협력하고자 하는 욕구를 살펴봅니다.
06:39
And this is what we see when they use just the screen화면.
153
384000
3000
이것이 화면만을 사용할 때 확인한 것입니다.
06:42
It turns회전 out, when you add더하다 mobility유동성 -- the ability능력 to roll around the table --
154
387000
3000
이동성을 더했을 때, --테이블 이리저리로 이동할 수 있는 능력이죠.--
06:45
you get a little more of a boost후원.
155
390000
2000
조금 더 증가하는 것을 볼 수 있습니다.
06:47
And you get even more of a boost후원 when you add더하다 the full완전한 expression표현.
156
392000
3000
그리고 충분한 표현력을 더했을 때, 더 증가하게 되죠.
06:50
So it seems~ 같다 like this physical물리적 인, social사회적인 embodiment구체화
157
395000
2000
그래서 물리적인 사회적 체현이
06:52
actually사실은 really makes~을 만든다 a difference.
158
397000
2000
실제로 차이를 만드는 것 같습니다.
06:54
Now let's try to put this into a little bit비트 of context문맥.
159
399000
3000
이제, 이것을 약간의 맥략에 대입해보기로 하죠.
06:57
Today오늘 we know that families가족들 are living생활 further더욱이 and further더욱이 apart떨어져서,
160
402000
3000
오늘날 가족들이 서로 멀리 떨어져 살고 있고,
07:00
and that definitely명확히 takes a toll희생 on family가족 relationships관계
161
405000
2000
그것이 가족 관계에 큰 타격을 주고 있으며,
07:02
and family가족 bonds채권 over distance거리.
162
407000
2000
가족의 결속은 멀어지고 있다는 것을 알고 있습니다.
07:04
For me, I have three young어린 boys소년들,
163
409000
2000
저는 아들 셋이 있습니다.
07:06
and I want them to have a really good relationship관계
164
411000
2000
그리고 저는 아이들이 할아버지, 할머니와
07:08
with their그들의 grandparents조부모.
165
413000
2000
정말 좋은 관계를 가지기 원합니다.
07:10
But my parents부모님 live살고 있다 thousands수천 of miles마일 away,
166
415000
2000
하지만 우리 부모님은 수 천 마일을 떨어져 살고 계시고,
07:12
so they just don't get to see each마다 other that often자주.
167
417000
2000
그래서 서로 자주 보지 못하게 되죠.
07:14
We try SkypeSkype, we try phone전화 calls전화,
168
419000
2000
우리는 스카이프나 전화를 이용하지만,
07:16
but my boys소년들 are little -- they don't really want to talk;
169
421000
2000
제 아이들은 어려서 대화를 하기 보다는
07:18
they want to play놀이.
170
423000
2000
그냥 놀기를 바라죠.
07:20
So I love the idea생각 of thinking생각 about robots로봇
171
425000
2000
아이들은 새로운 종류의 원거리 놀이 기술로서
07:22
as a new새로운 kind종류 of distance-play원거리 놀이 technology과학 기술.
172
427000
3000
로봇에 대해 생각하는 아이디어를 좋아합니다.
07:25
I imagine상상하다 a time not too far멀리 from now --
173
430000
3000
자, 저는 멀지 않을 미래를 상상합니다.
07:28
my mom엄마 can go to her computer컴퓨터,
174
433000
2000
저희 어머니는 컴퓨터로 가서
07:30
open열다 up a browser브라우저 and jack into a little robot기계 인간.
175
435000
2000
브라우저를 열고, 작은 로봇에 접속할 수 있습니다.
07:32
And as grandma-bot할머니 봇,
176
437000
3000
그리고 할머니-봇으로서
07:35
she can now play놀이, really play놀이,
177
440000
2000
그녀는 손자들과 함께
07:37
with my sons자제, with her grandsons손자,
178
442000
2000
손자의 실제 장난감을 가지고
07:39
in the real레알 world세계 with his real레알 toys장난감.
179
444000
3000
실제 세상에서 같이 놀 수 있습니다.
07:42
I could imagine상상하다 grandmothers할머니 being존재 able할 수 있는 to do social-plays사회 연극
180
447000
2000
저는 손녀딸이나 친구들과 함께 사회적 놀이를 할 수 있고,
07:44
with their그들의 granddaughters손녀, with their그들의 friends친구,
181
449000
2000
잠 잘 때의 동화를 나누는 것 같이
07:46
and to be able할 수 있는 to share all kinds종류 of other activities활동들 around the house,
182
451000
2000
온갖 집에서의 다른 활동들을 나눌 수 있는
07:48
like sharing나누는 a bedtime취침 시간 story이야기.
183
453000
2000
할머니들을 상상할 수 있습니다.
07:50
And through...을 통하여 this technology과학 기술,
184
455000
2000
그리고 이 기술을 통해서,
07:52
being존재 able할 수 있는 to be an active유효한 participant참가자
185
457000
2000
오늘날에는 가능하지 않은 방식으로
07:54
in their그들의 grandchildren's손자 lives
186
459000
2000
그들 손자들의 삶에
07:56
in a way that's not possible가능한 today오늘.
187
461000
2000
적극적인 참여자가 될 수 있습니다.
07:58
Let's think about some other domains도메인,
188
463000
2000
건강과 같은 다른 영역들에 대해서도
08:00
like maybe health건강.
189
465000
2000
생각해보도록 하죠.
08:02
So in the United유나이티드 States today오늘,
190
467000
2000
오늘날 미국에서는,
08:04
over 65 percent퍼센트 of people are either어느 한 쪽 overweight초과 중량 or obese뚱뚱한,
191
469000
3000
65% 이상의 사람들이 과체중이거나 비만이고,
08:07
and now it's a big problem문제 with our children어린이 as well.
192
472000
2000
이제 우리 아이들에게도 큰 문제입니다.
08:09
And we know that as you get older더 오래된 in life,
193
474000
2000
그리고 여러분이 어릴 때 비만이었다면,
08:11
if you're obese뚱뚱한 when you're younger더 젊은, that can lead리드 to chronic만성병 환자 diseases질병
194
476000
3000
어릴 때 비만이었다면, 우리 삶의 질을 감소시킬 뿐만 아니라
08:14
that not only reduce줄이다 your quality품질 of life,
195
479000
2000
우리의 건강관리 시스템에 엄청난 경제적 부담이 되는
08:16
but are a tremendous거대한 economic간결한 burden부담 on our health건강 care케어 system체계.
196
481000
3000
만성 질병으로 이어질 수 있다는 것을 알고 있습니다.
08:19
But if robots로봇 can be engaging매력적인,
197
484000
2000
하지만 로봇이 매력적이라면,
08:21
if we like to cooperate협력 with robots로봇,
198
486000
2000
우리가 로봇과 협력하기는걸 좋아한다면,
08:23
if robots로봇 are persuasive동기,
199
488000
2000
로봇이 설득력을 발휘할 수 있다면,
08:25
maybe a robot기계 인간 can help you
200
490000
2000
아마도 로봇은 여러분이
08:27
maintain유지하다 a diet다이어트 and exercise운동 program프로그램,
201
492000
2000
다이어트와 운동을 유지하도록,
08:29
maybe they can help you manage꾸리다 your weight무게.
202
494000
3000
체중을 관리하도록 도울 수 있을 것입니다.
08:32
Sort종류 of like a digital디지털 Jiminy지미니 --
203
497000
2000
일종의 디지털 지미니 같이,
08:34
as in the well-known잘 알려진 fairy요정 tale이야기 --
204
499000
2000
-- 유명한 동화에서 처럼 말이죠. --
08:36
a kind종류 of friendly친한, supportive지지하는 presence존재 that's always there
205
501000
2000
옳은 방법, 적절한 시간에 옳은 결정을 내리도록,
08:38
to be able할 수 있는 to help you make the right decision결정
206
503000
2000
여러분이 건강한 습관을 만들도록
08:40
in the right way at the right time
207
505000
2000
도와줄 수 있게 언제나 그곳에 있는
08:42
to help you form형태 healthy건강한 habits버릇.
208
507000
2000
우호적으로 도와주는 존재입니다.
08:44
So we actually사실은 explored탐험 한 this idea생각 in our lab.
209
509000
2000
우리는 실제로 우리 실험실에서 이 아이디어를 탐구했습니다.
08:46
This is a robot기계 인간, Autom자동.
210
511000
2000
이 로봇은 오톰입니다.
08:48
Cory코리 Kidd키드 developed개발 된 this robot기계 인간 for his doctoral박사 work.
211
513000
3000
코리 키드가 박사학위 작품으로 이 로봇을 개발했습니다.
08:51
And it was designed디자인 된 to be a robot기계 인간 diet-and-exercise식이 요법과 운동 coach코치.
212
516000
3000
이 로봇은 다이어트와 운동 코치로 디자인 되었습니다.
08:54
It had a couple of simple단순한 non-verbal비언어적 인 skills기술 it could do.
213
519000
2000
그것은 몇 가지 단순한 비언어적 기능을 가지고 있습니다.
08:56
It could make eye contact접촉 with you.
214
521000
2000
여러분과 눈을 맞출 수도 있고,
08:58
It could share information정보 looking down at a screen화면.
215
523000
2000
화면에 내려다 보는 정보를 공유할 수도 있습니다.
09:00
You'd당신은 use a screen화면 interface인터페이스 to enter들어가다 information정보,
216
525000
2000
여러분은 그 날 섭취한 칼로리가 얼마인지,
09:02
like how many많은 calories칼로리 you ate먹었다 that day,
217
527000
2000
운동량은 얼마나 되는지 같은 정보를 입력하는
09:04
how much exercise운동 you got.
218
529000
2000
화면 인터페이스를 사용할 것입니다.
09:06
And then it could help track선로 that for you.
219
531000
2000
그리고 나서 여러분을 위해 그 정보를 추척하도록 해줍니다.
09:08
And the robot기계 인간 spoke with a synthetic인조 voice목소리
220
533000
2000
그리고 로봇은 여러분이 트레이너와
09:10
to engage끌다 you in a coaching코칭 dialogue대화
221
535000
2000
환자 등을 모델로 삼아 구성된
09:12
modeled모델링 된 after trainers강사
222
537000
2000
코칭 문답에 참여하도록
09:14
and patients환자 and so forth앞으로.
223
539000
2000
합성된 음성으로 말합니다.
09:16
And it would build짓다 a working alliance동맹 with you
224
541000
2000
그리고 그 문답을 통해 여러분과
09:18
through...을 통하여 that dialogue대화.
225
543000
2000
기본적인 협조를 이룰 것입니다.
09:20
It could help you set세트 goals목표 and track선로 your progress진행,
226
545000
2000
목표를 설정하고, 그 과정을 추적하도록 도울 수 있으며,
09:22
and it would help motivate동기를 부여하다 you.
227
547000
2000
여러분에게 동기를 부여할 것입니다.
09:24
So an interesting재미있는 question문제 is,
228
549000
2000
흥미로운 질문은 다음과 같습니다.
09:26
does the social사회적인 embodiment구체화 really matter문제? Does it matter문제 that it's a robot기계 인간?
229
551000
3000
사회적 체현이 정말 중요할까요? 로봇이라는 것이 중요할까요?
09:29
Is it really just the quality품질 of advice조언 and information정보 that matters사안?
230
554000
3000
권고와 정보의 질이 정말 중요할까요?
09:32
To explore탐험하다 that question문제,
231
557000
2000
그 문제를 풀기 위해서,
09:34
we did a study연구 in the Boston보스턴 area지역
232
559000
2000
몇 주 동안 보스턴 지역에서
09:36
where we put one of three interventions개입 in people's사람들의 homes주택
233
561000
3000
여러 가정에 세 가지 중 하나의 개입 방법을
09:39
for a period기간 of several수개 weeks.
234
564000
2000
적용해봤습니다.
09:41
One case케이스 was the robot기계 인간 you saw there, Autom자동.
235
566000
3000
하나의 경우가 여러분이 봤던 로봇, 오톰입니다.
09:44
Another다른 was a computer컴퓨터 that ran달렸다 the same같은 touch-screen터치 스크린 interface인터페이스,
236
569000
3000
또 다른 하나는 동일한 터치 스크린 인터페이스를 갖추고,
09:47
ran달렸다 exactly정확하게 the same같은 dialogues대화.
237
572000
2000
동일한 문답이 나타나는 컴퓨터였습니다.
09:49
The quality품질 of advice조언 was identical같은.
238
574000
2000
권고의 질은 동일했습니다.
09:51
And the third제삼 was just a pen and paper종이 log로그,
239
576000
2000
세 번째는 그냥 펜과 종이 기록이었습니다.
09:53
because that's the standard표준 intervention중재 you typically전형적으로 get
240
578000
2000
여러분이 다이어트와 운동 프로그램을 시작할 때,
09:55
when you start스타트 a diet-and-exercise식이 요법과 운동 program프로그램.
241
580000
3000
그것이 전형적으로 얻게 되는 표준 간섭이기 때문입니다.
09:58
So one of the things we really wanted to look at
242
583000
3000
우리가 진짜 살펴보기 원했던 것 중 하나는
10:01
was not how much weight무게 people lost잃어버린,
243
586000
3000
사람들이 얼마나 체중을 줄였는가가 아니라,
10:04
but really how long they interacted상호 작용 한 with the robot기계 인간.
244
589000
3000
얼마나 오랫동안 로봇과 상호작용 하는가였습니다.
10:07
Because the challenge도전 is not losing지는 weight무게, it's actually사실은 keeping유지 it off.
245
592000
3000
과제는 체중을 줄이는 것이 아니라 비만을 방지하는 것입니다.
10:10
And the longer더 길게 you could interact상호 작용하다 with one of these interventions개입,
246
595000
3000
그리고 이 조정 중 하나와 오랫동안 상호작용하면 할 수록,
10:13
well that's indicative지시적, potentially잠재적으로, of longer-term장기적인 success성공.
247
598000
3000
더 긴 기간의 성공이 잠재적으로 나타납니다.
10:16
So the first thing I want to look at is how long,
248
601000
2000
그래서 제가 살펴보기 원한 첫 번째 것은
10:18
how long did people interact상호 작용하다 with these systems시스템.
249
603000
2000
사람들이 얼마나 오랫동안 이 시스템과 상호작용 하는가입니다.
10:20
It turns회전 out that people interacted상호 작용 한 with the robot기계 인간
250
605000
2000
권고의 질이 컴퓨터와 동일했음에도 불구하고
10:22
significantly현저하게 more,
251
607000
2000
사람들은 로봇과
10:24
even though그래도 the quality품질 of the advice조언 was identical같은 to the computer컴퓨터.
252
609000
3000
더 많이 상호작용 했음이 밝혀졌습니다.
10:28
When it asked물었다 people to rate it on terms자귀 of the quality품질 of the working alliance동맹,
253
613000
3000
기본적인 협조의 질에 대해서 평가하도록 요청받았을 때,
10:31
people rated등급이 매겨진 the robot기계 인간 higher더 높은
254
616000
2000
사람들은 로봇에 더 높은 점수를 줬고,
10:33
and they trusted신뢰할 수있는 the robot기계 인간 more.
255
618000
2000
로봇을 더 신뢰했습니다.
10:35
(Laughter웃음)
256
620000
2000
(웃음)
10:37
And when you look at emotional정서적 인 engagement약혼,
257
622000
2000
그리고 여러분이 감정적 참여를 살펴볼 때,
10:39
it was completely완전히 different다른.
258
624000
2000
그것은 완전히 다릅니다.
10:41
People would name이름 the robots로봇.
259
626000
2000
사람들은 로봇에 이름을 붙일 것입니다.
10:43
They would dress드레스 the robots로봇.
260
628000
2000
로봇에 옷도 입힐 것이구요.
10:45
(Laughter웃음)
261
630000
2000
(웃음)
10:47
And even when we would come up to pick선택 up the robots로봇 at the end종료 of the study연구,
262
632000
3000
심지어 연구가 종류되고, 로봇 수거를 위해 사람들을 방문할 때,
10:50
they would come out to the car and say good-bye안녕 to the robots로봇.
263
635000
2000
그들은 자동차까지 나와서 로봇에서 작별 인사를 할 것입니다.
10:52
They didn't do this with a computer컴퓨터.
264
637000
2000
컴퓨터에게는 그렇게 하지 않았죠.
10:54
The last thing I want to talk about today오늘
265
639000
2000
오늘 마지막으로 말씀드리고 싶은 것은
10:56
is the future미래 of children's아이들의 media미디어.
266
641000
2000
아이들이 사용하는 매체의 미래입니다.
10:58
We know that kids아이들 spend보내 a lot of time behind뒤에 screens스크린 today오늘,
267
643000
3000
오늘날 아이들은 그것이 텔레비전이던 컴퓨터 게임이던 뭐든간에
11:01
whether인지 어떤지 it's television텔레비전 or computer컴퓨터 games계략 or whatnot선반.
268
646000
3000
수 많은 시간을 화면 뒤에서 보내고 있다는 것을 우리는 알고 있습니다.
11:04
My sons자제, they love the screen화면. They love the screen화면.
269
649000
3000
제 아들들은 화면을 좋아합니다. 화면을 정말 좋아하죠.
11:07
But I want them to play놀이; as a mom엄마, I want them to play놀이,
270
652000
3000
하지만 엄마로서 저는 아이들이
11:10
like, real-world현실 세계 play놀이.
271
655000
2000
현실 세계의 놀이와 같이 놀기를 바랍니다.
11:12
And so I have a new새로운 project계획 in my group그룹 I wanted to present선물 to you today오늘
272
657000
3000
그래서 저는 오늘 여러분께 보여드리고 싶은,
11:15
called전화 한 Playtime노는 시간 Computing컴퓨팅
273
660000
2000
'플레이타임 컴퓨팅'이라는 새로운 프로젝트가 있습니다.
11:17
that's really trying견딜 수 없는 to think about how we can take
274
662000
2000
그것은 디지털 미디어에 대해
11:19
what's so engaging매력적인 about digital디지털 media미디어
275
664000
2000
무엇이 매력적인가와 그것을 문자 그대로
11:21
and literally말 그대로 bring가져오다 it off the screen화면
276
666000
2000
화면에서 꺼내 아이들의 현실 세계로
11:23
into the real레알 world세계 of the child어린이,
277
668000
2000
가져오는 것을 생각하려는 것입니다.
11:25
where it can take on many많은 of the properties속성들 of real-world현실 세계 play놀이.
278
670000
3000
그것은 현실 세계 놀이의 많은 특성들을 적용할 수 있습니다.
11:29
So here's여기에 the first exploration탐구 of this idea생각,
279
674000
4000
여기 이 아이디어의 첫 번째 탐구가 있습니다.
11:33
where characters문자들 can be physical물리적 인 or virtual가상의,
280
678000
3000
캐릭터가 물리적 또는 가상적으로 존재할 수 있고,
11:36
and where the digital디지털 content함유량
281
681000
2000
디지털 콘텐츠가 문자 그대로
11:38
can literally말 그대로 come off the screen화면
282
683000
2000
화면에서 현실로 빠져나왔다
11:40
into the world세계 and back.
283
685000
2000
다시 들어갈 수 있습니다.
11:42
I like to think of this
284
687000
2000
저는 이 혼합된 현실 게임을
11:44
as the Atari아타리 Pong탁구
285
689000
2000
'아타리 퐁'으로
11:46
of this blended-reality혼합 현실 play놀이.
286
691000
2000
생각하고 싶습니다.
11:48
But we can push푸시 this idea생각 further더욱이.
287
693000
2000
하지만 우리는 이 아이디어를 좀더 진행해볼 수 있습니다.
11:50
What if --
288
695000
2000
만일
11:52
(Game경기) Nathan네이선: Here it comes온다. Yay예이!
289
697000
3000
(게임) 네이슨: 여기 간다. 야호!
11:55
CBCB: -- the character캐릭터 itself그 자체 could come into your world세계?
290
700000
3000
CB: 캐릭터 자체가 여러분의 실제 세상으로 나온다면 어떨까요?
11:58
It turns회전 out that kids아이들 love it
291
703000
2000
캐릭터가 현실이 되고
12:00
when the character캐릭터 becomes된다 real레알 and enters들어간다 into their그들의 world세계.
292
705000
3000
그들의 세상으로 나올 때, 아이들이 너무 좋아한다는 것입니다.
12:03
And when it's in their그들의 world세계,
293
708000
2000
그리고 그것이 그들의 세상에 있을 때,
12:05
they can relate말하다 to it and play놀이 with it in a way
294
710000
2000
아이들은 그것과 관계를 형성하고, 함께 놉니다.
12:07
that's fundamentally근본적으로 different다른 from how they play놀이 with it on the screen화면.
295
712000
2000
그것은 화면으로 노는 것과는 근본적으로 다릅니다.
12:09
Another다른 important중대한 idea생각 is this notion개념
296
714000
2000
또 다른 중요한 아이디어는
12:11
of persistence고집 of character캐릭터 across건너서 realities현실들.
297
716000
3000
현실을 가로질러 캐릭터가 지속하는 개념입니다.
12:14
So changes변화들 that children어린이 make in the real레알 world세계
298
719000
2000
그래서 현실 세상에서 아이들이 만들어 내는 변화는
12:16
need to translate옮기다 to the virtual가상의 world세계.
299
721000
2000
가상 세계로 옮겨져야할 필요가 있습니다.
12:18
So here, Nathan네이선 has changed변경된 the letter편지 A to the number번호 2.
300
723000
3000
자 여기서, 네이슨은 문자 A를 숫자 2로 바꿨습니다.
12:21
You can imagine상상하다 maybe these symbols기호들
301
726000
2000
이런 심볼들이 가상 세계로 갈 때,
12:23
give the characters문자들 special특별한 powers권력 when it goes간다 into the virtual가상의 world세계.
302
728000
3000
캐릭터들에게 특별한 능력을 부여한다고 상상할 수 있을 것입니다.
12:26
So they are now sending배상 the character캐릭터 back into that world세계.
303
731000
3000
자, 아이들은 이제 캐릭터를 가상 세계로 돌려보냅니다.
12:29
And now it's got number번호 power.
304
734000
3000
그리고 그것은 숫자의 능력을 얻었습니다.
12:32
And then finally마침내, what I've been trying견딜 수 없는 to do here
305
737000
2000
그리고 나서 마지막으로, 여기서 시도한 것은
12:34
is create몹시 떠들어 대다 a really immersive몰입 형 experience경험 for kids아이들,
306
739000
3000
아이들이 그 이야기, 그 경험의 일부분이
12:37
where they really feel like they are part부품 of that story이야기,
307
742000
3000
된 것처럼 느끼는, 둘러 싸는 듯한 경험을
12:40
a part부품 of that experience경험.
308
745000
2000
창조하는 것입니다.
12:42
And I really want to spark불꽃 their그들의 imaginations상상력
309
747000
2000
"스타워즈"를 보는 작은 소녀로 제 상상력이
12:44
the way mine광산 was sparked촉발 된 as a little girl소녀 watching보고있다 "Star Wars전쟁."
310
749000
3000
일깨워졌던 것처럼, 아이들의 상상력을 정말 일깨우고 싶습니다.
12:47
But I want to do more than that.
311
752000
2000
하지만 저는 그것보다 더 나아가고 싶습니다.
12:49
I actually사실은 want them to create몹시 떠들어 대다 those experiences경험담.
312
754000
3000
저는 사실 그들이 그 경험들을 창조하기 원합니다.
12:52
I want them to be able할 수 있는 to literally말 그대로 build짓다 their그들의 imagination상상력
313
757000
2000
저는 그들이 문자 그대로 그들의 상상력을 이 경험들로
12:54
into these experiences경험담 and make them their그들의 own개인적인.
314
759000
2000
만들어낼 수 있고, 그들만의 것으로 만들 수 있기를 원합니다.
12:56
So we've우리는 been exploring탐험하는 a lot of ideas아이디어
315
761000
2000
자, 저는 아이들이 그들의 생각을
12:58
in telepresence텔레프레즌스 and mixed혼합 reality현실
316
763000
2000
다른 아이들과 상호작용하며
13:00
to literally말 그대로 allow허용하다 kids아이들 to project계획 their그들의 ideas아이디어 into this space공간
317
765000
3000
구축할 수 있는 공간에 투영할 수 있도록 만드는
13:03
where other kids아이들 can interact상호 작용하다 with them
318
768000
2000
텔레프레전스와 혼합된 현실에서의
13:05
and build짓다 upon...에 them.
319
770000
2000
수 많은 아이디어를 탐구해왔습니다.
13:07
I really want to come up with new새로운 ways of children's아이들의 media미디어
320
772000
3000
저는 창조성, 학습, 혁신을 기를 수 있는
13:10
that foster기르다 creativity독창성 and learning배우기 and innovation혁신.
321
775000
3000
어린이 매체의 새로운 방식을 제시하고 싶습니다.
13:13
I think that's very, very important중대한.
322
778000
3000
저는 그것이 아주 아주 중요하다고 생각합니다.
13:16
So this is a new새로운 project계획.
323
781000
2000
자, 이것은 새로운 프로젝트입니다.
13:18
We've우리는 invited초대 된 a lot of kids아이들 into this space공간,
324
783000
2000
우리는 수 많은 아이들을 여기로 초대했고,
13:20
and they think it's pretty예쁜 cool시원한.
325
785000
3000
아이들은 그게 아주 멋지다고 생각하죠.
13:23
But I can tell you, the thing that they love the most가장
326
788000
2000
하지만 저는 그들이 제일 좋아하는 것이
13:25
is the robot기계 인간.
327
790000
2000
로봇이라고 말할 수 있습니다.
13:27
What they care케어 about is the robot기계 인간.
328
792000
3000
그들이 관심을 가지는 것은 로봇입니다.
13:30
Robots로봇 touch접촉 something deeply깊이 human인간의 within이내에 us.
329
795000
3000
로봇은 우리 안에 깊이 존재하는 인간적인 것을 어루만집니다.
13:33
And so whether인지 어떤지 they're helping거들기 us
330
798000
2000
그리고 로봇이 우리가 창조적이고
13:35
to become지다 creative창조적 인 and innovative혁신적인,
331
800000
2000
혁신적이 되도록 하던지
13:37
or whether인지 어떤지 they're helping거들기 us
332
802000
2000
우리가 거리에도 불구하고
13:39
to feel more deeply깊이 connected연결된 despite무례 distance거리,
333
804000
2000
보다 깊이 연결되었다고 느끼도록 하던지,
13:41
or whether인지 어떤지 they are our trusted신뢰할 수있는 sidekick친구
334
806000
2000
우리가 최고와 최선의 자아가 되는데 있어
13:43
who's누가 helping거들기 us attain달성하다 our personal개인적인 goals목표
335
808000
2000
우리의 개인적 목표들을 성취할 수 있도록
13:45
in becoming어울리는 our highest제일 높은 and best베스트 selves자아,
336
810000
2000
돕는 신뢰할 수 있는 친구가 되던지 간에,
13:47
for me, robots로봇 are all about people.
337
812000
3000
제게는 로봇이 사람들에게 최고입니다.
13:50
Thank you.
338
815000
2000
감사합니다.
13:52
(Applause박수 갈채)
339
817000
5000
(박수)
Translated by Jae Ju LEE
Reviewed by Seongsu JEONG

▲Back to top

ABOUT THE SPEAKER
Cynthia Breazeal - Roboticist
At MIT, Cynthia Breazeal and her team are building robots with social intelligence that communicate and learn the same way people do.

Why you should listen

Cynthia Breazeal founded and directs the Personal Robots Group at MIT’s Media Lab. Her research focuses on developing the principles and technologies for building personal robots that are socially intelligent—that interact and communicate with people in human-centric terms, work with humans as peers, and learn from people as an apprentice.

She has developed some of the world’s most famous robotic creatures, ranging from small hexapod robots to highly expressive humanoids, including the social robot Kismet and the expressive robot Leonardo. Her recent work investigates the impact of social robots on helping people of all ages to achieve personal goals that contribute to quality of life, in domains such as physical performance, learning and education, health, and family communication and play over distance.

More profile about the speaker
Cynthia Breazeal | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee