ABOUT THE SPEAKER
Leila Takayama - Social scientist
Leila Takayama conducts research on human-robot interaction.

Why you should listen

Leila Takayama is an acting associate professor of Psychology at the University of California, Santa Cruz, where she founded and leads the Re-Embodied Cognition Lab. Her lab examines how people make sense of, interact with, and relate to new technologies. Prior to academia, she was a researcher at GoogleX and Willow Garage, where she developed a taste for working alongside engineers, designers, animators, and more. Her interdisciplinary research continues in her current work on what happens when people interact with robots and through robots.

Takayama is a World Economic Forum Global Futures Council Member and Young Global Leader. In 2015, she was presented the IEEE Robotics & Automation Society Early Career Award. In 2012, she was named a TR35 winner and one of the 100 most creative people in business by Fast Company. She completed her PhD in Communication at Stanford University in 2008, advised by Professor Clifford Nass. She also holds a PhD minor in Psychology from Stanford, a master's degree in Communication from Stanford, and bachelor's of arts degrees in Psychology and Cognitive Science from UC Berkeley (2003). During her graduate studies, she was a research assistant in the User Interface Research (UIR) group at Palo Alto Research Center (PARC).

Photo: Melissa DeWitt

More profile about the speaker
Leila Takayama | Speaker | TED.com
TEDxPaloAlto

Leila Takayama: What's it like to be a robot?

레일라 타카야마(Leila Takayama): 로봇이 되면 어떤 기분일까요?

Filmed:
1,183,118 views

우리는 이미 로봇과 함께 살고 있습니다. 식기세척기나 온도 조절 장치는 이미 우리 삶의 일부이며 굳이 로봇이라고 부를 필요도 느끼지 못하죠. 더 많은 로봇들이 함께하는 미래는 어떤 모습일까요? 사회 과학자 레일라 타카야마는 인간과 로봇의 상호작용을 연구하며 겪었던 독특한 체험을 들려줍니다. 그리고 로봇공학의 미래를 연구하는 일이 어떻게 우리 자신을 더 잘 이해하는 계기가 되는지도 말이죠.
- Social scientist
Leila Takayama conducts research on human-robot interaction. Full bio

Double-click the English transcript below to play the video.

00:12
You only get one chance기회
to make a first impression인상,
0
760
2656
첫 인상을 남길 기회는
단 한 번 밖에 없죠.
00:15
and that's true참된 if you're a robot기계 인간
as well as if you're a person사람.
1
3440
3176
그리고 그것은 당신이 로봇이라
하여도 마찬가지입니다.
00:18
The first time that I met만난
one of these robots로봇
2
6640
3016
제가 그런 로봇을 처음 만난 건
00:21
was at a place장소
called전화 한 Willow솜틀 Garage차고 in 2008.
3
9680
2896
2008년에 윌로우 개러지라는
곳에서였습니다.
00:24
When I went갔다 to visit방문 there,
my host숙주 walked걸었다 me into the building건물
4
12600
3016
그곳에서 제 담당자 분을 따라
건물 안으로 들어가던 중에
00:27
and we met만난 this little guy.
5
15640
1576
이 작은 로봇을 만났습니다.
00:29
He was rolling구르는 into the hallway현관,
6
17240
1656
이 로봇은 복도를 돌아다니다가
00:30
came왔다 up to me, sat앉은 there,
7
18920
1816
제게 다가와서 잠시 멈추고
00:32
stared응시하다 blankly멍하니 past과거 me,
8
20760
2256
저를 멍하니 보더니
00:35
did nothing for a while,
9
23040
1656
잠시 그대로 있다가
00:36
rapidly빠르게 spun자은 his head머리 around 180 degrees
10
24720
1936
재빠르게 머리를 180도로 돌려서
00:38
and then ran달렸다 away.
11
26680
1536
휙 가버리더군요.
00:40
And that was not a great first impression인상.
12
28240
2176
그다지 좋은 첫인상은 아니었죠.
00:42
The thing that I learned배운
about robots로봇 that day
13
30440
2176
제가 그날 로봇에 대해서 배운 건
00:44
is that they kind종류 of do their그들의 own개인적인 thing,
14
32640
2176
그들은 사람들을 의식하지 않고
00:46
and they're not totally전적으로 aware알고있는 of us.
15
34840
2136
제 할 일만 한다는 거였죠.
00:49
And I think as we're experimenting실험적
with these possible가능한 robot기계 인간 futures선물,
16
37000
3239
그리고 우리가 앞으로 이런
로봇에 대해 연구하다보면
00:52
we actually사실은 end종료 up learning배우기
a lot more about ourselves우리 스스로
17
40263
2673
결국에는 우리 자신에 대해
더 알게 될 거라고 생각합니다.
00:54
as opposed반대하는 to just these machines기계들.
18
42960
1656
단지 로봇뿐만 아니고 말이죠.
00:56
And what I learned배운 that day
19
44640
1336
그리고 제가 그날 깨달은 것은
00:58
was that I had pretty예쁜 high높은
expectations기대 for this little dude친구.
20
46000
3416
제가 그 작은 로봇에 꽤나 많은
기대를 걸고 있었다는 것입니다.
01:01
He was not only supposed가정의 to be able할 수 있는
to navigate항해하다 the physical물리적 인 world세계,
21
49440
3176
그 로봇은 물리적인 공간을
차지하고 있을 뿐만 아니라
01:04
but also또한 be able할 수 있는
to navigate항해하다 my social사회적인 world세계 --
22
52640
2656
저의 사회적 공간을 차지하기도
한다는 것이었습니다.
01:07
he's in my space공간; it's a personal개인적인 robot기계 인간.
23
55320
2176
제 공간에 있는, 제 개인로봇이
01:09
wWhywWhy didn't it understand알다 me?
24
57520
2016
어째서 저를 이해하지 못하겠어요?
저를 담당하는 분이 말하길
01:11
My host숙주 explained설명하다 to me,
25
59560
1256
01:12
"Well, the robot기계 인간 is trying견딜 수 없는
to get from point포인트 A to point포인트 B,
26
60840
3176
"뭐, 그 로봇은 A 지점에서
B 지점으로 가려는데
01:16
and you were an obstacle장애물 in his way,
27
64040
1776
당신은 그 길의 장애물이었던 거예요.
01:17
so he had to replanreplan his path통로,
28
65840
2016
그래서 그 로봇은 경로를 다시 짜서
01:19
figure그림 out where to go,
29
67880
1256
어디로 갈지 알아내고
01:21
and then get there some other way,"
30
69160
1696
다른 길로 위치를 찾아가는 거예요."
01:22
which어느 was actually사실은
not a very efficient실력 있는 thing to do.
31
70880
2456
이러한 방식은 효율적이지는 않죠.
01:25
If that robot기계 인간 had figured문채 있는 out
that I was a person사람, not a chair의자,
32
73360
3256
만약 그 로봇이 제가 의자가 아닌
사람이라는 걸 알아챘다면
01:28
and that I was willing자발적인
to get out of its way
33
76640
2096
또 제가 비켜주려고 했다는 걸 알았다면
01:30
if it was trying견딜 수 없는 to get somewhere어딘가에,
34
78760
1656
만약 어딘가로 가는 중이었다면
01:32
then it actually사실은
would have been more efficient실력 있는
35
80440
2216
로봇은 더 효율적으로 움직여
임무를 완수했을 것입니다.
01:34
at getting점점 its job done끝난
36
82680
1256
만약 제가 사람이라는 걸 인식하고
01:35
if it had bothered귀찮은
to notice주의 that I was a human인간의
37
83960
2216
01:38
and that I have different다른 affordances자산
than things like chairs의자 and walls do.
38
86200
3576
의자나 벽과는 다른 행동을
보일 거라는 걸 알았다면 말이죠.
01:41
You know, we tend지키다 to think of these robots로봇
as being존재 from outer밖의 space공간
39
89800
3216
우리는 이러한 로봇들을
다른 세상, 먼 미래 또는
공상과학소설의 존재로 생각합니다.
01:45
and from the future미래
and from science과학 fiction소설,
40
93040
2136
어느 정도 사실이기는 하지만
01:47
and while that could be true참된,
41
95200
1416
01:48
I'd actually사실은 like to argue논하다
that robots로봇 are here today오늘,
42
96640
2656
저는 그런 로봇들이 이미 존재하고
01:51
and they live살고 있다 and work
amongst사이에 us right now.
43
99320
2776
지금도 우리와 함께 생활하고
일하고 있다고 말씀드리고 싶습니다.
01:54
These are two robots로봇 that live살고 있다 in my home.
44
102120
2856
저희 집에는 두 대의 로봇이 있는데요.
01:57
They vacuum진공 the floors바닥
and they cut절단 the grass잔디
45
105000
2496
하나는 매일 바닥 청소를 하고
하나는 매일 잔디 깎기를 합니다.
01:59
every...마다 single단일 day,
46
107520
1216
02:00
which어느 is more than I would do
if I actually사실은 had time to do these tasks과제,
47
108760
3376
실제로 제가 그 일을 할 때보다
02:04
and they probably아마
do it better than I would, too.
48
112160
2336
저보다 훨씬 더 잘하죠.
이 로봇은 제 고양이를 돌봐주는데요.
02:06
This one actually사실은 takes care케어 of my kitty고양이 새끼.
49
114520
2496
02:09
Every마다 single단일 time
he uses용도 the box상자, it cleans청소하다 it,
50
117040
2576
고양이가 용변을 볼 때마다
그걸 치워줍니다.
02:11
which어느 is not something I'm willing자발적인 to do,
51
119640
1976
제가 하기 싫어하는 일이죠.
실제로 이 로봇은 저뿐만 아니라
고양이에게도 더 나은 삶을 제공하죠.
02:13
and it actually사실은 makes~을 만든다
his life better as well as mine광산.
52
121640
2576
02:16
And while we call these robot기계 인간 products제작품 --
53
124240
2416
우리는 이런 로봇 제품들을 부를 때
02:18
it's a "robot기계 인간 vacuum진공 cleaner청소기,
it's a robot기계 인간 lawnmower잔디 깎는 기계,
54
126680
2696
로봇 진공 청소기, 로봇 잔디 깎기
02:21
it's a robot기계 인간 littler약자 box상자,"
55
129400
1495
고양이용 로봇 화장실이라고 하죠.
02:22
I think there's actually사실은 a bunch다발
of other robots로봇 hiding숨김 in plain평원 sight시각
56
130919
4137
우리는 이미 알게 모르게
많은 로봇들을 사용하지만
02:27
that have just become지다 so darn꿰매다 useful유능한
57
135080
1856
너무나 유용하고
02:28
and so darn꿰매다 mundane평범한
58
136960
1456
일상적으로 너무 익숙해서
02:30
that we call them things
like, "dishwasher식기 세척기," right?
59
138440
2496
그저 "식기세척기" 같은
평범한 이름으로 부릅니다.
02:32
They get new새로운 names이름.
60
140960
1216
새로운 이름을 갖게 되고
더는 로봇으로 불리지 않습니다.
02:34
They don't get called전화 한 robot기계 인간 anymore더 이상
61
142200
1696
우리 삶에 영향을 끼치니까요.
02:35
because they actually사실은
serve서브 a purpose목적 in our lives.
62
143920
2416
비슷한 예로 자동 온도조절기가 있죠.
02:38
Similarly비슷하게, a thermostat온도 조절기, right?
63
146360
1496
02:39
I know my robotics로봇 공학 friends친구 out there
64
147880
1776
로봇공학자인 제 친구들은
02:41
are probably아마 cringing심장 마비
at me calling부름 this a robot기계 인간,
65
149680
2336
제가 이걸 로봇이라고 부르면
오히려 당황할지도 몰라요.
하지막 이 장치도 목표가 있죠.
02:44
but it has a goal.
66
152040
1256
02:45
Its goal is to make my house
66 degrees Fahrenheit화씨,
67
153320
2896
실내 온도를 일정하게
유지하는 목표가 있고
02:48
and it senses감각 the world세계.
68
156240
1256
바깥 세상을 감지하죠.
02:49
It knows알고있다 it's a little bit비트 cold감기,
69
157520
1576
조금 쌀쌀하다는 걸 알게 되면
02:51
it makes~을 만든다 a plan계획 and then
it acts행위 on the physical물리적 인 world세계.
70
159120
2616
계획을 세운 다음
물리적 세계에서 작동합니다.
02:53
It's robotics로봇 공학.
71
161760
1256
이것도 로봇 공학이죠.
비록 로봇 로지(Rosie) 같은
모습은 아니더라도
02:55
Even if it might not
look like RosieRosie the Robot기계 인간,
72
163040
2576
02:57
it's doing something
that's really useful유능한 in my life
73
165640
2936
제 삶에 유용한 부분을
대신해주고 있죠.
03:00
so I don't have to take care케어
74
168600
1376
그 덕분에 제가 직접 온도를
올리고 내리고 하지 않아도 됩니다.
03:02
of turning선회 the temperature온도
up and down myself자기.
75
170000
2576
03:04
And I think these systems시스템
live살고 있다 and work amongst사이에 us now,
76
172600
3816
이런 시스템은 지금 우리 삶에 함께하죠.
03:08
and not only are these systems시스템
living생활 amongst사이에 us
77
176440
2336
우리와 삶을 함께하는
이러한 시스템들뿐만 아니라
03:10
but you are probably아마
a robot기계 인간 operator운영자, too.
78
178800
2656
아마 로봇 운영자 역시
마찬가지일 겁니다.
03:13
When you drive드라이브 your car,
79
181480
1256
여러분이 차를 몰 때
03:14
it feels느낀다. like you are operating운영중인 machinery기계.
80
182760
2216
기계를 조종하는 것 같은
느낌일 겁니다.
03:17
You are also또한 going
from point포인트 A to point포인트 B,
81
185000
2816
A 지점에서 B 지점으로 가고 있을 때
03:19
but your car probably아마 has power steering조타,
82
187840
2216
아마도 여러분 차에는
동력 조향 장치가 있을 거고
03:22
it probably아마 has automatic오토매틱 braking제동 systems시스템,
83
190080
2696
자동 제동 장치도 있겠죠.
03:24
it might have an automatic오토매틱 transmission전달
and maybe even adaptive적응 형의 cruise크루즈 control제어.
84
192800
3736
또 자동 변속기와 적응식 속도 유지
장치도 달려 있을지 모릅니다.
03:28
And while it might not be
a fully충분히 autonomous자발적인 car,
85
196560
2936
완전히 자동화된 자동차는 아닐지라도
03:31
it has bits조금 of autonomy자치,
86
199520
1296
상당 부분이 자동화되어 있습니다.
03:32
and they're so useful유능한
87
200840
1336
유용한 기능을 제공하고
더 안전하게 운전할 수 있게 해주죠.
03:34
and they make us drive드라이브 safer더 안전한,
88
202200
1816
03:36
and we just sort종류 of feel
like they're invisible-in-use보이지 않는 사용, right?
89
204040
3656
기계의 도움을 받고 있는지도 모릅니다.
03:39
So when you're driving운전 your car,
90
207720
1576
따라서 운전을 한다기보다
03:41
you should just feel like
you're going from one place장소 to another다른.
91
209320
3096
단순히 이곳에서 저곳으로
이동할 뿐이라고 느끼게 되죠.
자동차를 다루고 작동하고 여러가지를
조작하는 것이 어렵지 않게 느껴집니다.
03:44
It doesn't feel like it's this big thing
that you have to deal거래 with and operate조작하다
92
212440
3736
03:48
and use these controls통제 수단
93
216200
1256
왜냐하면 운전을 배우는 데
많은 시간을 들였고
03:49
because we spent지출하다 so long
learning배우기 how to drive드라이브
94
217480
2176
03:51
that they've그들은 become지다
extensions확장 of ourselves우리 스스로.
95
219680
2696
덕분에 차가 마치 우리 몸의 일부로
느껴지기 때문일 겁니다.
03:54
When you park공원 that car
in that tight단단한 little garage차고 space공간,
96
222400
2696
비좁은 공간에 차를 주차할 때도
어디로 들어가야 하는지 잘 알죠.
03:57
you know where your corners모퉁이 are.
97
225120
1576
하지만 만약 렌탈카를 운전하거나
운전 경험이 없을 경우에는
03:58
And when you drive드라이브 a rental대여 car
that maybe you haven't~하지 않았다. driven주행하는 before,
98
226720
3256
새로운 차량에 적응하는 데
시간이 좀 필요합니다.
04:02
it takes some time
to get used to your new새로운 robot기계 인간 body신체.
99
230000
3056
04:05
And this is also또한 true참된 for people
who operate조작하다 other types유형 of robots로봇,
100
233080
3976
이는 다른 종류의 로봇을 조종하는
사람들에게도 마찬가지입니다
04:09
so I'd like to share with you
a few조금 stories이야기 about that.
101
237080
2600
이에 관해서 몇 가지 이야기를
들려드리고 싶은데요.
04:12
Dealing취급 with the problem문제
of remote collaboration협동.
102
240240
2336
원거리 협업에 관한 문제입니다.
04:14
So, at Willow솜틀 Garage차고
I had a coworker직장 동료 named명명 된 Dallas달라스,
103
242600
2576
윌로우 개러지에 있을 때
댈러스라는 동료가 있었는데요.
04:17
and Dallas달라스 looked보았다 like this.
104
245200
1576
이렇게 생긴 사람입니다.
04:18
He worked일한 from his home in Indiana인디애나
in our company회사 in California캘리포니아.
105
246800
4056
우리 회사는 캘리포니아에 있는 반면
댈러스의 집은 인디애나주였어요.
04:22
He was a voice목소리 in a box상자
on the table in most가장 of our meetings회의,
106
250880
2936
대부분의 회의에서 댈러스는 탁자 위
기계 상자 속의 목소리로 존재했죠.
04:25
which어느 was kind종류 of OK
except that, you know,
107
253840
2215
그래도 별 문제 없었어요.
04:28
if we had a really heated가열 된 debate논쟁
and we didn't like what he was saying속담,
108
256079
3377
토론이 격해져서
그의 말이 듣기 싫을 때
연결을 끊어버릴 때만 빼고는요.
04:31
we might just hang다루는 법 up on him.
109
259480
1416
04:32
(Laughter웃음)
110
260920
1015
(웃음)
04:33
Then we might have a meeting모임
after that meeting모임
111
261959
2217
그리고 그 싸움 이후
다시 미팅을 진행한다면
04:36
and actually사실은 make the decisions결정들
in the hallway현관 afterwards나중에
112
264200
2696
결정은 복도에서 내리게 되겠죠.
거기엔 댈러스가 없으니까요.
04:38
when he wasn't아니었다. there anymore더 이상.
113
266920
1416
댈러스에게는 결코 좋은 상황이 아니죠.
04:40
So that wasn't아니었다. so great for him.
114
268360
1576
윌로우에 위치한 로봇공학 회사로서
04:41
And as a robotics로봇 공학 company회사 at Willow솜틀,
115
269960
1736
로봇 몸체 부품의 일부가
여기저기 널려 있는데요
04:43
we had some extra특별한
robot기계 인간 body신체 parts부분품 laying부설 around,
116
271720
2336
댈러스와 그의 친구 커트는
그걸 모아서 뭔가를 만들었고
04:46
so Dallas달라스 and his buddy동료 Curt커트
put together함께 this thing,
117
274080
2496
04:48
which어느 looks외모 kind종류 of
like SkypeSkype on a stick스틱 on wheels바퀴,
118
276600
2936
바퀴 달린 막대에 스카이프를
연결해 놓는다거나
04:51
which어느 seems~ 같다 like a techy, silly바보 toy장난감,
119
279560
1736
나름 첨단의 바보 같은
장난감으로 재탄생했습니다.
04:53
but really it's probably아마
one of the most가장 powerful강한 tools도구들
120
281320
2776
하지만 실은 원거리 협업에
필요한 도구로서
04:56
that I've seen ever made만든
for remote collaboration협동.
121
284120
2480
제가 본 중에 가장 효과적인
것일지도 모르겠습니다.
04:59
So now, if I didn't answer대답
Dallas'달라스 ' email이메일 question문제,
122
287160
3496
지금은 만약 제가 댈러스의
이메일에 답하지 않는다면
05:02
he could literally말 그대로 roll into my office사무실,
123
290680
2216
댈러스가 제 사무실로 굴러 들어와서
05:04
block블록 my doorway출입구
and ask청하다 me the question문제 again --
124
292920
2576
입구를 막고 서서
대답을 요구할 거예요.
05:07
(Laughter웃음)
125
295520
1016
(웃음)
제가 답할 때까지요.
05:08
until...까지 I answered대답했다 it.
126
296560
1216
그렇다고 그 장치를 끄지는 않아요.
무례한 행동이니까요.
05:09
And I'm not going to turn회전 him off, right?
That's kind종류 of rude거친.
127
297800
2976
05:12
Not only was it good
for these one-on-one하나에 하나 communications연락,
128
300800
2696
이는 일대일 의사소통에
탁월할 뿐만 아니라
05:15
but also또한 for just showing전시 up
at the company회사 all-hands모든 손 meeting모임.
129
303520
2936
회사의 전체 회의에서도
활용할 수 있습니다.
05:18
Getting방법 your butt대상 in that chair의자
130
306480
1696
의자에 앉아서
05:20
and showing전시 people that you're present선물
and committed저지른 to your project계획
131
308200
3216
자신도 참석했음을 보여주고
프로젝트에 헌신하는 모습을
보여주는 건 중요합니다.
05:23
is a big deal거래
132
311440
1256
05:24
and can help remote collaboration협동 a ton.
133
312720
2176
또한 원거리 협업에도
큰 도움이 될 수 있죠.
05:26
We saw this over the period기간
of months개월 and then years연령,
134
314920
2856
그리고 지난 몇 년 동안 이 로봇이
우리 회사뿐만 아니라
05:29
not only at our company회사
but at others다른 사람, too.
135
317800
2160
다른 회사에서도 도움이
된다는 것을 알 수 있었습니다.
05:32
The best베스트 thing that can happen우연히 있다
with these systems시스템
136
320720
2336
이 시스템의 가장 큰 장점은
현장에 있는 듯한 느낌을
받는다는 것입니다.
05:35
is that it starts시작하다 to feel
like you're just there.
137
323080
2336
05:37
It's just you, it's just your body신체,
138
325440
1696
로봇이 우리 자신,
우리의 몸이 되는 거죠.
05:39
and so people actually사실은 start스타트
to give these things personal개인적인 space공간.
139
327160
3096
사람들도 이 로봇을 하나의
개인으로 대하기 사작합니다.
05:42
So when you're having a stand-up정정 당당한 meeting모임,
140
330280
1976
모두 일어서서 회의를 할 때도
로봇 주위에 사람들이 모이겠죠.
05:44
people will stand around the space공간
141
332280
1656
여러분이 직접 그곳에 있는 것처럼요.
05:45
just as they would
if you were there in person사람.
142
333960
2216
로봇이 고장나기 전까지는 괜찮겠죠.
05:48
That's great until...까지
there's breakdowns고장 and it's not.
143
336200
2576
05:50
People, when they first see these robots로봇,
144
338800
1976
사람들이 처음 로봇과 마주할 때
05:52
are like, "Wow와우, where's어디있어? the components구성 요소들?
There must절대로 필요한 것 be a camera카메라 over there,"
145
340800
3576
"부품들이 어디 달려 있지?
카메라가 여기 있을텐데" 하면서
얼굴을 빤히 쳐다보다가
05:56
and they start스타트 poking찌르는 your face얼굴.
146
344400
1576
"말소리가 너무 작아.
좀 키워야겠어."라고 합니다.
05:58
"You're talking말하는 too softly부드럽게,
I'm going to turn회전 up your volume음량,"
147
346000
2936
그런데, 직장 동료가 여러분에게 와서
06:00
which어느 is like having a coworker직장 동료
walk산책 up to you and say,
148
348960
2616
"네 말소리가 너무 작은데.
얼굴을 좀 높여야겠어"
06:03
"You're speaking말하기 too softly부드럽게,
I'm going to turn회전 up your face얼굴."
149
351600
2896
이렇게는 말하지 않겠죠. 뭔가 이상해요.
06:06
That's awkward어색한 and not OK,
150
354520
1256
06:07
and so we end종료 up having to build짓다
these new새로운 social사회적인 norms규범
151
355800
2616
그래서 우리는 이 시스템을
이용하는 데 필요한
06:10
around using~을 사용하여 these systems시스템.
152
358440
2216
새로운 사회적 규칙을
만들게 되었습니다.
06:12
Similarly비슷하게, as you start스타트
feeling감각 like it's your body신체,
153
360680
3416
이와 비슷하게, 로봇이 내 신체의
일부라고 느끼는 시점부터
06:16
you start스타트 noticing알아 차리는 things like,
"Oh, my robot기계 인간 is kind종류 of short짧은."
154
364120
3696
여러분은 "내 로봇은 좀 작은 거
같아"라는 식으로 느끼게 됩니다.
06:19
Dallas달라스 would say things to me --
he was six-foot6 피트 tall --
155
367840
2656
댈러스가 저에게 그렇게 말했죠.
댈러스는 180cm거든요.
06:22
and we would take him via통하다 robot기계 인간
to cocktail칵테일 parties파티 and things like that,
156
370520
3456
그리고 로봇에 접속한 댈러스를 데리고
칵테일 파티 같은 곳에 데려갔죠
우리들이 보통 하는 것처럼요.
06:26
as you do,
157
374000
1216
06:27
and the robot기계 인간 was about five-foot-tall5 피트 높이,
which어느 is close닫기 to my height신장.
158
375240
3336
로봇의 키는 150cm였고
제 키랑 비슷하죠.
06:30
And he would tell me,
159
378600
1216
댈러스는 저에게 말했습니다.
06:31
"You know, people are not
really looking at me.
160
379840
2536
"사람들이 날 제대로 쳐다보지 않아.
06:34
I feel like I'm just looking
at this sea바다 of shoulders어깨,
161
382400
2696
온통 어깨만 보이잖아.
06:37
and it's just -- we need a taller키가 큰 robot기계 인간."
162
385120
1976
좀 더 키가 큰 로봇을 만들어야겠어"
06:39
And I told him,
163
387120
1256
그래서 저는 이렇게 말헀죠.
06:40
"Um, no.
164
388400
1296
"아니.
06:41
You get to walk산책 in my shoes구두 for today오늘.
165
389720
1936
오늘은 내 입장에서 한번 살아봐.
06:43
You get to see what it's like
to be on the shorter더 짧은 end종료 of the spectrum스펙트럼."
166
391680
3536
키가 작은 사람의 입장에서 보는
세상이 어떤지 한번 느껴봐."
06:47
And he actually사실은 ended끝난 up building건물
a lot of empathy감정 이입 for that experience경험,
167
395240
3376
실제로 댈러스는 그날의 경험을 통해
저 같은 사람을 더 잘 이해하게 됐죠.
정말 좋은 일이죠.
06:50
which어느 was kind종류 of great.
168
398640
1256
그래서 댈러스가 저를 직접 찾아왔을 때
이전처럼 제 옆에 서서 이야기하지 않고
06:51
So when he'd그는 come visit방문 in person사람,
169
399920
1656
06:53
he no longer더 길게 stood서서 over me
as he was talking말하는 to me,
170
401600
2416
앉아서 제 눈을 바라보며
이야기하게 됐어요.
06:56
he would sit앉다 down
and talk to me eye to eye,
171
404040
2096
06:58
which어느 was kind종류 of a beautiful아름다운 thing.
172
406160
1736
이런 변화는 정말 멋진 일이었어요.
06:59
So we actually사실은 decided결정적인
to look at this in the laboratory실험실
173
407920
2656
그레서 저희는 실제로
이 부분을 살펴보기로 했습니다.
07:02
and see what others다른 사람 kinds종류 of differences차이점들
things like robot기계 인간 height신장 would make.
174
410600
3656
로봇의 키가 다른 경우에
어떤 변화가 나타나는지 봤죠.
07:06
And so half절반 of the people in our study연구
used a shorter더 짧은 robot기계 인간,
175
414280
2856
연구진의 절반은 키가 작은 로봇을 썼고
07:09
half절반 of the people in our study연구
used a taller키가 큰 robot기계 인간
176
417160
2416
나머지 절반은 키가 큰
로봇을 사용했어요.
그 결과, 똑같은 인물이
07:11
and we actually사실은 found녹이다
that the exact정확한 same같은 person사람
177
419600
2256
07:13
who has the exact정확한 same같은 body신체
and says말한다 the exact정확한 same같은 things as someone어떤 사람,
178
421880
3336
같은 신체를 갖고, 같은 말을 하는데도
더 큰 로봇을 이용할 때 좀 더
설득력을 갖고 믿을만한 인물로
07:17
is more persuasive동기
and perceived감지 된 as being존재 more credible신뢰할 수 있는
179
425240
2616
07:19
if they're in a taller키가 큰 robot기계 인간 form형태.
180
427880
1656
여긴다는 것을 발견했습니다.
07:21
It makes~을 만든다 no rational이성적인 sense감각,
181
429560
1816
논리적으로는 말이 안되지만
07:23
but that's why we study연구 psychology심리학.
182
431400
1696
그래서 심리학이 필요한 거죠.
07:25
And really, you know,
the way that Cliff낭떠러지 NassNas would put this
183
433120
2856
클리프 나스가 주장하던 것도
07:28
is that we're having to deal거래
with these new새로운 technologies기술
184
436000
3016
우리가 낡은 두뇌를
가지고 있음에도 불구하고
07:31
despite무례 the fact
that we have very old늙은 brains두뇌.
185
439040
2736
최첨단 기술을 다룰 수 있어야
한다는 것이었죠.
07:33
Human인간 psychology심리학 is not changing작고 보기 흉한 사람
at the same같은 speed속도 that tech기술 is
186
441800
2976
인간심리학의 발전 속도는
기술 발전과는 다르잖아요.
07:36
and so we're always playing연주하다 catch-up케첩,
187
444800
1816
그래서 기술 발전 속도를
따라잡아야 하고
07:38
trying견딜 수 없는 to make sense감각 of this world세계
188
446640
1656
자동화 기계들이 굴러다니는 세계를
이해하려 노력해야 하는 것이죠.
07:40
where these autonomous자발적인 things
are running달리는 around.
189
448320
2336
보통 말을 하는 것은 사람이지
기계가 아닙니다, 그렇죠?
07:42
Usually보통, things that talk are people,
not machines기계들, right?
190
450680
2736
07:45
And so we breathe숨을 쉬다 a lot of meaning의미
into things like just height신장 of a machine기계,
191
453440
4576
그래서 우리는 로봇의 키 같은
여러가지 부분에 의미를 둡니다.
07:50
not a person사람,
192
458040
1256
사람이 아니구요.
07:51
and attribute속성 that
to the person사람 using~을 사용하여 the system체계.
193
459320
2360
그리고 그것을 그 시스템을
사용하는 사람과 결부시키죠.
07:55
You know, this, I think,
is really important중대한
194
463120
2216
저는 로봇공학을 이야기할 때
이 점이 굉장히 중요하다고 생각합니다.
07:57
when you're thinking생각 about robotics로봇 공학.
195
465360
1736
로봇공학은 인간을
재발명하는 것이 아니라
07:59
It's not so much about reinventing재발 명 humans인간,
196
467120
2096
08:01
it's more about figuring생각하다 out
how we extend넓히다 ourselves우리 스스로, right?
197
469240
3136
우리 자신을 어떻게 더 확장하는지
그 방법을 찾는 것입니다.
08:04
And we end종료 up using~을 사용하여 things
in ways that are sort종류 of surprising놀라운.
198
472400
2976
하지만 그 결과를 보고
우리는 놀라게 되죠.
08:07
So these guys can't play놀이 pool
because the robots로봇 don't have arms무기,
199
475400
4256
로봇은 팔이 없기 때문에
당구 게임을 할 수는 없지만
08:11
but they can heckle헤클 the guys
who are playing연주하다 pool
200
479680
2336
당구를 하고 있는 사람들에게
야유를 퍼부을 수는 있죠.
08:14
and that can be an important중대한 thing
for team bonding결합,
201
482040
3176
이는 팀 유대가 중요하다는 면에서
어느 정도 필요하죠.
08:17
which어느 is kind종류 of neat산뜻한.
202
485240
1296
08:18
People who get really good
at operating운영중인 these systems시스템
203
486560
2496
기계를 정말 잘 다루는 사람이라면
새로운 게임을 만들 수도 있을 겁니다.
08:21
will even do things
like make up new새로운 games계략,
204
489080
2056
한밤중에 주변에 휴지통들을 두고
로봇 축구를 한다든지 말이죠.
08:23
like robot기계 인간 soccer축구
in the middle중간 of the night,
205
491160
2136
08:25
pushing미는 the trash폐물 cans around.
206
493320
1456
하지만 모두가 능숙하진 않겠죠.
08:26
But not everyone's모두의 good.
207
494800
1576
08:28
A lot of people have trouble수고
operating운영중인 these systems시스템.
208
496400
2496
많은 사람들이 로봇을 사용하는 데
어려움을 겪습니다.
08:30
This is actually사실은 a guy
who logged기록 된 into the robot기계 인간
209
498920
2256
지금 이 로봇에 로그인 한 남자는
로봇 눈이 왼쪽으로 90도 돌아가
있는데도 전혀 알아채지 못했어요.
08:33
and his eyeball눈알 was turned돌린
90 degrees to the left.
210
501200
2376
08:35
He didn't know that,
211
503600
1256
그래서 사무실 여기저기에 부딪혔죠.
08:36
so he ended끝난 up just bashing강타
around the office사무실,
212
504880
2176
책상으로 돌진하기도 해서
엄청나게 당황하기도 했고요.
08:39
running달리는 into people's사람들의 desks책상,
getting점점 super감독자 embarrassed어리둥절한,
213
507080
2616
그걸 보고 크게 웃었을 때는
또 소리가 너무 컸어요.
08:41
laughing웃음 about it --
his volume음량 was way too high높은.
214
509720
2336
그때 여기 사진 속의 남성이
제게 말하더군요.
08:44
And this guy here
in the image영상 is telling말함 me,
215
512080
2136
"로봇에게도 음소거 버튼이 필요해요."
08:46
"We need a robot기계 인간 mute묵자 button단추."
216
514240
2096
08:48
And by that what he really meant의미심장 한
was we don't want it to be so disruptive파괴적인.
217
516360
3496
한 마디로 다른 사람들에게
불편을 주고 싶지 않다는 거였죠.
08:51
So as a robotics로봇 공학 company회사,
218
519880
1616
그래서 우리 회사는
08:53
we added추가 된 some obstacle장애물
avoidance기피 to the system체계.
219
521520
2456
이 로봇에 장애물 회피 기능을
추가했습니다.
08:56
It got a little laser원자 램프 range범위 finder파인더
that could see the obstacles장애물,
220
524000
3056
작은 레이저 탐지기로 장애물을 탐지하고
08:59
and if I as a robot기계 인간 operator운영자
try to say, run운영 into a chair의자,
221
527080
3136
제가 만약 로봇을 조종하면서 의자를
향해 돌진하라고 명령을 내리면
09:02
it wouldn't~ 않을거야. let me,
it would just plan계획 a path통로 around,
222
530240
2496
그 명령에 따르지 않고
우회로를 찾아가는 겁니다.
09:04
which어느 seems~ 같다 like a good idea생각.
223
532760
1856
멋진 발상이죠.
09:06
People did hit히트 fewer적은 obstacles장애물
using~을 사용하여 that system체계, obviously명백하게,
224
534640
3176
이 탐지기 덕분에 사무실 내 사물과
부딪히는 횟수가 줄어든 것은 사실이지만
09:09
but actually사실은, for some of the people,
225
537840
2096
또한 일부에게는
09:11
it took~했다 them a lot longer더 길게
to get through...을 통하여 our obstacle장애물 course코스,
226
539960
2856
이 시스템에 적응하는 데
더 많은 시간이 걸렸어요.
09:14
and we wanted to know why.
227
542840
1560
어째서였을까요?
09:17
It turns회전 out that there's
this important중대한 human인간의 dimension치수 --
228
545080
3056
이는 우리 인간의 공간 인식
문제가 원인이었습니다.
09:20
a personality인격 dimension치수
called전화 한 locus현장 of control제어,
229
548160
2296
개인마다 "통제 소재"라는
공간 개념이 있는데 요.
09:22
and people who have
a strong강한 internal내부의 locus현장 of control제어,
230
550480
3136
강력한 내부 통제 소재를
갖고 있는 사람들은
09:25
they need to be the masters주인
of their그들의 own개인적인 destiny운명 --
231
553640
3056
자기 운명을 스스로
통제하고 싶어 합니다.
09:28
really don't like giving주는 up control제어
to an autonomous자발적인 system체계 --
232
556720
3096
자동화 기기를 자신의 의지대로
움직이고 싶어 하죠.
09:31
so much so that they will
fight싸움 the autonomy자치;
233
559840
2136
그래서 종종 충돌이 일어납니다.
09:34
"If I want to hit히트 that chair의자,
I'm going to hit히트 that chair의자."
234
562000
3096
"내가 의자를 들이받고 싶을 때
들이받게 할 거야"
09:37
And so they would actually사실은 suffer참다
from having that autonomous자발적인 assistance보조,
235
565120
3616
그래서 이들은 자동화 기기의
도움을 받는 것을 성가시게 여깁니다.
09:40
which어느 is an important중대한 thing for us to know
236
568760
2576
우리 연구자들에게는
중요한 연구 항목이죠.
09:43
as we're building건물 increasingly더욱 더
autonomous자발적인, say, cars자동차, right?
237
571360
3296
우리는 이전보다 훨씬 자동화된
자동차를 만드는 중이니까요.
09:46
How are different다른 people going
to grapple잡다 with that loss손실 of control제어?
238
574680
3360
통제권을 잃었을 떄 사람마다
어떻게 대처할 것인가에 관한 문제죠.
09:50
It's going to be different다른
depending의존하는 on human인간의 dimensions치수.
239
578880
2696
개인의 통제 소재에 따라 다를 겁니다.
09:53
We can't treat humans인간
as if we're just one monolithic단단히 짜여 하나로 되어 있는 thing.
240
581600
3496
인간은 하나의 획일화된 기준으로
접근할 수 있는 대상이 아니니까요.
09:57
We vary다르다 by personality인격, by culture문화,
241
585120
2416
각자의 인격과, 문화
09:59
we even vary다르다 by emotional정서적 인 state상태
moment순간 to moment순간,
242
587560
2456
매 순간 우리의 감정에 따라 달라지죠.
10:02
and being존재 able할 수 있는 to design디자인 these systems시스템,
243
590040
1976
이렇게 인간과 로봇이 상호작용하는
시스템을 만들기 위해서는
10:04
these human-robot인간 - 로봇 interaction상호 작용 systems시스템,
244
592040
2296
10:06
we need to take into account계정
the human인간의 dimensions치수,
245
594360
2736
단순히 기술적인 면뿐만 아니라
인간의 입장에서도 충분히
고려를 해봐야 합니다.
10:09
not just the technological기술적 인 ones그들.
246
597120
1720
10:11
Along을 따라서 with a sense감각 of control제어
also또한 comes온다 a sense감각 of responsibility책임.
247
599640
4296
힘에는 책임이 따르는 법이죠.
10:15
And if you were a robot기계 인간 operator운영자
using~을 사용하여 one of these systems시스템,
248
603960
2856
만일 여러분이 이 시스템의 사용자였다면
10:18
this is what the interface인터페이스
would look like.
249
606840
2056
그 인터페이스는 이런 모습일 것입니다.
10:20
It looks외모 a little bit비트 like a video비디오 game경기,
250
608920
1936
비디오 게임과 좀 비슷하죠.
10:22
which어느 can be good because
that's very familiar익숙한 to people,
251
610880
2976
사람들에게 매우 친숙하기 때문에
장점이 되는 반면
단점이 될 수도 있습니다.
10:25
but it can also또한 be bad나쁜
252
613880
1216
10:27
because it makes~을 만든다 people feel
like it's a video비디오 game경기.
253
615120
2456
왜냐하면 사람들에게는 정말
비디오 게임으로 느껴질 수 있거든요.
우리 연구소가 있는 스탠포드 근처의
멘로 공원에서 한 무리의 아이들이
10:29
We had a bunch다발 of kids아이들
over at Stanford스탠포드 play놀이 with the system체계
254
617600
2856
우리가 만든 시스템을 이용해
로봇을 조종한 적이 있었는데요.
10:32
and drive드라이브 the robot기계 인간
around our office사무실 in Menlo멘로 Park공원,
255
620480
2456
아이들이 이렇게 말 하더군요.
10:34
and the kids아이들 started시작한 saying속담 things like,
256
622960
1936
"저 남자를 맞추면 10점,
이 남자를 맞추면 20점이야!"
10:36
"10 points전철기 if you hit히트 that guy over there.
20 points전철기 for that one."
257
624920
3176
그러면서 복도로 로봇을 몰아
목표를 쫓아 가더라고요.
10:40
And they would
chase추적 them down the hallway현관.
258
628120
2016
10:42
(Laughter웃음)
259
630160
1016
(웃음)
10:43
I told them, "Um, those are real레알 people.
260
631200
1936
제가 말했어요.
"얘들아 저 사람들은 진짜야.
10:45
They're actually사실은 going to bleed출혈
and feel pain고통 if you hit히트 them."
261
633160
3296
로봇으로 들이받으면
피를 흘리고 아파할 거야."
10:48
And they'd그들은 be like, "OK, got it."
262
636480
1616
그러자 아이들이
"알았어요." 라고 헀지만
10:50
But five다섯 minutes의사록 later후에,
they would be like,
263
638120
2056
5분 뒤에는 다시
"저 남자를 맞추면 20점이야!
한 번 때려주고 싶게 생겼거든."
10:52
"20 points전철기 for that guy over there,
he just looks외모 like he needs필요 to get hit히트."
264
640200
3616
영화 "엔더스 게임" 같죠?
10:55
It's a little bit비트
like "Ender's청산의 Game경기," right?
265
643840
2136
화면 반대편은 현실세계인 것이죠.
10:58
There is a real레알 world세계 on that other side측면
266
646000
1936
10:59
and I think it's our responsibility책임
as people designing설계 these interfaces인터페이스
267
647960
3416
로봇 인터페이스를 개발하는
디자이너로서 우리의 책임은
사람들로 하여금 자신의 행동에
실제로 어떤 결과가 따르는지 알게 하고
11:03
to help people remember생각해 내다
268
651400
1256
11:04
that there's real레알 consequences결과
to their그들의 actions행위
269
652680
2256
11:06
and to feel a sense감각 of responsibility책임
270
654960
2296
책임감을 갖도록 하는 겁니다.
11:09
when they're operating운영중인
these increasingly더욱 더 autonomous자발적인 things.
271
657280
3280
사람들이 앞으로 더욱 많은
자동화 기기들을 다루게 될 테니까요.
11:13
These are kind종류 of a great example
272
661840
2296
로봇공학이 가져올 미래에 일어날 법한
훌륭한 예시가 하나 있는데요.
11:16
of experimenting실험적 with one
possible가능한 robotic로봇 식의 future미래,
273
664160
3256
11:19
and I think it's pretty예쁜 cool시원한
that we can extend넓히다 ourselves우리 스스로
274
667440
3856
저는 로봇을 통해 우리 자신을 확장하고
11:23
and learn배우다 about the ways
that we extend넓히다 ourselves우리 스스로
275
671320
2336
그 방법을 배우는 일이
멋지다고 생각합니다.
11:25
into these machines기계들
276
673680
1216
그와 동시에 우리 인간성과 개성을
표현하는 것도 중요하다고 생각해요.
11:26
while at the same같은 time
being존재 able할 수 있는 to express표하다 our humanity인류
277
674920
2696
11:29
and our personality인격.
278
677640
1216
타인을 동정할 줄 알아야 합니다.
11:30
We also또한 build짓다 empathy감정 이입 for others다른 사람
279
678880
1576
크거나, 작거나, 빠르거나, 느리거나
11:32
in terms자귀 of being존재
shorter더 짧은, taller키가 큰, faster더 빠른, slower느린,
280
680480
3216
11:35
and maybe even armless팔 잘린,
281
683720
1416
심지어 팔이 없더라도 말이죠.
11:37
which어느 is kind종류 of neat산뜻한.
282
685160
1336
근사한 일이죠.
11:38
We also또한 build짓다 empathy감정 이입
for the robots로봇 themselves그들 자신.
283
686520
2536
또한 로봇 그 자체에 대해서도
감정이입을 할 수 있겠죠.
11:41
This is one of my favorite특히 잘하는 robots로봇.
284
689080
1656
이 녀석은 제가 좋아하는 로봇입니다.
트윈봇(Tweenbot)이라고 하죠.
11:42
It's called전화 한 the TweenbotTweenbot.
285
690760
1456
11:44
And this guy has a little flag깃발 that says말한다,
286
692240
1976
이 녀석에겐 이런 말이 적힌
깃발이 달려있어요.
11:46
"I'm trying견딜 수 없는 to get
to this intersection교차로 in Manhattan맨해튼,"
287
694240
2576
"난 맨해튼에 있는
교차로에 가고 싶어"
11:48
and it's cute귀엽다 and rolls
forward앞으로, that's it.
288
696840
2776
이 귀여운 로봇은 앞으로
전진만 할 줄 압니다.
11:51
It doesn't know how to build짓다 a map지도,
it doesn't know how to see the world세계,
289
699640
3456
지도를 만들지도 않고,
바깥 세상도 보지 못해요.
단지 사람들의 도움을 청하죠.
11:55
it just asks묻다 for help.
290
703120
1256
11:56
The nice좋은 thing about people
291
704400
1336
사람들이 가진 좋은 점 중 하나는
11:57
is that it can actually사실은 depend의존하다
upon...에 the kindness친절 of strangers낯선 사람.
292
705760
3096
타인의 선의에 기댈 수 있도록
도와준다는 점입니다.
12:00
It did make it across건너서 the park공원
to the other side측면 of Manhattan맨해튼 --
293
708880
3896
제 로봇은 실제로 맨해튼의
반대편까지 가는데 성공했습니다.
12:04
which어느 is pretty예쁜 great --
294
712800
1256
정말 대단하죠.
12:06
just because people would pick선택 it up
and point포인트 it in the right direction방향.
295
714080
3456
사람들이 로봇을 집어서
방향을 제대로 잡게 도와줬거든요.
(웃음)
12:09
(Laughter웃음)
296
717560
936
정말 놀랍지 않나요?
12:10
And that's great, right?
297
718520
1256
우리는 인간과 로봇의 세상을
만들려고 합니다
12:11
We're trying견딜 수 없는 to build짓다
this human-robot인간 - 로봇 world세계
298
719800
2696
12:14
in which어느 we can coexist공존하다
and collaborate협력하다 with one another다른,
299
722520
3416
서로 협력하고 공존하는 사회 말이죠.
12:17
and we don't need to be fully충분히 autonomous자발적인
and just do things on our own개인적인.
300
725960
3376
완전히 자동화될 필요는 없어요.
다만 우리 할 일을 하면 되는 거죠.
실제로 같이 하고 있기도 하고요.
12:21
We actually사실은 do things together함께.
301
729360
1496
이를 현실화하려면 예술가와
디자이너의 도움이 필요합니다.
12:22
And to make that happen우연히 있다,
302
730880
1256
12:24
we actually사실은 need help from people
like the artists예술가들 and the designers디자이너,
303
732160
3256
정치인들, 법학자들
12:27
the policy정책 makers제조사, the legal적법한 scholars학자,
304
735440
1856
심리학자, 사회학자, 인류학자
같은 사람들의 도움이 필요해요
12:29
psychologists심리학자, sociologists사회 학자,
anthropologists인류 학자 --
305
737320
2216
12:31
we need more perspectives전망 in the room
306
739560
1816
보다 다양한 관점이 필요합니다.
12:33
if we're going to do the thing
that Stu스투 Card카드 says말한다 we should do,
307
741400
2976
스투 카드가 언급한 대로
우리가 살고 싶어하는 미래를
창조하길 원한다면 말이죠.
12:36
which어느 is invent꾸미다 the future미래
that we actually사실은 want to live살고 있다 in.
308
744400
3936
12:40
And I think we can continue잇다 to experiment실험
309
748360
2656
그리고 저는 우리가 로봇과
함께하는 다양한 미래를 향해서
12:43
with these different다른
robotic로봇 식의 futures선물 together함께,
310
751040
2176
계속 도전할 수 있다고 생각합니다.
12:45
and in doing so, we will end종료 up
learning배우기 a lot more about ourselves우리 스스로.
311
753240
4680
그 과정에서 우리는 우리 자신에 대해
더 많이 배울 수 있을 것입니다.
12:50
Thank you.
312
758720
1216
감사합니다.
12:51
(Applause박수 갈채)
313
759960
2440
(박수)
Translated by Yoonkeun Ji
Reviewed by 고운 최

▲Back to top

ABOUT THE SPEAKER
Leila Takayama - Social scientist
Leila Takayama conducts research on human-robot interaction.

Why you should listen

Leila Takayama is an acting associate professor of Psychology at the University of California, Santa Cruz, where she founded and leads the Re-Embodied Cognition Lab. Her lab examines how people make sense of, interact with, and relate to new technologies. Prior to academia, she was a researcher at GoogleX and Willow Garage, where she developed a taste for working alongside engineers, designers, animators, and more. Her interdisciplinary research continues in her current work on what happens when people interact with robots and through robots.

Takayama is a World Economic Forum Global Futures Council Member and Young Global Leader. In 2015, she was presented the IEEE Robotics & Automation Society Early Career Award. In 2012, she was named a TR35 winner and one of the 100 most creative people in business by Fast Company. She completed her PhD in Communication at Stanford University in 2008, advised by Professor Clifford Nass. She also holds a PhD minor in Psychology from Stanford, a master's degree in Communication from Stanford, and bachelor's of arts degrees in Psychology and Cognitive Science from UC Berkeley (2003). During her graduate studies, she was a research assistant in the User Interface Research (UIR) group at Palo Alto Research Center (PARC).

Photo: Melissa DeWitt

More profile about the speaker
Leila Takayama | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee