ABOUT THE SPEAKER
Margaret Mitchell - AI research scientist
Margaret Mitchell is a senior research scientist in Google's Research & Machine Intelligence group, working on artificial intelligence.

Why you should listen

Margaret Mitchell's research involves vision-language and grounded language generation, focusing on how to evolve artificial intelligence towards positive goals. Her work combines computer vision, natural language processing, social media as well as many statistical methods and insights from cognitive science. Before Google, Mitchell was a founding member of Microsoft Research's "Cognition" group, focused on advancing artificial intelligence, and a researcher in Microsoft Research's Natural Language Processing group.

More profile about the speaker
Margaret Mitchell | Speaker | TED.com
TED@BCG Milan

Margaret Mitchell: How we can build AI to help humans, not hurt us

마가렛 미첼(Margaret Mitchell): 인류에게 해를 끼치지 않고 도움이 되는 인공지능(AI) 을 어떻게 만들어야 할까요?

Filmed:
1,154,210 views

마가렛 미첼은 구글의 연구원이며 컴퓨터가 인류를 이해하도록 개발하는 일을 하고 있습니다. 그녀는 우리가 무의식적으로 컴퓨터에 헛점과 편견등의 갭을 입력하고 있다며 현재의 테크놀로지가 미래에 어떤 모습일지를 고려해야한다고 합니다. "만일 인공지능이 인류에 도움이 되는 방향이 되도록 발전하길 원한다면, 우리는 그 방향의 길이 될 목적과 계획을 규정해야합니다."
- AI research scientist
Margaret Mitchell is a senior research scientist in Google's Research & Machine Intelligence group, working on artificial intelligence. Full bio

Double-click the English transcript below to play the video.

00:13
I work on helping거들기 computers컴퓨터들
communicate소통하다 about the world세계 around us.
0
1381
4015
전 컴퓨터가 세상을 이해하도록
돕는 일을 합니다.
00:17
There are a lot of ways to do this,
1
5754
1793
여러가지 방법이 있지요.
00:19
and I like to focus초점 on helping거들기 computers컴퓨터들
2
7571
2592
전 컴퓨터를 돕는 것을 즐기며
00:22
to talk about what they see
and understand알다.
3
10187
2874
컴퓨터가 보고 이해하는 것을 돕습니다.
00:25
Given주어진 a scene장면 like this,
4
13514
1571
이런 장면을 컴퓨터에게 보여주면
00:27
a modern현대 computer-vision컴퓨터 비전 algorithm연산
5
15109
1905
현대판 컴퓨터 알고리즘이 작용하여
00:29
can tell you that there's a woman여자
and there's a dog.
6
17038
3095
한 여성과 개가 있다고 알려주죠.
00:32
It can tell you that the woman여자 is smiling웃고있는.
7
20157
2706
그녀는 웃고 있다고 알려주기도 하죠.
00:34
It might even be able할 수 있는 to tell you
that the dog is incredibly엄청나게 cute귀엽다.
8
22887
3873
개가 매우 귀엽다고
말해 줄 수도 있을 겁니다.
00:38
I work on this problem문제
9
26784
1349
제가 연구하고 있는 분야는
00:40
thinking생각 about how humans인간
understand알다 and process방법 the world세계.
10
28157
4212
인간이 어떻게 세상을
이해하고 받아들이는 가입니다.
00:45
The thoughts생각들, memories기억 and stories이야기
11
33577
2952
생각, 기억, 이야기들
00:48
that a scene장면 like this
might evoke일깨우다 for humans인간.
12
36553
2818
이런 장면이 인간에게 어떤 영향을
주는 지를 연구하고 있죠.
00:51
All the interconnections상호 연결
of related관련 situations상황.
13
39395
4285
연관된 상황들의
상호 연결에 대해서요.
00:55
Maybe you've seen
a dog like this one before,
14
43704
3126
여러분은 이런 개를 본적이 있거나
00:58
or you've spent지출하다 time
running달리는 on a beach바닷가 like this one,
15
46854
2969
개와 함께 해변을 달렸을 수도 있죠.
01:01
and that further더욱이 evokes불러 일으킨다. thoughts생각들
and memories기억 of a past과거 vacation휴가,
16
49847
4778
이러한 생각은 이전 휴가의 기억을
떠오르게 합니다.
01:06
past과거 times타임스 to the beach바닷가,
17
54649
1920
해변에서 보낸 과거의 기억
01:08
times타임스 spent지출하다 running달리는 around
with other dogs.
18
56593
2603
개와 달리며 보낸 시간들을요.
01:11
One of my guiding안내 principles원칙들
is that by helping거들기 computers컴퓨터들 to understand알다
19
59688
5207
컴퓨터가 세상을 이해하도록 돕는
저의 지도 원칙은
01:16
what it's like to have these experiences경험담,
20
64919
2896
이 경험들이 어떤 것인지를 이해시키고
01:19
to understand알다 what we share
and believe and feel,
21
67839
5176
우리가 나누고 믿고
느끼는 것을 이해시키며
01:26
then we're in a great position위치
to start스타트 evolving진화하는 computer컴퓨터 technology과학 기술
22
74094
4310
컴퓨터 기술을 발전시키는 것이
우리의 중요한 역할이라는 것입니다.
01:30
in a way that's complementary보완적인
with our own개인적인 experiences경험담.
23
78428
4587
인간의 기억과
상호 보완되도록 말입니다.
01:35
So, digging파기 more deeply깊이 into this,
24
83539
3387
좀더 자세히 설명해보겠습니다.
01:38
a few조금 years연령 ago...전에 I began시작되었다 working on helping거들기
computers컴퓨터들 to generate일으키다 human-like인간과 같은 stories이야기
25
86950
5905
몇년 전 저는 컴퓨터가 인간의 이야기를
지어낼수 있도록 했습니다.
01:44
from sequences시퀀스들 of images이미지들.
26
92879
1666
여러 장의 이미지를 통해서요.
01:47
So, one day,
27
95427
1904
어느 날
01:49
I was working with my computer컴퓨터 to ask청하다 it
what it thought about a trip여행 to Australia호주.
28
97355
4622
저는 컴퓨터에게 호주 여행을
어떻게 생각하냐고 물었습니다.
01:54
It took~했다 a look at the pictures영화,
and it saw a koala코알라.
29
102768
2920
컴퓨터는 사진들 속에서
코알라를 보았습니다.
01:58
It didn't know what the koala코알라 was,
30
106236
1643
그것은 코알라가 무엇인지 몰랐죠.
01:59
but it said it thought
it was an interesting-looking재미 있는 모양의 creature생물.
31
107903
2999
컴퓨터는 흥미롭게 생긴
생명체가 있다고 하더군요.
02:04
Then I shared공유 된 with it a sequence순서 of images이미지들
about a house burning타고 있는 down.
32
112053
4004
그후 불타고 있는 집의
이미지를 보여주었습니다.
02:09
It took~했다 a look at the images이미지들 and it said,
33
117704
3285
이미지를 보다가 컴퓨터는 대답했죠.
02:13
"This is an amazing놀랄 만한 view전망!
This is spectacular장관의!"
34
121013
3500
"멋진 광경이네요!
대단한 장관이에요!"
02:17
It sent보낸 chills오한 down my spine척추.
35
125450
2095
갑자기 오싹하는 느낌이 들었습니다.
02:20
It saw a horrible끔찍한, life-changing삶의 변화
and life-destroying생명 파괴 event행사
36
128983
4572
끔찍하고 인생을 뒤바꾸고
파괴할 수도 있는 사건을 보고
02:25
and thought it was something positive.
37
133579
2382
그것은 긍정적 장면이라고
생각했던 거죠.
02:27
I realized깨달은 that it recognized인정 된
the contrast대조,
38
135985
3441
저는 컴퓨터가 색채 대비와
02:31
the reds빨강, the yellows노랑,
39
139450
2699
빨강과 노랑을 보고는
02:34
and thought it was something
worth가치 remarkingremarking on positively전적으로.
40
142173
3078
긍정적으로 인지할만한 것이라고
생각했음을 깨달았습니다.
02:37
And part부품 of why it was doing this
41
145928
1615
그런 반응의 이유는
02:39
was because most가장
of the images이미지들 I had given주어진 it
42
147577
2945
여태 보여준 이미지들이
02:42
were positive images이미지들.
43
150546
1840
긍정적이었기 때문이죠.
02:44
That's because people
tend지키다 to share positive images이미지들
44
152903
3658
사람들은 좋은 순간의
사진들을 보여주죠.
02:48
when they talk about their그들의 experiences경험담.
45
156585
2190
자기 이야기를 할 때는 말이죠.
02:51
When was the last time
you saw a selfie셀카 at a funeral장례?
46
159267
2541
장례식에서 자신의 사진을
찍어본 적이 있으세요?
02:55
I realized깨달은 that,
as I worked일한 on improving개선 AIAI
47
163434
3095
전 인공지능(Al)과
일하면서 깨달았습니다.
02:58
task태스크 by task태스크, dataset데이터 세트 by dataset데이터 세트,
48
166553
3714
모든 작업과 정보 데이터마다
03:02
that I was creating창조 massive거대한 gaps틈새,
49
170291
2897
거대한 틈이 있었던 겁니다.
03:05
holes구멍 and blind블라인드 spots반점
in what it could understand알다.
50
173212
3999
컴퓨터는 허점과 사각지대 속에서
이해를 하고 있던 겁니다.
03:10
And while doing so,
51
178307
1334
그 와중에
03:11
I was encoding부호화 all kinds종류 of biases편향.
52
179665
2483
저는 편파적인 생각을
인식시키고 있던 겁니다.
03:15
Biases편견 that reflect비추다 a limited제한된 viewpoint견해,
53
183029
3318
제한된 생각을 가진
03:18
limited제한된 to a single단일 dataset데이터 세트 --
54
186371
2261
한가지 정보에만 국한된 선입관
03:21
biases편향 that can reflect비추다
human인간의 biases편향 found녹이다 in the data데이터,
55
189283
3858
데이터 속에 반영된 인간들의 편견
03:25
such이러한 as prejudice편견 and stereotyping고정 관념.
56
193165
3104
판에 박은 고정 관념
03:29
I thought back to the evolution진화
of the technology과학 기술
57
197554
3057
컴퓨터의 발전을 생각해보면
03:32
that brought가져온 me to where I was that day --
58
200635
2502
예전의 모습을 떠올리게 됩니다.
03:35
how the first color색깔 images이미지들
59
203966
2233
처음 색채의 이미지는
03:38
were calibrated보정 된 against반대
a white화이트 woman's여자의 skin피부,
60
206223
3048
백인 여자의 피부색에
맞추어 졌다는 사실을요.
03:41
meaning의미 that color색깔 photography사진술
was biased치우친 against반대 black검은 faces얼굴들.
61
209665
4145
사진의 색채가 흑인 여자의
얼굴색에는 편견으로 작용한다는 거죠.
03:46
And that same같은 bias바이어스, that same같은 blind블라인드 spot자리
62
214514
2925
바로 그 편견과 사각지대가
03:49
continued계속되는 well into the '90s.
63
217463
1867
90년대까지 계속되었습니다.
03:51
And the same같은 blind블라인드 spot자리
continues계속하다 even today오늘
64
219701
3154
그같은 헛점은 오늘날에도 존재합니다.
03:54
in how well we can recognize인정하다
different다른 people's사람들의 faces얼굴들
65
222879
3698
각각의 얼굴의 모양을 구별하는
03:58
in facial얼굴 마사지 recognition인식 technology과학 기술.
66
226601
2200
얼굴 인식 프로그램에도 존재합니다.
04:01
I though그래도 about the state상태 of the art미술
in research연구 today오늘,
67
229323
3143
오늘날의 최첨단의 연구를
생각해보았습니다.
04:04
where we tend지키다 to limit한도 our thinking생각
to one dataset데이터 세트 and one problem문제.
68
232490
4514
우리는 한가지 문제, 한가지 데이터 속에
생각을 제한합니다.
04:09
And that in doing so, we were creating창조
more blind블라인드 spots반점 and biases편향
69
237688
4881
그로 인해 헛점과 편견을
만들어 내는 것입니다.
04:14
that the AIAI could further더욱이 amplify더욱 상 세히 하다.
70
242593
2277
인공지능(AI)은 그 편견을
확대시킵니다.
04:17
I realized깨달은 then
that we had to think deeply깊이
71
245712
2079
우리는 깊게 이 문제를 생각해야합니다.
04:19
about how the technology과학 기술 we work on today오늘
looks외모 in five다섯 years연령, in 10 years연령.
72
247815
5519
오늘 우리가 연구하는 이 기술이
5년, 10년후엔 어떻게 변할까요?
04:25
Humans인간 evolve진화하다 slowly천천히,
with time to correct옳은 for issues문제
73
253990
3142
인간은 천천히 발전하면서
시간에 맞춰 문제를 해결합니다.
04:29
in the interaction상호 작용 of humans인간
and their그들의 environment환경.
74
257156
3534
다른 인간과 다른 환경과
상호 작용을 하면서요.
04:33
In contrast대조, artificial인공의 intelligence지성
is evolving진화하는 at an incredibly엄청나게 fast빠른 rate.
75
261276
5429
반면, 인공지능은 놀라운 속도로
빠르게 발전합니다.
04:39
And that means방법 that it really matters사안
76
267013
1773
정말 알아야 할 중요한 사실은
04:40
that we think about this
carefully면밀히 right now --
77
268810
2317
우리가 사각지대인 헛점까지도
04:44
that we reflect비추다 on our own개인적인 blind블라인드 spots반점,
78
272180
3008
인공지능에 반영하고 있다는 사실입니다.
04:47
our own개인적인 biases편향,
79
275212
2317
우리 자신의 편견을요.
04:49
and think about how that's informing유익한
the technology과학 기술 we're creating창조
80
277553
3857
우리가 만들어낸 기술이
어떻게 인식될 지를 생각하며
04:53
and discuss즐기며 먹다 what the technology과학 기술 of today오늘
will mean for tomorrow내일.
81
281434
3902
현재의 기술이 미래에 어떤 영향을
미칠 지를 생각해야 합니다.
04:58
CEOs최고 경영자 and scientists과학자들 have weighed무게를다는 in
on what they think
82
286593
3191
최고 경영자들과 과학자들은
신중히 고려하며
05:01
the artificial인공의 intelligence지성 technology과학 기술
of the future미래 will be.
83
289808
3325
인공지능이 미래에
어떻게 변할지를 말했습니다.
05:05
Stephen스티븐 Hawking호킹 warns경고하다 that
84
293157
1618
스티븐 호킹은 경고했죠.
05:06
"Artificial인공 intelligence지성
could end종료 mankind인류."
85
294799
3007
"인공 지능은 인류를 멸망시킬수 있다"
05:10
Elon엘론 Musk사향 warns경고하다
that it's an existential실존 적 risk위험
86
298307
2683
엘론 머스크는 인공 지능은
실존하는 위험이며
05:13
and one of the greatest가장 큰 risks위험
that we face얼굴 as a civilization문명.
87
301014
3574
문명사회로서 겪어야 할
가장 큰 위험이라고 했습니다.
05:17
Bill계산서 Gates게이츠 has made만든 the point포인트,
88
305665
1452
빌 게이츠는 역설했습니다.
05:19
"I don't understand알다
why people aren't있지 않다. more concerned우려하는."
89
307141
3185
"사람들이 왜 신경을 안 쓰는지
이해가 안됩니다."
05:23
But these viewsviews --
90
311412
1318
하지만 이런 견해들은
05:25
they're part부품 of the story이야기.
91
313618
1734
그저 이야기의 한 부분일 뿐입니다.
05:28
The math수학, the models모델,
92
316079
2420
수학과 모형같은
05:30
the basic기본 building건물 blocks블록들
of artificial인공의 intelligence지성
93
318523
3070
인공지능의 기초토대는
05:33
are something that we call access접속하다
and all work with.
94
321617
3135
우리가 모두 접근해서
입력해야하는 정보들입니다.
05:36
We have open-source오픈 소스 tools도구들
for machine기계 learning배우기 and intelligence지성
95
324776
3785
공개소스인 오픈소스를 통해
컴퓨터의 학습과 지능에
05:40
that we can contribute기여하다 to.
96
328585
1734
기여를 할 수 있는 것입니다.
05:42
And beyond...을 넘어서 that,
we can share our experience경험.
97
330919
3340
더 나아가 우리의 경험을
공유할 수도 있습니다.
05:46
We can share our experiences경험담
with technology과학 기술 and how it concerns우려 us
98
334760
3468
우리는 테크놀로지를 통하여
고민도 하고 기쁘게도 하는 경험을
05:50
and how it excites자극하다 us.
99
338252
1467
함께 나눌 수 있습니다.
05:52
We can discuss즐기며 먹다 what we love.
100
340251
1867
우리가 무엇을 좋아하는 지를 이야기하며
05:55
We can communicate소통하다 with foresight선견
101
343244
2031
앞날을 예측하며 의사소통을 합니다.
05:57
about the aspects상들 of technology과학 기술
that could be more beneficial유익한
102
345299
4857
테크놀로지가 인류에게
이득인지를 반문하고
06:02
or could be more problematic문제가있는 over time.
103
350180
2600
혹은 시간이 지남에 따라
해가 되는지도 토론하죠.
06:05
If we all focus초점 on opening열리는 up
the discussion토론 on AIAI
104
353799
4143
우리 모두가 인공지능에 대해
공개하고 토론하면서
06:09
with foresight선견 towards...쪽으로 the future미래,
105
357966
1809
미래를 관측한다면
06:13
this will help create몹시 떠들어 대다 a general일반
conversation대화 and awareness인식
106
361093
4270
그것은 전반적인 대화와
인식을 이끌어내서
06:17
about what AIAI is now,
107
365387
2513
인공지능이 무엇인지를 이해하게 되고
06:21
what it can become지다
108
369212
2001
미래의 모습도 추측할 수 있습니다.
06:23
and all the things that we need to do
109
371237
1785
그에 따라 무엇을
해야할 지도 알게 되죠.
06:25
in order주문 to enable가능하게하다 that outcome결과
that best베스트 suits양복들 us.
110
373046
3753
인류에게 최선이 될 결과를
만들게되는 거죠.
06:29
We already이미 see and know this
in the technology과학 기술 that we use today오늘.
111
377490
3674
현재의 테크놀로지 속에서도 우리는
이미 이 사실을 보고 있죠.
06:33
We use smart똑똑한 phones전화
and digital디지털 assistants비서 and RoombasRoombas.
112
381767
3880
예로 스마트폰, 디지탈 기기,
룸바[Roombas]로봇 등이 있죠.
06:38
Are they evil?
113
386457
1150
이들이 해로울까요?
06:40
Maybe sometimes때때로.
114
388268
1547
아마도 가끔은요.
06:42
Are they beneficial유익한?
115
390664
1333
이들이 도움이 될까요?
06:45
Yes, they're that, too.
116
393005
1533
네, 그렇죠.
06:48
And they're not all the same같은.
117
396236
1761
이들이 늘 똑같지는 않습니다.
06:50
And there you already이미 see
a light shining빛나는 on what the future미래 holds보류하다.
118
398489
3540
여러분은 이미 미래에 대한
신호를 보고 있는 겁니다.
06:54
The future미래 continues계속하다 on
from what we build짓다 and create몹시 떠들어 대다 right now.
119
402942
3619
미래는 현재를 어떻게 만드느냐에 따라
달라질 것입니다.
06:59
We set세트 into motion운동 that domino도미노 패 effect효과
120
407165
2642
도미노 효과가 일어나 듯 말입니다.
07:01
that carves조각하다 out AI's인공 지능의 evolutionary진화의 path통로.
121
409831
2600
그 효과는 인공지능의 발전에
영향을 줄 것입니다.
07:05
In our time right now,
we shape모양 the AIAI of tomorrow내일.
122
413173
2871
지금 우리의 시대는,
미래를 위한 인공지능의 기초입니다.
07:08
Technology과학 기술 that immerses몰두하다 us
in augmented증강 된 realities현실들
123
416566
3699
증강현실에 몰입하게 하는 기술은
07:12
bringing데려 오는 to life past과거 worlds세계.
124
420289
2566
세상을 뛰어넘어 생명을
불어넣어주는 기술이죠.
07:15
Technology과학 기술 that helps도움이된다. people
to share their그들의 experiences경험담
125
423844
4312
서로의 이야기를 나누기 위한 기술은
07:20
when they have difficulty어려움 communicating의사 소통.
126
428180
2262
의사소통의 어려움을 해결해주죠.
07:23
Technology과학 기술 built세워짐 on understanding이해
the streaming스트리밍 visual시각적 인 worlds세계
127
431323
4532
스트리밍으로 전송되는 영상세계를
만드는 기술은
07:27
used as technology과학 기술 for self-driving자가 운전 cars자동차.
128
435879
3079
자동운전 테크놀리지에 이용되죠.
07:32
Technology과학 기술 built세워짐 on understanding이해 images이미지들
and generating생성 language언어,
129
440490
3413
이미지와 언어생성을 목적으로
만들어진 기술은
07:35
evolving진화하는 into technology과학 기술 that helps도움이된다. people
who are visually시각적으로 impaired손상된
130
443927
4063
시각장애인들을 돕는
테크놀로지로 발전했죠.
07:40
be better able할 수 있는 to access접속하다 the visual시각적 인 world세계.
131
448014
2800
그들이 시각적으로 세상에
더 가까이 다가갈 수 있도록요.
07:42
And we also또한 see how technology과학 기술
can lead리드 to problems문제들.
132
450838
3261
하지만 테크놀로지는 문제를
야기하기도 합니다.
07:46
We have technology과학 기술 today오늘
133
454885
1428
오늘날 우리의 테크놀로지는
07:48
that analyzes복수 physical물리적 인
characteristics형질 we're born타고난 with --
134
456337
3835
우리의 선천적
신체적 특징을 분석합니다.
07:52
such이러한 as the color색깔 of our skin피부
or the look of our face얼굴 --
135
460196
3272
피부색이나 얼굴의 표정 등을요.
07:55
in order주문 to determine결정 whether인지 어떤지 or not
we might be criminals범죄자 or terrorists테러리스트.
136
463492
3804
범죄자인지 테러리스트인지를
구별할 수 있도록 하기 위해서죠.
07:59
We have technology과학 기술
that crunches위기 through...을 통하여 our data데이터,
137
467688
2905
우리는 정보 데이터를 통하여
수집하는 기술을 가지고 있습니다.
08:02
even data데이터 relating관련
to our gender성별 or our race경주,
138
470617
2896
성별 또는 인종과 관련되는 데이터는
08:05
in order주문 to determine결정 whether인지 어떤지 or not
we might get a loan차관.
139
473537
2865
빚을 지고 있는지 아닌지를
결정하는 기술이 되지도 하지요.
08:09
All that we see now
140
477494
1579
지금 보고 있는 모든 것은
08:11
is a snapshot스냅 사진 in the evolution진화
of artificial인공의 intelligence지성.
141
479097
3617
인공지능의 단편일 뿐입니다.
08:15
Because where we are right now,
142
483763
1778
왜냐하면 우리는 지금
08:17
is within이내에 a moment순간 of that evolution진화.
143
485565
2238
인공지능의 발전의 한 순간에
존재하고 있으니까요.
08:20
That means방법 that what we do now
will affect감정 what happens일이 down the line
144
488690
3802
즉 지금 우리가 무엇을 하는 가는
전적으로 영향을 끼칠테니까요.
08:24
and in the future미래.
145
492516
1200
우리의 미래에요.
08:26
If we want AIAI to evolve진화하다
in a way that helps도움이된다. humans인간,
146
494063
3951
인공지능이 인류를 도와주는
방향으로 발전시키고 싶다면
08:30
then we need to define밝히다
the goals목표 and strategies전략들
147
498038
2801
우리는 목적과 계획을
규정해야합니다.
08:32
that enable가능하게하다 that path통로 now.
148
500863
1733
그런 방향으로 갈 수 있도록요.
08:35
What I'd like to see is something
that fits맞다 well with humans인간,
149
503680
3738
인간에게 적합한 기술이기를 바랍니다.
08:39
with our culture문화 and with the environment환경.
150
507442
2800
문화와 환경이 담긴 기술.
08:43
Technology과학 기술 that aids에이즈 and assists어시스트
those of us with neurological신경학의 conditions정황
151
511435
4484
신경질환을 가진 사람들에게
도움이 되는 테크놀로지.
08:47
or other disabilities장애
152
515943
1721
다른 신체 장애인들도
08:49
in order주문 to make life
equally같이 challenging도전적인 for everyone각자 모두.
153
517688
3216
일반인처럼 동등하게
하루를 살아갈 수 있도록하는 기술.
08:54
Technology과학 기술 that works공장
154
522097
1421
테크놀로지가
08:55
regardless관계없이 of your demographics인구 통계
or the color색깔 of your skin피부.
155
523542
3933
인구통계나 피부색과 관련없이
실행되기를 바랍니다.
09:00
And so today오늘, what I focus초점 on
is the technology과학 기술 for tomorrow내일
156
528383
4742
제가 지금 연구하고 있는 일은
미래를 위한 테크놀로지입니다.
09:05
and for 10 years연령 from now.
157
533149
1733
지금부터 십년 후를 위한 거죠.
09:08
AIAI can turn회전 out in many많은 different다른 ways.
158
536530
2634
인공지능은 여러모습으로
만들어 질수 있습니다.
09:11
But in this case케이스,
159
539688
1225
하지만 지금은
09:12
it isn't a self-driving자가 운전 car
without없이 any destination목적지.
160
540937
3328
목적없이 스스로 작동하고 있는
위험한 자동차입니다.
09:16
This is the car that we are driving운전.
161
544884
2400
이 차는 우리가
운전해야 하는데 말입니다.
09:19
We choose고르다 when to speed속도 up
and when to slow느린 down.
162
547953
3595
언제 속도를 내고 언제 속도를 줄일지는
우리가 정해야 합니다.
09:23
We choose고르다 if we need to make a turn회전.
163
551572
2400
차의 진행 방향도
우리가 정해야 합니다.
09:26
We choose고르다 what the AIAI
of the future미래 will be.
164
554868
3000
우리는 인공지능의 미래의 모습을
정해야 합니다.
09:31
There's a vast거대한 playing연주하다 field
165
559186
1337
거대한 컴퓨터의 장이
09:32
of all the things that artificial인공의
intelligence지성 can become지다.
166
560547
2965
인공지능의 변화를 기다리고 있습니다.
09:36
It will become지다 many많은 things.
167
564064
1800
인공지능은 여러 모습이 될것이고
09:39
And it's up to us now,
168
567694
1732
그것은 우리 모두에게 달려있습니다.
09:41
in order주문 to figure그림 out
what we need to put in place장소
169
569450
3061
무엇이 적절히 실행되어야 하는지를 알고
09:44
to make sure the outcomes결과
of artificial인공의 intelligence지성
170
572535
3807
인공지능 발전의 결과를
확실히 하는 것은
09:48
are the ones그들 that will be
better for all of us.
171
576366
3066
우리 모두에게 최상이 될 것입니다.
09:51
Thank you.
172
579456
1150
감사합니다.
09:52
(Applause박수 갈채)
173
580630
2187
(박수)
Translated by Jeannie Yoo
Reviewed by Kim Sojeong Sue

▲Back to top

ABOUT THE SPEAKER
Margaret Mitchell - AI research scientist
Margaret Mitchell is a senior research scientist in Google's Research & Machine Intelligence group, working on artificial intelligence.

Why you should listen

Margaret Mitchell's research involves vision-language and grounded language generation, focusing on how to evolve artificial intelligence towards positive goals. Her work combines computer vision, natural language processing, social media as well as many statistical methods and insights from cognitive science. Before Google, Mitchell was a founding member of Microsoft Research's "Cognition" group, focused on advancing artificial intelligence, and a researcher in Microsoft Research's Natural Language Processing group.

More profile about the speaker
Margaret Mitchell | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee