ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.

Why you should listen

We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.

Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.

Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.

More profile about the speaker
Zeynep Tufekci | Speaker | TED.com
TEDSummit

Zeynep Tufekci: Machine intelligence makes human morals more important

제이넵 투펙치(Zeynep Tufekci): 인공지능 시대에 더 중요해진 인간 윤리

Filmed:
1,648,711 views

인공지능의 시대에 우리는 이미 주관적인 결정에까지 인공지능을 사용하고 있습니다. 하지만 인공지능이 성장하고 발달하는 방식의 복잡함은 이를 통제함은 물론이고 이해하는 것조차 어렵게 합니다. 이 강연에서 기술사회학자 제이넵 투펙치는 지능을 가진 기계가 어떻게 인간과 달리 예상하거나 대비할 수 없는 방식으로 실패할 수 있는지 경고합니다. 그녀는 "우리는 책임을 기계에게 떠넘길 수 없습니다. 인간의 가치와 윤리를 더욱 깊이 반영해야 합니다."라고 주장합니다.
- Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread. Full bio

Double-click the English transcript below to play the video.

00:12
So, I started시작한 my first job
as a computer컴퓨터 programmer프로그램 제작자
0
739
4122
저는 제 첫 번째 직업인
컴퓨터 프로그래머 일을
00:16
in my very first year of college칼리지 --
1
4885
1956
대학 1학년 때 시작했습니다.
00:18
basically원래, as a teenager십대.
2
6865
1507
아직 십대였죠.
00:20
Soon after I started시작한 working,
3
8889
1732
일을 시작한 지 얼마 안 되어
00:22
writing쓰기 software소프트웨어 in a company회사,
4
10645
1610
회사에서 프로그래밍을 하고 있는데
00:24
a manager매니저 who worked일한 at the company회사
came왔다 down to where I was,
5
12799
3635
회사의 한 관리자 제 자리로 와서는
00:28
and he whispered속삭였다 to me,
6
16458
1268
저한테 속삭였어요.
00:30
"Can he tell if I'm lying거짓말하는?"
7
18229
2861
"내가 거짓말하면 쟤가 알아챌까요?"
00:33
There was nobody아무도 else그밖에 in the room.
8
21806
2077
하지만 방에는 둘밖에 없었어요.
00:37
"Can who tell if you're lying거짓말하는?
And why are we whispering속삭이는?"
9
25032
4389
"누가 알아챈다는 거죠?
아무도 없는데 왜 속삭이시는 거예요?"
00:42
The manager매니저 pointed뾰족한
at the computer컴퓨터 in the room.
10
30266
3107
매니저는 방에 있는
컴퓨터를 가리켰어요.
00:45
"Can he tell if I'm lying거짓말하는?"
11
33397
3096
"저놈이 알아챌 수 있을까요?"
00:49
Well, that manager매니저 was having
an affair with the receptionist안내 원.
12
37613
4362
그 매니저는 회사 접수계
직원과 바람을 피우고 있었죠.
00:53
(Laughter웃음)
13
41999
1112
(웃음)
00:55
And I was still a teenager십대.
14
43135
1766
전 아직 십대였기에
00:57
So I whisper-shouted속삭이다 back to him,
15
45447
2019
그 사람 귀에 대고 소리쳤죠.
00:59
"Yes, the computer컴퓨터 can tell
if you're lying거짓말하는."
16
47490
3624
"네, 저 컴퓨터는 당신 부정을
알 수 있을 거예요."
01:03
(Laughter웃음)
17
51138
1806
(웃음)
01:04
Well, I laughed웃었다, but actually사실은,
the laugh's웃음 on me.
18
52968
2923
전 웃고 말았지만,
결국 제가 어리석었죠.
01:07
Nowadays현대, there are computational전산의 systems시스템
19
55915
3268
요즘 컴퓨터 시스템은
01:11
that can suss out
emotional정서적 인 states and even lying거짓말하는
20
59207
3548
감정 상태나, 심지어 거짓말까지
01:14
from processing가공 human인간의 faces얼굴들.
21
62779
2044
인간 표정으로 알아낼 수 있거든요.
01:17
Advertisers광고주 and even governments정부
are very interested관심있는.
22
65248
4153
광고 업체와 정부까지도
이 기술에 관심을 기울이고 있죠.
01:22
I had become지다 a computer컴퓨터 programmer프로그램 제작자
23
70319
1862
저는 어릴 때 수학과
과학을 매우 좋아해서
01:24
because I was one of those kids아이들
crazy미친 about math수학 and science과학.
24
72205
3113
자연스레 프로그래머가 되었습니다.
01:27
But somewhere어딘가에 along...을 따라서 the line
I'd learned배운 about nuclear핵무기 weapons무기,
25
75942
3108
그런데 언젠가 핵무기를 알게 되었을 때
01:31
and I'd gotten얻은 really concerned우려하는
with the ethics윤리학 of science과학.
26
79074
2952
저는 과학 윤리에 대해
괌심이 많아졌습니다.
01:34
I was troubled고생 한.
27
82050
1204
고민을 많이 했죠.
01:35
However하나, because of family가족 circumstances상황,
28
83278
2641
하지만 집안 사정 때문에
01:37
I also또한 needed필요한 to start스타트 working
as soon as possible가능한.
29
85943
3298
최대한 빨리 일을 해야 했죠.
01:41
So I thought to myself자기, hey,
let me pick선택 a technical전문인 field
30
89265
3299
그래서 과학기술 분야 중에서
01:44
where I can get a job easily용이하게
31
92588
1796
직업을 쉽게 가질 수 있으면서도
01:46
and where I don't have to deal거래
with any troublesome귀찮은 questions질문들 of ethics윤리학.
32
94408
4018
복잡한 윤리적 고민을 할 필요가
없는 일을 고르기로 했습니다.
01:51
So I picked뽑힌 computers컴퓨터들.
33
99022
1529
그래서 컴퓨터 관련된 일을 골랐죠.
01:52
(Laughter웃음)
34
100575
1104
(웃음)
01:53
Well, ha하아, ha하아, ha하아!
All the laughs웃음 are on me.
35
101703
3410
하하하! 그런데 또
어리석은 생각이었네요.
01:57
Nowadays현대, computer컴퓨터 scientists과학자들
are building건물 platforms플랫폼
36
105137
2754
요즘 컴퓨터 과학자들이
만드는 플랫폼은
01:59
that control제어 what a billion십억
people see every...마다 day.
37
107915
4209
십억 명이 매일 접하게 되는
시스템을 통제합니다.
02:05
They're developing개발 중 cars자동차
that could decide결정하다 who to run운영 over.
38
113052
3822
누굴 치게 될지도 모를 차를 개발하고
02:09
They're even building건물 machines기계들, weapons무기,
39
117707
3213
전쟁에서 사람을 죽일 수 있는
02:12
that might kill죽이다 human인간의 beings존재들 in war전쟁.
40
120944
2285
기계나 무기도 설계하고 있죠.
02:15
It's ethics윤리학 all the way down.
41
123253
2771
모두 윤리에 관한 거죠.
02:19
Machine기계 intelligence지성 is here.
42
127183
2058
인공지능의 시대입니다.
02:21
We're now using~을 사용하여 computation계산
to make all sort종류 of decisions결정들,
43
129823
3474
컴퓨터는 점점 다양한
의사결정에 사용되고 있고
02:25
but also또한 new새로운 kinds종류 of decisions결정들.
44
133321
1886
그 중엔 새로운 것도 있죠.
02:27
We're asking질문 questions질문들 to computation계산
that have no single단일 right answers답변,
45
135231
5172
주관적이고 가치 판단이 필요한
정답이 없는 열린 질문까지도
컴퓨터에게 묻고 있습니다.
02:32
that are subjective주걱
46
140427
1202
02:33
and open-ended개방형 and value-laden가치있는.
47
141653
2325
02:36
We're asking질문 questions질문들 like,
48
144002
1758
이를테면 이런 질문들이죠.
02:37
"Who should the company회사 hire고용?"
49
145784
1650
"누굴 채용해야 할까요?"
02:40
"Which어느 update최신 정보 from which어느 friend친구
should you be shown표시된?"
50
148096
2759
"어느 친구의 어떤 소식을
업데이트해야 할까요?
02:42
"Which어느 convict죄수 is more
likely아마도 to reoffend재계약하다?"
51
150879
2266
"어느 재소자가 재범
가능성이 더 높을까요?"
02:45
"Which어느 news뉴스 item or movie영화
should be recommended추천 된 to people?"
52
153514
3054
"어떤 뉴스 기사나 영화를
추천 목록에 넣을까요?"
02:48
Look, yes, we've우리는 been using~을 사용하여
computers컴퓨터들 for a while,
53
156592
3372
인간은 컴퓨터를 꽤 오래 사용했지만
02:51
but this is different다른.
54
159988
1517
이건 좀 다른 문제죠.
02:53
This is a historical역사적인 twist트위스트,
55
161529
2067
역사적 반전입니다.
02:55
because we cannot~ 할 수 없다. anchor computation계산
for such이러한 subjective주걱 decisions결정들
56
163620
5337
왜냐하면 그런 주관적인 결정까지
컴퓨터에 의지할 수는 없거든요.
03:00
the way we can anchor computation계산
for flying나는 airplanes비행기, building건물 bridges다리,
57
168981
5420
비행기 조종이나 다리를 짓거나
달에 가는 것과 다르죠.
03:06
going to the moon.
58
174425
1259
03:08
Are airplanes비행기 safer더 안전한?
Did the bridge다리 sway동요 and fall가을?
59
176449
3259
비행기가 안전할 것인가.
다리가 흔들리고 무너질 것인가.
03:11
There, we have agreed-upon합의,
fairly clear명확한 benchmarks벤치 마크,
60
179732
4498
이런 문제는 명확하고
모두가 동의할 만한 기준이 있고
03:16
and we have laws법률 of nature자연 to guide안내서 us.
61
184254
2239
자연법칙에 따라 판단하면 되죠.
03:18
We have no such이러한 anchors앵커 and benchmarks벤치 마크
62
186517
3394
하지만 인간 사회의
일을 판단하는 데에는
03:21
for decisions결정들 in messy어질러 놓은 human인간의 affairs사무.
63
189935
3963
그런 기준이 존재하지 않습니다.
03:25
To make things more complicated복잡한,
our software소프트웨어 is getting점점 more powerful강한,
64
193922
4237
더욱이 요즘 소프트웨어는
점점 더 강력해지고 있지만
03:30
but it's also또한 getting점점 less적게
transparent투명한 and more complex복잡한.
65
198183
3773
동시에 더욱 불투명해지고
이해하기 힘들어지고 있습니다.
03:34
Recently요새, in the past과거 decade로사리오 염주,
66
202542
2040
지난 십 년 동안
03:36
complex복잡한 algorithms알고리즘
have made만든 great strides걸음 걸이.
67
204606
2729
복합 알고리즘에는
굉장한 진전이 있었죠.
03:39
They can recognize인정하다 human인간의 faces얼굴들.
68
207359
1990
사람 얼굴을 인식할 수 있고
03:41
They can decipher풀다 handwriting필적.
69
209985
2055
손글씨도 읽어내며
03:44
They can detect탐지하다 credit신용 card카드 fraud사기
70
212436
2066
신용카드 사기를 간파하고
03:46
and block블록 spam스팸
71
214526
1189
스팸을 막고
03:47
and they can translate옮기다 between중에서 languages언어.
72
215739
2037
번역도 할 수 있어요.
03:49
They can detect탐지하다 tumors종양 in medical의료 imaging이미징.
73
217800
2574
영상 의료 사진에서
종양을 식별할 수 있고
03:52
They can beat박자 humans인간 in chess체스 and Go.
74
220398
2205
인간과 체스나 바둑을 두어
이길 수 있습니다.
03:55
Much of this progress진행 comes온다
from a method방법 called전화 한 "machine기계 learning배우기."
75
223264
4504
이 진전에는 '기계 학습'이라는
기법의 공이 큽니다.
04:00
Machine기계 learning배우기 is different다른
than traditional전통적인 programming프로그램 작성,
76
228175
3187
기계 학습은 기존의
프로그래밍과는 다릅니다.
04:03
where you give the computer컴퓨터
detailed상세한, exact정확한, painstaking애씀 instructions명령.
77
231386
3585
기존에는 컴퓨터에게 명확하고
자세한 지시를 내려야 했죠.
04:07
It's more like you take the system체계
and you feed먹이 it lots of data데이터,
78
235378
4182
이제는 시스템을 만든 뒤에
대량의 데이터를 입력합니다.
04:11
including포함 unstructured구조되지 않은 data데이터,
79
239584
1656
우리의 디지털 시대에 생성된
04:13
like the kind종류 we generate일으키다
in our digital디지털 lives.
80
241264
2278
구조화되지 않은 데이터들까지
포함해서 말이죠.
04:15
And the system체계 learns배우다
by churning휘젓다 through...을 통하여 this data데이터.
81
243566
2730
시스템은 이 데이터를
헤쳐나가면서 학습합니다.
04:18
And also또한, crucially결정적으로,
82
246669
1526
또 중요한 사실이 있는데
04:20
these systems시스템 don't operate조작하다
under아래에 a single-answer단일 대답 logic논리.
83
248219
4380
이 시스템은 정답을 단정짓는
논리로 작동하지 않습니다.
04:24
They don't produce생기게 하다 a simple단순한 answer대답;
it's more probabilistic확률 론적:
84
252623
2959
확정적인 정답을 내기보다는
확률적 결론을 내리죠.
04:27
"This one is probably아마 more like
what you're looking for."
85
255606
3483
"이게 당신이 찾던 결과일
가능성이 높습니다."라고요.
04:32
Now, the upside is:
this method방법 is really powerful강한.
86
260023
3070
장점은 이 방식이
정말 강력하다는 겁니다.
04:35
The head머리 of Google'sGoogle의 AIAI systems시스템 called전화 한 it,
87
263117
2076
구글의 인공지능 시스템
책임자는 이를 두고
'정보의 과잉 효율성'이라고 표현했죠.
04:37
"the unreasonable무모한 effectiveness유효성 of data데이터."
88
265217
2197
04:39
The downside단점 is,
89
267791
1353
단점은
04:41
we don't really understand알다
what the system체계 learned배운.
90
269738
3071
그 시스템이 무엇을 배웠는지
우리는 알 수 없다는 겁니다.
04:44
In fact, that's its power.
91
272833
1587
사실 장점이기도 하죠.
04:46
This is less적게 like giving주는
instructions명령 to a computer컴퓨터;
92
274946
3798
컴퓨터에 명령을 내린다기 보다
04:51
it's more like training훈련
a puppy-machine-creature강아지 기계 창조물
93
279200
4064
우리가 이해하거나 통제하지
못하는 강아지 같은 기계를
04:55
we don't really understand알다 or control제어.
94
283288
2371
훈련시키는 거라고 할 수 있죠.
04:58
So this is our problem문제.
95
286362
1551
그런데 문제가 있어요.
05:00
It's a problem문제 when this artificial인공의
intelligence지성 system체계 gets도착 things wrong잘못된.
96
288427
4262
이 인공지능이 잘못된 것을
학습할 때 문제가 발생하죠.
05:04
It's also또한 a problem문제
when it gets도착 things right,
97
292713
3540
그리고 잘 학습했어도 문제가 됩니다.
05:08
because we don't even know which어느 is which어느
when it's a subjective주걱 problem문제.
98
296277
3628
왜냐하면 주관적인 문제에서는
뭐가 뭔지도 모르니까요.
무슨 생각으로 이런 판단을
했는지 알 수가 없는 거죠.
05:11
We don't know what this thing is thinking생각.
99
299929
2339
05:15
So, consider중히 여기다 a hiring고용 algorithm연산 --
100
303493
3683
채용 알고리즘을 생각해 보세요.
05:20
a system체계 used to hire고용 people,
using~을 사용하여 machine-learning기계 학습 systems시스템.
101
308123
4311
사람을 가려내는
기계 학습 시스템입니다.
05:25
Such이러한 a system체계 would have been trained훈련 된
on previous너무 이른 employees'직원 ' data데이터
102
313052
3579
이런 시스템은 이전 직원들 데이터를
바탕으로 훈련되었을 것이고
05:28
and instructed지시를받은 to find and hire고용
103
316655
2591
성과가 좋을 만한 직원들을
05:31
people like the existing기존의
high높은 performers공연자 in the company회사.
104
319270
3038
미리 찾아서 고용하려고 하겠죠.
05:34
Sounds소리 good.
105
322814
1153
괜찮아 보입니다.
05:35
I once일단 attended참석 한 a conference회의
106
323991
1999
저는 인사부와 임원들
05:38
that brought가져온 together함께
human인간의 resources자원 managers관리자 and executives경영진,
107
326014
3125
회사 고위직들이 한데 모인
그런 채용 시스템 도입을
05:41
high-level높은 레벨 people,
108
329163
1206
주제로 한 컨퍼런스에
참석한 적이 있습니다.
05:42
using~을 사용하여 such이러한 systems시스템 in hiring고용.
109
330393
1559
05:43
They were super감독자 excited흥분한.
110
331976
1646
그 분들은 정말 들떠 있었죠.
05:45
They thought that this would make hiring고용
more objective목표, less적게 biased치우친,
111
333646
4653
그들은 이 시스템이 편파적이지 않고
객관적인 채용을 가능케 하고
05:50
and give women여자들
and minorities소수 민족 a better shot
112
338323
3000
편견을 가진 인간 관리자보다
여성과 소수자에게
05:53
against반대 biased치우친 human인간의 managers관리자.
113
341347
2188
더 많은 기회를 주리라 기대했습니다.
05:55
And look -- human인간의 hiring고용 is biased치우친.
114
343559
2843
사람에 의한 고용은 편향됐죠.
05:59
I know.
115
347099
1185
저도 알아요.
06:00
I mean, in one of my early이른 jobs일자리
as a programmer프로그램 제작자,
116
348308
3005
프로그래머로서의 제 초기
직장 중 하나에서
06:03
my immediate즉시의 manager매니저 would sometimes때때로
come down to where I was
117
351337
3868
제 직속 상사는 가끔
제가 아침 일찍부터
06:07
really early이른 in the morning아침
or really late늦은 in the afternoon대낮,
118
355229
3753
밤 늦게까지 일하던 자리로 와서
06:11
and she'd흘리다 say, "Zeynep제 이프,
let's go to lunch점심!"
119
359006
3062
"제이넵, 점심 먹으러 갑시다"
라고 말했었어요.
06:14
I'd be puzzled어찌할 바를 모르는 by the weird기묘한 timing타이밍.
120
362724
2167
시계를 보고 의아해했죠.
06:16
It's 4pm오후. Lunch점심?
121
364915
2129
오후 4시에 점심이라니?
06:19
I was broke파산하다, so free비어 있는 lunch점심. I always went갔다.
122
367068
3094
전 돈이 없었으니
점심 사 준다니까 항상 갔죠.
06:22
I later후에 realized깨달은 what was happening사고.
123
370618
2067
나중에 무슨 이유인지 알게 되었어요.
06:24
My immediate즉시의 managers관리자
had not confessed고백 한 to their그들의 higher-ups상급
124
372709
4546
제 직속 상사는
그녀가 고용한 프로그래머가
06:29
that the programmer프로그램 제작자 they hired고용 된
for a serious진지한 job was a teen비탄 girl소녀
125
377279
3113
청바지에 운동화를 신고
일터에 오는 십대 학생이란 걸
06:32
who wore입었다 jeans청바지 and sneakers운동화 to work.
126
380416
3930
말하지 않았던 거죠.
06:37
I was doing a good job,
I just looked보았다 wrong잘못된
127
385174
2202
일은 잘 하고 있었지만
입은 옷과 나이와 성별이
06:39
and was the wrong잘못된 age나이 and gender성별.
128
387400
1699
'적절치 않았던' 거죠.
06:41
So hiring고용 in a gender-성별- and race-blind인종 차별 way
129
389123
3346
그래서 나이와 인종을
가리지 않은 채용은
06:44
certainly확실히 sounds소리 good to me.
130
392493
1865
저에게는 좋아 보입니다.
06:47
But with these systems시스템,
it is more complicated복잡한, and here's여기에 why:
131
395031
3341
하지만 이 시스템이 양날의
칼인 이유는 따로 있죠.
06:50
Currently현재, computational전산의 systems시스템
can infer미루다 all sorts종류 of things about you
132
398968
5791
현재 이런 시스템은 여러분이
공개하지 않은 개인 정보도
06:56
from your digital디지털 crumbs부스러기,
133
404783
1872
여러분이 남긴 정보 부스러기에서
추론할 수 있기 때문입니다.
06:58
even if you have not
disclosed공개 된 those things.
134
406679
2333
07:01
They can infer미루다 your sexual성적 orientation정위,
135
409506
2927
여러분의 성적 취향을 추측할 수 있고
07:04
your personality인격 traits형질,
136
412994
1306
성격 특성과
07:06
your political주재관 leanings사기.
137
414859
1373
정치 성향까지 추측하죠.
07:08
They have predictive예측적인 power
with high높은 levels수준 of accuracy정확성.
138
416830
3685
상당히 높은 수준의 적중률로요.
07:13
Remember생각해 내다 -- for things
you haven't~하지 않았다. even disclosed공개 된.
139
421362
2578
공개하지도 않은 정보를 알아냅니다.
07:15
This is inference추론.
140
423964
1591
추론한 것이죠.
07:17
I have a friend친구 who developed개발 된
such이러한 computational전산의 systems시스템
141
425579
3261
제 친구 하나가 SNS 자료를 통해
07:20
to predict예측하다 the likelihood있을 수 있는 일
of clinical객관적인 or postpartum산후 depression우울증
142
428864
3641
질병이나 산후 우울증 가능성을
예측하는 시스템을 개발했습니다.
07:24
from social사회적인 media미디어 data데이터.
143
432529
1416
07:26
The results결과들 are impressive인상적인.
144
434676
1427
결과는 인상적이었습니다.
07:28
Her system체계 can predict예측하다
the likelihood있을 수 있는 일 of depression우울증
145
436492
3357
그녀가 만든 시스템은
증상이 시작되기 몇 달 전에
07:31
months개월 before the onset습격 of any symptoms조짐 --
146
439873
3903
우울증 발생 가능성을
예측할 수 있었어요.
07:35
months개월 before.
147
443800
1373
몇 달 전에요.
07:37
No symptoms조짐, there's prediction예측.
148
445197
2246
증상도 없이 예측한 것이죠.
07:39
She hopes희망하다 it will be used
for early이른 intervention중재. Great!
149
447467
4812
그녀는 이게 우울증 예방에
사용될 거라 생각했어요. 좋은 일이죠?
07:44
But now put this in the context문맥 of hiring고용.
150
452911
2040
하지만 지금 그 기술은
채용 시스템에 적용되었습니다.
07:48
So at this human인간의 resources자원
managers관리자 conference회의,
151
456027
3046
저는 인사 담당자들이 모인
아까 그 학회에서
07:51
I approached접근하다 a high-level높은 레벨 manager매니저
in a very large company회사,
152
459097
4709
대기업의 고위직 관리자에게
다가가서 이렇게 말했습니다.
07:55
and I said to her, "Look,
what if, unbeknownst알지 못하는 to you,
153
463830
4578
"당신이 모르는 사이에 프로그램이
08:00
your system체계 is weeding제초 out people
with high높은 future미래 likelihood있을 수 있는 일 of depression우울증?
154
468432
6549
우울증 발병 가능성이 높은 사람들을
가려내고 있다면 어떻게 될까요?
08:07
They're not depressed우울한 now,
just maybe in the future미래, more likely아마도.
155
475761
3376
지금은 우울증이 없지만,
미래에 위험 가능성이 있죠.
08:11
What if it's weeding제초 out women여자들
more likely아마도 to be pregnant충만한
156
479923
3406
지금은 임신하지 않았지만
1,2년 내에 출산 휴가를 낼 만한
여성들을 미리 가려내고 있다면요?
08:15
in the next다음 것 year or two
but aren't있지 않다. pregnant충만한 now?
157
483353
2586
08:18
What if it's hiring고용 aggressive적극적인 people
because that's your workplace직장 culture문화?"
158
486844
5636
직장 문화에 적합하다는 이유로
공격적인 사람만을 고용한다면요?"
08:25
You can't tell this by looking
at gender성별 breakdowns고장.
159
493173
2691
이건 남녀 성비만으로는
판단할 수 없어요.
08:27
Those may할 수있다 be balanced균형이 잡힌.
160
495888
1502
성비는 이미 균형잡혀 있겠죠.
08:29
And since이후 this is machine기계 learning배우기,
not traditional전통적인 coding코딩,
161
497414
3557
그리고 전통적인 프로그래밍
방식이 아닌 기계 학습이기 때문에
08:32
there is no variable변하기 쉬운 there
labeled분류 된 "higher더 높은 risk위험 of depression우울증,"
162
500995
4907
'우울증 위험성 높음'이라는
변수명은 존재하지 않아요.
08:37
"higher더 높은 risk위험 of pregnancy임신,"
163
505926
1833
'임신 가능성 높음'
08:39
"aggressive적극적인 guy scale규모."
164
507783
1734
'남성 공격성 척도'도 없죠.
08:41
Not only do you not know
what your system체계 is selecting선택 on,
165
509995
3679
시스템이 어떤 기준으로
선택하는지 모르는 것은 물론
08:45
you don't even know
where to begin시작하다 to look.
166
513698
2323
어디부터 봐야 할지조차 모르는 거죠.
08:48
It's a black검은 box상자.
167
516045
1246
블랙박스입니다.
08:49
It has predictive예측적인 power,
but you don't understand알다 it.
168
517315
2807
그 예측 능력을 우리는 알지 못하죠.
08:52
"What safeguards보호 장치," I asked물었다, "do you have
169
520486
2369
그래서 제가 물었죠.
"블랙박스가 뭔가 이상한 짓을 못하도록
어떤 안전 장치를 마련하시겠어요?"
08:54
to make sure that your black검은 box상자
isn't doing something shady그늘진?"
170
522879
3673
09:00
She looked보았다 at me as if I had
just stepped계단을 밟은 on 10 puppy강아지 tails꼬리.
171
528863
3878
제가 엄청난 사건을 일으킨
것처럼 쳐다보더라고요.
09:04
(Laughter웃음)
172
532765
1248
(웃음)
09:06
She stared응시하다 at me and she said,
173
534037
2041
저를 빤히 쳐다보곤 이렇게 말하더군요.
09:08
"I don't want to hear듣다
another다른 word워드 about this."
174
536556
4333
"이것에 대해서는 더 이상
듣고 싶지 않네요."
09:13
And she turned돌린 around and walked걸었다 away.
175
541458
2034
그리고 돌아서서 가 버렸어요.
09:16
Mind마음 you -- she wasn't아니었다. rude거친.
176
544064
1486
그렇다고 무례했던 건 아니에요.
09:17
It was clearly분명히: what I don't know
isn't my problem문제, go away, death죽음 stare응시.
177
545574
6308
자기가 모르는 건 자기 문제가 아니니
신경쓰게 하지 말라는 경고였죠.
09:23
(Laughter웃음)
178
551906
1246
(웃음)
09:25
Look, such이러한 a system체계
may할 수있다 even be less적게 biased치우친
179
553862
3839
시스템은 인간 관리자와 달리
편견이 없을 수도 있어요.
09:29
than human인간의 managers관리자 in some ways.
180
557725
2103
09:31
And it could make monetary화폐의 sense감각.
181
559852
2146
인사 업무에 돈도 덜 써도 되겠죠.
09:34
But it could also또한 lead리드
182
562573
1650
하지만 이 시스템은
지속적이고 암묵적으로
09:36
to a steady확고한 but stealthy은밀한
shutting폐쇄 out of the job market시장
183
564247
4748
우울증 위험이 높은 사람들의
고용 기회를 박탈할 수 있습니다.
09:41
of people with higher더 높은 risk위험 of depression우울증.
184
569019
2293
09:43
Is this the kind종류 of society사회
we want to build짓다,
185
571753
2596
이해하지도 못하는 기계에게
의사결정을 맡기면서
09:46
without없이 even knowing we've우리는 done끝난 this,
186
574373
2285
09:48
because we turned돌린 decision-making의사 결정
to machines기계들 we don't totally전적으로 understand알다?
187
576682
3964
우리 모르게 기회를 박탈하는 게
바람직한 사회인가요?
09:53
Another다른 problem문제 is this:
188
581265
1458
또 다른 문제도 있습니다.
09:55
these systems시스템 are often자주 trained훈련 된
on data데이터 generated생성 된 by our actions행위,
189
583314
4452
이 시스템은 우리 인간의 행동방식이
만들어 낸 정보들로 학습을 합니다.
09:59
human인간의 imprints인쇄물.
190
587790
1816
인간이 남긴 흔적들이죠.
10:02
Well, they could just be
reflecting반영 our biases편향,
191
590188
3808
그러면 우리의 편견을
그대로 반영하게 되고
10:06
and these systems시스템
could be picking선발 up on our biases편향
192
594020
3593
시스템은 그 편견을 익히고 확대시켜
우리에게 결과로 보여주게 됩니다.
10:09
and amplifying증폭 them
193
597637
1313
10:10
and showing전시 them back to us,
194
598974
1418
우리는 그걸 합리화하죠.
10:12
while we're telling말함 ourselves우리 스스로,
195
600416
1462
"지금 객관적이고 공정한 계산
결과를 뽑는 중이야~" 라면서요.
10:13
"We're just doing objective목표,
neutral중립국 computation계산."
196
601902
3117
10:18
Researchers연구원 found녹이다 that on GoogleGoogle,
197
606314
2677
연구 결과에 따르면
구글 검색의 경우에는
10:22
women여자들 are less적게 likely아마도 than men남자
to be shown표시된 job ads광고들 for high-paying고수익 jobs일자리.
198
610134
5313
여성은 남성보다 고소득 구인
광고에 덜 노출된다고 합니다.
10:28
And searching수색 for African-American아프리카 계 미국인 names이름
199
616463
2530
그리고 흑인계 이름으로 검색해 보면
10:31
is more likely아마도 to bring가져오다 up ads광고들
suggesting제안하는 criminal범죄자 history역사,
200
619017
4706
범죄 전과를 시사하는 광고가
더 많이 나온다고 해요.
10:35
even when there is none없음.
201
623747
1567
전과가 없는데도 말이죠.
10:38
Such이러한 hidden숨겨진 biases편향
and black-box블랙 박스 algorithms알고리즘
202
626693
3549
이런 암묵적 편견과
블랙박스 속 알고리즘은
10:42
that researchers연구원 uncover폭로하다 sometimes때때로
but sometimes때때로 we don't know,
203
630266
3973
연구자들이 모두 밝혀낼 수 없어
우리도 모르는 사이에
10:46
can have life-altering인생을 바꾸는 consequences결과.
204
634263
2661
개인의 삶에 영향을 미칠 수 있죠.
10:49
In Wisconsin위스콘신, a defendant피고
was sentenced선고를받은 to six years연령 in prison감옥
205
637958
4159
위스콘신에서는 어느 피고인이
경찰 수사를 거부한 죄로
10:54
for evading회피하는 the police경찰.
206
642141
1355
6년형을 선고받았습니다.
10:56
You may할 수있다 not know this,
207
644824
1186
알고 계실지 모르겠지만
10:58
but algorithms알고리즘 are increasingly더욱 더 used
in parole맹세 and sentencing양형 decisions결정들.
208
646034
3998
알고리즘이 가석방과 형량 판결에
점점 더 많이 사용되고 있습니다.
11:02
He wanted to know:
How is this score점수 calculated계획된?
209
650056
2955
그는 대체 그런 결정이
어떻게 나오는지 알고 싶었죠.
11:05
It's a commercial상업적 black검은 box상자.
210
653795
1665
그건 상업적인 블랙박스였고
11:07
The company회사 refused거절 한 to have its algorithm연산
be challenged도전 한 in open열다 court법정.
211
655484
4205
개발사는 알고리즘이 법정에서
심판받는 것을 거부했죠.
11:12
But ProPublica프로 공공, an investigative조사의
nonprofit비영리 단체, audited감사 한 that very algorithm연산
212
660396
5532
하지만 ProPublica라는
비영리 수사 기구가
각종 데이터로 그 알고리즘을 검사했고
11:17
with what public공공의 data데이터 they could find,
213
665952
2016
11:19
and found녹이다 that its outcomes결과 were biased치우친
214
667992
2316
밝혀진 사실은 그 알고리즘 예측 성능이
우연과 별다르지 않은 수준이었으며
11:22
and its predictive예측적인 power
was dismal음침한, barely간신히 better than chance기회,
215
670332
3629
11:25
and it was wrongly잘못 labeling라벨링
black검은 defendants피고인 as future미래 criminals범죄자
216
673985
4416
흑인 피고를 잠재적 범죄자로
낙인찍는 확률이
11:30
at twice두번 the rate of white화이트 defendants피고인.
217
678425
3895
백인 피고에 비해 두 배나
높다는 것이었습니다.
11:35
So, consider중히 여기다 this case케이스:
218
683891
1564
다른 경우도 살펴 볼까요.
11:38
This woman여자 was late늦은
picking선발 up her godsister여동생
219
686103
3852
오른쪽 여성은 플로리다 브로워드
카운티의 학교에 다니는
11:41
from a school학교 in Broward브로 워드 County, Florida플로리다,
220
689979
2075
교회 동생을 데리러 갈
약속에 늦는 바람에
11:44
running달리는 down the street거리
with a friend친구 of hers그녀의.
221
692757
2356
친구와 함께 뛰어가고 있었죠.
11:47
They spotted더럽혀진 an unlocked잠겨 있지 않은 kid's아이의 bike자전거
and a scooter스쿠터 on a porch현관
222
695137
4099
그러다 어느 집 현관에 있던
자전거와 스쿠터를 발견하고는
11:51
and foolishly어리석은 jumped뛰어 올랐다 on it.
223
699260
1632
어리석게도 그걸 집어 탔어요.
그들이 속도를 내며 달아날 때
한 여자가 뛰어나와 소리쳤죠.
11:52
As they were speeding고속 진행 off,
a woman여자 came왔다 out and said,
224
700916
2599
11:55
"Hey! That's my kid's아이의 bike자전거!"
225
703539
2205
"우리 애 자전거로 뭐 하는 거야!"
11:57
They dropped떨어 뜨린 it, they walked걸었다 away,
but they were arrested체포 된.
226
705768
3294
그들은 자전거를 버리고 걸어서
달아났지만 체포되었습니다.
12:01
She was wrong잘못된, she was foolish어리석은,
but she was also또한 just 18.
227
709086
3637
그들이 잘못했고, 어리석긴 했어요.
그런데 겨우 열여덟 살이었죠.
12:04
She had a couple of juvenile소년 misdemeanors경범죄.
228
712747
2544
그녀는 청소년 범죄
전과가 몇 건 있었죠.
12:07
Meanwhile그 동안에, that man had been arrested체포 된
for shoplifting좀도둑 in Home Depot정거장 --
229
715808
5185
한편, 이 남성은 마트에서 85달러어치
좀도둑질을 하다가 체포되었습니다.
12:13
85 dollars'불화' worth가치 of stuff물건,
a similar비슷한 petty자그마한 crime범죄.
230
721017
2924
비슷한 범죄죠.
12:16
But he had two prior사전의
armed무장 한 robbery강도 convictions신념.
231
724766
4559
하지만 그에게는 두 번의
무장강도 전과가 있었어요.
12:21
But the algorithm연산 scored득점 한 her
as high높은 risk위험, and not him.
232
729955
3482
그런데 알고리즘은 남자가 아니라
여자를 고위험군으로 분류했죠.
12:26
Two years연령 later후에, ProPublica프로 공공 found녹이다
that she had not reoffended재계약 한.
233
734746
3874
2년 뒤에
ProPublica가 조사해보니
여성은 재범하지 않았습니다.
12:30
It was just hard단단한 to get a job
for her with her record기록.
234
738644
2550
전과가 있었기에 취직이 어렵긴 했죠.
12:33
He, on the other hand, did reoffend재계약하다
235
741218
2076
반면 남자는 재범하였고
12:35
and is now serving피복재 an eight-year8 년
prison감옥 term기간 for a later후에 crime범죄.
236
743318
3836
그 이후 저지른 범죄로
현재 8년을 복역 중입니다.
12:40
Clearly분명히, we need to audit심사 our black검은 boxes상자들
237
748088
3369
우리는 블랙박스를 잘 검수해서
12:43
and not have them have
this kind종류 of unchecked체크되지 않은 power.
238
751481
2615
엉뚱한 권한을 갖지 않도록
분명히 해야 합니다.
12:46
(Applause박수 갈채)
239
754120
2879
(박수)
12:50
Audits감사 are great and important중대한,
but they don't solve풀다 all our problems문제들.
240
758087
4242
검수는 중요하고 또 유효하지만
모든 문제를 해결하진 못합니다.
12:54
Take Facebook's페이스 북의 powerful강한
news뉴스 feed먹이 algorithm연산 --
241
762353
2748
페이스북의 강력한 뉴스 피드
알고리즘을 살펴 보죠.
12:57
you know, the one that ranks계급 everything
and decides결정하다 what to show보여 주다 you
242
765125
4843
모든 것을 순위대로 나열하고
팔로우하는 모든 친구와 페이지에서
무엇을 보여 줄지를 결정하죠.
13:01
from all the friends친구 and pages페이지들 you follow따르다.
243
769992
2284
13:04
Should you be shown표시된 another다른 baby아가 picture그림?
244
772898
2275
아기 사진을 또 봐야 할까요?
13:07
(Laughter웃음)
245
775197
1196
(웃음)
13:08
A sullen음산한 note노트 from an acquaintance아는 사람?
246
776417
2596
아니면 지인의 삐진 듯한 글?
13:11
An important중대한 but difficult어려운 news뉴스 item?
247
779449
1856
어렵지만 중요한 뉴스 기사?
13:13
There's no right answer대답.
248
781329
1482
정답은 없습니다.
13:14
Facebook페이스 북 optimizes최적화하다
for engagement약혼 on the site대지:
249
782835
2659
알고리즘은 페이스북 활동에
최적화되어 있습니다.
13:17
likes좋아하는 사람, shares주식, comments의견.
250
785518
1415
좋아요, 공유, 댓글이죠.
13:20
In August팔월 of 2014,
251
788168
2696
2014년 8월에
13:22
protests시위 broke파산하다 out in Ferguson퍼거슨, Missouri미주리,
252
790888
2662
백인 경찰관이
범행이 불확실한 상황에서
13:25
after the killing죽이는 of an African-American아프리카 계 미국인
teenager십대 by a white화이트 police경찰 officer장교,
253
793574
4417
십대 흑인에게 발포하여 살해한
사건 후, 미주리 주 퍼거슨에서
13:30
under아래에 murky어두운 circumstances상황.
254
798015
1570
시위가 일어났습니다.
13:31
The news뉴스 of the protests시위 was all over
255
799974
2007
시위 뉴스는 알고리즘 필터가 없는
13:34
my algorithmically알고리즘 적으로
unfiltered여과되지 않은 Twitter지저귀다 feed먹이,
256
802005
2685
트위터 글목록에는 나타났지만
13:36
but nowhere아무데도 on my Facebook페이스 북.
257
804714
1950
페이스북에는 흔적이 없었습니다.
13:39
Was it my Facebook페이스 북 friends친구?
258
807182
1734
페이스북 친구 때문인가 생각하고
알고리즘을 해제해 보았습니다.
13:40
I disabled장애인 Facebook's페이스 북의 algorithm연산,
259
808940
2032
13:43
which어느 is hard단단한 because Facebook페이스 북
keeps유지하다 wanting이 없이 to make you
260
811472
2848
페이스북은 계속 알고리즘이 추천하는
글을 보여주려고 해서 좀 까다로웠죠.
13:46
come under아래에 the algorithm's알고리즘 control제어,
261
814344
2036
13:48
and saw that my friends친구
were talking말하는 about it.
262
816404
2238
친구들이 시위 이야기를
하지 않던 게 아니었습니다.
13:50
It's just that the algorithm연산
wasn't아니었다. showing전시 it to me.
263
818666
2509
알고리즘이 전달을
막고 있었던 겁니다.
13:53
I researched연구하다 this and found녹이다
this was a widespread펼친 problem문제.
264
821199
3042
전 이걸 조사하고는
광범위한 문제임을 알았습니다.
13:56
The story이야기 of Ferguson퍼거슨
wasn't아니었다. algorithm-friendly알고리즘 친화적 인.
265
824265
3813
퍼거슨 사건은 알고리즘이
선호할 만한 게 아니죠.
14:00
It's not "likable바람직한."
266
828102
1171
좋아요가 적습니다.
14:01
Who's누가 going to click딸깍 하는 소리 on "like?"
267
829297
1552
댓글 남기기도 껄끄러운데
14:03
It's not even easy쉬운 to comment논평 on.
268
831500
2206
누가 좋아요를 누르겠어요?
14:05
Without없이 likes좋아하는 사람 and comments의견,
269
833730
1371
좋아요와 댓글이 적어서
14:07
the algorithm연산 was likely아마도 showing전시 it
to even fewer적은 people,
270
835125
3292
알고리즘이 더 보여주고
싶지 않아했고
14:10
so we didn't get to see this.
271
838441
1542
결국 우리가 보지 못한 겁니다.
14:12
Instead대신, that week,
272
840946
1228
대신 그 주에 페이스북
알고리즘이 선호한 것은
14:14
Facebook's페이스 북의 algorithm연산 highlighted강조 표시된 this,
273
842198
2298
14:16
which어느 is the ALSALS Ice얼음 Bucket버킷 Challenge도전.
274
844520
2226
루게릭 병 모금을 위한
아이스 버킷 챌린지였습니다.
14:18
Worthy가치 있는 cause원인; dump덤프 ice얼음 water,
donate기부하다 to charity자선, fine.
275
846770
3742
얼음물 세례를 맞고 기부를
한다는 취지 자체는 괜찮죠.
14:22
But it was super감독자 algorithm-friendly알고리즘 친화적 인.
276
850536
1904
하지만 알고리즘이 과하게
좋아할 만한 것이었습니다.
14:25
The machine기계 made만든 this decision결정 for us.
277
853219
2613
기계가 결정을 내려 버린 거죠.
14:27
A very important중대한
but difficult어려운 conversation대화
278
855856
3497
페이스북이 유일한 소통 창구였다면
14:31
might have been smothered얼린,
279
859377
1555
중요하지만 까다로운
쟁점이 묻힐 뻔했습니다.
14:32
had Facebook페이스 북 been the only channel채널.
280
860956
2696
14:36
Now, finally마침내, these systems시스템
can also또한 be wrong잘못된
281
864117
3797
마지막으로, 이 시스템은
인간과는 다른 방식으로
14:39
in ways that don't resemble닮은 human인간의 systems시스템.
282
867938
2736
오류를 범할 수 있습니다.
14:42
Do you guys remember생각해 내다 Watson왓슨,
IBM'sIBM machine-intelligence기계 지능 system체계
283
870698
2922
퀴즈 프로그램에서 인간 참가자를
누르고 우승을 차지한
14:45
that wiped닦아 낸 the floor바닥
with human인간의 contestants참가자 on Jeopardy위험?
284
873644
3128
IBM의 인공지능 왓슨을 기억하시나요?
14:49
It was a great player플레이어.
285
877131
1428
대단한 실력이었죠.
14:50
But then, for Final결정적인 Jeopardy위험,
Watson왓슨 was asked물었다 this question문제:
286
878583
3569
하지만 왓슨이 맞이한
마지막 문제를 보시면
14:54
"Its largest가장 큰 airport공항 is named명명 된
for a World세계 War전쟁 IIII hero영웅,
287
882659
2932
"이 도시 최대 공항 이름은
2차 대전 영웅을,
두 번째로 큰 공항은
2차 대전 전투를 따서 지어졌다.
14:57
its second-largest두번 째로 큰
for a World세계 War전쟁 IIII battle전투."
288
885615
2252
14:59
(Hums Final결정적인 Jeopardy위험 music음악)
289
887891
1378
(Jeopardy 대기 음악)
15:01
Chicago시카고.
290
889582
1182
답은 시카고죠.
15:02
The two humans인간 got it right.
291
890788
1370
인간 참가자는 모두 맞췄습니다.
15:04
Watson왓슨, on the other hand,
answered대답했다 "Toronto토론토" --
292
892697
4348
하지만 왓슨은 '토론토'라고 썼죠.
15:09
for a US city시티 category범주!
293
897069
1818
주제가 미국 도시였는데도 말이죠.
15:11
The impressive인상적인 system체계 also또한 made만든 an error오류
294
899596
2901
또한 이 뛰어난 시스템은
15:14
that a human인간의 would never make,
a second-grader2 학년 wouldn't~ 않을거야. make.
295
902521
3651
초등학교 2학년생도
하지 않을 실수를 저질렀죠.
15:18
Our machine기계 intelligence지성 can fail실패
296
906823
3109
인공지능은 인간의 오류와는
다른 방식으로 오작동할 수 있고
15:21
in ways that don't fit적당한
error오류 patterns패턴들 of humans인간,
297
909956
3100
15:25
in ways we won't습관 expect배고 있다
and be prepared준비된 for.
298
913080
2950
그래서 우리가 예상하거나
대비하기 어렵습니다.
15:28
It'd그것은 be lousy듬뿍 있는 not to get a job
one is qualified자격 있는 for,
299
916054
3638
능력에 맞는 직업을 갖지
못한다면 기분 나쁠 거예요.
15:31
but it would triple삼루타 suck빨다
if it was because of stack스택 overflow과다
300
919716
3727
그런데 그 이유가 프로그램 함수의
과부하 오류 때문이라면
15:35
in some subroutine서브 루틴.
301
923467
1432
몇 배는 더 기분 나쁘겠죠.
15:36
(Laughter웃음)
302
924923
1579
(웃음)
15:38
In May할 수있다 of 2010,
303
926526
2786
2010년 5월에
15:41
a flash플래시 crash추락 on Wall Street거리
fueled연료가 공급 된 by a feedback피드백 loop고리
304
929336
4044
월가의 매도 알고리즘의 피드백
반복문 오류로 주가가 폭락했고
15:45
in Wall Street's시가 "sell팔다" algorithm연산
305
933404
3028
15:48
wiped닦아 낸 a trillion일조 dollars불화
of value in 36 minutes의사록.
306
936456
4184
36분 만에 1조 달러어치의
가치가 사라진 일이 있었죠.
15:53
I don't even want to think
what "error오류" means방법
307
941722
2187
살상 무기의 경우에 '오류'가
일어나면 어떻게 될지
15:55
in the context문맥 of lethal치명적인
autonomous자발적인 weapons무기.
308
943933
3589
생각하고 싶지도 않습니다.
16:01
So yes, humans인간 have always made만든 biases편향.
309
949894
3790
인간의 결정에는 결함이 많죠.
16:05
Decision결정 makers제조사 and gatekeepers게이트 키퍼,
310
953708
2176
의사결정과 보안
16:07
in courts법원, in news뉴스, in war전쟁 ...
311
955908
3493
법정, 언론, 전쟁에서
16:11
they make mistakes실수;
but that's exactly정확하게 my point포인트.
312
959425
3038
모두 실수가 일어나지만
저는 그래야 한다고 생각합니다.
16:14
We cannot~ 할 수 없다. escape탈출
these difficult어려운 questions질문들.
313
962487
3521
우리는 어려운 문제를
피할 수 없습니다.
16:18
We cannot~ 할 수 없다. outsource외주
our responsibilities책임 to machines기계들.
314
966596
3516
기계에게 책임을 떠넘겨서는 안 됩니다.
16:22
(Applause박수 갈채)
315
970676
4208
(박수)
16:29
Artificial인공 intelligence지성 does not give us
a "Get out of ethics윤리학 free비어 있는" card카드.
316
977089
4447
인공지능이 '윤리적 문제의
면죄부'를 주지는 않습니다.
16:34
Data데이터 scientist과학자 Fred프레드 Benenson벤슨
calls전화 this math-washing수학 세탁.
317
982742
3381
데이터 과학자인 프레드 베넨슨은
이를 두고 '논리 세탁'이라 표현했죠.
16:38
We need the opposite반대말.
318
986147
1389
정반대 태도가 필요합니다.
16:39
We need to cultivate기르다 algorithm연산 suspicion의혹,
scrutiny정밀한 조사 and investigation조사.
319
987560
5388
알고리즘을 의심하고 조사하고
검수하는 능력을 길러야 합니다.
16:45
We need to make sure we have
algorithmic알고리즘의 accountability책임,
320
993380
3198
알고리즘에 대한 회계와 감사
그리고 투명성 제고 방법을
16:48
auditing감사 and meaningful의미있는 transparency투명도.
321
996602
2445
구축해야 합니다.
16:51
We need to accept받아 들인다
that bringing데려 오는 math수학 and computation계산
322
999380
3234
인간 사회의 가치 판단 문제에
수학과 컴퓨터를 도입한다고 해서
16:54
to messy어질러 놓은, value-laden가치있는 human인간의 affairs사무
323
1002638
2970
객관적인 일이 되지는 않는다는 걸
16:57
does not bring가져오다 objectivity객관성;
324
1005632
2384
받아들여야 합니다.
17:00
rather차라리, the complexity복잡성 of human인간의 affairs사무
invades침략하다 the algorithms알고리즘.
325
1008040
3633
오히려 인간 문제의 복잡성이
알고리즘을 주관적으로 만들죠.
17:04
Yes, we can and we should use computation계산
326
1012148
3487
물론 더 나은 의사결정을 위해서라면
컴퓨터를 이용할 수도 있을 겁니다.
17:07
to help us make better decisions결정들.
327
1015659
2014
17:09
But we have to own개인적인 up
to our moral사기 responsibility책임 to judgment심판,
328
1017697
5332
하지만 우리 판단의 도덕적 책임은
우리 스스로가 짊어져야 합니다.
17:15
and use algorithms알고리즘 within이내에 that framework뼈대,
329
1023053
2818
알고리즘은 그 틀 안에서만
이용되어야 할 뿐이고
17:17
not as a means방법 to abdicate버리다
and outsource외주 our responsibilities책임
330
1025895
4935
우리의 도덕적 책임을 다른 쪽에
전가하는 수단이 되어서는 안되죠.
17:22
to one another다른 as human인간의 to human인간의.
331
1030854
2454
17:25
Machine기계 intelligence지성 is here.
332
1033807
2609
인공지능의 시대에는
17:28
That means방법 we must절대로 필요한 것 hold보류 on ever tighter더 단단한
333
1036440
3421
인간 가치와 윤리가
17:31
to human인간의 values and human인간의 ethics윤리학.
334
1039885
2147
더욱더 중요합니다.
17:34
Thank you.
335
1042056
1154
감사합니다.
17:35
(Applause박수 갈채)
336
1043234
5020
(박수)
Translated by Jeongmin Kim
Reviewed by JY Kang

▲Back to top

ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.

Why you should listen

We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.

Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.

Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.

More profile about the speaker
Zeynep Tufekci | Speaker | TED.com