ABOUT THE SPEAKER
Andreas Ekström - Author and journalist
Andreas Ekström describes the power structures of the digital revolution.

Why you should listen

Andreas Ekström is staff writer at Sydsvenskan, a daily morning paper in Malmö, Sweden.

His passion is educating for digital equality, and he has a vision for a world in which we share the wealth -- not only financially, but also in terms of knowledge and power. Andreas is the author of six books, a columnist and a commentator, and he often lectures and leads seminars on the digital revolution.

More profile about the speaker
Andreas Ekström | Speaker | TED.com
TEDxOslo

Andreas Ekström: The moral bias behind your search results

안드레아스 엑스트룀(Andreas Ekström): 검색 결과 이면의 도덕적 편향

Filmed:
1,550,129 views

검색 엔진은 이제 가장 신뢰도가 높은 정보의 원천이자 진실의 심판자가 되었습니다. 하지만 편파적이지 않은 검색 결과를 얻는 것이 가능할까요? 스웨덴 작가이자 기자인 안드레아스 엑스트룀은 이것이 철학적으로 불가능하다고 주장합니다. 이 깊이있는 강연을 통해 그는 인간과 기술 간의 유대를 더 공고히하는 것을 촉구하고, 모든 알고리즘 뒤에는 그 어떤 코드도 완전히 말살시키지 못하는 개인적 신념이 존재한다는 것을 일깨워줍니다.
- Author and journalist
Andreas Ekström describes the power structures of the digital revolution. Full bio

Double-click the English transcript below to play the video.

00:13
So whenever할때는 언제나 I visit방문 a school학교
and talk to students재학생,
0
1087
2493
저는 학교에서 학생들에게
강연할 때마다
00:15
I always ask청하다 them the same같은 thing:
1
3604
2143
항상 똑같은 것을 묻습니다.
00:18
Why do you GoogleGoogle?
2
6754
1434
왜 구글을 쓰니?
00:20
Why is GoogleGoogle the search수색 engine엔진
of choice선택 for you?
3
8624
3397
왜 검색엔진으로 구글을 선택했니?
00:24
Strangely이상하게 enough충분히, I always get
the same같은 three answers답변.
4
12855
2552
신기하게도, 항상 답은
세 개로 똑같습니다.
00:27
One, "Because it works공장,"
5
15431
2039
첫 번째는 "잘 되니까요."입니다.
00:29
which어느 is a great answer대답;
that's why I GoogleGoogle, too.
6
17494
2906
훌륭한 대답이죠.
저도 그래서 구글을 씁니다.
00:32
Two, somebody어떤 사람 will say,
7
20424
2033
두 번째로 어떤 이들은
이렇게 말합니다.
00:34
"I really don't know of any alternatives대안들."
8
22481
2640
"다른 건 뭐가 있는지 잘 몰라요."
00:37
It's not an equally같이 great answer대답
and my reply댓글 to that is usually보통,
9
25708
3128
첫 번째 대답만큼 좋진 않지만
이에 대한 제 대답은 주로 이렇습니다.
00:40
"Try to GoogleGoogle the word워드 'search'수색 engine엔진,'
10
28860
1921
"''검색엔진'을 구글에 쳐 봐.
00:42
you may할 수있다 find a couple
of interesting재미있는 alternatives대안들."
11
30805
2402
괜찮은 사이트를
한 두 개 찾을 수도 있어."
00:45
And last but not least가장 작은, thirdly세 번째로,
12
33231
2095
마지막으로, 세 번째 대답으로는
00:47
inevitably필연적으로, one student학생 will raise증가
her or his hand and say,
13
35350
3310
꼭 한 명의 학생이 손을 들고
이렇게 말합니다.
00:50
"With GoogleGoogle, I'm certain어떤 to always get
the best베스트, unbiased편견없는 search수색 result결과."
14
38684
5183
"구글은 언제나 편향되지 않은
최고의 검색결과를 가져다 주니까요."
00:57
Certain어떤 to always get the best베스트,
unbiased편견없는 search수색 result결과.
15
45157
6506
언제나 편향되지 않은 최고의
검색결과를 가져다 준다고요.
01:05
Now, as a man of the humanities인문학,
16
53091
2390
인류의 한 사람으로서
01:07
albeit그러나 a digital디지털 humanities인문학 man,
17
55505
2181
디지털 인류의 사람일지라도.
01:09
that just makes~을 만든다 my skin피부 curl,
18
57710
1738
소름이 돋게 만드는 말입니다.
01:11
even if I, too, realize깨닫다 that that trust믿음,
that idea생각 of the unbiased편견없는 search수색 result결과
19
59472
4886
비편파적 검색결과에 대한
신뢰와 생각이 우리의
01:16
is a cornerstone기초 in our collective집단적 love
for and appreciation감사 of GoogleGoogle.
20
64382
3855
구글에 대한 집단적 사랑과 감사의
초석이라는 것을 저도 알지만 말이죠.
01:20
I will show보여 주다 you why that, philosophically철학적으로,
is almost거의 an impossibility불가능.
21
68658
4258
제가 왜 이것이 철학적으로
거의 불가능한지 보여드리겠습니다.
01:24
But let me first elaborate정교한,
just a little bit비트, on a basic기본 principle원리
22
72940
3254
하지만 먼저 모든 검색어 이면의
우리가 가끔 잊어버리곤 하는
01:28
behind뒤에 each마다 search수색 query질문
that we sometimes때때로 seem보다 to forget잊다.
23
76218
3113
기본 원칙에 대해 조금만
설명드리겠습니다.
01:31
So whenever할때는 언제나 you set세트 out
to GoogleGoogle something,
24
79851
2080
뭔가를 구글에 치려고 할 때마다
01:33
start스타트 by asking질문 yourself당신 자신 this:
"Am I looking for an isolated외딴 fact?"
25
81955
3927
먼저 이 질문을 스스로에게 물어보세요.
"객관적 사실을 찾는 것인가?"
01:38
What is the capital자본 of France프랑스?
26
86334
3161
프랑스의 수도는 어디인가?
01:41
What are the building건물 blocks블록들
of a water molecule분자?
27
89519
2425
물 분자의 구성요소는 무엇인가?
01:43
Great -- GoogleGoogle away.
28
91968
2341
좋아요-- 마음껏 검색하세요.
01:46
There's not a group그룹 of scientists과학자들
who are this close닫기 to proving증명
29
94333
3120
그 정답이 런던이나 H3O라고 증명할
01:49
that it's actually사실은 London런던 and H30.
30
97477
1997
과학자 집단은 하나도 없으니까요.
01:51
You don't see a big conspiracy음모
among사이에 those things.
31
99498
2371
이런 것들에는 큰 음모랄게 없는거죠.
01:53
We agree동의하다, on a global글로벌 scale규모,
32
101893
1533
세계적으로 우리는
01:55
what the answers답변 are
to these isolated외딴 facts사리.
33
103450
2725
이 객관적 사실의 답에 동의하죠.
01:58
But if you complicate복잡하게하다 your question문제
just a little bit비트 and ask청하다 something like,
34
106199
5302
하지만 질문을 약간 더
복잡하게 만들어
02:03
"Why is there
an Israeli-Palestine이스라엘 - 팔레스타인 conflict충돌?"
35
111525
2683
"왜 이스라엘과 팔레스타인 분쟁이
일어나는가?" 같은 다른 질문을 물으면
02:06
You're not exactly정확하게 looking
for a singular단수형 fact anymore더 이상,
36
114978
2640
더 이상 하나의 사실을
찾는 게 아닙니다.
02:09
you're looking for knowledge지식,
37
117642
1833
지식을 찾는거죠.
02:11
which어느 is something way more
complicated복잡한 and delicate섬세한.
38
119499
2578
지식은 훨씬 더 복잡하고 까다롭습니다.
02:14
And to get to knowledge지식,
39
122600
1549
그리고 지식을 얻으려면
02:16
you have to bring가져오다 10 or 20
or 100 facts사리 to the table
40
124173
3031
10개, 20개 또는 100개의 사실을
논의 대상으로 가져와
02:19
and acknowledge인정하다 them and say,
"Yes, these are all true참된."
41
127228
2976
모두 사실이라는 걸 인정해야 합니다.
02:22
But because of who I am,
42
130228
1674
하지만 자신이 누구냐에 따라
02:23
young어린 or old늙은, black검은 or white화이트,
gay게이 or straight직진,
43
131926
2270
젊든 늙었든, 흑인이든 백인이든
동성애자든 이성애자든
02:26
I will value them differently다르게.
44
134220
1611
사람들은 각자 다르게
평가내릴 것입니다.
02:27
And I will say, "Yes, this is true참된,
45
135855
1688
저는 이렇게 말하겠죠.
"그래, 이게 사실이지만
02:29
but this is more important중대한
to me than that."
46
137567
2114
이게 나한테 저것보다 중요해."
02:31
And this is where it becomes된다 interesting재미있는,
47
139705
1990
여기서부터 재밌어집니다,
02:33
because this is where we become지다 human인간의.
48
141719
2146
이 부분에서 인간적인 모습을
보이기 때문이죠.
02:35
This is when we start스타트
to argue논하다, to form형태 society사회.
49
143889
2996
여기서 우리는 논쟁하기 시작하고
집단을 형성합니다.
02:38
And to really get somewhere어딘가에,
we need to filter필터 all our facts사리 here,
50
146909
3357
그리고 정말 어딘가에 도달하려면
친구나, 이웃, 부모님,
02:42
through...을 통하여 friends친구 and neighbors이웃
and parents부모님 and children어린이
51
150290
2556
자식, 직장동료, 신문, 잡지를 통해
02:44
and coworkers동료 and newspapers신문
and magazines잡지,
52
152870
2032
모든 사실을 걸러내야 합니다.
02:46
to finally마침내 be grounded접지 된 in real레알 knowledge지식,
53
154926
3080
궁극적으로 진리 속에
둘러싸이기 위해선 말입니다.
02:50
which어느 is something that a search수색 engine엔진
is a poor가난한 help to achieve이루다.
54
158030
4047
이건 검색엔진이 도움이
안 되는 부분입니다.
02:55
So, I promised약속 한 you an example
just to show보여 주다 you why it's so hard단단한
55
163284
6328
제가 생각해 볼 거리로
왜 진실되고 깨끗하고 객관적인
03:01
to get to the point포인트 of true참된, clean깨끗한,
objective목표 knowledge지식 --
56
169636
3404
지식에 도달하는 것이
왜 그렇게 어려운지 보여주는
03:05
as food식품 for thought.
57
173064
1468
예시를 약속했었죠?
03:06
I will conduct행위 a couple of simple단순한
queries쿼리, search수색 queries쿼리.
58
174556
3893
한 두 개 간단한 검색어를
검색해보겠습니다,
03:10
We'll start스타트 with "Michelle미셸 Obama오바마,"
59
178473
4040
미국의 영부인인
03:14
the First Lady레이디 of the United유나이티드 States.
60
182537
1804
"미셸 오바마"부터 해보죠.
03:16
And we'll click딸깍 하는 소리 for pictures영화.
61
184365
1729
이미지를 누르면
03:19
It works공장 really well, as you can see.
62
187007
2272
보시다시피 정말 잘 되네요.
03:21
It's a perfect완전한 search수색
result결과, more or less적게.
63
189303
3028
검색결과가 거의 완벽하네요.
03:24
It's just her in the picture그림,
not even the President대통령.
64
192355
2750
정말 영부인만 있고
대통령 조차 같이 없습니다.
03:27
How does this work?
65
195664
1313
어떤 원리일까요?
03:29
Quite아주 simple단순한.
66
197837
1372
꽤 간단합니다.
03:31
GoogleGoogle uses용도 a lot of smartness
to achieve이루다 this, but quite아주 simply간단히,
67
199233
3215
구글은 기발한 방법도
많이 동원하지만 사실 단순하게,
03:34
they look at two things
more than anything.
68
202472
2060
다른 것보다 두 가지를
중점적으로 봅니다.
03:36
First, what does it say in the caption표제
under아래에 the picture그림 on each마다 website웹 사이트?
69
204556
5156
먼저, 웹사이트 상의 사진 밑에 있는
설명에 뭐라고 쓰여있는가?
03:41
Does it say "Michelle미셸 Obama오바마"
under아래에 the picture그림?
70
209736
2215
"미셸 오바마"라고 적혀 있는가?
03:43
Pretty예쁜 good indication표시
it's actually사실은 her on there.
71
211975
2356
그렇다면 정말로 영부인
사진일 가능성이 크죠.
03:46
Second둘째, GoogleGoogle looks외모 at the picture그림 file파일,
72
214355
2386
두 번째로, 구글은
사진 파일을 봅니다.
03:48
the name이름 of the file파일 as such이러한
uploaded업로드 된 to the website웹 사이트.
73
216765
3032
웹사이트에 올려진
파일의 이름을 봅니다.
03:51
Again, is it called전화 한 "MichelleObama미셸 오바마.jpegjpeg"?
74
219821
2669
파일명이 "미셸오바마.jpg"인가?
03:54
Pretty예쁜 good indication표시 it's not
Clint클린트 EastwoodEastwood in the picture그림.
75
222839
2922
사진이 클린트 이스트우드가
아니라는 걸 잘 말해주죠.
03:57
So, you've got those two and you get
a search수색 result결과 like this -- almost거의.
76
225785
4265
그렇게 두 가지가 갖춰지면
대개는 이런 검색결과가 나옵니다.
04:02
Now, in 2009, Michelle미셸 Obama오바마
was the victim희생자 of a racist인종 차별 주의자 campaign운동,
77
230074
6603
2009년에 미셸 오바마는
인종차별 캠페인의 피해자였습니다.
04:08
where people set세트 out to insult모욕 her
through...을 통하여 her search수색 results결과들.
78
236701
4015
사람들은 검색 결과로
그녀에게 모욕을 주려 했죠.
04:13
There was a picture그림 distributed분산 된
widely넓게 over the Internet인터넷
79
241430
2702
인터넷에 그녀의 얼굴을 원숭이처럼
04:16
where her face얼굴 was distorted비뚤어진
to look like a monkey원숭이.
80
244156
2644
왜곡시킨 사진이
인터넷에 널리 퍼졌었습니다.
04:18
And that picture그림 was published출판 된 all over.
81
246824
3169
모든 곳에 게시되었죠.
04:22
And people published출판 된 it
very, very purposefully의도적으로,
82
250017
3761
사람들은 다분히 의도적으로
사진이 상위 검색 결과에
04:25
to get it up there in the search수색 results결과들.
83
253802
1971
뜨도록 게시했습니다.
04:27
They made만든 sure to write쓰다
"Michelle미셸 Obama오바마" in the caption표제
84
255797
2955
사진 설명에 반드시
"미셸 오바마"를 넣었고
04:30
and they made만든 sure to upload업로드 the picture그림
as "MichelleObama미셸 오바마.jpegjpeg," or the like.
85
258776
4177
파일명을 "미셸오바마.jpg" 나
비슷한 이름으로 올렸습니다.
04:34
You get why -- to manipulate교묘히 다루다
the search수색 result결과.
86
262977
2367
검색결과를 조작하기
위해서였다는 거 아시겠죠.
04:37
And it worked일한, too.
87
265368
1295
이 수법은 통했습니다.
04:38
So when you picture-Googled그림 - 인터넷 검색
for "Michelle미셸 Obama오바마" in 2009,
88
266687
2720
2009년에 "미셸 오바마"의
이미지를 검색하면
04:41
that distorted비뚤어진 monkey원숭이 picture그림
showed보여 주었다 up among사이에 the first results결과들.
89
269431
3387
가장 먼저 뜨는 결과들 중에
일그러진 원숭이 사진이 있었습니다.
04:44
Now, the results결과들 are self-cleansing자기 정화,
90
272842
3566
검색 결과는 정화능력이 있습니다.
04:48
and that's sort종류 of the beauty아름다움 of it,
91
276432
1753
그게 사실 좋은 점이죠.
04:50
because GoogleGoogle measures조치들 relevance관련성
every...마다 hour시간, every...마다 day.
92
278209
3403
구글이 연관성을
매 시간, 매일 체크하기 때문입니다.
04:53
However하나, GoogleGoogle didn't settle가리다
for that this time,
93
281636
2714
하지만 구글은 이 때
그 이상을 했습니다.
04:56
they just thought, "That's racist인종 차별 주의자
and it's a bad나쁜 search수색 result결과
94
284374
3124
그들은 이렇게만 생각했습니다.
"인종차별적이고 부적절한
04:59
and we're going to go back
and clean깨끗한 that up manually수동으로.
95
287522
3135
검색결과니까 수동으로 정화시켜야겠어.
05:02
We are going to write쓰다
some code암호 and fix고치다 it,"
96
290681
2932
코드를 입력해서 고치자."
05:05
which어느 they did.
97
293637
1247
그리고 그렇게 했습니다.
05:07
And I don't think anyone누군가 in this room
thinks생각해. that was a bad나쁜 idea생각.
98
295454
3742
여러분 중에 누구라도 이게
나쁜 생각이라 여기지 않을 겁니다.
05:11
Me neither어느 쪽도 아니다.
99
299789
1164
저도 그렇습니다.
05:14
But then, a couple of years연령 go by,
100
302802
3032
그런데 2년 후에
05:17
and the world's세계의 most-Googled대부분의 인터넷 검색 AndersAnders,
101
305858
2984
세계에서 가장 많이 검색된
05:20
AndersAnders Behring베링 BreivikBreivik,
102
308866
2279
안드레스 베링 브레이비크가
05:23
did what he did.
103
311169
1706
사건을 일으켰습니다.
05:24
This is July칠월 22 in 2011,
104
312899
2001
2011년 7월 22일이었는데
05:26
and a terrible무서운 day in Norwegian노르웨이 인 history역사.
105
314924
2649
노르웨이 역사상 최악의 날이었습니다.
05:29
This man, a terrorist테러리스트, blew불었다 up
a couple of government정부 buildings건물
106
317597
3787
테러리스트였던 그는
지금 우리가 있는 곳에서
05:33
walking보행 distance거리 from where we are
right now in Oslo오슬로, Norway노르웨이
107
321408
2883
걸어서 갈 수 있을만큼 가까이 있던
정부 청사 두 개를 폭파시키고
05:36
and then he traveled여행 한
to the island of Ut우트øya
108
324315
2051
우퇴야 섬으로 가서
05:38
and shot and killed살해 된 a group그룹 of kids아이들.
109
326390
2223
아이들을 모아놓고 쏘아 죽였습니다.
05:41
Almost거의 80 people died사망 한 that day.
110
329113
1728
그 날 거의 80명의 사람들이 죽었죠.
05:44
And a lot of people would describe기술하다
this act행위 of terror공포 as two steps걸음,
111
332397
4559
많은 사람들이 이 테러행각을
두 단계로 묘사합니다.
05:48
that he did two things: he blew불었다 up
the buildings건물 and he shot those kids아이들.
112
336980
3411
빌딩을 폭파시키고 아이들을 쏴 죽이는
두 가지 사건을 일으켰다고 합니다.
05:52
It's not true참된.
113
340415
1165
하지만 사실이 아닙니다.
05:54
It was three steps걸음.
114
342326
2143
세 단계가 있었죠.
05:56
He blew불었다 up those buildings건물,
he shot those kids아이들,
115
344493
2214
건물을 폭파시키고
아이들을 쏜 다음
05:58
and he sat앉은 down and waited기다린
for the world세계 to GoogleGoogle him.
116
346731
3644
앉아서 세계가 그를 구글에
검색하기를 기다렸습니다.
06:03
And he prepared준비된
all three steps걸음 equally같이 well.
117
351227
2627
그는 세 단계를 다 잘 준비했습니다.
06:06
And if there was somebody어떤 사람
who immediately바로 understood이해 된 this,
118
354544
2790
이걸 바로 알아차린 사람은
스웨덴인으로 스톡홀름에 사는
06:09
it was a Swedish스웨덴어 web편물 developer개발자,
119
357358
1524
웹사이트 개발자이자
06:10
a search수색 engine엔진 optimization최적화 expert전문가
in Stockholm스톡홀름, named명명 된 Nikke니케 Lindqvist린드 큐스트.
120
358906
3623
검색 엔진 최적화 전문가인
니키 린드크비스트뿐이었습니다.
06:14
He's also또한 a very political주재관 guy
121
362553
1588
굉장히 정치적인 사람이었죠.
06:16
and he was right out there
in social사회적인 media미디어, on his blog블로그 and Facebook페이스 북.
122
364165
3276
소셜미디어와 블로그와 페이스북을
하는 사람이었죠.
06:19
And he told everybody각자 모두,
123
367465
1206
그는 모든 사람에게
06:20
"If there's something that
this guy wants right now,
124
368695
2455
"이 남자가 지금 바라는 게 있다면
06:23
it's to control제어 the image영상 of himself그 자신.
125
371174
2459
바로 자기 이미지를 조종하는 겁니다.
06:26
Let's see if we can distort왜곡하다 that.
126
374760
1960
그걸 우리가 막아봅시다.
06:29
Let's see if we, in the civilized예의 바른 world세계,
can protest항의 against반대 what he did
127
377490
3977
문명화된 세상에 사는 우리가
검색 결과로 그에게 모욕을 줘서
06:33
through...을 통하여 insulting모욕하는 him
in his search수색 results결과들."
128
381491
3317
그가 한 행동에 대해
시위할 수 있는지 봅시다."
06:36
And how?
129
384832
1187
어떻게 하는 걸까요?
06:38
He told all of his readers독자들 the following수행원,
130
386797
2056
니키는 모든 구독자에게
이렇게 말했습니다.
06:40
"Go out there on the Internet인터넷,
131
388877
1864
"인터넷에 들어가서
06:42
find pictures영화 of dog poop고물 on sidewalks인도 --
132
390765
2895
길거리에 있는 개똥 사진을 찾아,
06:46
find pictures영화 of dog poop고물 on sidewalks인도 --
133
394708
2174
길거리에 있는 개똥 사진을 찾아,
06:48
publish출판하다 them in your feeds피드,
on your websites웹 사이트, on your blogs블로그.
134
396906
3470
여러분의 뉴스피드, 웹사이트,
블로그에 올리세요.
06:52
Make sure to write쓰다 the terrorist's테러리스트의
name이름 in the caption표제,
135
400400
2921
제목에 테러리스트의 이름을
넣는 것을 잊지 마세요.
06:55
make sure to name이름
the picture그림 file파일 "BreivikBreivik.jpegjpeg."
136
403345
4487
파일명을 꼭 "브레이비크.jpg"로
붙이세요.
06:59
Let's teach가르치다 GoogleGoogle that that's
the face얼굴 of the terrorist테러리스트."
137
407856
3801
구글에게 그게 테러리스트의
얼굴이라는 걸 보여줍시다."
07:05
And it worked일한.
138
413552
1278
그리고 이게 먹혀들었습니다.
07:07
Two years연령 after that campaign운동
against반대 Michelle미셸 Obama오바마,
139
415853
2898
미셸 오바마를 반대하는 운동이
일어나고 2년 후에
07:10
this manipulation시장 조작 campaign운동
against반대 AndersAnders Behring베링 BreivikBreivik worked일한.
140
418775
3266
안드레스 베링 브레이비크를
반대하는 조작 운동이 통했습니다.
07:14
If you picture-Googled그림 - 인터넷 검색 for him weeks after
the July칠월 22 events사건 from Sweden스웨덴,
141
422065
4462
7월 22일이 몇 주나 지난 시점에서
이미지 검색을 해도
07:18
you'd당신은 see that picture그림 of dog poop고물
high높은 up in the search수색 results결과들,
142
426551
4327
여전히 상위 검색 결과에
개똥 사진이 떴습니다.
07:22
as a little protest항의.
143
430902
1444
일종의 시위였죠.
07:25
Strangely이상하게 enough충분히, GoogleGoogle
didn't intervene개입하다 this time.
144
433425
4132
재미있게도 이번엔
구글이 개입하지 않았습니다.
07:30
They did not step단계 in and manually수동으로
clean깨끗한 those search수색 results결과들 up.
145
438494
4272
나서서 수동적으로 검색 결과를
정화하려고 하지 않았습니다.
07:35
So the million-dollar백만 달러 question문제,
146
443964
1716
그렇다면 중요한 질문은 이겁니다.
07:37
is there anything different다른
between중에서 these two happenings사건들 here?
147
445704
3368
두 사건 사이에 차이가 있는가?
07:41
Is there anything different다른 between중에서
what happened일어난 to Michelle미셸 Obama오바마
148
449096
3193
미셸 오바마에게 일어난 일과
브레이비크에게 일어난 일에
07:44
and what happened일어난
to AndersAnders Behring베링 BreivikBreivik?
149
452313
2065
차이가 있는가?
07:46
Of course코스 not.
150
454402
1284
당연히 없습니다.
07:48
It's the exact정확한 same같은 thing,
151
456861
1471
완전히 동일합니다.
07:50
yet아직 GoogleGoogle intervened개입 된 in one case케이스
and not in the other.
152
458356
2864
그런데도 구글은 한 번은 개입하고
다른 한 번은 안했죠.
07:53
Why?
153
461244
1253
왜일까요?
07:55
Because Michelle미셸 Obama오바마
is an honorable영예로운 person사람, that's why,
154
463283
3300
미셸 오바마는 존경스러운 인물이고
07:58
and AndersAnders Behring베링 BreivikBreivik
is a despicable비열한 person사람.
155
466607
2916
안드레스 베링 브레이비크는
파렴치한 인간이기 때문입니다.
08:02
See what happens일이 there?
156
470142
1535
무슨 일이 벌어지고 있는지 아시겠어요?
08:03
An evaluation평가 of a person사람 takes place장소
157
471701
3255
인물에 대한 평가가 이루어지고,
08:06
and there's only one
power-player파워 플레이어 in the world세계
158
474980
3786
세상에는 누가 어떤 사람인지
말할 수 있는 권위를 가진
08:10
with the authority권위 to say who's누가 who.
159
478790
2480
권력자는 단 하나밖에 없습니다.
08:13
"We like you, we dislike싫어함 you.
160
481882
1741
"우리는 너가 좋아,
우리는 너가 싫어.
08:15
We believe in you,
we don't believe in you.
161
483647
2039
우리는 널 믿어. 우리는 널 안 믿어.
08:17
You're right, you're wrong잘못된.
You're true참된, you're false그릇된.
162
485710
2547
너는 맞고 너는 틀려.
너는 사실이고 너는 거짓이야."
08:20
You're Obama오바마, and you're BreivikBreivik."
163
488281
1805
넌 오바마고 넌 브레이비크야."
08:22
That's power if I ever saw it.
164
490791
2000
바로 그게 권력입니다.
08:27
So I'm asking질문 you to remember생각해 내다
that behind뒤에 every...마다 algorithm연산
165
495206
3652
그래서 저는 여러분들께
모든 알고리즘 뒤에는 항상
08:30
is always a person사람,
166
498882
1777
그 어떤 코드도
08:32
a person사람 with a set세트 of personal개인적인 beliefs신념
167
500683
2495
완전히 말살할 수 없는
자기만의 신념을 가진
08:35
that no code암호 can ever
completely완전히 eradicate근절하다.
168
503202
2525
사람이 있다는 걸 기억해달라고
부탁하고 싶습니다.
08:37
And my message메시지 goes간다
out not only to GoogleGoogle,
169
505751
2434
그리고 제가 드리는 말씀은
구글뿐만이 아니라
08:40
but to all believers신자 in the faith신앙
of code암호 around the world세계.
170
508209
2810
코드를 신뢰하는 전세계 모든
사람들에게도 해당됩니다.
08:43
You need to identify식별하다
your own개인적인 personal개인적인 bias바이어스.
171
511043
2976
여러분은 자신이 가진 편견을
구분해내야 합니다.
08:46
You need to understand알다 that you are human인간의
172
514043
2013
자신이 인간이라는 걸 받아들이고
08:48
and take responsibility책임 accordingly따라서.
173
516080
2491
그에 맞는 책임을 져야 합니다.
08:51
And I say this because I believe
we've우리는 reached도달 한 a point포인트 in time
174
519891
2938
제가 이 말을 하는 이유는
우리가 인간과 기술 간의
08:54
when it's absolutely전혀 imperative피할 수 없는
175
522853
1555
유대를 더 공고히해야 하는
08:56
that we tie넥타이 those bonds채권
together함께 again, tighter더 단단한:
176
524432
3217
절대적으로 중요한 시점에
08:59
the humanities인문학 and the technology과학 기술.
177
527673
2368
다다랐다고 생각하기 때문입니다.
09:02
Tighter더 단단한 than ever.
178
530483
1805
그 어느 때보다 끈끈해야 하죠.
09:04
And, if nothing else그밖에, to remind생각 나게하다 us
that that wonderfully훌륭하게 seductive매혹적인 idea생각
179
532312
3339
그리고 정말 매력적으로 보이는
편파적이지 않고 깨끗한 검색 결과는
09:07
of the unbiased편견없는, clean깨끗한 search수색 result결과
180
535675
2668
지금도, 앞으로도 허구로 남을 가능성이
09:10
is, and is likely아마도 to remain남아있는, a myth신화.
181
538367
2767
높다는 걸 최소한
일깨워드리기 위해서입니다.
09:13
Thank you for your time.
182
541984
1159
시간 내 주셔서 감사합니다.
09:15
(Applause박수 갈채)
183
543167
2432
(박수)
Translated by Ju Hye Lim
Reviewed by Sanghyun Hahn

▲Back to top

ABOUT THE SPEAKER
Andreas Ekström - Author and journalist
Andreas Ekström describes the power structures of the digital revolution.

Why you should listen

Andreas Ekström is staff writer at Sydsvenskan, a daily morning paper in Malmö, Sweden.

His passion is educating for digital equality, and he has a vision for a world in which we share the wealth -- not only financially, but also in terms of knowledge and power. Andreas is the author of six books, a columnist and a commentator, and he often lectures and leads seminars on the digital revolution.

More profile about the speaker
Andreas Ekström | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee