ABOUT THE SPEAKER
Andreas Ekström - Author and journalist
Andreas Ekström describes the power structures of the digital revolution.

Why you should listen

Andreas Ekström is staff writer at Sydsvenskan, a daily morning paper in Malmö, Sweden.

His passion is educating for digital equality, and he has a vision for a world in which we share the wealth -- not only financially, but also in terms of knowledge and power. Andreas is the author of six books, a columnist and a commentator, and he often lectures and leads seminars on the digital revolution.

More profile about the speaker
Andreas Ekström | Speaker | TED.com
TEDxOslo

Andreas Ekström: The moral bias behind your search results

안드레아스 엑스트룀(Andreas Ekström): 검색 결과 이면의 도덕적 편향

Filmed:
1,550,129 views

검색 엔진은 이제 가장 신뢰도가 높은 정보의 원천이자 진실의 심판자가 되었습니다. 하지만 편파적이지 않은 검색 결과를 얻는 것이 가능할까요? 스웨덴 작가이자 기자인 안드레아스 엑스트룀은 이것이 철학적으로 불가능하다고 주장합니다. 이 깊이있는 강연을 통해 그는 인간과 기술 간의 유대를 더 공고히하는 것을 촉구하고, 모든 알고리즘 뒤에는 그 어떤 코드도 완전히 말살시키지 못하는 개인적 신념이 존재한다는 것을 일깨워줍니다.
- Author and journalist
Andreas Ekström describes the power structures of the digital revolution. Full bio

Double-click the English transcript below to play the video.

00:13
So whenever할때는 언제나 I visit방문 a school학교
and talk to students재학생,
0
1087
2493
저는 학교에서 학생들에게
강연할 때마다
00:15
I always ask청하다 them the same같은 thing:
1
3604
2143
항상 똑같은 것을 묻습니다.
00:18
Why do you GoogleGoogle?
2
6754
1434
왜 구글을 쓰니?
00:20
Why is GoogleGoogle the search수색 engine엔진
of choice선택 for you?
3
8624
3397
왜 검색엔진으로 구글을 선택했니?
00:24
Strangely이상하게 enough충분히, I always get
the same같은 three answers답변.
4
12855
2552
신기하게도, 항상 답은
세 개로 똑같습니다.
00:27
One, "Because it works공장,"
5
15431
2039
첫 번째는 "잘 되니까요."입니다.
00:29
which어느 is a great answer대답;
that's why I GoogleGoogle, too.
6
17494
2906
훌륭한 대답이죠.
저도 그래서 구글을 씁니다.
00:32
Two, somebody어떤 사람 will say,
7
20424
2033
두 번째로 어떤 이들은
이렇게 말합니다.
00:34
"I really don't know of any alternatives대안들."
8
22481
2640
"다른 건 뭐가 있는지 잘 몰라요."
00:37
It's not an equally같이 great answer대답
and my reply댓글 to that is usually보통,
9
25708
3128
첫 번째 대답만큼 좋진 않지만
이에 대한 제 대답은 주로 이렇습니다.
00:40
"Try to GoogleGoogle the word워드 'search'수색 engine엔진,'
10
28860
1921
"''검색엔진'을 구글에 쳐 봐.
00:42
you may할 수있다 find a couple
of interesting재미있는 alternatives대안들."
11
30805
2402
괜찮은 사이트를
한 두 개 찾을 수도 있어."
00:45
And last but not least가장 작은, thirdly세 번째로,
12
33231
2095
마지막으로, 세 번째 대답으로는
00:47
inevitably필연적으로, one student학생 will raise증가
her or his hand and say,
13
35350
3310
꼭 한 명의 학생이 손을 들고
이렇게 말합니다.
00:50
"With GoogleGoogle, I'm certain어떤 to always get
the best베스트, unbiased편견없는 search수색 result결과."
14
38684
5183
"구글은 언제나 편향되지 않은
최고의 검색결과를 가져다 주니까요."
00:57
Certain어떤 to always get the best베스트,
unbiased편견없는 search수색 result결과.
15
45157
6506
언제나 편향되지 않은 최고의
검색결과를 가져다 준다고요.
01:05
Now, as a man of the humanities인문학,
16
53091
2390
인류의 한 사람으로서
01:07
albeit그러나 a digital디지털 humanities인문학 man,
17
55505
2181
디지털 인류의 사람일지라도.
01:09
that just makes~을 만든다 my skin피부 curl,
18
57710
1738
소름이 돋게 만드는 말입니다.
01:11
even if I, too, realize깨닫다 that that trust믿음,
that idea생각 of the unbiased편견없는 search수색 result결과
19
59472
4886
비편파적 검색결과에 대한
신뢰와 생각이 우리의
01:16
is a cornerstone기초 in our collective집단적 love
for and appreciation감사 of GoogleGoogle.
20
64382
3855
구글에 대한 집단적 사랑과 감사의
초석이라는 것을 저도 알지만 말이죠.
01:20
I will show보여 주다 you why that, philosophically철학적으로,
is almost거의 an impossibility불가능.
21
68658
4258
제가 왜 이것이 철학적으로
거의 불가능한지 보여드리겠습니다.
01:24
But let me first elaborate정교한,
just a little bit비트, on a basic기본 principle원리
22
72940
3254
하지만 먼저 모든 검색어 이면의
우리가 가끔 잊어버리곤 하는
01:28
behind뒤에 each마다 search수색 query질문
that we sometimes때때로 seem보다 to forget잊다.
23
76218
3113
기본 원칙에 대해 조금만
설명드리겠습니다.
01:31
So whenever할때는 언제나 you set세트 out
to GoogleGoogle something,
24
79851
2080
뭔가를 구글에 치려고 할 때마다
01:33
start스타트 by asking질문 yourself당신 자신 this:
"Am I looking for an isolated외딴 fact?"
25
81955
3927
먼저 이 질문을 스스로에게 물어보세요.
"객관적 사실을 찾는 것인가?"
01:38
What is the capital자본 of France프랑스?
26
86334
3161
프랑스의 수도는 어디인가?
01:41
What are the building건물 blocks블록들
of a water molecule분자?
27
89519
2425
물 분자의 구성요소는 무엇인가?
01:43
Great -- GoogleGoogle away.
28
91968
2341
좋아요-- 마음껏 검색하세요.
01:46
There's not a group그룹 of scientists과학자들
who are this close닫기 to proving증명
29
94333
3120
그 정답이 런던이나 H3O라고 증명할
01:49
that it's actually사실은 London런던 and H30.
30
97477
1997
과학자 집단은 하나도 없으니까요.
01:51
You don't see a big conspiracy음모
among사이에 those things.
31
99498
2371
이런 것들에는 큰 음모랄게 없는거죠.
01:53
We agree동의하다, on a global글로벌 scale규모,
32
101893
1533
세계적으로 우리는
01:55
what the answers답변 are
to these isolated외딴 facts사리.
33
103450
2725
이 객관적 사실의 답에 동의하죠.
01:58
But if you complicate복잡하게하다 your question문제
just a little bit비트 and ask청하다 something like,
34
106199
5302
하지만 질문을 약간 더
복잡하게 만들어
02:03
"Why is there
an Israeli-Palestine이스라엘 - 팔레스타인 conflict충돌?"
35
111525
2683
"왜 이스라엘과 팔레스타인 분쟁이
일어나는가?" 같은 다른 질문을 물으면
02:06
You're not exactly정확하게 looking
for a singular단수형 fact anymore더 이상,
36
114978
2640
더 이상 하나의 사실을
찾는 게 아닙니다.
02:09
you're looking for knowledge지식,
37
117642
1833
지식을 찾는거죠.
02:11
which어느 is something way more
complicated복잡한 and delicate섬세한.
38
119499
2578
지식은 훨씬 더 복잡하고 까다롭습니다.
02:14
And to get to knowledge지식,
39
122600
1549
그리고 지식을 얻으려면
02:16
you have to bring가져오다 10 or 20
or 100 facts사리 to the table
40
124173
3031
10개, 20개 또는 100개의 사실을
논의 대상으로 가져와
02:19
and acknowledge인정하다 them and say,
"Yes, these are all true참된."
41
127228
2976
모두 사실이라는 걸 인정해야 합니다.
02:22
But because of who I am,
42
130228
1674
하지만 자신이 누구냐에 따라
02:23
young어린 or old늙은, black검은 or white화이트,
gay게이 or straight직진,
43
131926
2270
젊든 늙었든, 흑인이든 백인이든
동성애자든 이성애자든
02:26
I will value them differently다르게.
44
134220
1611
사람들은 각자 다르게
평가내릴 것입니다.
02:27
And I will say, "Yes, this is true참된,
45
135855
1688
저는 이렇게 말하겠죠.
"그래, 이게 사실이지만
02:29
but this is more important중대한
to me than that."
46
137567
2114
이게 나한테 저것보다 중요해."
02:31
And this is where it becomes된다 interesting재미있는,
47
139705
1990
여기서부터 재밌어집니다,
02:33
because this is where we become지다 human인간의.
48
141719
2146
이 부분에서 인간적인 모습을
보이기 때문이죠.
02:35
This is when we start스타트
to argue논하다, to form형태 society사회.
49
143889
2996
여기서 우리는 논쟁하기 시작하고
집단을 형성합니다.
02:38
And to really get somewhere어딘가에,
we need to filter필터 all our facts사리 here,
50
146909
3357
그리고 정말 어딘가에 도달하려면
친구나, 이웃, 부모님,
02:42
through...을 통하여 friends친구 and neighbors이웃
and parents부모님 and children어린이
51
150290
2556
자식, 직장동료, 신문, 잡지를 통해
02:44
and coworkers동료 and newspapers신문
and magazines잡지,
52
152870
2032
모든 사실을 걸러내야 합니다.
02:46
to finally마침내 be grounded접지 된 in real레알 knowledge지식,
53
154926
3080
궁극적으로 진리 속에
둘러싸이기 위해선 말입니다.
02:50
which어느 is something that a search수색 engine엔진
is a poor가난한 help to achieve이루다.
54
158030
4047
이건 검색엔진이 도움이
안 되는 부분입니다.
02:55
So, I promised약속 한 you an example
just to show보여 주다 you why it's so hard단단한
55
163284
6328
제가 생각해 볼 거리로
왜 진실되고 깨끗하고 객관적인
03:01
to get to the point포인트 of true참된, clean깨끗한,
objective목표 knowledge지식 --
56
169636
3404
지식에 도달하는 것이
왜 그렇게 어려운지 보여주는
03:05
as food식품 for thought.
57
173064
1468
예시를 약속했었죠?
03:06
I will conduct행위 a couple of simple단순한
queries쿼리, search수색 queries쿼리.
58
174556
3893
한 두 개 간단한 검색어를
검색해보겠습니다,
03:10
We'll start스타트 with "Michelle미셸 Obama오바마,"
59
178473
4040
미국의 영부인인
03:14
the First Lady레이디 of the United유나이티드 States.
60
182537
1804
"미셸 오바마"부터 해보죠.
03:16
And we'll click딸깍 하는 소리 for pictures영화.
61
184365
1729
이미지를 누르면
03:19
It works공장 really well, as you can see.
62
187007
2272
보시다시피 정말 잘 되네요.
03:21
It's a perfect완전한 search수색
result결과, more or less적게.
63
189303
3028
검색결과가 거의 완벽하네요.
03:24
It's just her in the picture그림,
not even the President대통령.
64
192355
2750
정말 영부인만 있고
대통령 조차 같이 없습니다.
03:27
How does this work?
65
195664
1313
어떤 원리일까요?
03:29
Quite아주 simple단순한.
66
197837
1372
꽤 간단합니다.
03:31
GoogleGoogle uses용도 a lot of smartness
to achieve이루다 this, but quite아주 simply간단히,
67
199233
3215
구글은 기발한 방법도
많이 동원하지만 사실 단순하게,
03:34
they look at two things
more than anything.
68
202472
2060
다른 것보다 두 가지를
중점적으로 봅니다.
03:36
First, what does it say in the caption표제
under아래에 the picture그림 on each마다 website웹 사이트?
69
204556
5156
먼저, 웹사이트 상의 사진 밑에 있는
설명에 뭐라고 쓰여있는가?
03:41
Does it say "Michelle미셸 Obama오바마"
under아래에 the picture그림?
70
209736
2215
"미셸 오바마"라고 적혀 있는가?
03:43
Pretty예쁜 good indication표시
it's actually사실은 her on there.
71
211975
2356
그렇다면 정말로 영부인
사진일 가능성이 크죠.
03:46
Second둘째, GoogleGoogle looks외모 at the picture그림 file파일,
72
214355
2386
두 번째로, 구글은
사진 파일을 봅니다.
03:48
the name이름 of the file파일 as such이러한
uploaded업로드 된 to the website웹 사이트.
73
216765
3032
웹사이트에 올려진
파일의 이름을 봅니다.
03:51
Again, is it called전화 한 "MichelleObama미셸 오바마.jpegjpeg"?
74
219821
2669
파일명이 "미셸오바마.jpg"인가?
03:54
Pretty예쁜 good indication표시 it's not
Clint클린트 EastwoodEastwood in the picture그림.
75
222839
2922
사진이 클린트 이스트우드가
아니라는 걸 잘 말해주죠.
03:57
So, you've got those two and you get
a search수색 result결과 like this -- almost거의.
76
225785
4265
그렇게 두 가지가 갖춰지면
대개는 이런 검색결과가 나옵니다.
04:02
Now, in 2009, Michelle미셸 Obama오바마
was the victim희생자 of a racist인종 차별 주의자 campaign운동,
77
230074
6603
2009년에 미셸 오바마는
인종차별 캠페인의 피해자였습니다.
04:08
where people set세트 out to insult모욕 her
through...을 통하여 her search수색 results결과들.
78
236701
4015
사람들은 검색 결과로
그녀에게 모욕을 주려 했죠.
04:13
There was a picture그림 distributed분산 된
widely넓게 over the Internet인터넷
79
241430
2702
인터넷에 그녀의 얼굴을 원숭이처럼
04:16
where her face얼굴 was distorted비뚤어진
to look like a monkey원숭이.
80
244156
2644
왜곡시킨 사진이
인터넷에 널리 퍼졌었습니다.
04:18
And that picture그림 was published출판 된 all over.
81
246824
3169
모든 곳에 게시되었죠.
04:22
And people published출판 된 it
very, very purposefully의도적으로,
82
250017
3761
사람들은 다분히 의도적으로
사진이 상위 검색 결과에
04:25
to get it up there in the search수색 results결과들.
83
253802
1971
뜨도록 게시했습니다.
04:27
They made만든 sure to write쓰다
"Michelle미셸 Obama오바마" in the caption표제
84
255797
2955
사진 설명에 반드시
"미셸 오바마"를 넣었고
04:30
and they made만든 sure to upload업로드 the picture그림
as "MichelleObama미셸 오바마.jpegjpeg," or the like.
85
258776
4177
파일명을 "미셸오바마.jpg" 나
비슷한 이름으로 올렸습니다.
04:34
You get why -- to manipulate교묘히 다루다
the search수색 result결과.
86
262977
2367
검색결과를 조작하기
위해서였다는 거 아시겠죠.
04:37
And it worked일한, too.
87
265368
1295
이 수법은 통했습니다.
04:38
So when you picture-Googled그림 - 인터넷 검색
for "Michelle미셸 Obama오바마" in 2009,
88
266687
2720
2009년에 "미셸 오바마"의
이미지를 검색하면
04:41
that distorted비뚤어진 monkey원숭이 picture그림
showed보여 주었다 up among사이에 the first results결과들.
89
269431
3387
가장 먼저 뜨는 결과들 중에
일그러진 원숭이 사진이 있었습니다.
04:44
Now, the results결과들 are self-cleansing자기 정화,
90
272842
3566
검색 결과는 정화능력이 있습니다.
04:48
and that's sort종류 of the beauty아름다움 of it,
91
276432
1753
그게 사실 좋은 점이죠.
04:50
because GoogleGoogle measures조치들 relevance관련성
every...마다 hour시간, every...마다 day.
92
278209
3403
구글이 연관성을
매 시간, 매일 체크하기 때문입니다.
04:53
However하나, GoogleGoogle didn't settle가리다
for that this time,
93
281636
2714
하지만 구글은 이 때
그 이상을 했습니다.
04:56
they just thought, "That's racist인종 차별 주의자
and it's a bad나쁜 search수색 result결과
94
284374
3124
그들은 이렇게만 생각했습니다.
"인종차별적이고 부적절한
04:59
and we're going to go back
and clean깨끗한 that up manually수동으로.
95
287522
3135
검색결과니까 수동으로 정화시켜야겠어.
05:02
We are going to write쓰다
some code암호 and fix고치다 it,"
96
290681
2932
코드를 입력해서 고치자."
05:05
which어느 they did.
97
293637
1247
그리고 그렇게 했습니다.
05:07
And I don't think anyone누군가 in this room
thinks생각해. that was a bad나쁜 idea생각.
98
295454
3742
여러분 중에 누구라도 이게
나쁜 생각이라 여기지 않을 겁니다.
05:11
Me neither어느 쪽도 아니다.
99
299789
1164
저도 그렇습니다.
05:14
But then, a couple of years연령 go by,
100
302802
3032
그런데 2년 후에
05:17
and the world's세계의 most-Googled대부분의 인터넷 검색 AndersAnders,
101
305858
2984
세계에서 가장 많이 검색된
05:20
AndersAnders Behring베링 BreivikBreivik,
102
308866
2279
안드레스 베링 브레이비크가
05:23
did what he did.
103
311169
1706
사건을 일으켰습니다.
05:24
This is July칠월 22 in 2011,
104
312899
2001
2011년 7월 22일이었는데
05:26
and a terrible무서운 day in Norwegian노르웨이 인 history역사.
105
314924
2649
노르웨이 역사상 최악의 날이었습니다.
05:29
This man, a terrorist테러리스트, blew불었다 up
a couple of government정부 buildings건물
106
317597
3787
테러리스트였던 그는
지금 우리가 있는 곳에서
05:33
walking보행 distance거리 from where we are
right now in Oslo오슬로, Norway노르웨이
107
321408
2883
걸어서 갈 수 있을만큼 가까이 있던
정부 청사 두 개를 폭파시키고
05:36
and then he traveled여행 한
to the island of Ut우트øya
108
324315
2051
우퇴야 섬으로 가서
05:38
and shot and killed살해 된 a group그룹 of kids아이들.
109
326390
2223
아이들을 모아놓고 쏘아 죽였습니다.
05:41
Almost거의 80 people died사망 한 that day.
110
329113
1728
그 날 거의 80명의 사람들이 죽었죠.
05:44
And a lot of people would describe기술하다
this act행위 of terror공포 as two steps걸음,
111
332397
4559
많은 사람들이 이 테러행각을
두 단계로 묘사합니다.
05:48
that he did two things: he blew불었다 up
the buildings건물 and he shot those kids아이들.
112
336980
3411
빌딩을 폭파시키고 아이들을 쏴 죽이는
두 가지 사건을 일으켰다고 합니다.
05:52
It's not true참된.
113
340415
1165
하지만 사실이 아닙니다.
05:54
It was three steps걸음.
114
342326
2143
세 단계가 있었죠.
05:56
He blew불었다 up those buildings건물,
he shot those kids아이들,
115
344493
2214
건물을 폭파시키고
아이들을 쏜 다음
05:58
and he sat앉은 down and waited기다린
for the world세계 to GoogleGoogle him.
116
346731
3644
앉아서 세계가 그를 구글에
검색하기를 기다렸습니다.
06:03
And he prepared준비된
all three steps걸음 equally같이 well.
117
351227
2627
그는 세 단계를 다 잘 준비했습니다.
06:06
And if there was somebody어떤 사람
who immediately바로 understood이해 된 this,
118
354544
2790
이걸 바로 알아차린 사람은
스웨덴인으로 스톡홀름에 사는
06:09
it was a Swedish스웨덴어 web편물 developer개발자,
119
357358
1524
웹사이트 개발자이자
06:10
a search수색 engine엔진 optimization최적화 expert전문가
in Stockholm스톡홀름, named명명 된 Nikke니케 Lindqvist린드 큐스트.
120
358906
3623
검색 엔진 최적화 전문가인
니키 린드크비스트뿐이었습니다.
06:14
He's also또한 a very political주재관 guy
121
362553
1588
굉장히 정치적인 사람이었죠.
06:16
and he was right out there
in social사회적인 media미디어, on his blog블로그 and Facebook페이스 북.
122
364165
3276
소셜미디어와 블로그와 페이스북을
하는 사람이었죠.
06:19
And he told everybody각자 모두,
123
367465
1206
그는 모든 사람에게
06:20
"If there's something that
this guy wants right now,
124
368695
2455
"이 남자가 지금 바라는 게 있다면
06:23
it's to control제어 the image영상 of himself그 자신.
125
371174
2459
바로 자기 이미지를 조종하는 겁니다.
06:26
Let's see if we can distort왜곡하다 that.
126
374760
1960
그걸 우리가 막아봅시다.
06:29
Let's see if we, in the civilized예의 바른 world세계,
can protest항의 against반대 what he did
127
377490
3977
문명화된 세상에 사는 우리가
검색 결과로 그에게 모욕을 줘서
06:33
through...을 통하여 insulting모욕하는 him
in his search수색 results결과들."
128
381491
3317
그가 한 행동에 대해
시위할 수 있는지 봅시다."
06:36
And how?
129
384832
1187
어떻게 하는 걸까요?
06:38
He told all of his readers독자들 the following수행원,
130
386797
2056
니키는 모든 구독자에게
이렇게 말했습니다.
06:40
"Go out there on the Internet인터넷,
131
388877
1864
"인터넷에 들어가서
06:42
find pictures영화 of dog poop고물 on sidewalks인도 --
132
390765
2895
길거리에 있는 개똥 사진을 찾아,
06:46
find pictures영화 of dog poop고물 on sidewalks인도 --
133
394708
2174
길거리에 있는 개똥 사진을 찾아,
06:48
publish출판하다 them in your feeds피드,
on your websites웹 사이트, on your blogs블로그.
134
396906
3470
여러분의 뉴스피드, 웹사이트,
블로그에 올리세요.
06:52
Make sure to write쓰다 the terrorist's테러리스트의
name이름 in the caption표제,
135
400400
2921
제목에 테러리스트의 이름을
넣는 것을 잊지 마세요.
06:55
make sure to name이름
the picture그림 file파일 "BreivikBreivik.jpegjpeg."
136
403345
4487
파일명을 꼭 "브레이비크.jpg"로
붙이세요.
06:59
Let's teach가르치다 GoogleGoogle that that's
the face얼굴 of the terrorist테러리스트."
137
407856
3801
구글에게 그게 테러리스트의
얼굴이라는 걸 보여줍시다."
07:05
And it worked일한.
138
413552
1278
그리고 이게 먹혀들었습니다.
07:07
Two years연령 after that campaign운동
against반대 Michelle미셸 Obama오바마,
139
415853
2898
미셸 오바마를 반대하는 운동이
일어나고 2년 후에
07:10
this manipulation시장 조작 campaign운동
against반대 AndersAnders Behring베링 BreivikBreivik worked일한.
140
418775
3266
안드레스 베링 브레이비크를
반대하는 조작 운동이 통했습니다.
07:14
If you picture-Googled그림 - 인터넷 검색 for him weeks after
the July칠월 22 events사건 from Sweden스웨덴,
141
422065
4462
7월 22일이 몇 주나 지난 시점에서
이미지 검색을 해도
07:18
you'd당신은 see that picture그림 of dog poop고물
high높은 up in the search수색 results결과들,
142
426551
4327
여전히 상위 검색 결과에
개똥 사진이 떴습니다.
07:22
as a little protest항의.
143
430902
1444
일종의 시위였죠.
07:25
Strangely이상하게 enough충분히, GoogleGoogle
didn't intervene개입하다 this time.
144
433425
4132
재미있게도 이번엔
구글이 개입하지 않았습니다.
07:30
They did not step단계 in and manually수동으로
clean깨끗한 those search수색 results결과들 up.
145
438494
4272
나서서 수동적으로 검색 결과를
정화하려고 하지 않았습니다.
07:35
So the million-dollar백만 달러 question문제,
146
443964
1716
그렇다면 중요한 질문은 이겁니다.
07:37
is there anything different다른
between중에서 these two happenings사건들 here?
147
445704
3368
두 사건 사이에 차이가 있는가?
07:41
Is there anything different다른 between중에서
what happened일어난 to Michelle미셸 Obama오바마
148
449096
3193
미셸 오바마에게 일어난 일과
브레이비크에게 일어난 일에
07:44
and what happened일어난
to AndersAnders Behring베링 BreivikBreivik?
149
452313
2065
차이가 있는가?
07:46
Of course코스 not.
150
454402
1284
당연히 없습니다.
07:48
It's the exact정확한 same같은 thing,
151
456861
1471
완전히 동일합니다.
07:50
yet아직 GoogleGoogle intervened개입 된 in one case케이스
and not in the other.
152
458356
2864
그런데도 구글은 한 번은 개입하고
다른 한 번은 안했죠.
07:53
Why?
153
461244
1253
왜일까요?
07:55
Because Michelle미셸 Obama오바마
is an honorable영예로운 person사람, that's why,
154
463283
3300
미셸 오바마는 존경스러운 인물이고
07:58
and AndersAnders Behring베링 BreivikBreivik
is a despicable비열한 person사람.
155
466607
2916
안드레스 베링 브레이비크는
파렴치한 인간이기 때문입니다.
08:02
See what happens일이 there?
156
470142
1535
무슨 일이 벌어지고 있는지 아시겠어요?
08:03
An evaluation평가 of a person사람 takes place장소
157
471701
3255
인물에 대한 평가가 이루어지고,
08:06
and there's only one
power-player파워 플레이어 in the world세계
158
474980
3786
세상에는 누가 어떤 사람인지
말할 수 있는 권위를 가진
08:10
with the authority권위 to say who's누가 who.
159
478790
2480
권력자는 단 하나밖에 없습니다.
08:13
"We like you, we dislike싫어함 you.
160
481882
1741
"우리는 너가 좋아,
우리는 너가 싫어.
08:15
We believe in you,
we don't believe in you.
161
483647
2039
우리는 널 믿어. 우리는 널 안 믿어.
08:17
You're right, you're wrong잘못된.
You're true참된, you're false그릇된.
162
485710
2547
너는 맞고 너는 틀려.
너는 사실이고 너는 거짓이야."
08:20
You're Obama오바마, and you're BreivikBreivik."
163
488281
1805
넌 오바마고 넌 브레이비크야."
08:22
That's power if I ever saw it.
164
490791
2000
바로 그게 권력입니다.
08:27
So I'm asking질문 you to remember생각해 내다
that behind뒤에 every...마다 algorithm연산
165
495206
3652
그래서 저는 여러분들께
모든 알고리즘 뒤에는 항상
08:30
is always a person사람,
166
498882
1777
그 어떤 코드도
08:32
a person사람 with a set세트 of personal개인적인 beliefs신념
167
500683
2495
완전히 말살할 수 없는
자기만의 신념을 가진
08:35
that no code암호 can ever
completely완전히 eradicate근절하다.
168
503202
2525
사람이 있다는 걸 기억해달라고
부탁하고 싶습니다.
08:37
And my message메시지 goes간다
out not only to GoogleGoogle,
169
505751
2434
그리고 제가 드리는 말씀은
구글뿐만이 아니라
08:40
but to all believers신자 in the faith신앙
of code암호 around the world세계.
170
508209
2810
코드를 신뢰하는 전세계 모든
사람들에게도 해당됩니다.
08:43
You need to identify식별하다
your own개인적인 personal개인적인 bias바이어스.
171
511043
2976
여러분은 자신이 가진 편견을
구분해내야 합니다.
08:46
You need to understand알다 that you are human인간의
172
514043
2013
자신이 인간이라는 걸 받아들이고
08:48
and take responsibility책임 accordingly따라서.
173
516080
2491
그에 맞는 책임을 져야 합니다.
08:51
And I say this because I believe
we've우리는 reached도달 한 a point포인트 in time
174
519891
2938
제가 이 말을 하는 이유는
우리가 인간과 기술 간의
08:54
when it's absolutely전혀 imperative피할 수 없는
175
522853
1555
유대를 더 공고히해야 하는
08:56
that we tie넥타이 those bonds채권
together함께 again, tighter더 단단한:
176
524432
3217
절대적으로 중요한 시점에
08:59
the humanities인문학 and the technology과학 기술.
177
527673
2368
다다랐다고 생각하기 때문입니다.
09:02
Tighter더 단단한 than ever.
178
530483
1805
그 어느 때보다 끈끈해야 하죠.
09:04
And, if nothing else그밖에, to remind생각 나게하다 us
that that wonderfully훌륭하게 seductive매혹적인 idea생각
179
532312
3339
그리고 정말 매력적으로 보이는
편파적이지 않고 깨끗한 검색 결과는
09:07
of the unbiased편견없는, clean깨끗한 search수색 result결과
180
535675
2668
지금도, 앞으로도 허구로 남을 가능성이
09:10
is, and is likely아마도 to remain남아있는, a myth신화.
181
538367
2767
높다는 걸 최소한
일깨워드리기 위해서입니다.
09:13
Thank you for your time.
182
541984
1159
시간 내 주셔서 감사합니다.
09:15
(Applause박수 갈채)
183
543167
2432
(박수)
Translated by Ju Hye Lim
Reviewed by Sanghyun Hahn

▲Back to top

ABOUT THE SPEAKER
Andreas Ekström - Author and journalist
Andreas Ekström describes the power structures of the digital revolution.

Why you should listen

Andreas Ekström is staff writer at Sydsvenskan, a daily morning paper in Malmö, Sweden.

His passion is educating for digital equality, and he has a vision for a world in which we share the wealth -- not only financially, but also in terms of knowledge and power. Andreas is the author of six books, a columnist and a commentator, and he often lectures and leads seminars on the digital revolution.

More profile about the speaker
Andreas Ekström | Speaker | TED.com