ABOUT THE SPEAKER
Eli Pariser - Organizer and author
Pioneering online organizer Eli Pariser is the author of "The Filter Bubble," about how personalized search might be narrowing our worldview.

Why you should listen

Shortly after the September 11, 2001, attacks, Eli Pariser created a website calling for a multilateral approach to fighting terrorism. In the following weeks, over half a million people from 192 countries signed on, and Pariser rather unexpectedly became an online organizer. The website merged with MoveOn.org in November 2001, and Pariser -- then 20 years old -- joined the group to direct its foreign policy campaigns. He led what the New York Times Magazine called the "mainstream arm of the peace movement" -- tripling MoveOn's member base and demonstrating how large numbers of small donations could be mobilized through online engagement.

In 2004, Pariser became executive director of MoveOn. Under his leadership, MoveOn.org Political Action has grown to 5 million members and raised over $120 million from millions of small donors to support advocacy campaigns and political candidates. Pariser focused MoveOn on online-to-offline organizing, developing phone-banking tools and precinct programs in 2004 and 2006 that laid the groundwork for Barack Obama's extraordinary web-powered campaign. In 2008, Pariser transitioned the Executive Director role at MoveOn to Justin Ruben and became President of MoveOn’s board; he's now a senior fellow at the Roosevelt Institute.

His book The Filter Bubble is set for release May 12, 2011. In it, he asks how modern search tools -- the filter by which many of see the wider world -- are getting better and better and screening the wider world from us, by returning only the search results it "thinks" we want to see.

More profile about the speaker
Eli Pariser | Speaker | TED.com
TED2011

Eli Pariser: Beware online "filter bubbles"

일라이 파리저(Eli Pariser): 온라인 "필터 버블"을 주의하세요

Filmed:
5,309,238 views

웹 기업들이 그들의 서비스(뉴스와 검색 결과를 포함하여)를 우리의 개인적 성향에 맞추기 위해 노력할 때, 위험하고 의도하지 않은 결과가 나타납니다. 우리는 "필터 버블"의 함정에 빠지고, 우리의 세계관에 도전적이 되거나 확장시킬 수 있는 정보에 노출되지 못하게 됩니다. 일라이 파리저는 이것이 궁극적으로 우리와 민주주의에 나쁜 영향을 끼칠 것이라고 강력하게 주장합니다.
- Organizer and author
Pioneering online organizer Eli Pariser is the author of "The Filter Bubble," about how personalized search might be narrowing our worldview. Full bio

Double-click the English transcript below to play the video.

00:15
Mark Zuckerberg주커 버그,
0
0
2000
한 언론인이
00:17
a journalist기자 was asking질문 him a question문제 about the news뉴스 feed먹이.
1
2000
3000
마크 주커버그에게
뉴스 피드에 대한 질문을 했습니다.
00:20
And the journalist기자 was asking질문 him,
2
5000
2000
그 언론인은 이렇게 물었죠.
00:22
"Why is this so important중대한?"
3
7000
2000
"이것이 왜 그렇게 중요한가요?"
00:24
And Zuckerberg주커 버그 said,
4
9000
2000
주커버그가 답했습니다.
00:26
"A squirrel다람쥐 dying사망 in your front yard마당
5
11000
2000
"아프리카에서 죽어가는 사람들 보다
00:28
may할 수있다 be more relevant관련된 to your interests이해 right now
6
13000
3000
여러분 앞마당에서 죽어가는 다람쥐가
00:31
than people dying사망 in Africa아프리카."
7
16000
3000
지금 당장은 더 관심이 갈지도 모릅니다."
00:34
And I want to talk about
8
19000
2000
저는 관련성의 아이디어에 바탕을 둔
00:36
what a Web편물 based기반 on that idea생각 of relevance관련성 might look like.
9
21000
3000
웹이 어떤 것인가에 대해서
말하고자 합니다.
00:40
So when I was growing성장하는 up
10
25000
2000
제가 메인주의 시골에서
00:42
in a really rural시골의 area지역 in Maine메인,
11
27000
2000
성장할 때는,
00:44
the Internet인터넷 meant의미심장 한 something very different다른 to me.
12
29000
3000
인터넷은 제게 아주
다른 것을 의미했습니다.
00:47
It meant의미심장 한 a connection연결 to the world세계.
13
32000
2000
세계와의 연결을 의미했죠.
00:49
It meant의미심장 한 something that would connect잇다 us all together함께.
14
34000
3000
우리를 다함께 연결할 뭔가를 의미했죠.
00:52
And I was sure that it was going to be great for democracy민주주의
15
37000
3000
저는 인터넷이 민주주의와 우리 사회에
00:55
and for our society사회.
16
40000
3000
유익할 것이라고 확신했습니다.
00:58
But there's this shift시프트
17
43000
2000
하지만 온라인에서
01:00
in how information정보 is flowing흐르는 online온라인,
18
45000
2000
어떻게 정보가 공급되는지에
변화가 존재하고,
01:02
and it's invisible보이지 않는.
19
47000
3000
그것은 눈에 띄지 않죠.
01:05
And if we don't pay지불 attention주의 to it,
20
50000
2000
그리고 거기에 관심을
기울이지 않는다면,
01:07
it could be a real레알 problem문제.
21
52000
3000
진짜 문제가 될 수 있습니다.
01:10
So I first noticed알아 차 렸던 this in a place장소 I spend보내 a lot of time --
22
55000
3000
저는 이것을 제가 많은 시간을
보내는 페이스북에서
01:13
my Facebook페이스 북 page페이지.
23
58000
2000
처음으로 인지했습니다.
01:15
I'm progressive진보적 인, politically정치상 -- big surprise놀람 --
24
60000
3000
저는 진보적 정치 성향을 가지고 있습니다.
놀랄만한 일인가요.
01:18
but I've always gone지나간 out of my way to meet만나다 conservatives보수파.
25
63000
2000
하지만 저는 늘 보수적 성향의 사람들을
만나려고 노력했습니다.
01:20
I like hearing듣기 what they're thinking생각 about;
26
65000
2000
저는 그들이 생각하는 바를
경청하기 좋아합니다.
01:22
I like seeing what they link링크 to;
27
67000
2000
저는 그들이 연관되어 있는 것을
확인하기 좋아합니다.
01:24
I like learning배우기 a thing or two.
28
69000
2000
저는 이것 저것 배우는 것을 좋아합니다.
01:26
And so I was surprised놀란 when I noticed알아 차 렸던 one day
29
71000
3000
그래서 어느날 보수주의자들이
제 페이스북 피드에서
01:29
that the conservatives보수파 had disappeared사라진 from my Facebook페이스 북 feed먹이.
30
74000
3000
사라졌다는 것을 알았을 때
깜짝 놀랐습니다.
01:33
And what it turned돌린 out was going on
31
78000
2000
페이스북이 제가 어떤 링크를
01:35
was that Facebook페이스 북 was looking at which어느 links모래밭 I clicked클릭 한 on,
32
80000
4000
클릭하는지 살펴보고 있었고,
그것은 실제로
01:39
and it was noticing알아 차리는 that, actually사실은,
33
84000
2000
제가 보수적 성향의 친구들 보다
01:41
I was clicking클릭 more on my liberal선심 쓰는 friends'친구' links모래밭
34
86000
2000
진보적 성향을 가진 친구들의 링크를
01:43
than on my conservative전통적인 friends'친구' links모래밭.
35
88000
3000
더 많이 클릭했다는 것을
나타내는 것이었죠.
01:46
And without없이 consulting컨설팅 me about it,
36
91000
2000
그리고 제 의견을 묻지도 않고
01:48
it had edited편집 된 them out.
37
93000
2000
페이스북은 그것을 편집해 버렸습니다.
01:50
They disappeared사라진.
38
95000
3000
그들은 사라졌죠.
01:54
So Facebook페이스 북 isn't the only place장소
39
99000
2000
페이스북만이 이런 눈에 띄지 않는
01:56
that's doing this kind종류 of invisible보이지 않는, algorithmic알고리즘의
40
101000
2000
알고리즘적인 웹 편집을
01:58
editing편집 of the Web편물.
41
103000
3000
실행하고 있는 것이 아닙니다.
02:01
Google'sGoogle의 doing it too.
42
106000
2000
구글 역시 그렇게 합니다.
02:03
If I search수색 for something, and you search수색 for something,
43
108000
3000
제가 뭔가를 검색하고,
여러분이 검색을 한다면,
02:06
even right now at the very same같은 time,
44
111000
2000
바로 지금 동시에 검색을 할지라도,
02:08
we may할 수있다 get very different다른 search수색 results결과들.
45
113000
3000
서로 다른 검색 결과를 얻을 것입니다.
02:11
Even if you're logged기록 된 out, one engineer기사 told me,
46
116000
3000
한 엔지니어가 제게 말하길,
비록 로그 아웃 했을지라도
02:14
there are 57 signals신호들
47
119000
2000
여러분의 질의 결과에
02:16
that GoogleGoogle looks외모 at --
48
121000
3000
개별적으로 맞추기 위해
02:19
everything from what kind종류 of computer컴퓨터 you're on
49
124000
3000
구글은 57개의 신호들을 살펴본다고 합니다.
02:22
to what kind종류 of browser브라우저 you're using~을 사용하여
50
127000
2000
어떤 종류의 컴퓨터를 사용하는지,
02:24
to where you're located위치한 --
51
129000
2000
어떤 종류의 브라우저를 사용하는지,
02:26
that it uses용도 to personally몸소 tailor재단사 your query질문 results결과들.
52
131000
3000
어느 지역에 있는지까지 모든 것을 말이죠.
02:29
Think about it for a second둘째:
53
134000
2000
잠시 그것을 생각해보세요.
02:31
there is no standard표준 GoogleGoogle anymore더 이상.
54
136000
4000
표준화된 구글은
더 이상 존재하지 않습니다.
02:35
And you know, the funny이상한 thing about this is that it's hard단단한 to see.
55
140000
3000
그리고 재미있는 것은
이것이 눈에 띄기 힘들다는 것입니다.
02:38
You can't see how different다른 your search수색 results결과들 are
56
143000
2000
여러분의 검색 결과가
다른 사람들의 것과
02:40
from anyone누군가 else's다른.
57
145000
2000
얼마나 다른지 볼 수 없습니다.
02:42
But a couple of weeks ago...전에,
58
147000
2000
하지만 2주 전에,
02:44
I asked물었다 a bunch다발 of friends친구 to GoogleGoogle "Egypt이집트"
59
149000
3000
저는 친구들에게
구글에서 "이집트"를 검색해보고
02:47
and to send보내다 me screen화면 shots주사 of what they got.
60
152000
3000
그 결과의 스크린 샷을
보내달라고 부탁했습니다.
02:50
So here's여기에 my friend친구 Scott's스콧 screen화면 shot.
61
155000
3000
여기 제 친구 스콧의
스크린 샷이 있습니다.
02:54
And here's여기에 my friend친구 Daniel's다니엘의 screen화면 shot.
62
159000
3000
그리고 제 친구 다니엘의
스크린 샷입니다.
02:57
When you put them side-by-side나란히,
63
162000
2000
그것들을 나란히 놓고 볼 때,
02:59
you don't even have to read독서 the links모래밭
64
164000
2000
이 두 페이지가 어떻게 다른지
03:01
to see how different다른 these two pages페이지들 are.
65
166000
2000
링크들을 읽어볼 필요도 없습니다.
03:03
But when you do read독서 the links모래밭,
66
168000
2000
하지만 그 링크들을 읽어보면,
03:05
it's really quite아주 remarkable주목할 만한.
67
170000
3000
정말 아주 놀랄만합니다.
03:09
Daniel다니엘 didn't get anything about the protests시위 in Egypt이집트 at all
68
174000
3000
다니엘은 구글 검색 결과의
첫 페이지에서 이집트에서의
03:12
in his first page페이지 of GoogleGoogle results결과들.
69
177000
2000
시위에 대해 아무런 결과도 얻지 못했습니다.
03:14
Scott's스콧 results결과들 were full완전한 of them.
70
179000
2000
스콧의 결과는 시위에 대해 가득했습니다.
03:16
And this was the big story이야기 of the day at that time.
71
181000
2000
시위는 그 당시의 가장 큰 뉴스거리였죠.
03:18
That's how different다른 these results결과들 are becoming어울리는.
72
183000
3000
그것이 이 결과들이
얼마나 달라지는가 하는 것입니다.
03:21
So it's not just GoogleGoogle and Facebook페이스 북 either어느 한 쪽.
73
186000
3000
구글과 페이스북만 그런 것이 아닙니다.
03:24
This is something that's sweeping청소 the Web편물.
74
189000
2000
이것은 웹에 광범위하게
나타나는 것입니다.
03:26
There are a whole완전한 host숙주 of companies회사들 that are doing this kind종류 of personalization개인화.
75
191000
3000
이런 개인화를 실행하고 있는
수 많은 기업들이 존재합니다.
03:29
Yahoo야후 News뉴스, the biggest가장 큰 news뉴스 site대지 on the Internet인터넷,
76
194000
3000
인터넷 최대 뉴스 사이트인
야후 뉴스는
03:32
is now personalized개인화 된 -- different다른 people get different다른 things.
77
197000
3000
이제 개인화 되어, 서로 다른 사람들이
서로 다른 결과를 얻습니다.
03:36
Huffington허 핑턴 Post게시하다, the Washington워싱턴 Post게시하다, the New새로운 York요크 Times타임스 --
78
201000
3000
허핑톤 포스트, 워싱턴 포스트, 뉴욕 타임즈 등
03:39
all flirting유혹 with personalization개인화 in various여러 ways.
79
204000
3000
모두가 개인화를 다양한 방식으로
시도하고 있습니다.
03:42
And this moves움직임 us very quickly빨리
80
207000
3000
이것이 인터넷이 우리가 보기 원한다고
03:45
toward...쪽으로 a world세계 in which어느
81
210000
2000
생각하지만 우리가 반드시
03:47
the Internet인터넷 is showing전시 us what it thinks생각해. we want to see,
82
212000
4000
볼 필요는 없는 것을 보여주는 세상으로
03:51
but not necessarily필연적으로 what we need to see.
83
216000
3000
빠르게 움직이게 하고 있습니다.
03:54
As Eric에릭 Schmidt슈미트 said,
84
219000
3000
에릭 슈미트가
03:57
"It will be very hard단단한 for people to watch or consume바싹 여위다 something
85
222000
3000
"어떤 의미에서, 사람들이
그들에게 맞춰지지 않은
04:00
that has not in some sense감각
86
225000
2000
뭔가를 보고, 소비한다는 것은
04:02
been tailored맞춤형 for them."
87
227000
3000
매우 힘든 일이 될 것입니다."
라고 말한 대로
04:05
So I do think this is a problem문제.
88
230000
2000
저는 이것이 정말 문제라고
생각합니다.
04:07
And I think, if you take all of these filters필터 together함께,
89
232000
3000
여러분이 이런 필터들과 알고리즘들을
04:10
you take all these algorithms알고리즘,
90
235000
2000
함께 사용한다면, 제가 필터 버블이라
04:12
you get what I call a filter필터 bubble거품.
91
237000
3000
부르는 것을 겪을 것이라고 생각합니다.
04:16
And your filter필터 bubble거품 is your own개인적인 personal개인적인,
92
241000
3000
여러분의 필터 버블은 온라인에서
04:19
unique독특한 universe우주 of information정보
93
244000
2000
살아가는 여러분만의 개인적인
04:21
that you live살고 있다 in online온라인.
94
246000
2000
유일무이한 정보 우주입니다.
04:23
And what's in your filter필터 bubble거품
95
248000
3000
여러분의 필터 버블 안에 있는 것은
04:26
depends의존하다 on who you are, and it depends의존하다 on what you do.
96
251000
3000
여러분이 누구인가, 여러분이
무엇을 하는가에 달려있습니다.
04:29
But the thing is that you don't decide결정하다 what gets도착 in.
97
254000
4000
하지만 무엇이 포함될지
여러분이 결정하지 않습니다.
04:33
And more importantly중요하게,
98
258000
2000
그리고 보다 중요하게는,
04:35
you don't actually사실은 see what gets도착 edited편집 된 out.
99
260000
3000
실제로 무엇이 편집되어
사라지는지 확인하지 않습니다.
04:38
So one of the problems문제들 with the filter필터 bubble거품
100
263000
2000
필터 버블의 문제점 중 하나는
04:40
was discovered발견 된 by some researchers연구원 at Netflix넷플릭스.
101
265000
3000
넷플릭스의 연구자들에 의해
발견되었습니다.
04:43
And they were looking at the Netflix넷플릭스 queues대기열, and they noticed알아 차 렸던 something kind종류 of funny이상한
102
268000
3000
그들은 넷플릭스의 큐(queue)를 들여다 봤고, 아마도 우리 중 많은 수가 인지해 왔을
04:46
that a lot of us probably아마 have noticed알아 차 렸던,
103
271000
2000
재미난 뭔가를 알아냈습니다.
04:48
which어느 is there are some movies영화 산업
104
273000
2000
압축 된 후, 즉시 우리의 가정으로
04:50
that just sort종류 of zip지퍼 right up and out to our houses주택들.
105
275000
3000
압축이 해제됬던
영화 파일들이 있었던 겁니다.
04:53
They enter들어가다 the queue, they just zip지퍼 right out.
106
278000
3000
영화들은 큐에 들어가고,
바로 압축이 해제됩니다.
04:56
So "Iron Man" zips지퍼 right out,
107
281000
2000
"아이언맨"은 바로 압축이 풀어지고,
04:58
and "Waiting기다리는 for Superman초인"
108
283000
2000
"슈퍼맨을 기다리며"는
05:00
can wait for a really long time.
109
285000
2000
오랜 시간 대기열을 탑니다.
05:02
What they discovered발견 된
110
287000
2000
우리 넷플릭스 큐에서
05:04
was that in our Netflix넷플릭스 queues대기열
111
289000
2000
그들이 발견한 것은
05:06
there's this epic서사시 struggle노력 going on
112
291000
3000
우리 열망하는 미래의 자아들과
05:09
between중에서 our future미래 aspirational열망하는 selves자아
113
294000
3000
보다 충동적인 현재의 자아 사이에서
05:12
and our more impulsive충동적인 present선물 selves자아.
114
297000
3000
서사시적인 투쟁이 존재한다는 것입니다.
05:15
You know we all want to be someone어떤 사람
115
300000
2000
우리는 모두 "라쇼몽"을 본
05:17
who has watched보았다 "Rashomon라쇼 몽,"
116
302000
2000
사람이 되기를 바라지만,
05:19
but right now
117
304000
2000
당장은
05:21
we want to watch "Ace에이스 Ventura벤츄라" for the fourth네번째 time.
118
306000
3000
"에이스 벤츄라"를
네 번째로 보기 원합니다.
05:24
(Laughter웃음)
119
309000
3000
(웃음)
05:27
So the best베스트 editing편집 gives주는 us a bit비트 of both양자 모두.
120
312000
2000
최상의 편집은 우리에게
양쪽 측면을 조금씩 건내줍니다.
05:29
It gives주는 us a little bit비트 of Justin저스틴 Bieber비버
121
314000
2000
저스틴 비버에 대해 조금,
05:31
and a little bit비트 of Afghanistan아프가니스탄.
122
316000
2000
아프가니스탄에 대해 조금 건내주죠.
05:33
It gives주는 us some information정보 vegetables야채;
123
318000
2000
그것은 우리에게
정보 야채를 제공합니다.
05:35
it gives주는 us some information정보 dessert디저트.
124
320000
3000
그것은 우리에게
정보 디저트를 제공하죠.
05:38
And the challenge도전 with these kinds종류 of algorithmic알고리즘의 filters필터,
125
323000
2000
이런 종류의 알고리즘 필터,
05:40
these personalized개인화 된 filters필터,
126
325000
2000
개인화 필터의 문제점은
05:42
is that, because they're mainly주로 looking
127
327000
2000
여러분이 가장 처음에 무엇을 클릭하는지
05:44
at what you click딸깍 하는 소리 on first,
128
329000
4000
주로 탐색을 하기 때문에
05:48
it can throw던지다 off that balance밸런스.
129
333000
4000
균형을 깰 수가 있다는 것입니다.
05:52
And instead대신에 of a balanced균형이 잡힌 information정보 diet다이어트,
130
337000
3000
균형잡힌 정보 식단 대신에,
05:55
you can end종료 up surrounded둘러싸인
131
340000
2000
정보 정크 푸드로
05:57
by information정보 junk정크 food식품.
132
342000
2000
둘러싸일 수 있습니다.
05:59
What this suggests제안
133
344000
2000
이것은 실제로 인터넷에 대해
06:01
is actually사실은 that we may할 수있다 have the story이야기 about the Internet인터넷 wrong잘못된.
134
346000
3000
우리가 원하는 것이 아닌 기사를
볼 수도 있다는 것을 시사합니다.
06:04
In a broadcast방송 society사회 --
135
349000
2000
정보 배급 사회에서
06:06
this is how the founding창립 mythology신화학 goes간다 --
136
351000
2000
이것은 어떻게 시작되는
이야기인가 하는 것입니다.
06:08
in a broadcast방송 society사회,
137
353000
2000
방송 사회에서는
06:10
there were these gatekeepers게이트 키퍼, the editors편집자,
138
355000
2000
정보관리자, 편집자가 있어서
06:12
and they controlled통제 된 the flows흐름 of information정보.
139
357000
3000
정보의 흐름을 제어했습니다.
06:15
And along...을 따라서 came왔다 the Internet인터넷 and it swept쓸어 버린 them out of the way,
140
360000
3000
인터넷이 등장하자 모든 것을 쓸어버렸고,
06:18
and it allowed허용 된 all of us to connect잇다 together함께,
141
363000
2000
우리 모두가 함께 연결되도록 했습니다.
06:20
and it was awesome대단한.
142
365000
2000
그것은 정말 대단했습니다.
06:22
But that's not actually사실은 what's happening사고 right now.
143
367000
3000
하지만 그것은 실제로
바로 지금 벌어지는 일이 아닙니다.
06:26
What we're seeing is more of a passing통과 of the torch토치
144
371000
3000
우리가 보고 있는 것은 오히려
인간 정보 관리자에서
06:29
from human인간의 gatekeepers게이트 키퍼
145
374000
2000
알고리즘 정보 관리자로
06:31
to algorithmic알고리즘의 ones그들.
146
376000
3000
주도권이 넘어가는 것입니다.
06:34
And the thing is that the algorithms알고리즘
147
379000
3000
문제는 그 알고리즘은 아직까지
06:37
don't yet아직 have the kind종류 of embedded내장 된 ethics윤리학
148
382000
3000
편집자들과 같이 일종의 내면적 윤리를
06:40
that the editors편집자 did.
149
385000
3000
가지고 있지 못하다는 것입니다.
06:43
So if algorithms알고리즘 are going to curate보좌 신부 the world세계 for us,
150
388000
3000
그래서 알고리즘이 우리를 위해
세상을 조율할 것이라면,
06:46
if they're going to decide결정하다 what we get to see and what we don't get to see,
151
391000
3000
또 알고리즘이 우리가 무엇을 보고
보지 않을지 결정할 것이라면,
06:49
then we need to make sure
152
394000
2000
그것이 그저 관련성에
06:51
that they're not just keyed건이 있는 to relevance관련성.
153
396000
3000
맞춰진 것이 아님을 확실히 할
필요가 있습니다.
06:54
We need to make sure that they also또한 show보여 주다 us things
154
399000
2000
또한 거북하거나,
도전적이거나, 또는 중요한
06:56
that are uncomfortable앉기 불편한 or challenging도전적인 or important중대한 --
155
401000
3000
다른 관점들을 우리에게
보여주기도 한다는 것을
06:59
this is what TED테드 does --
156
404000
2000
확실히 할 필요가 있습니다.
07:01
other points전철기 of view전망.
157
406000
2000
이것이 TED가 하는 일입니다.
07:03
And the thing is, we've우리는 actually사실은 been here before
158
408000
2000
우린 사실 하나의 사회로서 전에 여기
07:05
as a society사회.
159
410000
2000
있어왔던 것입니다.
07:08
In 1915, it's not like newspapers신문 were sweating발한 a lot
160
413000
3000
그것은 1915년 신문들이
그들의 시민적 책임에 대해
07:11
about their그들의 civic시민의 responsibilities책임.
161
416000
3000
많이 노력했던 것과는 다릅니다.
07:14
Then people noticed알아 차 렸던
162
419000
2000
그 당시 사람들은
07:16
that they were doing something really important중대한.
163
421000
3000
신문이 아주 중요한 일을
하고 있음을 인지했습니다.
07:19
That, in fact, you couldn't할 수 없었다 have
164
424000
2000
사실, 시민들에게 괜찮은 정보가
07:21
a functioning작동 democracy민주주의
165
426000
2000
유입되지 못한다면,
07:23
if citizens시민 didn't get a good flow흐름 of information정보,
166
428000
4000
민주주의가 제 기능을
할 수가 없습니다.
07:28
that the newspapers신문 were critical결정적인 because they were acting연기 as the filter필터,
167
433000
3000
신문이 필터로서 작용했기 때문에
매우 중요했고,
07:31
and then journalistic신문 잡지 ethics윤리학 developed개발 된.
168
436000
2000
그리고 나서 기자의 윤리가
발전했습니다.
07:33
It wasn't아니었다. perfect완전한,
169
438000
2000
완벽하지는 않지만,
07:35
but it got us through...을 통하여 the last century세기.
170
440000
3000
우리가 지난 세기를 지나오게 했습니다.
07:38
And so now,
171
443000
2000
그래서 현재,
07:40
we're kind종류 of back in 1915 on the Web편물.
172
445000
3000
우리는 웹상에서 1915년으로
돌아와 있는 것과 같습니다.
07:44
And we need the new새로운 gatekeepers게이트 키퍼
173
449000
3000
그런 책임을 그들이 만들고 있는
07:47
to encode인코딩하다 that kind종류 of responsibility책임
174
452000
2000
코드로 표현할
07:49
into the code암호 that they're writing쓰기.
175
454000
2000
새로운 정보 관리자가 필요합니다.
07:51
I know that there are a lot of people here from Facebook페이스 북 and from GoogleGoogle --
176
456000
3000
페이스북과 구글에 있는 많은 분들이
여기 오신 것으로 압니다.
07:54
Larry래리 and Sergey세르게이 --
177
459000
2000
래리와 세르게이는
07:56
people who have helped도움이 된 build짓다 the Web편물 as it is,
178
461000
2000
현재 상황으로 웹을 구축하는데
일조한 사람들이고,
07:58
and I'm grateful기분 좋은 for that.
179
463000
2000
그것에 대단히 감사를 드립니다.
08:00
But we really need you to make sure
180
465000
3000
하지만 거기 있는 이 알고리즘들이
08:03
that these algorithms알고리즘 have encoded암호화 된 in them
181
468000
3000
공공의 삶의 의미와
시민적 책임의 의미로
08:06
a sense감각 of the public공공의 life, a sense감각 of civic시민의 responsibility책임.
182
471000
3000
만들어진 것인지 확실히 할
필요가 있습니다.
08:09
We need you to make sure that they're transparent투명한 enough충분히
183
474000
3000
우리 필터들을 통해서 결정하는 규칙들이
08:12
that we can see what the rules규칙들 are
184
477000
2000
어떤 것인지 볼 수 있을만큼
충분히 투명한지
08:14
that determine결정 what gets도착 through...을 통하여 our filters필터.
185
479000
3000
확실히 할 필요가 있습니다.
08:17
And we need you to give us some control제어
186
482000
2000
여러분이 저희에게
약간의 제어권을 주면
08:19
so that we can decide결정하다
187
484000
2000
무엇이 전달되고
08:21
what gets도착 through...을 통하여 and what doesn't.
188
486000
3000
무엇이 그렇지 않을지
결정할 수 있습니다.
08:24
Because I think
189
489000
2000
저는 우리 모두가
08:26
we really need the Internet인터넷 to be that thing
190
491000
2000
꿈꾸는 것이 되는 인터넷이 정말
08:28
that we all dreamed꿈꾸는 of it being존재.
191
493000
2000
필요하다고 생각하기 때문입니다.
08:30
We need it to connect잇다 us all together함께.
192
495000
3000
우리 모두를 연결하기 위해
그것이 필요합니다.
08:33
We need it to introduce끼워 넣다 us to new새로운 ideas아이디어
193
498000
3000
우리에게 새로운 아이디어와
새로운 사람들,
08:36
and new새로운 people and different다른 perspectives전망.
194
501000
3000
다른 시각들을 소개하기 위해
그것이 필요합니다.
08:40
And it's not going to do that
195
505000
2000
웹에서 우리 모두가 개개인으로 외따로 있다면
08:42
if it leaves이파리 us all isolated외딴 in a Web편물 of one.
196
507000
3000
그렇게 되지 않을 것입니다.
08:45
Thank you.
197
510000
2000
감사합니다.
08:47
(Applause박수 갈채)
198
512000
11000
(박수)
Translated by Jae Ju LEE
Reviewed by Bianca Lee

▲Back to top

ABOUT THE SPEAKER
Eli Pariser - Organizer and author
Pioneering online organizer Eli Pariser is the author of "The Filter Bubble," about how personalized search might be narrowing our worldview.

Why you should listen

Shortly after the September 11, 2001, attacks, Eli Pariser created a website calling for a multilateral approach to fighting terrorism. In the following weeks, over half a million people from 192 countries signed on, and Pariser rather unexpectedly became an online organizer. The website merged with MoveOn.org in November 2001, and Pariser -- then 20 years old -- joined the group to direct its foreign policy campaigns. He led what the New York Times Magazine called the "mainstream arm of the peace movement" -- tripling MoveOn's member base and demonstrating how large numbers of small donations could be mobilized through online engagement.

In 2004, Pariser became executive director of MoveOn. Under his leadership, MoveOn.org Political Action has grown to 5 million members and raised over $120 million from millions of small donors to support advocacy campaigns and political candidates. Pariser focused MoveOn on online-to-offline organizing, developing phone-banking tools and precinct programs in 2004 and 2006 that laid the groundwork for Barack Obama's extraordinary web-powered campaign. In 2008, Pariser transitioned the Executive Director role at MoveOn to Justin Ruben and became President of MoveOn’s board; he's now a senior fellow at the Roosevelt Institute.

His book The Filter Bubble is set for release May 12, 2011. In it, he asks how modern search tools -- the filter by which many of see the wider world -- are getting better and better and screening the wider world from us, by returning only the search results it "thinks" we want to see.

More profile about the speaker
Eli Pariser | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee