ABOUT THE SPEAKER
Eli Pariser - Organizer and author
Pioneering online organizer Eli Pariser is the author of "The Filter Bubble," about how personalized search might be narrowing our worldview.

Why you should listen

Shortly after the September 11, 2001, attacks, Eli Pariser created a website calling for a multilateral approach to fighting terrorism. In the following weeks, over half a million people from 192 countries signed on, and Pariser rather unexpectedly became an online organizer. The website merged with MoveOn.org in November 2001, and Pariser -- then 20 years old -- joined the group to direct its foreign policy campaigns. He led what the New York Times Magazine called the "mainstream arm of the peace movement" -- tripling MoveOn's member base and demonstrating how large numbers of small donations could be mobilized through online engagement.

In 2004, Pariser became executive director of MoveOn. Under his leadership, MoveOn.org Political Action has grown to 5 million members and raised over $120 million from millions of small donors to support advocacy campaigns and political candidates. Pariser focused MoveOn on online-to-offline organizing, developing phone-banking tools and precinct programs in 2004 and 2006 that laid the groundwork for Barack Obama's extraordinary web-powered campaign. In 2008, Pariser transitioned the Executive Director role at MoveOn to Justin Ruben and became President of MoveOn’s board; he's now a senior fellow at the Roosevelt Institute.

His book The Filter Bubble is set for release May 12, 2011. In it, he asks how modern search tools -- the filter by which many of see the wider world -- are getting better and better and screening the wider world from us, by returning only the search results it "thinks" we want to see.

More profile about the speaker
Eli Pariser | Speaker | TED.com
TED2011

Eli Pariser: Beware online "filter bubbles"

イーライ・パリザー:危険なインターネット上の「フィルターに囲まれた世界」

Filmed:
5,309,238 views

インターネット企業が私たちの好みに合わせてサービス(ニュースや検索など)をカスタマイズしようと努めるにしたがい、思いもよらぬ害が出てきています。私たちは「フィルターに囲まれた世界」に閉じ込められ、自己の世界観に疑問を投げかけたり視野を広める情報に触れる機会を失っているのです。結果的に私たちのためにならず、民主主義にも悪影響を及ぼすことになるとイーライ・パリザーが強く訴えます。
- Organizer and author
Pioneering online organizer Eli Pariser is the author of "The Filter Bubble," about how personalized search might be narrowing our worldview. Full bio

Double-click the English transcript below to play the video.

00:15
Markマーク Zuckerbergズッカベルク,
0
0
2000
マーク・ザッカーバーグが
00:17
a journalistジャーナリスト was asking尋ねる him a question質問 about the newsニュース feedフィード.
1
2000
3000
ニュース配信について質問されていました
00:20
And the journalistジャーナリスト was asking尋ねる him,
2
5000
2000
「なぜそんなに重要なんですか?」
00:22
"Why is this so important重要?"
3
7000
2000
ジャーナリストが聞くと
00:24
And Zuckerbergズッカベルク said,
4
9000
2000
ザッカーバーグは答えました
00:26
"A squirrelリス dying死ぬ in your frontフロント yardヤード
5
11000
2000
「今あなたの関心事は
00:28
mayかもしれない be more relevant関連する to your interests関心 right now
6
13000
3000
アフリカで死に瀕した人々よりも
00:31
than people dying死ぬ in Africaアフリカ."
7
16000
3000
家の庭で死にかけているリスかもしれないでしょう」
00:34
And I want to talk about
8
19000
2000
この関連性の考え方をもとにした
00:36
what a Webウェブ basedベース on that ideaアイディア of relevance関連性 mightかもしれない look like.
9
21000
3000
ウェブとはどういうことか話したいと思います
00:40
So when I was growing成長する up
10
25000
2000
メイン州の片田舎に住んでいた
00:42
in a really rural農村 areaエリア in Maineメイン州,
11
27000
2000
僕にとって 子供の頃
00:44
the Internetインターネット meant意味した something very different異なる to me.
12
29000
3000
インターネットは全く違う意味を持ったものでした
00:47
It meant意味した a connection接続 to the world世界.
13
32000
2000
世界へのドアであり
00:49
It meant意味した something that would connect接続する us all together一緒に.
14
34000
3000
人々を繋げるものでした
00:52
And I was sure that it was going to be great for democracy民主主義
15
37000
3000
民主主義と僕たちの社会に
00:55
and for our society社会.
16
40000
3000
大きく役立つに違いないと思っていました
00:58
But there's this shiftシフト
17
43000
2000
でも見えないところで
01:00
in how information情報 is flowing流れる onlineオンライン,
18
45000
2000
インターネットでの
01:02
and it's invisible目に見えない.
19
47000
3000
情報の流れに変化がありました
01:05
And if we don't pay支払う attention注意 to it,
20
50000
2000
注意しないと
01:07
it could be a realリアル problem問題.
21
52000
3000
大きな問題になるかもしれません
01:10
So I first noticed気づいた this in a place場所 I spend費やす a lot of time --
22
55000
3000
これに初めて気付いたのは僕がいつも使っている
01:13
my Facebookフェイスブック pageページ.
23
58000
2000
Facebookのページでした
01:15
I'm progressiveプログレッシブ, politically政治的に -- big大きい surprise驚き --
24
60000
3000
見た目どおり 僕は政党的には進歩派ですが
01:18
but I've always gone行った out of my way to meet会う conservatives保守派.
25
63000
2000
進んで保守派と交流しています
01:20
I like hearing聴覚 what they're thinking考え about;
26
65000
2000
保守派の考えを聞いたり
01:22
I like seeing見る what they linkリンク to;
27
67000
2000
何にリンクしているか見たり
01:24
I like learning学習 a thing or two.
28
69000
2000
何か学びたいと思っています
01:26
And so I was surprised驚いた when I noticed気づいた one day
29
71000
3000
ですから ある日僕のFacebookの配信から
01:29
that the conservatives保守派 had disappeared消えた from my Facebookフェイスブック feedフィード.
30
74000
3000
保守派の人たちが消えてしまって驚きました
01:33
And what it turned回した out was going on
31
78000
2000
何が起こったのかと言うと
01:35
was that Facebookフェイスブック was looking at whichどの linksリンク I clickedクリックした on,
32
80000
4000
僕がどのリンクをクリックしているかFacebookがチェックしていて
01:39
and it was noticing気づく that, actually実際に,
33
84000
2000
実際に保守派より
01:41
I was clickingクリックする more on my liberalリベラル friends'友人の ' linksリンク
34
86000
2000
リベラル派の友達のリンクを
01:43
than on my conservative保守的な friends'友人の ' linksリンク.
35
88000
3000
クリックすることが多いと気づき
01:46
And withoutなし consultingコンサルティング me about it,
36
91000
2000
僕に何の相談もなく
01:48
it had edited編集された them out.
37
93000
2000
保守派を削除していたのです
01:50
They disappeared消えた.
38
95000
3000
保守派はいなくなってしまいました
01:54
So Facebookフェイスブック isn't the only place場所
39
99000
2000
このように目に見えないところで
01:56
that's doing this kind種類 of invisible目に見えない, algorithmicアルゴリズム的
40
101000
2000
アルゴリズムによるウェブの
01:58
editing編集 of the Webウェブ.
41
103000
3000
編集をしているのはFacebookだけではありません
02:01
Google'sGoogleの doing it too.
42
106000
2000
Googleもしています
02:03
If I searchサーチ for something, and you searchサーチ for something,
43
108000
3000
何かの検索をするにしても 僕とあなたでは
02:06
even right now at the very same同じ time,
44
111000
2000
たとえ今同時に検索しても
02:08
we mayかもしれない get very different異なる searchサーチ results結果.
45
113000
3000
かなり違う結果になる可能性があります
02:11
Even if you're logged記録された out, one engineerエンジニア told me,
46
116000
3000
あるエンジニアによると ログオンしてなくても
02:14
there are 57 signalsシグナル
47
119000
2000
57個のシグナルを
02:16
that GoogleGoogle looks外見 at --
48
121000
3000
Googleはチェックしているそうです
02:19
everything from what kind種類 of computerコンピューター you're on
49
124000
3000
どんなPCを使っているか
02:22
to what kind種類 of browserブラウザ you're usingを使用して
50
127000
2000
どのブラウザを使っているか
02:24
to where you're located所在地 --
51
129000
2000
現在地は何処かなどによって
02:26
that it uses用途 to personally個人的に tailorテーラー your queryクエリ results結果.
52
131000
3000
検索結果を調節しているのです
02:29
Think about it for a second二番:
53
134000
2000
ちょっと考えてみてください
02:31
there is no standard標準 GoogleGoogle anymoreもう.
54
136000
4000
もう標準のGoogle検索はないのです
02:35
And you know, the funny面白い thing about this is that it's hardハード to see.
55
140000
3000
そして妙なことに これは認識しにくい現象です
02:38
You can't see how different異なる your searchサーチ results結果 are
56
143000
2000
自分の検索結果がどれほど
02:40
from anyone誰でも else's他の.
57
145000
2000
他人のものと違うか分かりません
02:42
But a coupleカップル of weeks ago,
58
147000
2000
でも数週間前
02:44
I asked尋ねた a bunch of friends友達 to GoogleGoogle "Egyptエジプト"
59
149000
3000
Googleで「エジプト」と検索したスクリーンショットを
02:47
and to send送信する me screen画面 shotsショット of what they got.
60
152000
3000
送ってもらうよう大勢の友人に頼みました
02:50
So here'sここにいる my friend友人 Scott'sスコットの screen画面 shotショット.
61
155000
3000
これが友人スコットのスクリーンショットです
02:54
And here'sここにいる my friend友人 Daniel'sダニエルズ screen画面 shotショット.
62
159000
3000
こちらはダニエルからのスクリーンショットです
02:57
When you put them side-by-side並んで,
63
162000
2000
並べて見てみると
02:59
you don't even have to read読む the linksリンク
64
164000
2000
リンクを読むまでもなく
03:01
to see how different異なる these two pagesページ are.
65
166000
2000
2つのページの違いに気付きます
03:03
But when you do read読む the linksリンク,
66
168000
2000
でも実際リンクを読むと
03:05
it's really quiteかなり remarkable顕著.
67
170000
3000
本当に驚きます
03:09
Danielダニエル didn't get anything about the protests抗議 in Egyptエジプト at all
68
174000
3000
ダニエルのGoogle検索結果の最初のページには
03:12
in his first pageページ of GoogleGoogle results結果.
69
177000
2000
エジプトのデモ関連記事が全くなく
03:14
Scott'sスコットの results結果 were full満員 of them.
70
179000
2000
スコットの方はそればかりでした
03:16
And this was the big大きい storyストーリー of the day at that time.
71
181000
2000
この頃大きな話題だったのにです
03:18
That's how different異なる these results結果 are becoming〜になる.
72
183000
3000
これほど検索結果は異なってきています
03:21
So it's not just GoogleGoogle and Facebookフェイスブック eitherどちらか.
73
186000
3000
GoogleとFacebookだけではありません
03:24
This is something that's sweeping掃く the Webウェブ.
74
189000
2000
これはウェブ全体で起こっています
03:26
There are a whole全体 hostホスト of companies企業 that are doing this kind種類 of personalizationパーソナライゼーション.
75
191000
3000
多くの企業がこのようなカスタマイズをしています
03:29
YahooYahoo Newsニュース, the biggest最大 newsニュース siteサイト on the Internetインターネット,
76
194000
3000
Yahoo!ニュースはネット最大のニュースサイトですが
03:32
is now personalizedパーソナライズド -- different異なる people get different異なる things.
77
197000
3000
今ではカスタマイズされた違う内容を提示しています
03:36
HuffingtonHuffington Post役職, the Washingtonワシントン Post役職, the New新しい Yorkヨーク Timesタイムズ --
78
201000
3000
Huffington Postや Washington Postや New York Timesも
03:39
all flirting遊ぶ with personalizationパーソナライゼーション in various様々な ways方法.
79
204000
3000
様々な形でカスタマイズを試みています
03:42
And this moves動き us very quickly早く
80
207000
3000
その結果 インターネットは私たちが見たいものを
03:45
toward〜に向かって a world世界 in whichどの
81
210000
2000
予測して見せているが
03:47
the Internetインターネット is showing表示 us what it thinks考える we want to see,
82
212000
4000
それは必ずしも私たちが見る必要があるものでない
03:51
but not necessarily必ずしも what we need to see.
83
216000
3000
という状況に急速に変わってきています
03:54
As Ericエリック Schmidtシュミット said,
84
219000
3000
エリック・シュミットが言うように
03:57
"It will be very hardハード for people to watch or consume消費する something
85
222000
3000
「全く何のカスタマイズもされていないものを
04:00
that has not in some senseセンス
86
225000
2000
人々が見たり利用したりするのは
04:02
been tailoredテーラード for them."
87
227000
3000
とても難しくなるでしょう」
04:05
So I do think this is a problem問題.
88
230000
2000
ですからこれは問題だと思います
04:07
And I think, if you take all of these filtersフィルター together一緒に,
89
232000
3000
このようなフィルターやアルゴリズムを
04:10
you take all these algorithmsアルゴリズム,
90
235000
2000
全部集めてできるのは
04:12
you get what I call a filterフィルタ bubbleバブル.
91
237000
3000
「フィルターに囲まれた世界」だと思うのです
04:16
And your filterフィルタ bubbleバブル is your own自分の personal個人的,
92
241000
3000
そしてこの「囲まれた世界」がネット上での
04:19
uniqueユニークな universe宇宙 of information情報
93
244000
2000
あなた個人独特の
04:21
that you liveライブ in onlineオンライン.
94
246000
2000
情報世界となるわけです
04:23
And what's in your filterフィルタ bubbleバブル
95
248000
3000
さらに自分の世界に何が含まれるかは 自分が
04:26
depends依存する on who you are, and it depends依存する on what you do.
96
251000
3000
どんな人で何をしているかによって決まります
04:29
But the thing is that you don't decide決めます what gets取得 in.
97
254000
4000
でも何が取り入れられるかは自分次第でないのが問題です
04:33
And more importantly重要なこと,
98
258000
2000
もっと重要なのは
04:35
you don't actually実際に see what gets取得 edited編集された out.
99
260000
3000
何が削除されるか自分には見えないことです
04:38
So one of the problems問題 with the filterフィルタ bubbleバブル
100
263000
2000
フィルターによる問題の1つは
04:40
was discovered発見された by some researchers研究者 at NetflixNetflix.
101
265000
3000
Netflixのデータアナリストたちに発見されました
04:43
And they were looking at the NetflixNetflix queuesキュー, and they noticed気づいた something kind種類 of funny面白い
102
268000
3000
発送待ち段階で妙なことが起こっていたのです
04:46
that a lot of us probably多分 have noticed気づいた,
103
271000
2000
気付いていた人も多いでしょうか
04:48
whichどの is there are some movies映画
104
273000
2000
映画によってはDVDが
04:50
that just sortソート of zipジップ right up and out to our houses.
105
275000
3000
すぐに発送されて家に届きます
04:53
They enter入る the queueキュー, they just zipジップ right out.
106
278000
3000
オーダーが入るとすぐに発送されます
04:56
So "Iron Man" zipsジップ right out,
107
281000
2000
ですから「アイアンマン」はすぐ届くのに
04:58
and "Waiting待っている for Supermanスーパーマン"
108
283000
2000
「ウェイティング・フォー・スーパーマン(原題)」は
05:00
can wait for a really long time.
109
285000
2000
待ち時間がとても長いことがあります
05:02
What they discovered発見された
110
287000
2000
データアナリストたちが
05:04
was that in our NetflixNetflix queuesキュー
111
289000
2000
DVDの発送待ち段階で見たのは
05:06
there's this epicエピック struggle闘争 going on
112
291000
3000
利用者の計画的な向上心と
05:09
betweenの間に our future未来 aspirational意欲的な selves自己
113
294000
3000
もっと衝動的な今の欲望が
05:12
and our more impulsive衝動的な presentプレゼント selves自己.
114
297000
3000
大きく対立している状況でした
05:15
You know we all want to be someone誰か
115
300000
2000
「羅生門」を観たことがある人に
05:17
who has watched見た "Rashomonラソモン,"
116
302000
2000
なりたいと思う一方
05:19
but right now
117
304000
2000
今は 4回目の
05:21
we want to watch "Aceエース Venturaヴェンチュラ" for the fourth第4 time.
118
306000
3000
「エース・ベンチュラ」を観たいわけです
05:24
(Laughter笑い)
119
309000
3000
(笑)
05:27
So the bestベスト editing編集 gives与える us a bitビット of bothどちらも.
120
312000
2000
最良の編集は両面を見せるものです
05:29
It gives与える us a little bitビット of Justinジャスティン Bieberビーバー
121
314000
2000
ジャスティン・ビーバーを少し
05:31
and a little bitビット of Afghanistanアフガニスタン.
122
316000
2000
アフガニスタンを少し
05:33
It gives与える us some information情報 vegetables野菜;
123
318000
2000
ヘルシーな情報と
05:35
it gives与える us some information情報 dessertデザート.
124
320000
3000
デザート的情報も提供するわけです
05:38
And the challengeチャレンジ with these kinds種類 of algorithmicアルゴリズム的 filtersフィルター,
125
323000
2000
アルゴリズムでカスタマイズされた
05:40
these personalizedパーソナライズド filtersフィルター,
126
325000
2000
フィルターの問題点は
05:42
is that, because they're mainly主に looking
127
327000
2000
利用者が何を最初に
05:44
at what you clickクリック on first,
128
329000
4000
クリックしたかを主に参考にしているため
05:48
it can throwスロー off that balanceバランス.
129
333000
4000
そのようなバランスを崩してしまうことです
05:52
And instead代わりに of a balancedバランス information情報 dietダイエット,
130
337000
3000
バランスのとれた情報摂取の代わりに
05:55
you can end終わり up surrounded囲まれた
131
340000
2000
ジャンク情報ばかりに
05:57
by information情報 junkジャンク foodフード.
132
342000
2000
囲まれてしまうこともあり得ます
05:59
What this suggests提案する
133
344000
2000
つまりインターネットに対する
06:01
is actually実際に that we mayかもしれない have the storyストーリー about the Internetインターネット wrong違う.
134
346000
3000
我々の見解は実は間違っているのかもということです
06:04
In a broadcast放送 society社会 --
135
349000
2000
放送社会の
06:06
this is how the founding創業 mythology神話 goes行く --
136
351000
2000
創設神話はこんな感じです
06:08
in a broadcast放送 society社会,
137
353000
2000
「放送社会では
06:10
there were these gatekeepersゲートキーパー, the editors編集者,
138
355000
2000
門番である編集者によって
06:12
and they controlled制御された the flows流れ of information情報.
139
357000
3000
情報の流れがコントロールされていました
06:15
And along一緒に came来た the Internetインターネット and it swept掃討 them out of the way,
140
360000
3000
でもインターネットが現れ 門番を追い払ったので
06:18
and it allowed許可された all of us to connect接続する together一緒に,
141
363000
2000
素晴らしいことに 私たちは
06:20
and it was awesome驚くばかり.
142
365000
2000
繋がり合えるようになりました」
06:22
But that's not actually実際に what's happeningハプニング right now.
143
367000
3000
でも今 実際にはそうなっていません
06:26
What we're seeing見る is more of a passing通過 of the torchトーチ
144
371000
3000
私たちが目にしているのは どちらかと言うと
06:29
from human人間 gatekeepersゲートキーパー
145
374000
2000
人間の門番からアルゴリズムの門番に
06:31
to algorithmicアルゴリズム的 onesもの.
146
376000
3000
バトンが渡されている状況です
06:34
And the thing is that the algorithmsアルゴリズム
147
379000
3000
そして問題なのはアルゴリズムは
06:37
don't yetまだ have the kind種類 of embedded埋め込み ethics倫理
148
382000
3000
編集者が持ち合わせていた倫理観念を
06:40
that the editors編集者 did.
149
385000
3000
まだ持っていないということです
06:43
So if algorithmsアルゴリズム are going to curateキュレート the world世界 for us,
150
388000
3000
ですから世界の情報をアルゴリズムが監修して
06:46
if they're going to decide決めます what we get to see and what we don't get to see,
151
391000
3000
私たちが何を見て 何を見ないか決めるのなら
06:49
then we need to make sure
152
394000
2000
アルゴリズムが関連性以外の要素も
06:51
that they're not just keyedキー付き to relevance関連性.
153
396000
3000
使用するようにしなくてはなりません
06:54
We need to make sure that they alsoまた、 showショー us things
154
399000
2000
見たくないものや難しいもの
06:56
that are uncomfortable不快な or challenging挑戦 or important重要 --
155
401000
3000
重要なものなども提示するようにしなくてはだめです
06:59
this is what TEDTED does --
156
404000
2000
TEDが異なる視点を
07:01
other pointsポイント of view見る.
157
406000
2000
見せていることと同じです
07:03
And the thing is, we've私たちは actually実際に been here before
158
408000
2000
過去我々は同じ問題に
07:05
as a society社会.
159
410000
2000
直面しています
07:08
In 1915, it's not like newspapers新聞 were sweating発汗 a lot
160
413000
3000
1915年当時 新聞は市民としての義務について
07:11
about their彼らの civicシビック responsibilities責任.
161
416000
3000
あまり考えていませんでした
07:14
Then people noticed気づいた
162
419000
2000
でも人々は新聞が
07:16
that they were doing something really important重要.
163
421000
3000
重要な役割を果たしていることに気付きました
07:19
That, in fact事実, you couldn'tできなかった have
164
424000
2000
つまり 市民が
07:21
a functioning機能する democracy民主主義
165
426000
2000
適切な情報を得ていないと
07:23
if citizens市民 didn't get a good flowフロー of information情報,
166
428000
4000
民主主義は機能しないということです よって
07:28
that the newspapers新聞 were criticalクリティカルな because they were acting演技 as the filterフィルタ,
167
433000
3000
情報のフィルターを行う新聞は重要なのです
07:31
and then journalisticジャーナリズム ethics倫理 developed発展した.
168
436000
2000
そしてジャーナリズムの倫理ができました
07:33
It wasn'tなかった perfect完璧な,
169
438000
2000
完璧ではありませんでしたが
07:35
but it got us throughを通して the last century世紀.
170
440000
3000
1世紀の間このやり方をしてきました
07:38
And so now,
171
443000
2000
ですから現在私たちは
07:40
we're kind種類 of back in 1915 on the Webウェブ.
172
445000
3000
ウェブ上での1915年に直面しているようなものです
07:44
And we need the new新しい gatekeepersゲートキーパー
173
449000
3000
プログラムを書く上で このような責任を
07:47
to encodeエンコード that kind種類 of responsibility責任
174
452000
2000
組み込んでくれる
07:49
into the codeコード that they're writing書き込み.
175
454000
2000
新しい門番が必要なのです
07:51
I know that there are a lot of people here from Facebookフェイスブック and from GoogleGoogle --
176
456000
3000
会場にはFacebookとGoogleからの出席者も大勢います
07:54
Larryラリー and Sergeyセルゲイ --
177
459000
2000
ラリーやサーゲイのように
07:56
people who have helped助けた buildビルドする the Webウェブ as it is,
178
461000
2000
今あるウェブの構築に
07:58
and I'm grateful感謝する for that.
179
463000
2000
貢献した人々には感謝しています
08:00
But we really need you to make sure
180
465000
3000
でも私たちは彼らに これらのアルゴリズムに
08:03
that these algorithmsアルゴリズム have encodedコードされた in them
181
468000
3000
生活や市民の義務が組み込まれているように
08:06
a senseセンス of the publicパブリック life, a senseセンス of civicシビック responsibility責任.
182
471000
3000
しっかり確認してもらいたいのです
08:09
We need you to make sure that they're transparentトランスペアレント enough十分な
183
474000
3000
アルゴリズムが明白で何が入ってくるかを決める
08:12
that we can see what the rulesルール are
184
477000
2000
フィルターのルールが
08:14
that determine決定する what gets取得 throughを通して our filtersフィルター.
185
479000
3000
理解できるようにして欲しいのです
08:17
And we need you to give us some controlコントロール
186
482000
2000
さらに自分で何が削除されて
08:19
so that we can decide決めます
187
484000
2000
何がされないか決められるように
08:21
what gets取得 throughを通して and what doesn't.
188
486000
3000
管理できるオプションを提供してもらいたいです
08:24
Because I think
189
489000
2000
これも インターネットが私たちの
08:26
we really need the Internetインターネット to be that thing
190
491000
2000
思い描いていたようなものに
08:28
that we all dreamed夢見る of it beingであること.
191
493000
2000
なってもらう必要があると思うからです
08:30
We need it to connect接続する us all together一緒に.
192
495000
3000
みんなを繋ぐものであり
08:33
We need it to introduce紹介する us to new新しい ideasアイデア
193
498000
3000
新しいアイデアや人々 そして
08:36
and new新しい people and different異なる perspectives視点.
194
501000
3000
異なる視点を提示するものであるべきです
08:40
And it's not going to do that
195
505000
2000
これを達成するには
08:42
if it leaves us all isolated分離された in a Webウェブ of one.
196
507000
3000
ウェブ上で私たちが孤立しないようにするべきです
08:45
Thank you.
197
510000
2000
ありがとう
08:47
(Applause拍手)
198
512000
11000
(拍手)
Translated by Sawa Horibe
Reviewed by Takafusa Kitazume

▲Back to top

ABOUT THE SPEAKER
Eli Pariser - Organizer and author
Pioneering online organizer Eli Pariser is the author of "The Filter Bubble," about how personalized search might be narrowing our worldview.

Why you should listen

Shortly after the September 11, 2001, attacks, Eli Pariser created a website calling for a multilateral approach to fighting terrorism. In the following weeks, over half a million people from 192 countries signed on, and Pariser rather unexpectedly became an online organizer. The website merged with MoveOn.org in November 2001, and Pariser -- then 20 years old -- joined the group to direct its foreign policy campaigns. He led what the New York Times Magazine called the "mainstream arm of the peace movement" -- tripling MoveOn's member base and demonstrating how large numbers of small donations could be mobilized through online engagement.

In 2004, Pariser became executive director of MoveOn. Under his leadership, MoveOn.org Political Action has grown to 5 million members and raised over $120 million from millions of small donors to support advocacy campaigns and political candidates. Pariser focused MoveOn on online-to-offline organizing, developing phone-banking tools and precinct programs in 2004 and 2006 that laid the groundwork for Barack Obama's extraordinary web-powered campaign. In 2008, Pariser transitioned the Executive Director role at MoveOn to Justin Ruben and became President of MoveOn’s board; he's now a senior fellow at the Roosevelt Institute.

His book The Filter Bubble is set for release May 12, 2011. In it, he asks how modern search tools -- the filter by which many of see the wider world -- are getting better and better and screening the wider world from us, by returning only the search results it "thinks" we want to see.

More profile about the speaker
Eli Pariser | Speaker | TED.com