English-Video.net comment policy

The comment field is common to all languages

Let's write in your language and use "Google Translate" together

Please refer to informative community guidelines on TED.com

TED2011

Eli Pariser: Beware online "filter bubbles"

イーライ・パリザー:危険なインターネット上の「フィルターに囲まれた世界」

Filmed
Views 4,090,714

インターネット企業が私たちの好みに合わせてサービス(ニュースや検索など)をカスタマイズしようと努めるにしたがい、思いもよらぬ害が出てきています。私たちは「フィルターに囲まれた世界」に閉じ込められ、自己の世界観に疑問を投げかけたり視野を広める情報に触れる機会を失っているのです。結果的に私たちのためにならず、民主主義にも悪影響を及ぼすことになるとイーライ・パリザーが強く訴えます。

- Organizer and author
Pioneering online organizer Eli Pariser is the author of "The Filter Bubble," about how personalized search might be narrowing our worldview. Full bio

Mark Zuckerberg,
マーク・ザッカーバーグが
00:15
a journalist was asking him a question about the news feed.
ニュース配信について質問されていました
00:17
And the journalist was asking him,
「なぜそんなに重要なんですか?」
00:20
"Why is this so important?"
ジャーナリストが聞くと
00:22
And Zuckerberg said,
ザッカーバーグは答えました
00:24
"A squirrel dying in your front yard
「今あなたの関心事は
00:26
may be more relevant to your interests right now
アフリカで死に瀕した人々よりも
00:28
than people dying in Africa."
家の庭で死にかけているリスかもしれないでしょう」
00:31
And I want to talk about
この関連性の考え方をもとにした
00:34
what a Web based on that idea of relevance might look like.
ウェブとはどういうことか話したいと思います
00:36
So when I was growing up
メイン州の片田舎に住んでいた
00:40
in a really rural area in Maine,
僕にとって 子供の頃
00:42
the Internet meant something very different to me.
インターネットは全く違う意味を持ったものでした
00:44
It meant a connection to the world.
世界へのドアであり
00:47
It meant something that would connect us all together.
人々を繋げるものでした
00:49
And I was sure that it was going to be great for democracy
民主主義と僕たちの社会に
00:52
and for our society.
大きく役立つに違いないと思っていました
00:55
But there's this shift
でも見えないところで
00:58
in how information is flowing online,
インターネットでの
01:00
and it's invisible.
情報の流れに変化がありました
01:02
And if we don't pay attention to it,
注意しないと
01:05
it could be a real problem.
大きな問題になるかもしれません
01:07
So I first noticed this in a place I spend a lot of time --
これに初めて気付いたのは僕がいつも使っている
01:10
my Facebook page.
Facebookのページでした
01:13
I'm progressive, politically -- big surprise --
見た目どおり 僕は政党的には進歩派ですが
01:15
but I've always gone out of my way to meet conservatives.
進んで保守派と交流しています
01:18
I like hearing what they're thinking about;
保守派の考えを聞いたり
01:20
I like seeing what they link to;
何にリンクしているか見たり
01:22
I like learning a thing or two.
何か学びたいと思っています
01:24
And so I was surprised when I noticed one day
ですから ある日僕のFacebookの配信から
01:26
that the conservatives had disappeared from my Facebook feed.
保守派の人たちが消えてしまって驚きました
01:29
And what it turned out was going on
何が起こったのかと言うと
01:33
was that Facebook was looking at which links I clicked on,
僕がどのリンクをクリックしているかFacebookがチェックしていて
01:35
and it was noticing that, actually,
実際に保守派より
01:39
I was clicking more on my liberal friends' links
リベラル派の友達のリンクを
01:41
than on my conservative friends' links.
クリックすることが多いと気づき
01:43
And without consulting me about it,
僕に何の相談もなく
01:46
it had edited them out.
保守派を削除していたのです
01:48
They disappeared.
保守派はいなくなってしまいました
01:50
So Facebook isn't the only place
このように目に見えないところで
01:54
that's doing this kind of invisible, algorithmic
アルゴリズムによるウェブの
01:56
editing of the Web.
編集をしているのはFacebookだけではありません
01:58
Google's doing it too.
Googleもしています
02:01
If I search for something, and you search for something,
何かの検索をするにしても 僕とあなたでは
02:03
even right now at the very same time,
たとえ今同時に検索しても
02:06
we may get very different search results.
かなり違う結果になる可能性があります
02:08
Even if you're logged out, one engineer told me,
あるエンジニアによると ログオンしてなくても
02:11
there are 57 signals
57個のシグナルを
02:14
that Google looks at --
Googleはチェックしているそうです
02:16
everything from what kind of computer you're on
どんなPCを使っているか
02:19
to what kind of browser you're using
どのブラウザを使っているか
02:22
to where you're located --
現在地は何処かなどによって
02:24
that it uses to personally tailor your query results.
検索結果を調節しているのです
02:26
Think about it for a second:
ちょっと考えてみてください
02:29
there is no standard Google anymore.
もう標準のGoogle検索はないのです
02:31
And you know, the funny thing about this is that it's hard to see.
そして妙なことに これは認識しにくい現象です
02:35
You can't see how different your search results are
自分の検索結果がどれほど
02:38
from anyone else's.
他人のものと違うか分かりません
02:40
But a couple of weeks ago,
でも数週間前
02:42
I asked a bunch of friends to Google "Egypt"
Googleで「エジプト」と検索したスクリーンショットを
02:44
and to send me screen shots of what they got.
送ってもらうよう大勢の友人に頼みました
02:47
So here's my friend Scott's screen shot.
これが友人スコットのスクリーンショットです
02:50
And here's my friend Daniel's screen shot.
こちらはダニエルからのスクリーンショットです
02:54
When you put them side-by-side,
並べて見てみると
02:57
you don't even have to read the links
リンクを読むまでもなく
02:59
to see how different these two pages are.
2つのページの違いに気付きます
03:01
But when you do read the links,
でも実際リンクを読むと
03:03
it's really quite remarkable.
本当に驚きます
03:05
Daniel didn't get anything about the protests in Egypt at all
ダニエルのGoogle検索結果の最初のページには
03:09
in his first page of Google results.
エジプトのデモ関連記事が全くなく
03:12
Scott's results were full of them.
スコットの方はそればかりでした
03:14
And this was the big story of the day at that time.
この頃大きな話題だったのにです
03:16
That's how different these results are becoming.
これほど検索結果は異なってきています
03:18
So it's not just Google and Facebook either.
GoogleとFacebookだけではありません
03:21
This is something that's sweeping the Web.
これはウェブ全体で起こっています
03:24
There are a whole host of companies that are doing this kind of personalization.
多くの企業がこのようなカスタマイズをしています
03:26
Yahoo News, the biggest news site on the Internet,
Yahoo!ニュースはネット最大のニュースサイトですが
03:29
is now personalized -- different people get different things.
今ではカスタマイズされた違う内容を提示しています
03:32
Huffington Post, the Washington Post, the New York Times --
Huffington Postや Washington Postや New York Timesも
03:36
all flirting with personalization in various ways.
様々な形でカスタマイズを試みています
03:39
And this moves us very quickly
その結果 インターネットは私たちが見たいものを
03:42
toward a world in which
予測して見せているが
03:45
the Internet is showing us what it thinks we want to see,
それは必ずしも私たちが見る必要があるものでない
03:47
but not necessarily what we need to see.
という状況に急速に変わってきています
03:51
As Eric Schmidt said,
エリック・シュミットが言うように
03:54
"It will be very hard for people to watch or consume something
「全く何のカスタマイズもされていないものを
03:57
that has not in some sense
人々が見たり利用したりするのは
04:00
been tailored for them."
とても難しくなるでしょう」
04:02
So I do think this is a problem.
ですからこれは問題だと思います
04:05
And I think, if you take all of these filters together,
このようなフィルターやアルゴリズムを
04:07
you take all these algorithms,
全部集めてできるのは
04:10
you get what I call a filter bubble.
「フィルターに囲まれた世界」だと思うのです
04:12
And your filter bubble is your own personal,
そしてこの「囲まれた世界」がネット上での
04:16
unique universe of information
あなた個人独特の
04:19
that you live in online.
情報世界となるわけです
04:21
And what's in your filter bubble
さらに自分の世界に何が含まれるかは 自分が
04:23
depends on who you are, and it depends on what you do.
どんな人で何をしているかによって決まります
04:26
But the thing is that you don't decide what gets in.
でも何が取り入れられるかは自分次第でないのが問題です
04:29
And more importantly,
もっと重要なのは
04:33
you don't actually see what gets edited out.
何が削除されるか自分には見えないことです
04:35
So one of the problems with the filter bubble
フィルターによる問題の1つは
04:38
was discovered by some researchers at Netflix.
Netflixのデータアナリストたちに発見されました
04:40
And they were looking at the Netflix queues, and they noticed something kind of funny
発送待ち段階で妙なことが起こっていたのです
04:43
that a lot of us probably have noticed,
気付いていた人も多いでしょうか
04:46
which is there are some movies
映画によってはDVDが
04:48
that just sort of zip right up and out to our houses.
すぐに発送されて家に届きます
04:50
They enter the queue, they just zip right out.
オーダーが入るとすぐに発送されます
04:53
So "Iron Man" zips right out,
ですから「アイアンマン」はすぐ届くのに
04:56
and "Waiting for Superman"
「ウェイティング・フォー・スーパーマン(原題)」は
04:58
can wait for a really long time.
待ち時間がとても長いことがあります
05:00
What they discovered
データアナリストたちが
05:02
was that in our Netflix queues
DVDの発送待ち段階で見たのは
05:04
there's this epic struggle going on
利用者の計画的な向上心と
05:06
between our future aspirational selves
もっと衝動的な今の欲望が
05:09
and our more impulsive present selves.
大きく対立している状況でした
05:12
You know we all want to be someone
「羅生門」を観たことがある人に
05:15
who has watched "Rashomon,"
なりたいと思う一方
05:17
but right now
今は 4回目の
05:19
we want to watch "Ace Ventura" for the fourth time.
「エース・ベンチュラ」を観たいわけです
05:21
(Laughter)
(笑)
05:24
So the best editing gives us a bit of both.
最良の編集は両面を見せるものです
05:27
It gives us a little bit of Justin Bieber
ジャスティン・ビーバーを少し
05:29
and a little bit of Afghanistan.
アフガニスタンを少し
05:31
It gives us some information vegetables;
ヘルシーな情報と
05:33
it gives us some information dessert.
デザート的情報も提供するわけです
05:35
And the challenge with these kinds of algorithmic filters,
アルゴリズムでカスタマイズされた
05:38
these personalized filters,
フィルターの問題点は
05:40
is that, because they're mainly looking
利用者が何を最初に
05:42
at what you click on first,
クリックしたかを主に参考にしているため
05:44
it can throw off that balance.
そのようなバランスを崩してしまうことです
05:48
And instead of a balanced information diet,
バランスのとれた情報摂取の代わりに
05:52
you can end up surrounded
ジャンク情報ばかりに
05:55
by information junk food.
囲まれてしまうこともあり得ます
05:57
What this suggests
つまりインターネットに対する
05:59
is actually that we may have the story about the Internet wrong.
我々の見解は実は間違っているのかもということです
06:01
In a broadcast society --
放送社会の
06:04
this is how the founding mythology goes --
創設神話はこんな感じです
06:06
in a broadcast society,
「放送社会では
06:08
there were these gatekeepers, the editors,
門番である編集者によって
06:10
and they controlled the flows of information.
情報の流れがコントロールされていました
06:12
And along came the Internet and it swept them out of the way,
でもインターネットが現れ 門番を追い払ったので
06:15
and it allowed all of us to connect together,
素晴らしいことに 私たちは
06:18
and it was awesome.
繋がり合えるようになりました」
06:20
But that's not actually what's happening right now.
でも今 実際にはそうなっていません
06:22
What we're seeing is more of a passing of the torch
私たちが目にしているのは どちらかと言うと
06:26
from human gatekeepers
人間の門番からアルゴリズムの門番に
06:29
to algorithmic ones.
バトンが渡されている状況です
06:31
And the thing is that the algorithms
そして問題なのはアルゴリズムは
06:34
don't yet have the kind of embedded ethics
編集者が持ち合わせていた倫理観念を
06:37
that the editors did.
まだ持っていないということです
06:40
So if algorithms are going to curate the world for us,
ですから世界の情報をアルゴリズムが監修して
06:43
if they're going to decide what we get to see and what we don't get to see,
私たちが何を見て 何を見ないか決めるのなら
06:46
then we need to make sure
アルゴリズムが関連性以外の要素も
06:49
that they're not just keyed to relevance.
使用するようにしなくてはなりません
06:51
We need to make sure that they also show us things
見たくないものや難しいもの
06:54
that are uncomfortable or challenging or important --
重要なものなども提示するようにしなくてはだめです
06:56
this is what TED does --
TEDが異なる視点を
06:59
other points of view.
見せていることと同じです
07:01
And the thing is, we've actually been here before
過去我々は同じ問題に
07:03
as a society.
直面しています
07:05
In 1915, it's not like newspapers were sweating a lot
1915年当時 新聞は市民としての義務について
07:08
about their civic responsibilities.
あまり考えていませんでした
07:11
Then people noticed
でも人々は新聞が
07:14
that they were doing something really important.
重要な役割を果たしていることに気付きました
07:16
That, in fact, you couldn't have
つまり 市民が
07:19
a functioning democracy
適切な情報を得ていないと
07:21
if citizens didn't get a good flow of information,
民主主義は機能しないということです よって
07:23
that the newspapers were critical because they were acting as the filter,
情報のフィルターを行う新聞は重要なのです
07:28
and then journalistic ethics developed.
そしてジャーナリズムの倫理ができました
07:31
It wasn't perfect,
完璧ではありませんでしたが
07:33
but it got us through the last century.
1世紀の間このやり方をしてきました
07:35
And so now,
ですから現在私たちは
07:38
we're kind of back in 1915 on the Web.
ウェブ上での1915年に直面しているようなものです
07:40
And we need the new gatekeepers
プログラムを書く上で このような責任を
07:44
to encode that kind of responsibility
組み込んでくれる
07:47
into the code that they're writing.
新しい門番が必要なのです
07:49
I know that there are a lot of people here from Facebook and from Google --
会場にはFacebookとGoogleからの出席者も大勢います
07:51
Larry and Sergey --
ラリーやサーゲイのように
07:54
people who have helped build the Web as it is,
今あるウェブの構築に
07:56
and I'm grateful for that.
貢献した人々には感謝しています
07:58
But we really need you to make sure
でも私たちは彼らに これらのアルゴリズムに
08:00
that these algorithms have encoded in them
生活や市民の義務が組み込まれているように
08:03
a sense of the public life, a sense of civic responsibility.
しっかり確認してもらいたいのです
08:06
We need you to make sure that they're transparent enough
アルゴリズムが明白で何が入ってくるかを決める
08:09
that we can see what the rules are
フィルターのルールが
08:12
that determine what gets through our filters.
理解できるようにして欲しいのです
08:14
And we need you to give us some control
さらに自分で何が削除されて
08:17
so that we can decide
何がされないか決められるように
08:19
what gets through and what doesn't.
管理できるオプションを提供してもらいたいです
08:21
Because I think
これも インターネットが私たちの
08:24
we really need the Internet to be that thing
思い描いていたようなものに
08:26
that we all dreamed of it being.
なってもらう必要があると思うからです
08:28
We need it to connect us all together.
みんなを繋ぐものであり
08:30
We need it to introduce us to new ideas
新しいアイデアや人々 そして
08:33
and new people and different perspectives.
異なる視点を提示するものであるべきです
08:36
And it's not going to do that
これを達成するには
08:40
if it leaves us all isolated in a Web of one.
ウェブ上で私たちが孤立しないようにするべきです
08:42
Thank you.
ありがとう
08:45
(Applause)
(拍手)
08:47
Translated by Sawa Horibe
Reviewed by Takafusa Kitazume

▲Back to top

About the speaker:

Eli Pariser - Organizer and author
Pioneering online organizer Eli Pariser is the author of "The Filter Bubble," about how personalized search might be narrowing our worldview.

Why you should listen

Shortly after the September 11, 2001, attacks, Eli Pariser created a website calling for a multilateral approach to fighting terrorism. In the following weeks, over half a million people from 192 countries signed on, and Pariser rather unexpectedly became an online organizer. The website merged with MoveOn.org in November 2001, and Pariser -- then 20 years old -- joined the group to direct its foreign policy campaigns. He led what the New York Times Magazine called the "mainstream arm of the peace movement" -- tripling MoveOn's member base and demonstrating how large numbers of small donations could be mobilized through online engagement.

In 2004, Pariser became executive director of MoveOn. Under his leadership, MoveOn.org Political Action has grown to 5 million members and raised over $120 million from millions of small donors to support advocacy campaigns and political candidates. Pariser focused MoveOn on online-to-offline organizing, developing phone-banking tools and precinct programs in 2004 and 2006 that laid the groundwork for Barack Obama's extraordinary web-powered campaign. In 2008, Pariser transitioned the Executive Director role at MoveOn to Justin Ruben and became President of MoveOn’s board; he's now a senior fellow at the Roosevelt Institute.

His book The Filter Bubble is set for release May 12, 2011. In it, he asks how modern search tools -- the filter by which many of see the wider world -- are getting better and better and screening the wider world from us, by returning only the search results it "thinks" we want to see.

More profile about the speaker
Eli Pariser | Speaker | TED.com