ABOUT THE SPEAKER
Eli Pariser - Organizer and author
Pioneering online organizer Eli Pariser is the author of "The Filter Bubble," about how personalized search might be narrowing our worldview.

Why you should listen

Shortly after the September 11, 2001, attacks, Eli Pariser created a website calling for a multilateral approach to fighting terrorism. In the following weeks, over half a million people from 192 countries signed on, and Pariser rather unexpectedly became an online organizer. The website merged with MoveOn.org in November 2001, and Pariser -- then 20 years old -- joined the group to direct its foreign policy campaigns. He led what the New York Times Magazine called the "mainstream arm of the peace movement" -- tripling MoveOn's member base and demonstrating how large numbers of small donations could be mobilized through online engagement.

In 2004, Pariser became executive director of MoveOn. Under his leadership, MoveOn.org Political Action has grown to 5 million members and raised over $120 million from millions of small donors to support advocacy campaigns and political candidates. Pariser focused MoveOn on online-to-offline organizing, developing phone-banking tools and precinct programs in 2004 and 2006 that laid the groundwork for Barack Obama's extraordinary web-powered campaign. In 2008, Pariser transitioned the Executive Director role at MoveOn to Justin Ruben and became President of MoveOn’s board; he's now a senior fellow at the Roosevelt Institute.

His book The Filter Bubble is set for release May 12, 2011. In it, he asks how modern search tools -- the filter by which many of see the wider world -- are getting better and better and screening the wider world from us, by returning only the search results it "thinks" we want to see.

More profile about the speaker
Eli Pariser | Speaker | TED.com
TED2011

Eli Pariser: Beware online "filter bubbles"

Eli Pariser: Tenha cuidado com os "filtros-bolha" online.

Filmed:
5,309,238 views

À medida em que empresas da Web se esforçam para fornecer serviços sob medida para nossos gostos pessoais (incluindo notícias e resultados de pesquisa), acontece uma perigosa e não intencional conseqüência: Caímos na cilada dos "filtros-bolha" e não somos expostos à informações que poderiam desafiar ou ampliar nossa visão de mundo. Eli Pariser argumenta vigorosamente que isto, definitivamente, mostrar-se-á ruim para nós e para a democracia.
- Organizer and author
Pioneering online organizer Eli Pariser is the author of "The Filter Bubble," about how personalized search might be narrowing our worldview. Full bio

Double-click the English transcript below to play the video.

00:15
Mark Zuckerberg,
0
0
2000
Mark Zuckerberg,
00:17
a journalist was asking him a question about the news feed.
1
2000
3000
um jornalista fazia-lhe uma pergunta sobre os 'feeds' de notícias.
00:20
And the journalist was asking him,
2
5000
2000
E o jornalista perguntou:
00:22
"Why is this so important?"
3
7000
2000
"Por que isto é tão importante?"
00:24
And Zuckerberg said,
4
9000
2000
E Zuckerberg respondeu:
00:26
"A squirrel dying in your front yard
5
11000
2000
"Um esquilo morrendo no seu jardim
00:28
may be more relevant to your interests right now
6
13000
3000
pode ser mais relevante para os seus interesses, neste momento,
00:31
than people dying in Africa."
7
16000
3000
do que pessoas morrendo na África."
00:34
And I want to talk about
8
19000
2000
E eu quero falar sobre
00:36
what a Web based on that idea of relevance might look like.
9
21000
3000
como seria o aspecto de uma 'web' baseada nesta ideia de relevância.
00:40
So when I was growing up
10
25000
2000
Então, quando eu estava crescendo
00:42
in a really rural area in Maine,
11
27000
2000
em uma área realmente rural, no Maine (EUA),
00:44
the Internet meant something very different to me.
12
29000
3000
a internet significava algo muito diferente para mim.
00:47
It meant a connection to the world.
13
32000
2000
Ela significava uma conexão para o mundo.
00:49
It meant something that would connect us all together.
14
34000
3000
Significava algo que nos ligaria a todos.
00:52
And I was sure that it was going to be great for democracy
15
37000
3000
E eu tinha certeza que ela seria ótima para a democracia
00:55
and for our society.
16
40000
3000
e para a nossa sociedade.
00:58
But there's this shift
17
43000
2000
Mas aconteceu este tipo de mudança
01:00
in how information is flowing online,
18
45000
2000
em como a informação está fluindo 'on-line',
01:02
and it's invisible.
19
47000
3000
e ela é invisível.
01:05
And if we don't pay attention to it,
20
50000
2000
E se não prestarmos atenção nisto,
01:07
it could be a real problem.
21
52000
3000
poderá vir a ser um grande problema.
01:10
So I first noticed this in a place I spend a lot of time --
22
55000
3000
Pois bem, eu notei isto a primeira vez em um lugar onde passo muito tempo --
01:13
my Facebook page.
23
58000
2000
na minha página do Facebook.
01:15
I'm progressive, politically -- big surprise --
24
60000
3000
Sou um progressista, politicamente -- grande surpresa --
01:18
but I've always gone out of my way to meet conservatives.
25
63000
2000
mas sempre saí dos meus caminhos para encontrar os conservadores.
01:20
I like hearing what they're thinking about;
26
65000
2000
Eu gosto de ouvir sobre o que eles estão pensando;
01:22
I like seeing what they link to;
27
67000
2000
Eu gosto de ver para quais 'links' eles apontam;
01:24
I like learning a thing or two.
28
69000
2000
Eu gosto de aprender uma ou duas coisas.
01:26
And so I was surprised when I noticed one day
29
71000
3000
E então, fiquei surpreso quando percebi certo dia
01:29
that the conservatives had disappeared from my Facebook feed.
30
74000
3000
que os conservadores haviam desaparecido do meu 'feed' do Facebook.
01:33
And what it turned out was going on
31
78000
2000
E o que estava acontecendo
01:35
was that Facebook was looking at which links I clicked on,
32
80000
4000
era que o Facebook observava em quais 'links' eu clicava,
01:39
and it was noticing that, actually,
33
84000
2000
e ele notava que, na verdade,
01:41
I was clicking more on my liberal friends' links
34
86000
2000
Eu clicava mais nos 'links' dos meus amigos liberais
01:43
than on my conservative friends' links.
35
88000
3000
do que nos 'links' dos meus amigos conservadores.
01:46
And without consulting me about it,
36
91000
2000
E, sem me consultar sobre isto,
01:48
it had edited them out.
37
93000
2000
ele os deletou.
01:50
They disappeared.
38
95000
3000
Eles desapareceram.
01:54
So Facebook isn't the only place
39
99000
2000
Pois bem, o Facebook não é o único lugar
01:56
that's doing this kind of invisible, algorithmic
40
101000
2000
que está fazendo este tipo de invisível, algorítmica
01:58
editing of the Web.
41
103000
3000
edição da 'web'.
02:01
Google's doing it too.
42
106000
2000
O Google o faz também.
02:03
If I search for something, and you search for something,
43
108000
3000
Se eu busco por algo e você busca este mesmo algo,
02:06
even right now at the very same time,
44
111000
2000
ainda que no mesmo instante,
02:08
we may get very different search results.
45
113000
3000
nós talvez tenhamos resultados de busca muito diferentes.
02:11
Even if you're logged out, one engineer told me,
46
116000
3000
Mesmo que você não esteja "logado", um engenheiro contou-me,
02:14
there are 57 signals
47
119000
2000
que existem 57 sinais
02:16
that Google looks at --
48
121000
3000
que o Google olha --
02:19
everything from what kind of computer you're on
49
124000
3000
desde o tipo de computador no qual você está
02:22
to what kind of browser you're using
50
127000
2000
ao tipo de navegador que você usa
02:24
to where you're located --
51
129000
2000
até onde você se localiza --
02:26
that it uses to personally tailor your query results.
52
131000
3000
que ele usa para filtrar os seus resultados de busca.
02:29
Think about it for a second:
53
134000
2000
Pense sobre isto por um segundo:
02:31
there is no standard Google anymore.
54
136000
4000
não há mais um Google padrão.
02:35
And you know, the funny thing about this is that it's hard to see.
55
140000
3000
E sabe de uma coisa, o engraçado sobre isto é que é difícil de ver.
02:38
You can't see how different your search results are
56
143000
2000
Você não consegue ver quão diferentes são os seus resultados de busca
02:40
from anyone else's.
57
145000
2000
dos das demais pessoas.
02:42
But a couple of weeks ago,
58
147000
2000
Mas algumas semanas atrás,
02:44
I asked a bunch of friends to Google "Egypt"
59
149000
3000
eu pedi para um grupo de amigos 'googlear' a palavra "Egito"
02:47
and to send me screen shots of what they got.
60
152000
3000
e me enviarem as telas com os resultados que obtiveram.
02:50
So here's my friend Scott's screen shot.
61
155000
3000
Então, eis aqui a tela do meu amigo Scott.
02:54
And here's my friend Daniel's screen shot.
62
159000
3000
E aqui, a tela do meu amigo Daniel.
02:57
When you put them side-by-side,
63
162000
2000
Quando você as coloca lado a lado,
02:59
you don't even have to read the links
64
164000
2000
você nem mesmo precisa ler os 'links'
03:01
to see how different these two pages are.
65
166000
2000
para ver quão diferentes estas duas páginas são.
03:03
But when you do read the links,
66
168000
2000
Mas quando você lê os 'links', de fato,
03:05
it's really quite remarkable.
67
170000
3000
é realmente muito marcante.
03:09
Daniel didn't get anything about the protests in Egypt at all
68
174000
3000
O Daniel não obteve nada sobre os protestos no Egito
03:12
in his first page of Google results.
69
177000
2000
em sua primeira página de resultados do Google.
03:14
Scott's results were full of them.
70
179000
2000
Os resultados do Scott estavam cheios deles.
03:16
And this was the big story of the day at that time.
71
181000
2000
E esta era a manchete do dia, naquele momento.
03:18
That's how different these results are becoming.
72
183000
3000
Isto é o quão diferentes estes resultados estão se tornando.
03:21
So it's not just Google and Facebook either.
73
186000
3000
E também não é apenas o Google e o Facebook.
03:24
This is something that's sweeping the Web.
74
189000
2000
Isto é algo que está varrendo a rede.
03:26
There are a whole host of companies that are doing this kind of personalization.
75
191000
3000
Há toda uma série de empresas que estão fazendo esse tipo de personalização.
03:29
Yahoo News, the biggest news site on the Internet,
76
194000
3000
O 'Yahoo News', o maior site de notícias da internet,
03:32
is now personalized -- different people get different things.
77
197000
3000
é agora personalizado -- pessoas diferentes obtêm diferentes notícias.
03:36
Huffington Post, the Washington Post, the New York Times --
78
201000
3000
o 'Huffington Post', o 'Washington Post', o 'New York Times' --
03:39
all flirting with personalization in various ways.
79
204000
3000
todos estão flertando com a personalização, de várias formas.
03:42
And this moves us very quickly
80
207000
3000
E isto no leva muito rapidamente
03:45
toward a world in which
81
210000
2000
para um mundo no qual
03:47
the Internet is showing us what it thinks we want to see,
82
212000
4000
a internet nos mostra aquilo que ela pensa que queremos ver,
03:51
but not necessarily what we need to see.
83
216000
3000
mas não necessariamente o que precisamos ver.
03:54
As Eric Schmidt said,
84
219000
3000
Como Eric Schmidt (diretor-executivo do Google) disse:
03:57
"It will be very hard for people to watch or consume something
85
222000
3000
"Será muito difícil para as pessoas assistirem ou consumirem algo
04:00
that has not in some sense
86
225000
2000
que não tenha, em algum sentido,
04:02
been tailored for them."
87
227000
3000
sido feito sob medida para elas."
04:05
So I do think this is a problem.
88
230000
2000
Então, eu realmente penso que isto é um problema.
04:07
And I think, if you take all of these filters together,
89
232000
3000
E eu acho que, se você pegar todos estes filtros juntos,
04:10
you take all these algorithms,
90
235000
2000
você pega todos estes algoritmos,
04:12
you get what I call a filter bubble.
91
237000
3000
você tem o que eu chamo de filtro-bolha.
04:16
And your filter bubble is your own personal,
92
241000
3000
E o seu filtro-bolha é o seu próprio, pessoal
04:19
unique universe of information
93
244000
2000
e único universo de informação
04:21
that you live in online.
94
246000
2000
com o qual você vive 'on-line'.
04:23
And what's in your filter bubble
95
248000
3000
E o que está no seu filtro-bolha
04:26
depends on who you are, and it depends on what you do.
96
251000
3000
depende de quem você é, e depende do que você faz.
04:29
But the thing is that you don't decide what gets in.
97
254000
4000
Mas a questão é que você não decide o que entra.
04:33
And more importantly,
98
258000
2000
E mais importante,
04:35
you don't actually see what gets edited out.
99
260000
3000
você, na verdade, não vê o que fica de fora.
04:38
So one of the problems with the filter bubble
100
263000
2000
Então, um dos problemas com o filtro-bolha
04:40
was discovered by some researchers at Netflix.
101
265000
3000
foi descoberto por alguns pesquisadores da Netflix.
04:43
And they were looking at the Netflix queues, and they noticed something kind of funny
102
268000
3000
E eles estavam olhando as listas de dados da Netflix e notaram algo engraçado
04:46
that a lot of us probably have noticed,
103
271000
2000
que muitos de nós provavelmente já notaram,
04:48
which is there are some movies
104
273000
2000
que existem alguns filmes
04:50
that just sort of zip right up and out to our houses.
105
275000
3000
que aparecem, e logo desaparecem de nossas casas.
04:53
They enter the queue, they just zip right out.
106
278000
3000
Eles entram na lista e simplesmente desaparecem, em seguida.
04:56
So "Iron Man" zips right out,
107
281000
2000
Então, "Homem de Ferro" logo desaparece
04:58
and "Waiting for Superman"
108
283000
2000
enquanto que "Esperando pelo Super-homem"
05:00
can wait for a really long time.
109
285000
2000
pode esperar por um tempo realmente longo.
05:02
What they discovered
110
287000
2000
O que eles descobriram
05:04
was that in our Netflix queues
111
289000
2000
foi que em nossas listas do Netflix
05:06
there's this epic struggle going on
112
291000
3000
há esta épica batalha em curso
05:09
between our future aspirational selves
113
294000
3000
entre nossas futuras aspirações pessoais
05:12
and our more impulsive present selves.
114
297000
3000
e nosso presente mais impulsivo e íntimo.
05:15
You know we all want to be someone
115
300000
2000
Vocês sabem que todos queremos ser alguém
05:17
who has watched "Rashomon,"
116
302000
2000
que assistiu ao "Rashomon" (filme cult japonês da decáda de 50),
05:19
but right now
117
304000
2000
mas, neste exato momento,
05:21
we want to watch "Ace Ventura" for the fourth time.
118
306000
3000
nós queremos assistir "Ace Ventura" pela quarta vez.
05:24
(Laughter)
119
309000
3000
(Risos)
05:27
So the best editing gives us a bit of both.
120
312000
2000
Então, a melhor edição nos dá um pouco de ambos.
05:29
It gives us a little bit of Justin Bieber
121
314000
2000
Ela nos dá um pouco de Justin Bieber
05:31
and a little bit of Afghanistan.
122
316000
2000
e um pouco sobre o Afeganistão.
05:33
It gives us some information vegetables;
123
318000
2000
Ela nos dá algumas informações "vegetarianas",
05:35
it gives us some information dessert.
124
320000
3000
ela nos dá algumas informações do tipo sobremesa.
05:38
And the challenge with these kinds of algorithmic filters,
125
323000
2000
E o desafio com estes tipos de filtros algorítmicos,
05:40
these personalized filters,
126
325000
2000
estes filtros personalizados,
05:42
is that, because they're mainly looking
127
327000
2000
é que, pelo fato de que eles olham principalmente
05:44
at what you click on first,
128
329000
4000
para aquilo que você clica em primeiro lugar,
05:48
it can throw off that balance.
129
333000
4000
eles podem comprometer o equilíbrio.
05:52
And instead of a balanced information diet,
130
337000
3000
E, ao invés de uma dieta balanceada de informação,
05:55
you can end up surrounded
131
340000
2000
você pode acabar rodeado
05:57
by information junk food.
132
342000
2000
por informações do tipo "porcariada alimentar".
05:59
What this suggests
133
344000
2000
O que isto sugere
06:01
is actually that we may have the story about the Internet wrong.
134
346000
3000
é que, na verdade, obtenhemos talvez a história equivocada sobre a internet.
06:04
In a broadcast society --
135
349000
2000
Em uma sociedade de transmissão (de rádio e TV) --
06:06
this is how the founding mythology goes --
136
351000
2000
é assim que o 'mito de origem' acontece --
06:08
in a broadcast society,
137
353000
2000
em uma sociedade de transmissão,
06:10
there were these gatekeepers, the editors,
138
355000
2000
existiam estes porteiros, os editores,
06:12
and they controlled the flows of information.
139
357000
3000
e eles controlavam os fluxos de informação.
06:15
And along came the Internet and it swept them out of the way,
140
360000
3000
E veio a internet e os varreu para fora do caminho,
06:18
and it allowed all of us to connect together,
141
363000
2000
e ela permitiu que nos conectássemos,
06:20
and it was awesome.
142
365000
2000
e era ótimo!
06:22
But that's not actually what's happening right now.
143
367000
3000
Mas não é isso que, na verdade, está acontecendo agora.
06:26
What we're seeing is more of a passing of the torch
144
371000
3000
O que estamos vendo é mais uma passagem do bastão
06:29
from human gatekeepers
145
374000
2000
dos porteiros humanos
06:31
to algorithmic ones.
146
376000
3000
para os algorítmicos.
06:34
And the thing is that the algorithms
147
379000
3000
E a questão é que os algoritmos
06:37
don't yet have the kind of embedded ethics
148
382000
3000
não possuem ainda o tipo ética arraigada
06:40
that the editors did.
149
385000
3000
que os editores possuiam.
06:43
So if algorithms are going to curate the world for us,
150
388000
3000
Então, se os algoritmos serão os curadores do mundo para nós,
06:46
if they're going to decide what we get to see and what we don't get to see,
151
391000
3000
se eles decidirão o que veremos e o que não veremos,
06:49
then we need to make sure
152
394000
2000
então precisamos ter certeza
06:51
that they're not just keyed to relevance.
153
396000
3000
de que eles não estarão atados apenas à relevância.
06:54
We need to make sure that they also show us things
154
399000
2000
Precisamos ter certeza que eles também nos mostrarão coisas
06:56
that are uncomfortable or challenging or important --
155
401000
3000
que são desconfortáveis ou desfiadoras ou importantes --
06:59
this is what TED does --
156
404000
2000
isto é o que o TED faz, correto? --
07:01
other points of view.
157
406000
2000
outros pontos de vista.
07:03
And the thing is, we've actually been here before
158
408000
2000
E a questão é que já passamos por isso antes
07:05
as a society.
159
410000
2000
como sociedade.
07:08
In 1915, it's not like newspapers were sweating a lot
160
413000
3000
Em 1915, não era que os jornais se esforçavam muito
07:11
about their civic responsibilities.
161
416000
3000
sobre suas responsabilidades civis.
07:14
Then people noticed
162
419000
2000
Então, as pessoas perceberam
07:16
that they were doing something really important.
163
421000
3000
que eles faziam algo realmente importante.
07:19
That, in fact, you couldn't have
164
424000
2000
Que, de fato, você não poderia ter
07:21
a functioning democracy
165
426000
2000
uma democracia funcionante
07:23
if citizens didn't get a good flow of information,
166
428000
4000
se os cidadãos não conseguissem um bom fluxo de informação.
07:28
that the newspapers were critical because they were acting as the filter,
167
433000
3000
Por isso que os jornais foram fundamentais, pois eles atuaram com um filtro
07:31
and then journalistic ethics developed.
168
436000
2000
e assim a ética jornalística se desenvolveu.
07:33
It wasn't perfect,
169
438000
2000
Ela não era perfeita,
07:35
but it got us through the last century.
170
440000
3000
mas nos conduziu pelo último século.
07:38
And so now,
171
443000
2000
E agora então,
07:40
we're kind of back in 1915 on the Web.
172
445000
3000
estamos como que de volta a 1915, na web.
07:44
And we need the new gatekeepers
173
449000
3000
E precisamos de novos porteiros
07:47
to encode that kind of responsibility
174
452000
2000
para registrarem aquele tipo de responsabilidade
07:49
into the code that they're writing.
175
454000
2000
no código que eles estão escrevendo.
07:51
I know that there are a lot of people here from Facebook and from Google --
176
456000
3000
Eu sei que temos aqui muitas pessoas do Facebook e do Google --
07:54
Larry and Sergey --
177
459000
2000
Larry e Sergey --
07:56
people who have helped build the Web as it is,
178
461000
2000
pessoas que ajudaram a construir a web como ela é,
07:58
and I'm grateful for that.
179
463000
2000
e eu sou grato por isso.
08:00
But we really need you to make sure
180
465000
3000
Mas realmente precisamos que vocês se certifiquem
08:03
that these algorithms have encoded in them
181
468000
3000
que estes algoritmos tenham codificados neles
08:06
a sense of the public life, a sense of civic responsibility.
182
471000
3000
um senso de vida pública, um senso de responsabilidade cívica.
08:09
We need you to make sure that they're transparent enough
183
474000
3000
Precisamos que vocês assegurem que eles sejam transparentes o bastante
08:12
that we can see what the rules are
184
477000
2000
do modo que possamos ver quais são as regras
08:14
that determine what gets through our filters.
185
479000
3000
que determinam o que passa pelos nossos filtros.
08:17
And we need you to give us some control
186
482000
2000
E precisamos que vocês nos dêem algum controle,
08:19
so that we can decide
187
484000
2000
para que possamos decidir
08:21
what gets through and what doesn't.
188
486000
3000
o que passa e o que não passa.
08:24
Because I think
189
489000
2000
Pois eu penso
08:26
we really need the Internet to be that thing
190
491000
2000
que realmente precisamos que a internet seja aquela coisa
08:28
that we all dreamed of it being.
191
493000
2000
que todos sonhamos que ela fosse.
08:30
We need it to connect us all together.
192
495000
3000
Precisamos que ela conecte a todos nós.
08:33
We need it to introduce us to new ideas
193
498000
3000
Precisamos que ela nos introduza em novas ideias,
08:36
and new people and different perspectives.
194
501000
3000
novas pessoas e diferentes perspectivas.
08:40
And it's not going to do that
195
505000
2000
E ela não fará isso
08:42
if it leaves us all isolated in a Web of one.
196
507000
3000
se nos deixar isolados em uma "rede de um".
08:45
Thank you.
197
510000
2000
Obrigado.
08:47
(Applause)
198
512000
11000
(Aplausos)
Translated by Paulo Melillo
Reviewed by Viviane Ferraz Matos

▲Back to top

ABOUT THE SPEAKER
Eli Pariser - Organizer and author
Pioneering online organizer Eli Pariser is the author of "The Filter Bubble," about how personalized search might be narrowing our worldview.

Why you should listen

Shortly after the September 11, 2001, attacks, Eli Pariser created a website calling for a multilateral approach to fighting terrorism. In the following weeks, over half a million people from 192 countries signed on, and Pariser rather unexpectedly became an online organizer. The website merged with MoveOn.org in November 2001, and Pariser -- then 20 years old -- joined the group to direct its foreign policy campaigns. He led what the New York Times Magazine called the "mainstream arm of the peace movement" -- tripling MoveOn's member base and demonstrating how large numbers of small donations could be mobilized through online engagement.

In 2004, Pariser became executive director of MoveOn. Under his leadership, MoveOn.org Political Action has grown to 5 million members and raised over $120 million from millions of small donors to support advocacy campaigns and political candidates. Pariser focused MoveOn on online-to-offline organizing, developing phone-banking tools and precinct programs in 2004 and 2006 that laid the groundwork for Barack Obama's extraordinary web-powered campaign. In 2008, Pariser transitioned the Executive Director role at MoveOn to Justin Ruben and became President of MoveOn’s board; he's now a senior fellow at the Roosevelt Institute.

His book The Filter Bubble is set for release May 12, 2011. In it, he asks how modern search tools -- the filter by which many of see the wider world -- are getting better and better and screening the wider world from us, by returning only the search results it "thinks" we want to see.

More profile about the speaker
Eli Pariser | Speaker | TED.com