ABOUT THE SPEAKER
Eli Pariser - Organizer and author
Pioneering online organizer Eli Pariser is the author of "The Filter Bubble," about how personalized search might be narrowing our worldview.

Why you should listen

Shortly after the September 11, 2001, attacks, Eli Pariser created a website calling for a multilateral approach to fighting terrorism. In the following weeks, over half a million people from 192 countries signed on, and Pariser rather unexpectedly became an online organizer. The website merged with MoveOn.org in November 2001, and Pariser -- then 20 years old -- joined the group to direct its foreign policy campaigns. He led what the New York Times Magazine called the "mainstream arm of the peace movement" -- tripling MoveOn's member base and demonstrating how large numbers of small donations could be mobilized through online engagement.

In 2004, Pariser became executive director of MoveOn. Under his leadership, MoveOn.org Political Action has grown to 5 million members and raised over $120 million from millions of small donors to support advocacy campaigns and political candidates. Pariser focused MoveOn on online-to-offline organizing, developing phone-banking tools and precinct programs in 2004 and 2006 that laid the groundwork for Barack Obama's extraordinary web-powered campaign. In 2008, Pariser transitioned the Executive Director role at MoveOn to Justin Ruben and became President of MoveOn’s board; he's now a senior fellow at the Roosevelt Institute.

His book The Filter Bubble is set for release May 12, 2011. In it, he asks how modern search tools -- the filter by which many of see the wider world -- are getting better and better and screening the wider world from us, by returning only the search results it "thinks" we want to see.

More profile about the speaker
Eli Pariser | Speaker | TED.com
TED2011

Eli Pariser: Beware online "filter bubbles"

Eli Pariser: Atenção a "bolhas de filtro" online

Filmed:
5,309,238 views

À medida que as companhias cibernéticas se esforçam para adaptar os seus serviços (incluindo notícias e resultados de pesquisas) às nossas preferências, cria-se uma perigosa consequência não intencional: Ficamos presos dentro duma "bolha de filtros" de maneira a que não somos expostos à informação que poderia desafiar ou alargar a nossa visão global. Eli Pariser faz um argumento poderoso de que, no final, esta bolha de filtro vai provar ser má para nós e para a democracia.
- Organizer and author
Pioneering online organizer Eli Pariser is the author of "The Filter Bubble," about how personalized search might be narrowing our worldview. Full bio

Double-click the English transcript below to play the video.

00:15
MarkMark ZuckerbergZuckerberg,
0
0
2000
Mark Zuckerberg,
00:17
a journalistjornalista was askingPerguntando him a questionquestão about the newsnotícia feedalimentação.
1
2000
3000
um jornalista estava a fazer-lhe uma pergunta sobre o feed de notícias.
00:20
And the journalistjornalista was askingPerguntando him,
2
5000
2000
E o jornalista perguntou-lhe,
00:22
"Why is this so importantimportante?"
3
7000
2000
"Porque é isto tão importante?"
00:24
And ZuckerbergZuckerberg said,
4
9000
2000
Ao que Zuckerberg respondeu,
00:26
"A squirrelesquilo dyingmorrendo in your frontfrente yardjardim
5
11000
2000
"Um esquilo a morrer no teu quintal
00:28
maypode be more relevantrelevante to your interestsinteresses right now
6
13000
3000
pode ser mais relevante para os teus interesses neste momento
00:31
than people dyingmorrendo in AfricaÁfrica."
7
16000
3000
do que pessoas a morrer em África."
00:34
And I want to talk about
8
19000
2000
E eu quero falar sobre
00:36
what a WebWeb basedSediada on that ideaidéia of relevancerelevância mightpoderia look like.
9
21000
3000
como poderá ser o aspecto de uma Web baseada nessa ideia de relevância.
00:40
So when I was growingcrescendo up
10
25000
2000
À medida que fui crescendo
00:42
in a really ruralrural areaárea in MaineMaine,
11
27000
2000
numa zona mesmo rural em Maine (EUA)
00:44
the InternetInternet meantsignificava something very differentdiferente to me.
12
29000
3000
a Internet significava algo muito diferente para mim.
00:47
It meantsignificava a connectionconexão to the worldmundo.
13
32000
2000
Significava uma ligação ao mundo.
00:49
It meantsignificava something that would connectconectar us all togetherjuntos.
14
34000
3000
Era algo que nos ligaria a todos.
00:52
And I was sure that it was going to be great for democracydemocracia
15
37000
3000
E eu tinha a certeza que seria óptimo para a democracia
00:55
and for our societysociedade.
16
40000
3000
e para a nossa sociedade.
00:58
But there's this shiftmudança
17
43000
2000
Mas houve uma mudança
01:00
in how informationem formação is flowingfluindo onlineconectados,
18
45000
2000
na forma como a informação circula online,
01:02
and it's invisibleinvisível.
19
47000
3000
e é invisível.
01:05
And if we don't paypagamento attentionatenção to it,
20
50000
2000
E se não lhe prestarmos atenção,
01:07
it could be a realreal problemproblema.
21
52000
3000
poderá ser um grande problema.
01:10
So I first noticednotado this in a placeLugar, colocar I spendgastar a lot of time --
22
55000
3000
Reparei nisto pela primeira vez num sítio onde passo muito tempo --
01:13
my FacebookFacebook pagepágina.
23
58000
2000
a minha página do Facebook.
01:15
I'm progressiveprogressivo, politicallypoliticamente -- biggrande surprisesurpresa --
24
60000
3000
Sou progressista, politicamente -- grande surpresa --
01:18
but I've always gonefoi out of my way to meetConheça conservativesconservadores.
25
63000
2000
mas sempre me esforcei para conhecer conservadores.
01:20
I like hearingaudição what they're thinkingpensando about;
26
65000
2000
Gosto de saber em que estão a pensar;
01:22
I like seeingvendo what they linkligação to;
27
67000
2000
Gosto de ver que links clicam;
01:24
I like learningAprendendo a thing or two.
28
69000
2000
Gosto de aprender uma coisa ou duas.
01:26
And so I was surprisedsurpreso when I noticednotado one day
29
71000
3000
E então fiquei surpreendido quando um dia reparei
01:29
that the conservativesconservadores had disappeareddesaparecido from my FacebookFacebook feedalimentação.
30
74000
3000
que os conservadores tinham desaparecido do meu feed de notícias do Facebook.
01:33
And what it turnedvirou out was going on
31
78000
2000
E o que realmente se passava
01:35
was that FacebookFacebook was looking at whichqual linkslinks I clickedclicado on,
32
80000
4000
era que o Facebook andava a ver em que links eu clicava,
01:39
and it was noticingnotando that, actuallyna realidade,
33
84000
2000
e reparou que eu
01:41
I was clickingclicando more on my liberalliberal friends'dos amigos linkslinks
34
86000
2000
clicava mais nos links dos meus amigos liberais
01:43
than on my conservativeconservador friends'dos amigos linkslinks.
35
88000
3000
do que nos de amigos conservadores.
01:46
And withoutsem consultingconsultando me about it,
36
91000
2000
E sem sequer me consultar sobre tal,
01:48
it had editededitado them out.
37
93000
2000
acabou por filtrá-los.
01:50
They disappeareddesaparecido.
38
95000
3000
Desapareceram.
01:54
So FacebookFacebook isn't the only placeLugar, colocar
39
99000
2000
E o Facebook não é o único sitio
01:56
that's doing this kindtipo of invisibleinvisível, algorithmicalgorítmica
40
101000
2000
a fazer este tipo de invisível, algorítmica
01:58
editingeditando of the WebWeb.
41
103000
3000
edição da Web.
02:01
Google'sDo Google doing it too.
42
106000
2000
A Google também o faz.
02:03
If I searchpesquisa for something, and you searchpesquisa for something,
43
108000
3000
Se eu procurar por qualquer coisa, e vocês também o fizerem,
02:06
even right now at the very samemesmo time,
44
111000
2000
mesmo agora, exactamente ao mesmo tempo,
02:08
we maypode get very differentdiferente searchpesquisa resultsresultados.
45
113000
3000
é possível que obtenhamos resultados de pesquisa muito diferentes.
02:11
Even if you're loggedregistrados out, one engineerengenheiro told me,
46
116000
3000
Mesmo que estejam desconectados, disse-me um engenheiro,
02:14
there are 57 signalssinais
47
119000
2000
há 57 sinais
02:16
that GoogleGoogle looksparece at --
48
121000
3000
aos quais a Google olha --
02:19
everything from what kindtipo of computercomputador you're on
49
124000
3000
tudo desde o computador onde se encontram
02:22
to what kindtipo of browserNavegador you're usingusando
50
127000
2000
até que tipo de navegador utilizam
02:24
to where you're locatedlocalizado --
51
129000
2000
até onde se encontram --
02:26
that it usesusa to personallypessoalmente tailoralfaiate your queryconsulta resultsresultados.
52
131000
3000
e os utiliza para pessoalmente adaptar os vossos resultados de pesquisa.
02:29
Think about it for a secondsegundo:
53
134000
2000
Pensem nisto por um segundo:
02:31
there is no standardpadrão GoogleGoogle anymorenão mais.
54
136000
4000
já não existe um Google igual para todos.
02:35
And you know, the funnyengraçado thing about this is that it's hardDifícil to see.
55
140000
3000
E sabem, a piada disto está no facto de que é difícil de se ver.
02:38
You can't see how differentdiferente your searchpesquisa resultsresultados are
56
143000
2000
Não têm noção de quão diferentes os vossos resultados são
02:40
from anyonealguém else'soutros.
57
145000
2000
em comparação com os de qualquer outra pessoa.
02:42
But a couplecasal of weekssemanas agoatrás,
58
147000
2000
Mas há umas semanas atrás,
02:44
I askedperguntei a bunchgrupo of friendsamigos to GoogleGoogle "EgyptEgito"
59
149000
3000
pedi a uns quantos amigos para pesquisarem no Google "Egipto"
02:47
and to sendenviar me screentela shotstiros of what they got.
60
152000
3000
e para me mandarem uma imagem do seu ecrã com os resultados da pesquisa.
02:50
So here'saqui está my friendamigos Scott'sScott screentela shottiro.
61
155000
3000
Então aqui está a imagem do meu amigo Scott.
02:54
And here'saqui está my friendamigos Daniel'sDe Daniel screentela shottiro.
62
159000
3000
E aqui está a imagem do meu amigo Daniel.
02:57
When you put them side-by-sidelado a lado,
63
162000
2000
Quando as põem lado a lado,
02:59
you don't even have to readler the linkslinks
64
164000
2000
nem precisam de ler os resultados
03:01
to see how differentdiferente these two pagesPáginas are.
65
166000
2000
para ver o quão diferentes estas duas páginas são.
03:03
But when you do readler the linkslinks,
66
168000
2000
Mas quando realmente lêem os resultados,
03:05
it's really quitebastante remarkablenotável.
67
170000
3000
é de facto bastante notável.
03:09
DanielDaniel didn't get anything about the protestsprotestos in EgyptEgito at all
68
174000
3000
O Daniel não obteve absolutamente nada sobre os protestos no Egipto
03:12
in his first pagepágina of GoogleGoogle resultsresultados.
69
177000
2000
na sua primeira página de resultados no Google.
03:14
Scott'sScott resultsresultados were fullcheio of them.
70
179000
2000
Os resultados do Scott estavam cheios deles.
03:16
And this was the biggrande storyhistória of the day at that time.
71
181000
2000
E isto era a grande história do dia na altura.
03:18
That's how differentdiferente these resultsresultados are becomingtornando-se.
72
183000
3000
Isto é o quão diferente estes resultados estão a ficar.
03:21
So it's not just GoogleGoogle and FacebookFacebook eitherou.
73
186000
3000
E isto não é apenas no Google e no Facebook.
03:24
This is something that's sweepingvarrendo the WebWeb.
74
189000
2000
Isto é algo que está a varrer a Web.
03:26
There are a wholetodo hosthospedeiro of companiesempresas that are doing this kindtipo of personalizationpersonalização de.
75
191000
3000
Há uma série de companhias que estão a fazer este tipo de personalização.
03:29
YahooYahoo NewsNotícias, the biggestmaior newsnotícia sitelocal on the InternetInternet,
76
194000
3000
A Yahoo News, o maior site de notícias na Internet,
03:32
is now personalizedpersonalizado -- differentdiferente people get differentdiferente things.
77
197000
3000
é agora personalizado -- pessoas diferentes obtêm resultados diferentes.
03:36
HuffingtonHuffington PostPostar, the WashingtonWashington PostPostar, the NewNovo YorkYork TimesVezes --
78
201000
3000
O Huffington Post, o Washington Post, o New York Times --
03:39
all flirtingflertando with personalizationpersonalização de in variousvários waysmaneiras.
79
204000
3000
todos a namoriscar a personalização de diferentes maneiras.
03:42
And this movesse move us very quicklyrapidamente
80
207000
3000
E isto move-nos muito rapidamente
03:45
towardem direção a a worldmundo in whichqual
81
210000
2000
em direcção a um mundo em que
03:47
the InternetInternet is showingmostrando us what it thinksacha we want to see,
82
212000
4000
a Internet nos mostra o que ela acha que nós queremos ver,
03:51
but not necessarilynecessariamente what we need to see.
83
216000
3000
mas não necessariamente aquilo que temos de ver.
03:54
As EricEric SchmidtSchmidt said,
84
219000
3000
Como Eric Schmidt disse,
03:57
"It will be very hardDifícil for people to watch or consumeconsumir something
85
222000
3000
"Será muito difícil fazer com que as pessoas vejam ou adquiram algo
04:00
that has not in some sensesentido
86
225000
2000
que não foi de alguma forma
04:02
been tailoredsob medida for them."
87
227000
3000
feito para elas."
04:05
So I do think this is a problemproblema.
88
230000
2000
Portanto eu realmente acho que isto é um problema.
04:07
And I think, if you take all of these filtersfiltros togetherjuntos,
89
232000
3000
E penso que, se agarrarem em todos estes filtros,
04:10
you take all these algorithmsalgoritmos,
90
235000
2000
se agarrarem em todos estes algoritmos,
04:12
you get what I call a filterfiltro bubblebolha.
91
237000
3000
ficam com aquilo a que eu chamo bolha de filtros.
04:16
And your filterfiltro bubblebolha is your ownpróprio personalpessoal,
92
241000
3000
E a vossa bolha de filtros é o vosso pessoal
04:19
uniqueúnico universeuniverso of informationem formação
93
244000
2000
e único universo de informação
04:21
that you liveviver in onlineconectados.
94
246000
2000
em que vivem online.
04:23
And what's in your filterfiltro bubblebolha
95
248000
3000
E o que está na vossa bolha de filtros
04:26
dependsdepende on who you are, and it dependsdepende on what you do.
96
251000
3000
depende de quem são, e depende do que fazem.
04:29
But the thing is that you don't decidedecidir what getsobtém in.
97
254000
4000
Mas o problema é que vocês não decidem o que entra na bolha.
04:33
And more importantlyimportante,
98
258000
2000
E ainda mais importante,
04:35
you don't actuallyna realidade see what getsobtém editededitado out.
99
260000
3000
não vêm realmente o que fica de fora.
04:38
So one of the problemsproblemas with the filterfiltro bubblebolha
100
263000
2000
Um dos problemas da bolha de filtros
04:40
was discovereddescobriu by some researcherspesquisadores at NetflixNetflix.
101
265000
3000
foi descoberto por alguns investigadores da Netflix.
04:43
And they were looking at the NetflixNetflix queuesfilas, and they noticednotado something kindtipo of funnyengraçado
102
268000
3000
E eles estavam a ver as filas da Netflix, e repararam numa coisa com alguma piada
04:46
that a lot of us probablyprovavelmente have noticednotado,
103
271000
2000
que provavelmente muitos de nós já repararam,
04:48
whichqual is there are some moviesfilmes
104
273000
2000
que há certos filmes
04:50
that just sortordenar of zipfecho eclair right up and out to our housescasas.
105
275000
3000
que é como se entrassem e saíssem logo de nossa casa.
04:53
They enterentrar the queuefila, they just zipfecho eclair right out.
106
278000
3000
Vão para a fila, e saem logo.
04:56
So "IronFerro Man" zipsfechos de correr right out,
107
281000
2000
Ou seja, o "Iron Man" sai logo,
04:58
and "WaitingÀ espera for SupermanSuper-homem"
108
283000
2000
e o "Waiting for Superman"
05:00
can wait for a really long time.
109
285000
2000
pode esperar muito, muito tempo.
05:02
What they discovereddescobriu
110
287000
2000
E o que eles descobriram
05:04
was that in our NetflixNetflix queuesfilas
111
289000
2000
foi que nas nossas filas da Netflix
05:06
there's this epicépico struggleluta going on
112
291000
3000
decorre uma luta épica
05:09
betweenentre our futurefuturo aspirationalaspiracional selveseus
113
294000
3000
entre a nossa futura e aspiracional pessoa
05:12
and our more impulsiveimpulsiva presentpresente selveseus.
114
297000
3000
e a nossa mais impulsiva e presente pessoa.
05:15
You know we all want to be someonealguém
115
300000
2000
Todos vocês sabem que todos queremos ser alguém
05:17
who has watchedassisti "RashomonRashomon,"
116
302000
2000
que viu o "Rashomon",
05:19
but right now
117
304000
2000
mas neste momento
05:21
we want to watch "AceÁs VenturaVentura" for the fourthquarto time.
118
306000
3000
queremos ver o "Ace Ventura" pela quarta vez.
05:24
(LaughterRiso)
119
309000
3000
(Gargalhadas)
05:27
So the bestmelhor editingeditando gives us a bitpouco of bothambos.
120
312000
2000
Portanto, o melhor ajuste dar-nos-ia um bocado dos dois.
05:29
It gives us a little bitpouco of JustinJustin BieberBieber
121
314000
2000
Dá-nos um bocado de Justin Bieber
05:31
and a little bitpouco of AfghanistanAfeganistão.
122
316000
2000
e um bocado de Afeganistão.
05:33
It gives us some informationem formação vegetableslegumes;
123
318000
2000
Dá-nos alguma informação tipo vegetais,
05:35
it gives us some informationem formação dessertsobremesa.
124
320000
3000
e dá-nos alguma informação tipo sobremesa.
05:38
And the challengedesafio with these kindstipos of algorithmicalgorítmica filtersfiltros,
125
323000
2000
E o desafio com estes tipos de filtros algorítmicos,
05:40
these personalizedpersonalizado filtersfiltros,
126
325000
2000
estes filtros personalizados,
05:42
is that, because they're mainlyprincipalmente looking
127
327000
2000
é que, devido ao facto de estarem essencialmente a olhar
05:44
at what you clickclique on first,
128
329000
4000
para o que se clica primeiro,
05:48
it can throwlançar off that balanceequilibrar.
129
333000
4000
pode desequilibrar esse balanço.
05:52
And insteadem vez de of a balancedequilibrado informationem formação dietdieta,
130
337000
3000
E em vez de uma dieta de informação equilibrada,
05:55
you can endfim up surroundedcercado
131
340000
2000
pode-se encontrar rodeado
05:57
by informationem formação junklixo foodComida.
132
342000
2000
de informação tipo "comida de plástico".
05:59
What this suggestssugere
133
344000
2000
O que isto sugere
06:01
is actuallyna realidade that we maypode have the storyhistória about the InternetInternet wrongerrado.
134
346000
3000
é que na verdade podemos ter a ideia errada da Internet.
06:04
In a broadcasttransmissão societysociedade --
135
349000
2000
Numa sociedade difundida --
06:06
this is how the foundingfundando mythologymitologia goesvai --
136
351000
2000
é assim que a mitologia de fundação funciona --
06:08
in a broadcasttransmissão societysociedade,
137
353000
2000
numa sociedade difundida,
06:10
there were these gatekeepersGuardiões do portal, the editorseditores,
138
355000
2000
existiam os porteiros, os editores,
06:12
and they controlledcontrolada the flowsflui of informationem formação.
139
357000
3000
e eles controlavam os fluxos de informação.
06:15
And alongao longo cameveio the InternetInternet and it sweptvarrido them out of the way,
140
360000
3000
E entretanto veio a Internet e varreu-os para fora do seu caminho,
06:18
and it allowedpermitido all of us to connectconectar togetherjuntos,
141
363000
2000
e permitiu-nos ligar uns aos outros,
06:20
and it was awesomeimpressionante.
142
365000
2000
e era óptimo.
06:22
But that's not actuallyna realidade what's happeningacontecendo right now.
143
367000
3000
Mas na verdade não é o que está a acontecer neste momento.
06:26
What we're seeingvendo is more of a passingpassagem of the torchtocha
144
371000
3000
O que nós estamos a ver é mais a passagem da tocha
06:29
from humanhumano gatekeepersGuardiões do portal
145
374000
2000
dos porteiros humanos
06:31
to algorithmicalgorítmica onesuns.
146
376000
3000
para os porteiros algorítmicos.
06:34
And the thing is that the algorithmsalgoritmos
147
379000
3000
E o problema é que os algoritmos
06:37
don't yetainda have the kindtipo of embeddedembutido ethicsética
148
382000
3000
não têm ainda o tipo de ética incorporada
06:40
that the editorseditores did.
149
385000
3000
que os editores tinham.
06:43
So if algorithmsalgoritmos are going to curatecoadjutor the worldmundo for us,
150
388000
3000
Portanto, se são algoritmos que vão filtrar o mundo por nós,
06:46
if they're going to decidedecidir what we get to see and what we don't get to see,
151
391000
3000
se vão decidir o que podemos ver e o que não podemos ver,
06:49
then we need to make sure
152
394000
2000
então temos que ter a certeza
06:51
that they're not just keyedcom chave to relevancerelevância.
153
396000
3000
que não estão apenas ligados à relevância.
06:54
We need to make sure that they alsoAlém disso showexposição us things
154
399000
2000
Temos que ter a certeza que também nos mostram coisas
06:56
that are uncomfortabledesconfortável or challengingdesafiador or importantimportante --
155
401000
3000
que são desconfortáveis ou desafiadoras ou importantes --
06:59
this is what TEDTED does --
156
404000
2000
é isto o que o TED faz --
07:01
other pointspontos of viewVisão.
157
406000
2000
outros pontos de vista.
07:03
And the thing is, we'venós temos actuallyna realidade been here before
158
408000
2000
E o problema é que já passámos por isto
07:05
as a societysociedade.
159
410000
2000
como sociedade.
07:08
In 1915, it's not like newspapersjornais were sweatinga suar a lot
160
413000
3000
Em 1915, não era como se os jornais se preocupassem muito
07:11
about theirdeles civiccívico responsibilitiesresponsabilidades.
161
416000
3000
acerca das suas suas responsabilidades cívicas.
07:14
Then people noticednotado
162
419000
2000
Depois as pessoas notaram
07:16
that they were doing something really importantimportante.
163
421000
3000
que eles estavam a fazer algo realmente importante.
07:19
That, in factfacto, you couldn'tnão podia have
164
424000
2000
Que, de facto, não era possível ter
07:21
a functioningfuncionando democracydemocracia
165
426000
2000
uma democracia funcional
07:23
if citizenscidadãos didn't get a good flowfluxo of informationem formação,
166
428000
4000
se os cidadãos não obtivessem um bom fluxo de informação.
07:28
that the newspapersjornais were criticalcrítico because they were actingagindo as the filterfiltro,
167
433000
3000
Que os jornais eram críticos, porque estavam a agir como filtro,
07:31
and then journalisticjornalística ethicsética developeddesenvolvido.
168
436000
2000
e aí a ética do jornalismo foi desenvolvida.
07:33
It wasn'tnão foi perfectperfeito,
169
438000
2000
Não era perfeita,
07:35
but it got us throughatravés the last centuryséculo.
170
440000
3000
mas com ela passámos este último século.
07:38
And so now,
171
443000
2000
E portanto agora,
07:40
we're kindtipo of back in 1915 on the WebWeb.
172
445000
3000
É como se estivéssemos de volta ao 1915 na Web.
07:44
And we need the newNovo gatekeepersGuardiões do portal
173
449000
3000
E nós precisamos que estes novos porteiros
07:47
to encodecodificar that kindtipo of responsibilityresponsabilidade
174
452000
2000
inscrevam esse tipo de responsabilidade
07:49
into the codecódigo that they're writingescrevendo.
175
454000
2000
no código daquilo que estão a escrever.
07:51
I know that there are a lot of people here from FacebookFacebook and from GoogleGoogle --
176
456000
3000
Eu sei que há aqui bastantes pessoas do Facebook e da Google --
07:54
LarryLarry and SergeySergey --
177
459000
2000
Larry e Sergey --
07:56
people who have helpedajudou buildconstruir the WebWeb as it is,
178
461000
2000
pessoas que ajudaram a construir a Web tal como é,
07:58
and I'm gratefulgrato for that.
179
463000
2000
e eu estou grato por isso.
08:00
But we really need you to make sure
180
465000
3000
Mas precisamos realmente que vocês tenham a certeza
08:03
that these algorithmsalgoritmos have encodedcodificado in them
181
468000
3000
de que estes algoritmos tenham neles inscritos
08:06
a sensesentido of the publicpúblico life, a sensesentido of civiccívico responsibilityresponsabilidade.
182
471000
3000
um sentido de vida pública, um sentido de responsabilidade cívica.
08:09
We need you to make sure that they're transparenttransparente enoughsuficiente
183
474000
3000
Precisamos que vocês tenham a certeza de que são suficientemente transparentes
08:12
that we can see what the rulesregras are
184
477000
2000
para que consigamos ver quais são as regras
08:14
that determinedeterminar what getsobtém throughatravés our filtersfiltros.
185
479000
3000
que determinam o que é que passa através dos nossos filtros.
08:17
And we need you to give us some controlao controle
186
482000
2000
E precisamos que nos dêem algum controlo,
08:19
so that we can decidedecidir
187
484000
2000
para que possamos decidir
08:21
what getsobtém throughatravés and what doesn't.
188
486000
3000
o que passa e o que não.
08:24
Because I think
189
489000
2000
Porque eu acho
08:26
we really need the InternetInternet to be that thing
190
491000
2000
que precisamos realmente que a Internet seja aquela coisa
08:28
that we all dreamedsonhou of it beingser.
191
493000
2000
que todos nós sonhamos que era.
08:30
We need it to connectconectar us all togetherjuntos.
192
495000
3000
Precisamos que nos ligue todos uns aos outros.
08:33
We need it to introduceintroduzir us to newNovo ideasidéias
193
498000
3000
Precisamos que nos dê a conhecer novas ideias
08:36
and newNovo people and differentdiferente perspectivesperspectivas.
194
501000
3000
e novas pessoas e diferentes perspectivas.
08:40
And it's not going to do that
195
505000
2000
E não vai fazer isso
08:42
if it leavessai us all isolatedisolado in a WebWeb of one.
196
507000
3000
se nos deixar a todos isolados na Web de um.
08:45
Thank you.
197
510000
2000
Obrigado.
08:47
(ApplauseAplausos)
198
512000
11000
(Aplausos)
Translated by Miguel Rodrigues
Reviewed by Ana Sofia Pinho

▲Back to top

ABOUT THE SPEAKER
Eli Pariser - Organizer and author
Pioneering online organizer Eli Pariser is the author of "The Filter Bubble," about how personalized search might be narrowing our worldview.

Why you should listen

Shortly after the September 11, 2001, attacks, Eli Pariser created a website calling for a multilateral approach to fighting terrorism. In the following weeks, over half a million people from 192 countries signed on, and Pariser rather unexpectedly became an online organizer. The website merged with MoveOn.org in November 2001, and Pariser -- then 20 years old -- joined the group to direct its foreign policy campaigns. He led what the New York Times Magazine called the "mainstream arm of the peace movement" -- tripling MoveOn's member base and demonstrating how large numbers of small donations could be mobilized through online engagement.

In 2004, Pariser became executive director of MoveOn. Under his leadership, MoveOn.org Political Action has grown to 5 million members and raised over $120 million from millions of small donors to support advocacy campaigns and political candidates. Pariser focused MoveOn on online-to-offline organizing, developing phone-banking tools and precinct programs in 2004 and 2006 that laid the groundwork for Barack Obama's extraordinary web-powered campaign. In 2008, Pariser transitioned the Executive Director role at MoveOn to Justin Ruben and became President of MoveOn’s board; he's now a senior fellow at the Roosevelt Institute.

His book The Filter Bubble is set for release May 12, 2011. In it, he asks how modern search tools -- the filter by which many of see the wider world -- are getting better and better and screening the wider world from us, by returning only the search results it "thinks" we want to see.

More profile about the speaker
Eli Pariser | Speaker | TED.com