ABOUT THE SPEAKER
Eli Pariser - Organizer and author
Pioneering online organizer Eli Pariser is the author of "The Filter Bubble," about how personalized search might be narrowing our worldview.

Why you should listen

Shortly after the September 11, 2001, attacks, Eli Pariser created a website calling for a multilateral approach to fighting terrorism. In the following weeks, over half a million people from 192 countries signed on, and Pariser rather unexpectedly became an online organizer. The website merged with MoveOn.org in November 2001, and Pariser -- then 20 years old -- joined the group to direct its foreign policy campaigns. He led what the New York Times Magazine called the "mainstream arm of the peace movement" -- tripling MoveOn's member base and demonstrating how large numbers of small donations could be mobilized through online engagement.

In 2004, Pariser became executive director of MoveOn. Under his leadership, MoveOn.org Political Action has grown to 5 million members and raised over $120 million from millions of small donors to support advocacy campaigns and political candidates. Pariser focused MoveOn on online-to-offline organizing, developing phone-banking tools and precinct programs in 2004 and 2006 that laid the groundwork for Barack Obama's extraordinary web-powered campaign. In 2008, Pariser transitioned the Executive Director role at MoveOn to Justin Ruben and became President of MoveOn’s board; he's now a senior fellow at the Roosevelt Institute.

His book The Filter Bubble is set for release May 12, 2011. In it, he asks how modern search tools -- the filter by which many of see the wider world -- are getting better and better and screening the wider world from us, by returning only the search results it "thinks" we want to see.

More profile about the speaker
Eli Pariser | Speaker | TED.com
TED2011

Eli Pariser: Beware online "filter bubbles"

Eli Pariser: cuidado con la "burbuja de filtros" en la red

Filmed:
5,309,238 views

A medida que las empresas de la red se esfuerzan por adaptar sus servicios (incluyendo noticias y resultados de búsqueda) a nuestros gustos personales, surge una consecuencia no deseada peligrosa: quedar atrapados en una "burbuja de filtros" que nos obstaculiza el acceso a esa información que podría desafiar o ampliar nuestra visión del mundo. Eli Pariser sostiene con determinación cómo ésto, en última instancia, es malo para nosotros y para la democracia.
- Organizer and author
Pioneering online organizer Eli Pariser is the author of "The Filter Bubble," about how personalized search might be narrowing our worldview. Full bio

Double-click the English transcript below to play the video.

00:15
Markmarca ZuckerbergZuckerberg,
0
0
2000
A Mark Zuckerberg
00:17
a journalistperiodista was askingpreguntando him a questionpregunta about the newsNoticias feedalimentar.
1
2000
3000
un periodista le preguntó sobre la redifusión de contenidos web.
00:20
And the journalistperiodista was askingpreguntando him,
2
5000
2000
La pregunta era:
00:22
"Why is this so importantimportante?"
3
7000
2000
¿por qué es tan importante?
00:24
And ZuckerbergZuckerberg said,
4
9000
2000
Y Zuckerberg le contestó:
00:26
"A squirrelardilla dyingmoribundo in your frontfrente yardyarda
5
11000
2000
"Saber que una ardilla se muere en tu jardín
00:28
maymayo be more relevantpertinente to your interestsintereses right now
6
13000
3000
puede ser más relevante en este momento para tus intereses
00:31
than people dyingmoribundo in AfricaÁfrica."
7
16000
3000
que saber que muere gente en África".
00:34
And I want to talk about
8
19000
2000
Quiero hablar de
00:36
what a WebWeb basedbasado on that ideaidea of relevancepertinencia mightpodría look like.
9
21000
3000
cómo sería la Red si se basara en esa idea de relevancia.
00:40
So when I was growingcreciente up
10
25000
2000
Crecí
00:42
in a really ruralrural areazona in MaineMaine,
11
27000
2000
en una zona rural de Maine
00:44
the InternetInternet meantsignificado something very differentdiferente to me.
12
29000
3000
y entonces, para mí, Internet era algo muy distinto.
00:47
It meantsignificado a connectionconexión to the worldmundo.
13
32000
2000
Era una conexión con el mundo.
00:49
It meantsignificado something that would connectconectar us all togetherjuntos.
14
34000
3000
Era algo que nos conectaba a todos.
00:52
And I was sure that it was going to be great for democracydemocracia
15
37000
3000
Y estaba seguro de que sería genial para la democracia
00:55
and for our societysociedad.
16
40000
3000
y para nuestra sociedad.
00:58
But there's this shiftcambio
17
43000
2000
Pero ha cambiado la manera
01:00
in how informationinformación is flowingfluido onlineen línea,
18
45000
2000
en la que circula la información en la red
01:02
and it's invisibleinvisible.
19
47000
3000
y este cambio es imperceptible.
01:05
And if we don't paypaga attentionatención to it,
20
50000
2000
Y si no prestamos atención
01:07
it could be a realreal problemproblema.
21
52000
3000
puede convertirse en un problema grave.
01:10
So I first noticednotado this in a placelugar I spendgastar a lot of time --
22
55000
3000
Noté el cambio por primera vez en una página en la que paso mucho tiempo:
01:13
my FacebookFacebook pagepágina.
23
58000
2000
Facebook.
01:15
I'm progressiveprogresivo, politicallypolíticamente -- biggrande surprisesorpresa --
24
60000
3000
En política soy progresista (¡vaya sorpresa!)
01:18
but I've always goneido out of my way to meetreunirse conservativesconservadores.
25
63000
2000
pero siempre estoy abierto a las ideas de los conservadores.
01:20
I like hearingaudición what they're thinkingpensando about;
26
65000
2000
Me gusta escuchar sus ideas;
01:22
I like seeingviendo what they linkenlazar to;
27
67000
2000
me gusta ver los enlaces que comparten;
01:24
I like learningaprendizaje a thing or two.
28
69000
2000
me gusta enterarme de algunas cosas.
01:26
And so I was surprisedsorprendido when I noticednotado one day
29
71000
3000
Por eso me sorprendió darme cuenta un día
01:29
that the conservativesconservadores had disappeareddesapareció from my FacebookFacebook feedalimentar.
30
74000
3000
de que los conservadores habían desaparecido de las novedades de Facebook.
01:33
And what it turnedconvertido out was going on
31
78000
2000
Lo que había pasado
01:35
was that FacebookFacebook was looking at whichcual linkscampo de golf I clickedclickeado on,
32
80000
4000
era que Facebook estaba controlando en qué enlaces hacía clic
01:39
and it was noticingnotar that, actuallyactualmente,
33
84000
2000
y que se había dado cuenta de que, realmente,
01:41
I was clickinghaciendo clic more on my liberalliberal friends'amigos' linkscampo de golf
34
86000
2000
hacia clic con más frecuencia en los enlaces de mis amigos progresistas
01:43
than on my conservativeconservador friends'amigos' linkscampo de golf.
35
88000
3000
que en los de mis amigos conservadores.
01:46
And withoutsin consultingconsultante me about it,
36
91000
2000
Y sin consultarme
01:48
it had editededitado them out.
37
93000
2000
excluyó a los últimos.
01:50
They disappeareddesapareció.
38
95000
3000
Desaparecieron.
01:54
So FacebookFacebook isn't the only placelugar
39
99000
2000
Pero Facebook no es la única página
01:56
that's doing this kindtipo of invisibleinvisible, algorithmicalgorítmico
40
101000
2000
que hace esta edición invisible
01:58
editingedición of the WebWeb.
41
103000
3000
y algorítmica de la Red.
02:01
Google'sGoogle doing it too.
42
106000
2000
Google también lo hace.
02:03
If I searchbuscar for something, and you searchbuscar for something,
43
108000
3000
Si yo realizo una búsqueda y ustedes realizan una búsqueda,
02:06
even right now at the very samemismo time,
44
111000
2000
incluso si lo hacemos al mismo tiempo,
02:08
we maymayo get very differentdiferente searchbuscar resultsresultados.
45
113000
3000
podríamos obtener resultados de búsqueda muy diferentes.
02:11
Even if you're loggedregistrado out, one engineeringeniero told me,
46
116000
3000
Un ingeniero me contó que, incluso sin estar conectado,
02:14
there are 57 signalsseñales
47
119000
2000
hay 57 indicios
02:16
that GoogleGoogle looksmiradas at --
48
121000
3000
que Google tiene en cuenta
02:19
everything from what kindtipo of computercomputadora you're on
49
124000
3000
-desde el tipo de computadora y explorador
02:22
to what kindtipo of browsernavegador you're usingutilizando
50
127000
2000
que se está usando,
02:24
to where you're locatedsituado --
51
129000
2000
hasta la ubicación-
02:26
that it usesusos to personallypersonalmente tailorSastre your queryconsulta resultsresultados.
52
131000
3000
para personalizar los resultados.
02:29
Think about it for a secondsegundo:
53
134000
2000
Piénsenlo durante un segundo,
02:31
there is no standardestándar GoogleGoogle anymorenunca más.
54
136000
4000
ya no existe un Google estándar.
02:35
And you know, the funnygracioso thing about this is that it's harddifícil to see.
55
140000
3000
¿Y saben qué? Lo más gracioso es que es difícil de ver.
02:38
You can't see how differentdiferente your searchbuscar resultsresultados are
56
143000
2000
Uno no puede ver lo diferentes que son sus búsquedas
02:40
from anyonenadie else'sde otra manera.
57
145000
2000
de las de los demás.
02:42
But a couplePareja of weekssemanas agohace,
58
147000
2000
Pero hace un par de semanas
02:44
I askedpreguntó a bunchmanojo of friendsamigos to GoogleGoogle "EgyptEgipto"
59
149000
3000
le pedí a un puñado de amigos que googlearan "Egipto"
02:47
and to sendenviar me screenpantalla shotsdisparos of what they got.
60
152000
3000
y que me enviaran capturas de pantalla de los resultados.
02:50
So here'saquí está my friendamigo Scott'sScott screenpantalla shotDisparo.
61
155000
3000
Esta es la captura de pantalla de mi amigo Scott.
02:54
And here'saquí está my friendamigo Daniel'sDaniel screenpantalla shotDisparo.
62
159000
3000
Y esta la de mi amigo Daniel.
02:57
When you put them side-by-sidelado a lado,
63
162000
2000
Si las ponemos lado a lado
02:59
you don't even have to readleer the linkscampo de golf
64
164000
2000
ni siquiera tenemos que leer los enlaces
03:01
to see how differentdiferente these two pagespáginas are.
65
166000
2000
para ver lo diferentes que son.
03:03
But when you do readleer the linkscampo de golf,
66
168000
2000
Pero si leemos los enlaces
03:05
it's really quitebastante remarkablenotable.
67
170000
3000
es muy notable.
03:09
DanielDaniel didn't get anything about the protestsprotestas in EgyptEgipto at all
68
174000
3000
A Daniel no le aparece nada de las protestas en Egipto
03:12
in his first pagepágina of GoogleGoogle resultsresultados.
69
177000
2000
en su portada de resultados de Google.
03:14
Scott'sScott resultsresultados were fullcompleto of them.
70
179000
2000
En los resultados de Scott aparece mucho.
03:16
And this was the biggrande storyhistoria of the day at that time.
71
181000
2000
Y esa era la historia del día en ese momento.
03:18
That's how differentdiferente these resultsresultados are becomingdevenir.
72
183000
3000
Así de diferentes se están volviendo los resultados.
03:21
So it's not just GoogleGoogle and FacebookFacebook eitherya sea.
73
186000
3000
Y no se trata sólo de Google y Facebook.
03:24
This is something that's sweepingbarrido the WebWeb.
74
189000
2000
Esto está arrasando la Red.
03:26
There are a wholetodo hostanfitrión of companiescompañías that are doing this kindtipo of personalizationpersonalización.
75
191000
3000
Hay toda una serie de empresas que están haciendo este tipo de personalización.
03:29
YahooYahoo NewsNoticias, the biggestmás grande newsNoticias sitesitio on the InternetInternet,
76
194000
3000
Yahoo News, el sitio más grande de noticias de Internet,
03:32
is now personalizedpersonalizado -- differentdiferente people get differentdiferente things.
77
197000
3000
ahora es personalizado; distintas personas obtienen distintas cosas.
03:36
HuffingtonHuffington PostEnviar, the WashingtonWashington PostEnviar, the NewNuevo YorkYork TimesVeces --
78
201000
3000
Huffington Post, Washington Post, New York Times
03:39
all flirtingflirteador with personalizationpersonalización in variousvarios waysformas.
79
204000
3000
todos coquetean con algún tipo de personalización.
03:42
And this movesmovimientos us very quicklycon rapidez
80
207000
3000
Y esto marcha muy rápido
03:45
towardhacia a worldmundo in whichcual
81
210000
2000
hacia un mundo en el cual
03:47
the InternetInternet is showingdemostración us what it thinkspiensa we want to see,
82
212000
4000
Internet nos va a mostrar lo que piense que queremos ver
03:51
but not necessarilynecesariamente what we need to see.
83
216000
3000
y no necesariamente lo que tenemos que ver.
03:54
As EricEric SchmidtSchmidt said,
84
219000
3000
Como dijo Eric Schmidt:
03:57
"It will be very harddifícil for people to watch or consumeconsumir something
85
222000
3000
"Va a ser muy difícil que las personas miren o consuman algo
04:00
that has not in some sensesentido
86
225000
2000
que en alguna medida no haya
04:02
been tailoredadaptado for them."
87
227000
3000
sido hecho a medida para ellas".
04:05
So I do think this is a problemproblema.
88
230000
2000
Creo que esto es un problema.
04:07
And I think, if you take all of these filtersfiltros togetherjuntos,
89
232000
3000
Si uno junta todos estos filtros,
04:10
you take all these algorithmsAlgoritmos,
90
235000
2000
todos estos algoritmos,
04:12
you get what I call a filterfiltrar bubbleburbuja.
91
237000
3000
obtiene lo que llamo la «burbuja de filtros».
04:16
And your filterfiltrar bubbleburbuja is your ownpropio personalpersonal,
92
241000
3000
La burbuja de filtros es el universo propio,
04:19
uniqueúnico universeuniverso of informationinformación
93
244000
2000
personal, único, de información
04:21
that you livevivir in onlineen línea.
94
246000
2000
que uno vive en la red.
04:23
And what's in your filterfiltrar bubbleburbuja
95
248000
3000
Y lo que haya en la burbuja de filtros
04:26
dependsdepende on who you are, and it dependsdepende on what you do.
96
251000
3000
depende de quién uno es, y de lo que uno hace.
04:29
But the thing is that you don't decidedecidir what getsse pone in.
97
254000
4000
Pero la cosa es que uno no decide que es lo que entra.
04:33
And more importantlyen tono rimbombante,
98
258000
2000
Y, más importante aún,
04:35
you don't actuallyactualmente see what getsse pone editededitado out.
99
260000
3000
no vemos qué es lo que se elimina.
04:38
So one of the problemsproblemas with the filterfiltrar bubbleburbuja
100
263000
2000
Unos investigadores de Netflix
04:40
was discovereddescubierto by some researchersinvestigadores at NetflixNetflix.
101
265000
3000
detectaron problemas con la burbuja de filtros.
04:43
And they were looking at the NetflixNetflix queuescolas, and they noticednotado something kindtipo of funnygracioso
102
268000
3000
Estaban mirando las listas de Netflix y notaron algo gracioso,
04:46
that a lot of us probablyprobablemente have noticednotado,
103
271000
2000
que a muchos seguro nos ha pasado,
04:48
whichcual is there are some moviespelículas
104
273000
2000
y es que algunas películas
04:50
that just sortordenar of zipcremallera right up and out to our housescasas.
105
275000
3000
aparecen y desaparecen de nuestras listas.
04:53
They enterentrar the queuecola, they just zipcremallera right out.
106
278000
3000
Entran a la lista y desaparecen enseguida.
04:56
So "IronHierro Man" zipscremalleras right out,
107
281000
2000
"Iron Man" desaparece
04:58
and "WaitingEsperando for SupermanSuperhombre"
108
283000
2000
y "Esperando a Súperman"
05:00
can wait for a really long time.
109
285000
2000
puede quedar mucho tiempo.
05:02
What they discovereddescubierto
110
287000
2000
Lo que descubrieron
05:04
was that in our NetflixNetflix queuescolas
111
289000
2000
es que en nuestras listas de Netflix
05:06
there's this epicépico strugglelucha going on
112
291000
3000
ocurren estas batallas épicas
05:09
betweenEntre our futurefuturo aspirationalaspiracional selvesyoes
113
294000
3000
entre nuestras aspiraciones futuras
05:12
and our more impulsiveimpulsivo presentpresente selvesyoes.
114
297000
3000
y nuestro yo impulsivo del momento.
05:15
You know we all want to be someonealguien
115
300000
2000
Ya saben, a todos nos gustaría
05:17
who has watchedmirado "RashomonRashomon,"
116
302000
2000
haber visto "Rashōmon"
05:19
but right now
117
304000
2000
pero en este momento
05:21
we want to watch "AceAs VenturaVentura" for the fourthcuarto time.
118
306000
3000
queremos ver "Ace Ventura" por cuarta vez.
05:24
(LaughterRisa)
119
309000
3000
(Risas)
05:27
So the bestmejor editingedición givesda us a bitpoco of bothambos.
120
312000
2000
Por eso la mejor edición nos da lo mejor de ambas cosas.
05:29
It givesda us a little bitpoco of JustinJustin BieberBieber
121
314000
2000
Nos da un poco de Justin Bieber
05:31
and a little bitpoco of AfghanistanAfganistán.
122
316000
2000
y un poco de Afganistán.
05:33
It givesda us some informationinformación vegetablesvegetales;
123
318000
2000
Nos da algunos vegetales informativos
05:35
it givesda us some informationinformación dessertpostre.
124
320000
3000
y nos da algunos postres informativos.
05:38
And the challengereto with these kindsclases of algorithmicalgorítmico filtersfiltros,
125
323000
2000
El desafío de estos filtros algorítmicos,
05:40
these personalizedpersonalizado filtersfiltros,
126
325000
2000
de estos filtros personalizados,
05:42
is that, because they're mainlyprincipalmente looking
127
327000
2000
es que al basarse principalmente
05:44
at what you clickhacer clic on first,
128
329000
4000
en lo que uno cliquea primero
05:48
it can throwlanzar off that balanceequilibrar.
129
333000
4000
pueden alterar ese equilibrio.
05:52
And insteaden lugar of a balancedequilibrado informationinformación dietdieta,
130
337000
3000
Y en vez de tener una dieta informativa balanceada
05:55
you can endfin up surroundedrodeado
131
340000
2000
uno termine rodeado
05:57
by informationinformación junkbasura foodcomida.
132
342000
2000
de comida chatarra informativa.
05:59
What this suggestssugiere
133
344000
2000
Esto sugiere
06:01
is actuallyactualmente that we maymayo have the storyhistoria about the InternetInternet wrongincorrecto.
134
346000
3000
que quizá hemos interpretado mal la historia de Internet.
06:04
In a broadcastemisión societysociedad --
135
349000
2000
En una sociedad de la difusión
06:06
this is how the foundingestablecimiento mythologymitología goesva --
136
351000
2000
-eso dice el mito fundador-
06:08
in a broadcastemisión societysociedad,
137
353000
2000
en una sociedad de la difusión
06:10
there were these gatekeepersguardianes, the editorseditores,
138
355000
2000
estaban estos porteros, los editores,
06:12
and they controlledrevisado the flowsflujos of informationinformación.
139
357000
3000
que controlaban el flujo de la información.
06:15
And alonga lo largo camevino the InternetInternet and it sweptbarrido them out of the way,
140
360000
3000
Y luego aparece Internet y arrasa con ellos
06:18
and it allowedpermitido all of us to connectconectar togetherjuntos,
141
363000
2000
y nos permite a todos nosotros conectarnos unos a otros,
06:20
and it was awesomeincreíble.
142
365000
2000
y eso fue genial.
06:22
But that's not actuallyactualmente what's happeningsucediendo right now.
143
367000
3000
Pero eso no es lo que está sucediendo ahora.
06:26
What we're seeingviendo is more of a passingpaso of the torchantorcha
144
371000
3000
Lo que estamos viendo se parece más a un pasaje de antorcha
06:29
from humanhumano gatekeepersguardianes
145
374000
2000
entre los porteros humanos
06:31
to algorithmicalgorítmico onesunos.
146
376000
3000
y los algorítmicos.
06:34
And the thing is that the algorithmsAlgoritmos
147
379000
3000
Y el problema es que los algoritmos
06:37
don't yettodavía have the kindtipo of embeddedincrustado ethicsética
148
382000
3000
todavía no tienen incorporados los principios éticos
06:40
that the editorseditores did.
149
385000
3000
que tenían los editores.
06:43
So if algorithmsAlgoritmos are going to curatecura the worldmundo for us,
150
388000
3000
Entonces, si los algoritmos nos van a seleccionar el contenido,
06:46
if they're going to decidedecidir what we get to see and what we don't get to see,
151
391000
3000
si van a decidir qué veremos y qué no,
06:49
then we need to make sure
152
394000
2000
entonces tenemos que asegurarnos
06:51
that they're not just keyedenchavetado to relevancepertinencia.
153
396000
3000
de que no sólo se guían por la relevancia.
06:54
We need to make sure that they alsoademás showespectáculo us things
154
399000
2000
Tenemos que asegurarnos de que también nos muestran cosas
06:56
that are uncomfortableincómodo or challengingdesafiante or importantimportante --
155
401000
3000
incómodas, estimulantes o importantes
06:59
this is what TEDTED does --
156
404000
2000
-eso hace TED-
07:01
other pointspuntos of viewver.
157
406000
2000
otros puntos de vista.
07:03
And the thing is, we'venosotros tenemos actuallyactualmente been here before
158
408000
2000
El punto es que hemos pasado por esto antes
07:05
as a societysociedad.
159
410000
2000
como sociedad.
07:08
In 1915, it's not like newspapersperiódicos were sweatingtranspiración a lot
160
413000
3000
No es que en 1915 los periódicos se preocuparan mucho
07:11
about theirsu civiccívico responsibilitiesresponsabilidades.
161
416000
3000
por sus responsabilidades cívicas.
07:14
Then people noticednotado
162
419000
2000
Después, la gente se dio cuenta
07:16
that they were doing something really importantimportante.
163
421000
3000
de que servían para algo muy importante.
07:19
That, in facthecho, you couldn'tno pudo have
164
424000
2000
Que, de hecho, no se puede tener
07:21
a functioningmarcha democracydemocracia
165
426000
2000
una democracia que funcione
07:23
if citizenslos ciudadanos didn't get a good flowfluir of informationinformación,
166
428000
4000
si los ciudadanos no acceden a un buen flujo de información.
07:28
that the newspapersperiódicos were criticalcrítico because they were actinginterino as the filterfiltrar,
167
433000
3000
Que los periódicos eran críticos porque actuaban de filtro
07:31
and then journalisticperiodístico ethicsética developeddesarrollado.
168
436000
2000
y entonces nace la ética periodística.
07:33
It wasn'tno fue perfectPerfecto,
169
438000
2000
No era perfecta
07:35
but it got us throughmediante the last centurysiglo.
170
440000
3000
pero con eso pudimos atravesar el siglo pasado.
07:38
And so now,
171
443000
2000
Y ahora
07:40
we're kindtipo of back in 1915 on the WebWeb.
172
445000
3000
es como que estamos en el 1915 de la Red.
07:44
And we need the newnuevo gatekeepersguardianes
173
449000
3000
Y necesitamos que los nuevos porteros
07:47
to encodecodificar that kindtipo of responsibilityresponsabilidad
174
452000
2000
incluyan este tipo de responsabilidad
07:49
into the codecódigo that they're writingescritura.
175
454000
2000
en el código que están escribiendo.
07:51
I know that there are a lot of people here from FacebookFacebook and from GoogleGoogle --
176
456000
3000
Sé que entre los presentes hay gente de Facebook y Google
07:54
LarryLarry and SergeySergey --
177
459000
2000
-Larry y Sergey-
07:56
people who have helpedayudado buildconstruir the WebWeb as it is,
178
461000
2000
personas que han ayudado a construir la Red tal como es
07:58
and I'm gratefulagradecido for that.
179
463000
2000
y les agradezco eso.
08:00
But we really need you to make sure
180
465000
3000
Pero realmente necesitamos que nos aseguren
08:03
that these algorithmsAlgoritmos have encodedcodificado in them
181
468000
3000
que estos algoritmos contienen
08:06
a sensesentido of the publicpúblico life, a sensesentido of civiccívico responsibilityresponsabilidad.
182
471000
3000
un sentido de la vida pública, un sentido de responsabilidad cívica.
08:09
We need you to make sure that they're transparenttransparente enoughsuficiente
183
474000
3000
Necesitamos que nos aseguren que son suficientemente transparentes,
08:12
that we can see what the rulesreglas are
184
477000
2000
que podemos ver cuáles son las reglas
08:14
that determinedeterminar what getsse pone throughmediante our filtersfiltros.
185
479000
3000
que determinan lo que pasa por nuestros filtros.
08:17
And we need you to give us some controlcontrolar
186
482000
2000
Y necesitamos que nos den algún control
08:19
so that we can decidedecidir
187
484000
2000
para poder decidir
08:21
what getsse pone throughmediante and what doesn't.
188
486000
3000
qué pasa y que no pasa.
08:24
Because I think
189
489000
2000
Porque creo
08:26
we really need the InternetInternet to be that thing
190
491000
2000
que realmente necesitamos que Internet sea eso
08:28
that we all dreamedsoñado of it beingsiendo.
191
493000
2000
que todos soñamos que fuera.
08:30
We need it to connectconectar us all togetherjuntos.
192
495000
3000
Necesitamos que nos conecte a todos.
08:33
We need it to introduceintroducir us to newnuevo ideasideas
193
498000
3000
Necesitamos que nos presente nuevas ideas,
08:36
and newnuevo people and differentdiferente perspectivesperspectivas.
194
501000
3000
nuevas personas y distintas perspectivas.
08:40
And it's not going to do that
195
505000
2000
Y esto no va a ser posible
08:42
if it leaveshojas us all isolatedaislado in a WebWeb of one.
196
507000
3000
si nos aísla en una Red unipersonal.
08:45
Thank you.
197
510000
2000
Gracias.
08:47
(ApplauseAplausos)
198
512000
11000
(Aplausos)
Translated by Sebastian Betti
Reviewed by Eduardo Sierra

▲Back to top

ABOUT THE SPEAKER
Eli Pariser - Organizer and author
Pioneering online organizer Eli Pariser is the author of "The Filter Bubble," about how personalized search might be narrowing our worldview.

Why you should listen

Shortly after the September 11, 2001, attacks, Eli Pariser created a website calling for a multilateral approach to fighting terrorism. In the following weeks, over half a million people from 192 countries signed on, and Pariser rather unexpectedly became an online organizer. The website merged with MoveOn.org in November 2001, and Pariser -- then 20 years old -- joined the group to direct its foreign policy campaigns. He led what the New York Times Magazine called the "mainstream arm of the peace movement" -- tripling MoveOn's member base and demonstrating how large numbers of small donations could be mobilized through online engagement.

In 2004, Pariser became executive director of MoveOn. Under his leadership, MoveOn.org Political Action has grown to 5 million members and raised over $120 million from millions of small donors to support advocacy campaigns and political candidates. Pariser focused MoveOn on online-to-offline organizing, developing phone-banking tools and precinct programs in 2004 and 2006 that laid the groundwork for Barack Obama's extraordinary web-powered campaign. In 2008, Pariser transitioned the Executive Director role at MoveOn to Justin Ruben and became President of MoveOn’s board; he's now a senior fellow at the Roosevelt Institute.

His book The Filter Bubble is set for release May 12, 2011. In it, he asks how modern search tools -- the filter by which many of see the wider world -- are getting better and better and screening the wider world from us, by returning only the search results it "thinks" we want to see.

More profile about the speaker
Eli Pariser | Speaker | TED.com