ABOUT THE SPEAKER
Eli Pariser - Organizer and author
Pioneering online organizer Eli Pariser is the author of "The Filter Bubble," about how personalized search might be narrowing our worldview.

Why you should listen

Shortly after the September 11, 2001, attacks, Eli Pariser created a website calling for a multilateral approach to fighting terrorism. In the following weeks, over half a million people from 192 countries signed on, and Pariser rather unexpectedly became an online organizer. The website merged with MoveOn.org in November 2001, and Pariser -- then 20 years old -- joined the group to direct its foreign policy campaigns. He led what the New York Times Magazine called the "mainstream arm of the peace movement" -- tripling MoveOn's member base and demonstrating how large numbers of small donations could be mobilized through online engagement.

In 2004, Pariser became executive director of MoveOn. Under his leadership, MoveOn.org Political Action has grown to 5 million members and raised over $120 million from millions of small donors to support advocacy campaigns and political candidates. Pariser focused MoveOn on online-to-offline organizing, developing phone-banking tools and precinct programs in 2004 and 2006 that laid the groundwork for Barack Obama's extraordinary web-powered campaign. In 2008, Pariser transitioned the Executive Director role at MoveOn to Justin Ruben and became President of MoveOn’s board; he's now a senior fellow at the Roosevelt Institute.

His book The Filter Bubble is set for release May 12, 2011. In it, he asks how modern search tools -- the filter by which many of see the wider world -- are getting better and better and screening the wider world from us, by returning only the search results it "thinks" we want to see.

More profile about the speaker
Eli Pariser | Speaker | TED.com
TED2011

Eli Pariser: Beware online "filter bubbles"

Eli Pariser nous met en garde contre "les bulles de filtres" en ligne.

Filmed:
5,309,238 views

Alors que les compagnies internet s'efforcent d'ajuster leurs services à nos goûts personnels (y compris l'actualité et les résultats de recherche), une dangereuse conséquence, involontaire, émerge : nous nous retrouvons piégés dans une "bulle de filtres" et ne nous trouvons pas exposés à l'information qui pourrait remettre en question ou élargir notre perception du monde. Eli Pariser argumente avec force qu'au final cela s'avérera mauvais pour nous et pour la démocratie.
- Organizer and author
Pioneering online organizer Eli Pariser is the author of "The Filter Bubble," about how personalized search might be narrowing our worldview. Full bio

Double-click the English transcript below to play the video.

00:15
MarkMark ZuckerbergZuckerberg,
0
0
2000
Mark Zuckerberg [créateur de Facebook],
00:17
a journalistjournaliste was askingdemandant him a questionquestion about the newsnouvelles feedalimentation.
1
2000
3000
un journaliste lui posait une question à propos du fil d’actualité.
00:20
And the journalistjournaliste was askingdemandant him,
2
5000
2000
Et le journaliste lui demandait
00:22
"Why is this so importantimportant?"
3
7000
2000
"Pourquoi est-ce si important ?"
00:24
And ZuckerbergZuckerberg said,
4
9000
2000
Et Zuckerberg a dit,
00:26
"A squirrelécureuil dyingen train de mourir in your frontde face yardyard
5
11000
2000
"Un écureuil mourant dans votre jardin
00:28
maymai be more relevantpertinent to your interestsintérêts right now
6
13000
3000
peut être plus pertinent pour vos intérêts du moment
00:31
than people dyingen train de mourir in AfricaL’Afrique."
7
16000
3000
que les gens qui meurent en Afrique."
00:34
And I want to talk about
8
19000
2000
Et je veux parler
00:36
what a WebWeb basedbasé on that ideaidée of relevancepertinence mightpourrait look like.
9
21000
3000
de ce à quoi ressemblerait un internet basé sur cette idée de pertinence.
00:40
So when I was growingcroissance up
10
25000
2000
Alors, pendant que je grandissais
00:42
in a really ruralrural arearégion in MaineMaine,
11
27000
2000
dans une région vraiment rurale du Maine [États-Unis],
00:44
the InternetInternet meantsignifiait something very differentdifférent to me.
12
29000
3000
l'internet signifiait quelque chose de vraiment différent pour moi.
00:47
It meantsignifiait a connectionconnexion to the worldmonde.
13
32000
2000
Cela signifiait une connexion avec le monde.
00:49
It meantsignifiait something that would connectrelier us all togetherensemble.
14
34000
3000
Ça signifiait quelque chose qui nous connecterait tous ensemble.
00:52
And I was sure that it was going to be great for democracyla démocratie
15
37000
3000
Et j'étais sûr que ça allait être formidable pour la démocratie
00:55
and for our societysociété.
16
40000
3000
et pour notre société.
00:58
But there's this shiftdécalage
17
43000
2000
Mais il y a ce changement
01:00
in how informationinformation is flowingécoulement onlineen ligne,
18
45000
2000
dans la façon dont l'information circule en ligne,
01:02
and it's invisibleinvisible.
19
47000
3000
et c'est invisible.
01:05
And if we don't payPayer attentionattention to it,
20
50000
2000
Et si nous n'y prêtons pas attention,
01:07
it could be a realréal problemproblème.
21
52000
3000
cela pourrait être un réel problème.
01:10
So I first noticedremarqué this in a placeendroit I spenddépenser a lot of time --
22
55000
3000
Alors, j'ai d'abord remarqué cela dans un espace où je passe beaucoup de temps --
01:13
my FacebookFacebook pagepage.
23
58000
2000
ma page Facebook.
01:15
I'm progressiveprogressive, politicallypolitiquement -- biggros surprisesurprise --
24
60000
3000
Je suis progressiste, politiquement -- grande surprise --
01:18
but I've always gonedisparu out of my way to meetrencontrer conservativesconservateurs.
25
63000
2000
mais je me suis toujours démené pour rencontrer des conservateurs.
01:20
I like hearingaudition what they're thinkingen pensant about;
26
65000
2000
J'aime écouter ce qu'ils pensent ;
01:22
I like seeingvoyant what they linklien to;
27
67000
2000
j'aime voir à quoi ils se connectent ;
01:24
I like learningapprentissage a thing or two.
28
69000
2000
j'aime apprendre une chose ou deux.
01:26
And so I was surprisedsurpris when I noticedremarqué one day
29
71000
3000
Et donc j'ai été surpris quand un jour j'ai remarqué
01:29
that the conservativesconservateurs had disappeareddisparu from my FacebookFacebook feedalimentation.
30
74000
3000
que les conservateurs avaient disparu de mon fil Facebook.
01:33
And what it turnedtourné out was going on
31
78000
2000
Et ce qu'il apparut qu'il se passait
01:35
was that FacebookFacebook was looking at whichlequel linksdes liens I clickedun clic sur on,
32
80000
4000
est que Facebook regardait chaque lien que je cliquais,
01:39
and it was noticingremarquer that, actuallyréellement,
33
84000
2000
et s'apercevait qu'en fait,
01:41
I was clickingen cliquant more on my liberallibéral friends'des amis linksdes liens
34
86000
2000
je cliquais plus souvent les liens de mes amis libéraux
01:43
than on my conservativeconservateur friends'des amis linksdes liens.
35
88000
3000
que les liens de mes amis conservateurs.
01:46
And withoutsans pour autant consultingconsultant me about it,
36
91000
2000
Et sans me consulter à ce propos,
01:48
it had editedédité them out.
37
93000
2000
Facebook les avait éliminés.
01:50
They disappeareddisparu.
38
95000
3000
Ils avaient disparus.
01:54
So FacebookFacebook isn't the only placeendroit
39
99000
2000
Alors Facebook n'est pas le seul espace
01:56
that's doing this kindgentil of invisibleinvisible, algorithmicalgorithmique
40
101000
2000
à opérer ce genre d'algorithme invisible
01:58
editingédition of the WebWeb.
41
103000
3000
triant l'internet.
02:01
Google'sDe Google doing it too.
42
106000
2000
Google le fait aussi.
02:03
If I searchchercher for something, and you searchchercher for something,
43
108000
3000
Si je cherche quelque chose et que vous cherchez quelque chose,
02:06
even right now at the very sameMême time,
44
111000
2000
quand même maintenant exactement au même moment,
02:08
we maymai get very differentdifférent searchchercher resultsrésultats.
45
113000
3000
nous pourrions obtenir des résultats différents.
02:11
Even if you're loggedconnecté out, one engineeringénieur told me,
46
116000
3000
Même si vous êtes déconnectés, un ingénieur m'a dit,
02:14
there are 57 signalssignaux
47
119000
2000
il y a 57 indicateurs
02:16
that GoogleGoogle looksregards at --
48
121000
3000
que Google regarde --
02:19
everything from what kindgentil of computerordinateur you're on
49
124000
3000
tout du type d'ordinateur depuis lequel vous surfez
02:22
to what kindgentil of browserNavigateur you're usingen utilisant
50
127000
2000
jusqu'au type de navigateur que vous utilisez
02:24
to where you're locatedsitué --
51
129000
2000
en passant par votre location géographique --
02:26
that it usesles usages to personallypersonnellement tailorsur mesure your queryrequête resultsrésultats.
52
131000
3000
et qui sont utilisés pour personnaliser vos résultats de recherche.
02:29
Think about it for a secondseconde:
53
134000
2000
Pensez-y une seconde :
02:31
there is no standardla norme GoogleGoogle anymoreplus.
54
136000
4000
il n'y a plus de Google générique.
02:35
And you know, the funnydrôle thing about this is that it's harddifficile to see.
55
140000
3000
Et vous savez, ce qui est drôle dans cette histoire, c'est que c'est difficile à percevoir.
02:38
You can't see how differentdifférent your searchchercher resultsrésultats are
56
143000
2000
Vous ne pouvez pas voir à quel point vos résultats de recherche sont différents
02:40
from anyonen'importe qui else'sd'autre.
57
145000
2000
de ceux de n'importe qui d'autre.
02:42
But a couplecouple of weekssemaines agodepuis,
58
147000
2000
Mais il y a quelques semaines,
02:44
I askeda demandé a bunchbouquet of friendscopains to GoogleGoogle "EgyptÉgypte"
59
149000
3000
j'ai demandé à quelques amis de chercher "Égypte" sur Google
02:47
and to sendenvoyer me screenécran shotscoups of what they got.
60
152000
3000
et de m'envoyer des captures d'écrans de ce qu'ils avaient obtenu.
02:50
So here'svoici my friendami Scott'sDe Scott screenécran shotcoup.
61
155000
3000
Donc, voici ce que mon ami Scott a obtenu.
02:54
And here'svoici my friendami Daniel'sDe Daniel screenécran shotcoup.
62
159000
3000
Et voilà ce que mon ami Daniel a trouvé.
02:57
When you put them side-by-sidecote à cote,
63
162000
2000
Quand vous mettez leurs résultats côte-à-côte,
02:59
you don't even have to readlis the linksdes liens
64
164000
2000
vous n'avez même pas besoin de lire les liens
03:01
to see how differentdifférent these two pagespages are.
65
166000
2000
pour voir à quel point ces deux pages sont différentes.
03:03
But when you do readlis the linksdes liens,
66
168000
2000
Mais si vous lisez les liens,
03:05
it's really quiteassez remarkableremarquable.
67
170000
3000
c'est tout à fait remarquable.
03:09
DanielDaniel didn't get anything about the protestsprotestations in EgyptÉgypte at all
68
174000
3000
Daniel n'a rien obtenu du tout concernant les manifestations en Égypte
03:12
in his first pagepage of GoogleGoogle resultsrésultats.
69
177000
2000
sur sa première page de résultats donnés par Google.
03:14
Scott'sDe Scott resultsrésultats were fullplein of them.
70
179000
2000
Les résultats de Scott en étaient pleins.
03:16
And this was the biggros storyrécit of the day at that time.
71
181000
2000
Et ça faisait les gros titres chaque jour à l'époque.
03:18
That's how differentdifférent these resultsrésultats are becomingdevenir.
72
183000
3000
C'est à ce point que les résultats deviennent différents.
03:21
So it's not just GoogleGoogle and FacebookFacebook eithernon plus.
73
186000
3000
Alors, ce n'est pas juste Google et Facebook.
03:24
This is something that's sweepingbalayage the WebWeb.
74
189000
2000
Il s'agit de quelque chose qui balaye l'internet.
03:26
There are a wholeentier hosthôte of companiesentreprises that are doing this kindgentil of personalizationpersonnalisation.
75
191000
3000
Il y a tout un tas d'entreprises qui pratiquent ce genre de personnalisation.
03:29
YahooYahoo NewsNouvelles, the biggestplus grand newsnouvelles sitesite on the InternetInternet,
76
194000
3000
Yahoo Actualités, le plus grand site d'actualité sur internet,
03:32
is now personalizedpersonnalisé -- differentdifférent people get differentdifférent things.
77
197000
3000
est maintenant personnalisé -- différentes personnes voient différentes choses.
03:36
HuffingtonHuffington PostPublier, the WashingtonWashington PostPublier, the NewNouveau YorkYork TimesFois --
78
201000
3000
Le Huffington Post, le Washington Post, le New York Times --
03:39
all flirtingflirt with personalizationpersonnalisation in variousdivers waysfaçons.
79
204000
3000
tous flirtent avec la personnalisation d'une façon ou d'une autre.
03:42
And this movesse déplace us very quicklyrapidement
80
207000
3000
Et cela nous emmène très rapidement
03:45
towardvers a worldmonde in whichlequel
81
210000
2000
vers un monde dans lequel
03:47
the InternetInternet is showingmontrer us what it thinkspense we want to see,
82
212000
4000
l'internet nous montre ce qu'il pense que nous voulons voir,
03:51
but not necessarilynécessairement what we need to see.
83
216000
3000
mais pas nécessairement ce que nous avons besoin de voir.
03:54
As EricEric SchmidtSchmidt said,
84
219000
3000
Comme l'a dit Eric Schmidt [président de Google],
03:57
"It will be very harddifficile for people to watch or consumeconsommer something
85
222000
3000
"Il sera très difficile pour les gens de regarder ou de consommer
04:00
that has not in some sensesens
86
225000
2000
ce qui n'a pas d'une certaine façon
04:02
been tailoredsur mesure for them."
87
227000
3000
été fait sur mesure pour eux."
04:05
So I do think this is a problemproblème.
88
230000
2000
Donc je pense que c'est un réel problème.
04:07
And I think, if you take all of these filtersfiltres togetherensemble,
89
232000
3000
Et je pense que, si vous prenez tous ces filtres ensemble,
04:10
you take all these algorithmsalgorithmes,
90
235000
2000
si vous prenez tous ces algorithmes,
04:12
you get what I call a filterfiltre bubblebulle.
91
237000
3000
vous obtenez ce que j'appelle une bulle de filtres.
04:16
And your filterfiltre bubblebulle is your ownposséder personalpersonnel,
92
241000
3000
Et votre bulle de filtres est votre propre, personnel,
04:19
uniqueunique universeunivers of informationinformation
93
244000
2000
unique univers d'information
04:21
that you livevivre in onlineen ligne.
94
246000
2000
dans lequel vous vivez en ligne.
04:23
And what's in your filterfiltre bubblebulle
95
248000
3000
Et ce qui est dans votre bulle de filtres
04:26
dependsdépend on who you are, and it dependsdépend on what you do.
96
251000
3000
dépend de qui vous êtes, et dépend de que vous faites.
04:29
But the thing is that you don't decidedécider what getsobtient in.
97
254000
4000
Mais le truc, c'est que vous ne décidez pas ce qui entre dedans.
04:33
And more importantlyimportant,
98
258000
2000
Et plus important,
04:35
you don't actuallyréellement see what getsobtient editedédité out.
99
260000
3000
vous ne voyez pas en fait ce qui se trouve rejeté.
04:38
So one of the problemsproblèmes with the filterfiltre bubblebulle
100
263000
2000
Donc l'un des problèmes de la bulle de filtres
04:40
was discovereddécouvert by some researchersdes chercheurs at NetflixNetflix.
101
265000
3000
a été découvert par des chercheurs de chez Netflix [site de vidéo à la demande].
04:43
And they were looking at the NetflixNetflix queuesfiles d’attente, and they noticedremarqué something kindgentil of funnydrôle
102
268000
3000
Ils étudiaient les files d'attentes Netflix, et ont remarqué une chose assez drôle,
04:46
that a lot of us probablyProbablement have noticedremarqué,
103
271000
2000
que beaucoup d'entre nous ont certainement remarqué,
04:48
whichlequel is there are some moviesfilms
104
273000
2000
et qui est qu'il y a certains films
04:50
that just sortTrier of zipZip *: français right up and out to our housesMaisons.
105
275000
3000
qui semblent juste remonter la file très vite pour entrer dans nos foyers.
04:53
They enterentrer the queuequeue, they just zipZip *: français right out.
106
278000
3000
Ils entrent dans la file, et ils la remontent immédiatement.
04:56
So "IronFer Man" zipsfermetures à glissière right out,
107
281000
2000
Donc "Iron Man" arrive aussitôt,
04:58
and "WaitingEn attente for SupermanSuperman"
108
283000
2000
et "Waiting for Superman"
05:00
can wait for a really long time.
109
285000
2000
peut attendre vraiment très longtemps.
05:02
What they discovereddécouvert
110
287000
2000
Ce qu'ils ont découvert
05:04
was that in our NetflixNetflix queuesfiles d’attente
111
289000
2000
c'est que dans les files d'attente de Netflix,
05:06
there's this epicépopée strugglelutte going on
112
291000
3000
il y a une bataille épique qui se joue
05:09
betweenentre our futureavenir aspirationalambitieux selvesSelves
113
294000
3000
entre ce que nous aspirons à être dans le futur
05:12
and our more impulsiveimpulsif presentprésent selvesSelves.
114
297000
3000
et ce que nous sommes plus impulsivement dans le présent.
05:15
You know we all want to be someoneQuelqu'un
115
300000
2000
Vous savez, nous voulons tous être quelqu'un
05:17
who has watchedregardé "RashomonRashomon,"
116
302000
2000
qui a vu "Rashōmon",
05:19
but right now
117
304000
2000
mais pour le moment
05:21
we want to watch "AceACE VenturaVentura" for the fourthQuatrième time.
118
306000
3000
nous voulons voir "Ace Ventura, détective chiens et chats" pour la quatrième fois.
05:24
(LaughterRires)
119
309000
3000
(Rires)
05:27
So the bestmeilleur editingédition givesdonne us a bitbit of bothtous les deux.
120
312000
2000
Donc la meilleure des éditions nous donne un peu des deux.
05:29
It givesdonne us a little bitbit of JustinJustin BieberBieber
121
314000
2000
Il nous donne un petit peu de Justin Bieber
05:31
and a little bitbit of AfghanistanAfghanistan.
122
316000
2000
et un petit peu d'Afghanistan.
05:33
It givesdonne us some informationinformation vegetablesdes légumes;
123
318000
2000
Il nous donne de l'information "légumes",
05:35
it givesdonne us some informationinformation dessertdessert.
124
320000
3000
il nous donne de l'information "dessert".
05:38
And the challengedéfi with these kindssortes of algorithmicalgorithmique filtersfiltres,
125
323000
2000
Et le défi avec ce genre de filtres algorithmiques,
05:40
these personalizedpersonnalisé filtersfiltres,
126
325000
2000
ces filtres personnalisés,
05:42
is that, because they're mainlyprincipalement looking
127
327000
2000
c'est que, parce qu'ils observent principalement
05:44
at what you clickCliquez on first,
128
329000
4000
ce que vous cliquez en premier,
05:48
it can throwjeter off that balanceéquilibre.
129
333000
4000
ça peut déstabiliser cet équilibre.
05:52
And insteadau lieu of a balancedéquilibré informationinformation dietrégime,
130
337000
3000
Et au lieu d'un régime d'information équilibré,
05:55
you can endfin up surroundedentouré
131
340000
2000
vous pouvez finir entouré
05:57
by informationinformation junkCamelote foodaliments.
132
342000
2000
d'information "malbouffe".
05:59
What this suggestssuggère
133
344000
2000
Ce que cela suggère
06:01
is actuallyréellement that we maymai have the storyrécit about the InternetInternet wrongfaux.
134
346000
3000
c'est en fait que nous pourrions avoir fait fausse route à propos d'internet.
06:04
In a broadcastdiffusion societysociété --
135
349000
2000
Dans une société de diffusion --
06:06
this is how the foundingfonder mythologymythologie goesva --
136
351000
2000
comme disent les mythes fondateurs --
06:08
in a broadcastdiffusion societysociété,
137
353000
2000
dans une société de diffusion,
06:10
there were these gatekeeperscontrôleurs d’accès, the editorsrédacteurs en chef,
138
355000
2000
il y avait ces gardiens du temple, les éditeurs,
06:12
and they controlledcontrôlé the flowsles flux of informationinformation.
139
357000
3000
et ils contrôlaient les flux d'information.
06:15
And alongle long de camevenu the InternetInternet and it sweptbalayé them out of the way,
140
360000
3000
Et puis l'internet est arrivé et les a balayé du chemin,
06:18
and it allowedpermis all of us to connectrelier togetherensemble,
141
363000
2000
nous permettant tous de nous connecter,
06:20
and it was awesomeimpressionnant.
142
365000
2000
et c'était génial.
06:22
But that's not actuallyréellement what's happeningévénement right now.
143
367000
3000
Mais ce n'est pas ce qui se passe en fait à l'heure actuelle.
06:26
What we're seeingvoyant is more of a passingqui passe of the torchtorche
144
371000
3000
Ce que nous voyons est plus un passage de témoin
06:29
from humanHumain gatekeeperscontrôleurs d’accès
145
374000
2000
des gardiens humains
06:31
to algorithmicalgorithmique onesceux.
146
376000
3000
aux gardiens algorithmiques.
06:34
And the thing is that the algorithmsalgorithmes
147
379000
3000
Et le problème c'est que les algorithmes
06:37
don't yetencore have the kindgentil of embeddedintégré ethicsdéontologie
148
382000
3000
n'ont pas encore le genre d'éthique intégrée
06:40
that the editorsrédacteurs en chef did.
149
385000
3000
que les éditeurs avaient.
06:43
So if algorithmsalgorithmes are going to curatevicaire the worldmonde for us,
150
388000
3000
Donc si les algorithmes vont inventorier le monde pour nous,
06:46
if they're going to decidedécider what we get to see and what we don't get to see,
151
391000
3000
s'ils vont décider ce que nous pouvons voir et ce que nous ne pouvons pas voir,
06:49
then we need to make sure
152
394000
2000
alors nous devons nous assurer
06:51
that they're not just keyedKeyed to relevancepertinence.
153
396000
3000
qu'ils ne se sont pas basés uniquement sur la pertinence.
06:54
We need to make sure that they alsoaussi showmontrer us things
154
399000
2000
Nous devons nous assurer qu'ils nous montrent aussi des choses
06:56
that are uncomfortableinconfortable or challengingdifficile or importantimportant --
155
401000
3000
qui sont inconfortables ou stimulantes ou importantes --
06:59
this is what TEDTED does --
156
404000
2000
c'est ce que TED fait --
07:01
other pointspoints of viewvue.
157
406000
2000
d'autres points de vue.
07:03
And the thing is, we'venous avons actuallyréellement been here before
158
408000
2000
Et le fait est que nous avons déjà été dans cette situation auparavant,
07:05
as a societysociété.
159
410000
2000
en tant que société.
07:08
In 1915, it's not like newspapersjournaux were sweatingla transpiration a lot
160
413000
3000
En 1915, ce n'est pas comme si les journaux avaient des suées
07:11
about theirleur civiccivique responsibilitiesresponsabilités.
161
416000
3000
à propos de leurs responsabilités civiques.
07:14
Then people noticedremarqué
162
419000
2000
Et alors les gens ont remarqué
07:16
that they were doing something really importantimportant.
163
421000
3000
qu'ils faisaient quelque chose de vraiment important.
07:19
That, in factfait, you couldn'tne pouvait pas have
164
424000
2000
Qu'en fait, vous ne pourriez pas avoir
07:21
a functioningfonctionnement democracyla démocratie
165
426000
2000
une démocratie qui fonctionne
07:23
if citizenscitoyens didn't get a good flowcouler of informationinformation,
166
428000
4000
si les citoyens n'avaient pas accès à un bon flot d'information.
07:28
that the newspapersjournaux were criticalcritique because they were actingagissant as the filterfiltre,
167
433000
3000
Que les journaux étaient cruciaux, parce qu'ils agissaient en tant que filtre,
07:31
and then journalisticjournalistique ethicsdéontologie developeddéveloppé.
168
436000
2000
et alors l'éthique journalistique s'est développée.
07:33
It wasn'tn'était pas perfectparfait,
169
438000
2000
Ce n'était pas parfait,
07:35
but it got us throughpar the last centurysiècle.
170
440000
3000
mais ça nous a menés à travers le siècle dernier.
07:38
And so now,
171
443000
2000
Et donc maintenant,
07:40
we're kindgentil of back in 1915 on the WebWeb.
172
445000
3000
on est en sorte retourné en 1915 sur internet.
07:44
And we need the newNouveau gatekeeperscontrôleurs d’accès
173
449000
3000
Et nous avons besoin que les nouveaux gardiens
07:47
to encodeEncoder that kindgentil of responsibilityresponsabilité
174
452000
2000
incorporent cette espèce de responsabilité
07:49
into the codecode that they're writingl'écriture.
175
454000
2000
dans le code qu'ils sont en train d'écrire.
07:51
I know that there are a lot of people here from FacebookFacebook and from GoogleGoogle --
176
456000
3000
Je sais qu'il y a beaucoup de gens ici de Facebook et Google --
07:54
LarryLarry and SergeySergey --
177
459000
2000
Larry et Sergey --
07:56
people who have helpedaidé buildconstruire the WebWeb as it is,
178
461000
2000
des gens qui ont contribué à construire internet tel qu'il est,
07:58
and I'm gratefulreconnaissant for that.
179
463000
2000
et j'ai de la gratitude pour ça.
08:00
But we really need you to make sure
180
465000
3000
Mais nous avons vraiment besoin que vous vous assuriez
08:03
that these algorithmsalgorithmes have encodedcodé in them
181
468000
3000
que ces algorithmes incorporent
08:06
a sensesens of the publicpublic life, a sensesens of civiccivique responsibilityresponsabilité.
182
471000
3000
une sensibilité pour la vie publique, sensibilité pour la responsabilité civique.
08:09
We need you to make sure that they're transparenttransparent enoughassez
183
474000
3000
Nous avons besoin que vous vous assuriez qu'ils sont suffisamment transparents
08:12
that we can see what the rulesrègles are
184
477000
2000
pour que nous puissions voir quelles sont les règles
08:14
that determinedéterminer what getsobtient throughpar our filtersfiltres.
185
479000
3000
qui déterminent ce qui passe à travers les filtres.
08:17
And we need you to give us some controlcontrôle
186
482000
2000
Et nous avons besoin que vous nous donniez du contrôle,
08:19
so that we can decidedécider
187
484000
2000
pour que nous puissions décider
08:21
what getsobtient throughpar and what doesn't.
188
486000
3000
ce qui passe les filtres et ce qui ne les passe pas.
08:24
Because I think
189
489000
2000
Parce que je pense
08:26
we really need the InternetInternet to be that thing
190
491000
2000
que nous avons vraiment besoin qu'internet soit cette chose
08:28
that we all dreamedrêvé of it beingétant.
191
493000
2000
que nous avons tous rêvée qu'il serait.
08:30
We need it to connectrelier us all togetherensemble.
192
495000
3000
Nous avons besoin qu'il nous connecte tous ensemble.
08:33
We need it to introduceprésenter us to newNouveau ideasidées
193
498000
3000
Nous avons besoin qu'il nous fasse connaître de nouvelles idées
08:36
and newNouveau people and differentdifférent perspectivespoints de vue.
194
501000
3000
et de nouvelles personnes, de différentes perspectives.
08:40
And it's not going to do that
195
505000
2000
Et il ne va pas faire cela
08:42
if it leavesfeuilles us all isolatedisolé in a WebWeb of one.
196
507000
3000
s’il nous laisse isolés dans un réseau fait d'une personne.
08:45
Thank you.
197
510000
2000
Merci.
08:47
(ApplauseApplaudissements)
198
512000
11000
(Applaudissements)
Translated by Amélie Gourdon
Reviewed by Elaine Green

▲Back to top

ABOUT THE SPEAKER
Eli Pariser - Organizer and author
Pioneering online organizer Eli Pariser is the author of "The Filter Bubble," about how personalized search might be narrowing our worldview.

Why you should listen

Shortly after the September 11, 2001, attacks, Eli Pariser created a website calling for a multilateral approach to fighting terrorism. In the following weeks, over half a million people from 192 countries signed on, and Pariser rather unexpectedly became an online organizer. The website merged with MoveOn.org in November 2001, and Pariser -- then 20 years old -- joined the group to direct its foreign policy campaigns. He led what the New York Times Magazine called the "mainstream arm of the peace movement" -- tripling MoveOn's member base and demonstrating how large numbers of small donations could be mobilized through online engagement.

In 2004, Pariser became executive director of MoveOn. Under his leadership, MoveOn.org Political Action has grown to 5 million members and raised over $120 million from millions of small donors to support advocacy campaigns and political candidates. Pariser focused MoveOn on online-to-offline organizing, developing phone-banking tools and precinct programs in 2004 and 2006 that laid the groundwork for Barack Obama's extraordinary web-powered campaign. In 2008, Pariser transitioned the Executive Director role at MoveOn to Justin Ruben and became President of MoveOn’s board; he's now a senior fellow at the Roosevelt Institute.

His book The Filter Bubble is set for release May 12, 2011. In it, he asks how modern search tools -- the filter by which many of see the wider world -- are getting better and better and screening the wider world from us, by returning only the search results it "thinks" we want to see.

More profile about the speaker
Eli Pariser | Speaker | TED.com