ABOUT THE SPEAKER
Eli Pariser - Organizer and author
Pioneering online organizer Eli Pariser is the author of "The Filter Bubble," about how personalized search might be narrowing our worldview.

Why you should listen

Shortly after the September 11, 2001, attacks, Eli Pariser created a website calling for a multilateral approach to fighting terrorism. In the following weeks, over half a million people from 192 countries signed on, and Pariser rather unexpectedly became an online organizer. The website merged with MoveOn.org in November 2001, and Pariser -- then 20 years old -- joined the group to direct its foreign policy campaigns. He led what the New York Times Magazine called the "mainstream arm of the peace movement" -- tripling MoveOn's member base and demonstrating how large numbers of small donations could be mobilized through online engagement.

In 2004, Pariser became executive director of MoveOn. Under his leadership, MoveOn.org Political Action has grown to 5 million members and raised over $120 million from millions of small donors to support advocacy campaigns and political candidates. Pariser focused MoveOn on online-to-offline organizing, developing phone-banking tools and precinct programs in 2004 and 2006 that laid the groundwork for Barack Obama's extraordinary web-powered campaign. In 2008, Pariser transitioned the Executive Director role at MoveOn to Justin Ruben and became President of MoveOn’s board; he's now a senior fellow at the Roosevelt Institute.

His book The Filter Bubble is set for release May 12, 2011. In it, he asks how modern search tools -- the filter by which many of see the wider world -- are getting better and better and screening the wider world from us, by returning only the search results it "thinks" we want to see.

More profile about the speaker
Eli Pariser | Speaker | TED.com
TED2011

Eli Pariser: Beware online "filter bubbles"

Opgelet met online filtering!

Filmed:
5,309,238 views

Webbedrijven streven naar het aanpassen van hun diensten (inclusief nieuws en zoekresultaten) aan onze persoonlijke smaak. Er hangt een gevaarlijk en onbedoeld gevolg aan vast: we komen vast te zitten in een "filterbubble" en komen niet in contact met informatie die ons wereldbeeld ter discussie stelt en verbreedt. Eli Pariser beargumenteert krachtig dat dit uiteindelijk slechte gevolgen voor onszelf en de democratie zal hebben.
- Organizer and author
Pioneering online organizer Eli Pariser is the author of "The Filter Bubble," about how personalized search might be narrowing our worldview. Full bio

Double-click the English transcript below to play the video.

00:15
MarkMark ZuckerbergZuckerberg,
0
0
2000
Mark Zuckerberg,
00:17
a journalistjournalist was askingvragen him a questionvraag about the newsnieuws feedeten geven.
1
2000
3000
een journalist stelde hem een ​​vraag over de nieuwsfeed.
00:20
And the journalistjournalist was askingvragen him,
2
5000
2000
De journalist vroeg hem,
00:22
"Why is this so importantbelangrijk?"
3
7000
2000
"Waarom is dit zo belangrijk?"
00:24
And ZuckerbergZuckerberg said,
4
9000
2000
Zuckerberg zei,
00:26
"A squirreleekhoorn dyingsterven in your frontvoorkant yardwerf
5
11000
2000
"Een stervende eekhoorn in je voortuin
00:28
maymei be more relevantrelevant to your interestsbelangen right now
6
13000
3000
is voor jou op dit moment soms meer relevant
00:31
than people dyingsterven in AfricaAfrika."
7
16000
3000
dan mensen die sterven in Afrika."
00:34
And I want to talk about
8
19000
2000
Ik wil het hebben over hoe een Web
00:36
what a WebWeb basedgebaseerde on that ideaidee of relevancerelevantie mightmacht look like.
9
21000
3000
gebaseerd op dat idee over relevantie eruit zou kunnen zien.
00:40
So when I was growinggroeiend up
10
25000
2000
Toen ik opgroeide
00:42
in a really rurallandelijk areaGebied in MaineMaine,
11
27000
2000
in een zeer landelijk gebied in Maine,
00:44
the InternetInternet meantbedoelde something very differentverschillend to me.
12
29000
3000
betekende het internet iets heel anders voor mij.
00:47
It meantbedoelde a connectionverbinding to the worldwereld-.
13
32000
2000
Het betekende een verbinding met de wereld.
00:49
It meantbedoelde something that would connectaansluiten us all togethersamen.
14
34000
3000
Het betekende iets dat ons allemaal zou verbinden.
00:52
And I was sure that it was going to be great for democracydemocratie
15
37000
3000
Ik was ervan overtuigd dat het geweldig zou zijn voor de democratie
00:55
and for our societymaatschappij.
16
40000
3000
en voor onze samenleving.
00:58
But there's this shiftverschuiving
17
43000
2000
Maar er is een verschuiving
01:00
in how informationinformatie is flowingvloeiende onlineonline,
18
45000
2000
in de manier waarop informatie online stroomt
01:02
and it's invisibleonzichtbaar.
19
47000
3000
en het is onzichtbaar.
01:05
And if we don't paybetalen attentionaandacht to it,
20
50000
2000
En als we niet opletten,
01:07
it could be a realecht problemprobleem.
21
52000
3000
kan het een echt probleem worden.
01:10
So I first noticedmerkte this in a placeplaats I spendbesteden a lot of time --
22
55000
3000
Ik merkte het voor het eerst op in een plaats waar ik veel tijd besteed --
01:13
my FacebookFacebook pagepagina.
23
58000
2000
mijn Facebook-pagina.
01:15
I'm progressiveprogressief, politicallypolitiek -- biggroot surpriseverrassing --
24
60000
3000
Ik ben progressief, politiek - grote verrassing -
01:18
but I've always goneweg out of my way to meetontmoeten conservativesconservatieven.
25
63000
2000
maar ik heb er altijd alles aan gedaan om ook conservatieven te ontmoeten.
01:20
I like hearinggehoor what they're thinkinghet denken about;
26
65000
2000
Ik wil horen waaraan ze denken;
01:22
I like seeingziend what they linklink to;
27
67000
2000
Ik wil zien waarnaar ze verwijzen;
01:24
I like learningaan het leren a thing or two.
28
69000
2000
Ik leer graag een paar dingen bij.
01:26
And so I was surprisedverwonderd when I noticedmerkte one day
29
71000
3000
Dus was ik verrast toen ik op een dag merkte
01:29
that the conservativesconservatieven had disappearedverdwenen from my FacebookFacebook feedeten geven.
30
74000
3000
dat de conservatieven verdwenen waren uit mijn Facebookfeed.
01:33
And what it turnedgedraaid out was going on
31
78000
2000
Wat er aan de hand bleek te zijn
01:35
was that FacebookFacebook was looking at whichwelke linkskoppelingen I clickedgeklikt on,
32
80000
4000
was dat Facebook bijhield op welke links ik klikte,
01:39
and it was noticingin de gaten hebben that, actuallywerkelijk,
33
84000
2000
en het merkte op
01:41
I was clickingklikken more on my liberalliberale friends'vrienden linkskoppelingen
34
86000
2000
dat ik meer op de links van mijn liberale vrienden klikte
01:43
than on my conservativeconservatief friends'vrienden linkskoppelingen.
35
88000
3000
dan op die van mijn conservatieve vrienden.
01:46
And withoutzonder consultingoverleg plegen me about it,
36
91000
2000
En zonder mij te raadplegen
01:48
it had editedbewerkt them out.
37
93000
2000
werden deze links gewist.
01:50
They disappearedverdwenen.
38
95000
3000
Ze verdwenen.
01:54
So FacebookFacebook isn't the only placeplaats
39
99000
2000
Facebook is niet de enige plek
01:56
that's doing this kindsoort of invisibleonzichtbaar, algorithmicalgoritmische
40
101000
2000
die dit soort onzichtbare, algoritmische
01:58
editingediting of the WebWeb.
41
103000
3000
bewerking doet op het Web.
02:01
Google'sGoogles doing it too.
42
106000
2000
Google doet het ook.
02:03
If I searchzoeken for something, and you searchzoeken for something,
43
108000
3000
Als ik naar iets zoek en jij zoekt iets,
02:06
even right now at the very samedezelfde time,
44
111000
2000
zelfs nu, op precies hetzelfde moment,
02:08
we maymei get very differentverschillend searchzoeken resultsuitslagen.
45
113000
3000
krijgen we waarschijnlijk heel andere resultaten.
02:11
Even if you're loggedaangemeld out, one engineeringenieur told me,
46
116000
3000
Zelfs als je uitgelogd bent, vertelde een ingenieur me,
02:14
there are 57 signalssignalen
47
119000
2000
zijn er 57 signalen
02:16
that GoogleGoogle lookslooks at --
48
121000
3000
waar Google naar kijkt -
02:19
everything from what kindsoort of computercomputer you're on
49
124000
3000
alles van wat voor soort computer je op werkt
02:22
to what kindsoort of browserBrowser you're usinggebruik makend van
50
127000
2000
tot welke browser je gebruikt
02:24
to where you're locatedgelegen --
51
129000
2000
tot de plaats waar je je bevindt -
02:26
that it usestoepassingen to personallypersoonlijk tailorop maat your queryquery resultsuitslagen.
52
131000
3000
gebruikt het om persoonlijke zoekresultaten weer te geven.
02:29
Think about it for a secondtweede:
53
134000
2000
Denk er eens een moment over na:
02:31
there is no standardstandaard- GoogleGoogle anymoremeer.
54
136000
4000
er is geen standaard Google meer.
02:35
And you know, the funnygrappig thing about this is that it's hardhard to see.
55
140000
3000
En weet je, het grappige hiervan is dat het moeilijk te zien is.
02:38
You can't see how differentverschillend your searchzoeken resultsuitslagen are
56
143000
2000
Je kunt niet zien hoeveel jouw zoekresultaten verschillen
02:40
from anyoneiedereen else'sanders is.
57
145000
2000
van die van iemand anders.
02:42
But a couplepaar of weeksweken agogeleden,
58
147000
2000
Een paar weken geleden,
02:44
I askedgevraagd a bunchbos of friendsvrienden to GoogleGoogle "EgyptEgypte"
59
149000
3000
vroeg ik een stel vrienden "Egypte" te googelen
02:47
and to sendsturen me screenscherm shotsshots of what they got.
60
152000
3000
en mij screenshots te sturen van wat ze kregen.
02:50
So here'shier is my friendvriend Scott'sScott's screenscherm shotschot.
61
155000
3000
Dus hier is de screenshot van mijn vriend Scott.
02:54
And here'shier is my friendvriend Daniel'sDaniel's screenscherm shotschot.
62
159000
3000
En hier die van mijn vriend Daniel.
02:57
When you put them side-by-sidezij aan zij,
63
162000
2000
Als je ze naast elkaar zet,
02:59
you don't even have to readlezen the linkskoppelingen
64
164000
2000
hoef je niet eens de links te lezen
03:01
to see how differentverschillend these two pagespagina's are.
65
166000
2000
om te zien hoe verschillend deze twee pagina's zijn.
03:03
But when you do readlezen the linkskoppelingen,
66
168000
2000
Maar als je de links leest,
03:05
it's really quiteheel remarkableopmerkelijk.
67
170000
3000
is het echt heel opmerkelijk.
03:09
DanielDaniel didn't get anything about the protestsprotesten in EgyptEgypte at all
68
174000
3000
Daniel kreeg helemaal niets over de protesten in Egypte
03:12
in his first pagepagina of GoogleGoogle resultsuitslagen.
69
177000
2000
in zijn eerste pagina met Google resultaten.
03:14
Scott'sScott's resultsuitslagen were fullvol of them.
70
179000
2000
Scotts resultaten stonden er vol van.
03:16
And this was the biggroot storyverhaal of the day at that time.
71
181000
2000
En dit was het grote nieuws van de dag op dat moment.
03:18
That's how differentverschillend these resultsuitslagen are becomingworden.
72
183000
3000
Dat is hoe verschillend de resultaten kunnen worden.
03:21
So it's not just GoogleGoogle and FacebookFacebook eithereen van beide.
73
186000
3000
Het is niet alleen Google of Facebook.
03:24
This is something that's sweepingvegen the WebWeb.
74
189000
2000
Dit is iets dat rondgaat op het Web.
03:26
There are a wholegeheel hostgastheer of companiesbedrijven that are doing this kindsoort of personalizationpersonalisatie.
75
191000
3000
Er zijn een hele reeks bedrijven die aan dit soort van personalisatie doen.
03:29
YahooYahoo NewsNieuws, the biggestgrootste newsnieuws siteplaats on the InternetInternet,
76
194000
3000
Yahoo News, de grootste nieuwssite op het internet,
03:32
is now personalizedgepersonaliseerde -- differentverschillend people get differentverschillend things.
77
197000
3000
is nu gepersonaliseerd - verschillende mensen krijgen verschillende dingen.
03:36
HuffingtonHuffington PostVerzenden, the WashingtonWashington PostVerzenden, the NewNieuw YorkYork TimesTijden --
78
201000
3000
Huffington Post, de Washington Post, de New York Times -
03:39
all flirtingflirten with personalizationpersonalisatie in variousdivers waysmanieren.
79
204000
3000
allen flirten ze met personalisatie op verschillende manieren.
03:42
And this movesmoves us very quicklysnel
80
207000
3000
En dit brengt ons zeer snel
03:45
towardin de richting van a worldwereld- in whichwelke
81
210000
2000
naar een wereld waarin
03:47
the InternetInternet is showingtonen us what it thinksdenkt we want to see,
82
212000
4000
het internet ons toont wat het denkt dat we willen zien,
03:51
but not necessarilynodig what we need to see.
83
216000
3000
maar niet noodzakelijkerwijs wat we nodig hebben.
03:54
As EricEric SchmidtSchmidt said,
84
219000
3000
Zoals Eric Schmidt zei,
03:57
"It will be very hardhard for people to watch or consumeconsumeren something
85
222000
3000
"Het zal heel moeilijk worden voor mensen om naar iets te kijken
04:00
that has not in some sensezin
86
225000
2000
of te consumeren dat niet op een bepaalde manier
04:02
been tailoredop maat for them."
87
227000
3000
op maat gemaakt is voor hen."
04:05
So I do think this is a problemprobleem.
88
230000
2000
Ik denk dat dit een probleem is.
04:07
And I think, if you take all of these filtersfilters togethersamen,
89
232000
3000
En ik denk dat, als je al deze filters samenvoegt,
04:10
you take all these algorithmsalgoritmen,
90
235000
2000
al deze algoritmen,
04:12
you get what I call a filterfilter bubblebubbel.
91
237000
3000
je iets krijgt wat ik een filterbubble noem.
04:16
And your filterfilter bubblebubbel is your owneigen personalpersoonlijk,
92
241000
3000
En je filterbubble is je eigen persoonlijke
04:19
uniqueuniek universeuniversum of informationinformatie
93
244000
2000
unieke universum aan informatie
04:21
that you liveleven in onlineonline.
94
246000
2000
waarin je online leeft.
04:23
And what's in your filterfilter bubblebubbel
95
248000
3000
En wat er in jouw filterbubble zit
04:26
dependshangt af on who you are, and it dependshangt af on what you do.
96
251000
3000
hangt af van wie je bent en wat je doet.
04:29
But the thing is that you don't decidebesluiten what getskrijgt in.
97
254000
4000
Maar zelf kan je niet bepalen wat er in komt.
04:33
And more importantlybelangrijker,
98
258000
2000
En nog belangrijker,
04:35
you don't actuallywerkelijk see what getskrijgt editedbewerkt out.
99
260000
3000
je ziet niet echt wat er eruit wordt geknipt.
04:38
So one of the problemsproblemen with the filterfilter bubblebubbel
100
263000
2000
Een van de problemen van de filterbubble
04:40
was discoveredontdekt by some researchersonderzoekers at NetflixNetflix.
101
265000
3000
werd ontdekt door enkele onderzoekers bij Netflix.
04:43
And they were looking at the NetflixNetflix queueswachtrijen, and they noticedmerkte something kindsoort of funnygrappig
102
268000
3000
Ze keken naar de Netflix wachtrijen en ze merkten iets grappigs op
04:46
that a lot of us probablywaarschijnlijk have noticedmerkte,
103
271000
2000
dat velen van ons waarschijnlijk al opgemerkt hadden,
04:48
whichwelke is there are some moviesfilms
104
273000
2000
dat er een aantal films zijn
04:50
that just sortsoort of zipritssluiting right up and out to our houseshuizen.
105
275000
3000
die gewoon opduiken en in onze huizen terecht komen.
04:53
They enterinvoeren the queuewachtrij, they just zipritssluiting right out.
106
278000
3000
Ze komen in de wachtrij en ritsen er weer onmiddellijk uit.
04:56
So "IronIjzer Man" zipsritsen right out,
107
281000
2000
"Iron Man" ritst er onmiddellijk uit,
04:58
and "WaitingWachten for SupermanSuperman"
108
283000
2000
en "Waiting for Superman"
05:00
can wait for a really long time.
109
285000
2000
kan een hele lange tijd wachten.
05:02
What they discoveredontdekt
110
287000
2000
Wat ze ontdekten
05:04
was that in our NetflixNetflix queueswachtrijen
111
289000
2000
was dat in onze Netflix wachtrijen
05:06
there's this epicEpic struggleworstelen going on
112
291000
3000
een epische strijd gaande is
05:09
betweentussen our futuretoekomst aspirationalAspirationele selvesselves
113
294000
3000
tussen ons toekomstige te bereiken zelf
05:12
and our more impulsiveimpulsief presentaanwezig selvesselves.
114
297000
3000
en ons meer impulsieve huidige zelf.
05:15
You know we all want to be someoneiemand
115
300000
2000
We willen allemaal iemand zijn
05:17
who has watchedbekeken "RashomonRashomon,"
116
302000
2000
die "Rashomon" gezien heeft
05:19
but right now
117
304000
2000
maar nu
05:21
we want to watch "AceACE VenturaVentura" for the fourthvierde time.
118
306000
3000
willen we voor de vierde keer naar "Ace Ventura" kijken.
05:24
(LaughterGelach)
119
309000
3000
(Gelach)
05:27
So the bestbeste editingediting givesgeeft us a bitbeetje of bothbeide.
120
312000
2000
De beste editing geeft ons een beetje van beide.
05:29
It givesgeeft us a little bitbeetje of JustinJustin BieberBieber
121
314000
2000
Het geeft ons een beetje Justin Bieber
05:31
and a little bitbeetje of AfghanistanAfghanistan.
122
316000
2000
en een beetje Afghanistan.
05:33
It givesgeeft us some informationinformatie vegetablesgroenten;
123
318000
2000
Het geeft ons wat informatie als groenten,
05:35
it givesgeeft us some informationinformatie dessertdessert.
124
320000
3000
het geeft ons wat informatie als dessert.
05:38
And the challengeuitdaging with these kindssoorten of algorithmicalgoritmische filtersfilters,
125
323000
2000
En de uitdaging aan deze vormen van algoritmische filters,
05:40
these personalizedgepersonaliseerde filtersfilters,
126
325000
2000
deze gepersonaliseerde filters,
05:42
is that, because they're mainlyhoofdzakelijk looking
127
327000
2000
omdat ze vooral op zoek zijn
05:44
at what you clickKlik on first,
128
329000
4000
naar waar je het eerst op klikt,
05:48
it can throwGooi off that balancebalans.
129
333000
4000
is dat er geen evenwicht meer is.
05:52
And insteadin plaats daarvan of a balancedevenwichtige informationinformatie dietdieet,
130
337000
3000
In plaats van een evenwichtig informatiedieet,
05:55
you can endeinde up surroundedomgeven
131
340000
2000
eindig je omgeven
05:57
by informationinformatie junkrommel foodeten.
132
342000
2000
door informatie junkfood.
05:59
What this suggestssuggereert
133
344000
2000
Wat dit suggereert
06:01
is actuallywerkelijk that we maymei have the storyverhaal about the InternetInternet wrongfout.
134
346000
3000
is eigenlijk dat we het internetverhaal verkeerd hebben begrepen.
06:04
In a broadcastuitzending societymaatschappij --
135
349000
2000
In een televisie samenleving -
06:06
this is how the foundingoprichten mythologymythologie goesgaat --
136
351000
2000
is dit hoe de oprichters mythologie klinkt -
06:08
in a broadcastuitzending societymaatschappij,
137
353000
2000
In een televisie samenleving -
06:10
there were these gatekeepersportiers, the editorseditors,
138
355000
2000
waren er poortwachters, de redactie,
06:12
and they controlledgecontroleerde the flowsstroomt of informationinformatie.
139
357000
3000
en ze beheersten de stromen van informatie.
06:15
And alonglangs camekwam the InternetInternet and it sweptgeveegd them out of the way,
140
360000
3000
Toen kwam het internet en veegde ze uit de weg,
06:18
and it allowedtoegestaan all of us to connectaansluiten togethersamen,
141
363000
2000
en liet ons toe met elkaar te verbinden,
06:20
and it was awesomegeweldig.
142
365000
2000
en het was geweldig.
06:22
But that's not actuallywerkelijk what's happeninggebeurtenis right now.
143
367000
3000
Maar dat is eigenlijk niet wat er nu gebeurt.
06:26
What we're seeingziend is more of a passingvoorbijgaand of the torchtoorts
144
371000
3000
Wat we zien is meer een doorgeven van de fakkel
06:29
from humanmenselijk gatekeepersportiers
145
374000
2000
van menselijke poortwachters
06:31
to algorithmicalgoritmische onesdegenen.
146
376000
3000
naar algoritmische.
06:34
And the thing is that the algorithmsalgoritmen
147
379000
3000
En deze algoritmes
06:37
don't yetnog have the kindsoort of embeddedingebed ethicsethiek
148
382000
3000
hebben nog niet de geïntegreerde ethiek
06:40
that the editorseditors did.
149
385000
3000
dat de redactie had.
06:43
So if algorithmsalgoritmen are going to curateCurate the worldwereld- for us,
150
388000
3000
Dus als algoritmes de wereld voor ons gaan indelen,
06:46
if they're going to decidebesluiten what we get to see and what we don't get to see,
151
391000
3000
als ze gaan beslissen wat we wel of niet te zien krijgen,
06:49
then we need to make sure
152
394000
2000
dan moeten we ervoor zorgen
06:51
that they're not just keyedingetoetst to relevancerelevantie.
153
396000
3000
dat ze niet alleen ingesteld zijn op relevantie.
06:54
We need to make sure that they alsoook showtonen us things
154
399000
2000
We moeten ervoor zorgen dat zij ons ook dingen laten zien
06:56
that are uncomfortableongemakkelijk or challenginguitdagend or importantbelangrijk --
155
401000
3000
die ongemakkelijk of uitdagend of belangrijk zijn -
06:59
this is what TEDTED does --
156
404000
2000
dit is wat TED doet -
07:01
other pointspoints of viewuitzicht.
157
406000
2000
andere standpunten.
07:03
And the thing is, we'vewij hebben actuallywerkelijk been here before
158
408000
2000
We waren hier al eerder
07:05
as a societymaatschappij.
159
410000
2000
als samenleving.
07:08
In 1915, it's not like newspaperskranten were sweatingzweten a lot
160
413000
3000
In 1915, het is niet alsof kranten veel zweet lieten
07:11
about theirhun civicburgerlijk responsibilitiesverantwoordelijkheden.
161
416000
3000
over hun maatschappelijke verantwoordelijkheden.
07:14
Then people noticedmerkte
162
419000
2000
Dan viel het mensen op
07:16
that they were doing something really importantbelangrijk.
163
421000
3000
dat ze iets echt belangrijks deden.
07:19
That, in factfeit, you couldn'tkon het niet have
164
424000
2000
Dat je in feite geen
07:21
a functioningfunctionerende democracydemocratie
165
426000
2000
functionerende democratie kon hebben
07:23
if citizensburgers didn't get a good flowstroom of informationinformatie,
166
428000
4000
als burgers geen goede doorstroming van informatie krijgen.
07:28
that the newspaperskranten were criticalkritisch because they were actingacteren as the filterfilter,
167
433000
3000
Dat de kranten kritisch waren omdat zij functioneerden als filter,
07:31
and then journalisticjournalistieke ethicsethiek developedontwikkelde.
168
436000
2000
en dan ontwikkelde de journalistieke ethiek zich.
07:33
It wasn'twas niet perfectperfect,
169
438000
2000
Het was niet perfect,
07:35
but it got us throughdoor the last centuryeeuw.
170
440000
3000
maar we kwamen er de vorige eeuw mee door.
07:38
And so now,
171
443000
2000
En dus nu,
07:40
we're kindsoort of back in 1915 on the WebWeb.
172
445000
3000
zijn we terug in 1915 op het web.
07:44
And we need the newnieuwe gatekeepersportiers
173
449000
3000
De nieuwe poortwachters moeten
07:47
to encodecoderen that kindsoort of responsibilityverantwoordelijkheid
174
452000
2000
dat soort van verantwoordelijkheid coderen
07:49
into the codecode that they're writingschrift.
175
454000
2000
in de code die ze schrijven.
07:51
I know that there are a lot of people here from FacebookFacebook and from GoogleGoogle --
176
456000
3000
Ik weet dat er hier een heleboel mensen zijn van Facebook en van Google -
07:54
LarryLarry and SergeySergej --
177
459000
2000
Larry en Sergey --
07:56
people who have helpedgeholpen buildbouwen the WebWeb as it is,
178
461000
2000
mensen die hebben geholpen het Web op te bouwen zoals het is,
07:58
and I'm gratefuldankbaar for that.
179
463000
2000
en ik ben er dankbaar voor.
08:00
But we really need you to make sure
180
465000
3000
Maar het is nodig dat jullie ervoor zorgen
08:03
that these algorithmsalgoritmen have encodedgecodeerd in them
181
468000
3000
dat in deze algoritmen een gevoel voor het openbare leven
08:06
a sensezin of the publicopenbaar life, a sensezin of civicburgerlijk responsibilityverantwoordelijkheid.
182
471000
3000
en maatschappelijke verantwoordelijkheid wordt gecodeerd.
08:09
We need you to make sure that they're transparenttransparant enoughgenoeg
183
474000
3000
We hebben het nodig dat jullie ervoor zorgen dat ze transparant genoeg zijn
08:12
that we can see what the rulesreglement are
184
477000
2000
dat we kunnen zien wat de regels zijn
08:14
that determinebepalen what getskrijgt throughdoor our filtersfilters.
185
479000
3000
die bepalen wat er door onze filters komt.
08:17
And we need you to give us some controlcontrole
186
482000
2000
We hebben het nodig dat jullie ons enige controle geven,
08:19
so that we can decidebesluiten
187
484000
2000
zodat we kunnen beslissen
08:21
what getskrijgt throughdoor and what doesn't.
188
486000
3000
wat erdoor komt en wat niet.
08:24
Because I think
189
489000
2000
Omdat ik denk dat
08:26
we really need the InternetInternet to be that thing
190
491000
2000
we het nodig hebben dat het internet dat wordt
08:28
that we all dreamedgedroomd of it beingwezen.
191
493000
2000
waar we allemaal van gedroomd hebben.
08:30
We need it to connectaansluiten us all togethersamen.
192
495000
3000
We hebben het nodig om ons allemaal te verbinden.
08:33
We need it to introducevoorstellen us to newnieuwe ideasideeën
193
498000
3000
We hebben het nodig om ons nieuwe ideeën te introduceren
08:36
and newnieuwe people and differentverschillend perspectivesvooruitzichten.
194
501000
3000
en nieuwe mensen en verschillende perspectieven.
08:40
And it's not going to do that
195
505000
2000
Dat zal niet gebeuren als
08:42
if it leavesbladeren us all isolatedgeïsoleerd in a WebWeb of one.
196
507000
3000
het ons isoleert in een Web van één.
08:45
Thank you.
197
510000
2000
Dank je wel
08:47
(ApplauseApplaus)
198
512000
11000
(Applaus)
Translated by Christel Foncke
Reviewed by Erik Renes

▲Back to top

ABOUT THE SPEAKER
Eli Pariser - Organizer and author
Pioneering online organizer Eli Pariser is the author of "The Filter Bubble," about how personalized search might be narrowing our worldview.

Why you should listen

Shortly after the September 11, 2001, attacks, Eli Pariser created a website calling for a multilateral approach to fighting terrorism. In the following weeks, over half a million people from 192 countries signed on, and Pariser rather unexpectedly became an online organizer. The website merged with MoveOn.org in November 2001, and Pariser -- then 20 years old -- joined the group to direct its foreign policy campaigns. He led what the New York Times Magazine called the "mainstream arm of the peace movement" -- tripling MoveOn's member base and demonstrating how large numbers of small donations could be mobilized through online engagement.

In 2004, Pariser became executive director of MoveOn. Under his leadership, MoveOn.org Political Action has grown to 5 million members and raised over $120 million from millions of small donors to support advocacy campaigns and political candidates. Pariser focused MoveOn on online-to-offline organizing, developing phone-banking tools and precinct programs in 2004 and 2006 that laid the groundwork for Barack Obama's extraordinary web-powered campaign. In 2008, Pariser transitioned the Executive Director role at MoveOn to Justin Ruben and became President of MoveOn’s board; he's now a senior fellow at the Roosevelt Institute.

His book The Filter Bubble is set for release May 12, 2011. In it, he asks how modern search tools -- the filter by which many of see the wider world -- are getting better and better and screening the wider world from us, by returning only the search results it "thinks" we want to see.

More profile about the speaker
Eli Pariser | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee