ABOUT THE SPEAKER
Eli Pariser - Organizer and author
Pioneering online organizer Eli Pariser is the author of "The Filter Bubble," about how personalized search might be narrowing our worldview.

Why you should listen

Shortly after the September 11, 2001, attacks, Eli Pariser created a website calling for a multilateral approach to fighting terrorism. In the following weeks, over half a million people from 192 countries signed on, and Pariser rather unexpectedly became an online organizer. The website merged with MoveOn.org in November 2001, and Pariser -- then 20 years old -- joined the group to direct its foreign policy campaigns. He led what the New York Times Magazine called the "mainstream arm of the peace movement" -- tripling MoveOn's member base and demonstrating how large numbers of small donations could be mobilized through online engagement.

In 2004, Pariser became executive director of MoveOn. Under his leadership, MoveOn.org Political Action has grown to 5 million members and raised over $120 million from millions of small donors to support advocacy campaigns and political candidates. Pariser focused MoveOn on online-to-offline organizing, developing phone-banking tools and precinct programs in 2004 and 2006 that laid the groundwork for Barack Obama's extraordinary web-powered campaign. In 2008, Pariser transitioned the Executive Director role at MoveOn to Justin Ruben and became President of MoveOn’s board; he's now a senior fellow at the Roosevelt Institute.

His book The Filter Bubble is set for release May 12, 2011. In it, he asks how modern search tools -- the filter by which many of see the wider world -- are getting better and better and screening the wider world from us, by returning only the search results it "thinks" we want to see.

More profile about the speaker
Eli Pariser | Speaker | TED.com
TED2011

Eli Pariser: Beware online "filter bubbles"

Eli Pariser: Var medvetna om "filterbubblorna" på nätet.

Filmed:
5,309,238 views

När webbföretagen strävar att skräddarsy innehållet för din personliga smak (såsom nyheter och sökresultat) uppstår en farlig oförutsägbar konsekvens: Vi fångas i en "filterbubbla" och vi förstår inte ens att vi inte exponeras för information som kan breddad vår världsbild. Eli Pariser diskutera kraftfullt att detta kommer visa sig vara dåligt för oss och för vår demokrati.
- Organizer and author
Pioneering online organizer Eli Pariser is the author of "The Filter Bubble," about how personalized search might be narrowing our worldview. Full bio

Double-click the English transcript below to play the video.

00:15
MarkMark ZuckerbergZuckerberg,
0
0
2000
Mark Zuckerberg,
00:17
a journalistjournalist was askingbe him a questionfråga about the newsNyheter feedutfodra.
1
2000
3000
utfrågades av en journalist om nyhetsströmmen (feeden).
00:20
And the journalistjournalist was askingbe him,
2
5000
2000
Och journalisten frågade honom,
00:22
"Why is this so importantViktig?"
3
7000
2000
"Varför är denna så viktig?"
00:24
And ZuckerbergZuckerberg said,
4
9000
2000
Och Zuckerberg svarade,
00:26
"A squirrelekorre dyingdöende in your frontfrämre yardgård
5
11000
2000
"En ekorre som dör framför din trappa
00:28
mayMaj be more relevantrelevant to your interestsintressen right now
6
13000
3000
kan vara mer relevant för vad du föredrar just nu
00:31
than people dyingdöende in AfricaAfrika."
7
16000
3000
än människor som dör i Afrika."
00:34
And I want to talk about
8
19000
2000
Och vad jag vill prata om är
00:36
what a WebWebben basedbaserad on that ideaaning of relevancerelevans mightmakt look like.
9
21000
3000
hur en webbaserad idé för relevans kan se ut.
00:40
So when I was growingväxande up
10
25000
2000
Så när jag växte upp
00:42
in a really rurallantlig areaområde in MaineMaine,
11
27000
2000
i ett verkligen lantligt område i Maine,
00:44
the InternetInternet meantbetydde something very differentannorlunda to me.
12
29000
3000
så betydde verkligen Internet något väldigt speciellt för mig.
00:47
It meantbetydde a connectionförbindelse to the worldvärld.
13
32000
2000
Det innebar en anslutning ut i världen.
00:49
It meantbetydde something that would connectansluta us all togethertillsammans.
14
34000
3000
Det betydde någonting som skulle sammanbinda oss alla.
00:52
And I was sure that it was going to be great for democracydemokrati
15
37000
3000
Och jag var säker att det skulle vara positivt för demokratin
00:55
and for our societysamhälle.
16
40000
3000
och för vårt samhälle.
00:58
But there's this shiftflytta
17
43000
2000
Men det håller på skifta,
01:00
in how informationinformation is flowingströmmande onlineuppkopplad,
18
45000
2000
på vilket sätt information flödar på nätet,
01:02
and it's invisibleosynlig.
19
47000
3000
och det sker utan att vi ser det.
01:05
And if we don't paybetala attentionuppmärksamhet to it,
20
50000
2000
Och om vi inte lägger till märke till detta,
01:07
it could be a realverklig problemproblem.
21
52000
3000
så skulle detta kunna bli ett verkligt problem.
01:10
So I first noticedlade märke till this in a placeplats I spendspendera a lot of time --
22
55000
3000
Jag märkte detta första gången på en plats jag spendera mycket tid på
01:13
my FacebookFacebook pagesida.
23
58000
2000
-- på min Facebooksida.
01:15
I'm progressiveprogressiv, politicallypolitiskt -- bigstor surpriseöverraskning --
24
60000
3000
Jag är progressiv, politisk, -- stor överraskning --
01:18
but I've always goneborta out of my way to meetträffa conservativeskonservativa.
25
63000
2000
men jag alltid försökt på mitt sätt att möta konservativa
01:20
I like hearinghörsel what they're thinkingtänkande about;
26
65000
2000
Jag tycker om att höra vad de funderar kring;
01:22
I like seeingseende what they linklänk to;
27
67000
2000
Jag vill se vad de länkar till;
01:24
I like learninginlärning a thing or two.
28
69000
2000
Jag gillar att lära mig saker.
01:26
And so I was surprisedöverraskad when I noticedlade märke till one day
29
71000
3000
Så jag vart väldigt förvånad när jag en dag förstod
01:29
that the conservativeskonservativa had disappearedförsvunnit from my FacebookFacebook feedutfodra.
30
74000
3000
att de konservativa hade försvunnit från min Facebook-nyhetsström (feed).
01:33
And what it turnedvände out was going on
31
78000
2000
Och visade sig
01:35
was that FacebookFacebook was looking at whichsom linkslänkar I clickedklickade på on,
32
80000
4000
att Facebook tittade på vilka länkar jag klickade på
01:39
and it was noticingmärker that, actuallyfaktiskt,
33
84000
2000
och siten noterade i själva verket,
01:41
I was clickingklick more on my liberalliberala friends'vänners linkslänkar
34
86000
2000
att jag klickade mer på min liberala vänners länkar
01:43
than on my conservativekonservativ friends'vänners linkslänkar.
35
88000
3000
än på mina konservativa vänners länkar.
01:46
And withoututan consultingkonsult me about it,
36
91000
2000
Och utan att tillfråga mig,
01:48
it had editedredigerade them out.
37
93000
2000
hade siten tagit bort dem.
01:50
They disappearedförsvunnit.
38
95000
3000
De hade försvunnit.
01:54
So FacebookFacebook isn't the only placeplats
39
99000
2000
Och Facebook är inte ensam om
01:56
that's doing this kindsnäll of invisibleosynlig, algorithmicalgoritmisk
40
101000
2000
att göra detta osynligt med algoritmer,
01:58
editingredigering of the WebWebben.
41
103000
3000
att redigera webben.
02:01
Google'sGoogles doing it too.
42
106000
2000
Även Google gör det.
02:03
If I searchSök for something, and you searchSök for something,
43
108000
3000
Om jag söker något och du söker desamma,
02:06
even right now at the very samesamma time,
44
111000
2000
samtidigt i denna stund,
02:08
we mayMaj get very differentannorlunda searchSök resultsresultat.
45
113000
3000
så kan vi få väldigt olika sökresultat.
02:11
Even if you're loggedinloggad out, one engineeringenjör told me,
46
116000
3000
Detta även om du är utloggad, en ingenjör berättade för mig
02:14
there are 57 signalssignaler
47
119000
2000
att det finns 57 signaler
02:16
that GoogleGoogle looksutseende at --
48
121000
3000
som Google tittar på --
02:19
everything from what kindsnäll of computerdator you're on
49
124000
3000
allt i från vilken typ av dator du använder
02:22
to what kindsnäll of browserwebbläsare you're usinganvänder sig av
50
127000
2000
till vilken webbläsare du använder
02:24
to where you're locatedbelägen --
51
129000
2000
till vart du är lokaliserad --
02:26
that it usesanvändningar to personallypersonligen tailorskräddare your queryfråga resultsresultat.
52
131000
3000
detta används för att skräddarsy just dina sökresultat.
02:29
Think about it for a secondandra:
53
134000
2000
Betänk detta för en sekund:
02:31
there is no standardstandard- GoogleGoogle anymorelängre.
54
136000
4000
det finns inget standard-Google längre.
02:35
And you know, the funnyrolig thing about this is that it's hardhård to see.
55
140000
3000
Och vet du, det lustiga är att det är svårt att se det.
02:38
You can't see how differentannorlunda your searchSök resultsresultat are
56
143000
2000
Du kan inte se hur olika dina sökresultat är
02:40
from anyonenågon else'sannans.
57
145000
2000
jämfört med någon annans.
02:42
But a couplepar of weeksveckor agosedan,
58
147000
2000
Men för ett par veckor sedan,
02:44
I askedfrågade a bunchknippa of friendsvänner to GoogleGoogle "EgyptEgypten"
59
149000
3000
så bad jag några vänner att Googla "Egypt"
02:47
and to sendskicka me screenskärm shotsskott of what they got.
60
152000
3000
och skicka mig några skärmdumpar på vad de fick.
02:50
So here'shär är my friendvän Scott'sScotts screenskärm shotskott.
61
155000
3000
Här är min vän Scotts skärmdump-
02:54
And here'shär är my friendvän Daniel'sDaniels screenskärm shotskott.
62
159000
3000
Och här är min vän Daniels skärmdump.
02:57
When you put them side-by-sidesida vid sida,
63
162000
2000
När man lägger dem sida vid sida,
02:59
you don't even have to readläsa the linkslänkar
64
164000
2000
så behöver du inte ens läsa länkarna
03:01
to see how differentannorlunda these two pagessidor are.
65
166000
2000
för se hur olika dessa två sidor är.
03:03
But when you do readläsa the linkslänkar,
66
168000
2000
Men när du läser länkarna,
03:05
it's really quiteganska remarkableanmärkningsvärd.
67
170000
3000
är det verkligen anmärkningsvärt.
03:09
DanielDaniel didn't get anything about the protestsprotester in EgyptEgypten at all
68
174000
3000
Daniel fick ingenting om protesterna i Egypten överhuvudtaget
03:12
in his first pagesida of GoogleGoogle resultsresultat.
69
177000
2000
på sin första sida med Google-resultat.
03:14
Scott'sScotts resultsresultat were fullfull of them.
70
179000
2000
Scotts resultat var full av dem.
03:16
And this was the bigstor storyberättelse of the day at that time.
71
181000
2000
Och detta var den stora nyheten den dagen vid den tiden på dagen.
03:18
That's how differentannorlunda these resultsresultat are becomingpassande.
72
183000
3000
Sökresultaten håller på att bli så olika.
03:21
So it's not just GoogleGoogle and FacebookFacebook eitherantingen.
73
186000
3000
Och det är inte bara Google och Facebook heller.
03:24
This is something that's sweepingsotning the WebWebben.
74
189000
2000
Det är något som sprider sig över hela webben.
03:26
There are a wholehela hostvärd of companiesföretag that are doing this kindsnäll of personalizationpersonalisering.
75
191000
3000
Det är en mängd företag som håller på med den typ av personalisering.
03:29
YahooYahoo NewsNyheter, the biggeststörsta newsNyheter sitewebbplats on the InternetInternet,
76
194000
3000
Yahoo News, den största nyhetssiten på Internet,
03:32
is now personalizedpersonlig -- differentannorlunda people get differentannorlunda things.
77
197000
3000
är nu personaliserad -- olika människor får olika saker.
03:36
HuffingtonHuffington PostInlägg, the WashingtonWashington PostInlägg, the NewNya YorkYork TimesGånger --
78
201000
3000
Huffington Post, the Washington Post, the New York Times --
03:39
all flirtingflirta with personalizationpersonalisering in variousolika wayssätt.
79
204000
3000
lockar med personalisering på flera olika sätt.
03:42
And this movesrör sig us very quicklysnabbt
80
207000
3000
Och leder oss mycket snabbt
03:45
towardmot a worldvärld in whichsom
81
210000
2000
mot en värld där
03:47
the InternetInternet is showingsom visar us what it thinkstänker we want to see,
82
212000
4000
Internet visar oss vad det tror vi vill se,
03:51
but not necessarilynödvändigtvis what we need to see.
83
216000
3000
men inte nödvändigtvis vad vi behöver se.
03:54
As EricEric SchmidtSchmidt said,
84
219000
3000
Som Eric Schmidt sa,
03:57
"It will be very hardhård for people to watch or consumekonsumera something
85
222000
3000
"Det kommer bli väldigt svårt att få se något eller konsumera något
04:00
that has not in some sensekänsla
86
225000
2000
som inte i någon mening
04:02
been tailoredskräddarsydda for them."
87
227000
3000
skräddarsytts"
04:05
So I do think this is a problemproblem.
88
230000
2000
Så jag anser detta är ett problem.
04:07
And I think, if you take all of these filtersfilter togethertillsammans,
89
232000
3000
Och jag anser, om du lägger samman alla dessa filter,
04:10
you take all these algorithmsalgoritmer,
90
235000
2000
och du tar alla dessa algoritmer,
04:12
you get what I call a filterfiltrera bubblebubbla.
91
237000
3000
får du vad jag kallar en "filterbubbla".
04:16
And your filterfiltrera bubblebubbla is your ownegen personalpersonlig,
92
241000
3000
Och din egen "filterbubbla" är ditt egna
04:19
uniqueunik universeuniversum of informationinformation
93
244000
2000
unika universum av information
04:21
that you liveleva in onlineuppkopplad.
94
246000
2000
som du lever i på nätet.
04:23
And what's in your filterfiltrera bubblebubbla
95
248000
3000
Och vad som är i din Filterbubbla
04:26
dependsberor on who you are, and it dependsberor on what you do.
96
251000
3000
beror på vem du är och den beror vad du gör.
04:29
But the thing is that you don't decidebesluta what getsblir in.
97
254000
4000
Men grejen är det är inte du som bestämmer vad som kommer in.
04:33
And more importantlyviktigt,
98
258000
2000
Än viktigare,
04:35
you don't actuallyfaktiskt see what getsblir editedredigerade out.
99
260000
3000
är att du verkligen inte ser vad som klipps bort.
04:38
So one of the problemsproblem with the filterfiltrera bubblebubbla
100
263000
2000
Så ett av problemen med "Filterbubblor"
04:40
was discoveredupptäckt by some researchersforskare at NetflixNetflix.
101
265000
3000
vilket upptäcktes av några forskare på Netflix.
04:43
And they were looking at the NetflixNetflix queuesköer, and they noticedlade märke till something kindsnäll of funnyrolig
102
268000
3000
Och de tittade på Netflix-köerna och de märkte något väldigt märkligt
04:46
that a lot of us probablyförmodligen have noticedlade märke till,
103
271000
2000
något som en hel del av oss märkt,
04:48
whichsom is there are some moviesbio
104
273000
2000
vilket är att det är några filmer
04:50
that just sortsortera of zipblixtlås right up and out to our houseshus.
105
275000
3000
som far direkt upp och ut till hushållen.
04:53
They enterstiga på the queue, they just zipblixtlås right out.
106
278000
3000
De går in i kön, och viner direkt ut.
04:56
So "IronJärn Man" zipsblixtlås right out,
107
281000
2000
Så "Iron Man" viner rätt ut,
04:58
and "WaitingVäntar på for SupermanSuperman"
108
283000
2000
och "Waiting for Superman"
05:00
can wait for a really long time.
109
285000
2000
kan få vänta ganska lång tid.
05:02
What they discoveredupptäckt
110
287000
2000
Vad de upptäckte
05:04
was that in our NetflixNetflix queuesköer
111
289000
2000
var att i våra Netflix-köer
05:06
there's this epicEpic strugglekamp going on
112
291000
3000
pågår en episk kamp
05:09
betweenmellan our futureframtida aspirationalmålsättning selvessjälva
113
294000
3000
mellan vårt framtida strävande jag
05:12
and our more impulsiveimpulsiv presentnärvarande selvessjälva.
114
297000
3000
och vår mer impulsiva jag i nuet.
05:15
You know we all want to be someonenågon
115
300000
2000
Du vet att vi alla vill vara någon
05:17
who has watchedbetraktade "RashomonDemonernas port,"
116
302000
2000
som tittat på "Rashomon"
05:19
but right now
117
304000
2000
men just nu
05:21
we want to watch "AceACE VenturaVentura" for the fourthfjärde time.
118
306000
3000
vill vi bara se "Ace Ventura" för fjärde gången.
05:24
(LaughterSkratt)
119
309000
3000
(Skratt)
05:27
So the bestbäst editingredigering givesger us a bitbit of bothbåde.
120
312000
2000
Så det bästa urvalet ger oss lite av varje.
05:29
It givesger us a little bitbit of JustinJustin BieberBieber
121
314000
2000
Det ger oss en lite del av Justin Bieber
05:31
and a little bitbit of AfghanistanAfghanistan.
122
316000
2000
och en liten del av Afghanistan.
05:33
It givesger us some informationinformation vegetablesgrönsaker;
123
318000
2000
Och det ger oss lite "informationsgrönsaker"
05:35
it givesger us some informationinformation dessertefterrätt.
124
320000
3000
och det ger oss lite "informationsefterrätter".
05:38
And the challengeutmaning with these kindsslag of algorithmicalgoritmisk filtersfilter,
125
323000
2000
Och utmaningarna med dessa typer av algoritmiska filter,
05:40
these personalizedpersonlig filtersfilter,
126
325000
2000
dessa personaliserade filter,
05:42
is that, because they're mainlyhuvudsakligen looking
127
327000
2000
är att de på grund av att de tittar mest på
05:44
at what you clickklick on first,
128
329000
4000
vad du klickat först på,
05:48
it can throwkasta off that balancebalans.
129
333000
4000
kan dessa komma ur balans.
05:52
And insteadistället of a balancedbalanserad informationinformation dietdiet,
130
337000
3000
Och istället för en balanserad informationsdiet,
05:55
you can endslutet up surroundedomgiven
131
340000
2000
kan du tillslut vara omgiven
05:57
by informationinformation junkskräp foodmat.
132
342000
2000
med informationsskräpmat.
05:59
What this suggestsföreslår
133
344000
2000
Vad detta pekar på
06:01
is actuallyfaktiskt that we mayMaj have the storyberättelse about the InternetInternet wrongfel.
134
346000
3000
är att vi helt enkelt skrivit sagan om Internet felaktigt.
06:04
In a broadcastsändning societysamhälle --
135
349000
2000
I ett etermediasamhället --
06:06
this is how the foundinggrundande mythologymytologi goesgår --
136
351000
2000
låter den grundande mytologin på detta sätt --
06:08
in a broadcastsändning societysamhälle,
137
353000
2000
i ett etermediasamhälle
06:10
there were these gatekeepersGatekeepers, the editorsredaktörer,
138
355000
2000
fanns dessa grindvakter, dessa redaktörer,
06:12
and they controlledkontrollerade the flowsströmmar of informationinformation.
139
357000
3000
och de kontrollerade informationsflödet.
06:15
And alonglängs camekom the InternetInternet and it sweptsopas them out of the way,
140
360000
3000
Och så kom Internet och sköljde bort dem,
06:18
and it allowedtillåten all of us to connectansluta togethertillsammans,
141
363000
2000
och tillät oss att kommunicera tillsammans,
06:20
and it was awesomegrymt bra.
142
365000
2000
och det var underbart.
06:22
But that's not actuallyfaktiskt what's happeninghappening right now.
143
367000
3000
Men det är sannerligen inte vad som händer just nu.
06:26
What we're seeingseende is more of a passinggodkänd of the torchfackla
144
371000
3000
Vad vi ser är att facklan skickas vidare
06:29
from humanmänsklig gatekeepersGatekeepers
145
374000
2000
från mänskliga grindvakter
06:31
to algorithmicalgoritmisk onesettor.
146
376000
3000
till algoritmiska vakter.
06:34
And the thing is that the algorithmsalgoritmer
147
379000
3000
Och saken med algoritmerna är att
06:37
don't yetän have the kindsnäll of embeddedinbäddad ethicsetik
148
382000
3000
de har inte än har någon typ av inbyggd etik
06:40
that the editorsredaktörer did.
149
385000
3000
som redaktörerna hade.
06:43
So if algorithmsalgoritmer are going to curatekomminister the worldvärld for us,
150
388000
3000
Så om algoritmerna ska kunna skapa en värld för oss,
06:46
if they're going to decidebesluta what we get to see and what we don't get to see,
151
391000
3000
om de ska kunna bestämma vad vi ska få se och vi inte ska få se,
06:49
then we need to make sure
152
394000
2000
då bör vi säkerställa
06:51
that they're not just keyedknappat to relevancerelevans.
153
396000
3000
att de inte bara har relevans som enda måttet.
06:54
We need to make sure that they alsoockså showshow us things
154
399000
2000
Vi behöver säkerställa att de visar oss saker
06:56
that are uncomfortableobekväm or challengingutmanande or importantViktig --
155
401000
3000
som är obehagliga eller utmanande eller viktiga --
06:59
this is what TEDTED does --
156
404000
2000
det är vad TED gör --
07:01
other pointspoäng of viewse.
157
406000
2000
en annan synvinkel.
07:03
And the thing is, we'vevi har actuallyfaktiskt been here before
158
408000
2000
Och saken är den att vi varit där förut
07:05
as a societysamhälle.
159
410000
2000
som samhället.
07:08
In 1915, it's not like newspaperstidningar were sweatingsvettning a lot
160
413000
3000
Det är inte som 1915 när tidningarna hade det tufft
07:11
about theirderas civicmedborgerlig responsibilitiesansvarsområden.
161
416000
3000
kring sitt samhällsansvar.
07:14
Then people noticedlade märke till
162
419000
2000
Då märkte folk
07:16
that they were doing something really importantViktig.
163
421000
3000
att de gjorde något verkligt viktigt.
07:19
That, in factfaktum, you couldn'tkunde inte have
164
424000
2000
Faktum är de kunde inte blivit
07:21
a functioningfunktion democracydemokrati
165
426000
2000
en fungerande demokrati
07:23
if citizensmedborgare didn't get a good flowflöde of informationinformation,
166
428000
4000
om inte medborgarna hade fått ett bra informationsflöde.
07:28
that the newspaperstidningar were criticalkritisk because they were actingverkande as the filterfiltrera,
167
433000
3000
Att tidningarna var kritiska för att de agerade som filtret,
07:31
and then journalisticjournalistiska ethicsetik developedtagit fram.
168
436000
2000
och att den journalistiska etiken utvecklades.
07:33
It wasn'tvar inte perfectperfekt,
169
438000
2000
Den var inte perfekt.
07:35
but it got us throughgenom the last centuryårhundrade.
170
440000
3000
men den tog oss genom förra seklet.
07:38
And so now,
171
443000
2000
Och nu är,
07:40
we're kindsnäll of back in 1915 on the WebWebben.
172
445000
3000
vi typ tillbaka på 1915-års nivån på webben.
07:44
And we need the newny gatekeepersGatekeepers
173
449000
3000
Och vi behöver de nya grindvakterna
07:47
to encodekoda that kindsnäll of responsibilityansvar
174
452000
2000
för att koda den typen av ansvar
07:49
into the codekoda that they're writingskrift.
175
454000
2000
in i programkoden de skriver.
07:51
I know that there are a lot of people here from FacebookFacebook and from GoogleGoogle --
176
456000
3000
Jag vet det är en hel del människor från Facebook och från Google här --
07:54
LarryLarry and SergeySergey --
177
459000
2000
Larry och Sergey --
07:56
people who have helpedhjälpte buildbygga the WebWebben as it is,
178
461000
2000
människor som hjälpt till att bygga upp webben som den är,
07:58
and I'm gratefultacksam for that.
179
463000
2000
och jag är tacksam för detta.
08:00
But we really need you to make sure
180
465000
3000
Men vad vi verkligen måste försäkra oss om
08:03
that these algorithmsalgoritmer have encodedkodade in them
181
468000
3000
är att dessa algoritmer har inbyggt
08:06
a sensekänsla of the publicoffentlig life, a sensekänsla of civicmedborgerlig responsibilityansvar.
182
471000
3000
en känsla för det offentliga livet, en känsla av medborgerligt ansvar.
08:09
We need you to make sure that they're transparenttransparent enoughtillräckligt
183
474000
3000
Vi måste se till att de är tillräckligt transparenta
08:12
that we can see what the rulesregler are
184
477000
2000
så vi kan se vilka reglerna är
08:14
that determinebestämma what getsblir throughgenom our filtersfilter.
185
479000
3000
som bestämmer vad som passerar vårt filter.
08:17
And we need you to give us some controlkontrollera
186
482000
2000
Och vi att ni ger oss lite kontroll över dessa,
08:19
so that we can decidebesluta
187
484000
2000
så att vi kan bestämma
08:21
what getsblir throughgenom and what doesn't.
188
486000
3000
vad som går igenom och vad som inte går igenom.
08:24
Because I think
189
489000
2000
För att jag anser
08:26
we really need the InternetInternet to be that thing
190
491000
2000
det är viktigt för oss att Internet blir det
08:28
that we all dreameddrömde of it beingvarelse.
191
493000
2000
som det vi alla drömde om att det skulle vara.
08:30
We need it to connectansluta us all togethertillsammans.
192
495000
3000
Vi behöver detta för att binda oss samman.
08:33
We need it to introduceinföra us to newny ideasidéer
193
498000
3000
Vi behöver det för att introducerar oss till nya idéer
08:36
and newny people and differentannorlunda perspectivesperspektiv.
194
501000
3000
och nya människor och olika perspektiv.
08:40
And it's not going to do that
195
505000
2000
Och det kommer inte att göra detta
08:42
if it leaveslöv us all isolatedisolerat in a WebWebben of one.
196
507000
3000
om det lämnar oss alla i en isolerad personspecifik webb.
08:45
Thank you.
197
510000
2000
Tack så mycket.
08:47
(ApplauseApplåder)
198
512000
11000
(Applåder)
Translated by Anders Björk
Reviewed by Daniel Lundberg

▲Back to top

ABOUT THE SPEAKER
Eli Pariser - Organizer and author
Pioneering online organizer Eli Pariser is the author of "The Filter Bubble," about how personalized search might be narrowing our worldview.

Why you should listen

Shortly after the September 11, 2001, attacks, Eli Pariser created a website calling for a multilateral approach to fighting terrorism. In the following weeks, over half a million people from 192 countries signed on, and Pariser rather unexpectedly became an online organizer. The website merged with MoveOn.org in November 2001, and Pariser -- then 20 years old -- joined the group to direct its foreign policy campaigns. He led what the New York Times Magazine called the "mainstream arm of the peace movement" -- tripling MoveOn's member base and demonstrating how large numbers of small donations could be mobilized through online engagement.

In 2004, Pariser became executive director of MoveOn. Under his leadership, MoveOn.org Political Action has grown to 5 million members and raised over $120 million from millions of small donors to support advocacy campaigns and political candidates. Pariser focused MoveOn on online-to-offline organizing, developing phone-banking tools and precinct programs in 2004 and 2006 that laid the groundwork for Barack Obama's extraordinary web-powered campaign. In 2008, Pariser transitioned the Executive Director role at MoveOn to Justin Ruben and became President of MoveOn’s board; he's now a senior fellow at the Roosevelt Institute.

His book The Filter Bubble is set for release May 12, 2011. In it, he asks how modern search tools -- the filter by which many of see the wider world -- are getting better and better and screening the wider world from us, by returning only the search results it "thinks" we want to see.

More profile about the speaker
Eli Pariser | Speaker | TED.com