ABOUT THE SPEAKER
Eli Pariser - Organizer and author
Pioneering online organizer Eli Pariser is the author of "The Filter Bubble," about how personalized search might be narrowing our worldview.

Why you should listen

Shortly after the September 11, 2001, attacks, Eli Pariser created a website calling for a multilateral approach to fighting terrorism. In the following weeks, over half a million people from 192 countries signed on, and Pariser rather unexpectedly became an online organizer. The website merged with MoveOn.org in November 2001, and Pariser -- then 20 years old -- joined the group to direct its foreign policy campaigns. He led what the New York Times Magazine called the "mainstream arm of the peace movement" -- tripling MoveOn's member base and demonstrating how large numbers of small donations could be mobilized through online engagement.

In 2004, Pariser became executive director of MoveOn. Under his leadership, MoveOn.org Political Action has grown to 5 million members and raised over $120 million from millions of small donors to support advocacy campaigns and political candidates. Pariser focused MoveOn on online-to-offline organizing, developing phone-banking tools and precinct programs in 2004 and 2006 that laid the groundwork for Barack Obama's extraordinary web-powered campaign. In 2008, Pariser transitioned the Executive Director role at MoveOn to Justin Ruben and became President of MoveOn’s board; he's now a senior fellow at the Roosevelt Institute.

His book The Filter Bubble is set for release May 12, 2011. In it, he asks how modern search tools -- the filter by which many of see the wider world -- are getting better and better and screening the wider world from us, by returning only the search results it "thinks" we want to see.

More profile about the speaker
Eli Pariser | Speaker | TED.com
TED2011

Eli Pariser: Beware online "filter bubbles"

Eli Pariser: Se opp for nettbaserte "filterbobler"

Filmed:
5,309,238 views

Mens nettbedrifter strever etter å skreddersy sine tjenester (nyheter og søkeresultater inkludert) til våre personlige preferanser, ligger det en farlig utilsiktet konsekvens bak: Vi blir fanget i en "filterboble" og blir ikke eksponert for informasjon som kan utfordre eller utvide vårt syn på verden. Eli Pariser argumenterer sterkt for at dette i siste instans vil vise seg å være dårlig for oss og dårlig for demokratiet.
- Organizer and author
Pioneering online organizer Eli Pariser is the author of "The Filter Bubble," about how personalized search might be narrowing our worldview. Full bio

Double-click the English transcript below to play the video.

00:15
MarkMerke ZuckerbergZuckerberg,
0
0
2000
Mark Zuckerberg,
00:17
a journalistjournalist was askingspør him a questionspørsmål about the newsnyheter feedmate.
1
2000
3000
en journalist spurte ham et spørsmål om nyhetsstrømmen.
00:20
And the journalistjournalist was askingspør him,
2
5000
2000
Og det journalisten spurte var,
00:22
"Why is this so importantviktig?"
3
7000
2000
"Hvorfor er dette så viktig?"
00:24
And ZuckerbergZuckerberg said,
4
9000
2000
Og Zuckerberg svarte,
00:26
"A squirrelekorn dyingdøende in your frontfront yardtunet
5
11000
2000
"Et ekorn som dør i din hage
00:28
maykan be more relevantaktuell to your interestsinteresser right now
6
13000
3000
kan være mer relevant for dine interesser akkurat nå
00:31
than people dyingdøende in AfricaAfrika."
7
16000
3000
enn at folk dør i Afrika."
00:34
And I want to talk about
8
19000
2000
Og jeg vil snakke om
00:36
what a WebWeb basedbasert on that ideaidé of relevancerelevans mightkanskje look like.
9
21000
3000
hvordan et Internett basert på den idéen om relevanse kan se ut.
00:40
So when I was growingvoksende up
10
25000
2000
Da jeg vokste opp
00:42
in a really rurallandlig areaområde in MaineMaine,
11
27000
2000
i et virkelig øde område i Maine,
00:44
the InternetInternett meantbetydde something very differentannerledes to me.
12
29000
3000
betydde Internett noe veldig annet for meg.
00:47
It meantbetydde a connectionforbindelse to the worldverden.
13
32000
2000
Det betydde en forbindelse til verden.
00:49
It meantbetydde something that would connectkoble us all togethersammen.
14
34000
3000
Det betydde noe som ville koble oss alle sammen.
00:52
And I was sure that it was going to be great for democracydemokrati
15
37000
3000
Og jeg var sikker på at det kom til å være flott for demokratiet
00:55
and for our societysamfunn.
16
40000
3000
og for vårt samfunn.
00:58
But there's this shiftskifte
17
43000
2000
Men det er denne endringen
01:00
in how informationinformasjon is flowingstrømmer onlinepå nett,
18
45000
2000
i hvordan informasjon beveger seg på nettet,
01:02
and it's invisibleusynlig.
19
47000
3000
og den er usynlig.
01:05
And if we don't paybetale attentionoppmerksomhet to it,
20
50000
2000
Og hvis vi ikke holder øye med den,
01:07
it could be a realekte problemproblem.
21
52000
3000
kan det bli et virkelig problem.
01:10
So I first noticedla merke til this in a placeplass I spendbruke a lot of time --
22
55000
3000
Først la jeg merke til dette på et sted der jeg tilbringer mye tid –
01:13
my FacebookFacebook pageside.
23
58000
2000
Facebook-siden min.
01:15
I'm progressiveprogressive, politicallypolitisk -- bigstor surpriseoverraskelse --
24
60000
3000
Politisk er jeg progressiv – stor overraskelse –
01:18
but I've always goneborte out of my way to meetmøte conservativeshøyre.
25
63000
2000
men jeg har alltid gjort mitt beste for å treffe konservative.
01:20
I like hearinghørsel what they're thinkingtenker about;
26
65000
2000
Jeg liker å høre hva de tenker på;
01:22
I like seeingser what they linklink to;
27
67000
2000
jeg liker å se hva de linker til;
01:24
I like learninglæring a thing or two.
28
69000
2000
jeg liker å lære en ting eller to.
01:26
And so I was surprisedoverrasket when I noticedla merke til one day
29
71000
3000
Så jeg ble overrasket da jeg en dag oppdaget
01:29
that the conservativeshøyre had disappearedforsvant from my FacebookFacebook feedmate.
30
74000
3000
at de konservative hadde forsvunnet fra nyhetsstrømmen min på Facebook.
01:33
And what it turnedslått out was going on
31
78000
2000
Og det som viste seg å være årsaken
01:35
was that FacebookFacebook was looking at whichhvilken linkslenker I clickedklikket on,
32
80000
4000
var at Facebook registrerte hvilke lenker jeg klikket på,
01:39
and it was noticingmerke that, actuallyfaktisk,
33
84000
2000
og la merke til at jeg faktisk
01:41
I was clickingklikke more on my liberalliberale friends'venner linkslenker
34
86000
2000
klikket mer på mine liberale venners lenker
01:43
than on my conservativekonservative friends'venner linkslenker.
35
88000
3000
enn mine konservative venners lenker.
01:46
And withoututen consultingrådgivning me about it,
36
91000
2000
Og uten å rådføre seg med meg om det,
01:48
it had editedredigert them out.
37
93000
2000
filtrerte de dem ut.
01:50
They disappearedforsvant.
38
95000
3000
De forsvant.
01:54
So FacebookFacebook isn't the only placeplass
39
99000
2000
Facebook er ikke de eneste
01:56
that's doing this kindsnill of invisibleusynlig, algorithmicalgoritmisk
40
101000
2000
som driver med denne usynlige, algoritmiske
01:58
editingredigering of the WebWeb.
41
103000
3000
filtreringen av Internett.
02:01
Google'sGoogles doing it too.
42
106000
2000
Google gjør det også.
02:03
If I searchSøke for something, and you searchSøke for something,
43
108000
3000
Hvis jeg søker etter noe og du søker etter noe,
02:06
even right now at the very samesamme time,
44
111000
2000
selv akkurat nå på nøyaktig samme tidspunkt,
02:08
we maykan get very differentannerledes searchSøke resultsresultater.
45
113000
3000
kan vi få veldig forskjellige resultater.
02:11
Even if you're loggedlogget out, one engineeringeniør told me,
46
116000
3000
Selv når du er logget ut, fortalte en utvikler meg,
02:14
there are 57 signalssignaler
47
119000
2000
er det 57 signaler
02:16
that GoogleGoogle looksutseende at --
48
121000
3000
som Google ser på –
02:19
everything from what kindsnill of computerdatamaskin you're on
49
124000
3000
alt fra hva slags datamaskin du bruker,
02:22
to what kindsnill of browsernettleser you're usingved hjelp av
50
127000
2000
til hvilken nettleser du bruker,
02:24
to where you're locatedplassert --
51
129000
2000
til hvor du befinner deg –
02:26
that it usesbruker to personallypersonlig tailorskredder your queryspørring resultsresultater.
52
131000
3000
som blir brukt til å personlig skreddersy dine søkeresultater.
02:29
Think about it for a secondsekund:
53
134000
2000
Tenk på det et øyeblikk:
02:31
there is no standardstandard GoogleGoogle anymorelenger.
54
136000
4000
det er ingen standard Google lengre.
02:35
And you know, the funnymorsom thing about this is that it's hardhard to see.
55
140000
3000
Og du vet, det rare med dette er at det er vanskelig å se.
02:38
You can't see how differentannerledes your searchSøke resultsresultater are
56
143000
2000
Du kan ikke se hvor annerledes dine søkeresultater er
02:40
from anyonehvem som helst else'sellers er.
57
145000
2000
i forhold til alle andre sine.
02:42
But a couplepar of weeksuker agosiden,
58
147000
2000
Men for et par uker siden,
02:44
I askedspurte a bunchgjeng of friendsvenner to GoogleGoogle "EgyptEgypt"
59
149000
3000
spurte jeg en gruppe venner om å Google "Egypt"
02:47
and to sendsende me screenskjerm shotsshots of what they got.
60
152000
3000
og sende meg skjermbilder av resultatene sine.
02:50
So here'sher er my friendvenn Scott'sScotts screenskjerm shotskudd.
61
155000
3000
Her er min venn Scott sitt skjermbilde.
02:54
And here'sher er my friendvenn Daniel'sDaniel screenskjerm shotskudd.
62
159000
3000
Og her er min venn Daniel sitt skjermbilde.
02:57
When you put them side-by-sideside ved side,
63
162000
2000
Når du plasserer dem side om side,
02:59
you don't even have to readlese the linkslenker
64
164000
2000
trenger du ikke en gang lese lenkene
03:01
to see how differentannerledes these two pagessider are.
65
166000
2000
for å se hvor forskjellig disse to sidene er.
03:03
But when you do readlese the linkslenker,
66
168000
2000
Men når du leser lenkene,
03:05
it's really quiteganske remarkablebemerkelsesverdig.
67
170000
3000
er det faktisk veldig oppsiktsvekkende.
03:09
DanielDaniel didn't get anything about the protestsprotester in EgyptEgypt at all
68
174000
3000
Daniel fikk ikke noen treff om protestene i Egypt
03:12
in his first pageside of GoogleGoogle resultsresultater.
69
177000
2000
på sin første side med Google-resultater.
03:14
Scott'sScotts resultsresultater were fullfull of them.
70
179000
2000
Scott sine resultater var fulle av dem.
03:16
And this was the bigstor storyhistorie of the day at that time.
71
181000
2000
Og dette var den store nyhetssaken på dette tidspunktet.
03:18
That's how differentannerledes these resultsresultater are becomingferd med å bli.
72
183000
3000
Det er såpass forskjellig disse resultatene er i ferd med å bli.
03:21
So it's not just GoogleGoogle and FacebookFacebook eitherenten.
73
186000
3000
Dette gjelder ikke bare Google og Facebook heller.
03:24
This is something that's sweepingfeiing the WebWeb.
74
189000
2000
Dette er en trend som går igjen på Internett.
03:26
There are a wholehel hostvert of companiesselskaper that are doing this kindsnill of personalizationPersonalisering.
75
191000
3000
Det er en hel rekke av bedrifter som bedriver denne type personalisering.
03:29
YahooYahoo NewsNyheter, the biggeststørste newsnyheter sitenettstedet on the InternetInternett,
76
194000
3000
Yahoo News, den største nyhetssiden på Internett,
03:32
is now personalizedpersonlig -- differentannerledes people get differentannerledes things.
77
197000
3000
er nå personalisert – forskjellige folk ser forskjellige ting.
03:36
HuffingtonHuffington PostInnlegg, the WashingtonWashington PostInnlegg, the NewNye YorkYork TimesGanger --
78
201000
3000
Huffington Post, the Washington Post, the New York Times –
03:39
all flirtingflørting with personalizationPersonalisering in variousdiverse waysmåter.
79
204000
3000
alle flørter med personalisering på forskjellige måter.
03:42
And this movesbeveger seg us very quicklyraskt
80
207000
3000
Og det beveger oss veldig raskt
03:45
towardmot a worldverden in whichhvilken
81
210000
2000
mot en verden der
03:47
the InternetInternett is showingviser us what it thinksmener we want to see,
82
212000
4000
Internett viser oss hva det tror vi ønsker å se,
03:51
but not necessarilynødvendigvis what we need to see.
83
216000
3000
men ikke nødvendigvis det vi trenger å se.
03:54
As EricEric SchmidtSchmidt said,
84
219000
3000
Som Eric Schmidt sa,
03:57
"It will be very hardhard for people to watch or consumeforbruke something
85
222000
3000
"Det kommer til å bli veldig vanskelig for folk å se eller konsumere noe
04:00
that has not in some senseføle
86
225000
2000
som ikke på noen måte
04:02
been tailoredskreddersydd for them."
87
227000
3000
er blitt skreddersydd til dem."
04:05
So I do think this is a problemproblem.
88
230000
2000
Jeg syntes at dette er et problem.
04:07
And I think, if you take all of these filtersfiltre togethersammen,
89
232000
3000
Og jeg tror at dersom du kombinerer alle disse filtrene,
04:10
you take all these algorithmsalgoritmer,
90
235000
2000
alle disse algoritmene,
04:12
you get what I call a filterfilter bubbleboble.
91
237000
3000
så får du det jeg kaller en filterboble.
04:16
And your filterfilter bubbleboble is your ownegen personalpersonlig,
92
241000
3000
Din filterboble er ditt eget personlige,
04:19
uniqueunik universeunivers of informationinformasjon
93
244000
2000
unike univers av informasjon
04:21
that you livebo in onlinepå nett.
94
246000
2000
som du lever i på nettet.
04:23
And what's in your filterfilter bubbleboble
95
248000
3000
Hva som finnes i din filterboble
04:26
dependsavhenger on who you are, and it dependsavhenger on what you do.
96
251000
3000
kommer an på hvem du er og det kommer an på hva du gjør.
04:29
But the thing is that you don't decideBestemme seg for what getsblir in.
97
254000
4000
Men greia er at du får ikke bestemme hva som får komme inn.
04:33
And more importantlyviktigst,
98
258000
2000
Og enda viktigere,
04:35
you don't actuallyfaktisk see what getsblir editedredigert out.
99
260000
3000
du får faktisk ikke se hva som blir filtrert ut.
04:38
So one of the problemsproblemer with the filterfilter bubbleboble
100
263000
2000
Så et av problemene med filterboblen
04:40
was discoveredoppdaget by some researchersforskere at NetflixNetflix.
101
265000
3000
ble oppdaget av noen forskere hos Netflix.
04:43
And they were looking at the NetflixNetflix queueskøer, and they noticedla merke til something kindsnill of funnymorsom
102
268000
3000
De så på Netflix-køen, og la merke til noe litt rart
04:46
that a lot of us probablysannsynligvis have noticedla merke til,
103
271000
2000
som mange av oss antakeligvis har lagt merke til,
04:48
whichhvilken is there are some moviesfilmer
104
273000
2000
nemlig at det er noen filmer
04:50
that just sortsortere of zipglidelås right up and out to our houseshus.
105
275000
3000
som bare sklir til topps og sendes direkte ut.
04:53
They enterTast inn the queue, they just zipglidelås right out.
106
278000
3000
De kommer inn i køen og sklir rett til topps.
04:56
So "IronJern Man" zipsglidelås right out,
107
281000
2000
Så "Iron Man" sklir rett til topps,
04:58
and "WaitingVenter for SupermanSupermann"
108
283000
2000
og "Waiting for Superman"
05:00
can wait for a really long time.
109
285000
2000
kan vente veldig lenge.
05:02
What they discoveredoppdaget
110
287000
2000
Det de oppdaget
05:04
was that in our NetflixNetflix queueskøer
111
289000
2000
var at i vår Netflix-kø
05:06
there's this epicepiske strugglestreve going on
112
291000
3000
foregår det en storslått kamp
05:09
betweenmellom our futureframtid aspirationalaspirational selvesselv
113
294000
3000
mellom vår fremtidige ambisiøse selv
05:12
and our more impulsiveimpulsiv presentnåværende selvesselv.
114
297000
3000
og vår mer impulsive nåværende selv.
05:15
You know we all want to be someonenoen
115
300000
2000
Dere vet at vi alle ønsker å være en
05:17
who has watchedovervåket "RashomonRashomon,"
116
302000
2000
som har sett "Rashomon,"
05:19
but right now
117
304000
2000
men akkurat nå
05:21
we want to watch "AceEss VenturaVentura" for the fourthfjerde time.
118
306000
3000
vil vi heller se "Ace Ventura" for fjerde gang.
05:24
(LaughterLatter)
119
309000
3000
(Latter)
05:27
So the bestbeste editingredigering givesgir us a bitbit of bothbåde.
120
312000
2000
Så det beste filteret gir oss litt av begge deler.
05:29
It givesgir us a little bitbit of JustinJustin BieberBieber
121
314000
2000
Det gir oss en liten bit av Justin Bieber
05:31
and a little bitbit of AfghanistanAfghanistan.
122
316000
2000
og en liten bit av Afghanistan.
05:33
It givesgir us some informationinformasjon vegetablesgrønnsaker;
123
318000
2000
Det gir oss noe informasjon om grønnsaker;
05:35
it givesgir us some informationinformasjon dessertdessert.
124
320000
3000
det gir oss noe informasjon om dessert.
05:38
And the challengeutfordring with these kindstyper of algorithmicalgoritmisk filtersfiltre,
125
323000
2000
Og utfordringen med denne type algoritmiske filtre,
05:40
these personalizedpersonlig filtersfiltre,
126
325000
2000
disse personaliserte filtrene,
05:42
is that, because they're mainlyhovedsakelig looking
127
327000
2000
er at, fordi de hovedsakelig ser
05:44
at what you clickklikk on first,
128
329000
4000
på hva du klikker på først,
05:48
it can throwkaste off that balancebalansere.
129
333000
4000
kan de sette denne balansen ute av spill.
05:52
And insteadi stedet of a balancedbalanserte informationinformasjon dietkosthold,
130
337000
3000
Og i stedet for en balansert informasjonsdiett
05:55
you can endslutt up surroundedomgitt
131
340000
2000
kan du ende opp omringet
05:57
by informationinformasjon junkskrot foodmat.
132
342000
2000
av informasjonssøppelmat.
05:59
What this suggestsantyder
133
344000
2000
Det dette antyder
06:01
is actuallyfaktisk that we maykan have the storyhistorie about the InternetInternett wrongfeil.
134
346000
3000
er at vi faktisk kan ha fått historien om Internett feil.
06:04
In a broadcastkringkasting societysamfunn --
135
349000
2000
I et kringkastingssamfunn –
06:06
this is how the foundinggrunnleggelsen mythologymytologi goesgår --
136
351000
2000
dette er slik grunnleggingsmytologien går –
06:08
in a broadcastkringkasting societysamfunn,
137
353000
2000
I et kringkastingssamfunn,
06:10
there were these gatekeepersdørvoktere, the editorsredaktører,
138
355000
2000
der var det disse portvaktene, redaktørene,
06:12
and they controlledkontrollert the flowsflyter of informationinformasjon.
139
357000
3000
og de kontrollerte informasjonsflyten.
06:15
And alonglangs camekom the InternetInternett and it sweptfeide them out of the way,
140
360000
3000
Og så kom Internett på banen og feide dem ut av veien,
06:18
and it allowedtillatt all of us to connectkoble togethersammen,
141
363000
2000
og det tillot oss alle å koble oss sammen,
06:20
and it was awesomeRått.
142
365000
2000
og det var fantastisk.
06:22
But that's not actuallyfaktisk what's happeningskjer right now.
143
367000
3000
Men det er ikke akkurat det som skjer nå.
06:26
What we're seeingser is more of a passingpassering of the torchlommelykt
144
371000
3000
Det vi ser er snarere en videreføring av ansvaret
06:29
from humanmenneskelig gatekeepersdørvoktere
145
374000
2000
vekk fra menneskelige portvakter
06:31
to algorithmicalgoritmisk onesseg.
146
376000
3000
til algoritmiske.
06:34
And the thing is that the algorithmsalgoritmer
147
379000
3000
Og greia er at algoritmer
06:37
don't yetennå have the kindsnill of embeddeden del av ethicsetikk
148
382000
3000
ikke enda har den formen for innebygd etikk
06:40
that the editorsredaktører did.
149
385000
3000
som redaktørene hadde.
06:43
So if algorithmsalgoritmer are going to curatekapellan the worldverden for us,
150
388000
3000
Så hvis algoritmer skal håndplukke verden for oss,
06:46
if they're going to decideBestemme seg for what we get to see and what we don't get to see,
151
391000
3000
hvis de skal få bestemme hva vi får se og hva vi ikke får se,
06:49
then we need to make sure
152
394000
2000
da er vi nødt til å sørge for
06:51
that they're not just keyedtastet to relevancerelevans.
153
396000
3000
at de ikke kun er knyttet til relevans.
06:54
We need to make sure that they alsoogså showforestilling us things
154
399000
2000
Vi må sørge for at de også viser oss ting
06:56
that are uncomfortableubehagelig or challengingutfordrende or importantviktig --
155
401000
3000
som er ubehagelig eller utfordrende eller viktig –
06:59
this is what TEDTED does --
156
404000
2000
det er dette TED gjør –
07:01
other pointspunkter of viewutsikt.
157
406000
2000
andre synspunkter.
07:03
And the thing is, we'vevi har actuallyfaktisk been here before
158
408000
2000
Det spesielle er at vi faktisk har vært i denne situasjonen før
07:05
as a societysamfunn.
159
410000
2000
som et samfunn.
07:08
In 1915, it's not like newspapersaviser were sweatingsvette a lot
160
413000
3000
I 1915 hadde ikke akkurat avisene et anstrengt forhold
07:11
about theirderes civiccivic responsibilitiesansvar.
161
416000
3000
til sitt samfunnsansvar.
07:14
Then people noticedla merke til
162
419000
2000
Så la folk merke til
07:16
that they were doing something really importantviktig.
163
421000
3000
at de gjorde noe veldig viktig.
07:19
That, in factfaktum, you couldn'tkunne ikke have
164
424000
2000
At man faktisk ikke kunne ha
07:21
a functioningfunksjon democracydemokrati
165
426000
2000
et fungerende demokrati
07:23
if citizensinnbyggere didn't get a good flowstrømme of informationinformasjon,
166
428000
4000
hvis borgerne ikke fikk en god strøm av informasjon,
07:28
that the newspapersaviser were criticalkritisk because they were actingskuespill as the filterfilter,
167
433000
3000
at avisene var viktige fordi de opptrådte som filteret,
07:31
and then journalisticjournalistisk ethicsetikk developedutviklet.
168
436000
2000
og så ble journalistisk etikk utviklet.
07:33
It wasn'tvar ikke perfectperfekt,
169
438000
2000
Det var ikke perfekt,
07:35
but it got us throughgjennom the last centuryårhundre.
170
440000
3000
men det fikk oss gjennom det forrige århundret.
07:38
And so now,
171
443000
2000
Så nå,
07:40
we're kindsnill of back in 1915 on the WebWeb.
172
445000
3000
er vi på en måte tilbake i 1915 på Internett.
07:44
And we need the newny gatekeepersdørvoktere
173
449000
3000
Og vi trenger de nye portvaktene
07:47
to encodekode that kindsnill of responsibilityansvar
174
452000
2000
til å hardkode et slikt ansvar
07:49
into the codekode that they're writingskriving.
175
454000
2000
inn i koden de skriver.
07:51
I know that there are a lot of people here from FacebookFacebook and from GoogleGoogle --
176
456000
3000
Jeg vet at det er mange mennesker her fra Facebook og fra Google –
07:54
LarryLarry and SergeySergey --
177
459000
2000
Larry og Sergey –
07:56
people who have helpedhjulpet buildbygge the WebWeb as it is,
178
461000
2000
mennesker som har hjulpet med å bygge Internett slik det er,
07:58
and I'm gratefultakknemlig for that.
179
463000
2000
og jeg er takknemlig for det.
08:00
But we really need you to make sure
180
465000
3000
Men vi trenger virkelig at dere sørger for
08:03
that these algorithmsalgoritmer have encodedkodet in them
181
468000
3000
at disse algoritmene har kodet inn i seg
08:06
a senseføle of the publicoffentlig life, a senseføle of civiccivic responsibilityansvar.
182
471000
3000
en oppfatning av det offentlige liv, en forstand for et samfunnsansvar.
08:09
We need you to make sure that they're transparentgjennomsiktig enoughnok
183
474000
3000
Vi trenger at dere sørger for at de er såpass åpne
08:12
that we can see what the rulesregler are
184
477000
2000
slik at vi kan se hva reglene er
08:14
that determinefastslå what getsblir throughgjennom our filtersfiltre.
185
479000
3000
for å avgjøre hva som kommer gjennom våre filtre.
08:17
And we need you to give us some controlkontroll
186
482000
2000
Og vi trenger at dere gir oss noe kontroll
08:19
so that we can decideBestemme seg for
187
484000
2000
så vi kan få bestemme
08:21
what getsblir throughgjennom and what doesn't.
188
486000
3000
hva som kommer gjennom og hva som stoppes.
08:24
Because I think
189
489000
2000
Fordi jeg tror
08:26
we really need the InternetInternett to be that thing
190
491000
2000
at vi virkelig trenger at Internett blir den tingen
08:28
that we all dreameddrømte of it beingå være.
191
493000
2000
vi alle drømte at det skulle bli.
08:30
We need it to connectkoble us all togethersammen.
192
495000
3000
Vi trenger at det kobler oss alle sammen.
08:33
We need it to introduceintrodusere us to newny ideasideer
193
498000
3000
Vi trenger det for å introdusere oss for nye idéer
08:36
and newny people and differentannerledes perspectivesperspektiver.
194
501000
3000
og nye mennesker og forskjellige perspektiver.
08:40
And it's not going to do that
195
505000
2000
Og det kommer ikke til å gjøre det
08:42
if it leavesblader us all isolatedisolert in a WebWeb of one.
196
507000
3000
om det etterlater oss alle isolert i et nett av en.
08:45
Thank you.
197
510000
2000
Takk.
08:47
(ApplauseApplaus)
198
512000
11000
(Applaus)
Translated by Fredrik Randsborg Bølstad
Reviewed by Martin Hassel

▲Back to top

ABOUT THE SPEAKER
Eli Pariser - Organizer and author
Pioneering online organizer Eli Pariser is the author of "The Filter Bubble," about how personalized search might be narrowing our worldview.

Why you should listen

Shortly after the September 11, 2001, attacks, Eli Pariser created a website calling for a multilateral approach to fighting terrorism. In the following weeks, over half a million people from 192 countries signed on, and Pariser rather unexpectedly became an online organizer. The website merged with MoveOn.org in November 2001, and Pariser -- then 20 years old -- joined the group to direct its foreign policy campaigns. He led what the New York Times Magazine called the "mainstream arm of the peace movement" -- tripling MoveOn's member base and demonstrating how large numbers of small donations could be mobilized through online engagement.

In 2004, Pariser became executive director of MoveOn. Under his leadership, MoveOn.org Political Action has grown to 5 million members and raised over $120 million from millions of small donors to support advocacy campaigns and political candidates. Pariser focused MoveOn on online-to-offline organizing, developing phone-banking tools and precinct programs in 2004 and 2006 that laid the groundwork for Barack Obama's extraordinary web-powered campaign. In 2008, Pariser transitioned the Executive Director role at MoveOn to Justin Ruben and became President of MoveOn’s board; he's now a senior fellow at the Roosevelt Institute.

His book The Filter Bubble is set for release May 12, 2011. In it, he asks how modern search tools -- the filter by which many of see the wider world -- are getting better and better and screening the wider world from us, by returning only the search results it "thinks" we want to see.

More profile about the speaker
Eli Pariser | Speaker | TED.com