ABOUT THE SPEAKER
Eli Pariser - Organizer and author
Pioneering online organizer Eli Pariser is the author of "The Filter Bubble," about how personalized search might be narrowing our worldview.

Why you should listen

Shortly after the September 11, 2001, attacks, Eli Pariser created a website calling for a multilateral approach to fighting terrorism. In the following weeks, over half a million people from 192 countries signed on, and Pariser rather unexpectedly became an online organizer. The website merged with MoveOn.org in November 2001, and Pariser -- then 20 years old -- joined the group to direct its foreign policy campaigns. He led what the New York Times Magazine called the "mainstream arm of the peace movement" -- tripling MoveOn's member base and demonstrating how large numbers of small donations could be mobilized through online engagement.

In 2004, Pariser became executive director of MoveOn. Under his leadership, MoveOn.org Political Action has grown to 5 million members and raised over $120 million from millions of small donors to support advocacy campaigns and political candidates. Pariser focused MoveOn on online-to-offline organizing, developing phone-banking tools and precinct programs in 2004 and 2006 that laid the groundwork for Barack Obama's extraordinary web-powered campaign. In 2008, Pariser transitioned the Executive Director role at MoveOn to Justin Ruben and became President of MoveOn’s board; he's now a senior fellow at the Roosevelt Institute.

His book The Filter Bubble is set for release May 12, 2011. In it, he asks how modern search tools -- the filter by which many of see the wider world -- are getting better and better and screening the wider world from us, by returning only the search results it "thinks" we want to see.

More profile about the speaker
Eli Pariser | Speaker | TED.com
TED2011

Eli Pariser: Beware online "filter bubbles"

Eli Pariser: saugokitės internetinių "filtro burbulų"

Filmed:
5,309,238 views

Internetinės kompanijos stengiasi pritaikyti savo paslaugas (taip pat naujienas ir paieškų rezultatus) prie mūsų asmeninių pomėgių, todėl kyla pavojus susidurti su nenumatytom pasėkmėm: mes įstringame "filtro burbule" ir negauname informacijos, kuri galėtų mus intriguoti ar praplėsti mūsų pasaulėžiūrą. Eli Pariser tvirtai tikina, kad galų gale pasitvirtins prielaida, jog tai nėra geras dalykas nei mums, nei demokratijai.
- Organizer and author
Pioneering online organizer Eli Pariser is the author of "The Filter Bubble," about how personalized search might be narrowing our worldview. Full bio

Double-click the English transcript below to play the video.

00:15
MarkŽenklas ZuckerbergZuckerberg,
0
0
2000
Mark Zuckerberg,
00:17
a journalistžurnalistas was askingklausia him a questionklausimas about the newsnaujienos feedmaitinti.
1
2000
3000
žurnalistas jo klausinėjo apie naujienų srautą.
00:20
And the journalistžurnalistas was askingklausia him,
2
5000
2000
Ir žurnalistas jo paklausė,
00:22
"Why is this so importantsvarbu?"
3
7000
2000
"Kodėl tai taip svarbu?"
00:24
And ZuckerbergZuckerberg said,
4
9000
2000
Ir Zuckerberg atsakė,
00:26
"A squirrelvoverė dyingmirti in your frontpriekyje yardkieme
5
11000
2000
"Voverė, dvesianti tavo kieme
00:28
mayGegužė be more relevantAktualus to your interestsinteresai right now
6
13000
3000
šią akimirką tau ko gero aktualesnė,
00:31
than people dyingmirti in AfricaAfrika."
7
16000
3000
nei žmonės, mirštantys Afrikoje."
00:34
And I want to talk about
8
19000
2000
Taigi aš norėčiau pakalbėti apie tai,
00:36
what a WebInterneto basedpagrįstas on that ideaidėja of relevanceaktualumas mightgali look like.
9
21000
3000
kaip atrodytų žiniatinklis paremtas tokia aktualumo idėja.
00:40
So when I was growingauga up
10
25000
2000
Kai aš augau
00:42
in a really ruralkaimas areaplotas in MaineMeino,
11
27000
2000
atitolusoje kaimo vietovėje Maine,
00:44
the InternetInterneto meantsuprato something very differentskiriasi to me.
12
29000
3000
internetas man reiškė kažką visai kitko.
00:47
It meantsuprato a connectionryšys to the worldpasaulis.
13
32000
2000
Jis reiškė ryšį su pasauliu.
00:49
It meantsuprato something that would connectPrisijungti us all togetherkartu.
14
34000
3000
Jis reiškė kažką, kas mus visus sujungia.
00:52
And I was sure that it was going to be great for democracydemokratija
15
37000
3000
Ir aš buvau įsitikinęs, kad tai bus labai naudinga demokratijai
00:55
and for our societyvisuomenė.
16
40000
3000
ir mūsų visuomenei.
00:58
But there's this shiftpamainą
17
43000
2000
Bet yra vienas pasikeitimas
01:00
in how informationinformacija is flowingtekantis onlineprisijungęs,
18
45000
2000
informacijos sklidime internetu,
01:02
and it's invisiblenematomas.
19
47000
3000
ir jis yra nematomas.
01:05
And if we don't paysumokėti attentiondėmesio to it,
20
50000
2000
Ir jei mes į jį nekreipsime dėmesio,
01:07
it could be a realrealus problemproblema.
21
52000
3000
tai gali tapti tikra problema.
01:10
So I first noticedpastebėjau this in a placevieta I spendpraleisti a lot of time --
22
55000
3000
Pirmą kartą aš tai pastebėjau ten, kur praleidžiu labai daug laiko -
01:13
my Facebook"Facebook" pagepuslapis.
23
58000
2000
savo Facebook puslapyje.
01:15
I'm progressivelaipsniškas, politicallypolitiškai -- bigdidelis surprisesiurprizas --
24
60000
3000
Politiškai aš esu progresyvių pažiūrų - nieko čia keisto -
01:18
but I've always gonedingo out of my way to meetsusitikti conservativeskonservatoriai.
25
63000
2000
bet visada specialiai stengiuosi susipažinti su konservatoriais.
01:20
I like hearingklausymasis what they're thinkingmąstymas about;
26
65000
2000
Man patinka klausytis, apie ką jie galvoja;
01:22
I like seeingpamatyti what they linknuoroda to;
27
67000
2000
mėgstu stebėti, kokias nuorodas jie siunčia;
01:24
I like learningmokymasis a thing or two.
28
69000
2000
man patinka šį bei tą išmokti.
01:26
And so I was surprisedsiurprizas when I noticedpastebėjau one day
29
71000
3000
Todėl buvau labai nustebęs, kai vieną dieną pastebėjau,
01:29
that the conservativeskonservatoriai had disappearedpradingo from my Facebook"Facebook" feedmaitinti.
30
74000
3000
kad konservatoriai dingo iš mano Facebook naujienų.
01:33
And what it turnedPaaiškėjo out was going on
31
78000
2000
Paaiškėjo, kad
01:35
was that Facebook"Facebook" was looking at whichkuris linksnuorodos I clickedSpustelėjus on,
32
80000
4000
Facebook stebėjo, kurias nuorodas aš spausdavau,
01:39
and it was noticingpastebėjau that, actuallyiš tikrųjų,
33
84000
2000
ir matė, kad iš tiesų
01:41
I was clickingspustelėję more on my liberalliberalai friends'Draugų linksnuorodos
34
86000
2000
aš dažniau spausdavau savo liberaliųjų draugų nuorodas,
01:43
than on my conservativekonservatyvus friends'Draugų linksnuorodos.
35
88000
3000
o ne draugų konservatorių.
01:46
And withoutbe consultingkonsultavimas me about it,
36
91000
2000
Ir su manimi nepasitarę,
01:48
it had editedredaguota them out.
37
93000
2000
jie išmetė nuorodas lauk.
01:50
They disappearedpradingo.
38
95000
3000
Jos dingo.
01:54
So Facebook"Facebook" isn't the only placevieta
39
99000
2000
Taigi Facebook nėra vienintelė vieta,
01:56
that's doing this kindmalonus of invisiblenematomas, algorithmicalgoritmų
40
101000
2000
kur vyksta toks nematomas, algoritminis
01:58
editingredaguoti of the WebInterneto.
41
103000
3000
tinklo redagavimas.
02:01
Google's"Google' doing it too.
42
106000
2000
Google tai irgi daro.
02:03
If I searchPaieška for something, and you searchPaieška for something,
43
108000
3000
Jei aš kažko ieškosiu, ir tu kažko ieškosi,
02:06
even right now at the very sametas pats time,
44
111000
2000
net ir dabar, visiškai tuo pačiu metu,
02:08
we mayGegužė get very differentskiriasi searchPaieška resultsrezultatai.
45
113000
3000
mes ko gero gausim labai skirtingus rezultatus.
02:11
Even if you're loggedprisijungęs out, one engineerinžinierius told me,
46
116000
3000
Net jei esi išsiregistravęs, kaip vienas inžinierius man sakė,
02:14
there are 57 signalssignalai
47
119000
2000
yra 57 signalai,
02:16
that Google"Google" looksatrodo at --
48
121000
3000
kuriuos Google vertina -
02:19
everything from what kindmalonus of computerkompiuteris you're on
49
124000
3000
nuo to, kokį kompiuterį tu naudoji,
02:22
to what kindmalonus of browsernaršyklė you're usingnaudojant
50
127000
2000
iki to, kokia naršykle naudojiesi,
02:24
to where you're locatedesantis --
51
129000
2000
kur esi geografiškai -
02:26
that it usesnaudoja to personallyasmeniškai tailorSiuvėjo your queryužklausa resultsrezultatai.
52
131000
3000
ši informacija naudojama asmeniškai adaptuoti tavo užklausos rezultatus.
02:29
Think about it for a secondantra:
53
134000
2000
Pamastykite apie tai minutėlę:
02:31
there is no standardstandartas Google"Google" anymoredaugiau.
54
136000
4000
standartiškas Google nebeegzistuoja.
02:35
And you know, the funnyjuokinga thing about this is that it's hardsunku to see.
55
140000
3000
Ir žinot, keisčiausia tai, kad tai labai sunku pastebėti.
02:38
You can't see how differentskiriasi your searchPaieška resultsrezultatai are
56
143000
2000
Jūs nematote, kiek jūsų paieškos rezultatai skiriasi
02:40
from anyonekas nors else'skitur.
57
145000
2000
nuo bet kurio kito žmogaus.
02:42
But a couplepora of weekssavaitės agoprieš,
58
147000
2000
Bet prieš porą savaičių
02:44
I askedpaklausė a bunchkrūva of friendsdraugai to Google"Google" "EgyptEgiptas"
59
149000
3000
aš paprašiau savo draugų "pagooglinti" "Egiptas"
02:47
and to sendsiųsti me screenekranas shotsšūviai of what they got.
60
152000
3000
ir atsiųsti man gautų rezultatų ekrano nuotraukas.
02:50
So here'sčia yra my frienddraugas Scott'sScott screenekranas shotkulka.
61
155000
3000
Štai mano draugo Scott ekrano nuotrauka.
02:54
And here'sčia yra my frienddraugas Daniel'sDaniel screenekranas shotkulka.
62
159000
3000
Ir štai mano draugo Daniel ekrano nuotrauka.
02:57
When you put them side-by-sidešalia kito,
63
162000
2000
Kai sudedi abi vieną šalia kitos,
02:59
you don't even have to readskaityti the linksnuorodos
64
164000
2000
net nereikia skaityti nuorodų,
03:01
to see how differentskiriasi these two pagespuslapiai are.
65
166000
2000
kad pamatytum, kiek daug skiriasi šie du puslapiai.
03:03
But when you do readskaityti the linksnuorodos,
66
168000
2000
Bet kai vis dėlto paskaitai nuorodas,
03:05
it's really quitegana remarkablenuostabus.
67
170000
3000
tai yra tikrai gana neįtikėtina.
03:09
DanielDaniel didn't get anything about the protestsprotestai in EgyptEgiptas at all
68
174000
3000
Daniel pirmame Google rezultatų puslapyje negavo jokių nuorodų
03:12
in his first pagepuslapis of Google"Google" resultsrezultatai.
69
177000
2000
apie Egipte vykstančius protestus.
03:14
Scott'sScott resultsrezultatai were fullpilnas of them.
70
179000
2000
Scott rezultatuose buvo daugybė informacijos apie tai.
03:16
And this was the bigdidelis storyistorija of the day at that time.
71
181000
2000
O ši istorija tada buvo tikrai populiari.
03:18
That's how differentskiriasi these resultsrezultatai are becomingtampa.
72
183000
3000
Štai kokie skirtingi tampa paieškos rezultatai.
03:21
So it's not just Google"Google" and Facebook"Facebook" eitherarba.
73
186000
3000
Ir tai ne vien tik Google ir Facebook.
03:24
This is something that's sweepingvalymas the WebInterneto.
74
189000
2000
Tai vyksta visame žiniatinklyje.
03:26
There are a wholevisa hostpriimančioji of companiesįmonės that are doing this kindmalonus of personalizationpritaikymas asmeniniams poreikiams.
75
191000
3000
Yra spiečius kompanijų, kurios taiko tokią personalizaciją.
03:29
YahooYahoo NewsNaujienos, the biggestdidžiausias newsnaujienos sitesvetainė on the InternetInterneto,
76
194000
3000
Yahoo News, didžiausias naujienų puslapis internete,
03:32
is now personalizedasmeniniams poreikiams -- differentskiriasi people get differentskiriasi things.
77
197000
3000
dabar taip pat yra personalizuotas -- skirtingi žmonės gauna skirtingas naujienas.
03:36
HuffingtonHuffington PostPost, the WashingtonVašingtonas PostPost, the NewNaujas YorkJorkas TimesKartus --
78
201000
3000
Huffington Post, Washington Post, New York Times --
03:39
all flirtingFlirtavimas with personalizationpritaikymas asmeniniams poreikiams in variousįvairios waysbūdai.
79
204000
3000
visi vienaip ar kitaip koketuoja su personalizacijos idėja.
03:42
And this movesjuda us very quicklygreitai
80
207000
3000
Ir tai mus labai greitai veda
03:45
towardlink a worldpasaulis in whichkuris
81
210000
2000
link pasaulio, kuriame
03:47
the InternetInterneto is showingparodyti us what it thinksgalvoja we want to see,
82
212000
4000
internetas rodo mums tik tai, ką jis galvoja mes norime matyti,
03:51
but not necessarilybūtinai what we need to see.
83
216000
3000
bet nebūtinai tai, ką mes turėtume pamatyti.
03:54
As EricErikas SchmidtSchmidt said,
84
219000
3000
Kaip Eric Schmidt pasakė,
03:57
"It will be very hardsunku for people to watch or consumevartoti something
85
222000
3000
"Žmonėms bus labai sunku kažką žiūrėti ir vartoti
04:00
that has not in some senseprasme
86
225000
2000
kas kažkuria prasme
04:02
been tailoredpritaikyta for them."
87
227000
3000
nebuvo pritaikytas būtent jiems."
04:05
So I do think this is a problemproblema.
88
230000
2000
Aš tikrai manau, kad tai yra problema.
04:07
And I think, if you take all of these filtersfiltrai togetherkartu,
89
232000
3000
Ir aš manau, kad jeigu paimtume visus šiuos filtrus,
04:10
you take all these algorithmsalgoritmai,
90
235000
2000
visus algoritmus,
04:12
you get what I call a filterfiltras bubbleburbulas.
91
237000
3000
susidurtumėte su filtro burbulu, kaip aš tai vadinu.
04:16
And your filterfiltras bubbleburbulas is your ownsavo personalasmeninis,
92
241000
3000
Ir jūsų filtro burbulas yra asmeninė,
04:19
uniqueunikalus universevisata of informationinformacija
93
244000
2000
unikali informacijos visata,
04:21
that you livegyventi in onlineprisijungęs.
94
246000
2000
kurioje gyvenate, kai būnate internete.
04:23
And what's in your filterfiltras bubbleburbulas
95
248000
3000
Ir kas yra jūsų filtro burbule
04:26
dependspriklauso nuo on who you are, and it dependspriklauso nuo on what you do.
96
251000
3000
priklauso nuo to, kas jūs esate ir priklauso nuo to, ką jus veikiate.
04:29
But the thing is that you don't decidenuspręsti what getsgauna in.
97
254000
4000
Bet dalykas yra tas, kad jūs negalite nuspręsti, kas į jį patenka.
04:33
And more importantlysvarbiausia,
98
258000
2000
Ir svarbiausia,
04:35
you don't actuallyiš tikrųjų see what getsgauna editedredaguota out.
99
260000
3000
jūs iš tiesų net nematote, kas yra išredaguota.
04:38
So one of the problemsproblemos with the filterfiltras bubbleburbulas
100
263000
2000
Taigi vieną iš šio filtro burbulo problemų
04:40
was discoveredatrado by some researchersmokslininkai at NetflixNetflix.
101
265000
3000
atrado keli Netflix mokslininkai.
04:43
And they were looking at the NetflixNetflix queueseiles, and they noticedpastebėjau something kindmalonus of funnyjuokinga
102
268000
3000
Jie stebėjo Netflix filmų eiles ir pastebėjo kai ką šiek tiek juokingo,
04:46
that a lot of us probablytikriausiai have noticedpastebėjau,
103
271000
2000
ką dauguma mūsų turbūt irgi pastebėjo,
04:48
whichkuris is there are some moviesfilmai
104
273000
2000
o tai yra, kad kai kurie filmai
04:50
that just sortrūšiuoti of zipzip right up and out to our housesnamai.
105
275000
3000
tiesiog atsiranda ir dingsta iš mūsų namų eilės.
04:53
They enterįveskite the queueeilė, they just zipzip right out.
106
278000
3000
Jie įeina į eilę ir joje neužsibūna.
04:56
So "IronGeležies Man" zipsužtrauktukai right out,
107
281000
2000
Taigi "Geležinis žmogus" peržiūrėtas,
04:58
and "WaitingLaukia, kol for SupermanSupermenas"
108
283000
2000
o "Belaukiant Supermeno" eilės
05:00
can wait for a really long time.
109
285000
2000
gali tekti laukti gana ilgai.
05:02
What they discoveredatrado
110
287000
2000
Ką Netflix mokslininkai atrado
05:04
was that in our NetflixNetflix queueseiles
111
289000
2000
buvo tai, kad Netflix filmų eilėse
05:06
there's this epicEpas strugglekova going on
112
291000
3000
vyksta epinė kova
05:09
betweentarp our futureateitis aspirationalsiekiamybė selvespatys
113
294000
3000
tarp mūsų siekiamo ateities savęs
05:12
and our more impulsiveimpulsyvus presentpateikti selvespatys.
114
297000
3000
ir mūsų labiau impulsyvaus dabartinio savęs.
05:15
You know we all want to be someonekas nors
115
300000
2000
Žinot, mes visi norime tapti tais,
05:17
who has watchedstebėjo "RashomonRashōmon,"
116
302000
2000
kurie žiūri "Rasiomonas",
05:19
but right now
117
304000
2000
bet dabar
05:21
we want to watch "AceAKF VenturaVentura" for the fourthketvirtas time.
118
306000
3000
mes norime ketvirtą kartą peržiūrėti "Eisas Ventura".
05:24
(LaughterJuokas)
119
309000
3000
(Juokas)
05:27
So the bestgeriausia editingredaguoti givessuteikia us a bitšiek tiek of bothabu.
120
312000
2000
Taigi geriausias redagavimas leidžia mums pabūti abiem savimis.
05:29
It givessuteikia us a little bitšiek tiek of JustinJustin BieberBieber
121
314000
2000
Tai mums suteikia truputį informacijos apie Justin Bieber
05:31
and a little bitšiek tiek of AfghanistanAfganistanas.
122
316000
2000
ir truputį Afganistano naujienų.
05:33
It givessuteikia us some informationinformacija vegetablesdaržovės;
123
318000
2000
Tai mums suteikia informacijos "daržovių"
05:35
it givessuteikia us some informationinformacija dessertdesertas.
124
320000
3000
ir informacijos "desertui".
05:38
And the challengeiššūkis with these kindsrūšys of algorithmicalgoritmų filtersfiltrai,
125
323000
2000
Ir didžiausias sunkumas su šiais algoritminiais filtrais,
05:40
these personalizedasmeniniams poreikiams filtersfiltrai,
126
325000
2000
šiais personalizuotais filtrais,
05:42
is that, because they're mainlydaugiausia looking
127
327000
2000
yra susijęs su tuo, kad filtrai daugiausiai
05:44
at what you clickspustelėkite on first,
128
329000
4000
kreipia dėmesį į tai, ką jūs paspaudžiate primiausia,
05:48
it can throwmesti off that balancebalansas.
129
333000
4000
o tai gali tą filtrą išbalansuoti.
05:52
And insteadvietoj to of a balancedsubalansuotas informationinformacija dietdieta,
130
337000
3000
Ir tuomet vietoje subalansuotos informacijos dietos
05:55
you can endgalas up surroundedapsuptas
131
340000
2000
jums gali tekti
05:57
by informationinformacija junkšiukšlių foodmaistas.
132
342000
2000
greitas, nesveikas informacijos maistas.
05:59
What this suggestssiūlo
133
344000
2000
Ką tai sako,
06:01
is actuallyiš tikrųjų that we mayGegužė have the storyistorija about the InternetInterneto wrongneteisingai.
134
346000
3000
yra tai, kad išties mes suprantame internetą neteisingai.
06:04
In a broadcasttransliacijos societyvisuomenė --
135
349000
2000
Transliacijų visuomenėje --
06:06
this is how the foundingsteigimas mythologymitologija goeseina --
136
351000
2000
štai kokia išties etologinio mito istorija --
06:08
in a broadcasttransliacijos societyvisuomenė,
137
353000
2000
transliacijų visuomenėje
06:10
there were these gatekeepersvartų sargas, the editorsredaktoriai,
138
355000
2000
buvo žmonės atsakingi už priėjimą prie informacijos, redaktoriai
06:12
and they controlledkontroliuojama the flowssrautai of informationinformacija.
139
357000
3000
ir jie kontroliavo informacijos srautus.
06:15
And alongkartu cameatėjo the InternetInterneto and it sweptnuvalytas them out of the way,
140
360000
3000
Ir tada atsirado internetas ir nušlavė juos nuo kelio,
06:18
and it allowedleidžiama all of us to connectPrisijungti togetherkartu,
141
363000
2000
o tai leido mums susijungti,
06:20
and it was awesomenuostabu.
142
365000
2000
kas buvo labai jėga.
06:22
But that's not actuallyiš tikrųjų what's happeningvyksta right now.
143
367000
3000
Tačiau tai nėra, kas išties dabar vyksta.
06:26
What we're seeingpamatyti is more of a passingpraeiti of the torchžibintuvėlis
144
371000
3000
Ką mes dabar matome yra daugiau deglo perdavinėjimas
06:29
from humanžmogus gatekeepersvartų sargas
145
374000
2000
iš žmonių, atsakingų už priėjimą prie informacijos
06:31
to algorithmicalgoritmų onesvieni.
146
376000
3000
algoritmams.
06:34
And the thing is that the algorithmsalgoritmai
147
379000
3000
Ir esmė yra ta, kad algoritmai
06:37
don't yetvis dar have the kindmalonus of embeddedįterptas ethicsetikos
148
382000
3000
dar neturi įtvirtintos etikos,
06:40
that the editorsredaktoriai did.
149
385000
3000
kurią turi redaktoriai.
06:43
So if algorithmsalgoritmai are going to curateklebonas the worldpasaulis for us,
150
388000
3000
Taigi, jeigu algoritmai kuruos mums pasaulį,
06:46
if they're going to decidenuspręsti what we get to see and what we don't get to see,
151
391000
3000
jeigu jie spręs, ką mes galime matyti ir ko ne,
06:49
then we need to make sure
152
394000
2000
tuomet mums reikia užsitikrinti,
06:51
that they're not just keyedužpleištuotos to relevanceaktualumas.
153
396000
3000
kad jų pagrindas nėra aktualumas.
06:54
We need to make sure that they alsotaip pat showRodyti us things
154
399000
2000
Mums reikia užtikrinti, kad jie taip pat mums parodys dalykus,
06:56
that are uncomfortablenepatogus or challengingiššūkis or importantsvarbu --
155
401000
3000
kurie yra nesmagūs, sudėtingi arba svarbūs --
06:59
this is what TEDTED does --
156
404000
2000
tai būtent ką daro TED --
07:01
other pointstaškai of viewvaizdas.
157
406000
2000
rodo kitus požiūrius.
07:03
And the thing is, we'vemes turime actuallyiš tikrųjų been here before
158
408000
2000
O svarbiausia, kad mes tokioje situacijoje jau buvome
07:05
as a societyvisuomenė.
159
410000
2000
patekę kaip visuomenė.
07:08
In 1915, it's not like newspaperslaikraščiai were sweatingprakaitavimas a lot
160
413000
3000
1915 laikraščiai tikrai neliejo daug prakaito
07:11
about their civicpilietinis responsibilitiespareigos.
161
416000
3000
dėl savo pilietinės atsakomybės.
07:14
Then people noticedpastebėjau
162
419000
2000
Tuomet žmonės pastebėjo,
07:16
that they were doing something really importantsvarbu.
163
421000
3000
kad jie darė kažką labai svarbaus.
07:19
That, in factfaktas, you couldn'tnegalėjo have
164
424000
2000
Tai, faktiškai, yra negalėjimas
07:21
a functioningveikimas democracydemokratija
165
426000
2000
turėti funkcionuojančią demokratiją,
07:23
if citizenspiliečiai didn't get a good flowsrautas of informationinformacija,
166
428000
4000
jeigu piliečiai negauna tinkamo informacijos srauto.
07:28
that the newspaperslaikraščiai were criticalkritiškas because they were actingvaidyba as the filterfiltras,
167
433000
3000
Žmonės suprato, kad laikraščiai buvo kritiškai svarbūs, nes jie
07:31
and then journalisticžurnalistų ethicsetikos developedišsivysčiusios.
168
436000
2000
buvo kaip filtrai, o tada susiformavo žurnalistinė etika.
07:33
It wasn'tnebuvo perfectpuikus,
169
438000
2000
Tai nebuvo puiku,
07:35
but it got us throughper the last centuryamžius.
170
440000
3000
bet mes taip pragyvenom paskutinį amžių.
07:38
And so now,
171
443000
2000
Ir taip dabar
07:40
we're kindmalonus of back in 1915 on the WebInterneto.
172
445000
3000
mes lyg ir grįžom į 1915 metus tinkle.
07:44
And we need the newnaujas gatekeepersvartų sargas
173
449000
3000
Ir mums reikia naujų žmonių, nuo kurių priklauso priėjimas prie informacijos,
07:47
to encodekoduoti that kindmalonus of responsibilityatsakomybė
174
452000
2000
kurie koduotų tą atsakomybę
07:49
into the codekodas that they're writingraštu.
175
454000
2000
į kodą, kurį jie dabar kuria.
07:51
I know that there are a lot of people here from Facebook"Facebook" and from Google"Google" --
176
456000
3000
Aš žinau, kad čia yra daug žmonių iš Facebook ir iš Google --
07:54
LarryLarry and SergeySergejus --
177
459000
2000
Larry ir Sergey --
07:56
people who have helpedpadėjo buildstatyti the WebInterneto as it is,
178
461000
2000
žmonės, kurie padėjo sukurti žiniatinklį tokį, koks jis dabar yra,
07:58
and I'm gratefuldėkingas for that.
179
463000
2000
ir aš esu dėl to dėkingas.
08:00
But we really need you to make sure
180
465000
3000
Bet mums reikia, kad jūs užtikrintumėte,
08:03
that these algorithmsalgoritmai have encodedkodavimas in them
181
468000
3000
kad šie algoritmai turėtų įkoduotą
08:06
a senseprasme of the publicvisuomenė life, a senseprasme of civicpilietinis responsibilityatsakomybė.
182
471000
3000
viešo gyvenimo jausmą ir pilietinės atsakomybės jausmą.
08:09
We need you to make sure that they're transparentskaidrus enoughpakankamai
183
474000
3000
Mums reikia, kad jūs užtikrintumėt, kad jie yra pakankamai skaidrūs,
08:12
that we can see what the rulestaisyklės are
184
477000
2000
kad mes galėtume matyti kokios yra taisyklės,
08:14
that determinenustatyti what getsgauna throughper our filtersfiltrai.
185
479000
3000
kurios nustato, kas pereina pro mūsų filtrus.
08:17
And we need you to give us some controlkontrolė
186
482000
2000
Ir mums reikia, kad duotumėte mums šiek tiek kontrolės,
08:19
so that we can decidenuspręsti
187
484000
2000
kad galėtume nuspręsti,
08:21
what getsgauna throughper and what doesn't.
188
486000
3000
kas praeina pro filtrą ir kas ne.
08:24
Because I think
189
489000
2000
Nes aš manau,
08:26
we really need the InternetInterneto to be that thing
190
491000
2000
kad mums reikia interneto būtent tokio,
08:28
that we all dreamedsvajojo of it beingesamas.
191
493000
2000
apie kokį ir svajojome.
08:30
We need it to connectPrisijungti us all togetherkartu.
192
495000
3000
Mums reikia kad jis mus sujungtų.
08:33
We need it to introducesupažindinti us to newnaujas ideasidėjos
193
498000
3000
Mums reikia, kad jis mums pristatytų naujų idėjų
08:36
and newnaujas people and differentskiriasi perspectivesperspektyvos.
194
501000
3000
ir supažindintų su naujais žmonėmis ir naujomis perspektyvomis.
08:40
And it's not going to do that
195
505000
2000
Ir jis to neatliks,
08:42
if it leaveslapai us all isolatedizoliuotas in a WebInterneto of one.
196
507000
3000
jeigu mes liksime izoliuoti vieno žmogaus žiniatinklyje.
08:45
Thank you.
197
510000
2000
Ačiū.
08:47
(ApplausePlojimai)
198
512000
11000
(Plojimai)
Translated by Monika Ciurli
Reviewed by Laura Bojarskaite

▲Back to top

ABOUT THE SPEAKER
Eli Pariser - Organizer and author
Pioneering online organizer Eli Pariser is the author of "The Filter Bubble," about how personalized search might be narrowing our worldview.

Why you should listen

Shortly after the September 11, 2001, attacks, Eli Pariser created a website calling for a multilateral approach to fighting terrorism. In the following weeks, over half a million people from 192 countries signed on, and Pariser rather unexpectedly became an online organizer. The website merged with MoveOn.org in November 2001, and Pariser -- then 20 years old -- joined the group to direct its foreign policy campaigns. He led what the New York Times Magazine called the "mainstream arm of the peace movement" -- tripling MoveOn's member base and demonstrating how large numbers of small donations could be mobilized through online engagement.

In 2004, Pariser became executive director of MoveOn. Under his leadership, MoveOn.org Political Action has grown to 5 million members and raised over $120 million from millions of small donors to support advocacy campaigns and political candidates. Pariser focused MoveOn on online-to-offline organizing, developing phone-banking tools and precinct programs in 2004 and 2006 that laid the groundwork for Barack Obama's extraordinary web-powered campaign. In 2008, Pariser transitioned the Executive Director role at MoveOn to Justin Ruben and became President of MoveOn’s board; he's now a senior fellow at the Roosevelt Institute.

His book The Filter Bubble is set for release May 12, 2011. In it, he asks how modern search tools -- the filter by which many of see the wider world -- are getting better and better and screening the wider world from us, by returning only the search results it "thinks" we want to see.

More profile about the speaker
Eli Pariser | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee