ABOUT THE SPEAKER
Eli Pariser - Organizer and author
Pioneering online organizer Eli Pariser is the author of "The Filter Bubble," about how personalized search might be narrowing our worldview.

Why you should listen

Shortly after the September 11, 2001, attacks, Eli Pariser created a website calling for a multilateral approach to fighting terrorism. In the following weeks, over half a million people from 192 countries signed on, and Pariser rather unexpectedly became an online organizer. The website merged with MoveOn.org in November 2001, and Pariser -- then 20 years old -- joined the group to direct its foreign policy campaigns. He led what the New York Times Magazine called the "mainstream arm of the peace movement" -- tripling MoveOn's member base and demonstrating how large numbers of small donations could be mobilized through online engagement.

In 2004, Pariser became executive director of MoveOn. Under his leadership, MoveOn.org Political Action has grown to 5 million members and raised over $120 million from millions of small donors to support advocacy campaigns and political candidates. Pariser focused MoveOn on online-to-offline organizing, developing phone-banking tools and precinct programs in 2004 and 2006 that laid the groundwork for Barack Obama's extraordinary web-powered campaign. In 2008, Pariser transitioned the Executive Director role at MoveOn to Justin Ruben and became President of MoveOn’s board; he's now a senior fellow at the Roosevelt Institute.

His book The Filter Bubble is set for release May 12, 2011. In it, he asks how modern search tools -- the filter by which many of see the wider world -- are getting better and better and screening the wider world from us, by returning only the search results it "thinks" we want to see.

More profile about the speaker
Eli Pariser | Speaker | TED.com
TED2011

Eli Pariser: Beware online "filter bubbles"

Eli Pariser: Óvakodj az online szűrőburkoktól!

Filmed:
5,309,238 views

Az, hogy az internetes cégek igyekeznek szolgáltatásaikat -- beleértve a híreket és a keresési eredményeket is -- személyes ígényeinkhez szabni, akaratlanul is magában rejti annak a veszélyét, hogy a szűrőburkok csapdájában ragadunk, és nem jutunk hozzá azokhoz információkhoz, amelyek megingatnák világképünket vagy kitágítanák érdeklődésünket. Eli Pariser meggyőző érvekkel támasztja alá, hogy ez nekünk is rossz, és a demokráciára nézve káros.
- Organizer and author
Pioneering online organizer Eli Pariser is the author of "The Filter Bubble," about how personalized search might be narrowing our worldview. Full bio

Double-click the English transcript below to play the video.

00:15
MarkMark ZuckerbergZuckerberg,
0
0
2000
Mark Zuckerbergnek
00:17
a journalistújságíró was askingkérve him a questionkérdés about the newshírek feedtakarmány.
1
2000
3000
feltett egy kérdést egy újságíró a new feeddel kapcsolatban,
00:20
And the journalistújságíró was askingkérve him,
2
5000
2000
És azt kérdezte tőle az újságíró:
00:22
"Why is this so importantfontos?"
3
7000
2000
"Tulajdonképpen miért olyan fontos ez?"
00:24
And ZuckerbergZuckerberg said,
4
9000
2000
És Zuckerberg azt felelte,
00:26
"A squirrelmókus dyinghaldoklik in your frontelülső yardudvar
5
11000
2000
"Az, hogy egy mókus éppen a házunk előtt haldoklik,
00:28
maylehet be more relevantide vonatkozó to your interestsérdekek right now
6
13000
3000
lehet, hogy sokkal jobban érdekel minket ebben a pillanatban,
00:31
than people dyinghaldoklik in AfricaAfrika."
7
16000
3000
mint hogy Afrikában emberek halnak meg."
00:34
And I want to talk about
8
19000
2000
És arról akarok most beszélni, hogy milyen is
00:36
what a WebWeb basedszékhelyű on that ideaötlet of relevancefontosság mightesetleg look like.
9
21000
3000
lehet az a web, amely a fontosság ilyen felfogására épít.
00:40
So when I was growingnövekvő up
10
25000
2000
Gyerekkoromban, Maine Államban,
00:42
in a really ruralvidéki areaterület in MaineMaine,
11
27000
2000
egy igazi falusi környzetben,
00:44
the InternetInternet meantjelentett something very differentkülönböző to me.
12
29000
3000
az internet valami egészen mást jelentett számomra.
00:47
It meantjelentett a connectionkapcsolat to the worldvilág.
13
32000
2000
Kapcsolatot jelentett a világgal.
00:49
It meantjelentett something that would connectkapcsolódni us all togetheregyütt.
14
34000
3000
Valami olyat, ami mindannyiunkat össze fog kötni.
00:52
And I was sure that it was going to be great for democracydemokrácia
15
37000
3000
És biztos voltam benne, hogy ez remek dolog lesz a demokrácia
00:55
and for our societytársadalom.
16
40000
3000
és a társadalmunk számára.
00:58
But there's this shiftváltás
17
43000
2000
De van itt egy változás abban,
01:00
in how informationinformáció is flowingfolyó onlineonline,
18
45000
2000
ahogyan az információ online áramlik,
01:02
and it's invisibleláthatatlan.
19
47000
3000
és ez láthatatlan marad.
01:05
And if we don't payfizetés attentionFigyelem to it,
20
50000
2000
És ha nem figyelünk rá,
01:07
it could be a realigazi problemprobléma.
21
52000
3000
abból valóban baj lehet.
01:10
So I first noticedészrevette this in a placehely I spendtölt a lot of time --
22
55000
3000
Először egy olyan helyen figyeltem fel rá, ahol sok időt töltök --
01:13
my FacebookFacebook pageoldal.
23
58000
2000
a Facebook oldalamon.
01:15
I'm progressivehaladó, politicallypolitikailag -- bignagy surprisemeglepetés --
24
60000
3000
Politikailag haladó vagyok -- micsoda meglepetés --
01:18
but I've always goneelmúlt out of my way to meettalálkozik conservativeskonzervatívok.
25
63000
2000
de mindig mindent megteszek azért, hogy konzervatíokkal találkozzam.
01:20
I like hearingmeghallgatás what they're thinkinggondolkodás about;
26
65000
2000
Szeretem hallani, hogy hogyan vélekednek.
01:22
I like seeinglátás what they linklink to;
27
67000
2000
Szeretem látni, hogy mi köti össze őket;
01:24
I like learningtanulás a thing or two.
28
69000
2000
szeretek megtudni egy-két dolgot.
01:26
And so I was surprisedmeglepődött when I noticedészrevette one day
29
71000
3000
Nagyon meglepődtem valamelyik nap.
01:29
that the conservativeskonzervatívok had disappearedeltűnt from my FacebookFacebook feedtakarmány.
30
74000
3000
hogy a konzervatívok eltűntek a Facebook feedemből.
01:33
And what it turnedfordult out was going on
31
78000
2000
És kiderült, hogy az történt,
01:35
was that FacebookFacebook was looking at whichmelyik linkslinkek I clickedcsattant on,
32
80000
4000
hogy a Facebook figyelte, hogy milyen linkekre kattintok,
01:39
and it was noticingészrevenné that, actuallytulajdonképpen,
33
84000
2000
és észrevette, hogy valóban,
01:41
I was clickingcsattanó more on my liberalliberális friends'meg' linkslinkek
34
86000
2000
többet kattintottam a liberális barátaim linkjére,
01:43
than on my conservativekonzervatív friends'meg' linkslinkek.
35
88000
3000
mint a konzervatív barátaiméra.
01:46
And withoutnélkül consultingtanácsadó me about it,
36
91000
2000
És anélkül, hogy engem megkérdezett volna,
01:48
it had editedszerkesztett them out.
37
93000
2000
kihagyta őket.
01:50
They disappearedeltűnt.
38
95000
3000
Eltűntek.
01:54
So FacebookFacebook isn't the only placehely
39
99000
2000
De nem a Facebook az egyetlen,
01:56
that's doing this kindkedves of invisibleláthatatlan, algorithmicalgoritmikus
40
101000
2000
ami ilyen észrevétlen, algoritmikus módon
01:58
editingszerkesztés of the WebWeb.
41
103000
3000
szerkesztget a web-en.
02:01
Google'sA Google doing it too.
42
106000
2000
A Google is ezt csinálja.
02:03
If I searchKeresés for something, and you searchKeresés for something,
43
108000
3000
Ha én is, meg te is keresel valamit,
02:06
even right now at the very sameazonos time,
44
111000
2000
ugyanazt, és egyidejűleg,
02:08
we maylehet get very differentkülönböző searchKeresés resultstalálatok.
45
113000
3000
akár egészen különböző eredményt is kaphatunk.
02:11
Even if you're loggeda naplóba out, one engineermérnök told me,
46
116000
3000
Egy mérnök mondta, hogy még kijelentkezéskor is
02:14
there are 57 signalsjelek
47
119000
2000
57 jelzést
02:16
that GoogleGoogle looksúgy néz ki, at --
48
121000
3000
figyel a Google --
02:19
everything from what kindkedves of computerszámítógép you're on
49
124000
3000
kezdve azon, hogy milyen számítógépen dolgozunk,
02:22
to what kindkedves of browserböngésző you're usinghasználva
50
127000
2000
milyen böngészőt használunk
02:24
to where you're locatedtalálható --
51
129000
2000
honnan internetezünk --
02:26
that it usesfelhasználások to personallySzemélyesen tailorTörő your querylekérdezés resultstalálatok.
52
131000
3000
hogy azután ennek megfelelően személyre szabja a lekérdezés eredményét.
02:29
Think about it for a secondmásodik:
53
134000
2000
Gondoljunk csak utána egy pillanatra:
02:31
there is no standardalapértelmezett GoogleGoogle anymoretöbbé.
54
136000
4000
szó sincs már többet a szabványos Google-ról.
02:35
And you know, the funnyvicces thing about this is that it's hardkemény to see.
55
140000
3000
És tudják, az a furcsa, hogy ezt nehéz észrevenni.
02:38
You can't see how differentkülönböző your searchKeresés resultstalálatok are
56
143000
2000
Nem látjuk, hogy mennyire más nálunk a keresés eredménye,
02:40
from anyonebárki else'smásét.
57
145000
2000
mint másoknál.
02:42
But a couplepárosít of weekshetes agoezelőtt,
58
147000
2000
De néhány hete
02:44
I askedkérdezte a bunchcsokor of friendsbarátok to GoogleGoogle "EgyptEgyiptom"
59
149000
3000
megkértem egy pár barátomat hogy keressenek rá a Google-ban Egyiptomra.
02:47
and to sendelküld me screenképernyő shotsfelvételek of what they got.
60
152000
3000
és küldjék át a kapott eredmény képernyőjét.
02:50
So here'sitt my friendbarát Scott'sScott screenképernyő shotlövés.
61
155000
3000
Itt van Scott barátomé.
02:54
And here'sitt my friendbarát Daniel'sDaniel's screenképernyő shotlövés.
62
159000
3000
És itt Danielé.
02:57
When you put them side-by-sideegymás mellett,
63
162000
2000
Ha egymás mellé tesszük őket,
02:59
you don't even have to readolvas the linkslinkek
64
164000
2000
el se kell, hogy olvassuk a linkeket ahhoz,
03:01
to see how differentkülönböző these two pagesoldalak are.
65
166000
2000
hogy lássuk, mennyire más a két oldal.
03:03
But when you do readolvas the linkslinkek,
66
168000
2000
De ha elolvassuk a linkeket,
03:05
it's really quiteegészen remarkablefigyelemre méltó.
67
170000
3000
valóban nagyon figyelemre méltó,
03:09
DanielDaniel didn't get anything about the proteststiltakozik in EgyptEgyiptom at all
68
174000
3000
hogy Daniel semmit nem kapott az egyiptomi tűntetésekről
03:12
in his first pageoldal of GoogleGoogle resultstalálatok.
69
177000
2000
az első lapon.
03:14
Scott'sScott resultstalálatok were fullteljes of them.
70
179000
2000
míg Scott ererménye tele volt velük.
03:16
And this was the bignagy storysztori of the day at that time.
71
181000
2000
És ez volt a nap története akkoriban,
03:18
That's how differentkülönböző these resultstalálatok are becomingegyre.
72
183000
3000
hogy mennyire más volt a két eredmény.
03:21
So it's not just GoogleGoogle and FacebookFacebook eitherbármelyik.
73
186000
3000
És hát nem csak a Google-nál és a Facebooknál van ez.
03:24
This is something that's sweepingsodró the WebWeb.
74
189000
2000
Ez egy olyan jelenség, ami egyre terjed a weben.
03:26
There are a wholeegész hostházigazda of companiesvállalatok that are doing this kindkedves of personalizationszemélyre szabás.
75
191000
3000
A cégek tömege használ ilyen személyre szabást.
03:29
YahooYahoo NewsHírek, the biggestlegnagyobb newshírek sitewebhely on the InternetInternet,
76
194000
3000
A Yahoo News, a legnagyobb hír-oldal az interneten,
03:32
is now personalizedszemélyre szabott -- differentkülönböző people get differentkülönböző things.
77
197000
3000
mostanában vált személyessé -- különböző emberek különböző dolgokat kapnak.
03:36
HuffingtonHuffington PostPost, the WashingtonWashington PostPost, the NewÚj YorkYork TimesAlkalommal --
78
201000
3000
A Huffington Post, a Washington Post, a New York Times --
03:39
all flirtingflörtölés with personalizationszemélyre szabás in variouskülönféle waysmódokon.
79
204000
3000
mindegyik kacérkodik valamilyen formában a személyre szabással.
03:42
And this movesmozog us very quicklygyorsan
80
207000
3000
És ez nagyon gyorsan elvisz
03:45
towardfelé a worldvilág in whichmelyik
81
210000
2000
egy olyan világ felé, amelyben
03:47
the InternetInternet is showingkiállítás us what it thinksazt hiszi we want to see,
82
212000
4000
az internet azt mutatja meg nekünk, amiről azt gondolja, hogy látni szeretnénk,
03:51
but not necessarilyszükségszerűen what we need to see.
83
216000
3000
és nem szükségképp azt, amit látnunk kell.
03:54
As EricEric SchmidtSchmidt said,
84
219000
3000
Ahogyan Eric Schmidt mondta,
03:57
"It will be very hardkemény for people to watch or consumefogyaszt something
85
222000
3000
"Nagyon nehéz lesz az embereknek meglátni vagy használni bármit is,
04:00
that has not in some senseérzék
86
225000
2000
ami nincs valamiképp
04:02
been tailoredszemélyre szabott for them."
87
227000
3000
hozzájuk igazítva."
04:05
So I do think this is a problemprobléma.
88
230000
2000
Úgy gondolom, hogy ez baj.
04:07
And I think, if you take all of these filtersszűrők togetheregyütt,
89
232000
3000
Azt hiszem, hogy ha vesszük mindezeket a szűrőket,
04:10
you take all these algorithmsalgoritmusok,
90
235000
2000
az összes algoritmust,
04:12
you get what I call a filterszűrő bubblebuborék.
91
237000
3000
akkor megkapjuk azt amit én szűrőburoknak nevezek.
04:16
And your filterszűrő bubblebuborék is your ownsaját personalszemélyes,
92
241000
3000
És a szűrőburkunk a saját, személyes
04:19
uniqueegyedi universevilágegyetem of informationinformáció
93
244000
2000
különbejáratú információs világunk,
04:21
that you liveélő in onlineonline.
94
246000
2000
amiben online élünk.
04:23
And what's in your filterszűrő bubblebuborék
95
248000
3000
És, hogy mi van ebben a szűrőburokban,
04:26
dependsattól függ on who you are, and it dependsattól függ on what you do.
96
251000
3000
az azon múlik, hogy kik vagyunk, mit csinálunk.
04:29
But the thing is that you don't decidedöntsd el what getsjelentkeznek in.
97
254000
4000
De az a helyzet, hogy nem mi döntjük el, hogy mi kerül bele.
04:33
And more importantlyfontosabb,
98
258000
2000
És, ami még fontosabb,
04:35
you don't actuallytulajdonképpen see what getsjelentkeznek editedszerkesztett out.
99
260000
3000
hogy nem igazán látjuk, hogy mi marad ki belőle.
04:38
So one of the problemsproblémák with the filterszűrő bubblebuborék
100
263000
2000
A szűrőburok egyik problémáját
04:40
was discoveredfelfedezett by some researcherskutatók at NetflixNetflix.
101
265000
3000
a Netflix kutatói fedezték fel.
04:43
And they were looking at the NetflixNetflix queuesvárólisták, and they noticedészrevette something kindkedves of funnyvicces
102
268000
3000
Nézték a Netflix várólistákat, és valami vicces dolgot vettek észre,
04:46
that a lot of us probablyvalószínűleg have noticedészrevette,
103
271000
2000
valami olyat, amit valószínűleg többen észrevettünk már,
04:48
whichmelyik is there are some moviesfilmek
104
273000
2000
hogy vannak filmek,
04:50
that just sortfajta of zippostai irányítószám right up and out to our housesházak.
105
275000
3000
amiket szinte azonnal letöltünk.
04:53
They enterbelép the queuesorban áll, they just zippostai irányítószám right out.
106
278000
3000
Hozzáadjuk a várólistához és szinte azonnal letöltjük.
04:56
So "IronVas Man" zipscipzár right out,
107
281000
2000
Pl. az "Iron Man"-t azonnal letöltjük,
04:58
and "WaitingVár for SupermanSuperman"
108
283000
2000
míg "Waiting for Superman"
05:00
can wait for a really long time.
109
285000
2000
tényleg sokáig várhat.
05:02
What they discoveredfelfedezett
110
287000
2000
Azt fedezték fel,
05:04
was that in our NetflixNetflix queuesvárólisták
111
289000
2000
hogy a mi Netflix várólistáinkon
05:06
there's this epicEpic struggleküzdelem going on
112
291000
3000
ádáz harc folyik a két énünk között:
05:09
betweenközött our futurejövő aspirationalszándék selvesmaguk
113
294000
3000
az egyik énünk, aki a jövőben szeretnénk lenni,
05:12
and our more impulsiveimpulzív presentajándék selvesmaguk.
114
297000
3000
a másik a pillanatnyi impulzív énünk.
05:15
You know we all want to be someonevalaki
115
300000
2000
Tudják, mindannyian szeretnénk azok közé tartozni,
05:17
who has watchedfigyelte "RashomonVihar kapujában,"
116
302000
2000
akik látták már a "Rashomon"-t
05:19
but right now
117
304000
2000
de épp most
05:21
we want to watch "AceÁsz VenturaVentura" for the fourthnegyedik time.
118
306000
3000
inkább az "Ace Ventura"-t szeretnénk megnézni, negyedszerre.
05:24
(LaughterNevetés)
119
309000
3000
(Nevetés)
05:27
So the bestlegjobb editingszerkesztés givesad us a bitbit of bothmindkét.
120
312000
2000
Így a legjobb szerkesztés mindkettőből ad egy kicsit.
05:29
It givesad us a little bitbit of JustinJustin BieberBieber
121
314000
2000
Ad egy kicsit Justin Bieber-ből
05:31
and a little bitbit of AfghanistanAfganisztán.
122
316000
2000
és egy kicsit Afganisztánból.
05:33
It givesad us some informationinformáció vegetableszöldségek;
123
318000
2000
Ad egy kevés információ-főzeléket,
05:35
it givesad us some informationinformáció dessertdesszert.
124
320000
3000
és egy keveset a desszertből.
05:38
And the challengekihívás with these kindsféle of algorithmicalgoritmikus filtersszűrők,
125
323000
2000
A nehézség az ilyen algoritmikus szűrőkkel,
05:40
these personalizedszemélyre szabott filtersszűrők,
126
325000
2000
ezekkel a személyre szóló szűrőkkel,
05:42
is that, because they're mainlyfőként looking
127
327000
2000
hogy többnyire azt nézik,
05:44
at what you clickkettyenés on first,
128
329000
4000
hogy mire kilkkelünk először,
05:48
it can throwdobás off that balanceegyensúly.
129
333000
4000
ezzel elronthatják az egyensúlyt.
05:52
And insteadhelyette of a balancedkiegyensúlyozott informationinformáció dietdiéta,
130
337000
3000
És a kiegyensúlyozott információ-étrend helyett
05:55
you can endvég up surroundedkörülvett
131
340000
2000
a végén csupa információ-hamburgerrel
05:57
by informationinformáció junkhulladék foodélelmiszer.
132
342000
2000
leszünk körülvéve.
05:59
What this suggestsjavasolja
133
344000
2000
Ez azt sugallja,
06:01
is actuallytulajdonképpen that we maylehet have the storysztori about the InternetInternet wrongrossz.
134
346000
3000
hogy valójában félreértésben lehetünk az internettel kapcsolatban.
06:04
In a broadcastadás societytársadalom --
135
349000
2000
A hírközlésben --
06:06
this is how the foundingalapító mythologymitológia goesmegy --
136
351000
2000
ez az, ahogyan a mítoszok keletkeznek --
06:08
in a broadcastadás societytársadalom,
137
353000
2000
a hírközlésben
06:10
there were these gatekeepersforgalomirányítók, the editorsszerkesztők,
138
355000
2000
ott voltak az őrök, a szerkesztők,
06:12
and they controlledellenőrzött the flowsfolyik of informationinformáció.
139
357000
3000
és az ő kezükben voltak az információ csatornái.
06:15
And alongmentén camejött the InternetInternet and it sweptsöpört them out of the way,
140
360000
3000
És jött az internet és elsöpörte őket az útból,
06:18
and it allowedengedélyezett all of us to connectkapcsolódni togetheregyütt,
141
363000
2000
és lehetővé tette, hogy mindannyian kapcsolatba kerüljünk egymással,
06:20
and it was awesomefantasztikus.
142
365000
2000
és ez döbbenetes volt.
06:22
But that's not actuallytulajdonképpen what's happeningesemény right now.
143
367000
3000
De most éppenséggel nem ez történik,
06:26
What we're seeinglátás is more of a passingelhaladó of the torchfáklya
144
371000
3000
Amit most látunk, az az, ahogyan a
06:29
from humanemberi gatekeepersforgalomirányítók
145
374000
2000
a hús-vér őrök átadják a stafétabotot
06:31
to algorithmicalgoritmikus onesazok.
146
376000
3000
az algoritmikus őröknek.
06:34
And the thing is that the algorithmsalgoritmusok
147
379000
3000
És hát az algoritmusoknak
06:37
don't yetmég have the kindkedves of embeddedbeágyazott ethicsetikai
148
382000
3000
nincs meg az a belső etikája,
06:40
that the editorsszerkesztők did.
149
385000
3000
amit a szerkesztők használtak.
06:43
So if algorithmsalgoritmusok are going to curateClapham-társaság egyik the worldvilág for us,
150
388000
3000
Így ha az algoritmusok fogják elrendezni a világot a számunkra,
06:46
if they're going to decidedöntsd el what we get to see and what we don't get to see,
151
391000
3000
ha azok döntik el, hogy mit nézzünk meg és mit ne,
06:49
then we need to make sure
152
394000
2000
akkor biztosítanunk kell, hogy
06:51
that they're not just keyedkulcsos to relevancefontosság.
153
396000
3000
ne csupán a relevancia szerint legyenek programozva.
06:54
We need to make sure that they alsois showelőadás us things
154
399000
2000
Biztosítanunk kell, hogy olyan dolgokat is megmutassanak,
06:56
that are uncomfortablekényelmetlen or challengingkihívást jelentő or importantfontos --
155
401000
3000
amelyek kényelmetlenek, provokatívak vagy fontosak --
06:59
this is what TEDTED does --
156
404000
2000
ezt teszi a TED --
07:01
other pointspont of viewKilátás.
157
406000
2000
más nézőpontokat is.
07:03
And the thing is, we'vevoltunk actuallytulajdonképpen been here before
158
408000
2000
Mint társadalom, voltunk már korábban is
07:05
as a societytársadalom.
159
410000
2000
ilyen helyzetben.
07:08
In 1915, it's not like newspapersújságok were sweatingizzadás a lot
160
413000
3000
Nem mintha 1915-ben az újságok sokat
07:11
about theirazok civicpolgári responsibilitiesfelelősség.
161
416000
3000
törődtek volna a polgári felelősséggel.
07:14
Then people noticedészrevette
162
419000
2000
Azután az emberek észrevették,
07:16
that they were doing something really importantfontos.
163
421000
3000
hogy valami nagyon fontosat csináltak.
07:19
That, in facttény, you couldn'tnem tudott have
164
424000
2000
Hogy nem létezhet
07:21
a functioningműködése democracydemokrácia
165
426000
2000
működő demokrácia úgy,
07:23
if citizenspolgárok didn't get a good flowfolyam of informationinformáció,
166
428000
4000
hogy az állampolgárok ne kapnák meg a megfelelő információkat.
07:28
that the newspapersújságok were criticalkritikai because they were actingható as the filterszűrő,
167
433000
3000
Hogy az újságok azért voltak kulcsfontosságúak, mert úgy működtek, mint valami szűrő,
07:31
and then journalisticÚjságírói ethicsetikai developedfejlett.
168
436000
2000
és azután kifejlődött az újságírói etika.
07:33
It wasn'tnem volt perfecttökéletes,
169
438000
2000
Nem volt tökéletes,
07:35
but it got us throughkeresztül the last centuryszázad.
170
440000
3000
de átsegített minket az előző századon.
07:38
And so now,
171
443000
2000
És így most
07:40
we're kindkedves of back in 1915 on the WebWeb.
172
445000
3000
ez valami visszatérés-féle 1915-höz a web-en.
07:44
And we need the newúj gatekeepersforgalomirányítók
173
449000
3000
És szükségünk van új őrökre,
07:47
to encodekódolás that kindkedves of responsibilityfelelősség
174
452000
2000
hogy belekódolják ezt a felelősséget
07:49
into the codekód that they're writingírás.
175
454000
2000
a kódba, amit írnak.
07:51
I know that there are a lot of people here from FacebookFacebook and from GoogleGoogle --
176
456000
3000
Tudom, hogy sokan vannak itt a Facebook-tól és a Google-tól --
07:54
LarryLarry and SergeySzergej --
177
459000
2000
Larry és Sergey --
07:56
people who have helpedsegített buildépít the WebWeb as it is,
178
461000
2000
olyan emberek, akik segítettek olyanná formálni a web-et, amilyen,
07:58
and I'm gratefulhálás for that.
179
463000
2000
és ezért hálás vagyok nekik.
08:00
But we really need you to make sure
180
465000
3000
De tényleg szükségünk van önökre, hogy biztosítsák,
08:03
that these algorithmsalgoritmusok have encodedkódolt in them
181
468000
3000
hogy ezekben az algoritmusokban be legyen kódolva
08:06
a senseérzék of the publicnyilvános life, a senseérzék of civicpolgári responsibilityfelelősség.
182
471000
3000
a közélet ítélőképessége, a polgári felelősség tudata.
08:09
We need you to make sure that they're transparentátlátszó enoughelég
183
474000
3000
Szükségünk van önökre, hogy biztosítsák az átláthatóságot,
08:12
that we can see what the rulesszabályok are
184
477000
2000
hogy láthassuk, hogy mik azok a szabályok,
08:14
that determinemeghatározására what getsjelentkeznek throughkeresztül our filtersszűrők.
185
479000
3000
amelyek meghatározzák, hogy mi megy át a szűrőinken.
08:17
And we need you to give us some controlellenőrzés
186
482000
2000
És szükség van önökre azért is, hogy adjanak bizonyos ellenőrzési lehetőséget,
08:19
so that we can decidedöntsd el
187
484000
2000
hogy mi magunk tudjuk előírni,
08:21
what getsjelentkeznek throughkeresztül and what doesn't.
188
486000
3000
hogy mi menjen át és mi ne.
08:24
Because I think
189
489000
2000
Mivel azt gondolom,
08:26
we really need the InternetInternet to be that thing
190
491000
2000
hogy valóban szükségünk van rá, hogy az legyen az internet
08:28
that we all dreamedálmodott of it beinglény.
191
493000
2000
amiről mindannyian álmodtunk.
08:30
We need it to connectkapcsolódni us all togetheregyütt.
192
495000
3000
Szükségünk van rá, hogy valamennyiünket összekössön.
08:33
We need it to introducebevezet us to newúj ideasötletek
193
498000
3000
Szükségünk van rá, hogy megmutasson új gondolatokat,
08:36
and newúj people and differentkülönböző perspectivesperspektívák.
194
501000
3000
új embereket és különböző távlatokat.
08:40
And it's not going to do that
195
505000
2000
És ez nem történhet meg úgy,
08:42
if it leaveslevelek us all isolatedizolált in a WebWeb of one.
196
507000
3000
ha egymástól elszigetelve maradunk a weben.
08:45
Thank you.
197
510000
2000
Köszönöm.
08:47
(ApplauseTaps)
198
512000
11000
(Taps)
Translated by Maria Ruzsane Cseresnyes
Reviewed by Anna Patai

▲Back to top

ABOUT THE SPEAKER
Eli Pariser - Organizer and author
Pioneering online organizer Eli Pariser is the author of "The Filter Bubble," about how personalized search might be narrowing our worldview.

Why you should listen

Shortly after the September 11, 2001, attacks, Eli Pariser created a website calling for a multilateral approach to fighting terrorism. In the following weeks, over half a million people from 192 countries signed on, and Pariser rather unexpectedly became an online organizer. The website merged with MoveOn.org in November 2001, and Pariser -- then 20 years old -- joined the group to direct its foreign policy campaigns. He led what the New York Times Magazine called the "mainstream arm of the peace movement" -- tripling MoveOn's member base and demonstrating how large numbers of small donations could be mobilized through online engagement.

In 2004, Pariser became executive director of MoveOn. Under his leadership, MoveOn.org Political Action has grown to 5 million members and raised over $120 million from millions of small donors to support advocacy campaigns and political candidates. Pariser focused MoveOn on online-to-offline organizing, developing phone-banking tools and precinct programs in 2004 and 2006 that laid the groundwork for Barack Obama's extraordinary web-powered campaign. In 2008, Pariser transitioned the Executive Director role at MoveOn to Justin Ruben and became President of MoveOn’s board; he's now a senior fellow at the Roosevelt Institute.

His book The Filter Bubble is set for release May 12, 2011. In it, he asks how modern search tools -- the filter by which many of see the wider world -- are getting better and better and screening the wider world from us, by returning only the search results it "thinks" we want to see.

More profile about the speaker
Eli Pariser | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee