ABOUT THE SPEAKER
Eli Pariser - Organizer and author
Pioneering online organizer Eli Pariser is the author of "The Filter Bubble," about how personalized search might be narrowing our worldview.

Why you should listen

Shortly after the September 11, 2001, attacks, Eli Pariser created a website calling for a multilateral approach to fighting terrorism. In the following weeks, over half a million people from 192 countries signed on, and Pariser rather unexpectedly became an online organizer. The website merged with MoveOn.org in November 2001, and Pariser -- then 20 years old -- joined the group to direct its foreign policy campaigns. He led what the New York Times Magazine called the "mainstream arm of the peace movement" -- tripling MoveOn's member base and demonstrating how large numbers of small donations could be mobilized through online engagement.

In 2004, Pariser became executive director of MoveOn. Under his leadership, MoveOn.org Political Action has grown to 5 million members and raised over $120 million from millions of small donors to support advocacy campaigns and political candidates. Pariser focused MoveOn on online-to-offline organizing, developing phone-banking tools and precinct programs in 2004 and 2006 that laid the groundwork for Barack Obama's extraordinary web-powered campaign. In 2008, Pariser transitioned the Executive Director role at MoveOn to Justin Ruben and became President of MoveOn’s board; he's now a senior fellow at the Roosevelt Institute.

His book The Filter Bubble is set for release May 12, 2011. In it, he asks how modern search tools -- the filter by which many of see the wider world -- are getting better and better and screening the wider world from us, by returning only the search results it "thinks" we want to see.

More profile about the speaker
Eli Pariser | Speaker | TED.com
TED2011

Eli Pariser: Beware online "filter bubbles"

Eli Pariser: Turnuri de fildeș online

Filmed:
5,309,238 views

Companiile online, străduindu-se să ne croiască serviciile după gusturile personale, inclusiv știrile și căutările, creează consecințe neintenționate: Suntem prinși în capcana unor filtre și nu suntem expuși la informații care ne-ar lărgi perspectiva asupra lumii. Eli Pariser susține că acest aspect se dovedește în detrimentul nostru și al democrației.
- Organizer and author
Pioneering online organizer Eli Pariser is the author of "The Filter Bubble," about how personalized search might be narrowing our worldview. Full bio

Double-click the English transcript below to play the video.

00:15
MarkMark ZuckerbergZuckerberg,
0
0
2000
Mark Zuckerberg a fost întrebat
00:17
a journalistziarist was askingcer him a questionîntrebare about the newsștiri feeda hrani.
1
2000
3000
despre știrile personalizate 'News Feed' de pe Facebook.
00:20
And the journalistziarist was askingcer him,
2
5000
2000
Jurnalistul l-a întrebat:
00:22
"Why is this so importantimportant?"
3
7000
2000
"De ce sunt atât de importante?"
00:24
And ZuckerbergZuckerberg said,
4
9000
2000
Iar Zuckerberg a răspuns:
00:26
"A squirrelveveriţă dyingmoarte in your frontfață yardcurte
5
11000
2000
"O veveriță care moare pe gazonul din fața casei
00:28
mayMai be more relevantrelevant to your interestsinterese right now
6
13000
3000
poate fi mai relevantă pentru interesele tale momentane
00:31
than people dyingmoarte in AfricaAfrica."
7
16000
3000
decât oamenii care mor în Africa."
00:34
And I want to talk about
8
19000
2000
Vreau să vă vorbesc
00:36
what a WebWeb basedbazat on that ideaidee of relevancerelevanţă mightar putea look like.
9
21000
3000
despre cum arată Internetul bazat pe această idee de relevanță.
00:40
So when I was growingcreştere up
10
25000
2000
Când eram copil și locuiam
00:42
in a really ruralrural areazonă in MaineMaine,
11
27000
2000
într-o zonă rurală din statul Maine,
00:44
the InternetInternet meanta însemnat something very differentdiferit to me.
12
29000
3000
Internetul însemna ceva foarte diferit pentru mine.
00:47
It meanta însemnat a connectionconexiune to the worldlume.
13
32000
2000
Însemna o legatură cu lumea.
00:49
It meanta însemnat something that would connectconectați us all togetherîmpreună.
14
34000
3000
Însemna ceva ce ne putea uni pe toți.
00:52
And I was sure that it was going to be great for democracydemocraţie
15
37000
3000
Eram sigur că urma să fie grozav pentru democrație
00:55
and for our societysocietate.
16
40000
3000
și pentru societatea noastră.
00:58
But there's this shiftschimb
17
43000
2000
Însă s-a petrecut o deviere
01:00
in how informationinformație is flowingcurgere onlinepe net,
18
45000
2000
în modul cum circulă informația on-line,
01:02
and it's invisibleinvizibil.
19
47000
3000
iar această abatere e invizibilă.
01:05
And if we don't paya plati attentionAtenţie to it,
20
50000
2000
Dacă nu suntem atenți
01:07
it could be a realreal problemproblemă.
21
52000
3000
poate deveni o problemă gravă.
01:10
So I first noticeda observat this in a placeloc I spendpetrece a lot of time --
22
55000
3000
Prima dată am observat asta într-un loc unde petrec mult timp --
01:13
my FacebookFacebook pagepagină.
23
58000
2000
pagina mea de Facebook.
01:15
I'm progressiveprogresiv, politicallypolitic -- bigmare surprisesurprinde --
24
60000
3000
Din punct de vedere politic, eu sunt progresist -- nu-i surpriză aici --
01:18
but I've always goneplecat out of my way to meetîntâlni conservativesConservatorii.
25
63000
2000
dar m-am străduit mereu să cunosc conservatori.
01:20
I like hearingauz what they're thinkinggândire about;
26
65000
2000
Îmi place să aud părerile lor;
01:22
I like seeingvedere what they linklegătură to;
27
67000
2000
îmi place să văd ce link-uri postează,
01:24
I like learningînvăţare a thing or two.
28
69000
2000
îmi place să învăț lucruri.
01:26
And so I was surpriseduimit when I noticeda observat one day
29
71000
3000
Astfel, am fost foarte surprins să observ într-o zi
01:29
that the conservativesConservatorii had disappeareddispărut from my FacebookFacebook feeda hrani.
30
74000
3000
că toți conservatorii dispăruseră din feed-ul meu de pe Facebook.
01:33
And what it turnedîntoarse out was going on
31
78000
2000
Iar ce se întâmplase
01:35
was that FacebookFacebook was looking at whichcare linksLink-uri I clickedfaceţi clic pe on,
32
80000
4000
era că Facebook se uita la ce link-uri apăsam
01:39
and it was noticingobservând that, actuallyde fapt,
33
84000
2000
și a observat că apăsam
01:41
I was clickingclic more on my liberalliberale friends'prietenii noștri linksLink-uri
34
86000
2000
mai mult pe link-urile prietenilor liberali
01:43
than on my conservativeconservator friends'prietenii noștri linksLink-uri.
35
88000
3000
decât pe ale prietenilor conservatori.
01:46
And withoutfără consultingconsultant me about it,
36
91000
2000
Și, fără să mă consulte,
01:48
it had editededitat them out.
37
93000
2000
îi ștersese.
01:50
They disappeareddispărut.
38
95000
3000
Dispăruseră.
01:54
So FacebookFacebook isn't the only placeloc
39
99000
2000
Facebook nu este singurul loc
01:56
that's doing this kinddrăguț of invisibleinvizibil, algorithmicalgoritmice
40
101000
2000
care face acest fel de
01:58
editingeditare of the WebWeb.
41
103000
3000
editare algoritmică, invizibilă a Internetului.
02:01
Google'sGoogle doing it too.
42
106000
2000
Și Google face la fel.
02:03
If I searchcăutare for something, and you searchcăutare for something,
43
108000
3000
Dacă eu caut ceva și tu cauți același lucru,
02:06
even right now at the very samela fel time,
44
111000
2000
chiar acum, în același moment,
02:08
we mayMai get very differentdiferit searchcăutare resultsrezultate.
45
113000
3000
am obține rezultate de căutare total diferite.
02:11
Even if you're loggedconectat out, one engineeringiner told me,
46
116000
3000
Chiar dacă nu ești logat, mi-a spus un inginer,
02:14
there are 57 signalssemnalele
47
119000
2000
există 57 de semnale
02:16
that GoogleGoogle looksarată at --
48
121000
3000
la care se uită Google --
02:19
everything from what kinddrăguț of computercomputer you're on
49
124000
3000
totul: ce fel de computer folosești,
02:22
to what kinddrăguț of browserbrowser-ul you're usingutilizând
50
127000
2000
ce fel de browser utilizezi,
02:24
to where you're locatedsituat --
51
129000
2000
locul în care te afli --
02:26
that it usesutilizări to personallypersonal tailortoma your queryinterogare resultsrezultate.
52
131000
3000
pe care le folosește pentru a personaliza rezulatatele căutarii.
02:29
Think about it for a secondal doilea:
53
134000
2000
Gândiți-vă pentru un moment:
02:31
there is no standardstandard GoogleGoogle anymoremai.
54
136000
4000
nu mai există un Google standard.
02:35
And you know, the funnyamuzant thing about this is that it's hardgreu to see.
55
140000
3000
Și e ciudat că-i foarte greu să observi asta.
02:38
You can't see how differentdiferit your searchcăutare resultsrezultate are
56
143000
2000
Nu vezi cât de diferite sunt rezultatele căutării tale
02:40
from anyoneoricine else'saltcineva.
57
145000
2000
față de ale altcuiva.
02:42
But a couplecuplu of weekssăptămâni agoîn urmă,
58
147000
2000
Acum vreo două săptămâni
02:44
I askedîntrebă a bunchbuchet of friendsprieteni to GoogleGoogle "EgyptEgipt"
59
149000
3000
am rugat câțiva prieteni să caute pe Google cuvântul "Egipt"
02:47
and to sendtrimite me screenecran shotsfotografii of what they got.
60
152000
3000
și să-mi trimită imaginea ecranului obținut.
02:50
So here'saici e my friendprieten Scott'sScott pe screenecran shotlovitură.
61
155000
3000
Iată imaginea de la prietenul meu Scott.
02:54
And here'saici e my friendprieten Daniel'sDaniel pe screenecran shotlovitură.
62
159000
3000
Iar aici e imaginea de la prietenul meu Daniel.
02:57
When you put them side-by-sideunul langa altul,
63
162000
2000
Când le pui una lângă cealaltă,
02:59
you don't even have to readcitit the linksLink-uri
64
164000
2000
nici nu trebuie să citești link-urile
03:01
to see how differentdiferit these two pagespagini are.
65
166000
2000
ca să vezi cât de diferite sunt aceste două pagini.
03:03
But when you do readcitit the linksLink-uri,
66
168000
2000
Dar când citești link-urile,
03:05
it's really quitedestul de remarkableremarcabil.
67
170000
3000
diferența e remarcabilă.
03:09
DanielDoina didn't get anything about the protestsproteste in EgyptEgipt at all
68
174000
3000
Daniel nu avea nimic despre protestele din Egipt
03:12
in his first pagepagină of GoogleGoogle resultsrezultate.
69
177000
2000
în prima pagină de rezultate Google.
03:14
Scott'sScott pe resultsrezultate were fulldeplin of them.
70
179000
2000
Rezultatele lui Scott erau pline de menționări.
03:16
And this was the bigmare storypoveste of the day at that time.
71
181000
2000
Iar asta era marea știre a zilei atunci.
03:18
That's how differentdiferit these resultsrezultate are becomingdevenire.
72
183000
3000
Iată cât de diferite devin aceste rezultate.
03:21
So it's not just GoogleGoogle and FacebookFacebook eitherfie.
73
186000
3000
Dar nu e vorba numai de Google și Facebook.
03:24
This is something that's sweepingmăturat the WebWeb.
74
189000
2000
E un fenomen care traversează tot Internetul.
03:26
There are a wholeîntreg hostgazdă of companiescompanii that are doing this kinddrăguț of personalizationPersonalizare.
75
191000
3000
O mulțime de companii fac astfel de personalizari.
03:29
YahooYahoo NewsStiri, the biggestCea mai mare newsștiri siteteren on the InternetInternet,
76
194000
3000
Yahoo News, cel mai mare site de știri de pe Internet
03:32
is now personalizedpersonalizate -- differentdiferit people get differentdiferit things.
77
197000
3000
e personalizat acum -- oameni diferiți primesc răspunsuri diferite.
03:36
HuffingtonHuffington PostPost, the WashingtonWashington PostPost, the NewNoi YorkYork TimesOri --
78
201000
3000
Huffington Post, Washington Post, The New York Times --
03:39
all flirtingflirtezi with personalizationPersonalizare in variousvariat waysmoduri.
79
204000
3000
toți personalizează cu diverse filtre.
03:42
And this movesmișcări us very quicklyrepede
80
207000
3000
Iar asta ne împinge foarte rapid
03:45
towardspre a worldlume in whichcare
81
210000
2000
către o lume în care
03:47
the InternetInternet is showingarătând us what it thinkscrede we want to see,
82
212000
4000
Internetul ne oferă ce crede că vrem să vedem,
03:51
but not necessarilyîn mod necesar what we need to see.
83
216000
3000
dar nu neaparat ce avem nevoie să vedem.
03:54
As EricEric SchmidtSchmidt said,
84
219000
3000
După cum spnea Eric Schmidt,
03:57
"It will be very hardgreu for people to watch or consumea consuma something
85
222000
3000
"Va fi foarte greu ca oamenii să se uite sau să consume ceva
04:00
that has not in some sensesens
86
225000
2000
care nu a fost, într-un fel
04:02
been tailoredadaptate for them."
87
227000
3000
croit pentru ei."
04:05
So I do think this is a problemproblemă.
88
230000
2000
Eu cred că asta e o problemă.
04:07
And I think, if you take all of these filtersfiltre togetherîmpreună,
89
232000
3000
Și cred că dacă iei împreună toate aceste filtre,
04:10
you take all these algorithmsalgoritmi,
90
235000
2000
iei toți acești algoritmi,
04:12
you get what I call a filterfiltru bubblebalon.
91
237000
3000
obții un turn de fildeș, un spațiu filtrat.
04:16
And your filterfiltru bubblebalon is your ownpropriu personalpersonal,
92
241000
3000
Iar turnul tău de fildeș este
04:19
uniqueunic universeunivers of informationinformație
93
244000
2000
universul tău personal de informație
04:21
that you livetrăi in onlinepe net.
94
246000
2000
în care trăiești on-line.
04:23
And what's in your filterfiltru bubblebalon
95
248000
3000
Iar ce se află în această proximitate filtrată
04:26
dependsdepinde on who you are, and it dependsdepinde on what you do.
96
251000
3000
depinde de cine ești și ce faci.
04:29
But the thing is that you don't decidea decide what getsdevine in.
97
254000
4000
Problema însă e că nu tu decizi ce intră în acest spațiu.
04:33
And more importantlyimportant,
98
258000
2000
Chiar mai important,
04:35
you don't actuallyde fapt see what getsdevine editededitat out.
99
260000
3000
nu vezi ce se șterge.
04:38
So one of the problemsProbleme with the filterfiltru bubblebalon
100
263000
2000
Așa că, una din problemele cu filtrarea
04:40
was discovereddescoperit by some researcherscercetători at NetflixNetflix.
101
265000
3000
a fost descoperită de niște cercetători la Netflix.
04:43
And they were looking at the NetflixNetflix queuescozi, and they noticeda observat something kinddrăguț of funnyamuzant
102
268000
3000
Ei se uitau la listele Netflix și au observat ceva ciudat
04:46
that a lot of us probablyprobabil have noticeda observat,
103
271000
2000
ce probabil mulți am observat,
04:48
whichcare is there are some moviesfilme
104
273000
2000
și anume că există unele filme
04:50
that just sortfel of zipzip right up and out to our housescase.
105
275000
3000
care apar imediat la noi în casă.
04:53
They enterintroduce the queuecoadă, they just zipzip right out.
106
278000
3000
Cum intră în listă sunt ditecționate imediat către noi.
04:56
So "IronFier Man" zipsfermoare right out,
107
281000
2000
Astfel, "Iron Man" apare imediat,
04:58
and "WaitingÎn aşteptare for SupermanSuperman"
108
283000
2000
iar "Waiting for Superman"
05:00
can wait for a really long time.
109
285000
2000
poate aștepta mult timp.
05:02
What they discovereddescoperit
110
287000
2000
Ceea ce au descoperit
05:04
was that in our NetflixNetflix queuescozi
111
289000
2000
a fost că în listele noastre de Netflix
05:06
there's this epicepic strugglelupta going on
112
291000
3000
se duce o luptă crâncenă între
05:09
betweenîntre our futureviitor aspirationalaspiraţii selvesSinele
113
294000
3000
aspirațiile eu-lui nostru viitor
05:12
and our more impulsiveimpulsiv presentprezent selvesSinele.
114
297000
3000
și eu-ul mai impulsiv din prezent.
05:15
You know we all want to be someonecineva
115
300000
2000
Toți vrem să fim cineva
05:17
who has watchedvizionat "RashomonRashomon,"
116
302000
2000
care a vizionat filmul 'Rashomon',
05:19
but right now
117
304000
2000
însă momentan,
05:21
we want to watch "AceAce VenturaVentura" for the fourthAl patrulea time.
118
306000
3000
vrem să ne uităm la Ace Ventura a patra oara.
05:24
(LaughterRâs)
119
309000
3000
(Râsete)
05:27
So the bestCel mai bun editingeditare gives us a bitpic of bothambii.
120
312000
2000
O editare bună ne dă puțin din amândouă.
05:29
It gives us a little bitpic of JustinJustin BieberBieber
121
314000
2000
Ne dă un pic de Justin Bieber
05:31
and a little bitpic of AfghanistanAfganistan.
122
316000
2000
și un pic de Afganistan.
05:33
It gives us some informationinformație vegetableslegume;
123
318000
2000
Ne hrănește și cu ceva informații-vegetale
05:35
it gives us some informationinformație dessertdesert.
124
320000
3000
și cu informații-desert.
05:38
And the challengeprovocare with these kindstipuri of algorithmicalgoritmice filtersfiltre,
125
323000
2000
Problema cu aceste filtre algoritmice,
05:40
these personalizedpersonalizate filtersfiltre,
126
325000
2000
aceste filtre personalizate,
05:42
is that, because they're mainlymai ales looking
127
327000
2000
e că se uită în principal
05:44
at what you clickclic on first,
128
329000
4000
la ce ai apăsat prima dată
05:48
it can throwarunca off that balanceechilibru.
129
333000
4000
și pot dezechilibra acea balanță.
05:52
And insteadin schimb of a balancedechilibrat informationinformație dietcura de slabire,
130
337000
3000
În loc de o dieta informațională echilibrată
05:55
you can endSfârşit up surroundedinconjurat
131
340000
2000
ajungi să fi înconjurat
05:57
by informationinformație junkdeșeuri foodalimente.
132
342000
2000
de informații - junk-food.
05:59
What this suggestssugerează
133
344000
2000
Asta sugrează de fapt
06:01
is actuallyde fapt that we mayMai have the storypoveste about the InternetInternet wronggresit.
134
346000
3000
că poate înțelegem greșit rolul Internetului.
06:04
In a broadcastdifuzare societysocietate --
135
349000
2000
Într-o societate de transmisiuni --
06:06
this is how the foundingfondator mythologyMitologie goesmerge --
136
351000
2000
așa spune mitologia fondării --
06:08
in a broadcastdifuzare societysocietate,
137
353000
2000
într-o societate de transmisiuni
06:10
there were these gatekeeperspaznici, the editorseditori,
138
355000
2000
existau acești paznici care editau
06:12
and they controlleddirijat the flowsfluxurile of informationinformație.
139
357000
3000
și controlau fluxul informațiilor.
06:15
And alongde-a lungul camea venit the InternetInternet and it sweptmăturat them out of the way,
140
360000
3000
Când a apărut Internetul au fost înlăturați
06:18
and it allowedpermis all of us to connectconectați togetherîmpreună,
141
363000
2000
și ne-a permis tuturor să ne conectăm împreună
06:20
and it was awesomeminunat.
142
365000
2000
și a fost grozav.
06:22
But that's not actuallyde fapt what's happeninglucru right now.
143
367000
3000
Dar nu asta se întamplă acum.
06:26
What we're seeingvedere is more of a passingtrecere of the torchlanternă
144
371000
3000
Ce vedem e mai degrabă predarea torței
06:29
from humanuman gatekeeperspaznici
145
374000
2000
de la paznicii umani
06:31
to algorithmicalgoritmice onescele.
146
376000
3000
la cei algoritmici.
06:34
And the thing is that the algorithmsalgoritmi
147
379000
3000
Dar algoritmii
06:37
don't yetinca have the kinddrăguț of embeddedîncorporat ethicsetica
148
382000
3000
nu au încă încorporat genul de etică
06:40
that the editorseditori did.
149
385000
3000
pe care-l aveau editorii.
06:43
So if algorithmsalgoritmi are going to curatepreot the worldlume for us,
150
388000
3000
Iar dacă algoritmii ne vor filtra lumea,
06:46
if they're going to decidea decide what we get to see and what we don't get to see,
151
391000
3000
dacă ei vor decide ce vedem și ce nu
06:49
then we need to make sure
152
394000
2000
atunci trebuie să ne asigurăm
06:51
that they're not just keyedtastat to relevancerelevanţă.
153
396000
3000
că nu sunt ajustate doar de relevanță.
06:54
We need to make sure that they alsode asemenea showspectacol us things
154
399000
2000
Trebuie să ne asigurăm că ne arată și lucruri
06:56
that are uncomfortableincomod or challengingprovocator or importantimportant --
155
401000
3000
incomode, provocatoare sau importante --
06:59
this is what TEDTED does --
156
404000
2000
cum face TED --
07:01
other pointspuncte of viewvedere.
157
406000
2000
unghiuri opozante.
07:03
And the thing is, we'vene-am actuallyde fapt been here before
158
408000
2000
Am mai fost în trecut
07:05
as a societysocietate.
159
410000
2000
în această situație ca societate.
07:08
In 1915, it's not like newspaperspresă were sweatingtranspiraţie a lot
160
413000
3000
În 1915 ziarele nu se străduiau prea mult
07:11
about theiral lor civiccivic responsibilitiesresponsabilități.
161
416000
3000
cu responsabilitățiile lor civice.
07:14
Then people noticeda observat
162
419000
2000
Apoi oamenii au observat
07:16
that they were doing something really importantimportant.
163
421000
3000
că făceau ceva foarte important.
07:19
That, in factfapt, you couldn'tnu a putut have
164
424000
2000
Au realizat că nu puteai să ai
07:21
a functioningfuncționare democracydemocraţie
165
426000
2000
o democrație funcțională
07:23
if citizenscetățeni didn't get a good flowcurgere of informationinformație,
166
428000
4000
dacă cetățenii nu primeau un flux de informații bun.
07:28
that the newspaperspresă were criticalcritic because they were actingactorie as the filterfiltru,
167
433000
3000
La început ziarele criticau și filtrau,
07:31
and then journalisticjurnalistice ethicsetica developeddezvoltat.
168
436000
2000
dar apoi s-a dezvoltat etica jurnalistică.
07:33
It wasn'tnu a fost perfectperfect,
169
438000
2000
Nu era perfect,
07:35
but it got us throughprin the last centurysecol.
170
440000
3000
dar ne-au servit bine secolul trecut.
07:38
And so now,
171
443000
2000
Dar acum într-un fel
07:40
we're kinddrăguț of back in 1915 on the WebWeb.
172
445000
3000
ne-am întors în 1915 pe Internet.
07:44
And we need the newnou gatekeeperspaznici
173
449000
3000
Avem nevoie de paznici noi
07:47
to encodecodifica that kinddrăguț of responsibilityresponsabilitate
174
452000
2000
care să includă acea responsabilitate
07:49
into the codecod that they're writingscris.
175
454000
2000
în codul pe care-l scriu.
07:51
I know that there are a lot of people here from FacebookFacebook and from GoogleGoogle --
176
456000
3000
Știu că sunt aici mulți de la Facebook și Google --
07:54
LarryLarry and SergeySerghei --
177
459000
2000
Larry și Sergey -
07:56
people who have helpeda ajutat buildconstrui the WebWeb as it is,
178
461000
2000
care au ajutat la construirea Internetului actual
07:58
and I'm gratefulrecunoscător for that.
179
463000
2000
și sunt recunoscător pentru asta.
08:00
But we really need you to make sure
180
465000
3000
Dar trebuie să ne asigurăm
08:03
that these algorithmsalgoritmi have encodedcodate in them
181
468000
3000
că acești algoritmi conțin în codul lor
08:06
a sensesens of the publicpublic life, a sensesens of civiccivic responsibilityresponsabilitate.
182
471000
3000
un sens al vieții publice, un simț al responsabilității civice.
08:09
We need you to make sure that they're transparenttransparent enoughdestul
183
474000
3000
Trebuie să ne asigurăm că sunt suficient de transparenți
08:12
that we can see what the rulesnorme are
184
477000
2000
încât să vedem regulile
08:14
that determinea determina what getsdevine throughprin our filtersfiltre.
185
479000
3000
care determină ce trece de filtrele noastre.
08:17
And we need you to give us some controlControl
186
482000
2000
Și avem nevoie să ne redați controlul
08:19
so that we can decidea decide
187
484000
2000
să putem decide
08:21
what getsdevine throughprin and what doesn't.
188
486000
3000
ce trece și ce nu trece.
08:24
Because I think
189
489000
2000
Deoarece eu cred
08:26
we really need the InternetInternet to be that thing
190
491000
2000
că Internetul trebuie să fie acel lucru
08:28
that we all dreamedvisat of it beingfiind.
191
493000
2000
la care toți am visat că va fi.
08:30
We need it to connectconectați us all togetherîmpreună.
192
495000
3000
Avem nevoie să ne aducă pe toți împreună.
08:33
We need it to introduceintroduce us to newnou ideasidei
193
498000
3000
Avem nevoie să ne expună la idei noi,
08:36
and newnou people and differentdiferit perspectivesperspective.
194
501000
3000
oameni noi și perspective diferite.
08:40
And it's not going to do that
195
505000
2000
Iar asta nu se va întâmpla
08:42
if it leavesfrunze us all isolatedizolat in a WebWeb of one.
196
507000
3000
dacă ne izolează într-un Internet de o persoană.
08:45
Thank you.
197
510000
2000
Vă mulțumesc.
08:47
(ApplauseAplauze)
198
512000
11000
(Aplauze)
Translated by Smaranda Farnoaga
Reviewed by Ariana Bleau Lugo

▲Back to top

ABOUT THE SPEAKER
Eli Pariser - Organizer and author
Pioneering online organizer Eli Pariser is the author of "The Filter Bubble," about how personalized search might be narrowing our worldview.

Why you should listen

Shortly after the September 11, 2001, attacks, Eli Pariser created a website calling for a multilateral approach to fighting terrorism. In the following weeks, over half a million people from 192 countries signed on, and Pariser rather unexpectedly became an online organizer. The website merged with MoveOn.org in November 2001, and Pariser -- then 20 years old -- joined the group to direct its foreign policy campaigns. He led what the New York Times Magazine called the "mainstream arm of the peace movement" -- tripling MoveOn's member base and demonstrating how large numbers of small donations could be mobilized through online engagement.

In 2004, Pariser became executive director of MoveOn. Under his leadership, MoveOn.org Political Action has grown to 5 million members and raised over $120 million from millions of small donors to support advocacy campaigns and political candidates. Pariser focused MoveOn on online-to-offline organizing, developing phone-banking tools and precinct programs in 2004 and 2006 that laid the groundwork for Barack Obama's extraordinary web-powered campaign. In 2008, Pariser transitioned the Executive Director role at MoveOn to Justin Ruben and became President of MoveOn’s board; he's now a senior fellow at the Roosevelt Institute.

His book The Filter Bubble is set for release May 12, 2011. In it, he asks how modern search tools -- the filter by which many of see the wider world -- are getting better and better and screening the wider world from us, by returning only the search results it "thinks" we want to see.

More profile about the speaker
Eli Pariser | Speaker | TED.com