ABOUT THE SPEAKER
Eli Pariser - Organizer and author
Pioneering online organizer Eli Pariser is the author of "The Filter Bubble," about how personalized search might be narrowing our worldview.

Why you should listen

Shortly after the September 11, 2001, attacks, Eli Pariser created a website calling for a multilateral approach to fighting terrorism. In the following weeks, over half a million people from 192 countries signed on, and Pariser rather unexpectedly became an online organizer. The website merged with MoveOn.org in November 2001, and Pariser -- then 20 years old -- joined the group to direct its foreign policy campaigns. He led what the New York Times Magazine called the "mainstream arm of the peace movement" -- tripling MoveOn's member base and demonstrating how large numbers of small donations could be mobilized through online engagement.

In 2004, Pariser became executive director of MoveOn. Under his leadership, MoveOn.org Political Action has grown to 5 million members and raised over $120 million from millions of small donors to support advocacy campaigns and political candidates. Pariser focused MoveOn on online-to-offline organizing, developing phone-banking tools and precinct programs in 2004 and 2006 that laid the groundwork for Barack Obama's extraordinary web-powered campaign. In 2008, Pariser transitioned the Executive Director role at MoveOn to Justin Ruben and became President of MoveOn’s board; he's now a senior fellow at the Roosevelt Institute.

His book The Filter Bubble is set for release May 12, 2011. In it, he asks how modern search tools -- the filter by which many of see the wider world -- are getting better and better and screening the wider world from us, by returning only the search results it "thinks" we want to see.

More profile about the speaker
Eli Pariser | Speaker | TED.com
TED2011

Eli Pariser: Beware online "filter bubbles"

Eli Pariser: Attenti alle "gabbie di filtri" in rete

Filmed:
5,309,238 views

Nel loro tentativo di fornire servizi su misura agli internauti (insieme a notizie e risultati di ricerca), le aziende virtuali (web companies) ci fanno involontariamente correre un rischio: rimanere intrappolati in una "gabbia di filtri" che ci ostacola l'accesso a informazioni che potrebbero stimolarci o allargare la nostra visione del mondo. Eli Pariser argomenta in modo convincente come questo rischio sia negativo per noi e per la democrazia.
- Organizer and author
Pioneering online organizer Eli Pariser is the author of "The Filter Bubble," about how personalized search might be narrowing our worldview. Full bio

Double-click the English transcript below to play the video.

00:15
MarkMark ZuckerbergZuckerberg,
0
0
2000
Mark Zuckerberg,
00:17
a journalistgiornalista was askingchiede him a questiondomanda about the newsnotizia feedalimentazione.
1
2000
3000
un giornalista gli aveva posto una domanda sulla logica delle notizie proposte.
00:20
And the journalistgiornalista was askingchiede him,
2
5000
2000
La domanda era,
00:22
"Why is this so importantimportante?"
3
7000
2000
"Perché è tanto importante?"
00:24
And ZuckerbergZuckerberg said,
4
9000
2000
E Zuckerberg,
00:26
"A squirrelscoiattolo dyingsta morendo in your frontdavanti yardiarda
5
11000
2000
"Uno scoiattolo morente nel tuo giardino
00:28
maypuò be more relevantpertinente to your interestsinteressi right now
6
13000
3000
potrebbe essere più vicino ai tuoi interessi, in questo momento,
00:31
than people dyingsta morendo in AfricaAfrica."
7
16000
3000
di quanto lo sia la gente che muore in Africa."
00:34
And I want to talk about
8
19000
2000
Io vi voglio parlare di quali risvolti
00:36
what a WebWeb basedbasato on that ideaidea of relevancerilevanza mightpotrebbe look like.
9
21000
3000
potrebbe avere una Rete che si basi sull'aspetto di rilevanza delle notizie.
00:40
So when I was growingin crescita up
10
25000
2000
Durante la mia adolescenza
00:42
in a really ruralrurale areala zona in MaineMaine,
11
27000
2000
in una zona rurale del Maine,
00:44
the InternetInternet meantsignificava something very differentdiverso to me.
12
29000
3000
Internet aveva per me un significato molto diverso.
00:47
It meantsignificava a connectionconnessione to the worldmondo.
13
32000
2000
Era una connessione con il mondo.
00:49
It meantsignificava something that would connectCollegare us all togetherinsieme.
14
34000
3000
Qualcosa che ci avrebbe unito tutti.
00:52
And I was sure that it was going to be great for democracydemocrazia
15
37000
3000
Ero sicuro che sarebbe stato grandioso per la democrazia
00:55
and for our societysocietà.
16
40000
3000
e per la società.
00:58
But there's this shiftcambio
17
43000
2000
Ma ora c'è questo cambiamento
01:00
in how informationinformazione is flowingfluente onlinein linea,
18
45000
2000
del modo in cui le informazioni vengono fornite,
01:02
and it's invisibleinvisibile.
19
47000
3000
ed è impercettibile.
01:05
And if we don't paypagare attentionAttenzione to it,
20
50000
2000
Se non gli prestiamo attenzione
01:07
it could be a realvero problemproblema.
21
52000
3000
ci potremmo trovare presto nei guai.
01:10
So I first noticedsi accorse this in a placeposto I spendtrascorrere a lot of time --
22
55000
3000
Ho cominciato a rendermene conto in un luogo in cui passo molto tempo --
01:13
my FacebookFacebook pagepagina.
23
58000
2000
la mia pagina di Facebook.
01:15
I'm progressiveprogressivo, politicallypoliticamente -- biggrande surprisesorpresa --
24
60000
3000
Politicamente -- senti senti -- sono progressista --
01:18
but I've always goneandato out of my way to meetincontrare conservativesconservatori.
25
63000
2000
ma sono sempre stato aperto alle idee dei conservatori.
01:20
I like hearingudito what they're thinkingpensiero about;
26
65000
2000
Mi piace ascoltare come la pensino;
01:22
I like seeingvedendo what they linkcollegamento to;
27
67000
2000
vedere i loro riferimenti;
01:24
I like learningapprendimento a thing or two.
28
69000
2000
mi piace sempre imparare qualcosa.
01:26
And so I was surprisedsorpreso when I noticedsi accorse one day
29
71000
3000
Perciò un giorno sono rimasto sorpreso nel vedere
01:29
that the conservativesconservatori had disappearedscomparso from my FacebookFacebook feedalimentazione.
30
74000
3000
che i conservatori erano scomparsi dal mio aggregatore di notizie su Facebook.
01:33
And what it turnedtrasformato out was going on
31
78000
2000
E quello che ho scoperto
01:35
was that FacebookFacebook was looking at whichquale linkslink I clickedcliccato on,
32
80000
4000
è che Facebook prendeva nota dei siti che visitavo
01:39
and it was noticingnotando that, actuallyin realtà,
33
84000
2000
determinando che, effettivamente,
01:41
I was clickingclic more on my liberalliberale friends'degli amici linkslink
34
86000
2000
visitavo maggiormente i siti dei miei amici liberali
01:43
than on my conservativeprudente friends'degli amici linkslink.
35
88000
3000
rispetto a quelli degli amici conservatori.
01:46
And withoutsenza consultingconsulenza me about it,
36
91000
2000
E senza alcun preavviso
01:48
it had editedmodificato them out.
37
93000
2000
li ha esclusi dal mio mondo.
01:50
They disappearedscomparso.
38
95000
3000
Scomparsi.
01:54
So FacebookFacebook isn't the only placeposto
39
99000
2000
Ma Facebook non è l'unico
01:56
that's doing this kindgenere of invisibleinvisibile, algorithmicalgoritmico
40
101000
2000
a operare questa selezione algoritmica e invisibile
01:58
editingla modifica of the WebWeb.
41
103000
3000
dei contenuti della Rete.
02:01
Google'sDi Google doing it too.
42
106000
2000
Anche Google lo fa.
02:03
If I searchricerca for something, and you searchricerca for something,
43
108000
3000
Se io e te facciamo una ricerca,
02:06
even right now at the very samestesso time,
44
111000
2000
proprio adesso e contemporaneamente,
02:08
we maypuò get very differentdiverso searchricerca resultsrisultati.
45
113000
3000
potremmo ottenere risultati molto diversi.
02:11
Even if you're loggedregistrati out, one engineeringegnere told me,
46
116000
3000
Anche se non sei connesso, mi ha detto un ingegnere,
02:14
there are 57 signalssegnali
47
119000
2000
ci sono 57 segnali
02:16
that GoogleGoogle lookssembra at --
48
121000
3000
che vengono analizzati da Google --
02:19
everything from what kindgenere of computercomputer you're on
49
124000
3000
qualsiasi cosa, dal computer che stai utilizzando
02:22
to what kindgenere of browserBrowser you're usingutilizzando
50
127000
2000
al tuo programma di navigazione,
02:24
to where you're locatedcollocato --
51
129000
2000
e anche dove ti trovi --
02:26
that it usesusi to personallypersonalmente tailorsarto your queryquery resultsrisultati.
52
131000
3000
li usa per adattare a te i risultati della ricerca.
02:29
Think about it for a secondsecondo:
53
134000
2000
Pensateci un attimo:
02:31
there is no standardstandard GoogleGoogle anymorepiù.
54
136000
4000
non c'è più un Google uguale per tutti.
02:35
And you know, the funnydivertente thing about this is that it's harddifficile to see.
55
140000
3000
E sapete, la cosa divertente è che non è facile accorgersene.
02:38
You can't see how differentdiverso your searchricerca resultsrisultati are
56
143000
2000
Voi non potete vedere quanto i risultati della vostra ricerca
02:40
from anyonechiunque else'sdi qualcun'altro.
57
145000
2000
siano diversi da quelli degli altri.
02:42
But a couplecoppia of weekssettimane agofa,
58
147000
2000
Un paio di settimane fa
02:44
I askedchiesto a bunchmazzo of friendsamici to GoogleGoogle "EgyptEgitto"
59
149000
3000
ho chiesto ad alcuni amici di Google "Egitto"
02:47
and to sendinviare me screenschermo shotsscatti of what they got.
60
152000
3000
di inviarmi le loro schermate della pagina principale del sito.
02:50
So here'secco my friendamico Scott'sDi Scott screenschermo shottiro.
61
155000
3000
Questa è quella del mio amico Scott.
02:54
And here'secco my friendamico Daniel'sDi Daniel screenschermo shottiro.
62
159000
3000
E questa è quella di Daniel.
02:57
When you put them side-by-sideside-by-side,
63
162000
2000
Se le confrontate
02:59
you don't even have to readleggere the linkslink
64
164000
2000
non c'è nemmeno bisogno di leggere i collegamenti
03:01
to see how differentdiverso these two pagespagine are.
65
166000
2000
per notare quanto siano diverse.
03:03
But when you do readleggere the linkslink,
66
168000
2000
Ma se poi leggete i collegamenti
03:05
it's really quiteabbastanza remarkablenotevole.
67
170000
3000
scoprirete qualcosa di interessante.
03:09
DanielDaniel didn't get anything about the protestsproteste in EgyptEgitto at all
68
174000
3000
Sul sito di Daniel non c'erano riferimenti alle proteste in Egitto
03:12
in his first pagepagina of GoogleGoogle resultsrisultati.
69
177000
2000
nella prima pagina di risultati.
03:14
Scott'sDi Scott resultsrisultati were fullpieno of them.
70
179000
2000
Mentre quella di Scott ne era piena.
03:16
And this was the biggrande storystoria of the day at that time.
71
181000
2000
Questa era la notizia del giorno all'epoca.
03:18
That's how differentdiverso these resultsrisultati are becomingdiventando.
72
183000
3000
Ecco quanto possono essere diversi i risultati.
03:21
So it's not just GoogleGoogle and FacebookFacebook eithero.
73
186000
3000
E non è limitato a Google e Facebook.
03:24
This is something that's sweepingradicale the WebWeb.
74
189000
2000
Sta succedendo dappertutto nella Rete.
03:26
There are a wholetotale hostospite of companiesaziende that are doing this kindgenere of personalizationpersonalizzazione.
75
191000
3000
C'è un gran numero di aziende che sta operando questa personalizzazione.
03:29
YahooYahoo NewsNotizie, the biggestmaggiore newsnotizia siteluogo on the InternetInternet,
76
194000
3000
Yahoo News, il maggiore sito di notizie di Internet
03:32
is now personalizedpersonalizzato -- differentdiverso people get differentdiverso things.
77
197000
3000
ora è personalizzato -- persone diverse ottengono informazioni diverse.
03:36
HuffingtonHuffington PostInserisci, the WashingtonWashington PostInserisci, the NewNuovo YorkYork TimesVolte --
78
201000
3000
L'Huffington Post, il Wasihngton Post, il New York Times --
03:39
all flirtingflirtare with personalizationpersonalizzazione in variousvario waysmodi.
79
204000
3000
tutti, in vari modi, civettano con la personalizzazione.
03:42
And this movessi muove us very quicklyvelocemente
80
207000
3000
E ci troveremo presto
03:45
towardverso a worldmondo in whichquale
81
210000
2000
in un mondo in cui
03:47
the InternetInternet is showingmostrando us what it thinkspensa we want to see,
82
212000
4000
Internet ci mostrerà ciò che pensa noi vogliamo vedere,
03:51
but not necessarilynecessariamente what we need to see.
83
216000
3000
ma non necessariamente quello che dovremmo vedere.
03:54
As EricEric SchmidtSchmidt said,
84
219000
3000
Come ha detto Eric Schmidt,
03:57
"It will be very harddifficile for people to watch or consumeconsumare something
85
222000
3000
"Sarà molto difficile per le persone vedere o consumare qualcosa
04:00
that has not in some sensesenso
86
225000
2000
che non sia stato in qualche modo
04:02
been tailoredsu misura for them."
87
227000
3000
fatto su misura per loro."
04:05
So I do think this is a problemproblema.
88
230000
2000
E penso che questo sia un problema.
04:07
And I think, if you take all of these filtersfiltri togetherinsieme,
89
232000
3000
Penso che, se mettiamo insieme tutti questi filtri,
04:10
you take all these algorithmsalgoritmi,
90
235000
2000
tutti gli algoritmi,
04:12
you get what I call a filterfiltro bubblebolla.
91
237000
3000
otteniamo qualcosa che chiamo "gabbia di filtri".
04:16
And your filterfiltro bubblebolla is your ownproprio personalpersonale,
92
241000
3000
E la vostra gabbia rappresenta il vostro universo
04:19
uniqueunico universeuniverso of informationinformazione
93
244000
2000
personale e unico di informazioni
04:21
that you livevivere in onlinein linea.
94
246000
2000
che vivete online.
04:23
And what's in your filterfiltro bubblebolla
95
248000
3000
Ciò che troverete nella vostra gabbia
04:26
dependsdipende on who you are, and it dependsdipende on what you do.
96
251000
3000
dipende da chi siete e da che cosa fate.
04:29
But the thing is that you don't decidedecidere what getsprende in.
97
254000
4000
Il problema è che voi non prendete decisioni su cosa debba entrare.
04:33
And more importantlyimportante,
98
258000
2000
Ancora più importante,
04:35
you don't actuallyin realtà see what getsprende editedmodificato out.
99
260000
3000
non riuscite a vedere cosa ne resta fuori.
04:38
So one of the problemsi problemi with the filterfiltro bubblebolla
100
263000
2000
Dunque uno dei problemi di questa gabbia
04:40
was discoveredscoperto by some researchersricercatori at NetflixNetflix.
101
265000
3000
è stato scoperto da alcuni ricercatori di Netflix.
04:43
And they were looking at the NetflixNetflix queuesCode, and they noticedsi accorse something kindgenere of funnydivertente
102
268000
3000
Analizzando le richieste di noleggio di film degli utenti si sono accorti di qualcosa di strano
04:46
that a lot of us probablyprobabilmente have noticedsi accorse,
103
271000
2000
che forse hanno notato anche molti di voi,
04:48
whichquale is there are some moviesfilm
104
273000
2000
ossia che ci sono alcuni titoli
04:50
that just sortordinare of zipcerniera lampo right up and out to our housescase.
105
275000
3000
che appaiono o scompaiono dalle nostre liste.
04:53
They enteraccedere the queuecoda, they just zipcerniera lampo right out.
106
278000
3000
Entrano in lista ma all'improvviso vengono tolti.
04:56
So "IronFerro da stiro Man" zipscerniere right out,
107
281000
2000
E magari "Iron Man" scompare
04:58
and "WaitingIn attesa for SupermanSuperman"
108
283000
2000
mentre "Aspettando Superman"
05:00
can wait for a really long time.
109
285000
2000
ci rimane per molto tempo.
05:02
What they discoveredscoperto
110
287000
2000
Si sono accorti
05:04
was that in our NetflixNetflix queuesCode
111
289000
2000
che tra le liste di Netflix
05:06
there's this epicepica strugglelotta going on
112
291000
3000
è in corso una battaglia epica
05:09
betweenfra our futurefuturo aspirationalaspirazionale selvesSelves
113
294000
3000
tra le nostre aspirazioni future
05:12
and our more impulsiveimpulsivo presentpresente selvesSelves.
114
297000
3000
e quello che vogliamo impulsivamente adesso.
05:15
You know we all want to be someonequalcuno
115
300000
2000
Sapete, noi tutti vorremmo
05:17
who has watchedguardato "RashomonRashomon,"
116
302000
2000
aver visto "Rashomon",
05:19
but right now
117
304000
2000
ma in questo momento
05:21
we want to watch "AceAsso VenturaVentura" for the fourthil quarto time.
118
306000
3000
vogliamo guardare "Ace Ventura" per la quarta volta.
05:24
(LaughterRisate)
119
309000
3000
(Risate)
05:27
So the bestmigliore editingla modifica gives us a bitpo of bothentrambi.
120
312000
2000
Certo il massimo sarebbe avere un po' di entrambi.
05:29
It gives us a little bitpo of JustinJustin BieberBieber
121
314000
2000
Un po' di Justin Bieber
05:31
and a little bitpo of AfghanistanAfghanistan.
122
316000
2000
e un po' di Afghanistan.
05:33
It gives us some informationinformazione vegetablesverdure;
123
318000
2000
Un po' di contorno
05:35
it gives us some informationinformazione dessertdessert.
124
320000
3000
e un po' di dessert.
05:38
And the challengesfida with these kindstipi of algorithmicalgoritmico filtersfiltri,
125
323000
2000
La sfida con questo tipo di filtri algoritmici,
05:40
these personalizedpersonalizzato filtersfiltri,
126
325000
2000
questi filtri personalizzati,
05:42
is that, because they're mainlyprincipalmente looking
127
327000
2000
è che, dato che rilevano prevalentemente
05:44
at what you clickclic on first,
128
329000
4000
cosa viene cliccato per primo,
05:48
it can throwgettare off that balanceequilibrio.
129
333000
4000
possono alterare questo equilibrio.
05:52
And insteadanziché of a balancedequilibrato informationinformazione dietdieta,
130
337000
3000
E invece di informazioni equilibrate
05:55
you can endfine up surroundedcircondato
131
340000
2000
alla fine avrete
05:57
by informationinformazione junkgiunca foodcibo.
132
342000
2000
informazioni spazzatura.
05:59
What this suggestssuggerisce
133
344000
2000
Questo ci suggerisce
06:01
is actuallyin realtà that we maypuò have the storystoria about the InternetInternet wrongsbagliato.
134
346000
3000
che forse abbiamo interpretato male la storia di Internet.
06:04
In a broadcasttrasmissione societysocietà --
135
349000
2000
In una società di trasmisisoni --
06:06
this is how the foundingfondazione mythologymitologia goesva --
136
351000
2000
è così che nascono i miti --
06:08
in a broadcasttrasmissione societysocietà,
137
353000
2000
in una società di trasmissioni --
06:10
there were these gatekeepersGatekeeper, the editorsredattori,
138
355000
2000
c'erano i guardiani, gli editori,
06:12
and they controlledcontrollata the flowsflussi of informationinformazione.
139
357000
3000
che controllavano i flussi di informazioni.
06:15
And alonglungo cameè venuto the InternetInternet and it sweptspazzato them out of the way,
140
360000
3000
E poi venne Internet che li spazzò via
06:18
and it allowedpermesso all of us to connectCollegare togetherinsieme,
141
363000
2000
e permise a tutti noi di collegarci l'un l'altro,
06:20
and it was awesomeeccezionale.
142
365000
2000
ed era fantastico.
06:22
But that's not actuallyin realtà what's happeningavvenimento right now.
143
367000
3000
Ma non è quello che sta succedendo adesso.
06:26
What we're seeingvedendo is more of a passingpassaggio of the torchtorcia
144
371000
3000
Ciò a cui stiamo assistendo è più che altro il passaggio del testimone
06:29
from humanumano gatekeepersGatekeeper
145
374000
2000
dai guardiani umani
06:31
to algorithmicalgoritmico onesquelli.
146
376000
3000
a quelli algoritmici.
06:34
And the thing is that the algorithmsalgoritmi
147
379000
3000
Il problema è che gli algoritmi
06:37
don't yetancora have the kindgenere of embeddedinserito ethicsetica
148
382000
3000
non hanno ancora incorporato i principi etici
06:40
that the editorsredattori did.
149
385000
3000
propri degli editori.
06:43
So if algorithmsalgoritmi are going to curatecurato the worldmondo for us,
150
388000
3000
Dunque se gli algoritmi dovranno prendersi cura del mondo in nostra vece,
06:46
if they're going to decidedecidere what we get to see and what we don't get to see,
151
391000
3000
se ci diranno cosa vedere e cosa non vedere,
06:49
then we need to make sure
152
394000
2000
allora dobbiamo assicurarci
06:51
that they're not just keyedcon chiave to relevancerilevanza.
153
396000
3000
che non siano guidati unicamente dalla rilevanza.
06:54
We need to make sure that they alsoanche showmostrare us things
154
399000
2000
Dobbiamo far sì che ci mostrino anche cose
06:56
that are uncomfortablescomodo or challengingstimolante or importantimportante --
155
401000
3000
scomode o stimolanti o importanti --
06:59
this is what TEDTED does --
156
404000
2000
è quello che fa TED --
07:01
other pointspunti of viewvista.
157
406000
2000
punti di vista differenti.
07:03
And the thing is, we'venoi abbiamo actuallyin realtà been here before
158
408000
2000
Abbiamo già vissuto questa esperienza
07:05
as a societysocietà.
159
410000
2000
come società.
07:08
In 1915, it's not like newspapersgiornali were sweatingsudorazione a lot
160
413000
3000
Nel 1915 non è che i giornali si preoccupassero molto
07:11
about theirloro civiccivico responsibilitiesresponsabilità.
161
416000
3000
della loro responsabilità civile.
07:14
Then people noticedsi accorse
162
419000
2000
Ma poi la gente si accorse
07:16
that they were doing something really importantimportante.
163
421000
3000
che svolgevano un ruolo davvero importante.
07:19
That, in factfatto, you couldn'tnon poteva have
164
424000
2000
Che, in effetti, non si può avere
07:21
a functioningfunzionamento democracydemocrazia
165
426000
2000
una democrazia che funzioni
07:23
if citizenscittadini didn't get a good flowflusso of informationinformazione,
166
428000
4000
se i cittadini non hanno accesso all'informazione.
07:28
that the newspapersgiornali were criticalcritico because they were actingrecitazione as the filterfiltro,
167
433000
3000
Che i giornali erano fondamentali perché agivano da filtro,
07:31
and then journalisticgiornalistica ethicsetica developedsviluppato.
168
436000
2000
e poi è nata l'etica del giornalismo.
07:33
It wasn'tnon era perfectperfezionare,
169
438000
2000
Non era perfetta,
07:35
but it got us throughattraverso the last centurysecolo.
170
440000
3000
ma ci ha fatto attraversare lo scorso secolo.
07:38
And so now,
171
443000
2000
Ed ora
07:40
we're kindgenere of back in 1915 on the WebWeb.
172
445000
3000
ci troviamo nel 1915 della Rete.
07:44
And we need the newnuovo gatekeepersGatekeeper
173
449000
3000
Abbiamo bisogno di nuovi guardiani
07:47
to encodecodificare that kindgenere of responsibilityresponsabilità
174
452000
2000
che incorporino quel tipo di responsabilità
07:49
into the codecodice that they're writingscrittura.
175
454000
2000
nel codice che stanno scrivendo.
07:51
I know that there are a lot of people here from FacebookFacebook and from GoogleGoogle --
176
456000
3000
So che tra i presenti c'è gente di Facebook e Google --
07:54
LarryLarry and SergeySergey --
177
459000
2000
Larry e Sergey --
07:56
people who have helpedaiutato buildcostruire the WebWeb as it is,
178
461000
2000
gente che ha contribuito a costruire la Rete come è oggi,
07:58
and I'm gratefulgrato for that.
179
463000
2000
e sono loro grato per questo.
08:00
But we really need you to make sure
180
465000
3000
Ma c'è davvero bisogno di far sì che
08:03
that these algorithmsalgoritmi have encodedcon codifica in them
181
468000
3000
questi algoritmi contengano
08:06
a sensesenso of the publicpubblico life, a sensesenso of civiccivico responsibilityresponsabilità.
182
471000
3000
un senso di vita pubblica, di responsabilità civile.
08:09
We need you to make sure that they're transparenttrasparente enoughabbastanza
183
474000
3000
Dovete fare in modo che siano abbastanza trasparenti
08:12
that we can see what the rulesregole are
184
477000
2000
da consentirci di vedere le regole
08:14
that determinedeterminare what getsprende throughattraverso our filtersfiltri.
185
479000
3000
che determinano cosa può passare attraverso i filtri.
08:17
And we need you to give us some controlcontrollo
186
482000
2000
E dovete darci la facoltà di controllo,
08:19
so that we can decidedecidere
187
484000
2000
per decidere
08:21
what getsprende throughattraverso and what doesn't.
188
486000
3000
cosa può passare e cosa deve essere bloccato.
08:24
Because I think
189
489000
2000
Perché penso
08:26
we really need the InternetInternet to be that thing
190
491000
2000
che abbiamo bisogno che Internet sia davvero
08:28
that we all dreamedsognato of it beingessere.
191
493000
2000
quella cosa che abbiamo sempre sognato.
08:30
We need it to connectCollegare us all togetherinsieme.
192
495000
3000
Ne abbiamo bisogno per essere connessi tra di noi.
08:33
We need it to introduceintrodurre us to newnuovo ideasidee
193
498000
3000
Perché ci presenti nuove idee,
08:36
and newnuovo people and differentdiverso perspectivesprospettive.
194
501000
3000
nuove persone e prospettive differenti.
08:40
And it's not going to do that
195
505000
2000
E questo non sarà possibile
08:42
if it leavesle foglie us all isolatedisolato in a WebWeb of one.
196
507000
3000
se rimarremo isolati in una Rete individuale.
08:45
Thank you.
197
510000
2000
Grazie.
08:47
(ApplauseApplausi)
198
512000
11000
(Applausi)
Translated by Daniele Buratti
Reviewed by Elena Montrasio

▲Back to top

ABOUT THE SPEAKER
Eli Pariser - Organizer and author
Pioneering online organizer Eli Pariser is the author of "The Filter Bubble," about how personalized search might be narrowing our worldview.

Why you should listen

Shortly after the September 11, 2001, attacks, Eli Pariser created a website calling for a multilateral approach to fighting terrorism. In the following weeks, over half a million people from 192 countries signed on, and Pariser rather unexpectedly became an online organizer. The website merged with MoveOn.org in November 2001, and Pariser -- then 20 years old -- joined the group to direct its foreign policy campaigns. He led what the New York Times Magazine called the "mainstream arm of the peace movement" -- tripling MoveOn's member base and demonstrating how large numbers of small donations could be mobilized through online engagement.

In 2004, Pariser became executive director of MoveOn. Under his leadership, MoveOn.org Political Action has grown to 5 million members and raised over $120 million from millions of small donors to support advocacy campaigns and political candidates. Pariser focused MoveOn on online-to-offline organizing, developing phone-banking tools and precinct programs in 2004 and 2006 that laid the groundwork for Barack Obama's extraordinary web-powered campaign. In 2008, Pariser transitioned the Executive Director role at MoveOn to Justin Ruben and became President of MoveOn’s board; he's now a senior fellow at the Roosevelt Institute.

His book The Filter Bubble is set for release May 12, 2011. In it, he asks how modern search tools -- the filter by which many of see the wider world -- are getting better and better and screening the wider world from us, by returning only the search results it "thinks" we want to see.

More profile about the speaker
Eli Pariser | Speaker | TED.com