ABOUT THE SPEAKER
Eli Pariser - Organizer and author
Pioneering online organizer Eli Pariser is the author of "The Filter Bubble," about how personalized search might be narrowing our worldview.

Why you should listen

Shortly after the September 11, 2001, attacks, Eli Pariser created a website calling for a multilateral approach to fighting terrorism. In the following weeks, over half a million people from 192 countries signed on, and Pariser rather unexpectedly became an online organizer. The website merged with MoveOn.org in November 2001, and Pariser -- then 20 years old -- joined the group to direct its foreign policy campaigns. He led what the New York Times Magazine called the "mainstream arm of the peace movement" -- tripling MoveOn's member base and demonstrating how large numbers of small donations could be mobilized through online engagement.

In 2004, Pariser became executive director of MoveOn. Under his leadership, MoveOn.org Political Action has grown to 5 million members and raised over $120 million from millions of small donors to support advocacy campaigns and political candidates. Pariser focused MoveOn on online-to-offline organizing, developing phone-banking tools and precinct programs in 2004 and 2006 that laid the groundwork for Barack Obama's extraordinary web-powered campaign. In 2008, Pariser transitioned the Executive Director role at MoveOn to Justin Ruben and became President of MoveOn’s board; he's now a senior fellow at the Roosevelt Institute.

His book The Filter Bubble is set for release May 12, 2011. In it, he asks how modern search tools -- the filter by which many of see the wider world -- are getting better and better and screening the wider world from us, by returning only the search results it "thinks" we want to see.

More profile about the speaker
Eli Pariser | Speaker | TED.com
TED2011

Eli Pariser: Beware online "filter bubbles"

Eli Pariser: Uważaj na internetowe "bańki z filtrami"

Filmed:
5,309,238 views

Firmy internetowe dążą do dopasowywania swoich serwisów (również wiadomości i wyników wyszukiwania) do naszych gustów, co prowadzi do niebezpiecznej i niezamierzonej konsekwencji: wpadamy w pułapkę, w której nie są nam przedstawiane informacje, które mogłyby poddać w wątpliwość, albo poszerzyć nasz światopogląd. Eli Pariser dowodzi, że taki trend będzie negatywny dla nas i demokracji.
- Organizer and author
Pioneering online organizer Eli Pariser is the author of "The Filter Bubble," about how personalized search might be narrowing our worldview. Full bio

Double-click the English transcript below to play the video.

00:15
MarkMark ZuckerbergZuckerberg,
0
0
2000
Markowi Zuckerbergowi
00:17
a journalistdziennikarz was askingpytając him a questionpytanie about the newsAktualności feedkarmić.
1
2000
3000
dziennikarz zadał pytanie o kanały informacyjne.
00:20
And the journalistdziennikarz was askingpytając him,
2
5000
2000
Zapytał go:
00:22
"Why is this so importantważny?"
3
7000
2000
"Dlaczego są one takie istotne?"
00:24
And ZuckerbergZuckerberg said,
4
9000
2000
Zuckerberg powiedział:
00:26
"A squirrelWiewiórka dyingumierający in your frontz przodu yardYard
5
11000
2000
"Wiewiórka umierająca w twoim ogródku
00:28
maymoże be more relevantistotnych to your interestszainteresowania right now
6
13000
3000
może być bardziej dla ciebie istotna
00:31
than people dyingumierający in AfricaAfryka."
7
16000
3000
niż ludzie umierający w Afryce."
00:34
And I want to talk about
8
19000
2000
Chciałbym powiedzieć, jak
00:36
what a WebSieci Web basedna podstawie on that ideapomysł of relevancestosowność mightmoc look like.
9
21000
3000
może wyglądać Internet bazujący na takiej idei.
00:40
So when I was growingrozwój up
10
25000
2000
Kiedy dorastałem
00:42
in a really ruralwiejski areapowierzchnia in MaineMaine,
11
27000
2000
na wsi w stanie Maine,
00:44
the InternetInternet meantOznaczało something very differentróżne to me.
12
29000
3000
Internet oznaczał dla mnie coś bardzo odmiennego.
00:47
It meantOznaczało a connectionpołączenie to the worldświat.
13
32000
2000
Był połączeniem ze światem.
00:49
It meantOznaczało something that would connectpołączyć us all togetherRazem.
14
34000
3000
Czymś, co połączyłoby nas razem.
00:52
And I was sure that it was going to be great for democracydemokracja
15
37000
3000
Byłem pewien, że będzie wspaniały dla demokracji
00:55
and for our societyspołeczeństwo.
16
40000
3000
i naszego społeczeństwa.
00:58
But there's this shiftprzesunięcie
17
43000
2000
Jednak jest zmiana
01:00
in how informationInformacja is flowingpłynący onlineonline,
18
45000
2000
w przepływie informacji online,
01:02
and it's invisibleniewidzialny.
19
47000
3000
która jest niewidoczna.
01:05
And if we don't payzapłacić attentionUwaga to it,
20
50000
2000
Jeżeli nie zwrócimy na nią uwagi
01:07
it could be a realreal problemproblem.
21
52000
3000
może stać się problemem.
01:10
So I first noticedzauważyłem this in a placemiejsce I spendwydać a lot of time --
22
55000
3000
Pierwszy raz to zobaczyłem na swoim profilu na Facebook.
01:13
my FacebookFacebook pagestrona.
23
58000
2000
Pierwszy raz to zobaczyłem na swoim profilu na Facebook.
01:15
I'm progressiveprogresywny, politicallypolitycznie -- bigduży surpriseniespodzianka --
24
60000
3000
Jestem nowoczesny, politycznie (wielka niespodzianka)
01:18
but I've always goneodszedł out of my way to meetspotykać się conservativesKonserwatyści.
25
63000
2000
jednak zawsze wychodzę naprzeciw konserwatystom.
01:20
I like hearingprzesłuchanie what they're thinkingmyślący about;
26
65000
2000
Lubię słuchać tego, co mają do powiedzenia,
01:22
I like seeingwidzenie what they linkpołączyć to;
27
67000
2000
widzieć, do czego się odnoszą,
01:24
I like learninguczenie się a thing or two.
28
69000
2000
uczyć się paru rzeczy.
01:26
And so I was surprisedzaskoczony when I noticedzauważyłem one day
29
71000
3000
Zaskoczyło mnie pewnego dnia,
01:29
that the conservativesKonserwatyści had disappearedzniknął from my FacebookFacebook feedkarmić.
30
74000
3000
konserwatyści zniknęli z mojego Facebooka.
01:33
And what it turnedobrócony out was going on
31
78000
2000
Okazało się, że Facebook
01:35
was that FacebookFacebook was looking at whichktóry linksspinki do mankietów I clickedkliknięty on,
32
80000
4000
sprawdzał, co klikałem
01:39
and it was noticingzauważając that, actuallytak właściwie,
33
84000
2000
i zauważał, właściwie, że
01:41
I was clickingkliknięcie more on my liberalliberalne friends'znajomych linksspinki do mankietów
34
86000
2000
klikałem więcej na linki liberalnych znajomych
01:43
than on my conservativekonserwatywny friends'znajomych linksspinki do mankietów.
35
88000
3000
od linków konserwatywnych kolegów.
01:46
And withoutbez consultingordynacyjny me about it,
36
91000
2000
Bez mojej konsultacji
01:48
it had editededytowane them out.
37
93000
2000
odrzucał je.
01:50
They disappearedzniknął.
38
95000
3000
One zniknęły.
01:54
So FacebookFacebook isn't the only placemiejsce
39
99000
2000
Facebook nie jest jedynym miejscem,
01:56
that's doing this kinduprzejmy of invisibleniewidzialny, algorithmicalgorytmicznych
40
101000
2000
gdzie dokonywana jest ta niewidoczna,
01:58
editingredagowanie of the WebSieci Web.
41
103000
3000
algorytmiczna selekcja Internetu.
02:01
Google'sFirmy Google doing it too.
42
106000
2000
Google też to robi.
02:03
If I searchszukanie for something, and you searchszukanie for something,
43
108000
3000
Jeżeli będziemy szukali tego samego,
02:06
even right now at the very samepodobnie time,
44
111000
2000
nawet teraz w tym samym czasie
02:08
we maymoże get very differentróżne searchszukanie resultswyniki.
45
113000
3000
to możemy otrzymać różne wyniki.
02:11
Even if you're loggedrejestrowane out, one engineerinżynier told me,
46
116000
3000
Nawet, gdy nie jesteś zalogowany, powiedział mi jeden inżynier,
02:14
there are 57 signalssygnały
47
119000
2000
jest 57 sygnałów
02:16
that GoogleGoogle lookswygląda at --
48
121000
3000
na które patrzy Google.
02:19
everything from what kinduprzejmy of computerkomputer you're on
49
124000
3000
Poczynając od komputera,
02:22
to what kinduprzejmy of browserPrzeglądarka you're usingza pomocą
50
127000
2000
używanej przeglądarki,
02:24
to where you're locatedusytuowany --
51
129000
2000
po lokację, które
02:26
that it usesużywa to personallyosobiście tailorKrawiec your queryzapytanie resultswyniki.
52
131000
3000
kroją pod osobę wyniki wyszukiwania.
02:29
Think about it for a seconddruga:
53
134000
2000
Pomyśl przez chwilę,
02:31
there is no standardstandard GoogleGoogle anymorejuż.
54
136000
4000
nie ma już standardowego Google.
02:35
And you know, the funnyzabawny thing about this is that it's hardciężko to see.
55
140000
3000
Śmieszne jest to, że tego nie widać.
02:38
You can't see how differentróżne your searchszukanie resultswyniki are
56
143000
2000
Nie widać, jak różne są twoje
02:40
from anyonektokolwiek else'sw przeciwnym razie.
57
145000
2000
wyniki od czyichś.
02:42
But a couplepara of weekstygodnie agotemu,
58
147000
2000
Parę tygodnie temu,
02:44
I askedspytał a bunchwiązka of friendsprzyjaciele to GoogleGoogle "EgyptEgipt"
59
149000
3000
poprosiłem znajomych o wyszukanie "Egipt"
02:47
and to sendwysłać me screenekran shotsstrzały of what they got.
60
152000
3000
i przesłanie screenów z wynikami.
02:50
So here'soto jest my friendprzyjaciel Scott'sScott's screenekran shotstrzał.
61
155000
3000
To jest screen Scotta.
02:54
And here'soto jest my friendprzyjaciel Daniel'sDaniel's screenekran shotstrzał.
62
159000
3000
A to screen Daniela.
02:57
When you put them side-by-sideside-by-side,
63
162000
2000
Układając je koło siebie
02:59
you don't even have to readczytać the linksspinki do mankietów
64
164000
2000
nawet nie trzeba czytać linków
03:01
to see how differentróżne these two pagesstrony are.
65
166000
2000
by zobaczyć różnicę.
03:03
But when you do readczytać the linksspinki do mankietów,
66
168000
2000
Jeżeli przeczytasz linki
03:05
it's really quitecałkiem remarkableznakomity.
67
170000
3000
to znajdziesz coś niezwykłego.
03:09
DanielDaniel didn't get anything about the protestsprotesty in EgyptEgipt at all
68
174000
3000
Daniel nic nie otrzymał na temat protestów w Egipcie
03:12
in his first pagestrona of GoogleGoogle resultswyniki.
69
177000
2000
na pierwszej stronie wyników.
03:14
Scott'sScott's resultswyniki were fullpełny of them.
70
179000
2000
Strona Scotta była w nie obfita.
03:16
And this was the bigduży storyfabuła of the day at that time.
71
181000
2000
To było niezła historia swego czasu.
03:18
That's how differentróżne these resultswyniki are becomingtwarzowy.
72
183000
3000
Tak różne stały się teraz wyniki.
03:21
So it's not just GoogleGoogle and FacebookFacebook eitherzarówno.
73
186000
3000
Nie tylko Google i Facebook tak robi.
03:24
This is something that's sweepingzamaszysty the WebSieci Web.
74
189000
2000
Ten problem pomiata całą siecią.
03:26
There are a wholecały hostgospodarz of companiesfirmy that are doing this kinduprzejmy of personalizationPersonalizacja.
75
191000
3000
Istnieje cały szereg firm wykonujących taką personalizację.
03:29
YahooYahoo NewsAktualności, the biggestnajwiększy newsAktualności siteteren on the InternetInternet,
76
194000
3000
Yahoo News, największa strona internetowa z wiadomościami,
03:32
is now personalizedspersonalizowane -- differentróżne people get differentróżne things.
77
197000
3000
jest spersonalizowana, różni ludzie otrzymują różne wyniki.
03:36
HuffingtonHuffington PostStanowisko, the WashingtonWaszyngton PostStanowisko, the NewNowy YorkYork TimesRazy --
78
201000
3000
Huffington Post, Washington Post, New York Times,
03:39
all flirtingflirty with personalizationPersonalizacja in variousróżnorodny wayssposoby.
79
204000
3000
wszystkie bawią się z personalizacją na różne sposoby.
03:42
And this movesporusza się us very quicklyszybko
80
207000
3000
To idzie wszystko w kierunku
03:45
towardw kierunku a worldświat in whichktóry
81
210000
2000
świata, w którym Internet pokazuje
03:47
the InternetInternet is showingseans us what it thinksmyśli we want to see,
82
212000
4000
wyniki, które sam myśli, że chcemy,
03:51
but not necessarilykoniecznie what we need to see.
83
216000
3000
ale niekoniecznie to, co powinniśmy zobaczyć.
03:54
As EricEric SchmidtSchmidt said,
84
219000
3000
Tak, jak Eric Schmidt powiedział:
03:57
"It will be very hardciężko for people to watch or consumekonsumować something
85
222000
3000
"Będzie bardzo trudno ludziom oglądać, czy konsumować
04:00
that has not in some sensesens
86
225000
2000
coś, co w pewnym sensie
04:02
been tailoreddostosowane for them."
87
227000
3000
nie zostało do nich dostosowane."
04:05
So I do think this is a problemproblem.
88
230000
2000
Dlatego sądzę, że to jest problem.
04:07
And I think, if you take all of these filtersfiltry togetherRazem,
89
232000
3000
Sądzę, że biorąc wszystkie filtry razem,
04:10
you take all these algorithmsalgorytmy,
90
235000
2000
wszystkie te algorytmy,
04:12
you get what I call a filterfiltr bubblebańka.
91
237000
3000
otrzymamy coś, co nazywam bańką z filtrami.
04:16
And your filterfiltr bubblebańka is your ownwłasny personalosobisty,
92
241000
3000
Twoja bańka jest twoim własnym
04:19
uniquewyjątkowy universewszechświat of informationInformacja
93
244000
2000
unikalnym informacyjnym wszechświatem,
04:21
that you liverelacja na żywo in onlineonline.
94
246000
2000
w którym żyjesz online.
04:23
And what's in your filterfiltr bubblebańka
95
248000
3000
Zawartość bańki zależy od tego
04:26
dependszależy on who you are, and it dependszależy on what you do.
96
251000
3000
kim jesteś i co robisz.
04:29
But the thing is that you don't decidedecydować się what getsdostaje in.
97
254000
4000
Szkopuł w tym, że nie decydujesz o tym co trafia,
04:33
And more importantlyco ważne,
98
258000
2000
a co ważniejsze, co zostaje wycięte z wyników.
04:35
you don't actuallytak właściwie see what getsdostaje editededytowane out.
99
260000
3000
a co ważniejsze, co zostaje wycięte z wyników.
04:38
So one of the problemsproblemy with the filterfiltr bubblebańka
100
263000
2000
Pewien problem w bańkach z filtrami
04:40
was discoveredodkryty by some researchersnaukowcy at NetflixNetflix.
101
265000
3000
odkryli naukowcy z Netflix.
04:43
And they were looking at the NetflixNetflix queueskolejek, and they noticedzauważyłem something kinduprzejmy of funnyzabawny
102
268000
3000
Patrzyli na kolejki w Netflix i zauważyli coś dziwnego,
04:46
that a lot of us probablyprawdopodobnie have noticedzauważyłem,
103
271000
2000
co wieli z nas pewnie zauważyło,
04:48
whichktóry is there are some movieskino
104
273000
2000
że są niektóre filmy, które
04:50
that just sortsortować of zipzamek błyskawiczny right up and out to our housesdomy.
105
275000
3000
wpadają i wypadają z naszych domów.
04:53
They enterwchodzić the queuekolejka, they just zipzamek błyskawiczny right out.
106
278000
3000
Wchodzą do kolejki i zaraz z niej wypadają.
04:56
So "IronŻelazko Man" zipsZamki błyskawiczne right out,
107
281000
2000
"Iron Man" tak wypada,
04:58
and "WaitingCzeka for SupermanSuperman"
108
283000
2000
"Waiting for Superman" również
05:00
can wait for a really long time.
109
285000
2000
może czekać długi czas.
05:02
What they discoveredodkryty
110
287000
2000
Odkryli, że w kolejkach
05:04
was that in our NetflixNetflix queueskolejek
111
289000
2000
Netflix toczy się walka
05:06
there's this epicEpic struggleborykać się going on
112
291000
3000
pomiędzy naszymi przyszłymi
05:09
betweenpomiędzy our futureprzyszłość aspirationalaspiracji selvessamych
113
294000
3000
ambicjami, a teraźniejszymi
05:12
and our more impulsiveimpulsywny presentteraźniejszość selvessamych.
114
297000
3000
impulsywnymi osobowościami.
05:15
You know we all want to be someonektoś
115
300000
2000
Wszyscy chcielibyśmy być
05:17
who has watchedoglądaliśmy "RashomonRashōmon –,"
116
302000
2000
kimś, kto oglądał "Rashomon",
05:19
but right now
117
304000
2000
ale w tej chwili
05:21
we want to watch "AceACE VenturaVentura" for the fourthczwarty time.
118
306000
3000
chcemy oglądać po raz czwarty "Ace Ventura".
05:24
(LaughterŚmiech)
119
309000
3000
(Śmiech)
05:27
So the bestNajlepiej editingredagowanie givesdaje us a bitkawałek of bothobie.
120
312000
2000
Najlepsze dopasowanie daje nam coś z ich obu.
05:29
It givesdaje us a little bitkawałek of JustinJustin BieberBieber
121
314000
2000
Trochę Justina Biebera
05:31
and a little bitkawałek of AfghanistanAfganistan.
122
316000
2000
i trochę Afganistanu.
05:33
It givesdaje us some informationInformacja vegetableswarzywa;
123
318000
2000
Daje nam trochę warzyw,
05:35
it givesdaje us some informationInformacja dessertdeser.
124
320000
3000
tak jak i trochę deseru.
05:38
And the challengewyzwanie with these kindsrodzaje of algorithmicalgorytmicznych filtersfiltry,
125
323000
2000
Wyzwaniem tych algorytmów w filtrach,
05:40
these personalizedspersonalizowane filtersfiltry,
126
325000
2000
personalizujących filtrów,
05:42
is that, because they're mainlygłównie looking
127
327000
2000
jest to, ponieważ patrzą one
05:44
at what you clickKliknij on first,
128
329000
4000
na co się najpierw kliknie
05:48
it can throwrzucać off that balancesaldo.
129
333000
4000
co może wytrącić je z równowagi.
05:52
And insteadzamiast of a balancedzrównoważony informationInformacja dietdieta,
130
337000
3000
Zamiast zbalansowanej diety,
05:55
you can endkoniec up surroundedotoczony
131
340000
2000
możesz skończyć otoczonym
05:57
by informationInformacja junkdżonka foodjedzenie.
132
342000
2000
przez śmieci informacyjne.
05:59
What this suggestswskazuje
133
344000
2000
Sugeruje to, że rzeczywiście
06:01
is actuallytak właściwie that we maymoże have the storyfabuła about the InternetInternet wrongźle.
134
346000
3000
możemy mieć trop, że Internet idzie w złym kierunku.
06:04
In a broadcasttransmisji societyspołeczeństwo --
135
349000
2000
W rozgłaszającym społeczeństwie,
06:06
this is how the foundingzałożenie mythologyMitologia goesidzie --
136
351000
2000
tak brzmi podstawowa mitologia,
06:08
in a broadcasttransmisji societyspołeczeństwo,
137
353000
2000
w takim społeczeństwie,
06:10
there were these gatekeepersStrażnicy, the editorsRedakcja,
138
355000
2000
byli strażnicy, redaktorzy,
06:12
and they controlledkontrolowane the flowsprzepływy of informationInformacja.
139
357000
3000
którzy kontrolowali przepływ informacji.
06:15
And alongwzdłuż cameoprawa ołowiana witrażu the InternetInternet and it sweptzmieciony them out of the way,
140
360000
3000
Przyszedł internet i ich wymiótł,
06:18
and it alloweddozwolony all of us to connectpołączyć togetherRazem,
141
363000
2000
co pozwoliło nam się nawzajem połączyć,
06:20
and it was awesomeniesamowite.
142
365000
2000
a to jest niesamowite.
06:22
But that's not actuallytak właściwie what's happeningwydarzenie right now.
143
367000
3000
Jednak nie to teraz się dzieje.
06:26
What we're seeingwidzenie is more of a passingprzechodzący of the torchpochodnia
144
371000
3000
Widzimy podawanie sobie pochodni
06:29
from humanczłowiek gatekeepersStrażnicy
145
374000
2000
od strażników do ich
06:31
to algorithmicalgorytmicznych oneste.
146
376000
3000
algorytmicznych odpowiedników.
06:34
And the thing is that the algorithmsalgorytmy
147
379000
3000
Z algorytmami jest tak, że
06:37
don't yetjeszcze have the kinduprzejmy of embeddedosadzone ethicsEtyka
148
382000
3000
nie posiadają wbudowanej etyki,
06:40
that the editorsRedakcja did.
149
385000
3000
którą mieli redaktorzy.
06:43
So if algorithmsalgorytmy are going to curatewikary the worldświat for us,
150
388000
3000
Jeżeli algorytmy będą naszymi kuratorami,
06:46
if they're going to decidedecydować się what we get to see and what we don't get to see,
151
391000
3000
będą decydowały o tym co widzimy, a co nie,
06:49
then we need to make sure
152
394000
2000
to musimy się upewnić,
06:51
that they're not just keyedZaszyfrowanie to relevancestosowność.
153
396000
3000
że nie steruje ich związek.
06:54
We need to make sure that they alsorównież showpokazać us things
154
399000
2000
Upewnijmy się, że również pokazują nam rzeczy,
06:56
that are uncomfortableniewygodny or challengingtrudne or importantważny --
155
401000
3000
które są niewygodnie, wyzywające, czy ważne,
06:59
this is what TEDTED does --
156
404000
2000
to co robi TED,
07:01
other pointszwrotnica of viewwidok.
157
406000
2000
inne punkty widzenia.
07:03
And the thing is, we'vemamy actuallytak właściwie been here before
158
408000
2000
Już tu byliśmy jako społeczność, taka prawda.
07:05
as a societyspołeczeństwo.
159
410000
2000
Już tu byliśmy jako społeczność, taka prawda.
07:08
In 1915, it's not like newspapersgazety were sweatingpocenie się a lot
160
413000
3000
W 1915, gazety nie przejmowały się za bardzo
07:11
about theirich civicobywatelski responsibilitiesobowiązki.
161
416000
3000
obywatelskimi obowiązkami.
07:14
Then people noticedzauważyłem
162
419000
2000
Potem ludzie zauważyli, że
07:16
that they were doing something really importantważny.
163
421000
3000
one robiły coś bardzo ważnego.
07:19
That, in factfakt, you couldn'tnie mógł have
164
424000
2000
Naprawdę nie można
07:21
a functioningfunkcjonowanie democracydemokracja
165
426000
2000
mieć funkcjonującej demokracji,
07:23
if citizensobywatele didn't get a good flowpływ of informationInformacja,
166
428000
4000
jeżeli obywatele nie mają dobrego przepływu informacji.
07:28
that the newspapersgazety were criticalkrytyczny because they were actinggra aktorska as the filterfiltr,
167
433000
3000
Gazety były istotne, bo działały jak filtr,
07:31
and then journalisticdziennikarskie ethicsEtyka developedrozwinięty.
168
436000
2000
a potem etyka dziennikarska się rozwinęła.
07:33
It wasn'tnie było perfectidealny,
169
438000
2000
Nie było to perfekcyjne,
07:35
but it got us throughprzez the last centurystulecie.
170
440000
3000
ale przetrwaliśmy dzięki temu poprzedni wiek.
07:38
And so now,
171
443000
2000
Teraz, wróciliśmy
07:40
we're kinduprzejmy of back in 1915 on the WebSieci Web.
172
445000
3000
tak jakby do 1915 w sieci.
07:44
And we need the newNowy gatekeepersStrażnicy
173
449000
3000
Potrzebujemy nowych strażników
07:47
to encodekodowanie that kinduprzejmy of responsibilityodpowiedzialność
174
452000
2000
by zawarli tą odpowiedzialność
07:49
into the codekod that they're writingpisanie.
175
454000
2000
w kodzie, który piszą.
07:51
I know that there are a lot of people here from FacebookFacebook and from GoogleGoogle --
176
456000
3000
Wiem, że jest tu wiele ludzi z Facebooka i Google,
07:54
LarryLarry and SergeySiergiej --
177
459000
2000
Larry i Sergiej,
07:56
people who have helpedpomógł buildbudować the WebSieci Web as it is,
178
461000
2000
ludzie, którzy pomogli zbudować sieć taką, jaką jest,
07:58
and I'm gratefulwdzięczny for that.
179
463000
2000
za to jestem im wdzięczny.
08:00
But we really need you to make sure
180
465000
3000
Potrzebujemy, abyście upewnili się,
08:03
that these algorithmsalgorytmy have encodedzakodowany in them
181
468000
3000
że te algorytmy zawierają w sobie
08:06
a sensesens of the publicpubliczny life, a sensesens of civicobywatelski responsibilityodpowiedzialność.
182
471000
3000
wyczucie publicznego życia, obywatelskiego obowiązku.
08:09
We need you to make sure that they're transparentprzezroczysty enoughdość
183
474000
3000
Upewnijcie się, że są wystarczająco przezroczyste
08:12
that we can see what the ruleszasady are
184
477000
2000
byśmy mogli dostrzec reguły,
08:14
that determineustalać what getsdostaje throughprzez our filtersfiltry.
185
479000
3000
które decydują, co przepuszcza filtr.
08:17
And we need you to give us some controlkontrola
186
482000
2000
Musicie dać nam trochę kontroli,
08:19
so that we can decidedecydować się
187
484000
2000
byśmy sami zdecydowali,
08:21
what getsdostaje throughprzez and what doesn't.
188
486000
3000
co przechodzi, a co nie.
08:24
Because I think
189
489000
2000
Ponieważ myślę,
08:26
we really need the InternetInternet to be that thing
190
491000
2000
że potrzebujemy by Internet był tym czymś
08:28
that we all dreamedśnić of it beingistota.
191
493000
2000
o czym marzyliśmy, że będzie.
08:30
We need it to connectpołączyć us all togetherRazem.
192
495000
3000
Musi nas ze sobą łączyć.
08:33
We need it to introduceprzedstawiać us to newNowy ideaspomysły
193
498000
3000
Musi nam przedstawiać nowe idee,
08:36
and newNowy people and differentróżne perspectivesperspektywy.
194
501000
3000
nowych ludzi i różne perspektywy.
08:40
And it's not going to do that
195
505000
2000
Nie uda się to, jeżeli
08:42
if it leavesodchodzi us all isolatedodosobniony in a WebSieci Web of one.
196
507000
3000
zostaniemy wyobcowani w sieci do jednostki.
08:45
Thank you.
197
510000
2000
Dziękuję.
08:47
(ApplauseAplauz)
198
512000
11000
(Oklaski)
Translated by Sebastian Misiewicz
Reviewed by Marek Kasiak

▲Back to top

ABOUT THE SPEAKER
Eli Pariser - Organizer and author
Pioneering online organizer Eli Pariser is the author of "The Filter Bubble," about how personalized search might be narrowing our worldview.

Why you should listen

Shortly after the September 11, 2001, attacks, Eli Pariser created a website calling for a multilateral approach to fighting terrorism. In the following weeks, over half a million people from 192 countries signed on, and Pariser rather unexpectedly became an online organizer. The website merged with MoveOn.org in November 2001, and Pariser -- then 20 years old -- joined the group to direct its foreign policy campaigns. He led what the New York Times Magazine called the "mainstream arm of the peace movement" -- tripling MoveOn's member base and demonstrating how large numbers of small donations could be mobilized through online engagement.

In 2004, Pariser became executive director of MoveOn. Under his leadership, MoveOn.org Political Action has grown to 5 million members and raised over $120 million from millions of small donors to support advocacy campaigns and political candidates. Pariser focused MoveOn on online-to-offline organizing, developing phone-banking tools and precinct programs in 2004 and 2006 that laid the groundwork for Barack Obama's extraordinary web-powered campaign. In 2008, Pariser transitioned the Executive Director role at MoveOn to Justin Ruben and became President of MoveOn’s board; he's now a senior fellow at the Roosevelt Institute.

His book The Filter Bubble is set for release May 12, 2011. In it, he asks how modern search tools -- the filter by which many of see the wider world -- are getting better and better and screening the wider world from us, by returning only the search results it "thinks" we want to see.

More profile about the speaker
Eli Pariser | Speaker | TED.com