ABOUT THE SPEAKER
Eli Pariser - Organizer and author
Pioneering online organizer Eli Pariser is the author of "The Filter Bubble," about how personalized search might be narrowing our worldview.

Why you should listen

Shortly after the September 11, 2001, attacks, Eli Pariser created a website calling for a multilateral approach to fighting terrorism. In the following weeks, over half a million people from 192 countries signed on, and Pariser rather unexpectedly became an online organizer. The website merged with MoveOn.org in November 2001, and Pariser -- then 20 years old -- joined the group to direct its foreign policy campaigns. He led what the New York Times Magazine called the "mainstream arm of the peace movement" -- tripling MoveOn's member base and demonstrating how large numbers of small donations could be mobilized through online engagement.

In 2004, Pariser became executive director of MoveOn. Under his leadership, MoveOn.org Political Action has grown to 5 million members and raised over $120 million from millions of small donors to support advocacy campaigns and political candidates. Pariser focused MoveOn on online-to-offline organizing, developing phone-banking tools and precinct programs in 2004 and 2006 that laid the groundwork for Barack Obama's extraordinary web-powered campaign. In 2008, Pariser transitioned the Executive Director role at MoveOn to Justin Ruben and became President of MoveOn’s board; he's now a senior fellow at the Roosevelt Institute.

His book The Filter Bubble is set for release May 12, 2011. In it, he asks how modern search tools -- the filter by which many of see the wider world -- are getting better and better and screening the wider world from us, by returning only the search results it "thinks" we want to see.

More profile about the speaker
Eli Pariser | Speaker | TED.com
TED2011

Eli Pariser: Beware online "filter bubbles"

Էլի Փարիզերը նախազգուշացնում է օնլայն «ֆիլտրող փուչիկների» մասին

Filmed:
5,309,238 views

Մինչ ինտերնետ ընկերությունները ձգտում են հարմարեցնել իրենց կողմից մատուցվող ծառայությունները (այդ թվում, լուրերը և որոնման արդյունքները) մեր անձնական նախասիրություններին, մեզ չնախատեսված վտանգ է սպառնում․ մենք ընկնում ենք «ֆիլտրող փուչիկների» թակարդը և զրկվում ենք հնարավորությունից ստանալ այն տեղեկատվությունը, որը կարող է մարտահրավեր նետել մեզ կամ ընդլայնել մեր աշխարհայացը: Էլի Փարիզերը համոզված է, որ սա ի վերջո վատ հետևանքներ է ունենալու մեզ համար և ժողովրդավարության համար:
- Organizer and author
Pioneering online organizer Eli Pariser is the author of "The Filter Bubble," about how personalized search might be narrowing our worldview. Full bio

Double-click the English transcript below to play the video.

00:15
Mark Zuckerberg,
0
0
2000
Մարկ Ցուկերբերգին
00:17
a journalist was asking him a question about the news feed.
1
2000
3000
մի անգամ լրագրողներից մեկը հարցրել է Ֆեյսբուքի լրահոսի /newsfeed/ մասին:
00:20
And the journalist was asking him,
2
5000
2000
Լրագրողը հարցրել է.
00:22
"Why is this so important?"
3
7000
2000
«Ինչու՞ է դա այդքան կարևոր»։
00:24
And Zuckerberg said,
4
9000
2000
Եվ Ցուկերբերգը պատասխանել է.
00:26
"A squirrel dying in your front yard
5
11000
2000
«Ձեր բակում մահացող սկյուռը
00:28
may be more relevant to your interests right now
6
13000
3000
այս պահին կարող է ձեր հետաքրքրություններին ավելի համապատասխանի,
00:31
than people dying in Africa."
7
16000
3000
քան Աֆրիկայում մահացող մարդիկ»։
00:34
And I want to talk about
8
19000
2000
Ես ցանկանում եմ խոսել այսօր այն մասին,
00:36
what a Web based on that idea of relevance might look like.
9
21000
3000
թե ինչ է դառնում ինտերնետը՝ երբ այն հիմնվում է ռելևանտության վրա:
00:40
So when I was growing up
10
25000
2000
Երբ ես մեծանում էի
00:42
in a really rural area in Maine,
11
27000
2000
Մայնում տեղակայված մի գյուղաբնակ վայրում,
00:44
the Internet meant something very different to me.
12
29000
3000
Ինտերնետը ինձ համար բոլորովին այլ բան էր նշանակում:
00:47
It meant a connection to the world.
13
32000
2000
Այն ինձ համար արտաքին աշխարհի հետ կապվելու միջոց էր:
00:49
It meant something that would connect us all together.
14
34000
3000
Այն մի բան էր, ինչը կարող է մեզ բոլորիս իրար միացնել:
00:52
And I was sure that it was going to be great for democracy
15
37000
3000
Եվ ես հավատացած էի, որ այն շատ լավ ազդեցություն է ունենալու ժողովրդավարության և
00:55
and for our society.
16
40000
3000
հասարակության վրա:
00:58
But there's this shift
17
43000
2000
Սակայն տեղի է ունեցել փոփոխություն,
01:00
in how information is flowing online,
18
45000
2000
տեղեկատվության օնլայն հոսքի ձևի մեջ,
01:02
and it's invisible.
19
47000
3000
և այդ փոփոխությունն անտեսանելի է:
01:05
And if we don't pay attention to it,
20
50000
2000
Եվ եթե մենք ուշադրություն չդարձնենք դրան,
01:07
it could be a real problem.
21
52000
3000
ապա այն կարող է վերածվել մի մեծ խնդրի:
01:10
So I first noticed this in a place I spend a lot of time --
22
55000
3000
Առաջին անգամ ես դա նկատեցի այնտեղ, որտեղ անցկացնում էի իմ ժամանակի հիմնական մասը՝
01:13
my Facebook page.
23
58000
2000
Ֆեյսբուքի իմ էջում:
01:15
I'm progressive, politically -- big surprise --
24
60000
3000
Իմ քաղաքական հայացքներով ես առաջադիմական եմ, սական անակնկալ՝
01:18
but I've always gone out of my way to meet conservatives.
25
63000
2000
ես միշտ անում էի ամեն հնարավոր բան, պահպանողականների հետ առնչվելու համար:
01:20
I like hearing what they're thinking about;
26
65000
2000
Ես սիրում եմ լսել, թե ինչ են նրանք մտածում,
01:22
I like seeing what they link to;
27
67000
2000
ես սիրում եմ տեսնել, թե ինչ հղումներով են միմյանց հետ կիսվում,
01:24
I like learning a thing or two.
28
69000
2000
սիրում եմ որոշակի բաներ սովորել իրենցից:
01:26
And so I was surprised when I noticed one day
29
71000
3000
Եվ մի օր ես անակընկալի եկա, երբ նկատեցի,
01:29
that the conservatives had disappeared from my Facebook feed.
30
74000
3000
որ պահպանողականների մասին տեղեկատվությունն անհետացել է իմ Ֆեյսբուքի լրահոսից:
01:33
And what it turned out was going on
31
78000
2000
Եվ պարզվեց,
01:35
was that Facebook was looking at which links I clicked on,
32
80000
4000
որ Ֆեյսբուքը հետևում է, թե ինչ էջեր եմ ես այցելում
01:39
and it was noticing that, actually,
33
84000
2000
և նշում այն,
01:41
I was clicking more on my liberal friends' links
34
86000
2000
որ ես ավելի հաճախ էի կարդում իմ լիբերալ ընկերների էջերը,
01:43
than on my conservative friends' links.
35
88000
3000
քան իմ պահպանողական ընկերների էջերը:
01:46
And without consulting me about it,
36
91000
2000
Եվ առանց ինձ հարցնելու
01:48
it had edited them out.
37
93000
2000
այն ամբողջովին ֆիլտրել է վերջիններս:
01:50
They disappeared.
38
95000
3000
Դրանք անհետացել էին:
01:54
So Facebook isn't the only place
39
99000
2000
Ֆեյսբուքը միակ տեղը չէ,
01:56
that's doing this kind of invisible, algorithmic
40
101000
2000
որն անում է նմանատիպ անտեսանելի ալգորիթմիկ
01:58
editing of the Web.
41
103000
3000
խմբագրումներ Ինտերնետում:
02:01
Google's doing it too.
42
106000
2000
Գուգլը նույնպես անում է դա:
02:03
If I search for something, and you search for something,
43
108000
3000
Եթե ես որևէ մի բանի որոնեմ, և դուք նույն բանը որոնեք
02:06
even right now at the very same time,
44
111000
2000
հենց այս պահին, այստեղ,
02:08
we may get very different search results.
45
113000
3000
մենք երկուսս էլ կստանանք տարբեր արդյունքներ:
02:11
Even if you're logged out, one engineer told me,
46
116000
3000
Մի ինժեներ ինձ ասել է, որ նույնիսկ եթե դուք դուրս եկած լինեք համակարգից
02:14
there are 57 signals
47
119000
2000
կան 57 ազդանշաններ
02:16
that Google looks at --
48
121000
3000
որոնցով առաջնորդվում է Գուգլը՝
02:19
everything from what kind of computer you're on
49
124000
3000
հաշվի առնելով ամեն ինչ, սկսած նրանից, թե ինչպիսի համակարգչից եք դուք օգտվում,
02:22
to what kind of browser you're using
50
127000
2000
ինչպիսի բրաուզերից եք օգտվում,
02:24
to where you're located --
51
129000
2000
վերջացրած նրանից, թե որտեղ եք դուք տեղակայված՝
02:26
that it uses to personally tailor your query results.
52
131000
3000
և այն օգտագործում է այդ ամենը, որպեսզի ստանա անհատական որոնման արդյունքներ:
02:29
Think about it for a second:
53
134000
2000
Մի պահ մտածեք սրա մասին.
02:31
there is no standard Google anymore.
54
136000
4000
չկա այլևս ստանդարտ Գուգլ:
02:35
And you know, the funny thing about this is that it's hard to see.
55
140000
3000
Եվ գիտեք, ամենազավեշտալին այն է, որ դա դժվար է նկատել:
02:38
You can't see how different your search results are
56
143000
2000
Դուք չեք կարող տեսնել, թե ինչքանով են ձեր որոնման արդյունքները
02:40
from anyone else's.
57
145000
2000
տարբերվում մեկ ուրիշի արդյունքներից:
02:42
But a couple of weeks ago,
58
147000
2000
Մի քանի շաբաթ առաջ,
02:44
I asked a bunch of friends to Google "Egypt"
59
149000
3000
ես խնդրեցի իմ մի քանի ընկերներին Գուգլում որոնել «Եգիպտոս» բառը
02:47
and to send me screen shots of what they got.
60
152000
3000
և ուղարկել ինձ իրենց որոնման արդյունքները:
02:50
So here's my friend Scott's screen shot.
61
155000
3000
Ահա իմ ընկեր Սկոթի արդյունքները:
02:54
And here's my friend Daniel's screen shot.
62
159000
3000
Ահա իմ ընկեր Դանիելի արդյունքները:
02:57
When you put them side-by-side,
63
162000
2000
Երբ երկու որոնման արդյունքները դնում ես կողք կողքի,
02:59
you don't even have to read the links
64
164000
2000
նույնիսկ հարկավոր չէ կարդալ հղումները,
03:01
to see how different these two pages are.
65
166000
2000
տեսնելու համար, թե ինչքանով են այդ երկու էջերը տարբերվում միմյանցից:
03:03
But when you do read the links,
66
168000
2000
Սակայն, երբ սկսում ես կարդալ հղումները,
03:05
it's really quite remarkable.
67
170000
3000
տարբերությունն ուշագրավ է:
03:09
Daniel didn't get anything about the protests in Egypt at all
68
174000
3000
Դանիելը իր որոնման առաջին էջում ոչ մի արդյունք չի ստացել
03:12
in his first page of Google results.
69
177000
2000
Եգիպտոսում տեղի ունեցող բողոքի ցույցերի մասին:
03:14
Scott's results were full of them.
70
179000
2000
Սկոթի արդյունքների մեջ բողոքներին վերաբերող բազմաթիվ հղումներ կային:
03:16
And this was the big story of the day at that time.
71
181000
2000
Իսկ բողոքները տվյալ օրվա ամենակարևոր նորությունն էր:
03:18
That's how different these results are becoming.
72
183000
3000
Ահա թե ինչքան կարող են տարբերվել որոնման արդյունքները միմյանցից:
03:21
So it's not just Google and Facebook either.
73
186000
3000
Եվ սա միայն Գուգլը և Ֆեյսբուքը չէ, որ անում են:
03:24
This is something that's sweeping the Web.
74
189000
2000
Սա այն է, ինչ կատարվում է ամբողջ համացանցում:
03:26
There are a whole host of companies that are doing this kind of personalization.
75
191000
3000
Կան բազմաթիվ ընկերություններ, որոնք նմանատիպ անձնավորված մոտեցում են ցուցաբերում:
03:29
Yahoo News, the biggest news site on the Internet,
76
194000
3000
Yahoo-ի նորությունները՝ համացանցի ամենամեծ նորությունների կայքը
03:32
is now personalized -- different people get different things.
77
197000
3000
այժմ արդեն անձնավորված է՝ տարբեր մարդիկ ստանում են տարբեր տեսակի տեղեկատվություն:
03:36
Huffington Post, the Washington Post, the New York Times --
78
201000
3000
Huffington Post-ը, Washington Post-ը, New York Times-ը
03:39
all flirting with personalization in various ways.
79
204000
3000
բոլորը կատարում են տեղեկատվության ֆիլտրում:
03:42
And this moves us very quickly
80
207000
3000
Ես սա շատ արագ
03:45
toward a world in which
81
210000
2000
ստեղծում է մի իրականություն,
03:47
the Internet is showing us what it thinks we want to see,
82
212000
4000
որտեղ ինտերնետը ցույց է տալիս մեզ այն, ինչ, իր կարծիքով, մենք ցանկանում ենք տեսնել,
03:51
but not necessarily what we need to see.
83
216000
3000
բայց ոչ այն, ինչ իրականում մեզ հարկավոր է տեսնել:
03:54
As Eric Schmidt said,
84
219000
3000
Ինչպես ասել է Էրիկ Շմիտը,
03:57
"It will be very hard for people to watch or consume something
85
222000
3000
«Մարդկանց համար շատ բարդ է դիտել կամ օգտագործել մի բան,
04:00
that has not in some sense
86
225000
2000
ինչը, որոշակի առումով,
04:02
been tailored for them."
87
227000
3000
համապատասխանեցված չէ իրենց համար»։
04:05
So I do think this is a problem.
88
230000
2000
Այսպիսով ես լիովին հավատացած եմ, որ սա խնդիր է:
04:07
And I think, if you take all of these filters together,
89
232000
3000
Եվ ես կարծում եմ, եթե մենք ի մի բերենք այս բոլոր ֆիլտրերը
04:10
you take all these algorithms,
90
235000
2000
և բոլոր ալգորիթմները,
04:12
you get what I call a filter bubble.
91
237000
3000
ապա կստանանք այն, ինչն ես անվանում եմ «ֆիլտրող փուչիկ»:
04:16
And your filter bubble is your own personal,
92
241000
3000
Եվ ձեր «ֆիլտրող փուչիկ»-ը ձեր անձնական
04:19
unique universe of information
93
244000
2000
յուրօրինակ տիեզերքն է այն տեղեկատվության,
04:21
that you live in online.
94
246000
2000
որի մեջ դուք ապրում եք օնլայն:
04:23
And what's in your filter bubble
95
248000
3000
Ձեր «ֆիլտրող փուչիկի» պարունակությունը
04:26
depends on who you are, and it depends on what you do.
96
251000
3000
կախված է նրանից, թե ով եք դուք և ինչով եք զբաղվում:
04:29
But the thing is that you don't decide what gets in.
97
254000
4000
Սակայն բանն այն է, որ դուք չեք որոշում ինչ տեղեկատվություն է այն ներառում:
04:33
And more importantly,
98
258000
2000
Եվ ամենակարևորը՝
04:35
you don't actually see what gets edited out.
99
260000
3000
դուք նույնիսկ չեք տեսնում թե ինչը չի ներառվում այնտեղ:
04:38
So one of the problems with the filter bubble
100
263000
2000
Այսպիսով, «ֆիլտրող փուչիկների» հիմնական խնդիրը
04:40
was discovered by some researchers at Netflix.
101
265000
3000
բացահայտվել է Netflix-ի մի քանի հետազոտողների կողմից:
04:43
And they were looking at the Netflix queues, and they noticed something kind of funny
102
268000
3000
Նրանք հետևում էին Netflix-ի ֆիլմերի դիտումների հերթագրումներին և նկատեցին զավեշտալի մի բան,
04:46
that a lot of us probably have noticed,
103
271000
2000
ինչ շատերս հնարավոր է նկատել ենք՝
04:48
which is there are some movies
104
273000
2000
կան որոշակի ֆիլմեր,
04:50
that just sort of zip right up and out to our houses.
105
275000
3000
որոնք արագ հայտնվում են ցուցակում և նույնքան արագ անհետանում (դիտվում)։
04:53
They enter the queue, they just zip right out.
106
278000
3000
Դրանք հայտնվում եմ հերթի ցուցակի մեջ, այնուհետև անմիջապես դուրս գալիս (դիտում են)։
04:56
So "Iron Man" zips right out,
107
281000
2000
Օրինակ, «Երկաթե մարդը» շատ արագ դուրս է թռնում,
04:58
and "Waiting for Superman"
108
283000
2000
իսկ «Սպասելով սուպերմենին» ֆիլմը
05:00
can wait for a really long time.
109
285000
2000
կարող է շատ երկար սպասել իր հերթին։
05:02
What they discovered
110
287000
2000
Նրանք հայտնաբերեցին,
05:04
was that in our Netflix queues
111
289000
2000
որ Netfix-ի հերթերում,
05:06
there's this epic struggle going on
112
291000
3000
տեղի է ունենում հսկայական պայքար,
05:09
between our future aspirational selves
113
294000
3000
երկու «ես»-երի միջև` այն, ինչպես մենք ցանկանում ենք լինել
05:12
and our more impulsive present selves.
114
297000
3000
և ավելի իմպուլսիվ, այսօրվա «ես»-ի միջև։
05:15
You know we all want to be someone
115
300000
2000
Մենք բոլորս էլ ուզում ենք լինել մեկը,
05:17
who has watched "Rashomon,"
116
302000
2000
որ դիտում է «Ռաշոմոն»-ը
05:19
but right now
117
304000
2000
բայց տվյալ պահին,
05:21
we want to watch "Ace Ventura" for the fourth time.
118
306000
3000
մենք ցանկանում ենք 4-րդ անգամ դիտել «Էյս Վենտուրա»-ն։
05:24
(Laughter)
119
309000
3000
(Ծիծաղ)
05:27
So the best editing gives us a bit of both.
120
312000
2000
Լավագույն խմբագրումը տալիս է մեզ ամեն ինչից քիչ-քիչ՝
05:29
It gives us a little bit of Justin Bieber
121
314000
2000
այն բերում է մի քիչ տեղեկություն Ջասթին Բիեբերի մասին,
05:31
and a little bit of Afghanistan.
122
316000
2000
և մի քիչ էլ տեղեկություն Աֆղանստանի մասին:
05:33
It gives us some information vegetables;
123
318000
2000
Այն մեզ տալիս է մի քիչ տեղեկատվական բանջարեղեն,
05:35
it gives us some information dessert.
124
320000
3000
և մի քիչ տեղեկատվական աղանդեր:
05:38
And the challenge with these kinds of algorithmic filters,
125
323000
2000
Այսպիսի ալգորիթմիկ ֆիլտրերի հետ խնդիրը նրանում է,
05:40
these personalized filters,
126
325000
2000
որ անձնավորված ֆիլտրները,
05:42
is that, because they're mainly looking
127
327000
2000
հիմնականում առաջնորդվում են նրանով,
05:44
at what you click on first,
128
329000
4000
թե ինչ հղում ենք մենք առաջինը սեղմում,
05:48
it can throw off that balance.
129
333000
4000
այդ իսկ պատճառով այն խախտում է հավասարակշռությունը:
05:52
And instead of a balanced information diet,
130
337000
3000
Եվ հավասարակշռված տեղեկատվական սննդի փոխարեն,
05:55
you can end up surrounded
131
340000
2000
դուք ստանում եք
05:57
by information junk food.
132
342000
2000
տեղեկատվական արագ պատրաստվող սնունդ:
05:59
What this suggests
133
344000
2000
Դա նշանակում է,
06:01
is actually that we may have the story about the Internet wrong.
134
346000
3000
որ մենք ինտերնետի մասին սխալ պատկերացում ենք ստանում։
06:04
In a broadcast society --
135
349000
2000
Եթեր հեռարձակվող հասարակության մեջ
06:06
this is how the founding mythology goes --
136
351000
2000
հիմնական գործընթացն ընթանում է հետևյալ կերպ.
06:08
in a broadcast society,
137
353000
2000
եթեր հեռարձակվող հասարակության մեջ
06:10
there were these gatekeepers, the editors,
138
355000
2000
կային ստուգողներ, խմբագիրներ,
06:12
and they controlled the flows of information.
139
357000
3000
ովքեր վերահսկում էին տեղեկատվության հոսքը:
06:15
And along came the Internet and it swept them out of the way,
140
360000
3000
Եվ ահա հայտնվում է համացանցը և հեռացնում նրանց բոլորին ճանապարհից՝
06:18
and it allowed all of us to connect together,
141
363000
2000
ընձեռելով մեզ հնարավորություն կապվել միմյանց հետ,
06:20
and it was awesome.
142
365000
2000
և դա հրաշալի էր:
06:22
But that's not actually what's happening right now.
143
367000
3000
Բայդ դա այն չէ, ինչ տեղի է ունենում այսօր։
06:26
What we're seeing is more of a passing of the torch
144
371000
3000
Այն, ինչին մենք հիմա վկա ենք՝ ընդհամենը տեղափոխում է
06:29
from human gatekeepers
145
374000
2000
մարդկային ստուգողներից
06:31
to algorithmic ones.
146
376000
3000
ալգորիթմիկ ստուգողների։
06:34
And the thing is that the algorithms
147
379000
3000
Եվ բանը նրանում է, որ ալգորիթմերը
06:37
don't yet have the kind of embedded ethics
148
382000
3000
դեռևս չունեն ներկառուցված էթիկական նորմեր,
06:40
that the editors did.
149
385000
3000
ի տարբերություն խմբագիրների:
06:43
So if algorithms are going to curate the world for us,
150
388000
3000
Եթե ալգորիթմերն են այսուհետ ղեկավարելու աշխարհը մեր փոխարեն,
06:46
if they're going to decide what we get to see and what we don't get to see,
151
391000
3000
եթե դրանք են որոշելու, թե ինչը մենք պետք է տեսնենք և ինչը՝ ոչ,
06:49
then we need to make sure
152
394000
2000
ապա մենք պետք է համոզված լինենք,
06:51
that they're not just keyed to relevance.
153
396000
3000
որ դրանք հիմնված չլինեն զուտ ռելևանտության վրա։
06:54
We need to make sure that they also show us things
154
399000
2000
Մենք պետք է համոզված լինենք, որ մեզ ցույց են տալիս այն տեղեկատվությունը,
06:56
that are uncomfortable or challenging or important --
155
401000
3000
որը կարող է տհաճ լինի կամ մարտահրավեր նետի կամ կարևոր լինի՝
06:59
this is what TED does --
156
404000
2000
մի բան, որ անում է TED-ը, այն է՝
07:01
other points of view.
157
406000
2000
ներկայացնել տարբեր կարծիքներ:
07:03
And the thing is, we've actually been here before
158
408000
2000
Բանն այն է, որ մենք որպես հասարակություն,
07:05
as a society.
159
410000
2000
արդեն անցել ենք այս ամենի միջով։
07:08
In 1915, it's not like newspapers were sweating a lot
160
413000
3000
1915 թ-ին թերթերն առանձնապես մտահոգված չէին
07:11
about their civic responsibilities.
161
416000
3000
իրենց քաղաքացիական պարտականություններով։
07:14
Then people noticed
162
419000
2000
Հետո մարդիկ նկատեցին,
07:16
that they were doing something really important.
163
421000
3000
դրանք իրականում շատ կարևոր են։
07:19
That, in fact, you couldn't have
164
424000
2000
Հնարավոր չէ կառուցել
07:21
a functioning democracy
165
426000
2000
ժողովրդավարություն,
07:23
if citizens didn't get a good flow of information,
166
428000
4000
երբ քաղաքացիները չեն ստանում տեղեկատվության հոսք:
07:28
that the newspapers were critical because they were acting as the filter,
167
433000
3000
Նախկինում թերթերը շատ կարևոր էին, որովհետև դրանք կրում էին ֆիլտրողի դեր,
07:31
and then journalistic ethics developed.
168
436000
2000
այնուհետև դրա հետևանքով զարգացավ լրագրողական էթիկայի կիրառումը:
07:33
It wasn't perfect,
169
438000
2000
Այն կատարյալ չէր,
07:35
but it got us through the last century.
170
440000
3000
սակայն ուղղորդեց մեզ անցյալ դարաշրջանի ընթացքում:
07:38
And so now,
171
443000
2000
Եվ ահա այժմ
07:40
we're kind of back in 1915 on the Web.
172
445000
3000
մենք ինչ-որ չափով վերադարձել ենք 1915 թվական՝ համացանցի առումով:
07:44
And we need the new gatekeepers
173
449000
3000
Եվ մեզ հիմա հարկավոր են նոր ստուգողներ,
07:47
to encode that kind of responsibility
174
452000
2000
որոնք նման պատասխանատվություն կհաղորդեն
07:49
into the code that they're writing.
175
454000
2000
ծրագրերին, որոնք ստեղծվում են։
07:51
I know that there are a lot of people here from Facebook and from Google --
176
456000
3000
Ես գիտեմ, որ շատերդ այստեղ աշխատում եք Ֆեյսբուքում և Գուգլում՝
07:54
Larry and Sergey --
177
459000
2000
Լարրին և Սերգեյը
07:56
people who have helped build the Web as it is,
178
461000
2000
այն մարդիկ են, ովքեր նպաստել են համացանցի ստեղծմանը,
07:58
and I'm grateful for that.
179
463000
2000
և ես շատ շնորհակալ եմ իրենցից:
08:00
But we really need you to make sure
180
465000
3000
Բայց մենք պետք է անենք ամեն բան,
08:03
that these algorithms have encoded in them
181
468000
3000
որպեսզի այդ ալգորիթմներն իրենց մեջ ունենան
08:06
a sense of the public life, a sense of civic responsibility.
182
471000
3000
քաղաքացիական պատասխանատվության զգացում։
08:09
We need you to make sure that they're transparent enough
183
474000
3000
Մենք պետք է համոզվենք, որ դրանք բավականաչափ թափանցիկ են,
08:12
that we can see what the rules are
184
477000
2000
որ մենք կարող ենք հասկանալ այն օրենքները,
08:14
that determine what gets through our filters.
185
479000
3000
որոնք որոշում են, թե ինչպես է տեղեկատվությունը ֆիլտրվում։
08:17
And we need you to give us some control
186
482000
2000
Եվ մեզ անհրաժեշտ է որոշակի վերահսկում,
08:19
so that we can decide
187
484000
2000
որպեսզի մենք կարողանանք որոշել,
08:21
what gets through and what doesn't.
188
486000
3000
թե ինչն է ֆիլտրվում, իսկը ինչը՝ ոչ։
08:24
Because I think
189
489000
2000
Որովհետև ես հավատացած եմ,
08:26
we really need the Internet to be that thing
190
491000
2000
որ մեզ համար անհրաժեշտ է, որ ինտերնետն ունենա այն նշանակությունը,
08:28
that we all dreamed of it being.
191
493000
2000
որի մասին մենք երազում էինք։
08:30
We need it to connect us all together.
192
495000
3000
Մեզ անհրաժեշտ է, որ այն միավորի մեզ բոլորիս։
08:33
We need it to introduce us to new ideas
193
498000
3000
Մեզ անհրաժեշտ է, որ այն ծանոթացնի մեզ նոր գաղափարների,
08:36
and new people and different perspectives.
194
501000
3000
նոր մարդկանց և նոր հեռանկարների հետ։
08:40
And it's not going to do that
195
505000
2000
Եվ այդ բոլորը տեղի չի ունենա,
08:42
if it leaves us all isolated in a Web of one.
196
507000
3000
եթե այն մեկուսացրած թողնի մեզ մեկ մարդու ցանցում։
08:45
Thank you.
197
510000
2000
Շնորհակալություն։
08:47
(Applause)
198
512000
11000
(Ծափահարություններ)
Translated by Gohar Khachatryan
Reviewed by Arpiné Grigoryan

▲Back to top

ABOUT THE SPEAKER
Eli Pariser - Organizer and author
Pioneering online organizer Eli Pariser is the author of "The Filter Bubble," about how personalized search might be narrowing our worldview.

Why you should listen

Shortly after the September 11, 2001, attacks, Eli Pariser created a website calling for a multilateral approach to fighting terrorism. In the following weeks, over half a million people from 192 countries signed on, and Pariser rather unexpectedly became an online organizer. The website merged with MoveOn.org in November 2001, and Pariser -- then 20 years old -- joined the group to direct its foreign policy campaigns. He led what the New York Times Magazine called the "mainstream arm of the peace movement" -- tripling MoveOn's member base and demonstrating how large numbers of small donations could be mobilized through online engagement.

In 2004, Pariser became executive director of MoveOn. Under his leadership, MoveOn.org Political Action has grown to 5 million members and raised over $120 million from millions of small donors to support advocacy campaigns and political candidates. Pariser focused MoveOn on online-to-offline organizing, developing phone-banking tools and precinct programs in 2004 and 2006 that laid the groundwork for Barack Obama's extraordinary web-powered campaign. In 2008, Pariser transitioned the Executive Director role at MoveOn to Justin Ruben and became President of MoveOn’s board; he's now a senior fellow at the Roosevelt Institute.

His book The Filter Bubble is set for release May 12, 2011. In it, he asks how modern search tools -- the filter by which many of see the wider world -- are getting better and better and screening the wider world from us, by returning only the search results it "thinks" we want to see.

More profile about the speaker
Eli Pariser | Speaker | TED.com