ABOUT THE SPEAKER
Eli Pariser - Organizer and author
Pioneering online organizer Eli Pariser is the author of "The Filter Bubble," about how personalized search might be narrowing our worldview.

Why you should listen

Shortly after the September 11, 2001, attacks, Eli Pariser created a website calling for a multilateral approach to fighting terrorism. In the following weeks, over half a million people from 192 countries signed on, and Pariser rather unexpectedly became an online organizer. The website merged with MoveOn.org in November 2001, and Pariser -- then 20 years old -- joined the group to direct its foreign policy campaigns. He led what the New York Times Magazine called the "mainstream arm of the peace movement" -- tripling MoveOn's member base and demonstrating how large numbers of small donations could be mobilized through online engagement.

In 2004, Pariser became executive director of MoveOn. Under his leadership, MoveOn.org Political Action has grown to 5 million members and raised over $120 million from millions of small donors to support advocacy campaigns and political candidates. Pariser focused MoveOn on online-to-offline organizing, developing phone-banking tools and precinct programs in 2004 and 2006 that laid the groundwork for Barack Obama's extraordinary web-powered campaign. In 2008, Pariser transitioned the Executive Director role at MoveOn to Justin Ruben and became President of MoveOn’s board; he's now a senior fellow at the Roosevelt Institute.

His book The Filter Bubble is set for release May 12, 2011. In it, he asks how modern search tools -- the filter by which many of see the wider world -- are getting better and better and screening the wider world from us, by returning only the search results it "thinks" we want to see.

More profile about the speaker
Eli Pariser | Speaker | TED.com
TED2011

Eli Pariser: Beware online "filter bubbles"

ელი პარისერი: უფრთხილდით ონლაინ "გაფილტრულ ბუშტებს"

Filmed:
5,309,238 views

როცა ვებ-კომპანიები, ცდილობენ მოარგონ თავისი სერვისები (მათ შორის ახალი ამბები და ძიების შედეგები) ჩვენს პირად გემოვნებას, ამას უნებურად სახიფათო შედეგი მოყვება; ჩვენ ვხვდებით "გაფილტრულ ბუშტში" და აღარ ვიღებთ ინფორმაციას, რომელსაც შეეძლო ჩვენი შეცვლა, ან მსოფლმხედველობის გაფართოება. ელი პარისერი ამტკიცებს, რომ ასეთი მიდგომა საბოლოოდ ძალიან ცუდი იქნება ჩვენთვისაც და დემოკრატიისთვისაც.
- Organizer and author
Pioneering online organizer Eli Pariser is the author of "The Filter Bubble," about how personalized search might be narrowing our worldview. Full bio

Double-click the English transcript below to play the video.

00:15
Mark Zuckerberg,
0
0
2000
მარკ ცუკერბერგს ჟურნალისტი
00:17
a journalist was asking him a question about the news feed.
1
2000
3000
ფეისბუკის სიახლეების ზოლის
შესახებ ეკითხებოდა.
00:20
And the journalist was asking him,
2
5000
2000
შეკითხვა იყო:
00:22
"Why is this so important?"
3
7000
2000
„რატომ არის ეს ასეთი მნიშვნელოვანი?“
00:24
And Zuckerberg said,
4
9000
2000
ცუკერბერგმა უპასუხა:
00:26
"A squirrel dying in your front yard
5
11000
2000
„ამ წუთას თქვენ ეზოში მომაკვდავი ციყვი,
00:28
may be more relevant to your interests right now
6
13000
3000
შეიძლება უფრო შეესაბამებოდეს
თქვენს ინტერესებს,
00:31
than people dying in Africa."
7
16000
3000
ვიდრე აფრიკაში მომაკვდავი ადამიანები“
00:34
And I want to talk about
8
19000
2000
დღეს მინდა ვისაუბრო იმაზე,
00:36
what a Web based on that idea of relevance might look like.
9
21000
3000
თუ როგორი შეიძლება იყოს შესაბამისობის
ამ იდეაზე დაფუძნებული ინტერნეტი,
00:40
So when I was growing up
10
25000
2000
მოზარდობის პერიოდში,
00:42
in a really rural area in Maine,
11
27000
2000
მეინის შტატის ერთ-ერთ რაიონში,
00:44
the Internet meant something very different to me.
12
29000
3000
ინტერნეტი განსაკუთრებული რამ იყო ჩემთვის.
00:47
It meant a connection to the world.
13
32000
2000
ის ნიშნავდა კავშირს მსოფლიოსთან.
00:49
It meant something that would connect us all together.
14
34000
3000
ნიშნავდა იმას, რაც ყველა ჩვენგანს
ერთმანეთთან დაგვაკავშირებდა.
00:52
And I was sure that it was going to be great for democracy
15
37000
3000
მჯეროდა, რომ ის არაჩვეულებრივი
რამ იქნებოდა დემოკრატიისა
00:55
and for our society.
16
40000
3000
და ჩვენი საზოგადოებისთვის.
მაგრამ ახლა
00:58
But there's this shift
17
43000
2000
ინფორმაციის ონლაინ გავრცელების
წესები შეიცვალა
01:00
in how information is flowing online,
18
45000
2000
01:02
and it's invisible.
19
47000
3000
და ეს ცვლილება უხილავია.
01:05
And if we don't pay attention to it,
20
50000
2000
ამ ცვლილების უყურადღებოდ დატოვება,
01:07
it could be a real problem.
21
52000
3000
მნიშვნელოვან პრობლემებს გამოიწვევს.
01:10
So I first noticed this in a place I spend a lot of time --
22
55000
3000
პირველად ეს ცვლილება იქ შევნიშნე,
სადაც დიდ დროს ვატარებ,
01:13
my Facebook page.
23
58000
2000
ჩემ ფეისბუკის გვერდზე.
01:15
I'm progressive, politically -- big surprise --
24
60000
3000
პოლიტიკურად პროგრესული ვარ,
რა სიურპრიზია, მაგრამ ყოველთვის
01:18
but I've always gone out of my way to meet conservatives.
25
63000
2000
ვცდილობდი კონსერვატორებთან ურთიერთობას.
01:20
I like hearing what they're thinking about;
26
65000
2000
მინდა ვიცოდე, რაზე ფიქრობენ ისინი;
01:22
I like seeing what they link to;
27
67000
2000
მინდა ვხედავდე, თუ რასთან აიგივებენ თავს;
01:24
I like learning a thing or two.
28
69000
2000
მომწონს სიახლეების გაგება და სწავლა.
01:26
And so I was surprised when I noticed one day
29
71000
3000
და გამიკვირდა, როცა ერთ დღეს შევამჩნიე,
01:29
that the conservatives had disappeared from my Facebook feed.
30
74000
3000
რომ კონსერვატორები გაქრნენ
ჩემი სიახლეების გვერდიდან.
01:33
And what it turned out was going on
31
78000
2000
როგორც აღმოჩნდა,
01:35
was that Facebook was looking at which links I clicked on,
32
80000
4000
ფეისბუკი აკვირდებოდა, რა ბმულებს ვხსნიდი
01:39
and it was noticing that, actually,
33
84000
2000
და შეამჩნია, რომ უფრო ხშირად
01:41
I was clicking more on my liberal friends' links
34
86000
2000
ჩემი ლიბერალური მეგობრების ბმულებს ვხსნიდი
01:43
than on my conservative friends' links.
35
88000
3000
ვიდრე კონსერვატორი მეგობრებისას
01:46
And without consulting me about it,
36
91000
2000
და ისე, რომ არც არაფერი უკითხავს,
01:48
it had edited them out.
37
93000
2000
მან ისინი ამოაგდო ჩემი სიახლეებიდან.
01:50
They disappeared.
38
95000
3000
ისინი გაქრნენ.
01:54
So Facebook isn't the only place
39
99000
2000
ფეისბუქი არ არის ერთადერთი ადგილი,
01:56
that's doing this kind of invisible, algorithmic
40
101000
2000
რომელიც ახდენს ინტერნეტის ამგვარ უხილავ,
01:58
editing of the Web.
41
103000
3000
ალგორითმულ რედაქტირებას.
02:01
Google's doing it too.
42
106000
2000
გუგლიც იგივეს აკეთებს.
02:03
If I search for something, and you search for something,
43
108000
3000
თუკი მე და თქვენ ერთი და იგივე სიტყვებს
ჩავწერთ საძიებო ზოლში,
02:06
even right now at the very same time,
44
111000
2000
თუნდაც ახლა, ერთი და იგივე დროს,
02:08
we may get very different search results.
45
113000
3000
ძიების განსხვავებულ შედეგებს მივიღებთ.
02:11
Even if you're logged out, one engineer told me,
46
116000
3000
გუგლის სისტემაში თქვენი
მომხმარებლითაც რომ არ იყოთ შესული,
02:14
there are 57 signals
47
119000
2000
ერთმა ინჟინერმა მითხრა,
რომ არსებობს 57 სიგნალი,
02:16
that Google looks at --
48
121000
3000
რომელსაც გუგლი აკვირდება,
02:19
everything from what kind of computer you're on
49
124000
3000
დაწყებული იმით, თუ როგორ კომპიუტერს
02:22
to what kind of browser you're using
50
127000
2000
და რომელ ინტერნეტ-ბრაუზერს იყენებთ,
02:24
to where you're located --
51
129000
2000
დამთავრებული თქვენი ადგილმდებარეობით
02:26
that it uses to personally tailor your query results.
52
131000
3000
და ამ სიგნალების გამოყენებით
თქვენზე არგებს ძიების შედეგებს.
02:29
Think about it for a second:
53
134000
2000
დაფიქრდით ამაზე სულ ერთი წამით:
02:31
there is no standard Google anymore.
54
136000
4000
უკვე აღარ არსებობს სტანდარტული გუგლი.
02:35
And you know, the funny thing about this is that it's hard to see.
55
140000
3000
და ყველაზე საინტერესო ისაა,
რომ ეს მოქმედება თითქმის უხილავია.
02:38
You can't see how different your search results are
56
143000
2000
თქვენ ვერ ხედავთ, როგორ განსხვავდება
02:40
from anyone else's.
57
145000
2000
თქვენი ძიების შედეგები
სხვების შედეგებისგან.
02:42
But a couple of weeks ago,
58
147000
2000
რამდენიმე კვირის წინ,
02:44
I asked a bunch of friends to Google "Egypt"
59
149000
3000
მე ვთხოვე ჩემს მეგობრებს,
გუგლში მოეძებნათ „ეგვიპტე“
02:47
and to send me screen shots of what they got.
60
152000
3000
და ჩემთვის გამოეგზავნათ შედეგები.
02:50
So here's my friend Scott's screen shot.
61
155000
3000
აი, ჩემი მეგობრის სკოტის ეკრანის სურათი.
02:54
And here's my friend Daniel's screen shot.
62
159000
3000
აი, ჩემი მეგობრის დენიელის ეკრანის სურათი.
02:57
When you put them side-by-side,
63
162000
2000
როცა მათ გვერდიგვერდ დადებთ,
02:59
you don't even have to read the links
64
164000
2000
ბმულების წაკითხვაც კი არ გჭირდებათ,
03:01
to see how different these two pages are.
65
166000
2000
რომ დაინახოთ სხვაობა ამ ორ გვერდს შორის.
03:03
But when you do read the links,
66
168000
2000
მაგრამ თუ ბმულებსაც წაიკითხავთ,
03:05
it's really quite remarkable.
67
170000
3000
მაშინ ეს სხვა მნიშვნელობას შეიძენს.
03:09
Daniel didn't get anything about the protests in Egypt at all
68
174000
3000
დენიელს არაფერი მიუღია
ეგვიპტის პროტესტების შესახებ
03:12
in his first page of Google results.
69
177000
2000
გუგლის საძიებო შედეგების პირველ გვერდზე.
03:14
Scott's results were full of them.
70
179000
2000
სკოტის შედეგები სავსე იყო ამ ინფორმაციით
03:16
And this was the big story of the day at that time.
71
181000
2000
და ეს პროტესტები იყო დღის მთავარი ამბავი.
03:18
That's how different these results are becoming.
72
183000
3000
აი, ამდენად განსხვავებული ხდება
ძიების შედეგები.
03:21
So it's not just Google and Facebook either.
73
186000
3000
მხოლოდ გუგლი და ფეისბუქი არ იქცევა ასე.
03:24
This is something that's sweeping the Web.
74
189000
2000
ეს უკვე მთელ ინტერნეტზე ვრცელდება.
03:26
There are a whole host of companies that are doing this kind of personalization.
75
191000
3000
უამრავი კომპანია მიმართავს
ამ ტიპის პერსონალიზაციას.
03:29
Yahoo News, the biggest news site on the Internet,
76
194000
3000
იაჰუუ ნიუსი, ინტერნეტის ყველაზე
დიდი საინფორმაციო პორტალი,
03:32
is now personalized -- different people get different things.
77
197000
3000
უკვე პერსონალიზებულია, ყოველი ადამიანი
განსხვავებულ შედეგს იღებს.
03:36
Huffington Post, the Washington Post, the New York Times --
78
201000
3000
ჰაფინგტონ პოსტი, ვაშინგტონ პოსტი,
ნიუ იორკ ტაიმსი,
03:39
all flirting with personalization in various ways.
79
204000
3000
ყველა ეთამაშება პერსონალიზაციას
ამა თუ იმ ფორმით
03:42
And this moves us very quickly
80
207000
3000
და ამ ყველაფერს ძალიან სწრაფად მივყავართ
03:45
toward a world in which
81
210000
2000
იმ სამყაროსკენ,
03:47
the Internet is showing us what it thinks we want to see,
82
212000
4000
სადაც ინტერნეტი ყოველთვის გვიჩვენებს იმას,
რისი ნახვაც გვსურს მისი აზრით,
03:51
but not necessarily what we need to see.
83
216000
3000
მაგრამ მათ შორის შეიძლება არ იყოს ის,
რისი ნახვა მართლაც გვჭირდება.
03:54
As Eric Schmidt said,
84
219000
3000
როგორც ერიკ შმიდტი ამბობს,
03:57
"It will be very hard for people to watch or consume something
85
222000
3000
„ხალხისთვის რთული იქნებოდა
იმის ყურება, ან გამოყენება,
04:00
that has not in some sense
86
225000
2000
რაც გარკვეული თვალსაზრისით,
04:02
been tailored for them."
87
227000
3000
მათზე არაა მორგებული“.
04:05
So I do think this is a problem.
88
230000
2000
ვფიქრობ, რომ ეს პრობლემაა
04:07
And I think, if you take all of these filters together,
89
232000
3000
და მე ვფიქრობ, რომ თუკი
ყველა ასეთ ფილტრს შევკრებთ,
04:10
you take all these algorithms,
90
235000
2000
ყველა ალგორითმს ერთად შევკრებთ,
04:12
you get what I call a filter bubble.
91
237000
3000
მივიღებთ იმას,
რასაც მე "გაფილტრულ ბუშტს" ვუწოდებ.
04:16
And your filter bubble is your own personal,
92
241000
3000
თითოეული თქვენგანის
"გაფილტრული ბუშტი" არის თქვენი პირადი,
04:19
unique universe of information
93
244000
2000
უნიკალური ინფორმაციული სამყარო,
04:21
that you live in online.
94
246000
2000
რომელშიც თქვენ ონლაინ ცხოვრობთ.
04:23
And what's in your filter bubble
95
248000
3000
და თქვენი "გაფილტრული ბუშტი"
04:26
depends on who you are, and it depends on what you do.
96
251000
3000
დამოკიდებულია იმაზე, თუ რას
წარმოადგენთ და საქმიანობთ თქვენ.
04:29
But the thing is that you don't decide what gets in.
97
254000
4000
პრობლემა ისაა, რომ თქვენ თავად
არ წყვეტთ, რა ხვდება შიგნით
04:33
And more importantly,
98
258000
2000
და რაც უფრო მნიშვნელოვანია,
04:35
you don't actually see what gets edited out.
99
260000
3000
თქვენ ვერც კი ხედავთ, რა წაიშალა.
04:38
So one of the problems with the filter bubble
100
263000
2000
გაფილტრული ბუშტის ერთ-ერთი პრობლემა
04:40
was discovered by some researchers at Netflix.
101
265000
3000
ნეტფლიქსზე აღმოაჩინა რამდენიმე მკვლევარმა.
ისინი უყურებდნენ ნეტფლიქსის რიგებს,
და აღმოაჩინეს რაღაც უცნაური,
04:43
And they were looking at the Netflix queues, and they noticed something kind of funny
102
268000
3000
04:46
that a lot of us probably have noticed,
103
271000
2000
რაც ალბათ
ბევრ ჩვენგანს შეუმჩნევია მანამდე,
04:48
which is there are some movies
104
273000
2000
რომ არის ზოგიერთი ფილმი,
04:50
that just sort of zip right up and out to our houses.
105
275000
3000
რომელიც პირდაპირ მოდის ჩვენს სახლებში.
04:53
They enter the queue, they just zip right out.
106
278000
3000
ანუ დგებით რიგში, და ეს ფილმები
პირდაპირ მოდიან:
04:56
So "Iron Man" zips right out,
107
281000
2000
„რკინის კაცი“ უცებ მოდის
04:58
and "Waiting for Superman"
108
283000
2000
ხოლო „სუპერმენის ლოდინს“
05:00
can wait for a really long time.
109
285000
2000
შეიძლება დიდი ხნის ლოდინი დასჭირდეს.
05:02
What they discovered
110
287000
2000
რაც მათ აღმოაჩინეს,
05:04
was that in our Netflix queues
111
289000
2000
არის ნეტფლიქსის რიგში
05:06
there's this epic struggle going on
112
291000
3000
გამართული ბრძოლა
05:09
between our future aspirational selves
113
294000
3000
ჩვენს მომავალ სასურველ მესა
05:12
and our more impulsive present selves.
114
297000
3000
და ჩვენს უფრო იმპულსურ
ამჟამინდელ მეს შორის.
05:15
You know we all want to be someone
115
300000
2000
იცით, რომ ყველას გვსურს ვიყოთ ვიღაც,
05:17
who has watched "Rashomon,"
116
302000
2000
ვისაც უნახავს „რაშომონი“,
05:19
but right now
117
304000
2000
მაგრამ ამ წუთას
05:21
we want to watch "Ace Ventura" for the fourth time.
118
306000
3000
ჩვენ გვსურს მეოთხეჯერ ვუყუროთ
"ეის ვენტურას",
05:24
(Laughter)
119
309000
3000
(სიცილი)
მაშ, საუკეთესო შერჩევა მოგვცემს
ცოტაოდენ ორივეს:
05:27
So the best editing gives us a bit of both.
120
312000
2000
05:29
It gives us a little bit of Justin Bieber
121
314000
2000
მოგვცემს მცირე რაოდენობით ჯასტინ ბიბერს
05:31
and a little bit of Afghanistan.
122
316000
2000
და მცირე რაოდენობით ავღანეთს.
05:33
It gives us some information vegetables;
123
318000
2000
მოგვცემს ცოტა ბოსტნეულ ინფორმაციას;
05:35
it gives us some information dessert.
124
320000
3000
და ცოტა ტკბილეულ ინფორმაციას.
05:38
And the challenge with these kinds of algorithmic filters,
125
323000
2000
ამ ტიპის ალგორითმული ფილტრების პრობლემა,
05:40
these personalized filters,
126
325000
2000
ამ პერსონალიზებული ფილტრების პრობლემაა,
05:42
is that, because they're mainly looking
127
327000
2000
რომ რადგან ისინი მეტწილად აკვირდებიან
05:44
at what you click on first,
128
329000
4000
თუ რა ბმულებს აჭერთ თქვენ პირველად,
05:48
it can throw off that balance.
129
333000
4000
ისინი არღვევენ ამ ბალანსს.
05:52
And instead of a balanced information diet,
130
337000
3000
ანუ ბალანსირებული საინფორმაციო
დიეტის ნაცვლად,
05:55
you can end up surrounded
131
340000
2000
თქვენ რჩებით
05:57
by information junk food.
132
342000
2000
მავნე საინფორმაციო საკვების ამარა.
05:59
What this suggests
133
344000
2000
ეს მიდგომა ნიშნავს,
რომ ჩვენ შეიძლება არასწორად გვესმოდეს
ინტერნეტის არსი.
06:01
is actually that we may have the story about the Internet wrong.
134
346000
3000
06:04
In a broadcast society --
135
349000
2000
დაარსების ლეგენდის თანახმად,
სამაუწყებლო საზოგადოებაში,
06:06
this is how the founding mythology goes --
136
351000
2000
სამაუწყებლო საზოგადოებაში,
06:08
in a broadcast society,
137
353000
2000
იყვნენ კარიბჭის მცველები, რედაქტორები,
06:10
there were these gatekeepers, the editors,
138
355000
2000
06:12
and they controlled the flows of information.
139
357000
3000
რომლებიც აკონტროლებდნენ
საინფორმაციო ნაკადს.
06:15
And along came the Internet and it swept them out of the way,
140
360000
3000
შემდეგ მოვიდა ინტერნეტი,
რომელმაც განდევნა ისინი
06:18
and it allowed all of us to connect together,
141
363000
2000
და საშუალება მოგვცა,
ყველა დავკავშირებოდით ერთმანეთს
06:20
and it was awesome.
142
365000
2000
და ეს შესანიშნავი იყო.
06:22
But that's not actually what's happening right now.
143
367000
3000
მაგრამ ახლა ასე აღარ ხდება.
06:26
What we're seeing is more of a passing of the torch
144
371000
3000
ჩვენ ვხედავთ, როგორ გადაეცემა გასაღები
06:29
from human gatekeepers
145
374000
2000
ადამიანი მცველებისგან
06:31
to algorithmic ones.
146
376000
3000
ალგორითმულ მცველებს.
06:34
And the thing is that the algorithms
147
379000
3000
და საქმე ისაა, რომ ალგორითმებს
06:37
don't yet have the kind of embedded ethics
148
382000
3000
ჯერ არ აქვთ თანდაყოლილი ეთიკა,
06:40
that the editors did.
149
385000
3000
რაც ადამიან რედაქტორებს ჰქონდათ.
06:43
So if algorithms are going to curate the world for us,
150
388000
3000
ამგვარად, თუკი ალგორითმებმა უნდა
მართონ სამყარო ჩვენს ნაცვლად,
06:46
if they're going to decide what we get to see and what we don't get to see,
151
391000
3000
თუკი მათ უნდა გადაწყვიტონ,
რა უნდა ვნახოთ და რა არა,
06:49
then we need to make sure
152
394000
2000
მაშინ უნდა დავრწმუნდეთ,
06:51
that they're not just keyed to relevance.
153
396000
3000
რომ მათი მოქმედება მხოლოდ
შესაბამისობას არ უკავშირდება.
06:54
We need to make sure that they also show us things
154
399000
2000
უნდა დავრწმუნდეთ, რომ ისინი გვიჩვენებენ,
06:56
that are uncomfortable or challenging or important --
155
401000
3000
რაც არაკომფორტულია, გამომწვევია,
ან მნიშვნელოვანი.
06:59
this is what TED does --
156
404000
2000
ანუ, როგორც TED აკეთებს,
07:01
other points of view.
157
406000
2000
გვაცნობს განსხვავებულ თვალთახედვებს.
07:03
And the thing is, we've actually been here before
158
408000
2000
საქმე ისაა, რომ უკვე გავიარეთ
07:05
as a society.
159
410000
2000
ასეთი მდგომარეობა, როგორც საზოგადოებამ.
07:08
In 1915, it's not like newspapers were sweating a lot
160
413000
3000
1915 წელს, გაზეთებს დიდად არ ანაღვლებდათ
07:11
about their civic responsibilities.
161
416000
3000
სამოქალაქო პასუხისმგებლობა.
07:14
Then people noticed
162
419000
2000
შემდეგ ადამიანებმა შეამჩნიეს,
07:16
that they were doing something really important.
163
421000
3000
რომ ისინი რაღაც მნიშვნელოვანს აკეთებდნენ.
07:19
That, in fact, you couldn't have
164
424000
2000
რომ სინამდვილეში
07:21
a functioning democracy
165
426000
2000
დემოკრატია ვერ იმუშავებს,
07:23
if citizens didn't get a good flow of information,
166
428000
4000
თუკი მოქალაქეები არ იღებენ
ინფორმაციის კარგ ნაკადს,
07:28
that the newspapers were critical because they were acting as the filter,
167
433000
3000
რომ გაზეთები მნიშვნელოვანია,
რადგან ისინი ფილტრივით მოქმედებენ
07:31
and then journalistic ethics developed.
168
436000
2000
და შემდეგ განვითარდა ჟურნალისტური ეთიკა.
07:33
It wasn't perfect,
169
438000
2000
ის არ იყო სრულყოფილი,
07:35
but it got us through the last century.
170
440000
3000
მაგრამ მან გადაგვატანინა ბოლო საუკუნე.
07:38
And so now,
171
443000
2000
ახლა კი,
07:40
we're kind of back in 1915 on the Web.
172
445000
3000
ჩვენ თითქოს უკან 2015-ში დავბრუნდით,
ინტერნეტის მხრივ.
07:44
And we need the new gatekeepers
173
449000
3000
ჩვენ გვჭირდება,
რომ კარიბჭის ახალმა მცველებმა
07:47
to encode that kind of responsibility
174
452000
2000
მსგავსი პასუხისმგებლობა ჩანერგონ
07:49
into the code that they're writing.
175
454000
2000
იმ ალგორითმების კოდებში, რომელთაც ქმნიან.
07:51
I know that there are a lot of people here from Facebook and from Google --
176
456000
3000
ვიცი, რომ აქ ფეისბუკის და გუგლის
ბევრი თანამშრომელი იმყოფება
07:54
Larry and Sergey --
177
459000
2000
ლარი და სერგეი, ადამიანები,
07:56
people who have helped build the Web as it is,
178
461000
2000
ვინც ინტერნეტი შექმნა დღევანდელი სახით
07:58
and I'm grateful for that.
179
463000
2000
და მე თქვენი მადლიერი ვარ.
08:00
But we really need you to make sure
180
465000
3000
მაგრამ თქვენ უნდა უზრუნველყოთ,
08:03
that these algorithms have encoded in them
181
468000
3000
რომ ამ ალგორითმებში ჩადებული იყოს
08:06
a sense of the public life, a sense of civic responsibility.
182
471000
3000
საზოგადობრივი ცხოვრების,
სამოქალაქო პასუხისმგებლობის შეგრძნება.
08:09
We need you to make sure that they're transparent enough
183
474000
3000
თქვენ უნდა გახადოთ ეს ალგორითმები
საკმარისად გამჭვირვალე,
08:12
that we can see what the rules are
184
477000
2000
რომ დავინახოთ, თუ რა წესებით
08:14
that determine what gets through our filters.
185
479000
3000
განისაზღვრება ჩვენს ფილტრებში შემოსული
ინფორმაციის ნაკადი.
08:17
And we need you to give us some control
186
482000
2000
გვსურს, რომ გარკვეული კონტროლი გვქონდეს,
08:19
so that we can decide
187
484000
2000
რომ თავად შეგვეძლოს გადაწყვეტა,
08:21
what gets through and what doesn't.
188
486000
3000
თუ რა შემოვა ჩვენს ბუშტში და რა არა.
08:24
Because I think
189
489000
2000
რადგან მე ვფიქრობ,
08:26
we really need the Internet to be that thing
190
491000
2000
რომ ჩვენ მართლა გვჭირდება ისეთი ინტერნეტი,
08:28
that we all dreamed of it being.
191
493000
2000
რომელზეც ყოველი ჩვენგანი ოცნებობდა.
08:30
We need it to connect us all together.
192
495000
3000
ჩვენ გვჭირდება ის, რომ ერთმანეთთან
დაგვაკავშიროს.
08:33
We need it to introduce us to new ideas
193
498000
3000
გვჭირდება, რომ გაგვაცნოს ახალი იდეები,
08:36
and new people and different perspectives.
194
501000
3000
ახალი ადამიანები და განსხვავებული ხედვები.
08:40
And it's not going to do that
195
505000
2000
ეს კი არასდროს მოხდება,
08:42
if it leaves us all isolated in a Web of one.
196
507000
3000
თუკი ის ყოველ ჩვენგანს იზოლირებულად,
საკუთარ ქსელში დატოვებს.
08:45
Thank you.
197
510000
2000
გმადლობთ.
08:47
(Applause)
198
512000
11000
(აპლოდისმენტები)
Translated by Nana Dikhaminjia
Reviewed by Levan Lashauri

▲Back to top

ABOUT THE SPEAKER
Eli Pariser - Organizer and author
Pioneering online organizer Eli Pariser is the author of "The Filter Bubble," about how personalized search might be narrowing our worldview.

Why you should listen

Shortly after the September 11, 2001, attacks, Eli Pariser created a website calling for a multilateral approach to fighting terrorism. In the following weeks, over half a million people from 192 countries signed on, and Pariser rather unexpectedly became an online organizer. The website merged with MoveOn.org in November 2001, and Pariser -- then 20 years old -- joined the group to direct its foreign policy campaigns. He led what the New York Times Magazine called the "mainstream arm of the peace movement" -- tripling MoveOn's member base and demonstrating how large numbers of small donations could be mobilized through online engagement.

In 2004, Pariser became executive director of MoveOn. Under his leadership, MoveOn.org Political Action has grown to 5 million members and raised over $120 million from millions of small donors to support advocacy campaigns and political candidates. Pariser focused MoveOn on online-to-offline organizing, developing phone-banking tools and precinct programs in 2004 and 2006 that laid the groundwork for Barack Obama's extraordinary web-powered campaign. In 2008, Pariser transitioned the Executive Director role at MoveOn to Justin Ruben and became President of MoveOn’s board; he's now a senior fellow at the Roosevelt Institute.

His book The Filter Bubble is set for release May 12, 2011. In it, he asks how modern search tools -- the filter by which many of see the wider world -- are getting better and better and screening the wider world from us, by returning only the search results it "thinks" we want to see.

More profile about the speaker
Eli Pariser | Speaker | TED.com