ABOUT THE SPEAKER
Eli Pariser - Organizer and author
Pioneering online organizer Eli Pariser is the author of "The Filter Bubble," about how personalized search might be narrowing our worldview.

Why you should listen

Shortly after the September 11, 2001, attacks, Eli Pariser created a website calling for a multilateral approach to fighting terrorism. In the following weeks, over half a million people from 192 countries signed on, and Pariser rather unexpectedly became an online organizer. The website merged with MoveOn.org in November 2001, and Pariser -- then 20 years old -- joined the group to direct its foreign policy campaigns. He led what the New York Times Magazine called the "mainstream arm of the peace movement" -- tripling MoveOn's member base and demonstrating how large numbers of small donations could be mobilized through online engagement.

In 2004, Pariser became executive director of MoveOn. Under his leadership, MoveOn.org Political Action has grown to 5 million members and raised over $120 million from millions of small donors to support advocacy campaigns and political candidates. Pariser focused MoveOn on online-to-offline organizing, developing phone-banking tools and precinct programs in 2004 and 2006 that laid the groundwork for Barack Obama's extraordinary web-powered campaign. In 2008, Pariser transitioned the Executive Director role at MoveOn to Justin Ruben and became President of MoveOn’s board; he's now a senior fellow at the Roosevelt Institute.

His book The Filter Bubble is set for release May 12, 2011. In it, he asks how modern search tools -- the filter by which many of see the wider world -- are getting better and better and screening the wider world from us, by returning only the search results it "thinks" we want to see.

More profile about the speaker
Eli Pariser | Speaker | TED.com
TED2011

Eli Pariser: Beware online "filter bubbles"

Eli Pariser: Thận trọng với những "bong bóng lọc"

Filmed:
5,309,238 views

Việc các công ty Web cố gắng để điều chỉnh những dịch vụ của họ (bao gồm tin tức và kết quả tìm kiếm) để phù hợp với sở thích cá nhân của chúng ta dẫn đến một hậu quả nguy hiểm không lường trước: Chúng ta bị mắc kẹt trong những "bong bóng lọc" và không được tiếp cận với những thông tin có thể thách thức và mở rộng thế giới quan của chúng ta. Eli Pariser lập luận một cách mạnh mẽ rằng điều đó cuối cùng sẽ trở nên tai hại cho chúng ta và cho nền dân chủ.
- Organizer and author
Pioneering online organizer Eli Pariser is the author of "The Filter Bubble," about how personalized search might be narrowing our worldview. Full bio

Double-click the English transcript below to play the video.

00:15
MarkMark ZuckerbergZuckerberg,
0
0
2000
Mark Zuckerberg,
00:17
a journalistnhà báo was askinghỏi him a questioncâu hỏi about the newsTin tức feednuôi.
1
2000
3000
một phóng viên đã hỏi ông một câu hỏi liên quan đến các thông tin cập nhật trên Facebook (news feed)
00:20
And the journalistnhà báo was askinghỏi him,
2
5000
2000
người phóng viên đó hỏi,
00:22
"Why is this so importantquan trọng?"
3
7000
2000
"Tại sao chúng lại quan trọng đến vậy?"
00:24
And ZuckerbergZuckerberg said,
4
9000
2000
Và Zuckerberg đã trả lời,
00:26
"A squirrelcon sóc dyingchết in your fronttrước mặt yardxưởng
5
11000
2000
"1 con sóc chết ở sân trước nhà bạn
00:28
mayTháng Năm be more relevantliên quan, thích hợp to your interestssở thích right now
6
13000
3000
có thể liên quan đến những mối quan tâm của bạn lúc này
00:31
than people dyingchết in AfricaAfrica."
7
16000
3000
hơn là những người chết ở châu Phi."
00:34
And I want to talk about
8
19000
2000
Và tôi muốn đề cập tới
00:36
what a WebWeb baseddựa trên on that ideaý kiến of relevancesự liên quan mightcó thể look like.
9
21000
3000
một trang web dựa trên ý tưởng về sự liên quan ấy sẽ như thế nào.
00:40
So when I was growingphát triển up
10
25000
2000
Khi tôi lớn lên
00:42
in a really ruralnông thôn areakhu vực in MaineMaine,
11
27000
2000
ở 1 vùng nông thôn thuộc Maine,
00:44
the InternetInternet meantý nghĩa something very differentkhác nhau to me.
12
29000
3000
Internet là là một điều gì đó thực sự khác biệt.
00:47
It meantý nghĩa a connectionkết nối to the worldthế giới.
13
32000
2000
Đó là sự liên kết với thế giới,
00:49
It meantý nghĩa something that would connectkết nối us all togethercùng với nhau.
14
34000
3000
Đó là điều gì đó có thể kết nối tất cả chúng ta với nhau.
00:52
And I was sure that it was going to be great for democracydân chủ
15
37000
3000
Và tôi chắc rằng nó sẽ thật tuyệt đối với nền dân chủ
00:55
and for our societyxã hội.
16
40000
3000
và cho xã hội của chúng ta.
00:58
But there's this shiftsự thay đổi
17
43000
2000
Nhưng rồi có 1 sự thay đổi
01:00
in how informationthông tin is flowingchảy onlineTrực tuyến,
18
45000
2000
trong việc luân chuyển các thông tin trên mạng,
01:02
and it's invisiblevô hình.
19
47000
3000
và nó diễn ra một cách thầm lặng.
01:05
And if we don't paytrả attentionchú ý to it,
20
50000
2000
Và nếu chúng ta ko để ý tới nó,
01:07
it could be a realthực problemvấn đề.
21
52000
3000
nó có thể trở thành 1 vấn đề thực sự.
01:10
So I first noticednhận thấy this in a placeđịa điểm I spendtiêu a lot of time --
22
55000
3000
Tôi chú ý tới điều này lần đầu tiên ở 1 nơi mà tôi đã dành rất nhiều thời gian --
01:13
my FacebookFacebook pagetrang.
23
58000
2000
Facebook của tôi.
01:15
I'm progressivecấp tiến, politicallychính trị -- biglớn surprisesự ngạc nhiên --
24
60000
3000
Tôi là người tiến bộ, về mặt chính trị -- bất ngờ lớn phải không --
01:18
but I've always goneKhông còn out of my way to meetgặp conservativesbảo thủ.
25
63000
2000
nhưng tôi luôn luôn tìm gặp những người bảo thủ.
01:20
I like hearingthính giác what they're thinkingSuy nghĩ about;
26
65000
2000
Tôi thích nghe những điều họ đang nghĩ tới;
01:22
I like seeingthấy what they linkliên kết to;
27
67000
2000
tôi muốn thấy họ liên kết với cái gì;
01:24
I like learninghọc tập a thing or two.
28
69000
2000
tôi muốn học được 1 điều gì đó.
01:26
And so I was surprisedngạc nhiên when I noticednhận thấy one day
29
71000
3000
Và tôi thực sự ngạc nhiên khi tới 1 ngày, tôi nhận ra
01:29
that the conservativesbảo thủ had disappearedbiến mất from my FacebookFacebook feednuôi.
30
74000
3000
rằng những người bảo thủ dần biến mất trong phần cập nhật Facebook của tôi.
01:33
And what it turnedquay out was going on
31
78000
2000
Hóa ra là
01:35
was that FacebookFacebook was looking at which linksliên kết I clickednhấp vào on,
32
80000
4000
Facebook đã quan sát những đường link mà tôi đã truy cập,
01:39
and it was noticingnhận thấy that, actuallythực ra,
33
84000
2000
và nhận ra rằng
01:41
I was clickingbấm vào more on my liberaltự do friends'bạn bè' linksliên kết
34
86000
2000
tôi đã truy cập vào các đường link của những người theo chủ nghĩa tự do nhiều hơn
01:43
than on my conservativethận trọng friends'bạn bè' linksliên kết.
35
88000
3000
là của những người bảo thủ.
01:46
And withoutkhông có consultingtư vấn me about it,
36
91000
2000
Không hề hỏi ý kiến tôi về điều này,
01:48
it had editedchỉnh sửa them out.
37
93000
2000
Facebook đã tự loại bỏ họ.
01:50
They disappearedbiến mất.
38
95000
3000
Và rồi họ biến mất.
01:54
So FacebookFacebook isn't the only placeđịa điểm
39
99000
2000
Facebook không phải là nơi duy nhất
01:56
that's doing this kindloại of invisiblevô hình, algorithmicthuật toán
40
101000
2000
làm những công việc biên tập vô hình, dựa trên những thuật toán,
01:58
editingchỉnh sửa of the WebWeb.
41
103000
3000
cho trang web của họ.
02:01
Google'sCủa Google doing it too.
42
106000
2000
Google cũng đang làm điều tương tự.
02:03
If I searchTìm kiếm for something, and you searchTìm kiếm for something,
43
108000
3000
Nếu tôi tìm kiếm điều gì đó, và bạn cũng tìm kiếm 1 điều tương tự,
02:06
even right now at the very sametương tự time,
44
111000
2000
thậm chí là ngay bây giờ, tại cùng 1 thời điểm,
02:08
we mayTháng Năm get very differentkhác nhau searchTìm kiếm resultscác kết quả.
45
113000
3000
chúng ta có thể sẽ nhận được những kết quả rất khác nhau.
02:11
Even if you're loggedđăng nhập out, one engineerkỹ sư told me,
46
116000
3000
Thậm chí nếu bạn đã đăng xuất, 1 kĩ sư đã nói với tôi,
02:14
there are 57 signalstín hiệu
47
119000
2000
có tới 57 dấu hiệu
02:16
that GoogleGoogle looksnhìn at --
48
121000
3000
để Google quan sát --
02:19
everything from what kindloại of computermáy vi tính you're on
49
124000
3000
từ loại máy tính mà bạn đang dùng,
02:22
to what kindloại of browsertrình duyệt you're usingsử dụng
50
127000
2000
trình duyệt bạn sử dụng
02:24
to where you're locatednằm --
51
129000
2000
cho tới vị trí của bạn --
02:26
that it usessử dụng to personallycá nhân tailorthợ may your querytruy vấn resultscác kết quả.
52
131000
3000
họ đã sử dụng chúng để điều chỉnh các kết quả tìm kiếm cho phù hợp với cá nhân bạn.
02:29
Think about it for a secondthứ hai:
53
134000
2000
Hãy nghĩ về điều này 1 chút --
02:31
there is no standardTiêu chuẩn GoogleGoogle anymorenữa không.
54
136000
4000
không còn 1 Google chuẩn nữa đâu.
02:35
And you know, the funnybuồn cười thing about this is that it's hardcứng to see.
55
140000
3000
Và bạn biết đấy, điều khôi hài là thực sự rất khó để nhận ra nó.
02:38
You can't see how differentkhác nhau your searchTìm kiếm resultscác kết quả are
56
143000
2000
Bạn không thể biết các kết quả của bạn khác biệt thế nào
02:40
from anyonebất kỳ ai else'scủa người khác.
57
145000
2000
so với của 1 người khác.
02:42
But a couplevợ chồng of weekstuần agotrước,
58
147000
2000
Nhưng khoảng hai tuần trước,
02:44
I askedyêu cầu a bunch of friendsbạn bè to GoogleGoogle "EgyptAi Cập"
59
149000
3000
tôi đã đề nghị 1 nhóm bạn cùng tìm kiếm trên Google với từ khóa "Egypt" (Ai Cập)
02:47
and to sendgửi me screenmàn shotsbức ảnh of what they got.
60
152000
3000
rồi gửi tôi bản chụp màn hình mà họ có.
02:50
So here'sđây là my friendngười bạn Scott'sScott's screenmàn shotbắn.
61
155000
3000
Và đây là bản chụp từ anh bạn Scott của tôi.
02:54
And here'sđây là my friendngười bạn Daniel'sDaniel's screenmàn shotbắn.
62
159000
3000
Còn đây là của Daniel.
02:57
When you put them side-by-sidecạnh bên nhau,
63
162000
2000
Khi tôi đặt chúng cạnh nhau,
02:59
you don't even have to readđọc the linksliên kết
64
164000
2000
thậm chí bạn không cần đọc những đường link
03:01
to see how differentkhác nhau these two pagestrang are.
65
166000
2000
để thấy chúng khác nhau đến thế nào.
03:03
But when you do readđọc the linksliên kết,
66
168000
2000
Nhưng khi bạn đọc những đường link này,
03:05
it's really quitekhá remarkableđáng chú ý.
67
170000
3000
chúng khá là khác thường đấy.
03:09
DanielDaniel didn't get anything about the protestsphản đối in EgyptAi Cập at all
68
174000
3000
Daniel không hề nhận được bất kỳ thứ gì về cuộc biểu tình ở Ai Cập
03:12
in his first pagetrang of GoogleGoogle resultscác kết quả.
69
177000
2000
ở trang đầu tiên của kết quả tìm kiếm.
03:14
Scott'sScott's resultscác kết quả were fullđầy of them.
70
179000
2000
Còn của Scott thì đầy những thứ như vậy.
03:16
And this was the biglớn storycâu chuyện of the day at that time.
71
181000
2000
Và đây thực sự là 1 vấn đề lớn ở thời điểm này,
03:18
That's how differentkhác nhau these resultscác kết quả are becomingtrở thành.
72
183000
3000
về việc các kết quả tìm kiếm đang trở nên khác nhau như thế nào.
03:21
So it's not just GoogleGoogle and FacebookFacebook eitherhoặc.
73
186000
3000
Không chỉ là Google hay Facebook đâu.
03:24
This is something that's sweepingquét the WebWeb.
74
189000
2000
Đó là 1 thứ đang lan tràn trong các trang web.
03:26
There are a wholetoàn thể hostchủ nhà of companiescác công ty that are doing this kindloại of personalizationcá nhân hóa.
75
191000
3000
Có rất nhiều công ty đang thực hiện việc cá nhân hóa như vậy.
03:29
YahooYahoo NewsTin tức, the biggestlớn nhất newsTin tức siteđịa điểm on the InternetInternet,
76
194000
3000
Yahoo News, trang tin tức lớn nhất trên mạng,
03:32
is now personalizedcá nhân hoá -- differentkhác nhau people get differentkhác nhau things.
77
197000
3000
đang được cá nhân hóa -- những người khác nhau sẽ nhận được những thứ khác nhau.
03:36
HuffingtonHuffington PostBài viết, the WashingtonWashington PostBài viết, the NewMới YorkYork TimesThời gian --
78
201000
3000
Huffington Post, the Washington Post, the New York Times --
03:39
all flirtingtán tỉnh with personalizationcá nhân hóa in variousnhiều wayscách.
79
204000
3000
tất cả đều đang thực hiện việc cá nhân hóa theo nhiều cách khác nhau.
03:42
And this movesdi chuyển us very quicklyMau
80
207000
3000
Và nó hướng chúng ta, 1 cách rất nhanh chóng,
03:45
towardđối với a worldthế giới in which
81
210000
2000
tới 1 thế giới mà ở đó
03:47
the InternetInternet is showinghiển thị us what it thinksnghĩ we want to see,
82
212000
4000
Internet sẽ cho chúng ta thấy cái mà nó nghĩ chúng ta muốn thấy,
03:51
but not necessarilynhất thiết what we need to see.
83
216000
3000
nhưng không phải luôn là những gì chúng ta cần.
03:54
As EricEric SchmidtSchmidt said,
84
219000
3000
Như Eric Schimidt đã nói,
03:57
"It will be very hardcứng for people to watch or consumetiêu dùng something
85
222000
3000
"Se rất khó khăn cho mọi người để xem hay sử dụng một thứ
04:00
that has not in some sensegiác quan
86
225000
2000
mà chưa hề
04:02
been tailoredphù hợp for them."
87
227000
3000
được điều chỉnh để phù hợp với họ."
04:05
So I do think this is a problemvấn đề.
88
230000
2000
Và tôi cho rằng đây chính là vấn đề.
04:07
And I think, if you take all of these filtersbộ lọc togethercùng với nhau,
89
232000
3000
Tôi cho rằng, nếu chúng ta để tất cả những hệ thống "lọc" này lại với nhau,
04:10
you take all these algorithmsthuật toán,
90
235000
2000
cùng với tất cả những thuật toán,
04:12
you get what I call a filterlọc bubblebong bóng.
91
237000
3000
chúng ta sẽ nhận được cái mà tôi gọi là "bong bóng lọc." (filter bubble)
04:16
And your filterlọc bubblebong bóng is your ownsở hữu personalcá nhân,
92
241000
3000
Và cái bong bóng lọc của bạn là một thế giới thông tin
04:19
uniqueđộc nhất universevũ trụ of informationthông tin
93
244000
2000
duy nhất của riêng bạn
04:21
that you livetrực tiếp in onlineTrực tuyến.
94
246000
2000
mà bạn sống trong đó trên thế giới mạng.
04:23
And what's in your filterlọc bubblebong bóng
95
248000
3000
Và những thứ có trong đó
04:26
dependsphụ thuộc on who you are, and it dependsphụ thuộc on what you do.
96
251000
3000
phụ thuộc vào việc bạn là ai, và bạn làm gì.
04:29
But the thing is that you don't decidequyết định what getsđược in.
97
254000
4000
Nhưng vấn đề là bạn không thể quyết định điều gì sẽ được đưa vào.
04:33
And more importantlyquan trọng,
98
258000
2000
Và quan trọng hơn,
04:35
you don't actuallythực ra see what getsđược editedchỉnh sửa out.
99
260000
3000
bạn thực sự không thể thấy điều gì đã được bỏ đi.
04:38
So one of the problemscác vấn đề with the filterlọc bubblebong bóng
100
263000
2000
Và một trong những vấn đề đối với bong bóng lọc
04:40
was discoveredphát hiện ra by some researchersCác nhà nghiên cứu at NetflixNetflix.
101
265000
3000
đã được phát hiện bởi 1 nhóm các nhà nghiên cứu ở Netflix.
04:43
And they were looking at the NetflixNetflix queueshàng đợi, and they noticednhận thấy something kindloại of funnybuồn cười
102
268000
3000
Khi họ quan sát các hàng đợi tại Netflix, họ nhận ra 1 điều rất khôi hài
04:46
that a lot of us probablycó lẽ have noticednhận thấy,
103
271000
2000
như phần lớn chúng ta đã nhận thấy,
04:48
which is there are some moviesphim
104
273000
2000
đó là có 1 số bộ phim
04:50
that just sortsắp xếp of zipzip right up and out to our housesnhà ở.
105
275000
3000
bằng cách nào đó đã được sắp xếp để đưa đến cho chúng ta
04:53
They enterđi vào the queuexếp hàng, they just zipzip right out.
106
278000
3000
Những bộ phim này được đưa vào hàng đợi, và sẽ được đưa ra một cách nhanh chóng.
04:56
So "IronSắt Man" zipsZips right out,
107
281000
2000
Và "Người sắt" (Iron Man) được đưa ra,
04:58
and "WaitingChờ đợi for SupermanSiêu nhân"
108
283000
2000
và "Waiting for Superman"
05:00
can wait for a really long time.
109
285000
2000
cũng ko phải đợi lâu.
05:02
What they discoveredphát hiện ra
110
287000
2000
Cái mà họ khám phá ra
05:04
was that in our NetflixNetflix queueshàng đợi
111
289000
2000
là trong những hàng đợi Netflix của chúng ta
05:06
there's this epicsử thi struggleđấu tranh going on
112
291000
3000
có 1 cuộc đấu tranh lớn đang diễn ra
05:09
betweengiữa our futureTương lai aspirationalaspirational selvesbản thân
113
294000
3000
giữa những điều mong muốn lâu dài
05:12
and our more impulsivebốc đồng presenthiện tại selvesbản thân.
114
297000
3000
và những ý muốn nhất thời.
05:15
You know we all want to be someonengười nào
115
300000
2000
Bạn biết tất cả chúng ta đều muốn là người
05:17
who has watchedđã xem "RashomonRashomon,"
116
302000
2000
đã xem "Rashomon,"
05:19
but right now
117
304000
2000
nhưng ngay lúc này
05:21
we want to watch "AceAce VenturaVentura" for the fourththứ tư time.
118
306000
3000
chúng ta lại muốn xem "Ace Ventura" lần thứ tư.
05:24
(LaughterTiếng cười)
119
309000
3000
(Tiếng cười)
05:27
So the besttốt editingchỉnh sửa givesđưa ra us a bitbit of bothcả hai.
120
312000
2000
Vậy nên sự biên tập tốt nhất cần đưa đến cho chúng ta 1 phần từ cả 2.
05:29
It givesđưa ra us a little bitbit of JustinJustin BieberBieber
121
314000
2000
Nó đưa đến cho chúng 1 chút về Justin Bieber
05:31
and a little bitbit of AfghanistanAfghanistan.
122
316000
2000
và 1 chút về Afghanistan.
05:33
It givesđưa ra us some informationthông tin vegetablesrau;
123
318000
2000
Nó mang đến 1 vài thông tin về rau quả,
05:35
it givesđưa ra us some informationthông tin dessertmón tráng miệng.
124
320000
3000
và 1 vài thông tin về bữa tráng miệng.
05:38
And the challengethử thách with these kindscác loại of algorithmicthuật toán filtersbộ lọc,
125
323000
2000
Và sự thách thức đối với những bộ lọc dựa trên thuật toán,
05:40
these personalizedcá nhân hoá filtersbộ lọc,
126
325000
2000
những bộ lọc hướng tới cá nhân này,
05:42
is that, because they're mainlychủ yếu looking
127
327000
2000
chính là, bởi vì chúng hầu như chỉ quan sát
05:44
at what you clicknhấp chuột on first,
128
329000
4000
những thứ chúng ta truy cập đầu tiên,
05:48
it can throwném off that balancecân đối.
129
333000
4000
nó có thể loại bỏ sự cân bằng đó.
05:52
And insteadthay thế of a balancedcân bằng informationthông tin dietchế độ ăn,
130
337000
3000
Thay vì nhận được thông tin về một bữa ăn cân bằng,
05:55
you can endkết thúc up surroundedĐược bao quanh
131
340000
2000
bạn có thể bị bao vây
05:57
by informationthông tin junkrác rưởi foodmón ăn.
132
342000
2000
bởi thông tin về đủ thứ thức ăn tạp nham.
05:59
What this suggestsgợi ý
133
344000
2000
Qua đó chúng ta có thể thấy
06:01
is actuallythực ra that we mayTháng Năm have the storycâu chuyện about the InternetInternet wrongsai rồi.
134
346000
3000
rằng thực tế chúng ta có vấn đề với những sai lầm của Internet.
06:04
In a broadcastphát sóng societyxã hội --
135
349000
2000
Trong thế giới truyền hình --
06:06
this is how the foundingthành lập mythologythần thoại goesđi --
136
351000
2000
đó là cách mà những điều không thể tưởng tượng được đang diễn ra --
06:08
in a broadcastphát sóng societyxã hội,
137
353000
2000
trong thế giới truyền hình,
06:10
there were these gatekeepersgatekeepers, the editorsbiên tập viên,
138
355000
2000
có những người gác cửa, những biên tập viên,
06:12
and they controlledkiểm soát the flowschảy of informationthông tin.
139
357000
3000
họ kiểm soát các luồng thông tin.
06:15
And alongdọc theo cameđã đến the InternetInternet and it sweptquét them out of the way,
140
360000
3000
Rồi internet ra đời, nó thổi bay họ đi
06:18
and it allowedđược cho phép all of us to connectkết nối togethercùng với nhau,
141
363000
2000
và nó cho phép chúng ta liên kết với nhau,
06:20
and it was awesometuyệt vời.
142
365000
2000
điều đó thật tuyệt vời.
06:22
But that's not actuallythực ra what's happeningxảy ra right now.
143
367000
3000
Nhưng đó không hẳn là những gì đang diễn ra lúc này.
06:26
What we're seeingthấy is more of a passingđi qua of the torchđuốc
144
371000
3000
Những gì chúng ta thấy dường như là sự truyền đi ngọn đuốc
06:29
from humanNhân loại gatekeepersgatekeepers
145
374000
2000
từ những người gác cửa
06:31
to algorithmicthuật toán onesnhững người.
146
376000
3000
tới những cơ chế dựa trên thuật toán.
06:34
And the thing is that the algorithmsthuật toán
147
379000
3000
Và vấn đề là những thuật toán này
06:37
don't yetchưa have the kindloại of embeddednhúng ethicsĐạo Đức
148
382000
3000
chưa được cài đặt trong nó những quy tắc xử thế
06:40
that the editorsbiên tập viên did.
149
385000
3000
như là những nhà biên tập đã làm.
06:43
So if algorithmsthuật toán are going to curatecurate the worldthế giới for us,
150
388000
3000
Vậy nếu những thuật toán tổ chức thế giới cho chúng ta,
06:46
if they're going to decidequyết định what we get to see and what we don't get to see,
151
391000
3000
nếu chúng quyết định cái chúng ta được thấy và không được thấy,
06:49
then we need to make sure
152
394000
2000
thì chúng ta cần chắc chắn rằng
06:51
that they're not just keyedkeyed to relevancesự liên quan.
153
396000
3000
chúng không chỉ hướng tới với sự liên quan.
06:54
We need to make sure that they alsocũng thế showchỉ us things
154
399000
2000
Chúng ta cần chắc chắn rằng chúng đồng thời chỉ ra
06:56
that are uncomfortablekhó chịu or challengingthách thức or importantquan trọng --
155
401000
3000
những thứ không dễ chịu hay đầy thử thách hay quan trọng --
06:59
this is what TEDTED does --
156
404000
2000
đó là điều mà TED đang làm --
07:01
other pointsđiểm of viewlượt xem.
157
406000
2000
những quan điểm khác biệt.
07:03
And the thing is, we'vechúng tôi đã actuallythực ra been here before
158
408000
2000
Và chúng ta thực sự đã ở đây từ trước đó
07:05
as a societyxã hội.
159
410000
2000
như là 1 xã hội.
07:08
In 1915, it's not like newspapersBáo were sweatingra mồ hôi a lot
160
413000
3000
Vào năm 1915, không nhiều tờ báo đổ mồ hôi công sức
07:11
about theirhọ civiccông dân responsibilitiestrách nhiệm.
161
416000
3000
cho những trách nhiệm công dân của họ.
07:14
Then people noticednhận thấy
162
419000
2000
Rồi họ nhận ra rằng
07:16
that they were doing something really importantquan trọng.
163
421000
3000
mình đang làm 1 việc thực sự quan trọng.
07:19
That, in factthực tế, you couldn'tkhông thể have
164
424000
2000
Rằng, trong thực tế, bạn không thể có được
07:21
a functioningchức năng democracydân chủ
165
426000
2000
một nền dân chủ thực sự
07:23
if citizenscông dân didn't get a good flowlưu lượng of informationthông tin,
166
428000
4000
nếu công dân không nhận được những luồng thông tin tốt.
07:28
that the newspapersBáo were criticalchỉ trích because they were actingdiễn xuất as the filterlọc,
167
433000
3000
Rằng những tờ báo là quan trọng, bởi vì chúng đóng vai trò như 1 bộ lọc,
07:31
and then journalisticbáo chí ethicsĐạo Đức developedđã phát triển.
168
436000
2000
rồi đạo đức nhà báo được nâng lên.
07:33
It wasn'tkhông phải là perfecthoàn hảo,
169
438000
2000
Nó đã chưa thực sự hoàn hảo,
07:35
but it got us throughxuyên qua the last centurythế kỷ.
170
440000
3000
nhưng nó đã đi cùng chúng ta trong suốt thế kỷ trước.
07:38
And so now,
171
443000
2000
Và tới giờ,
07:40
we're kindloại of back in 1915 on the WebWeb.
172
445000
3000
chúng ta dường như quay trở lại năm 1915 với các trang web.
07:44
And we need the newMới gatekeepersgatekeepers
173
449000
3000
Và chúng ta cần những người gác cửa mới
07:47
to encodemã hóa that kindloại of responsibilitytrách nhiệm
174
452000
2000
để mã hóa trách nhiệm đó
07:49
into the code that they're writingviết.
175
454000
2000
thành những dòng mã nguồn mà họ đang viết.
07:51
I know that there are a lot of people here from FacebookFacebook and from GoogleGoogle --
176
456000
3000
Tôi biết rằng có rất nhiều người ở đây đang làm việc cho Facebook và Google --
07:54
LarryLarry and SergeySergey --
177
459000
2000
như Larry và Sergey --
07:56
people who have helpedđã giúp buildxây dựng the WebWeb as it is,
178
461000
2000
những người đã góp phần xây dựng nên nền tảng web như bây giờ,
07:58
and I'm gratefultri ân for that.
179
463000
2000
và tôi thực sự biết ơn về điều đó.
08:00
But we really need you to make sure
180
465000
3000
Nhưng chúng tôi cần các bạn chắc chắn rằng
08:03
that these algorithmsthuật toán have encodedmã hóa in them
181
468000
3000
những thuật toán này sẽ được mã hóa trong chúng
08:06
a sensegiác quan of the publiccông cộng life, a sensegiác quan of civiccông dân responsibilitytrách nhiệm.
182
471000
3000
một ý thức về cuộc sống cộng đồng, một ý thức về trách nhiệm công dân.
08:09
We need you to make sure that they're transparenttrong suốt enoughđủ
183
474000
3000
Chúng tôi cần các bạn chắc chắn rằng, chúng đủ rõ ràng
08:12
that we can see what the rulesquy tắc are
184
477000
2000
để chúng tôi có thể nhìn thấy những quy tắc
08:14
that determinemục đích what getsđược throughxuyên qua our filtersbộ lọc.
185
479000
3000
quyết định những gì sẽ đi qua hệ thống lọc của các bạn.
08:17
And we need you to give us some controlđiều khiển
186
482000
2000
Và chúng tôi cần các bạn cung cấp cho chúng tôi sự kiểm soát,
08:19
so that we can decidequyết định
187
484000
2000
để chúng tôi có thể quyết định
08:21
what getsđược throughxuyên qua and what doesn't.
188
486000
3000
điều gì sẽ bị lọc hay không.
08:24
Because I think
189
489000
2000
Bởi vì tôi cho rằng
08:26
we really need the InternetInternet to be that thing
190
491000
2000
chúng ta thực sự cần Internet như là 1 thứ
08:28
that we all dreamedmơ ước of it beingđang.
191
493000
2000
mà chúng ta từng mơ tới.
08:30
We need it to connectkết nối us all togethercùng với nhau.
192
495000
3000
Chúng ta cần nó để liên kết tất cả mọi người lại.
08:33
We need it to introducegiới thiệu us to newMới ideasý tưởng
193
498000
3000
Chúng ta cần nó để giới thiệu với chúng ta những ý tưởng mới,
08:36
and newMới people and differentkhác nhau perspectivesquan điểm.
194
501000
3000
những con người mới và những triển vọng mới.
08:40
And it's not going to do that
195
505000
2000
Và nó sẽ không như vậy
08:42
if it leaves us all isolatedbị cô lập in a WebWeb of one.
196
507000
3000
nếu nó khiến chúng ta bị cách ly trong 1 hệ thống web của cá nhân.
08:45
Thank you.
197
510000
2000
Cảm ơn các bạn.
08:47
(ApplauseVỗ tay)
198
512000
11000
(Vỗ tay)
Translated by Minh Dung Tran
Reviewed by Minh Trang Lai

▲Back to top

ABOUT THE SPEAKER
Eli Pariser - Organizer and author
Pioneering online organizer Eli Pariser is the author of "The Filter Bubble," about how personalized search might be narrowing our worldview.

Why you should listen

Shortly after the September 11, 2001, attacks, Eli Pariser created a website calling for a multilateral approach to fighting terrorism. In the following weeks, over half a million people from 192 countries signed on, and Pariser rather unexpectedly became an online organizer. The website merged with MoveOn.org in November 2001, and Pariser -- then 20 years old -- joined the group to direct its foreign policy campaigns. He led what the New York Times Magazine called the "mainstream arm of the peace movement" -- tripling MoveOn's member base and demonstrating how large numbers of small donations could be mobilized through online engagement.

In 2004, Pariser became executive director of MoveOn. Under his leadership, MoveOn.org Political Action has grown to 5 million members and raised over $120 million from millions of small donors to support advocacy campaigns and political candidates. Pariser focused MoveOn on online-to-offline organizing, developing phone-banking tools and precinct programs in 2004 and 2006 that laid the groundwork for Barack Obama's extraordinary web-powered campaign. In 2008, Pariser transitioned the Executive Director role at MoveOn to Justin Ruben and became President of MoveOn’s board; he's now a senior fellow at the Roosevelt Institute.

His book The Filter Bubble is set for release May 12, 2011. In it, he asks how modern search tools -- the filter by which many of see the wider world -- are getting better and better and screening the wider world from us, by returning only the search results it "thinks" we want to see.

More profile about the speaker
Eli Pariser | Speaker | TED.com