ABOUT THE SPEAKER
Tristan Harris - Design thinker
Tristan Harris helps the technology industry more consciously and ethically shape the human spirit and human potential.

Why you should listen

Tristan Harris has been called "the closest thing Silicon Valley has to a conscience" by The Atlantic magazine. Prior to founding the new Center for Humane Technology, he was Google's Design Ethicist, developing a framework for how technology should "ethically" steer the thoughts and actions of billions of people from screens.  

Harris has spent a decade understanding the invisible influences that hijack human thinking and action. Drawing on literature from addiction, performative magic, social engineering, persuasive design and behavioral economics, he is currently developing a framework for ethical persuasion, especially as it relates to the moral responsibility of technology companies.

Rolling Stone magazine named Harris one of "25 People Shaping the World" in 2017. His work has been featured on TED, "60 Minutes," HBO's "RealTime with Bill Maher," "PBS NewsHour," Recode, The Atlantic, WIRED, the New York Times, Der Spiegel, The Economist and many more. Harris has briefed heads of state, technology company CEOs and members of the US Congress about the attention economy.

More profile about the speaker
Tristan Harris | Speaker | TED.com
TED2017

Tristan Harris: How a handful of tech companies control billions of minds every day

Tristan Harris: Cách các công ty công nghệ điều khiển suy nghĩ của hàng tỷ người mỗi ngày

Filmed:
2,591,029 views

Nhà thiết kế ý tưởng Tristan Harris cho rằng những người làm việc tại các công ty công nghệ đang điều khiển suy nghĩ của hàng tỷ người mỗi ngày. Từ thông báo Facebook đến Snapstreaks, đến chế độ tự động phát của YouTube, họ đang cạnh tranh cho một thứ: sự chú ý của bạn. Harris chia sẻ làm thế nào những công ty này nắm bắt tâm lý con người để phục vụ lợi nhuận của họ và kêu gọi một thiết kế phục hưng để khuyến khích con người sống theo thời gian họ muốn.
- Design thinker
Tristan Harris helps the technology industry more consciously and ethically shape the human spirit and human potential. Full bio

Double-click the English transcript below to play the video.

00:12
I want you to imaginetưởng tượng
0
960
1200
Hãy tưởng tượng
00:15
walkingđi dạo into a roomphòng,
1
3000
1200
bạn đang đi vào một căn phòng,
00:17
a controlđiều khiển roomphòng with a bunch of people,
2
5480
2136
là phòng điều khiển,
cùng với một nhóm người
00:19
a hundredhàng trăm people, hunchedhunched
over a deskbàn with little dialsquay số,
3
7640
2840
một trăm người, quanh một cái bàn
với những chiếc điện thoại quay số
00:23
and that that controlđiều khiển roomphòng
4
11280
1520
và phòng điều khiển đó
00:25
will shapehình dạng the thoughtssuy nghĩ and feelingscảm xúc
5
13680
3696
sẽ định hình suy nghĩ và cảm xúc
00:29
of a billiontỷ people.
6
17400
1240
của một tỷ người.
00:32
This mightcó thể soundâm thanh like sciencekhoa học fictionviễn tưởng,
7
20560
1880
Điều đó nghe như khoa học viễn tưởng,
00:35
but this actuallythực ra existstồn tại
8
23320
2216
nhưng điều đó thực sự đang tồn tại
00:37
right now, todayhôm nay.
9
25560
1200
ngay hôm nay, ngay lúc này.
00:40
I know because I used to be
in one of those controlđiều khiển roomsphòng.
10
28040
3360
Tôi biết vì tôi đã từng là
một trong những người ở căn phòng đó.
00:44
I was a designthiết kế ethicistethicist at GoogleGoogle,
11
32159
2297
Tôi đã là người phác thảo khuôn mẫu
tại Google,
00:46
where I studiedđã học how do you ethicallyĐạo Đức
steerchỉ đạo people'sngười thoughtssuy nghĩ?
12
34480
3360
nơi tôi học làm thế nào bạn hướng
ý nghĩ con người theo khuôn mẫu.
00:50
Because what we don't talk about
is how the handfulsố ít of people
13
38560
2896
Vì chúng tôi không nói về việc
làm thế nào mà một nhóm người
00:53
workingđang làm việc at a handfulsố ít
of technologyCông nghệ companiescác công ty
14
41480
2536
đang làm việc cho một số
công ty công nghệ
00:56
throughxuyên qua theirhọ choicessự lựa chọn will steerchỉ đạo
what a billiontỷ people are thinkingSuy nghĩ todayhôm nay.
15
44040
5040
thông qua lựa chọn của họ
để điều khiển suy nghĩ của một tỉ người.
01:02
Because when you pullkéo out your phoneđiện thoại
16
50400
1736
Vì khi bạn lấy điện thoại ra
01:04
and they designthiết kế how this workscông trinh
or what's on the feednuôi,
17
52160
3096
và họ thiết kế việc gì kế tiếp,
cái gì sẽ hiện ra,
01:07
it's schedulinglập kế hoạch little blockskhối
of time in our mindstâm trí.
18
55280
3216
nó lên lịch như một đồng hồ nhỏ
trong suy nghĩ của bạn.
01:10
If you see a notificationthông báo,
it scheduleslịch trình you to have thoughtssuy nghĩ
19
58520
3136
Nếu bạn thấy một thông báo,
nó khiến bạn có những suy nghĩ
01:13
that maybe you didn't intenddự định to have.
20
61680
2040
mà bạn vốn không muốn có.
01:16
If you swipeswipe over that notificationthông báo,
21
64400
2616
Nếu bạn bỏ qua những thông báo đó,
01:19
it scheduleslịch trình you into spendingchi tiêu
a little bitbit of time
22
67040
2381
nó sẽ đặt lịch cho bạn
dùng từng chút thời gian
01:21
gettingnhận được suckedbị hút into something
23
69445
1381
để bị thu hút vào một điều đó
01:22
that maybe you didn't intenddự định
to get suckedbị hút into.
24
70850
2955
mà bạn vốn không muốn bị thu hút vào.
01:27
When we talk about technologyCông nghệ,
25
75320
1520
Khi chúng ta nói về công nghệ,
chúng ta có khuynh hướng nói về nó
như một chân trời cơ hội,
01:30
we tendcó xu hướng to talk about it
as this bluemàu xanh da trời skybầu trời opportunitycơ hội.
26
78040
2696
01:32
It could go any directionphương hướng.
27
80760
1480
có thể đi bất kỳ hướng nào.
01:35
And I want to get seriousnghiêm trọng for a momentchốc lát
28
83400
1856
Và lúc này tôi muốn nghiêm túc
01:37
and tell you why it's going
in a very specificriêng directionphương hướng.
29
85280
2680
nói với các bạn tại sao nó luôn đi theo
một hướng nhất định.
01:40
Because it's not evolvingphát triển randomlyngẫu nhiên.
30
88840
2200
Vì nó không phát triển một
cách ngẫu nhiên.
01:44
There's a hiddenẩn goalmục tiêu
drivingđiều khiển the directionphương hướng
31
92000
2016
Có một mục tiêu ẩn dẫn dắt hướng đi
01:46
of all of the technologyCông nghệ we make,
32
94040
2136
cho tất cả công nghệ chúng tôi tạo ra,
01:48
and that goalmục tiêu is the racecuộc đua
for our attentionchú ý.
33
96200
2920
và mục tiêu đó là
cuộc đua giành sự chú ý.
Vì mọi trang mạng mới--
01:52
Because everymỗi newMới siteđịa điểm --
34
100840
2736
01:55
TEDTED, electionscuộc bầu cử, politicianschính trị gia,
35
103600
2736
TED, bầu cử, chính khách,
01:58
gamesTrò chơi, even meditationthiền định appsứng dụng --
36
106360
1976
trò chơi, cả những ứng dụng để thiền--
02:00
have to competecạnh tranh for one thing,
37
108360
1960
phải tranh giành một thứ,
02:03
which is our attentionchú ý,
38
111160
1736
đó là sự chú ý của chúng ta,
02:04
and there's only so much of it.
39
112920
1600
và nó bị giới hạn số lượng.
02:08
And the besttốt way to get people'sngười attentionchú ý
40
116440
2416
Và cách tốt nhất để có được
sự chú ý của mọi người
02:10
is to know how someone'scủa ai đó mindlí trí workscông trinh.
41
118880
2440
là biết cách họ tư duy.
02:13
And there's a wholetoàn thể bunch
of persuasivethuyết phục techniqueskỹ thuật
42
121800
2336
Có một loạt những kỹ thuật thuyết phục
02:16
that I learnedđã học in collegetrường đại học at a labphòng thí nghiệm
calledgọi là the PersuasiveThuyết phục TechnologyCông nghệ LabPhòng thí nghiệm
43
124160
3496
mà tôi đã học tại phòng thí nghiệm
tên là Phòng Công Nghệ Thuyết Phục
02:19
to get people'sngười attentionchú ý.
44
127680
1600
để lấy được sự chú ý của mọi người.
02:21
A simpleđơn giản examplethí dụ is YouTubeYouTube.
45
129880
1480
Ví dụ đơn giản như YouTube.
02:24
YouTubeYouTube wants to maximizetối đa hóa
how much time you spendtiêu.
46
132000
2936
YouTube muốn tối đa hoá
thời gian bạn sử dụng nó.
02:26
And so what do they do?
47
134960
1200
Và họ sẽ làm gì?
02:28
They autoplayphát tự động the nextkế tiếp videovideo.
48
136840
2280
Họ tự động chuyển sang video kế tiếp.
02:31
And let's say that workscông trinh really well.
49
139760
1816
Việc này rất có hiệu quả.
02:33
They're gettingnhận được a little bitbit
more of people'sngười time.
50
141600
2416
Họ có thêm một chút
thời gian của người dùng.
02:36
Well, if you're NetflixNetflix,
you look at that and say,
51
144040
2376
Nếu bạn là Netflix,
bạn nhìn vào đó và nói,
02:38
well, that's shrinkingco lại my marketthị trường sharechia sẻ,
52
146440
1858
nó làm giảm thị phần của chúng ta,
02:40
so I'm going to autoplayphát tự động the nextkế tiếp episodeEpisode.
53
148322
2000
nên ta sẽ tự chuyển sang tập kế tiếp.
02:43
But then if you're FacebookFacebook,
54
151320
1376
Nhưng nếu bạn là Facebook,
02:44
you say, that's shrinkingco lại
all of my marketthị trường sharechia sẻ,
55
152720
2336
bạn nói, nó làm giảm hết
thị phần của chúng ta
nên ta sẽ phải tự động chạy tất cả
các video trên trang chủ
02:47
so now I have to autoplayphát tự động
all the videosvideo in the newsfeednewsfeed
56
155080
2656
02:49
before waitingđang chờ đợi for you to clicknhấp chuột playchơi.
57
157760
1762
mà không cần chờ bạn nhấn nút.
02:52
So the internetInternet is not evolvingphát triển at randomngẫu nhiên.
58
160320
3160
Do vậy, Internet không phát triển
một cách ngẫu nhiên.
02:56
The reasonlý do it feelscảm thấy
like it's suckingsucking us in the way it is
59
164320
4416
Lí do nó khiến chúng ta thấy như bị
"hút cạn" thời gian
03:00
is because of this racecuộc đua for attentionchú ý.
60
168760
2376
là bởi vì cuộc đua giành sự chú ý này.
Chúng tôi biết nó sẽ đi tới đâu.
03:03
We know where this is going.
61
171160
1416
03:04
TechnologyCông nghệ is not neutralTrung tính,
62
172600
1520
Công nghệ không trung tính,
03:07
and it becomestrở thành this racecuộc đua
to the bottomđáy of the brainóc stemthân cây
63
175320
3416
và nó trở thành cuộc đua đến
tận gốc của tế bào não
03:10
of who can go lowerthấp hơn to get it.
64
178760
2200
ai có thể đi sâu hơn để có được nó.
03:13
Let me give you an examplethí dụ of SnapchatSnapchat.
65
181920
2336
Tôi sẽ lấy một ví dụ về Snapchat.
03:16
If you didn't know,
SnapchatSnapchat is the numbercon số one way
66
184280
3696
Nếu bạn không biết,
Snapchat là cách giao tiếp phổ biến nhất
của các thiếu niên Mỹ.
03:20
that teenagersthanh thiếu niên in
the UnitedVương StatesTiểu bang communicategiao tiếp.
67
188000
2256
03:22
So if you're like me, and you use
textbản văn messagestin nhắn to communicategiao tiếp,
68
190280
4176
Nếu bạn giống tôi, sử dụng
tin nhắn thường để trao đổi.
thì Snapchat là thứ tương tự
mà các thiếu niên sử dụng,
03:26
SnapchatSnapchat is that for teenagersthanh thiếu niên,
69
194480
1776
03:28
and there's, like,
a hundredhàng trăm milliontriệu of them that use it.
70
196280
2696
có khoảng một trăm triệu người sử dụng nó.
03:31
And they inventedphát minh
a featuređặc tính calledgọi là SnapstreaksCác snapstreaks,
71
199000
2216
Họ đã phát minh một chức năng
gọi là Snaptreakes,
03:33
which showstrình diễn the numbercon số of daysngày in a rowhàng
72
201240
1896
cho biết số ngày liên tiếp
03:35
that two people have
communicatedtruyền đạt with eachmỗi other.
73
203160
2616
mà hai người trò chuyện với nhau.
03:37
In other wordstừ ngữ, what they just did
74
205800
1856
Nói cách khác, điều họ làm
03:39
is they gaveđưa ra two people
something they don't want to losethua.
75
207680
2960
là cho hai con người
một thứ mà họ không muốn mất.
03:44
Because if you're a teenagerthiếu niên,
and you have 150 daysngày in a rowhàng,
76
212000
3456
Vì nếu bạn là một thiếu niên, và bạn có
kỉ lục 150 ngày liên tiếp,
03:47
you don't want that to go away.
77
215480
1976
bạn không muốn làm mất nó.
03:49
And so think of the little blockskhối of time
that that scheduleslịch trình in kids'dành cho trẻ em mindstâm trí.
78
217480
4160
Hãy nghĩ về một khoảng thời gian
đặt lịch cố định trong đầu bọn trẻ.
Đây không phải là lý thuyết:
khi bọn trẻ đi nghỉ mát,
03:54
This isn't theoreticallý thuyết:
when kidstrẻ em go on vacationkỳ nghỉ,
79
222160
2336
03:56
it's been shownđược hiển thị they give theirhọ passwordsmật khẩu
to up to fivesố năm other friendsbạn bè
80
224520
3256
chúng sẽ đưa mật khẩu
cho khoảng năm người bạn khác nhau
03:59
to keep theirhọ SnapstreaksCác snapstreaks going,
81
227800
2216
để giữ kỉ lục Snapstreakes,
04:02
even when they can't do it.
82
230040
2016
ngay cả khi chúng không thể làm điều đó.
04:04
And they have, like, 30 of these things,
83
232080
1936
Và chúng có khoảng 30 thứ như vậy,
04:06
and so they have to get throughxuyên qua
takinglấy photosảnh of just picturesnhững bức ảnh or wallsbức tường
84
234040
3376
và phải có những bức hình dù là
tranh hay bức tường
04:09
or ceilingstrần nhà just to get throughxuyên qua theirhọ day.
85
237440
2480
hay trần nhà chỉ để qua ngày.
04:13
So it's not even like
they're havingđang có realthực conversationscuộc trò chuyện.
86
241200
2696
Do vậy nó sẽ không giống
một cuộc trò chuyện thật sự.
04:15
We have a temptationCám dỗ to think about this
87
243920
1936
Chúng ta có xu hướng nghĩ về nó
04:17
as, oh, they're just usingsử dụng SnapchatSnapchat
88
245880
2696
như, oh, chúng chỉ dùng Snapchat
như cách chúng ta dùng điện thoại
để tám chuyện,
04:20
the way we used to
gossipMach lẻo on the telephoneĐiện thoại.
89
248600
2016
04:22
It's probablycó lẽ OK.
90
250640
1200
có thể chấp nhận được.
04:24
Well, what this missesnhớ
is that in the 1970s,
91
252480
2256
Nhưng sự khác biệt là
vào những năm 1970,
04:26
when you were just
gossipinggossiping on the telephoneĐiện thoại,
92
254760
2615
khi bạn chỉ trò chuyện trên điện thoại,
04:29
there wasn'tkhông phải là a hundredhàng trăm engineersKỹ sư
on the other sidebên of the screenmàn
93
257399
3017
lúc đó không có hàng trăm kỹ sư
ngồi trước màn hình
04:32
who knewbiết exactlychính xác
how your psychologytâm lý học workedđã làm việc
94
260440
2056
những người biết chính xác
hoạt động tâm lý của bạn
04:34
and orchestratedsắp you
into a doublegấp đôi bindtrói buộc with eachmỗi other.
95
262520
2640
và sắp đặt bạn vào mối liên kết
với những người khác.
04:38
Now, if this is makingchế tạo you
feel a little bitbit of outragexúc phạm,
96
266440
3400
Bây giờ, nếu điều đó đang tạo cho bạn
cảm giác bực bội.
04:42
noticeđể ý that that thought
just comesđến over you.
97
270680
2576
chú ý rằng ý nghĩ đó
chỉ thoáng qua bạn.
04:45
OutrageSự phẫn nộ is a really good way alsocũng thế
of gettingnhận được your attentionchú ý,
98
273280
3320
Sự bực bội này là cách tốt nhất để
có được sự chú ý của bạn
vì ta không lựa chọn sự bực bội
04:49
because we don't choosechọn outragexúc phạm.
99
277880
1576
mà là nó đang diễn ra với chúng ta,
04:51
It happensxảy ra to us.
100
279480
1416
04:52
And if you're the FacebookFacebook newsfeednewsfeed,
101
280920
1856
và nếu bạn có tin tức Facebook,
04:54
whetherliệu you'dbạn muốn want to or not,
102
282800
1416
dù bạn muốn hay không
04:56
you actuallythực ra benefitlợi ích when there's outragexúc phạm.
103
284240
2736
bạn được hưởng lợi khi có sự bực bội.
04:59
Because outragexúc phạm
doesn't just schedulekế hoạch a reactionphản ứng
104
287000
2936
Vì sự bực bội này không chỉ được lên lịch
như phản ứng
05:01
in emotionalđa cảm time, spacekhông gian, for you.
105
289960
2880
trong cảm xúc không gian, thời gian
của bạn.
Chúng ta muốn chia sẻ sự phẫn nộ này
với những người khác.
05:05
We want to sharechia sẻ that outragexúc phạm
with other people.
106
293440
2416
05:07
So we want to hitđánh sharechia sẻ and say,
107
295880
1576
Và ta muốn chia sẻ và nói,
05:09
"Can you believe the thing
that they said?"
108
297480
2040
"Bạn có thể tin những gì họ đã nói không?"
05:12
And so outragexúc phạm workscông trinh really well
at gettingnhận được attentionchú ý,
109
300520
3376
Và sự phẫn nộ rất dễ gây sự chú ý,
05:15
suchnhư là that if FacebookFacebook had a choicelựa chọn
betweengiữa showinghiển thị you the outragexúc phạm feednuôi
110
303920
3896
đến mức nếu Facebook có sự lựa chọn
giữa việc đưa thông tin gây phẫn nộ
05:19
and a calmđiềm tĩnh newsfeednewsfeed,
111
307840
1320
hay những tin tức bình yên,
05:22
they would want
to showchỉ you the outragexúc phạm feednuôi,
112
310120
2136
họ muốn đưa những tin tức gây phẫn nộ
05:24
not because someonengười nào
consciouslycó ý thức choseđã chọn that,
113
312280
2056
không chủ đích vì một người nào,
05:26
but because that workedđã làm việc better
at gettingnhận được your attentionchú ý.
114
314360
2680
nhưng vị việc tạo được sự
chú ý sẽ tốt hơn.
05:31
And the newsfeednewsfeed controlđiều khiển roomphòng
is not accountablecó trách nhiệm to us.
115
319120
5480
Và phòng điều khiển tin tức
không thuộc trách nhiệm của chúng tôi.
05:37
It's only accountablecó trách nhiệm
to maximizingtối đa attentionchú ý.
116
325040
2296
Nó chỉ chịu trách nhiệm cho sự chú ý
lớn nhất.
05:39
It's alsocũng thế accountablecó trách nhiệm,
117
327360
1216
Nó chỉ có trách nhiệm
05:40
because of the businesskinh doanh modelmô hình
of advertisingquảng cáo,
118
328600
2376
theo một dạng quảng cáo kinh doanh,
05:43
for anybodybất kỳ ai who can paytrả the mostphần lớn
to actuallythực ra walkđi bộ into the controlđiều khiển roomphòng
119
331000
3336
cho bất kỳ ai trả tiền để đi vào phòng
điều khiển
05:46
and say, "That groupnhóm over there,
120
334360
1576
và nói, "Nhóm kia,
05:47
I want to schedulekế hoạch these thoughtssuy nghĩ
into theirhọ mindstâm trí."
121
335960
2640
tôi muốn lên lịch
cho những suy nghĩ trong họ".
05:51
So you can targetMục tiêu,
122
339760
1200
Và bạn có thể có nhắm tới
05:54
you can preciselyđúng targetMục tiêu a lienói dối
123
342040
1936
bạn có thể liên tục nhắm tới việc lừa
05:56
directlytrực tiếp to the people
who are mostphần lớn susceptiblenhạy cảm.
124
344000
2920
một người nhạy cảm một cách trực tiếp.
06:00
And because this is profitablecó lãi,
it's only going to get worsetệ hơn.
125
348080
2880
Và vì đây là việc sinh lời,
nên nó dần trở nên xấu đi.
06:05
So I'm here todayhôm nay
126
353040
1800
Do vậy tôi ở đây hôm nay
06:08
because the costschi phí are so obvioushiển nhiên.
127
356160
2000
vì cái giá của nó rất hiển nhiên.
06:12
I don't know a more urgentkhẩn cấp
problemvấn đề than this,
128
360280
2136
Tôi không biết những vấn đề cấp thiết hơn,
06:14
because this problemvấn đề
is underneathbên dưới all other problemscác vấn đề.
129
362440
3120
vì vấn đề này nằm dưới những vấn đề khác.
06:18
It's not just takinglấy away our agencyđại lý
130
366720
3176
Nó không chỉ làm mất quyền của chúng ta
06:21
to spendtiêu our attentionchú ý
and livetrực tiếp the livescuộc sống that we want,
131
369920
2600
về điều ta quan tâm
và sống cuộc sống chúng ta muốn,
06:25
it's changingthay đổi the way
that we have our conversationscuộc trò chuyện,
132
373720
3536
nó đang thay đổi cách thức chúng ta
trò chuyện,
06:29
it's changingthay đổi our democracydân chủ,
133
377280
1736
nó đang thay đổi chế độ dân chủ,
06:31
and it's changingthay đổi our abilitycó khả năng
to have the conversationscuộc trò chuyện
134
379040
2616
và nó đang thay đổi khả năng có thể
bắt chuyện
06:33
and relationshipscác mối quan hệ we want with eachmỗi other.
135
381680
2000
và mối quan hệ chúng ta muốn có.
06:37
And it affectsảnh hưởng everyonetất cả mọi người,
136
385160
1776
Và nó có ảnh hưởng tới mọi người,
06:38
because a billiontỷ people
have one of these in theirhọ pocketbỏ túi.
137
386960
3360
vì hàng tỷ người có mặt trong số
những nhóm đặc biệt đó.
06:45
So how do we fixsửa chữa this?
138
393360
1400
Vậy chúng ta thay đổi nó thế nào?
06:49
We need to make threesố ba radicalcăn bản changesthay đổi
139
397080
2936
Chúng ta cần tạo ra ba thay đổi lớn
06:52
to technologyCông nghệ and to our societyxã hội.
140
400040
1800
về công nghệ và xã hội.
06:55
The first is we need to acknowledgecông nhận
that we are persuadablecó thể thuyết phục.
141
403720
3800
Điều đầu tiên, chúng ta cần hiểu rằng
mình dễ bị thuyết phục.
Một khi bạn bắt đầu hiểu
07:00
OnceMột lần you startkhởi đầu understandinghiểu biết
142
408840
1376
rằng trí nhớ của bạn có thể được lên lịch
cho các suy nghĩ thoáng qua
07:02
that your mindlí trí can be scheduledtheo lịch trình
into havingđang có little thoughtssuy nghĩ
143
410240
2776
07:05
or little blockskhối of time
that you didn't choosechọn,
144
413040
2576
hoặc một thời khắc mà bạn
không lựa chọn
07:07
wouldn'tsẽ không we want to use that understandinghiểu biết
145
415640
2056
chẳng phải chúng ta muốn dùng điều đó
để bảo vệ chống lại cách mà nó
đang diễn ra sao?
07:09
and protectbảo vệ againstchống lại the way
that that happensxảy ra?
146
417720
2160
07:12
I think we need to see ourselveschúng ta
fundamentallyvề cơ bản in a newMới way.
147
420600
3296
Tôi nghĩ ta cần nhìn nhận bản thân
theo một cách mới.
Nó gần như một giai đoạn mới
của lịch sử loài người,
07:15
It's almosthầu hết like a newMới periodgiai đoạn
of humanNhân loại historylịch sử,
148
423920
2216
07:18
like the EnlightenmentGiác ngộ,
149
426160
1216
như một sự khai sáng,
07:19
but almosthầu hết a kindloại of
self-awaretrau EnlightenmentGiác ngộ,
150
427400
2216
nhưng thiên về tự khai sáng,
07:21
that we can be persuadedthuyết phục,
151
429640
2080
rằng chúng ta có thể bị thuyết phục,
07:24
and there mightcó thể be something
we want to protectbảo vệ.
152
432320
2240
và có một số điều mà chúng ta muốn bảo vệ.
07:27
The secondthứ hai is we need newMới modelsmô hình
and accountabilitytrách nhiệm giải trình systemshệ thống
153
435400
4576
Thứ hai là chúng ta cần một mô hình mới
và hệ thống đáng tin cậy
07:32
so that as the worldthế giới getsđược better
and more and more persuasivethuyết phục over time --
154
440000
3496
để khi thế giới trở nên tốt hơn
và có sức thuyết phục theo thời gian hơn-
07:35
because it's only going
to get more persuasivethuyết phục --
155
443520
2336
bởi vì nó chỉ ngày càng nhiều
sức thuyết phục hơn
đó là khi những người
trong phòng điều khiển
07:37
that the people in those controlđiều khiển roomsphòng
156
445880
1856
07:39
are accountablecó trách nhiệm and transparenttrong suốt
to what we want.
157
447760
2456
đáng tin cậy và minh bạch
về những gì chúng ta muốn.
07:42
The only formhình thức of ethicalđạo đức
persuasionthuyết phục that existstồn tại
158
450240
2696
Hình thức thuyết phục duy nhất còn tồn tại
07:44
is when the goalsnhững mục tiêu of the persuaderngười tin theo
159
452960
1936
là khi mục đích của người thuyết phục
07:46
are alignedliên kết with the goalsnhững mục tiêu
of the persuadeethuyết phục.
160
454920
2200
giống với mục đích
của người được thuyết phục.
07:49
And that involvesliên quan questioninghỏi biglớn things,
like the businesskinh doanh modelmô hình of advertisingquảng cáo.
161
457640
3840
Và nó cần đặt câu hỏi lớn về những vấn đề
như mô hình kinh doanh hay quảng cáo.
07:54
LastlyCuối cùng,
162
462720
1576
Sau cùng,
07:56
we need a designthiết kế renaissancephục hưng,
163
464320
1680
ta cần một thiết kế phục hưng
07:59
because onceMột lần you have
this viewlượt xem of humanNhân loại naturethiên nhiên,
164
467080
3056
vì khi bạn đã có cái nhìn tổng thể
về bản chất con người,
08:02
that you can steerchỉ đạo the timelinesthời hạn
of a billiontỷ people --
165
470160
2976
bạn có thể điều khiển thời gian
của một tỷ người--
08:05
just imaginetưởng tượng, there's people
who have some desirekhao khát
166
473160
2736
hãy tưởng tượng,
những người có khao khát
08:07
about what they want to do
and what they want to be thinkingSuy nghĩ
167
475920
2856
về những họ muốn làm
và những gì họ muốn nghĩ
và những gì họ đang cảm thấy
và cách họ muốn thu nhận tin tức,
08:10
and what they want to be feelingcảm giác
and how they want to be informedthông báo,
168
478800
3136
và chúng ta lại bị kéo hoàn toàn
theo hướng khác.
08:13
and we're all just tuggedtugged
into these other directionshướng.
169
481960
2536
Và có một tỷ người bị kéo theo
các hướng khác.
08:16
And you have a billiontỷ people just tuggedtugged
into all these differentkhác nhau directionshướng.
170
484520
3696
Hãy nghĩ về một thiết kế phục hưng
08:20
Well, imaginetưởng tượng an entiretoàn bộ designthiết kế renaissancephục hưng
171
488240
2056
08:22
that triedđã thử to orchestratedàn nhạc
the exactchính xác and mostphần lớn empoweringtrao quyền
172
490320
3096
như một người nhạc trưởng
chính xác và có thể truyền sức mạnh
08:25
time-well-spentthời gian tốt-chi tiêu way
for those timelinesthời hạn to happenxảy ra.
173
493440
3136
điều phối thời gian hiệu quả
cho những gì đang diễn ra.
08:28
And that would involveliên quan two things:
174
496600
1656
Và điều đó bao gồm hai điều:
08:30
one would be protectingbảo vệ
againstchống lại the timelinesthời hạn
175
498280
2136
một là nó sẽ được bảo vệ
chống lại dòng thời gian
08:32
that we don't want to be experiencingtrải nghiệm,
176
500440
1856
mà chúng ta không muốn trải nghiệm,
08:34
the thoughtssuy nghĩ that we
wouldn'tsẽ không want to be happeningxảy ra,
177
502320
2416
những suy nghĩ mà ta không muốn nghĩ
08:36
so that when that dingđinh happensxảy ra,
not havingđang có the dingđinh that sendsgửi us away;
178
504760
3336
để khi tiếng "ding" phát ra,
nó không làm chúng ta xao lãng
08:40
and the secondthứ hai would be empoweringtrao quyền us
to livetrực tiếp out the timelinethời gian biểu that we want.
179
508120
3616
và điều thứ hai là sẽ truyền sức mạnh
để ta sống theo thời gian mình muốn.
08:43
So let me give you a concretebê tông examplethí dụ.
180
511760
1880
Để tôi cho bạn một ví dụ.
08:46
TodayHôm nay, let's say your friendngười bạn
cancelshủy bỏ dinnerbữa tối on you,
181
514280
2456
Hôm nay, bạn của bạn
huỷ cuộc hẹn ăn tối với bạn,
08:48
and you are feelingcảm giác a little bitbit lonelycô đơn.
182
516760
3775
và bạn sẽ cảm thấy có chút cô đơn.
08:52
And so what do you do in that momentchốc lát?
183
520559
1817
Và bạn sẽ làm gì vào lúc đó?
08:54
You openmở up FacebookFacebook.
184
522400
1279
Bạn mở Facebook.
08:56
And in that momentchốc lát,
185
524960
1696
Và trong khoảnh khắc đó,
08:58
the designersnhà thiết kế in the controlđiều khiển roomphòng
want to schedulekế hoạch exactlychính xác one thing,
186
526680
3376
người thiết kế trong phòng điều khiển
muốn lên lịch một điều duy nhất,
09:02
which is to maximizetối đa hóa how much time
you spendtiêu on the screenmàn.
187
530080
3040
đó là kéo dài tối đa thời gian
bạn lướt màn hình.
09:06
Now, insteadthay thế, imaginetưởng tượng if those designersnhà thiết kế
createdtạo a differentkhác nhau timelinethời gian biểu
188
534640
3896
Bây giờ, thay vào đó, tưởng tượng nếu
người thiết kế tạo ra dòng thời gian khác
09:10
that was the easiestdễ nhất way,
usingsử dụng all of theirhọ datadữ liệu,
189
538560
3496
là cách dễ dàng nhất, dùng
toàn bộ dữ liệu của họ,
09:14
to actuallythực ra help you get out
with the people that you carequan tâm about?
190
542080
3096
để chắc chắn giúp cho bạn liên lạc được
với người mà bạn quan tâm?
09:17
Just think, alleviatinggiảm
all lonelinesscô đơn in societyxã hội,
191
545200
5416
Hãy nghĩ đến việc làm giảm đi
sự cô đơn trong xã hội,
09:22
if that was the timelinethời gian biểu that FacebookFacebook
wanted to make possiblekhả thi for people.
192
550640
3496
nếu đó là dòng thời gian mà Facebook
muốn tạo ra cho người dùng.
09:26
Or imaginetưởng tượng a differentkhác nhau conversationcuộc hội thoại.
193
554160
1715
Hay tưởng tượng một câu chuyện khác.
09:27
Let's say you wanted to postbài đăng
something supercontroversialsiêu gây tranh cãi on FacebookFacebook,
194
555899
3317
Ví dụ bạn muốn đưa lên một thông tin
mang tính tranh luận cao lên Facebook,
09:31
which is a really importantquan trọng
thing to be ablecó thể to do,
195
559240
2416
nó thật sự quan trọng để làm,
09:33
to talk about controversialgây tranh cãi topicschủ đề.
196
561680
1696
nói về các chủ đề gây tranh cãi.
Và ngay bây giờ, khi mà nó là
một kho bình luận lớn,
09:35
And right now, when there's
that biglớn commentbình luận boxcái hộp,
197
563400
2336
09:37
it's almosthầu hết askinghỏi you,
what keyChìa khóa do you want to typekiểu?
198
565760
3376
nó sẽ chỉ hỏi bạn muốn bình luận thế nào?
09:41
In other wordstừ ngữ, it's schedulinglập kế hoạch
a little timelinethời gian biểu of things
199
569160
2816
Nói cách khác, nó lên lịch cho một số việc
09:44
you're going to continuetiếp tục
to do on the screenmàn.
200
572000
2136
mà bạn sẽ tiếp tục làm trên màn hình.
09:46
And imaginetưởng tượng insteadthay thế that there was
anotherkhác buttonnút there sayingnói,
201
574160
2976
Và hãy tưởng tượng rằng có một nút khác
hỏi rằng
09:49
what would be mostphần lớn
time well spentđã bỏ ra for you?
202
577160
2056
bạn muốn làm gì nhất lúc này?
09:51
And you clicknhấp chuột "hostchủ nhà a dinnerbữa tối."
203
579240
1576
Và bạn nhấn "mời ăn tối."
09:52
And right there
underneathbên dưới the itemmục it said,
204
580840
2096
Và ngay lập tức sẽ có một lời hồi đáp,
09:54
"Who wants to RSVPRsvp for the dinnerbữa tối?"
205
582960
1696
"Ai muốn nhận lời mời ăn tối?"
09:56
And so you'dbạn muốn still have a conversationcuộc hội thoại
about something controversialgây tranh cãi,
206
584680
3256
Và có thể tiếp tục cuộc trò chuyện
xoay quanh một chủ đề bàn luận,
09:59
but you'dbạn muốn be havingđang có it in the mostphần lớn
empoweringtrao quyền placeđịa điểm on your timelinethời gian biểu,
207
587960
3736
nhưng địa điểm tốt nhất
cho cuộc tranh luận trên timeline của bạn,
10:03
which would be at home that night
with a bunch of a friendsbạn bè over
208
591720
3016
là tại nhà bạn tối hôm đó,
tụ tập với một nhóm bạn
10:06
to talk about it.
209
594760
1200
để bàn luận về điều đó.
10:09
So imaginetưởng tượng we're runningđang chạy, like,
a find and replacethay thế
210
597000
3160
Hãy nghĩ rằng chúng ta đang chạy, như
đang tìm kiếm và thay thế
tất cả những lời gợi ý trên dòng thời gian
10:13
on all of the timelinesthời hạn
that are currentlyhiện tại steeringchỉ đạo us
211
601000
2576
chi phối chúng ta dành ngày càng nhiều
thời gian cho nó
10:15
towardsvề hướng more and more
screenmàn time persuasivelypersuasively
212
603600
2560
10:19
and replacingthay thế all of those timelinesthời hạn
213
607080
2536
và thay thế tất cả dòng thời gian đó
10:21
with what do we want in our livescuộc sống.
214
609640
1640
với những gì chúng ta muốn
cho cuộc sống của mình.
10:26
It doesn't have to be this way.
215
614960
1480
Không nhất thiết phải làm như vậy.
10:30
InsteadThay vào đó of handicappingcược our attentionchú ý,
216
618360
2256
Thay vì làm giảm sự chú ý của mình,
10:32
imaginetưởng tượng if we used all of this datadữ liệu
and all of this powerquyền lực
217
620640
2816
tưởng tượng nếu chúng ta
dùng tất cả dữ liệu và cả sức lực
và cái nhìn mới về bản chất con người
10:35
and this newMới viewlượt xem of humanNhân loại naturethiên nhiên
218
623480
1616
10:37
to give us a superhumansiêu nhân abilitycó khả năng to focustiêu điểm
219
625120
2856
để cho chúng ta
một khả năng tập trung cao độ
10:40
and a superhumansiêu nhân abilitycó khả năng to put
our attentionchú ý to what we caredchăm sóc about
220
628000
4136
và khả năng siêu phàm để đặt sự chú ý
vào cái mà ta quan tâm
10:44
and a superhumansiêu nhân abilitycó khả năng
to have the conversationscuộc trò chuyện
221
632160
2616
và một siêu năng lực
để tạo ra các hội thoại cần thiết
10:46
that we need to have for democracydân chủ.
222
634800
2000
cho sự dân chủ.
10:51
The mostphần lớn complexphức tạp challengesthách thức in the worldthế giới
223
639600
2680
Những thử thách phức tạp nhất
trên thế giới
10:56
requireyêu cầu not just us
to use our attentionchú ý individuallycá nhân.
224
644280
3120
không chỉ yêu cầu sự chú ý của bạn.
11:00
They requireyêu cầu us to use our attentionchú ý
and coordinatephối hợp it togethercùng với nhau.
225
648440
3320
mà chúng còn yêu cầu tận dụng sự chú ý
và hợp tác lẫn nhau.
11:04
ClimateKhí hậu changethay đổi is going to requireyêu cầu
that a lot of people
226
652440
2816
Biến đổi khí hậu sẽ cần rất nhiều người
11:07
are beingđang ablecó thể
to coordinatephối hợp theirhọ attentionchú ý
227
655280
2096
có thể tập hợp sự chú ý của họ
11:09
in the mostphần lớn empoweringtrao quyền way togethercùng với nhau.
228
657400
1896
một cách mạnh mẽ nhất có thể.
11:11
And imaginetưởng tượng creatingtạo
a superhumansiêu nhân abilitycó khả năng to do that.
229
659320
3080
Và tưởng tượng tạo ra một siêu năng lực
có thể làm được điều đó.
11:19
SometimesĐôi khi the world'scủa thế giới
mostphần lớn pressingnhấn and importantquan trọng problemscác vấn đề
230
667000
4160
Thỉnh thoảng, những vấn đề quan trọng và
khẩn trương của thế giới
11:24
are not these hypotheticalgiả thiết futureTương lai things
that we could createtạo nên in the futureTương lai.
231
672040
3840
không phải một giả thuyết
về những gì có thể tạo ra trong tương lai.
Đôi khi những vấn đề cấp bách nhất
11:28
SometimesĐôi khi the mostphần lớn pressingnhấn problemscác vấn đề
232
676560
1736
11:30
are the onesnhững người that are
right underneathbên dưới our nosesmũi,
233
678320
2336
là thứ ngay dưới mũi chúng ta
11:32
the things that are alreadyđã directingchỉ đạo
a billiontỷ people'sngười thoughtssuy nghĩ.
234
680680
3120
một việc có thể định hướng cho suy nghĩ
của một tỷ người.
11:36
And maybe insteadthay thế of gettingnhận được excitedbị kích thích
about the newMới augmentedtăng cường realitythực tế
235
684600
3376
Và có thể thay vì
chú ý vào thực tế mới nổi
11:40
and virtualảo realitythực tế
and these coolmát mẻ things that could happenxảy ra,
236
688000
3296
và thực tế ảo
và những thứ thú vị có thể diễn ra,
11:43
which are going to be susceptiblenhạy cảm
to the sametương tự racecuộc đua for attentionchú ý,
237
691320
3296
những thứ tham gia
vào cuộc đua gây sự chú ý,
11:46
if we could fixsửa chữa the racecuộc đua for attentionchú ý
238
694640
2176
nếu chúng ta có thể cố định
cuộc đua này
11:48
on the thing that's alreadyđã
in a billiontỷ people'sngười pocketstúi.
239
696840
2720
vào thứ đang có sẵn
trong túi của một tỷ người.
11:52
Maybe insteadthay thế of gettingnhận được excitedbị kích thích
240
700040
1576
Có thể thay vì quan tâm
11:53
about the mostphần lớn excitingthú vị
newMới coolmát mẻ fancyưa thích educationgiáo dục appsứng dụng,
241
701640
4176
tới những ứng dụng giáo dục mới thú vị
11:57
we could fixsửa chữa the way
kids'dành cho trẻ em mindstâm trí are gettingnhận được manipulatedchế tác
242
705840
2896
chúng ta có thể điều chỉnh
cách thức suy nghĩ của trẻ
12:00
into sendinggửi emptytrống messagestin nhắn
back and forthra.
243
708760
2480
về việc vùi đầu vào
gửi tin nhắn qua lại.
12:04
(ApplauseVỗ tay)
244
712040
4296
(Vỗ tay)
12:08
Maybe insteadthay thế of worryinglo lắng
245
716360
1256
Có thể thay vì lo lắng
12:09
about hypotheticalgiả thiết futureTương lai
runawaychạy trốn artificialnhân tạo intelligencestrí tuệ
246
717640
3776
cho những giả thiết về cuộc đua
trí thông minh nhân tạo trong tương lai
12:13
that are maximizingtối đa for one goalmục tiêu,
247
721440
1880
mà được tối ưu hóa
cho một mục đích duy nhất,
chúng ta có thể giải quyết cuộc đua trí
thông minh nhân tạo
12:16
we could solvegiải quyết the runawaychạy trốn
artificialnhân tạo intelligenceSự thông minh
248
724680
2656
12:19
that alreadyđã existstồn tại right now,
249
727360
2056
mà hiện tại đang diễn ra,
12:21
which are these newsfeedsNewsfeeds
maximizingtối đa for one thing.
250
729440
2920
chúng là tin tức được tối ưu hóa
chỉ vì một mục đích duy nhất.
12:26
It's almosthầu hết like insteadthay thế of runningđang chạy away
to colonizethuộc địa newMới planetsnhững hành tinh,
251
734080
3816
Thay vì chạy đi xâm chiếm
các hành tinh mới,
12:29
we could fixsửa chữa the one
that we're alreadyđã on.
252
737920
2056
thì có thể điều chỉnh
hành tinh mình đang sống.
12:32
(ApplauseVỗ tay)
253
740000
4120
(Vỗ tay)
12:40
SolvingGiải quyết this problemvấn đề
254
748040
1776
Giải quyết vấn đề này
12:41
is criticalchỉ trích infrastructurecơ sở hạ tầng
for solvinggiải quyết everymỗi other problemvấn đề.
255
749840
3800
là cơ sở quan trọng
để giải quyết những vấn đề khác.
12:46
There's nothing in your life
or in our collectivetập thể problemscác vấn đề
256
754600
4016
Không có gì trong cuộc sống của bạn
hay trong những vấn đề của chúng ta
12:50
that does not requireyêu cầu our abilitycó khả năng
to put our attentionchú ý where we carequan tâm about.
257
758640
3560
mà không yêu cầu
đặt sự chú ý vào nơi chúng ta quan tâm.
12:55
At the endkết thúc of our livescuộc sống,
258
763800
1240
Vào cuối đời,
12:58
all we have is our attentionchú ý and our time.
259
766240
2640
tất cả những gì ta có
là sự quan tâm và thời gian.
Chúng ta
sẽ sử dụng thời gian thế nào cho tốt?
13:01
What will be time well spentđã bỏ ra for ourscủa chúng tôi?
260
769800
1896
13:03
Thank you.
261
771720
1216
Cảm ơn.
13:04
(ApplauseVỗ tay)
262
772960
3120
(Vỗ tay)
Chris Anderson: Triston, cảm ơn bạn.
Nào, đứng lại đây một chút.
13:17
ChrisChris AndersonAnderson: TristanTristan, thank you.
Hey, stayở lại up here a secgiây.
263
785760
2936
13:20
First of all, thank you.
264
788720
1336
Đầu tiên, cảm ơn bạn
Tôi biết họ đã yêu cầu bạn phát biểu
trong thời gian chuẩn bị rất ngắn
13:22
I know we askedyêu cầu you to do this talk
on prettyđẹp shortngắn noticeđể ý,
265
790080
2776
13:24
and you've had quitekhá a stressfulcăng thẳng weektuần
266
792880
2216
và bạn có một tuần rất áp lực
để chuẩn bị,
13:27
gettingnhận được this thing togethercùng với nhau, so thank you.
267
795120
2440
cảm ơn bạn.
13:30
Some people listeningnghe mightcó thể say,
what you complainthan phiền about is addictionnghiện,
268
798680
3976
Một vài người nghe muốn nói rằng
bạn phàn nàn về sự gây nghiện
13:34
and all these people doing this stuffđồ đạc,
for them it's actuallythực ra interestinghấp dẫn.
269
802680
3496
và những người làm việc này,
nó thực sự rất thú vị.
13:38
All these designthiết kế decisionsquyết định
270
806200
1256
Tất cả những quyết định
13:39
have builtđược xây dựng userngười dùng contentNội dung
that is fantasticallyTuyệt vời interestinghấp dẫn.
271
807480
3096
được xây dựng bao hàm những điều thú vị.
13:42
The world'scủa thế giới more interestinghấp dẫn
than it ever has been.
272
810600
2416
Thế giới ngày càng trở nên thú vị hơn.
13:45
What's wrongsai rồi with that?
273
813040
1256
Điều đó có gì sai?
13:46
TristanTristan HarrisHarris:
I think it's really interestinghấp dẫn.
274
814320
2256
Tristan Harris:
Tôi nghĩ nó thực sự thú vị.
Lấy một ví dụ như bạn đang xem YouTube,
13:48
One way to see this
is if you're just YouTubeYouTube, for examplethí dụ,
275
816600
4016
13:52
you want to always showchỉ
the more interestinghấp dẫn nextkế tiếp videovideo.
276
820640
2656
bạn luôn muốn xem những video thú vị hơn.
13:55
You want to get better and better
at suggestinggợi ý that nextkế tiếp videovideo,
277
823320
3016
Bạn muốn có những gợi ý tốt hơn
về video tiếp theo
nhưng kể cả khi bạn đưa ra gợi ý hoàn hảo
cho những video kế tiếp
13:58
but even if you could proposecầu hôn
the perfecthoàn hảo nextkế tiếp videovideo
278
826360
2456
14:00
that everyonetất cả mọi người would want to watch,
279
828840
1656
mà ai cũng muốn xem,
thì nó chỉ giữ bạn dán mắt vào màn hình
lâu hơn mà thôi.
14:02
it would just be better and better
at keepingduy trì you hookedmóc nối on the screenmàn.
280
830520
3336
Do vậy sai sót của phương trình này
14:05
So what's missingmất tích in that equationphương trình
281
833880
1656
là tìm ra giới hạn là gì.
14:07
is figuringtìm kiếm out what
our boundariesranh giới would be.
282
835560
2136
Bạn muốn YouTube biết về,
sự buồn ngủ chẳng hạn.
14:09
You would want YouTubeYouTube to know
something about, say, fallingrơi xuống asleepngủ.
283
837720
3216
CEO của Netflixx đã nói,
14:12
The CEOGIÁM ĐỐC ĐIỀU HÀNH of NetflixNetflix recentlygần đây said,
284
840960
1616
"Đối thủ lớn nhất của chúng tôi
là Facebook, YouTube và ngủ"
14:14
"our biggestlớn nhất competitorsđối thủ cạnh tranh
are FacebookFacebook, YouTubeYouTube and sleepngủ."
285
842600
2736
14:17
And so what we need to recognizenhìn nhận
is that the humanNhân loại architecturekiến trúc is limitedgiới hạn
286
845360
4456
Và chúng ta cần nhận ra rằng
kiến trúc con người bị giới hạn,
có các giới hạn hay kích thước nhất định
cho cuộc sống của chúng ta
14:21
and that we have certainchắc chắn boundariesranh giới
or dimensionskích thước of our livescuộc sống
287
849840
2976
mà chúng ta muốn giữ vững và tôn trọng
14:24
that we want to be honoredvinh danh and respectedtôn trọng,
288
852840
1976
và công nghệ có thể giúp chúng ta
làm điều đó.
14:26
and technologyCông nghệ could help do that.
289
854840
1816
14:28
(ApplauseVỗ tay)
290
856680
2616
(Vỗ tay)
14:31
CACA: I mean, could you make the casetrường hợp
291
859320
1696
CA: Vậy bạn có thể giải thích trường hợp
14:33
that partphần of the problemvấn đề here is that
we'vechúng tôi đã got a naNaïveve modelmô hình of humanNhân loại naturethiên nhiên?
292
861040
6056
một phần vấn đề là do chúng ta
có bản chất ngây thơ.
14:39
So much of this is justifiedhợp lý
in termsđiều kiện of humanNhân loại preferenceưu đãi,
293
867120
2736
Nó được bào chữa bằng việc
con người có những ưu tiên,
14:41
where we'vechúng tôi đã got these algorithmsthuật toán
that do an amazingkinh ngạc jobviệc làm
294
869880
2616
chúng ta có thuật toán
để làm những việc thú vị
cho việc tối ưu hóa
sự ưu tiên của con người,
14:44
of optimizingtối ưu hóa for humanNhân loại preferenceưu đãi,
295
872520
1696
14:46
but which preferenceưu đãi?
296
874240
1336
nhưng ưu tiên như thế nào?
14:47
There's the preferencessở thích
of things that we really carequan tâm about
297
875600
3496
Ưu tiên cho những thứ
chúng ta thực sự quan tâm
14:51
when we think about them
298
879120
1376
khi chúng ta nghĩ về chúng
14:52
versusđấu với the preferencessở thích
of what we just instinctivelytheo bản năng clicknhấp chuột on.
299
880520
3056
so với những ưu tiên
mà chúng ta vô tình nhấn chuột vào
14:55
If we could implantcấy ghép that more nuancedsắc thái
viewlượt xem of humanNhân loại naturethiên nhiên in everymỗi designthiết kế,
300
883600
4656
nếu chúng ta có thể áp dụng cách nghĩ đó
về con người vào các bản thiết kế
thì nó có thể là một bước tiến không?
15:00
would that be a stepbậc thang forwardphía trước?
301
888280
1456
15:01
THTH: AbsolutelyHoàn toàn. I mean, I think right now
302
889760
1976
TH: Dĩ nhiên, tôi nghĩ bây giờ
15:03
it's as if all of our technologyCông nghệ
is basicallyvề cơ bản only askinghỏi our lizardthằn lằn brainóc
303
891760
3496
tất cả những công nghệ của chúng ta
chỉ đơn thuần hỏi bộ não bò sát
15:07
what's the besttốt way
to just impulsivelybốc đồng get you to do
304
895280
2496
về cách tốt nhất để ngay lập tức
áp đặt bạn
15:09
the nextkế tiếp tiniestnhỏ nhất thing with your time,
305
897800
2136
làm những việc tiếp theo
15:11
insteadthay thế of askinghỏi you in your life
306
899960
1656
thay vì hỏi xem trong cuộc sống
15:13
what we would be mostphần lớn
time well spentđã bỏ ra for you?
307
901640
2176
bạn muốn dành thời gian cho việc gì nhất?
15:15
What would be the perfecthoàn hảo timelinethời gian biểu
that mightcó thể includebao gồm something latermột lát sau,
308
903840
3296
Bạn muốn phân bổ thời gian như thế nào
một cách hoàn hảo nhất
15:19
would be time well spentđã bỏ ra for you
here at TEDTED in your last day here?
309
907160
3176
cho ngày cuối cùng ở TED?
CA: Vậy nếu Facebook và Google
và tất cả mọi người đều nói rằng:
15:22
CACA: So if FacebookFacebook and GoogleGoogle
and everyonetất cả mọi người said to us first up,
310
910360
2976
15:25
"Hey, would you like us
to optimizetối ưu hóa for your reflectivephản xạ brainóc
311
913360
2896
"Bạn có muốn chúng tôi tối ưu hoá
phần não phản xạ của bạn
15:28
or your lizardthằn lằn brainóc? You choosechọn."
312
916280
1656
hay não bó sát? Bạn hãy chọn đi"
15:29
THTH: Right. That would be one way. Yes.
313
917960
2080
TH: Đúng. Đó là một cách. Vâng.
CA: Bạn đã nói đến "khả năng thuyết phục",
một từ mà tôi thất rất thú vị
15:34
CACA: You said persuadabilitykhả năng thuyết phục,
that's an interestinghấp dẫn wordtừ to me
314
922358
2858
15:37
because to me there's
two differentkhác nhau typesloại of persuadabilitykhả năng thuyết phục.
315
925240
2856
bởi vì tôi có
hai cách thuyết phục khác nhau.
15:40
There's the persuadabilitykhả năng thuyết phục
that we're tryingcố gắng right now
316
928120
2536
Sự thuyết phục mà
chúng ta đang thử bây giờ
15:42
of reasonlý do and thinkingSuy nghĩ
and makingchế tạo an argumenttranh luận,
317
930680
2176
cho lý do và ý nghĩ và nêu ra sự lý luận
15:44
but I think you're almosthầu hết
talkingđang nói about a differentkhác nhau kindloại,
318
932880
2696
nhưng tôi nghĩ bạn đang nói về cách khác
một sự thuyết phục
mang tính bản năng nhiều hơn
15:47
a more visceralnội tạng typekiểu of persuadabilitykhả năng thuyết phục,
319
935590
1906
15:49
of beingđang persuadedthuyết phục withoutkhông có
even knowingbiết that you're thinkingSuy nghĩ.
320
937520
2896
bị thuyết phục
mà không cần biết bạn nghĩ gi.
TH: Chính xác.
Lý do tôi quan tâm vấn đề này là
15:52
THTH: ExactlyChính xác. The reasonlý do
I carequan tâm about this problemvấn đề so much is
321
940440
2856
tôi đã nghiên cứu tại phòng thí nghiệm
công nghệ thuyết phục Stanford
15:55
I studiedđã học at a labphòng thí nghiệm calledgọi là
the PersuasiveThuyết phục TechnologyCông nghệ LabPhòng thí nghiệm at StanfordStanford
322
943320
3176
15:58
that taughtđã dạy people
exactlychính xác these techniqueskỹ thuật.
323
946520
2096
dạy cách nhận biết những kĩ thuật này.
16:00
There's conferenceshội nghị and workshopshội thảo
that teachdạy people all these covertbí mật wayscách
324
948640
3456
Những buổi hội thảo và nghiên cứu
dạy mọi người con đường tổng quát
16:04
of gettingnhận được people'sngười attentionchú ý
and orchestratingOrchestrating people'sngười livescuộc sống.
325
952120
2976
để có được sự chú ý của con người
và bố trí cuộc sống của họ.
16:07
And it's because mostphần lớn people
don't know that that existstồn tại
326
955120
2656
Và vì hầu hết mọi người không biết
điều đó tồn tại
16:09
that this conversationcuộc hội thoại is so importantquan trọng.
327
957800
1896
nên cuộc đối thoại này mới quan trọng.
16:11
CACA: TristanTristan, you and I, we bothcả hai know
so manynhiều people from all these companiescác công ty.
328
959720
3776
CA: Tristan, bạn và tôi, chúng ta đều
biết nhiều người từ những công ty này.
16:15
There are actuallythực ra manynhiều here in the roomphòng,
329
963520
1976
Thực ra có nhiều người đang có mặt tại đây
16:17
and I don't know about you,
but my experiencekinh nghiệm of them
330
965520
2477
và tôi không biết về bạn,
nhưng theo kinh nghiệm của tôi
16:20
is that there is
no shortagethiếu hụt of good intentý định.
331
968021
2075
là họ không thiếu những ý định tốt.
16:22
People want a better worldthế giới.
332
970120
2176
Mọi người muốn thế giới tốt hơn.
16:24
They are actuallythực ra -- they really want it.
333
972320
3520
Họ chắc chắn cũng thật sự muốn như vậy.
16:28
And I don't think anything you're sayingnói
is that these are eviltà ác people.
334
976320
4176
Và tôi không nghĩ bạn đang nói
họ là những người xấu xa.
16:32
It's a systemhệ thống where there's
these unintendedkhông mong đợi consequenceshậu quả
335
980520
3696
Nó là hệ thống
mà những hậu quả không mong đợi
16:36
that have really got out of controlđiều khiển --
336
984240
1856
thật sự ngoài tầm kiểm soát-
TH: Với cuộc đua giành chú ý.
16:38
THTH: Of this racecuộc đua for attentionchú ý.
337
986120
1496
Một cuộc đua cơ bản đến đỉnh cao sự chú ý,
16:39
It's the classiccổ điển racecuộc đua to the bottomđáy
when you have to get attentionchú ý,
338
987640
3176
và nó khá căng thẳng.
16:42
and it's so tensebẩn quá.
339
990840
1216
16:44
The only way to get more
is to go lowerthấp hơn on the brainóc stemthân cây,
340
992080
2736
Chỉ có một con đường duy nhất
là đi sâu vào não bộ
16:46
to go lowerthấp hơn into outragexúc phạm,
to go lowerthấp hơn into emotioncảm xúc,
341
994840
2416
đi sâu vào sự nóng giận,
sâu hơn về cảm xúc
16:49
to go lowerthấp hơn into the lizardthằn lằn brainóc.
342
997280
1696
sâu hơn vào não bò sát.
16:51
CACA: Well, thank you so much for helpinggiúp us
all get a little bitbit wiserkhôn ngoan about this.
343
999000
3816
CA: Cảm ơn bạn rất nhiều đã giúp chúng tôi
thông suốt một phần về điều đó.
16:54
TristanTristan HarrisHarris, thank you.
THTH: Thank you very much.
344
1002840
2416
Tristan Harris, cảm ơn bạn.
TH: Cảm ơn rất nhiều
(Vỗ tay)
16:57
(ApplauseVỗ tay)
345
1005280
2240
Translated by Lê Nhung
Reviewed by Thu Ha Tran

▲Back to top

ABOUT THE SPEAKER
Tristan Harris - Design thinker
Tristan Harris helps the technology industry more consciously and ethically shape the human spirit and human potential.

Why you should listen

Tristan Harris has been called "the closest thing Silicon Valley has to a conscience" by The Atlantic magazine. Prior to founding the new Center for Humane Technology, he was Google's Design Ethicist, developing a framework for how technology should "ethically" steer the thoughts and actions of billions of people from screens.  

Harris has spent a decade understanding the invisible influences that hijack human thinking and action. Drawing on literature from addiction, performative magic, social engineering, persuasive design and behavioral economics, he is currently developing a framework for ethical persuasion, especially as it relates to the moral responsibility of technology companies.

Rolling Stone magazine named Harris one of "25 People Shaping the World" in 2017. His work has been featured on TED, "60 Minutes," HBO's "RealTime with Bill Maher," "PBS NewsHour," Recode, The Atlantic, WIRED, the New York Times, Der Spiegel, The Economist and many more. Harris has briefed heads of state, technology company CEOs and members of the US Congress about the attention economy.

More profile about the speaker
Tristan Harris | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee