ABOUT THE SPEAKER
Tristan Harris - Design thinker
Tristan Harris helps the technology industry more consciously and ethically shape the human spirit and human potential.

Why you should listen

Tristan Harris has been called "the closest thing Silicon Valley has to a conscience" by The Atlantic magazine. Prior to founding the new Center for Humane Technology, he was Google's Design Ethicist, developing a framework for how technology should "ethically" steer the thoughts and actions of billions of people from screens.  

Harris has spent a decade understanding the invisible influences that hijack human thinking and action. Drawing on literature from addiction, performative magic, social engineering, persuasive design and behavioral economics, he is currently developing a framework for ethical persuasion, especially as it relates to the moral responsibility of technology companies.

Rolling Stone magazine named Harris one of "25 People Shaping the World" in 2017. His work has been featured on TED, "60 Minutes," HBO's "RealTime with Bill Maher," "PBS NewsHour," Recode, The Atlantic, WIRED, the New York Times, Der Spiegel, The Economist and many more. Harris has briefed heads of state, technology company CEOs and members of the US Congress about the attention economy.

More profile about the speaker
Tristan Harris | Speaker | TED.com
TED2017

Tristan Harris: How a handful of tech companies control billions of minds every day

Тристан Харрис: Как технологическим компаниям удаётся управлять нашим вниманием

Filmed:
2,591,029 views

«Горстка людей, работающих на несколько высокотехнологичных компаний, управляют мышлением миллиардов людей каждый день», — говорит разработчик дизайна Тристан Харрис. Facebook с его уведомлениями, Snapchat с ограниченными по времени просмотрами, YouTube с его автовоспроизведением видео — все они конкурируют ради единственной цели — получить ваше внимание. Харрис рассказывает, как ради получения прибыли эти компании охотятся за нашим сознанием, и призывает возродить дизайн, в котором технологии позволят нам жить в том мире, в котором мы сами хотим.
- Design thinker
Tristan Harris helps the technology industry more consciously and ethically shape the human spirit and human potential. Full bio

Double-click the English transcript below to play the video.

00:12
I want you to imagineпредставить
0
960
1200
Я хочу, чтобы вы представили,
00:15
walkingгулять пешком into a roomкомната,
1
3000
1200
как вы входите в комнату,
00:17
a controlконтроль roomкомната with a bunchгроздь of people,
2
5480
2136
в диспетчерскую, полную людей,
00:19
a hundredсто people, hunchedсгорбленный
over a deskстол письменный with little dialsциферблаты,
3
7640
2840
сотни людей склонились
над столами с циферблатами,
00:23
and that that controlконтроль roomкомната
4
11280
1520
и эта диспетчерская
00:25
will shapeформа the thoughtsмысли and feelingsчувства
5
13680
3696
формирует мысли и чувства
00:29
of a billionмиллиард people.
6
17400
1240
миллиарда людей.
00:32
This mightмог бы soundзвук like scienceнаука fictionфантастика,
7
20560
1880
Возможно, это звучит
как научная фантастика,
00:35
but this actuallyна самом деле existsсуществует
8
23320
2216
но такое действительно существует
00:37
right now, todayCегодня.
9
25560
1200
уже сейчас.
00:40
I know because I used to be
in one of those controlконтроль roomsномера.
10
28040
3360
Я знаю, потому что
сам бывал в таких диспетчерских.
Я работал в Google в качестве
специалиста по этике дизайна
00:44
I was a designдизайн ethicistэтик at GoogleGoogle,
11
32159
2297
00:46
where I studiedизучал how do you ethicallyэтично
steerуправлять people'sнародный thoughtsмысли?
12
34480
3360
и изучал, как этически
направлять мысли людей.
00:50
Because what we don't talk about
is how the handfulгорсть of people
13
38560
2896
Потому что мы не рассказываем
о том, как группа людей,
00:53
workingза работой at a handfulгорсть
of technologyтехнологии companiesкомпании
14
41480
2536
работающих на несколько
технологических компаний,
00:56
throughчерез theirих choicesвыбор will steerуправлять
what a billionмиллиард people are thinkingмышление todayCегодня.
15
44040
5040
по их указанию управляют
мыслями миллионов людей.
01:02
Because when you pullвытащить out your phoneТелефон
16
50400
1736
Потому что, когда вы достаёте телефон,
01:04
and they designдизайн how this worksработает
or what's on the feedкорм,
17
52160
3096
именно они создали то,
что вы видите в своей ленте,
01:07
it's schedulingпланирование little blocksблоки
of time in our mindsумов.
18
55280
3216
которая планирует расписание
в нашем сознании.
01:10
If you see a notificationуведомление,
it schedulesрасписания you to have thoughtsмысли
19
58520
3136
Когда вы видите уведомление,
телефон заставляет вас думать
01:13
that maybe you didn't intendнамереваться to have.
20
61680
2040
о том, о чём вы не собирались.
01:16
If you swipeкрасть over that notificationуведомление,
21
64400
2616
Если вы открываете это уведомление,
01:19
it schedulesрасписания you into spendingрасходы
a little bitнемного of time
22
67040
2381
вы вынуждены потратить некоторое время
01:21
gettingполучение suckedвысосанный into something
23
69445
1381
на то, что вы, возможно,
01:22
that maybe you didn't intendнамереваться
to get suckedвысосанный into.
24
70850
2955
даже не собирались делать.
01:27
When we talk about technologyтехнологии,
25
75320
1520
Говоря о технологиях,
01:30
we tendиметь тенденцию to talk about it
as this blueсиний skyнебо opportunityвозможность.
26
78040
2696
мы подразумеваем возможности,
как это голубое небо.
Они безграничны.
01:32
It could go any directionнаправление.
27
80760
1480
01:35
And I want to get seriousсерьезный for a momentмомент
28
83400
1856
Но если быть серьёзным,
01:37
and tell you why it's going
in a very specificконкретный directionнаправление.
29
85280
2680
я вам расскажу, почему они
идут очень своеобразным путём.
01:40
Because it's not evolvingэволюционирует randomlyслучайно.
30
88840
2200
Потому что они развиваются не хаотично.
01:44
There's a hiddenскрытый goalЦель
drivingвождение the directionнаправление
31
92000
2016
Есть конкретная цель,
скрытая от посторонних
01:46
of all of the technologyтехнологии we make,
32
94040
2136
и преследуемая всеми когда-либо
созданными технологиями,
01:48
and that goalЦель is the raceраса
for our attentionвнимание.
33
96200
2920
суть её в том, чтобы завладеть
нашим вниманием.
01:52
Because everyкаждый newновый siteсайт --
34
100840
2736
Потому что у каждого нового сайта —
01:55
TEDТЕД, electionsвыборы, politiciansполитики,
35
103600
2736
TED, выборы, политики,
01:58
gamesигры, even meditationмедитация appsПрограммы --
36
106360
1976
игры, даже приложения для медитации —
02:00
have to competeконкурировать for one thing,
37
108360
1960
у всех них одна цель —
02:03
whichкоторый is our attentionвнимание,
38
111160
1736
наше внимание,
02:04
and there's only so much of it.
39
112920
1600
и его так много.
02:08
And the bestЛучший way to get people'sнародный attentionвнимание
40
116440
2416
Самый лучший способ
завладеть вниманием аудитории —
02:10
is to know how someone'sчей-то mindразум worksработает.
41
118880
2440
знать, как работает человеческое сознание.
02:13
And there's a wholeвсе bunchгроздь
of persuasiveубедительный techniquesметоды
42
121800
2336
Существует огромное множество
техник убеждения,
02:16
that I learnedнаучился in collegeколледж at a labлаборатория
calledназывается the Persuasiveубедительный TechnologyТехнологии Labлаборатория
43
124160
3496
которые я изучал ещё будучи студентом
в лаборатории под названием
02:19
to get people'sнародный attentionвнимание.
44
127680
1600
«Технологии убеждения».
02:21
A simpleпросто exampleпример is YouTubeYouTube.
45
129880
1480
Самый простой пример — YouTube.
02:24
YouTubeYouTube wants to maximizeмаксимизировать
how much time you spendпроводить.
46
132000
2936
YouTube хочет, чтобы вы тратили
на него максимум своего времени.
02:26
And so what do they do?
47
134960
1200
И что же они придумали?
02:28
They autoplayАвтовоспроизведение the nextследующий videoвидео.
48
136840
2280
Автовоспроизведение
следующего видеоролика.
02:31
And let's say that worksработает really well.
49
139760
1816
И надо сказать — это работает.
02:33
They're gettingполучение a little bitнемного
more of people'sнародный time.
50
141600
2416
Они получают немного
больше внимания людей.
02:36
Well, if you're NetflixNetflix,
you look at that and say,
51
144040
2376
В свою очередь, владелец сайта Netflix
посмотрит на это и скажет:
02:38
well, that's shrinkingсокращение my marketрынок shareдоля,
52
146440
1858
«Так, это сокращает мою долю рынка,
02:40
so I'm going to autoplayАвтовоспроизведение the nextследующий episodeэпизод.
53
148322
2000
а запущу-ка я автовоспроизведение
следующего эпизода».
02:43
But then if you're Facebookfacebook,
54
151320
1376
Затем Facebooк:
02:44
you say, that's shrinkingсокращение
all of my marketрынок shareдоля,
55
152720
2336
«Это сокращает весь мой рынок,
02:47
so now I have to autoplayАвтовоспроизведение
all the videosвидео in the newsfeedНовостная лента
56
155080
2656
давайте сделаем автозапуск
всех видео в новостной ленте
02:49
before waitingожидание for you to clickщелчок playиграть.
57
157760
1762
ещё до того, как зритель успеет
нажать на воспроизведение».
02:52
So the internetинтернет is not evolvingэволюционирует at randomслучайный.
58
160320
3160
Так что интернет развивается не хаотично.
02:56
The reasonпричина it feelsчувствует
like it's suckingсосание us in the way it is
59
164320
4416
Ощущение, что интернет нас затягивает,
03:00
is because of this raceраса for attentionвнимание.
60
168760
2376
возникает из-за гонки за вниманием.
03:03
We know where this is going.
61
171160
1416
И мы знаем, к чему это приведёт.
03:04
TechnologyТехнологии is not neutralнейтральный,
62
172600
1520
Технология не является нейтральной,
03:07
and it becomesстановится this raceраса
to the bottomдно of the brainголовной мозг stemстебель
63
175320
3416
это преследование доходит
до самых глубин мозга,
03:10
of who can go lowerниже to get it.
64
178760
2200
кто зайдёт дальше.
03:13
Let me give you an exampleпример of SnapchatSnapchat.
65
181920
2336
Возьмём к примеру Snapchat.
03:16
If you didn't know,
SnapchatSnapchat is the numberномер one way
66
184280
3696
Возможно, вы не знали, но Snapchat
занимает первое место среди мессенджеров,
03:20
that teenagersподростков in
the Unitedобъединенный Statesсостояния communicateобщаться.
67
188000
2256
используемых американскими подростками.
03:22
So if you're like me, and you use
textтекст messagesСообщения to communicateобщаться,
68
190280
4176
И если вы так же, как и я, общаетесь
с помощью текстовых сообщений,
03:26
SnapchatSnapchat is that for teenagersподростков,
69
194480
1776
то Snapchat популярен среди молодёжи,
03:28
and there's, like,
a hundredсто millionмиллиона of them that use it.
70
196280
2696
и им пользуются сто миллионов подростков.
03:31
And they inventedизобрел
a featureособенность calledназывается SnapstreaksSnapstreaks,
71
199000
2216
Итак, была придумана функция Snapstreaks,
03:33
whichкоторый showsшоу the numberномер of daysдней in a rowряд
72
201240
1896
которая показывает сколько дней подряд
03:35
that two people have
communicatedсообщаться with eachкаждый other.
73
203160
2616
два человека общались друг с другом.
03:37
In other wordsслова, what they just did
74
205800
1856
Другими словами, они мотивировали людей
03:39
is they gaveдал two people
something they don't want to loseпотерять.
75
207680
2960
пытаться поддержать этот показатель.
03:44
Because if you're a teenagerподросток,
and you have 150 daysдней in a rowряд,
76
212000
3456
Потому что, когда ты подросток, то,
набрав 150 дней беспрерывного общения,
03:47
you don't want that to go away.
77
215480
1976
ты не захочешь всё обнулить.
03:49
And so think of the little blocksблоки of time
that that schedulesрасписания in kids'Дети' mindsумов.
78
217480
4160
А теперь представьте те небольшие
промежутки времени в умах детей.
03:54
This isn't theoreticalтеоретический:
when kidsДети go on vacationотпуск,
79
222160
2336
Не секрет, что, когда дети
уезжают на каникулы,
03:56
it's been shownпоказанный they give theirих passwordsпароли
to up to five5 other friendsдрузья
80
224520
3256
они делятся своими паролями
с одним, а то и с пятью друзьями
03:59
to keep theirих SnapstreaksSnapstreaks going,
81
227800
2216
с целью, чтобы Snapstreak не прервался,
04:02
even when they can't do it.
82
230040
2016
даже, когда они сами в него не заходят.
04:04
And they have, like, 30 of these things,
83
232080
1936
У них есть порядка тридцати этих штук,
04:06
and so they have to get throughчерез
takingпринятие photosфото of just picturesкартинки or wallsстены
84
234040
3376
и ради того, чтобы этот день был учтён,
04:09
or ceilingsпотолки just to get throughчерез theirих day.
85
237440
2480
они выкладывают фото стен или потолков.
04:13
So it's not even like
they're havingимеющий realреальный conversationsразговоры.
86
241200
2696
Это вовсе не значит,
что они на самом деле общаются.
04:15
We have a temptationискушение to think about this
87
243920
1936
Но мы склонны думать,
04:17
as, oh, they're just usingс помощью SnapchatSnapchat
88
245880
2696
что в Snapchat они общаются так же,
04:20
the way we used to
gossipслухи on the telephoneтелефон.
89
248600
2016
как мы в своё время
сплетничали по телефону.
04:22
It's probablyвероятно OK.
90
250640
1200
Возможно, это нормально.
04:24
Well, what this missesпромахов
is that in the 1970s,
91
252480
2256
Но главное отличие от 1970-х в том, что,
04:26
when you were just
gossipingсплетничать on the telephoneтелефон,
92
254760
2615
когда вы просто сплетничали по телефону,
04:29
there wasn'tне было a hundredсто engineersинженеры
on the other sideбоковая сторона of the screenэкран
93
257399
3017
на другом конце провода
не было сотни инженеров,
04:32
who knewзнал exactlyв точку
how your psychologyпсихология workedработал
94
260440
2056
которые хорошо осведомлены
о вашей психологии
04:34
and orchestratedорганизовал you
into a doubleдвойной bindпривязывать with eachкаждый other.
95
262520
2640
и делают вас зависимыми друг от друга.
04:38
Now, if this is makingизготовление you
feel a little bitнемного of outrageбезобразие,
96
266440
3400
Если этот факт вас возмутил,
04:42
noticeуведомление that that thought
just comesвыходит over you.
97
270680
2576
заметьте, что эта мысль завладела вами.
04:45
Outrageбезобразие is a really good way alsoтакже
of gettingполучение your attentionвнимание,
98
273280
3320
Вызвать возмущение — тоже неплохой
способ приковать внимание,
04:49
because we don't chooseвыберите outrageбезобразие.
99
277880
1576
потому что мы не контролируем возмущение.
04:51
It happensпроисходит to us.
100
279480
1416
Это происходит само собой.
04:52
And if you're the Facebookfacebook newsfeedНовостная лента,
101
280920
1856
И если вы новостная лента Facebook,
04:54
whetherбудь то you'dвы бы want to or not,
102
282800
1416
хотите вы этого или нет,
04:56
you actuallyна самом деле benefitвыгода when there's outrageбезобразие.
103
284240
2736
вы выигрываете от возмутительных новостей.
04:59
Because outrageбезобразие
doesn't just scheduleграфик a reactionреакция
104
287000
2936
Потому что возмущение не только
определяет нашу реакцию
05:01
in emotionalэмоциональный time, spaceпространство, for you.
105
289960
2880
в эмоциональном плане.
05:05
We want to shareдоля that outrageбезобразие
with other people.
106
293440
2416
Мы хотим поделиться этим гневом
с другими людьми.
05:07
So we want to hitудар shareдоля and say,
107
295880
1576
Мы жмём «поделиться» и добавляем:
05:09
"Can you believe the thing
that they said?"
108
297480
2040
«Представляешь, что они сказали?»
05:12
And so outrageбезобразие worksработает really well
at gettingполучение attentionвнимание,
109
300520
3376
Гнев прекрасно справляется
с привлечением внимания,
05:15
suchтакие that if Facebookfacebook had a choiceвыбор
betweenмежду showingпоказ you the outrageбезобразие feedкорм
110
303920
3896
и если бы у Facebook был выбор,
показывать ли вам новости,
05:19
and a calmспокойный newsfeedНовостная лента,
111
307840
1320
вызывающие гнев
или нейтральные события,
05:22
they would want
to showпоказать you the outrageбезобразие feedкорм,
112
310120
2136
они бы выбрали первый вариант
05:24
not because someoneкто то
consciouslyсознательно choseвыбрал that,
113
312280
2056
не потому, что кто-то
сознательно это выберет,
05:26
but because that workedработал better
at gettingполучение your attentionвнимание.
114
314360
2680
а потому, что это больше
привлечёт ваше внимание.
05:31
And the newsfeedНовостная лента controlконтроль roomкомната
is not accountableподотчетный to us.
115
319120
5480
Люди, ответственные за новостную ленту,
не несут ответственности перед нами.
Они отчитываются только
за привлечение внимания аудитории.
05:37
It's only accountableподотчетный
to maximizingмаксимизируя attentionвнимание.
116
325040
2296
05:39
It's alsoтакже accountableподотчетный,
117
327360
1216
Из-за бизнес-модели рекламы
05:40
because of the businessбизнес modelмодель
of advertisingреклама,
118
328600
2376
они отчитываются перед каждым,
05:43
for anybodyкто-нибудь who can payплатить the mostбольшинство
to actuallyна самом деле walkходить into the controlконтроль roomкомната
119
331000
3336
у кого достаточно денег, чтобы зайти
в эту диспетчерскую и сказать:
05:46
and say, "That groupгруппа over there,
120
334360
1576
«Вон та группа людей...
05:47
I want to scheduleграфик these thoughtsмысли
into theirих mindsумов."
121
335960
2640
я хочу, чтобы они думали
именно так, а не иначе».
05:51
So you can targetцель,
122
339760
1200
Можно сделать своей целью,
05:54
you can preciselyточно targetцель a lieложь
123
342040
1936
конечной целью — обмануть
05:56
directlyнепосредственно to the people
who are mostбольшинство susceptibleвосприимчивый.
124
344000
2920
наиболее восприимчивую часть аудитории.
06:00
And because this is profitableрентабельный,
it's only going to get worseхуже.
125
348080
2880
И так как это приносит большой доход,
ситуация с каждым разом ухудшается.
06:05
So I'm here todayCегодня
126
353040
1800
И я сегодня стою здесь,
06:08
because the costsрасходы are so obviousочевидный.
127
356160
2000
потому что плата за это столь очевидна.
06:12
I don't know a more urgentсрочный
problemпроблема than this,
128
360280
2136
Я не знаю более актуальной
проблемы, чем эта,
06:14
because this problemпроблема
is underneathпод all other problemsпроблемы.
129
362440
3120
потому что она является первоисточником
всех остальных проблем.
06:18
It's not just takingпринятие away our agencyагентство
130
366720
3176
Нас лишают свободы воли
06:21
to spendпроводить our attentionвнимание
and liveжить the livesжизни that we want,
131
369920
2600
обращать внимание на то, что хотим,
и жить, как мы сами хотим,
06:25
it's changingизменения the way
that we have our conversationsразговоры,
132
373720
3536
меняется способ нашего общения,
06:29
it's changingизменения our democracyдемократия,
133
377280
1736
меняется наша демократия,
06:31
and it's changingизменения our abilityспособность
to have the conversationsразговоры
134
379040
2616
меняется сама наша способность общаться
06:33
and relationshipsотношения we want with eachкаждый other.
135
381680
2000
и строить отношения с тем, с кем хотим.
06:37
And it affectsвлияет everyoneвсе,
136
385160
1776
Это касается каждого,
06:38
because a billionмиллиард people
have one of these in theirих pocketкарман.
137
386960
3360
потому что у миллионов людей
есть в кармане телефон.
06:45
So how do we fixфиксировать this?
138
393360
1400
Так как же это можно исправить?
06:49
We need to make threeтри radicalрадикал changesизменения
139
397080
2936
Необходимы три радикальные перемены
06:52
to technologyтехнологии and to our societyобщество.
140
400040
1800
в технологиях и в самом обществе.
06:55
The first is we need to acknowledgeпризнавать
that we are persuadableубеждаемый.
141
403720
3800
Первая: мы должны признать,
что легко поддаёмся убеждению.
07:00
Onceоднажды you startНачало understandingпонимание
142
408840
1376
Если вы хотя бы раз осознáете,
07:02
that your mindразум can be scheduledЗапланированное
into havingимеющий little thoughtsмысли
143
410240
2776
что ваши мысли управляемы,
07:05
or little blocksблоки of time
that you didn't chooseвыберите,
144
413040
2576
и вашим временем распоряжаются
без вашего ведома,
07:07
wouldn'tне будет we want to use that understandingпонимание
145
415640
2056
не захотите ли вы
воспользоваться этим знанием
07:09
and protectзащищать againstпротив the way
that that happensпроисходит?
146
417720
2160
и защитить себя от подобного?
07:12
I think we need to see ourselvesсами
fundamentallyв корне in a newновый way.
147
420600
3296
Думаю, мы должны взглянуть на себя
в совершенно новом свете.
Это похоже на новую эпоху
в человеческой истории,
07:15
It's almostпочти like a newновый periodпериод
of humanчеловек historyистория,
148
423920
2216
07:18
like the Enlightenmentпросветление,
149
426160
1216
как Просвещение,
07:19
but almostпочти a kindсвоего рода of
self-awareсамосознание Enlightenmentпросветление,
150
427400
2216
скорее это похоже на самопросвещение,
07:21
that we can be persuadedубежденный,
151
429640
2080
осознание того,
что мы подвержены убеждению,
07:24
and there mightмог бы be something
we want to protectзащищать.
152
432320
2240
и что существует нечто,
что необходимо защищать.
07:27
The secondвторой is we need newновый modelsмодели
and accountabilityподотчетность systemsсистемы
153
435400
4576
Второе: нам нужны новые модели
и системы отчётности.
07:32
so that as the worldМир getsполучает better
and more and more persuasiveубедительный over time --
154
440000
3496
Поскольку со временем манипулирование
становится всё эффективнее, —
07:35
because it's only going
to get more persuasiveубедительный --
155
443520
2336
мы только в самом начале пути, —
07:37
that the people in those controlконтроль roomsномера
156
445880
1856
нужно, чтобы люди в этих диспетчерских
07:39
are accountableподотчетный and transparentпрозрачный
to what we want.
157
447760
2456
действовали прозрачно и ответственно.
07:42
The only formформа of ethicalэтический
persuasionубедительность that existsсуществует
158
450240
2696
Единственная форма этичного убеждения,
имеющая право на существование, —
07:44
is when the goalsцели of the persuaderубеждающий
159
452960
1936
когда цели убеждающего
07:46
are alignedвыровненный with the goalsцели
of the persuadeepersuadee.
160
454920
2200
совпадают с целями убеждаемого.
07:49
And that involvesвключает в себя questioningвопрошающий bigбольшой things,
like the businessбизнес modelмодель of advertisingреклама.
161
457640
3840
А это подвергает сомнению важные принципы,
такие как бизнес-модель рекламы.
07:54
Lastlyнаконец,
162
462720
1576
И наконец,
07:56
we need a designдизайн renaissanceРенессанс,
163
464320
1680
нам нужно возродить дизайн,
07:59
because onceодин раз you have
this viewПосмотреть of humanчеловек natureприрода,
164
467080
3056
потому что, если вы однажды
поймёте природу человека,
08:02
that you can steerуправлять the timelinesвременные рамки
of a billionмиллиард people --
165
470160
2976
вы сможете управлять
временем миллионов людей.
08:05
just imagineпредставить, there's people
who have some desireжелание
166
473160
2736
Только представьте, у людей
есть свои представления о том,
08:07
about what they want to do
and what they want to be thinkingмышление
167
475920
2856
что они хотят делать, о чём хотят думать,
08:10
and what they want to be feelingчувство
and how they want to be informedпроинформировал,
168
478800
3136
что чувствовать и как получать информацию,
08:13
and we're all just tuggedдернул
into these other directionsнаправления.
169
481960
2536
а нас берут и тянут в другом направлении.
08:16
And you have a billionмиллиард people just tuggedдернул
into all these differentдругой directionsнаправления.
170
484520
3696
И таких управляемых людей миллиарды.
08:20
Well, imagineпредставить an entireвсе designдизайн renaissanceРенессанс
171
488240
2056
Представьте полное возрождение дизайна,
08:22
that triedпытался to orchestrateоркестровать
the exactточный and mostбольшинство empoweringрасширение прав и возможностей
172
490320
3096
который попытается создать для нас
08:25
time-well-spentвремени хорошо израсходованы way
for those timelinesвременные рамки to happenслучаться.
173
493440
3136
лучший способ жить так, как мы хотим.
08:28
And that would involveвключать two things:
174
496600
1656
Для этого необходимо следующее:
08:30
one would be protectingзащищающий
againstпротив the timelinesвременные рамки
175
498280
2136
первое — защита от траты нашего времени
08:32
that we don't want to be experiencingиспытывают,
176
500440
1856
без нашего ведома,
08:34
the thoughtsмысли that we
wouldn'tне будет want to be happeningпроисходит,
177
502320
2416
от нежеланных мыслей.
08:36
so that when that dingзвенеть happensпроисходит,
not havingимеющий the dingзвенеть that sendsпосылает us away;
178
504760
3336
Так что, когда звоночек прозвенит,
мы не должны были ему повиноваться.
08:40
and the secondвторой would be empoweringрасширение прав и возможностей us
to liveжить out the timelineграфик that we want.
179
508120
3616
И второе — возможность жить
по созданному нами же графику.
08:43
So let me give you a concreteбетон exampleпример.
180
511760
1880
Приведу конкретный пример.
08:46
TodayCегодня, let's say your friendдруг
cancelsотменяет dinnerужин on you,
181
514280
2456
Ваш друг отказался
с вами сегодня пообедать,
08:48
and you are feelingчувство a little bitнемного lonelyОдинокий.
182
516760
3775
и вам немного одиноко.
08:52
And so what do you do in that momentмомент?
183
520559
1817
Что вы сделаете в такой ситуации?
08:54
You openоткрытый up Facebookfacebook.
184
522400
1279
Откроете Facebook.
08:56
And in that momentмомент,
185
524960
1696
И в этот самый момент
08:58
the designersдизайнеры in the controlконтроль roomкомната
want to scheduleграфик exactlyв точку one thing,
186
526680
3376
цель разработчиков — создать нечто,
09:02
whichкоторый is to maximizeмаксимизировать how much time
you spendпроводить on the screenэкран.
187
530080
3040
что максимально привлечёт
ваше внимание к монитору.
09:06
Now, insteadвместо, imagineпредставить if those designersдизайнеры
createdсозданный a differentдругой timelineграфик
188
534640
3896
Теперь представьте,
что они создали другую ленту,
09:10
that was the easiestпростой way,
usingс помощью all of theirих dataданные,
189
538560
3496
наиболее простой способ,
используя все имеющиеся у них данные,
09:14
to actuallyна самом деле help you get out
with the people that you careзабота about?
190
542080
3096
помочь вам общаться с близкими вам людьми.
09:17
Just think, alleviatingоблегчение
all lonelinessодиночество in societyобщество,
191
545200
5416
Можно было бы вообще
искоренить одиночество,
09:22
if that was the timelineграфик that Facebookfacebook
wanted to make possibleвозможное for people.
192
550640
3496
если бы Facebook захотел
создать такую ленту.
09:26
Or imagineпредставить a differentдругой conversationразговор.
193
554160
1715
Или представьте другой диалог.
09:27
Let's say you wanted to postпосле
something supercontroversialsupercontroversial on Facebookfacebook,
194
555899
3317
Например, вы хотите разместить в Facebook
нечто, что вызовет споры,
09:31
whichкоторый is a really importantважный
thing to be ableв состоянии to do,
195
559240
2416
а ведь важно иметь возможность
говорить на противоречивые темы.
09:33
to talk about controversialспорный topicsтемы.
196
561680
1696
09:35
And right now, when there's
that bigбольшой commentкомментарий boxкоробка,
197
563400
2336
Прямо сейчас в разделе с комментариями
09:37
it's almostпочти askingпросить you,
what keyключ do you want to typeтип?
198
565760
3376
вас почти спрашивают о том,
какую букву вы собираетесь напечатать.
09:41
In other wordsслова, it's schedulingпланирование
a little timelineграфик of things
199
569160
2816
Другими словами, предопределяют
09:44
you're going to continueПродолжать
to do on the screenэкран.
200
572000
2136
ваши дальнейшие действия в интернете.
09:46
And imagineпредставить insteadвместо that there was
anotherдругой buttonкнопка there sayingпоговорка,
201
574160
2976
И представьте, что была бы
другая кнопка с вопросом:
09:49
what would be mostбольшинство
time well spentпотраченный for you?
202
577160
2056
«Как бы вы хотели провести время?»
09:51
And you clickщелчок "hostхозяин a dinnerужин."
203
579240
1576
И вы жмёте кнопку: «устроить ужин».
09:52
And right there
underneathпод the itemпункт it said,
204
580840
2096
И чуть ниже следующий вопрос:
09:54
"Who wants to RSVPПросьба ответить for the dinnerужин?"
205
582960
1696
«Кто приглашает?»
09:56
And so you'dвы бы still have a conversationразговор
about something controversialспорный,
206
584680
3256
И вы сможете поспорить за разговором,
09:59
but you'dвы бы be havingимеющий it in the mostбольшинство
empoweringрасширение прав и возможностей placeместо on your timelineграфик,
207
587960
3736
но сделаете это в самое подходящее
и удобное время,
10:03
whichкоторый would be at home that night
with a bunchгроздь of a friendsдрузья over
208
591720
3016
вечером у себя дома в окружении друзей,
10:06
to talk about it.
209
594760
1200
за приятной беседой.
10:09
So imagineпредставить we're runningБег, like,
a find and replaceзамещать
210
597000
3160
Представьте, мы постоянно
участвуем в этой гонке,
10:13
on all of the timelinesвременные рамки
that are currentlyВ данный момент steeringрулевое управление us
211
601000
2576
которая заставляет нас
10:15
towardsв направлении more and more
screenэкран time persuasivelyубедительно
212
603600
2560
всё больше времени проводить в интернете,
10:19
and replacingзамена all of those timelinesвременные рамки
213
607080
2536
и не позволяет событиям развиваться так,
10:21
with what do we want in our livesжизни.
214
609640
1640
как мы бы того хотели.
10:26
It doesn't have to be this way.
215
614960
1480
Но так не должно быть.
10:30
InsteadВместо of handicappingпрепятствование our attentionвнимание,
216
618360
2256
Вместо того, чтобы отвлекаться,
10:32
imagineпредставить if we used all of this dataданные
and all of this powerмощность
217
620640
2816
представьте, если бы мы использовали
максимум возможностей,
10:35
and this newновый viewПосмотреть of humanчеловек natureприрода
218
623480
1616
и этот новый взгляд на природу человека
10:37
to give us a superhumanсверхчеловеческий abilityспособность to focusфокус
219
625120
2856
дал бы нам суперспособность
10:40
and a superhumanсверхчеловеческий abilityспособность to put
our attentionвнимание to what we caredуход about
220
628000
4136
сосредотачивать своё внимание на том,
что действительно важно,
10:44
and a superhumanсверхчеловеческий abilityспособность
to have the conversationsразговоры
221
632160
2616
а также суперспособность к переговорам,
10:46
that we need to have for democracyдемократия.
222
634800
2000
необходимым для демократии.
10:51
The mostбольшинство complexсложный challengesпроблемы in the worldМир
223
639600
2680
Самые сложные в мире задачи
10:56
requireтребовать not just us
to use our attentionвнимание individuallyв отдельности.
224
644280
3120
требуют не только внимания
от каждого из нас.
11:00
They requireтребовать us to use our attentionвнимание
and coordinateкоординировать it togetherвместе.
225
648440
3320
Они требуют от нас общего внимания
и согласованных действий.
11:04
Climateклимат changeизменение is going to requireтребовать
that a lot of people
226
652440
2816
Проблема изменения климата требует
от всех людей без исключения
11:07
are beingявляющийся ableв состоянии
to coordinateкоординировать theirих attentionвнимание
227
655280
2096
объединиться и максимально
11:09
in the mostбольшинство empoweringрасширение прав и возможностей way togetherвместе.
228
657400
1896
сконцентрировать своё внимание.
11:11
And imagineпредставить creatingсоздание
a superhumanсверхчеловеческий abilityспособность to do that.
229
659320
3080
Представьте, что у нас появилась бы
эта суперспособность.
11:19
SometimesИногда the world'sв мире
mostбольшинство pressingпрессование and importantважный problemsпроблемы
230
667000
4160
Иногда наиболее острые и актуальные
мировые проблемы — совсем не те,
11:24
are not these hypotheticalгипотетический futureбудущее things
that we could createСоздайте in the futureбудущее.
231
672040
3840
которые касаются гипотетического будущего,
которое мы себе, возможно, уготовили.
11:28
SometimesИногда the mostбольшинство pressingпрессование problemsпроблемы
232
676560
1736
Зачастую самые важные проблемы —
11:30
are the onesте, that are
right underneathпод our nosesносы,
233
678320
2336
те, с которыми мы сталкиваемся ежедневно,
11:32
the things that are alreadyуже directingруководство
a billionмиллиард people'sнародный thoughtsмысли.
234
680680
3120
те, что управляют умами миллиарда людей.
11:36
And maybe insteadвместо of gettingполучение excitedв восторге
about the newновый augmentedдополненная realityреальность
235
684600
3376
Возможно, вместо того, чтобы восхищаться
новой дополненной реальностью
11:40
and virtualвиртуальный realityреальность
and these coolкруто things that could happenслучаться,
236
688000
3296
и виртуальной реальностью,
всеми этими вещами, которые она создаёт
11:43
whichкоторый are going to be susceptibleвосприимчивый
to the sameодна и та же raceраса for attentionвнимание,
237
691320
3296
и которым тоже не избежать
этой гонки за вниманием,
11:46
if we could fixфиксировать the raceраса for attentionвнимание
238
694640
2176
мы бы сосредоточили внимание миллионов
11:48
on the thing that's alreadyуже
in a billionмиллиард people'sнародный pocketsкарманы.
239
696840
2720
на том, что мы имеем уже сейчас.
Возможно, вместо того, чтобы восхищаться
11:52
Maybe insteadвместо of gettingполучение excitedв восторге
240
700040
1576
11:53
about the mostбольшинство excitingзахватывающе
newновый coolкруто fancyмаскарадный educationобразование appsПрограммы,
241
701640
4176
всеми этими новыми крутыми приложениями,
11:57
we could fixфиксировать the way
kids'Дети' mindsумов are gettingполучение manipulatedманипулировали
242
705840
2896
мы могли бы остановить детей
12:00
into sendingотправка emptyпустой messagesСообщения
back and forthвперед.
243
708760
2480
от обмена бессмысленными сообщениями.
12:04
(ApplauseАплодисменты)
244
712040
4296
(Аплодисменты)
12:08
Maybe insteadвместо of worryingбеспокойство
245
716360
1256
Может быть, вместо того,
чтобы беспокоиться
12:09
about hypotheticalгипотетический futureбудущее
runawayубегай artificialискусственный intelligencesинтеллекты
246
717640
3776
о гипотетическом будущем
восстании искусственного интеллекта,
12:13
that are maximizingмаксимизируя for one goalЦель,
247
721440
1880
а это всего одна цель,
12:16
we could solveрешать the runawayубегай
artificialискусственный intelligenceинтеллект
248
724680
2656
мы можем доработать
искусственный интеллект,
12:19
that alreadyуже existsсуществует right now,
249
727360
2056
который уже существует
12:21
whichкоторый are these newsfeedsNewsfeeds
maximizingмаксимизируя for one thing.
250
729440
2920
и уже оптимизирует новостные ленты.
12:26
It's almostпочти like insteadвместо of runningБег away
to colonizeколонизировать newновый planetsпланеты,
251
734080
3816
Вместо колонизации других планет,
12:29
we could fixфиксировать the one
that we're alreadyуже on.
252
737920
2056
мы могли бы улучшить
жизнь на своей собственной.
12:32
(ApplauseАплодисменты)
253
740000
4120
(Аплодисменты)
12:40
SolvingРешение this problemпроблема
254
748040
1776
Решение этой проблемы
12:41
is criticalкритический infrastructureинфраструктура
for solvingрешение everyкаждый other problemпроблема.
255
749840
3800
является критически важной основой
для решения любых других проблем.
12:46
There's nothing in your life
or in our collectiveколлектив problemsпроблемы
256
754600
4016
Нет ничего в нашей жизни
или наших коллективных проблемах,
12:50
that does not requireтребовать our abilityспособность
to put our attentionвнимание where we careзабота about.
257
758640
3560
где от нас не требовалось бы
обратить внимание на то, что важно.
12:55
At the endконец of our livesжизни,
258
763800
1240
И в конце жизни всё,
12:58
all we have is our attentionвнимание and our time.
259
766240
2640
что у нас останется —
это наше внимание и наше время.
13:01
What will be time well spentпотраченный for oursнаш?
260
769800
1896
И как его лучше потратить?
13:03
Thank you.
261
771720
1216
Спасибо.
13:04
(ApplauseАплодисменты)
262
772960
3120
(Аплодисменты)
13:17
ChrisКрис AndersonАндерсон: TristanТристан, thank you.
Hey, stayоставаться up here a secсек.
263
785760
2936
Крис Андерсон: Спасибо, Тристан.
Подожди секундочку.
13:20
First of all, thank you.
264
788720
1336
Во-первых, спасибо.
13:22
I know we askedспросил you to do this talk
on prettyСимпатичная shortкороткая noticeуведомление,
265
790080
2776
Я знаю, что мы просили тебя сделать
это выступление коротким,
13:24
and you've had quiteдовольно a stressfulстрессовый weekнеделю
266
792880
2216
и неделя для подготовки
13:27
gettingполучение this thing togetherвместе, so thank you.
267
795120
2440
выдалась нелёгкой, ещё раз спасибо.
13:30
Some people listeningпрослушивание mightмог бы say,
what you complainжаловаться about is addictionзависимость,
268
798680
3976
Некоторые слушатели могут сказать,
что всё о чем ты рассказал — зависимость,
13:34
and all these people doing this stuffматериал,
for them it's actuallyна самом деле interestingинтересно.
269
802680
3496
всем, кто так делает,
это на самом деле нравится.
13:38
All these designдизайн decisionsрешения
270
806200
1256
Все эти дизайнерские решения
13:39
have builtпостроен userпользователь contentсодержание
that is fantasticallyфантастически interestingинтересно.
271
807480
3096
создали для пользователей
фантастически интересный контент.
13:42
The world'sв мире more interestingинтересно
than it ever has been.
272
810600
2416
Мир стал намного интереснее,
чем был раньше.
13:45
What's wrongнеправильно with that?
273
813040
1256
Что с ним не так?
13:46
TristanТристан HarrisХаррис:
I think it's really interestingинтересно.
274
814320
2256
Тристан Харрис: Интересный вопрос.
13:48
One way to see this
is if you're just YouTubeYouTube, for exampleпример,
275
816600
4016
Один из способов увидеть это,
например, YouTube,
13:52
you want to always showпоказать
the more interestingинтересно nextследующий videoвидео.
276
820640
2656
где каждое следующее видео
ещё интереснее, чем предыдущее.
13:55
You want to get better and better
at suggestingпредлагая that nextследующий videoвидео,
277
823320
3016
Если вы предлагаете всё лучшие видео,
13:58
but even if you could proposeпредложить
the perfectидеально nextследующий videoвидео
278
826360
2456
и даже если следующий
ролик будет идеальным,
14:00
that everyoneвсе would want to watch,
279
828840
1656
и каждый захочет его посмотреть,
14:02
it would just be better and better
at keepingхранение you hookedзацепили on the screenэкран.
280
830520
3336
то добьётесь только того,
что сильнее «приклеите» зрителя к экрану.
14:05
So what's missingотсутствует in that equationуравнение
281
833880
1656
То, чего не хватает в этом уравнении —
14:07
is figuringвычисляя out what
our boundariesграницы would be.
282
835560
2136
определить границы.
14:09
You would want YouTubeYouTube to know
something about, say, fallingпадение asleepспящий.
283
837720
3216
Вы бы, может, хотели, чтобы YouTube
умел переходить в спящий режим.
14:12
The CEOИсполнительный директор of NetflixNetflix recentlyв последнее время said,
284
840960
1616
Недавно руководитель Netflix заявил,
14:14
"our biggestсамый большой competitorsконкуренты
are Facebookfacebook, YouTubeYouTube and sleepспать."
285
842600
2736
что «наши самые главные конкуренты —
Facebook, YouTube и сон».
14:17
And so what we need to recognizeпризнать
is that the humanчеловек architectureархитектура is limitedограниченное
286
845360
4456
Следует признать, что храм человека
имеет пределы,
14:21
and that we have certainопределенный boundariesграницы
or dimensionsГабаритные размеры of our livesжизни
287
849840
2976
и мы ограничены определёнными
аспектами нашей жизни,
14:24
that we want to be honoredзаслуженный and respectedуважаемый,
288
852840
1976
которые мы должны чтить и уважать,
14:26
and technologyтехнологии could help do that.
289
854840
1816
и технологии могут помочь нам в этом.
14:28
(ApplauseАплодисменты)
290
856680
2616
(Аплодисменты)
14:31
CAКалифорния: I mean, could you make the caseдело
291
859320
1696
КА: Может ли эта проблема частично
быть вызвана тем,
14:33
that partчасть of the problemпроблема here is that
we'veмы в got a naне доступноïveве modelмодель of humanчеловек natureприрода?
292
861040
6056
что наше представление
о природе человека наивно?
14:39
So much of this is justifiedоправданный
in termsсроки of humanчеловек preferenceпредпочтение,
293
867120
2736
Многое оправдано с точки зрения
человеческих предпочтений,
14:41
where we'veмы в got these algorithmsалгоритмы
that do an amazingудивительно jobработа
294
869880
2616
у нас есть алгоритмы,
делающие удивительную работу
14:44
of optimizingоптимизирующий for humanчеловек preferenceпредпочтение,
295
872520
1696
по оптимизации человеческих предпочтений,
14:46
but whichкоторый preferenceпредпочтение?
296
874240
1336
но каковы эти предпочтения?
14:47
There's the preferencesпредпочтения
of things that we really careзабота about
297
875600
3496
Существуют предпочтения того,
что нам действительно дорого,
14:51
when we think about them
298
879120
1376
если подумать,
14:52
versusпротив the preferencesпредпочтения
of what we just instinctivelyинстинктивно clickщелчок on.
299
880520
3056
а есть то, на что мы обращаем
внимание инстинктивно.
14:55
If we could implantимплантат that more nuancedнюансы
viewПосмотреть of humanчеловек natureприрода in everyкаждый designдизайн,
300
883600
4656
Если бы могли более внимательно
взглянуть на человеческую природу,
15:00
would that be a stepшаг forwardвперед?
301
888280
1456
стало бы это шагом вперед?
15:01
THTH: AbsolutelyАбсолютно. I mean, I think right now
302
889760
1976
ТХ: Конечно.
15:03
it's as if all of our technologyтехнологии
is basicallyв основном only askingпросить our lizardящерица brainголовной мозг
303
891760
3496
Все наши технологии
обращаются к нашему подсознанию,
15:07
what's the bestЛучший way
to just impulsivelyимпульсивно get you to do
304
895280
2496
ищут лучший способ заставить нас
15:09
the nextследующий tiniestмельчайшей thing with your time,
305
897800
2136
распоряжаться своим временем,
15:11
insteadвместо of askingпросить you in your life
306
899960
1656
а могли бы спрашивать у нас,
15:13
what we would be mostбольшинство
time well spentпотраченный for you?
307
901640
2176
как именно мы хотели бы проводить время.
15:15
What would be the perfectидеально timelineграфик
that mightмог бы includeвключают something laterпозже,
308
903840
3296
Какой был бы для вас
идеальный день здесь на TED,
15:19
would be time well spentпотраченный for you
here at TEDТЕД in your last day here?
309
907160
3176
последний и полезный?
15:22
CAКалифорния: So if Facebookfacebook and GoogleGoogle
and everyoneвсе said to us first up,
310
910360
2976
КА: Если бы Facebook, Google
и все остальные спросили бы:
15:25
"Hey, would you like us
to optimizeоптимизировать for your reflectiveотражающий brainголовной мозг
311
913360
2896
«Вы хотите, чтобы мы
обращались к вашему сознанию
15:28
or your lizardящерица brainголовной мозг? You chooseвыберите."
312
916280
1656
или подсознанию? Выбирайте».
15:29
THTH: Right. That would be one way. Yes.
313
917960
2080
ТХ: Да. Это один из способов.
15:34
CAКалифорния: You said persuadabilitypersuadability,
that's an interestingинтересно wordслово to me
314
922358
2858
КА: Ты упомянул «внушаемость»,
интересный термин,
15:37
because to me there's
two differentдругой typesтипы of persuadabilitypersuadability.
315
925240
2856
потому что для меня есть
два способа убеждения.
15:40
There's the persuadabilitypersuadability
that we're tryingпытаясь right now
316
928120
2536
Первое — то, чем мы сейчас занимаемся,
15:42
of reasonпричина and thinkingмышление
and makingизготовление an argumentаргумент,
317
930680
2176
утверждение, размышление,
аргументирование,
15:44
but I think you're almostпочти
talkingговорящий about a differentдругой kindсвоего рода,
318
932880
2696
но я думаю, ты говоришь о другом способе,
15:47
a more visceralвисцеральный typeтип of persuadabilitypersuadability,
319
935590
1906
более интуитивном,
15:49
of beingявляющийся persuadedубежденный withoutбез
even knowingзнание that you're thinkingмышление.
320
937520
2896
то есть, когда ты даже не догадываешься
о том, что тебя в чём-то убеждают.
15:52
THTH: ExactlyВ точку. The reasonпричина
I careзабота about this problemпроблема so much is
321
940440
2856
ТХ: Именно. Меня это
так беспокоит, потому что
15:55
I studiedизучал at a labлаборатория calledназывается
the Persuasiveубедительный TechnologyТехнологии Labлаборатория at StanfordStanford
322
943320
3176
я занимался этим вопросом ещё в Стэнфорде,
в лаборатории технологий убеждения,
15:58
that taughtучил people
exactlyв точку these techniquesметоды.
323
946520
2096
в которой студентов обучали этим техникам.
16:00
There's conferencesконференций and workshopsмастерские
that teachучат people all these covertзавуалированный waysпути
324
948640
3456
Существуют конференции и семинары,
на которых обучают тайным способам
16:04
of gettingполучение people'sнародный attentionвнимание
and orchestratingOrchestrating people'sнародный livesжизни.
325
952120
2976
заполучить внимание людей
и руководить их жизнью.
16:07
And it's because mostбольшинство people
don't know that that existsсуществует
326
955120
2656
Большинство людей не знают
о существовании такого,
16:09
that this conversationразговор is so importantважный.
327
957800
1896
и этот разговор очень важен.
16:11
CAКалифорния: TristanТристан, you and I, we bothи то и другое know
so manyмногие people from all these companiesкомпании.
328
959720
3776
КА: Тристан, мы оба знакомы со многими
людьми из этих компаний.
16:15
There are actuallyна самом деле manyмногие here in the roomкомната,
329
963520
1976
Многие из них здесь присутствуют,
16:17
and I don't know about you,
but my experienceопыт of them
330
965520
2477
не знаю, как ты, но я уверен,
16:20
is that there is
no shortageнехватка of good intentнамерение.
331
968021
2075
что действуют они исключительно
из лучших побуждений.
16:22
People want a better worldМир.
332
970120
2176
Люди хотят жить в лучшем мире.
16:24
They are actuallyна самом деле -- they really want it.
333
972320
3520
На самом деле так.
16:28
And I don't think anything you're sayingпоговорка
is that these are evilзло people.
334
976320
4176
И я не думаю, что они хотят
причинить вред кому-либо.
16:32
It's a systemсистема where there's
these unintendedнепреднамеренный consequencesпоследствия
335
980520
3696
Это система, в которой есть
подобные непреднамеренные последствия,
16:36
that have really got out of controlконтроль --
336
984240
1856
которые вышли из-под контроля.
16:38
THTH: Of this raceраса for attentionвнимание.
337
986120
1496
ТХ: Из-за этой гонки за вниманием.
16:39
It's the classicклассический raceраса to the bottomдно
when you have to get attentionвнимание,
338
987640
3176
Это классическая гонка на выживание
когда вам нужно привлечь внимание,
16:42
and it's so tenseнапряженный.
339
990840
1216
и довольно напряжённая.
16:44
The only way to get more
is to go lowerниже on the brainголовной мозг stemстебель,
340
992080
2736
Единственный способ получить больше —
обратиться к стволу мозга,
16:46
to go lowerниже into outrageбезобразие,
to go lowerниже into emotionэмоция,
341
994840
2416
вызвать эмоции, возмущение,
16:49
to go lowerниже into the lizardящерица brainголовной мозг.
342
997280
1696
обратиться к нашим инстинктам.
16:51
CAКалифорния: Well, thank you so much for helpingпомощь us
all get a little bitнемного wiserмудрее about this.
343
999000
3816
КА: Большое спасибо, что помог нам
немного разобраться в этом.
16:54
TristanТристан HarrisХаррис, thank you.
THTH: Thank you very much.
344
1002840
2416
Тристан Харрис, спасибо.
ТН: Большое спасибо.
16:57
(ApplauseАплодисменты)
345
1005280
2240
(Аплодисменты)
Translated by Alena Chernykh
Reviewed by Natalia Ost

▲Back to top

ABOUT THE SPEAKER
Tristan Harris - Design thinker
Tristan Harris helps the technology industry more consciously and ethically shape the human spirit and human potential.

Why you should listen

Tristan Harris has been called "the closest thing Silicon Valley has to a conscience" by The Atlantic magazine. Prior to founding the new Center for Humane Technology, he was Google's Design Ethicist, developing a framework for how technology should "ethically" steer the thoughts and actions of billions of people from screens.  

Harris has spent a decade understanding the invisible influences that hijack human thinking and action. Drawing on literature from addiction, performative magic, social engineering, persuasive design and behavioral economics, he is currently developing a framework for ethical persuasion, especially as it relates to the moral responsibility of technology companies.

Rolling Stone magazine named Harris one of "25 People Shaping the World" in 2017. His work has been featured on TED, "60 Minutes," HBO's "RealTime with Bill Maher," "PBS NewsHour," Recode, The Atlantic, WIRED, the New York Times, Der Spiegel, The Economist and many more. Harris has briefed heads of state, technology company CEOs and members of the US Congress about the attention economy.

More profile about the speaker
Tristan Harris | Speaker | TED.com