ABOUT THE SPEAKER
Tristan Harris - Design thinker
Tristan Harris helps the technology industry more consciously and ethically shape the human spirit and human potential.

Why you should listen

Tristan Harris has been called "the closest thing Silicon Valley has to a conscience" by The Atlantic magazine. Prior to founding the new Center for Humane Technology, he was Google's Design Ethicist, developing a framework for how technology should "ethically" steer the thoughts and actions of billions of people from screens.  

Harris has spent a decade understanding the invisible influences that hijack human thinking and action. Drawing on literature from addiction, performative magic, social engineering, persuasive design and behavioral economics, he is currently developing a framework for ethical persuasion, especially as it relates to the moral responsibility of technology companies.

Rolling Stone magazine named Harris one of "25 People Shaping the World" in 2017. His work has been featured on TED, "60 Minutes," HBO's "RealTime with Bill Maher," "PBS NewsHour," Recode, The Atlantic, WIRED, the New York Times, Der Spiegel, The Economist and many more. Harris has briefed heads of state, technology company CEOs and members of the US Congress about the attention economy.

More profile about the speaker
Tristan Harris | Speaker | TED.com
TED2017

Tristan Harris: How a handful of tech companies control billions of minds every day

Tristan Harris: Como um grupo de empresas de tecnologia controla bilhões de mentes todos os dias

Filmed:
2,591,029 views

Um grupo de pessoas trabalhando em um grupo de empresas de tecnologia manipula os pensamentos de bilhões de pessoas todos os dias, diz o "design thinker" Tristan Harris. Das notificações do Facebook aos Snapstreaks e às exibições automáticas do YouTube, todos estão competindo por uma coisa: nossa atenção. Harris compartilha como essas empresas vivem às custas de nossa mente para o próprio lucro delas e invoca um renascimento de projeto em que nossa tecnologia, em vez disso, nos encoraje a viver a linha de tempo que queremos.
- Design thinker
Tristan Harris helps the technology industry more consciously and ethically shape the human spirit and human potential. Full bio

Double-click the English transcript below to play the video.

00:12
I want you to imagine
0
960
1200
Imaginem
00:15
walking into a room,
1
3000
1200
que estão entrando numa sala,
00:17
a control room with a bunch of people,
2
5480
2136
uma sala de controle
com um grupo de pessoas,
00:19
a hundred people, hunched
over a desk with little dials,
3
7640
2840
centenas delas debruçadas
sobre uma mesa de controle,
00:23
and that that control room
4
11280
1520
e que essa sala
00:25
will shape the thoughts and feelings
5
13680
3696
irá modelar os pensamentos e sentimentos
00:29
of a billion people.
6
17400
1240
de um bilhão de pessoas.
00:32
This might sound like science fiction,
7
20560
1880
Pode parecer ficção científica,
00:35
but this actually exists
8
23320
2216
mas isso realmente existe
nos dias de hoje.
00:37
right now, today.
9
25560
1200
00:40
I know because I used to be
in one of those control rooms.
10
28040
3360
Sei disso porque eu fazia parte
de uma dessas salas de controle.
00:44
I was a design ethicist at Google,
11
32159
2297
Eu era especialista
em ética de design do Google,
00:46
where I studied how do you ethically
steer people's thoughts?
12
34480
3360
onde estudava como se controlam
os pensamentos das pessoas de forma ética.
00:50
Because what we don't talk about
is how the handful of people
13
38560
2896
O que não falamos
é como um grupo de pessoas,
que trabalham em um grupo
de empresas de tecnologia,
00:53
working at a handful
of technology companies
14
41480
2536
00:56
through their choices will steer
what a billion people are thinking today.
15
44040
5040
controlam, por meio de suas decisões,
o que um bilhão de pessoas pensam hoje.
01:02
Because when you pull out your phone
16
50400
1736
Quando pegamos o telefone,
e elas projetam o funcionamento disso
ou o conteúdo das notificações,
01:04
and they design how this works
or what's on the feed,
17
52160
3096
01:07
it's scheduling little blocks
of time in our minds.
18
55280
3216
estão sendo programados pequenos
blocos de tempo em nossa mente.
01:10
If you see a notification,
it schedules you to have thoughts
19
58520
3136
Se vemos uma notificação,
ela programa pensamentos
01:13
that maybe you didn't intend to have.
20
61680
2040
que talvez não quiséssemos ter.
01:16
If you swipe over that notification,
21
64400
2616
Se abrimos essa notificação,
01:19
it schedules you into spending
a little bit of time
22
67040
2381
ela programa que passemos
um pouco mais de tempo
01:21
getting sucked into something
23
69445
1381
envolvidos em uma situação na qual
talvez não quiséssemos ser envolvidos.
01:22
that maybe you didn't intend
to get sucked into.
24
70850
2955
01:27
When we talk about technology,
25
75320
1520
Quando falamos de tecnologia,
01:30
we tend to talk about it
as this blue sky opportunity.
26
78040
2696
tendemos a falar sobre ela
como uma oportunidade visionária,
01:32
It could go any direction.
27
80760
1480
que poderia seguir qualquer caminho.
01:35
And I want to get serious for a moment
28
83400
1856
Vou falar sério e contar por que ela segue
um caminho muito específico.
01:37
and tell you why it's going
in a very specific direction.
29
85280
2680
01:40
Because it's not evolving randomly.
30
88840
2200
A tecnologia não está evoluindo ao acaso.
01:44
There's a hidden goal
driving the direction
31
92000
2016
Há um objetivo secreto guiando o caminho
de toda a tecnologia que criamos.
01:46
of all of the technology we make,
32
94040
2136
01:48
and that goal is the race
for our attention.
33
96200
2920
Esse objetivo é a disputa
pela nossa atenção.
01:52
Because every new site --
34
100840
2736
Todo novo site,
01:55
TED, elections, politicians,
35
103600
2736
TED, eleições, política, jogos,
até mesmo os aplicativos de meditação,
01:58
games, even meditation apps --
36
106360
1976
02:00
have to compete for one thing,
37
108360
1960
tem que competir por uma coisa:
02:03
which is our attention,
38
111160
1736
nossa atenção.
02:04
and there's only so much of it.
39
112920
1600
Isso ocorre com frequência.
02:08
And the best way to get people's attention
40
116440
2416
A melhor maneira de conseguir
a atenção das pessoas
02:10
is to know how someone's mind works.
41
118880
2440
é saber como funciona a mente delas.
02:13
And there's a whole bunch
of persuasive techniques
42
121800
2336
Há todo um conjunto
de técnicas de persuasão,
02:16
that I learned in college at a lab
called the Persuasive Technology Lab
43
124160
3496
que aprendi na faculdade,
no "Persuasive Technology Lab",
02:19
to get people's attention.
44
127680
1600
para conseguir a atenção das pessoas.
02:21
A simple example is YouTube.
45
129880
1480
Um exemplo simples é o YouTube.
02:24
YouTube wants to maximize
how much time you spend.
46
132000
2936
Ele quer aumentar ao máximo
o tempo que passamos nele.
02:26
And so what do they do?
47
134960
1200
O que fazem então?
02:28
They autoplay the next video.
48
136840
2280
Exibem o próximo vídeo automaticamente.
02:31
And let's say that works really well.
49
139760
1816
Digamos que funciona muito bem.
Estão conseguindo um pouco
mais do tempo das pessoas.
02:33
They're getting a little bit
more of people's time.
50
141600
2416
A Netflix observa isso e diz:
"Isso reduz minha participação no mercado.
02:36
Well, if you're Netflix,
you look at that and say,
51
144040
2376
02:38
well, that's shrinking my market share,
52
146440
1858
Irei exibir automaticamente
o próximo episódio".
02:40
so I'm going to autoplay the next episode.
53
148322
2000
O Facebook diz então: "Isso reduz
toda a minha participação no mercado,
02:43
But then if you're Facebook,
54
151320
1376
02:44
you say, that's shrinking
all of my market share,
55
152720
2336
então tenho que exibir todos os vídeos
antes mesmo que você clique pra assistir".
02:47
so now I have to autoplay
all the videos in the newsfeed
56
155080
2656
02:49
before waiting for you to click play.
57
157760
1762
02:52
So the internet is not evolving at random.
58
160320
3160
Portanto, a internet não está
evoluindo ao acaso.
02:56
The reason it feels
like it's sucking us in the way it is
59
164320
4416
A razão pela qual ela parece estar
nos envolvendo dessa maneira
03:00
is because of this race for attention.
60
168760
2376
é a disputa pela atenção.
03:03
We know where this is going.
61
171160
1416
Sabemos aonde isso vai chegar.
03:04
Technology is not neutral,
62
172600
1520
A tecnologia não é neutra,
03:07
and it becomes this race
to the bottom of the brain stem
63
175320
3416
e torna-se esta disputa
ao nível mais baixo do cérebro
03:10
of who can go lower to get it.
64
178760
2200
de quem pode ir mais baixo para ganhá-la.
03:13
Let me give you an example of Snapchat.
65
181920
2336
Darei um exemplo do "Snapchat".
03:16
If you didn't know,
Snapchat is the number one way
66
184280
3696
Caso não saibam, o Snapchat
é o principal meio de comunicação
03:20
that teenagers in
the United States communicate.
67
188000
2256
dos adolescentes americanos.
03:22
So if you're like me, and you use
text messages to communicate,
68
190280
4176
Se, como eu, vocês utilizam
mensagens de texto para se comunicar,
isso é o Snapchat para os adolescentes.
03:26
Snapchat is that for teenagers,
69
194480
1776
03:28
and there's, like,
a hundred million of them that use it.
70
196280
2696
E cerca de 100 milhões deles o utilizam.
Foi inventado um recurso
chamado "Snapstreaks",
03:31
And they invented
a feature called Snapstreaks,
71
199000
2216
que mostra a quantidade de dias seguidos
em que duas pessoas se comunicaram.
03:33
which shows the number of days in a row
72
201240
1896
03:35
that two people have
communicated with each other.
73
203160
2616
03:37
In other words, what they just did
74
205800
1856
Em outras palavras, deram a duas pessoas
algo que elas não queriam perder.
03:39
is they gave two people
something they don't want to lose.
75
207680
2960
03:44
Because if you're a teenager,
and you have 150 days in a row,
76
212000
3456
Se você é adolescente,
e tem 150 dias seguidos,
03:47
you don't want that to go away.
77
215480
1976
não quer perder isso.
03:49
And so think of the little blocks of time
that that schedules in kids' minds.
78
217480
4160
Pensem nos pequenos blocos de tempo
programados na mente das crianças.
03:54
This isn't theoretical:
when kids go on vacation,
79
222160
2336
Não é teoria: quando as crianças
saem de férias,
03:56
it's been shown they give their passwords
to up to five other friends
80
224520
3256
descobriu-se que elas
dão suas senhas a até cinco amigos
03:59
to keep their Snapstreaks going,
81
227800
2216
para manter o Snapstreaks delas ativo,
mesmo quando não conseguem.
04:02
even when they can't do it.
82
230040
2016
04:04
And they have, like, 30 of these things,
83
232080
1936
Elas têm 30 desses, e precisam tirar fotos
04:06
and so they have to get through
taking photos of just pictures or walls
84
234040
3376
nem que seja de paredes
e tetos só para passar o dia.
04:09
or ceilings just to get through their day.
85
237440
2480
04:13
So it's not even like
they're having real conversations.
86
241200
2696
Não é como se tivessem conversas reais.
04:15
We have a temptation to think about this
87
243920
1936
Temos a tendência de pensar assim:
04:17
as, oh, they're just using Snapchat
88
245880
2696
"Ah, elas só estão usando o Snapchat
do modo como falávamos ao telefone.
04:20
the way we used to
gossip on the telephone.
89
248600
2016
Deve estar tudo bem".
04:22
It's probably OK.
90
250640
1200
04:24
Well, what this misses
is that in the 1970s,
91
252480
2256
Mas o que não dizem
é que, na década de 70,
04:26
when you were just
gossiping on the telephone,
92
254760
2615
quando falávamos ao telefone,
04:29
there wasn't a hundred engineers
on the other side of the screen
93
257399
3017
não havia uma centena
de engenheiros do outro lado
que sabiam exatamente
como funcionava nossa mente
04:32
who knew exactly
how your psychology worked
94
260440
2056
e nos organizavam no conceito
da psicologia chamado de "duplo vínculo".
04:34
and orchestrated you
into a double bind with each other.
95
262520
2640
04:38
Now, if this is making you
feel a little bit of outrage,
96
266440
3400
Se estiverem se sentindo
um pouco indignados com isso,
04:42
notice that that thought
just comes over you.
97
270680
2576
notem que esse sentimento
simplesmente atinge vocês.
04:45
Outrage is a really good way also
of getting your attention,
98
273280
3320
A indignação também é uma ótima
forma de chamar a atenção,
04:49
because we don't choose outrage.
99
277880
1576
Não escolhemos ficar indignados,
é algo que acontece conosco.
04:51
It happens to us.
100
279480
1416
04:52
And if you're the Facebook newsfeed,
101
280920
1856
O feed de notícias do Facebook,
independentemente de nossa vontade,
04:54
whether you'd want to or not,
102
282800
1416
realmente se beneficia
quando há indignação,
04:56
you actually benefit when there's outrage.
103
284240
2736
04:59
Because outrage
doesn't just schedule a reaction
104
287000
2936
porque ela não apenas programa em nós
uma reação emocional no tempo e espaço.
05:01
in emotional time, space, for you.
105
289960
2880
05:05
We want to share that outrage
with other people.
106
293440
2416
Também queremos compartilhar
essa indignação com os outros.
05:07
So we want to hit share and say,
107
295880
1576
Queremos clicar em "compartilhar" e dizer:
"Você acredita no que eles disseram?"
05:09
"Can you believe the thing
that they said?"
108
297480
2040
05:12
And so outrage works really well
at getting attention,
109
300520
3376
A indignação funciona muito bem
para chamar a atenção.
05:15
such that if Facebook had a choice
between showing you the outrage feed
110
303920
3896
Se o Facebook tivesse que escolher
entre mostrar publicações
tranquilas ou polêmicas,
05:19
and a calm newsfeed,
111
307840
1320
05:22
they would want
to show you the outrage feed,
112
310120
2136
ele mostraria as polêmicas,
não por ter sido uma escolha
consciente de alguém,
05:24
not because someone
consciously chose that,
113
312280
2056
05:26
but because that worked better
at getting your attention.
114
314360
2680
mas porque funcionaria melhor
para chamar a atenção.
05:31
And the newsfeed control room
is not accountable to us.
115
319120
5480
A sala de controle do feed de notícias
não é responsável por nós.
05:37
It's only accountable
to maximizing attention.
116
325040
2296
Só é responsável por aumentar
ao máximo a atenção.
05:39
It's also accountable,
117
327360
1216
Também é responsável devido
ao modelo de negócios da publicidade,
05:40
because of the business model
of advertising,
118
328600
2376
05:43
for anybody who can pay the most
to actually walk into the control room
119
331000
3336
para qualquer um que possa pagar mais,
entrar na sala de controle e dizer:
05:46
and say, "That group over there,
120
334360
1576
"Quero programar esses pensamentos
na mente daquele grupo ali".
05:47
I want to schedule these thoughts
into their minds."
121
335960
2640
05:51
So you can target,
122
339760
1200
05:54
you can precisely target a lie
123
342040
1936
Pode-se mirar com precisão uma mentira
diretamente às pessoas mais suscetíveis.
05:56
directly to the people
who are most susceptible.
124
344000
2920
06:00
And because this is profitable,
it's only going to get worse.
125
348080
2880
Como isso é lucrativo, só tende a piorar.
06:05
So I'm here today
126
353040
1800
Estou aqui hoje
06:08
because the costs are so obvious.
127
356160
2000
porque os danos são muito evidentes.
06:12
I don't know a more urgent
problem than this,
128
360280
2136
Não conheço um problema mais urgente,
porque ele está abaixo de todos os demais.
06:14
because this problem
is underneath all other problems.
129
362440
3120
06:18
It's not just taking away our agency
130
366720
3176
Não está apenas tirando nossa ação
06:21
to spend our attention
and live the lives that we want,
131
369920
2600
de dedicar nossa atenção
e viver a vida que queremos;
06:25
it's changing the way
that we have our conversations,
132
373720
3536
está mudando a maneira como conversamos,
06:29
it's changing our democracy,
133
377280
1736
está mudando nossa democracia,
06:31
and it's changing our ability
to have the conversations
134
379040
2616
e nossa capacidade de ter as conversas
e os relacionamentos
que queremos uns com os outros.
06:33
and relationships we want with each other.
135
381680
2000
06:37
And it affects everyone,
136
385160
1776
Isso afeta todos nós,
06:38
because a billion people
have one of these in their pocket.
137
386960
3360
porque um bilhão de pessoas
têm um desses em seu bolso.
06:45
So how do we fix this?
138
393360
1400
Como corrigimos isso?
06:49
We need to make three radical changes
139
397080
2936
Precisamos fazer três mudanças radicais
na tecnologia e na nossa sociedade.
06:52
to technology and to our society.
140
400040
1800
06:55
The first is we need to acknowledge
that we are persuadable.
141
403720
3800
A primeira é que devemos reconhecer
que podemos ser persuadidos.
Uma vez que começássemos a entender
que podem programar nossa mente
07:00
Once you start understanding
142
408840
1376
07:02
that your mind can be scheduled
into having little thoughts
143
410240
2776
para ter pequenos pensamentos
ou blocos de tempo que não escolhemos,
07:05
or little blocks of time
that you didn't choose,
144
413040
2576
07:07
wouldn't we want to use that understanding
145
415640
2056
não iríamos querer usar essa compreensão
e nos proteger do modo como isso ocorre?
07:09
and protect against the way
that that happens?
146
417720
2160
07:12
I think we need to see ourselves
fundamentally in a new way.
147
420600
3296
Acho que precisamos nos ver
principalmente de uma nova forma.
07:15
It's almost like a new period
of human history,
148
423920
2216
É quase como um novo período
na história, como o Iluminismo,
07:18
like the Enlightenment,
149
426160
1216
mas quase uma espécie
de Iluminismo autoconsciente,
07:19
but almost a kind of
self-aware Enlightenment,
150
427400
2216
07:21
that we can be persuaded,
151
429640
2080
no qual podemos ser persuadidos,
07:24
and there might be something
we want to protect.
152
432320
2240
e poderia haver algo
que queremos proteger.
07:27
The second is we need new models
and accountability systems
153
435400
4576
A segunda é que precisamos de novos
modelos e sistemas de responsabilidade
07:32
so that as the world gets better
and more and more persuasive over time --
154
440000
3496
para que, conforme o mundo fique melhor
e mais persuasivo com o tempo,
pois se tornará cada vez mais persuasivo,
07:35
because it's only going
to get more persuasive --
155
443520
2336
as pessoas nessas salas de controle
07:37
that the people in those control rooms
156
445880
1856
sejam responsáveis e transparentes
com o que queremos.
07:39
are accountable and transparent
to what we want.
157
447760
2456
07:42
The only form of ethical
persuasion that exists
158
450240
2696
A única forma ética de persuasão
07:44
is when the goals of the persuader
159
452960
1936
é quando os objetivos do persuasor estão
alinhados com os objetivos do persuadido,
07:46
are aligned with the goals
of the persuadee.
160
454920
2200
07:49
And that involves questioning big things,
like the business model of advertising.
161
457640
3840
e isso implica levantar grandes questões,
como o modelo comercial de publicidade.
07:54
Lastly,
162
462720
1576
Finalmente,
07:56
we need a design renaissance,
163
464320
1680
precisamos de um renascimento de projeto,
07:59
because once you have
this view of human nature,
164
467080
3056
porque uma vez que se tenha
esta visão da natureza humana,
08:02
that you can steer the timelines
of a billion people --
165
470160
2976
de que se pode controlar as linhas
do tempo de um bilhão de pessoas,
08:05
just imagine, there's people
who have some desire
166
473160
2736
imaginem que há pessoas
que têm algum desejo
08:07
about what they want to do
and what they want to be thinking
167
475920
2856
do que querem fazer, pensar e sentir
e como querem ser informadas,
08:10
and what they want to be feeling
and how they want to be informed,
168
478800
3136
e somos todos arrastados
para outros caminhos
08:13
and we're all just tugged
into these other directions.
169
481960
2536
e há um bilhão de pessoas sendo arrastadas
para todos esses diferentes caminhos.
08:16
And you have a billion people just tugged
into all these different directions.
170
484520
3696
Imaginem um total renascimento de projeto
08:20
Well, imagine an entire design renaissance
171
488240
2056
08:22
that tried to orchestrate
the exact and most empowering
172
490320
3096
que procure organizar
a maneira exata e mais fortalecedora
08:25
time-well-spent way
for those timelines to happen.
173
493440
3136
de investir o tempo para que
essas linhas do tempo aconteçam.
08:28
And that would involve two things:
174
496600
1656
Isso implicaria duas coisas:
uma seria nos proteger das linhas do tempo
que não queremos experimentar,
08:30
one would be protecting
against the timelines
175
498280
2136
08:32
that we don't want to be experiencing,
176
500440
1856
08:34
the thoughts that we
wouldn't want to be happening,
177
502320
2416
dos pensamentos que não queremos ter,
evitando um alarme,
que, quando soa, nos dispersa.
08:36
so that when that ding happens,
not having the ding that sends us away;
178
504760
3336
A segunda seria nos permitir viver
a linha do tempo que queremos.
08:40
and the second would be empowering us
to live out the timeline that we want.
179
508120
3616
08:43
So let me give you a concrete example.
180
511760
1880
Darei um exemplo concreto.
08:46
Today, let's say your friend
cancels dinner on you,
181
514280
2456
Digamos que seu amigo
cancele o jantar com você hoje,
08:48
and you are feeling a little bit lonely.
182
516760
3775
e você esteja se sentindo
um pouco solitário.
08:52
And so what do you do in that moment?
183
520559
1817
Então o que você faz? Abre o Facebook.
08:54
You open up Facebook.
184
522400
1279
08:56
And in that moment,
185
524960
1696
Nesse momento,
08:58
the designers in the control room
want to schedule exactly one thing,
186
526680
3376
os projetistas da sala de controle
querem programar exatamente uma coisa:
09:02
which is to maximize how much time
you spend on the screen.
187
530080
3040
aumentar ao máximo
o tempo que você passa na tela.
09:06
Now, instead, imagine if those designers
created a different timeline
188
534640
3896
Em vez disso, imaginem se eles criassem
uma linha de tempo diferente,
09:10
that was the easiest way,
using all of their data,
189
538560
3496
que fosse a maneira mais fácil,
usando todos os dados disponíveis,
09:14
to actually help you get out
with the people that you care about?
190
542080
3096
para realmente nos ajudar a sair
com pessoas que importam para nós?
Imaginem como isso aliviaria
toda a solidão na sociedade,
09:17
Just think, alleviating
all loneliness in society,
191
545200
5416
09:22
if that was the timeline that Facebook
wanted to make possible for people.
192
550640
3496
se essa fosse a linha do tempo
que o Facebook quisesse dar às pessoas.
09:26
Or imagine a different conversation.
193
554160
1715
Ou imaginem uma conversa diferente.
09:27
Let's say you wanted to post
something supercontroversial on Facebook,
194
555899
3317
Digamos que quiséssemos publicar
algo muito polêmico no Facebook,
realmente importante:
falar de temas polêmicos.
09:31
which is a really important
thing to be able to do,
195
559240
2416
09:33
to talk about controversial topics.
196
561680
1696
Agora mesmo, com aquele grande espaço
09:35
And right now, when there's
that big comment box,
197
563400
2336
quase nos perguntando:
sobre o que você quer escrever?
09:37
it's almost asking you,
what key do you want to type?
198
565760
3376
09:41
In other words, it's scheduling
a little timeline of things
199
569160
2816
Está sendo programada
uma pequena série de coisas
que continuaremos fazendo na tela.
09:44
you're going to continue
to do on the screen.
200
572000
2136
Imaginem que, em vez disso,
haja outro botão ali dizendo:
09:46
And imagine instead that there was
another button there saying,
201
574160
2976
"Qual seria a melhor forma
de investir seu tempo?"
09:49
what would be most
time well spent for you?
202
577160
2056
09:51
And you click "host a dinner."
203
579240
1576
Clicamos em "dar um jantar"
09:52
And right there
underneath the item it said,
204
580840
2096
e, logo abaixo disso, está escrito:
"Quem vem para o jantar?"
09:54
"Who wants to RSVP for the dinner?"
205
582960
1696
09:56
And so you'd still have a conversation
about something controversial,
206
584680
3256
Ainda assim teríamos uma conversa
sobre algo aberto para discussão,
mas seria no lugar mais fortalecedor
de nossa linha do tempo:
09:59
but you'd be having it in the most
empowering place on your timeline,
207
587960
3736
10:03
which would be at home that night
with a bunch of a friends over
208
591720
3016
em casa, à noite, para conversar
com um grupo de amigos.
10:06
to talk about it.
209
594760
1200
10:09
So imagine we're running, like,
a find and replace
210
597000
3160
Imaginem que estamos fazendo
uma espécie de "localizar e substituir",
em todas as linhas do tempo
que atualmente nos controlam
10:13
on all of the timelines
that are currently steering us
211
601000
2576
10:15
towards more and more
screen time persuasively
212
603600
2560
de forma persuasiva a passar
cada vez mais tempo na tela,
10:19
and replacing all of those timelines
213
607080
2536
e substituindo todas essas linhas,
com o que queremos em nossa vida.
10:21
with what do we want in our lives.
214
609640
1640
10:26
It doesn't have to be this way.
215
614960
1480
Não precisa ser assim.
10:30
Instead of handicapping our attention,
216
618360
2256
Em vez de limitar nossa atenção,
imaginem se usarmos
10:32
imagine if we used all of this data
and all of this power
217
620640
2816
toda esta informação e todo este poder
e esta nova visão da natureza humana
10:35
and this new view of human nature
218
623480
1616
10:37
to give us a superhuman ability to focus
219
625120
2856
para nos dar uma capacidade
sobre-humana de concentração,
10:40
and a superhuman ability to put
our attention to what we cared about
220
628000
4136
de colocar nossa atenção
no que nos importa,
10:44
and a superhuman ability
to have the conversations
221
632160
2616
e de ter as conversas que precisamos
ter para a democracia.
10:46
that we need to have for democracy.
222
634800
2000
10:51
The most complex challenges in the world
223
639600
2680
Os desafios mais complexos do mundo
10:56
require not just us
to use our attention individually.
224
644280
3120
exigem não apenas o uso
de nossa atenção de forma individual.
11:00
They require us to use our attention
and coordinate it together.
225
648440
3320
Exigem o uso e a coordenação
de nossa atenção de forma coletiva.
11:04
Climate change is going to require
that a lot of people
226
652440
2816
A mudança climática irá exigir
que muitas pessoas
11:07
are being able
to coordinate their attention
227
655280
2096
sejam capazes de coordenar juntas
a atenção da maneira mais fortalecedora.
11:09
in the most empowering way together.
228
657400
1896
11:11
And imagine creating
a superhuman ability to do that.
229
659320
3080
Imaginem a criação de uma capacidade
sobre-humana para fazer isso.
11:19
Sometimes the world's
most pressing and important problems
230
667000
4160
Às vezes, os problemas mais urgentes
e importantes do mundo
11:24
are not these hypothetical future things
that we could create in the future.
231
672040
3840
não são estas coisas hipotéticas
que poderíamos criar no futuro.
11:28
Sometimes the most pressing problems
232
676560
1736
Os problemas mais urgentes
são, às vezes, os que estão
bem debaixo de nosso nariz,
11:30
are the ones that are
right underneath our noses,
233
678320
2336
11:32
the things that are already directing
a billion people's thoughts.
234
680680
3120
as coisas que já estão controlando
os pensamentos de um bilhão de pessoas.
11:36
And maybe instead of getting excited
about the new augmented reality
235
684600
3376
Talvez, em vez de ficarmos animados
com a nova realidade aumentada,
11:40
and virtual reality
and these cool things that could happen,
236
688000
3296
a realidade virtual e estas coisas legais
que poderiam acontecer,
11:43
which are going to be susceptible
to the same race for attention,
237
691320
3296
que serão suscetíveis
à mesma disputa pela atenção,
11:46
if we could fix the race for attention
238
694640
2176
poderíamos concentrar essa disputa
11:48
on the thing that's already
in a billion people's pockets.
239
696840
2720
naquilo que já está no bolso
de um bilhão de pessoas.
Talvez, em vez do entusiasmo
11:52
Maybe instead of getting excited
240
700040
1576
com os aplicativos educativos
mais novos, emocionantes e sofisticados,
11:53
about the most exciting
new cool fancy education apps,
241
701640
4176
11:57
we could fix the way
kids' minds are getting manipulated
242
705840
2896
poderíamos dar um jeito no modo
como manipulam as mentes infantis
12:00
into sending empty messages
back and forth.
243
708760
2480
no envio de mensagens inúteis
de um lado para o outro.
12:04
(Applause)
244
712040
4296
(Aplausos)
Talvez, em vez da preocupação
12:08
Maybe instead of worrying
245
716360
1256
12:09
about hypothetical future
runaway artificial intelligences
246
717640
3776
com as inteligências artificiais
fora de controle de um futuro hipotético
12:13
that are maximizing for one goal,
247
721440
1880
que estão aumentando
ao máximo para um objetivo,
poderíamos resolver
a inteligência artificial fora de controle
12:16
we could solve the runaway
artificial intelligence
248
724680
2656
12:19
that already exists right now,
249
727360
2056
que já existe neste momento,
12:21
which are these newsfeeds
maximizing for one thing.
250
729440
2920
que são esses feeds de notícias
aumentados para um aspecto.
12:26
It's almost like instead of running away
to colonize new planets,
251
734080
3816
É quase como, em vez de fugir,
colonizar novos planetas,
12:29
we could fix the one
that we're already on.
252
737920
2056
poderíamos cuidar
de nosso próprio planeta.
12:32
(Applause)
253
740000
4120
(Aplausos)
12:40
Solving this problem
254
748040
1776
Resolver este problema
12:41
is critical infrastructure
for solving every other problem.
255
749840
3800
implica uma infraestrutura crítica
para solucionar qualquer outro problema.
12:46
There's nothing in your life
or in our collective problems
256
754600
4016
Não há nada em nossa vida
ou em nossos problemas coletivos
12:50
that does not require our ability
to put our attention where we care about.
257
758640
3560
que não exija nossa capacidade
de concentração naquilo que nos importa.
12:55
At the end of our lives,
258
763800
1240
No final de nossa vida,
12:58
all we have is our attention and our time.
259
766240
2640
tudo o que teremos
será nossa atenção e nosso tempo.
Qual será a melhor forma
de investir nosso tempo?
13:01
What will be time well spent for ours?
260
769800
1896
13:03
Thank you.
261
771720
1216
Obrigado.
13:04
(Applause)
262
772960
3120
(Aplausos) (Vivas)
13:17
Chris Anderson: Tristan, thank you.
Hey, stay up here a sec.
263
785760
2936
Chris Anderson: Tristan, obrigado.
Fique aqui por um instante.
13:20
First of all, thank you.
264
788720
1336
Em primeiro lugar, obrigado.
13:22
I know we asked you to do this talk
on pretty short notice,
265
790080
2776
Sei que pedimos esta palestra
com pouca antecedência,
e você teve uma semana
bastante estressante
13:24
and you've had quite a stressful week
266
792880
2216
13:27
getting this thing together, so thank you.
267
795120
2440
preparando isto, então obrigado.
13:30
Some people listening might say,
what you complain about is addiction,
268
798680
3976
Algumas pessoas que o ouviram podem dizer
que o que você critica é o vício
e todas as pessoas que fazem isso.
13:34
and all these people doing this stuff,
for them it's actually interesting.
269
802680
3496
Para elas é bem interessante.
Todas estas decisões de projeto
13:38
All these design decisions
270
806200
1256
13:39
have built user content
that is fantastically interesting.
271
807480
3096
têm criado um conteúdo de usuário
extremamente interessante.
13:42
The world's more interesting
than it ever has been.
272
810600
2416
O mundo está mais interessante que nunca.
O que há de errado nisso?
13:45
What's wrong with that?
273
813040
1256
Tristan Harris: É bem interessante.
13:46
Tristan Harris:
I think it's really interesting.
274
814320
2256
Uma forma de ver isso
é o YouTube, por exemplo,
13:48
One way to see this
is if you're just YouTube, for example,
275
816600
4016
que sempre quer mostrar
o próximo vídeo mais interessante,
13:52
you want to always show
the more interesting next video.
276
820640
2656
13:55
You want to get better and better
at suggesting that next video,
277
823320
3016
melhorar a sugestão do próximo vídeo.
Mas, mesmo se pudessem propor
o vídeo perfeito que todos quisessem ver,
13:58
but even if you could propose
the perfect next video
278
826360
2456
14:00
that everyone would want to watch,
279
828840
1656
seria apenas cada vez melhor
em manter você conectado.
14:02
it would just be better and better
at keeping you hooked on the screen.
280
830520
3336
O que está faltando nessa equação
é descobrir quais seriam nossos limites.
14:05
So what's missing in that equation
281
833880
1656
14:07
is figuring out what
our boundaries would be.
282
835560
2136
Gostaria que o YouTube
soubesse sobre o sono.
14:09
You would want YouTube to know
something about, say, falling asleep.
283
837720
3216
O presidente da Netflix
disse recentemente:
14:12
The CEO of Netflix recently said,
284
840960
1616
"Nossos maiores concorrentes
são o Facebook, o YouTube e o sono".
14:14
"our biggest competitors
are Facebook, YouTube and sleep."
285
842600
2736
Portanto, precisamos reconhecer
que a estrutura humana é limitada
14:17
And so what we need to recognize
is that the human architecture is limited
286
845360
4456
14:21
and that we have certain boundaries
or dimensions of our lives
287
849840
2976
e que temos certos limites
ou dimensões de nossa vida
14:24
that we want to be honored and respected,
288
852840
1976
a serem honrados e respeitados,
e a tecnologia poderia
ajudar a fazer isso.
14:26
and technology could help do that.
289
854840
1816
14:28
(Applause)
290
856680
2616
(Aplausos)
14:31
CA: I mean, could you make the case
291
859320
1696
CA: Você diria
14:33
that part of the problem here is that
we've got a naïve model of human nature?
292
861040
6056
que parte do problema aqui é que temos
um modelo simples de natureza humana?
14:39
So much of this is justified
in terms of human preference,
293
867120
2736
Muito disso se justifica
em termos de preferência humana,
14:41
where we've got these algorithms
that do an amazing job
294
869880
2616
onde temos algoritmos
que fazem um trabalho incrível
de otimização para preferência humana.
14:44
of optimizing for human preference,
295
872520
1696
14:46
but which preference?
296
874240
1336
Mas qual preferência?
14:47
There's the preferences
of things that we really care about
297
875600
3496
Há as preferências das coisas
que realmente nos importam,
14:51
when we think about them
298
879120
1376
quando pensamos nelas,
14:52
versus the preferences
of what we just instinctively click on.
299
880520
3056
contra as preferências
do que só clicamos por instinto.
14:55
If we could implant that more nuanced
view of human nature in every design,
300
883600
4656
Se pudéssemos implantar essa visão
da natureza humana com mais nuance
em cada projeto, seria um passo adiante?
TH: Com certeza.
15:00
would that be a step forward?
301
888280
1456
15:01
TH: Absolutely. I mean, I think right now
302
889760
1976
Hoje em dia, é como se a tecnologia
perguntasse a nosso cérebro volátil:
15:03
it's as if all of our technology
is basically only asking our lizard brain
303
891760
3496
qual seria o melhor modo
de levar você a fazer por impulso
15:07
what's the best way
to just impulsively get you to do
304
895280
2496
15:09
the next tiniest thing with your time,
305
897800
2136
a próxima coisa mais minúscula
com seu tempo,
15:11
instead of asking you in your life
306
899960
1656
em vez de lhe perguntar
a melhor forma de investir o seu tempo.
15:13
what we would be most
time well spent for you?
307
901640
2176
Qual seria a linha de tempo perfeita
que poderia incluir algo para depois,
15:15
What would be the perfect timeline
that might include something later,
308
903840
3296
aqui no TED em seu último dia?
15:19
would be time well spent for you
here at TED in your last day here?
309
907160
3176
CA: Então, se o Facebook, o Google
e todo mundo dissessem a nós:
15:22
CA: So if Facebook and Google
and everyone said to us first up,
310
910360
2976
"Você gostaria de aperfeiçoar seu cérebro
reflexivo ou o volátil? A escolha é sua".
15:25
"Hey, would you like us
to optimize for your reflective brain
311
913360
2896
15:28
or your lizard brain? You choose."
312
916280
1656
15:29
TH: Right. That would be one way. Yes.
313
917960
2080
TH: Certo, seria uma maneira.
15:34
CA: You said persuadability,
that's an interesting word to me
314
922358
2858
CA: Você disse persuasão,
uma palavra interessante
15:37
because to me there's
two different types of persuadability.
315
925240
2856
porque, para mim, existem
dois tipos diferentes de persuasão:
15:40
There's the persuadability
that we're trying right now
316
928120
2536
aquela que estamos examinando agora
de razão, pensamento e argumentação,
15:42
of reason and thinking
and making an argument,
317
930680
2176
mas acho que você está falando
sobre um tipo diferente, mais intuitivo,
15:44
but I think you're almost
talking about a different kind,
318
932880
2696
15:47
a more visceral type of persuadability,
319
935590
1906
de ser persuadido sem nem saber
o que está pensando.
15:49
of being persuaded without
even knowing that you're thinking.
320
937520
2896
TH: Exatamente.
Eu me preocupo tanto com esse problema
15:52
TH: Exactly. The reason
I care about this problem so much is
321
940440
2856
porque estudei no Persuasive
Technology Lab, em Stanford
15:55
I studied at a lab called
the Persuasive Technology Lab at Stanford
322
943320
3176
que nos ensina exatamente essas técnicas.
15:58
that taught people
exactly these techniques.
323
946520
2096
Há conferências e workshops
que ensinam todas essas formas secretas
16:00
There's conferences and workshops
that teach people all these covert ways
324
948640
3456
de atrair a atenção das pessoas
e comandar a vida delas.
16:04
of getting people's attention
and orchestrating people's lives.
325
952120
2976
Essa conversa é muito importante
porque a maioria não sabe que isso existe.
16:07
And it's because most people
don't know that that exists
326
955120
2656
16:09
that this conversation is so important.
327
957800
1896
CA: Tristan, conhecemos muitas pessoas
de todas essas empresas.
16:11
CA: Tristan, you and I, we both know
so many people from all these companies.
328
959720
3776
16:15
There are actually many here in the room,
329
963520
1976
Muitas delas estão aqui no auditório.
16:17
and I don't know about you,
but my experience of them
330
965520
2477
Não sei sobre você,
mas minha experiência com elas
16:20
is that there is
no shortage of good intent.
331
968021
2075
é que não falta boa intenção.
16:22
People want a better world.
332
970120
2176
As pessoas querem um mundo melhor,
16:24
They are actually -- they really want it.
333
972320
3520
de verdade.
16:28
And I don't think anything you're saying
is that these are evil people.
334
976320
4176
Creio que não esteja dizendo
que são pessoas más.
16:32
It's a system where there's
these unintended consequences
335
980520
3696
É um sistema onde essas consequências
não desejadas saíram de controle.
16:36
that have really got out of control --
336
984240
1856
TH: Sim, é a disputa clássica
pela atenção até o final
16:38
TH: Of this race for attention.
337
986120
1496
16:39
It's the classic race to the bottom
when you have to get attention,
338
987640
3176
quando você tem que chamar
a atenção, e é muito tensa.
16:42
and it's so tense.
339
990840
1216
A única forma de obter mais
é ir mais a fundo no cérebro
16:44
The only way to get more
is to go lower on the brain stem,
340
992080
2736
para ir mais a fundo na indignação,
na emoção e no cérebro volátil.
16:46
to go lower into outrage,
to go lower into emotion,
341
994840
2416
16:49
to go lower into the lizard brain.
342
997280
1696
16:51
CA: Well, thank you so much for helping us
all get a little bit wiser about this.
343
999000
3816
CA: Muito obrigado por nos ajudar a ficar
um pouco mais espertos sobre isso.
Tristan Harris, obrigado.
TH: Muito obrigado.
16:54
Tristan Harris, thank you.
TH: Thank you very much.
344
1002840
2416
(Aplausos)
16:57
(Applause)
345
1005280
2240
Translated by Maurício Kakuei Tanaka
Reviewed by Maricene Crus

▲Back to top

ABOUT THE SPEAKER
Tristan Harris - Design thinker
Tristan Harris helps the technology industry more consciously and ethically shape the human spirit and human potential.

Why you should listen

Tristan Harris has been called "the closest thing Silicon Valley has to a conscience" by The Atlantic magazine. Prior to founding the new Center for Humane Technology, he was Google's Design Ethicist, developing a framework for how technology should "ethically" steer the thoughts and actions of billions of people from screens.  

Harris has spent a decade understanding the invisible influences that hijack human thinking and action. Drawing on literature from addiction, performative magic, social engineering, persuasive design and behavioral economics, he is currently developing a framework for ethical persuasion, especially as it relates to the moral responsibility of technology companies.

Rolling Stone magazine named Harris one of "25 People Shaping the World" in 2017. His work has been featured on TED, "60 Minutes," HBO's "RealTime with Bill Maher," "PBS NewsHour," Recode, The Atlantic, WIRED, the New York Times, Der Spiegel, The Economist and many more. Harris has briefed heads of state, technology company CEOs and members of the US Congress about the attention economy.

More profile about the speaker
Tristan Harris | Speaker | TED.com