ABOUT THE SPEAKER
Daniel Susskind - Economist
Daniel Susskind explores the impact of technology, particularly artificial intelligence, on work and society.

Why you should listen

Daniel Susskind is the co-author, with Richard Susskind, of the best-selling book, The Future of the Professions, and a Fellow in Economics at Balliol College, Oxford University. He is currently finishing his latest book, on the future of work. Previously, he worked in the British Government -- as a policy adviser in the Prime Minister's Strategy Unit, as a policy analyst in the Policy Unit in 10 Downing Street, and as a senior policy adviser in the Cabinet Office. Susskind received a doctorate in economics from Oxford University and was a Kennedy Scholar at Harvard University.

More profile about the speaker
Daniel Susskind | Speaker | TED.com
TED@Merck KGaA, Darmstadt, Germany

Daniel Susskind: 3 myths about the future of work (and why they're not true)

Daniel Susskind: Três mitos sobre o futuro do trabalho (e por que eles não são verdadeiros)

Filmed:
1,519,249 views

"As máquinas substituirão os humanos?" Essa pergunta está na mente de qualquer pessoa que que tenha um emprego. Daniel Susskind confronta essa questão e três concepções erradas que temos sobre nosso futuro automatizado, sugerindo que façamos outra pergunta: como vamos distribuir a riqueza no mundo quando houver menos - ou mesmo não houver - trabalho.
- Economist
Daniel Susskind explores the impact of technology, particularly artificial intelligence, on work and society. Full bio

Double-click the English transcript below to play the video.

A ansiedade com a automação
tem se espalhado ultimamente,
00:12
Automation anxiety
has been spreading lately,
0
760
3376
00:16
a fear that in the future,
1
4160
2656
um medo de que, no futuro,
00:18
many jobs will be performed by machines
2
6840
2456
muitos trabalhos
serão executados por máquinas
00:21
rather than human beings,
3
9320
1336
em vez de seres humanos,
00:22
given the remarkable advances
that are unfolding
4
10680
2936
dado aos notáveis avanços
00:25
in artificial intelligence and robotics.
5
13640
2776
da inteligência artificial e da robótica.
00:28
What's clear is that
there will be significant change.
6
16440
2816
O que está claro é que haverá
mudanças significativas.
00:31
What's less clear
is what that change will look like.
7
19280
3616
O que não está tão claro
é como será essa mudança.
00:34
My research suggests that the future
is both troubling and exciting.
8
22920
4936
Minha pesquisa indica que o futuro
será preocupante e excitante.
00:39
The threat of technological
unemployment is real,
9
27880
3736
A ameaça do desemprego tecnológico é real,
e, ainda assim,
é um bom problema para se ter.
00:43
and yet it's a good problem to have.
10
31640
2056
00:45
And to explain
how I came to that conclusion,
11
33720
3216
E para explicar
como cheguei a essa conclusão,
00:48
I want to confront three myths
12
36960
2536
quero confrontar três mitos
00:51
that I think are currently obscuring
our vision of this automated future.
13
39520
4280
que acho que estão obscurecendo
nossa visão desse futuro automatizado.
00:56
A picture that we see
on our television screens,
14
44880
2336
Uma imagem que vemos na televisão,
00:59
in books, in films, in everyday commentary
15
47240
2216
em livros, filmes
e em comentários cotidianos
01:01
is one where an army of robots
descends on the workplace
16
49480
3696
é aquela em que um exército de robôs
invade um local de trabalho
01:05
with one goal in mind:
17
53200
1376
com um objetivo:
01:06
to displace human beings from their work.
18
54600
2496
substituir os humanos em seu trabalho.
01:09
And I call this the Terminator myth.
19
57120
2696
Eu chamo isso de "o mito do exterminador".
01:11
Yes, machines displace
human beings from particular tasks,
20
59840
3976
Sim, as máquinas substituem os humanos
em tarefas específicas,
01:15
but they don't just
substitute for human beings.
21
63840
2256
mas não apenas substituem
os seres humanos.
Elas também os complementam
em outras tarefas,
01:18
They also complement them in other tasks,
22
66120
1976
01:20
making that work more valuable
and more important.
23
68120
3616
tornando aquele trabalho
mais valioso e importante.
01:23
Sometimes they complement
human beings directly,
24
71760
3336
Às vezes elas complementam
o ser humano diretamente,
01:27
making them more productive
or more efficient at a particular task.
25
75120
4016
tornando-o mais produtivo ou eficiente
em determinada tarefa.
01:31
So a taxi driver can use a satnav system
to navigate on unfamiliar roads.
26
79160
4616
Então um taxista pode usar
um sistema de navegação por GPS
para andar por estradas desconhecidas.
01:35
An architect can use
computer-assisted design software
27
83800
3336
Um arquiteto pode usar software
de projeto assistido por computador
01:39
to design bigger,
more complicated buildings.
28
87160
3096
para projetar prédios
maiores e mais complicados.
01:42
But technological progress doesn't
just complement human beings directly.
29
90280
3696
Mas o progresso tecnológico complementa
os seres humanos não só diretamente.
01:46
It also complements them indirectly,
and it does this in two ways.
30
94000
3336
Ele também os complementa
indiretamente, de duas formas.
01:49
The first is if we think
of the economy as a pie,
31
97360
3336
A primeira é que, se pensarmos
na economia como uma torta,
01:52
technological progress
makes the pie bigger.
32
100720
2896
o progresso tecnológico aumenta a torta.
01:55
As productivity increases,
incomes rise and demand grows.
33
103640
3856
Com o aumento da produtividade,
a renda e a demanda aumentam.
01:59
The British pie, for instance,
34
107520
1776
A torta britânica, por exemplo,
02:01
is more than a hundred times
the size it was 300 years ago.
35
109320
3960
é 100 vezes maior do que era há 300 anos.
02:05
And so people displaced
from tasks in the old pie
36
113920
3216
E as pessoas que perderam as tarefas
que executavam na torta antiga,
02:09
could find tasks to do
in the new pie instead.
37
117160
2720
podem encontrar
novas tarefas na nova torta.
02:12
But technological progress
doesn't just make the pie bigger.
38
120800
3936
Mas o progresso tecnológico
não só aumenta a torta.
02:16
It also changes
the ingredients in the pie.
39
124760
2856
Ele também muda seus ingredientes.
02:19
As time passes, people spend
their income in different ways,
40
127640
3456
Com o passar do tempo, as pessoas
gastam sua renda de formas diferentes,
02:23
changing how they spread it
across existing goods,
41
131120
2816
mudando a forma como a distribuem
em bens existentes,
02:25
and developing tastes
for entirely new goods, too.
42
133960
3216
e desenvolvendo gosto
por bens totalmente novos.
02:29
New industries are created,
43
137200
1776
Novas indústrias são criadas,
02:31
new tasks have to be done
44
139000
1816
novas tarefas precisam ser executadas
e isso significa que novos papéis
devem ser preenchidos.
02:32
and that means often
new roles have to be filled.
45
140840
2536
02:35
So again, the British pie:
46
143400
1496
De novo, a torta britânica:
02:36
300 years ago,
most people worked on farms,
47
144920
2976
há 300 anos, a maioria das pessoas
trabalhava em fazendas,
02:39
150 years ago, in factories,
48
147920
2336
150 anos atrás, em fábricas,
02:42
and today, most people work in offices.
49
150280
2856
e hoje, a maioria trabalha em escritórios.
02:45
And once again, people displaced
from tasks in the old bit of pie
50
153160
4056
E de novo, as pessoas que perderam
suas tarefas na torta antiga
02:49
could tumble into tasks
in the new bit of pie instead.
51
157240
2800
podem acabar executando
tarefas na torta nova.
02:52
Economists call these effects
complementarities,
52
160720
3336
Os economistas chamam esses efeitos
de complementaridades,
02:56
but really that's just a fancy word
to capture the different way
53
164080
3256
mas essa é só uma palavra chique
para capturar a forma diferente
02:59
that technological progress
helps human beings.
54
167360
3136
com que o progresso tecnológico
ajuda os seres humanos.
03:02
Resolving this Terminator myth
55
170520
2096
Solucionar esse mito do exterminador
03:04
shows us that there are
two forces at play:
56
172640
2336
nos mostra que há duas forças em jogo:
03:07
one, machine substitution
that harms workers,
57
175000
3536
uma, a substituição pelas máquinas,
que prejudica os trabalhadores,
03:10
but also these complementarities
that do the opposite.
58
178560
2880
mas também essas complementaridades,
que fazem o oposto.
03:13
Now the second myth,
59
181960
1376
Agora o segundo mito,
03:15
what I call the intelligence myth.
60
183360
2280
que eu chamo de mito da inteligência.
03:18
What do the tasks of driving a car,
making a medical diagnosis
61
186440
4896
O que as tarefas de dirigir um carro,
fazer um diagnóstico médico
03:23
and identifying a bird
at a fleeting glimpse have in common?
62
191360
2920
e identificar um pássaro
numa rápida olhada têm em comum?
03:27
Well, these are all tasks
that until very recently,
63
195280
2976
Bem, são tarefas que, até recentemente,
03:30
leading economists thought
couldn't readily be automated.
64
198280
3336
de acordo com os economistas,
não poderiam ser facilmente automatizadas.
03:33
And yet today, all of these tasks
can be automated.
65
201640
3176
Mas, ainda assim, hoje, todas elas
podem ser automatizadas.
03:36
You know, all major car manufacturers
have driverless car programs.
66
204840
3496
Os principais fabricantes de automóvel
têm programas de carros autônomos.
03:40
There's countless systems out there
that can diagnose medical problems.
67
208360
3976
Há inúmeros sistemas por aí
que diagnosticam problemas médicos.
03:44
And there's even an app
that can identify a bird
68
212360
2416
E existe até um aplicativo que identifica
um pássaro numa rápida olhada.
03:46
at a fleeting glimpse.
69
214800
1200
03:48
Now, this wasn't simply a case of bad luck
on the part of economists.
70
216920
4376
Isso não é só falta de sorte
dos economistas.
03:53
They were wrong,
71
221320
1296
Eles estavam errados,
03:54
and the reason why
they were wrong is very important.
72
222640
2496
e a razão de eles estarem errados
é muito importante.
03:57
They've fallen for the intelligence myth,
73
225160
2256
Eles caíram no mito da inteligência,
03:59
the belief that machines
have to copy the way
74
227440
2896
a crença de que máquinas
precisam copiar a forma
04:02
that human beings think and reason
75
230360
2056
como os humanos pensam e raciocinam
04:04
in order to outperform them.
76
232440
1776
para poder substituí-los.
04:06
When these economists
were trying to figure out
77
234240
2216
Quando os economistas imaginaram quais
tarefas as máquinas não poderiam fazer,
04:08
what tasks machines could not do,
78
236480
1856
04:10
they imagined the only way
to automate a task
79
238360
2136
imaginaram que,
para automatizar uma tarefa,
a única forma seria sentar com uma pessoa,
04:12
was to sit down with a human being,
80
240520
1816
04:14
get them to explain to you
how it was they performed a task,
81
242360
3536
pedir que ela explicasse
como executava uma tarefa,
04:17
and then try and capture that explanation
82
245920
2656
e então tentar capturar essa explicação
04:20
in a set of instructions
for a machine to follow.
83
248600
2776
em um conjunto de instruções
para uma máquina seguir.
04:23
This view was popular in artificial
intelligence at one point, too.
84
251400
4176
Até certo momento essa visão também
foi popular na inteligência artificial.
04:27
I know this because Richard Susskind,
85
255600
2176
Sei disso porque Richard Susskind,
04:29
who is my dad and my coauthor,
86
257800
2856
que é meu pai e meu coautor,
04:32
wrote his doctorate in the 1980s
on artificial intelligence and the law
87
260680
4056
escreveu seu doutorado na década de 1980
sobre inteligência artificial e direito
04:36
at Oxford University,
88
264760
1416
na Oxford University.
04:38
and he was part of the vanguard.
89
266200
1576
Ele era da vanguarda
04:39
And with a professor called Phillip Capper
90
267800
2256
e, com um professor chamado Phillip Capper
04:42
and a legal publisher called Butterworths,
91
270080
2096
e um editor jurídico chamado Butterworths,
04:44
they produced the world's first
commercially available
92
272200
5896
eles produziram o primeiro sistema,
disponível comercialmente,
04:50
artificial intelligence system in the law.
93
278120
2776
de inteligência artificial em direito.
04:52
This was the home screen design.
94
280920
2616
Esta era a tela inicial.
04:55
He assures me this was
a cool screen design at the time.
95
283560
2696
Ele me garante que essa tela
era bonita na época.
04:58
(Laughter)
96
286280
1016
(Risos)
04:59
I've never been entirely convinced.
97
287320
1696
Eu nunca me convenci totalmente.
05:01
He published it
in the form of two floppy disks,
98
289040
2616
Ele foi publicado no formato
de dois discos flexíveis,
05:03
at a time where floppy disks
genuinely were floppy,
99
291680
3536
numa época em que discos flexíveis
eram realmente flexíveis,
05:07
and his approach was the same
as the economists':
100
295240
2336
e a abordagem dele era a mesma
dos economistas: sente-se com um advogado,
05:09
sit down with a lawyer,
101
297600
1256
faça com que ele explique
como resolveu um problema jurídico,
05:10
get her to explain to you
how it was she solved a legal problem,
102
298880
3176
05:14
and then try and capture that explanation
in a set of rules for a machine to follow.
103
302080
5376
e então tente capturar essa explicação
em um conjunto de instruções
que uma máquina possa seguir.
05:19
In economics, if human beings
could explain themselves in this way,
104
307480
3616
Na economia, se seres humanos
conseguem se explicar dessa forma,
05:23
the tasks are called routine,
and they could be automated.
105
311120
3296
as tarefas são chamadas de rotineiras
e podem ser automatizadas.
05:26
But if human beings
can't explain themselves,
106
314440
2336
Mas, se os seres humanos
não conseguem se explicar,
05:28
the tasks are called non-routine,
and they're thought to be out reach.
107
316800
4256
as tarefas são chamadas de não rotineiras,
e são vistas como fora do alcance.
Hoje essa distinção entre rotineira
e não rotineira está muito difundida.
05:33
Today, that routine-nonroutine
distinction is widespread.
108
321080
3296
05:36
Think how often you hear people say to you
109
324400
2056
Pensem com que frequência ouvimos dizer
05:38
machines can only perform tasks
that are predictable or repetitive,
110
326480
3256
que as máquinas só podem executar
tarefas previsíveis, repetitivas,
05:41
rules-based or well-defined.
111
329760
1896
baseadas em regras ou bem definidas.
05:43
Those are all just
different words for routine.
112
331680
2936
Essas são apenas outras formas
de dizer "rotineira".
05:46
And go back to those three cases
that I mentioned at the start.
113
334640
3976
Voltando aos três casos
que mencionei no início
05:50
Those are all classic cases
of nonroutine tasks.
114
338640
2896
são todos casos clássicos
de tarefas não rotineiras.
05:53
Ask a doctor, for instance,
how she makes a medical diagnosis,
115
341560
2976
Pergunte a uma médica, por exemplo,
como ela faz um diagnóstico,
05:56
and she might be able
to give you a few rules of thumb,
116
344560
2656
e ela vai lhe dar algumas regras práticas,
mas, por fim, ela teria dificuldades.
05:59
but ultimately she'd struggle.
117
347240
1656
06:00
She'd say it requires things like
creativity and judgment and intuition.
118
348920
4816
Ela diria que requer coisas como
criatividade, julgamento e intuição.
06:05
And these things are
very difficult to articulate,
119
353760
2376
E essas coisas são difíceis de articular,
06:08
and so it was thought these tasks
would be very hard to automate.
120
356160
3096
então se acha que são tarefas
muito difíceis de automatizar.
06:11
If a human being can't explain themselves,
121
359280
2536
Se um ser humano não consegue se explicar,
06:13
where on earth do we begin
in writing a set of instructions
122
361840
2896
como diabos vamos começar
a escrever um conjunto de instruções
06:16
for a machine to follow?
123
364760
1200
para uma máquina seguir?
06:18
Thirty years ago, this view was right,
124
366640
2576
Há 30 anos, essa ideia estava correta,
06:21
but today it's looking shaky,
125
369240
2136
mas hoje parece incerta
06:23
and in the future
it's simply going to be wrong.
126
371400
2256
e no futuro simplesmente estará errada.
06:25
Advances in processing power,
in data storage capability
127
373680
3256
Avanços no poder de processamento,
na capacidade de armazenamento de dados
06:28
and in algorithm design
128
376960
1656
e no projeto de algoritmos
06:30
mean that this
routine-nonroutine distinction
129
378640
2496
significam que a distinção entre rotineira
e não rotineira está perdendo a utilidade.
06:33
is diminishingly useful.
130
381160
1736
06:34
To see this, go back to the case
of making a medical diagnosis.
131
382920
3256
Vamos voltar ao caso
do diagnóstico médico.
06:38
Earlier in the year,
132
386200
1376
Mais cedo neste ano,
06:39
a team of researchers at Stanford
announced they'd developed a system
133
387600
3296
pesquisadores de Stanford anunciaram
ter desenvolvido um sistema
06:42
which can tell you
whether or not a freckle is cancerous
134
390920
3056
que pode dizer se uma mancha na pele
é cancerosa ou não
06:46
as accurately as leading dermatologists.
135
394000
2680
com tanta precisão
quanto um dermatologista experiente.
06:49
How does it work?
136
397280
1256
Como ele funciona?
06:50
It's not trying to copy the judgment
or the intuition of a doctor.
137
398560
5296
Ele não está tentando copiar o julgamento
ou a intuição de um médico.
06:55
It knows or understands
nothing about medicine at all.
138
403880
3136
Ele não sabe nem entende
nada sobre medicina.
06:59
Instead, it's running
a pattern recognition algorithm
139
407040
2576
Em vez disso, ele executa um algoritmo
de reconhecimento de padrões
07:01
through 129,450 past cases,
140
409640
4656
em 129.450 casos anteriores,
07:06
hunting for similarities
between those cases
141
414320
3096
buscando por similaridades
entre esses casos
07:09
and the particular lesion in question.
142
417440
2080
e a lesão em questão.
07:12
It's performing these tasks
in an unhuman way,
143
420080
3216
Ele executa essa tarefa
de forma não humana,
07:15
based on the analysis
of more possible cases
144
423320
2336
baseado na análise de mais casos
07:17
than any doctor could hope
to review in their lifetime.
145
425680
2616
do que qualquer médico poderia
examinar em toda a vida.
07:20
It didn't matter that that human being,
146
428320
1896
Não importa que essa pessoa,
07:22
that doctor, couldn't explain
how she'd performed the task.
147
430240
2800
esse médico, não consiga explicar
como executaria essa tarefa.
07:25
Now, there are those
who dwell upon that the fact
148
433640
2336
Há pessoas que se incomodam
com o fato de essas máquinas
07:28
that these machines
aren't built in our image.
149
436000
2296
não serem construídas à nossa imagem.
07:30
As an example, take IBM's Watson,
150
438320
2056
Como um exemplo, peguem o Watson da IBM,
07:32
the supercomputer that went
on the US quiz show "Jeopardy!" in 2011,
151
440400
4856
o supercomputador que em 2011 foi
no show de perguntas dos EUA, "Jeopardy!"
07:37
and it beat the two
human champions at "Jeopardy!"
152
445280
3016
e derrotou os dois campeões
humanos do programa.
07:40
The day after it won,
153
448320
1696
Um dia depois de ele ganhar,
07:42
The Wall Street Journal ran a piece
by the philosopher John Searle
154
450040
3296
The Wall Street Journal publicou
um artigo do filósofo John Searle
07:45
with the title "Watson
Doesn't Know It Won on 'Jeopardy!'"
155
453360
3376
com o título: "Watson não sabe
que ganhou o 'Jeopardy!'"
07:48
Right, and it's brilliant, and it's true.
156
456760
1976
Certo, brilhante e verdadeiro.
Watson não deixou escapar
um gritinho de contentamento.
07:50
You know, Watson didn't
let out a cry of excitement.
157
458760
2456
Não ligou para os pais
para receber parabéns.
07:53
It didn't call up its parents
to say what a good job it had done.
158
461240
3096
Não foi para um bar comemorar.
07:56
It didn't go down to the pub for a drink.
159
464360
2336
07:58
This system wasn't trying to copy the way
that those human contestants played,
160
466720
4456
Esse sistema não estava tentando copiar
o jeito dos competidores humanos jogarem,
08:03
but it didn't matter.
161
471200
1256
mas isso não importa.
08:04
It still outperformed them.
162
472480
1976
Ainda assim ele os superou.
08:06
Resolving the intelligence myth
163
474480
1576
Resolver o mito da inteligência
08:08
shows us that our limited understanding
about human intelligence,
164
476080
3376
nos mostra que nosso entendimento
limitado sobre a inteligência humana,
08:11
about how we think and reason,
165
479480
1896
sobre como pensamos e raciocinamos,
08:13
is far less of a constraint
on automation than it was in the past.
166
481400
3456
é um limitador para a automação
bem menor do que já foi no passado.
08:16
What's more, as we've seen,
167
484880
1496
E mais, como vimos,
08:18
when these machines
perform tasks differently to human beings,
168
486400
3416
quando as máquinas executam tarefas
de forma diferente dos seres humanos,
08:21
there's no reason to think
169
489840
1256
não há razão para pensar que aquilo
que os humanos conseguem fazer atualmente
08:23
that what human beings
are currently capable of doing
170
491120
2536
representa algum tipo de limitador
08:25
represents any sort of summit
171
493680
1456
08:27
in what these machines
might be capable of doing in the future.
172
495160
3000
para o que essas máquinas
poderão fazer no futuro.
08:31
Now the third myth,
173
499040
1256
O terceiro mito
08:32
what I call the superiority myth.
174
500320
2456
é o que chamo de mito da superioridade.
08:34
It's often said that those who forget
175
502800
2216
Dizem que as pessoas que esquecem
do lado útil do progresso tecnológico,
08:37
about the helpful side
of technological progress,
176
505040
2456
08:39
those complementarities from before,
177
507520
2496
as complementaridades
sobre as quais falei antes,
08:42
are committing something
known as the lump of labor fallacy.
178
510040
3040
cometem algo conhecido
por falácia do bolo de trabalho.
08:45
Now, the problem is
the lump of labor fallacy
179
513840
2295
O problema é que a falácia
do bolo de trabalho
08:48
is itself a fallacy,
180
516159
1496
é uma falácia em si,
08:49
and I call this the lump
of labor fallacy fallacy,
181
517679
2937
e chamo a isso de a falácia
da falácia do bolo de trabalho,
08:52
or LOLFF, for short.
182
520640
2320
or FFBT, pra encurtar.
08:56
Let me explain.
183
524000
1416
Explico. A falácia do bolo de trabalho
é uma ideia muito antiga.
08:57
The lump of labor fallacy
is a very old idea.
184
525440
2136
Um economista britânico, David Schloss,
deu-lhe este nome em 1892.
08:59
It was a British economist, David Schloss,
who gave it this name in 1892.
185
527600
4216
09:03
He was puzzled
to come across a dock worker
186
531840
2816
Ele ficou intrigado
ao deparar-se com um estivador
09:06
who had begun to use
a machine to make washers,
187
534680
2336
que começou a usar uma máquina
para fazer arruelas,
09:09
the small metal discs
that fasten on the end of screws.
188
537040
3320
esses pequenos discos de metal
que se usa nos parafusos.
09:13
And this dock worker
felt guilty for being more productive.
189
541000
3760
E esse estivador se sentia culpado
por ser mais produtivo.
09:17
Now, most of the time,
we expect the opposite,
190
545560
2176
Em geral espera-se o contrário,
que as pessoas se sintam culpadas
por não produzirem,
09:19
that people feel guilty
for being unproductive,
191
547760
2216
por passarem muito tempo
no Facebook ou Twitter no trabalho.
09:22
you know, a little too much time
on Facebook or Twitter at work.
192
550000
3016
Mas esse trabalhador se sentia culpado
por ser mais produtivo.
09:25
But this worker felt guilty
for being more productive,
193
553040
2536
Ao ser perguntado por que, disse:
"Sei que não está certo.
09:27
and asked why, he said,
"I know I'm doing wrong.
194
555600
2296
09:29
I'm taking away the work of another man."
195
557920
2040
Estou tirando o trabalho de outra pessoa".
09:32
In his mind, there was
some fixed lump of work
196
560760
2976
Na sua cabeça, havia
um bolo fixo de trabalho
09:35
to be divided up between him and his pals,
197
563760
2136
a ser dividido entre ele e seus colegas,
09:37
so that if he used
this machine to do more,
198
565920
2056
então, se ele usasse a máquina
para fazer mais,
09:40
there'd be less left for his pals to do.
199
568000
2016
sobraria menos para seus colegas fazerem.
09:42
Schloss saw the mistake.
200
570040
1856
Schloss viu o erro.
09:43
The lump of work wasn't fixed.
201
571920
1856
O bolo de trabalho não era fixo.
09:45
As this worker used the machine
and became more productive,
202
573800
2816
À medida que o trabalhador usasse
a máquina e produzisse mais,
09:48
the price of washers would fall,
demand for washers would rise,
203
576640
2976
o preço das arruelas cairia,
a demanda aumentaria,
09:51
more washers would have to be made,
204
579640
1696
mais arruelas teriam que ser produzidas,
e haveria mais trabalho para seus colegas.
09:53
and there'd be more work
for his pals to do.
205
581360
2096
09:55
The lump of work would get bigger.
206
583480
1696
O bolo de trabalho cresceria.
09:57
Schloss called this
"the lump of labor fallacy."
207
585200
2680
Schloss chamou isso
de "a falácia do bolo de trabalho".
10:00
And today you hear people talk
about the lump of labor fallacy
208
588560
2936
E hoje se ouve falar
na falácia do bolo de trabalho
para pensar o futuro
de todo tipo de trabalho.
10:03
to think about the future
of all types of work.
209
591520
2216
Não há um bolo fixo de trabalho
10:05
There's no fixed lump of work
out there to be divided up
210
593760
2656
para ser dividido
entre pessoas e máquinas.
10:08
between people and machines.
211
596440
1376
Sim, as máquinas substituem
os seres humanos,
10:09
Yes, machines substitute for human beings,
making the original lump of work smaller,
212
597840
4656
reduzindo o bolo de trabalho original,
10:14
but they also complement human beings,
213
602520
1856
mas elas também
complementam os seres humanos,
10:16
and the lump of work
gets bigger and changes.
214
604400
2096
e o bolo de trabalho cresce e se modifica.
10:19
But LOLFF.
215
607760
1616
Mas a FFBT.
10:21
Here's the mistake:
216
609400
1376
Aqui está o erro:
10:22
it's right to think
that technological progress
217
610800
2216
está correto pensar
que o progresso tecnológico
10:25
makes the lump of work to be done bigger.
218
613040
1976
aumenta o bolo de trabalho a ser feito.
Algumas tarefas passam a ter mais valor.
Novas tarefas precisam ser feitas.
10:27
Some tasks become more valuable.
New tasks have to be done.
219
615040
3016
10:30
But it's wrong to think that necessarily,
220
618080
2536
Mas é errado pensar que necessariamente
10:32
human beings will be best placed
to perform those tasks.
221
620640
3256
os seres humanos serão
os mais indicados para essas tarefas.
10:35
And this is the superiority myth.
222
623920
1616
E esse é o mito da superioridade.
10:37
Yes, the lump of work
might get bigger and change,
223
625560
3416
Sim, o bolo de trabalho
pode crescer e mudar,
10:41
but as machines become more capable,
224
629000
1976
mas à medida que as máquinas
ficam mais capazes,
10:43
it's likely that they'll take on
the extra lump of work themselves.
225
631000
3896
elas mesmas assumem
o bolo de trabalho extra.
10:46
Technological progress,
rather than complement human beings,
226
634920
3256
O progresso tecnológico,
em vez de complementar o ser humano,
10:50
complements machines instead.
227
638200
1880
complementa as máquinas.
10:52
To see this, go back
to the task of driving a car.
228
640920
3016
Para ver isso, vamos voltar
à tarefa de dirigir um carro.
10:55
Today, satnav systems
directly complement human beings.
229
643960
4096
Hoje sistemas de navegação por satélite
complementam diretamente os seres humanos.
11:00
They make some
human beings better drivers.
230
648080
2280
Eles tornam algumas pessoas
melhores motoristas.
11:02
But in the future,
231
650920
1256
Mas, no futuro, o software vai retirar
o ser humano do assento do motorista,
11:04
software is going to displace
human beings from the driving seat,
232
652200
3096
e esses sistemas de navegação,
em vez de complementarem as pessoas,
11:07
and these satnav systems,
rather than complement human beings,
233
655320
2936
vão tornar os carros autônomos
mais eficientes,
11:10
will simply make these
driverless cars more efficient,
234
658280
2536
ajudando as máquinas e não as pessoas.
11:12
helping the machines instead.
235
660840
1536
11:14
Or go to those indirect complementarities
that I mentioned as well.
236
662400
4056
Ou pensem nas complementaridades
indiretas que mencionei.
11:18
The economic pie may get larger,
237
666480
1776
A torta econômica pode crescer,
mas, à medida que as máquinas
ficarem mais capazes,
11:20
but as machines become more capable,
238
668280
1736
11:22
it's possible that any new demand
will fall on goods that machines,
239
670040
3143
é possível que toda nova demanda recaia
para as máquinas e não para as pessoas.
11:25
rather than human beings,
are best placed to produce.
240
673207
2649
11:27
The economic pie may change,
241
675880
1896
A torta econômica pode mudar,
mas, quando as máquinas
ficarem mais capazes,
11:29
but as machines become more capable,
242
677800
1896
11:31
it's possible that they'll be best placed
to do the new tasks that have to be done.
243
679720
4856
elas podem estar melhor posicionadas
para realizar as tarefas necessárias.
11:36
In short, demand for tasks
isn't demand for human labor.
244
684600
3696
Resumindo, a demanda por tarefas
não é demanda por trabalho humano.
11:40
Human beings only stand to benefit
245
688320
1936
Os seres humanos só se beneficiarão
11:42
if they retain the upper hand
in all these complemented tasks,
246
690280
3816
se estiverem à frente
em todas as tarefas complementadas,
11:46
but as machines become more capable,
that becomes less likely.
247
694120
3720
mas à medida que as máquinas se tornam
mais capazes, isso fica mais improvável.
11:50
So what do these three myths tell us then?
248
698760
2016
Então o que esses três mitos nos dizem?
Bem, resolver o mito do exterminador
11:52
Well, resolving the Terminator myth
249
700800
1696
nos mostra que o futuro do trabalho
depende do equilíbrio entre duas forças:
11:54
shows us that the future of work depends
upon this balance between two forces:
250
702520
3696
11:58
one, machine substitution
that harms workers
251
706240
3136
uma, a substituição pelas máquinas
que prejudica os trabalhadores,
12:01
but also those complementarities
that do the opposite.
252
709400
2576
mas também essas complementaridades,
que fazem o oposto.
12:04
And until now, this balance
has fallen in favor of human beings.
253
712000
4040
E até agora, esse equilíbrio
tem sido a favor dos seres humanos.
12:09
But resolving the intelligence myth
254
717120
1736
Mas resolver o mito da inteligência
nos mostra que a primeira força,
12:10
shows us that that first force,
machine substitution,
255
718880
2496
a substituição pelas máquinas,
está se fortalecendo.
12:13
is gathering strength.
256
721400
1296
12:14
Machines, of course, can't do everything,
257
722720
1976
As máquinas, claro, não podem fazer tudo,
12:16
but they can do far more,
258
724720
1256
mas pode fazer muito mais,
12:18
encroaching ever deeper into the realm
of tasks performed by human beings.
259
726000
4576
invadindo cada vez mais o reino
das tarefas executadas por seres humanos.
12:22
What's more, there's no reason to think
260
730600
1896
E não há razão para pensar que aquilo
que os humanos são capazes atualmente
12:24
that what human beings
are currently capable of
261
732520
2216
representa uma espécie
de linha de chegada,
12:26
represents any sort of finishing line,
262
734760
1856
que as máquinas vão parar educadamente
quando ficarem tão capazes quanto nós.
12:28
that machines are going
to draw to a polite stop
263
736640
2256
12:30
once they're as capable as us.
264
738920
1816
Mas nada disso importa
12:32
Now, none of this matters
265
740760
1536
12:34
so long as those helpful
winds of complementarity
266
742320
2816
a não ser que esses ventos
da complementaridade
12:37
blow firmly enough,
267
745160
1736
soprem com força suficiente,
12:38
but resolving the superiority myth
268
746920
1936
mas resolver o mito da superioridade
12:40
shows us that that process
of task encroachment
269
748880
3096
nos mostra que esse processo
de invasão de tarefas
12:44
not only strengthens
the force of machine substitution,
270
752000
3936
não só aumenta a força
da substituição pelas máquinas,
12:47
but it wears down
those helpful complementarities too.
271
755960
3336
mas também enfraquece
essas complementaridades úteis.
12:51
Bring these three myths together
272
759320
1936
Juntem esses três mitos
12:53
and I think we can capture a glimpse
of that troubling future.
273
761280
2936
e acho que podemos vislumbrar
um futuro preocupante.
As máquinas continuarão
a se tornar mais capazes,
12:56
Machines continue to become more capable,
274
764240
2016
invadindo cada vez mais as tarefas
executadas por seres humanos,
12:58
encroaching ever deeper
on tasks performed by human beings,
275
766280
3656
13:01
strengthening the force
of machine substitution,
276
769960
2576
reforçando a substituição por máquinas
13:04
weakening the force
of machine complementarity.
277
772560
3616
e enfraquecendo
a complementaridade das máquinas.
13:08
And at some point, that balance
falls in favor of machines
278
776200
4296
E em algum momento esse equilíbrio
penderá mais para o lado das máquinas
13:12
rather than human beings.
279
780520
2056
do que dos seres humanos.
Esse é o caminho que estamos trilhando.
13:14
This is the path we're currently on.
280
782600
1736
13:16
I say "path" deliberately,
because I don't think we're there yet,
281
784360
3176
Digo "caminho" deliberadamente,
porque acho que ainda não chegamos lá,
13:19
but it is hard to avoid the conclusion
that this is our direction of travel.
282
787560
3640
mas é difícil evitar a conclusão
de que estamos indo nessa direção.
13:24
That's the troubling part.
283
792640
1456
Essa é a parte perturbadora.
13:26
Let me say now why I think actually
this is a good problem to have.
284
794120
3520
Deixem-me dizer por que eu realmente acho
que esse é um problema bom para se ter.
13:30
For most of human history,
one economic problem has dominated:
285
798520
3536
Na maior parte da história do homem,
um problema econômico dominou:
13:34
how to make the economic pie
large enough for everyone to live on.
286
802080
4056
como fazer com que a torta econômica
seja grande o suficiente para todos.
13:38
Go back to the turn
of the first century AD,
287
806160
2176
No primeiro século depois de Cristo,
13:40
and if you took the global economic pie
288
808360
2096
se pegássemos a torta econômica global
13:42
and divided it up into equal slices
for everyone in the world,
289
810480
3296
e a dividíssemos em fatias iguais
para todas as pessoas do mundo,
13:45
everyone would get a few hundred dollars.
290
813800
2136
cada uma ganharia
algumas centenas de dólares.
13:47
Almost everyone lived
on or around the poverty line.
291
815960
2760
Quase todas viveriam
próximos à linha da pobreza.
13:51
And if you roll forward a thousand years,
292
819320
2176
E se avançarmos mil anos,
13:53
roughly the same is true.
293
821520
1240
de modo geral ocorreria a mesma coisa.
13:55
But in the last few hundred years,
economic growth has taken off.
294
823680
3576
Mas nos últimos séculos,
o crescimento econômico decolou.
13:59
Those economic pies have exploded in size.
295
827280
2376
Essas tortas econômicas
explodiram de tamanho.
14:01
Global GDP per head,
296
829680
2056
O PIB global por pessoa,
14:03
the value of those individual
slices of the pie today,
297
831760
3376
o valor dessas fatias individuais hoje,
14:07
they're about 10,150 dollars.
298
835160
2816
seria em torno de US$ 10.150.
14:10
If economic growth continues
at two percent,
299
838000
2696
Se a economia seguir
crescendo à taxa de 2%,
nossos filhos serão duas vezes
mais ricos que nós.
14:12
our children will be twice as rich as us.
300
840720
2056
14:14
If it continues
at a more measly one percent,
301
842800
2296
Se continuar a uma taxa
mais modesta, de 1%,
14:17
our grandchildren
will be twice as rich as us.
302
845120
2656
nossos netos serão duas vezes
mais ricos do que nós.
14:19
By and large, we've solved
that traditional economic problem.
303
847800
3680
Considerando tudo isso, solucionamos
esse problema econômico tradicional.
14:24
Now, technological unemployment,
if it does happen,
304
852200
3016
Agora, se ocorrer
o desemprego tecnológico,
14:27
in a strange way will be
a symptom of that success,
305
855240
3216
de uma forma estranha ele será
um sintoma desse sucesso,
14:30
will have solved one problem --
how to make the pie bigger --
306
858480
3856
terá resolvido um problema:
como aumentar a torta;
14:34
but replaced it with another --
307
862360
1816
mas substituído por outro:
14:36
how to make sure
that everyone gets a slice.
308
864200
2760
como garantir que todos recebam uma fatia.
14:39
As other economists have noted,
solving this problem won't be easy.
309
867840
3496
Como outro economista registrou,
resolver esse problema não será fácil.
14:43
Today, for most people,
310
871360
1656
Hoje, para a maioria das pessoas,
14:45
their job is their seat
at the economic dinner table,
311
873040
2496
o emprego é seu assento
na mesa da economia,
e em um mundo com menos
ou mesmo sem trabalho,
14:47
and in a world with less work
or even without work,
312
875560
2416
não estará claro como fazer
para ganhar sua fatia.
14:50
it won't be clear
how they get their slice.
313
878000
2056
14:52
There's a great deal
of discussion, for instance,
314
880080
2336
Muito se tem falado, por exemplo,
14:54
about various forms
of universal basic income
315
882440
2696
em várias formas de renda básica universal
como uma abordagem possível,
14:57
as one possible approach,
316
885160
1216
14:58
and there's trials underway
317
886400
1616
e várias experiências estão sendo feitas
nos EUA, na Finlândia e no Quênia.
15:00
in the United States
and in Finland and in Kenya.
318
888040
2400
15:03
And this is the collective challenge
that's right in front of us,
319
891000
3176
E este é o desafio coletivo
que está à nossa frente:
15:06
to figure out how this material prosperity
generated by our economic system
320
894200
5056
descobrir como essa prosperidade material
gerada por nosso sistema econômico
15:11
can be enjoyed by everyone
321
899280
1976
pode ser desfrutada por todos
em um mundo em que nosso mecanismo
tradicional de dividir a torta,
15:13
in a world in which
our traditional mechanism
322
901280
2416
15:15
for slicing up the pie,
323
903720
1856
15:17
the work that people do,
324
905600
1936
o trabalho das pessoas,
15:19
withers away and perhaps disappears.
325
907560
2160
diminua e talvez desapareça.
15:22
Solving this problem is going to require
us to think in very different ways.
326
910280
4360
Resolver esse problema requer
que pensemos de maneiras diferentes.
15:27
There's going to be a lot of disagreement
about what ought to be done,
327
915400
4176
Haverá muita discordância
sobre o que deve ser feito,
15:31
but it's important to remember
that this is a far better problem to have
328
919600
3416
mas é importante lembrar que esse é
um problema bem melhor de se ter
15:35
than the one that haunted
our ancestors for centuries:
329
923040
2816
do que aquele que assombrou
nossos antepassados por séculos:
15:37
how to make that pie
big enough in the first place.
330
925880
3376
como aumentar a torta o suficiente.
15:41
Thank you very much.
331
929280
1256
Muito obrigado.
15:42
(Applause)
332
930560
3840
(Aplausos)
Translated by Cláudia Sander
Reviewed by Custodio Marcelino

▲Back to top

ABOUT THE SPEAKER
Daniel Susskind - Economist
Daniel Susskind explores the impact of technology, particularly artificial intelligence, on work and society.

Why you should listen

Daniel Susskind is the co-author, with Richard Susskind, of the best-selling book, The Future of the Professions, and a Fellow in Economics at Balliol College, Oxford University. He is currently finishing his latest book, on the future of work. Previously, he worked in the British Government -- as a policy adviser in the Prime Minister's Strategy Unit, as a policy analyst in the Policy Unit in 10 Downing Street, and as a senior policy adviser in the Cabinet Office. Susskind received a doctorate in economics from Oxford University and was a Kennedy Scholar at Harvard University.

More profile about the speaker
Daniel Susskind | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee