TEDSalon Berlin 2014
Kenneth Cukier: Big data is better data
Kenneth Cukier: "Metadados" são dados melhores
Filmed:
Readability: 4.1
1,663,038 views
Os carros autoguiados foram apenas o começo. Qual é o futuro da tecnologia e do "design" impulsionados pelos metadados? Numa palestra de ciência emocionante, Kenneth Cukier olha para o futuro da aprendizagem das máquinas — e do conhecimento humano.
Kenneth Cukier - Data Editor of The Economist
Kenneth Cukier is the Data Editor of The Economist. From 2007 to 2012 he was the Tokyo correspondent, and before that, the paper’s technology correspondent in London, where his work focused on innovation, intellectual property and Internet governance. Kenneth is also the co-author of Big Data: A Revolution That Will Transform How We Live, Work, and Think with Viktor Mayer-Schönberger in 2013, which was a New York Times Bestseller and translated into 16 languages. Full bio
Kenneth Cukier is the Data Editor of The Economist. From 2007 to 2012 he was the Tokyo correspondent, and before that, the paper’s technology correspondent in London, where his work focused on innovation, intellectual property and Internet governance. Kenneth is also the co-author of Big Data: A Revolution That Will Transform How We Live, Work, and Think with Viktor Mayer-Schönberger in 2013, which was a New York Times Bestseller and translated into 16 languages. Full bio
Double-click the English transcript below to play the video.
00:12
America's favorite pie is?
0
787
3845
A tarte preferida da América é...?
00:16
Audience: Apple.
Kenneth Cukier: Apple. Of course it is.
Kenneth Cukier: Apple. Of course it is.
1
4632
3506
Audiência: Maçã!
Kenneth Cukier: Maçã. Claro que é.
00:20
How do we know it?
2
8138
1231
Como é que sabemos?
00:21
Because of data.
3
9369
2753
Por causa dos dados!
00:24
You look at supermarket sales.
4
12122
2066
Vemos nas vendas dos supermercados.
00:26
You look at supermarket
sales of 30-centimeter pies
sales of 30-centimeter pies
5
14188
2866
Vemos nos supermercados
as vendas das tartes de 30 cm
as vendas das tartes de 30 cm
00:29
that are frozen, and apple wins, no contest.
6
17054
4075
que estão congeladas,
e a maçã ganha, sem discussão.
e a maçã ganha, sem discussão.
00:33
The majority of the sales are apple.
7
21129
5180
A maioria das vendas são as de maçã.
00:38
But then supermarkets started selling
8
26309
2964
Mas depois os supermercados
começaram a vender
começaram a vender
00:41
smaller, 11-centimeter pies,
9
29273
2583
tartes mais pequenas, de 11 cm.
00:43
and suddenly, apple fell to fourth or fifth place.
10
31856
4174
De repente, a maçã caiu
para quarto ou quinto lugar.
para quarto ou quinto lugar.
00:48
Why? What happened?
11
36030
2875
Porquê? O que é que aconteceu?
00:50
Okay, think about it.
12
38905
2818
Pensem bem.
00:53
When you buy a 30-centimeter pie,
13
41723
3848
Quando vocês compram uma tarte de 30 cm,
00:57
the whole family has to agree,
14
45571
2261
toda a família tem que aceitar,
00:59
and apple is everyone's second favorite.
15
47832
3791
mas a maçã é a segunda escolha de todos.
01:03
(Laughter)
16
51623
1935
(Risos)
01:05
But when you buy an individual 11-centimeter pie,
17
53558
3615
Mas quando compram
uma tarte individual de 11 cm,
uma tarte individual de 11 cm,
01:09
you can buy the one that you want.
18
57173
3745
podem comprar aquela que quiserem.
01:12
You can get your first choice.
19
60918
4015
Podem obter a vossa primeira escolha.
01:16
You have more data.
20
64933
1641
Vocês têm mais dados.
01:18
You can see something
21
66574
1554
Podem ver uma coisa que não viam,
01:20
that you couldn't see
22
68128
1132
01:21
when you only had smaller amounts of it.
23
69260
3953
quando só tinham
uma quantidade mais pequena.
uma quantidade mais pequena.
01:25
Now, the point here is that more data
24
73213
2475
A questão aqui é que mais dados
não só nos permitem ver mais,
não só nos permitem ver mais,
01:27
doesn't just let us see more,
25
75688
2283
mais da mesma coisa
para que estamos a olhar,
para que estamos a olhar,
01:29
more of the same thing we were looking at.
26
77971
1854
01:31
More data allows us to see new.
27
79825
3613
mas mais dados também
nos permitem ver coisas novas.
nos permitem ver coisas novas.
01:35
It allows us to see better.
28
83438
3094
Permitem-nos ver melhor.
01:38
It allows us to see different.
29
86532
3656
Permitem-nos ver de modo diferente.
01:42
In this case, it allows us to see
30
90188
3173
Neste caso, permitem-nos ver
01:45
what America's favorite pie is:
31
93361
2913
qual é a tarte preferida da América:
01:48
not apple.
32
96274
2542
não é a de maçã.
01:50
Now, you probably all have heard the term big data.
33
98816
3614
Provavelmente, já todos ouviram falar
do termo "metadados".
do termo "metadados".
01:54
In fact, you're probably sick of hearing the term
34
102430
2057
Provavelmente já estão enjoados
de ouvir o termo
de ouvir o termo
01:56
big data.
35
104487
1630
Metadados.
01:58
It is true that there is a lot of hype around the term,
36
106117
3330
É verdade que há muita publicidade
em torno deste termo
em torno deste termo
02:01
and that is very unfortunate,
37
109447
2332
e isso é lamentável,
02:03
because big data is an extremely important tool
38
111779
3046
porque os metadados são uma ferramenta
extremamente importante
extremamente importante
02:06
by which society is going to advance.
39
114825
3734
com a qual a sociedade vai avançar.
02:10
In the past, we used to look at small data
40
118559
3561
No passado, olhávamos
para conjuntos reduzidos de dados
para conjuntos reduzidos de dados
02:14
and think about what it would mean
41
122120
1704
e pensávamos o que significariam
para tentar entender o mundo.
para tentar entender o mundo.
02:15
to try to understand the world,
42
123824
1496
02:17
and now we have a lot more of it,
43
125320
1991
Agora temos muito mais,
02:19
more than we ever could before.
44
127311
2722
mais do que alguma vez tivemos.
02:22
What we find is that when we have
45
130033
1877
Descobrimos que, quando temos
um grande conjunto de dados,
um grande conjunto de dados,
02:23
a large body of data, we can fundamentally do things
46
131910
2724
podemos fazer coisas
que não eram possíveis,
que não eram possíveis,
02:26
that we couldn't do when we
only had smaller amounts.
only had smaller amounts.
47
134634
3276
quando só tínhamos
quantidades mais pequenas.
quantidades mais pequenas.
02:29
Big data is important, and big data is new,
48
137910
2641
Os metadados são importantes
e são uma novidade.
e são uma novidade.
02:32
and when you think about it,
49
140551
1777
Pensem nisto.
02:34
the only way this planet is going to deal
50
142328
2216
A única forma como este planeta
vai poder lidar com os desafios globais
02:36
with its global challenges —
51
144544
1789
02:38
to feed people, supply them with medical care,
52
146333
3537
— alimentar as pessoas,
dispensar-lhes cuidados médicos,
dispensar-lhes cuidados médicos,
02:41
supply them with energy, electricity,
53
149870
2810
fornecer-lhes energia, eletricidade,
02:44
and to make sure they're not burnt to a crisp
54
152680
1789
e garantir que elas
não vão ficar em torresmos
não vão ficar em torresmos
02:46
because of global warming —
55
154469
1238
por causa do aquecimento global —
02:47
is because of the effective use of data.
56
155707
4195
é através do uso eficaz de dados.
02:51
So what is new about big
data? What is the big deal?
data? What is the big deal?
57
159902
3870
Então o que há de novo
quanto aos metadados?
quanto aos metadados?
O que têm de tão importante?
02:55
Well, to answer that question, let's think about
58
163772
2517
Para responder a esta pergunta,
pensemos em como era a informação,
02:58
what information looked like,
59
166289
1896
03:00
physically looked like in the past.
60
168185
3034
qual era o seu aspeto físico, no passado.
03:03
In 1908, on the island of Crete,
61
171219
3611
Em 1908, na Ilha de Creta,
03:06
archaeologists discovered a clay disc.
62
174830
4735
os arqueólogos descobriram
um disco de barro.
um disco de barro.
03:11
They dated it from 2000 B.C., so it's 4,000 years old.
63
179565
4059
Dataram-no de 2000 a.C.,
portanto com 4000 anos.
portanto com 4000 anos.
03:15
Now, there's inscriptions on this disc,
64
183624
2004
Há inscrições nesse disco,
mas não sabemos o que é que significam.
03:17
but we actually don't know what it means.
65
185628
1327
03:18
It's a complete mystery, but the point is that
66
186955
2098
É um mistério total, mas a questão
03:21
this is what information used to look like
67
189053
1928
é que era aquele o aspeto das informações
03:22
4,000 years ago.
68
190981
2089
há 4000 anos.
03:25
This is how society stored
69
193070
2548
Era assim que a sociedade armazenava
03:27
and transmitted information.
70
195618
3524
e transmitia as informações.
03:31
Now, society hasn't advanced all that much.
71
199142
4160
A sociedade não avançou assim muito.
03:35
We still store information on discs,
72
203302
3474
Continuamos a armazenar
informação em discos,
informação em discos,
03:38
but now we can store a lot more information,
73
206776
3184
mas agora podemos guardar
muito mais informações,
muito mais informações,
03:41
more than ever before.
74
209960
1260
muito mais do que até aqui.
03:43
Searching it is easier. Copying it easier.
75
211220
3093
É mais fácil pesquisar.
É mais fácil copiar.
É mais fácil copiar.
É mais fácil partilhar.
É mais fácil processar.
É mais fácil processar.
03:46
Sharing it is easier. Processing it is easier.
76
214313
3500
03:49
And what we can do is we can reuse this information
77
217813
2766
Podemos reutilizar essas informações
03:52
for uses that we never even imagined
78
220579
1834
para usos que nunca sequer imaginávamos
03:54
when we first collected the data.
79
222413
3195
quando a princípio reunimos os dados.
03:57
In this respect, the data has gone
80
225608
2252
Neste aspeto, os dados
passaram de "stock" a fluxo,
passaram de "stock" a fluxo,
03:59
from a stock to a flow,
81
227860
3532
04:03
from something that is stationary and static
82
231392
3938
passaram duma coisa que é fixa e estática
04:07
to something that is fluid and dynamic.
83
235330
3609
para uma coisa que é fluida e dinâmica.
04:10
There is, if you will, a liquidity to information.
84
238939
4023
Há, se quiserem,
uma liquidez na informação.
uma liquidez na informação.
04:14
The disc that was discovered off of Crete
85
242962
3474
O disco que foi descoberto em Creta
04:18
that's 4,000 years old, is heavy,
86
246436
3764
que tem 4000 anos, é pesado,
04:22
it doesn't store a lot of information,
87
250200
1962
não guarda muitas informações
04:24
and that information is unchangeable.
88
252162
3116
e essas informações são imutáveis.
04:27
By contrast, all of the files
89
255278
4011
Em contrapartida, todos os arquivos
04:31
that Edward Snowden took
90
259289
1861
que Edward Snowden levou
04:33
from the National Security
Agency in the United States
Agency in the United States
91
261150
2621
da National Security Agency
nos Estados Unidos da América
nos Estados Unidos da América
04:35
fits on a memory stick
92
263771
2419
cabem num cartão de memória
04:38
the size of a fingernail,
93
266190
3010
do tamanho duma unha
04:41
and it can be shared at the speed of light.
94
269200
4745
e podem ser partilhados
à velocidade da luz.
à velocidade da luz.
04:45
More data. More.
95
273945
5255
Mais dados. Mais.
Uma das razões por que temos hoje
tantos dados no mundo
tantos dados no mundo
04:51
Now, one reason why we have
so much data in the world today
so much data in the world today
96
279200
1974
04:53
is we are collecting things
97
281174
1432
é porque estamos a reunir coisas
04:54
that we've always collected information on,
98
282606
3280
sobre as quais sempre reunimos informação.
04:57
but another reason why is we're taking things
99
285886
2656
Mas outra razão é porque
estamos a agarrar em coisas
estamos a agarrar em coisas
05:00
that have always been informational
100
288542
2812
que sempre foram informativas
05:03
but have never been rendered into a data format
101
291354
2486
mas nunca foram transformadas
num formato de dados
num formato de dados
05:05
and we are putting it into data.
102
293840
2419
e estamos a transformá-las em dados.
05:08
Think, for example, the question of location.
103
296259
3308
Por exemplo, pensem
na questão da localização.
na questão da localização.
05:11
Take, for example, Martin Luther.
104
299567
2249
Por exemplo, Martinho Lutero.
05:13
If we wanted to know in the 1500s
105
301816
1597
Se quiséssemos saber nos anos de 1500
05:15
where Martin Luther was,
106
303413
2667
onde estava Martinho Lutero,
05:18
we would have to follow him at all times,
107
306080
2092
tínhamos que andar sempre atrás dele,
05:20
maybe with a feathery quill and an inkwell,
108
308172
2137
— talvez com uma pluma de pato
e um tinteiro —
e um tinteiro —
05:22
and record it,
109
310309
1676
e registar isso.
05:23
but now think about what it looks like today.
110
311985
2183
Agora pensem no que se passa hoje.
05:26
You know that somewhere,
111
314168
2122
Sabemos que algures,
provavelmente na base de dados
duma empresa de telecomunicações,
duma empresa de telecomunicações,
05:28
probably in a telecommunications carrier's database,
112
316290
2446
05:30
there is a spreadsheet or at least a database entry
113
318736
3036
há uma folha de cálculo ou, pelo menos,
uma entrada numa base de dados
uma entrada numa base de dados
05:33
that records your information
114
321772
2088
que regista as informações
05:35
of where you've been at all times.
115
323860
2063
sobre onde estivemos em todas as ocasiões,
05:37
If you have a cell phone,
116
325923
1360
se tivermos um telemóvel
e esse telemóvel tiver GPS.
e esse telemóvel tiver GPS.
05:39
and that cell phone has GPS,
but even if it doesn't have GPS,
but even if it doesn't have GPS,
117
327283
2847
Mas, mesmo que não tenha GPS,
05:42
it can record your information.
118
330130
2385
pode registar as nossas informações.
05:44
In this respect, location has been datafied.
119
332515
4084
Nesse aspeto, a localização
foi transformada em dados.
foi transformada em dados.
05:48
Now think, for example, of the issue of posture,
120
336599
4601
Pensem, por exemplo,
na questão da postura,
na questão da postura,
na forma como estão sentados
neste momento,
neste momento,
05:53
the way that you are all sitting right now,
121
341200
1285
05:54
the way that you sit,
122
342485
2030
na forma como se sentam,
05:56
the way that you sit, the way that you sit.
123
344515
2771
na forma como você se senta,
na forma como você se senta.
na forma como você se senta.
05:59
It's all different, and it's a function of your leg length
124
347286
2077
São diferentes, em função
do tamanho das vossas pernas,
do tamanho das vossas pernas,
06:01
and your back and the contours of your back,
125
349363
2093
dos contornos das vossas costas.
06:03
and if I were to put sensors,
maybe 100 sensors
maybe 100 sensors
126
351456
2531
Se puséssemos censores,
— talvez uns 100 censores —
— talvez uns 100 censores —
06:05
into all of your chairs right now,
127
353987
1766
em todas as cadeiras, neste momento,
06:07
I could create an index that's fairly unique to you,
128
355753
3600
eu podia criar um índice único
para cada um de vocês,
para cada um de vocês,
06:11
sort of like a fingerprint, but it's not your finger.
129
359353
4409
uma espécie de impressão digital,
mas não dos vossos dedos.
mas não dos vossos dedos.
06:15
So what could we do with this?
130
363762
2969
Mas o que é que podíamos fazer com isso?
06:18
Researchers in Tokyo are using it
131
366731
2397
Há investigadores em Tóquio
que estão a usar isso
que estão a usar isso
06:21
as a potential anti-theft device in cars.
132
369128
4388
como um possível aparelho antirroubo
em automóveis.
em automóveis.
06:25
The idea is that the carjacker sits behind the wheel,
133
373516
2924
A ideia é que o ladrão
senta-se ao volante, tenta arrancar,
senta-se ao volante, tenta arrancar,
06:28
tries to stream off, but the car recognizes
134
376440
2104
mas o carro reconhece que, ao volante,
está um condutor não autorizado
está um condutor não autorizado
06:30
that a non-approved driver is behind the wheel,
135
378544
2362
06:32
and maybe the engine just stops, unless you
136
380906
2164
e o motor não arranca,
a não ser que se digite uma senha
06:35
type in a password into the dashboard
137
383070
3177
no painel de comandos, que diz:
06:38
to say, "Hey, I have authorization to drive." Great.
138
386247
4658
"Olha lá,
eu tenho autorização para guiar".
eu tenho autorização para guiar".
Fantástico.
06:42
What if every single car in Europe
139
390905
2553
E, se todos os carros na Europa
06:45
had this technology in it?
140
393458
1457
tivessem essa tecnologia?
06:46
What could we do then?
141
394915
3165
O que é que podíamos fazer?
06:50
Maybe, if we aggregated the data,
142
398080
2240
Se agregássemos os dados,
06:52
maybe we could identify telltale signs
143
400320
3814
talvez pudéssemos identificar
sinais reveladores
sinais reveladores
06:56
that best predict that a car accident
144
404134
2709
que previssem melhor
que vai ocorrer um acidente de viação
06:58
is going to take place in the next five seconds.
145
406843
5893
nos cinco segundos seguintes.
07:04
And then what we will have datafied
146
412736
2557
E mais, o que teremos registado em dados
07:07
is driver fatigue,
147
415293
1783
é a fadiga do condutor.
07:09
and the service would be when the car senses
148
417076
2334
O objetivo seria que,
quando o carro pressente
que a pessoa entra nessa situação,
que a pessoa entra nessa situação,
07:11
that the person slumps into that position,
149
419410
3437
07:14
automatically knows, hey, set an internal alarm
150
422847
3994
sabe automaticamente
que deve ligar um alarme interno
que deve ligar um alarme interno
07:18
that would vibrate the steering wheel, honk inside
151
426841
2025
que fará vibrar a buzina do volante,
no interior, a dizer:
no interior, a dizer:
07:20
to say, "Hey, wake up,
152
428866
1721
"Ei, acorda!
Presta mais atenção à estrada!"
Presta mais atenção à estrada!"
07:22
pay more attention to the road."
153
430587
1904
07:24
These are the sorts of things we can do
154
432491
1853
São estas as coisas que podemos fazer
07:26
when we datafy more aspects of our lives.
155
434344
2821
quando transformamos em dados
mais aspetos da nossa vida.
mais aspetos da nossa vida.
07:29
So what is the value of big data?
156
437165
3675
Então, qual é o valor dos metadados?
07:32
Well, think about it.
157
440840
2190
Pensem só.
07:35
You have more information.
158
443030
2412
Temos mais informações.
07:37
You can do things that you couldn't do before.
159
445442
3341
Podemos fazer coisas
que não podíamos fazer antes.
que não podíamos fazer antes.
07:40
One of the most impressive areas
160
448783
1676
Uma das áreas mais impressionantes
07:42
where this concept is taking place
161
450459
1729
em que está a ocorrer este conceito
07:44
is in the area of machine learning.
162
452188
3307
é na área da aprendizagem das máquinas.
07:47
Machine learning is a branch of artificial intelligence,
163
455495
3077
A aprendizagem das máquinas
é um ramo da inteligência artificial,
é um ramo da inteligência artificial,
07:50
which itself is a branch of computer science.
164
458572
3378
que, por sua vez, é um ramo
das tecnologias da informação.
das tecnologias da informação.
07:53
The general idea is that instead of
165
461950
1543
A ideia geral é que,
em vez de dar instruções
a um computador sobre o que fazer,
a um computador sobre o que fazer,
07:55
instructing a computer what do do,
166
463493
2117
07:57
we are going to simply throw data at the problem
167
465610
2620
vamos simplesmente
lançar dados para o problema
lançar dados para o problema
08:00
and tell the computer to figure it out for itself.
168
468230
3206
e dizer ao computador para arranjar
a solução por si mesmo.
a solução por si mesmo.
08:03
And it will help you understand it
169
471436
1777
Vão compreender melhor
08:05
by seeing its origins.
170
473213
3552
conhecendo as suas origens.
08:08
In the 1950s, a computer scientist
171
476765
2388
Nos anos 50,
um engenheiro informático da IBM,
um engenheiro informático da IBM,
08:11
at IBM named Arthur Samuel liked to play checkers,
172
479153
3592
chamado Arthur Samuel,
gostava de jogar xadrez.
gostava de jogar xadrez.
08:14
so he wrote a computer program
173
482745
1402
Por isso escreveu
um programa para computador
um programa para computador
08:16
so he could play against the computer.
174
484147
2813
para poder jogar com o computador.
08:18
He played. He won.
175
486960
2711
Jogou. Ganhou.
08:21
He played. He won.
176
489671
2103
Jogou. Ganhou.
08:23
He played. He won,
177
491774
3015
Jogou. Ganhou.
08:26
because the computer only knew
178
494789
1778
Porque o computador só sabia
08:28
what a legal move was.
179
496567
2227
o que era um movimento legal.
08:30
Arthur Samuel knew something else.
180
498794
2087
Arthur Samuel sabia mais qualquer coisa.
08:32
Arthur Samuel knew strategy.
181
500881
4629
Arthur Samuel sabia estratégia.
08:37
So he wrote a small sub-program alongside it
182
505510
2396
Assim, escreveu um pequeno subprograma
08:39
operating in the background, and all it did
183
507906
1974
que corria por detrás,
que apenas calculava as probabilidades
08:41
was score the probability
184
509880
1817
08:43
that a given board configuration would likely lead
185
511697
2563
de uma dada configuração do tabuleiro
levar a um tabuleiro vencedor
ou a um tabuleiro perdedor,
ou a um tabuleiro perdedor,
08:46
to a winning board versus a losing board
186
514260
2910
08:49
after every move.
187
517170
2508
depois de cada movimento.
08:51
He plays the computer. He wins.
188
519678
3150
Joga com o computador. Ganha.
08:54
He plays the computer. He wins.
189
522828
2508
Joga com o computador. Ganha.
08:57
He plays the computer. He wins.
190
525336
3731
Joga com o computador. Ganha.
09:01
And then Arthur Samuel leaves the computer
191
529067
2277
Então, Arthur Samuel deixa
o computador jogar sozinho.
o computador jogar sozinho.
09:03
to play itself.
192
531344
2227
09:05
It plays itself. It collects more data.
193
533571
3509
Ele joga sozinho. Reúne mais dados.
09:09
It collects more data. It increases
the accuracy of its prediction.
the accuracy of its prediction.
194
537080
4309
Reúne mais dados.
Aumenta o rigor das suas previsões.
Aumenta o rigor das suas previsões.
09:13
And then Arthur Samuel goes back to the computer
195
541389
2104
Arthur Samuel volta ao computador.
09:15
and he plays it, and he loses,
196
543493
2318
Joga e perde,
09:17
and he plays it, and he loses,
197
545811
2069
joga e perde,
09:19
and he plays it, and he loses,
198
547880
2047
joga e perde.
09:21
and Arthur Samuel has created a machine
199
549927
2599
Arthur Samuel criara uma máquina
09:24
that surpasses his ability in a task that he taught it.
200
552526
6288
que ultrapassara a sua capacidade
numa tarefa que ele lhe ensinara.
numa tarefa que ele lhe ensinara.
09:30
And this idea of machine learning
201
558814
2498
Esta ideia de aprendizagem da máquina
09:33
is going everywhere.
202
561312
3927
está a espalhar-se por todo o lado.
09:37
How do you think we have self-driving cars?
203
565239
3149
Como é que julgam
que temos carros autoguiados?
que temos carros autoguiados?
09:40
Are we any better off as a society
204
568388
2137
A nossa sociedade está melhor
09:42
enshrining all the rules of the road into software?
205
570525
3285
por meter todas as regras de trânsito
em "software"? Não.
em "software"? Não.
09:45
No. Memory is cheaper. No.
206
573810
2598
A memória é mais barata? Não.
09:48
Algorithms are faster. No. Processors are better. No.
207
576408
3994
Os algoritmos são mais rápidos? Não.
Os processadores são melhores? Não.
09:52
All of those things matter, but that's not why.
208
580402
2772
Todas essas coisas são importantes,
mas a razão não é essa.
mas a razão não é essa.
09:55
It's because we changed the nature of the problem.
209
583174
3141
É porque alterámos a natureza do problema.
09:58
We changed the nature of the problem from one
210
586315
1530
Alterámos a natureza do problema.
09:59
in which we tried to overtly and explicitly
211
587845
2245
Em vez de tentarmos
aberta e explicitamente
aberta e explicitamente
10:02
explain to the computer how to drive
212
590090
2581
explicar ao computador como guiar,
dizemos:
10:04
to one in which we say,
213
592671
1316
10:05
"Here's a lot of data around the vehicle.
214
593987
1876
"Estão aqui os dados sobre o veículo.
10:07
You figure it out.
215
595863
1533
"Descobre lá como é.
10:09
You figure it out that that is a traffic light,
216
597396
1867
"Descobre que isto é um semáforo,
10:11
that that traffic light is red and not green,
217
599263
2081
"que a luz do semáforo
está vermelha e não verde,
está vermelha e não verde,
10:13
that that means that you need to stop
218
601344
2014
"que isso significa que tens que parar
10:15
and not go forward."
219
603358
3083
"em vez de avançar".
A aprendizagem da máquina está na base
10:18
Machine learning is at the basis
220
606441
1518
10:19
of many of the things that we do online:
221
607959
1991
de muitas das coisas que fazemos "online".
10:21
search engines,
222
609950
1857
Por exemplo, motores de busca,
10:23
Amazon's personalization algorithm,
223
611807
3801
algoritmo de personalização do Amazon,
10:27
computer translation,
224
615608
2212
tradução por computador,
10:29
voice recognition systems.
225
617820
4290
sistemas de reconhecimento de voz.
10:34
Researchers recently have looked at
226
622110
2835
Recentemente, houve investigadores
que analisaram a questão das biópsias,
10:36
the question of biopsies,
227
624945
3195
10:40
cancerous biopsies,
228
628140
2767
das biópsias relacionadas com cancros.
10:42
and they've asked the computer to identify
229
630907
2315
Pediram ao computador para identificar,
10:45
by looking at the data and survival rates
230
633222
2471
olhando para os dados
e as taxas de sobrevivência,
e as taxas de sobrevivência,
10:47
to determine whether cells are actually
231
635693
4667
para determinar
se as células eram cancerosas ou não.
10:52
cancerous or not,
232
640360
2544
Claro que, quando lá meteram os dados,
10:54
and sure enough, when you throw the data at it,
233
642904
1778
10:56
through a machine-learning algorithm,
234
644682
2047
através dum algoritmo
de aprendizagem das máquinas,
de aprendizagem das máquinas,
10:58
the machine was able to identify
235
646729
1877
a máquina foi capaz de identificar
11:00
the 12 telltale signs that best predict
236
648606
2262
os 12 sinais reveladores
que melhor preveem
que melhor preveem
11:02
that this biopsy of the breast cancer cells
237
650868
3299
que naquela biopsia do cancro da mama
11:06
are indeed cancerous.
238
654167
3218
as células são de facto cancerosas.
11:09
The problem: The medical literature
239
657385
2498
Um problema: a literatura médica
11:11
only knew nine of them.
240
659883
2789
só conhecia nove desses sinais.
11:14
Three of the traits were ones
241
662672
1800
Três dos sinais eram sinais
11:16
that people didn't need to look for,
242
664472
2975
que as pessoas não precisavam de procurar,
11:19
but that the machine spotted.
243
667447
5531
mas a máquina detetou-os.
11:24
Now, there are dark sides to big data as well.
244
672978
5925
Mas também há
o lado sombrio dos metadados.
o lado sombrio dos metadados.
11:30
It will improve our lives, but there are problems
245
678903
2074
Vai melhorar a nossa vida,
mas há problemas
mas há problemas
11:32
that we need to be conscious of,
246
680977
2640
de que temos que ter consciência.
11:35
and the first one is the idea
247
683617
2623
O primeiro é a ideia
11:38
that we may be punished for predictions,
248
686240
2686
de que podemos ser punidos
por causa das previsões,
por causa das previsões,
11:40
that the police may use big data for their purposes,
249
688926
3870
de que a polícia possa usar os metadados
para os seus objetivos,
para os seus objetivos,
11:44
a little bit like "Minority Report."
250
692796
2351
um pouco como no "Minority Report".
11:47
Now, it's a term called predictive policing,
251
695147
2441
É um termo chamado
policiamento previsível,
policiamento previsível,
11:49
or algorithmic criminology,
252
697588
2363
ou criminologia algorítmica.
11:51
and the idea is that if we take a lot of data,
253
699951
2036
A ideia é que, se tivermos muitos dados,
11:53
for example where past crimes have been,
254
701987
2159
por exemplo, sítios onde
ocorreram crimes no passado,
ocorreram crimes no passado,
11:56
we know where to send the patrols.
255
704146
2543
sabemos para onde enviar as patrulhas.
11:58
That makes sense, but the problem, of course,
256
706689
2115
Isso faz sentido, mas claro que o problema
12:00
is that it's not simply going to stop on location data,
257
708804
4544
é que isso não vai parar
nos dados de localização,
nos dados de localização,
12:05
it's going to go down to the level of the individual.
258
713348
2959
vai descer ao nível do indivíduo.
12:08
Why don't we use data about the person's
259
716307
2250
Porque é que não usamos dados
sobre o historial universitário
das pessoas?
das pessoas?
12:10
high school transcript?
260
718557
2228
Podíamos usar o facto
de eles estarem empregados ou não,
de eles estarem empregados ou não,
12:12
Maybe we should use the fact that
261
720785
1561
12:14
they're unemployed or not, their credit score,
262
722346
2028
o grau de confiança,
12:16
their web-surfing behavior,
263
724374
1552
o comportamento
de navegação na Internet,
de navegação na Internet,
12:17
whether they're up late at night.
264
725926
1878
se se deitam muito tarde.
12:19
Their Fitbit, when it's able
to identify biochemistries,
to identify biochemistries,
265
727804
3161
O seu Fitbit, quando conseguir
identificar bioquímicos,
identificar bioquímicos,
12:22
will show that they have aggressive thoughts.
266
730965
4236
mostrará que eles têm
pensamentos agressivos.
pensamentos agressivos.
12:27
We may have algorithms that are likely to predict
267
735201
2221
Podemos ter algoritmos
que poderão prever
que poderão prever
12:29
what we are about to do,
268
737422
1633
o que estamos a pensar fazer,
12:31
and we may be held accountable
269
739055
1244
e podemos ser responsabilizados
12:32
before we've actually acted.
270
740299
2590
ainda antes de termos agido.
12:34
Privacy was the central challenge
271
742889
1732
A privacidade era o desafio central
12:36
in a small data era.
272
744621
2880
numa era de pequenos dados.
12:39
In the big data age,
273
747501
2149
Na era dos metadados,
12:41
the challenge will be safeguarding free will,
274
749650
4523
o desafio será
a salvaguarda da nossa vontade,
a salvaguarda da nossa vontade,
12:46
moral choice, human volition,
275
754173
3779
da escolha moral, da volição humana,
12:49
human agency.
276
757952
3068
da atividade humana.
12:54
There is another problem:
277
762540
2225
Há um outro problema:
12:56
Big data is going to steal our jobs.
278
764765
3556
Os metadados vão roubar-nos trabalho.
13:00
Big data and algorithms are going to challenge
279
768321
3512
Os metadados e os algoritmos
vão pôr em causa o trabalho intelectual
vão pôr em causa o trabalho intelectual
13:03
white collar, professional knowledge work
280
771833
3061
de colarinho branco, dos profissionais
13:06
in the 21st century
281
774894
1653
no século XXI,
13:08
in the same way that factory automation
282
776547
2434
tal como a automação das fábricas
13:10
and the assembly line
283
778981
2189
e as linhas de montagem
13:13
challenged blue collar labor in the 20th century.
284
781170
3026
puseram em causa o trabalho
dos operários no século XX.
dos operários no século XX.
13:16
Think about a lab technician
285
784196
2092
Pensem num técnico de laboratório
13:18
who is looking through a microscope
286
786288
1409
que observa ao microscópio
a biópsia dum cancro
a biópsia dum cancro
13:19
at a cancer biopsy
287
787697
1624
13:21
and determining whether it's cancerous or not.
288
789321
2637
e determina se é cancerosa ou não.
13:23
The person went to university.
289
791958
1972
Essa pessoa frequentou a universidade.
13:25
The person buys property.
290
793930
1430
Essa pessoa compra bens.
13:27
He or she votes.
291
795360
1741
Vota.
13:29
He or she is a stakeholder in society.
292
797101
3666
É parte interessada da sociedade.
13:32
And that person's job,
293
800767
1394
Essa pessoa,
13:34
as well as an entire fleet
294
802161
1609
assim como todo um grupo
de profissionais iguais a ela,
de profissionais iguais a ela,
13:35
of professionals like that person,
295
803770
1969
13:37
is going to find that their jobs are radically changed
296
805739
3150
vai deparar-se com o seu trabalho
radicalmente alterado
radicalmente alterado
13:40
or actually completely eliminated.
297
808889
2357
ou totalmente eliminado.
13:43
Now, we like to think
298
811246
1284
Gostamos de pensar
13:44
that technology creates jobs over a period of time
299
812530
3187
que a tecnologia cria empregos
depois de um curto período
temporário de transição.
temporário de transição.
13:47
after a short, temporary period of dislocation,
300
815717
3465
Isso é verdade,
dentro do quadro de referência
dentro do quadro de referência
13:51
and that is true for the frame of reference
301
819182
1941
13:53
with which we all live, the Industrial Revolution,
302
821123
2142
em que todos vivemos
na Revolução Industrial
na Revolução Industrial
13:55
because that's precisely what happened.
303
823265
2328
porque foi exatamente o que aconteceu.
13:57
But we forget something in that analysis:
304
825593
2333
Mas esquecemos uma coisa nessa análise.
13:59
There are some categories of jobs
305
827926
1830
Há algumas categorias de trabalhos
14:01
that simply get eliminated and never come back.
306
829756
3420
que são eliminados e nunca mais voltam.
14:05
The Industrial Revolution wasn't very good
307
833176
2004
A Revolução Industrial não foi
muito boa para os cavalos.
muito boa para os cavalos.
14:07
if you were a horse.
308
835180
4002
14:11
So we're going to need to be careful
309
839182
2055
Portanto, vamos ter que ser cuidadosos,
14:13
and take big data and adjust it for our needs,
310
841237
3514
agarrar nos metadados
e ajustá-los às nossas necessidades,
e ajustá-los às nossas necessidades,
14:16
our very human needs.
311
844751
3185
às nossas necessidades humanas.
14:19
We have to be the master of this technology,
312
847936
1954
Temos que ser os donos desta tecnologia
14:21
not its servant.
313
849890
1656
e não os seus escravos.
14:23
We are just at the outset of the big data era,
314
851546
2958
Estamos apenas no início
da era dos metadados.
da era dos metadados.
14:26
and honestly, we are not very good
315
854504
3150
Honestamente, não somos muito bons
14:29
at handling all the data that we can now collect.
316
857654
4207
em manejar todos os dados
que conseguimos reunir atualmente.
que conseguimos reunir atualmente.
14:33
It's not just a problem for
the National Security Agency.
the National Security Agency.
317
861861
3330
Não é só um problema com a NSA.
14:37
Businesses collect lots of
data, and they misuse it too,
data, and they misuse it too,
318
865191
3038
A indústria reúne muitos dados
e também os utiliza mal.
e também os utiliza mal.
14:40
and we need to get better at
this, and this will take time.
this, and this will take time.
319
868229
3667
Precisamos de melhorar nisso,
mas isso vai levar tempo.
mas isso vai levar tempo.
14:43
It's a little bit like the challenge that was faced
320
871896
1822
É um pouco como o desafio
14:45
by primitive man and fire.
321
873718
2407
que os homens primitivos
enfrentaram com o fogo.
enfrentaram com o fogo.
14:48
This is a tool, but this is a tool that,
322
876125
1885
É uma ferramenta, mas é uma ferramenta
14:50
unless we're careful, will burn us.
323
878010
3559
que, se não tivermos cuidado,
pode-nos queimar.
pode-nos queimar.
14:56
Big data is going to transform how we live,
324
884008
3120
Os metadados vão transformar
o modo como vivemos,
o modo como vivemos,
14:59
how we work and how we think.
325
887128
2801
como trabalhamos e como pensamos.
15:01
It is going to help us manage our careers
326
889929
1889
Vão ajudar-nos a gerir as nossas carreiras
15:03
and lead lives of satisfaction and hope
327
891818
3634
e a viver com satisfação e esperança,
15:07
and happiness and health,
328
895452
2992
com felicidade e saúde.
15:10
but in the past, we've often
looked at information technology
looked at information technology
329
898444
3306
No passado, olhámos muitas vezes
para a tecnologia da informação
para a tecnologia da informação
15:13
and our eyes have only seen the T,
330
901750
2208
e os nossos olhos só viram o "T,"
15:15
the technology, the hardware,
331
903958
1686
a Tecnologia, o equipamento,
15:17
because that's what was physical.
332
905644
2262
porque era o que era físico.
15:19
We now need to recast our gaze at the I,
333
907906
2924
Agora precisamos de focar
o nosso olhar no "I",
o nosso olhar no "I",
15:22
the information,
334
910830
1380
a Informação
15:24
which is less apparent,
335
912210
1373
que é menos aparente,
15:25
but in some ways a lot more important.
336
913583
4109
mas em certos aspetos,
muito mais importante.
muito mais importante.
15:29
Humanity can finally learn from the information
337
917692
3465
A humanidade pode finalmente
aprender com as informações
aprender com as informações
15:33
that it can collect,
338
921157
2418
que consegue reunir,
15:35
as part of our timeless quest
339
923575
2115
faz parte
da nossa busca incansável
da nossa busca incansável
15:37
to understand the world and our place in it,
340
925690
3159
para entender o mundo
e o nosso lugar nele.
e o nosso lugar nele.
15:40
and that's why big data is a big deal.
341
928849
5631
Por isso é que os metadados
são uma coisa importante.
são uma coisa importante.
15:46
(Applause)
342
934480
3568
(Aplausos)
ABOUT THE SPEAKER
Kenneth Cukier - Data Editor of The EconomistKenneth Cukier is the Data Editor of The Economist. From 2007 to 2012 he was the Tokyo correspondent, and before that, the paper’s technology correspondent in London, where his work focused on innovation, intellectual property and Internet governance. Kenneth is also the co-author of Big Data: A Revolution That Will Transform How We Live, Work, and Think with Viktor Mayer-Schönberger in 2013, which was a New York Times Bestseller and translated into 16 languages.
Why you should listen
As Data Editor of The Economist and co-author of Big Data: A Revolution That Will Transform How We Live, Work, and Think, Kenneth Cukier has spent years immersed in big data, machine learning -- and the impact of both. What's the future of big data-driven technology and design? To find out, watch this talk.
Kenneth Cukier | Speaker | TED.com