ABOUT THE SPEAKER
Kenneth Cukier - Data Editor of The Economist
Kenneth Cukier is the Data Editor of The Economist. From 2007 to 2012 he was the Tokyo correspondent, and before that, the paper’s technology correspondent in London, where his work focused on innovation, intellectual property and Internet governance. Kenneth is also the co-author of Big Data: A Revolution That Will Transform How We Live, Work, and Think with Viktor Mayer-Schönberger in 2013, which was a New York Times Bestseller and translated into 16 languages.

Why you should listen

As Data Editor of The Economist and co-author of Big Data: A Revolution That Will Transform How We Live, Work, and Think, Kenneth Cukier has spent years immersed in big data, machine learning -- and the impact of both. What's the future of big data-driven technology and design? To find out, watch this talk.

More profile about the speaker
Kenneth Cukier | Speaker | TED.com
TEDSalon Berlin 2014

Kenneth Cukier: Big data is better data

Kenneth Cukier: Datos masivos, datos mucho mejores

Filmed:
1,663,038 views

Los automóviles autodirigidos fueron solo el comienzo. ¿Cuál es el futuro de la tecnología y el diseño impulsado por los datos masivos? En esta apasionante charla científica Kenneth Cukier observa lo que esto supone para el aprendizaje automático, y, por ende, para el conocimiento humano.
- Data Editor of The Economist
Kenneth Cukier is the Data Editor of The Economist. From 2007 to 2012 he was the Tokyo correspondent, and before that, the paper’s technology correspondent in London, where his work focused on innovation, intellectual property and Internet governance. Kenneth is also the co-author of Big Data: A Revolution That Will Transform How We Live, Work, and Think with Viktor Mayer-Schönberger in 2013, which was a New York Times Bestseller and translated into 16 languages. Full bio

Double-click the English transcript below to play the video.

00:12
America'sAmérica favoritefavorito pietarta is?
0
787
3845
¿Pastel favorito en EEUU?
00:16
AudienceAudiencia: Applemanzana.
KennethKenneth CukierCukier: Applemanzana. Of coursecurso it is.
1
4632
3506
Audiencia: El de manzana.
Kenneth Cukier: De manzana. Por supuesto.
00:20
How do we know it?
2
8138
1231
¿Cómo lo sabemos?
00:21
Because of datadatos.
3
9369
2753
Por los datos.
00:24
You look at supermarketsupermercado salesventas.
4
12122
2066
Se miran las ventas en supermercados.
00:26
You look at supermarketsupermercado
salesventas of 30-centimeter-centímetro piespies
5
14188
2866
Se miran las ventas en supermercados
de pasteles de 30 cm
00:29
that are frozencongelado, and applemanzana winsgana, no contestconcurso.
6
17054
4075
congelados, y los de manzana
ganan, sin rival.
00:33
The majoritymayoria of the salesventas are applemanzana.
7
21129
5180
La mayoría de las ventas son
los de manzana.
00:38
But then supermarketssupermercados startedempezado sellingde venta
8
26309
2964
Pero los supermercados
comenzaron a vender
00:41
smallermenor, 11-centimeter-centímetro piespies,
9
29273
2583
pasteles más pequeños, de 11 cm,
00:43
and suddenlyrepentinamente, applemanzana fellcayó to fourthcuarto or fifthquinto placelugar.
10
31856
4174
y de repente, el de manzana
cayó al 4º o 5º lugar.
00:48
Why? What happenedsucedió?
11
36030
2875
¿Por qué? ¿Qué paso?
00:50
Okay, think about it.
12
38905
2818
Bueno, piensen en ello.
00:53
When you buycomprar a 30-centimeter-centímetro pietarta,
13
41723
3848
Cuando compramos un pastel de 30 cm,
00:57
the wholetodo familyfamilia has to agreede acuerdo,
14
45571
2261
toda la familia tiene
que estar de acuerdo,
00:59
and applemanzana is everyone'stodos secondsegundo favoritefavorito.
15
47832
3791
y el de manzana es el segundo
favorito de todos.
01:03
(LaughterRisa)
16
51623
1935
(Risas)
01:05
But when you buycomprar an individualindividual 11-centimeter-centímetro pietarta,
17
53558
3615
Pero si uno compra
un pastel de 11 cm individual,
01:09
you can buycomprar the one that you want.
18
57173
3745
puede comprar el que desee.
01:12
You can get your first choiceelección.
19
60918
4015
Puede comprar su primera opción.
01:16
You have more datadatos.
20
64933
1641
Tenemos más datos.
01:18
You can see something
21
66574
1554
Podemos ver algo
01:20
that you couldn'tno pudo see
22
68128
1132
que no se podía ver
01:21
when you only had smallermenor amountscantidades of it.
23
69260
3953
cuando solo había menor
cantidad de datos.
01:25
Now, the pointpunto here is that more datadatos
24
73213
2475
Ahora, el punto es que
muchos más datos
01:27
doesn't just let us see more,
25
75688
2283
no solo nos permiten ver más,
01:29
more of the samemismo thing we were looking at.
26
77971
1854
más de lo mismo
que ya veíamos.
01:31
More datadatos allowspermite us to see newnuevo.
27
79825
3613
Más datos nos permiten
ver cosas nuevas.
01:35
It allowspermite us to see better.
28
83438
3094
Nos permiten ver mejor.
01:38
It allowspermite us to see differentdiferente.
29
86532
3656
Nos permiten ver
de forma diferente.
01:42
In this casecaso, it allowspermite us to see
30
90188
3173
En este caso, nos permiten ver
01:45
what America'sAmérica favoritefavorito pietarta is:
31
93361
2913
que el pastel favorito de EEUU es:
01:48
not applemanzana.
32
96274
2542
no el de manzana.
01:50
Now, you probablyprobablemente all have heardoído the termtérmino biggrande datadatos.
33
98816
3614
Puede que todos hayan oído escuchado
el término "Datos masivos".
De hecho, es probable que
estén hartos de escucharlo
01:54
In facthecho, you're probablyprobablemente sickenfermos of hearingaudición the termtérmino
34
102430
2057
01:56
biggrande datadatos.
35
104487
1630
"Datos masivos".
01:58
It is truecierto that there is a lot of hypebombo around the termtérmino,
36
106117
3330
Es cierto que se exagera
mucho el término,
02:01
and that is very unfortunatedesgraciado,
37
109447
2332
y eso es muy lamentable,
02:03
because biggrande datadatos is an extremelyextremadamente importantimportante toolherramienta
38
111779
3046
porque los datos masivos
son una herramienta muy importante
02:06
by whichcual societysociedad is going to advanceavanzar.
39
114825
3734
para que la sociedad avance.
02:10
In the pastpasado, we used to look at smallpequeña datadatos
40
118559
3561
En el pasado, solíamos observar
pequeñas cantidades de datos
02:14
and think about what it would mean
41
122120
1704
y pensar qué significarían
02:15
to try to understandentender the worldmundo,
42
123824
1496
para tratar de entender el mundo.
02:17
and now we have a lot more of it,
43
125320
1991
Ahora tenemos mucho más de ello,
02:19
more than we ever could before.
44
127311
2722
más de lo que podía existir antes.
Lo que encontramos es que
cuando tenemos
02:22
What we find is that when we have
45
130033
1877
02:23
a largegrande bodycuerpo of datadatos, we can fundamentallyfundamentalmente do things
46
131910
2724
una gran cantidad de datos,
podemos hacer cosas
02:26
that we couldn'tno pudo do when we
only had smallermenor amountscantidades.
47
134634
3276
que no podíamos hacer
teniendo solo cantidades más pequeñas.
02:29
BigGrande datadatos is importantimportante, and biggrande datadatos is newnuevo,
48
137910
2641
Los datos masivos son importantes
y es algo nuevo,
02:32
and when you think about it,
49
140551
1777
y cuando se piensa en ello,
02:34
the only way this planetplaneta is going to dealacuerdo
50
142328
2216
la única forma en que
este planeta afronte
02:36
with its globalglobal challengesdesafíos
51
144544
1789
sus desafíos mundiales, esto es,
02:38
to feedalimentar people, supplysuministro them with medicalmédico carecuidado,
52
146333
3537
alimentar a la gente,
ofrecer atención médica,
02:41
supplysuministro them with energyenergía, electricityelectricidad,
53
149870
2810
suministrar energía, electricidad,
02:44
and to make sure they're not burntquemado to a crispcrujiente
54
152680
1789
y asegurarse de que
no nos achicharramos
02:46
because of globalglobal warmingcalentamiento
55
154469
1238
debido al calentamiento global,
02:47
is because of the effectiveeficaz use of datadatos.
56
155707
4195
es utilizando de forma eficaz los datos.
02:51
So what is newnuevo about biggrande
datadatos? What is the biggrande dealacuerdo?
57
159902
3870
Entonces, ¿qué es lo nuevo de
los datos masivos? ¿Cuál es la gran cosa?
02:55
Well, to answerresponder that questionpregunta, let's think about
58
163772
2517
Bueno, para responder a esto,
pensaremos en
02:58
what informationinformación lookedmirado like,
59
166289
1896
cómo se veía la información,
03:00
physicallyfísicamente lookedmirado like in the pastpasado.
60
168185
3034
físicamente en el pasado.
03:03
In 1908, on the islandisla of CreteCreta,
61
171219
3611
En 1908 en la isla de Creta,
03:06
archaeologistsarqueólogos discovereddescubierto a clayarcilla discdesct.
62
174830
4735
los arqueólogos descubrieron
un disco de arcilla.
03:11
They datedanticuado it from 2000 B.C., so it's 4,000 yearsaños oldantiguo.
63
179565
4059
Datan del año 2000 aC,
así que tienen 4000 años de antigüedad.
03:15
Now, there's inscriptionsinscripciones on this discdesct,
64
183624
2004
Hay inscripciones en este disco,
03:17
but we actuallyactualmente don't know what it meansmedio.
65
185628
1327
pero, no sabemos
qué significan.
03:18
It's a completecompletar mysterymisterio, but the pointpunto is that
66
186955
2098
Es un completo misterio,
pero el punto es que
03:21
this is what informationinformación used to look like
67
189053
1928
así solía verse la información
03:22
4,000 yearsaños agohace.
68
190981
2089
hace 4000 años.
03:25
This is how societysociedad storedalmacenado
69
193070
2548
Esta es la forma en que
la sociedad almacenaba
03:27
and transmittedtransmitido informationinformación.
70
195618
3524
y transmitía la información.
03:31
Now, societysociedad hasn'tno tiene advancedavanzado all that much.
71
199142
4160
Ahora, la sociedad no ha avanzado tanto.
03:35
We still storealmacenar informationinformación on discsDiscos,
72
203302
3474
Todavía guardamos
la información en discos,
03:38
but now we can storealmacenar a lot more informationinformación,
73
206776
3184
pero ahora podemos almacenar
mucha más información,
03:41
more than ever before.
74
209960
1260
más que nunca.
03:43
Searchingbuscando it is easiermás fácil. CopyingProceso de copiar it easiermás fácil.
75
211220
3093
Buscar es más fácil. Copiar es más fácil.
03:46
SharingCompartir it is easiermás fácil. ProcessingTratamiento it is easiermás fácil.
76
214313
3500
El compartir es más fácil.
El procesamiento es más fácil.
03:49
And what we can do is we can reusereutilizar this informationinformación
77
217813
2766
Y podemos volver
a utilizar esta información
03:52
for usesusos that we never even imaginedimaginado
78
220579
1834
para usos que nunca
nos imaginamos
03:54
when we first collectedrecogido the datadatos.
79
222413
3195
cuando se recogieron los primeros datos.
03:57
In this respectel respeto, the datadatos has goneido
80
225608
2252
A este respecto, los datos
han evolucionado
03:59
from a stockvalores to a flowfluir,
81
227860
3532
de un almacén a un flujo,
04:03
from something that is stationaryestacionario and staticestático
82
231392
3938
de algo que es estacionario y estático
04:07
to something that is fluidfluido and dynamicdinámica.
83
235330
3609
a algo que es fluido y dinámico.
04:10
There is, if you will, a liquidityliquidez to informationinformación.
84
238939
4023
Hay, si quieren,
una liquidez de información.
04:14
The discdesct that was discovereddescubierto off of CreteCreta
85
242962
3474
El disco descubierto fuera de Creta
04:18
that's 4,000 yearsaños oldantiguo, is heavypesado,
86
246436
3764
que tiene 4000 años
de antigüedad, es pesado,
04:22
it doesn't storealmacenar a lot of informationinformación,
87
250200
1962
no almacena gran cantidad de información,
04:24
and that informationinformación is unchangeableinmutable.
88
252162
3116
y esa información no es modificable.
04:27
By contrastcontraste, all of the filesarchivos
89
255278
4011
Por el contrario, todos los archivos
04:31
that EdwardEduardo SnowdenSnowden tooktomó
90
259289
1861
que Edward Snowden tomó
de la Agencia de Seguridad Nacional
de EEUU
04:33
from the NationalNacional SecuritySeguridad
AgencyAgencia in the UnitedUnido StatesEstados
91
261150
2621
04:35
fitsencaja on a memorymemoria stickpalo
92
263771
2419
caben en un dispositivo
de memoria extraíble
04:38
the sizetamaño of a fingernailuña,
93
266190
3010
del tamaño de una uña,
04:41
and it can be sharedcompartido at the speedvelocidad of lightligero.
94
269200
4745
y pueden compartirse
a la velocidad de la luz.
04:45
More datadatos. More.
95
273945
5255
Más datos. Más.
Una razón para tener tantos datos
hoy en el mundo
04:51
Now, one reasonrazón why we have
so much datadatos in the worldmundo todayhoy
96
279200
1974
04:53
is we are collectingcoleccionar things
97
281174
1432
es que recolectamos cosas
04:54
that we'venosotros tenemos always collectedrecogido informationinformación on,
98
282606
3280
sobre las que siempre
hemos recopilado información,
04:57
but anotherotro reasonrazón why is we're takingtomando things
99
285886
2656
pero otra razón es que
estamos tomando cosas
05:00
that have always been informationalinformativo
100
288542
2812
que siempre han sido informacionales
05:03
but have never been renderedprestado into a datadatos formatformato
101
291354
2486
pero nunca se habían convertido
a un formato de datos
05:05
and we are puttingponiendo it into datadatos.
102
293840
2419
y las estamos convirtiendo en datos.
05:08
Think, for exampleejemplo, the questionpregunta of locationubicación.
103
296259
3308
Piensen, por ejemplo,
en la cuestión de la ubicación.
05:11
Take, for exampleejemplo, MartinMartín LutherLutero.
104
299567
2249
Tomemos, por ejemplo, Martín Lutero.
05:13
If we wanted to know in the 1500s
105
301816
1597
Si hubiéramos querido
saber en 1500
05:15
where MartinMartín LutherLutero was,
106
303413
2667
donde estaba Martín Lutero,
05:18
we would have to followseguir him at all timesveces,
107
306080
2092
habríamos tenido que seguirlo
en todo momento,
05:20
maybe with a featheryplumoso quillpluma and an inkwelltintero,
108
308172
2137
quizá con pluma y tintero,
05:22
and recordgrabar it,
109
310309
1676
y anotarlo.
05:23
but now think about what it looksmiradas like todayhoy.
110
311985
2183
Pero piensen cómo es hoy en día.
05:26
You know that somewherealgun lado,
111
314168
2122
Uds. saben que en algún lugar,
quizá en la base de datos
de una empresa de telecomunicaciones,
05:28
probablyprobablemente in a telecommunicationstelecomunicaciones carrier'sportador databasebase de datos,
112
316290
2446
05:30
there is a spreadsheethoja de cálculo or at leastmenos a databasebase de datos entryentrada
113
318736
3036
hay una hoja de cálculo o
entrada de base de datos
05:33
that recordsarchivos your informationinformación
114
321772
2088
donde se registra su información
05:35
of where you've been at all timesveces.
115
323860
2063
de donde han estado
en todo momento.
05:37
If you have a cellcelda phoneteléfono,
116
325923
1360
Si tienen celular,
05:39
and that cellcelda phoneteléfono has GPSGPS,
but even if it doesn't have GPSGPS,
117
327283
2847
y el teléfono tiene GPS,
pero incluso si no tiene GPS,
05:42
it can recordgrabar your informationinformación.
118
330130
2385
se puede registrar su información.
05:44
In this respectel respeto, locationubicación has been datafieddatafied.
119
332515
4084
En este sentido, la localización
ha sido un campo de datos.
05:48
Now think, for exampleejemplo, of the issueproblema of posturepostura,
120
336599
4601
Ahora piensen, por ejemplo,
en el tema de la postura,
05:53
the way that you are all sittingsentado right now,
121
341200
1285
la forma en que están
sentados ahora,
05:54
the way that you sitsentar,
122
342485
2030
la forma en Ud. está sentado,
05:56
the way that you sitsentar, the way that you sitsentar.
123
344515
2771
la de Ud., la de Ud.
Todas diferentes, en función
de la longitud de las piernas,
05:59
It's all differentdiferente, and it's a functionfunción of your legpierna lengthlongitud
124
347286
2077
06:01
and your back and the contourscontornos of your back,
125
349363
2093
la espalda y su contorno,
06:03
and if I were to put sensorssensores,
maybe 100 sensorssensores
126
351456
2531
y si pusiera censores,
tal vez 100
06:05
into all of your chairssillas right now,
127
353987
1766
en todos los asientos ahora,
06:07
I could createcrear an indexíndice that's fairlybastante uniqueúnico to you,
128
355753
3600
podría crear un índice
que es único para cada uno,
06:11
sortordenar of like a fingerprinthuella dactilar, but it's not your fingerdedo.
129
359353
4409
algo así como una huella digital,
que no es del dedo.
06:15
So what could we do with this?
130
363762
2969
Y entonces,
¿qué podemos hacer con esto?
06:18
ResearchersInvestigadores in TokyoTokio are usingutilizando it
131
366731
2397
Los investigadores en Tokio
están utilizando
06:21
as a potentialpotencial anti-theftanti-robo devicedispositivo in carscarros.
132
369128
4388
como un dispositivo potencial
antirobo en los autos.
06:25
The ideaidea is that the carjackerladrón de carros sitsse sienta behinddetrás the wheelrueda,
133
373516
2924
La idea es que el ladrón
se siente al volante,
06:28
triesintentos to streamcorriente off, but the carcoche recognizesreconoce
134
376440
2104
intente encenderlo,
pero el auto reconoce
06:30
that a non-approvedno aprovado driverconductor is behinddetrás the wheelrueda,
135
378544
2362
que un conductor no autorizado
está en el auto
06:32
and maybe the enginemotor just stopsparadas, unlessa no ser que you
136
380906
2164
y, tal vez el motor se detiene,
a menos que
06:35
typetipo in a passwordcontraseña into the dashboardtablero
137
383070
3177
escriba una contraseña
en el salpicadero
06:38
to say, "Hey, I have authorizationautorización to drivemanejar." Great.
138
386247
4658
para decir, "Tengo la autorización
para conducir". Estupendo.
06:42
What if everycada singlesoltero carcoche in EuropeEuropa
139
390905
2553
¿Qué pasaría si cada automóvil
en Europa
06:45
had this technologytecnología in it?
140
393458
1457
tuviera esta tecnología?
06:46
What could we do then?
141
394915
3165
¿Qué podemos hacer entonces?
06:50
Maybe, if we aggregatedagregado the datadatos,
142
398080
2240
Tal vez, si agregamos los datos,
06:52
maybe we could identifyidentificar telltaleindicador signsseñales
143
400320
3814
tal vez podríamos identificar
signos reveladores
06:56
that bestmejor predictpredecir that a carcoche accidentaccidente
144
404134
2709
que predijeran mejor
que un accidente de auto
06:58
is going to take placelugar in the nextsiguiente fivecinco secondssegundos.
145
406843
5893
tendrá lugar en los próximos
cinco segundos.
07:04
And then what we will have datafieddatafied
146
412736
2557
Y entonces,
la base de datos que tendremos
07:07
is driverconductor fatiguefatiga,
147
415293
1783
es la fatiga del conductor,
07:09
and the serviceServicio would be when the carcoche sensessentido
148
417076
2334
y el servicio se activaría
cuando los sensores del automóvil
07:11
that the personpersona slumpsdesplomes into that positionposición,
149
419410
3437
detectaran que la persona
reposa en esa posición,
07:14
automaticallyautomáticamente knowssabe, hey, setconjunto an internalinterno alarmalarma
150
422847
3994
y automáticamente
se activa una alarma interna
07:18
that would vibratevibrar the steeringgobierno wheelrueda, honkbocinazo insidedentro
151
426841
2025
que haría vibrar el volante,
sonar una alarma
07:20
to say, "Hey, wakedespertar up,
152
428866
1721
para decir, "Despierta,
07:22
paypaga more attentionatención to the roadla carretera."
153
430587
1904
presta más atención a la carretera".
07:24
These are the sortstipo of things we can do
154
432491
1853
Este es el tipo de cosas
que podemos hacer
07:26
when we datafydatafy more aspectsaspectos of our livesvive.
155
434344
2821
cuando tomamos datos
en más aspectos de nuestras vidas.
07:29
So what is the valuevalor of biggrande datadatos?
156
437165
3675
Entonces, ¿cuál es el valor
de los datos masivos?
07:32
Well, think about it.
157
440840
2190
Bueno, piensen en ello.
07:35
You have more informationinformación.
158
443030
2412
Tienen más información.
07:37
You can do things that you couldn'tno pudo do before.
159
445442
3341
Pueden hacer cosas que antes
no se podían hacer.
07:40
One of the mostmás impressiveimpresionante areasáreas
160
448783
1676
Una de las zonas más impresionantes
07:42
where this conceptconcepto is takingtomando placelugar
161
450459
1729
donde este concepto se ve aplicado
07:44
is in the areazona of machinemáquina learningaprendizaje.
162
452188
3307
es en el área del
aprendizaje automático.
07:47
MachineMáquina learningaprendizaje is a branchrama of artificialartificial intelligenceinteligencia,
163
455495
3077
El aprendizaje automático es una rama
de la inteligencia artificial,
07:50
whichcual itselfsí mismo is a branchrama of computercomputadora scienceciencia.
164
458572
3378
que en sí es una rama de la informática.
07:53
The generalgeneral ideaidea is that insteaden lugar of
165
461950
1543
La idea general es que en lugar de
07:55
instructinginstruyendo a computercomputadora what do do,
166
463493
2117
enseñar a un equipo algo,
07:57
we are going to simplysimplemente throwlanzar datadatos at the problemproblema
167
465610
2620
simplemente transferiremos
datos al problema
08:00
and tell the computercomputadora to figurefigura it out for itselfsí mismo.
168
468230
3206
para decirle a la computadora
que lo averigüe sola.
08:03
And it will help you understandentender it
169
471436
1777
Y nos ayude a entenderlo
08:05
by seeingviendo its originsorígenes.
170
473213
3552
al ver sus orígenes.
08:08
In the 1950s, a computercomputadora scientistcientífico
171
476765
2388
En la década de 1950,
un científico de computación
08:11
at IBMIBM namedllamado ArthurArturo SamuelSamuel likedgustó to playjugar checkersjuego de damas,
172
479153
3592
en IBM llamado Arthur Samuel
al que le gustaba jugar a damas,
08:14
so he wroteescribió a computercomputadora programprograma
173
482745
1402
por eso escribió
un programa
08:16
so he could playjugar againsten contra the computercomputadora.
174
484147
2813
para poder jugar contra la computadora.
08:18
He playedjugó. He wonwon.
175
486960
2711
Jugó. Ganó.
08:21
He playedjugó. He wonwon.
176
489671
2103
Jugó. Ganó.
08:23
He playedjugó. He wonwon,
177
491774
3015
Jugó. Ganó,
08:26
because the computercomputadora only knewsabía
178
494789
1778
porque el equipo solo sabía
08:28
what a legallegal movemovimiento was.
179
496567
2227
lo que era un movimiento legal.
08:30
ArthurArturo SamuelSamuel knewsabía something elsemás.
180
498794
2087
Arthur Samuel sabía algo más.
08:32
ArthurArturo SamuelSamuel knewsabía strategyestrategia.
181
500881
4629
Arthur Samuel sabía estrategia.
08:37
So he wroteescribió a smallpequeña sub-programsubprograma alongsidejunto a it
182
505510
2396
Así que escribió un pequeño subprograma
08:39
operatingoperando in the backgroundfondo, and all it did
183
507906
1974
operando en el fondo.
Y todo lo que hizo
08:41
was scorePuntuación the probabilityprobabilidad
184
509880
1817
fue anotar la probabilidad
08:43
that a givendado boardtablero configurationconfiguración would likelyprobable leaddirigir
185
511697
2563
de que una configuración
del tablero condujera
08:46
to a winningvictorioso boardtablero versusversus a losingperdiendo boardtablero
186
514260
2910
a un tablero ganador frente
a un tablero perdedor
después de cada movimiento.
08:49
after everycada movemovimiento.
187
517170
2508
08:51
He playsobras de teatro the computercomputadora. He winsgana.
188
519678
3150
Él jugó contra el equipo.
Él ganó.
08:54
He playsobras de teatro the computercomputadora. He winsgana.
189
522828
2508
Él jugó contra el equipo.
Él ganó.
08:57
He playsobras de teatro the computercomputadora. He winsgana.
190
525336
3731
Él jugó contra el equipo.
Él ganó.
09:01
And then ArthurArturo SamuelSamuel leaveshojas the computercomputadora
191
529067
2277
Y luego Arthur Samuel dejó
que la computadora
09:03
to playjugar itselfsí mismo.
192
531344
2227
jugara sola.
09:05
It playsobras de teatro itselfsí mismo. It collectscolecciona more datadatos.
193
533571
3509
Juega sola. Y recoge más datos.
09:09
It collectscolecciona more datadatos. It increasesaumenta
the accuracyexactitud of its predictionpredicción.
194
537080
4309
Recoge más datos.
Aumenta la precisión de su predicción.
09:13
And then ArthurArturo SamuelSamuel goesva back to the computercomputadora
195
541389
2104
Y luego Arthur Samuel vuelve al equipo
09:15
and he playsobras de teatro it, and he losespierde,
196
543493
2318
juega y pierde.
09:17
and he playsobras de teatro it, and he losespierde,
197
545811
2069
Y juega y pierde.
09:19
and he playsobras de teatro it, and he losespierde,
198
547880
2047
Y juega y pierde.
09:21
and ArthurArturo SamuelSamuel has createdcreado a machinemáquina
199
549927
2599
Y Arthur Samuel ha creado una máquina
09:24
that surpassessupera his abilitycapacidad in a tasktarea that he taughtenseñó it.
200
552526
6288
que supera su capacidad
en una tarea que él enseñó.
09:30
And this ideaidea of machinemáquina learningaprendizaje
201
558814
2498
Y esta idea de aprendizaje automático
09:33
is going everywhereen todos lados.
202
561312
3927
irá a todas partes.
09:37
How do you think we have self-drivingconducción autónoma carscarros?
203
565239
3149
¿Cómo creen que tenemos
autos autodirigidos?
09:40
Are we any better off as a societysociedad
204
568388
2137
¿Estamos mejor como sociedad
09:42
enshriningconsagrar all the rulesreglas of the roadla carretera into softwaresoftware?
205
570525
3285
almacenando todas las reglas
de la carretera en un software?
09:45
No. MemoryMemoria is cheapermás barato. No.
206
573810
2598
No. La memoria es más barata. No.
09:48
AlgorithmsAlgoritmos are fasterMás rápido. No. ProcessorsProcesadores are better. No.
207
576408
3994
Los algoritmos son más rápidos. No.
Los procesadores son mejores. No.
09:52
All of those things matterimportar, but that's not why.
208
580402
2772
Todas esas cosas importan,
pero no es por eso.
09:55
It's because we changedcambiado the naturenaturaleza of the problemproblema.
209
583174
3141
Es porque hemos cambiado
la naturaleza del problema.
09:58
We changedcambiado the naturenaturaleza of the problemproblema from one
210
586315
1530
Hemos cambiado
el problema de uno
09:59
in whichcual we triedintentó to overtlyabiertamente and explicitlyexplícitamente
211
587845
2245
en el que intentábamos
abierta y explícitamente
10:02
explainexplique to the computercomputadora how to drivemanejar
212
590090
2581
explicar a la computadora
cómo conducir,
10:04
to one in whichcual we say,
213
592671
1316
a uno en la que decimos,
10:05
"Here'sAquí está a lot of datadatos around the vehiclevehículo.
214
593987
1876
"Aquí hay una gran cantidad
de datos del vehículo.
10:07
You figurefigura it out.
215
595863
1533
Haz los números.
10:09
You figurefigura it out that that is a traffictráfico lightligero,
216
597396
1867
Te diste cuenta de que eso es un semáforo,
10:11
that that traffictráfico lightligero is redrojo and not greenverde,
217
599263
2081
que está en rojo
y no verde,
10:13
that that meansmedio that you need to stop
218
601344
2014
eso significa que tienes
que detenerte
10:15
and not go forwardadelante."
219
603358
3083
y no seguir".
El aprendizaje automático está en la base
10:18
MachineMáquina learningaprendizaje is at the basisbase
220
606441
1518
10:19
of manymuchos of the things that we do onlineen línea:
221
607959
1991
de muchas cosas
que hacemos en línea:
10:21
searchbuscar enginesmotores,
222
609950
1857
motores de búsqueda,
10:23
Amazon'sAmazon's personalizationpersonalización algorithmalgoritmo,
223
611807
3801
el algoritmo de personalización
de Amazon,
10:27
computercomputadora translationtraducción,
224
615608
2212
la traducción automática
por computadora,
10:29
voicevoz recognitionreconocimiento systemssistemas.
225
617820
4290
los sistemas de reconocimiento de voz.
10:34
ResearchersInvestigadores recentlyrecientemente have lookedmirado at
226
622110
2835
Recientemente,
los investigadores han examinado
10:36
the questionpregunta of biopsiesbiopsias,
227
624945
3195
la cuestión de biopsias,
10:40
cancerouscanceroso biopsiesbiopsias,
228
628140
2767
biopsias de cáncer,
10:42
and they'veellos tienen askedpreguntó the computercomputadora to identifyidentificar
229
630907
2315
y han usado la computadora
para identificar,
10:45
by looking at the datadatos and survivalsupervivencia ratestasas
230
633222
2471
mirando los datos y
las tasas de supervivencia,
10:47
to determinedeterminar whethersi cellsCélulas are actuallyactualmente
231
635693
4667
si las células son en realidad
10:52
cancerouscanceroso or not,
232
640360
2544
cancerosas o no,
10:54
and sure enoughsuficiente, when you throwlanzar the datadatos at it,
233
642904
1778
y claro, al trasferir
los datos
10:56
throughmediante a machine-learningaprendizaje automático algorithmalgoritmo,
234
644682
2047
por un algoritmo
de aprendizaje automático,
10:58
the machinemáquina was ablepoder to identifyidentificar
235
646729
1877
la máquina fue capaz de identificar
11:00
the 12 telltaleindicador signsseñales that bestmejor predictpredecir
236
648606
2262
los 12 signos reveladores
que mejor predicen
11:02
that this biopsybiopsia of the breastpecho cancercáncer cellsCélulas
237
650868
3299
si en esta biopsia de
células de cáncer de mama,
11:06
are indeeden efecto cancerouscanceroso.
238
654167
3218
hay, en efecto, cáncer.
11:09
The problemproblema: The medicalmédico literatureliteratura
239
657385
2498
El problema: la literatura médica
11:11
only knewsabía ninenueve of them.
240
659883
2789
solo sabía nueve de ellos.
11:14
ThreeTres of the traitsrasgos were onesunos
241
662672
1800
Tres de los rasgos eran de
11:16
that people didn't need to look for,
242
664472
2975
los que las personas no buscan,
11:19
but that the machinemáquina spottedmanchado.
243
667447
5531
pero que la máquina descubrió.
11:24
Now, there are darkoscuro sideslados to biggrande datadatos as well.
244
672978
5925
También hay lados oscuros
en los datos masivos.
Mejorará nuestras vidas,
pero hay problemas
11:30
It will improvemejorar our livesvive, but there are problemsproblemas
245
678903
2074
11:32
that we need to be consciousconsciente of,
246
680977
2640
de los que tenemos que
ser conscientes,
11:35
and the first one is the ideaidea
247
683617
2623
y el primero es la idea
11:38
that we maymayo be punishedcastigado for predictionspredicciones,
248
686240
2686
de que podemos ser castigados
por las predicciones,
11:40
that the policepolicía maymayo use biggrande datadatos for theirsu purposespropósitos,
249
688926
3870
que la policía puede utilizar
datos masivos para sus fines,
11:44
a little bitpoco like "MinorityMinoría ReportInforme."
250
692796
2351
un poco como "Minority Report".
11:47
Now, it's a termtérmino calledllamado predictiveprofético policingvigilancia,
251
695147
2441
Es un término conocido como
policial predictiva,
o criminología algorítmica,
11:49
or algorithmicalgorítmico criminologycriminología,
252
697588
2363
y la idea es que,
con gran cantidad de datos,
11:51
and the ideaidea is that if we take a lot of datadatos,
253
699951
2036
11:53
for exampleejemplo where pastpasado crimescrímenes have been,
254
701987
2159
por ejemplo, donde hubo
crímenes antes,
11:56
we know where to sendenviar the patrolsPatrullas.
255
704146
2543
sabremos dónde enviar
a las patrullas.
Tiene sentido, pero,
el problema, claro,
11:58
That makeshace sensesentido, but the problemproblema, of coursecurso,
256
706689
2115
12:00
is that it's not simplysimplemente going to stop on locationubicación datadatos,
257
708804
4544
es que no solo se quedarán
en los datos de ubicación,
12:05
it's going to go down to the levelnivel of the individualindividual.
258
713348
2959
irán al nivel del individuo.
12:08
Why don't we use datadatos about the person'spersona
259
716307
2250
¿Por qué no usamos
los datos de personas
12:10
highalto schoolcolegio transcripttranscripción?
260
718557
2228
con un alto expediente académico?
12:12
Maybe we should use the facthecho that
261
720785
1561
Tal vez utilizar
el hecho de que
estén sin empleo,
su record crediticio,
12:14
they're unemployeddesempleados or not, theirsu creditcrédito scorePuntuación,
262
722346
2028
12:16
theirsu web-surfingnavegación por la web behaviorcomportamiento,
263
724374
1552
su comportamiento en la web,
12:17
whethersi they're up latetarde at night.
264
725926
1878
si están despiertos
tarde en la noche.
12:19
TheirSu FitbitFitbit, when it's ablepoder
to identifyidentificar biochemistriesbioquímica,
265
727804
3161
Su controlador físico digital,
cuando identifique datos bioquímicos,
12:22
will showespectáculo that they have aggressiveagresivo thoughtspensamientos.
266
730965
4236
mostrará si tienen
pensamientos agresivos.
12:27
We maymayo have algorithmsAlgoritmos that are likelyprobable to predictpredecir
267
735201
2221
Podemos tener algoritmos
que pueden predecir
12:29
what we are about to do,
268
737422
1633
lo que estamos a punto de hacer,
12:31
and we maymayo be heldretenida accountableexplicable
269
739055
1244
y podemos ser responsables
12:32
before we'venosotros tenemos actuallyactualmente actedactuado.
270
740299
2590
antes de que realmente
hayamos actuado.
12:34
PrivacyIntimidad was the centralcentral challengereto
271
742889
1732
la privacidad era el desafío principal
12:36
in a smallpequeña datadatos eraera.
272
744621
2880
en la era de los datos pequeños.
12:39
In the biggrande datadatos ageaños,
273
747501
2149
En la era de los datos masivos,
12:41
the challengereto will be safeguardingsalvaguardia freegratis will,
274
749650
4523
el reto será salvaguardar
el libre albedrío,
12:46
moralmoral choiceelección, humanhumano volitionvoluntad,
275
754173
3779
la elección moral,
la voluntad humana,
12:49
humanhumano agencyagencia.
276
757952
3068
la acción humana.
12:54
There is anotherotro problemproblema:
277
762540
2225
Hay otro problema:
12:56
BigGrande datadatos is going to stealrobar our jobstrabajos.
278
764765
3556
los datos masivos nos quitarán
nuestros puestos de trabajo.
13:00
BigGrande datadatos and algorithmsAlgoritmos are going to challengereto
279
768321
3512
Los datos masivos y algoritmos desafiarán
13:03
whiteblanco collarcollar, professionalprofesional knowledgeconocimiento work
280
771833
3061
los conocimientos profesionales de gestión
13:06
in the 21stst centurysiglo
281
774894
1653
en el siglo XXI
13:08
in the samemismo way that factoryfábrica automationautomatización
282
776547
2434
de la misma manera que
la automatización de las fábricas
13:10
and the assemblymontaje linelínea
283
778981
2189
y las cadenas de montaje
13:13
challengedDesafiado blueazul collarcollar laborlabor in the 20thth centurysiglo.
284
781170
3026
desafiaron el trabajo
de los obreros en el siglo XX.
13:16
Think about a lablaboratorio techniciantécnico
285
784196
2092
Piensen en un técnico de laboratorio
13:18
who is looking throughmediante a microscopemicroscopio
286
786288
1409
que mira en un microscopio
13:19
at a cancercáncer biopsybiopsia
287
787697
1624
una biopsia de cáncer
13:21
and determiningdeterminando whethersi it's cancerouscanceroso or not.
288
789321
2637
para determinar si es cáncer o no.
13:23
The personpersona wentfuimos to universityUniversidad.
289
791958
1972
La persona que fue a la universidad.
13:25
The personpersona buyscompra propertypropiedad.
290
793930
1430
En el que compra propiedades.
13:27
He or she votesvotos.
291
795360
1741
Él o ella vota.
13:29
He or she is a stakeholdertenedor de apuestas in societysociedad.
292
797101
3666
Él o ella es un constituyente
de la sociedad.
13:32
And that person'spersona jobtrabajo,
293
800767
1394
Y el trabajo de esa persona,
13:34
as well as an entiretodo fleetflota
294
802161
1609
así como toda una flota
13:35
of professionalsprofesionales like that personpersona,
295
803770
1969
de profesionales como esa persona,
13:37
is going to find that theirsu jobstrabajos are radicallyradicalmente changedcambiado
296
805739
3150
se encontrará que sus puestos de trabajo
han cambiado radicalmente
13:40
or actuallyactualmente completelycompletamente eliminatedeliminado.
297
808889
2357
o, en realidad, se han eliminado
completamente.
13:43
Now, we like to think
298
811246
1284
Ahora, nos gusta pensar
13:44
that technologytecnología createscrea jobstrabajos over a periodperíodo of time
299
812530
3187
que la tecnología crea
puestos de trabajo
13:47
after a shortcorto, temporarytemporal periodperíodo of dislocationdislocación,
300
815717
3465
después de un corto período
de dislocación temporal,
13:51
and that is truecierto for the framemarco of referencereferencia
301
819182
1941
y es cierto para el marco de referencia
13:53
with whichcual we all livevivir, the IndustrialIndustrial RevolutionRevolución,
302
821123
2142
de la Revolución Industrial,
que vivimos,
13:55
because that's preciselyprecisamente what happenedsucedió.
303
823265
2328
porque eso es precisamente lo que ocurrió.
13:57
But we forgetolvidar something in that analysisanálisis:
304
825593
2333
Pero nos olvidamos de algo en el análisis:
13:59
There are some categoriescategorías of jobstrabajos
305
827926
1830
Hay algunas categorías de empleos
14:01
that simplysimplemente get eliminatedeliminado and never come back.
306
829756
3420
que simplemente se eliminan y
no se crean nunca más.
14:05
The IndustrialIndustrial RevolutionRevolución wasn'tno fue very good
307
833176
2004
La Revolución Industrial no era muy buena
14:07
if you were a horsecaballo.
308
835180
4002
si eras un caballo.
14:11
So we're going to need to be carefulcuidadoso
309
839182
2055
Así que tendremos
que tener cuidado
14:13
and take biggrande datadatos and adjustajustar it for our needsnecesariamente,
310
841237
3514
y tomar datos masivos
y ajustarlos a nuestras necesidades,
14:16
our very humanhumano needsnecesariamente.
311
844751
3185
a nuestras necesidades muy humanas.
14:19
We have to be the masterdominar of this technologytecnología,
312
847936
1954
Tenemos que ser los dueños
de esta tecnología,
14:21
not its servantservidor.
313
849890
1656
no sus siervos.
14:23
We are just at the outsetcomienzo of the biggrande datadatos eraera,
314
851546
2958
Estamos justo en el comienzo
de la era de los datos masivos,
14:26
and honestlyhonestamente, we are not very good
315
854504
3150
y honestamente,
no somos muy buenos
14:29
at handlingmanejo all the datadatos that we can now collectrecoger.
316
857654
4207
en el manejo de todos los datos
que ahora podemos recoger.
14:33
It's not just a problemproblema for
the NationalNacional SecuritySeguridad AgencyAgencia.
317
861861
3330
No es solo un problema para
la Agencia de Seguridad Nacional.
Las empresas recogen muchos datos,
y también, hacen mal uso de ellos,
14:37
BusinessesNegocios collectrecoger lots of
datadatos, and they misusemal uso it too,
318
865191
3038
14:40
and we need to get better at
this, and this will take time.
319
868229
3667
y tenemos que mejorar en esto,
y esto tomará tiempo.
14:43
It's a little bitpoco like the challengereto that was facedenfrentado
320
871896
1822
Es un poco como
el desafío que enfrentó
14:45
by primitiveprimitivo man and firefuego.
321
873718
2407
el hombre primitivo y el fuego.
14:48
This is a toolherramienta, but this is a toolherramienta that,
322
876125
1885
Es una herramienta,
pero que,
14:50
unlessa no ser que we're carefulcuidadoso, will burnquemar us.
323
878010
3559
a menos que seamos cuidadosos,
nos va a quemar.
14:56
BigGrande datadatos is going to transformtransformar how we livevivir,
324
884008
3120
Los datos masivos transformarán
la manera en que vivimos,
14:59
how we work and how we think.
325
887128
2801
cómo trabajamos y
cómo pensamos.
15:01
It is going to help us managegestionar our careerscarreras
326
889929
1889
Nos ayudarán con nuestras carreras
15:03
and leaddirigir livesvive of satisfactionsatisfacción and hopeesperanza
327
891818
3634
y a llevar una vida de satisfacción
y esperanza
15:07
and happinessfelicidad and healthsalud,
328
895452
2992
y felicidad y salud,
15:10
but in the pastpasado, we'venosotros tenemos oftena menudo
lookedmirado at informationinformación technologytecnología
329
898444
3306
pero en el pasado, frecuentemente,
vimos esa tecnología
15:13
and our eyesojos have only seenvisto the T,
330
901750
2208
y nuestros ojos solo han visto la T
15:15
the technologytecnología, the hardwarehardware,
331
903958
1686
la tecnología, el hardware,
15:17
because that's what was physicalfísico.
332
905644
2262
porque eso es físico.
15:19
We now need to recastrefundir a our gazemirada at the I,
333
907906
2924
Ahora tenemos que reformular
nuestra mirada a la I,
15:22
the informationinformación,
334
910830
1380
la información,
15:24
whichcual is lessMenos apparentaparente,
335
912210
1373
que es menos tangible,
15:25
but in some waysformas a lot more importantimportante.
336
913583
4109
pero en algunos aspectos
mucho más importante.
15:29
HumanityHumanidad can finallyfinalmente learnaprender from the informationinformación
337
917692
3465
La humanidad finalmente
puede aprender de la información
15:33
that it can collectrecoger,
338
921157
2418
que puede recoger,
15:35
as partparte of our timelesseterno questbúsqueda
339
923575
2115
como parte de nuestra búsqueda eterna
15:37
to understandentender the worldmundo and our placelugar in it,
340
925690
3159
para entender el mundo y
nuestro lugar en él,
15:40
and that's why biggrande datadatos is a biggrande dealacuerdo.
341
928849
5631
y por eso los datos masivos
es un gran asunto.
15:46
(ApplauseAplausos)
342
934480
3568
(Aplausos)
Translated by Lidia Cámara de la Fuente
Reviewed by Ciro Gomez

▲Back to top

ABOUT THE SPEAKER
Kenneth Cukier - Data Editor of The Economist
Kenneth Cukier is the Data Editor of The Economist. From 2007 to 2012 he was the Tokyo correspondent, and before that, the paper’s technology correspondent in London, where his work focused on innovation, intellectual property and Internet governance. Kenneth is also the co-author of Big Data: A Revolution That Will Transform How We Live, Work, and Think with Viktor Mayer-Schönberger in 2013, which was a New York Times Bestseller and translated into 16 languages.

Why you should listen

As Data Editor of The Economist and co-author of Big Data: A Revolution That Will Transform How We Live, Work, and Think, Kenneth Cukier has spent years immersed in big data, machine learning -- and the impact of both. What's the future of big data-driven technology and design? To find out, watch this talk.

More profile about the speaker
Kenneth Cukier | Speaker | TED.com