TEDSalon Berlin 2014
Kenneth Cukier: Big data is better data
Kenneth Cukier: Le Big Data pour mieux nous comprendre
Filmed:
Readability: 4.1
1,663,038 views
Les voitures sans chauffeurs ne sont qu'un début. Quel impact le Big Data aura-t-il sur les innovations technologiques à venir ? Dans cet exposé passionnant, Kenneth Cukier dresse le portrait de l'apprentissage automatique de demain et... de l'intelligence humaine.
Kenneth Cukier - Data Editor of The Economist
Kenneth Cukier is the Data Editor of The Economist. From 2007 to 2012 he was the Tokyo correspondent, and before that, the paper’s technology correspondent in London, where his work focused on innovation, intellectual property and Internet governance. Kenneth is also the co-author of Big Data: A Revolution That Will Transform How We Live, Work, and Think with Viktor Mayer-Schönberger in 2013, which was a New York Times Bestseller and translated into 16 languages. Full bio
Kenneth Cukier is the Data Editor of The Economist. From 2007 to 2012 he was the Tokyo correspondent, and before that, the paper’s technology correspondent in London, where his work focused on innovation, intellectual property and Internet governance. Kenneth is also the co-author of Big Data: A Revolution That Will Transform How We Live, Work, and Think with Viktor Mayer-Schönberger in 2013, which was a New York Times Bestseller and translated into 16 languages. Full bio
Double-click the English transcript below to play the video.
Quelle est la tarte préférée
des Américains ?
des Américains ?
00:12
America's favorite pie is?
0
787
3845
Public : La tarte à la pomme !
K. Cukier : En effet !
K. Cukier : En effet !
00:16
Audience: Apple.
Kenneth Cukier: Apple. Of course it is.
Kenneth Cukier: Apple. Of course it is.
1
4632
3506
00:20
How do we know it?
2
8138
1231
Comment le sait-on ?
00:21
Because of data.
3
9369
2753
Grâce aux données.
00:24
You look at supermarket sales.
4
12122
2066
Les ventes de supermarchés.
00:26
You look at supermarket
sales of 30-centimeter pies
sales of 30-centimeter pies
5
14188
2866
Parmi les ventes en supermarché
de tartes surgelées de 30 cm,
de tartes surgelées de 30 cm,
00:29
that are frozen, and apple wins, no contest.
6
17054
4075
la tarte à la pomme était n°1,
haut la main.
haut la main.
La majorité des ventes se fait
sur les tartes à la pomme.
sur les tartes à la pomme.
00:33
The majority of the sales are apple.
7
21129
5180
00:38
But then supermarkets started selling
8
26309
2964
Puis les supermarchés se sont mis à vendre
des tartes plus petites, de 11 cm.
00:41
smaller, 11-centimeter pies,
9
29273
2583
Et d'un coup, la pomme a chuté
à la 4ème ou 5ème place
à la 4ème ou 5ème place
00:43
and suddenly, apple fell to fourth or fifth place.
10
31856
4174
00:48
Why? What happened?
11
36030
2875
Pourquoi ? Que s'est-il passé ?
00:50
Okay, think about it.
12
38905
2818
Réfléchissez !
Quand vous achetez une grande tarte,
00:53
When you buy a 30-centimeter pie,
13
41723
3848
00:57
the whole family has to agree,
14
45571
2261
il faut que toute la famille
soit d'accord,
soit d'accord,
00:59
and apple is everyone's second favorite.
15
47832
3791
Or la pomme est le deuxième choix de tous.
(Rires)
01:03
(Laughter)
16
51623
1935
Mais si vous achetez
une petite tartelette,
une petite tartelette,
01:05
But when you buy an individual 11-centimeter pie,
17
53558
3615
01:09
you can buy the one that you want.
18
57173
3745
vous pouvez acheter
celle que vous préférez.
celle que vous préférez.
01:12
You can get your first choice.
19
60918
4015
Vous pouvez avoir votre premier choix.
Vous avez plus de données.
01:16
You have more data.
20
64933
1641
01:18
You can see something
21
66574
1554
On découvre quelque chose
qui nous aurait échappé
qui nous aurait échappé
01:20
that you couldn't see
22
68128
1132
avec moins de données.
01:21
when you only had smaller amounts of it.
23
69260
3953
01:25
Now, the point here is that more data
24
73213
2475
Mais plus de données ne nous donnent
pas seulement plus d'informations,
pas seulement plus d'informations,
01:27
doesn't just let us see more,
25
75688
2283
01:29
more of the same thing we were looking at.
26
77971
1854
plus d'informations sur la même chose.
01:31
More data allows us to see new.
27
79825
3613
Plus de données nous permettent
de voir de nouvelles choses,
de voir de nouvelles choses,
01:35
It allows us to see better.
28
83438
3094
d'y voir plus clair,
01:38
It allows us to see different.
29
86532
3656
de voir sous un nouvel angle.
01:42
In this case, it allows us to see
30
90188
3173
Dans ce cas, ça nous a permis de savoir
01:45
what America's favorite pie is:
31
93361
2913
quelle tarte les Américains préfèrent :
01:48
not apple.
32
96274
2542
ce n'est pas la pomme.
01:50
Now, you probably all have heard the term big data.
33
98816
3614
Vous avez déjà probablement entendu
le terme « Big Data ».
le terme « Big Data ».
En fait, vous en avez probablement
plein les oreilles des Big Data.
plein les oreilles des Big Data.
01:54
In fact, you're probably sick of hearing the term
34
102430
2057
01:56
big data.
35
104487
1630
01:58
It is true that there is a lot of hype around the term,
36
106117
3330
C'est vrai
qu'il y a beaucoup de bruit autour de ça
qu'il y a beaucoup de bruit autour de ça
02:01
and that is very unfortunate,
37
109447
2332
et c'est bien regrettable,
02:03
because big data is an extremely important tool
38
111779
3046
parce c'est un outil extrêmement important
qui va faire progresser notre société.
02:06
by which society is going to advance.
39
114825
3734
02:10
In the past, we used to look at small data
40
118559
3561
Jusqu'ici, on n'utilisait que
de petites quantités de données,
de petites quantités de données,
on cherchait à les interpréter
02:14
and think about what it would mean
41
122120
1704
afin de comprendre le monde.
02:15
to try to understand the world,
42
123824
1496
02:17
and now we have a lot more of it,
43
125320
1991
On a à présent infiniment plus de données,
02:19
more than we ever could before.
44
127311
2722
plus de données que jamais auparavant.
02:22
What we find is that when we have
45
130033
1877
Et quand on a une telle
quantité de données,
quantité de données,
02:23
a large body of data, we can fundamentally do things
46
131910
2724
on peut accomplir des choses
02:26
that we couldn't do when we
only had smaller amounts.
only had smaller amounts.
47
134634
3276
inimaginables avec de petites quantités.
Les Big Data sont à la fois
nouvelles et importantes.
nouvelles et importantes.
02:29
Big data is important, and big data is new,
48
137910
2641
Si on y réfléchit,
02:32
and when you think about it,
49
140551
1777
le seul moyen qu'on aura
pour faire face aux enjeux mondiaux :
pour faire face aux enjeux mondiaux :
02:34
the only way this planet is going to deal
50
142328
2216
02:36
with its global challenges —
51
144544
1789
02:38
to feed people, supply them with medical care,
52
146333
3537
nourrir l'humanité,
l'approvisionner en médicaments,
02:41
supply them with energy, electricity,
53
149870
2810
en énergie, en électricité,
et éviter d'être rôti
par le réchauffement climatique,
par le réchauffement climatique,
02:44
and to make sure they're not burnt to a crisp
54
152680
1789
02:46
because of global warming —
55
154469
1238
02:47
is because of the effective use of data.
56
155707
4195
ce sera grâce
à une utilisation efficace des données.
à une utilisation efficace des données.
02:51
So what is new about big
data? What is the big deal?
data? What is the big deal?
57
159902
3870
Qu'y a-t-il de nouveau dans les Big Data ?
Pourquoi tout le monde en parle ?
Pourquoi tout le monde en parle ?
02:55
Well, to answer that question, let's think about
58
163772
2517
Pour y répondre, il faut se rappeler
02:58
what information looked like,
59
166289
1896
à quoi ressemblait physiquement
une information dans le passé.
une information dans le passé.
03:00
physically looked like in the past.
60
168185
3034
03:03
In 1908, on the island of Crete,
61
171219
3611
En 1908, sur l'île de Crète,
03:06
archaeologists discovered a clay disc.
62
174830
4735
des archéologues ont découvert
un disque en argile.
un disque en argile.
03:11
They dated it from 2000 B.C., so it's 4,000 years old.
63
179565
4059
Ils l'ont daté de 2 000 ans av. J-C.,
soit vieux de 4 000 ans.
soit vieux de 4 000 ans.
03:15
Now, there's inscriptions on this disc,
64
183624
2004
Il y a des inscriptions
mais personne n'arrive à les déchiffrer.
mais personne n'arrive à les déchiffrer.
03:17
but we actually don't know what it means.
65
185628
1327
03:18
It's a complete mystery, but the point is that
66
186955
2098
Le mystère reste entier.
Mais c'est à cela
Mais c'est à cela
que ressemblait l'information
il y a 4 000 ans.
il y a 4 000 ans.
03:21
this is what information used to look like
67
189053
1928
03:22
4,000 years ago.
68
190981
2089
C'est ainsi que la société stockait
03:25
This is how society stored
69
193070
2548
03:27
and transmitted information.
70
195618
3524
et transmettait l'information.
03:31
Now, society hasn't advanced all that much.
71
199142
4160
La société n'a pas tant évolué que ça.
03:35
We still store information on discs,
72
203302
3474
On stocke toujours
l'information sur des disques,
l'information sur des disques,
mais en quantité plus grande,
infiniment plus grande.
infiniment plus grande.
03:38
but now we can store a lot more information,
73
206776
3184
03:41
more than ever before.
74
209960
1260
03:43
Searching it is easier. Copying it easier.
75
211220
3093
Les informations sont
plus faciles à chercher,
plus faciles à chercher,
plus faciles à copier, à partager,
03:46
Sharing it is easier. Processing it is easier.
76
214313
3500
plus faciles à traiter.
03:49
And what we can do is we can reuse this information
77
217813
2766
On peut aussi réutiliser ces informations
à des fins auxquelles
on n'avait pas du tout pensé
on n'avait pas du tout pensé
03:52
for uses that we never even imagined
78
220579
1834
03:54
when we first collected the data.
79
222413
3195
au moment où on les a collectées.
On peut dire que les données sont passées
03:57
In this respect, the data has gone
80
225608
2252
03:59
from a stock to a flow,
81
227860
3532
d'un stock à un flux,
04:03
from something that is stationary and static
82
231392
3938
de statique et immobile,
04:07
to something that is fluid and dynamic.
83
235330
3609
à fluide et dynamique.
On peut dire que l'information
est devenue liquide.
est devenue liquide.
04:10
There is, if you will, a liquidity to information.
84
238939
4023
04:14
The disc that was discovered off of Crete
85
242962
3474
Ce disque découvert en Crète
04:18
that's 4,000 years old, is heavy,
86
246436
3764
et vieux de 4 000 ans, il est lourd,
il ne contient pas beaucoup d'information,
04:22
it doesn't store a lot of information,
87
250200
1962
04:24
and that information is unchangeable.
88
252162
3116
et cette information
n'est pas modifiable.
n'est pas modifiable.
04:27
By contrast, all of the files
89
255278
4011
En revanche,
tous les fichiers
04:31
that Edward Snowden took
90
259289
1861
qu'Edward Snowden a pris
à la NSA aux États-Unis
à la NSA aux États-Unis
04:33
from the National Security
Agency in the United States
Agency in the United States
91
261150
2621
04:35
fits on a memory stick
92
263771
2419
tiennent sur une clé USB
04:38
the size of a fingernail,
93
266190
3010
pas plus grande qu'une
pièce de 50 centimes,
pièce de 50 centimes,
et ils peuvent être partagés
à la vitesse de la lumière.
à la vitesse de la lumière.
04:41
and it can be shared at the speed of light.
94
269200
4745
04:45
More data. More.
95
273945
5255
Plus de données. Plus.
Une raison pour laquelle nous avons
tant de données aujourd'hui,
tant de données aujourd'hui,
04:51
Now, one reason why we have
so much data in the world today
so much data in the world today
96
279200
1974
04:53
is we are collecting things
97
281174
1432
c'est qu'on étudie des choses
04:54
that we've always collected information on,
98
282606
3280
sur lesquelles
on a toujours collecté de l'information.
on a toujours collecté de l'information.
04:57
but another reason why is we're taking things
99
285886
2656
Une autre raison, c'est qu'on utilise
05:00
that have always been informational
100
288542
2812
des choses qui ont toujours
été informationnelles
été informationnelles
05:03
but have never been rendered into a data format
101
291354
2486
et qui n'ont jamais été transformées
en données
en données
05:05
and we are putting it into data.
102
293840
2419
et nous les mettons maintenant
en données.
en données.
05:08
Think, for example, the question of location.
103
296259
3308
Prenez l'exemple
des données de localisation.
des données de localisation.
05:11
Take, for example, Martin Luther.
104
299567
2249
Pensez par exemple à Martin Luther.
05:13
If we wanted to know in the 1500s
105
301816
1597
Si on avait voulu savoir au 16ème siècle
où Martin Luther se trouvait,
où Martin Luther se trouvait,
05:15
where Martin Luther was,
106
303413
2667
on aurait dû le suivre tout le temps,
05:18
we would have to follow him at all times,
107
306080
2092
sans doute avec une plume et un encrier
pour noter ses différentes positions.
pour noter ses différentes positions.
05:20
maybe with a feathery quill and an inkwell,
108
308172
2137
05:22
and record it,
109
310309
1676
Regardez à quoi ça ressemble aujourd'hui !
05:23
but now think about what it looks like today.
110
311985
2183
Vous savez que quelque part,
05:26
You know that somewhere,
111
314168
2122
probablement dans la base de données
de votre opérateur,
de votre opérateur,
05:28
probably in a telecommunications carrier's database,
112
316290
2446
05:30
there is a spreadsheet or at least a database entry
113
318736
3036
il y a un tableau
ou une entrée dans une base de données
ou une entrée dans une base de données
05:33
that records your information
114
321772
2088
qui enregistre les informations
sur votre localisation, à chaque instant.
sur votre localisation, à chaque instant.
05:35
of where you've been at all times.
115
323860
2063
Si vous avez un téléphone portable,
05:37
If you have a cell phone,
116
325923
1360
05:39
and that cell phone has GPS,
but even if it doesn't have GPS,
but even if it doesn't have GPS,
117
327283
2847
que ce dernier soit muni d'un GPS ou non,
il stocke vos informations.
05:42
it can record your information.
118
330130
2385
05:44
In this respect, location has been datafied.
119
332515
4084
C'est ainsi que la localisation
a été mise en données.
a été mise en données.
05:48
Now think, for example, of the issue of posture,
120
336599
4601
Prenons maintenant l'exemple
de votre posture,
de votre posture,
la manière dont vous êtes tous
assis en ce moment
assis en ce moment
05:53
the way that you are all sitting right now,
121
341200
1285
05:54
the way that you sit,
122
342485
2030
votre manière de vous asseoir à vous,
05:56
the way that you sit, the way that you sit.
123
344515
2771
votre posture à vous,
la vôtre.
la vôtre.
Elles sont toutes différentes
05:59
It's all different, and it's a function of your leg length
124
347286
2077
en fonction de la longueur de vos jambes
et des contours de votre dos
et des contours de votre dos
06:01
and your back and the contours of your back,
125
349363
2093
06:03
and if I were to put sensors,
maybe 100 sensors
maybe 100 sensors
126
351456
2531
Et si je posais, disons, 100 capteurs
06:05
into all of your chairs right now,
127
353987
1766
sur chacun de vos sièges,
06:07
I could create an index that's fairly unique to you,
128
355753
3600
je pourrais créer
un index unique qui vous serait propre,
un index unique qui vous serait propre,
06:11
sort of like a fingerprint, but it's not your finger.
129
359353
4409
comme une empreinte unique,
autre qu'une empreinte digitale.
autre qu'une empreinte digitale.
06:15
So what could we do with this?
130
363762
2969
Mais à quoi ça pourrait bien servir ?
06:18
Researchers in Tokyo are using it
131
366731
2397
Des chercheurs à Tokyo utilisent ça
06:21
as a potential anti-theft device in cars.
132
369128
4388
comme un possible système antivol
dans les voitures.
dans les voitures.
06:25
The idea is that the carjacker sits behind the wheel,
133
373516
2924
Si un voleur s'assied derrière le volant
et tente de démarrer,
et tente de démarrer,
06:28
tries to stream off, but the car recognizes
134
376440
2104
la voiture reconnaît
qu'un conducteur non-approuvé
qu'un conducteur non-approuvé
06:30
that a non-approved driver is behind the wheel,
135
378544
2362
est derrière le volant
et stoppe simplement le moteur,
et stoppe simplement le moteur,
06:32
and maybe the engine just stops, unless you
136
380906
2164
sauf si vous entrez un mot de passe
06:35
type in a password into the dashboard
137
383070
3177
qui dit que vous avez l'autorisation
de conduire la voiture.
de conduire la voiture.
06:38
to say, "Hey, I have authorization to drive." Great.
138
386247
4658
06:42
What if every single car in Europe
139
390905
2553
Imaginons que chaque voiture en Europe
06:45
had this technology in it?
140
393458
1457
soit munie de cette technologie.
06:46
What could we do then?
141
394915
3165
Quelles perspectives
cela nous ouvre-t-il ?
cela nous ouvre-t-il ?
06:50
Maybe, if we aggregated the data,
142
398080
2240
En rassemblant ces données,
on pourrait peut-être identifier
06:52
maybe we could identify telltale signs
143
400320
3814
des signes révélateurs
qui prédisent au mieux
qui prédisent au mieux
06:56
that best predict that a car accident
144
404134
2709
qu'un accident va se produire
06:58
is going to take place in the next five seconds.
145
406843
5893
dans les 5 prochaines secondes.
07:04
And then what we will have datafied
146
412736
2557
C'est ainsi qu'on sera parvenu
à mettre en données
à mettre en données
07:07
is driver fatigue,
147
415293
1783
la fatigue du conducteur.
07:09
and the service would be when the car senses
148
417076
2334
Un nouveau service serait que,
quand la voiture sent qu'une personne
s'affale dans cette position,
s'affale dans cette position,
07:11
that the person slumps into that position,
149
419410
3437
07:14
automatically knows, hey, set an internal alarm
150
422847
3994
elle comprend automatiquement
et réagit en faisant vibrer le volant,
en klaxonnant à l'intérieur
en klaxonnant à l'intérieur
07:18
that would vibrate the steering wheel, honk inside
151
426841
2025
comme pour dire :
« Debout, concentre-toi sur la route ! »
« Debout, concentre-toi sur la route ! »
07:20
to say, "Hey, wake up,
152
428866
1721
07:22
pay more attention to the road."
153
430587
1904
07:24
These are the sorts of things we can do
154
432491
1853
C'est le genre de choses
qui deviennent possibles
qui deviennent possibles
07:26
when we datafy more aspects of our lives.
155
434344
2821
quand on met en données
certains aspects du quotidien.
certains aspects du quotidien.
07:29
So what is the value of big data?
156
437165
3675
Que valent alors donc les Big Data ?
07:32
Well, think about it.
157
440840
2190
Pensez-y !
07:35
You have more information.
158
443030
2412
On a plus d'information.
On peut faire des nouvelles choses
qui étaient impossibles auparavant.
qui étaient impossibles auparavant.
07:37
You can do things that you couldn't do before.
159
445442
3341
Une des applications
les plus impressionnantes des Big Data
les plus impressionnantes des Big Data
07:40
One of the most impressive areas
160
448783
1676
07:42
where this concept is taking place
161
450459
1729
07:44
is in the area of machine learning.
162
452188
3307
concerne le domaine
de l'apprentissage automatique.
de l'apprentissage automatique.
07:47
Machine learning is a branch of artificial intelligence,
163
455495
3077
Il s'agit d'une branche
de l'intelligence artificielle,
de l'intelligence artificielle,
07:50
which itself is a branch of computer science.
164
458572
3378
elle-même branche de l'informatique.
07:53
The general idea is that instead of
165
461950
1543
L'idée générale c'est que,
plutôt que de dire à l'ordinateur
ce qu'il a à faire,
ce qu'il a à faire,
07:55
instructing a computer what do do,
166
463493
2117
07:57
we are going to simply throw data at the problem
167
465610
2620
on va juste donner plein d'informations
à l'ordinateur
à l'ordinateur
08:00
and tell the computer to figure it out for itself.
168
468230
3206
et lui dire de se débrouiller avec.
Pour vous aider à comprendre,
08:03
And it will help you understand it
169
471436
1777
retournons aux origines de
l'apprentissage automatique.
l'apprentissage automatique.
08:05
by seeing its origins.
170
473213
3552
08:08
In the 1950s, a computer scientist
171
476765
2388
En 1950, un informaticien de chez IBM,
Arthur Samuel,
Arthur Samuel,
08:11
at IBM named Arthur Samuel liked to play checkers,
172
479153
3592
était amateur du jeu de Dames.
08:14
so he wrote a computer program
173
482745
1402
Il a donc créé un programme informatique
afin de jouer contre l'ordinateur.
afin de jouer contre l'ordinateur.
08:16
so he could play against the computer.
174
484147
2813
08:18
He played. He won.
175
486960
2711
Il a joué. Il a gagné.
08:21
He played. He won.
176
489671
2103
Il a joué. Il a gagné.
08:23
He played. He won,
177
491774
3015
Il a joué. Il a gagné,
08:26
because the computer only knew
178
494789
1778
parce que l'ordinateur ne connaissait
rien d'autre que les coups légaux.
rien d'autre que les coups légaux.
08:28
what a legal move was.
179
496567
2227
08:30
Arthur Samuel knew something else.
180
498794
2087
Arthur Samuel en savait plus.
08:32
Arthur Samuel knew strategy.
181
500881
4629
Arthur Samuel avait
des notions de stratégie.
des notions de stratégie.
08:37
So he wrote a small sub-program alongside it
182
505510
2396
Il a alors écrit un sous-programme à côté.
Il opérait en arrière-plan
Il opérait en arrière-plan
08:39
operating in the background, and all it did
183
507906
1974
et tout ce qu'il faisait,
c'est qu'après chacun des coups,
c'est qu'après chacun des coups,
08:41
was score the probability
184
509880
1817
08:43
that a given board configuration would likely lead
185
511697
2563
il comptait les probabilités
de chacune des configurations du damier
de chacune des configurations du damier
08:46
to a winning board versus a losing board
186
514260
2910
de mener à la victoire ou à la défaite.
08:49
after every move.
187
517170
2508
08:51
He plays the computer. He wins.
188
519678
3150
Il joue contre l'ordinateur. Il gagne.
08:54
He plays the computer. He wins.
189
522828
2508
Il joue contre l'ordinateur. Il gagne.
08:57
He plays the computer. He wins.
190
525336
3731
Il joue contre l'ordinateur. Il gagne.
09:01
And then Arthur Samuel leaves the computer
191
529067
2277
Puis Arthur Samuel a laissé l'ordinateur
jouer contre lui-même.
jouer contre lui-même.
09:03
to play itself.
192
531344
2227
09:05
It plays itself. It collects more data.
193
533571
3509
Plus il joue contre lui-même,
plus il collecte de données.
plus il collecte de données.
Plus il collecte de données,
09:09
It collects more data. It increases
the accuracy of its prediction.
the accuracy of its prediction.
194
537080
4309
plus il augmente
la précision de ses prédictions.
la précision de ses prédictions.
09:13
And then Arthur Samuel goes back to the computer
195
541389
2104
Et quand Samuel
a rejoué contre l'ordinateur,
a rejoué contre l'ordinateur,
09:15
and he plays it, and he loses,
196
543493
2318
il joue et il perd.
09:17
and he plays it, and he loses,
197
545811
2069
Il joue et il perd.
09:19
and he plays it, and he loses,
198
547880
2047
Il joue et il perd.
09:21
and Arthur Samuel has created a machine
199
549927
2599
C'est ainsi qu'Arthur Samuel
a créé une machine
a créé une machine
09:24
that surpasses his ability in a task that he taught it.
200
552526
6288
capable de le surpasser
dans une discipline qu'il lui a enseignée.
dans une discipline qu'il lui a enseignée.
Et cette idée d'apprentissage automatique
est partout autour de nous.
est partout autour de nous.
09:30
And this idea of machine learning
201
558814
2498
09:33
is going everywhere.
202
561312
3927
09:37
How do you think we have self-driving cars?
203
565239
3149
Comment croyez-vous que des voitures
roulent toutes seules ?
roulent toutes seules ?
09:40
Are we any better off as a society
204
568388
2137
Notre société est-elle meilleure
09:42
enshrining all the rules of the road into software?
205
570525
3285
depuis que le code de la route
a été traduit dans un logiciel ? Non.
a été traduit dans un logiciel ? Non.
09:45
No. Memory is cheaper. No.
206
573810
2598
Le stockage est-il moins cher ? Non.
09:48
Algorithms are faster. No. Processors are better. No.
207
576408
3994
Les algorithmes plus rapides ? Non.
Les processeurs plus puissants ? Non.
Les processeurs plus puissants ? Non.
09:52
All of those things matter, but that's not why.
208
580402
2772
Toutes ces choses sont importantes,
mais pas décisives.
mais pas décisives.
09:55
It's because we changed the nature of the problem.
209
583174
3141
C'est parce que nous avons
changé la nature du problème.
changé la nature du problème.
09:58
We changed the nature of the problem from one
210
586315
1530
Avant, on essayait d'expliquer
clairement et ouvertement à l'ordinateur
clairement et ouvertement à l'ordinateur
09:59
in which we tried to overtly and explicitly
211
587845
2245
10:02
explain to the computer how to drive
212
590090
2581
comment il devait conduire.
10:04
to one in which we say,
213
592671
1316
Aujourd'hui, on lui dit :
« Voici tout plein de
données sur le véhicule,
données sur le véhicule,
10:05
"Here's a lot of data around the vehicle.
214
593987
1876
10:07
You figure it out.
215
595863
1533
débrouille-toi !
10:09
You figure it out that that is a traffic light,
216
597396
1867
Débrouille-toi à comprendre
que ceci est un feu de signalisation
que ceci est un feu de signalisation
10:11
that that traffic light is red and not green,
217
599263
2081
que le feu est rouge et non vert,
10:13
that that means that you need to stop
218
601344
2014
que cela veut dire que tu dois t'arrêter,
et non pas continuer. »
et non pas continuer. »
10:15
and not go forward."
219
603358
3083
10:18
Machine learning is at the basis
220
606441
1518
L'apprentissage automatique est à la base
de nombreux outils en ligne :
de nombreux outils en ligne :
10:19
of many of the things that we do online:
221
607959
1991
10:21
search engines,
222
609950
1857
les moteurs de recherche,
10:23
Amazon's personalization algorithm,
223
611807
3801
l'algorithme de personnalisation d'Amazon,
10:27
computer translation,
224
615608
2212
la traduction par ordinateur,
10:29
voice recognition systems.
225
617820
4290
ou encore la reconnaissance vocale.
10:34
Researchers recently have looked at
226
622110
2835
Les chercheurs se sont récemment penchés
10:36
the question of biopsies,
227
624945
3195
sur la question des biopsies,
10:40
cancerous biopsies,
228
628140
2767
des biopsies de cellules cancéreuses.
10:42
and they've asked the computer to identify
229
630907
2315
Ils ont demandé à des ordinateurs
10:45
by looking at the data and survival rates
230
633222
2471
d'analyser les données
et le taux de survie
et le taux de survie
10:47
to determine whether cells are actually
231
635693
4667
pour déterminer quelles cellules
sont réellement cancéreuses.
sont réellement cancéreuses.
10:52
cancerous or not,
232
640360
2544
Sans surprise,
en fournissant assez de données
en fournissant assez de données
10:54
and sure enough, when you throw the data at it,
233
642904
1778
10:56
through a machine-learning algorithm,
234
644682
2047
à l'algorithme
d'apprentissage automatique,
d'apprentissage automatique,
10:58
the machine was able to identify
235
646729
1877
l'ordinateur était capable d'identifier
11:00
the 12 telltale signs that best predict
236
648606
2262
les 12 signes caractéristiques
qui prédisent au mieux
qui prédisent au mieux
11:02
that this biopsy of the breast cancer cells
237
650868
3299
que cette biopsie
de cellules tumorales mammaires
de cellules tumorales mammaires
11:06
are indeed cancerous.
238
654167
3218
sont en effet cancéreuses.
Le truc,
11:09
The problem: The medical literature
239
657385
2498
c'est que les médecins
n'en connaissaient que 9.
n'en connaissaient que 9.
11:11
only knew nine of them.
240
659883
2789
11:14
Three of the traits were ones
241
662672
1800
Trois des signes ont été
identifiés par l'ordinateur
identifiés par l'ordinateur
11:16
that people didn't need to look for,
242
664472
2975
sans que quelqu'un n'ait besoin
de faire de recherche dessus.
de faire de recherche dessus.
11:19
but that the machine spotted.
243
667447
5531
11:24
Now, there are dark sides to big data as well.
244
672978
5925
Mais il y a aussi
une face sombre des Big Data.
une face sombre des Big Data.
Cela va améliorer nos vies,
11:30
It will improve our lives, but there are problems
245
678903
2074
mais il y a aussi des problèmes
dont il faut être conscient.
dont il faut être conscient.
11:32
that we need to be conscious of,
246
680977
2640
11:35
and the first one is the idea
247
683617
2623
Le premier, c'est l'idée que l'on puisse
être puni à cause de prédictions,
être puni à cause de prédictions,
11:38
that we may be punished for predictions,
248
686240
2686
11:40
that the police may use big data for their purposes,
249
688926
3870
que la police utilise les Big Data
un peu comme dans « Minority Report ».
un peu comme dans « Minority Report ».
11:44
a little bit like "Minority Report."
250
692796
2351
11:47
Now, it's a term called predictive policing,
251
695147
2441
On appelle ça la prévision policière
ou la criminologie algorithmique.
ou la criminologie algorithmique.
11:49
or algorithmic criminology,
252
697588
2363
11:51
and the idea is that if we take a lot of data,
253
699951
2036
L'idée est que, si on prend
beaucoup de données
beaucoup de données
11:53
for example where past crimes have been,
254
701987
2159
par exemple où des crimes ont été commis,
on sait où envoyer les patrouilles.
11:56
we know where to send the patrols.
255
704146
2543
11:58
That makes sense, but the problem, of course,
256
706689
2115
C'est logique.
Mais le problème,
Mais le problème,
12:00
is that it's not simply going to stop on location data,
257
708804
4544
c'est qu'on ne s'arrêtera pas
aux données de localisation,
aux données de localisation,
12:05
it's going to go down to the level of the individual.
258
713348
2959
on va aller jusqu'au niveau de l'individu.
12:08
Why don't we use data about the person's
259
716307
2250
Pourquoi ne pas utiliser les données
fournies par vos bulletins scolaires ?
fournies par vos bulletins scolaires ?
12:10
high school transcript?
260
718557
2228
Peut-être devrions-nous
utiliser le fait
utiliser le fait
12:12
Maybe we should use the fact that
261
720785
1561
12:14
they're unemployed or not, their credit score,
262
722346
2028
que les gens ont un emploi ou non,
leur solvabilité,
leur solvabilité,
12:16
their web-surfing behavior,
263
724374
1552
leur comportement sur Internet,
s'ils sont debout tard dans la nuit.
s'ils sont debout tard dans la nuit.
12:17
whether they're up late at night.
264
725926
1878
12:19
Their Fitbit, when it's able
to identify biochemistries,
to identify biochemistries,
265
727804
3161
Leur FitBit, quand c'est possible,
pour identifier les réactions biochimiques
qui produisent des pensées agressives.
qui produisent des pensées agressives.
12:22
will show that they have aggressive thoughts.
266
730965
4236
On peut avoir des algorithmes
12:27
We may have algorithms that are likely to predict
267
735201
2221
qui pourraient prédire
ce que nous sommes sur le point de faire,
ce que nous sommes sur le point de faire,
12:29
what we are about to do,
268
737422
1633
12:31
and we may be held accountable
269
739055
1244
nous pourrions être tenus responsables
de ce que l'on n'a pas encore fait.
de ce que l'on n'a pas encore fait.
12:32
before we've actually acted.
270
740299
2590
12:34
Privacy was the central challenge
271
742889
1732
La vie privée était le défi principal
lorsqu'on avait peu de données.
lorsqu'on avait peu de données.
12:36
in a small data era.
272
744621
2880
12:39
In the big data age,
273
747501
2149
Avec les Big Data,
le défi sera
de préserver le libre-arbitre,
de préserver le libre-arbitre,
12:41
the challenge will be safeguarding free will,
274
749650
4523
12:46
moral choice, human volition,
275
754173
3779
les choix moraux, le consentement
12:49
human agency.
276
757952
3068
et la capacité d'agir de l'homme.
12:54
There is another problem:
277
762540
2225
Et il y a un autre problème :
12:56
Big data is going to steal our jobs.
278
764765
3556
les Big Data vont
nous voler notre travail.
nous voler notre travail.
13:00
Big data and algorithms are going to challenge
279
768321
3512
A l'aide des algorithmes,
elles vont entrer en concurrence
elles vont entrer en concurrence
13:03
white collar, professional knowledge work
280
771833
3061
avec les cols blancs,
avec les travailleurs intellectuels
avec les travailleurs intellectuels
13:06
in the 21st century
281
774894
1653
du 21ème siècle,
de la même manière que
l'automatisation des lignes de montage
l'automatisation des lignes de montage
13:08
in the same way that factory automation
282
776547
2434
13:10
and the assembly line
283
778981
2189
13:13
challenged blue collar labor in the 20th century.
284
781170
3026
a concurrencé le travail des cols bleus,
au 20ème siècle.
au 20ème siècle.
13:16
Think about a lab technician
285
784196
2092
Imaginez un technicien de laboratoire
qui examine à l'aide d'un microscope
qui examine à l'aide d'un microscope
13:18
who is looking through a microscope
286
786288
1409
13:19
at a cancer biopsy
287
787697
1624
la biopsie d'une tumeur
pour déterminer si elle est cancéreuse.
pour déterminer si elle est cancéreuse.
13:21
and determining whether it's cancerous or not.
288
789321
2637
13:23
The person went to university.
289
791958
1972
Cette personne a fait des études.
13:25
The person buys property.
290
793930
1430
Cette personne est propriétaire.
13:27
He or she votes.
291
795360
1741
Il ou elle vote.
13:29
He or she is a stakeholder in society.
292
797101
3666
Il ou elle est acteur à part entière
de notre société.
de notre société.
13:32
And that person's job,
293
800767
1394
Et pourtant cette personne,
13:34
as well as an entire fleet
294
802161
1609
ainsi qu'un pan entier
de professionnels similaires,
de professionnels similaires,
13:35
of professionals like that person,
295
803770
1969
13:37
is going to find that their jobs are radically changed
296
805739
3150
va voir son travail
radicalement transformé,
radicalement transformé,
13:40
or actually completely eliminated.
297
808889
2357
voire carrément éliminé.
13:43
Now, we like to think
298
811246
1284
On aime pourtant se dire
13:44
that technology creates jobs over a period of time
299
812530
3187
que sur le long terme,
la technologie crée des emplois,
la technologie crée des emplois,
13:47
after a short, temporary period of dislocation,
300
815717
3465
après une courte période temporaire
de destruction d'emplois.
de destruction d'emplois.
13:51
and that is true for the frame of reference
301
819182
1941
C'est vrai pour la période de référence
dans laquelle nous vivons,
dans laquelle nous vivons,
13:53
with which we all live, the Industrial Revolution,
302
821123
2142
la Révolution Industrielle,
car c'est précisément ce qui s'est passé.
car c'est précisément ce qui s'est passé.
13:55
because that's precisely what happened.
303
823265
2328
13:57
But we forget something in that analysis:
304
825593
2333
Mais on oublie un élément
dans cette analyse.
dans cette analyse.
13:59
There are some categories of jobs
305
827926
1830
Il y a des catégories d'emplois
14:01
that simply get eliminated and never come back.
306
829756
3420
qui sont simplement éliminées
et ne sont pas remplacées.
et ne sont pas remplacées.
14:05
The Industrial Revolution wasn't very good
307
833176
2004
La Révolution Industrielle
n'a pas été bonne pour les chevaux.
n'a pas été bonne pour les chevaux.
14:07
if you were a horse.
308
835180
4002
14:11
So we're going to need to be careful
309
839182
2055
Il va donc falloir être prudent,
14:13
and take big data and adjust it for our needs,
310
841237
3514
prendre les Big Data
et les ajuster à nos besoins,
et les ajuster à nos besoins,
14:16
our very human needs.
311
844751
3185
nos besoins humains fondamentaux.
14:19
We have to be the master of this technology,
312
847936
1954
Nous devons maîtriser cette technologie
14:21
not its servant.
313
849890
1656
et non devenir ses esclaves.
14:23
We are just at the outset of the big data era,
314
851546
2958
L'ère des Big Data vient tout juste de commencer
14:26
and honestly, we are not very good
315
854504
3150
et honnêtement,
nous ne sommes pas très bons
nous ne sommes pas très bons
14:29
at handling all the data that we can now collect.
316
857654
4207
pour manipuler toutes ces données
que nous collectons.
que nous collectons.
14:33
It's not just a problem for
the National Security Agency.
the National Security Agency.
317
861861
3330
Ce n'est pas juste un problème pour la NSA.
14:37
Businesses collect lots of
data, and they misuse it too,
data, and they misuse it too,
318
865191
3038
Les entreprises collectent aussi beaucoup
de données, et elles en abusent aussi.
de données, et elles en abusent aussi.
14:40
and we need to get better at
this, and this will take time.
this, and this will take time.
319
868229
3667
Il va falloir faire mieux,
et cela va prendre du temps.
et cela va prendre du temps.
14:43
It's a little bit like the challenge that was faced
320
871896
1822
C'est un peu comme le défi
14:45
by primitive man and fire.
321
873718
2407
de l'homme préhistorique
quand il a inventé le feu.
quand il a inventé le feu.
14:48
This is a tool, but this is a tool that,
322
876125
1885
C'est un outil,
mais c'est un outil qui,
mais c'est un outil qui,
14:50
unless we're careful, will burn us.
323
878010
3559
si nous ne sommes pas prudents,
va nous brûler.
va nous brûler.
14:56
Big data is going to transform how we live,
324
884008
3120
Les Big Data vont transformer
nos modes de vie,
nos modes de vie,
14:59
how we work and how we think.
325
887128
2801
de travail et de pensée.
15:01
It is going to help us manage our careers
326
889929
1889
Elles nous aideront à gérer nos carrières,
15:03
and lead lives of satisfaction and hope
327
891818
3634
à mener une vie faite de satisfaction,
d'espoir,
d'espoir,
de bonheur et de santé.
15:07
and happiness and health,
328
895452
2992
15:10
but in the past, we've often
looked at information technology
looked at information technology
329
898444
3306
Mais, par le passé, on a souvent
regardé les technologies de l'information
regardé les technologies de l'information
15:13
and our eyes have only seen the T,
330
901750
2208
et nos yeux n'ont vu que le T,
15:15
the technology, the hardware,
331
903958
1686
la Technologie, l'ordinateur,
15:17
because that's what was physical.
332
905644
2262
parce que c'est
matériel et palpable.
matériel et palpable.
15:19
We now need to recast our gaze at the I,
333
907906
2924
Il faut à présent
tourner notre regard vers le I,
tourner notre regard vers le I,
15:22
the information,
334
910830
1380
l'Information,
qui est moins visible,
qui est moins visible,
15:24
which is less apparent,
335
912210
1373
15:25
but in some ways a lot more important.
336
913583
4109
mais d'une certaine manière
bien plus importante.
bien plus importante.
15:29
Humanity can finally learn from the information
337
917692
3465
L'humanité peut enfin apprendre
des informations qu'elle collecte
des informations qu'elle collecte
15:33
that it can collect,
338
921157
2418
15:35
as part of our timeless quest
339
923575
2115
dans le cadre de sa quête
15:37
to understand the world and our place in it,
340
925690
3159
pour comprendre le monde
et la place de l'homme en son sein.
et la place de l'homme en son sein.
15:40
and that's why big data is a big deal.
341
928849
5631
Voilà pourquoi
les Big Data sont si importantes.
les Big Data sont si importantes.
(Applaudissements)
15:46
(Applause)
342
934480
3568
Translated by Meryl Ducray
ABOUT THE SPEAKER
Kenneth Cukier - Data Editor of The EconomistKenneth Cukier is the Data Editor of The Economist. From 2007 to 2012 he was the Tokyo correspondent, and before that, the paper’s technology correspondent in London, where his work focused on innovation, intellectual property and Internet governance. Kenneth is also the co-author of Big Data: A Revolution That Will Transform How We Live, Work, and Think with Viktor Mayer-Schönberger in 2013, which was a New York Times Bestseller and translated into 16 languages.
Why you should listen
As Data Editor of The Economist and co-author of Big Data: A Revolution That Will Transform How We Live, Work, and Think, Kenneth Cukier has spent years immersed in big data, machine learning -- and the impact of both. What's the future of big data-driven technology and design? To find out, watch this talk.
Kenneth Cukier | Speaker | TED.com