ABOUT THE SPEAKER
Kenneth Cukier - Data Editor of The Economist
Kenneth Cukier is the Data Editor of The Economist. From 2007 to 2012 he was the Tokyo correspondent, and before that, the paper’s technology correspondent in London, where his work focused on innovation, intellectual property and Internet governance. Kenneth is also the co-author of Big Data: A Revolution That Will Transform How We Live, Work, and Think with Viktor Mayer-Schönberger in 2013, which was a New York Times Bestseller and translated into 16 languages.

Why you should listen

As Data Editor of The Economist and co-author of Big Data: A Revolution That Will Transform How We Live, Work, and Think, Kenneth Cukier has spent years immersed in big data, machine learning -- and the impact of both. What's the future of big data-driven technology and design? To find out, watch this talk.

More profile about the speaker
Kenneth Cukier | Speaker | TED.com
TEDSalon Berlin 2014

Kenneth Cukier: Big data is better data

Kenneth Cukier: Le Big Data pour mieux nous comprendre

Filmed:
1,663,038 views

Les voitures sans chauffeurs ne sont qu'un début. Quel impact le Big Data aura-t-il sur les innovations technologiques à venir ? Dans cet exposé passionnant, Kenneth Cukier dresse le portrait de l'apprentissage automatique de demain et... de l'intelligence humaine.
- Data Editor of The Economist
Kenneth Cukier is the Data Editor of The Economist. From 2007 to 2012 he was the Tokyo correspondent, and before that, the paper’s technology correspondent in London, where his work focused on innovation, intellectual property and Internet governance. Kenneth is also the co-author of Big Data: A Revolution That Will Transform How We Live, Work, and Think with Viktor Mayer-Schönberger in 2013, which was a New York Times Bestseller and translated into 16 languages. Full bio

Double-click the English transcript below to play the video.

Quelle est la tarte préférée
des Américains ?
00:12
America'sDe l’Amérique favoritepréféré pietarte is?
0
787
3845
Public : La tarte à la pomme !
K. Cukier : En effet !
00:16
AudiencePublic: Applepomme.
KennethKenneth CukierCukier: Applepomme. Of coursecours it is.
1
4632
3506
00:20
How do we know it?
2
8138
1231
Comment le sait-on ?
00:21
Because of dataLes données.
3
9369
2753
Grâce aux données.
00:24
You look at supermarketsupermarché salesVentes.
4
12122
2066
Les ventes de supermarchés.
00:26
You look at supermarketsupermarché
salesVentes of 30-centimeter-centimètre piestartes
5
14188
2866
Parmi les ventes en supermarché
de tartes surgelées de 30 cm,
00:29
that are frozencongelé, and applePomme winsgagne, no contestconcours.
6
17054
4075
la tarte à la pomme était n°1,
haut la main.
La majorité des ventes se fait
sur les tartes à la pomme.
00:33
The majoritymajorité of the salesVentes are applePomme.
7
21129
5180
00:38
But then supermarketssupermarchés startedcommencé sellingvente
8
26309
2964
Puis les supermarchés se sont mis à vendre
des tartes plus petites, de 11 cm.
00:41
smallerplus petit, 11-centimeter-centimètre piestartes,
9
29273
2583
Et d'un coup, la pomme a chuté
à la 4ème ou 5ème place
00:43
and suddenlysoudainement, applePomme fellest tombée to fourthQuatrième or fifthcinquième placeendroit.
10
31856
4174
00:48
Why? What happenedarrivé?
11
36030
2875
Pourquoi ? Que s'est-il passé ?
00:50
Okay, think about it.
12
38905
2818
Réfléchissez !
Quand vous achetez une grande tarte,
00:53
When you buyacheter a 30-centimeter-centimètre pietarte,
13
41723
3848
00:57
the wholeentier familyfamille has to agreese mettre d'accord,
14
45571
2261
il faut que toute la famille
soit d'accord,
00:59
and applePomme is everyone'stout le monde secondseconde favoritepréféré.
15
47832
3791
Or la pomme est le deuxième choix de tous.
(Rires)
01:03
(LaughterRires)
16
51623
1935
Mais si vous achetez
une petite tartelette,
01:05
But when you buyacheter an individualindividuel 11-centimeter-centimètre pietarte,
17
53558
3615
01:09
you can buyacheter the one that you want.
18
57173
3745
vous pouvez acheter
celle que vous préférez.
01:12
You can get your first choicechoix.
19
60918
4015
Vous pouvez avoir votre premier choix.
Vous avez plus de données.
01:16
You have more dataLes données.
20
64933
1641
01:18
You can see something
21
66574
1554
On découvre quelque chose
qui nous aurait échappé
01:20
that you couldn'tne pouvait pas see
22
68128
1132
avec moins de données.
01:21
when you only had smallerplus petit amountsles montants of it.
23
69260
3953
01:25
Now, the pointpoint here is that more dataLes données
24
73213
2475
Mais plus de données ne nous donnent
pas seulement plus d'informations,
01:27
doesn't just let us see more,
25
75688
2283
01:29
more of the sameMême thing we were looking at.
26
77971
1854
plus d'informations sur la même chose.
01:31
More dataLes données allowspermet us to see newNouveau.
27
79825
3613
Plus de données nous permettent
de voir de nouvelles choses,
01:35
It allowspermet us to see better.
28
83438
3094
d'y voir plus clair,
01:38
It allowspermet us to see differentdifférent.
29
86532
3656
de voir sous un nouvel angle.
01:42
In this caseCas, it allowspermet us to see
30
90188
3173
Dans ce cas, ça nous a permis de savoir
01:45
what America'sDe l’Amérique favoritepréféré pietarte is:
31
93361
2913
quelle tarte les Américains préfèrent :
01:48
not applePomme.
32
96274
2542
ce n'est pas la pomme.
01:50
Now, you probablyProbablement all have heardentendu the termterme biggros dataLes données.
33
98816
3614
Vous avez déjà probablement entendu
le terme « Big Data ».
En fait, vous en avez probablement
plein les oreilles des Big Data.
01:54
In factfait, you're probablyProbablement sickmalade of hearingaudition the termterme
34
102430
2057
01:56
biggros dataLes données.
35
104487
1630
01:58
It is truevrai that there is a lot of hypehype around the termterme,
36
106117
3330
C'est vrai
qu'il y a beaucoup de bruit autour de ça
02:01
and that is very unfortunatemalheureux,
37
109447
2332
et c'est bien regrettable,
02:03
because biggros dataLes données is an extremelyextrêmement importantimportant tooloutil
38
111779
3046
parce c'est un outil extrêmement important
qui va faire progresser notre société.
02:06
by whichlequel societysociété is going to advanceavance.
39
114825
3734
02:10
In the pastpassé, we used to look at smallpetit dataLes données
40
118559
3561
Jusqu'ici, on n'utilisait que
de petites quantités de données,
on cherchait à les interpréter
02:14
and think about what it would mean
41
122120
1704
afin de comprendre le monde.
02:15
to try to understandcomprendre the worldmonde,
42
123824
1496
02:17
and now we have a lot more of it,
43
125320
1991
On a à présent infiniment plus de données,
02:19
more than we ever could before.
44
127311
2722
plus de données que jamais auparavant.
02:22
What we find is that when we have
45
130033
1877
Et quand on a une telle
quantité de données,
02:23
a largegrand bodycorps of dataLes données, we can fundamentallyfondamentalement do things
46
131910
2724
on peut accomplir des choses
02:26
that we couldn'tne pouvait pas do when we
only had smallerplus petit amountsles montants.
47
134634
3276
inimaginables avec de petites quantités.
Les Big Data sont à la fois
nouvelles et importantes.
02:29
BigGros dataLes données is importantimportant, and biggros dataLes données is newNouveau,
48
137910
2641
Si on y réfléchit,
02:32
and when you think about it,
49
140551
1777
le seul moyen qu'on aura
pour faire face aux enjeux mondiaux :
02:34
the only way this planetplanète is going to dealtraiter
50
142328
2216
02:36
with its globalglobal challengesdéfis
51
144544
1789
02:38
to feedalimentation people, supplyla fourniture them with medicalmédical carese soucier,
52
146333
3537
nourrir l'humanité,
l'approvisionner en médicaments,
02:41
supplyla fourniture them with energyénergie, electricityélectricité,
53
149870
2810
en énergie, en électricité,
et éviter d'être rôti
par le réchauffement climatique,
02:44
and to make sure they're not burntbrûlé to a crispCrisp
54
152680
1789
02:46
because of globalglobal warmingéchauffement
55
154469
1238
02:47
is because of the effectiveefficace use of dataLes données.
56
155707
4195
ce sera grâce
à une utilisation efficace des données.
02:51
So what is newNouveau about biggros
dataLes données? What is the biggros dealtraiter?
57
159902
3870
Qu'y a-t-il de nouveau dans les Big Data ?
Pourquoi tout le monde en parle ?
02:55
Well, to answerrépondre that questionquestion, let's think about
58
163772
2517
Pour y répondre, il faut se rappeler
02:58
what informationinformation lookedregardé like,
59
166289
1896
à quoi ressemblait physiquement
une information dans le passé.
03:00
physicallyphysiquement lookedregardé like in the pastpassé.
60
168185
3034
03:03
In 1908, on the islandîle of CreteCrète,
61
171219
3611
En 1908, sur l'île de Crète,
03:06
archaeologistsarchéologues discovereddécouvert a clayargile discdisque.
62
174830
4735
des archéologues ont découvert
un disque en argile.
03:11
They dateddaté it from 2000 B.C., so it's 4,000 yearsannées oldvieux.
63
179565
4059
Ils l'ont daté de 2 000 ans av. J-C.,
soit vieux de 4 000 ans.
03:15
Now, there's inscriptionsinscriptions on this discdisque,
64
183624
2004
Il y a des inscriptions
mais personne n'arrive à les déchiffrer.
03:17
but we actuallyréellement don't know what it meansveux dire.
65
185628
1327
03:18
It's a completeAchevée mysterymystère, but the pointpoint is that
66
186955
2098
Le mystère reste entier.
Mais c'est à cela
que ressemblait l'information
il y a 4 000 ans.
03:21
this is what informationinformation used to look like
67
189053
1928
03:22
4,000 yearsannées agodepuis.
68
190981
2089
C'est ainsi que la société stockait
03:25
This is how societysociété storedstockés
69
193070
2548
03:27
and transmittedtransmis informationinformation.
70
195618
3524
et transmettait l'information.
03:31
Now, societysociété hasn'tn'a pas advancedAvancée all that much.
71
199142
4160
La société n'a pas tant évolué que ça.
03:35
We still storele magasin informationinformation on discsdisques,
72
203302
3474
On stocke toujours
l'information sur des disques,
mais en quantité plus grande,
infiniment plus grande.
03:38
but now we can storele magasin a lot more informationinformation,
73
206776
3184
03:41
more than ever before.
74
209960
1260
03:43
SearchingLa recherche it is easierPlus facile. CopyingCopie it easierPlus facile.
75
211220
3093
Les informations sont
plus faciles à chercher,
plus faciles à copier, à partager,
03:46
SharingPartage it is easierPlus facile. ProcessingTraitement it is easierPlus facile.
76
214313
3500
plus faciles à traiter.
03:49
And what we can do is we can reuseréutilisation this informationinformation
77
217813
2766
On peut aussi réutiliser ces informations
à des fins auxquelles
on n'avait pas du tout pensé
03:52
for usesles usages that we never even imaginedimaginé
78
220579
1834
03:54
when we first collectedrecueilli the dataLes données.
79
222413
3195
au moment où on les a collectées.
On peut dire que les données sont passées
03:57
In this respectle respect, the dataLes données has gonedisparu
80
225608
2252
03:59
from a stockStock to a flowcouler,
81
227860
3532
d'un stock à un flux,
04:03
from something that is stationarystationnaire and staticpublic static
82
231392
3938
de statique et immobile,
04:07
to something that is fluidliquide and dynamicdynamique.
83
235330
3609
à fluide et dynamique.
On peut dire que l'information
est devenue liquide.
04:10
There is, if you will, a liquidityliquidité to informationinformation.
84
238939
4023
04:14
The discdisque that was discovereddécouvert off of CreteCrète
85
242962
3474
Ce disque découvert en Crète
04:18
that's 4,000 yearsannées oldvieux, is heavylourd,
86
246436
3764
et vieux de 4 000 ans, il est lourd,
il ne contient pas beaucoup d'information,
04:22
it doesn't storele magasin a lot of informationinformation,
87
250200
1962
04:24
and that informationinformation is unchangeableimmuable.
88
252162
3116
et cette information
n'est pas modifiable.
04:27
By contrastcontraste, all of the filesfichiers
89
255278
4011
En revanche,
tous les fichiers
04:31
that EdwardEdward SnowdenSnowden tooka pris
90
259289
1861
qu'Edward Snowden a pris
à la NSA aux États-Unis
04:33
from the NationalNational SecuritySécurité
AgencyAgence in the UnitedUnie StatesÉtats
91
261150
2621
04:35
fitsconvient on a memoryMémoire stickbâton
92
263771
2419
tiennent sur une clé USB
04:38
the sizeTaille of a fingernailongle,
93
266190
3010
pas plus grande qu'une
pièce de 50 centimes,
et ils peuvent être partagés
à la vitesse de la lumière.
04:41
and it can be sharedpartagé at the speedla vitesse of lightlumière.
94
269200
4745
04:45
More dataLes données. More.
95
273945
5255
Plus de données. Plus.
Une raison pour laquelle nous avons
tant de données aujourd'hui,
04:51
Now, one reasonraison why we have
so much dataLes données in the worldmonde todayaujourd'hui
96
279200
1974
04:53
is we are collectingrecueillir things
97
281174
1432
c'est qu'on étudie des choses
04:54
that we'venous avons always collectedrecueilli informationinformation on,
98
282606
3280
sur lesquelles
on a toujours collecté de l'information.
04:57
but anotherun autre reasonraison why is we're takingprise things
99
285886
2656
Une autre raison, c'est qu'on utilise
05:00
that have always been informationald’information
100
288542
2812
des choses qui ont toujours
été informationnelles
05:03
but have never been renderedrendus into a dataLes données formatformat
101
291354
2486
et qui n'ont jamais été transformées
en données
05:05
and we are puttingen mettant it into dataLes données.
102
293840
2419
et nous les mettons maintenant
en données.
05:08
Think, for exampleExemple, the questionquestion of locationemplacement.
103
296259
3308
Prenez l'exemple
des données de localisation.
05:11
Take, for exampleExemple, MartinMartin LutherLuther.
104
299567
2249
Pensez par exemple à Martin Luther.
05:13
If we wanted to know in the 1500s
105
301816
1597
Si on avait voulu savoir au 16ème siècle
où Martin Luther se trouvait,
05:15
where MartinMartin LutherLuther was,
106
303413
2667
on aurait dû le suivre tout le temps,
05:18
we would have to followsuivre him at all timesfois,
107
306080
2092
sans doute avec une plume et un encrier
pour noter ses différentes positions.
05:20
maybe with a featheryplumeux quillQuill and an inkwellencrier,
108
308172
2137
05:22
and recordrecord it,
109
310309
1676
Regardez à quoi ça ressemble aujourd'hui !
05:23
but now think about what it looksregards like todayaujourd'hui.
110
311985
2183
Vous savez que quelque part,
05:26
You know that somewherequelque part,
111
314168
2122
probablement dans la base de données
de votre opérateur,
05:28
probablyProbablement in a telecommunicationstélécommunications carrier'stransporteur databasebase de données,
112
316290
2446
05:30
there is a spreadsheettableur or at leastmoins a databasebase de données entryentrée
113
318736
3036
il y a un tableau
ou une entrée dans une base de données
05:33
that recordsEnregistrements your informationinformation
114
321772
2088
qui enregistre les informations
sur votre localisation, à chaque instant.
05:35
of where you've been at all timesfois.
115
323860
2063
Si vous avez un téléphone portable,
05:37
If you have a cellcellule phonetéléphone,
116
325923
1360
05:39
and that cellcellule phonetéléphone has GPSGPS,
but even if it doesn't have GPSGPS,
117
327283
2847
que ce dernier soit muni d'un GPS ou non,
il stocke vos informations.
05:42
it can recordrecord your informationinformation.
118
330130
2385
05:44
In this respectle respect, locationemplacement has been datafieddatafied.
119
332515
4084
C'est ainsi que la localisation
a été mise en données.
05:48
Now think, for exampleExemple, of the issueproblème of postureposture,
120
336599
4601
Prenons maintenant l'exemple
de votre posture,
la manière dont vous êtes tous
assis en ce moment
05:53
the way that you are all sittingséance right now,
121
341200
1285
05:54
the way that you sitasseoir,
122
342485
2030
votre manière de vous asseoir à vous,
05:56
the way that you sitasseoir, the way that you sitasseoir.
123
344515
2771
votre posture à vous,
la vôtre.
Elles sont toutes différentes
05:59
It's all differentdifférent, and it's a functionfonction of your legjambe lengthlongueur
124
347286
2077
en fonction de la longueur de vos jambes
et des contours de votre dos
06:01
and your back and the contourspérimètre de rayonnement of your back,
125
349363
2093
06:03
and if I were to put sensorscapteurs,
maybe 100 sensorscapteurs
126
351456
2531
Et si je posais, disons, 100 capteurs
06:05
into all of your chairschaises right now,
127
353987
1766
sur chacun de vos sièges,
06:07
I could createcréer an indexindice that's fairlyéquitablement uniqueunique to you,
128
355753
3600
je pourrais créer
un index unique qui vous serait propre,
06:11
sortTrier of like a fingerprintempreintes digitales, but it's not your fingerdoigt.
129
359353
4409
comme une empreinte unique,
autre qu'une empreinte digitale.
06:15
So what could we do with this?
130
363762
2969
Mais à quoi ça pourrait bien servir ?
06:18
ResearchersChercheurs in TokyoTokyo are usingen utilisant it
131
366731
2397
Des chercheurs à Tokyo utilisent ça
06:21
as a potentialpotentiel anti-theftprotection contre le vol devicedispositif in carsdes voitures.
132
369128
4388
comme un possible système antivol
dans les voitures.
06:25
The ideaidée is that the carjackerCarJacker sitsassis behindderrière the wheelroue,
133
373516
2924
Si un voleur s'assied derrière le volant
et tente de démarrer,
06:28
triesessais to streamcourant off, but the carvoiture recognizesreconnaît
134
376440
2104
la voiture reconnaît
qu'un conducteur non-approuvé
06:30
that a non-approvednon agréée driverchauffeur is behindderrière the wheelroue,
135
378544
2362
est derrière le volant
et stoppe simplement le moteur,
06:32
and maybe the enginemoteur just stopsarrêts, unlesssauf si you
136
380906
2164
sauf si vous entrez un mot de passe
06:35
typetype in a passwordmot de passe into the dashboardTableau de bord
137
383070
3177
qui dit que vous avez l'autorisation
de conduire la voiture.
06:38
to say, "Hey, I have authorizationautorisation to driveconduire." Great.
138
386247
4658
06:42
What if everychaque singleunique carvoiture in EuropeL’Europe
139
390905
2553
Imaginons que chaque voiture en Europe
06:45
had this technologyLa technologie in it?
140
393458
1457
soit munie de cette technologie.
06:46
What could we do then?
141
394915
3165
Quelles perspectives
cela nous ouvre-t-il ?
06:50
Maybe, if we aggregatedagrégées the dataLes données,
142
398080
2240
En rassemblant ces données,
on pourrait peut-être identifier
06:52
maybe we could identifyidentifier telltaleTelltale signssignes
143
400320
3814
des signes révélateurs
qui prédisent au mieux
06:56
that bestmeilleur predictprédire that a carvoiture accidentaccident
144
404134
2709
qu'un accident va se produire
06:58
is going to take placeendroit in the nextprochain fivecinq secondssecondes.
145
406843
5893
dans les 5 prochaines secondes.
07:04
And then what we will have datafieddatafied
146
412736
2557
C'est ainsi qu'on sera parvenu
à mettre en données
07:07
is driverchauffeur fatiguefatigue,
147
415293
1783
la fatigue du conducteur.
07:09
and the serviceun service would be when the carvoiture sensessens
148
417076
2334
Un nouveau service serait que,
quand la voiture sent qu'une personne
s'affale dans cette position,
07:11
that the personla personne slumpsglissements de terrain into that positionposition,
149
419410
3437
07:14
automaticallyautomatiquement knowssait, hey, setensemble an internalinterne alarmalarme
150
422847
3994
elle comprend automatiquement
et réagit en faisant vibrer le volant,
en klaxonnant à l'intérieur
07:18
that would vibratevibrer the steeringpilotage wheelroue, honkHonk insideà l'intérieur
151
426841
2025
comme pour dire :
« Debout, concentre-toi sur la route ! »
07:20
to say, "Hey, wakeréveiller up,
152
428866
1721
07:22
payPayer more attentionattention to the roadroute."
153
430587
1904
07:24
These are the sortssortes of things we can do
154
432491
1853
C'est le genre de choses
qui deviennent possibles
07:26
when we datafydatafy more aspectsaspects of our livesvies.
155
434344
2821
quand on met en données
certains aspects du quotidien.
07:29
So what is the valuevaleur of biggros dataLes données?
156
437165
3675
Que valent alors donc les Big Data ?
07:32
Well, think about it.
157
440840
2190
Pensez-y !
07:35
You have more informationinformation.
158
443030
2412
On a plus d'information.
On peut faire des nouvelles choses
qui étaient impossibles auparavant.
07:37
You can do things that you couldn'tne pouvait pas do before.
159
445442
3341
Une des applications
les plus impressionnantes des Big Data
07:40
One of the mostles plus impressiveimpressionnant areaszones
160
448783
1676
07:42
where this conceptconcept is takingprise placeendroit
161
450459
1729
07:44
is in the arearégion of machinemachine learningapprentissage.
162
452188
3307
concerne le domaine
de l'apprentissage automatique.
07:47
MachineMachine learningapprentissage is a branchbranche of artificialartificiel intelligenceintelligence,
163
455495
3077
Il s'agit d'une branche
de l'intelligence artificielle,
07:50
whichlequel itselfse is a branchbranche of computerordinateur sciencescience.
164
458572
3378
elle-même branche de l'informatique.
07:53
The generalgénéral ideaidée is that insteadau lieu of
165
461950
1543
L'idée générale c'est que,
plutôt que de dire à l'ordinateur
ce qu'il a à faire,
07:55
instructinginstruisant a computerordinateur what do do,
166
463493
2117
07:57
we are going to simplysimplement throwjeter dataLes données at the problemproblème
167
465610
2620
on va juste donner plein d'informations
à l'ordinateur
08:00
and tell the computerordinateur to figurefigure it out for itselfse.
168
468230
3206
et lui dire de se débrouiller avec.
Pour vous aider à comprendre,
08:03
And it will help you understandcomprendre it
169
471436
1777
retournons aux origines de
l'apprentissage automatique.
08:05
by seeingvoyant its originsorigines.
170
473213
3552
08:08
In the 1950s, a computerordinateur scientistscientifique
171
476765
2388
En 1950, un informaticien de chez IBM,
Arthur Samuel,
08:11
at IBMIBM namednommé ArthurArthur SamuelSamuel likedaimé to playjouer checkersjeu de dames,
172
479153
3592
était amateur du jeu de Dames.
08:14
so he wrotea écrit a computerordinateur programprogramme
173
482745
1402
Il a donc créé un programme informatique
afin de jouer contre l'ordinateur.
08:16
so he could playjouer againstcontre the computerordinateur.
174
484147
2813
08:18
He playedjoué. He wona gagné.
175
486960
2711
Il a joué. Il a gagné.
08:21
He playedjoué. He wona gagné.
176
489671
2103
Il a joué. Il a gagné.
08:23
He playedjoué. He wona gagné,
177
491774
3015
Il a joué. Il a gagné,
08:26
because the computerordinateur only knewa connu
178
494789
1778
parce que l'ordinateur ne connaissait
rien d'autre que les coups légaux.
08:28
what a legallégal movebouge toi was.
179
496567
2227
08:30
ArthurArthur SamuelSamuel knewa connu something elseautre.
180
498794
2087
Arthur Samuel en savait plus.
08:32
ArthurArthur SamuelSamuel knewa connu strategystratégie.
181
500881
4629
Arthur Samuel avait
des notions de stratégie.
08:37
So he wrotea écrit a smallpetit sub-programsous-programme alongsideaux côtés de it
182
505510
2396
Il a alors écrit un sous-programme à côté.
Il opérait en arrière-plan
08:39
operatingen fonctionnement in the backgroundContexte, and all it did
183
507906
1974
et tout ce qu'il faisait,
c'est qu'après chacun des coups,
08:41
was scoreBut the probabilityprobabilité
184
509880
1817
08:43
that a givendonné boardplanche configurationConfiguration would likelyprobable leadconduire
185
511697
2563
il comptait les probabilités
de chacune des configurations du damier
08:46
to a winninggagnant boardplanche versuscontre a losingperdant boardplanche
186
514260
2910
de mener à la victoire ou à la défaite.
08:49
after everychaque movebouge toi.
187
517170
2508
08:51
He playspièces the computerordinateur. He winsgagne.
188
519678
3150
Il joue contre l'ordinateur. Il gagne.
08:54
He playspièces the computerordinateur. He winsgagne.
189
522828
2508
Il joue contre l'ordinateur. Il gagne.
08:57
He playspièces the computerordinateur. He winsgagne.
190
525336
3731
Il joue contre l'ordinateur. Il gagne.
09:01
And then ArthurArthur SamuelSamuel leavesfeuilles the computerordinateur
191
529067
2277
Puis Arthur Samuel a laissé l'ordinateur
jouer contre lui-même.
09:03
to playjouer itselfse.
192
531344
2227
09:05
It playspièces itselfse. It collectsrecueille more dataLes données.
193
533571
3509
Plus il joue contre lui-même,
plus il collecte de données.
Plus il collecte de données,
09:09
It collectsrecueille more dataLes données. It increasesaugmente
the accuracyprécision of its predictionprédiction.
194
537080
4309
plus il augmente
la précision de ses prédictions.
09:13
And then ArthurArthur SamuelSamuel goesva back to the computerordinateur
195
541389
2104
Et quand Samuel
a rejoué contre l'ordinateur,
09:15
and he playspièces it, and he losesperd,
196
543493
2318
il joue et il perd.
09:17
and he playspièces it, and he losesperd,
197
545811
2069
Il joue et il perd.
09:19
and he playspièces it, and he losesperd,
198
547880
2047
Il joue et il perd.
09:21
and ArthurArthur SamuelSamuel has createdcréé a machinemachine
199
549927
2599
C'est ainsi qu'Arthur Samuel
a créé une machine
09:24
that surpassessurpasse his abilitycapacité in a tasktâche that he taughtenseigné it.
200
552526
6288
capable de le surpasser
dans une discipline qu'il lui a enseignée.
Et cette idée d'apprentissage automatique
est partout autour de nous.
09:30
And this ideaidée of machinemachine learningapprentissage
201
558814
2498
09:33
is going everywherepartout.
202
561312
3927
09:37
How do you think we have self-drivingSelf-driving carsdes voitures?
203
565239
3149
Comment croyez-vous que des voitures
roulent toutes seules ?
09:40
Are we any better off as a societysociété
204
568388
2137
Notre société est-elle meilleure
09:42
enshriningconsacrant all the rulesrègles of the roadroute into softwareLogiciel?
205
570525
3285
depuis que le code de la route
a été traduit dans un logiciel ? Non.
09:45
No. MemoryMémoire is cheapermoins cher. No.
206
573810
2598
Le stockage est-il moins cher ? Non.
09:48
AlgorithmsAlgorithmes are fasterPlus vite. No. ProcessorsProcesseurs are better. No.
207
576408
3994
Les algorithmes plus rapides ? Non.
Les processeurs plus puissants ? Non.
09:52
All of those things mattermatière, but that's not why.
208
580402
2772
Toutes ces choses sont importantes,
mais pas décisives.
09:55
It's because we changedmodifié the naturela nature of the problemproblème.
209
583174
3141
C'est parce que nous avons
changé la nature du problème.
09:58
We changedmodifié the naturela nature of the problemproblème from one
210
586315
1530
Avant, on essayait d'expliquer
clairement et ouvertement à l'ordinateur
09:59
in whichlequel we trieda essayé to overtlyouvertement and explicitlyexplicitement
211
587845
2245
10:02
explainExplique to the computerordinateur how to driveconduire
212
590090
2581
comment il devait conduire.
10:04
to one in whichlequel we say,
213
592671
1316
Aujourd'hui, on lui dit :
« Voici tout plein de
données sur le véhicule,
10:05
"Here'sVoici a lot of dataLes données around the vehiclevéhicule.
214
593987
1876
10:07
You figurefigure it out.
215
595863
1533
débrouille-toi !
10:09
You figurefigure it out that that is a trafficcirculation lightlumière,
216
597396
1867
Débrouille-toi à comprendre
que ceci est un feu de signalisation
10:11
that that trafficcirculation lightlumière is redrouge and not greenvert,
217
599263
2081
que le feu est rouge et non vert,
10:13
that that meansveux dire that you need to stop
218
601344
2014
que cela veut dire que tu dois t'arrêter,
et non pas continuer. »
10:15
and not go forwardvers l'avant."
219
603358
3083
10:18
MachineMachine learningapprentissage is at the basisbase
220
606441
1518
L'apprentissage automatique est à la base
de nombreux outils en ligne :
10:19
of manybeaucoup of the things that we do onlineen ligne:
221
607959
1991
10:21
searchchercher enginesles moteurs,
222
609950
1857
les moteurs de recherche,
10:23
Amazon'sAmazon personalizationpersonnalisation algorithmalgorithme de,
223
611807
3801
l'algorithme de personnalisation d'Amazon,
10:27
computerordinateur translationTraduction,
224
615608
2212
la traduction par ordinateur,
10:29
voicevoix recognitionreconnaissance systemssystèmes.
225
617820
4290
ou encore la reconnaissance vocale.
10:34
ResearchersChercheurs recentlyrécemment have lookedregardé at
226
622110
2835
Les chercheurs se sont récemment penchés
10:36
the questionquestion of biopsiesbiopsies,
227
624945
3195
sur la question des biopsies,
10:40
cancerouscancéreuses biopsiesbiopsies,
228
628140
2767
des biopsies de cellules cancéreuses.
10:42
and they'veils ont askeda demandé the computerordinateur to identifyidentifier
229
630907
2315
Ils ont demandé à des ordinateurs
10:45
by looking at the dataLes données and survivalsurvie ratesles taux
230
633222
2471
d'analyser les données
et le taux de survie
10:47
to determinedéterminer whetherqu'il s'agisse cellscellules are actuallyréellement
231
635693
4667
pour déterminer quelles cellules
sont réellement cancéreuses.
10:52
cancerouscancéreuses or not,
232
640360
2544
Sans surprise,
en fournissant assez de données
10:54
and sure enoughassez, when you throwjeter the dataLes données at it,
233
642904
1778
10:56
throughpar a machine-learningapprentissage automatique algorithmalgorithme de,
234
644682
2047
à l'algorithme
d'apprentissage automatique,
10:58
the machinemachine was ablecapable to identifyidentifier
235
646729
1877
l'ordinateur était capable d'identifier
11:00
the 12 telltaleTelltale signssignes that bestmeilleur predictprédire
236
648606
2262
les 12 signes caractéristiques
qui prédisent au mieux
11:02
that this biopsybiopsie of the breastSein cancercancer cellscellules
237
650868
3299
que cette biopsie
de cellules tumorales mammaires
11:06
are indeedeffectivement cancerouscancéreuses.
238
654167
3218
sont en effet cancéreuses.
Le truc,
11:09
The problemproblème: The medicalmédical literatureLittérature
239
657385
2498
c'est que les médecins
n'en connaissaient que 9.
11:11
only knewa connu nineneuf of them.
240
659883
2789
11:14
ThreeTrois of the traitstraits were onesceux
241
662672
1800
Trois des signes ont été
identifiés par l'ordinateur
11:16
that people didn't need to look for,
242
664472
2975
sans que quelqu'un n'ait besoin
de faire de recherche dessus.
11:19
but that the machinemachine spottedtacheté.
243
667447
5531
11:24
Now, there are darkfoncé sidescôtés to biggros dataLes données as well.
244
672978
5925
Mais il y a aussi
une face sombre des Big Data.
Cela va améliorer nos vies,
11:30
It will improveaméliorer our livesvies, but there are problemsproblèmes
245
678903
2074
mais il y a aussi des problèmes
dont il faut être conscient.
11:32
that we need to be consciousconscient of,
246
680977
2640
11:35
and the first one is the ideaidée
247
683617
2623
Le premier, c'est l'idée que l'on puisse
être puni à cause de prédictions,
11:38
that we maymai be punishedpunis for predictionsprédictions,
248
686240
2686
11:40
that the policepolice maymai use biggros dataLes données for theirleur purposesfins,
249
688926
3870
que la police utilise les Big Data
un peu comme dans « Minority Report ».
11:44
a little bitbit like "MinorityMinorité ReportRapport."
250
692796
2351
11:47
Now, it's a termterme calledappelé predictiveprédictive policingmaintien de l’ordre,
251
695147
2441
On appelle ça la prévision policière
ou la criminologie algorithmique.
11:49
or algorithmicalgorithmique criminologycriminologie,
252
697588
2363
11:51
and the ideaidée is that if we take a lot of dataLes données,
253
699951
2036
L'idée est que, si on prend
beaucoup de données
11:53
for exampleExemple where pastpassé crimescrimes have been,
254
701987
2159
par exemple où des crimes ont été commis,
on sait où envoyer les patrouilles.
11:56
we know where to sendenvoyer the patrolspatrouilles.
255
704146
2543
11:58
That makesfait du sensesens, but the problemproblème, of coursecours,
256
706689
2115
C'est logique.
Mais le problème,
12:00
is that it's not simplysimplement going to stop on locationemplacement dataLes données,
257
708804
4544
c'est qu'on ne s'arrêtera pas
aux données de localisation,
12:05
it's going to go down to the levelniveau of the individualindividuel.
258
713348
2959
on va aller jusqu'au niveau de l'individu.
12:08
Why don't we use dataLes données about the person'spersonne
259
716307
2250
Pourquoi ne pas utiliser les données
fournies par vos bulletins scolaires ?
12:10
highhaute schoolécole transcriptrelevé de notes?
260
718557
2228
Peut-être devrions-nous
utiliser le fait
12:12
Maybe we should use the factfait that
261
720785
1561
12:14
they're unemployedsans emploi or not, theirleur creditcrédit scoreBut,
262
722346
2028
que les gens ont un emploi ou non,
leur solvabilité,
12:16
theirleur web-surfingnavigation sur le Web behaviorcomportement,
263
724374
1552
leur comportement sur Internet,
s'ils sont debout tard dans la nuit.
12:17
whetherqu'il s'agisse they're up lateen retard at night.
264
725926
1878
12:19
TheirLeur FitbitFitbit, when it's ablecapable
to identifyidentifier biochemistriesbiochimies,
265
727804
3161
Leur FitBit, quand c'est possible,
pour identifier les réactions biochimiques
qui produisent des pensées agressives.
12:22
will showmontrer that they have aggressiveagressif thoughtspensées.
266
730965
4236
On peut avoir des algorithmes
12:27
We maymai have algorithmsalgorithmes that are likelyprobable to predictprédire
267
735201
2221
qui pourraient prédire
ce que nous sommes sur le point de faire,
12:29
what we are about to do,
268
737422
1633
12:31
and we maymai be heldtenu accountableresponsable
269
739055
1244
nous pourrions être tenus responsables
de ce que l'on n'a pas encore fait.
12:32
before we'venous avons actuallyréellement actedagi.
270
740299
2590
12:34
PrivacyVie privée was the centralcentral challengedéfi
271
742889
1732
La vie privée était le défi principal
lorsqu'on avait peu de données.
12:36
in a smallpetit dataLes données eraère.
272
744621
2880
12:39
In the biggros dataLes données ageâge,
273
747501
2149
Avec les Big Data,
le défi sera
de préserver le libre-arbitre,
12:41
the challengedéfi will be safeguardingsauvegarde freegratuit will,
274
749650
4523
12:46
moralmoral choicechoix, humanHumain volitionVolition,
275
754173
3779
les choix moraux, le consentement
12:49
humanHumain agencyagence.
276
757952
3068
et la capacité d'agir de l'homme.
12:54
There is anotherun autre problemproblème:
277
762540
2225
Et il y a un autre problème :
12:56
BigGros dataLes données is going to stealvoler our jobsemplois.
278
764765
3556
les Big Data vont
nous voler notre travail.
13:00
BigGros dataLes données and algorithmsalgorithmes are going to challengedéfi
279
768321
3512
A l'aide des algorithmes,
elles vont entrer en concurrence
13:03
whiteblanc collarcollier, professionalprofessionnel knowledgeconnaissance work
280
771833
3061
avec les cols blancs,
avec les travailleurs intellectuels
13:06
in the 21stst centurysiècle
281
774894
1653
du 21ème siècle,
de la même manière que
l'automatisation des lignes de montage
13:08
in the sameMême way that factoryusine automationAutomation
282
776547
2434
13:10
and the assemblyAssemblée lineligne
283
778981
2189
13:13
challengedcontesté bluebleu collarcollier laborla main d'oeuvre in the 20thth centurysiècle.
284
781170
3026
a concurrencé le travail des cols bleus,
au 20ème siècle.
13:16
Think about a lablaboratoire techniciantechnicien
285
784196
2092
Imaginez un technicien de laboratoire
qui examine à l'aide d'un microscope
13:18
who is looking throughpar a microscopemicroscope
286
786288
1409
13:19
at a cancercancer biopsybiopsie
287
787697
1624
la biopsie d'une tumeur
pour déterminer si elle est cancéreuse.
13:21
and determiningdéterminer whetherqu'il s'agisse it's cancerouscancéreuses or not.
288
789321
2637
13:23
The personla personne wentest allé to universityUniversité.
289
791958
1972
Cette personne a fait des études.
13:25
The personla personne buysachète propertypropriété.
290
793930
1430
Cette personne est propriétaire.
13:27
He or she votesvotes.
291
795360
1741
Il ou elle vote.
13:29
He or she is a stakeholderintervenants in societysociété.
292
797101
3666
Il ou elle est acteur à part entière
de notre société.
13:32
And that person'spersonne jobemploi,
293
800767
1394
Et pourtant cette personne,
13:34
as well as an entiretout fleetflotte
294
802161
1609
ainsi qu'un pan entier
de professionnels similaires,
13:35
of professionalsprofessionnels like that personla personne,
295
803770
1969
13:37
is going to find that theirleur jobsemplois are radicallyradicalement changedmodifié
296
805739
3150
va voir son travail
radicalement transformé,
13:40
or actuallyréellement completelycomplètement eliminatedéliminé.
297
808889
2357
voire carrément éliminé.
13:43
Now, we like to think
298
811246
1284
On aime pourtant se dire
13:44
that technologyLa technologie createscrée jobsemplois over a periodpériode of time
299
812530
3187
que sur le long terme,
la technologie crée des emplois,
13:47
after a shortcourt, temporarytemporaire periodpériode of dislocationdislocation,
300
815717
3465
après une courte période temporaire
de destruction d'emplois.
13:51
and that is truevrai for the frameCadre of referenceréférence
301
819182
1941
C'est vrai pour la période de référence
dans laquelle nous vivons,
13:53
with whichlequel we all livevivre, the IndustrialIndustriel RevolutionRevolution,
302
821123
2142
la Révolution Industrielle,
car c'est précisément ce qui s'est passé.
13:55
because that's preciselyprécisément what happenedarrivé.
303
823265
2328
13:57
But we forgetoublier something in that analysisune analyse:
304
825593
2333
Mais on oublie un élément
dans cette analyse.
13:59
There are some categoriescategories of jobsemplois
305
827926
1830
Il y a des catégories d'emplois
14:01
that simplysimplement get eliminatedéliminé and never come back.
306
829756
3420
qui sont simplement éliminées
et ne sont pas remplacées.
14:05
The IndustrialIndustriel RevolutionRevolution wasn'tn'était pas very good
307
833176
2004
La Révolution Industrielle
n'a pas été bonne pour les chevaux.
14:07
if you were a horsecheval.
308
835180
4002
14:11
So we're going to need to be carefulprudent
309
839182
2055
Il va donc falloir être prudent,
14:13
and take biggros dataLes données and adjustrégler it for our needsBesoins,
310
841237
3514
prendre les Big Data
et les ajuster à nos besoins,
14:16
our very humanHumain needsBesoins.
311
844751
3185
nos besoins humains fondamentaux.
14:19
We have to be the mastermaîtriser of this technologyLa technologie,
312
847936
1954
Nous devons maîtriser cette technologie
14:21
not its servantserviteur.
313
849890
1656
et non devenir ses esclaves.
14:23
We are just at the outsettout d’abord of the biggros dataLes données eraère,
314
851546
2958
L'ère des Big Data vient tout juste de commencer
14:26
and honestlyfranchement, we are not very good
315
854504
3150
et honnêtement,
nous ne sommes pas très bons
14:29
at handlingmanipulation all the dataLes données that we can now collectcollecte.
316
857654
4207
pour manipuler toutes ces données
que nous collectons.
14:33
It's not just a problemproblème for
the NationalNational SecuritySécurité AgencyAgence.
317
861861
3330
Ce n'est pas juste un problème pour la NSA.
14:37
BusinessesEntreprises collectcollecte lots of
dataLes données, and they misusemauvaise utilisation it too,
318
865191
3038
Les entreprises collectent aussi beaucoup
de données, et elles en abusent aussi.
14:40
and we need to get better at
this, and this will take time.
319
868229
3667
Il va falloir faire mieux,
et cela va prendre du temps.
14:43
It's a little bitbit like the challengedéfi that was facedface à
320
871896
1822
C'est un peu comme le défi
14:45
by primitiveprimitif man and fireFeu.
321
873718
2407
de l'homme préhistorique
quand il a inventé le feu.
14:48
This is a tooloutil, but this is a tooloutil that,
322
876125
1885
C'est un outil,
mais c'est un outil qui,
14:50
unlesssauf si we're carefulprudent, will burnbrûler us.
323
878010
3559
si nous ne sommes pas prudents,
va nous brûler.
14:56
BigGros dataLes données is going to transformtransformer how we livevivre,
324
884008
3120
Les Big Data vont transformer
nos modes de vie,
14:59
how we work and how we think.
325
887128
2801
de travail et de pensée.
15:01
It is going to help us managegérer our careerscarrières
326
889929
1889
Elles nous aideront à gérer nos carrières,
15:03
and leadconduire livesvies of satisfactionla satisfaction and hopeespérer
327
891818
3634
à mener une vie faite de satisfaction,
d'espoir,
de bonheur et de santé.
15:07
and happinessbonheur and healthsanté,
328
895452
2992
15:10
but in the pastpassé, we'venous avons oftensouvent
lookedregardé at informationinformation technologyLa technologie
329
898444
3306
Mais, par le passé, on a souvent
regardé les technologies de l'information
15:13
and our eyesles yeux have only seenvu the T,
330
901750
2208
et nos yeux n'ont vu que le T,
15:15
the technologyLa technologie, the hardwareMatériel,
331
903958
1686
la Technologie, l'ordinateur,
15:17
because that's what was physicalphysique.
332
905644
2262
parce que c'est
matériel et palpable.
15:19
We now need to recastrefonte our gazeregard at the I,
333
907906
2924
Il faut à présent
tourner notre regard vers le I,
15:22
the informationinformation,
334
910830
1380
l'Information,
qui est moins visible,
15:24
whichlequel is lessMoins apparentapparent,
335
912210
1373
15:25
but in some waysfaçons a lot more importantimportant.
336
913583
4109
mais d'une certaine manière
bien plus importante.
15:29
HumanityHumanité can finallyenfin learnapprendre from the informationinformation
337
917692
3465
L'humanité peut enfin apprendre
des informations qu'elle collecte
15:33
that it can collectcollecte,
338
921157
2418
15:35
as partpartie of our timelesshors du temps questquête
339
923575
2115
dans le cadre de sa quête
15:37
to understandcomprendre the worldmonde and our placeendroit in it,
340
925690
3159
pour comprendre le monde
et la place de l'homme en son sein.
15:40
and that's why biggros dataLes données is a biggros dealtraiter.
341
928849
5631
Voilà pourquoi
les Big Data sont si importantes.
(Applaudissements)
15:46
(ApplauseApplaudissements)
342
934480
3568
Translated by Meryl Ducray

▲Back to top

ABOUT THE SPEAKER
Kenneth Cukier - Data Editor of The Economist
Kenneth Cukier is the Data Editor of The Economist. From 2007 to 2012 he was the Tokyo correspondent, and before that, the paper’s technology correspondent in London, where his work focused on innovation, intellectual property and Internet governance. Kenneth is also the co-author of Big Data: A Revolution That Will Transform How We Live, Work, and Think with Viktor Mayer-Schönberger in 2013, which was a New York Times Bestseller and translated into 16 languages.

Why you should listen

As Data Editor of The Economist and co-author of Big Data: A Revolution That Will Transform How We Live, Work, and Think, Kenneth Cukier has spent years immersed in big data, machine learning -- and the impact of both. What's the future of big data-driven technology and design? To find out, watch this talk.

More profile about the speaker
Kenneth Cukier | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee