TEDSalon Berlin 2014
Kenneth Cukier: Big data is better data
Kenneth Cukier: Big data betekent betere data
Filmed:
Readability: 4.1
1,663,038 views
Zelfrijdende auto's waren nog maar het begin. Wat is de toekomst van een technologie die gestuurd wordt door big data? In een spannende wetenschapstalk kijkt Kenneth Cukier naar de toekomst voor machine-leren -- en de menselijke kennis.
Kenneth Cukier - Data Editor of The Economist
Kenneth Cukier is the Data Editor of The Economist. From 2007 to 2012 he was the Tokyo correspondent, and before that, the paper’s technology correspondent in London, where his work focused on innovation, intellectual property and Internet governance. Kenneth is also the co-author of Big Data: A Revolution That Will Transform How We Live, Work, and Think with Viktor Mayer-Schönberger in 2013, which was a New York Times Bestseller and translated into 16 languages. Full bio
Kenneth Cukier is the Data Editor of The Economist. From 2007 to 2012 he was the Tokyo correspondent, and before that, the paper’s technology correspondent in London, where his work focused on innovation, intellectual property and Internet governance. Kenneth is also the co-author of Big Data: A Revolution That Will Transform How We Live, Work, and Think with Viktor Mayer-Schönberger in 2013, which was a New York Times Bestseller and translated into 16 languages. Full bio
Double-click the English transcript below to play the video.
00:12
America's favorite pie is?
0
787
3845
Wat is de lievelingstaart van Amerika?
00:16
Audience: Apple.
Kenneth Cukier: Apple. Of course it is.
Kenneth Cukier: Apple. Of course it is.
1
4632
3506
Publiek: Appel.
Kenneth Cukier: Appel, natuurlijk.
Kenneth Cukier: Appel, natuurlijk.
00:20
How do we know it?
2
8138
1231
Hoe weten we dat?
00:21
Because of data.
3
9369
2753
Door gegevens.
00:24
You look at supermarket sales.
4
12122
2066
Je kijkt naar de supermarktverkoop.
00:26
You look at supermarket
sales of 30-centimeter pies
sales of 30-centimeter pies
5
14188
2866
Je kijkt naar omzetcijfers
van diepvriestaart van 30 centimeter
00:29
that are frozen, and apple wins, no contest.
6
17054
4075
en appel wint zeker.
00:33
The majority of the sales are apple.
7
21129
5180
Appel is het meest verkocht.
00:38
But then supermarkets started selling
8
26309
2964
Toen gingen supermarkten ook
kleinere taarten verkopen
kleinere taarten verkopen
00:41
smaller, 11-centimeter pies,
9
29273
2583
van 11 centimeter.
00:43
and suddenly, apple fell to fourth or fifth place.
10
31856
4174
Dan komt appel
op de vierde of vijfde plaats.
op de vierde of vijfde plaats.
00:48
Why? What happened?
11
36030
2875
Hoezo? Hoe komt dat nou?
00:50
Okay, think about it.
12
38905
2818
Denk eens goed na.
00:53
When you buy a 30-centimeter pie,
13
41723
3848
Als je een taart van 30 centimeter koopt,
00:57
the whole family has to agree,
14
45571
2261
moet het hele gezin het eens zijn.
00:59
and apple is everyone's second favorite.
15
47832
3791
Appel staat bij iedereen
op de tweede plaats.
op de tweede plaats.
01:03
(Laughter)
16
51623
1935
(Gelach)
01:05
But when you buy an individual 11-centimeter pie,
17
53558
3615
Maar als je een eenpersoonstaart
van 11 centimeter koopt,
van 11 centimeter koopt,
01:09
you can buy the one that you want.
18
57173
3745
kan je kopen wat je zelf wilt.
01:12
You can get your first choice.
19
60918
4015
Je kan je eerste keus nemen.
01:16
You have more data.
20
64933
1641
Je hebt meer gegevens.
01:18
You can see something
21
66574
1554
Je ziet iets dat je eerst niet zag
01:20
that you couldn't see
22
68128
1132
01:21
when you only had smaller amounts of it.
23
69260
3953
toen er nog niet zoveel gegevens waren.
01:25
Now, the point here is that more data
24
73213
2475
Het gaat erom dat je met meer gegevens
01:27
doesn't just let us see more,
25
75688
2283
niet alleen meer ziet, meer van hetzelfde.
01:29
more of the same thing we were looking at.
26
77971
1854
01:31
More data allows us to see new.
27
79825
3613
Met meer gegevens zien we nieuwe dingen.
01:35
It allows us to see better.
28
83438
3094
Je krijgt er een betere kijk op.
01:38
It allows us to see different.
29
86532
3656
Je gaat er anders tegenaan kijken.
01:42
In this case, it allows us to see
30
90188
3173
In dit geval onthult het
01:45
what America's favorite pie is:
31
93361
2913
wat de lievelingstaart van Amerika is:
01:48
not apple.
32
96274
2542
geen appel.
01:50
Now, you probably all have heard the term big data.
33
98816
3614
Je hebt vast wel gehoord
van de kreet 'big data'.
van de kreet 'big data'.
01:54
In fact, you're probably sick of hearing the term
34
102430
2057
Je wordt vast doodziek
01:56
big data.
35
104487
1630
van de kreet 'big data'.
01:58
It is true that there is a lot of hype around the term,
36
106117
3330
Het is inderdaad een hype
02:01
and that is very unfortunate,
37
109447
2332
en dat is erg jammer,
02:03
because big data is an extremely important tool
38
111779
3046
omdat big data
een enorm belangrijk middel is
een enorm belangrijk middel is
02:06
by which society is going to advance.
39
114825
3734
waarmee de maatschappij opgestuwd wordt.
02:10
In the past, we used to look at small data
40
118559
3561
In het verleden keken we naar 'small data'
en dachten we daarover na.
en dachten we daarover na.
02:14
and think about what it would mean
41
122120
1704
Zo poogden we de wereld te snappen.
02:15
to try to understand the world,
42
123824
1496
02:17
and now we have a lot more of it,
43
125320
1991
Nu hebben we veel meer gegevens.
02:19
more than we ever could before.
44
127311
2722
Meer dan we ooit hebben gehad.
02:22
What we find is that when we have
45
130033
1877
We ontdekken dat we
02:23
a large body of data, we can fundamentally do things
46
131910
2724
met een grote hoeveelheid gegevens
dingen kunnen doen
dingen kunnen doen
02:26
that we couldn't do when we
only had smaller amounts.
only had smaller amounts.
47
134634
3276
die we niet konden doen
met kleinere hoeveelheden.
met kleinere hoeveelheden.
02:29
Big data is important, and big data is new,
48
137910
2641
Big data is belangrijk en nieuw.
02:32
and when you think about it,
49
140551
1777
Ga maar na:
02:34
the only way this planet is going to deal
50
142328
2216
de enige manier waarmee
deze aarde om kan gaan
deze aarde om kan gaan
02:36
with its global challenges —
51
144544
1789
met wereldwijde uitdagingen --
02:38
to feed people, supply them with medical care,
52
146333
3537
de wereld voeden,
medische verzorging geven,
medische verzorging geven,
02:41
supply them with energy, electricity,
53
149870
2810
van energie voorzien, van elektriciteit,
02:44
and to make sure they're not burnt to a crisp
54
152680
1789
en zorgen dat we niet verbranden
door opwarming van de aarde --
door opwarming van de aarde --
02:46
because of global warming —
55
154469
1238
is door effectief gebruik van gegevens.
02:47
is because of the effective use of data.
56
155707
4195
02:51
So what is new about big
data? What is the big deal?
data? What is the big deal?
57
159902
3870
Wat is nieuw aan big data?
Wat is het bijzondere?
Wat is het bijzondere?
02:55
Well, to answer that question, let's think about
58
163772
2517
Om daar antwoord op te geven,
moet je eens bedenken
moet je eens bedenken
02:58
what information looked like,
59
166289
1896
hoe informatie eruitzag.
03:00
physically looked like in the past.
60
168185
3034
Hoe het er ooit fysiek uitzag.
03:03
In 1908, on the island of Crete,
61
171219
3611
In 1908, op het eiland Kreta,
03:06
archaeologists discovered a clay disc.
62
174830
4735
ontdekten archeologen een schijf van klei.
03:11
They dated it from 2000 B.C., so it's 4,000 years old.
63
179565
4059
Ze dateerden die op 2.000 voor Christus,
dus 4.000 jaar oud.
dus 4.000 jaar oud.
03:15
Now, there's inscriptions on this disc,
64
183624
2004
Er staan inscripties op die schijf,
maar die kunnen we niet lezen.
maar die kunnen we niet lezen.
03:17
but we actually don't know what it means.
65
185628
1327
03:18
It's a complete mystery, but the point is that
66
186955
2098
Het is een raadsel, maar het gaat erom
03:21
this is what information used to look like
67
189053
1928
dat informatie er
4.000 jaar geleden zo uitzag.
4.000 jaar geleden zo uitzag.
03:22
4,000 years ago.
68
190981
2089
03:25
This is how society stored
69
193070
2548
Zo bewaarde en communiceerde
de maatschappij informatie.
de maatschappij informatie.
03:27
and transmitted information.
70
195618
3524
03:31
Now, society hasn't advanced all that much.
71
199142
4160
De maatschappij is niet zoveel veranderd.
03:35
We still store information on discs,
72
203302
3474
We bewaren informatie
nog steeds op schijven,
nog steeds op schijven,
03:38
but now we can store a lot more information,
73
206776
3184
maar nu kunnen we
veel meer informatie bewaren.
veel meer informatie bewaren.
03:41
more than ever before.
74
209960
1260
Meer dan ooit.
03:43
Searching it is easier. Copying it easier.
75
211220
3093
Zoeken is makkelijker.
Kopiëren is makkelijker.
Kopiëren is makkelijker.
03:46
Sharing it is easier. Processing it is easier.
76
214313
3500
Delen en verwerken zijn makkelijker.
03:49
And what we can do is we can reuse this information
77
217813
2766
We kunnen deze informatie hergebruiken
03:52
for uses that we never even imagined
78
220579
1834
voor dingen waar we nooit aan dachten
03:54
when we first collected the data.
79
222413
3195
toen we die informatie verzamelden.
03:57
In this respect, the data has gone
80
225608
2252
In dit verband zijn de gegevens gegaan
03:59
from a stock to a flow,
81
227860
3532
van een stapel naar een stroom.
04:03
from something that is stationary and static
82
231392
3938
Van iets bewegingsloos en statisch
04:07
to something that is fluid and dynamic.
83
235330
3609
naar iets dat vloeiend en dynamisch is.
04:10
There is, if you will, a liquidity to information.
84
238939
4023
Je kan stellen dat informatie vloeibaar is.
04:14
The disc that was discovered off of Crete
85
242962
3474
De schijf die 4.000 jaar geleden
op Kreta werd ontdekt, is zwaar.
op Kreta werd ontdekt, is zwaar.
04:18
that's 4,000 years old, is heavy,
86
246436
3764
04:22
it doesn't store a lot of information,
87
250200
1962
Er staat weinig informatie op,
04:24
and that information is unchangeable.
88
252162
3116
en die informatie is niet te wijzigen.
04:27
By contrast, all of the files
89
255278
4011
Aan de andere kant pasten alle bestanden
04:31
that Edward Snowden took
90
259289
1861
die Edward Snowden pikte
04:33
from the National Security
Agency in the United States
Agency in the United States
91
261150
2621
van de NSA in de VS
04:35
fits on a memory stick
92
263771
2419
op een geheugenstick
04:38
the size of a fingernail,
93
266190
3010
met de grootte van een vingernagel.
04:41
and it can be shared at the speed of light.
94
269200
4745
De informatie kan worden gedeeld
met lichtsnelheid.
met lichtsnelheid.
04:45
More data. More.
95
273945
5255
Meer data. Meer.
04:51
Now, one reason why we have
so much data in the world today
so much data in the world today
96
279200
1974
We hebben nu veel meer data,
04:53
is we are collecting things
97
281174
1432
omdat we dingen verzamelen waarover we
van oudsher informatie verzamelen.
van oudsher informatie verzamelen.
04:54
that we've always collected information on,
98
282606
3280
04:57
but another reason why is we're taking things
99
285886
2656
Maar ook omdat we dingen verzamelen
05:00
that have always been informational
100
288542
2812
die altijd al informatie boden,
05:03
but have never been rendered into a data format
101
291354
2486
maar die nooit in dataformaat
werden opgeslagen.
werden opgeslagen.
05:05
and we are putting it into data.
102
293840
2419
We maken er nu gegevens van.
05:08
Think, for example, the question of location.
103
296259
3308
Denk eens aan de locatie.
05:11
Take, for example, Martin Luther.
104
299567
2249
Neem bijvoorbeeld Martin Luther.
05:13
If we wanted to know in the 1500s
105
301816
1597
Als we in de 16e eeuw wilden weten
05:15
where Martin Luther was,
106
303413
2667
waar Martin Luther zich bevond,
05:18
we would have to follow him at all times,
107
306080
2092
zouden we hem steeds moeten volgen,
05:20
maybe with a feathery quill and an inkwell,
108
308172
2137
misschien met inkt en een veer,
05:22
and record it,
109
310309
1676
en we zouden dat vastleggen.
05:23
but now think about what it looks like today.
110
311985
2183
Maar bedenk eens hoe dat er nu uitziet.
05:26
You know that somewhere,
111
314168
2122
Je weet dat er ergens,
05:28
probably in a telecommunications carrier's database,
112
316290
2446
in een database van een telefoonbedrijf
05:30
there is a spreadsheet or at least a database entry
113
318736
3036
een bestand is, of iets in dat bestand,
dat informatie over jou bevat.
dat informatie over jou bevat.
05:33
that records your information
114
321772
2088
05:35
of where you've been at all times.
115
323860
2063
Over waar je ooit hebt uitgehangen.
05:37
If you have a cell phone,
116
325923
1360
Als je een mobieltje hebt met gps,
05:39
and that cell phone has GPS,
but even if it doesn't have GPS,
but even if it doesn't have GPS,
117
327283
2847
maar zelfs zonder,
05:42
it can record your information.
118
330130
2385
dan bewaart het die informatie.
05:44
In this respect, location has been datafied.
119
332515
4084
Hierbij wordt locatie in gegevens omgezet.
05:48
Now think, for example, of the issue of posture,
120
336599
4601
Denk bijvoorbeeld eens aan je houding.
05:53
the way that you are all sitting right now,
121
341200
1285
Hoe je op dit moment zit.
05:54
the way that you sit,
122
342485
2030
Hoe jij zit,
05:56
the way that you sit, the way that you sit.
123
344515
2771
hoe jij zit, hoe jij zit.
05:59
It's all different, and it's a function of your leg length
124
347286
2077
Dat is verschillend
en hangt af van je beenlengte
06:01
and your back and the contours of your back,
125
349363
2093
en je rug en de kromming ervan.
06:03
and if I were to put sensors,
maybe 100 sensors
maybe 100 sensors
126
351456
2531
Als ik 100 sensoren zou plaatsen
06:05
into all of your chairs right now,
127
353987
1766
in jullie stoelen,
06:07
I could create an index that's fairly unique to you,
128
355753
3600
zou ik een serie getallen krijgen
die uniek voor jou is.
die uniek voor jou is.
06:11
sort of like a fingerprint, but it's not your finger.
129
359353
4409
Een soort vingerafdruk
maar niet van je vinger.
maar niet van je vinger.
06:15
So what could we do with this?
130
363762
2969
Wat zouden we er dan mee kunnen doen?
06:18
Researchers in Tokyo are using it
131
366731
2397
Onderzoekers in Tokyo gebruiken dit
06:21
as a potential anti-theft device in cars.
132
369128
4388
als mogelijk anti-autodiefstal-apparaat.
06:25
The idea is that the carjacker sits behind the wheel,
133
373516
2924
Het idee is dat de autodief
achter het stuur zit
achter het stuur zit
06:28
tries to stream off, but the car recognizes
134
376440
2104
en ervandoor gaat, maar de auto ontdekt
06:30
that a non-approved driver is behind the wheel,
135
378544
2362
dat iemand stuurt die daar niet hoort.
06:32
and maybe the engine just stops, unless you
136
380906
2164
De motor stopt dan,
tenzij je een wachtwoord intypt
op het dashboard
op het dashboard
06:35
type in a password into the dashboard
137
383070
3177
06:38
to say, "Hey, I have authorization to drive." Great.
138
386247
4658
waarmee je zegt: "Ik heb toestemming."
Geweldig.
06:42
What if every single car in Europe
139
390905
2553
Als alle auto's in Europa
deze technologie nou eens hadden?
06:45
had this technology in it?
140
393458
1457
06:46
What could we do then?
141
394915
3165
Wat zouden we nog meer kunnen doen?
06:50
Maybe, if we aggregated the data,
142
398080
2240
Als we deze informatie zouden verzamelen
06:52
maybe we could identify telltale signs
143
400320
3814
konden we aanwijzingen signaleren
06:56
that best predict that a car accident
144
404134
2709
die voorspellen dat over 5 seconden
een auto-ongeluk gaat gebeuren.
een auto-ongeluk gaat gebeuren.
06:58
is going to take place in the next five seconds.
145
406843
5893
07:04
And then what we will have datafied
146
412736
2557
Wat we daarvoor zullen gaan vastleggen,
07:07
is driver fatigue,
147
415293
1783
is vermoeidheid tijdens het rijden.
07:09
and the service would be when the car senses
148
417076
2334
De applicatie in de auto merkt het
07:11
that the person slumps into that position,
149
419410
3437
als de persoon wegzakt
07:14
automatically knows, hey, set an internal alarm
150
422847
3994
en weet dan automatisch
dat er een wekker moet afgaan
dat er een wekker moet afgaan
07:18
that would vibrate the steering wheel, honk inside
151
426841
2025
die het stuurwiel laat trillen, toetert,
07:20
to say, "Hey, wake up,
152
428866
1721
en zegt: "Wakker worden,
07:22
pay more attention to the road."
153
430587
1904
beter opletten op de weg."
07:24
These are the sorts of things we can do
154
432491
1853
Dit soort dingen kunnen we doen
07:26
when we datafy more aspects of our lives.
155
434344
2821
als we nog meer van ons leven
vastleggen in gegevens.
vastleggen in gegevens.
07:29
So what is the value of big data?
156
437165
3675
Wat is de waarde van big data?
07:32
Well, think about it.
157
440840
2190
Denk eens na.
07:35
You have more information.
158
443030
2412
Je hebt meer informatie.
07:37
You can do things that you couldn't do before.
159
445442
3341
Je kan dingen doen
die je eerst niet kon doen.
die je eerst niet kon doen.
07:40
One of the most impressive areas
160
448783
1676
Een van de indrukwekkendste plekken
07:42
where this concept is taking place
161
450459
1729
waar dit idee wordt uitgevoerd
07:44
is in the area of machine learning.
162
452188
3307
is die van machine-leren.
07:47
Machine learning is a branch of artificial intelligence,
163
455495
3077
Machine-leren is een tak
van kunstmatige intelligentie
van kunstmatige intelligentie
07:50
which itself is a branch of computer science.
164
458572
3378
die zelf weer onderdeel is
van computerwetenschap.
van computerwetenschap.
07:53
The general idea is that instead of
165
461950
1543
Het idee is dat we de computer
niet vertellen wat hij moet doen
niet vertellen wat hij moet doen
07:55
instructing a computer what do do,
166
463493
2117
07:57
we are going to simply throw data at the problem
167
465610
2620
maar dat we er gewoon gegevens in gooien
08:00
and tell the computer to figure it out for itself.
168
468230
3206
en de computer opdragen
het probleem zelf op te lossen.
het probleem zelf op te lossen.
08:03
And it will help you understand it
169
471436
1777
Je begrijpt het beter als je ziet
waar het vandaan komt.
waar het vandaan komt.
08:05
by seeing its origins.
170
473213
3552
08:08
In the 1950s, a computer scientist
171
476765
2388
In de vijftiger jaren
vond computerwetenschapper Arthur Samuel
van IBM, het leuk om te dammen.
van IBM, het leuk om te dammen.
08:11
at IBM named Arthur Samuel liked to play checkers,
172
479153
3592
08:14
so he wrote a computer program
173
482745
1402
Hij schreef een programma
08:16
so he could play against the computer.
174
484147
2813
zodat hij tegen de computer kon spelen.
08:18
He played. He won.
175
486960
2711
Hij speelde en won.
08:21
He played. He won.
176
489671
2103
Hij speelde en won.
08:23
He played. He won,
177
491774
3015
Hij speelde en won,
08:26
because the computer only knew
178
494789
1778
omdat de computer alleen wist
08:28
what a legal move was.
179
496567
2227
wat een geldige zet was.
08:30
Arthur Samuel knew something else.
180
498794
2087
Arthur Samuel wist nog meer.
08:32
Arthur Samuel knew strategy.
181
500881
4629
Arthur Samuel kende strategie.
08:37
So he wrote a small sub-program alongside it
182
505510
2396
Hij schreef er een programmaatje bij
08:39
operating in the background, and all it did
183
507906
1974
dat op de achtergrond werkte
08:41
was score the probability
184
509880
1817
en bijhield hoe groot de kans was
08:43
that a given board configuration would likely lead
185
511697
2563
dat een bepaalde spelsituatie leidde
08:46
to a winning board versus a losing board
186
514260
2910
naar winst of verlies
08:49
after every move.
187
517170
2508
na elke zet.
08:51
He plays the computer. He wins.
188
519678
3150
Hij speelt tegen de computer. Hij wint.
08:54
He plays the computer. He wins.
189
522828
2508
Hij speelt tegen de computer. Hij wint.
08:57
He plays the computer. He wins.
190
525336
3731
Hij speelt tegen de computer. Hij wint.
09:01
And then Arthur Samuel leaves the computer
191
529067
2277
En dan laat hij het de computer
tegen zichzelf spelen.
tegen zichzelf spelen.
09:03
to play itself.
192
531344
2227
09:05
It plays itself. It collects more data.
193
533571
3509
Hij speelt tegen zichzelf
en verzamelt meer gegevens.
en verzamelt meer gegevens.
09:09
It collects more data. It increases
the accuracy of its prediction.
the accuracy of its prediction.
194
537080
4309
Hij verzamelt meer gegevens
en wordt preciezer in zijn voorspelling.
en wordt preciezer in zijn voorspelling.
09:13
And then Arthur Samuel goes back to the computer
195
541389
2104
Dan gaat Samuel terug naar de computer,
09:15
and he plays it, and he loses,
196
543493
2318
speelt tegen hem en verliest.
09:17
and he plays it, and he loses,
197
545811
2069
En speelt nogmaals en verliest.
09:19
and he plays it, and he loses,
198
547880
2047
En speelt weer en verliest.
09:21
and Arthur Samuel has created a machine
199
549927
2599
Arthur Samuel heeft een machine gemaakt
09:24
that surpasses his ability in a task that he taught it.
200
552526
6288
die beter is dan Arthur, in een taak
die Arthur hem aangeleerd heeft.
die Arthur hem aangeleerd heeft.
09:30
And this idea of machine learning
201
558814
2498
Dit idee van machine-leren
09:33
is going everywhere.
202
561312
3927
heeft allerlei gevolgen.
09:37
How do you think we have self-driving cars?
203
565239
3149
Hoe denk je dat we
zelfrijdende auto's krijgen?
zelfrijdende auto's krijgen?
09:40
Are we any better off as a society
204
568388
2137
Zijn we beter af als maatschappij
09:42
enshrining all the rules of the road into software?
205
570525
3285
door alle regels van de weg
in software te stoppen?
in software te stoppen?
09:45
No. Memory is cheaper. No.
206
573810
2598
Nee. Geheugen is goedkoper. Nee.
09:48
Algorithms are faster. No. Processors are better. No.
207
576408
3994
Algoritmes zijn sneller. Nee.
Processors zijn beter. Nee.
Processors zijn beter. Nee.
09:52
All of those things matter, but that's not why.
208
580402
2772
Die dingen doen ertoe,
maar dat is niet de reden.
maar dat is niet de reden.
09:55
It's because we changed the nature of the problem.
209
583174
3141
Het komt omdat we de aard
van het probleem veranderd hebben.
van het probleem veranderd hebben.
09:58
We changed the nature of the problem from one
210
586315
1530
Vroeger probeerden we
09:59
in which we tried to overtly and explicitly
211
587845
2245
aan de computer uit te leggen
10:02
explain to the computer how to drive
212
590090
2581
hoe hij moet rijden.
10:04
to one in which we say,
213
592671
1316
Nu zeggen we:
10:05
"Here's a lot of data around the vehicle.
214
593987
1876
"Hier zijn veel gegevens over dit voertuig.
Zoek het maar uit.
Zoek het maar uit.
10:07
You figure it out.
215
595863
1533
10:09
You figure it out that that is a traffic light,
216
597396
1867
Vind maar uit
dat het een verkeerslicht is,
dat het een verkeerslicht is,
10:11
that that traffic light is red and not green,
217
599263
2081
dat het rood is en niet groen,
10:13
that that means that you need to stop
218
601344
2014
dat je dan moet stoppen
10:15
and not go forward."
219
603358
3083
en niet meer vooruit moet gaan."
10:18
Machine learning is at the basis
220
606441
1518
Machine-leren is de basis
10:19
of many of the things that we do online:
221
607959
1991
van veel dingen die we online doen:
10:21
search engines,
222
609950
1857
zoekmachines,
10:23
Amazon's personalization algorithm,
223
611807
3801
het personaliseer-algoritme van Amazon,
10:27
computer translation,
224
615608
2212
computervertalingen,
10:29
voice recognition systems.
225
617820
4290
systemen voor stemherkenning.
10:34
Researchers recently have looked at
226
622110
2835
Onderzoekers hebben onlangs gekeken
10:36
the question of biopsies,
227
624945
3195
naar de kwestie van biopsies,
10:40
cancerous biopsies,
228
628140
2767
kankerbiopsies.
10:42
and they've asked the computer to identify
229
630907
2315
Ze vroegen de computer te kijken
10:45
by looking at the data and survival rates
230
633222
2471
naar de gegevens
en overlevingsstatistieken
en overlevingsstatistieken
10:47
to determine whether cells are actually
231
635693
4667
om te bepalen of het kankercellen zijn
10:52
cancerous or not,
232
640360
2544
of niet.
10:54
and sure enough, when you throw the data at it,
233
642904
1778
Als je de gegevens erin gooit
10:56
through a machine-learning algorithm,
234
644682
2047
en een machine-leer-algoritme gebruikt,
10:58
the machine was able to identify
235
646729
1877
bleek dat de machine
12 verklikkers kon bepalen
12 verklikkers kon bepalen
11:00
the 12 telltale signs that best predict
236
648606
2262
die het beste voorspellen
11:02
that this biopsy of the breast cancer cells
237
650868
3299
of een biopsie van kankercellen
11:06
are indeed cancerous.
238
654167
3218
inderdaad kanker is.
11:09
The problem: The medical literature
239
657385
2498
Het probleem: de medische literatuur
11:11
only knew nine of them.
240
659883
2789
kende er maar negen.
11:14
Three of the traits were ones
241
662672
1800
Naar drie kenmerken
11:16
that people didn't need to look for,
242
664472
2975
hoefde de mens niet te kijken,
11:19
but that the machine spotted.
243
667447
5531
maar de machine zag ze wel.
11:24
Now, there are dark sides to big data as well.
244
672978
5925
Er zit ook een zwarte kant aan big data.
Het verbetert ons leven,
maar er zijn problemen
maar er zijn problemen
11:30
It will improve our lives, but there are problems
245
678903
2074
11:32
that we need to be conscious of,
246
680977
2640
waar we ons van bewust moeten zijn.
11:35
and the first one is the idea
247
683617
2623
De eerste is het idee
11:38
that we may be punished for predictions,
248
686240
2686
dat we gestraft kunnen worden
voor onze voorspellingen
voor onze voorspellingen
11:40
that the police may use big data for their purposes,
249
688926
3870
en dat de politie ook big data gebruikt.
11:44
a little bit like "Minority Report."
250
692796
2351
Een beetje als in de film 'Minory Report'.
11:47
Now, it's a term called predictive policing,
251
695147
2441
Het heet 'predictive policing'
(voorspellend politiewerk),
(voorspellend politiewerk),
11:49
or algorithmic criminology,
252
697588
2363
of algoritme-criminologie.
11:51
and the idea is that if we take a lot of data,
253
699951
2036
We nemen daarbij een hoop gegevens
11:53
for example where past crimes have been,
254
701987
2159
bijvoorbeeld waar criminaliteit voorkwam,
11:56
we know where to send the patrols.
255
704146
2543
om te weten we waar agenten
hun ronde moeten doen.
hun ronde moeten doen.
11:58
That makes sense, but the problem, of course,
256
706689
2115
Dat lijkt slim maar het probleem
12:00
is that it's not simply going to stop on location data,
257
708804
4544
is dat het niet zal blijven
bij gegevens over de locatie,
bij gegevens over de locatie,
12:05
it's going to go down to the level of the individual.
258
713348
2959
maar dat tot op
het individuele niveau zal gaan.
het individuele niveau zal gaan.
12:08
Why don't we use data about the person's
259
716307
2250
Waarom gebruiken we geen gegevens
over iemands middelbareschoolverleden?
12:10
high school transcript?
260
718557
2228
12:12
Maybe we should use the fact that
261
720785
1561
Of ze werkloos zijn of niet,
12:14
they're unemployed or not, their credit score,
262
722346
2028
hun kredietwaardigheid,
12:16
their web-surfing behavior,
263
724374
1552
hun websurfgedrag,
12:17
whether they're up late at night.
264
725926
1878
of ze laat naar bed gaan.
12:19
Their Fitbit, when it's able
to identify biochemistries,
to identify biochemistries,
265
727804
3161
Als hun gps-horloge
biologische dingen kan meten,
biologische dingen kan meten,
12:22
will show that they have aggressive thoughts.
266
730965
4236
zal het merken
of hij agressieve gedachten heeft.
of hij agressieve gedachten heeft.
12:27
We may have algorithms that are likely to predict
267
735201
2221
We zullen algoritmes krijgen
die voorspellen
die voorspellen
12:29
what we are about to do,
268
737422
1633
wat we van plan zijn te doen
12:31
and we may be held accountable
269
739055
1244
en zouden kunnen worden aangesproken
voordat we gehandeld hebben.
voordat we gehandeld hebben.
12:32
before we've actually acted.
270
740299
2590
12:34
Privacy was the central challenge
271
742889
1732
Privacy was de grote uitdaging
12:36
in a small data era.
272
744621
2880
bij weinig gegevens.
12:39
In the big data age,
273
747501
2149
In het big data-tijdperk
12:41
the challenge will be safeguarding free will,
274
749650
4523
wordt de uitdaging het waarborgen
van de vrije wil,
van de vrije wil,
12:46
moral choice, human volition,
275
754173
3779
morele keuzevrijheid, menselijke wil,
12:49
human agency.
276
757952
3068
menselijk handelen.
12:54
There is another problem:
277
762540
2225
Er is nog een probleem.
12:56
Big data is going to steal our jobs.
278
764765
3556
Big data zal banen gaan kosten.
13:00
Big data and algorithms are going to challenge
279
768321
3512
Big data en algoritmes zullen het opnemen
13:03
white collar, professional knowledge work
280
771833
3061
tegen de kantoormensen, kenniswerk,
13:06
in the 21st century
281
774894
1653
in de 21ste eeuw.
13:08
in the same way that factory automation
282
776547
2434
Net zoals fabrieksautomatisering
13:10
and the assembly line
283
778981
2189
en lopende banden
13:13
challenged blue collar labor in the 20th century.
284
781170
3026
het opnamen tegen de fabrieksaarbeiders
in de 20ste eeuw.
in de 20ste eeuw.
13:16
Think about a lab technician
285
784196
2092
Denk eens aan een laborant
13:18
who is looking through a microscope
286
786288
1409
die in een microscoop kijkt
13:19
at a cancer biopsy
287
787697
1624
naar een kankerbiopsie
13:21
and determining whether it's cancerous or not.
288
789321
2637
om te kijken of het kanker is of niet.
13:23
The person went to university.
289
791958
1972
Deze persoon is afgestudeerd,
13:25
The person buys property.
290
793930
1430
koopt een huis,
13:27
He or she votes.
291
795360
1741
hij of zij gaat naar de stembus,
13:29
He or she is a stakeholder in society.
292
797101
3666
en neemt deel aan de maatschappij.
13:32
And that person's job,
293
800767
1394
Die persoon en nog een hele rij
soortgelijke professionals
soortgelijke professionals
13:34
as well as an entire fleet
294
802161
1609
13:35
of professionals like that person,
295
803770
1969
13:37
is going to find that their jobs are radically changed
296
805739
3150
zullen merken dat hun baan
heel erg verandert
heel erg verandert
13:40
or actually completely eliminated.
297
808889
2357
of helemaal verdwijnt.
13:43
Now, we like to think
298
811246
1284
We willen graag geloven
13:44
that technology creates jobs over a period of time
299
812530
3187
dat techniek mettertijd
voor banen zorgt,
voor banen zorgt,
13:47
after a short, temporary period of dislocation,
300
815717
3465
na een periode van ontwrichting.
13:51
and that is true for the frame of reference
301
819182
1941
Dat klopt voor het referentiekader
13:53
with which we all live, the Industrial Revolution,
302
821123
2142
waarin we leven, de industriële revolutie.
13:55
because that's precisely what happened.
303
823265
2328
Want dat is precies wat er is gebeurd.
13:57
But we forget something in that analysis:
304
825593
2333
Maar we hebben iets vergeten
in die analyse.
in die analyse.
13:59
There are some categories of jobs
305
827926
1830
Er zijn een paar soorten banen
14:01
that simply get eliminated and never come back.
306
829756
3420
die gewoon verdwijnen
en nooit meer terugkomen.
en nooit meer terugkomen.
14:05
The Industrial Revolution wasn't very good
307
833176
2004
De industriële revolutie was niet best
14:07
if you were a horse.
308
835180
4002
als je een paard was.
14:11
So we're going to need to be careful
309
839182
2055
We moeten dus erg zorgvuldig zijn,
14:13
and take big data and adjust it for our needs,
310
841237
3514
en big data aanpassen aan onze behoeftes,
14:16
our very human needs.
311
844751
3185
onze zeer menselijke behoeftes.
14:19
We have to be the master of this technology,
312
847936
1954
We moeten de technologie de baas zijn.
14:21
not its servant.
313
849890
1656
niet omgekeerd.
14:23
We are just at the outset of the big data era,
314
851546
2958
We staan aan het begin
van het big data-tijdperk,
van het big data-tijdperk,
14:26
and honestly, we are not very good
315
854504
3150
en eerlijk gezegd
zijn we nog niet zo goed
zijn we nog niet zo goed
14:29
at handling all the data that we can now collect.
316
857654
4207
in het omgaan met de big data
die we verzamelen.
die we verzamelen.
14:33
It's not just a problem for
the National Security Agency.
the National Security Agency.
317
861861
3330
Het is niet alleen een probleem
voor de NSA.
voor de NSA.
14:37
Businesses collect lots of
data, and they misuse it too,
data, and they misuse it too,
318
865191
3038
Bedrijven verzamelen veel data
en misbruiken die ook.
en misbruiken die ook.
14:40
and we need to get better at
this, and this will take time.
this, and this will take time.
319
868229
3667
We moeten er beter in worden
en dat kost tijd.
en dat kost tijd.
14:43
It's a little bit like the challenge that was faced
320
871896
1822
Het lijkt op de uitdaging
14:45
by primitive man and fire.
321
873718
2407
die de mens ooit had met vuur.
14:48
This is a tool, but this is a tool that,
322
876125
1885
Het is een gereedschap,
14:50
unless we're careful, will burn us.
323
878010
3559
maar als je niet uitkijkt, verbrand je.
14:56
Big data is going to transform how we live,
324
884008
3120
Big data gaat ons leven veranderen.
14:59
how we work and how we think.
325
887128
2801
Hoe we leven, hoe we werken
en hoe we denken.
en hoe we denken.
15:01
It is going to help us manage our careers
326
889929
1889
Het gaat ons helpen bij onze carrière
15:03
and lead lives of satisfaction and hope
327
891818
3634
en ons een tevreden
en hoopvol leven laten leiden
en hoopvol leven laten leiden
15:07
and happiness and health,
328
895452
2992
in blijdschap en gezondheid.
15:10
but in the past, we've often
looked at information technology
looked at information technology
329
898444
3306
Maar vroeger keken we vaak
naar informatietechnologie
naar informatietechnologie
15:13
and our eyes have only seen the T,
330
901750
2208
en zagen we alleen de T,
15:15
the technology, the hardware,
331
903958
1686
Technologie, de spullen,
15:17
because that's what was physical.
332
905644
2262
omdat dat fysiek was.
15:19
We now need to recast our gaze at the I,
333
907906
2924
Maar nu moeten we onze blik aanpassen
om de I te zien,
om de I te zien,
15:22
the information,
334
910830
1380
de Informatie,
15:24
which is less apparent,
335
912210
1373
die minder zichtbaar is
15:25
but in some ways a lot more important.
336
913583
4109
maar in zekere zin belangrijker.
15:29
Humanity can finally learn from the information
337
917692
3465
De mensheid kan eindelijk leren
van informatie
van informatie
15:33
that it can collect,
338
921157
2418
die ze verzamelt
15:35
as part of our timeless quest
339
923575
2115
als onderdeel van onze eeuwige zoektocht
15:37
to understand the world and our place in it,
340
925690
3159
om de wereld en onze plek erin
beter te begrijpen.
beter te begrijpen.
15:40
and that's why big data is a big deal.
341
928849
5631
Daarom is big data van groot belang.
15:46
(Applause)
342
934480
3568
(Applaus)
ABOUT THE SPEAKER
Kenneth Cukier - Data Editor of The EconomistKenneth Cukier is the Data Editor of The Economist. From 2007 to 2012 he was the Tokyo correspondent, and before that, the paper’s technology correspondent in London, where his work focused on innovation, intellectual property and Internet governance. Kenneth is also the co-author of Big Data: A Revolution That Will Transform How We Live, Work, and Think with Viktor Mayer-Schönberger in 2013, which was a New York Times Bestseller and translated into 16 languages.
Why you should listen
As Data Editor of The Economist and co-author of Big Data: A Revolution That Will Transform How We Live, Work, and Think, Kenneth Cukier has spent years immersed in big data, machine learning -- and the impact of both. What's the future of big data-driven technology and design? To find out, watch this talk.
Kenneth Cukier | Speaker | TED.com