TEDSalon Berlin 2014
Kenneth Cukier: Big data is better data
Kenneth Cukier: Viele Daten heißt bessere Daten
Filmed:
Readability: 4.1
1,663,038 views
Selbstfahrende Autos waren nur der Anfang. Was ist die Zukunft der von "Big Data" gesteuerten Technologie und ihrem Design? In einem spannenden wissenschaftlichen Vortrag erläutert Kenneth Cukier, wohin Maschinelles Lernen – und menschliches Wissen führen wird.
Kenneth Cukier - Data Editor of The Economist
Kenneth Cukier is the Data Editor of The Economist. From 2007 to 2012 he was the Tokyo correspondent, and before that, the paper’s technology correspondent in London, where his work focused on innovation, intellectual property and Internet governance. Kenneth is also the co-author of Big Data: A Revolution That Will Transform How We Live, Work, and Think with Viktor Mayer-Schönberger in 2013, which was a New York Times Bestseller and translated into 16 languages. Full bio
Kenneth Cukier is the Data Editor of The Economist. From 2007 to 2012 he was the Tokyo correspondent, and before that, the paper’s technology correspondent in London, where his work focused on innovation, intellectual property and Internet governance. Kenneth is also the co-author of Big Data: A Revolution That Will Transform How We Live, Work, and Think with Viktor Mayer-Schönberger in 2013, which was a New York Times Bestseller and translated into 16 languages. Full bio
Double-click the English transcript below to play the video.
00:12
America's favorite pie is?
0
787
3845
Amerikas Lieblingskuchen ist?
00:16
Audience: Apple.
Kenneth Cukier: Apple. Of course it is.
Kenneth Cukier: Apple. Of course it is.
1
4632
3506
Publikum: Apfelkuchen.
K. Cukier: Es ist natürlich Apfelkuchen.
K. Cukier: Es ist natürlich Apfelkuchen.
00:20
How do we know it?
2
8138
1231
Woher wissen wir das?
00:21
Because of data.
3
9369
2753
Aufgrund von Daten.
00:24
You look at supermarket sales.
4
12122
2066
Man schaut sich Umsätze
von Supermärkten an,
von Supermärkten an,
00:26
You look at supermarket
sales of 30-centimeter pies
sales of 30-centimeter pies
5
14188
2866
nimmt die Verkaufszahlen
von tiefgekühlten Kuchen
von tiefgekühlten Kuchen
00:29
that are frozen, and apple wins, no contest.
6
17054
4075
mit 30 cm Durchmesser,
und Apfelkuchen sind einsame Spitze.
und Apfelkuchen sind einsame Spitze.
00:33
The majority of the sales are apple.
7
21129
5180
Die Mehrzahl der Verkäufe
sind Apfelkuchen.
sind Apfelkuchen.
00:38
But then supermarkets started selling
8
26309
2964
Doch dann begannen Supermärkte
00:41
smaller, 11-centimeter pies,
9
29273
2583
kleinere, 11-cm-Kuchen zu verkaufen,
00:43
and suddenly, apple fell to fourth or fifth place.
10
31856
4174
und plötzlich fiel Apfelkuchen
auf den 4. oder 5. Platz.
auf den 4. oder 5. Platz.
00:48
Why? What happened?
11
36030
2875
Warum? Was ist passiert?
00:50
Okay, think about it.
12
38905
2818
Okay, denken Sie darüber nach.
00:53
When you buy a 30-centimeter pie,
13
41723
3848
Wenn man einen 30-Zentimer-Kuchen kauft,
00:57
the whole family has to agree,
14
45571
2261
muss die ganze Familie einverstanden sein
00:59
and apple is everyone's second favorite.
15
47832
3791
und Apfelkuchen hat jeder
am zweitliebsten.
am zweitliebsten.
01:03
(Laughter)
16
51623
1935
(Gelächter)
01:05
But when you buy an individual 11-centimeter pie,
17
53558
3615
Aber wenn man einen individuellen
11-Zentimter-Kuchen kauft,
11-Zentimter-Kuchen kauft,
01:09
you can buy the one that you want.
18
57173
3745
kann man den nehmen, den man will.
01:12
You can get your first choice.
19
60918
4015
Man kann seine erste Wahl bekommen.
01:16
You have more data.
20
64933
1641
Man hat mehr Daten.
01:18
You can see something
21
66574
1554
Man sieht etwas,
01:20
that you couldn't see
22
68128
1132
das man nicht sehen konnte,
01:21
when you only had smaller amounts of it.
23
69260
3953
als man nur kleinere Mengen davon hatte.
01:25
Now, the point here is that more data
24
73213
2475
Der Punkt ist, dass mehr Daten
01:27
doesn't just let us see more,
25
75688
2283
uns nicht nur helfen
01:29
more of the same thing we were looking at.
26
77971
1854
mehr von den gleichen Dingen zu sehen.
01:31
More data allows us to see new.
27
79825
3613
Mehr Daten erlauben uns Neues zu sehen.
01:35
It allows us to see better.
28
83438
3094
Es hilft uns besser zu sehen.
01:38
It allows us to see different.
29
86532
3656
Es hilft uns anders zu sehen.
01:42
In this case, it allows us to see
30
90188
3173
In diesem Fall erlaubt es uns zu sehen,
01:45
what America's favorite pie is:
31
93361
2913
was Amerikas Lieblingskuchen ist:
01:48
not apple.
32
96274
2542
nicht Apfelkuchen.
01:50
Now, you probably all have heard the term big data.
33
98816
3614
Sie haben wahrscheinlich alle schon
den Begriff "Big Data" gehört.
den Begriff "Big Data" gehört.
01:54
In fact, you're probably sick of hearing the term
34
102430
2057
Wahrscheinlich sind Sie es leid
01:56
big data.
35
104487
1630
den Begriff "Big Data" zu hören.
01:58
It is true that there is a lot of hype around the term,
36
106117
3330
Es ist wahr, dass es viel Wirbel
um den Begriff gibt,
um den Begriff gibt,
02:01
and that is very unfortunate,
37
109447
2332
was sehr schade ist,
02:03
because big data is an extremely important tool
38
111779
3046
weil Big Data
ein extrem wichtiges Werkzeug ist,
ein extrem wichtiges Werkzeug ist,
02:06
by which society is going to advance.
39
114825
3734
durch das die Gesellschaft
vorankommen wird.
vorankommen wird.
02:10
In the past, we used to look at small data
40
118559
3561
In der Vergangenheit schauten wir
auf "Small Data" [wenige Daten],
auf "Small Data" [wenige Daten],
dachten über ihre Bedeutung nach
02:14
and think about what it would mean
41
122120
1704
und versuchten die Welt zu verstehen.
02:15
to try to understand the world,
42
123824
1496
02:17
and now we have a lot more of it,
43
125320
1991
Jetzt haben wir viel mehr davon,
02:19
more than we ever could before.
44
127311
2722
mehr als jemals zuvor.
02:22
What we find is that when we have
45
130033
1877
Wir stellen fest, dass wir
mit einer großen Datenmenge
mit einer großen Datenmenge
02:23
a large body of data, we can fundamentally do things
46
131910
2724
grundsätzlich Dinge tun können,
02:26
that we couldn't do when we
only had smaller amounts.
only had smaller amounts.
47
134634
3276
die wir zuvor nicht tun konnten,
als wir nur kleinere Mengen hatten.
als wir nur kleinere Mengen hatten.
02:29
Big data is important, and big data is new,
48
137910
2641
Big Data ist wichtig
und Big Data ist neu
und Big Data ist neu
02:32
and when you think about it,
49
140551
1777
und wenn man darüber nachdenkt,
02:34
the only way this planet is going to deal
50
142328
2216
ist der einzige Weg für diesen Planeten,
globale Herausforderungen zu bewältigen --
02:36
with its global challenges —
51
144544
1789
02:38
to feed people, supply them with medical care,
52
146333
3537
Menschen zu ernähren,
medizinische Versorgung,
medizinische Versorgung,
02:41
supply them with energy, electricity,
53
149870
2810
Energie und Elektrizität zu liefern
02:44
and to make sure they're not burnt to a crisp
54
152680
1789
und sicher zu stellen,
dass sie nicht durch die
globale Erwärmung verbrennen --
globale Erwärmung verbrennen --
02:46
because of global warming —
55
154469
1238
02:47
is because of the effective use of data.
56
155707
4195
die effektive Nutzung von Daten.
02:51
So what is new about big
data? What is the big deal?
data? What is the big deal?
57
159902
3870
Was gibt es Neues über Big Data?
Was ist das Besondere daran?
Was ist das Besondere daran?
Um diese Frage zu beantworten,
denken Sie darüber nach,
denken Sie darüber nach,
02:55
Well, to answer that question, let's think about
58
163772
2517
02:58
what information looked like,
59
166289
1896
wie Informationen aussahen,
03:00
physically looked like in the past.
60
168185
3034
wie sie in der Vergangenheit
physisch aussahen.
physisch aussahen.
03:03
In 1908, on the island of Crete,
61
171219
3611
1908 entdeckten Archäologen
03:06
archaeologists discovered a clay disc.
62
174830
4735
auf der Insel Kreta eine Tonscheibe.
03:11
They dated it from 2000 B.C., so it's 4,000 years old.
63
179565
4059
Sie datierten sie auf 2 000 v. Chr.,
sie ist also 4 000 Jahre alt.
sie ist also 4 000 Jahre alt.
03:15
Now, there's inscriptions on this disc,
64
183624
2004
Es gibt Schriftzeichen darauf,
aber wir verstehen sie nicht.
03:17
but we actually don't know what it means.
65
185628
1327
03:18
It's a complete mystery, but the point is that
66
186955
2098
Es ist ein absolutes Rätsel,
aber der Punkt ist,
aber der Punkt ist,
03:21
this is what information used to look like
67
189053
1928
dass Informationen
03:22
4,000 years ago.
68
190981
2089
vor 4 000 Jahren so aussahen.
03:25
This is how society stored
69
193070
2548
So bewahrte die Gesellschaft
03:27
and transmitted information.
70
195618
3524
Informationen und überlieferte sie.
03:31
Now, society hasn't advanced all that much.
71
199142
4160
Die Gesellschaft hat sich seitdem
nicht viel verändert.
nicht viel verändert.
03:35
We still store information on discs,
72
203302
3474
Wir speichern immer noch
Informationen auf Scheiben,
Informationen auf Scheiben,
03:38
but now we can store a lot more information,
73
206776
3184
aber jetzt können wir
viel mehr Informationen speichern,
viel mehr Informationen speichern,
mehr als jemals zuvor.
03:41
more than ever before.
74
209960
1260
03:43
Searching it is easier. Copying it easier.
75
211220
3093
Suchen ist einfacher.
Kopieren ist einfacher.
Kopieren ist einfacher.
03:46
Sharing it is easier. Processing it is easier.
76
214313
3500
Teilen ist einfacher.
Weiterverarbeitung ist einfacher.
Weiterverarbeitung ist einfacher.
03:49
And what we can do is we can reuse this information
77
217813
2766
Wir können die Informationen
für Zwecke wiederverwenden,
für Zwecke wiederverwenden,
03:52
for uses that we never even imagined
78
220579
1834
die für uns unvorstellbar waren,
03:54
when we first collected the data.
79
222413
3195
als wir die Daten das erste Mal sammelten.
03:57
In this respect, the data has gone
80
225608
2252
So gesehen haben sich
die Daten verändert,
die Daten verändert,
03:59
from a stock to a flow,
81
227860
3532
von einem Lager zu einem Fluss,
04:03
from something that is stationary and static
82
231392
3938
von etwas Stationärem und Statischen
04:07
to something that is fluid and dynamic.
83
235330
3609
zu etwas Fließendem und Dynamischem.
04:10
There is, if you will, a liquidity to information.
84
238939
4023
Gewissermaßen haben Informationen
etwas Fließendes an sich.
etwas Fließendes an sich.
04:14
The disc that was discovered off of Crete
85
242962
3474
Die Scheibe, die vor Kreta entdeckt wurde
04:18
that's 4,000 years old, is heavy,
86
246436
3764
und 4 000 Jahre alt ist, ist schwer,
sie kann nicht viele
Informationen speichern
Informationen speichern
04:22
it doesn't store a lot of information,
87
250200
1962
04:24
and that information is unchangeable.
88
252162
3116
und die Informationen sind unveränderbar.
04:27
By contrast, all of the files
89
255278
4011
Im Gegensatz dazu passen alle Dateien,
04:31
that Edward Snowden took
90
259289
1861
die Edward Snowden von
der National Security Agency
der National Security Agency
04:33
from the National Security
Agency in the United States
Agency in the United States
91
261150
2621
in den Vereinigten Staaten entnahm,
04:35
fits on a memory stick
92
263771
2419
auf einen USB-Stick
04:38
the size of a fingernail,
93
266190
3010
in der Größe eines Fingernagels
04:41
and it can be shared at the speed of light.
94
269200
4745
und sie können in Lichtgeschwindigkeit
verbreitet werden.
verbreitet werden.
04:45
More data. More.
95
273945
5255
Mehr Daten. Mehr.
Ein Grund für die riesige Datenmenge
in der Welt heute ist,
in der Welt heute ist,
04:51
Now, one reason why we have
so much data in the world today
so much data in the world today
96
279200
1974
04:53
is we are collecting things
97
281174
1432
dass wir Dinge sammeln,
04:54
that we've always collected information on,
98
282606
3280
über die wir schon immer Informationen
gesammelt haben,
gesammelt haben,
04:57
but another reason why is we're taking things
99
285886
2656
aber ein weiterer Grund ist:
Wir nehmen Dinge,
Wir nehmen Dinge,
05:00
that have always been informational
100
288542
2812
die schon immer Informationen enthielten,
05:03
but have never been rendered into a data format
101
291354
2486
aber die noch nie in ein Datenformat
übersetzt wurden
übersetzt wurden
05:05
and we are putting it into data.
102
293840
2419
und erfassen sie als Daten.
05:08
Think, for example, the question of location.
103
296259
3308
Denken wir zum Beispiel
an die Frage des Aufenthaltsortes.
an die Frage des Aufenthaltsortes.
05:11
Take, for example, Martin Luther.
104
299567
2249
Nehmen wir zum Beispiel Martin Luther.
05:13
If we wanted to know in the 1500s
105
301816
1597
Wenn wir im 16. Jh. wissen wollten,
05:15
where Martin Luther was,
106
303413
2667
wo Martin Luther war,
05:18
we would have to follow him at all times,
107
306080
2092
hätten wir ihm die ganze Zeit
folgen müssen,
folgen müssen,
05:20
maybe with a feathery quill and an inkwell,
108
308172
2137
vielleicht mit Feder und Tintenfass,
05:22
and record it,
109
310309
1676
um es aufzuschreiben,
und jetzt stellen Sie sich vor,
wie es heute ist.
wie es heute ist.
05:23
but now think about what it looks like today.
110
311985
2183
Sie wissen, dass irgendwo,
05:26
You know that somewhere,
111
314168
2122
wahrscheinlich in der Datenbank
05:28
probably in a telecommunications carrier's database,
112
316290
2446
eines Telekommunikationsbetreibers,
05:30
there is a spreadsheet or at least a database entry
113
318736
3036
eine Tabelle oder zumindest
ein Dateneintrag
ein Dateneintrag
05:33
that records your information
114
321772
2088
Informationen darüber enthält,
05:35
of where you've been at all times.
115
323860
2063
wo Sie sich die ganze Zeit über aufhalten.
05:37
If you have a cell phone,
116
325923
1360
Wenn Sie ein Handy haben,
05:39
and that cell phone has GPS,
but even if it doesn't have GPS,
but even if it doesn't have GPS,
117
327283
2847
und das Handy GPS hat,
aber auch ohne GPS,
aber auch ohne GPS,
05:42
it can record your information.
118
330130
2385
kann es Ihre Informationen abspeichern.
05:44
In this respect, location has been datafied.
119
332515
4084
In dieser Hinsicht wurde der
Aufenthaltsort in die Daten aufgenommen.
Aufenthaltsort in die Daten aufgenommen.
05:48
Now think, for example, of the issue of posture,
120
336599
4601
Denken wir zum Beispiel an
das Problem der Körperhaltung,
das Problem der Körperhaltung,
die Art wie Sie gerade sitzen,
05:53
the way that you are all sitting right now,
121
341200
1285
05:54
the way that you sit,
122
342485
2030
die Art wie Sie sitzen,
05:56
the way that you sit, the way that you sit.
123
344515
2771
die Art wie Sie sitzen,
die Art wie Sie sitzen.
die Art wie Sie sitzen.
Es ist immer verschieden
und abhängig von Ihrer Beinlänge
und abhängig von Ihrer Beinlänge
05:59
It's all different, and it's a function of your leg length
124
347286
2077
06:01
and your back and the contours of your back,
125
349363
2093
und Ihrem Rücken,
und Ihren Rückenkonturen,
und Ihren Rückenkonturen,
06:03
and if I were to put sensors,
maybe 100 sensors
maybe 100 sensors
126
351456
2531
und würde ich Sensoren --
vielleicht 100 davon --
vielleicht 100 davon --
06:05
into all of your chairs right now,
127
353987
1766
an Ihren Sitzen anbringen,
06:07
I could create an index that's fairly unique to you,
128
355753
3600
dann könnte ich eine Tabelle erstellen,
die Sie unverwechselbar erkennt,
die Sie unverwechselbar erkennt,
06:11
sort of like a fingerprint, but it's not your finger.
129
359353
4409
wie eine Art Fingerabdruck,
aber ohne Ihren Finger.
aber ohne Ihren Finger.
06:15
So what could we do with this?
130
363762
2969
Was könnten wir damit tun?
06:18
Researchers in Tokyo are using it
131
366731
2397
Forscher in Tokio benutzen ihn
06:21
as a potential anti-theft device in cars.
132
369128
4388
als eine potenzielle Vorrichtung
gegen Autodiebstahl.
gegen Autodiebstahl.
06:25
The idea is that the carjacker sits behind the wheel,
133
373516
2924
Laut diesem Konzept sitzt
der Autodieb hinter dem Lenkrad,
der Autodieb hinter dem Lenkrad,
06:28
tries to stream off, but the car recognizes
134
376440
2104
versucht wegzufahren,
aber das Auto erkennt
aber das Auto erkennt
06:30
that a non-approved driver is behind the wheel,
135
378544
2362
ihn als nicht berechtigten Fahrer,
06:32
and maybe the engine just stops, unless you
136
380906
2164
und vielleicht schaltet sich der Motor ab,
06:35
type in a password into the dashboard
137
383070
3177
außer Sie geben ein Passwort
ins Armaturenbrett ein,
ins Armaturenbrett ein,
06:38
to say, "Hey, I have authorization to drive." Great.
138
386247
4658
das sagt: "Hey, ich habe
die Genehmigung zu fahren." Großartig.
die Genehmigung zu fahren." Großartig.
06:42
What if every single car in Europe
139
390905
2553
Was wäre, wenn
jedes einzelne Auto in Europa
jedes einzelne Auto in Europa
06:45
had this technology in it?
140
393458
1457
diese Technologie besäße?
06:46
What could we do then?
141
394915
3165
Was könnten wir dann tun?
06:50
Maybe, if we aggregated the data,
142
398080
2240
Wenn wir die Daten zusammentragen,
06:52
maybe we could identify telltale signs
143
400320
3814
könnten wir vielleicht
verdächtige Zeichen erkennen,
verdächtige Zeichen erkennen,
06:56
that best predict that a car accident
144
404134
2709
welche am besten vorhersagen,
dass in den nächsten 5 Sekunden
dass in den nächsten 5 Sekunden
06:58
is going to take place in the next five seconds.
145
406843
5893
ein Autounfall stattfinden wird.
07:04
And then what we will have datafied
146
412736
2557
Dann werden wir Fahrerermüdung
als Daten aufgenommen haben.
als Daten aufgenommen haben.
07:07
is driver fatigue,
147
415293
1783
Die Dienstleistung wäre dann,
wenn das Auto spürt,
wenn das Auto spürt,
07:09
and the service would be when the car senses
148
417076
2334
07:11
that the person slumps into that position,
149
419410
3437
dass die Person in diese Position fällt,
07:14
automatically knows, hey, set an internal alarm
150
422847
3994
dann weiß es automatisch, dass es
einen internen Alarm auslösen muss,
einen internen Alarm auslösen muss,
welcher das Lenkrad vibrieren lässt,
im Auto hupt,
im Auto hupt,
07:18
that would vibrate the steering wheel, honk inside
151
426841
2025
07:20
to say, "Hey, wake up,
152
428866
1721
um zu sagen: "Hey, wach auf,
07:22
pay more attention to the road."
153
430587
1904
pass besser auf die Straße auf."
Solche Dinge können wir umsetzen,
07:24
These are the sorts of things we can do
154
432491
1853
07:26
when we datafy more aspects of our lives.
155
434344
2821
wenn wir mehr Aspekte unseres Lebens
in Daten umwandeln.
in Daten umwandeln.
07:29
So what is the value of big data?
156
437165
3675
Was ist also der Wert von Big Data?
07:32
Well, think about it.
157
440840
2190
Nun ja, denken Sie darüber nach.
07:35
You have more information.
158
443030
2412
Man hat mehr Informationen.
07:37
You can do things that you couldn't do before.
159
445442
3341
Man kann Dinge tun,
die man vorher nicht tun konnte.
die man vorher nicht tun konnte.
07:40
One of the most impressive areas
160
448783
1676
Eines der beeindruckendsten Gebiete
07:42
where this concept is taking place
161
450459
1729
für die Anwendung dieses Konzepts
07:44
is in the area of machine learning.
162
452188
3307
ist der Bereich
des Maschinellen Lernens.
des Maschinellen Lernens.
Maschinelles Lernen ist
ein Zweig der künstlichen Intelligenz,
ein Zweig der künstlichen Intelligenz,
07:47
Machine learning is a branch of artificial intelligence,
163
455495
3077
07:50
which itself is a branch of computer science.
164
458572
3378
die wiederum ein Zweig
der Informatik ist.
der Informatik ist.
07:53
The general idea is that instead of
165
461950
1543
Der Grundgedanke ist,
07:55
instructing a computer what do do,
166
463493
2117
anstatt einem Computer beizubringen,
was zu tun ist,
was zu tun ist,
07:57
we are going to simply throw data at the problem
167
465610
2620
füttern wir ihn einfach mit Daten
08:00
and tell the computer to figure it out for itself.
168
468230
3206
und lassen den Computer
das Problem selbst lösen.
das Problem selbst lösen.
08:03
And it will help you understand it
169
471436
1777
Das können Sie besser verstehen,
08:05
by seeing its origins.
170
473213
3552
wenn Sie die Ursprünge kennenlernen.
08:08
In the 1950s, a computer scientist
171
476765
2388
In den 1950ern spielte ein Informatiker
08:11
at IBM named Arthur Samuel liked to play checkers,
172
479153
3592
bei IBM mit dem Namen
Arthur Samuel gerne Dame,
Arthur Samuel gerne Dame,
08:14
so he wrote a computer program
173
482745
1402
also schrieb er ein Programm,
08:16
so he could play against the computer.
174
484147
2813
um gegen den Computer spielen zu können.
08:18
He played. He won.
175
486960
2711
Er spielte. Er gewann.
08:21
He played. He won.
176
489671
2103
Er spielte. Er gewann.
08:23
He played. He won,
177
491774
3015
Er spielte. Er gewann,
08:26
because the computer only knew
178
494789
1778
weil der Computer nur wusste,
08:28
what a legal move was.
179
496567
2227
was ein erlaubter Zug ist.
08:30
Arthur Samuel knew something else.
180
498794
2087
Arthur Samuel wusste noch etwas anderes.
08:32
Arthur Samuel knew strategy.
181
500881
4629
Arthur Samuel kannte Strategien.
08:37
So he wrote a small sub-program alongside it
182
505510
2396
Deshalb schrieb er dazu
ein kleines Unterprogramm,
ein kleines Unterprogramm,
08:39
operating in the background, and all it did
183
507906
1974
das im Hintergrund arbeitete
08:41
was score the probability
184
509880
1817
und die Wahrscheinlichkeit bewertete,
08:43
that a given board configuration would likely lead
185
511697
2563
ob eine bestimmte Brettaufstellung eher
zu einem gewinnenden oder
verlierenden Brett führt.
verlierenden Brett führt.
08:46
to a winning board versus a losing board
186
514260
2910
08:49
after every move.
187
517170
2508
Die Berechnung erfolgte Zug für Zug.
08:51
He plays the computer. He wins.
188
519678
3150
Er spielt gegen den Computer. Er gewinnt.
08:54
He plays the computer. He wins.
189
522828
2508
Er spielt gegen den Computer. Er gewinnt.
08:57
He plays the computer. He wins.
190
525336
3731
Er spielt gegen den Computer. Er gewinnt.
09:01
And then Arthur Samuel leaves the computer
191
529067
2277
Und dann lässt Arthur Samuel den Computer
09:03
to play itself.
192
531344
2227
gegen sich selbst spielen.
09:05
It plays itself. It collects more data.
193
533571
3509
Er spielt für sich selbst.
Er sammelt mehr Daten.
Er sammelt mehr Daten.
09:09
It collects more data. It increases
the accuracy of its prediction.
the accuracy of its prediction.
194
537080
4309
Er sammelt mehr Daten. Er erhöht
die Genauigkeit seiner Voraussagen.
die Genauigkeit seiner Voraussagen.
09:13
And then Arthur Samuel goes back to the computer
195
541389
2104
Dann geht Arthur Samuel
zurück zum Computer,
zurück zum Computer,
09:15
and he plays it, and he loses,
196
543493
2318
spielt gegen ihn und er verliert,
09:17
and he plays it, and he loses,
197
545811
2069
und er spielt gegen ihn und er verliert,
09:19
and he plays it, and he loses,
198
547880
2047
und er spielt gegen ihn und er verliert.
09:21
and Arthur Samuel has created a machine
199
549927
2599
Damit erfindet Arthur Samuel
eine Maschine,
eine Maschine,
09:24
that surpasses his ability in a task that he taught it.
200
552526
6288
die seine Fähigkeit in einer Aufgabe
übertrifft, die er ihr selbst beibrachte.
übertrifft, die er ihr selbst beibrachte.
09:30
And this idea of machine learning
201
558814
2498
Dieses Konzept des Maschinellen Lernens
09:33
is going everywhere.
202
561312
3927
verbreitet sich überallhin.
09:37
How do you think we have self-driving cars?
203
565239
3149
Wie, denken Sie, sind wir zu
selbstfahrenden Autos gekommen?
selbstfahrenden Autos gekommen?
09:40
Are we any better off as a society
204
568388
2137
Geht es uns als Gesellschaft besser,
09:42
enshrining all the rules of the road into software?
205
570525
3285
wenn wir alle Verkehrsregeln
in Computerprogramme speisen?
in Computerprogramme speisen?
09:45
No. Memory is cheaper. No.
206
573810
2598
Nein. Datenspeicher ist billiger. Nein.
09:48
Algorithms are faster. No. Processors are better. No.
207
576408
3994
Algorithmen sind schneller. Nein.
Prozessoren sind besser. Nein.
Prozessoren sind besser. Nein.
09:52
All of those things matter, but that's not why.
208
580402
2772
All diese Dinge sind wichtig,
aber nicht entscheidend.
aber nicht entscheidend.
09:55
It's because we changed the nature of the problem.
209
583174
3141
Das liegt daran, dass wir das Wesen
des Problems verändert haben.
des Problems verändert haben.
Wir haben das Wesen des Problems
09:58
We changed the nature of the problem from one
210
586315
1530
09:59
in which we tried to overtly and explicitly
211
587845
2245
von einem, in dem wir versuchten,
dem Computer deutlich zu erklären,
wie man fährt,
wie man fährt,
10:02
explain to the computer how to drive
212
590090
2581
zu einem verändert, in dem wir sagen:
10:04
to one in which we say,
213
592671
1316
10:05
"Here's a lot of data around the vehicle.
214
593987
1876
"Hier gibt es viele Daten
um das Auto herum.
um das Auto herum.
10:07
You figure it out.
215
595863
1533
Du findest es heraus.
Du findest heraus,
dass das eine Ampel ist,
dass das eine Ampel ist,
10:09
You figure it out that that is a traffic light,
216
597396
1867
dass die Ampel rot und
nicht grün leuchtet,
nicht grün leuchtet,
10:11
that that traffic light is red and not green,
217
599263
2081
dass das bedeutet, dass man anhalten muss
10:13
that that means that you need to stop
218
601344
2014
10:15
and not go forward."
219
603358
3083
und nicht weiterfahren darf."
Maschinelles Lernen ist die Grundlage
10:18
Machine learning is at the basis
220
606441
1518
10:19
of many of the things that we do online:
221
607959
1991
für viele Dinge, die wir online tun:
10:21
search engines,
222
609950
1857
Suchmaschinen,
10:23
Amazon's personalization algorithm,
223
611807
3801
die Personalisierungsalgorithmen
von Amazon,
von Amazon,
10:27
computer translation,
224
615608
2212
computergestützte Übersetzungen,
10:29
voice recognition systems.
225
617820
4290
Spracherkennungssysteme.
10:34
Researchers recently have looked at
226
622110
2835
Forscher haben sich neulich
mit der Frage
von Gewebeentnahmen beschäftigt,
von Gewebeentnahmen beschäftigt,
10:36
the question of biopsies,
227
624945
3195
10:40
cancerous biopsies,
228
628140
2767
Entnahmen von krebskrankem Gewebe.
Sie haben den Computer
10:42
and they've asked the computer to identify
229
630907
2315
mit Daten und Überlebensraten gefüttert,
10:45
by looking at the data and survival rates
230
633222
2471
10:47
to determine whether cells are actually
231
635693
4667
und ihn angewiesen zu bestimmen,
ob die Zellen tatsächlich
krebserregend sind oder nicht.
krebserregend sind oder nicht.
10:52
cancerous or not,
232
640360
2544
Nach dem Füttern mit Daten
konnte der Rechner
konnte der Rechner
10:54
and sure enough, when you throw the data at it,
233
642904
1778
10:56
through a machine-learning algorithm,
234
644682
2047
durch einen maschinellen Lernalgorithmus
10:58
the machine was able to identify
235
646729
1877
die 12 verdächtigsten Zeichen erkennen,
die am besten vorhersagen,
die am besten vorhersagen,
11:00
the 12 telltale signs that best predict
236
648606
2262
11:02
that this biopsy of the breast cancer cells
237
650868
3299
dass die Gewebeentnahme
von Brustkrebszellen
von Brustkrebszellen
11:06
are indeed cancerous.
238
654167
3218
wirklich Krebszellen enthalten.
11:09
The problem: The medical literature
239
657385
2498
Das Problem dabei:
Die medizinische Literatur
Die medizinische Literatur
11:11
only knew nine of them.
240
659883
2789
kannte nur neun davon.
11:14
Three of the traits were ones
241
662672
1800
Drei Merkmale waren welche,
11:16
that people didn't need to look for,
242
664472
2975
die man bisher nicht suchen musste,
11:19
but that the machine spotted.
243
667447
5531
die aber vom Rechner entdeckt wurden.
11:24
Now, there are dark sides to big data as well.
244
672978
5925
Es gibt aber auch
eine dunkle Seite von Big Data.
eine dunkle Seite von Big Data.
11:30
It will improve our lives, but there are problems
245
678903
2074
Die Daten werden unser Leben verbessern,
aber es gibt auch Probleme,
die uns bewusst sein müssen
die uns bewusst sein müssen
11:32
that we need to be conscious of,
246
680977
2640
11:35
and the first one is the idea
247
683617
2623
und dazu gehört zuallererst,
11:38
that we may be punished for predictions,
248
686240
2686
dass wir für Vorhersagen
bestraft werden könnten,
bestraft werden könnten,
11:40
that the police may use big data for their purposes,
249
688926
3870
dass die Polizei die Daten
für ihre Zwecke benutzen könnte,
für ihre Zwecke benutzen könnte,
fast wie im Film "Minority Report".
11:44
a little bit like "Minority Report."
250
692796
2351
Man nennt das "predictive policing"
[Verbrechen voraussagen]
[Verbrechen voraussagen]
11:47
Now, it's a term called predictive policing,
251
695147
2441
11:49
or algorithmic criminology,
252
697588
2363
oder "algorithmic criminology",
was bedeutet, dass man
eine Menge Daten sammelt,
eine Menge Daten sammelt,
11:51
and the idea is that if we take a lot of data,
253
699951
2036
z. B. wo vergangene Verbrechen
begangen wurden,
begangen wurden,
11:53
for example where past crimes have been,
254
701987
2159
11:56
we know where to send the patrols.
255
704146
2543
und weiß, wohin man
die Polizeistreifen schicken muss.
die Polizeistreifen schicken muss.
11:58
That makes sense, but the problem, of course,
256
706689
2115
Das leuchtet ein,
aber das Problem ist natürlich,
aber das Problem ist natürlich,
12:00
is that it's not simply going to stop on location data,
257
708804
4544
dass es nicht einfach bei
Standortdaten aufhören wird,
Standortdaten aufhören wird,
12:05
it's going to go down to the level of the individual.
258
713348
2959
es wird auch auf der Ebene
der individuellen Daten passieren.
der individuellen Daten passieren.
12:08
Why don't we use data about the person's
259
716307
2250
Warum verwenden wir nicht die Daten
12:10
high school transcript?
260
718557
2228
über das Abschlusszeugnis einer Person?
Vielleicht sollten wir prüfen,
12:12
Maybe we should use the fact that
261
720785
1561
ob sie arbeiten oder nicht,
ihre Kreditwürdigkeit,
ihre Kreditwürdigkeit,
12:14
they're unemployed or not, their credit score,
262
722346
2028
12:16
their web-surfing behavior,
263
724374
1552
ihr Surfverhalten,
12:17
whether they're up late at night.
264
725926
1878
oder ob sie bis spät nachts
wach sind.
wach sind.
12:19
Their Fitbit, when it's able
to identify biochemistries,
to identify biochemistries,
265
727804
3161
Sobald ihr "Fitbit" biochemische
Prozesse erkennen kann,
Prozesse erkennen kann,
12:22
will show that they have aggressive thoughts.
266
730965
4236
wird es zeigen können,
wann jemand aggressive Gedanken hat.
wann jemand aggressive Gedanken hat.
Wir werden vielleicht Algorithmen haben,
12:27
We may have algorithms that are likely to predict
267
735201
2221
die vorhersagen könnten,
was wir tun werden,
was wir tun werden,
12:29
what we are about to do,
268
737422
1633
12:31
and we may be held accountable
269
739055
1244
und wir könnten bestraft werden,
12:32
before we've actually acted.
270
740299
2590
bevor wir tatsächlich gehandelt haben.
Privatsphäre war
die größte Herausforderung
die größte Herausforderung
12:34
Privacy was the central challenge
271
742889
1732
12:36
in a small data era.
272
744621
2880
im Zeitalter der Small Data.
12:39
In the big data age,
273
747501
2149
Im Zeitalter der Big Data
12:41
the challenge will be safeguarding free will,
274
749650
4523
wird die Herausforderung sein,
den freien Willen,
den freien Willen,
12:46
moral choice, human volition,
275
754173
3779
moralische Entscheidungen,
menschliche Willensäußerungen
menschliche Willensäußerungen
12:49
human agency.
276
757952
3068
und menschliches Handeln zu beschützen.
12:54
There is another problem:
277
762540
2225
Es gibt ein weiters Problem:
12:56
Big data is going to steal our jobs.
278
764765
3556
Big Data wird unsere Jobs klauen.
13:00
Big data and algorithms are going to challenge
279
768321
3512
Big Data und Algorithmen werden
eine Herausforderung
eine Herausforderung
13:03
white collar, professional knowledge work
280
771833
3061
für Angestellte
und professionelle Wissensarbeit
und professionelle Wissensarbeit
13:06
in the 21st century
281
774894
1653
im 21. Jahrhundert
13:08
in the same way that factory automation
282
776547
2434
auf die gleiche Art werden,
wie die Fabrikautomation
wie die Fabrikautomation
13:10
and the assembly line
283
778981
2189
und das Fließband
13:13
challenged blue collar labor in the 20th century.
284
781170
3026
eine Herausforderung für Arbeiter
im 20. Jahrhundert war.
im 20. Jahrhundert war.
13:16
Think about a lab technician
285
784196
2092
Denken Sie an einen Laboranten,
13:18
who is looking through a microscope
286
786288
1409
der durch ein Mikroskop
13:19
at a cancer biopsy
287
787697
1624
Gewebeentnahmen anschaut
13:21
and determining whether it's cancerous or not.
288
789321
2637
und bestimmt,
ob es Krebszellen sind oder nicht.
ob es Krebszellen sind oder nicht.
13:23
The person went to university.
289
791958
1972
Die Person ging zur Universität.
Die Person kauft ein Grundstück.
13:25
The person buys property.
290
793930
1430
13:27
He or she votes.
291
795360
1741
Er oder sie wählt.
13:29
He or she is a stakeholder in society.
292
797101
3666
Er oder sie ist ein wichtiger
Akteur in der Gesellschaft.
Akteur in der Gesellschaft.
13:32
And that person's job,
293
800767
1394
Der Beruf der Person,
13:34
as well as an entire fleet
294
802161
1609
genauso wie ein ganzes Geschwader
13:35
of professionals like that person,
295
803770
1969
an Berufstätigen wie diese Person,
13:37
is going to find that their jobs are radically changed
296
805739
3150
wird feststellen, dass ihre Berufe
sich radikal verändern
sich radikal verändern
oder sogar komplett verdrängt werden.
13:40
or actually completely eliminated.
297
808889
2357
Wir mögen den Gedanken,
13:43
Now, we like to think
298
811246
1284
dass Technologie in einem bestimmten
Zeitraum neue Berufe
Zeitraum neue Berufe
13:44
that technology creates jobs over a period of time
299
812530
3187
13:47
after a short, temporary period of dislocation,
300
815717
3465
nach einer kurzen vorübergehenden Zeit
der Verlagerung schafft,
der Verlagerung schafft,
13:51
and that is true for the frame of reference
301
819182
1941
und das stimmt für unseren Bezugsrahmen,
13:53
with which we all live, the Industrial Revolution,
302
821123
2142
die industrielle Revolution,
13:55
because that's precisely what happened.
303
823265
2328
weil genau das passiert ist.
13:57
But we forget something in that analysis:
304
825593
2333
Aber wir vergessen etwas in der Analyse:
13:59
There are some categories of jobs
305
827926
1830
Es gibt einige Arten von Berufen,
14:01
that simply get eliminated and never come back.
306
829756
3420
die einfach verdrängt werden
und nie zurückkommen.
und nie zurückkommen.
Die industrielle Revolution war
nicht sehr gut,
nicht sehr gut,
14:05
The Industrial Revolution wasn't very good
307
833176
2004
14:07
if you were a horse.
308
835180
4002
wenn man ein Pferd war.
14:11
So we're going to need to be careful
309
839182
2055
Deshalb müssen wir vorsichtig sein
14:13
and take big data and adjust it for our needs,
310
841237
3514
und Big Data
unseren Bedürfnissen anpassen,
unseren Bedürfnissen anpassen,
14:16
our very human needs.
311
844751
3185
unseren zutiefst
menschlichen Bedürfnissen.
menschlichen Bedürfnissen.
Wir müssen die Herrscher
über diese Technologie sein
über diese Technologie sein
14:19
We have to be the master of this technology,
312
847936
1954
14:21
not its servant.
313
849890
1656
und nicht ihre Diener.
14:23
We are just at the outset of the big data era,
314
851546
2958
Wir stehen erst am Anfang
des Zeitalters der Big Data,
des Zeitalters der Big Data,
14:26
and honestly, we are not very good
315
854504
3150
und ehrlich gesagt sind wir nicht sehr gut
14:29
at handling all the data that we can now collect.
316
857654
4207
im Umgang mit all den Daten,
die wir erheben können.
die wir erheben können.
Es ist nicht nur ein Problem für
die National Security Agency [NSA].
die National Security Agency [NSA].
14:33
It's not just a problem for
the National Security Agency.
the National Security Agency.
317
861861
3330
Unternehmen erheben auch viele Daten
und sie missbrauchen sie auch,
und sie missbrauchen sie auch,
14:37
Businesses collect lots of
data, and they misuse it too,
data, and they misuse it too,
318
865191
3038
und wir müssen darin besser werden
und das wird Zeit brauchen.
und das wird Zeit brauchen.
14:40
and we need to get better at
this, and this will take time.
this, and this will take time.
319
868229
3667
Es ist ein bisschen wie
die Herausforderung,
die Herausforderung,
14:43
It's a little bit like the challenge that was faced
320
871896
1822
die Feuer für den
primitiven Menschen darstellte.
primitiven Menschen darstellte.
14:45
by primitive man and fire.
321
873718
2407
14:48
This is a tool, but this is a tool that,
322
876125
1885
Es ist ein Werkzeug, aber eines,
14:50
unless we're careful, will burn us.
323
878010
3559
an dem wir uns verbrennen
werden, wenn wir nicht aufpassen.
werden, wenn wir nicht aufpassen.
Big Data wird unser Art, wie wir leben,
grundlegend verändern,
grundlegend verändern,
14:56
Big data is going to transform how we live,
324
884008
3120
ebenso wie wir arbeiten
und wie wir denken.
und wie wir denken.
14:59
how we work and how we think.
325
887128
2801
Es wird uns helfen
unsere Berufe zu bewältigen
unsere Berufe zu bewältigen
15:01
It is going to help us manage our careers
326
889929
1889
15:03
and lead lives of satisfaction and hope
327
891818
3634
und ein Leben voller Zufriedenheit
und Hoffnung
und Hoffnung
15:07
and happiness and health,
328
895452
2992
und Glück und Gesundheit zu führen,
aber in der Vergangenheit haben wir
bei Informationstechnologie
bei Informationstechnologie
15:10
but in the past, we've often
looked at information technology
looked at information technology
329
898444
3306
nur das "T" gesehen,
15:13
and our eyes have only seen the T,
330
901750
2208
die Technologie, die Hardware,
15:15
the technology, the hardware,
331
903958
1686
15:17
because that's what was physical.
332
905644
2262
weil das greifbar war.
15:19
We now need to recast our gaze at the I,
333
907906
2924
Jetzt müssen wir unseren Blick
auf das "I" richten,
auf das "I" richten,
15:22
the information,
334
910830
1380
die Information,
15:24
which is less apparent,
335
912210
1373
die weniger sichtbar ist,
15:25
but in some ways a lot more important.
336
913583
4109
aber in mancher Weise viel wichtiger ist.
15:29
Humanity can finally learn from the information
337
917692
3465
Die Menschheit kann endlich
von den Informationen lernen,
von den Informationen lernen,
15:33
that it can collect,
338
921157
2418
die sie einsammelt,
15:35
as part of our timeless quest
339
923575
2115
als Teil unserer zeitlosen Aufgabe,
15:37
to understand the world and our place in it,
340
925690
3159
die Welt und unseren Platz
darin zu verstehen,
darin zu verstehen,
15:40
and that's why big data is a big deal.
341
928849
5631
und deshalb ist Big Data
eine große Sache.
eine große Sache.
15:46
(Applause)
342
934480
3568
(Applaus)
ABOUT THE SPEAKER
Kenneth Cukier - Data Editor of The EconomistKenneth Cukier is the Data Editor of The Economist. From 2007 to 2012 he was the Tokyo correspondent, and before that, the paper’s technology correspondent in London, where his work focused on innovation, intellectual property and Internet governance. Kenneth is also the co-author of Big Data: A Revolution That Will Transform How We Live, Work, and Think with Viktor Mayer-Schönberger in 2013, which was a New York Times Bestseller and translated into 16 languages.
Why you should listen
As Data Editor of The Economist and co-author of Big Data: A Revolution That Will Transform How We Live, Work, and Think, Kenneth Cukier has spent years immersed in big data, machine learning -- and the impact of both. What's the future of big data-driven technology and design? To find out, watch this talk.
Kenneth Cukier | Speaker | TED.com