ABOUT THE SPEAKER
Kenneth Cukier - Data Editor of The Economist
Kenneth Cukier is the Data Editor of The Economist. From 2007 to 2012 he was the Tokyo correspondent, and before that, the paper’s technology correspondent in London, where his work focused on innovation, intellectual property and Internet governance. Kenneth is also the co-author of Big Data: A Revolution That Will Transform How We Live, Work, and Think with Viktor Mayer-Schönberger in 2013, which was a New York Times Bestseller and translated into 16 languages.

Why you should listen

As Data Editor of The Economist and co-author of Big Data: A Revolution That Will Transform How We Live, Work, and Think, Kenneth Cukier has spent years immersed in big data, machine learning -- and the impact of both. What's the future of big data-driven technology and design? To find out, watch this talk.

More profile about the speaker
Kenneth Cukier | Speaker | TED.com
TEDSalon Berlin 2014

Kenneth Cukier: Big data is better data

Kenneth Cukier: Viele Daten heißt bessere Daten

Filmed:
1,663,038 views

Selbstfahrende Autos waren nur der Anfang. Was ist die Zukunft der von "Big Data" gesteuerten Technologie und ihrem Design? In einem spannenden wissenschaftlichen Vortrag erläutert Kenneth Cukier, wohin Maschinelles Lernen – und menschliches Wissen führen wird.
- Data Editor of The Economist
Kenneth Cukier is the Data Editor of The Economist. From 2007 to 2012 he was the Tokyo correspondent, and before that, the paper’s technology correspondent in London, where his work focused on innovation, intellectual property and Internet governance. Kenneth is also the co-author of Big Data: A Revolution That Will Transform How We Live, Work, and Think with Viktor Mayer-Schönberger in 2013, which was a New York Times Bestseller and translated into 16 languages. Full bio

Double-click the English transcript below to play the video.

00:12
America'sAmerikas favoriteFavorit piePie is?
0
787
3845
Amerikas Lieblingskuchen ist?
00:16
AudiencePublikum: AppleApple.
KennethKenneth CukierCukier: AppleApple. Of courseKurs it is.
1
4632
3506
Publikum: Apfelkuchen.
K. Cukier: Es ist natürlich Apfelkuchen.
00:20
How do we know it?
2
8138
1231
Woher wissen wir das?
00:21
Because of dataDaten.
3
9369
2753
Aufgrund von Daten.
00:24
You look at supermarketSupermarkt salesDer Umsatz.
4
12122
2066
Man schaut sich Umsätze
von Supermärkten an,
00:26
You look at supermarketSupermarkt
salesDer Umsatz of 30-centimeter-Zentimeter piesKuchen
5
14188
2866
nimmt die Verkaufszahlen
von tiefgekühlten Kuchen
00:29
that are frozengefroren, and appleApfel winsGewinnt, no contestWettbewerb.
6
17054
4075
mit 30 cm Durchmesser,
und Apfelkuchen sind einsame Spitze.
00:33
The majorityMehrheit of the salesDer Umsatz are appleApfel.
7
21129
5180
Die Mehrzahl der Verkäufe
sind Apfelkuchen.
00:38
But then supermarketsSupermärkte startedhat angefangen sellingVerkauf
8
26309
2964
Doch dann begannen Supermärkte
00:41
smallerkleiner, 11-centimeter-Zentimeter piesKuchen,
9
29273
2583
kleinere, 11-cm-Kuchen zu verkaufen,
00:43
and suddenlyplötzlich, appleApfel fellfiel to fourthvierte or fifthfünfte placeOrt.
10
31856
4174
und plötzlich fiel Apfelkuchen
auf den 4. oder 5. Platz.
00:48
Why? What happenedpassiert?
11
36030
2875
Warum? Was ist passiert?
00:50
Okay, think about it.
12
38905
2818
Okay, denken Sie darüber nach.
00:53
When you buykaufen a 30-centimeter-Zentimeter piePie,
13
41723
3848
Wenn man einen 30-Zentimer-Kuchen kauft,
00:57
the wholeganze familyFamilie has to agreezustimmen,
14
45571
2261
muss die ganze Familie einverstanden sein
00:59
and appleApfel is everyone'sjeder ist secondzweite favoriteFavorit.
15
47832
3791
und Apfelkuchen hat jeder
am zweitliebsten.
01:03
(LaughterLachen)
16
51623
1935
(Gelächter)
01:05
But when you buykaufen an individualPerson 11-centimeter-Zentimeter piePie,
17
53558
3615
Aber wenn man einen individuellen
11-Zentimter-Kuchen kauft,
01:09
you can buykaufen the one that you want.
18
57173
3745
kann man den nehmen, den man will.
01:12
You can get your first choiceWahl.
19
60918
4015
Man kann seine erste Wahl bekommen.
01:16
You have more dataDaten.
20
64933
1641
Man hat mehr Daten.
01:18
You can see something
21
66574
1554
Man sieht etwas,
01:20
that you couldn'tkonnte nicht see
22
68128
1132
das man nicht sehen konnte,
01:21
when you only had smallerkleiner amountsBeträge of it.
23
69260
3953
als man nur kleinere Mengen davon hatte.
01:25
Now, the pointPunkt here is that more dataDaten
24
73213
2475
Der Punkt ist, dass mehr Daten
01:27
doesn't just let us see more,
25
75688
2283
uns nicht nur helfen
01:29
more of the samegleich thing we were looking at.
26
77971
1854
mehr von den gleichen Dingen zu sehen.
01:31
More dataDaten allowserlaubt us to see newneu.
27
79825
3613
Mehr Daten erlauben uns Neues zu sehen.
01:35
It allowserlaubt us to see better.
28
83438
3094
Es hilft uns besser zu sehen.
01:38
It allowserlaubt us to see differentanders.
29
86532
3656
Es hilft uns anders zu sehen.
01:42
In this caseFall, it allowserlaubt us to see
30
90188
3173
In diesem Fall erlaubt es uns zu sehen,
01:45
what America'sAmerikas favoriteFavorit piePie is:
31
93361
2913
was Amerikas Lieblingskuchen ist:
01:48
not appleApfel.
32
96274
2542
nicht Apfelkuchen.
01:50
Now, you probablywahrscheinlich all have heardgehört the termBegriff biggroß dataDaten.
33
98816
3614
Sie haben wahrscheinlich alle schon
den Begriff "Big Data" gehört.
01:54
In factTatsache, you're probablywahrscheinlich sickkrank of hearingHören the termBegriff
34
102430
2057
Wahrscheinlich sind Sie es leid
01:56
biggroß dataDaten.
35
104487
1630
den Begriff "Big Data" zu hören.
01:58
It is truewahr that there is a lot of hypeHype around the termBegriff,
36
106117
3330
Es ist wahr, dass es viel Wirbel
um den Begriff gibt,
02:01
and that is very unfortunateunglücklich,
37
109447
2332
was sehr schade ist,
02:03
because biggroß dataDaten is an extremelyäußerst importantwichtig toolWerkzeug
38
111779
3046
weil Big Data
ein extrem wichtiges Werkzeug ist,
02:06
by whichwelche societyGesellschaft is going to advanceVoraus.
39
114825
3734
durch das die Gesellschaft
vorankommen wird.
02:10
In the pastVergangenheit, we used to look at smallklein dataDaten
40
118559
3561
In der Vergangenheit schauten wir
auf "Small Data" [wenige Daten],
dachten über ihre Bedeutung nach
02:14
and think about what it would mean
41
122120
1704
und versuchten die Welt zu verstehen.
02:15
to try to understandverstehen the worldWelt,
42
123824
1496
02:17
and now we have a lot more of it,
43
125320
1991
Jetzt haben wir viel mehr davon,
02:19
more than we ever could before.
44
127311
2722
mehr als jemals zuvor.
02:22
What we find is that when we have
45
130033
1877
Wir stellen fest, dass wir
mit einer großen Datenmenge
02:23
a largegroß bodyKörper of dataDaten, we can fundamentallygrundlegend do things
46
131910
2724
grundsätzlich Dinge tun können,
02:26
that we couldn'tkonnte nicht do when we
only had smallerkleiner amountsBeträge.
47
134634
3276
die wir zuvor nicht tun konnten,
als wir nur kleinere Mengen hatten.
02:29
BigGroß dataDaten is importantwichtig, and biggroß dataDaten is newneu,
48
137910
2641
Big Data ist wichtig
und Big Data ist neu
02:32
and when you think about it,
49
140551
1777
und wenn man darüber nachdenkt,
02:34
the only way this planetPlanet is going to dealDeal
50
142328
2216
ist der einzige Weg für diesen Planeten,
globale Herausforderungen zu bewältigen --
02:36
with its globalglobal challengesHerausforderungen
51
144544
1789
02:38
to feedFutter people, supplyliefern them with medicalmedizinisch carePflege,
52
146333
3537
Menschen zu ernähren,
medizinische Versorgung,
02:41
supplyliefern them with energyEnergie, electricityElektrizität,
53
149870
2810
Energie und Elektrizität zu liefern
02:44
and to make sure they're not burntverbrannt to a crispCrisp
54
152680
1789
und sicher zu stellen,
dass sie nicht durch die
globale Erwärmung verbrennen --
02:46
because of globalglobal warmingErwärmen
55
154469
1238
02:47
is because of the effectiveWirksam use of dataDaten.
56
155707
4195
die effektive Nutzung von Daten.
02:51
So what is newneu about biggroß
dataDaten? What is the biggroß dealDeal?
57
159902
3870
Was gibt es Neues über Big Data?
Was ist das Besondere daran?
Um diese Frage zu beantworten,
denken Sie darüber nach,
02:55
Well, to answerAntworten that questionFrage, let's think about
58
163772
2517
02:58
what informationInformation lookedsah like,
59
166289
1896
wie Informationen aussahen,
03:00
physicallyphysisch lookedsah like in the pastVergangenheit.
60
168185
3034
wie sie in der Vergangenheit
physisch aussahen.
03:03
In 1908, on the islandInsel of CreteCrete,
61
171219
3611
1908 entdeckten Archäologen
03:06
archaeologistsArchäologen discoveredentdeckt a clayLehm discScheibe.
62
174830
4735
auf der Insel Kreta eine Tonscheibe.
03:11
They dateddatiert it from 2000 B.C., so it's 4,000 yearsJahre oldalt.
63
179565
4059
Sie datierten sie auf 2 000 v. Chr.,
sie ist also 4 000 Jahre alt.
03:15
Now, there's inscriptionsInschriften on this discScheibe,
64
183624
2004
Es gibt Schriftzeichen darauf,
aber wir verstehen sie nicht.
03:17
but we actuallytatsächlich don't know what it meansmeint.
65
185628
1327
03:18
It's a completekomplett mysteryGeheimnis, but the pointPunkt is that
66
186955
2098
Es ist ein absolutes Rätsel,
aber der Punkt ist,
03:21
this is what informationInformation used to look like
67
189053
1928
dass Informationen
03:22
4,000 yearsJahre agovor.
68
190981
2089
vor 4 000 Jahren so aussahen.
03:25
This is how societyGesellschaft storedgespeichert
69
193070
2548
So bewahrte die Gesellschaft
03:27
and transmittedübertragen informationInformation.
70
195618
3524
Informationen und überlieferte sie.
03:31
Now, societyGesellschaft hasn'that nicht advancedfortgeschritten all that much.
71
199142
4160
Die Gesellschaft hat sich seitdem
nicht viel verändert.
03:35
We still storeGeschäft informationInformation on discsScheiben,
72
203302
3474
Wir speichern immer noch
Informationen auf Scheiben,
03:38
but now we can storeGeschäft a lot more informationInformation,
73
206776
3184
aber jetzt können wir
viel mehr Informationen speichern,
mehr als jemals zuvor.
03:41
more than ever before.
74
209960
1260
03:43
SearchingAuf der Suche it is easiereinfacher. CopyingKopieren it easiereinfacher.
75
211220
3093
Suchen ist einfacher.
Kopieren ist einfacher.
03:46
SharingTeilen it is easiereinfacher. ProcessingVerarbeitung it is easiereinfacher.
76
214313
3500
Teilen ist einfacher.
Weiterverarbeitung ist einfacher.
03:49
And what we can do is we can reuseWiederverwendung this informationInformation
77
217813
2766
Wir können die Informationen
für Zwecke wiederverwenden,
03:52
for usesVerwendungen that we never even imaginedvorgestellt
78
220579
1834
die für uns unvorstellbar waren,
03:54
when we first collectedgesammelt the dataDaten.
79
222413
3195
als wir die Daten das erste Mal sammelten.
03:57
In this respectdie Achtung, the dataDaten has goneWeg
80
225608
2252
So gesehen haben sich
die Daten verändert,
03:59
from a stockStock to a flowfließen,
81
227860
3532
von einem Lager zu einem Fluss,
04:03
from something that is stationarystationäre and staticstatische
82
231392
3938
von etwas Stationärem und Statischen
04:07
to something that is fluidFlüssigkeit and dynamicdynamisch.
83
235330
3609
zu etwas Fließendem und Dynamischem.
04:10
There is, if you will, a liquidityLiquidität to informationInformation.
84
238939
4023
Gewissermaßen haben Informationen
etwas Fließendes an sich.
04:14
The discScheibe that was discoveredentdeckt off of CreteCrete
85
242962
3474
Die Scheibe, die vor Kreta entdeckt wurde
04:18
that's 4,000 yearsJahre oldalt, is heavyschwer,
86
246436
3764
und 4 000 Jahre alt ist, ist schwer,
sie kann nicht viele
Informationen speichern
04:22
it doesn't storeGeschäft a lot of informationInformation,
87
250200
1962
04:24
and that informationInformation is unchangeableunveränderlich.
88
252162
3116
und die Informationen sind unveränderbar.
04:27
By contrastKontrast, all of the filesDateien
89
255278
4011
Im Gegensatz dazu passen alle Dateien,
04:31
that EdwardEdward SnowdenSnowden tookdauerte
90
259289
1861
die Edward Snowden von
der National Security Agency
04:33
from the NationalNationalen SecuritySicherheit
AgencyAgentur in the UnitedVereinigte StatesStaaten
91
261150
2621
in den Vereinigten Staaten entnahm,
04:35
fitspasst on a memoryErinnerung stickStock
92
263771
2419
auf einen USB-Stick
04:38
the sizeGröße of a fingernailFingernagel,
93
266190
3010
in der Größe eines Fingernagels
04:41
and it can be sharedgeteilt at the speedGeschwindigkeit of lightLicht.
94
269200
4745
und sie können in Lichtgeschwindigkeit
verbreitet werden.
04:45
More dataDaten. More.
95
273945
5255
Mehr Daten. Mehr.
Ein Grund für die riesige Datenmenge
in der Welt heute ist,
04:51
Now, one reasonGrund why we have
so much dataDaten in the worldWelt todayheute
96
279200
1974
04:53
is we are collectingSammeln things
97
281174
1432
dass wir Dinge sammeln,
04:54
that we'vewir haben always collectedgesammelt informationInformation on,
98
282606
3280
über die wir schon immer Informationen
gesammelt haben,
04:57
but anotherein anderer reasonGrund why is we're takingunter things
99
285886
2656
aber ein weiterer Grund ist:
Wir nehmen Dinge,
05:00
that have always been informationalinformationelle
100
288542
2812
die schon immer Informationen enthielten,
05:03
but have never been renderedgerendert into a dataDaten formatFormat
101
291354
2486
aber die noch nie in ein Datenformat
übersetzt wurden
05:05
and we are puttingPutten it into dataDaten.
102
293840
2419
und erfassen sie als Daten.
05:08
Think, for exampleBeispiel, the questionFrage of locationLage.
103
296259
3308
Denken wir zum Beispiel
an die Frage des Aufenthaltsortes.
05:11
Take, for exampleBeispiel, MartinMartin LutherLuther.
104
299567
2249
Nehmen wir zum Beispiel Martin Luther.
05:13
If we wanted to know in the 1500s
105
301816
1597
Wenn wir im 16. Jh. wissen wollten,
05:15
where MartinMartin LutherLuther was,
106
303413
2667
wo Martin Luther war,
05:18
we would have to followFolgen him at all timesmal,
107
306080
2092
hätten wir ihm die ganze Zeit
folgen müssen,
05:20
maybe with a featherygefiederten quillFeder and an inkwellTintenfass,
108
308172
2137
vielleicht mit Feder und Tintenfass,
05:22
and recordAufzeichnung it,
109
310309
1676
um es aufzuschreiben,
und jetzt stellen Sie sich vor,
wie es heute ist.
05:23
but now think about what it lookssieht aus like todayheute.
110
311985
2183
Sie wissen, dass irgendwo,
05:26
You know that somewhereirgendwo,
111
314168
2122
wahrscheinlich in der Datenbank
05:28
probablywahrscheinlich in a telecommunicationsTelekommunikation carrier'sdes Beförderers databaseDatenbank,
112
316290
2446
eines Telekommunikationsbetreibers,
05:30
there is a spreadsheetKalkulationstabelle or at leastam wenigsten a databaseDatenbank entryEintrag
113
318736
3036
eine Tabelle oder zumindest
ein Dateneintrag
05:33
that recordsAufzeichnungen your informationInformation
114
321772
2088
Informationen darüber enthält,
05:35
of where you've been at all timesmal.
115
323860
2063
wo Sie sich die ganze Zeit über aufhalten.
05:37
If you have a cellZelle phoneTelefon,
116
325923
1360
Wenn Sie ein Handy haben,
05:39
and that cellZelle phoneTelefon has GPSGPS,
but even if it doesn't have GPSGPS,
117
327283
2847
und das Handy GPS hat,
aber auch ohne GPS,
05:42
it can recordAufzeichnung your informationInformation.
118
330130
2385
kann es Ihre Informationen abspeichern.
05:44
In this respectdie Achtung, locationLage has been datafieddatafied.
119
332515
4084
In dieser Hinsicht wurde der
Aufenthaltsort in die Daten aufgenommen.
05:48
Now think, for exampleBeispiel, of the issueProblem of postureHaltung,
120
336599
4601
Denken wir zum Beispiel an
das Problem der Körperhaltung,
die Art wie Sie gerade sitzen,
05:53
the way that you are all sittingSitzung right now,
121
341200
1285
05:54
the way that you sitsitzen,
122
342485
2030
die Art wie Sie sitzen,
05:56
the way that you sitsitzen, the way that you sitsitzen.
123
344515
2771
die Art wie Sie sitzen,
die Art wie Sie sitzen.
Es ist immer verschieden
und abhängig von Ihrer Beinlänge
05:59
It's all differentanders, and it's a functionFunktion of your legBein lengthLänge
124
347286
2077
06:01
and your back and the contoursKonturen of your back,
125
349363
2093
und Ihrem Rücken,
und Ihren Rückenkonturen,
06:03
and if I were to put sensorsSensoren,
maybe 100 sensorsSensoren
126
351456
2531
und würde ich Sensoren --
vielleicht 100 davon --
06:05
into all of your chairsStühle right now,
127
353987
1766
an Ihren Sitzen anbringen,
06:07
I could createerstellen an indexIndex that's fairlyziemlich uniqueeinzigartig to you,
128
355753
3600
dann könnte ich eine Tabelle erstellen,
die Sie unverwechselbar erkennt,
06:11
sortSortieren of like a fingerprintFingerabdruck, but it's not your fingerFinger.
129
359353
4409
wie eine Art Fingerabdruck,
aber ohne Ihren Finger.
06:15
So what could we do with this?
130
363762
2969
Was könnten wir damit tun?
06:18
ResearchersForscher in TokyoTokyo are usingmit it
131
366731
2397
Forscher in Tokio benutzen ihn
06:21
as a potentialPotenzial anti-theftAnti-Diebstahl deviceGerät in carsAutos.
132
369128
4388
als eine potenzielle Vorrichtung
gegen Autodiebstahl.
06:25
The ideaIdee is that the carjackercarjacker sitssitzt behindhinter the wheelRad,
133
373516
2924
Laut diesem Konzept sitzt
der Autodieb hinter dem Lenkrad,
06:28
triesversucht to streamStrom off, but the carAuto recognizeserkennt
134
376440
2104
versucht wegzufahren,
aber das Auto erkennt
06:30
that a non-approvednicht zugelassene driverTreiber is behindhinter the wheelRad,
135
378544
2362
ihn als nicht berechtigten Fahrer,
06:32
and maybe the engineMotor just stopsstoppt, unlesses sei denn you
136
380906
2164
und vielleicht schaltet sich der Motor ab,
06:35
typeArt in a passwordPasswort into the dashboardDashboard
137
383070
3177
außer Sie geben ein Passwort
ins Armaturenbrett ein,
06:38
to say, "Hey, I have authorizationAutorisierung to driveFahrt." Great.
138
386247
4658
das sagt: "Hey, ich habe
die Genehmigung zu fahren." Großartig.
06:42
What if everyjeden singleSingle carAuto in EuropeEuropa
139
390905
2553
Was wäre, wenn
jedes einzelne Auto in Europa
06:45
had this technologyTechnologie in it?
140
393458
1457
diese Technologie besäße?
06:46
What could we do then?
141
394915
3165
Was könnten wir dann tun?
06:50
Maybe, if we aggregatedaggregiert the dataDaten,
142
398080
2240
Wenn wir die Daten zusammentragen,
06:52
maybe we could identifyidentifizieren telltaleverräterische signsSchilder
143
400320
3814
könnten wir vielleicht
verdächtige Zeichen erkennen,
06:56
that bestBeste predictvorhersagen that a carAuto accidentUnfall
144
404134
2709
welche am besten vorhersagen,
dass in den nächsten 5 Sekunden
06:58
is going to take placeOrt in the nextNächster fivefünf secondsSekunden.
145
406843
5893
ein Autounfall stattfinden wird.
07:04
And then what we will have datafieddatafied
146
412736
2557
Dann werden wir Fahrerermüdung
als Daten aufgenommen haben.
07:07
is driverTreiber fatigueMüdigkeit,
147
415293
1783
Die Dienstleistung wäre dann,
wenn das Auto spürt,
07:09
and the serviceBedienung would be when the carAuto sensesSinne
148
417076
2334
07:11
that the personPerson slumpsEinbrüchen into that positionPosition,
149
419410
3437
dass die Person in diese Position fällt,
07:14
automaticallyautomatisch knowsweiß, hey, setSet an internalintern alarmAlarm
150
422847
3994
dann weiß es automatisch, dass es
einen internen Alarm auslösen muss,
welcher das Lenkrad vibrieren lässt,
im Auto hupt,
07:18
that would vibratevibrieren the steeringLenkung wheelRad, honkHupen insideinnen
151
426841
2025
07:20
to say, "Hey, wakeaufwachen up,
152
428866
1721
um zu sagen: "Hey, wach auf,
07:22
payZahlen more attentionAufmerksamkeit to the roadStraße."
153
430587
1904
pass besser auf die Straße auf."
Solche Dinge können wir umsetzen,
07:24
These are the sortssortiert of things we can do
154
432491
1853
07:26
when we datafydatafy more aspectsAspekte of our livesLeben.
155
434344
2821
wenn wir mehr Aspekte unseres Lebens
in Daten umwandeln.
07:29
So what is the valueWert of biggroß dataDaten?
156
437165
3675
Was ist also der Wert von Big Data?
07:32
Well, think about it.
157
440840
2190
Nun ja, denken Sie darüber nach.
07:35
You have more informationInformation.
158
443030
2412
Man hat mehr Informationen.
07:37
You can do things that you couldn'tkonnte nicht do before.
159
445442
3341
Man kann Dinge tun,
die man vorher nicht tun konnte.
07:40
One of the mostdie meisten impressivebeeindruckend areasBereiche
160
448783
1676
Eines der beeindruckendsten Gebiete
07:42
where this conceptKonzept is takingunter placeOrt
161
450459
1729
für die Anwendung dieses Konzepts
07:44
is in the areaBereich of machineMaschine learningLernen.
162
452188
3307
ist der Bereich
des Maschinellen Lernens.
Maschinelles Lernen ist
ein Zweig der künstlichen Intelligenz,
07:47
MachineMaschine learningLernen is a branchAst of artificialkünstlich intelligenceIntelligenz,
163
455495
3077
07:50
whichwelche itselfselbst is a branchAst of computerComputer scienceWissenschaft.
164
458572
3378
die wiederum ein Zweig
der Informatik ist.
07:53
The generalGeneral ideaIdee is that insteadstattdessen of
165
461950
1543
Der Grundgedanke ist,
07:55
instructinganweisen a computerComputer what do do,
166
463493
2117
anstatt einem Computer beizubringen,
was zu tun ist,
07:57
we are going to simplyeinfach throwwerfen dataDaten at the problemProblem
167
465610
2620
füttern wir ihn einfach mit Daten
08:00
and tell the computerComputer to figureZahl it out for itselfselbst.
168
468230
3206
und lassen den Computer
das Problem selbst lösen.
08:03
And it will help you understandverstehen it
169
471436
1777
Das können Sie besser verstehen,
08:05
by seeingSehen its originsHerkunft.
170
473213
3552
wenn Sie die Ursprünge kennenlernen.
08:08
In the 1950s, a computerComputer scientistWissenschaftler
171
476765
2388
In den 1950ern spielte ein Informatiker
08:11
at IBMIBM namedgenannt ArthurArthur SamuelSamuel likedgefallen to playspielen checkersCheckers,
172
479153
3592
bei IBM mit dem Namen
Arthur Samuel gerne Dame,
08:14
so he wroteschrieb a computerComputer programProgramm
173
482745
1402
also schrieb er ein Programm,
08:16
so he could playspielen againstgegen the computerComputer.
174
484147
2813
um gegen den Computer spielen zu können.
08:18
He playedgespielt. He wongewonnen.
175
486960
2711
Er spielte. Er gewann.
08:21
He playedgespielt. He wongewonnen.
176
489671
2103
Er spielte. Er gewann.
08:23
He playedgespielt. He wongewonnen,
177
491774
3015
Er spielte. Er gewann,
08:26
because the computerComputer only knewwusste
178
494789
1778
weil der Computer nur wusste,
08:28
what a legallegal moveBewegung was.
179
496567
2227
was ein erlaubter Zug ist.
08:30
ArthurArthur SamuelSamuel knewwusste something elsesonst.
180
498794
2087
Arthur Samuel wusste noch etwas anderes.
08:32
ArthurArthur SamuelSamuel knewwusste strategyStrategie.
181
500881
4629
Arthur Samuel kannte Strategien.
08:37
So he wroteschrieb a smallklein sub-programUnterprogramm alongsideNeben it
182
505510
2396
Deshalb schrieb er dazu
ein kleines Unterprogramm,
08:39
operatingBetriebs in the backgroundHintergrund, and all it did
183
507906
1974
das im Hintergrund arbeitete
08:41
was scoreErgebnis the probabilityWahrscheinlichkeit
184
509880
1817
und die Wahrscheinlichkeit bewertete,
08:43
that a givengegeben boardTafel configurationKonfiguration would likelywahrscheinlich leadführen
185
511697
2563
ob eine bestimmte Brettaufstellung eher
zu einem gewinnenden oder
verlierenden Brett führt.
08:46
to a winninggewinnen boardTafel versusgegen a losingverlieren boardTafel
186
514260
2910
08:49
after everyjeden moveBewegung.
187
517170
2508
Die Berechnung erfolgte Zug für Zug.
08:51
He playsTheaterstücke the computerComputer. He winsGewinnt.
188
519678
3150
Er spielt gegen den Computer. Er gewinnt.
08:54
He playsTheaterstücke the computerComputer. He winsGewinnt.
189
522828
2508
Er spielt gegen den Computer. Er gewinnt.
08:57
He playsTheaterstücke the computerComputer. He winsGewinnt.
190
525336
3731
Er spielt gegen den Computer. Er gewinnt.
09:01
And then ArthurArthur SamuelSamuel leavesBlätter the computerComputer
191
529067
2277
Und dann lässt Arthur Samuel den Computer
09:03
to playspielen itselfselbst.
192
531344
2227
gegen sich selbst spielen.
09:05
It playsTheaterstücke itselfselbst. It collectssammelt more dataDaten.
193
533571
3509
Er spielt für sich selbst.
Er sammelt mehr Daten.
09:09
It collectssammelt more dataDaten. It increaseserhöht sich
the accuracyGenauigkeit of its predictionPrognose.
194
537080
4309
Er sammelt mehr Daten. Er erhöht
die Genauigkeit seiner Voraussagen.
09:13
And then ArthurArthur SamuelSamuel goesgeht back to the computerComputer
195
541389
2104
Dann geht Arthur Samuel
zurück zum Computer,
09:15
and he playsTheaterstücke it, and he losesverliert,
196
543493
2318
spielt gegen ihn und er verliert,
09:17
and he playsTheaterstücke it, and he losesverliert,
197
545811
2069
und er spielt gegen ihn und er verliert,
09:19
and he playsTheaterstücke it, and he losesverliert,
198
547880
2047
und er spielt gegen ihn und er verliert.
09:21
and ArthurArthur SamuelSamuel has createderstellt a machineMaschine
199
549927
2599
Damit erfindet Arthur Samuel
eine Maschine,
09:24
that surpassesübertrifft his abilityFähigkeit in a taskAufgabe that he taughtgelehrt it.
200
552526
6288
die seine Fähigkeit in einer Aufgabe
übertrifft, die er ihr selbst beibrachte.
09:30
And this ideaIdee of machineMaschine learningLernen
201
558814
2498
Dieses Konzept des Maschinellen Lernens
09:33
is going everywhereüberall.
202
561312
3927
verbreitet sich überallhin.
09:37
How do you think we have self-drivingselbstfahrender carsAutos?
203
565239
3149
Wie, denken Sie, sind wir zu
selbstfahrenden Autos gekommen?
09:40
Are we any better off as a societyGesellschaft
204
568388
2137
Geht es uns als Gesellschaft besser,
09:42
enshriningdie Festschreibung all the rulesRegeln of the roadStraße into softwareSoftware?
205
570525
3285
wenn wir alle Verkehrsregeln
in Computerprogramme speisen?
09:45
No. MemorySpeicher is cheaperbilliger. No.
206
573810
2598
Nein. Datenspeicher ist billiger. Nein.
09:48
AlgorithmsAlgorithmen are fasterschneller. No. ProcessorsProzessoren are better. No.
207
576408
3994
Algorithmen sind schneller. Nein.
Prozessoren sind besser. Nein.
09:52
All of those things matterAngelegenheit, but that's not why.
208
580402
2772
All diese Dinge sind wichtig,
aber nicht entscheidend.
09:55
It's because we changedgeändert the natureNatur of the problemProblem.
209
583174
3141
Das liegt daran, dass wir das Wesen
des Problems verändert haben.
Wir haben das Wesen des Problems
09:58
We changedgeändert the natureNatur of the problemProblem from one
210
586315
1530
09:59
in whichwelche we triedversucht to overtlyoffen and explicitlyausdrücklich
211
587845
2245
von einem, in dem wir versuchten,
dem Computer deutlich zu erklären,
wie man fährt,
10:02
explainerklären to the computerComputer how to driveFahrt
212
590090
2581
zu einem verändert, in dem wir sagen:
10:04
to one in whichwelche we say,
213
592671
1316
10:05
"Here'sHier ist a lot of dataDaten around the vehicleFahrzeug.
214
593987
1876
"Hier gibt es viele Daten
um das Auto herum.
10:07
You figureZahl it out.
215
595863
1533
Du findest es heraus.
Du findest heraus,
dass das eine Ampel ist,
10:09
You figureZahl it out that that is a trafficder Verkehr lightLicht,
216
597396
1867
dass die Ampel rot und
nicht grün leuchtet,
10:11
that that trafficder Verkehr lightLicht is redrot and not greenGrün,
217
599263
2081
dass das bedeutet, dass man anhalten muss
10:13
that that meansmeint that you need to stop
218
601344
2014
10:15
and not go forwardVorwärts-."
219
603358
3083
und nicht weiterfahren darf."
Maschinelles Lernen ist die Grundlage
10:18
MachineMaschine learningLernen is at the basisBasis
220
606441
1518
10:19
of manyviele of the things that we do onlineonline:
221
607959
1991
für viele Dinge, die wir online tun:
10:21
searchSuche enginesMotoren,
222
609950
1857
Suchmaschinen,
10:23
Amazon'sAmazons personalizationPersonalisierung algorithmAlgorithmus,
223
611807
3801
die Personalisierungsalgorithmen
von Amazon,
10:27
computerComputer translationÜbersetzung,
224
615608
2212
computergestützte Übersetzungen,
10:29
voiceStimme recognitionAnerkennung systemsSysteme.
225
617820
4290
Spracherkennungssysteme.
10:34
ResearchersForscher recentlyvor kurzem have lookedsah at
226
622110
2835
Forscher haben sich neulich
mit der Frage
von Gewebeentnahmen beschäftigt,
10:36
the questionFrage of biopsiesBiopsien,
227
624945
3195
10:40
cancerousKrebs biopsiesBiopsien,
228
628140
2767
Entnahmen von krebskrankem Gewebe.
Sie haben den Computer
10:42
and they'veSie haben askedaufgefordert the computerComputer to identifyidentifizieren
229
630907
2315
mit Daten und Überlebensraten gefüttert,
10:45
by looking at the dataDaten and survivalÜberleben ratesPreise
230
633222
2471
10:47
to determinebestimmen whetherob cellsZellen are actuallytatsächlich
231
635693
4667
und ihn angewiesen zu bestimmen,
ob die Zellen tatsächlich
krebserregend sind oder nicht.
10:52
cancerousKrebs or not,
232
640360
2544
Nach dem Füttern mit Daten
konnte der Rechner
10:54
and sure enoughgenug, when you throwwerfen the dataDaten at it,
233
642904
1778
10:56
throughdurch a machine-learningmaschinelles lernen algorithmAlgorithmus,
234
644682
2047
durch einen maschinellen Lernalgorithmus
10:58
the machineMaschine was ablefähig to identifyidentifizieren
235
646729
1877
die 12 verdächtigsten Zeichen erkennen,
die am besten vorhersagen,
11:00
the 12 telltaleverräterische signsSchilder that bestBeste predictvorhersagen
236
648606
2262
11:02
that this biopsyBiopsie of the breastBrust cancerKrebs cellsZellen
237
650868
3299
dass die Gewebeentnahme
von Brustkrebszellen
11:06
are indeedtatsächlich cancerousKrebs.
238
654167
3218
wirklich Krebszellen enthalten.
11:09
The problemProblem: The medicalmedizinisch literatureLiteratur
239
657385
2498
Das Problem dabei:
Die medizinische Literatur
11:11
only knewwusste nineneun of them.
240
659883
2789
kannte nur neun davon.
11:14
ThreeDrei of the traitsZüge were onesEinsen
241
662672
1800
Drei Merkmale waren welche,
11:16
that people didn't need to look for,
242
664472
2975
die man bisher nicht suchen musste,
11:19
but that the machineMaschine spottedgesichtet.
243
667447
5531
die aber vom Rechner entdeckt wurden.
11:24
Now, there are darkdunkel sidesSeiten to biggroß dataDaten as well.
244
672978
5925
Es gibt aber auch
eine dunkle Seite von Big Data.
11:30
It will improveverbessern our livesLeben, but there are problemsProbleme
245
678903
2074
Die Daten werden unser Leben verbessern,
aber es gibt auch Probleme,
die uns bewusst sein müssen
11:32
that we need to be consciousbewusst of,
246
680977
2640
11:35
and the first one is the ideaIdee
247
683617
2623
und dazu gehört zuallererst,
11:38
that we maykann be punishedbestraft for predictionsVorhersagen,
248
686240
2686
dass wir für Vorhersagen
bestraft werden könnten,
11:40
that the policePolizei maykann use biggroß dataDaten for theirihr purposesZwecke,
249
688926
3870
dass die Polizei die Daten
für ihre Zwecke benutzen könnte,
fast wie im Film "Minority Report".
11:44
a little bitBit like "MinorityMinderheit ReportBericht."
250
692796
2351
Man nennt das "predictive policing"
[Verbrechen voraussagen]
11:47
Now, it's a termBegriff callednamens predictiveprädiktive policingPolizeiarbeit,
251
695147
2441
11:49
or algorithmicalgorithmische criminologyKriminologie,
252
697588
2363
oder "algorithmic criminology",
was bedeutet, dass man
eine Menge Daten sammelt,
11:51
and the ideaIdee is that if we take a lot of dataDaten,
253
699951
2036
z. B. wo vergangene Verbrechen
begangen wurden,
11:53
for exampleBeispiel where pastVergangenheit crimesVerbrechen have been,
254
701987
2159
11:56
we know where to sendsenden the patrolsPatrouillen.
255
704146
2543
und weiß, wohin man
die Polizeistreifen schicken muss.
11:58
That makesmacht senseSinn, but the problemProblem, of courseKurs,
256
706689
2115
Das leuchtet ein,
aber das Problem ist natürlich,
12:00
is that it's not simplyeinfach going to stop on locationLage dataDaten,
257
708804
4544
dass es nicht einfach bei
Standortdaten aufhören wird,
12:05
it's going to go down to the levelEbene of the individualPerson.
258
713348
2959
es wird auch auf der Ebene
der individuellen Daten passieren.
12:08
Why don't we use dataDaten about the person'sPerson
259
716307
2250
Warum verwenden wir nicht die Daten
12:10
highhoch schoolSchule transcriptTranskript?
260
718557
2228
über das Abschlusszeugnis einer Person?
Vielleicht sollten wir prüfen,
12:12
Maybe we should use the factTatsache that
261
720785
1561
ob sie arbeiten oder nicht,
ihre Kreditwürdigkeit,
12:14
they're unemployedarbeitslos or not, theirihr creditKredit scoreErgebnis,
262
722346
2028
12:16
theirihr web-surfingWeb-surfen behaviorVerhalten,
263
724374
1552
ihr Surfverhalten,
12:17
whetherob they're up latespät at night.
264
725926
1878
oder ob sie bis spät nachts
wach sind.
12:19
TheirIhre FitbitFitbit, when it's ablefähig
to identifyidentifizieren biochemistriesbiochemistries,
265
727804
3161
Sobald ihr "Fitbit" biochemische
Prozesse erkennen kann,
12:22
will showShow that they have aggressiveaggressiv thoughtsGedanken.
266
730965
4236
wird es zeigen können,
wann jemand aggressive Gedanken hat.
Wir werden vielleicht Algorithmen haben,
12:27
We maykann have algorithmsAlgorithmen that are likelywahrscheinlich to predictvorhersagen
267
735201
2221
die vorhersagen könnten,
was wir tun werden,
12:29
what we are about to do,
268
737422
1633
12:31
and we maykann be heldgehalten accountableverantwortlich
269
739055
1244
und wir könnten bestraft werden,
12:32
before we'vewir haben actuallytatsächlich actedgehandelt.
270
740299
2590
bevor wir tatsächlich gehandelt haben.
Privatsphäre war
die größte Herausforderung
12:34
PrivacyDatenschutz was the centralzentral challengeHerausforderung
271
742889
1732
12:36
in a smallklein dataDaten eraEpoche.
272
744621
2880
im Zeitalter der Small Data.
12:39
In the biggroß dataDaten ageAlter,
273
747501
2149
Im Zeitalter der Big Data
12:41
the challengeHerausforderung will be safeguardingSicherung freefrei will,
274
749650
4523
wird die Herausforderung sein,
den freien Willen,
12:46
moralMoral- choiceWahl, humanMensch volitionVolition,
275
754173
3779
moralische Entscheidungen,
menschliche Willensäußerungen
12:49
humanMensch agencyAgentur.
276
757952
3068
und menschliches Handeln zu beschützen.
12:54
There is anotherein anderer problemProblem:
277
762540
2225
Es gibt ein weiters Problem:
12:56
BigGroß dataDaten is going to stealstehlen our jobsArbeitsplätze.
278
764765
3556
Big Data wird unsere Jobs klauen.
13:00
BigGroß dataDaten and algorithmsAlgorithmen are going to challengeHerausforderung
279
768321
3512
Big Data und Algorithmen werden
eine Herausforderung
13:03
whiteWeiß collarKragen, professionalProfessionel knowledgeWissen work
280
771833
3061
für Angestellte
und professionelle Wissensarbeit
13:06
in the 21stst centuryJahrhundert
281
774894
1653
im 21. Jahrhundert
13:08
in the samegleich way that factoryFabrik automationAutomatisierung
282
776547
2434
auf die gleiche Art werden,
wie die Fabrikautomation
13:10
and the assemblyVersammlung lineLinie
283
778981
2189
und das Fließband
13:13
challengedherausgefordert blueblau collarKragen laborArbeit in the 20thth centuryJahrhundert.
284
781170
3026
eine Herausforderung für Arbeiter
im 20. Jahrhundert war.
13:16
Think about a labLabor technicianTechniker
285
784196
2092
Denken Sie an einen Laboranten,
13:18
who is looking throughdurch a microscopeMikroskop
286
786288
1409
der durch ein Mikroskop
13:19
at a cancerKrebs biopsyBiopsie
287
787697
1624
Gewebeentnahmen anschaut
13:21
and determiningBestimmen whetherob it's cancerousKrebs or not.
288
789321
2637
und bestimmt,
ob es Krebszellen sind oder nicht.
13:23
The personPerson wentging to universityUniversität.
289
791958
1972
Die Person ging zur Universität.
Die Person kauft ein Grundstück.
13:25
The personPerson buyskauft ein propertyEigentum.
290
793930
1430
13:27
He or she votesStimmen.
291
795360
1741
Er oder sie wählt.
13:29
He or she is a stakeholderStakeholder in societyGesellschaft.
292
797101
3666
Er oder sie ist ein wichtiger
Akteur in der Gesellschaft.
13:32
And that person'sPerson jobJob,
293
800767
1394
Der Beruf der Person,
13:34
as well as an entireganz fleetFlotte
294
802161
1609
genauso wie ein ganzes Geschwader
13:35
of professionalsProfis like that personPerson,
295
803770
1969
an Berufstätigen wie diese Person,
13:37
is going to find that theirihr jobsArbeitsplätze are radicallyradikal changedgeändert
296
805739
3150
wird feststellen, dass ihre Berufe
sich radikal verändern
oder sogar komplett verdrängt werden.
13:40
or actuallytatsächlich completelyvollständig eliminatedeliminiert.
297
808889
2357
Wir mögen den Gedanken,
13:43
Now, we like to think
298
811246
1284
dass Technologie in einem bestimmten
Zeitraum neue Berufe
13:44
that technologyTechnologie createserstellt jobsArbeitsplätze over a periodPeriode of time
299
812530
3187
13:47
after a shortkurz, temporarytemporär periodPeriode of dislocationLuxation,
300
815717
3465
nach einer kurzen vorübergehenden Zeit
der Verlagerung schafft,
13:51
and that is truewahr for the frameRahmen of referenceReferenz
301
819182
1941
und das stimmt für unseren Bezugsrahmen,
13:53
with whichwelche we all liveLeben, the IndustrialIndustrielle RevolutionRevolution,
302
821123
2142
die industrielle Revolution,
13:55
because that's preciselygenau what happenedpassiert.
303
823265
2328
weil genau das passiert ist.
13:57
But we forgetvergessen something in that analysisAnalyse:
304
825593
2333
Aber wir vergessen etwas in der Analyse:
13:59
There are some categoriesKategorien of jobsArbeitsplätze
305
827926
1830
Es gibt einige Arten von Berufen,
14:01
that simplyeinfach get eliminatedeliminiert and never come back.
306
829756
3420
die einfach verdrängt werden
und nie zurückkommen.
Die industrielle Revolution war
nicht sehr gut,
14:05
The IndustrialIndustrielle RevolutionRevolution wasn'twar nicht very good
307
833176
2004
14:07
if you were a horsePferd.
308
835180
4002
wenn man ein Pferd war.
14:11
So we're going to need to be carefulvorsichtig
309
839182
2055
Deshalb müssen wir vorsichtig sein
14:13
and take biggroß dataDaten and adjusteinstellen it for our needsBedürfnisse,
310
841237
3514
und Big Data
unseren Bedürfnissen anpassen,
14:16
our very humanMensch needsBedürfnisse.
311
844751
3185
unseren zutiefst
menschlichen Bedürfnissen.
Wir müssen die Herrscher
über diese Technologie sein
14:19
We have to be the masterMeister of this technologyTechnologie,
312
847936
1954
14:21
not its servantDiener.
313
849890
1656
und nicht ihre Diener.
14:23
We are just at the outsetAnfang an of the biggroß dataDaten eraEpoche,
314
851546
2958
Wir stehen erst am Anfang
des Zeitalters der Big Data,
14:26
and honestlyehrlich, we are not very good
315
854504
3150
und ehrlich gesagt sind wir nicht sehr gut
14:29
at handlingHandhabung all the dataDaten that we can now collectsammeln.
316
857654
4207
im Umgang mit all den Daten,
die wir erheben können.
Es ist nicht nur ein Problem für
die National Security Agency [NSA].
14:33
It's not just a problemProblem for
the NationalNationalen SecuritySicherheit AgencyAgentur.
317
861861
3330
Unternehmen erheben auch viele Daten
und sie missbrauchen sie auch,
14:37
BusinessesUnternehmen collectsammeln lots of
dataDaten, and they misuseMissbrauch it too,
318
865191
3038
und wir müssen darin besser werden
und das wird Zeit brauchen.
14:40
and we need to get better at
this, and this will take time.
319
868229
3667
Es ist ein bisschen wie
die Herausforderung,
14:43
It's a little bitBit like the challengeHerausforderung that was facedkonfrontiert
320
871896
1822
die Feuer für den
primitiven Menschen darstellte.
14:45
by primitivePrimitive man and fireFeuer.
321
873718
2407
14:48
This is a toolWerkzeug, but this is a toolWerkzeug that,
322
876125
1885
Es ist ein Werkzeug, aber eines,
14:50
unlesses sei denn we're carefulvorsichtig, will burnbrennen us.
323
878010
3559
an dem wir uns verbrennen
werden, wenn wir nicht aufpassen.
Big Data wird unser Art, wie wir leben,
grundlegend verändern,
14:56
BigGroß dataDaten is going to transformverwandeln how we liveLeben,
324
884008
3120
ebenso wie wir arbeiten
und wie wir denken.
14:59
how we work and how we think.
325
887128
2801
Es wird uns helfen
unsere Berufe zu bewältigen
15:01
It is going to help us manageverwalten our careersKarrieren
326
889929
1889
15:03
and leadführen livesLeben of satisfactionBefriedigung and hopeHoffnung
327
891818
3634
und ein Leben voller Zufriedenheit
und Hoffnung
15:07
and happinessGlück and healthGesundheit,
328
895452
2992
und Glück und Gesundheit zu führen,
aber in der Vergangenheit haben wir
bei Informationstechnologie
15:10
but in the pastVergangenheit, we'vewir haben oftenhäufig
lookedsah at informationInformation technologyTechnologie
329
898444
3306
nur das "T" gesehen,
15:13
and our eyesAugen have only seengesehen the T,
330
901750
2208
die Technologie, die Hardware,
15:15
the technologyTechnologie, the hardwareHardware-,
331
903958
1686
15:17
because that's what was physicalphysisch.
332
905644
2262
weil das greifbar war.
15:19
We now need to recastNeufassung our gazeBlick at the I,
333
907906
2924
Jetzt müssen wir unseren Blick
auf das "I" richten,
15:22
the informationInformation,
334
910830
1380
die Information,
15:24
whichwelche is lessWeniger apparentscheinbare,
335
912210
1373
die weniger sichtbar ist,
15:25
but in some waysWege a lot more importantwichtig.
336
913583
4109
aber in mancher Weise viel wichtiger ist.
15:29
HumanityMenschheit can finallyendlich learnlernen from the informationInformation
337
917692
3465
Die Menschheit kann endlich
von den Informationen lernen,
15:33
that it can collectsammeln,
338
921157
2418
die sie einsammelt,
15:35
as partTeil of our timelesszeitlose questSuche
339
923575
2115
als Teil unserer zeitlosen Aufgabe,
15:37
to understandverstehen the worldWelt and our placeOrt in it,
340
925690
3159
die Welt und unseren Platz
darin zu verstehen,
15:40
and that's why biggroß dataDaten is a biggroß dealDeal.
341
928849
5631
und deshalb ist Big Data
eine große Sache.
15:46
(ApplauseApplaus)
342
934480
3568
(Applaus)
Translated by Sven Weckmann
Reviewed by Marco Caresia

▲Back to top

ABOUT THE SPEAKER
Kenneth Cukier - Data Editor of The Economist
Kenneth Cukier is the Data Editor of The Economist. From 2007 to 2012 he was the Tokyo correspondent, and before that, the paper’s technology correspondent in London, where his work focused on innovation, intellectual property and Internet governance. Kenneth is also the co-author of Big Data: A Revolution That Will Transform How We Live, Work, and Think with Viktor Mayer-Schönberger in 2013, which was a New York Times Bestseller and translated into 16 languages.

Why you should listen

As Data Editor of The Economist and co-author of Big Data: A Revolution That Will Transform How We Live, Work, and Think, Kenneth Cukier has spent years immersed in big data, machine learning -- and the impact of both. What's the future of big data-driven technology and design? To find out, watch this talk.

More profile about the speaker
Kenneth Cukier | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee