ABOUT THE SPEAKER
Kevin Slavin - Algoworld expert
Kevin Slavin navigates in the algoworld, the expanding space in our lives that’s determined and run by algorithms.

Why you should listen

Are you addicted to the dead-simple numbers game Drop 7 or Facebook’s Parking Wars? Blame Kevin Slavin and the game development company he co-founded in 2005, Area/Code, which makes clever game entertainments that enter the fabric of reality.

All this fun is powered by algorithms -- as, increasingly, is our daily life. From the Google algorithms to the algos that give you “recommendations” online to those that automatically play the stock markets (and sometimes crash them): we may not realize it, but we live in the algoworld.

He says: "The quickest way to find out what the boundaries of reality are is to figure where they break."

More profile about the speaker
Kevin Slavin | Speaker | TED.com
TEDGlobal 2011

Kevin Slavin: How algorithms shape our world

Kevin Slavin: Wie Algorithmen unsere Welt prägen

Filmed:
4,199,898 views

Kevin Slavin behauptet, dass wir in einer Welt leben, die zunehmend von Algorithmen bestimmt wird. In diesem fesselnden TEDGlobal-Vortrag zeigt er uns, was diese komplexen Computerprogramme steuern: Spionagetaktiken, Aktienkurse, Drehbücher und Architektur. Und er warnt uns davor, Programmcode zu schreiben, dessen Auswirkungen wir nicht verstehen und nicht kontrollieren können.
- Algoworld expert
Kevin Slavin navigates in the algoworld, the expanding space in our lives that’s determined and run by algorithms. Full bio

Double-click the English transcript below to play the video.

00:15
This is a photographFoto
0
0
2000
Das ist eine Fotografie
00:17
by the artistKünstler MichaelMichael NajjarNajjar,
1
2000
2000
vom Künstler Michael Najjar,
00:19
and it's realecht,
2
4000
2000
und sie ist echt,
00:21
in the senseSinn that he wentging there to ArgentinaArgentinien
3
6000
2000
im Sinne, dass er nach Argentinien ging
00:23
to take the photoFoto.
4
8000
2000
um ein Bild zu schießen.
00:25
But it's alsoebenfalls a fictionFiktion. There's a lot of work that wentging into it after that.
5
10000
3000
Aber es ist auch erfunden, denn danach wurde eine Menge Arbeit hineingesteckt.
00:28
And what he's doneerledigt
6
13000
2000
Und was er gemacht hat ist,
00:30
is he's actuallytatsächlich reshapedumgeformt, digitallydigital,
7
15000
2000
dass er tatsächlich am Computer
00:32
all of the contoursKonturen of the mountainsBerge
8
17000
2000
das Profil der Berge umgeformt hat,
00:34
to followFolgen the vicissitudesWechselfälle of the DowDow JonesJones indexIndex.
9
19000
3000
so dass es den Launen des Dow-Jones-Index folgt.
00:37
So what you see,
10
22000
2000
Was man also sieht,
00:39
that precipiceam Abgrund, that highhoch precipiceam Abgrund with the valleyTal,
11
24000
2000
dieser Steilhang, dieser hohe Steilhang mit dem Tal
00:41
is the 2008 financialfinanziell crisisKrise.
12
26000
2000
ist die Finanzkrise von 2008.
00:43
The photoFoto was madegemacht
13
28000
2000
Dieses Photo wurde gemacht,
00:45
when we were deeptief in the valleyTal over there.
14
30000
2000
als wir tief in diesem Tal hier drüben steckten.
00:47
I don't know where we are now.
15
32000
2000
Ich weiß nicht, wo wir jetzt sind.
00:49
This is the HangHängen SengSeng indexIndex
16
34000
2000
Das ist der Hang-Seng-Index
00:51
for HongHong KongKong.
17
36000
2000
von Hong Kong.
00:53
And similarähnlich topographyTopographie.
18
38000
2000
Mit einer ähnlichen Topographie.
00:55
I wonderWunder why.
19
40000
2000
Ich frage mich warum.
00:57
And this is artKunst. This is metaphorMetapher.
20
42000
3000
Und das ist Kunst. Es sind Metaphern.
01:00
But I think the pointPunkt is
21
45000
2000
Aber ich denke, der Punkt ist,
01:02
that this is metaphorMetapher with teethZähne,
22
47000
2000
es sind Metaphern mit Biss.
01:04
and it's with those teethZähne that I want to proposevorschlagen todayheute
23
49000
3000
Und mit solch einem Biss möchte ich heute vorschlagen,
01:07
that we rethinküberdenken a little bitBit
24
52000
2000
dass wir die Rolle von zeitgenössischer
01:09
about the roleRolle of contemporaryzeitgenössisch mathMathe --
25
54000
3000
Mathematik ein bisschen überdenken –
01:12
not just financialfinanziell mathMathe, but mathMathe in generalGeneral.
26
57000
3000
nicht nur Finanzmathematik, sondern Mathematik im Allgemeinen.
01:15
That its transitionÜbergang
27
60000
2000
Ihr Übergang von etwas
01:17
from beingSein something that we extractExtrakt and deriveableiten from the worldWelt
28
62000
3000
das wir von der Welt abgeleitet haben
01:20
to something that actuallytatsächlich startsbeginnt to shapegestalten it --
29
65000
3000
zu etwas, das diese tatsächlich zu formen beginnt –
01:23
the worldWelt around us and the worldWelt insideinnen us.
30
68000
3000
die Welt um uns herum und die Welt in uns.
01:26
And it's specificallyspeziell algorithmsAlgorithmen,
31
71000
2000
Und es sind im Besonderen Algorithmen,
01:28
whichwelche are basicallyGrundsätzlich gilt the mathMathe
32
73000
2000
die Im Grunde genommen die Mathemathik sind
01:30
that computersComputer use to decideentscheiden stuffSachen.
33
75000
3000
die Computer benutzen, um irgendwas zu entscheiden.
01:33
They acquireerwerben the sensibilitySensibilität of truthWahrheit
34
78000
2000
Sie erlangen ein Wahrheitsvermögen,
01:35
because they repeatwiederholen over and over again,
35
80000
2000
weil sie sich immer und immer wiederholen.
01:37
and they ossifyverknöchern and calcifyverkalken,
36
82000
3000
Und sie verkalken und verknöchern,
01:40
and they becomewerden realecht.
37
85000
2000
und werden wirklich.
01:42
And I was thinkingDenken about this, of all placessetzt,
38
87000
3000
Und ich habe über das nachgedacht, neben allen anderen Orten,
01:45
on a transatlantictransatlantische flightFlug a couplePaar of yearsJahre agovor,
39
90000
3000
in einem transatlantischen Flug vor ein paar Jahren,
01:48
because I happenedpassiert to be seatedsitzt
40
93000
2000
weil ich zufällig neben
01:50
nextNächster to a HungarianUngarisch physicistPhysiker about my ageAlter
41
95000
2000
einem ungarischen Physiker in meinem Alter saß
01:52
and we were talkingim Gespräch
42
97000
2000
und wir unterhielten uns darüber,
01:54
about what life was like duringwährend the ColdKälte WarKrieg
43
99000
2000
wie das Leben während des Kalten Kriegs war
01:56
for physicistsPhysiker in HungaryUngarn.
44
101000
2000
für Physiker in Ungarn.
01:58
And I said, "So what were you doing?"
45
103000
2000
Ich sagte: „Was habt Ihr also gemacht?“
02:00
And he said, "Well we were mostlymeist breakingbrechen stealthStealth."
46
105000
2000
Und er meinte: „Nun, wir haben hauptsächlich versucht, die Tarnkappentechnik zu knacken.“
02:02
And I said, "That's a good jobJob. That's interestinginteressant.
47
107000
2000
Und ich sagte: „Das ist gute Arbeit. Das ist interessant.
02:04
How does that work?"
48
109000
2000
Wie funktioniert das?“
02:06
And to understandverstehen that,
49
111000
2000
Um das zu verstehen,
02:08
you have to understandverstehen a little bitBit about how stealthStealth worksWerke.
50
113000
3000
muss man ein bisschen wissen, wie die Tarnkappentechnik funktioniert.
02:11
And so -- this is an over-simplificationstarke Vereinfachung --
51
116000
3000
Und – das ist eine starke Vereinfachung –
02:14
but basicallyGrundsätzlich gilt, it's not like
52
119000
2000
aber im Grunde ist es nicht so,
02:16
you can just passbestehen a radarRadar signalSignal
53
121000
2000
dass man ein Radarsignal einfach durch
02:18
right throughdurch 156 tonsTonnen of steelstehlen in the skyHimmel.
54
123000
3000
156 Tonnen Stahl im Himmel hindurch schicken kann.
02:21
It's not just going to disappearverschwinden.
55
126000
3000
Es wird nicht einfach verschwinden.
02:24
But if you can take this biggroß, massivemassiv thing,
56
129000
3000
Aber wenn man dieses riesige, massive Ding nimmt
02:27
and you could turnWende it into
57
132000
3000
und es in eine Million
02:30
a millionMillion little things --
58
135000
2000
kleiner Dinge verwandelt –
02:32
something like a flockHerde of birdsVögel --
59
137000
2000
sowas wie ein Vogelschwarm –
02:34
well then the radarRadar that's looking for that
60
139000
2000
dann muss der Radar, der danach sucht
02:36
has to be ablefähig to see
61
141000
2000
in der Lage sein,
02:38
everyjeden flockHerde of birdsVögel in the skyHimmel.
62
143000
2000
jeden Vogelschwarm am Himmel zu sehen.
02:40
And if you're a radarRadar, that's a really badschlecht jobJob.
63
145000
4000
Und wenn man ein Radar ist, ist das ein echt mieser Job.
02:44
And he said, "Yeah." He said, "But that's if you're a radarRadar.
64
149000
3000
Er sagte: „Ja, aber so ist das, wenn man ein Radar ist.
02:47
So we didn't use a radarRadar;
65
152000
2000
Also haben wir keinen Radar benutzt;
02:49
we builtgebaut a blackschwarz boxBox that was looking for electricalelektrisch signalsSignale,
66
154000
3000
wir haben eine Blackbox gebastelt, die nach elektrischen Signalen sucht,
02:52
electronicelektronisch communicationKommunikation.
67
157000
3000
elektronischer Kommunikation.
02:55
And wheneverwann immer we saw a flockHerde of birdsVögel that had electronicelektronisch communicationKommunikation,
68
160000
3000
Und jedesmal, wenn wir einen Vogelschwarm mit elektronischer Kommunikation sahen,
02:58
we thought, 'Probably"Wahrscheinlich has something to do with the AmericansAmerikaner.'"
69
163000
3000
dachten wir, dass es wahrscheinlich etwas mit den Amerikanern zu tun hat.“
03:01
And I said, "Yeah.
70
166000
2000
Ich sagte: „Ja.
03:03
That's good.
71
168000
2000
Das ist gut.
03:05
So you've effectivelyeffektiv negatednegiert
72
170000
2000
Ihr habt gewissermaßen
03:07
60 yearsJahre of aeronauticAeronautic researchForschung.
73
172000
2000
60 Jahre Luftfahrtforschung zunichte gemacht.
03:09
What's your actHandlung two?
74
174000
2000
Was ist der zweite Akt?
03:11
What do you do when you growgrößer werden up?"
75
176000
2000
Was machst du jetzt, wo du groß bist?“
03:13
And he said,
76
178000
2000
Und er meinte:
03:15
"Well, financialfinanziell servicesDienstleistungen."
77
180000
2000
„Nun ja, Finanzdienstleistungen.“
03:17
And I said, "Oh."
78
182000
2000
Und ich sagte: „Oh.“
03:19
Because those had been in the newsNachrichten latelyin letzter Zeit.
79
184000
3000
Denn die waren damals in den Nachrichten.
03:22
And I said, "How does that work?"
80
187000
2000
Ich fragte: „Wie funktioniert das?“
03:24
And he said, "Well there's 2,000 physicistsPhysiker on WallWand StreetStraße now,
81
189000
2000
Und er sagte: „Nun, es gibt heute 2.000 Physiker an der Wall Street
03:26
and I'm one of them."
82
191000
2000
und ich bin einer von ihnen“
03:28
And I said, "What's the blackschwarz boxBox for WallWand StreetStraße?"
83
193000
3000
Und ich fragte: „Was ist die Blackbox für die Wall Street?“
03:31
And he said, "It's funnykomisch you askFragen that,
84
196000
2000
Er antwortete: „Witzig, dass du danach fragst,
03:33
because it's actuallytatsächlich callednamens blackschwarz boxBox tradingHandel.
85
198000
3000
denn man nennt das tatsächlich Blackbox-Handel.
03:36
And it's alsoebenfalls sometimesmanchmal callednamens algoAlgo tradingHandel,
86
201000
2000
Manchmal wird es auch Algo-Handel genannt,
03:38
algorithmicalgorithmische tradingHandel."
87
203000
3000
algorithmischer Handel.“
03:41
And algorithmicalgorithmische tradingHandel evolvedentwickelt in partTeil
88
206000
3000
Algorithmischer Handel entwickelte sich einerseits,
03:44
because institutionalinstitutionell tradersHändler have the samegleich problemsProbleme
89
209000
3000
weil institutionelle Händler die gleichen Probleme hatten
03:47
that the UnitedVereinigte StatesStaaten AirLuft ForceKraft had,
90
212000
3000
wie die United State Air Force,
03:50
whichwelche is that they're movingbewegend these positionsPositionen --
91
215000
3000
nämlich dass sie Positionen verschieben –
03:53
whetherob it's ProctorProctor & GambleSpielen or AccentureAccenture, whateverwas auch immer --
92
218000
2000
sei es Proctor & Gamble oder Accenture, was auch immer –
03:55
they're movingbewegend a millionMillion sharesAnteile of something
93
220000
2000
sie verschieben eine Million Aktien von irgendwas
03:57
throughdurch the marketMarkt.
94
222000
2000
durch den Markt.
03:59
And if they do that all at onceEinmal,
95
224000
2000
Und wenn sie das alles auf einmal machen,
04:01
it's like playingspielen pokerPoker and going all in right away.
96
226000
2000
ist es wie Poker spielen und sofort alles zu setzen.
04:03
You just tipSpitze your handHand.
97
228000
2000
Nur ein Wink mit der Hand.
04:05
And so they have to find a way --
98
230000
2000
Deshalb mussten sie einen Weg finden –
04:07
and they use algorithmsAlgorithmen to do this --
99
232000
2000
dafür benutzen sie Algorithmen –
04:09
to breakUnterbrechung up that biggroß thing
100
234000
2000
dieses große Ding in eine Million
04:11
into a millionMillion little transactionsTransaktionen.
101
236000
2000
kleiner Transaktionen aufzuspalten.
04:13
And the magicMagie and the horrorHorror of that
102
238000
2000
Der Zauber und der Schrecken davon ist,
04:15
is that the samegleich mathMathe
103
240000
2000
dass die gleiche Mathemathik,
04:17
that you use to breakUnterbrechung up the biggroß thing
104
242000
2000
die man verwendet, um das große Ding
04:19
into a millionMillion little things
105
244000
2000
in eine Million kleiner Dinge aufzuspalten,
04:21
can be used to find a millionMillion little things
106
246000
2000
auch dafür benutzt werden kann, eine Million kleiner Dinge zu finden,
04:23
and sewnähen them back togetherzusammen
107
248000
2000
diese wieder zusammenzunähen
04:25
and figureZahl out what's actuallytatsächlich happeningHappening in the marketMarkt.
108
250000
2000
und herauszufinden, was eigentlich im Markt vor sich geht.
04:27
So if you need to have some imageBild
109
252000
2000
Also, wenn Sie irgendein Bild brauchen davon,
04:29
of what's happeningHappening in the stockStock marketMarkt right now,
110
254000
3000
was gerade auf dem Aktienmarkt passiert,
04:32
what you can pictureBild is a bunchBündel of algorithmsAlgorithmen
111
257000
2000
können Sie sich einen Haufen Algorithmen vorstellen,
04:34
that are basicallyGrundsätzlich gilt programmedprogrammiert to hideverbergen,
112
259000
3000
die im Grunde dazu programmiert sind, Dinge zu verstecken
04:37
and a bunchBündel of algorithmsAlgorithmen that are programmedprogrammiert to go find them and actHandlung.
113
262000
3000
und ein Haufen Algorithmen, die dafür programmiert, sind diese zu finden und zu handeln.
04:40
And all of that's great, and it's fine.
114
265000
3000
Das ist alles großartig und es ist gut so.
04:43
And that's 70 percentProzent
115
268000
2000
Und das sind 70 Prozent
04:45
of the UnitedVereinigte StatesStaaten stockStock marketMarkt,
116
270000
2000
des Aktienmarkts in den Vereinigten Staaten,
04:47
70 percentProzent of the operatingBetriebs systemSystem
117
272000
2000
70 Prozent des Betriebssystems,
04:49
formerlyfrüher knownbekannt as your pensionPension,
118
274000
3000
das einmal bekannt war als Ihre Pension
04:52
your mortgageHypothek.
119
277000
3000
und Ihre Hypothek.
04:55
And what could go wrongfalsch?
120
280000
2000
Was könnte schon schief gehen?
04:57
What could go wrongfalsch
121
282000
2000
Was schief gehen kann ist,
04:59
is that a yearJahr agovor,
122
284000
2000
dass vor einem Jahr
05:01
nineneun percentProzent of the entireganz marketMarkt just disappearsverschwindet in fivefünf minutesProtokoll,
123
286000
3000
neun Prozent des ganzen Markts in nur fünf Minuten verschwunden sind,
05:04
and they callednamens it the FlashBlitz CrashAbsturz of 2:45.
124
289000
3000
sie nannten es den Flash-Crash von 2:45 Uhr.
05:07
All of a suddenplötzlich, nineneun percentProzent just goesgeht away,
125
292000
3000
Ganz plötzlich waren neun Prozent einfach dahin
05:10
and nobodyniemand to this day
126
295000
2000
und bis heute kann niemand
05:12
can even agreezustimmen on what happenedpassiert
127
297000
2000
sich darauf einigen, warum das passiert ist,
05:14
because nobodyniemand orderedbestellt it, nobodyniemand askedaufgefordert for it.
128
299000
3000
weil niemand es bestellt oder darum gebeten hat.
05:17
NobodyNiemand had any controlsteuern over what was actuallytatsächlich happeningHappening.
129
302000
3000
Niemand hatte Kontrolle darüber, was eigentlich vor sich geht.
05:20
All they had
130
305000
2000
Alles was sie hatten,
05:22
was just a monitorMonitor in frontVorderseite of them
131
307000
2000
war ein Bildschirm vor sich
05:24
that had the numbersNummern on it
132
309000
2000
mit Zahlen darauf
05:26
and just a redrot buttonTaste
133
311000
2000
und einem roten Knopf
05:28
that said, "Stop."
134
313000
2000
auf dem „Stop“ steht.
05:30
And that's the thing,
135
315000
2000
Und das ist der Punkt,
05:32
is that we're writingSchreiben things,
136
317000
2000
wir schreiben diese Dinger,
05:34
we're writingSchreiben these things that we can no longerlänger readlesen.
137
319000
3000
wir schreiben diese Dinger, die wir nicht mehr lesen können.
05:37
And we'vewir haben renderedgerendert something
138
322000
2000
Wir haben etwas erschaffen,
05:39
illegibleunleserlich,
139
324000
2000
das unlesbar ist.
05:41
and we'vewir haben losthat verloren the senseSinn
140
326000
3000
Wir haben das Gefühl dafür verloren,
05:44
of what's actuallytatsächlich happeningHappening
141
329000
2000
was eigentlich vor sich geht
05:46
in this worldWelt that we'vewir haben madegemacht.
142
331000
2000
in der Welt, die wir erschaffen haben.
05:48
And we're startingbeginnend to make our way.
143
333000
2000
Wir beginnen jetzt unseren Weg dahin.
05:50
There's a companyUnternehmen in BostonBoston callednamens NanexNanex,
144
335000
3000
Es gibt eine Firma in Boston namens Nanex,
05:53
and they use mathMathe and magicMagie
145
338000
2000
sie benutzen Mathematik und Magie
05:55
and I don't know what,
146
340000
2000
und was weiß ich noch,
05:57
and they reacherreichen into all the marketMarkt dataDaten
147
342000
2000
sie greifen nach all diesen Marktdaten
05:59
and they find, actuallytatsächlich sometimesmanchmal, some of these algorithmsAlgorithmen.
148
344000
3000
und sie finden tatsächlich manchmal einige dieser Algorithmen.
06:02
And when they find them they pullziehen them out
149
347000
3000
Und wenn sie sie finden, ziehen sie sie raus
06:05
and they pinStift them to the wallMauer like butterfliesSchmetterlinge.
150
350000
3000
und heften sie an die Wand wie Schmetterlinge.
06:08
And they do what we'vewir haben always doneerledigt
151
353000
2000
Sie machen das, was wir stets gemacht haben,
06:10
when confrontedkonfrontiert with hugeenorm amountsBeträge of dataDaten that we don't understandverstehen --
152
355000
3000
wenn wir mit riesigen Datenmengen konfrontiert sind, die wir nicht verstehen –
06:13
whichwelche is that they give them a nameName
153
358000
2000
nämlich ihnen einen Namen zu geben
06:15
and a storyGeschichte.
154
360000
2000
und eine Geschichte.
06:17
So this is one that they foundgefunden,
155
362000
2000
Und das ist einer, den sie gefunden haben,
06:19
they callednamens the KnifeMesser,
156
364000
4000
sie nennen ihn das Messer
06:23
the CarnivalKarneval,
157
368000
2000
der Karneval,
06:25
the BostonBoston ShufflerShuffler,
158
370000
4000
der „Boston Shuffler“
06:29
TwilightTwilight.
159
374000
2000
Dämmerung.
06:31
And the gagKnebel is
160
376000
2000
Und der Witz ist,
06:33
that, of courseKurs, these aren'tsind nicht just runningLaufen throughdurch the marketMarkt.
161
378000
3000
dass die natürlich nicht nur im Markt laufen.
06:36
You can find these kindsArten of things whereverwo auch immer you look,
162
381000
3000
Man kann diese Art von Dingen überall finden,
06:39
onceEinmal you learnlernen how to look for them.
163
384000
2000
sobald man verstanden hat wie man danach suchen muss.
06:41
You can find it here: this bookBuch about fliesfliegt
164
386000
3000
Man kann sie hier finden: Das ist ein Buch über Fliegen,
06:44
that you maykann have been looking at on AmazonAmazon.
165
389000
2000
das ihr vielleicht auf Amazon nachgeschlagen habt.
06:46
You maykann have noticedbemerkt it
166
391000
2000
Ihr habt es vielleicht bemerkt,
06:48
when its pricePreis startedhat angefangen at 1.7 millionMillion dollarsDollar.
167
393000
2000
als sein Preis bei 1,7 Millionen gipfelte.
06:50
It's out of printdrucken -- still ...
168
395000
2000
Es ist vergriffen – immer noch...
06:52
(LaughterLachen)
169
397000
2000
(Gelächter)
06:54
If you had boughtgekauft it at 1.7, it would have been a bargainSchnäppchen.
170
399000
3000
Wenn man es bei 1,7 Millionen gekauft hätte, wäre es ein Schnäppchen gewesen.
06:57
A fewwenige hoursStd. laterspäter, it had goneWeg up
171
402000
2000
Ein paar Stunden später war der Preis bei
06:59
to 23.6 millionMillion dollarsDollar,
172
404000
2000
23,6 Millionen Dollar angekommen,
07:01
plusPlus shippingVersand and handlingHandhabung.
173
406000
2000
plus Versand und Bearbeitung.
07:03
And the questionFrage is:
174
408000
2000
Und man fragt sich:
07:05
NobodyNiemand was buyingKauf or sellingVerkauf anything; what was happeningHappening?
175
410000
2000
Niemand hat etwas gekauft oder verkauft; was ist geschehen?
07:07
And you see this behaviorVerhalten on AmazonAmazon
176
412000
2000
Man findet dieses Verhalten auf Amazon
07:09
as surelysicherlich as you see it on WallWand StreetStraße.
177
414000
2000
so sicher, wie man es an der Wall Street findet.
07:11
And when you see this kindArt of behaviorVerhalten,
178
416000
2000
Und wenn man diese Art von Verhalten sieht,
07:13
what you see is the evidenceBeweise
179
418000
2000
sieht man tatsächlich die Anzeichen
07:15
of algorithmsAlgorithmen in conflictKonflikt,
180
420000
2000
von Algorithmen im Konflikt,
07:17
algorithmsAlgorithmen lockedeingesperrt in loopsSchleifen with eachjede einzelne other,
181
422000
2000
Algorithmen, die sich gegenseitig in Schleifen fangen
07:19
withoutohne any humanMensch oversightAufsicht,
182
424000
2000
ohne menschliche Übersicht,
07:21
withoutohne any adultErwachsene supervisionAufsicht
183
426000
3000
ohne irgendeine erwachsene Kontrolle,
07:24
to say, "ActuallyTatsächlich, 1.7 millionMillion is plentyviel."
184
429000
3000
die sagt: „Eigentlich sind 1,7 Millionen viel.“
07:27
(LaughterLachen)
185
432000
3000
(Gelächter)
07:30
And as with AmazonAmazon, so it is with NetflixNetflix.
186
435000
3000
Mit Netflix ist es genauso wie mit Amazon.
07:33
And so NetflixNetflix has goneWeg throughdurch
187
438000
2000
Also hat auch Netflix über die Jahre
07:35
severalmehrere differentanders algorithmsAlgorithmen over the yearsJahre.
188
440000
2000
mehrere verschiedene Algorithmen benutzt.
07:37
They startedhat angefangen with CinematchCinematch, and they'veSie haben triedversucht a bunchBündel of othersAndere --
189
442000
3000
Sie begannen mit Cinematch und probierten einige andere aus.
07:40
there's DinosaurDinosaurier PlanetPlanet; there's GravitySchwerkraft.
190
445000
2000
Es gibt Dinosaur Planet oder Gravity.
07:42
They're usingmit PragmaticPragmatische ChaosChaos now.
191
447000
2000
Jetzt benutzen sie Pragmatic Chaos.
07:44
PragmaticPragmatische ChaosChaos is, like all of NetflixNetflix algorithmsAlgorithmen,
192
449000
2000
Pragmatic Chaos versucht wie alle Netflix Algorithmen,
07:46
tryingversuchen to do the samegleich thing.
193
451000
2000
die gleiche Sache zu tun.
07:48
It's tryingversuchen to get a graspGriff on you,
194
453000
2000
Er versucht zu verstehen,
07:50
on the firmwareFirmware insideinnen the humanMensch skullSchädel,
195
455000
2000
was in deinem menschlichen Schädel tickt,
07:52
so that it can recommendempfehlen what movieFilm
196
457000
2000
damit er einen Vorschlag machen kann
07:54
you mightMacht want to watch nextNächster --
197
459000
2000
welchen Film du als nächstes schauen möchtest –
07:56
whichwelche is a very, very difficultschwer problemProblem.
198
461000
3000
was ein sehr, sehr schwieriges Problem ist.
07:59
But the difficultySchwierigkeit of the problemProblem
199
464000
2000
Aber die Schwierigkeit des Problems
08:01
and the factTatsache that we don't really quiteganz have it down,
200
466000
3000
und die Tatsache, dass wir es nicht wirklich durchblicken,
08:04
it doesn't take away
201
469000
2000
kann nicht verhindern,
08:06
from the effectsAuswirkungen PragmaticPragmatische ChaosChaos has.
202
471000
2000
welche Auswirkungen Pragmatic Chaos hat.
08:08
PragmaticPragmatische ChaosChaos, like all NetflixNetflix algorithmsAlgorithmen,
203
473000
3000
Wie alle anderen Netflix Algorithmen bestimmt Netflix
08:11
determinesbestimmt, in the endEnde,
204
476000
2000
letztendlich
08:13
60 percentProzent
205
478000
2000
60 Prozent aller Filme
08:15
of what moviesFilme endEnde up beingSein rentedgemietet.
206
480000
2000
die ausgeliehen werden.
08:17
So one pieceStück of codeCode
207
482000
2000
Ein Stück Programmcode
08:19
with one ideaIdee about you
208
484000
3000
mit einer Vorstellung über dich
08:22
is responsibleverantwortlich for 60 percentProzent of those moviesFilme.
209
487000
3000
ist also für 60 Prozent dieser Filme verantwortlich.
08:25
But what if you could ratePreis those moviesFilme
210
490000
2000
Aber was wäre, wenn du diese Filme bewerten könntest
08:27
before they get madegemacht?
211
492000
2000
bevor sie gedreht sind?
08:29
Wouldn'tWürde nicht that be handypraktisch?
212
494000
2000
Wäre das nicht praktisch?
08:31
Well, a fewwenige dataDaten scientistsWissenschaftler from the U.K. are in HollywoodHollywood,
213
496000
3000
Nun, ein paar Wissenschaftler aus Großbritannien sind in Hollywood
08:34
and they have "storyGeschichte algorithmsAlgorithmen" --
214
499000
2000
und sie haben Storyalgorithmen –
08:36
a companyUnternehmen callednamens EpagogixEpagogix.
215
501000
2000
ein Unternehmen namens Epagogix.
08:38
And you can runLauf your scriptSkript throughdurch there,
216
503000
3000
Man kann sein Skript dort durchlaufen lassen,
08:41
and they can tell you, quantifiablyquantifizierbar,
217
506000
2000
und sie können einem sagen und quantifizieren,
08:43
that that's a 30 millionMillion dollarDollar movieFilm
218
508000
2000
dass es ist ein 30-Millionen-Dollar-Film ist
08:45
or a 200 millionMillion dollarDollar movieFilm.
219
510000
2000
oder ein 200-Millionen-Dollar-Film.
08:47
And the thing is, is that this isn't GoogleGoogle.
220
512000
2000
Das Ding ist, das hier ist nicht Google.
08:49
This isn't informationInformation.
221
514000
2000
Das sind nicht Informationen.
08:51
These aren'tsind nicht financialfinanziell statsStatistiken; this is cultureKultur.
222
516000
2000
Das sind nicht Finanzdaten; das ist Kultur.
08:53
And what you see here,
223
518000
2000
Und was man hier sieht,
08:55
or what you don't really see normallynormalerweise,
224
520000
2000
oder was man hier eigentlich normalerweise nicht sieht,
08:57
is that these are the physicsPhysik of cultureKultur.
225
522000
4000
ist sowas wie die Physik der Kultur.
09:01
And if these algorithmsAlgorithmen,
226
526000
2000
Wenn diese Algorithmen,
09:03
like the algorithmsAlgorithmen on WallWand StreetStraße,
227
528000
2000
wie die Algorithmen der Wall Street,
09:05
just crashedabgestürzt one day and wentging awryschief,
228
530000
3000
eines Tages schief oder krumm laufen,
09:08
how would we know?
229
533000
2000
wie wüssten wir dann,
09:10
What would it look like?
230
535000
2000
wie sowas aussehen würde?
09:12
And they're in your houseHaus. They're in your houseHaus.
231
537000
3000
Und sie sind in Ihrem Haus. Sie sind in Ihrem Haus.
09:15
These are two algorithmsAlgorithmen competingim Wettbewerb for your livingLeben roomZimmer.
232
540000
2000
Hier sind zwei Algorithmen, die um Ihr Wohnzimmer kämpfen.
09:17
These are two differentanders cleaningReinigung robotsRoboter
233
542000
2000
Es sind zwei verschiedene Putzroboter,
09:19
that have very differentanders ideasIdeen about what cleanreinigen meansmeint.
234
544000
3000
die zwei sehr verschiedene Vorstellungen von Sauberkeit haben.
09:22
And you can see it
235
547000
2000
Man kann es sehen,
09:24
if you slowlangsam it down and attachanfügen lightsBeleuchtung to them,
236
549000
3000
wenn man es verlangsamt und Lichter befestigt.
09:27
and they're sortSortieren of like secretGeheimnis architectsArchitekten in your bedroomSchlafzimmer.
237
552000
3000
Sie sind eine Art geheime Architekten in Ihrem Schlafzimmer.
09:30
And the ideaIdee that architecturedie Architektur itselfselbst
238
555000
3000
Die Vorstellung, dass selbst Architektur
09:33
is somehowirgendwie subjectFach to algorithmicalgorithmische optimizationOptimierung
239
558000
2000
sich der Optimierung von Algorithmen unterwirft,
09:35
is not far-fetchedweit hergeholt.
240
560000
2000
ist nicht so weit hergeholt.
09:37
It's super-realSuper-real and it's happeningHappening around you.
241
562000
3000
Es ist sehr real und es passiert um uns herum.
09:40
You feel it mostdie meisten
242
565000
2000
Man kann es am meisten fühlen,
09:42
when you're in a sealedversiegelt metalMetall boxBox,
243
567000
2000
wenn man sich in einer geschlossenen Metallbox befindet,
09:44
a new-styleneuen Stil elevatorAufzug;
244
569000
2000
eine neue Art von Aufzug,
09:46
they're callednamens destination-controlZiel-Kontrolle elevatorsAufzüge.
245
571000
2000
die „ankunftsbestimmte“ Aufzüge genannt werden.
09:48
These are the onesEinsen where you have to pressDrücken Sie what floorStock you're going to go to
246
573000
3000
Es sind diejenigen, bei denen man den Knopf vom Zielstockwerk drückt,
09:51
before you get in the elevatorAufzug.
247
576000
2000
bevor man in den Aufzug einsteigt.
09:53
And it usesVerwendungen what's callednamens a bin-packingbin-packing algorithmAlgorithmus.
248
578000
2000
Und die benutzen einen sogenannten Bin-Packing-Algorithmus.
09:55
So nonekeiner of this mishegasmishegas
249
580000
2000
Also nichts von diesem Blabla,
09:57
of lettingVermietung everybodyjeder go into whateverwas auch immer carAuto they want.
250
582000
2000
dass man jeden in die Kabine lässt, die er gerne hätte.
09:59
EverybodyAlle who wants to go to the 10thth floorStock goesgeht into carAuto two,
251
584000
2000
Jeder der zum 10. Stock will, muss in den zweite Kabine,
10:01
and everybodyjeder who wants to go to the thirddritte floorStock goesgeht into carAuto fivefünf.
252
586000
3000
und jeder der zum dritten Stock will, muss in die fünfte Kabine.
10:04
And the problemProblem with that
253
589000
2000
Das Problem dabei ist,
10:06
is that people freakFreak out.
254
591000
2000
dass die Leute ausflippen.
10:08
People panicPanik.
255
593000
2000
Die Leute kriegen Panik.
10:10
And you see why. You see why.
256
595000
2000
Und man sieht warum. Sie sehen warum.
10:12
It's because the elevatorAufzug
257
597000
2000
Es kommt daher, dass dem Aufzug
10:14
is missingfehlt some importantwichtig instrumentationInstrumentierung, like the buttonsKnöpfe.
258
599000
3000
ein paar wichtige Steuerungsmerkmale fehlen, zum Beispiel Knöpfe.
10:17
(LaughterLachen)
259
602000
2000
(Gelächter)
10:19
Like the things that people use.
260
604000
2000
Dinge, an die Menschen gewöhnt sind.
10:21
All it has
261
606000
2000
Alles was dieser hier hat,
10:23
is just the numberNummer that movesbewegt up or down
262
608000
3000
ist eine Nummer, die sich rauf oder runter bewegt
10:26
and that redrot buttonTaste that sayssagt, "Stop."
263
611000
3000
und ein roter Knopf auf dem „Stop“ steht.
10:29
And this is what we're designingEntwerfen for.
264
614000
3000
Dahin bewegt sich unser Design.
10:32
We're designingEntwerfen
265
617000
2000
Unser Design ist gemacht
10:34
for this machineMaschine dialectDialekt.
266
619000
2000
für die Sprache einer Maschine.
10:36
And how farweit can you take that? How farweit can you take it?
267
621000
3000
Wie weit kann man das treiben? Wie weit geht es?
10:39
You can take it really, really farweit.
268
624000
2000
Man kann es sehr, sehr weit treiben.
10:41
So let me take it back to WallWand StreetStraße.
269
626000
3000
Lassen Sie mich zur Wall Street zurückkehren.
10:45
Because the algorithmsAlgorithmen of WallWand StreetStraße
270
630000
2000
Denn die Algorithmen der Wall Street
10:47
are dependentabhängig on one qualityQualität aboveüber all elsesonst,
271
632000
3000
hängen alle von einer besonderen Qualität ab,
10:50
whichwelche is speedGeschwindigkeit.
272
635000
2000
nämlich Geschwindigkeit.
10:52
And they operatearbeiten on millisecondsMillisekunden and microsecondsMikrosekunden.
273
637000
3000
Und die bewegt sich in Millisekunden und Mikrosekunden.
10:55
And just to give you a senseSinn of what microsecondsMikrosekunden are,
274
640000
2000
Und nur um ein Gefühl zu vermitteln, was eine Mikrosekunde ist,
10:57
it takes you 500,000 microsecondsMikrosekunden
275
642000
2000
es braucht 500.000 Mikrosekunden
10:59
just to clickklicken a mouseMaus.
276
644000
2000
für einen einzelnen Mausklick.
11:01
But if you're a WallWand StreetStraße algorithmAlgorithmus
277
646000
2000
Aber wenn man ein Wall-Street-Algorithmus ist
11:03
and you're fivefünf microsecondsMikrosekunden behindhinter,
278
648000
2000
und man ist fünf Mikrosekunden hinterher,
11:05
you're a loserVerlierer.
279
650000
2000
dann ist man ein Verlierer.
11:07
So if you were an algorithmAlgorithmus,
280
652000
2000
Wenn Sie also ein Algorithmus wären,
11:09
you'ddu würdest look for an architectArchitekt like the one that I metgetroffen in FrankfurtFrankfurt
281
654000
3000
würden Sie nach einem Architekten suchen wie dem, den ich in Frankfurt traf,
11:12
who was hollowingaushöhlen out a skyscraperWolkenkratzer --
282
657000
2000
der einen Wolkenkratzer ausräumte –
11:14
throwingwerfen out all the furnitureMöbel, all the infrastructureInfrastruktur for humanMensch use,
283
659000
3000
alle Möbel raus, alle Infrastruktur mit menschlichem Nutzen raus,
11:17
and just runningLaufen steelstehlen on the floorsBöden
284
662000
3000
und die Stockwerke mit Stahl auslegen,
11:20
to get readybereit for the stacksStapel of serversServer to go in --
285
665000
3000
um für den Einzug einer Masse an Servern bereit zu sein –
11:23
all so an algorithmAlgorithmus
286
668000
2000
nur damit der Algorithmus
11:25
could get closeschließen to the InternetInternet.
287
670000
3000
näher zum Internet gelangt.
11:28
And you think of the InternetInternet as this kindArt of distributedverteilt systemSystem.
288
673000
3000
Man stellt sich das Internet als ein verteiltes System vor.
11:31
And of courseKurs, it is, but it's distributedverteilt from placessetzt.
289
676000
3000
Und das ist es natürlich, aber verteilt von bestimmten Orten aus.
11:34
In NewNeu YorkYork, this is where it's distributedverteilt from:
290
679000
2000
In New York wird es von hier verteilt:
11:36
the CarrierTräger HotelHotel
291
681000
2000
vom Carrier Hotel
11:38
locatedgelegen on HudsonHudson StreetStraße.
292
683000
2000
das sich in der Hudson Street befindet.
11:40
And this is really where the wiresDrähte come right up into the cityStadt.
293
685000
3000
Genau da gelangen die Kabel in die Stadt.
11:43
And the realityWirklichkeit is that the furtherdes Weiteren away you are from that,
294
688000
4000
Und die Realität ist, je weiter entfernt man davon ist,
11:47
you're a fewwenige microsecondsMikrosekunden behindhinter everyjeden time.
295
692000
2000
verliert man jedes Mal einige Mikrosekunden.
11:49
These guys down on WallWand StreetStraße,
296
694000
2000
Diese Typen an der Wall Street,
11:51
MarcoMarco PoloPolo and CherokeeCherokee NationNation,
297
696000
2000
Marco Polo und Cherokee Nation,
11:53
they're eightacht microsecondsMikrosekunden
298
698000
2000
die sind acht Mikrosekunden
11:55
behindhinter all these guys
299
700000
2000
hinter all den anderen,
11:57
going into the emptyleer buildingsGebäude beingSein hollowedausgehöhlt out
300
702000
4000
die in das leere Gebäude ziehen,
12:01
up around the CarrierTräger HotelHotel.
301
706000
2000
das nur um die Ecke vom Carrier Hotel steht.
12:03
And that's going to keep happeningHappening.
302
708000
3000
Und das wird weiter so geschehen.
12:06
We're going to keep hollowingaushöhlen them out,
303
711000
2000
Wir werden weiterhin Gebäude ausräumen
12:08
because you, inchZoll for inchZoll
304
713000
3000
Weil Sie, Inch für Inch
12:11
and poundPfund for poundPfund and dollarDollar for dollarDollar,
305
716000
3000
und Pfund für Pfund und Dollar für Dollar,
12:14
nonekeiner of you could squeezedrücken revenueEinnahmen out of that spacePlatz
306
719000
3000
niemand von Ihnen könnte soviel Gewinn aus diesem Raum quetschen
12:17
like the BostonBoston ShufflerShuffler could.
307
722000
3000
wie es ein Boston Shuffler Algorithmus kann.
12:20
But if you zoomZoomen out,
308
725000
2000
Aber wenn man rauszoomt,
12:22
if you zoomZoomen out,
309
727000
2000
wenn man herauszoomt,
12:24
you would see an 825-mile-Meile trenchTrench
310
729000
4000
kann man einen Graben von 825 Meilen sehen
12:28
betweenzwischen NewNeu YorkYork CityStadt and ChicagoChicago
311
733000
2000
zwischen New York City und Chicago,
12:30
that's been builtgebaut over the last fewwenige yearsJahre
312
735000
2000
der während der letzten Jahre gebaut wurde
12:32
by a companyUnternehmen callednamens SpreadVerbreitung NetworksNetzwerke.
313
737000
3000
von einer Firma, die sich Spread Networks nennt.
12:35
This is a fiberFaser opticOptik cableKabel
314
740000
2000
Das ist ein Glasfaserkabel,
12:37
that was laidgelegt betweenzwischen those two citiesStädte
315
742000
2000
das zwischen diesen zwei Städten verlegt wurde
12:39
to just be ablefähig to trafficder Verkehr one signalSignal
316
744000
3000
nur um ein Signal zu senden,
12:42
37 timesmal fasterschneller than you can clickklicken a mouseMaus --
317
747000
3000
das 37 Mal schneller ist, als Sie eine Maus klicken können –
12:45
just for these algorithmsAlgorithmen,
318
750000
3000
nur für diese Algorithmen,
12:48
just for the CarnivalKarneval and the KnifeMesser.
319
753000
3000
nur für den Karneval und das Messer.
12:51
And when you think about this,
320
756000
2000
Und wenn man darüber nachdenkt,
12:53
that we're runningLaufen throughdurch the UnitedVereinigte StatesStaaten
321
758000
2000
dass wir uns durch die Vereinigten Staaten bohren,
12:55
with dynamiteDynamit and rockRock sawsSägen
322
760000
3000
mit Dynamit und Steinsägen,
12:58
so that an algorithmAlgorithmus can closeschließen the dealDeal
323
763000
2000
damit ein Algorithmus einen Deal
13:00
threedrei microsecondsMikrosekunden fasterschneller,
324
765000
3000
drei Mikrosekunden schneller abschließen kann,
13:03
all for a communicationsKommunikation frameworkRahmen
325
768000
2000
alles für ein Kommunikationsnetzwerk,
13:05
that no humanMensch will ever know,
326
770000
4000
das kein Mensch kennen wird,
13:09
that's a kindArt of manifestManifest destinySchicksal;
327
774000
3000
da manifestiert sich das Schicksal
13:12
and we'llGut always look for a newneu frontierFrontier.
328
777000
3000
und es wird immer nach einer neuen Grenze streben.
13:15
UnfortunatelyLeider, we have our work cutschneiden out for us.
329
780000
3000
Leider wird unsere Arbeit auf der Strecke bleiben.
13:18
This is just theoreticaltheoretisch.
330
783000
2000
Das ist nur theoretisch.
13:20
This is some mathematiciansMathematiker at MITMIT.
331
785000
2000
Das sind einige Mathematiker vom MIT.
13:22
And the truthWahrheit is I don't really understandverstehen
332
787000
2000
Aber um ehrlich zu sein, verstehe ich nicht
13:24
a lot of what they're talkingim Gespräch about.
333
789000
2000
wirklich viel von dem, was sie sagen.
13:26
It involvesbeinhaltet lightLicht conesKegel and quantumQuantum entanglementVerschränkung,
334
791000
3000
Es kommen Lichtkegel vor und Quantenverwicklungen
13:29
and I don't really understandverstehen any of that.
335
794000
2000
und ich verstehe nicht wirklich etwas davon.
13:31
But I can readlesen this mapKarte,
336
796000
2000
Aber ich kann diese Karte lesen.
13:33
and what this mapKarte sayssagt
337
798000
2000
Und diese Karte sagt, dass
13:35
is that, if you're tryingversuchen to make moneyGeld on the marketsMärkte where the redrot dotsPunkte are,
338
800000
3000
wenn man versucht Geld zu verdienen in den Märkten, wo die roten Punkte sind,
13:38
that's where people are, where the citiesStädte are,
339
803000
2000
das ist dort wo die Menschen leben, wo die Städte sind,
13:40
you're going to have to put the serversServer where the blueblau dotsPunkte are
340
805000
3000
dann muss man die Server dorthin stellen, wo die blauen Punkte sind,
13:43
to do that mostdie meisten effectivelyeffektiv.
341
808000
2000
um das am Effizientesten zu tun.
13:45
And the thing that you mightMacht have noticedbemerkt about those blueblau dotsPunkte
342
810000
3000
Und die Sache, die Ihnen vielleicht bei den blauen Punkten auffällt ist,
13:48
is that a lot of them are in the middleMitte of the oceanOzean.
343
813000
3000
dass viele davon mitten im Ozean sind.
13:51
So that's what we'llGut do: we'llGut buildbauen bubblesBlasen or something,
344
816000
3000
Also das werden wir dann tun, Blasen oder irgendwas dorthin stellen
13:54
or platformsPlattformen.
345
819000
2000
oder Plattformen.
13:56
We'llWir werden actuallytatsächlich partTeil the waterWasser
346
821000
2000
Oder wir teilen das Wasser
13:58
to pullziehen moneyGeld out of the airLuft,
347
823000
2000
und holen uns das Geld aus der Luft,
14:00
because it's a brighthell futureZukunft
348
825000
2000
denn es ist eine rosige Zukunft
14:02
if you're an algorithmAlgorithmus.
349
827000
2000
wenn man ein Algorithmus ist.
14:04
(LaughterLachen)
350
829000
2000
(Gelächter)
14:06
And it's not the moneyGeld that's so interestinginteressant actuallytatsächlich.
351
831000
3000
Und es ist nicht das Geld, das tatsächlich so interessant ist.
14:09
It's what the moneyGeld motivatesmotiviert,
352
834000
2000
Es ist das, wozu uns das Geld bewegt.
14:11
that we're actuallytatsächlich terraformingTerraforming
353
836000
2000
Das wir tatsächlich die Erde
14:13
the EarthErde itselfselbst
354
838000
2000
umbauen
14:15
with this kindArt of algorithmicalgorithmische efficiencyEffizienz.
355
840000
2000
mit dieser Art von Algorithmeneffizienz.
14:17
And in that lightLicht,
356
842000
2000
Und in diesem Licht,
14:19
you go back
357
844000
2000
kehrt man zurück,
14:21
and you look at MichaelMichael Najjar'sDie Najjar photographsFotografien,
358
846000
2000
betrachtet die Bilder von Michael Najjar
14:23
and you realizerealisieren that they're not metaphorMetapher, they're prophecyProphezeiung.
359
848000
3000
und versteht, das diese keine Metapher sind, sondern eine Prophezeiung.
14:26
They're prophecyProphezeiung
360
851000
2000
Sie sind eine Prophezeiung
14:28
for the kindArt of seismicseismisch, terrestrialterrestrische effectsAuswirkungen
361
853000
4000
für die Art von seismischen und irdischen Effekten
14:32
of the mathMathe that we're makingHerstellung.
362
857000
2000
der Mathematik, die wir schaffen.
14:34
And the landscapeLandschaft was always madegemacht
363
859000
3000
Die Landschaft wurde stets von dieser Art
14:37
by this sortSortieren of weirdseltsam, uneasyunruhig collaborationZusammenarbeit
364
862000
3000
seltsamer, unbehaglicher Zusammenarbeit
14:40
betweenzwischen natureNatur and man.
365
865000
3000
zwischen Mensch und Natur gestaltet.
14:43
But now there's this thirddritte co-evolutionaryCo-evolutionären forceKraft: algorithmsAlgorithmen --
366
868000
3000
Aber jetzt gibt es eine dritte koevolutionäre Kraft: Algorithmen –
14:46
the BostonBoston ShufflerShuffler, the CarnivalKarneval.
367
871000
3000
den Bosten Shuffler, den Karneval.
14:49
And we will have to understandverstehen those as natureNatur,
368
874000
3000
Wir werden diese als Natur verstehen müssen.
14:52
and in a way, they are.
369
877000
2000
In gewisser Weise sind sie das auch.
14:54
Thank you.
370
879000
2000
Vielen Dank.
14:56
(ApplauseApplaus)
371
881000
20000
(Applaus)
Translated by Ulrich Atz
Reviewed by Karin Friedli

▲Back to top

ABOUT THE SPEAKER
Kevin Slavin - Algoworld expert
Kevin Slavin navigates in the algoworld, the expanding space in our lives that’s determined and run by algorithms.

Why you should listen

Are you addicted to the dead-simple numbers game Drop 7 or Facebook’s Parking Wars? Blame Kevin Slavin and the game development company he co-founded in 2005, Area/Code, which makes clever game entertainments that enter the fabric of reality.

All this fun is powered by algorithms -- as, increasingly, is our daily life. From the Google algorithms to the algos that give you “recommendations” online to those that automatically play the stock markets (and sometimes crash them): we may not realize it, but we live in the algoworld.

He says: "The quickest way to find out what the boundaries of reality are is to figure where they break."

More profile about the speaker
Kevin Slavin | Speaker | TED.com