ABOUT THE SPEAKER
Stuart Russell - AI expert
Stuart Russell wrote the standard text on AI; now he thinks deeply on AI's future -- and the future of us humans, too.

Why you should listen

Stuart Russell is a professor (and formerly chair) of Electrical Engineering and Computer Sciences at University of California at Berkeley. His book Artificial Intelligence: A Modern Approach (with Peter Norvig) is the standard text in AI; it has been translated into 13 languages and is used in more than 1,300 universities in 118 countries. His research covers a wide range of topics in artificial intelligence including machine learning, probabilistic reasoning, knowledge representation, planning, real-time decision making, multitarget tracking, computer vision, computational physiology, global seismic monitoring and philosophical foundations.

He also works for the United Nations, developing a new global seismic monitoring system for the nuclear-test-ban treaty. His current concerns include the threat of autonomous weapons and the long-term future of artificial intelligence and its relation to humanity.

More profile about the speaker
Stuart Russell | Speaker | TED.com
TED2017

Stuart Russell: 3 principles for creating safer AI

Stuart Russell: Wie KI uns zu besseren Menschen machen kann

Filmed:
1,465,832 views

Wie können wir superintelligente KI nutzen, aber gleichzeitig einen katastrophalen Roboteraufstand verhindern? Während wir der Erschaffung allwissender Maschinen immer näher kommen, arbeitet KI-Bahnbrecher Stuart Russel an etwas anderem: Roboter mit Ungewissheit. Er spricht über seine Vision von menschenverträglicher KI, die Probleme mit gesundem Verstand, Altruismus und anderen menschlichen Werten lösen kann.
- AI expert
Stuart Russell wrote the standard text on AI; now he thinks deeply on AI's future -- and the future of us humans, too. Full bio

Double-click the English transcript below to play the video.

Das hier ist Lee Sedol.
00:12
This is LeeLee SedolSedol.
0
712
1552
Lee Sedol ist einer der besten Go-Spieler.
00:14
LeeLee SedolSedol is one of the world'sWelt
greatestgrößte Go playersSpieler,
1
2288
3997
00:18
and he's havingmit what my friendsFreunde
in SiliconSilizium ValleyTal call
2
6309
2885
Er erlebt hier, was meine
Freunde im Silicon Valley
einen "Heiliger Strohsack"-Moment nennen.
00:21
a "HolyHeiligen CowKuh" momentMoment --
3
9218
1510
00:22
(LaughterLachen)
4
10752
1073
(Gelächter)
00:23
a momentMoment where we realizerealisieren
5
11849
2188
Ein Moment, in dem wir bemerken,
dass die KI schneller vorankommt,
als wir erwartet haben.
00:26
that AIAI is actuallytatsächlich progressingvoran
a lot fasterschneller than we expectederwartet.
6
14061
3296
Menschen verloren also bei Go.
00:30
So humansMenschen have losthat verloren on the Go boardTafel.
What about the realecht worldWelt?
7
18154
3047
Was ist mit der echten Welt?
00:33
Well, the realecht worldWelt is much biggergrößer,
8
21225
2100
Die echte Welt ist viel größer
und komplizierter als ein Go-Brett.
00:35
much more complicatedkompliziert than the Go boardTafel.
9
23349
2249
00:37
It's a lot lessWeniger visiblesichtbar,
10
25622
1819
Sie ist weniger einsehbar,
00:39
but it's still a decisionEntscheidung problemProblem.
11
27465
2038
aber trotzdem entscheidbar.
Wenn wir an ein paar Technologien denken,
00:42
And if we think about some
of the technologiesTechnologien
12
30948
2321
00:45
that are comingKommen down the pikeHecht ...
13
33293
1749
die auf uns zukommen --
00:47
NorikoNoriko [AraiArai] mentionederwähnt that readingLesen
is not yetnoch happeningHappening in machinesMaschinen,
14
35738
4335
Noriko [Arai] erwähnte,
dass Maschinen noch nicht lesen können,
jedenfalls nicht mit Verständnis.
00:52
at leastam wenigsten with understandingVerstehen.
15
40097
1500
Aber das wird kommen.
00:53
But that will happengeschehen,
16
41621
1536
00:55
and when that happensdas passiert,
17
43181
1771
Wenn es so weit kommt,
00:56
very soonbald afterwardsdanach,
18
44976
1187
werden Maschinen
sehr bald alles gelesen haben,
00:58
machinesMaschinen will have readlesen everything
that the humanMensch raceRennen has ever writtengeschrieben.
19
46187
4572
was Menschen je geschrieben haben.
01:03
And that will enableaktivieren machinesMaschinen,
20
51850
2030
Das wird Maschinen ermöglichen,
neben der Fähigkeit
weiter vorauszuschauen als Menschen,
01:05
alongeine lange with the abilityFähigkeit to look
furtherdes Weiteren aheadvoraus than humansMenschen can,
21
53904
2920
wie wir bei Go schon sahen --
01:08
as we'vewir haben alreadybereits seengesehen in Go,
22
56848
1680
01:10
if they alsoebenfalls have accessZugriff
to more informationInformation,
23
58552
2164
wenn sie auch noch mehr Information haben,
werden sie in der echten Welt bessere
Entscheidungen treffen können als wir.
01:12
they'llsie werden be ablefähig to make better decisionsEntscheidungen
in the realecht worldWelt than we can.
24
60740
4268
Ist das gut?
01:18
So is that a good thing?
25
66792
1606
01:21
Well, I hopeHoffnung so.
26
69898
2232
Ich hoffe es.
01:26
Our entireganz civilizationZivilisation,
everything that we valueWert,
27
74694
3255
Unsere gesamte Zivilisation,
alles, was wir wertschätzen,
01:29
is basedbasierend on our intelligenceIntelligenz.
28
77973
2068
basiert auf unserer Intelligenz.
01:32
And if we had accessZugriff
to a lot more intelligenceIntelligenz,
29
80065
3694
Wenn wir Zugriff
auf mehr Intelligenz hätten,
01:35
then there's really no limitGrenze
to what the humanMensch raceRennen can do.
30
83783
3302
dann kann die Menschheit alles erreichen.
01:40
And I think this could be,
as some people have describedbeschrieben it,
31
88665
3325
Ich glaube, das könnte,
wie manche Leute es beschrieben,
01:44
the biggestgrößte eventEvent in humanMensch historyGeschichte.
32
92014
2016
das größte Ereignis in der
Geschichte der Menschheit sein.
01:48
So why are people sayingSprichwort things like this,
33
96665
2829
Warum sagen Leute also,
01:51
that AIAI mightMacht spellZauber the endEnde
of the humanMensch raceRennen?
34
99518
2876
dass KI das Ende der
Menschheit bedeuten könnte?
01:55
Is this a newneu thing?
35
103438
1659
Ist das neu?
01:57
Is it just ElonElon MuskMoschus and BillBill GatesGates
and StephenStephen HawkingHawking?
36
105121
4110
Sind es nur Elon Musk, Bill Gates
und Stephen Hawking?
02:01
ActuallyTatsächlich, no. This ideaIdee
has been around for a while.
37
109953
3262
Nein. Diese Idee gibt es schon länger.
02:05
Here'sHier ist a quotationZitat:
38
113239
1962
Hier ist ein Zitat:
02:07
"Even if we could keep the machinesMaschinen
in a subservientunterwürfig positionPosition,
39
115225
4350
"Selbst wenn wir die Maschinen
in unterwürfiger Stellung halten könnten,
z. B. indem wir den Strom abschalten" --
02:11
for instanceBeispiel, by turningDrehen off the powerLeistung
at strategicstrategisch momentsMomente" --
40
119599
2984
ich werde später auf
diese Idee eingehen --
02:14
and I'll come back to that
"turningDrehen off the powerLeistung" ideaIdee laterspäter on --
41
122607
3237
"sollten wir uns als
Spezies demütig fühlen."
02:17
"we should, as a speciesSpezies,
feel greatlysehr humbledgedemütigt."
42
125868
2804
02:22
So who said this?
This is AlanAlan TuringTuring in 1951.
43
130177
3448
Wer hat das gesagt? Alan Turing, 1951.
02:26
AlanAlan TuringTuring, as you know,
is the fatherVater of computerComputer scienceWissenschaft
44
134300
2763
Alan Turing, wie Sie wissen,
ist der Vater der Informatik
02:29
and in manyviele waysWege,
the fatherVater of AIAI as well.
45
137087
3048
und in vielerlei Hinsicht auch der KI.
Wenn wir also über
dieses Problem nachdenken,
02:33
So if we think about this problemProblem,
46
141239
1882
02:35
the problemProblem of creatingErstellen something
more intelligentintelligent than your ownbesitzen speciesSpezies,
47
143145
3787
etwas Intelligenteres als unsere
eigene Art zu entwerfen,
02:38
we mightMacht call this "the gorillaGorilla problemProblem,"
48
146956
2622
könnten wir es als
"Gorilla-Problem" bezeichnen,
02:42
because gorillas'Gorillas " ancestorsVorfahren did this
a fewwenige millionMillion yearsJahre agovor,
49
150345
3750
weil die Vorfahren der Gorillas
das vor Jahrmillionen taten.
02:46
and now we can askFragen the gorillasGorillas:
50
154119
1745
Wir können die Gorillas jetzt fragen:
02:48
Was this a good ideaIdee?
51
156752
1160
War das eine gute Idee?
02:49
So here they are havingmit a meetingTreffen
to discussdiskutieren whetherob it was a good ideaIdee,
52
157936
3530
Hier sind sie bei einem Meeting
und besprechen, ob es eine gute Idee war.
02:53
and after a little while,
they concludedaraus schließen, no,
53
161490
3346
Sie kommen zu dem Schluss, nein,
es war eine schlechte Idee.
02:56
this was a terriblefurchtbar ideaIdee.
54
164860
1345
Unsere Spezies ist in arger Not.
02:58
Our speciesSpezies is in direDire straitsMeerenge.
55
166229
1782
Sie können die existenzielle
Traurigkeit in ihren Augen sehen.
03:00
In factTatsache, you can see the existentialexistenziell
sadnessTraurigkeit in theirihr eyesAugen.
56
168538
4263
03:04
(LaughterLachen)
57
172825
1640
(Gelächter)
03:06
So this queasymulmig feelingGefühl that makingHerstellung
something smarterintelligenter than your ownbesitzen speciesSpezies
58
174489
4840
Das mulmige Gefühl, dass es
eine schlechte Idee sein könnte,
03:11
is maybe not a good ideaIdee --
59
179353
2365
etwas Intelligenteres
als uns selbst zu erstellen,
03:14
what can we do about that?
60
182488
1491
was können wir dagegen tun?
03:16
Well, really nothing,
exceptaußer stop doing AIAI,
61
184003
4767
Nichts so richtig, außer
keine KI mehr zu entwickeln.
03:20
and because of all
the benefitsVorteile that I mentionederwähnt
62
188794
2510
Wegen all der Vorteile,
die ich schon erwähnte,
03:23
and because I'm an AIAI researcherForscher,
63
191328
1716
und weil ich ein KI-Forscher bin,
werde ich das nicht zulassen.
03:25
I'm not havingmit that.
64
193068
1791
03:27
I actuallytatsächlich want to be ablefähig
to keep doing AIAI.
65
195283
2468
Ich will weiter KI erforschen.
Wir müssen das Problem
also genauer festnageln.
03:30
So we actuallytatsächlich need to nailNagel down
the problemProblem a bitBit more.
66
198615
2678
Was genau ist das Problem?
03:33
What exactlygenau is the problemProblem?
67
201317
1371
Warum könnte bessere KI
eine Katastrophe sein?
03:34
Why is better AIAI possiblymöglicherweise a catastropheKatastrophe?
68
202712
3246
03:39
So here'shier ist anotherein anderer quotationZitat:
69
207398
1498
Hier ist noch ein Zitat:
03:41
"We had better be quiteganz sure
that the purposeZweck put into the machineMaschine
70
209935
3335
"Wir sollten uns sicher sein,
dass die Absichten in der Maschine
03:45
is the purposeZweck whichwelche we really desireVerlangen."
71
213294
2298
tatsächlich die gewünschten
Absichten sind."
03:48
This was said by NorbertNorbert WienerWiener in 1960,
72
216282
3498
Das sagte Norbert Wiener 1960,
03:51
shortlyin Kürze after he watchedangesehen
one of the very earlyfrüh learningLernen systemsSysteme
73
219804
4002
kurz nachdem er ein sehr
frühes lernendes System
03:55
learnlernen to playspielen checkersCheckers
better than its creatorSchöpfer.
74
223830
2583
hatte lernen sehen, besser
als sein Urheber Dame zu spielen.
04:00
But this could equallygleichermaßen have been said
75
228602
2683
Aber das hätte genauso gut
König Midas sagen können.
04:03
by KingKönig MidasMidas.
76
231309
1167
04:05
KingKönig MidasMidas said, "I want everything
I touchberühren to turnWende to goldGold,"
77
233083
3134
Er sagte: "Alles, was ich berühre,
soll zu Gold werden."
Er bekam das, was er wollte.
04:08
and he got exactlygenau what he askedaufgefordert for.
78
236241
2473
Das war der Zweck,
den er der Maschine gab,
04:10
That was the purposeZweck
that he put into the machineMaschine,
79
238738
2751
04:13
so to speaksprechen,
80
241513
1450
sozusagen,
und sein Essen, Trinken und Verwandte
verwandelten sich in Gold.
04:14
and then his foodLebensmittel and his drinkGetränk
and his relativesVerwandten turnedgedreht to goldGold
81
242987
3444
Er verhungerte elendig.
04:18
and he diedist verstorben in miseryElend and starvationHunger.
82
246455
2281
04:22
So we'llGut call this
"the KingKönig MidasMidas problemProblem"
83
250444
2341
Nennen wir das also
"das König-Midas-Problem",
ein Ziel zu verfolgen, das in Wirklichkeit
04:24
of statingunter Angabe an objectiveZielsetzung
whichwelche is not, in factTatsache,
84
252809
3305
04:28
trulywirklich alignedausgerichtet with what we want.
85
256138
2413
nicht mit dem, was wir
wollen, übereinstimmt.
04:30
In modernmodern termsBegriffe, we call this
"the valueWert alignmentAusrichtung problemProblem."
86
258575
3253
Moderner gesagt nennen wir das
das "Wertausrichtungsproblem".
04:37
PuttingSetzen in the wrongfalsch objectiveZielsetzung
is not the only partTeil of the problemProblem.
87
265047
3485
Das falsche Ziel vorzugeben,
ist nicht der einzige Teil des Problems.
Es gibt noch einen Teil.
04:40
There's anotherein anderer partTeil.
88
268556
1152
Wenn man Maschinen ein Ziel gibt,
04:42
If you put an objectiveZielsetzung into a machineMaschine,
89
270160
1943
selbst etwas Einfaches wie:
"Hol den Kaffee",
04:44
even something as simpleeinfach as,
"FetchHolen the coffeeKaffee,"
90
272127
2448
04:47
the machineMaschine sayssagt to itselfselbst,
91
275908
1841
sagt sich die Maschine:
04:50
"Well, how mightMacht I failScheitern
to fetchFetch the coffeeKaffee?
92
278733
2623
"Wie könnte ich dabei scheitern,
den Kaffee zu holen?
Jemand könnte mich ausschalten.
04:53
SomeoneJemand mightMacht switchSchalter me off.
93
281380
1580
Okay, ich muss das verhindern.
04:55
OK, I have to take stepsSchritte to preventverhindern that.
94
283645
2387
04:58
I will disabledeaktivieren my 'off'"Aus" switchSchalter.
95
286056
1906
Ich werde meinen Ausschalter blockieren.
05:00
I will do anything to defendverteidigen myselfmich selber
againstgegen interferenceInterferenz
96
288534
2959
Ich werde alles tun, um mich
gegen Störung des Ziels zu verteidigen,
05:03
with this objectiveZielsetzung
that I have been givengegeben."
97
291517
2629
das mir gegeben wurde."
05:06
So this single-mindedSingle-minded pursuitVerfolgung
98
294170
2012
Dieses zielstrebige, defensive
Verfolgen eines Ziels,
05:09
in a very defensiveDefensive modeModus
of an objectiveZielsetzung that is, in factTatsache,
99
297213
2945
das tatsächlich nicht mit den Zielen
der Menschheit übereinstimmt,
05:12
not alignedausgerichtet with the truewahr objectivesZiele
of the humanMensch raceRennen --
100
300182
2814
05:16
that's the problemProblem that we faceGesicht.
101
304122
1862
ist das Problem, vor dem wir stehen.
05:19
And in factTatsache, that's the high-valuequalitativ hochwertige
takeawayzum mitnehmen from this talk.
102
307007
4767
Das ist die hochwertige
Information in diesem Vortrag.
05:23
If you want to remembermerken one thing,
103
311798
2055
Wenn Sie sich nur eins merken,
dann, dass Sie keinen Kaffee
holen können, wenn Sie tot sind.
05:25
it's that you can't fetchFetch
the coffeeKaffee if you're deadtot.
104
313877
2675
05:28
(LaughterLachen)
105
316576
1061
(Gelächter)
05:29
It's very simpleeinfach. Just remembermerken that.
RepeatWiederholen Sie die it to yourselfdich selber threedrei timesmal a day.
106
317661
3829
Es ist einfach. Merken Sie sich das.
Wiederholen Sie es dreimal am Tag.
05:33
(LaughterLachen)
107
321514
1821
(Gelächter)
05:35
And in factTatsache, this is exactlygenau the plotHandlung
108
323359
2754
Das ist im Grunde die Handlung
05:38
of "2001: [A SpaceRaum OdysseyOdyssee]"
109
326137
2648
von "2001: [Odyssee im Weltraum]".
HAL hat ein Ziel, eine Mission,
05:41
HALHAL has an objectiveZielsetzung, a missionMission,
110
329226
2090
die nicht mit den Zielen
der Menschen übereinstimmt,
05:43
whichwelche is not alignedausgerichtet
with the objectivesZiele of the humansMenschen,
111
331340
3732
05:47
and that leadsführt to this conflictKonflikt.
112
335096
1810
was zu Konflikt führt.
05:49
Now fortunatelyglücklicherweise, HALHAL
is not superintelligentsuperintelligent.
113
337494
2969
Zum Glück ist HAL nicht superintelligent.
05:52
He's prettyziemlich smartsmart,
but eventuallyschließlich DaveDave outwitsOutwits him
114
340487
3587
Er ist ziemlich clever,
aber Dave überlistet ihn letztendlich
05:56
and managesverwaltet to switchSchalter him off.
115
344098
1849
und schaltet ihn aus.
06:01
But we mightMacht not be so luckyglücklich.
116
349828
1619
Wir werden vielleicht weniger Glück haben.
06:08
So what are we going to do?
117
356193
1592
Was werden wir also tun?
Ich versuche, KI neu zu definieren,
06:12
I'm tryingversuchen to redefineneu definieren AIAI
118
360371
2601
um von dieser klassischen Vorstellung
wegzukommen, dass Maschinen
06:14
to get away from this classicalklassische notionBegriff
119
362996
2061
06:17
of machinesMaschinen that intelligentlyintelligent
pursueverfolgen objectivesZiele.
120
365081
4567
Ziele auf intelligente Weise verfolgen.
Es geht um drei Prinzipien.
06:22
There are threedrei principlesPrinzipien involvedbeteiligt.
121
370712
1798
Das erste ist ein Prinzip des Altruismus,
06:24
The first one is a principlePrinzip
of altruismAltruismus, if you like,
122
372534
3289
06:27
that the robot'sdes Roboters only objectiveZielsetzung
123
375847
3262
dass das einzige Ziel eines Roboters ist,
06:31
is to maximizezu maximieren the realizationRealisierung
of humanMensch objectivesZiele,
124
379133
4246
die Verwirklichung menschlicher
Ziele und Werte zu maximieren.
06:35
of humanMensch valuesWerte.
125
383403
1390
06:36
And by valuesWerte here I don't mean
touchy-feelygefühlsduselig, goody-goodymusterkind valuesWerte.
126
384817
3330
Mit Werten meine ich nicht
gefühlsduselige, tugendhafte Werte,
06:40
I just mean whateverwas auch immer it is
that the humanMensch would preferbevorzugen
127
388171
3787
sondern wie ein Mensch
sein Leben bevorzugen würde.
06:43
theirihr life to be like.
128
391982
1343
Das widerspricht also Asimovs Gesetz,
06:47
And so this actuallytatsächlich violatesverletzt Asimov'sAsimov es lawRecht
129
395364
2309
dass der Roboter
sich selbst schützen muss.
06:49
that the robotRoboter has to protectschützen
its ownbesitzen existenceExistenz.
130
397697
2329
Er hat kein Interesse an Selbsterhaltung.
06:52
It has no interestinteressieren in preservingErhaltung
its existenceExistenz whatsoeverwas auch immer.
131
400050
3723
06:57
The secondzweite lawRecht is a lawRecht
of humilityDemut, if you like.
132
405420
3768
Das zweite Gesetz ist
das Gesetz der Ergebenheit.
07:01
And this turnswendet sich out to be really
importantwichtig to make robotsRoboter safeSafe.
133
409974
3743
Das ist sehr wichtig,
um Roboter sicherzumachen.
07:05
It sayssagt that the robotRoboter does not know
134
413741
3142
Es besagt, dass der Roboter
diese menschlichen Werte nicht kennt,
07:08
what those humanMensch valuesWerte are,
135
416907
2028
07:10
so it has to maximizezu maximieren them,
but it doesn't know what they are.
136
418959
3178
sie maximieren soll, aber sie nicht kennt.
07:15
And that avoidsvermeidet this problemProblem
of single-mindedSingle-minded pursuitVerfolgung
137
423254
2626
Das verhindert das Problem
des zielstrebigen Verfolgens eines Ziels.
07:17
of an objectiveZielsetzung.
138
425904
1212
Diese Ungewissheit ist ausschlaggebend.
07:19
This uncertaintyUnsicherheit turnswendet sich out to be crucialentscheidend.
139
427140
2172
07:21
Now, in orderAuftrag to be usefulsinnvoll to us,
140
429726
1639
Damit er uns nützlich ist,
muss er eine Ahnung haben, was wir wollen.
07:23
it has to have some ideaIdee of what we want.
141
431389
2731
07:27
It obtainsErhält that informationInformation primarilyin erster Linie
by observationÜberwachung of humanMensch choicesAuswahlmöglichkeiten,
142
435223
5427
Er erlangt diese Information durch das
Beobachten menschlicher Entscheidungen.
Unsere Entscheidungen
beinhalten Information darüber,
07:32
so our ownbesitzen choicesAuswahlmöglichkeiten revealverraten informationInformation
143
440674
2801
07:35
about what it is that we preferbevorzugen
our livesLeben to be like.
144
443499
3300
wie wir unser Leben gerne hätten.
Das sind die drei Prinzipien.
Was bewirken sie bei der Frage
07:40
So those are the threedrei principlesPrinzipien.
145
448632
1683
07:42
Let's see how that appliesgilt
to this questionFrage of:
146
450339
2318
"Kann man die Maschine ausschalten?",
wie Turing vorschlug.
07:44
"Can you switchSchalter the machineMaschine off?"
as TuringTuring suggestedempfohlen.
147
452681
2789
07:49
So here'shier ist a PRPR2 robotRoboter.
148
457073
2120
Hier ist ein PR2-Roboter.
07:51
This is one that we have in our labLabor,
149
459217
1821
Den haben wir bei uns im Labor
07:53
and it has a biggroß redrot "off" switchSchalter
right on the back.
150
461062
2903
und er hat einen großen,
roten Ausschalter am Rücken.
07:56
The questionFrage is: Is it
going to let you switchSchalter it off?
151
464541
2615
Die Frage ist: Lässt es uns
ihn ausschalten?
Wenn wir das klassisch machen,
07:59
If we do it the classicalklassische way,
152
467180
1465
08:00
we give it the objectiveZielsetzung of, "FetchHolen
the coffeeKaffee, I mustsollen fetchFetch the coffeeKaffee,
153
468669
3482
geben wir ihm das Ziel:
"Ich hole Kaffee, ich muss Kaffee holen,
08:04
I can't fetchFetch the coffeeKaffee if I'm deadtot,"
154
472175
2580
ich kann keinen Kaffee holen,
wenn ich tot bin."
08:06
so obviouslyoffensichtlich the PRPR2
has been listeningHören to my talk,
155
474779
3341
PR2 hat sich natürlich
meinen Vortrag angehört
08:10
and so it sayssagt, thereforedeswegen,
"I mustsollen disabledeaktivieren my 'off'"Aus" switchSchalter,
156
478144
3753
und sagt also: "Ich muss meinen
Ausschalter blockieren
08:14
and probablywahrscheinlich taserTaser all the other
people in StarbucksStarbucks
157
482976
2694
und alle anderen Leute
in Starbucks tasern,
08:17
who mightMacht interfereeinmischen with me."
158
485694
1560
die mich stören könnten."
08:19
(LaughterLachen)
159
487278
2062
(Gelächter)
08:21
So this seemsscheint to be inevitableunvermeidlich, right?
160
489364
2153
Das scheint unvermeidbar, nicht wahr?
Dieser Fehlermodus scheint unvermeidbar
08:23
This kindArt of failureFehler modeModus
seemsscheint to be inevitableunvermeidlich,
161
491541
2398
08:25
and it followsfolgt from havingmit
a concreteBeton, definitedefinitive objectiveZielsetzung.
162
493963
3543
und folgt aus der konkreten,
eindeutigen Zielverfolgung.
Was passiert, wenn die Maschine
unsicher über das Ziel ist?
08:30
So what happensdas passiert if the machineMaschine
is uncertainunsicher about the objectiveZielsetzung?
163
498812
3144
Sie denkt anders.
08:33
Well, it reasonsGründe dafür in a differentanders way.
164
501980
2127
08:36
It sayssagt, "OK, the humanMensch
mightMacht switchSchalter me off,
165
504131
2424
Sie sagt sich: "Der Mensch
schaltet mich vielleicht aus,
08:39
but only if I'm doing something wrongfalsch.
166
507144
1866
aber nur, wenn ich was falsch mache.
08:41
Well, I don't really know what wrongfalsch is,
167
509747
2475
Ich weiß nicht so richtig, was falsch ist,
08:44
but I know that I don't want to do it."
168
512246
2044
aber ich weiß, dass ich das nicht will."
08:46
So that's the first and secondzweite
principlesPrinzipien right there.
169
514314
3010
Das sind die ersten zwei Prinzipien.
08:49
"So I should let the humanMensch switchSchalter me off."
170
517348
3359
"Also sollte ich den Menschen
mich ausschalten lassen."
08:53
And in factTatsache you can calculateberechnen
the incentiveAnreiz that the robotRoboter has
171
521721
3956
Man kann sogar den Anreiz errechnen,
den ein Roboter hat,
08:57
to allowzulassen the humanMensch to switchSchalter it off,
172
525701
2493
sich ausschalten zu lassen.
09:00
and it's directlydirekt tiedgebunden to the degreeGrad
173
528218
1914
Er ist direkt mit dem Grad
der Ungewissheit über das Ziel verbunden.
09:02
of uncertaintyUnsicherheit about
the underlyingzugrunde liegenden objectiveZielsetzung.
174
530156
2746
09:05
And then when the machineMaschine is switchedgeschaltet off,
175
533977
2949
Wenn die Maschine ausgeschaltet wird,
kommt das dritte Prinzip ins Spiel.
09:08
that thirddritte principlePrinzip comeskommt into playspielen.
176
536950
1805
Sie lernt über die Ziele,
die sie verfolgen sollte,
09:10
It learnslernt something about the objectivesZiele
it should be pursuingverfolgen,
177
538779
3062
weil sie lernt, dass sie etwas
falsch gemacht hat.
09:13
because it learnslernt that
what it did wasn'twar nicht right.
178
541865
2533
Mit angemessener Verwendung
griechischer Zeichen,
09:16
In factTatsache, we can, with suitablegeeignet use
of GreekGriechisch symbolsSymbole,
179
544422
3570
09:20
as mathematiciansMathematiker usuallygewöhnlich do,
180
548016
2131
wie Mathematiker das halt tun,
09:22
we can actuallytatsächlich provebeweisen a theoremTheorem
181
550171
1984
können wir einen Satz beweisen,
der besagt, dass ein solcher Roboter
nachweislich nützlich für Menschen ist.
09:24
that sayssagt that sucheine solche a robotRoboter
is provablyNachweislich beneficialvorteilhaft to the humanMensch.
182
552179
3553
Man ist bewiesenermaßen
mit so einer Maschine besser dran
09:27
You are provablyNachweislich better off
with a machineMaschine that's designedentworfen in this way
183
555756
3803
09:31
than withoutohne it.
184
559583
1246
als ohne sie.
Das ist ein sehr einfaches Beispiel,
aber es ist der erste Schritt
09:33
So this is a very simpleeinfach exampleBeispiel,
but this is the first stepSchritt
185
561237
2906
09:36
in what we're tryingversuchen to do
with human-compatibleMenschlich verträglich AIAI.
186
564167
3903
in unseren Versuchen mit KI,
die mit Menschen kompatibel ist.
09:42
Now, this thirddritte principlePrinzip,
187
570657
3257
Über das dritte Prinzip
09:45
I think is the one that you're probablywahrscheinlich
scratchingkratzen your headKopf over.
188
573938
3112
zerbrechen Sie sich
wahrscheinlich den Kopf.
Wahrscheinlich denken Sie:
"Ich verhalte mich schlecht.
09:49
You're probablywahrscheinlich thinkingDenken, "Well,
you know, I behavesich verhalten badlyschlecht.
189
577074
3239
09:52
I don't want my robotRoboter to behavesich verhalten like me.
190
580337
2929
Mein Roboter soll sich nicht
wie ich verhalten.
09:55
I sneakschleichen down in the middleMitte of the night
and take stuffSachen from the fridgeKühlschrank.
191
583290
3434
Ich schleiche mich mitten in
der Nacht zum Kühlschrank.
Ich mache alles mögliche."
09:58
I do this and that."
192
586748
1168
Der Roboter soll alles
mögliche nicht machen.
09:59
There's all kindsArten of things
you don't want the robotRoboter doing.
193
587940
2797
10:02
But in factTatsache, it doesn't
quiteganz work that way.
194
590761
2071
Aber so funktioniert das nicht.
Nur, weil Sie sich schlecht benehmen,
10:04
Just because you behavesich verhalten badlyschlecht
195
592856
2155
muss der Roboter nicht
Ihr Verhalten imitieren.
10:07
doesn't mean the robotRoboter
is going to copyKopieren your behaviorVerhalten.
196
595035
2623
Er versteht Ihre Motivation und kann
vielleicht helfen, ihr zu widerstehen,
10:09
It's going to understandverstehen your motivationsMotivationen
and maybe help you resistwiderstehen them,
197
597682
3910
10:13
if appropriateangemessen.
198
601616
1320
falls angemessen.
10:16
But it's still difficultschwer.
199
604206
1464
Aber es ist trotzdem schwer.
10:18
What we're tryingversuchen to do, in factTatsache,
200
606302
2545
Wir versuchen, Maschinen zu ermöglichen,
10:20
is to allowzulassen machinesMaschinen to predictvorhersagen
for any personPerson and for any possiblemöglich life
201
608871
5796
für jede Person und jedes mögliche Leben
10:26
that they could liveLeben,
202
614691
1161
und alle anderen Leben vorauszusagen:
10:27
and the livesLeben of everybodyjeder elsesonst:
203
615876
1597
10:29
WhichDie would they preferbevorzugen?
204
617497
2517
Was würden sie vorziehen?
Das bringt viele Schwierigkeiten mit sich.
10:34
And there are manyviele, manyviele
difficultiesSchwierigkeiten involvedbeteiligt in doing this;
205
622061
2954
Ich erwarte keine schnelle Lösung.
10:37
I don't expecterwarten von that this
is going to get solvedgelöst very quicklyschnell.
206
625039
2932
Die eigentliche Schwierigkeit
sind wir selbst.
10:39
The realecht difficultiesSchwierigkeiten, in factTatsache, are us.
207
627995
2643
10:44
As I have alreadybereits mentionederwähnt,
we behavesich verhalten badlyschlecht.
208
632149
3117
Wie bereits gesagt
benehmen wir uns schlecht.
Manche von uns sind richtig fies.
10:47
In factTatsache, some of us are downrightgeradezu nastyBöse.
209
635290
2321
10:50
Now the robotRoboter, as I said,
doesn't have to copyKopieren the behaviorVerhalten.
210
638431
3052
Der Roboter muss
das Verhalten nicht imitieren.
10:53
The robotRoboter does not have
any objectiveZielsetzung of its ownbesitzen.
211
641507
2791
Der Roboter hat keine eigenen Ziele.
10:56
It's purelyrein altruisticaltruistische.
212
644322
1737
Er ist komplett altruistisch.
10:59
And it's not designedentworfen just to satisfyerfüllen
the desiresWünsche of one personPerson, the userBenutzer,
213
647293
5221
Er ist nicht zur Erfüllung der Wünsche
eines Menschen, des Benutzers, vorgesehen,
11:04
but in factTatsache it has to respectdie Achtung
the preferencesEinstellungen of everybodyjeder.
214
652538
3138
sondern muss die Präferenzen
Aller respektieren.
11:09
So it can dealDeal with a certainsicher
amountMenge of nastinessAbscheulichkeit,
215
657263
2570
Er kann also mit etwas Gemeinheit umgehen
11:11
and it can even understandverstehen
that your nastinessAbscheulichkeit, for exampleBeispiel,
216
659857
3701
und sogar verstehen, dass Sie zum Beispiel
11:15
you maykann take bribesBestechungsgelder as a passportPass officialoffiziell
217
663582
2671
als Passbeamter Bestechung annehmen,
11:18
because you need to feedFutter your familyFamilie
and sendsenden your kidsKinder to schoolSchule.
218
666277
3812
weil Sie Ihre Familie ernähren und
Ihre Kinder zur Schule schicken müssen.
11:22
It can understandverstehen that;
it doesn't mean it's going to stealstehlen.
219
670113
2906
Er versteht das und wird nicht
deswegen stehlen,
11:25
In factTatsache, it'lles wird just help you
sendsenden your kidsKinder to schoolSchule.
220
673043
2679
sondern Ihnen helfen,
Ihre Kinder zur Schule zu schicken.
11:28
We are alsoebenfalls computationallyrechnerisch limitedbegrenzt.
221
676976
3012
Außerdem haben wir technische Limits.
11:32
LeeLee SedolSedol is a brilliantGenial Go playerSpieler,
222
680012
2505
Lee Sedol ist ein
hervorragender Go-Spieler,
11:34
but he still losthat verloren.
223
682541
1325
verlor aber trotzdem.
11:35
So if we look at his actionsAktionen,
he tookdauerte an actionAktion that losthat verloren the gameSpiel.
224
683890
4239
Er hat also einen Zug gespielt,
der das Spiel verloren hat.
11:40
That doesn't mean he wanted to loseverlieren.
225
688153
2161
Das bedeutet nicht,
dass er verlieren wollte.
11:43
So to understandverstehen his behaviorVerhalten,
226
691340
2040
Um sein Verhalten zu verstehen,
11:45
we actuallytatsächlich have to invertinvertieren
throughdurch a modelModell- of humanMensch cognitionErkenntnis
227
693404
3644
brauchen wir also ein Modell
menschlicher Kognition,
11:49
that includesbeinhaltet our computationalrechnerisch
limitationsEinschränkungen -- a very complicatedkompliziert modelModell-.
228
697072
4977
das unsere technischen Limits einbezieht
-- ein sehr kompliziertes Modell.
11:54
But it's still something
that we can work on understandingVerstehen.
229
702073
2993
Aber wir können daran arbeiten,
es zu verstehen.
11:57
ProbablyWahrscheinlich the mostdie meisten difficultschwer partTeil,
from my pointPunkt of viewAussicht as an AIAI researcherForscher,
230
705876
4320
Als KI-Forscher erscheint es mir
am schwierigsten,
12:02
is the factTatsache that there are lots of us,
231
710220
2575
dass wir so viele sind
12:06
and so the machineMaschine has to somehowirgendwie
tradeHandel off, weighwiegen up the preferencesEinstellungen
232
714294
3581
und die Maschine irgendwie die Präferenzen
12:09
of manyviele differentanders people,
233
717899
2225
vieler verschiedener Leute abwägen muss.
12:12
and there are differentanders waysWege to do that.
234
720148
1906
Das geht auf verschiedene Arten.
12:14
EconomistsÖkonomen, sociologistsSoziologen,
moralMoral- philosophersPhilosophen have understoodverstanden that,
235
722078
3689
Wirtschaftswissenschaftler, Soziologen
und Ethiker haben das verstanden.
12:17
and we are activelyaktiv
looking for collaborationZusammenarbeit.
236
725791
2455
Wir suchen aktiv nach Zusammenarbeit.
12:20
Let's have a look and see what happensdas passiert
when you get that wrongfalsch.
237
728270
3251
Was passiert, wenn das schiefgeht?
Man kann z. B. in ein paar Jahren
12:23
So you can have
a conversationKonversation, for exampleBeispiel,
238
731545
2133
mit seinem intelligenten Assistenten,
eine Konversation führen.
12:25
with your intelligentintelligent personalpersönlich assistantAssistentin
239
733702
1944
12:27
that mightMacht be availableverfügbar
in a fewwenige years'Jahre' time.
240
735670
2285
12:29
Think of a SiriSiri on steroidsSteroide.
241
737979
2524
Man stelle sich
ein aufgeputschtes Siri vor.
12:33
So SiriSiri sayssagt, "Your wifeEhefrau callednamens
to reminderinnern you about dinnerAbendessen tonightheute Abend."
242
741627
4322
Siri sagt: "Ihre Frau rief an, um Sie
an das Abendessen heute zu erinnern."
12:38
And of courseKurs, you've forgottenvergessen.
"What? What dinnerAbendessen?
243
746616
2508
Sie haben es natürlich vergessen:
"Was für ein Abendessen? Worum geht es?"
12:41
What are you talkingim Gespräch about?"
244
749148
1425
12:42
"Uh, your 20thth anniversaryJahrestag at 7pmPM."
245
750597
3746
"Ihr 20. Hochzeitstag um 7 Uhr."
12:48
"I can't do that. I'm meetingTreffen
with the secretary-generalgeneralsekretär at 7:30.
246
756915
3719
"Das geht nicht. Ich treffe
den Generalsekretär um 7:30.
12:52
How could this have happenedpassiert?"
247
760658
1692
Wie konnte das passieren?"
12:54
"Well, I did warnwarnen you, but you overrodeOverrode
my recommendationEmpfehlung."
248
762374
4660
"Ich habe Sie gewarnt, aber Sie haben
meine Empfehlung ignoriert."
13:00
"Well, what am I going to do?
I can't just tell him I'm too busybeschäftigt."
249
768146
3328
"Was mache ich jetzt?
Ich kann ihm nicht absagen."
13:04
"Don't worrySorge. I arrangedvereinbart worden
for his planeEbene to be delayedverspätet."
250
772490
3281
"Keine Sorge, ich habe
seinen Flug verzögert."
13:07
(LaughterLachen)
251
775795
1682
(Gelächter)
13:10
"Some kindArt of computerComputer malfunctionFehlfunktion."
252
778249
2101
"Irgend eine Computerstörung."
13:12
(LaughterLachen)
253
780374
1212
(Gelächter)
13:13
"Really? You can do that?"
254
781610
1617
"Echt? Du kannst das?"
13:16
"He sendssendet his profoundtiefsinnig apologiesEntschuldigungen
255
784400
2179
"Er bittet um Entschuldigung.
Er freut sich darauf,
Sie morgen Mittag zu treffen."
13:18
and lookssieht aus forwardVorwärts- to meetingTreffen you
for lunchMittagessen tomorrowMorgen."
256
786603
2555
13:21
(LaughterLachen)
257
789182
1299
(Gelächter)
13:22
So the valuesWerte here --
there's a slightleicht mistakeFehler going on.
258
790505
4403
Die Werte hier -- hier läuft etwas schief.
13:26
This is clearlydeutlich followinges folgen my wife'sFrau valuesWerte
259
794932
3009
Es folgt ganz klar den Werten meiner Frau,
und zwar "glückliche Frau,
glückliches Leben".
13:29
whichwelche is "HappyGlücklich wifeEhefrau, happyglücklich life."
260
797965
2069
13:32
(LaughterLachen)
261
800058
1583
(Gelächter)
13:33
It could go the other way.
262
801665
1444
Es könnte auch anders laufen.
Man kommt nach einem
langen Arbeitstag heim
13:35
You could come home
after a hardhart day'sTage work,
263
803821
2201
und der Computer sagt: "Langer Tag?"
13:38
and the computerComputer sayssagt, "Long day?"
264
806046
2195
13:40
"Yes, I didn't even have time for lunchMittagessen."
265
808265
2288
"Ja, ich hatte keine Zeit
zum Mittagessen."
"Sie haben bestimmt Hunger."
13:42
"You mustsollen be very hungryhungrig."
266
810577
1282
13:43
"Starvinghungernd, yeah.
Could you make some dinnerAbendessen?"
267
811883
2646
"Ich bin am Verhungern.
Kannst du mir Essen machen?"
13:48
"There's something I need to tell you."
268
816070
2090
"Ich muss Ihnen etwas sagen."
13:50
(LaughterLachen)
269
818184
1155
(Gelächter)
13:52
"There are humansMenschen in SouthSüden SudanSudan
who are in more urgentdringend need than you."
270
820193
4905
"Im Südsudan gibt es
bedürftigere Menschen als Sie."
13:57
(LaughterLachen)
271
825122
1104
(Gelächter)
13:58
"So I'm leavingVerlassen. Make your ownbesitzen dinnerAbendessen."
272
826250
2075
"Also gehe ich.
Machen Sie Ihr Essen selbst."
14:00
(LaughterLachen)
273
828349
2000
(Gelächter)
14:02
So we have to solvelösen these problemsProbleme,
274
830823
1739
Wir müssen also diese Probleme lösen
14:04
and I'm looking forwardVorwärts-
to workingArbeiten on them.
275
832586
2515
und ich freue mich darauf,
daran zu arbeiten.
14:07
There are reasonsGründe dafür for optimismOptimismus.
276
835125
1843
Es gibt Anlass zur Hoffnung.
14:08
One reasonGrund is,
277
836992
1159
Ein Anlass ist
14:10
there is a massivemassiv amountMenge of dataDaten.
278
838175
1868
die enorme Menge an Daten.
14:12
Because remembermerken -- I said
they're going to readlesen everything
279
840067
2794
Wie gesagt, sie werden alles lesen,
was geschrieben wurde.
14:14
the humanMensch raceRennen has ever writtengeschrieben.
280
842885
1546
Der Großteil davon ist
über Menschen und ihre Taten
14:16
MostDie meisten of what we writeschreiben about
is humanMensch beingsWesen doing things
281
844455
2724
und die Reaktionen anderer.
14:19
and other people gettingbekommen upsetverärgert about it.
282
847203
1914
Also kann man von vielen Daten lernen.
14:21
So there's a massivemassiv amountMenge
of dataDaten to learnlernen from.
283
849141
2398
14:23
There's alsoebenfalls a very
strongstark economicWirtschaftlich incentiveAnreiz
284
851563
2236
Es gibt auch wirtschaftliche Anreize,
14:27
to get this right.
285
855331
1186
das hinzubekommen.
14:28
So imaginevorstellen your domesticinländisch robot'sdes Roboters at home.
286
856541
2001
Z. B. Haushaltsroboter.
Sie sind wieder zu spät und der Roboter
soll den Kindern Essen machen.
14:30
You're latespät from work again
and the robotRoboter has to feedFutter the kidsKinder,
287
858566
3067
Die Kinder haben Hunger
und der Kühlschrank ist leer.
14:33
and the kidsKinder are hungryhungrig
and there's nothing in the fridgeKühlschrank.
288
861657
2823
Und der Roboter sieht die Katze.
14:36
And the robotRoboter seessieht the catKatze.
289
864504
2605
14:39
(LaughterLachen)
290
867133
1692
(Gelächter)
14:40
And the robotRoboter hasn'that nicht quiteganz learnedgelernt
the humanMensch valueWert functionFunktion properlyrichtig,
291
868849
4190
Der Roboter hat die menschliche
Wertefunktion noch nicht so ganz gelernt
und versteht somit nicht,
14:45
so it doesn't understandverstehen
292
873063
1251
14:46
the sentimentalsentimental valueWert of the catKatze outweighsschwerer wiegt als
the nutritionalErnährungs valueWert of the catKatze.
293
874338
4844
dass der sentimentale Wert der Katze
ihren Nährwert übertrifft.
14:51
(LaughterLachen)
294
879206
1095
(Gelächter)
14:52
So then what happensdas passiert?
295
880325
1748
Was passiert also?
14:54
Well, it happensdas passiert like this:
296
882097
3297
Es passiert etwa so etwas:
14:57
"Derangedverwirrt robotRoboter cooksKöche kittyKätzchen
for familyFamilie dinnerAbendessen."
297
885418
2964
"Unzurechnungsfähiger Roboter
kocht Kätzchen zum Abendessen."
15:00
That one incidentVorfall would be the endEnde
of the domesticinländisch robotRoboter industryIndustrie.
298
888406
4523
Dieser eine Vorfall wäre das Aus
der Haushaltsroboter-Industrie.
15:04
So there's a hugeenorm incentiveAnreiz
to get this right
299
892953
3372
Es gibt also einen großen Anreiz,
das herauszubekommen,
15:08
long before we reacherreichen
superintelligentsuperintelligent machinesMaschinen.
300
896349
2715
lange bevor wir superintelligente
Maschinen herstellen.
15:12
So to summarizezusammenfassen:
301
900128
1535
Zusammenfassend:
Ich will die Definition von KI ändern,
15:13
I'm actuallytatsächlich tryingversuchen to changeVeränderung
the definitionDefinition of AIAI
302
901687
2881
15:16
so that we have provablyNachweislich
beneficialvorteilhaft machinesMaschinen.
303
904592
2993
sodass wir nachweislich
vorteilhafte Maschinen haben.
15:19
And the principlesPrinzipien are:
304
907609
1222
Die Grundsätze sind:
15:20
machinesMaschinen that are altruisticaltruistische,
305
908855
1398
Maschinen sind altruistisch,
15:22
that want to achieveleisten only our objectivesZiele,
306
910277
2804
wollen nur unsere Ziele erreichen,
15:25
but that are uncertainunsicher
about what those objectivesZiele are,
307
913105
3116
aber wissen nicht genau,
was diese Ziele sind,
15:28
and will watch all of us
308
916245
1998
also beobachten sie uns alle,
15:30
to learnlernen more about what it is
that we really want.
309
918267
3203
um besser zu lernen,
was wir wirklich wollen.
15:34
And hopefullyhoffentlich in the processverarbeiten,
we will learnlernen to be better people.
310
922373
3559
Hoffentlich werden wir dadurch lernen,
bessere Menschen zu sein.
15:37
Thank you very much.
311
925956
1191
Vielen Dank.
15:39
(ApplauseApplaus)
312
927171
3709
(Beifall)
Chris Anderson: Sehr interessant, Stuart.
Wir haben etwas Zeit,
15:42
ChrisChris AndersonAnderson: So interestinginteressant, StuartStuart.
313
930904
1868
15:44
We're going to standStand here a bitBit
because I think they're settingRahmen up
314
932796
3170
weil alles für den nächsten Redner
vorbereitet wird.
15:47
for our nextNächster speakerRedner.
315
935990
1151
Ein paar Fragen.
15:49
A couplePaar of questionsFragen.
316
937165
1538
15:50
So the ideaIdee of programmingProgrammierung in ignoranceIgnoranz
seemsscheint intuitivelyintuitiv really powerfulmächtig.
317
938727
5453
Die Idee, Unwissenheit vorzuprogrammieren,
erscheint intuitiv wirksam.
Wenn man Superintelligenz erreicht,
15:56
As you get to superintelligenceSuperintelligenz,
318
944204
1594
15:57
what's going to stop a robotRoboter
319
945822
2258
was soll einen Roboter davon abhalten,
16:00
readingLesen literatureLiteratur and discoveringentdecken
this ideaIdee that knowledgeWissen
320
948104
2852
Literatur zu lesen und
auf die Idee zu kommen,
dass Wissen besser ist als Unwissenheit
16:02
is actuallytatsächlich better than ignoranceIgnoranz
321
950980
1572
16:04
and still just shiftingVerschiebung its ownbesitzen goalsTore
and rewritingumschreiben that programmingProgrammierung?
322
952576
4218
und seine eigenen Ziele anzupassen
und sich umzuprogrammieren?
16:09
StuartStuart RussellRussell: Yes, so we want
it to learnlernen more, as I said,
323
957692
6356
Stuart Russel: Wir wollen,
wie gesagt, dass er dazulernt,
16:16
about our objectivesZiele.
324
964072
1287
was unsere Ziele betrifft.
16:17
It'llEs werde only becomewerden more certainsicher
as it becomeswird more correctrichtig,
325
965383
5521
Er wird sich sicherer werden,
wenn er fehlerloser wird,
16:22
so the evidenceBeweise is there
326
970928
1945
also gibt es Hinweise
16:24
and it's going to be designedentworfen
to interpretinterpretieren it correctlykorrekt.
327
972897
2724
und er ist dazu konzipiert,
sie richtig zu interpretieren.
16:27
It will understandverstehen, for exampleBeispiel,
that booksBücher are very biasedvoreingenommen
328
975645
3956
Er wird verstehen, dass Bücher einseitig
16:31
in the evidenceBeweise they containenthalten.
329
979625
1483
in ihrer Darstellung sind.
16:33
They only talk about kingsKönige and princesFürsten
330
981132
2397
Sie handeln nur von Königen und Prinzen
16:35
and eliteElite whiteWeiß malemännlich people doing stuffSachen.
331
983553
2800
und mächtigen weißen
Männern und ihren Taten.
16:38
So it's a complicatedkompliziert problemProblem,
332
986377
2096
Es ist ein kompliziertes Problem,
16:40
but as it learnslernt more about our objectivesZiele
333
988497
3872
aber wenn er mehr über unsere Ziele lernt,
16:44
it will becomewerden more and more usefulsinnvoll to us.
334
992393
2063
wird er zunehmend nützlicher für uns.
16:46
CACA: And you couldn'tkonnte nicht
just boilKochen it down to one lawRecht,
335
994480
2526
CA: Kann man das nicht zu
einem Gesetz zusammenfassen,
16:49
you know, hardwiredfest verdrahtet in:
336
997030
1650
vorprogrammiert:
16:50
"if any humanMensch ever triesversucht to switchSchalter me off,
337
998704
3293
"Wenn ein Mensch versucht,
mich abzuschalten,
16:54
I complyentsprechen. I complyentsprechen."
338
1002021
1935
gehorche ich. Ich gehorche."
16:55
SRSR: AbsolutelyAbsolut not.
339
1003980
1182
SR: Auf keinen Fall,
das wäre eine schlechte Idee.
16:57
That would be a terriblefurchtbar ideaIdee.
340
1005186
1499
Wenn zum Beispiel Ihr selbstfahrendes Auto
16:58
So imaginevorstellen that you have
a self-drivingselbstfahrender carAuto
341
1006709
2689
17:01
and you want to sendsenden your five-year-oldFive-Year-old
342
1009422
2433
Ihr fünfjähriges Kind zum Kindergarten
17:03
off to preschoolVorschule.
343
1011879
1174
fahren soll,
17:05
Do you want your five-year-oldFive-Year-old
to be ablefähig to switchSchalter off the carAuto
344
1013077
3101
wollen Sie, dass Ihr Kind
das Auto abschalten kann,
während es fährt?
17:08
while it's drivingFahren alongeine lange?
345
1016202
1213
Wahrscheinlich nicht.
17:09
ProbablyWahrscheinlich not.
346
1017439
1159
Es muss also verstehen, wie rational
und vernünftig die Person ist.
17:10
So it needsBedürfnisse to understandverstehen how rationalrational
and sensiblesinnvoll the personPerson is.
347
1018622
4703
17:15
The more rationalrational the personPerson,
348
1023349
1676
Je rationaler die Person,
desto eher sollte es sich ausschalten.
17:17
the more willingbereit you are
to be switchedgeschaltet off.
349
1025049
2103
Wenn die Person willkürlich
oder sogar boshaft ist,
17:19
If the personPerson is completelyvollständig
randomzufällig or even maliciousböswillige,
350
1027176
2543
17:21
then you're lessWeniger willingbereit
to be switchedgeschaltet off.
351
1029743
2512
sollte es sich nicht ausschalten.
17:24
CACA: All right. StuartStuart, can I just say,
352
1032279
1866
CA: Okay, Stuart, Ich hoffe nur,
dass Sie das für uns lösen können.
17:26
I really, really hopeHoffnung you
figureZahl this out for us.
353
1034169
2314
Vielen Dank für Ihren
Vortrag. Er war toll.
17:28
Thank you so much for that talk.
That was amazingtolle.
354
1036507
2375
SR: Danke.
17:30
SRSR: Thank you.
355
1038906
1167
(Beifall)
17:32
(ApplauseApplaus)
356
1040097
1837
Translated by Tanja Daub
Reviewed by Andreas Herzog

▲Back to top

ABOUT THE SPEAKER
Stuart Russell - AI expert
Stuart Russell wrote the standard text on AI; now he thinks deeply on AI's future -- and the future of us humans, too.

Why you should listen

Stuart Russell is a professor (and formerly chair) of Electrical Engineering and Computer Sciences at University of California at Berkeley. His book Artificial Intelligence: A Modern Approach (with Peter Norvig) is the standard text in AI; it has been translated into 13 languages and is used in more than 1,300 universities in 118 countries. His research covers a wide range of topics in artificial intelligence including machine learning, probabilistic reasoning, knowledge representation, planning, real-time decision making, multitarget tracking, computer vision, computational physiology, global seismic monitoring and philosophical foundations.

He also works for the United Nations, developing a new global seismic monitoring system for the nuclear-test-ban treaty. His current concerns include the threat of autonomous weapons and the long-term future of artificial intelligence and its relation to humanity.

More profile about the speaker
Stuart Russell | Speaker | TED.com