ABOUT THE SPEAKER
Iyad Rahwan - Computational social scientist
Iyad Rahwan's work lies at the intersection of the computer and social sciences, with a focus on collective intelligence, large-scale cooperation and the social aspects of artificial intelligence.

Why you should listen

Iyad Rahwan is the AT&T Career Development Professor and an associate professor of media arts & sciences at the MIT Media Lab, where he leads the Scalable Cooperation group. A native of Aleppo, Syria, Rahwan holds a PhD. from the University of Melbourne, Australia and is an affiliate faculty at the MIT Institute of Data, Systems and Society (IDSS). He led the winning team in the US State Department's Tag Challenge, using social media to locate individuals in remote cities within 12 hours using only their mug shots. Recently he crowdsourced 30 million decisions from people worldwide about the ethics of AI systems. Rahwan's work appeared in major academic journals, including Science and PNAS, and features regularly in major media outlets, including the New York Times, The Economist and the Wall Street Journal.

(Photo: Victoriano Izquierdo)

More profile about the speaker
Iyad Rahwan | Speaker | TED.com
TEDxCambridge

Iyad Rahwan: What moral decisions should driverless cars make?

Iyad Rahwan: Welche moralischen Entscheidungen sollten fahrerlose Autos treffen?

Filmed:
1,147,381 views

Sollte Ihr fahrerloses Auto Sie opfern, um fünf Fußgängern das Leben zu retten? In dieser Einführung in soziale Dilemmas von fahrerlosen Autos untersucht Iyad Rahwan, wie die Technologie unsere Moral herausfordern wird. Außerdem berichtet er von seiner Arbeit, bei der er Daten echter Menschen darüber sammelt, welche ethischen Kompromisse sie eingehen (und nicht eingehen) wollen.
- Computational social scientist
Iyad Rahwan's work lies at the intersection of the computer and social sciences, with a focus on collective intelligence, large-scale cooperation and the social aspects of artificial intelligence. Full bio

Double-click the English transcript below to play the video.

00:13
TodayHeute I'm going to talk
about technologyTechnologie and societyGesellschaft.
0
1000
4080
Ich werde heute über
Technologie und Gesellschaft sprechen.
00:19
The DepartmentAbteilung of TransportTransport
estimatedgeschätzt that last yearJahr
1
7040
3696
Das Verkehrsministerium schätzt,
dass im letzten Jahr
00:22
35,000 people diedist verstorben
from trafficder Verkehr crashesstürzt ab in the US aloneallein.
2
10760
4080
35.000 Menschen bei Verkehrsunfällen
allein in den USA gestorben sind.
00:28
WorldwideWeltweit, 1.2 millionMillion people
diesterben everyjeden yearJahr in trafficder Verkehr accidentsUnfälle.
3
16040
4800
Weltweit sterben jährlich 1,2 Millionen
Menschen bei Verkehrsunfällen.
00:33
If there was a way we could eliminatebeseitigen
90 percentProzent of those accidentsUnfälle,
4
21760
4096
Wenn es eine Möglichkeit gäbe,
90 % dieser Unfälle zu vermeiden,
00:37
would you supportUnterstützung it?
5
25880
1200
wären Sie dafür?
00:39
Of courseKurs you would.
6
27720
1296
Natürlich wären Sie das.
00:41
This is what driverlessfahrerlose carAuto technologyTechnologie
promisesVersprechen to achieveleisten
7
29040
3655
Genau das ist es, was die Technologie
fahrerloser Autos erreichen möchte,
00:44
by eliminatingeliminieren the mainMain
sourceQuelle of accidentsUnfälle --
8
32720
2816
indem sie die Hauptursache
für Autounfälle eliminiert –
00:47
humanMensch errorError.
9
35560
1200
menschliches Versagen.
00:49
Now pictureBild yourselfdich selber
in a driverlessfahrerlose carAuto in the yearJahr 2030,
10
37920
5416
Stellen Sie sich vor, Sie sitzen
im Jahr 2030 in einem fahrerlosen Auto.
00:55
sittingSitzung back and watchingAufpassen
this vintageJahrgang TEDxCambridgeTEDxCambridge videoVideo.
11
43360
3456
Sie sind entspannt und schauen
dieses alte TEDxCambridge-Video.
00:58
(LaughterLachen)
12
46840
2000
(Lachen)
01:01
All of a suddenplötzlich,
13
49520
1216
Plötzlich tritt ein mechanischer Fehler
auf und das Auto kann nicht anhalten.
01:02
the carAuto experiencesErfahrungen mechanicalmechanisch failureFehler
and is unableunfähig to stop.
14
50760
3280
01:07
If the carAuto continuesgeht weiter,
15
55360
1520
Wenn das Auto weiterfährt,
01:09
it will crashAbsturz into a bunchBündel
of pedestriansFußgänger crossingKreuzung the streetStraße,
16
57720
4120
wird es in in ein paar Fußgänger fahren,
die gerade die Straße überqueren.
01:15
but the carAuto maykann swerveSchlenker,
17
63080
2135
Das Auto könnte jedoch auch ausweichen,
01:17
hittingschlagen one bystanderZuschauer,
18
65239
1857
einen Beobachter treffen und töten,
01:19
killingTötung them to savesparen the pedestriansFußgänger.
19
67120
2080
um die Fußgänger zu schützen.
01:22
What should the carAuto do,
and who should decideentscheiden?
20
70040
2600
Was sollte das Auto machen
und wer sollte entscheiden?
01:25
What if insteadstattdessen the carAuto
could swerveSchlenker into a wallMauer,
21
73520
3536
Was wäre, wenn das Auto stattdessen
ausweichen und eine Wand treffen könnte
01:29
crashingAbsturz and killingTötung you, the passengerPKW,
22
77080
3296
und dabei Sie, den Insassen, töten würde,
01:32
in orderAuftrag to savesparen those pedestriansFußgänger?
23
80400
2320
um die Fußgänger zu retten?
01:35
This scenarioSzenario is inspiredinspiriert
by the trolleyWagen problemProblem,
24
83240
3080
Dieses Szenario ist vom
Trolley-Problem inspiriert,
01:38
whichwelche was inventederfunden
by philosophersPhilosophen a fewwenige decadesJahrzehnte agovor
25
86960
3776
das vor einigen Jahrzehnten
von Philosophen erfunden wurde,
01:42
to think about ethicsEthik.
26
90760
1240
um Ethik zu erforschen.
01:46
Now, the way we think
about this problemProblem mattersAngelegenheiten.
27
94120
2496
Die Art, wie wir über
das Problem denken, zählt.
01:48
We maykann for exampleBeispiel
not think about it at all.
28
96640
2616
So könnten wir etwa
gar nicht darüber nachdenken.
01:51
We maykann say this scenarioSzenario is unrealisticunrealistische,
29
99280
3376
Wir könnten sagen,
dass das Szenario unrealistisch,
01:54
incrediblyunglaublich unlikelyunwahrscheinlich, or just sillydumm.
30
102680
2320
extrem unwahrscheinlich oder albern ist.
01:57
But I think this criticismKritik
missesvermisst the pointPunkt
31
105760
2736
Aber ich denke, dass diese Kritik
am Thema vorbeigeht,
02:00
because it takes
the scenarioSzenario too literallybuchstäblich.
32
108520
2160
da sie das Szenario zu wörtlich nimmt.
02:03
Of courseKurs no accidentUnfall
is going to look like this;
33
111920
2736
Natürlich wird kein Unfall
genauso aussehen.
02:06
no accidentUnfall has two or threedrei optionsOptionen
34
114680
3336
Bei keinem Unfall gibt es
zwei oder drei Optionen,
02:10
where everybodyjeder diesstirbt somehowirgendwie.
35
118040
2000
bei denen immer jemand stirbt.
02:13
InsteadStattdessen, the carAuto is going
to calculateberechnen something
36
121480
2576
Stattdessen wird das Auto
eine Zahl ausrechnen,
02:16
like the probabilityWahrscheinlichkeit of hittingschlagen
a certainsicher groupGruppe of people,
37
124080
4896
wie die Wahrscheinlichkeit,
eine bestimmte Menschengruppe zu treffen.
02:21
if you swerveSchlenker one directionRichtung
versusgegen anotherein anderer directionRichtung,
38
129000
3336
Wenn es in die eine oder
die andere Richtung ausweicht.
02:24
you mightMacht slightlyleicht increaseerhöhen, ansteigen the riskRisiko
to passengersPassagiere or other driversTreiber
39
132360
3456
könnte das Risiko für Passagiere
geringfügig höher sein,
02:27
versusgegen pedestriansFußgänger.
40
135840
1536
als das Risiko für Fußgänger.
02:29
It's going to be
a more complexKomplex calculationBerechnung,
41
137400
2160
Die Berechnung wäre komplexer,
02:32
but it's still going
to involvebeinhalten trade-offsKompromisse,
42
140480
2520
würde aber immer noch
Abwägungen beinhalten
02:35
and trade-offsKompromisse oftenhäufig requireerfordern ethicsEthik.
43
143840
2880
und Abwägungen beinhalten oft Ethik.
02:39
We mightMacht say then,
"Well, let's not worrySorge about this.
44
147840
2736
Jetzt könnten wir sagen:
„Lasst uns keine Sorgen machen.
02:42
Let's wait untilbis technologyTechnologie
is fullyvöllig readybereit and 100 percentProzent safeSafe."
45
150600
4640
Lasst uns warten, bis die Technologie
bereit und zu 100 % sicher ist.“
02:48
SupposeNehmen wir an that we can indeedtatsächlich
eliminatebeseitigen 90 percentProzent of those accidentsUnfälle,
46
156520
3680
Nehmen wir an, wir können tatsächlich
90 % dieser Unfälle vermeiden
02:53
or even 99 percentProzent in the nextNächster 10 yearsJahre.
47
161080
2840
oder sogar 99 % in den nächsten 10 Jahren.
02:56
What if eliminatingeliminieren
the last one percentProzent of accidentsUnfälle
48
164920
3176
Was wäre, wenn die Eliminierung
der letzen 1 % der Unfälle
03:00
requireserfordert 50 more yearsJahre of researchForschung?
49
168120
3120
50 weitere Jahre der Forschung
bedeuten würde?
03:04
Should we not adoptadoptieren the technologyTechnologie?
50
172400
1800
Sollten wir die Technologie ablehnen?
03:06
That's 60 millionMillion people
deadtot in carAuto accidentsUnfälle
51
174720
4776
Dann würden 60 Millionen Menschen
bei Autounfällen sterben,
03:11
if we maintainpflegen the currentStrom ratePreis.
52
179520
1760
wenn wir die Rate so beibehalten.
03:14
So the pointPunkt is,
53
182760
1216
Der Punkt ist also,
03:16
waitingwarten for fullvoll safetySicherheit is alsoebenfalls a choiceWahl,
54
184000
3616
dass das Warten auf vollkommene Sicherheit
eine Möglichkeit wäre,
03:19
and it alsoebenfalls involvesbeinhaltet trade-offsKompromisse.
55
187640
2160
diese aber auch
Abwägungen beinhalten würde.
03:23
People onlineonline on socialSozial mediaMedien
have been comingKommen up with all sortssortiert of waysWege
56
191560
4336
In den sozialen Medien haben die Nutzer
unzählige Möglichkeiten entwickelt,
03:27
to not think about this problemProblem.
57
195920
2016
um diesem Problem aus dem Weg zu gehen.
03:29
One personPerson suggestedempfohlen
the carAuto should just swerveSchlenker somehowirgendwie
58
197960
3216
Eine Person schlug vor, das sich das Auto
03:33
in betweenzwischen the passengersPassagiere --
59
201200
2136
zwischen den Fußgängern
durchschlängeln soll,
03:35
(LaughterLachen)
60
203360
1016
(Lachen)
03:36
and the bystanderZuschauer.
61
204400
1256
und dem Beobachter.
03:37
Of courseKurs if that's what the carAuto can do,
that's what the carAuto should do.
62
205680
3360
Natürlich könnte und sollte
das Auto dies machen,
03:41
We're interestedinteressiert in scenariosSzenarien
in whichwelche this is not possiblemöglich.
63
209920
2840
aber wir beleuchten Szenarien,
in denen das unmöglich ist.
03:45
And my personalpersönlich favoriteFavorit
was a suggestionVorschlag by a bloggerBlogger
64
213280
5416
Mein Lieblingsvorschlag
kam von einem Blogger,
der vorschlug eine Schleudersitz-Taste
im Auto zu haben, die gedrückt wird,
03:50
to have an ejectAuswerfen buttonTaste in the carAuto
that you pressDrücken Sie --
65
218720
3016
03:53
(LaughterLachen)
66
221760
1216
(Lachen)
03:55
just before the carAuto self-destructsSelbstzerstörung.
67
223000
1667
bevor sich das Auto zerstört.
03:56
(LaughterLachen)
68
224691
1680
(Lachen)
03:59
So if we acknowledgebestätigen that carsAutos
will have to make trade-offsKompromisse on the roadStraße,
69
227840
5200
Wenn wir also anerkennen, dass Autos
auf der Straße abwägen müssen,
04:06
how do we think about those trade-offsKompromisse,
70
234200
1880
wie denken wir über diese Abwägungen
04:09
and how do we decideentscheiden?
71
237320
1576
und wie entscheiden wir uns?
04:10
Well, maybe we should runLauf a surveyUmfrage
to find out what societyGesellschaft wants,
72
238920
3136
Vielleicht sollten wir eine Umfrage
in der Gesellschaft machen.
04:14
because ultimatelyletzten Endes,
73
242080
1456
Denn letztendlich
04:15
regulationsVorschriften and the lawRecht
are a reflectionBetrachtung of societalgesellschaftlichen valuesWerte.
74
243560
3960
sind Vorschriften und das Gesetz
ein Spiegel der gesellschaftlichen Werte.
04:20
So this is what we did.
75
248040
1240
Genau das haben wir getan.
04:21
With my collaboratorsMitarbeiter,
76
249880
1616
Mit meinen Mitarbeitern,
04:23
Jean-FranJean-FrançoisOIS BonnefonBonnefon and AzimAzim ShariffShariff,
77
251520
2336
Jean-François Bonnefon und Azim Shariff,
04:25
we ranlief a surveyUmfrage
78
253880
1616
haben wir eine Umfrage gemacht,
04:27
in whichwelche we presentedvorgeführt people
with these typesTypen of scenariosSzenarien.
79
255520
2855
in der wir Menschen
diese Art von Szenarien zeigten.
04:30
We gavegab them two optionsOptionen
inspiredinspiriert by two philosophersPhilosophen:
80
258399
3777
Wir haben ihnen zwei Optionen gegeben,
von zwei Philosophen inspiriert:
04:34
JeremyJeremy BenthamBentham and ImmanuelImmanuel KantKant.
81
262200
2640
Jeremy Bentham und Immanuel Kant.
04:37
BenthamBentham sayssagt the carAuto
should followFolgen utilitarianutilitaristischen ethicsEthik:
82
265600
3096
Bentham sagt, dass das Auto
utilitaristischer Ethik folgen sollte:
04:40
it should take the actionAktion
that will minimizeminimieren totalgesamt harmSchaden --
83
268720
3416
Es soll die Handlung ausführen,
die den Gesamtschaden minimiert,
04:44
even if that actionAktion will killtöten a bystanderZuschauer
84
272160
2816
sogar, wenn dies einen Beobachter tötet
04:47
and even if that actionAktion
will killtöten the passengerPKW.
85
275000
2440
und sogar, wenn diese Handlung
den Passagier tötet.
04:50
ImmanuelImmanuel KantKant sayssagt the carAuto
should followFolgen duty-boundverpflichtet principlesPrinzipien,
86
278120
4976
Immanuel Kant sagt, dass das Auto
pflichtgemäßen Prinzipien folgen sollte,
04:55
like "ThouDu shaltsollst not killtöten."
87
283120
1560
wie „Du sollst nicht töten.“
04:57
So you should not take an actionAktion
that explicitlyausdrücklich harmsHarms a humanMensch beingSein,
88
285480
4456
Man sollte also nicht so handeln,
dass es einen Menschen explizit verletzt,
05:01
and you should let the carAuto take its courseKurs
89
289960
2456
sondern das Auto seinen Weg nehmen lassen,
05:04
even if that's going to harmSchaden more people.
90
292440
1960
sogar, wenn dies mehr Menschen verletzt.
05:07
What do you think?
91
295640
1200
Was denken Sie?
05:09
BenthamBentham or KantKant?
92
297360
1520
Bentham oder Kant?
05:11
Here'sHier ist what we foundgefunden.
93
299760
1256
Hier ist unser Ergebnis.
05:13
MostDie meisten people sideddoppelseitige with BenthamBentham.
94
301040
1800
Die Meisten sind auf Benthams Seite.
05:16
So it seemsscheint that people
want carsAutos to be utilitarianutilitaristischen,
95
304160
3776
Die Menschen scheinen also zu wollen,
dass Autos utilitaristisch sind
und den Gesamtschaden minimieren
05:19
minimizeminimieren totalgesamt harmSchaden,
96
307960
1416
05:21
and that's what we should all do.
97
309400
1576
und das sollten wir alle tun.
05:23
ProblemProblem solvedgelöst.
98
311000
1200
Problem gelöst.
05:25
But there is a little catchFang.
99
313240
1480
Da gibt es aber einen Haken.
05:27
When we askedaufgefordert people
whetherob they would purchaseKauf sucheine solche carsAutos,
100
315920
3736
Als wir die Leute fragten,
ob sie solche Autos kaufen würden
05:31
they said, "AbsolutelyAbsolut not."
101
319680
1616
antworteten sie: „Niemals.“
05:33
(LaughterLachen)
102
321320
2296
(Lachen)
05:35
They would like to buykaufen carsAutos
that protectschützen them at all costsKosten,
103
323640
3896
Sie möchten Autos kaufen,
die sie um jeden Preis schützen,
05:39
but they want everybodyjeder elsesonst
to buykaufen carsAutos that minimizeminimieren harmSchaden.
104
327560
3616
aber alle anderen sollen Autos kaufen,
die Schaden minimieren.
05:43
(LaughterLachen)
105
331200
2520
(Lachen)
05:46
We'veWir haben seengesehen this problemProblem before.
106
334720
1856
Das Problem kannten wir.
05:48
It's callednamens a socialSozial dilemmaDilemma.
107
336600
1560
Man nennt es soziales Dilemma.
05:51
And to understandverstehen the socialSozial dilemmaDilemma,
108
339160
1816
Um das soziale Dilemma zu verstehen,
05:53
we have to go a little bitBit
back in historyGeschichte.
109
341000
2040
müssen wir in die Vergangenheit schauen.
05:56
In the 1800s,
110
344000
2576
Im 19. Jahrhundert veröffentlichte
05:58
EnglishEnglisch economistÖkonom WilliamWilliam ForsterForster LloydLloyd
publishedveröffentlicht a pamphletBroschüre
111
346600
3736
der englische Ökonom
William Forster Lloyd ein Merkblatt,
06:02
whichwelche describesbeschreibt the followinges folgen scenarioSzenario.
112
350360
2216
das das folgende Szenario beschreibt.
06:04
You have a groupGruppe of farmersBauern --
113
352600
1656
Eine Gruppe von Bauern –
06:06
EnglishEnglisch farmersBauern --
114
354280
1336
englische Bauern –
06:07
who are sharingTeilen a commonverbreitet landLand
for theirihr sheepSchaf to grazeWeiden.
115
355640
2680
teilen sich ein Stück Land,
auf dem ihre Schafe grasen.
06:11
Now, if eachjede einzelne farmerFarmer
bringsbringt a certainsicher numberNummer of sheepSchaf --
116
359520
2576
Wenn jeder Bauer
eine bestimmte Anzahl Schafe hat,
06:14
let's say threedrei sheepSchaf --
117
362120
1496
sagen wir 3 Schafe,
06:15
the landLand will be rejuvenatedverjüngt,
118
363640
2096
wird das Land verjüngt.
06:17
the farmersBauern are happyglücklich,
119
365760
1216
Die Bauern sind glücklich
06:19
the sheepSchaf are happyglücklich,
120
367000
1616
und die Schafe sind glücklich.
06:20
everything is good.
121
368640
1200
Alles ist gut.
06:22
Now, if one farmerFarmer bringsbringt one extraextra sheepSchaf,
122
370440
2520
Wenn jetzt aber ein Bauer
ein Schaf mehr hat,
06:25
that farmerFarmer will do slightlyleicht better,
and no one elsesonst will be harmedGeschädigten.
123
373800
4720
geht es ihm etwas besser
und niemand kommt zu Schaden.
06:31
But if everyjeden farmerFarmer madegemacht
that individuallyindividuell rationalrational decisionEntscheidung,
124
379160
3640
Trifft aber jeder Bauer diese
individuelle rationale Entscheidung,
06:35
the landLand will be overrunüberrannt,
and it will be depletederschöpft
125
383840
2720
ist das Stück Land überlaufen
und wird erschöpft,
06:39
to the detrimentNachteil of all the farmersBauern,
126
387360
2176
zum Nachteil aller Bauern
06:41
and of courseKurs,
to the detrimentNachteil of the sheepSchaf.
127
389560
2120
und natürlich zum Nachteil der Schafe.
06:44
We see this problemProblem in manyviele placessetzt:
128
392720
3680
Wir sehen dieses Problem überall:
06:49
in the difficultySchwierigkeit of managingGeschäftsführer overfishingÜberfischung,
129
397080
3176
beim Versuch Überfischung zu vermeiden
06:52
or in reducingreduzierend carbonKohlenstoff emissionsEmissionen
to mitigatemildern climateKlima changeVeränderung.
130
400280
4560
oder beim Versuch Emission zu reduzieren,
um den Klimawandel einzudämmen.
06:59
When it comeskommt to the regulationVerordnung
of driverlessfahrerlose carsAutos,
131
407160
2920
Wenn es um Vorschriften
für fahrerlose Autos geht,
07:03
the commonverbreitet landLand now
is basicallyGrundsätzlich gilt publicÖffentlichkeit safetySicherheit --
132
411080
4336
steht das gemeinsame Land
für die öffentliche Sicherheit –
07:07
that's the commonverbreitet good --
133
415440
1240
das Gemeinwohl –
07:09
and the farmersBauern are the passengersPassagiere
134
417400
1976
und die Bauern sind die Passagiere
07:11
or the carAuto ownersEigentümer who are choosingdie Wahl
to rideReiten in those carsAutos.
135
419400
3600
oder die Autobesitzer,
die in diesen Autos fahren.
07:16
And by makingHerstellung the individuallyindividuell
rationalrational choiceWahl
136
424960
2616
Beim Treffen der individuellen
rationalen Entscheidung,
07:19
of prioritizingPriorisierung theirihr ownbesitzen safetySicherheit,
137
427600
2816
die eigene Sicherheit zu bevorzugen,
07:22
they maykann collectivelygemeinsam be
diminishingabnehmend the commonverbreitet good,
138
430440
3136
könnten sie das Gemeinwohl
zusammen vermindern,
07:25
whichwelche is minimizingMinimierung der totalgesamt harmSchaden.
139
433600
2200
was den Gesamtschaden verringert.
07:30
It's callednamens the tragedyTragödie of the commonsCommons,
140
438320
2136
Man nennt dies die Tragik der Allmende,
07:32
traditionallytraditionell,
141
440480
1296
herkömmlicherweise,
07:33
but I think in the caseFall
of driverlessfahrerlose carsAutos,
142
441800
3096
aber im Fall fahrerloser Autos,
07:36
the problemProblem maykann be
a little bitBit more insidiousheimtückische
143
444920
2856
könnte das Problem
etwas komplizierter sein,
07:39
because there is not necessarilyNotwendig
an individualPerson humanMensch beingSein
144
447800
3496
weil nicht unbedingt ein Mensch
07:43
makingHerstellung those decisionsEntscheidungen.
145
451320
1696
diese Entscheidungen trifft.
07:45
So carAuto manufacturersHersteller
maykann simplyeinfach programProgramm carsAutos
146
453040
3296
Autohersteller könnten also einfach
Autos so programmieren,
07:48
that will maximizezu maximieren safetySicherheit
for theirihr clientsKunden,
147
456360
2520
dass sie maximale Sicherheit
für ihre Kunden gewähren
07:52
and those carsAutos maykann learnlernen
automaticallyautomatisch on theirihr ownbesitzen
148
460080
2976
und diese Autos könnten
automatisch, alleine lernen,
07:55
that doing so requireserfordert slightlyleicht
increasingsteigend riskRisiko for pedestriansFußgänger.
149
463080
3520
dass diese Sicherheit mit einem
erhöhten Risiko für Fußgänger einhergeht.
07:59
So to use the sheepSchaf metaphorMetapher,
150
467520
1416
In der Schaf-Metapher
08:00
it's like we now have electricelektrisch sheepSchaf
that have a mindVerstand of theirihr ownbesitzen.
151
468960
3616
würde das elektronische Schafe
mit eigener Meinung bedeuten.
08:04
(LaughterLachen)
152
472600
1456
(Lachen)
08:06
And they maykann go and grazeWeiden
even if the farmerFarmer doesn't know it.
153
474080
3080
Und diese könnten grasen,
ohne, dass der Bauer davon weiß.
08:10
So this is what we maykann call
the tragedyTragödie of the algorithmicalgorithmische commonsCommons,
154
478640
3976
Der Name dafür könnte also
Tragik der algorithmischen Allmende sein
08:14
and if offersbietet an newneu typesTypen of challengesHerausforderungen.
155
482640
2360
und diese stellt uns vor
ganz neue Probleme.
08:22
TypicallyIn der Regel, traditionallytraditionell,
156
490520
1896
Normalerweise
08:24
we solvelösen these typesTypen
of socialSozial dilemmasDilemmata usingmit regulationVerordnung,
157
492440
3336
haben wir diese Art von sozialen Dilemmas
mit Vorschriften gelöst.
08:27
so eitherentweder governmentsRegierungen
or communitiesGemeinschaften get togetherzusammen,
158
495800
2736
Entweder Regierungen
oder Gemeinden kommen zusammen
08:30
and they decideentscheiden collectivelygemeinsam
what kindArt of outcomeErgebnis they want
159
498560
3736
und entscheiden gemeinsam,
welches Ergebnis sie möchten
08:34
and what sortSortieren of constraintsEinschränkungen
on individualPerson behaviorVerhalten
160
502320
2656
und welche Einschränkungen
des individuellen Verhaltens
08:37
they need to implementimplementieren.
161
505000
1200
sie einführen müssen.
08:39
And then usingmit monitoringÜberwachung and enforcementDurchsetzung,
162
507600
2616
Dann wird mittels Überwachung
und Vollstreckung sichergestellt,
08:42
they can make sure
that the publicÖffentlichkeit good is preservederhalten.
163
510240
2559
dass das Gemeinwohl gewahrt bleibt.
08:45
So why don't we just,
164
513440
1575
Warum sagen wir dann nicht,
08:47
as regulatorsRegulierungsbehörden,
165
515039
1496
als Regulatoren,
08:48
requireerfordern that all carsAutos minimizeminimieren harmSchaden?
166
516559
2897
dass alle Autos Schaden minimieren müssen?
08:51
After all, this is
what people say they want.
167
519480
2240
Im Grunde, ist es das,
was Menschen wollen.
08:55
And more importantlywichtig,
168
523200
1416
Und was noch wichtiger ist,
08:56
I can be sure that as an individualPerson,
169
524640
3096
ich, als Individuum, kann sicher sein,
08:59
if I buykaufen a carAuto that maykann
sacrificeOpfern me in a very rareSelten caseFall,
170
527760
3856
dass, wenn ich ein Auto kaufe,
dass mich im seltenen Fall opfern würde,
09:03
I'm not the only suckerSauger doing that
171
531640
1656
ich nicht der einzige Dumme bin,
09:05
while everybodyjeder elsesonst
enjoysgenießt unconditionalbedingungslose protectionSchutz.
172
533320
2680
während alle anderen
bedingungslose Sicherheit genießen.
09:09
In our surveyUmfrage, we did askFragen people
whetherob they would supportUnterstützung regulationVerordnung
173
537120
3336
In unser Umfrage haben wir gefragt,
ob Vorschriften befürwortet werden
09:12
and here'shier ist what we foundgefunden.
174
540480
1200
und hier ist die Antwort.
09:14
First of all, people
said no to regulationVerordnung;
175
542360
3760
Zuerst haben sich die Teilnehmer
gegen Vorschriften ausgesprochen.
09:19
and secondzweite, they said,
176
547280
1256
Dann haben sie gesagt:
09:20
"Well if you regulatezu regulieren carsAutos to do this
and to minimizeminimieren totalgesamt harmSchaden,
177
548560
3936
„Wenn Autos so reguliert werden
und den Schaden minimieren sollen,
09:24
I will not buykaufen those carsAutos."
178
552520
1480
kaufe ich das Auto nicht. “
09:27
So ironicallyironisch,
179
555400
1376
Ironischerweise
09:28
by regulatingzur Regelung carsAutos to minimizeminimieren harmSchaden,
180
556800
3496
indem wir Autos regulieren,
so dass sie Schaden minimieren
09:32
we maykann actuallytatsächlich endEnde up with more harmSchaden
181
560320
1840
könnten wir noch mehr Schaden nehmen,
09:35
because people maykann not
optopt into the safersicherer technologyTechnologie
182
563040
3656
weil die Menschen sich nicht
für sichere Technologie entscheiden,
09:38
even if it's much safersicherer
than humanMensch driversTreiber.
183
566720
2080
obwohl sie viel sicherer
als der Mensch ist.
09:42
I don't have the finalFinale
answerAntworten to this riddleRätsel,
184
570360
3416
Ich habe keine ultimative Antwort
für dieses Rätsel,
09:45
but I think as a startingbeginnend pointPunkt,
185
573800
1576
aber ich denke,
zuallererst sollte die Gesellschaft
zusammen kommen
09:47
we need societyGesellschaft to come togetherzusammen
186
575400
3296
09:50
to decideentscheiden what trade-offsKompromisse
we are comfortablegemütlich with
187
578720
2760
und die Kompromisse beschließen,
die wir verkraften können
09:54
and to come up with waysWege
in whichwelche we can enforceerzwingen those trade-offsKompromisse.
188
582360
3480
und Ideen entwickeln,
wie wir diese durchsetzen können.
09:58
As a startingbeginnend pointPunkt,
my brilliantGenial studentsStudenten,
189
586520
2536
Als Grundlage haben
meine brillanten Studenten,
10:01
EdmondEdmond AwadAwad and SohanSohan DsouzaDsouza,
190
589080
2456
Edmong Awad und Sohan Dsouza,
10:03
builtgebaut the MoralMoralische MachineMaschine websiteWebseite,
191
591560
1800
die Moral Machine Website gebaut,
10:06
whichwelche generateserzeugt randomzufällig scenariosSzenarien at you --
192
594200
2680
die eine Reihe von Szenarien vorgibt,
10:10
basicallyGrundsätzlich gilt a bunchBündel
of randomzufällig dilemmasDilemmata in a sequenceSequenz
193
598080
2456
eine Reihe von zufälligen
Dilemmas in Folge,
10:12
where you have to choosewählen what
the carAuto should do in a givengegeben scenarioSzenario.
194
600560
3920
bei denen Sie bestimmen müssen,
wie das Auto reagiert.
10:17
And we varyvariieren the agesAlter and even
the speciesSpezies of the differentanders victimsdie Opfer.
195
605040
4600
Wir verändern das Alter und sogar
die Spezies der verschiedenen Opfer.
10:23
So farweit we'vewir haben collectedgesammelt
over fivefünf millionMillion decisionsEntscheidungen
196
611040
3696
Bisher haben wir
über fünf Millionen Entscheidungen
10:26
by over one millionMillion people worldwideweltweit
197
614760
2200
von über einer Million Menschen weltweit
10:30
from the websiteWebseite.
198
618400
1200
mit der Webseite erhoben.
10:32
And this is helpingPortion us
formbilden an earlyfrüh pictureBild
199
620360
2416
Und das hilft uns dabei,
von Anfang an zu verstehen,
10:34
of what trade-offsKompromisse
people are comfortablegemütlich with
200
622800
2616
mit welchen Kompromissen
die Menschen leben können
10:37
and what mattersAngelegenheiten to them --
201
625440
1896
und was ihnen wichtig ist –
10:39
even acrossüber culturesKulturen.
202
627360
1440
sogar kulturübergreifend.
10:42
But more importantlywichtig,
203
630240
1496
Das Wichtigste ist jedoch,
10:43
doing this exerciseÜbung
is helpingPortion people recognizeerkenne
204
631760
3376
dass diese Übung dabei hilft,
zu verstehen,
10:47
the difficultySchwierigkeit of makingHerstellung those choicesAuswahlmöglichkeiten
205
635160
2816
wie schwierig es ist,
diese Entscheidungen zu treffen,
10:50
and that the regulatorsRegulierungsbehörden
are taskeddie Aufgabe with impossibleunmöglich choicesAuswahlmöglichkeiten.
206
638000
3800
und dass Regulatoren vor
unmöglichen Entscheidungen stehen.
10:55
And maybe this will help us as a societyGesellschaft
understandverstehen the kindsArten of trade-offsKompromisse
207
643360
3576
Und vielleicht hilft es
der Gesellschaft zu verstehen,
welche Abwägungen letztendlich
in Vorschriften enthalten sind.
10:58
that will be implementedimplementiert
ultimatelyletzten Endes in regulationVerordnung.
208
646960
3056
11:02
And indeedtatsächlich, I was very happyglücklich to hearhören
209
650040
1736
Und ich war glücklich zu hören,
11:03
that the first setSet of regulationsVorschriften
210
651800
2016
dass die erste Reihe von Vorschriften
11:05
that camekam from
the DepartmentAbteilung of TransportTransport --
211
653840
2136
vom Verkehrsministerium,
11:08
announcedangekündigt last weekWoche --
212
656000
1376
wie letzte Woche angekündigt,
11:09
includedinbegriffen a 15-point-Punkt checklistCheckliste
for all carmakersAutohersteller to providezu Verfügung stellen,
213
657400
6576
eine 15-Punkte-Checkliste
für alle Autohersteller enthielten
11:16
and numberNummer 14 was ethicalethisch considerationBerücksichtigung --
214
664000
3256
und Nummer 14 waren moralische Bedenken
11:19
how are you going to dealDeal with that.
215
667280
1720
und wie man mit diesen umgeht.
11:23
We alsoebenfalls have people
reflectreflektieren on theirihr ownbesitzen decisionsEntscheidungen
216
671800
2656
Wir haben Menschen
ihre Angaben reflektieren lassen,
11:26
by givinggeben them summariesZusammenfassungen
of what they chosewählte.
217
674480
3000
indem wir ihnen eine Zusammenfassung
ihrer Entscheidung gaben.
11:30
I'll give you one exampleBeispiel --
218
678440
1656
Hier ist ein Beispiel.
11:32
I'm just going to warnwarnen you
that this is not your typicaltypisch exampleBeispiel,
219
680120
3536
Ich muss Sie nur vorher warnen,
dies ist kein typisches Beispiel,
11:35
your typicaltypisch userBenutzer.
220
683680
1376
kein typischer Nutzer.
11:37
This is the mostdie meisten sacrificedgeopfert and the mostdie meisten
savedGerettet characterCharakter for this personPerson.
221
685080
3616
Dies ist der am meisten geopferte und
der am meisten geschützte Charakter.
11:40
(LaughterLachen)
222
688720
5200
(Lachen)
11:46
Some of you maykann agreezustimmen with him,
223
694680
1896
Manche mögen seine Meinung teilen
11:48
or her, we don't know.
224
696600
1640
oder ihre Meinung, wer weiß.
11:52
But this personPerson alsoebenfalls seemsscheint to slightlyleicht
preferbevorzugen passengersPassagiere over pedestriansFußgänger
225
700480
6136
Diese Person neigt jedoch mehr dazu,
Passagiere über Fußgänger zu stellen
11:58
in theirihr choicesAuswahlmöglichkeiten
226
706640
2096
und bei den Entscheidungen
12:00
and is very happyglücklich to punishbestrafen jaywalkingjaywalking.
227
708760
2816
verkehrswidriges Verhalten zu bestrafen.
12:03
(LaughterLachen)
228
711600
3040
(Lachen)
12:09
So let's wrapwickeln up.
229
717320
1216
Fassen wir also zusammen.
12:10
We startedhat angefangen with the questionFrage --
let's call it the ethicalethisch dilemmaDilemma --
230
718559
3416
Wir starteten mit der Frage –
wir nennen sie moralisches Dilemma –
12:14
of what the carAuto should do
in a specificspezifisch scenarioSzenario:
231
722000
3056
wie sich das Auto in einem
spezifischen Szenario verhalten soll:
12:17
swerveSchlenker or staybleibe?
232
725080
1200
ausweichen oder bleiben?
12:19
But then we realizedrealisiert
that the problemProblem was a differentanders one.
233
727240
2736
Aber dann merkten wir,
dass das Problem ein anderes war.
12:22
It was the problemProblem of how to get
societyGesellschaft to agreezustimmen on and enforceerzwingen
234
730000
4536
Die Frage war, wie man die Gesellschaft
dazu bringt, Kompromisse durchzusetzen,
12:26
the trade-offsKompromisse they're comfortablegemütlich with.
235
734560
1936
mit denen sie sich wohl fühlen.
12:28
It's a socialSozial dilemmaDilemma.
236
736520
1256
Ein soziales Dilemma.
12:29
In the 1940s, IsaacIsaac AsimovAsimov
wroteschrieb his famousberühmt lawsGesetze of roboticsRobotik --
237
737800
5016
In den 1940ern schrieb Isaac Asimov
die berühmten Robotergesetze –
12:34
the threedrei lawsGesetze of roboticsRobotik.
238
742840
1320
die drei Robotergesetze.
12:37
A robotRoboter maykann not harmSchaden a humanMensch beingSein,
239
745240
2456
Ein Roboter darf kein
menschliches Wesen verletzen.
12:39
a robotRoboter maykann not disobeyUngehorsam zu sein a humanMensch beingSein,
240
747720
2536
Ein Roboter muss einem Menschen gehorchen.
12:42
and a robotRoboter maykann not allowzulassen
itselfselbst to come to harmSchaden --
241
750280
3256
Ein Roboter muss
seine Existenz beschützen.
12:45
in this orderAuftrag of importanceBedeutung.
242
753560
1960
In dieser Reihenfolge.
12:48
But after 40 yearsJahre or so
243
756360
2136
Aber nach ungefähr 40 Jahren
12:50
and after so manyviele storiesGeschichten
pushingDrücken these lawsGesetze to the limitGrenze,
244
758520
3736
und nach so viele Geschichten,
die diese Gesetze an ihre Grenzen bringen,
12:54
AsimovAsimov introducedeingeführt the zerothNullte lawRecht
245
762280
3696
entwickelte Asimov das nullte Gesetz,
12:58
whichwelche takes precedenceVorrang vor aboveüber all,
246
766000
2256
das über allen anderen steht.
13:00
and it's that a robotRoboter
maykann not harmSchaden humanityMenschheit as a wholeganze.
247
768280
3280
Es besagt, dass ein Roboter
die Menschheit nicht verletzen darf.
13:04
I don't know what this meansmeint
in the contextKontext of driverlessfahrerlose carsAutos
248
772480
4376
Ich weiß nicht, was das in Verbindung
mit fahrerlosen Autos bedeutet
13:08
or any specificspezifisch situationLage,
249
776880
2736
oder in Verbindung mit anderen Situationen
13:11
and I don't know how we can implementimplementieren it,
250
779640
2216
und ich weiß nicht,
wie wir es umsetzen können.
13:13
but I think that by recognizingerkennen
251
781880
1536
Wenn wir jedoch anerkennen,
13:15
that the regulationVerordnung of driverlessfahrerlose carsAutos
is not only a technologicaltechnologisch problemProblem
252
783440
6136
dass die Vorschriften für fahrerlose Autos
nicht nur ein technologisches Problem,
13:21
but alsoebenfalls a societalgesellschaftlichen cooperationZusammenarbeit problemProblem,
253
789600
3280
sondern auch ein gesellschaftliches
Kooperationsproblem sind,
13:25
I hopeHoffnung that we can at leastam wenigsten beginStart
to askFragen the right questionsFragen.
254
793800
2880
dann können wir beginnen,
die richtigen Fragen zu stellen.
13:29
Thank you.
255
797200
1216
Danke.
13:30
(ApplauseApplaus)
256
798440
2920
(Applaus)
Translated by Lisa Dietrich
Reviewed by seo hyeon Yoon

▲Back to top

ABOUT THE SPEAKER
Iyad Rahwan - Computational social scientist
Iyad Rahwan's work lies at the intersection of the computer and social sciences, with a focus on collective intelligence, large-scale cooperation and the social aspects of artificial intelligence.

Why you should listen

Iyad Rahwan is the AT&T Career Development Professor and an associate professor of media arts & sciences at the MIT Media Lab, where he leads the Scalable Cooperation group. A native of Aleppo, Syria, Rahwan holds a PhD. from the University of Melbourne, Australia and is an affiliate faculty at the MIT Institute of Data, Systems and Society (IDSS). He led the winning team in the US State Department's Tag Challenge, using social media to locate individuals in remote cities within 12 hours using only their mug shots. Recently he crowdsourced 30 million decisions from people worldwide about the ethics of AI systems. Rahwan's work appeared in major academic journals, including Science and PNAS, and features regularly in major media outlets, including the New York Times, The Economist and the Wall Street Journal.

(Photo: Victoriano Izquierdo)

More profile about the speaker
Iyad Rahwan | Speaker | TED.com