ABOUT THE SPEAKER
Philip Zimbardo - Psychologist
Philip Zimbardo was the leader of the notorious 1971 Stanford Prison Experiment -- and an expert witness at Abu Ghraib. His book The Lucifer Effect explores the nature of evil; now, in his new work, he studies the nature of heroism.

Why you should listen

Philip Zimbardo knows what evil looks like. After serving as an expert witness during the Abu Ghraib trials, he wrote The Lucifer Effect: Understanding How Good People Turn Evil. From Nazi comic books to the tactics of used-car salesmen, he explores a wealth of sources in trying to explain the psychology of evil.

A past president of the American Psychological Association and a professor emeritus at Stanford, Zimbardo retired in 2008 from lecturing, after 50 years of teaching his legendary introductory course in psychology. In addition to his work on evil and heroism, Zimbardo recently published The Time Paradox, exploring different cultural and personal perspectives on time.

Still well-known for his controversial Stanford Prison Experiment, Zimbardo in his new research looks at the psychology of heroism. He asks, "What pushes some people to become perpetrators of evil, while others act heroically on behalf of those in need?"

More profile about the speaker
Philip Zimbardo | Speaker | TED.com
TED2008

Philip Zimbardo: The psychology of evil

Philip Zimbardo: Wie gewöhnliche Menschen zu Monstern werden ... oder zu Helden

Filmed:
7,078,283 views

Philip Zimbardo weiß, wie einfach es für nette Leute ist, böse zu werden. In seinem Vortrag teilt er mit uns Erkenntnisse und unveröffentlichte Fotos aus den Abu-Ghraib-Verhandlungen. Danach spricht er vom Gegenteil: Wie einfach es ist, ein Held zu werden und wie wir so eine Herausforderung bewältigen.
- Psychologist
Philip Zimbardo was the leader of the notorious 1971 Stanford Prison Experiment -- and an expert witness at Abu Ghraib. His book The Lucifer Effect explores the nature of evil; now, in his new work, he studies the nature of heroism. Full bio

Double-click the English transcript below to play the video.

00:13
PhilosophersPhilosophen, dramatistsDramatiker, theologiansTheologen
0
1000
3000
Philosophen, Dramatiker, Theologen
00:16
have grappledgerungen with this questionFrage for centuriesJahrhunderte:
1
4000
2000
ringen seit Jahrhunderten
mit dieser Frage:
00:18
what makesmacht people go wrongfalsch?
2
6000
2000
Was bringt Menschen dazu,
sich falsch zu verhalten?
00:20
InterestinglyInteressanterweise, I askedaufgefordert this questionFrage when I was a little kidKind.
3
8000
2000
Schon als kleines Kind
habe ich diese Frage gestellt.
00:23
When I was a kidKind growingwachsend up in the SouthSüden BronxBronx, inner-cityInnenstadt ghettoGhetto
4
11000
2000
Ich wuchs in der South Bronx auf,
einem Innenstadt-Ghetto
00:25
in NewNeu YorkYork, I was surroundedumgeben by evilböse,
5
13000
2000
in New York. Dort war ich
umgeben von Bösem,
00:28
as all kidsKinder are who grewwuchs up in an innerinnere cityStadt.
6
16000
2000
wie alle Kinder, die mitten in
einer Großstadt aufwachsen.
00:30
And I had friendsFreunde who were really good kidsKinder,
7
18000
2000
Und ich hatte Freunde,
wirklich brave Kinder,
00:32
who livedlebte out the DrDr. JekyllJekyll MrHerr. HydeHyde scenarioSzenario -- RobertRobert LouisLouis StevensonStevenson.
8
20000
4000
die "Dr. Jekyll und Mr. Hyde"-Szenarien
durchlebten, wie bei Robert Louis Stevenson.
00:36
That is, they tookdauerte drugsDrogen, got in troubleÄrger, wentging to jailGefängnis.
9
24000
4000
Sie nahmen Drogen, bekamen
Ärger, kamen ins Gefängnis.
00:40
Some got killedermordet, and some did it withoutohne drugDroge assistanceHilfe.
10
28000
4000
Manche wurden getötet,
sogar ohne Hilfe von Drogen.
00:44
So when I readlesen RobertRobert LouisLouis StevensonStevenson, that wasn'twar nicht fictionFiktion.
11
32000
3000
Als ich also Robert Louis Stevenson
las, war das keine Fiktion.
00:47
The only questionFrage is, what was in the juiceSaft?
12
35000
1000
Die Frage ist nur, was
war in der Tinktur?
00:48
And more importantlywichtig, that lineLinie betweenzwischen good and evilböse --
13
36000
5000
Und wichtiger, diese Trennlinie
zwischen Gut und Böse –
00:53
whichwelche privilegedprivilegiert people like to think is fixedFest and impermeableundurchlässige,
14
41000
3000
von der Privilegierte gerne denken,
sie sei fix und undurchlässig,
00:56
with them on the good sideSeite, and the othersAndere on the badschlecht sideSeite --
15
44000
3000
mit ihnen auf der guten Seite und
den anderen auf der bösen –
00:59
I knewwusste that lineLinie was movablebewegliche, and it was permeabledurchlässigen.
16
47000
3000
Ich wusste, dass diese Linie
verschiebbar und durchlässig ist.
01:02
Good people could be seducedverführt acrossüber that lineLinie,
17
50000
2000
Man kann gute Menschen zum
Übertreten dieser Linie verführen,
01:05
and underunter good and some rareSelten circumstancesUmstände, badschlecht kidsKinder could recovererholen
18
53000
3000
und unter guten und seltenen Umständen
können missratene Kinder anständig werden,
01:08
with help, with reformReformen, with rehabilitationSanierung.
19
56000
3000
mit Hilfe, mit Reformen,
mit Rehabilitation.
01:12
So I want to beginStart with this this wonderfulwunderbar illusionIllusion
20
60000
2000
Darum will ich anfangen mit dieser
wunderbaren optischen Täuschung
01:14
by [DutchHolländisch] artistKünstler M.C. EscherEscher.
21
62000
2000
des [niederländischen]
Künstlers M.C. Escher.
01:17
If you look at it and focusFokus on the whiteWeiß,
22
65000
1000
Wenn Sie sich auf das
Weiße konzentrieren,
01:18
what you see is a worldWelt fullvoll of angelsEngel.
23
66000
2000
sehen Sie eine
Welt voller Engel.
01:20
But let's look more deeplytief, and as we do,
24
68000
3000
Aber sehen wir genauer
hin, und schon
01:23
what appearserscheint is the demonsDämonen, the devilsTeufel in the worldWelt.
25
71000
3000
erscheinen die Dämonen,
die Teufel in der Welt.
01:27
And that tellserzählt us severalmehrere things.
26
75000
1000
Und das verrät uns
mehrere Sachen.
01:28
One, the worldWelt is, was, will always be filledgefüllt with good and evilböse,
27
76000
3000
Erstens: Die Welt ist, war und wird
immer Gut und Böse enthalten,
01:31
because good and evilböse is the yinYin and yangYang of the humanMensch conditionBedingung.
28
79000
3000
weil Gut und Böse, Yin und Yang
das Mensch-Sein sind.
01:34
It tellserzählt me something elsesonst. If you remembermerken,
29
82000
2000
Es verrät uns noch etwas.
Wie Sie sich erinnern,
01:36
God'sGottes favoriteFavorit angelEngel was LuciferLuzifer.
30
84000
3000
Luzifer war Gottes
Lieblingsengel.
01:39
ApparentlyOffenbar, LuciferLuzifer meansmeint "the lightLicht."
31
87000
2000
Anscheinend bedeutet
Luzifer "Licht".
01:42
It alsoebenfalls meansmeint "the morningMorgen starStar," in some scriptureSchrift.
32
90000
2000
In manchen Schriften
auch "Morgenstern".
01:44
And apparentlyanscheinend, he disobeyedUngehorsam God,
33
92000
3000
Und anscheinend
gehorchte er Gott nicht –
01:47
and that's the ultimateLetztendlich disobedienceUngehorsam to authorityBehörde.
34
95000
3000
der Gipfel des Ungehorsams
gegenüber Autorität.
01:50
And when he did, MichaelMichael, the archangelErzengel, was sentgesendet
35
98000
3000
Und als er das tat, wurde
Erzengel Michael geschickt,
01:54
to kickKick him out of heavenHimmel alongeine lange with the other fallengefallen angelsEngel.
36
102000
3000
um ihn aus dem Himmel zu werfen,
mit den anderen gefallenen Engeln.
01:57
And so LuciferLuzifer descendssenkt sich into hellHölle, becomeswird SatanSatan,
37
105000
3000
Und so steigt Luzifer
in die Hölle, wird Satan,
02:01
becomeswird the devilTeufel, and the forceKraft of evilböse in the universeUniversum beginsbeginnt.
38
109000
2000
der Teufel, und die Macht des
Bösen im Universum beginnt.
02:03
ParadoxicallyParadoxerweise, it was God who createderstellt hellHölle as a placeOrt to storeGeschäft evilböse.
39
111000
5000
Doch war es Gott, der die Hölle erschuf,
als einen Platz, um das Böse zu verwahren.
02:09
He didn't do a good jobJob of keepinghalten it there thoughobwohl.
40
117000
1000
Er schaffte es nur nicht,
das Böse dort zu halten.
02:10
So, this arcBogen of the cosmickosmisch transformationTransformation
41
118000
3000
Nun, dieser Bogen der
kosmischen Verwandlung
02:13
of God'sGottes favoriteFavorit angelEngel into the DevilTeufel,
42
121000
2000
von Gottes Liebling
in den Teufel
02:15
for me, setssetzt the contextKontext for understandingVerstehen humanMensch beingsWesen
43
123000
4000
schafft für mich den Kontext,
um Menschen zu verstehen,
02:19
who are transformedtransformiert from good, ordinarygewöhnlich people
44
127000
3000
die sich von guten,
gewöhnlichen Menschen
02:22
into perpetratorsTäter of evilböse.
45
130000
2000
in Straftäter verwandeln.
02:24
So the LuciferLuzifer effectbewirken, althoughobwohl it focuseskonzentriert on the negativesNegative --
46
132000
4000
Der Luzifer-Effekt führt mich also, obwohl
er sich auf das Schlechte konzentriert –
02:28
the negativesNegative that people can becomewerden,
47
136000
3000
das Schlechte, das
Menschen werden können,
02:31
not the negativesNegative that people are --
48
139000
1000
nicht das Schlechte,
das Menschen sind –
02:32
leadsführt me to a psychologicalpsychologische definitionDefinition. EvilBöse is the exerciseÜbung of powerLeistung.
49
140000
6000
zu einer psychologischen Definition:
Das Böse ist das Ausüben von Macht.
02:38
And that's the keySchlüssel: it's about powerLeistung.
50
146000
2000
Und das ist der Schlüssel:
Es geht um Macht.
02:40
To intentionallyabsichtlich harmSchaden people psychologicallypsychologisch,
51
148000
3000
Um Menschen vorsätzlich
psychologisch zu schaden,
02:44
to hurtverletzt people physicallyphysisch, to destroyzerstören people mortallytödlich, or ideasIdeen,
52
152000
3000
sie zu verletzen, sie oder Ideen
vollständig zu zerstören,
02:47
and to commitverpflichten crimesVerbrechen againstgegen humanityMenschheit.
53
155000
2000
und um Verbrechen gegen die
Menschlichkeit zu begehen.
02:51
If you GoogleGoogle "evilböse," a wordWort that should surelysicherlich have witheredverdorrt by now,
54
159000
3000
Googlet man das Wort "böse", ein Wort,
das seine Blütezeit hinter sich haben sollte,
02:54
you come up with 136 millionMillion hitsHits in a thirddritte of a secondzweite.
55
162000
4000
erzielt man 136 Millionen Treffer
in einer Drittel-Sekunde.
02:58
A fewwenige yearsJahre agovor -- I am sure all of you were shockedschockiert, as I was,
56
166000
4000
Vor ein paar Jahren – bestimmt waren Sie
alle genauso geschockt wie ich,
03:02
with the revelationOffenbarung of AmericanAmerikanische soldiersSoldaten
57
170000
3000
durch die Enthüllung, dass
amerikanische Soldaten
03:05
abusingmissbrauchen prisonersGefangene in a strangekomisch placeOrt
58
173000
3000
Häftlinge misshandelt haben,
an einem seltsamen Ort,
03:08
in a controversialumstritten warKrieg, AbuAbu GhraibGhraib in IraqIrak.
59
176000
3000
in einem umstrittenen Krieg:
Abu Ghraib im Irak.
03:11
And these were menMänner and womenFrau
60
179000
1000
Und das waren
Männer und Frauen,
03:12
who were puttingPutten prisonersGefangene throughdurch unbelievablenicht zu fassen humiliationDemütigung.
61
180000
5000
die die Gefangenen undenkbaren
Erniedrigungen unterzogen.
03:18
I was shockedschockiert, but I wasn'twar nicht surprisedüberrascht,
62
186000
1000
Ich war schockiert,
aber nicht überrascht,
03:19
because I had seengesehen those samegleich visualvisuell parallelsparallelen
63
187000
2000
denn ich hatte die gleichen
Parallelen gesehen,
03:22
when I was the prisonGefängnis superintendentSuperintendent of the StanfordStanford PrisonGefängnis StudyStudie.
64
190000
3000
als ich der Gefängnisvorsteher bei
der Stanford-Gefängnis-Studie war.
03:25
ImmediatelySofort the BushBush administrationVerwaltung militaryMilitär- said ... what?
65
193000
2000
Das Militär der Bush-Regierung
sagte sofort ... was?
03:28
What all administrationsVerwaltungen say when there's a scandalSkandal.
66
196000
2000
Das, was alle Regierungen
bei einem Skandal sagen.
03:30
"Don't blameSchuld us. It's not the systemSystem. It's the fewwenige badschlecht applesÄpfel,
67
198000
3000
"Gebt nicht uns die Schuld. Es liegt nicht
am System. Das sind nur ein paar faule Eier,
03:34
the fewwenige rogueSchurke soldiersSoldaten."
68
202000
1000
außer Kontrolle
geratene Soldaten."
03:35
My hypothesisHypothese is, AmericanAmerikanische soldiersSoldaten are good, usuallygewöhnlich.
69
203000
3000
Meine Hypothese ist, dass amerikanische
Soldaten gut sind, normalerweise.
03:38
Maybe it was the barrelFass that was badschlecht.
70
206000
2000
Vielleicht war es das
Nest, was schlecht war.
03:40
But how am I going to -- how am I going to dealDeal with that hypothesisHypothese?
71
208000
3000
Aber wie – wie kann ich mit
dieser Hypothese umgehen?
03:43
I becamewurde an expertExperte witnessZeuge
72
211000
1000
Wegen meiner Expertise
wurde ich Zeuge
03:44
for one of the guardsWächter, SergeantFeldwebel ChipChip FrederickFriedrich,
73
212000
2000
für einen der Wärter,
Sergeant Chip Frederick,
03:46
and in that positionPosition, I had accessZugriff to the dozenDutzend investigativeInvestigative reportsBerichte.
74
214000
4000
und hatte so Zugriff zu den
Untersuchungsberichten.
03:50
I had accessZugriff to him. I could studyStudie him,
75
218000
3000
Ich hatte Zutritt zu ihm. Ich
konnte ihn untersuchen,
03:54
have him come to my home, get to know him,
76
222000
1000
zu mir nach Hause einladen,
ihn kennenlernen,
03:55
do psychologicalpsychologische analysisAnalyse to see, was he a good appleApfel or badschlecht appleApfel.
77
223000
4000
eine Untersuchung vornehmen, um herauszufinden,
ob er ein gutes oder faules Ei ist.
03:59
And thirdlydrittens, I had accessZugriff to all of the 1,000 picturesBilder
78
227000
4000
Und drittens hatte ich Zugriff
auf alle 1.000 Bilder,
04:03
that these soldiersSoldaten tookdauerte.
79
231000
1000
die die Soldaten gemacht hatten.
04:05
These picturesBilder are of a violentheftig or sexualsexuell natureNatur.
80
233000
2000
Diese Bilder sind gewalttätigen
oder sexuellen Inhalts.
04:07
All of them come from the camerasKameras of AmericanAmerikanische soldiersSoldaten.
81
235000
3000
Und sie alle kommen aus den
Kameras von US-Soldaten.
04:11
Because everybodyjeder has a digitaldigital cameraKamera or cellZelle phoneTelefon cameraKamera,
82
239000
2000
Weil jeder eine Digitalkamera
oder ein Handy hat,
04:13
they tookdauerte picturesBilder of everything. More than 1,000.
83
241000
2000
haben sie von allem Bilder
gemacht. Mehr als 1.000.
04:16
And what I've doneerledigt is I organizedorganisiert them into variousverschiedene categoriesKategorien.
84
244000
2000
Und ich habe sie in verschiedene
Kategorien eingeteilt.
04:18
But these are by UnitedVereinigte StatesStaaten militaryMilitär- policePolizei, armyArmee reservistsReservisten.
85
246000
5000
Aber diese waren von Angehörigen
der US-Militärpolizei, Reservisten.
04:24
They are not soldiersSoldaten preparedbereit for this missionMission at all.
86
252000
3000
Das waren gar keine Soldaten, die
auf so eine Aufgabe vorbereitet waren.
04:27
And it all happenedpassiert in a singleSingle placeOrt, TierStufe 1-A-A, on the night shiftVerschiebung.
87
255000
5000
Alles passierte an einem einzigen Ort,
Etage 1A, während der Nachtschicht.
04:32
Why? TierStufe 1-A-A was the centerCenter for militaryMilitär- intelligenceIntelligenz.
88
260000
3000
Warum? Etage 1A war das
Zentrum des Militärgeheimdiensts.
04:35
It was the interrogationVerhör holdhalt. The CIACIA was there.
89
263000
3000
Dort waren die Verhörzellen.
Dort war die CIA.
04:39
InterrogatorsVernehmungsbeamten from TitanTitan CorporationCorporation, all there,
90
267000
2000
Befrager der Titan
Corporation, alle dort,
04:41
and they're gettingbekommen no informationInformation about the insurgencyAufstand.
91
269000
3000
und sie bekommen nichts
über die Aufstände heraus.
04:45
So they're going to put pressureDruck on these soldiersSoldaten,
92
273000
1000
Also üben sie Druck aus
auf diese Soldaten,
04:46
militaryMilitär- policePolizei, to crossKreuz the lineLinie,
93
274000
2000
ihre Kompetenzen
zu überschreiten,
04:49
give them permissionGenehmigung to breakUnterbrechung the will of the enemyFeind,
94
277000
3000
geben ihnen die Erlaubnis, den
Willen des Feindes zu brechen,
04:52
to preparevorbereiten them for interrogationVerhör, to softenerweichen them up,
95
280000
2000
um sie auf Verhöre vorzubereiten,
sie weich zu klopfen,
04:54
to take the glovesHandschuhe off. Those are the euphemismsEuphemismen,
96
282000
2000
ohne Samthandschuhe.
Das sind die Euphemismen,
04:56
and this is how it was interpretedinterpretiert.
97
284000
3000
und so wurden sie interpretiert.
05:00
Let's go down to that dungeonKerker.
98
288000
1000
Gehen wir runter in dieses Verlies.
05:01
(CameraKamera shutterAuslöser)
99
289000
37000
(Kameraverschluss)
05:38
(ThudsSchlägen)
100
326000
6000
(Dumpfer Schlag)
05:45
(CameraKamera shutterAuslöser)
101
333000
14000
(Kameraverschluss)
05:59
(ThudsSchlägen)
102
347000
10000
(Dumpfer Schlag)
06:09
(BreathingAtmung)
103
357000
8000
(Atmen)
06:17
(BellsGlocken)
104
365000
31000
(Glocken)
06:49
So, prettyziemlich horrificschrecklich.
105
397000
3000
Wir sehen, ziemlich entsetzlich.
06:52
That's one of the visualvisuell illustrationsIllustrationen of evilböse.
106
400000
3000
Das ist eine sehr bildliche
Darstellung des Bösen.
06:55
And it should not have escapedentkam you that
107
403000
1000
Und es sollte Ihnen nicht
entgangen sein, dass
06:56
the reasonGrund I pairedgepaart the prisonerGefangener with his armsArme out
108
404000
4000
ich den Gefangenen mit
ausgestreckten Armen deshalb mit
07:00
with LeonardoLeonardo dada Vinci'sVinci odeOde to humanityMenschheit
109
408000
3000
Leonardo da Vincis Ode an die
Menschheit zusammen zeige,
07:03
is that that prisonerGefangener was mentallygeistig illkrank.
110
411000
2000
weil dieser Gefangene
psychisch krank war.
07:05
That prisonerGefangener coveredbedeckt himselfselbst with shitScheisse everyjeden day,
111
413000
2000
Er bedeckte sich jeden
Tag mit Scheiße
07:07
and they used to have to rollrollen him in dirtSchmutz so he wouldn'twürde nicht stinkstinken.
112
415000
3000
und die rollten ihn regelmäßig
durch Dreck, damit er nicht stank.
07:10
But the guardsWächter endedendete up callingBerufung him "ShitScheiße BoyJunge."
113
418000
2000
Doch am Ende nannten die
Wärter ihn Kack-Junge.
07:12
What was he doing in that prisonGefängnis
114
420000
2000
Warum war er in
diesem Gefängnis
07:14
ratherlieber than in some mentalgeistig institutionInstitution?
115
422000
3000
statt in einer
Nervenheilanstalt?
07:17
In any eventEvent, here'shier ist formerehemalige SecretarySekretärin of DefenseVerteidigung RumsfeldRumsfeld.
116
425000
3000
Hier ist der ehemalige
Verteidigungsminister Rumsfeld.
07:20
He comeskommt down and sayssagt, "I want to know, who is responsibleverantwortlich?
117
428000
2000
Er sagt: "Ich will wissen,
wer verantwortlich ist?
07:22
Who are the badschlecht applesÄpfel?" Well, that's a badschlecht questionFrage.
118
430000
3000
Wer sind die faulen Eier?"
Eine schlechte Frage.
07:25
You have to reframeREFRAME it and askFragen, "What is responsibleverantwortlich?"
119
433000
3000
Man muss sie anders stellen:
"Was ist verantwortlich?"
07:28
Because "what" could be the who of people,
120
436000
2000
Denn das "Was" kann das
"Wer" der Beteiligten sein,
07:30
but it could alsoebenfalls be the what of the situationLage,
121
438000
2000
aber ebenso das
"Was" der Situation,
07:32
and obviouslyoffensichtlich that's wrongheadedKunstschule.
122
440000
2000
und das ist in die falsche
Richtung gedacht.
07:34
So how do psychologistsPsychologen go about understandingVerstehen
123
442000
2000
Wie also gehen Psychologen
daran, diese Veränderungen
07:36
sucheine solche transformationsTransformationen of humanMensch characterCharakter,
124
444000
2000
im menschlichen
Wesen zu verstehen,
07:38
if you believe that they were good soldiersSoldaten
125
446000
2000
wenn man glaubt, dass
die Soldaten gut waren,
07:40
before they wentging down to that dungeonKerker?
126
448000
1000
bevor sie ins
Verlies gingen?
07:42
There are threedrei waysWege. The mainMain way is -- it's callednamens dispositionaldispositionellen.
127
450000
2000
Auf drei Arten: die vorherrschende
Art heißt Veranlagung.
07:44
We look at what's insideinnen of the personPerson, the badschlecht applesÄpfel.
128
452000
3000
Wir schauen uns das Innenleben
der Person an, die faulen Eier.
07:48
This is the foundationStiftung of all of socialSozial scienceWissenschaft,
129
456000
3000
Das ist die Basis aller
Gesellschaftswissenschaften,
07:51
the foundationStiftung of religionReligion, the foundationStiftung of warKrieg.
130
459000
2000
die Basis von Religion,
die Basis von Kriegen.
07:55
SocialSoziale psychologistsPsychologen like me come alongeine lange and say, "Yeah,
131
463000
2000
Sozialpsychologen, so wie ich,
kommen vorbei und sagen "Jupp,
07:57
people are the actorsSchauspieler on the stageStufe,
132
465000
2000
Menschen sind Darsteller
auf einer Bühne,
07:59
but you'lldu wirst have to be awarebewusst of what that situationLage is.
133
467000
2000
aber man muss sich bewusst
sein, wie die Situation aussieht.
08:01
Who are the castBesetzung of charactersFiguren? What's the costumeKostüm?
134
469000
3000
Wie sind die Rollen besetzt?
Wie sehen die Kostüme aus?
08:04
Is there a stageStufe directorDirektor?"
135
472000
1000
Gibt es einen Regisseur?"
08:05
And so we're interestedinteressiert in, what are the externalextern factorsFaktoren
136
473000
2000
Und so sind wir daran interessiert,
wie die äußeren Umstände
08:08
around the individualPerson -- the badschlecht barrelFass?
137
476000
2000
um das Individuum herum
aussehen, das faulige Nest?
08:10
And socialSozial scientistsWissenschaftler stop there, and they missFräulein the biggroß pointPunkt
138
478000
3000
Und Sozialwissenschaftler hören dort auf
und ihnen entgeht der springende Punkt,
08:13
that I discoveredentdeckt when I becamewurde an expertExperte witnessZeuge for AbuAbu GhraibGhraib.
139
481000
3000
den ich als Sachverständiger
für Abu Ghraib entdeckte.
08:16
The powerLeistung is in the systemSystem.
140
484000
2000
Die Macht steckt im System.
08:18
The systemSystem createserstellt the situationLage that corruptsverdirbt the individualsIndividuen,
141
486000
3000
Das System schafft Situationen,
die Individuen korrumpieren,
08:21
and the systemSystem is the legallegal, politicalpolitisch, economicWirtschaftlich, culturalkulturell backgroundHintergrund.
142
489000
5000
und das System ist der gesetzliche,
politische, wirtschaftliche, kulturelle Hintergrund.
08:26
And this is where the powerLeistung is of the bad-barrelschlecht-Fass makersHersteller.
143
494000
3000
Dort liegt die Macht der
Faulige-Nester-Bauer.
08:29
So if you want to changeVeränderung a personPerson, you've got to changeVeränderung the situationLage.
144
497000
3000
Wenn man eine Person verändern will,
muss man die Situation verändern.
08:32
If you want to changeVeränderung the situationLage,
145
500000
1000
Wenn man die Situation
verändern will,
08:33
you've got to know where the powerLeistung is, in the systemSystem.
146
501000
2000
muss man wissen, wo die Macht
innerhalb des Systems liegt.
08:35
So the LuciferLuzifer effectbewirken involvesbeinhaltet understandingVerstehen
147
503000
2000
Der Luzifer-Effekt
bringt also mit sich,
08:37
humanMensch characterCharakter transformationsTransformationen with these threedrei factorsFaktoren.
148
505000
5000
Charakteränderungen mithilfe
dieser drei Faktoren zu verstehen.
08:43
And it's a dynamicdynamisch interplayZusammenspiel.
149
511000
1000
Und da gibt es dynamische
Wechselwirkungen.
08:44
What do the people bringbringen into the situationLage?
150
512000
2000
Was bringen Menschen
mit in die Situation?
08:46
What does the situationLage bringbringen out of them?
151
514000
2000
Was bringt die Situation in ihnen hervor?
08:48
And what is the systemSystem that createserstellt and maintainspflegt that situationLage?
152
516000
4000
Und wie ist das System, das die
Situation erschafft und erhält?
08:52
So my bookBuch, "The LuciferLuzifer EffectWirkung," recentlyvor kurzem publishedveröffentlicht, is about,
153
520000
2000
In meinem aktuellen Buch
"Der Luzifer-Effekt" geht es darum,
08:54
how do you understandverstehen how good people turnWende evilböse?
154
522000
2000
wie man versteht, was gute
Menschen böse macht.
08:57
And it has a lot of detailDetail
155
525000
1000
Und es enthält viele Details
08:58
about what I'm going to talk about todayheute.
156
526000
2000
über das, worüber ich
heute sprechen werde.
09:01
So DrDr. Z'sZ es "LuciferLuzifer EffectWirkung," althoughobwohl it focuseskonzentriert on evilböse,
157
529000
3000
Also ist Dr. Zs "Luzifer-Effekt", obwohl
er sich aufs Böse konzentriert,
09:04
really is a celebrationFeier of the humanMensch mind'sdes Geistes
158
532000
2000
in Wirklichkeit eine Feier
des menschlichen Geistes
09:06
infiniteunendlich capacityKapazität to make any of us kindArt or cruelgrausam,
159
534000
4000
und seiner unbegrenzten Fähigkeit, jeden
von uns nett oder grausam zu machen,
09:10
caringPflege or indifferentgleichgültig, creativekreativ or destructivedestruktive,
160
538000
3000
fürsorglich oder gleichgültig,
kreativ oder destruktiv,
09:13
and it makesmacht some of us villainsSchurken.
161
541000
2000
und manche von uns
macht er zu Schurken.
09:15
And the good newsNachrichten storyGeschichte that I'm going to hopefullyhoffentlich come to
162
543000
2000
Und die gute Nachricht,
zu der ich hoffentlich am Ende
09:18
at the endEnde is that it makesmacht some of us heroesHelden.
163
546000
2000
kommen werde, ist, dass er
manche zu Helden macht.
09:20
This is a wonderfulwunderbar cartoonKarikatur in the NewNeu YorkerYorker,
164
548000
3000
Hier ein wunderbarer Cartoon
aus dem "New Yorker",
09:23
whichwelche really summarizesfasst zusammen my wholeganze talk:
165
551000
2000
der meinen ganzen Vortrag
zusammenfasst:
09:25
"I'm neitherweder a good copPolizist nornoch a badschlecht copPolizist, JeromeJerome.
166
553000
2000
"Ich bin weder ein guter noch
ein böser Bulle, Jerome.
09:27
Like yourselfdich selber, I'm a complexKomplex amalgamAmalgam
167
555000
2000
Wie du selbst bin ich ein
komplexes Gemisch
09:29
of positivepositiv and negativeNegativ personalityPersönlichkeit traitsZüge
168
557000
2000
positiver und negativer
Eigenschaften,
09:32
that emergeentstehen or not, dependingabhängig on the circumstancesUmstände."
169
560000
3000
die hervortreten oder nicht,
abhängig von den Umständen."
09:35
(LaughterLachen)
170
563000
2000
(Lachen)
09:37
There's a studyStudie some of you think you know about,
171
565000
3000
Es gibt eine Studie, die manche
von Ihnen zu glauben kennen,
09:40
but very fewwenige people have ever readlesen the storyGeschichte. You watchedangesehen the movieFilm.
172
568000
4000
aber nur wenige haben die Geschichte
gelesen. Sie haben den Film gesehen.
09:44
This is StanleyStanley MilgramMilgram, little JewishJüdische kidKind from the BronxBronx,
173
572000
3000
Das hier ist Stanley Milgram, ein
jüdischer Junge aus der Bronx,
09:47
and he askedaufgefordert the questionFrage, "Could the HolocaustHolocaust happengeschehen here, now?"
174
575000
3000
und er fragte sich: "Könnte der
Holocaust passieren, hier und jetzt?"
09:51
People say, "No, that's NaziNazi GermanyDeutschland,
175
579000
1000
Die Leute sagen: "Nein,
das war Nazi-Deutschland,
09:52
that's HitlerHitler, you know, that's 1939."
176
580000
2000
das war Hitler, weißt
du, das war 1939."
09:54
He said, "Yeah, but supposeannehmen HitlerHitler askedaufgefordert you,
177
582000
2000
Er sagte: "Schon, aber nehmen
wir an, Hitler fragte dich:
09:56
'Would you electrocuteeinen Stromschlag a strangerFremder?' 'No"Nein way, not me, I'm a good personPerson.' "
178
584000
3000
'Würden Sie einem Fremden Stromstöße geben?'"
"Ich doch nicht, ich bin ein guter Mensch."
10:00
He said, "Why don't we put you in a situationLage
179
588000
1000
Er sagte: "Warum bringen wir
Sie nicht in so eine Situation
10:01
and give you a chanceChance to see what you would do?"
180
589000
2000
und geben Ihnen die Chance,
zu sehen, was Sie tun würden?"
10:03
And so what he did was he testedgeprüft 1,000 ordinarygewöhnlich people.
181
591000
4000
Und so ist er hingegangen und
hat 1.000 normale Leute getestet.
10:07
500 NewNeu HavenHaven, ConnecticutConnecticut, 500 BridgeportBridgeport.
182
595000
3000
500 aus New Haven, Connecticut;
500 aus Bridgeport.
10:10
And the adAnzeige said, "PsychologistsPsychologen want to understandverstehen memoryErinnerung.
183
598000
4000
Und die Anzeige lautete: "Psychologen
möchten das Gedächtnis erforschen,
10:14
We want to improveverbessern people'sMenschen memoryErinnerung,
184
602000
1000
wir möchten die Gedächtnisleistung
der Menschen verbessern,
10:15
because memoryErinnerung is the keySchlüssel to successErfolg." OK?
185
603000
3000
denn ein gutes Gedächtnis ist
der Schlüssel zum Erfolg." Okay?
10:18
"We're going to give you fivefünf bucksBöcke -- fourvier dollarsDollar for your time."
186
606000
5000
"Wir geben Ihnen fünf Tacken –
vier Dollar für Ihre Zeit."
10:24
And it said, "We don't want collegeHochschule studentsStudenten.
187
612000
1000
Und noch: "Wir möchten
keine Studenten;
10:25
We want menMänner betweenzwischen 20 and 50."
188
613000
2000
wir suchen Männer
zwischen 20 und 50." –
10:27
In the laterspäter studiesStudien, they ranlief womenFrau.
189
615000
1000
später haben sie auch
Frauen getestet –
10:28
OrdinaryGewöhnliche people: barbersFriseure, clerksSachbearbeiter, white-collarWhite-Collar people.
190
616000
4000
normale Leute: Frisöre,
Buchhalter, Angestellte.
10:32
So, you go down, and one of you is going to be a learnerLerner,
191
620000
3000
Also geht ihr runter und
einer ist der Lernende
10:35
and one of you is going to be a teacherLehrer.
192
623000
1000
und einer der Lehrer.
10:36
The learner'sdes Lernenden a genialgenial, middle-agedmittleren Alters guy.
193
624000
2000
Der Lernende ist ein netter
Typ mittleren Alters.
10:38
He getsbekommt tiedgebunden up to the shockSchock apparatusApparat in anotherein anderer roomZimmer.
194
626000
3000
Er wird in einem anderen Raum
im Elektroschock-Apparat fixiert.
10:41
The learnerLerner could be middle-agedmittleren Alters, could be as youngjung as 20.
195
629000
3000
Der Lernende konnte mittleren Alters
sein, er konnte auch nur 20 sein.
10:44
And one of you is told by the authorityBehörde, the guy in the labLabor coatMantel,
196
632000
4000
Und einem von euch sagt der
Aufseher, der Typ im Laborkittel,
10:48
"Your jobJob as teacherLehrer is to give this guy materialMaterial to learnlernen.
197
636000
3000
"Ihre Aufgabe als Lehrer ist es,
diesem Typ Lernmaterial zu geben.
10:51
GetsRuft it right, rewardBelohnung him.
198
639000
1000
Lernt er es richtig, belohnen Sie ihn.
10:52
GetsRuft it wrongfalsch, you pressDrücken Sie a buttonTaste on the shockSchock boxBox.
199
640000
2000
Lernt er es falsch, drücken Sie den Knopf
und verpassen ihm einen Stromstoß.
10:54
The first buttonTaste is 15 voltsVolt. He doesn't even feel it."
200
642000
3000
Der erste Knopf ist 15 Volt.
Das fühlt er nicht mal.
10:58
That's the keySchlüssel. All evilböse startsbeginnt with 15 voltsVolt.
201
646000
3000
Das ist der Knackpunkt.
Alles Böse beginnt mit 15 Volt.
11:01
And then the nextNächster stepSchritt is anotherein anderer 15 voltsVolt.
202
649000
2000
Und dann der nächste
Schritt sind weitere 15 Volt.
11:04
The problemProblem is, at the endEnde of the lineLinie, it's 450 voltsVolt.
203
652000
2000
Das Problem ist, am
Ende sind es 450 Volt.
11:06
And as you go alongeine lange, the guy is screamingschreiend,
204
654000
3000
Und während Sie weitermachen,
schreit der Mann.
11:09
"I've got a heartHerz conditionBedingung! I'm out of here!"
205
657000
2000
"Ich hab ein schwaches
Herz! Ich will raus hier!"
11:11
You're a good personPerson. You complainbeschweren.
206
659000
2000
Sie sind ein guter Mensch.
Sie beschweren sich.
11:13
"SirSir, who'swer ist going to be responsibleverantwortlich if something happensdas passiert to him?"
207
661000
2000
"Mein Herr, wer ist verantwortlich,
wenn ihm etwas passiert?"
11:15
The experimenterExperimentator sayssagt, "Don't worrySorge, I will be responsibleverantwortlich.
208
663000
3000
Der Versuchsleiter sagt: "Sorgen Sie
sich nicht, ich bin verantwortlich.
11:18
ContinueWeiter, teacherLehrer."
209
666000
1000
Fahren Sie fort, Lehrer."
11:19
And the questionFrage is, who would go all the way to 450 voltsVolt?
210
667000
4000
Und die Frage ist, wer würde
bis 450 Volt hochgehen?
11:24
You should noticebeachten here, when it getsbekommt up to 375,
211
672000
2000
Sie müssen dazu wissen,
bei 375 Volt steht da:
11:26
it sayssagt, "DangerGefahr. SevereSchwere ShockSchock."
212
674000
1000
"Vorsicht: Schwerer Schock."
11:28
When it getsbekommt up to here, there's "XXXXXX" -- the pornographyPornografie of powerLeistung.
213
676000
3000
Und an diesem Punkt steht "XXX":
die Pornographie der Macht.
11:31
(LaughterLachen)
214
679000
1000
(Lachen)
11:32
So MilgramMilgram asksfragt 40 psychiatristsPsychiater,
215
680000
1000
Milgram hat 40
Psychiater gefragt:
11:33
"What percentProzent of AmericanAmerikanische citizensBürger would go to the endEnde?"
216
681000
3000
"Wie viel Prozent der amerikanischen
Bevölkerung würden bis zum Ende gehen?"
11:37
They said only one percentProzent. Because that's sadisticsadistische behaviorVerhalten,
217
685000
3000
Sie tippten auf nur 1 Prozent. Weil
das sadistisches Verhalten ist,
11:40
and we know, psychiatryPsychiatrie knowsweiß, only one percentProzent of AmericansAmerikaner are sadisticsadistische.
218
688000
3000
und wir wissen, die Psychatrie weiß, dass
nur ein Prozent der Amerikaner sadistisch sind.
11:44
OK. Here'sHier ist the dataDaten. They could not be more wrongfalsch.
219
692000
4000
Okay. Hier sind die Daten.
Sie könnten nicht falscher liegen.
11:48
Two thirdsDrittel go all the way to 450 voltsVolt. This was just one studyStudie.
220
696000
5000
Zwei Drittel drehen ganz auf, bis
auf 450 Volt. Das war nur eine Studie.
11:53
MilgramMilgram did more than 16 studiesStudien. And look at this.
221
701000
3000
Milgram hat mehr als 16 Studien
gemacht. Und sehen Sie sich das an.
11:56
In studyStudie 16, where you see somebodyjemand like you go all the way,
222
704000
4000
In Studie 16, wo jemand
wie Sie ganz aufdreht,
12:00
90 percentProzent go all the way. In studyStudie fivefünf, if you see people rebelRebell, 90 percentProzent rebelRebell.
223
708000
6000
drehen 90% ganz auf. Studie 5: Wenn Leute
aufbegehren, lehnen sich 90 Prozent auf.
12:06
What about womenFrau? StudyStudie 13 -- no differentanders than menMänner.
224
714000
3000
Was ist mit Frauen? Studie 13:
kein Unterschied zu Männern.
12:10
So MilgramMilgram is quantifyingQuantifizierung der evilböse as the willingnessBereitschaft of people
225
718000
3000
Milgram misst das Böse als
Bereitschaft von Menschen
12:13
to blindlyBlind obeygehorchen authorityBehörde, to go all the way to 450 voltsVolt.
226
721000
3000
einer Obrigkeit blind zu gehorchen,
ganz auf 450 Volt aufzudrehen.
12:16
And it's like a dialWählen Sie on humanMensch natureNatur.
227
724000
2000
Und das ist wie eine Stellschraube
der menschlichen Natur.
12:18
A dialWählen Sie in a senseSinn that you can make almostfast everybodyjeder totallytotal obedientGehorsam,
228
726000
4000
Eine Stellschraube in dem Sinne, dass man fast
jeden vollkommen gehorsam machen kann
12:23
down to the majorityMehrheit, down to nonekeiner.
229
731000
2000
bis zu einer Mehrheit, bis
es keine Ausnahme gibt.
12:25
So what are the externalextern parallelsparallelen? For all researchForschung is artificialkünstlich.
230
733000
4000
Was also sind die externen Parallelen?
Denn alle Forschung ist künstlich.
12:29
What's the validityGültigkeit in the realecht worldWelt?
231
737000
1000
Wie gültig ist das
im wahren Leben?
12:30
912 AmericanAmerikanische citizensBürger committedverpflichtet suicideSelbstmord or were murderedermordet
232
738000
4000
912 Amerikaner begingen
Selbstmord oder wurden
12:34
by familyFamilie and friendsFreunde in GuyanaGuyana jungleDschungel in 1978,
233
742000
3000
von Familie und Freunden ermordet,
im Dschungel von Guyana, 1978,
12:37
because they were blindlyBlind obedientGehorsam to this guy, theirihr pastorPastor --
234
745000
3000
weil sie diesem Typen blind
gehorchten, ihrem Seelsorger.
12:40
not theirihr priestPriester -- theirihr pastorPastor, ReverendReverend JimJim JonesJones.
235
748000
2000
Nicht Priester. Ihrem Seelsorger,
Reverend Jim Jones.
12:42
He persuadedüberredet them to commitverpflichten massMasse suicideSelbstmord.
236
750000
3000
Er überredete sie zum
Massenselbstmord.
12:46
And so, he's the modernmodern LuciferLuzifer effectbewirken,
237
754000
1000
Das ist der moderne
Luzifer-Effekt.
12:47
a man of God who becomeswird the AngelEngel of DeathTod.
238
755000
3000
Ein Mann Gottes, der
zum Todesengel wurde.
12:52
Milgram'sMilgram studyStudie is all about individualPerson authorityBehörde to controlsteuern people.
239
760000
4000
Milgrams Versuche drehen sich immer um
individuelle Autorität, Leute zu steuern.
12:56
MostDie meisten of the time, we are in institutionsInstitutionen,
240
764000
3000
Die meiste Zeit waren
wir in Einrichtungen,
13:00
so the StanfordStanford PrisonGefängnis StudyStudie is a studyStudie of the powerLeistung of institutionsInstitutionen
241
768000
3000
und so ist das Stanford-Gefängnisexperiment
eine Untersuchung der Macht von Einrichtungen
13:03
to influenceEinfluss individualPerson behaviorVerhalten.
242
771000
2000
auf das individuelle Verhalten
13:05
InterestinglyInteressanterweise, StanleyStanley MilgramMilgram and I were in the samegleich highhoch schoolSchule classKlasse
243
773000
3000
Stanley Milgram und ich schlossen übrigens
beide 1954 die High School ab,
13:08
in JamesJames MonroeMonroe in the BronxBronx, 1954.
244
776000
3000
an der James Monroe in der Bronx.
13:13
So this studyStudie, whichwelche I did
245
781000
1000
Also diese Untersuchung, die ich
13:14
with my graduateAbsolvent studentsStudenten, especiallyinsbesondere CraigCraig HaneyHaney --
246
782000
2000
mit meinen Studenten, vor
allem Craig Haney, machte,
13:16
we alsoebenfalls beganbegann work with an adAnzeige.
247
784000
1000
begannen wir auch
mit einer Anzeige.
13:17
We didn't have moneyGeld, so we had a cheapbillig, little adAnzeige,
248
785000
2000
Wir hatten kein Geld, also schalteten
wir eine billige, kleine Anzeige,
13:19
but we wanted collegeHochschule studentsStudenten for a studyStudie of prisonGefängnis life.
249
787000
3000
aber wir wollten College-Studenten für
eine Untersuchung des Gefängnislebens.
13:22
75 people volunteeredfreiwillig, tookdauerte personalityPersönlichkeit testsTests.
250
790000
3000
75 Leute meldeten sich,
machten Persönlichkeitstests.
13:25
We did interviewsInterviews. PickedAbgeholt two dozenDutzend:
251
793000
2000
Wir machten Interviews.
Wählten zwei Dutzend aus:
13:27
the mostdie meisten normalnormal, the mostdie meisten healthygesund.
252
795000
1000
die normalsten,
die gesündesten.
13:29
RandomlyNach dem Zufallsprinzip assignedzugewiesen them to be prisonerGefangener and guardbewachen.
253
797000
2000
Teilten sie zufällig in
Gefangene und Wärter ein.
13:31
So on day one, we knewwusste we had good applesÄpfel.
254
799000
2000
Folglich wussten wir am Tag 1,
dass wir gute Eier hatten.
13:33
I'm going to put them in a badschlecht situationLage.
255
801000
2000
Ich werde sie in eine
schlechte Situation bringen.
13:35
And secondlyzweitens, we know there's no differenceUnterschied
256
803000
2000
Und zweitens wissen wir, dass
es keinen Unterschied gibt
13:38
betweenzwischen the boysJungen who are going to be guardsWächter
257
806000
1000
zwischen den Jungs,
die Wärter werden,
13:39
and the boysJungen who are going to be prisonersGefangene.
258
807000
1000
und den Jungs, die
Inhaftierte werden.
13:41
The kidsKinder who were going to be prisonersGefangene,
259
809000
1000
Den zukünftigen
Gefangenen sagten wir:
13:42
we said, "Wait at home in the dormitoriesWohnheime. The studyStudie will beginStart SundaySonntag."
260
810000
2000
"Wartet zu Hause in euren Zimmern.
Wir beginnen am Sonntag."
13:45
We didn't tell them
261
813000
1000
Wir sagten ihnen nicht,
13:46
that the cityStadt policePolizei were going to come and do realisticrealistische arrestsVerhaftungen.
262
814000
36000
dass die Polizei kommen und realistische
Verhaftungen vornehmen würde.
14:22
(VideoVideo) StudentStudent: A policePolizei carAuto pullszieht up in frontVorderseite, and a copPolizist comeskommt to the frontVorderseite doorTür,
263
850000
6000
Mann im Video: Ein Polizeiauto fährt vor
und ein Polizist kommt an die Tür
14:28
and knocksklopft, and sayssagt he's looking for me.
264
856000
2000
und klopft und sagt,
er sucht nach mir.
14:30
So they, right there, you know, they tookdauerte me out the doorTür,
265
858000
2000
Also, einfach so, führten
sie mich aus der Tür,
14:33
they put my handsHände againstgegen the carAuto.
266
861000
3000
sie legten meine Hände
auf den Wagen.
14:36
It was a realecht copPolizist carAuto, it was a realecht policemanPolizist,
267
864000
2000
Ein echter Einsatzwagen,
ein echter Polizist
14:39
and there were realecht neighborsNachbarn in the streetStraße,
268
867000
1000
und es waren echte Nachbarn
auf der Straße,
14:40
who didn't know that this was an experimentExperiment.
269
868000
4000
die nicht wussten, dass
das ein Experiment war.
14:44
And there was camerasKameras all around and neighborsNachbarn all around.
270
872000
3000
Und überall waren Kameras
und überall waren Nachbarn.
14:47
They put me in the carAuto, then they drovefuhr me around PaloPalo AltoAlto.
271
875000
3000
Sie steckten mich in den Wagen, dann
fuhren sie mich durch Palo Alto.
14:52
They tookdauerte me to the policePolizei stationBahnhof,
272
880000
3000
Sie brachten mich auf die Wache,
14:55
the basementKeller of the policePolizei stationBahnhof. Then they put me in a cellZelle.
273
883000
10000
in den Keller der Wache. Dann
steckten sie mich in eine Zelle.
15:05
I was the first one to be pickedabgeholt up, so they put me in a cellZelle,
274
893000
2000
Ich war der erste, den sie einsammelten,
also steckten sie mich in eine Zelle,
15:07
whichwelche was just like a roomZimmer with a doorTür with barsRiegel on it.
275
895000
4000
die wie ein Zimmer
war, mit Gittertür.
15:12
You could tell it wasn'twar nicht a realecht jailGefängnis.
276
900000
1000
Man konnte sehen, dass es
kein echtes Gefängnis war.
15:13
They lockedeingesperrt me in there, in this degradingerniedrigende little outfitOutfit.
277
901000
5000
Sie sperrten mich dort ein, in diesem
herabwürdigenden kleinen Outfit.
15:19
They were takingunter this experimentExperiment too seriouslyernst.
278
907000
2000
Sie nahmen das
Experiment zu ernst.
15:21
PhilipPhilip ZimbardoZimbardo: Here are the prisonersGefangene who are going to be dehumanizedentmenschlicht.
279
909000
2000
Hier waren die Gefangenen, die
entmenschlicht werden würden.
15:23
They're going to becomewerden numbersNummern.
280
911000
1000
Sie würden Nummern werden.
15:24
Here are the guardsWächter with the symbolsSymbole of powerLeistung and anonymityAnonymität.
281
912000
3000
Hier sind die Wärter mit den Symbolen
von Macht und Anonymität.
15:27
GuardsWächter get prisonersGefangene
282
915000
1000
Wärter zwangen Gefangene,
15:28
to cleanreinigen the toiletToilette bowlsSchüsseln out with theirihr barenackt handsHände,
283
916000
2000
die Toilettenschüsseln mit ihren
bloßen Händen sauber zu machen
15:30
to do other humiliatingdemütigend tasksAufgaben.
284
918000
2000
und zu anderen
erniedrigenden Aufgaben.
15:32
They stripStreifen them nakednackt. They sexuallysexuell tauntverhöhnen them.
285
920000
2000
Sie zogen sie nackt aus.
Sie verspotteten sie sexuell.
15:34
They beginStart to do degradingerniedrigende activitiesAktivitäten,
286
922000
2000
Sie fingen an, erniedrigende
Handlungen auszuführen,
15:36
like havingmit them simulatesimulieren sodomySodomie.
287
924000
2000
wie sie zu zwingen,
Sodomie zu simulieren.
15:38
You saw simulatingSimulation von fellatioFellatio in soldiersSoldaten in AbuAbu GhraibGhraib.
288
926000
3000
Sie haben vergetäuschte Fellatio bei
den Soldaten in Abu Ghraib gesehen.
15:41
My guardsWächter did it in fivefünf daysTage. The stressStress reactionReaktion was so extremeextrem
289
929000
5000
Meine Wärter waren nach fünf Tagen so
weit. Ihre Stressreaktion war so extrem,
15:46
that normalnormal kidsKinder we pickedabgeholt because they were healthygesund
290
934000
2000
dass normale Jungs, die wir ausgewählt
hatten, weil sie gesund waren,
15:48
had breakdownsPannen withininnerhalb 36 hoursStd..
291
936000
2000
innerhalb von 36 Stunden
Zusammenbrüche hatten.
15:50
The studyStudie endedendete after sixsechs daysTage, because it was out of controlsteuern.
292
938000
4000
Die Untersuchung endete nach sechs
Tagen, weil es außer Kontrolle geraten war.
15:54
FiveFünf kidsKinder had emotionalemotional breakdownsPannen.
293
942000
2000
Fünf Kids hatten seelische
Zusammenbrüche.
15:58
Does it make a differenceUnterschied if warriorsKrieger go to battleSchlacht
294
946000
2000
Macht es einen Unterschied, wenn
Krieger, die in die Schlacht ziehen,
16:00
changingÄndern theirihr appearanceAussehen or not?
295
948000
2000
ihr Aussehen ändern oder nicht?
16:02
Does it make a differenceUnterschied if they're anonymousanonym,
296
950000
1000
Macht es einen Unterschied,
wie sie ihre Opfer behandeln,
16:03
in how they treatbehandeln theirihr victimsdie Opfer?
297
951000
2000
wenn sie anonym sind?
16:05
We know in some culturesKulturen, they go to warKrieg,
298
953000
1000
Wir wissen, dass sie in manchen
Kulturen in den Krieg ziehen,
16:06
they don't changeVeränderung theirihr appearanceAussehen.
299
954000
1000
ohne ihr Aussehen zu ändern.
16:07
In other culturesKulturen, they paintFarbe themselvessich like "LordHerrn of the FliesFliegen."
300
955000
2000
In anderen Kulturen bemalen sie
sich wie in "Herr der Fliegen".
16:09
In some, they weartragen masksMasken.
301
957000
2000
In manchen tragen sie Masken.
16:11
In manyviele, soldiersSoldaten are anonymousanonym in uniformUniform.
302
959000
3000
In vielen werden die Soldaten
durch Uniformen anonymisiert.
16:14
So this anthropologistAnthropologe, JohnJohn WatsonWatson, foundgefunden
303
962000
2000
Nun, dieser Anthropologe,
John Watson, fand
16:17
23 culturesKulturen that had two bitsBits of dataDaten.
304
965000
2000
23 Kulturen, mit je
zwei Informationen.
16:19
Do they changeVeränderung theirihr appearanceAussehen? 15.
305
967000
2000
Ändern sie ihr
Aussehen? 15.
16:21
Do they killtöten, tortureFolter, mutilateverstümmeln? 13.
306
969000
2000
Töten, foltern,
verstümmeln sie? 13.
16:23
If they don't changeVeränderung theirihr appearanceAussehen,
307
971000
2000
Von denen, die ihr
Aussehen nicht ändern.
16:25
only one of eightacht killstötet, torturesQualen or mutilatesverstümmelt.
308
973000
2000
tötet, foltert oder verstümmelt
nur eine von acht.
16:27
The keySchlüssel is in the redrot zoneZone.
309
975000
2000
Die Nadel ist im roten Bereich.
16:29
If they changeVeränderung theirihr appearanceAussehen,
310
977000
1000
Wenn sie ihr Aussehen verändern,
16:30
12 of 13 -- that's 90 percentProzent -- killtöten, tortureFolter, mutilateverstümmeln.
311
978000
4000
werden 12 von 13 – also 90 Prozent –
töten, foltern und verstümmeln.
16:35
And that's the powerLeistung of anonymityAnonymität.
312
983000
1000
Das ist die Macht
der Anonymität.
16:36
So what are the sevenSieben socialSozial processesProzesse
313
984000
2000
Was sind jetzt die
sieben sozialen Prozesse,
16:38
that greaseFett the slipperyrutschig slopeSteigung of evilböse?
314
986000
2000
die den Pfad zur Hölle pflastern?
16:40
MindlesslyGedankenlos takingunter the first smallklein stepSchritt.
315
988000
2000
Unbekümmert macht man
den ersten kleinen Schritt.
16:42
DehumanizationEntmenschlichung of othersAndere. De-individuationDe-individuation of SelfSelbst.
316
990000
3000
Entmenschlichung der anderen.
Entindividualisierung des Selbst.
16:45
DiffusionVerbreitung of personalpersönlich responsibilityVerantwortung. BlindBlind obedienceGehorsam to authorityBehörde.
317
993000
3000
Streuung der persönlichen Verantwortung.
Blinder Gehorsam gegenüber Autorität.
16:49
UncriticalUnkritische conformityKonformität to groupGruppe normsNormen.
318
997000
1000
Unkritisches Anpassen
an Gruppennormen.
16:50
PassivePassive toleranceToleranz to evilböse throughdurch inactionUntätigkeit or indifferenceGleichgültigkeit.
319
998000
3000
Passive Toleranz gegenüber Bösem
durch Nichtstun oder Gleichgültigkeit.
16:54
And it happensdas passiert when you're in a newneu or unfamiliarunbekannte situationLage.
320
1002000
2000
Und es passiert, wenn man in einer
neuen ungewohnten Situation ist.
16:56
Your habitualgewöhnlichen responseAntwort patternsMuster don't work.
321
1004000
2000
Die gewohnten Verhaltensmuster
funktionieren nicht mehr.
16:59
Your personalityPersönlichkeit and moralityMoral are disengagedausgekuppelt.
322
1007000
2000
Persönlichkeit und moralische
Vorstellung entkoppeln sich.
17:01
"Nothing is easiereinfacher than to denouncedenunzieren the evildoerÜbeltäter;
323
1009000
3000
"Nicht ist leichter, als einen
Übeltäter zu brandmarken,
17:04
nothing more difficultschwer than understandingVerstehen him," DostoyevksyDostoyevksy tellserzählt us.
324
1012000
3000
nichts ist schwerer, als ihn zu
verstehen", sagt Dostojewsky.
17:07
UnderstandingVerständnis is not excusingentschuldigen. PsychologyPsychologie is not excuse-iologyEntschuldigung-iology.
325
1015000
4000
Verstehen heißt nicht entschuldigen.
Psychologie ist nicht Entschuldologie.
17:12
So socialSozial and psychologicalpsychologische researchForschung revealszeigt
326
1020000
1000
Psychologische und
soziale Forschung zeigt,
17:13
how ordinarygewöhnlich, good people can be transformedtransformiert withoutohne the drugsDrogen.
327
1021000
4000
wie man normale, gute Leute
ohne Drogen umformen kann.
17:17
You don't need it. You just need the social-psychologicalsozial-psychologische processesProzesse.
328
1025000
3000
Man braucht nur sozial-
psychologische Vorgänge.
17:20
RealEchte worldWelt parallelsparallelen? CompareVergleichen this with this.
329
1028000
4000
Die Relevanz in der wahren
Welt? Vergleichen Sie es hiermit.
17:26
JamesJames SchlesingerSchlesinger -- and I'm going to have to endEnde with this -- sayssagt,
330
1034000
2000
James Schlesinger – und ich
werde hiermit enden – sagt:
17:28
"PsychologistsPsychologen have attemptedversuchten to understandverstehen how and why
331
1036000
2000
"Psychologen haben versucht
zu verstehen, wie und warum
17:31
individualsIndividuen and groupsGruppen who usuallygewöhnlich actHandlung humanelymenschlich
332
1039000
2000
Individuen und Gruppen, die
normalerweise menschlich handeln,
17:33
can sometimesmanchmal actHandlung otherwiseAndernfalls in certainsicher circumstancesUmstände."
333
1041000
3000
manchmal anders handeln
unter bestimmten Umständen.
17:37
That's the LuciferLuzifer effectbewirken.
334
1045000
1000
Das ist der Luzifer-Effekt.
17:38
And he goesgeht on to say, "The landmarkWahrzeichen StanfordStanford studyStudie
335
1046000
2000
Und er sagt weiterhin: "Das
wegweisende Stanford-Experiment
17:40
providesbietet a cautionarywarnende taleGeschichte for all militaryMilitär- operationsOperationen."
336
1048000
4000
liefert uns eine Warnung für
militärische Einsätze jedweder Art.
17:44
If you give people powerLeistung withoutohne oversightAufsicht,
337
1052000
2000
Wenn man Leuten
Macht ohne Aufsicht gibt,
17:47
it's a prescriptionRezept for abuseMissbrauch. They knewwusste that, and let that happengeschehen.
338
1055000
3000
ist das ein Freifahrschein für Missbrauch.
Sie wussten das und ließen es zu.
17:50
So anotherein anderer reportBericht, an investigativeInvestigative reportBericht by GeneralAllgemeine FayFay,
339
1058000
5000
In einem Enthüllungsbericht
von General Fay steht,
17:55
sayssagt the systemSystem is guiltyschuldig. And in this reportBericht,
340
1063000
2000
das System sei schuldig,
und in dem Bericht
17:57
he sayssagt it was the environmentUmwelt that createderstellt AbuAbu GhraibGhraib,
341
1065000
3000
sagt er, dass es die Umgebung war,
die Abu Ghraib geschaffen hat,
18:00
by leadershipFührung failuresAusfälle that contributedbeigetragen
342
1068000
2000
durch Führungsfehler,
die zu solch einem
18:02
to the occurrencevorkommen of sucheine solche abuseMissbrauch,
343
1070000
1000
Missbrauch beitrugen,
18:03
and the factTatsache that it remainedblieb undiscoveredunentdeckte
344
1071000
2000
und zur Tatsache, dass
es lange unentdeckt
18:05
by higherhöher authoritiesBehörden for a long periodPeriode of time.
345
1073000
2000
blieb durch die
Befehlsgewalt.
18:07
Those abusesMissbrauch wentging on for threedrei monthsMonate. Who was watchingAufpassen the storeGeschäft?
346
1075000
4000
Der Missbrauch dauerte drei Monate.
Wer hat denn da die Aufsicht gehabt?
18:11
The answerAntworten is nobodyniemand, and, I think, nobodyniemand on purposeZweck.
347
1079000
2000
Die Antwort ist keiner, und
ich glaube, das war Absicht.
18:14
He gavegab the guardsWächter permissionGenehmigung to do those things,
348
1082000
1000
Er gab den Wärtern die Erlaubnis,
diese Sachen zu machen,
18:15
and they knewwusste nobodyniemand was ever going to come down to that dungeonKerker.
349
1083000
3000
und sie wussten, dass niemand jemals
in das Verlies runterkommen würde.
18:18
So you need a paradigmParadigma shiftVerschiebung in all of these areasBereiche.
350
1086000
3000
Also brauchen wir in all diesen
Bereichen einen Paradigmenwechsel.
18:21
The shiftVerschiebung is away from the medicalmedizinisch modelModell-
351
1089000
2000
Der Wechsel ist weg vom
medizinischen Modell,
18:23
that focuseskonzentriert only on the individualPerson.
352
1091000
2000
das sich auf den
Einzelnen konzentriert.
18:25
The shiftVerschiebung is towardzu a publicÖffentlichkeit healthGesundheit modelModell-
353
1093000
2000
Der Wechsel ist hin zu einem
Volksgesundheitsmodell,
18:28
that recognizeserkennt situationalsituative and systemicsystemisch vectorsVektoren of diseaseKrankheit.
354
1096000
3000
welcher die situationalen und systemischen
Faktoren von Krankheiten miteinbezieht.
18:31
BullyingMobbing is a diseaseKrankheit. PrejudiceVorurteil is a diseaseKrankheit. ViolenceGewalt is a diseaseKrankheit.
355
1099000
4000
Mobbing ist eine Krankheit. Vorurteile sind
eine Krankheit. Gewalt ist eine Krankheit.
18:35
And sinceschon seit the InquisitionInquisition, we'vewir haben been dealingUmgang with problemsProbleme
356
1103000
2000
Und seit der Inquisition
sind wir diesen Problemen
18:37
at the individualPerson levelEbene. And you know what? It doesn't work.
357
1105000
3000
auf individueller Ebene begegnet. Und
wissen Sie was? Es funktioniert nicht.
18:40
AleksandrAleksandr SolzhenitsynSolschenizyn sayssagt, "The lineLinie betweenzwischen good and evilböse
358
1108000
3000
Alexander Solschenitsyn sagt, dass
die Grenze zwischen Gut und Böse
18:43
cutsSchnitte throughdurch the heartHerz of everyjeden humanMensch beingSein."
359
1111000
2000
durch das Herz eines
jeden Menschen verläuft.
18:45
That meansmeint that lineLinie is not out there.
360
1113000
2000
Das heißt, die Grenze
ist nicht da draußen.
18:47
That's a decisionEntscheidung that you have to make. That's a personalpersönlich thing.
361
1115000
3000
Das ist eine Entscheidung, die Sie treffen
müssen. Das ist eine persönliche Sache.
18:50
So I want to endEnde very quicklyschnell on a positivepositiv noteHinweis.
362
1118000
3000
Jetzt möchte ich das hier schnell
enden, mit etwas Positivem:
18:53
HeroismHeldentum as the antidoteGegenmittel to evilböse,
363
1121000
2000
Heldenhaftigkeit als
Gegenmittel zum Bösen.
18:56
by promotingFörderung the heroicheroische imaginationPhantasie,
364
1124000
1000
Indem wir heroische
Vorstellungskraft fördern,
18:57
especiallyinsbesondere in our kidsKinder, in our educationalBildungs systemSystem.
365
1125000
3000
vor allem bei unseren Kindern,
in unserem Erziehungssystem.
19:00
We want kidsKinder to think, I'm the heroHeld in waitingwarten,
366
1128000
2000
Wir möchten, dass Kinder denken:
"Ich bin ein Held in Bereitschaft,
19:02
waitingwarten for the right situationLage to come alongeine lange,
367
1130000
2000
ich warte nur darauf, dass die
richtige Situation des Weges kommt,
19:05
and I will actHandlung heroicallyheldenhaft.
368
1133000
1000
und dann werde ich
heroisch handeln."
19:06
My wholeganze life is now going to focusFokus away from evilböse --
369
1134000
2000
Mein ganzes Leben fokussiert
sich jetzt weg vom Bösen
19:08
that I've been in sinceschon seit I was a kidKind -- to understandingVerstehen heroesHelden.
370
1136000
3000
wie es von klein auf war,
dahin, Helden zu verstehen.
19:11
BanalityBanalität of heroismHeldentum
371
1139000
1707
Und ihr Verständnis von Heldentum
19:13
is, it's ordinarygewöhnlich people who do heroicheroische deedsTaten.
372
1140707
2293
ist, dass es gewöhnliche Leute sind,
die heldenhafte Taten vollbringen.
19:15
It's the counterpointKontrapunkt to HannahHannah Arendt'sArendts "BanalityBanalität of EvilBöse."
373
1143000
3000
Das ist der Gegenpol zu Hannah
Arendts "Banalität des Bösen".
19:18
Our traditionaltraditionell societalgesellschaftlichen heroesHelden are wrongfalsch,
374
1146000
3000
Unsere traditionellen,
Helden sind verfehlt,
19:21
because they are the exceptionsAusnahmen.
375
1149000
1000
sie sind die Ausnahme.
19:22
They organizeorganisieren theirihr wholeganze life around this.
376
1150000
2000
Sie organisieren ihr
ganzes Leben darum.
19:24
That's why we know theirihr namesNamen.
377
1152000
1000
Darum kennen wir ihre Namen.
19:25
And our kids'Kinder heroesHelden are alsoebenfalls wrongfalsch modelsModelle for them,
378
1153000
2000
Und die Helden unserer Kinder
sind auch Vorbilder für sie,
19:27
because they have supernaturalübernatürlich talentsTalente.
379
1155000
2000
weil sie übernatürliche
Fähigkeiten haben.
19:30
We want our kidsKinder to realizerealisieren mostdie meisten heroesHelden are everydayjeden Tag people,
380
1158000
2000
Wir möchten, dass unsere Kinder erkennen, dass
die meisten Helden ganz normale Menschen sind,
19:32
and the heroicheroische actHandlung is unusualungewöhnlich. This is JoeJoe DarbyDarby.
381
1160000
4000
und die Heldentat ist
ungewöhnlich. Das ist Joe Darby.
19:36
He was the one that stoppedgestoppt those abusesMissbrauch you saw,
382
1164000
2000
Das ist derjenige, der den Missbrauch
gestoppt hat, den Sie gesehen haben,
19:38
because when he saw those imagesBilder,
383
1166000
2000
denn er sah diese Bilder,
19:40
he turnedgedreht them over to a seniorSenior investigatinguntersuchend officerOffizier.
384
1168000
3000
er übergab sie einem leitenden
Ermittlungsbeamten.
19:43
He was a low-levelLow-Level- privatePrivatgelände, and that stoppedgestoppt it. Was he a heroHeld? No.
385
1171000
3000
Er war nur ein niederrangiger Gefreiter und
das hat es beendet. War er ein Held? Nein.
19:47
They had to put him in hidingausblenden, because people wanted to killtöten him,
386
1175000
3000
Sie mussten ihn verstecken,
weil ihn Leute umbringen wollten,
19:50
and then his motherMutter and his wifeEhefrau.
387
1178000
1000
und dann auch noch seine
Mutter und seine Frau.
19:51
For threedrei yearsJahre, they were in hidingausblenden.
388
1179000
2000
Drei Jahre lang lebten sie versteckt.
19:53
This is the womanFrau who stoppedgestoppt the StanfordStanford PrisonGefängnis StudyStudie.
389
1181000
3000
Das hier ist die Frau, die das Stanford-
Gefängnis-Experiment gestoppt hat.
19:56
When I said it got out of controlsteuern, I was the prisonGefängnis superintendentSuperintendent.
390
1184000
3000
Als ich sagte, dass es außer Kontrolle
geraten war, war ich der Oberaufseher.
19:59
I didn't know it was out of controlsteuern. I was totallytotal indifferentgleichgültig.
391
1187000
3000
Ich wusste nicht, dass es außer
Kontrolle war. Es war mir gleichgültig.
20:02
She camekam down, saw that madhouseIrrenhaus and said,
392
1190000
2000
Sie kam runter, sah dieses
Tollhaus und sagte:
20:04
"You know what, it's terriblefurchtbar what you're doing to those boysJungen.
393
1192000
3000
"Weißt du was, es ist furchtbar,
was du diesen Jungs antust.
20:07
They're not prisonersGefangene, they're not guardsWächter,
394
1195000
1000
Sie sind keine Häftlinge,
sie sind keine Wärter,
20:08
they're boysJungen, and you are responsibleverantwortlich."
395
1196000
2000
sie sind Jungs und
du bist verantwortlich."
20:11
And I endedendete the studyStudie the nextNächster day.
396
1199000
2000
Und ich habe das Experiment
am nächsten Tag eingestellt.
20:13
The good newsNachrichten is I marriedverheiratet her the nextNächster yearJahr.
397
1201000
2000
Die gute Nachricht ist, dass ich sie
im Jahr darauf geheiratet habe.
20:15
(LaughterLachen)
398
1203000
3000
(Lachen)
20:18
(ApplauseApplaus)
399
1206000
7000
(Applaus)
20:25
I just camekam to my sensesSinne, obviouslyoffensichtlich.
400
1213000
2000
Ich kam offensichtlich
gerade noch zur Vernunft.
20:27
So situationsSituationen have the powerLeistung to do, throughdurch --
401
1215000
2000
Situationen haben
die Macht –
20:31
but the pointPunkt is, this is the samegleich situationLage
402
1219000
1000
ein- und dieselbe Situation
20:32
that can inflameentflammen the hostilefeindlich imaginationPhantasie in some of us,
403
1220000
4000
entzündet in manchen von uns
feindselige Vorstellungen,
20:36
that makesmacht us perpetratorsTäter of evilböse,
404
1224000
2000
macht uns zu Übeltätern,
20:38
can inspireinspirieren the heroicheroische imaginationPhantasie in othersAndere. It's the samegleich situationLage.
405
1226000
3000
und inspiriert in anderen heldenhafte
Vorstellungen. Die gleiche Situation.
20:42
And you're on one sideSeite or the other.
406
1230000
1000
Und Sie sind auf der
einen oder anderen Seite.
20:43
MostDie meisten people are guiltyschuldig of the evilböse of inactionUntätigkeit,
407
1231000
2000
Die meisten Menschen machen
sich der Untätigkeit schuldig,
20:45
because your motherMutter said, "Don't get involvedbeteiligt. MindGeist your ownbesitzen businessGeschäft."
408
1233000
3000
weil Ihre Mutter sagte: "Halt dich da raus,
kümmer' dich um deinen eigenen Kram."
20:48
And you have to say, "MamaMama, humanityMenschheit is my businessGeschäft."
409
1236000
3000
Und Sie müssen sagen: "Mama,
Menschheit ist mein Kram."
20:51
So the psychologyPsychologie of heroismHeldentum is -- we're going to endEnde in a momentMoment --
410
1239000
2000
Nun, die Psychologie des Heldentums
ist – wir sind gleich fertig –
20:53
how do we encourageermutigen childrenKinder in newneu heroHeld coursesKurse,
411
1241000
4000
wie ermutigen wir unsere Kinder, den
neuen Helden-Bahnen zu folgen,
20:57
that I'm workingArbeiten with MattMatt LangdonLangdon -- he has a heroHeld workshopWerkstatt --
412
1245000
3000
an denen ich mit Matt Langdon arbeite –
er hat eine Helden-Werkstatt,
21:00
to developentwickeln this heroicheroische imaginationPhantasie, this self-labelingSelbstbeschriftung,
413
1248000
3000
um heldenhafte Vorstellungen zu
entwickeln, Selbst-Etikettierung:
21:03
"I am a heroHeld in waitingwarten," and teachlehren them skillsFähigkeiten.
414
1251000
3000
"Ich bin ein Held in Bereitschaft",
und ihnen Fertigkeiten beizubringen.
21:06
To be a heroHeld, you have to learnlernen to be a deviantDeviant,
415
1254000
2000
Um ein Held zu sein, müssen
Sie lernen, Abweichler zu sein,
21:09
because you're always going againstgegen the conformityKonformität of the groupGruppe.
416
1257000
2000
denn Sie müssen sich immer gegen die
Konformität der Gruppe durchsetzen.
21:11
HeroesHelden are ordinarygewöhnlich people whosederen socialSozial actionsAktionen are extraordinaryaußergewöhnlich. Who actHandlung.
417
1259000
4000
Helden sind gewöhnliche Menschen, deren
Handlungen außergewöhnlich sind. Die handeln.
21:15
The keySchlüssel to heroismHeldentum is two things.
418
1263000
2000
Der Schlüssel zu Heldenhaftigkeit
sind zwei Dinge.
21:17
A: you've got to actHandlung when other people are passivepassiv.
419
1265000
2000
A: Sie müssen handeln, wenn
andere Leute passiv bleiben.
21:20
B: you have to actHandlung socio-centricallysozio-zentrisch, not egocentricallyegozentrisch.
420
1268000
3000
B: Sie müssen sozio-zentriert
handeln, nicht egozentrisch.
21:23
And I want to endEnde with the storyGeschichte that some of you know,
421
1271000
2000
Und ich möchte enden mit einer
Geschichte, die einige von Ihnen kennen,
21:25
about WesleyWesley AutreyAUTREY, NewNeu YorkYork subwayU-Bahn heroHeld.
422
1273000
2000
über Wesley Autrey, den
New Yorker U-Bahn-Helden.
21:27
Fifty-year-oldFünfzig-Jahr-alten African-AmericanAfro-Amerikaner constructionBau workerArbeitnehmer.
423
1275000
2000
Ein 50-jähriger afro-amerikanischer
Bauarbeiter.
21:29
He's standingStehen on a subwayU-Bahn in NewNeu YorkYork.
424
1277000
2000
Er steht in der U-Bahn in New York;
21:31
A whiteWeiß guy fallsStürze on the tracksSpuren.
425
1279000
1000
ein weißer Typ fällt
auf die Schienen.
21:32
The subwayU-Bahn trainZug is comingKommen. There's 75 people there.
426
1280000
3000
Die Bahn kommt. Da
stehen 75 Leute rum.
21:35
You know what? They freezeeinfrieren.
427
1283000
1000
Wissen Sie was, sie erstarren.
21:36
He's got a reasonGrund not to get involvedbeteiligt.
428
1284000
2000
Er hat Gründe, sich rauszuhalten.
21:38
He's blackschwarz, the guy'sJungs whiteWeiß, and he's got two little kidsKinder.
429
1286000
2000
Er ist schwarz, der Typ ist weiß,
und er hat zwei kleine Kinder.
21:41
InsteadStattdessen, he givesgibt his kidsKinder to a strangerFremder,
430
1289000
1000
Stattdessen übergibt er
seine Kinder einem Fremden,
21:42
jumpsspringt on the tracksSpuren, putslegt the guy betweenzwischen the tracksSpuren,
431
1290000
3000
springt auf die Schienen, schiebt
den Typen zwischen die Schienen,
21:45
liesLügen on him, the subwayU-Bahn goesgeht over him.
432
1293000
2000
legt sich auf ihn, die Bahn
fährt über ihn drüber.
21:47
WesleyWesley and the guy -- 20 and a halfHälfte inchesZoll heightHöhe.
433
1295000
3000
Wesley und der Typ:
50 cm hoch.
21:51
The trainZug clearanceClearance is 21 inchesZoll.
434
1299000
2000
Die Bahn ist 51 cm hoch.
21:53
A halfHälfte an inchZoll would have takengenommen his headKopf off.
435
1301000
2000
Nur ein Zentimeter weniger
hätte seinen Kopf abgerissen.
21:56
And he said, "I did what anyonejemand could do,"
436
1304000
3000
Und er sagte: "Ich tat,
was jeder tun könnte",
21:59
no biggroß dealDeal to jumpspringen on the tracksSpuren.
437
1307000
1000
keine große Sache, auf
die Schienen zu springen.
22:00
And the moralMoral- imperativeImperativ is "I did what everyonejeder should do."
438
1308000
4000
Und die moralische Implikation
ist: "Ich tat, was jeder tun sollte."
22:04
And so one day, you will be in a newneu situationLage.
439
1312000
2000
Und eines Tages werden Sie
sich in neuen Umständen befinden.
22:07
Take pathPfad one, you're going to be a perpetratorTäter of evilböse.
440
1315000
2000
Nehmen Sie Pfad 1 und
Sie werden ein Übeltäter.
22:09
EvilBöse, meaningBedeutung you're going to be ArthurArthur AndersenAndersen.
441
1317000
3000
Übel heißt, Sie werden
sein wie Arthur Anderson.
22:12
You're going to cheatbetrügen, or you're going to allowzulassen bullyingMobbing.
442
1320000
2000
Sie werden betrügen oder Sie
werden Schikane zulassen.
22:14
PathPfad two, you becomewerden guiltyschuldig of the evilböse of passivepassiv inactionUntätigkeit.
443
1322000
2000
Pfad 2: Sie machen sich schuldig,
indem Sie untätig bleiben.
22:17
PathPfad threedrei, you becomewerden a heroHeld.
444
1325000
1000
Pfad 3: Sie werden ein Held.
22:18
The pointPunkt is, are we readybereit to take the pathPfad
445
1326000
3000
Die Frage ist, ob wir bereit
sind, den Pfad zu nehmen
22:21
to celebratingfeiern ordinarygewöhnlich heroesHelden,
446
1329000
2000
der dazu führt, dass
wir Alltagshelden feiern,
22:23
waitingwarten for the right situationLage to come alongeine lange
447
1331000
2000
die nur darauf warten, dass
die richtige Situation kommt,
22:25
to put heroicheroische imaginationPhantasie into actionAktion?
448
1333000
2000
um ihre heldenhaften
Vorstellungen zu verwirklichen?
22:27
Because it maykann only happengeschehen onceEinmal in your life,
449
1335000
3000
Denn vielleicht passiert
es nur einmal in Ihrem Leben,
22:31
and when you passbestehen it by, you'lldu wirst always know,
450
1339000
1000
und wenn Sie das verpassen,
werden Sie immer wissen,
22:32
I could have been a heroHeld and I let it passbestehen me by.
451
1340000
3000
"Ich hätte ein Held sein können
und ich hab's verpasst."
22:35
So the pointPunkt is thinkingDenken it and then doing it.
452
1343000
2000
Der Punkt ist, es zu
denken und dann zu tun.
22:37
So I want to thank you. Thank you. Thank you.
453
1345000
3000
So, ich möchte Ihnen
danken. Danke. Danke.
22:40
Let's opposezu widersetzen the powerLeistung of evilböse systemsSysteme at home and abroadim Ausland,
454
1348000
3000
Lassen Sie uns uns der Macht böser Systeme
entgegenstellen, hier und anderswo,
22:43
and let's focusFokus on the positivepositiv.
455
1351000
2000
und auf das Positive konzentrieren.
22:45
AdvocateAnwalt for respectdie Achtung of personalpersönlich dignityWürde, for justiceGerechtigkeit and peaceFrieden,
456
1353000
3000
Treten Sie ein für Respekt für die Würde des
Einzelnen, für Gerechtigkeit und Frieden,
22:48
whichwelche sadlyLeider our administrationVerwaltung has not been doing.
457
1356000
2000
was unsere Regierung
leider nicht getan hat.
22:50
ThanksVielen Dank so much.
458
1358000
1000
Vielen, vielen Dank.
22:51
(ApplauseApplaus)
459
1359000
13000
(Applaus)
Translated by Corinna Baldauf
Reviewed by Valentina Wellbrock

▲Back to top

ABOUT THE SPEAKER
Philip Zimbardo - Psychologist
Philip Zimbardo was the leader of the notorious 1971 Stanford Prison Experiment -- and an expert witness at Abu Ghraib. His book The Lucifer Effect explores the nature of evil; now, in his new work, he studies the nature of heroism.

Why you should listen

Philip Zimbardo knows what evil looks like. After serving as an expert witness during the Abu Ghraib trials, he wrote The Lucifer Effect: Understanding How Good People Turn Evil. From Nazi comic books to the tactics of used-car salesmen, he explores a wealth of sources in trying to explain the psychology of evil.

A past president of the American Psychological Association and a professor emeritus at Stanford, Zimbardo retired in 2008 from lecturing, after 50 years of teaching his legendary introductory course in psychology. In addition to his work on evil and heroism, Zimbardo recently published The Time Paradox, exploring different cultural and personal perspectives on time.

Still well-known for his controversial Stanford Prison Experiment, Zimbardo in his new research looks at the psychology of heroism. He asks, "What pushes some people to become perpetrators of evil, while others act heroically on behalf of those in need?"

More profile about the speaker
Philip Zimbardo | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee