ABOUT THE SPEAKER
Philip Zimbardo - Psychologist
Philip Zimbardo was the leader of the notorious 1971 Stanford Prison Experiment -- and an expert witness at Abu Ghraib. His book The Lucifer Effect explores the nature of evil; now, in his new work, he studies the nature of heroism.

Why you should listen

Philip Zimbardo knows what evil looks like. After serving as an expert witness during the Abu Ghraib trials, he wrote The Lucifer Effect: Understanding How Good People Turn Evil. From Nazi comic books to the tactics of used-car salesmen, he explores a wealth of sources in trying to explain the psychology of evil.

A past president of the American Psychological Association and a professor emeritus at Stanford, Zimbardo retired in 2008 from lecturing, after 50 years of teaching his legendary introductory course in psychology. In addition to his work on evil and heroism, Zimbardo recently published The Time Paradox, exploring different cultural and personal perspectives on time.

Still well-known for his controversial Stanford Prison Experiment, Zimbardo in his new research looks at the psychology of heroism. He asks, "What pushes some people to become perpetrators of evil, while others act heroically on behalf of those in need?"

More profile about the speaker
Philip Zimbardo | Speaker | TED.com
TED2008

Philip Zimbardo: The psychology of evil

Persone normali che diventano mostri... o eroi. Come si fa lo racconta Philip Zimbardo.

Filmed:
7,078,283 views

Philip Zimbardo sa come è facile smettere di essere buoni e diventare cattivi. In questo video condivide qualche idea e alcune foto inedite emerse durante il processo ai soldati che torturavano i detenuti ad Abu Ghraib. Poi si concentra sull'altro lato della medaglia: com'è facile diventare un eroe, e come noi possiamo esserne all'altezza.
- Psychologist
Philip Zimbardo was the leader of the notorious 1971 Stanford Prison Experiment -- and an expert witness at Abu Ghraib. His book The Lucifer Effect explores the nature of evil; now, in his new work, he studies the nature of heroism. Full bio

Double-click the English transcript below to play the video.

00:13
PhilosophersFilosofi, dramatistsDrammaturghi, theologiansteologi
0
1000
3000
Filosofi, drammaturghi, teologi
00:16
have grappledcimentati with this questiondomanda for centuriessecoli:
1
4000
2000
hanno affrontato per secoli questa domanda:
00:18
what makesfa people go wrongsbagliato?
2
6000
2000
Cosa rende cattive le persone?
00:20
InterestinglyÈ interessante notare che, I askedchiesto this questiondomanda when I was a little kidragazzo.
3
8000
2000
Curiosamente, mi chiedevo la stessa cosa da piccolo.
00:23
When I was a kidragazzo growingin crescita up in the SouthSud BronxBronx, inner-citycentro città ghettoghetto
4
11000
2000
Mentre ero un bambino che cresceva nel South Bronx, ghetto cittadino
00:25
in NewNuovo YorkYork, I was surroundedcircondato by evilil male,
5
13000
2000
di New York, ero accerchiato dal male,
00:28
as all kidsbambini are who grewè cresciuto up in an innerinterno citycittà.
6
16000
2000
come tutti i bambini che crescevano in città.
00:30
And I had friendsamici who were really good kidsbambini,
7
18000
2000
Avevo amici che erano veramente buoni,
00:32
who livedha vissuto out the DrDr. JekyllJekyll MrSignor. HydeHyde scenarioscenario -- RobertRobert LouisLouis StevensonStevenson.
8
20000
4000
che vissero poi lo scenario da Dr. Jekyll e Mr. Hyde di Robert Louis Stevenson.
00:36
That is, they tookha preso drugsfarmaci, got in troubleguaio, wentandato to jailprigione.
9
24000
4000
Che sarebbe: usavano droghe, si cacciavano nei guai, finivano in galera.
00:40
Some got killeducciso, and some did it withoutsenza drugdroga assistanceassistenza.
10
28000
4000
Alcuni furono uccisi, alcuni anche senza l'aiuto della droga.
00:44
So when I readleggere RobertRobert LouisLouis StevensonStevenson, that wasn'tnon era fictionfinzione.
11
32000
3000
Quindi quando ho letto Robert Louis Stevenson, per me non era un romanzo.
00:47
The only questiondomanda is, what was in the juicesucco?
12
35000
1000
L'unica domanda è: cosa c'era nella pozione?
00:48
And more importantlyimportante, that linelinea betweenfra good and evilil male --
13
36000
5000
E più importante: quella linea tra bene e male
00:53
whichquale privilegedprivilegiato people like to think is fixedfisso and impermeableimpermeabile,
14
41000
3000
- quella che le persone privilegiate pensano sia fissa e impermeabile,
00:56
with them on the good sidelato, and the othersaltri on the badcattivo sidelato --
15
44000
3000
con loro dalla parte dei buoni e gli altri con i cattivi -
00:59
I knewconosceva that linelinea was movablemobili, and it was permeablepermeabile.
16
47000
3000
io sapevo che la linea si poteva spostare, e anche attraversare.
01:02
Good people could be seducedSedotta acrossattraverso that linelinea,
17
50000
2000
Le persone buone potevano essere sedotte e portate dall'altra parte,
01:05
and undersotto good and some rareraro circumstancescondizioni, badcattivo kidsbambini could recoverrecuperare
18
53000
3000
e in positive e rare circostanze i bambini cattivi potevano ricredersi
01:08
with help, with reformriforma, with rehabilitationriabilitazione.
19
56000
3000
tramite aiuto, correzione e riabilitazione.
01:12
So I want to begininizio with this this wonderfulmeraviglioso illusionillusione
20
60000
2000
Quindi vorrei cominciare con questa splendida illusione
01:14
by [DutchOlandese] artistartista M.C. EscherEscher.
21
62000
2000
dell'artista olandese M.C. Escher.
01:17
If you look at it and focusmessa a fuoco on the whitebianca,
22
65000
1000
Se la guardate e vi concentrate sul bianco,
01:18
what you see is a worldmondo fullpieno of angelsAngeli.
23
66000
2000
vedete un mondo pieno di angeli.
01:20
But let's look more deeplyprofondamente, and as we do,
24
68000
3000
Ma se guardiamo più in profondità
01:23
what appearsappare is the demonsdemoni, the devilsdiavoli in the worldmondo.
25
71000
3000
appaiono i demoni, i demoni del mondo.
01:27
And that tellsdice us severalparecchi things.
26
75000
1000
E questo ci dice molte cose.
01:28
One, the worldmondo is, was, will always be filledpieno with good and evilil male,
27
76000
3000
Uno: il mondo è, era, sarà sempre pieno di bene e male,
01:31
because good and evilil male is the yinYin and yangYang of the humanumano conditioncondizione.
28
79000
3000
perchè bene e male sono lo Yin e lo Yang della condizione umana.
01:34
It tellsdice me something elsealtro. If you rememberricorda,
29
82000
2000
Mi dice anche qualcos'altro. Se vi ricordate,
01:36
God'sDi Dio favoritefavorito angelAngelo was LuciferLucifero.
30
84000
3000
l'angelo preferito di Dio era Lucifero.
01:39
ApparentlyA quanto pare, LuciferLucifero meanssi intende "the lightleggero."
31
87000
2000
E Lucifero significa "Portatore di luce."
01:42
It alsoanche meanssi intende "the morningmattina starstella," in some scripturescrittura.
32
90000
2000
Anche "La stella del mattino" secondo alcune scritture.
01:44
And apparentlyapparentemente, he disobeyeddisobbedito God,
33
92000
3000
Sembra che lui abbia disobbedito a Dio,
01:47
and that's the ultimatefinale disobediencedisobbedienza to authorityautorità.
34
95000
3000
chè è la disubbidienza suprema all'autorità.
01:50
And when he did, MichaelMichael, the archangelArcangelo, was sentinviato
35
98000
3000
E quando lo fece, l'Arcangelo Michele fu inviato
01:54
to kickcalcio him out of heavenParadiso alonglungo with the other fallencaduto angelsAngeli.
36
102000
3000
a cacciarlo dal paradiso insieme agli altri angeli caduti.
01:57
And so LuciferLucifero descendsdiscende into hellinferno, becomesdiventa SatanSatana,
37
105000
3000
Quindi Lucifero scende all'inferno, diventa Satana,
02:01
becomesdiventa the devildiavolo, and the forcevigore of evilil male in the universeuniverso beginsinizia.
38
109000
2000
diventa il diavolo, e così comincia la forza del male nell'universo.
02:03
ParadoxicallyParadossalmente, it was God who createdcreato hellinferno as a placeposto to storenegozio evilil male.
39
111000
5000
Paradossalmente, è stato Dio a creare l'inferno come luogo dove tenere il male.
02:09
He didn't do a good joblavoro of keepingconservazione it there thoughanche se.
40
117000
1000
Però non ha fatto un buon lavoro a tenercelo dentro.
02:10
So, this arcarco of the cosmiccosmico transformationtrasformazione
41
118000
3000
Questo percorso di trasformazione cosmica
02:13
of God'sDi Dio favoritefavorito angelAngelo into the DevilDiavolo,
42
121000
2000
dell'angelo preferito di Dio che diventa il Diavolo,
02:15
for me, setsimposta the contextcontesto for understandingcomprensione humanumano beingsesseri
43
123000
4000
per me crea il contesto per capire gli esseri umani
02:19
who are transformedtrasformato from good, ordinaryordinario people
44
127000
3000
che vengono trasformati da persone buone, normali,
02:22
into perpetratorsautori of evilil male.
45
130000
2000
in attori del male.
02:24
So the LuciferLucifero effecteffetto, althoughsebbene it focusessi concentra on the negativesnegativi --
46
132000
4000
Quindi l'Effetto Lucifero, anche se si concentra sul male
02:28
the negativesnegativi that people can becomediventare,
47
136000
3000
- il male che le persone possono diventare,
02:31
not the negativesnegativi that people are --
48
139000
1000
non il male che le persone sono -
02:32
leadsconduce me to a psychologicalpsicologico definitiondefinizione. EvilMale is the exerciseesercizio of powerenergia.
49
140000
6000
mi porta ad una definizione psicologica: il male è l'esercizio del potere.
02:38
And that's the keychiave: it's about powerenergia.
50
146000
2000
Ecco la chiave: è una questione di potere.
02:40
To intentionallyapposta harmdanno people psychologicallypsicologicamente,
51
148000
3000
Potere di, intenzionalmente, far male alle persone psicologicamente,
02:44
to hurtmale people physicallyfisicamente, to destroydistruggere people mortallymortalmente, or ideasidee,
52
152000
3000
di colpirle fisicamente, di distruggere mortalmente persone o idee,
02:47
and to commitcommettere crimescrimini againstcontro humanityumanità.
53
155000
2000
e di commettere crimini contro l'umanità.
02:51
If you GoogleGoogle "evilil male," a wordparola that should surelycertamente have witheredappassito by now,
54
159000
3000
Se cercate su Google "male", un termine che sicuramente dovrebbe essere passato di moda ormai,
02:54
you come up with 136 millionmilione hitscolpi in a thirdterzo of a secondsecondo.
55
162000
4000
trovate 136 milioni di contatti in un terzo di secondo.
02:58
A fewpochi yearsanni agofa -- I am sure all of you were shockedscioccato, as I was,
56
166000
4000
Alcuni anni fa, sono sicuro che siete stati tutti sconvolti, come me,
03:02
with the revelationrivelazione of AmericanAmericano soldierssoldati
57
170000
3000
dalla rivelazione che soldati americani
03:05
abusingabusando prisonersprigionieri in a strangestrano placeposto
58
173000
3000
torturavano i prigionieri in un luogo strano
03:08
in a controversialcontroverso warguerra, AbuAbu GhraibGhraib in IraqIraq.
59
176000
3000
durante una guerra controversa: Abu Ghraib in Iraq.
03:11
And these were menuomini and womendonne
60
179000
1000
E questi erano uomini e donne
03:12
who were puttingmettendo prisonersprigionieri throughattraverso unbelievableincredibile humiliationumiliazione.
61
180000
5000
che infliggevano ai prigionieri umiliazioni incredibili.
03:18
I was shockedscioccato, but I wasn'tnon era surprisedsorpreso,
62
186000
1000
Ero sconvolto, ma non ero sorpreso,
03:19
because I had seenvisto those samestesso visualvisivo parallelsParallels
63
187000
2000
perchè avevo visto un parallelo delle stesse immagini
03:22
when I was the prisonprigione superintendentSovrintendente of the StanfordStanford PrisonPrigione StudyStudio.
64
190000
3000
quando ero il supervisore del carcere durante lo Stanford Prison Study.
03:25
ImmediatelyImmediatamente the BushBush administrationamministrazione militarymilitare said ... what?
65
193000
2000
Subito l'amministrazione Bush disse... cosa disse?
03:28
What all administrationsamministrazioni say when there's a scandalscandalo.
66
196000
2000
Quello che tutte le amministrazioni dicono quando c'è uno scandalo.
03:30
"Don't blamecolpa us. It's not the systemsistema. It's the fewpochi badcattivo applesmele,
67
198000
3000
"Non date la colpa a noi. Non è il sistema. Sono alcune mele marce,
03:34
the fewpochi roguecanaglia soldierssoldati."
68
202000
1000
alcuni soldati deviati."
03:35
My hypothesisipotesi is, AmericanAmericano soldierssoldati are good, usuallygeneralmente.
69
203000
3000
La mia ipotesi è che i soldati americani siano buoni, di solito.
03:38
Maybe it was the barrelbarile that was badcattivo.
70
206000
2000
Forse era il contenitore che era cattivo.
03:40
But how am I going to -- how am I going to dealaffare with that hypothesisipotesi?
71
208000
3000
Ma come avrei fatto a testare quell'ipotesi?
03:43
I becamedivenne an expertesperto witnesstestimone
72
211000
1000
Sono diventato consulente tecnico
03:44
for one of the guardsguardie, SergeantSergente ChipChip FrederickFrederick,
73
212000
2000
per una delle guardie, il Sergente Chip Frederick,
03:46
and in that positionposizione, I had accessaccesso to the dozendozzina investigativeinvestigativo reportsrapporti.
74
214000
4000
e in quella posizione ho avuto accesso a dozzine di rapporti investigativi.
03:50
I had accessaccesso to him. I could studystudia him,
75
218000
3000
Ho avuto accesso a lui. L'ho potuto studiare,
03:54
have him come to my home, get to know him,
76
222000
1000
farlo venire a casa mia, conoscerlo,
03:55
do psychologicalpsicologico analysisanalisi to see, was he a good appleMela or badcattivo appleMela.
77
223000
4000
fare un'analisi psicologica e vedere se era una mela buona o una mela marcia.
03:59
And thirdlyin terzo luogo, I had accessaccesso to all of the 1,000 picturesimmagini
78
227000
4000
Terzo, ho avuto accesso a tutte le migliaia di foto
04:03
that these soldierssoldati tookha preso.
79
231000
1000
che quei soldati avevano fatto.
04:05
These picturesimmagini are of a violentviolento or sexualsessuale naturenatura.
80
233000
2000
Erano foto di natura violenta o sessuale.
04:07
All of them come from the camerasmacchine fotografiche of AmericanAmericano soldierssoldati.
81
235000
3000
Tutte provenivano dalle macchine fotografiche dei soldati americani.
04:11
Because everybodytutti has a digitaldigitale cameramacchina fotografica or cellcellula phoneTelefono cameramacchina fotografica,
82
239000
2000
Dato che tutti hanno una macchinetta digitale o un cellulare con fotocamera,
04:13
they tookha preso picturesimmagini of everything. More than 1,000.
83
241000
2000
avevano fotografato tutto. Più di mille foto.
04:16
And what I've donefatto is I organizedorganizzato them into variousvario categoriescategorie.
84
244000
2000
Quello che ho fatto è stato organizzarle in varie categorie.
04:18
But these are by UnitedUniti d'America StatesStati militarymilitare policepolizia, armyesercito reservistsriservisti.
85
246000
5000
Ma queste le hanno fatte dei riservisti della USMP (Polizia Militare).
04:24
They are not soldierssoldati preparedpreparato for this missionmissione at all.
86
252000
3000
Non sono soldati preparati per questa missione, per niente.
04:27
And it all happenedè accaduto in a singlesingolo placeposto, TierLivello 1-A-A, on the night shiftcambio.
87
255000
5000
E' successo tutto in un solo posto, Piano 1A, durante il turno di notte.
04:32
Why? TierLivello 1-A-A was the centercentro for militarymilitare intelligenceintelligenza.
88
260000
3000
Perchè? Il Piano 1A era il centro per lo spionaggio militare.
04:35
It was the interrogationinterrogatorio holdtenere. The CIACIA was there.
89
263000
3000
Era dove si tenevano gli interrogatori. La CIA era lì.
04:39
InterrogatorsInterrogatori from TitanTitan CorporationCorporation, all there,
90
267000
2000
Gli interrogatori professionisti della Titan Corporation, tutti lì,
04:41
and they're gettingottenere no informationinformazione about the insurgencyinsurrezione.
91
269000
3000
e non ottenevano nessuna informazione sulla resistenza.
04:45
So they're going to put pressurepressione on these soldierssoldati,
92
273000
1000
Quindi faceva pressione su questi soldati,
04:46
militarymilitare policepolizia, to crossattraversare the linelinea,
93
274000
2000
la Polizia Militare, affinché attraversassero la linea,
04:49
give them permissionautorizzazione to breakrompere the will of the enemynemico,
94
277000
3000
dava loro il permesso di spezzare la volontà del nemico,
04:52
to preparepreparare them for interrogationinterrogatorio, to softenammorbidire them up,
95
280000
2000
di prepararli agli interrogatori, di ammorbidirli,
04:54
to take the glovesguanti off. Those are the euphemismseufemismi,
96
282000
2000
di togliersi i "guanti di velluto". Questi erano gli eufemismi,
04:56
and this is how it was interpretedinterpretato.
97
284000
3000
e questo è come sono stati interpretati.
05:00
Let's go down to that dungeonDungeon.
98
288000
1000
Ora scendiamo in quella prigione.
05:01
(CameraFotocamera shutterdell'otturatore)
99
289000
37000
(Clic di macchina fotografica)
05:38
(ThudsTonfi)
100
326000
6000
(Colpi)
05:45
(CameraFotocamera shutterdell'otturatore)
101
333000
14000
(Clic)
05:59
(ThudsTonfi)
102
347000
10000
(Colpi)
06:09
(BreathingRespirazione)
103
357000
8000
(Respiri affannosi)
06:17
(BellsCampane)
104
365000
31000
(Campane)
06:49
So, prettybella horrificorribile.
105
397000
3000
Abbastanza orribile.
06:52
That's one of the visualvisivo illustrationsillustrazioni of evilil male.
106
400000
3000
Questa è una delle rappresentazioni visive del male.
06:55
And it should not have escapedsfuggito you that
107
403000
1000
E spero non vi sia sfuggito che
06:56
the reasonragionare I pairedaccoppiato the prisonerprigioniero with his armsbraccia out
108
404000
4000
la ragione per cui ho accostato il prigioniero con le braccia aperte
07:00
with LeonardoLeonardo dada Vinci'sDi Vinci odeOde to humanityumanità
109
408000
3000
all'Uomo Vitruviano di Leonardo
07:03
is that that prisonerprigioniero was mentallymentalmente illmalato.
110
411000
2000
è che quel prigioniero era mentalmente disturbato.
07:05
That prisonerprigioniero coveredcoperto himselflui stesso with shitmerda everyogni day,
111
413000
2000
Quel prigioniero si copriva di merda ogni giorno,
07:07
and they used to have to rollrotolo him in dirtsporco so he wouldn'tno stinkpuzzano.
112
415000
3000
e i soldati lo facevano rotolare nella polvere così non puzzava.
07:10
But the guardsguardie endedconclusa up callingchiamata him "ShitMerda BoyRagazzo."
113
418000
2000
Ma le guardie finirono per chiamarlo Ragazzo Merda.
07:12
What was he doing in that prisonprigione
114
420000
2000
Perchè stava in quella prigione
07:14
ratherpiuttosto than in some mentalmentale institutionistituzione?
115
422000
3000
e non in una qualche clinica per malattie mentali?
07:17
In any eventevento, here'secco formerex SecretarySegretario of DefenseDifesa RumsfeldRumsfeld.
116
425000
3000
Ogni volta c'è l'ex Segretario alla Difesa Rumsfeld
07:20
He comesviene down and saysdice, "I want to know, who is responsibleresponsabile?
117
428000
2000
che arriva e chiede "Chi è responsabile?
07:22
Who are the badcattivo applesmele?" Well, that's a badcattivo questiondomanda.
118
430000
3000
Chi sono le mele marce?" Beh, è una domanda sbagliata.
07:25
You have to reframeREFRAME it and askChiedere, "What is responsibleresponsabile?"
119
433000
3000
Bisognerebbe riformularla e chiedere "Cosa è responsabile?"
07:28
Because "what" could be the who of people,
120
436000
2000
Perchè "cosa" potrebbe essere il chi delle persone,
07:30
but it could alsoanche be the what of the situationsituazione,
121
438000
2000
ma anche il cosa della situazione
07:32
and obviouslyovviamente that's wrongheadedsbagliate.
122
440000
2000
che ovviamente è sbagliata.
07:34
So how do psychologistspsicologi go about understandingcomprensione
123
442000
2000
Quindi come fanno gli psicologi a cercare di capire
07:36
suchcome transformationstrasformazioni of humanumano charactercarattere,
124
444000
2000
una tale trasformazione della personalità umana,
07:38
if you believe that they were good soldierssoldati
125
446000
2000
se partono dal presupposto che erano soldati buoni
07:40
before they wentandato down to that dungeonDungeon?
126
448000
1000
prima di scendere in quella prigione?
07:42
There are threetre waysmodi. The mainprincipale way is -- it's calledchiamato dispositionaldisposizionale.
127
450000
2000
Ci sono tre modi. Il primo è chiamato disposizionale:
07:44
We look at what's insidedentro of the personpersona, the badcattivo applesmele.
128
452000
3000
guardiamo a cosa c'è dentro alle persone, alle mele marce.
07:48
This is the foundationfondazione of all of socialsociale sciencescienza,
129
456000
3000
Questo è il fondamento di tutte le scienze sociali,
07:51
the foundationfondazione of religionreligione, the foundationfondazione of warguerra.
130
459000
2000
il fondamento delle religioni, il fondamento della guerra.
07:55
SocialSociale psychologistspsicologi like me come alonglungo and say, "Yeah,
131
463000
2000
Psicologi sociali come me arrivano e dicono: "Certo,
07:57
people are the actorsattori on the stagepalcoscenico,
132
465000
2000
le persone sono gli attori sul palco,
07:59
but you'llpotrai have to be awareconsapevole of what that situationsituazione is.
133
467000
2000
ma devi essere consapevole della situazione circostante.
08:01
Who are the castlanciare of characterspersonaggi? What's the costumecostume?
134
469000
3000
Chi sono gli altri personaggi? Qual'è l'ambientazione?
08:04
Is there a stagepalcoscenico directordirettore?"
135
472000
1000
C'è un regista al lavoro?"
08:05
And so we're interestedinteressato in, what are the externalesterno factorsfattori
136
473000
2000
Quindi noi siamo interessati a quali sono i fattori esterni
08:08
around the individualindividuale -- the badcattivo barrelbarile?
137
476000
2000
intorno all'individuo, il cattivo contenitore?
08:10
And socialsociale scientistsscienziati stop there, and they missPerdere the biggrande pointpunto
138
478000
3000
Quando gli scienziati sociali si fermano qui si perdono il punto fondamentale
08:13
that I discoveredscoperto when I becamedivenne an expertesperto witnesstestimone for AbuAbu GhraibGhraib.
139
481000
3000
che ho scoperto diventando consulente tecnico per Abu Ghraib.
08:16
The powerenergia is in the systemsistema.
140
484000
2000
Il potere è nel sistema.
08:18
The systemsistema createscrea the situationsituazione that corruptscorrompe the individualsindividui,
141
486000
3000
Il sistema crea la situazione che corrompe l'individuo,
08:21
and the systemsistema is the legallegale, politicalpolitico, economiceconomico, culturalculturale backgroundsfondo.
142
489000
5000
e il sistema è il background legale, politico, economico e culturale.
08:26
And this is where the powerenergia is of the bad-barrelBad-barile makersmaker.
143
494000
3000
E questo è il potere dei costruttori di cattivi contenitori.
08:29
So if you want to changemodificare a personpersona, you've got to changemodificare the situationsituazione.
144
497000
3000
Se vuoi cambiare una persona devi cambiare la situazione.
08:32
If you want to changemodificare the situationsituazione,
145
500000
1000
Se vuoi cambiare la situazione,
08:33
you've got to know where the powerenergia is, in the systemsistema.
146
501000
2000
devi sapere dov'è il potere nel sistema.
08:35
So the LuciferLucifero effecteffetto involvescoinvolge understandingcomprensione
147
503000
2000
Quindi l'Effetto Lucifero implica la comprensione
08:37
humanumano charactercarattere transformationstrasformazioni with these threetre factorsfattori.
148
505000
5000
delle trasformazioni del carattere delle persone attraverso questi tre fattori.
08:43
And it's a dynamicdinamico interplayinterazione.
149
511000
1000
Ed è un gioco dinamico.
08:44
What do the people bringportare into the situationsituazione?
150
512000
2000
Le persone, cosa si portano dietro nelle situazioni?
08:46
What does the situationsituazione bringportare out of them?
151
514000
2000
Le situazioni, cosa fanno uscire dalle persone?
08:48
And what is the systemsistema that createscrea and maintainsmantiene that situationsituazione?
152
516000
4000
E qual'è il sistema che crea e mantiene questo tipo di situazione?
08:52
So my booklibro, "The LuciferLucifero EffectEffetto," recentlyrecentemente publishedpubblicato, is about,
153
520000
2000
Quindi il mio libro, L'Effetto Lucifero, pubblicato di recente, si chiede:
08:54
how do you understandcapire how good people turnturno evilil male?
154
522000
2000
come si capisce come le persone buone diventano cattive?
08:57
And it has a lot of detaildettaglio
155
525000
1000
E contiene molti dettagli
08:58
about what I'm going to talk about todayoggi.
156
526000
2000
riguardo a quello di cui parlerò oggi.
09:01
So DrDr. Z'sDi Z "LuciferLucifero EffectEffetto," althoughsebbene it focusessi concentra on evilil male,
157
529000
3000
Il libro del Dr. Z "L'Effetto Lucifero", anche se si concentra sul male,
09:04
really is a celebrationcelebrazione of the humanumano mind'sdella mente
158
532000
2000
in realtà è una celebrazione dell'infinita capacità
09:06
infiniteinfinito capacitycapacità to make any of us kindgenere or cruelcrudele,
159
534000
4000
della mente umana di farci essere gentili o crudeli,
09:10
caringcura or indifferentindifferente, creativecreativo or destructivedistruttivo,
160
538000
3000
compassionevoli o indifferenti, creativi o distruttivi,
09:13
and it makesfa some of us villainscattivi.
161
541000
2000
e di far diventare alcuni di noi dei criminali.
09:15
And the good newsnotizia storystoria that I'm going to hopefullyfiduciosamente come to
162
543000
2000
E la buona notizia che spero di raggiungere alla fine
09:18
at the endfine is that it makesfa some of us heroeseroi.
163
546000
2000
è che fa diventare alcuni di noi degli eroi.
09:20
This is a wonderfulmeraviglioso cartooncartone animato in the NewNuovo YorkerYorker,
164
548000
3000
Questa è una fantastica vignetta del New Yorker,
09:23
whichquale really summarizessono riepilogati my wholetotale talk:
165
551000
2000
che riassume bene il mio discorso:
09:25
"I'm neithernessuno dei due a good coppoliziotto nor a badcattivo coppoliziotto, JeromeJerome.
166
553000
2000
"Non sono nè un poliziotto buono nè uno cattivo, Jerome.
09:27
Like yourselfte stesso, I'm a complexcomplesso amalgamamalgama
167
555000
2000
Come te, io sono un complesso amalgama
09:29
of positivepositivo and negativenegativo personalitypersonalità traitstratti
168
557000
2000
di aspetti positivi e negativi della personalità
09:32
that emergeemergere or not, dependingdipendente on the circumstancescondizioni."
169
560000
3000
che emergono o meno, a seconda delle circostanze."
09:35
(LaughterRisate)
170
563000
2000
(Risate)
09:37
There's a studystudia some of you think you know about,
171
565000
3000
C'è uno studio che alcuni voi pensano di conoscere,
09:40
but very fewpochi people have ever readleggere the storystoria. You watchedguardato the moviefilm.
172
568000
4000
ma pochissimi hanno mai letto la storia. Avete visto il film.
09:44
This is StanleyStanley MilgramMilgram, little JewishEbraico kidragazzo from the BronxBronx,
173
572000
3000
Questo è Stanley Milgrom, ragazzino ebreo del Bronx,
09:47
and he askedchiesto the questiondomanda, "Could the HolocaustOlocausto happenaccadere here, now?"
174
575000
3000
e fece questa domanda: "L'olocausto potrebbe succedere qui, ora?"
09:51
People say, "No, that's NaziNazista GermanyGermania,
175
579000
1000
Le persone dicono "No, quella era la Germania nazista,
09:52
that's HitlerHitler, you know, that's 1939."
176
580000
2000
era Hitler, e poi, era il 1939."
09:54
He said, "Yeah, but supposesupporre HitlerHitler askedchiesto you,
177
582000
2000
E lui: "Ok, ma immagina che Hitler ti chieda:
09:56
'Would you electrocutefulminare a strangersconosciuto?' 'No' N way, not me, I'm a good personpersona.' "
178
584000
3000
Faresti l'elettroshock ad un estraneo?" "Certo che no, non io, sono una persona buona."
10:00
He said, "Why don't we put you in a situationsituazione
179
588000
1000
E Stanley: "Perchè non ti caliamo in una situazione
10:01
and give you a chanceopportunità to see what you would do?"
180
589000
2000
e vediamo quello che viene fuori, quello che fai?"
10:03
And so what he did was he testedtestato 1,000 ordinaryordinario people.
181
591000
4000
Quindi quello che fece fu testare 1000 persone normali.
10:07
500 NewNuovo HavenHaven, ConnecticutConnecticut, 500 BridgeportBridgeport.
182
595000
3000
500 a New Haven, Connecticut; 500 a Bridgeport.
10:10
And the adanno Domini said, "PsychologistsPsicologi want to understandcapire memorymemoria.
183
598000
4000
La pubblicità diceva "Gli psicologi vogliono capire la memoria,
10:14
We want to improveMigliorare people'spersone di memorymemoria,
184
602000
1000
vogliamo migliorare la memoria delle persone,
10:15
because memorymemoria is the keychiave to successsuccesso." OK?
185
603000
3000
perchè la memoria è la chiave per il successo." Ok?
10:18
"We're going to give you fivecinque bucksdollari -- fourquattro dollarsdollari for your time."
186
606000
5000
"Vi daremo cinque - quattro dollari per il vostro tempo."
10:24
And it said, "We don't want collegeUniversità studentsstudenti.
187
612000
1000
E aggiungeva "Non vogliamo studenti del college;
10:25
We want menuomini betweenfra 20 and 50."
188
613000
2000
vogliamo uomini tra i 20 e i 50."
10:27
In the laterdopo studiesstudi, they rancorse womendonne.
189
615000
1000
- in studi successivi provarono con le donne -
10:28
OrdinaryOrdinario people: barbersBarbieri, clerksimpiegati, white-collarcolletti bianchi people.
190
616000
4000
persone comuni: barbieri, commessi, manager.
10:32
So, you go down, and one of you is going to be a learnerallievo,
191
620000
3000
Quindi andate, e uno ha il ruolo di studente
10:35
and one of you is going to be a teacherinsegnante.
192
623000
1000
mentre l'altro ha il ruolo di insegnante.
10:36
The learner'sdello studente a genialgenial, middle-ageddi mezza età guy.
193
624000
2000
Lo studente è un tizio brillante, di età media.
10:38
He getsprende tiedlegato up to the shockshock apparatusapparato in anotherun altro roomcamera.
194
626000
3000
Viene legato ad un apparato per elettroshock in una stanza vicina.
10:41
The learnerallievo could be middle-ageddi mezza età, could be as younggiovane as 20.
195
629000
3000
Lo studente può essere di mezza età, oppure avere vent'anni.
10:44
And one of you is told by the authorityautorità, the guy in the lablaboratorio coatcappotto,
196
632000
4000
E l'autorità, il tizio con il camice da laboratorio, dice ad uno di voi
10:48
"Your joblavoro as teacherinsegnante is to give this guy materialMateriale to learnimparare.
197
636000
3000
"Il vostro lavoro come insegnanti è far imparare lo studente.
10:51
GetsOttiene it right, rewardricompensa him.
198
639000
1000
Risponde bene, lo premiate.
10:52
GetsOttiene it wrongsbagliato, you pressstampa a buttonpulsante on the shockshock boxscatola.
199
640000
2000
Sbaglia, premete un bottone sulla macchina dell'elettroshock.
10:54
The first buttonpulsante is 15 voltsVolt. He doesn't even feel it."
200
642000
3000
Il primo bottone è a 15 volt. Lui non se ne accorge neanche."
10:58
That's the keychiave. All evilil male startsinizia with 15 voltsVolt.
201
646000
3000
Ecco il punto. Tutto il male comincia a 15 volt.
11:01
And then the nextIl prossimo steppasso is anotherun altro 15 voltsVolt.
202
649000
2000
E il bottone successivo è ancora a 15 volt.
11:04
The problemproblema is, at the endfine of the linelinea, it's 450 voltsVolt.
203
652000
2000
Il problema è che, alla fine della serie, ci sono 450 volt.
11:06
And as you go alonglungo, the guy is screamingurlando,
204
654000
3000
E mentre andate avanti lo studente urla.
11:09
"I've got a heartcuore conditioncondizione! I'm out of here!"
205
657000
2000
"Ho problemi al cuore! Fatemi uscire!"
11:11
You're a good personpersona. You complainlamentarsi.
206
659000
2000
Voi siete persone buone. E protestate.
11:13
"SirSir, who'schi è going to be responsibleresponsabile if something happensaccade to him?"
207
661000
2000
"Signore, chi sarà responsabile se gli succede qualcosa?"
11:15
The experimentersperimentatore saysdice, "Don't worrypreoccupazione, I will be responsibleresponsabile.
208
663000
3000
Lo sperimentatore dice "Non preoccuparti, io sarò responsabile.
11:18
ContinueContinuare, teacherinsegnante."
209
666000
1000
Continua, insegnante."
11:19
And the questiondomanda is, who would go all the way to 450 voltsVolt?
210
667000
4000
La domanda è: andreste fino in fondo a 450 volt?
11:24
You should noticeAvviso here, when it getsprende up to 375,
211
672000
2000
Potete vedere che qui, a 375,
11:26
it saysdice, "DangerPericolo. SevereGrave ShockShock."
212
674000
1000
dice "Pericolo: Dolore Intenso"
11:28
When it getsprende up to here, there's "XXXXXX" -- the pornographypornografia of powerenergia.
213
676000
3000
Quando arriva qui, c'è "XXX": la pornografia del potere.
11:31
(LaughterRisate)
214
679000
1000
(Risate)
11:32
So MilgramMilgram askschiede 40 psychiatristspsichiatri,
215
680000
1000
Poi Milgrom ha chiesto a 40 psichiatri:
11:33
"What percentper cento of AmericanAmericano citizenscittadini would go to the endfine?"
216
681000
3000
"Che percentuale di americani andrebbe fino in fondo?"
11:37
They said only one percentper cento. Because that's sadisticsadico behaviorcomportamento,
217
685000
3000
Loro risposero 1 percento. Perchè quello è un comportamento sadico,
11:40
and we know, psychiatryPsichiatria knowsconosce, only one percentper cento of AmericansAmericani are sadisticsadico.
218
688000
3000
e sappiamo, gli psichiatri sanno, che solo l'uno percento degli americani è sadico.
11:44
OK. Here'sQui è the datadati. They could not be more wrongsbagliato.
219
692000
4000
Ok. Ecco i dati. Non potevano sbagliare di più.
11:48
Two thirdsterzi go all the way to 450 voltsVolt. This was just one studystudia.
220
696000
5000
Due terzi arrivano fino a 450 volt. E questo era solo uno degli studi.
11:53
MilgramMilgram did more than 16 studiesstudi. And look at this.
221
701000
3000
Milgram ne ha fatti più di 16. E guardate qui.
11:56
In studystudia 16, where you see somebodyqualcuno like you go all the way,
222
704000
4000
Nello studio numero 16, se si vede qualcuno andare fino in fondo,
12:00
90 percentper cento go all the way. In studystudia fivecinque, if you see people rebelribelle, 90 percentper cento rebelribelle.
223
708000
6000
il 90 percento va fino in fondo. Nello studio 5, se si vede qualcuno che si ribella, il 90 percento si ribella.
12:06
What about womendonne? StudyStudio 13 -- no differentdiverso than menuomini.
224
714000
3000
Che dire delle donne? Studio 13: nessuna differenza con gli uomini.
12:10
So MilgramMilgram is quantifyingquantificare evilil male as the willingnessdisponibilità of people
225
718000
3000
Milgrom quantifica il male come la disposizione delle persone
12:13
to blindlyciecamente obeyobbedire authorityautorità, to go all the way to 450 voltsVolt.
226
721000
3000
ad ubbidire ciecamente all'autorità, ad andare fino a 450 volt.
12:16
And it's like a dialquadrante on humanumano naturenatura.
227
724000
2000
Ed è come una scala della natura umana.
12:18
A dialquadrante in a sensesenso that you can make almostquasi everybodytutti totallytotalmente obedientobbediente,
228
726000
4000
Una scala nel senso che si può rendere quasi tutti completamente obbedienti,
12:23
down to the majoritymaggioranza, down to nonenessuna.
229
731000
2000
praticamente tutti.
12:25
So what are the externalesterno parallelsParallels? For all researchricerca is artificialartificiale.
230
733000
4000
Quali sono i paralleli esterni reali? Tutta la ricerca è artificiale.
12:29
What's the validityvalidità in the realvero worldmondo?
231
737000
1000
Qual'è la validità degli studi nel mondo reale?
12:30
912 AmericanAmericano citizenscittadini committedimpegnata suicidesuicidio or were murderedassassinato
232
738000
4000
912 americani si suicidarono o furono uccisi
12:34
by familyfamiglia and friendsamici in GuyanaGuyana junglegiungla in 1978,
233
742000
3000
da familiari o amici nella giungla della Guyana nel 1978,
12:37
because they were blindlyciecamente obedientobbediente to this guy, theirloro pastorPastore --
234
745000
3000
perchè erano ciecamente obbedienti a questo tizio, il loro pastore.
12:40
not theirloro priestsacerdote -- theirloro pastorPastore, ReverendReverendo JimJim JonesJones.
235
748000
2000
Non il loro prete. Il loro pastore, Reverendo Jim Jones.
12:42
He persuadedpersuasi them to commitcommettere massmassa suicidesuicidio.
236
750000
3000
Li ha persuasi a commettere un suicidio di massa.
12:46
And so, he's the modernmoderno LuciferLucifero effecteffetto,
237
754000
1000
Quindi lui è un moderno Effetto Lucifero.
12:47
a man of God who becomesdiventa the AngelAngelo of DeathMorte.
238
755000
3000
Un uomo di Dio che diventa Angelo della Morte.
12:52
Milgram'sDi Milgram studystudia is all about individualindividuale authorityautorità to controlcontrollo people.
239
760000
4000
Lo studio di Milgram si concentra sull'autorità individuale di controllare le persone.
12:56
MostMaggior parte of the time, we are in institutionsistituzioni,
240
764000
3000
Ma la maggior parte dell volte noi siamo all'interno di istituzioni,
13:00
so the StanfordStanford PrisonPrigione StudyStudio is a studystudia of the powerenergia of institutionsistituzioni
241
768000
3000
quindi lo Stanford Prison Study si concentra sulla capacità delle istituzioni
13:03
to influenceinfluenza individualindividuale behaviorcomportamento.
242
771000
2000
di influenzare il comportamento individuale.
13:05
InterestinglyÈ interessante notare che, StanleyStanley MilgramMilgram and I were in the samestesso highalto schoolscuola classclasse
243
773000
3000
Curiosamente, Stanley Milgrom ed io eravamo nella stessa classe
13:08
in JamesJames MonroeMonroe in the BronxBronx, 1954.
244
776000
3000
al liceo James Monroe del Bronx nel 1954.
13:13
So this studystudia, whichquale I did
245
781000
1000
Anche questo studio, che ho fatto
13:14
with my graduatediplomato studentsstudenti, especiallyparticolarmente CraigCraig HaneyHaney --
246
782000
2000
con i miei studenti dottorandi, specialmente Craig Haney,
13:16
we alsoanche beganiniziato work with an adanno Domini.
247
784000
1000
è cominciato con una pubblicità.
13:17
We didn't have moneyi soldi, so we had a cheapa buon mercato, little adanno Domini,
248
785000
2000
Non avevamo soldi, quindi abbiamo fatto un annuncio piccolo, economico,
13:19
but we wanted collegeUniversità studentsstudenti for a studystudia of prisonprigione life.
249
787000
3000
ma volevamo degli studenti universitari per uno studio sulla vita in prigione.
13:22
75 people volunteeredvolontariamente, tookha preso personalitypersonalità teststest.
250
790000
3000
Si presentarono 75 volontari e si sottoposero ad alcuni test della personalità.
13:25
We did interviewsinterviste. PickedScelto two dozendozzina:
251
793000
2000
Li abbiamo intervistati e ne abbiamo scelti 24:
13:27
the mostmaggior parte normalnormale, the mostmaggior parte healthysalutare.
252
795000
1000
i più normali, i più sani.
13:29
RandomlyIn modo casuale assignedassegnato them to be prisonerprigioniero and guardguardia.
253
797000
2000
L'essere prigioniero o guardia fu assegnato a caso.
13:31
So on day one, we knewconosceva we had good applesmele.
254
799000
2000
Quindi fin dal primo giorno sapevamo di avere mele buone.
13:33
I'm going to put them in a badcattivo situationsituazione.
255
801000
2000
Ma ora li avrei messi in una brutta situazione.
13:35
And secondlyin secondo luogo, we know there's no differencedifferenza
256
803000
2000
Altra cosa, noi sappiamo che non c'è differenza
13:38
betweenfra the boysragazzi who are going to be guardsguardie
257
806000
1000
tra i ragazzi che diventeranno guardie
13:39
and the boysragazzi who are going to be prisonersprigionieri.
258
807000
1000
e quelli che diventeranno prigionieri.
13:41
The kidsbambini who were going to be prisonersprigionieri,
259
809000
1000
Ai futuri prigionieri abbiamo detto:
13:42
we said, "Wait at home in the dormitoriesdormitori. The studystudia will begininizio SundayDomenica."
260
810000
2000
"Aspettate nei vostri dormitori. Lo studio comincerà domenica."
13:45
We didn't tell them
261
813000
1000
Non gli avevamo detto
13:46
that the citycittà policepolizia were going to come and do realisticrealistico arrestsarresti.
262
814000
36000
che la polizia sarebbe arrivata e li avrebbe arrestati in modo realistico.
14:22
(VideoVideo) StudentStudente: A policepolizia carauto pullstira up in frontdavanti, and a coppoliziotto comesviene to the frontdavanti doorporta,
263
850000
6000
Uomo nel video: una macchina della polizia arriva e un agente viene alla porta,
14:28
and knocksbussa, and saysdice he's looking for me.
264
856000
2000
bussa e dice che sta cercando me.
14:30
So they, right there, you know, they tookha preso me out the doorporta,
265
858000
2000
Quindi come niente, mi hanno trascinato fuori dalla porta,
14:33
they put my handsmani againstcontro the carauto.
266
861000
3000
e mi hanno fatto appoggiare le mani sulla macchina.
14:36
It was a realvero coppoliziotto carauto, it was a realvero policemanpoliziotto,
267
864000
2000
Una vera macchina della polizia, un vero poliziotto,
14:39
and there were realvero neighborsvicini di casa in the streetstrada,
268
867000
1000
e c'erano dei vicini veri per strada
14:40
who didn't know that this was an experimentsperimentare.
269
868000
4000
che non sapevano che era un esperimento.
14:44
And there was camerasmacchine fotografiche all around and neighborsvicini di casa all around.
270
872000
3000
C'erano telecamere e vicini tutto intorno.
14:47
They put me in the carauto, then they droveguidavo me around PaloPalo AltoAlto.
271
875000
3000
Mi hanno messo nella macchina, poi mi hanno fatto girare per Palo Alto.
14:52
They tookha preso me to the policepolizia stationstazione,
272
880000
3000
Mi hanno portato alla centrale,
14:55
the basementseminterrato of the policepolizia stationstazione. Then they put me in a cellcellula.
273
883000
10000
nel seminterrato della centrale. Poi mi hanno messo in cella.
15:05
I was the first one to be pickedraccolto up, so they put me in a cellcellula,
274
893000
2000
Sono stato il primo ad essere preso, quindi mi hanno messo in una cella
15:07
whichquale was just like a roomcamera with a doorporta with barsbarre on it.
275
895000
4000
che era una semplice stanza con una porta con le sbarre.
15:12
You could tell it wasn'tnon era a realvero jailprigione.
276
900000
1000
Si vedeva che non era una prigione vera.
15:13
They lockedbloccato me in there, in this degradingdegradanti little outfitvestito.
277
901000
5000
Mi hanno chiuso dentro, in questa ridicola uniforme.
15:19
They were takingpresa this experimentsperimentare too seriouslysul serio.
278
907000
2000
Stavano prendendo l'esperimento troppo seriamente.
15:21
PhilipPhilip ZimbardoZimbardo: Here are the prisonersprigionieri who are going to be dehumanizeddisumanizzati.
279
909000
2000
Philip Zimbardo: Questi sono i prigionieri che saranno de-umanizzati.
15:23
They're going to becomediventare numbersnumeri.
280
911000
1000
Diventeranno numeri.
15:24
Here are the guardsguardie with the symbolssimboli of powerenergia and anonymityanonimia.
281
912000
3000
Qui ci sono le guardie con i simboli di potere e anonimato.
15:27
GuardsGuardie get prisonersprigionieri
282
915000
1000
Le guardie costringevano i prigionieri
15:28
to cleanpulito the toiletgabinetto bowlsciotole out with theirloro barespoglio handsmani,
283
916000
2000
a pulire i gabinetti a mani nude,
15:30
to do other humiliatingumiliante taskscompiti.
284
918000
2000
e a fare altre cose umilianti.
15:32
They stripstriscia them nakednudo. They sexuallysessualmente tauntinsulto them.
285
920000
2000
Li spogliano. Li ridicolizzano sessualmente.
15:34
They begininizio to do degradingdegradanti activitiesattività,
286
922000
2000
Cominciano a fargli fare attività degradanti,
15:36
like havingavendo them simulatesimulare sodomySodomia.
287
924000
2000
come simulare atti di sodomia.
15:38
You saw simulatingsimulazione fellatioFellatio in soldierssoldati in AbuAbu GhraibGhraib.
288
926000
3000
Avete visto le simulazioni di sesso orale ad Abu Ghraib.
15:41
My guardsguardie did it in fivecinque daysgiorni. The stressstress reactionreazione was so extremeestremo
289
929000
5000
Le mie guardie lo fecero in 5 giorni. La reazione allo stress fu così estrema,
15:46
that normalnormale kidsbambini we pickedraccolto because they were healthysalutare
290
934000
2000
che ragazzi normali scelti perchè in salute,
15:48
had breakdownsguasti withinentro 36 hoursore.
291
936000
2000
esplosero nel giro di 36 ore.
15:50
The studystudia endedconclusa after sixsei daysgiorni, because it was out of controlcontrollo.
292
938000
4000
Lo studio finì dopo 6 giorni perchè era fuori controllo.
15:54
FiveCinque kidsbambini had emotionalemotivo breakdownsguasti.
293
942000
2000
Cinque ragazzi ebbero crisi di nervi.
15:58
Does it make a differencedifferenza if warriorsguerrieri go to battlebattaglia
294
946000
2000
Fa differenza per i soldati che vanno a combattere
16:00
changingmutevole theirloro appearanceaspetto or not?
295
948000
2000
se cambiano il loro aspetto o no?
16:02
Does it make a differencedifferenza if they're anonymousanonimo,
296
950000
1000
Il fatto che siano anonimi fa sì che il loro comportamento
16:03
in how they treattrattare theirloro victimsvittime?
297
951000
2000
sia diverso verso le loro vittime?
16:05
We know in some culturesculture, they go to warguerra,
298
953000
1000
Sappiamo che in alcune culture, quando vanno in guerra,
16:06
they don't changemodificare theirloro appearanceaspetto.
299
954000
1000
i soldati non cambiano il loro aspetto.
16:07
In other culturesculture, they paintdipingere themselvesloro stessi like "LordSignore of the FliesMosche."
300
955000
2000
In altre si dipingono come ne "Il Signore delle Mosche."
16:09
In some, they wearindossare masksmaschere.
301
957000
2000
O indossano maschere.
16:11
In manymolti, soldierssoldati are anonymousanonimo in uniformuniforme.
302
959000
3000
In molte culture, i soldati sono anonimi nelle loro uniformi.
16:14
So this anthropologistantropologo, JohnJohn WatsonWatson, foundtrovato
303
962000
2000
Un antropologo, John Watson, trovò
16:17
23 culturesculture that had two bitsbit of datadati.
304
965000
2000
23 culture e trovò due dati.
16:19
Do they changemodificare theirloro appearanceaspetto? 15.
305
967000
2000
Quante cambiavano il loro aspetto? 15.
16:21
Do they killuccidere, torturetortura, mutilatemutilare? 13.
306
969000
2000
Quante uccidevano, torturavano, mutilavano? 13.
16:23
If they don't changemodificare theirloro appearanceaspetto,
307
971000
2000
Se non cambiano il loro aspetto
16:25
only one of eightotto killsuccide, torturestorture or mutilatesMutila.
308
973000
2000
solo una su otto uccide, tortura o mutila.
16:27
The keychiave is in the redrosso zonezona.
309
975000
2000
La chiave è nella zona rossa.
16:29
If they changemodificare theirloro appearanceaspetto,
310
977000
1000
Se cambiano il loro aspetto,
16:30
12 of 13 -- that's 90 percentper cento -- killuccidere, torturetortura, mutilatemutilare.
311
978000
4000
12 su 13 - è il 90% - uccide, tortura e mutila.
16:35
And that's the powerenergia of anonymityanonimia.
312
983000
1000
Ecco il potere dell'anonimato.
16:36
So what are the sevenSette socialsociale processesprocessi
313
984000
2000
Quali sono i sette processi sociali
16:38
that greasegrasso the slipperyscivoloso slopependenza of evilil male?
314
986000
2000
che rendono scivolosa la discesa verso il male?
16:40
MindlesslySenza pensare takingpresa the first smallpiccolo steppasso.
315
988000
2000
Fare il primo piccolo passo senza pensare.
16:42
DehumanizationDisumanizzazione of othersaltri. De-individuationDeindividuazione of SelfAuto.
316
990000
3000
De-umanizzazione degli altri. Anonimizzazione di sè stessi.
16:45
DiffusionDiffusione of personalpersonale responsibilityresponsabilità. BlindCieco obedienceobbedienza to authorityautorità.
317
993000
3000
Allentamento della responsabilità personale. Obbedienza cieca all'autorità.
16:49
UncriticalNon critico conformityconformità to groupgruppo normsnorme.
318
997000
1000
Conformarsi acriticamente alle norme del gruppo.
16:50
PassivePassivo tolerancetolleranza to evilil male throughattraverso inactioninazione or indifferenceindifferenza.
319
998000
3000
Tolleranza passiva del male attraverso inazione o indifferenza.
16:54
And it happensaccade when you're in a newnuovo or unfamiliarnon conosce situationsituazione.
320
1002000
2000
E succede quando siamo in una situazione nuova o non familiare.
16:56
Your habitualabituale responserisposta patternsmodelli don't work.
321
1004000
2000
Gli schemi abituali di risposta non funzionano.
16:59
Your personalitypersonalità and moralitymoralità are disengageddisinnestata.
322
1007000
2000
La personalità e la moralità sono scollegate.
17:01
"Nothing is easierPiù facile than to denouncedenunciare the evildoermalfattore;
323
1009000
3000
"Niente è più facile che denunciare chi fa il male;
17:04
nothing more difficultdifficile than understandingcomprensione him," DostoyevksyDostoevsky tellsdice us.
324
1012000
3000
niente è più difficile che capirlo." ci dice Dostoevsky.
17:07
UnderstandingComprensione is not excusingscusare. PsychologyPsicologia is not excuse-iologyScusa-iology.
325
1015000
4000
Capire non è scusare. La psicologia non è scusologia.
17:12
So socialsociale and psychologicalpsicologico researchricerca revealsrivela
326
1020000
1000
Quindi la ricerca sociale e psicologica rivelano
17:13
how ordinaryordinario, good people can be transformedtrasformato withoutsenza the drugsfarmaci.
327
1021000
4000
come le persone normalmente buone possono essere trasformate senza droghe.
17:17
You don't need it. You just need the social-psychologicalsocio-psicologica processesprocessi.
328
1025000
3000
Non ce n'è bisogno. Bastano i processi socio-psicologici.
17:20
RealReal worldmondo parallelsParallels? CompareConfronta this with this.
329
1028000
4000
Paralleli nel mondo reale? Confrontate con questo.
17:26
JamesJames SchlesingerSchlesinger -- and I'm going to have to endfine with this -- saysdice,
330
1034000
2000
James Schlesinger - e finisco con questo - dice:
17:28
"PsychologistsPsicologi have attemptedtentata to understandcapire how and why
331
1036000
2000
"Gli psicologi hanno cercato di capire come e perchè
17:31
individualsindividui and groupsgruppi who usuallygeneralmente actatto humanelyumanamente
332
1039000
2000
gli individui e i gruppi che di solito agiscono in maniera umana
17:33
can sometimesa volte actatto otherwisealtrimenti in certaincerto circumstancescondizioni."
333
1041000
3000
possono a volte agire diversamente in determinate circostanze."
17:37
That's the LuciferLucifero effecteffetto.
334
1045000
1000
Questo è l'Effetto Lucifero.
17:38
And he goesva on to say, "The landmarkpunto di riferimento StanfordStanford studystudia
335
1046000
2000
E prosegue dicendo: "Il fondamentale Stanford Study
17:40
providesfornisce a cautionarycautelativa taleracconto for all militarymilitare operationsoperazioni."
336
1048000
4000
fornisce un avvertimento per tutte le operazioni militari."
17:44
If you give people powerenergia withoutsenza oversightsvista,
337
1052000
2000
Se dai alle persone potere senza supervisione,
17:47
it's a prescriptionprescrizione for abuseabuso. They knewconosceva that, and let that happenaccadere.
338
1055000
3000
è una ricetta per ottenere abusi. Lo sapevano e lo hanno lasciato succedere.
17:50
So anotherun altro reportrapporto, an investigativeinvestigativo reportrapporto by GeneralGenerale FayFay,
339
1058000
5000
Un'altra relazione, una relazione investigativa del Generale Fay,
17:55
saysdice the systemsistema is guiltycolpevole. And in this reportrapporto,
340
1063000
2000
afferma che il sistema è colpevole, e in questa relazione
17:57
he saysdice it was the environmentambiente that createdcreato AbuAbu GhraibGhraib,
341
1065000
3000
dice che è stato l'ambiente a creare Abu Ghraib
18:00
by leadershipcomando failuresfallimenti that contributedha contribuito
342
1068000
2000
attraverso mancanze di leadership che hanno contribuito
18:02
to the occurrenceoccorrenza of suchcome abuseabuso,
343
1070000
1000
alla realizzazione di quegli abusi,
18:03
and the factfatto that it remainedè rimasta undiscoveredda scoprire
344
1071000
2000
e anche al fatto che sono rimasti sconosciuti
18:05
by higherpiù alto authoritiesautorità for a long periodperiodo of time.
345
1073000
2000
alle autorità superiori per un lungo periodo di tempo.
18:07
Those abusesabusi wentandato on for threetre monthsmesi. Who was watchingGuardando the storenegozio?
346
1075000
4000
Quegli abusi sono andati avanti per tre mesi. Chi era di guardia al negozio?
18:11
The answerrisposta is nobodynessuno, and, I think, nobodynessuno on purposescopo.
347
1079000
2000
La risposta è nessuno, e io penso che sia stato di proposito.
18:14
He gaveha dato the guardsguardie permissionautorizzazione to do those things,
348
1082000
1000
Ciò ha dato alle guardie il permesso di fare quelle cose,
18:15
and they knewconosceva nobodynessuno was ever going to come down to that dungeonDungeon.
349
1083000
3000
e le guardie sapevano che nessuno sarebbe venuto a controllare cosa succedeva laggiù.
18:18
So you need a paradigmparadigma shiftcambio in all of these areasle zone.
350
1086000
3000
Quindi c'è bisogno di un cambiamento fondamentale in queste aree.
18:21
The shiftcambio is away from the medicalmedico modelmodello
351
1089000
2000
Il cambiamento è allontanarsi dal modello medico
18:23
that focusessi concentra only on the individualindividuale.
352
1091000
2000
che si concentra sull'individuo.
18:25
The shiftcambio is towardverso a publicpubblico healthSalute modelmodello
353
1093000
2000
Bisogna dirigersi verso un modello pubblico
18:28
that recognizesriconosce situationalsituazionale and systemicsistemico vectorsvettori of diseasemalattia.
354
1096000
3000
che riconosca vettori di malattie sistemici e situazionali.
18:31
BullyingIl bullismo is a diseasemalattia. PrejudiceSalve is a diseasemalattia. ViolenceViolenza is a diseasemalattia.
355
1099000
4000
Il bullismo è una malattia. Il pregiudizio è una malattia. La violenza è una malattia.
18:35
And sinceda the InquisitionInquisizione, we'venoi abbiamo been dealingrapporti with problemsi problemi
356
1103000
2000
E dall'Inquisizione in poi, abbiamo affrontato problemi
18:37
at the individualindividuale levellivello. And you know what? It doesn't work.
357
1105000
3000
a livello individuale. E sapete una cosa? Non funziona.
18:40
AleksandrAleksandr SolzhenitsynSolzhenitsyn saysdice, "The linelinea betweenfra good and evilil male
358
1108000
3000
Alexander Solženicyn dice che la linea tra bene e male
18:43
cutstagli throughattraverso the heartcuore of everyogni humanumano beingessere."
359
1111000
2000
taglia a metà il cuore di ogni essere umano.
18:45
That meanssi intende that linelinea is not out there.
360
1113000
2000
Vuol dire che la linea non è là fuori.
18:47
That's a decisiondecisione that you have to make. That's a personalpersonale thing.
361
1115000
3000
E' una decisione che ognuno deve prendere. E' una cosa personale.
18:50
So I want to endfine very quicklyvelocemente on a positivepositivo noteNota.
362
1118000
3000
Vorrei concludere molto velocemente su una nota positiva:
18:53
HeroismEroismo as the antidoteantidoto to evilil male,
363
1121000
2000
l'eroismo come antidoto al male.
18:56
by promotingpromuovere the heroiceroica imaginationimmaginazione,
364
1124000
1000
Promuovendo l'immaginazione eroica,
18:57
especiallyparticolarmente in our kidsbambini, in our educationaleducativo systemsistema.
365
1125000
3000
specialmente nei bambini, nel nostro sistema educativo.
19:00
We want kidsbambini to think, I'm the heroeroe in waitingin attesa,
366
1128000
2000
Vogliamo che i bambini pensino di essere degli eroi in attesa,
19:02
waitingin attesa for the right situationsituazione to come alonglungo,
367
1130000
2000
in attesa che la situazione giusta si presenti,
19:05
and I will actatto heroicallyeroicamente.
368
1133000
1000
così da poter agire eroicamente.
19:06
My wholetotale life is now going to focusmessa a fuoco away from evilil male --
369
1134000
2000
Tutta la mia vita adesso si concentrerà lontano dal male
19:08
that I've been in sinceda I was a kidragazzo -- to understandingcomprensione heroeseroi.
370
1136000
3000
in cui sono stato da quando ero bambino, per capire gli eroi.
19:11
BanalityBanalità of heroismeroismo
371
1139000
1707
Ora la loro idea di eroismo è
19:13
is, it's ordinaryordinario people who do heroiceroica deedsatti.
372
1140707
2293
che sono le persone normali che fanno cose eroiche.
19:15
It's the counterpointcontrappunto to HannahHannah Arendt'sDi Arendt "BanalityBanalità of EvilMale."
373
1143000
3000
Un po' il contrario de "La Banalità del Male" di Hannah Ardent.
19:18
Our traditionaltradizionale societaldella società heroeseroi are wrongsbagliato,
374
1146000
3000
I nostri eroi sociali tradizionali sono sbagliati,
19:21
because they are the exceptionseccezioni.
375
1149000
1000
perchè loro sono eccezioni.
19:22
They organizeorganizzare theirloro wholetotale life around this.
376
1150000
2000
Organizzano tutta la loro vita intorno all'essere eroi.
19:24
That's why we know theirloro namesnomi.
377
1152000
1000
Ecco perchè li conosciamo per nome.
19:25
And our kids'Kids' heroeseroi are alsoanche wrongsbagliato modelsModelli for them,
378
1153000
2000
E gli eroi dei nostri figli sono anche i loro modelli,
19:27
because they have supernaturalsoprannaturale talentstalenti.
379
1155000
2000
perchè hanno poteri soprannaturali.
19:30
We want our kidsbambini to realizerendersi conto mostmaggior parte heroeseroi are everydayogni giorno people,
380
1158000
2000
Noi vogliamo che i bambini capiscano che gli eroi sono persone normali,
19:32
and the heroiceroica actatto is unusualinsolito. This is JoeJoe DarbyDarby.
381
1160000
4000
e che l'atto eroico è insolito. Questo è Joe Darby.
19:36
He was the one that stoppedfermato those abusesabusi you saw,
382
1164000
2000
Lui è quello che ha fermato gli abusi che avete visto,
19:38
because when he saw those imagesimmagini,
383
1166000
2000
perchè quando ha visto quelle foto,
19:40
he turnedtrasformato them over to a senioranziano investigatingindagare officerufficiale.
384
1168000
3000
le ha consegnate ad un ufficiale investigativo anziano.
19:43
He was a low-levelbasso livello privateprivato, and that stoppedfermato it. Was he a heroeroe? No.
385
1171000
3000
Lui era un soldato semplice e ha fermato tutto. Era un eroe? No.
19:47
They had to put him in hidingnascondere, because people wanted to killuccidere him,
386
1175000
3000
Hanno dovuto metterlo sotto protezione, perchè c'era gente che voleva ucciderlo,
19:50
and then his mothermadre and his wifemoglie.
387
1178000
1000
lui, sua madre e sua moglie.
19:51
For threetre yearsanni, they were in hidingnascondere.
388
1179000
2000
Per tre anni sono stati sotto protezione.
19:53
This is the womandonna who stoppedfermato the StanfordStanford PrisonPrigione StudyStudio.
389
1181000
3000
Questa è la donna che ha fermato lo Stanford Prison Study.
19:56
When I said it got out of controlcontrollo, I was the prisonprigione superintendentSovrintendente.
390
1184000
3000
Quando vi ho detto che era fuori controllo, io ero il supervisore della prigione.
19:59
I didn't know it was out of controlcontrollo. I was totallytotalmente indifferentindifferente.
391
1187000
3000
Non sapevo fosse fuori controllo. Ero completamente indifferente.
20:02
She cameè venuto down, saw that madhouseMadhouse and said,
392
1190000
2000
Lei è arrivata, ha visto quella gabbia di matti e ha detto:
20:04
"You know what, it's terribleterribile what you're doing to those boysragazzi.
393
1192000
3000
"Quello che stai facendo a quei ragazzi è terribile, sappilo.
20:07
They're not prisonersprigionieri, they're not guardsguardie,
394
1195000
1000
Non sono prigionieri, non sono guardie,
20:08
they're boysragazzi, and you are responsibleresponsabile."
395
1196000
2000
sono ragazzi, e tu sei responsabile."
20:11
And I endedconclusa the studystudia the nextIl prossimo day.
396
1199000
2000
E ho concluso lo studio il giorno dopo.
20:13
The good newsnotizia is I marriedsposato her the nextIl prossimo yearanno.
397
1201000
2000
La buona notizia è che l'ho sposata l'anno dopo.
20:15
(LaughterRisate)
398
1203000
3000
(Risate)
20:18
(ApplauseApplausi)
399
1206000
7000
(Applausi)
20:25
I just cameè venuto to my sensessensi, obviouslyovviamente.
400
1213000
2000
Ero appena tornato in me, evidentemente.
20:27
So situationssituazioni have the powerenergia to do, throughattraverso --
401
1215000
2000
Quindi le situazioni hanno potere, ma
20:31
but the pointpunto is, this is the samestesso situationsituazione
402
1219000
1000
il punto è che la stessa situazione
20:32
that can inflameinfiammare the hostileostile imaginationimmaginazione in some of us,
403
1220000
4000
che può infiammare l'animo ostile in alcuni di noi
20:36
that makesfa us perpetratorsautori of evilil male,
404
1224000
2000
e farci diventare agenti del male,
20:38
can inspireispirare the heroiceroica imaginationimmaginazione in othersaltri. It's the samestesso situationsituazione.
405
1226000
3000
può ispirare l'immaginazione eroica in altri. La stessa situazione.
20:42
And you're on one sidelato or the other.
406
1230000
1000
E siamo da una parte o dall'altra.
20:43
MostMaggior parte people are guiltycolpevole of the evilil male of inactioninazione,
407
1231000
2000
La maggior parte delle persone sono colpevoli di inazione,
20:45
because your mothermadre said, "Don't get involvedcoinvolti. MindMente your ownproprio businessattività commerciale."
408
1233000
3000
perchè la mamma ha detto: "Non farti coinvolgere, fatti gli affari tuoi."
20:48
And you have to say, "MamaMama, humanityumanità is my businessattività commerciale."
409
1236000
3000
Ma bisogna dire: "Mamma, l'umanità è un mio affare."
20:51
So the psychologyPsicologia of heroismeroismo is -- we're going to endfine in a momentmomento --
410
1239000
2000
La psicologia dell'eroismo è - finiamo tra un secondo -
20:53
how do we encourageincoraggiare childrenbambini in newnuovo heroeroe coursescorsi,
411
1241000
4000
come incoraggiare i bambini verso direzioni eroiche,
20:57
that I'm workinglavoro with MattMatt LangdonLangdon -- he has a heroeroe workshoplaboratorio --
412
1245000
3000
e sto lavorando con Matt Langdon - lui tiene un corso per eroi -
21:00
to developsviluppare this heroiceroica imaginationimmaginazione, this self-labelingetichetta automatica,
413
1248000
3000
per sviluppare l'immaginazione eroica, questo auto-definirsi:
21:03
"I am a heroeroe in waitingin attesa," and teachinsegnare them skillsabilità.
414
1251000
3000
"Sono un eroe in attesa" e insegnare capacità.
21:06
To be a heroeroe, you have to learnimparare to be a deviantdeviante,
415
1254000
2000
Per essere un eroe devi imparare ad essere un deviante,
21:09
because you're always going againstcontro the conformityconformità of the groupgruppo.
416
1257000
2000
perchè andrai sempre contro il conformismo del gruppo.
21:11
HeroesHeroes are ordinaryordinario people whosedi chi socialsociale actionsAzioni are extraordinarystraordinario. Who actatto.
417
1259000
4000
Gli eroi sono persone normali le cui azioni sono straordinarie. Persone che agiscono.
21:15
The keychiave to heroismeroismo is two things.
418
1263000
2000
La chiave per l'eroismo ha due parti.
21:17
A: you've got to actatto when other people are passivepassivo.
419
1265000
2000
A: devi agire quando le altre persone sono passive.
21:20
B: you have to actatto socio-centricallysocio-centrically, not egocentricallyegocentrico.
420
1268000
3000
B: devi agire in modo socio-centrico, non egocentrico.
21:23
And I want to endfine with the storystoria that some of you know,
421
1271000
2000
Vorrei concludere con una storia che alcuni di voi conoscono,
21:25
about WesleyWesley AutreyAutrey, NewNuovo YorkYork subwaymetropolitana heroeroe.
422
1273000
2000
la storia di Wesley Autrey, eroe della metro di New York.
21:27
Fifty-year-oldCinquanta-anno-vecchio African-AmericanAfrican-American constructioncostruzione workerlavoratore.
423
1275000
2000
Afro-Americano di 50 anni, muratore.
21:29
He's standingin piedi on a subwaymetropolitana in NewNuovo YorkYork.
424
1277000
2000
Sta aspettando la metro a New York
21:31
A whitebianca guy fallscadute on the tracksbrani.
425
1279000
1000
e un tizio bianco cade sui binari.
21:32
The subwaymetropolitana traintreno is comingvenuta. There's 75 people there.
426
1280000
3000
Il treno sta arrivando. Ci sono 75 persone.
21:35
You know what? They freezecongelare.
427
1283000
1000
Che fanno? Si bloccano.
21:36
He's got a reasonragionare not to get involvedcoinvolti.
428
1284000
2000
Lui ha delle ragioni per non essere coinvolto.
21:38
He's blacknero, the guy'sragazzo di whitebianca, and he's got two little kidsbambini.
429
1286000
2000
Lui è nero, il tizio è bianco, e ha due bambini.
21:41
InsteadInvece, he gives his kidsbambini to a strangersconosciuto,
430
1289000
1000
Invece, affida i bambini ad uno sconosciuto,
21:42
jumpssalti on the tracksbrani, putsmette the guy betweenfra the tracksbrani,
431
1290000
3000
salta sui binari, mette il tizio in mezzo ai binari,
21:45
liesbugie on him, the subwaymetropolitana goesva over him.
432
1293000
2000
si sdraia su di lui e il treno gli passa sopra.
21:47
WesleyWesley and the guy -- 20 and a halfmetà inchespollici heightaltezza.
433
1295000
3000
Wesley e il tizio: 20 pollici e mezzo di altezza.
21:51
The traintreno clearanceliquidazione is 21 inchespollici.
434
1299000
2000
Il treno lascia uno spazio di 21 pollici.
21:53
A halfmetà an inchpollice would have takenprese his headcapo off.
435
1301000
2000
Mezzo pollice in più e gli si sarebbe staccata la testa.
21:56
And he said, "I did what anyonechiunque could do,"
436
1304000
3000
Lui ha detto: "Ho fatto quello che avrebbe potuto fare chiunque."
21:59
no biggrande dealaffare to jumpsaltare on the tracksbrani.
437
1307000
1000
Saltare sui binari non è stato niente di che.
22:00
And the moralmorale imperativeimperativo is "I did what everyonetutti should do."
438
1308000
4000
Ma l'imperativo morale è "Ho fatto quello che tutti avrebbero dovuto fare."
22:04
And so one day, you will be in a newnuovo situationsituazione.
439
1312000
2000
Un giorno, voi sarete in una situazione nuova.
22:07
Take pathsentiero one, you're going to be a perpetratorautore of evilil male.
440
1315000
2000
Prendete la strada A, e sarete agenti del male.
22:09
EvilMale, meaningsenso you're going to be ArthurArthur AndersenAndersen.
441
1317000
3000
Nel senso che sarete Arthur Anderson (Scandalo Enron).
22:12
You're going to cheatCheat, or you're going to allowpermettere bullyingil bullismo.
442
1320000
2000
Ingannerete, oppure permetterete atti di bullismo.
22:14
PathPercorso two, you becomediventare guiltycolpevole of the evilil male of passivepassivo inactioninazione.
443
1322000
2000
Strada B: vi rendete colpevoli di passività e non agite.
22:17
PathPercorso threetre, you becomediventare a heroeroe.
444
1325000
1000
Strada C: diventate un eroe.
22:18
The pointpunto is, are we readypronto to take the pathsentiero
445
1326000
3000
Il punto è: siamo pronti a prendere la strada
22:21
to celebratingfesteggia ordinaryordinario heroeseroi,
446
1329000
2000
per celebrare eroi ordinari,
22:23
waitingin attesa for the right situationsituazione to come alonglungo
447
1331000
2000
aspettando che la situazione giusta si presenti,
22:25
to put heroiceroica imaginationimmaginazione into actionazione?
448
1333000
2000
per trasformare l'immaginazione eroica in azione?
22:27
Because it maypuò only happenaccadere onceuna volta in your life,
449
1335000
3000
Perchè potrebbe succedere una sola volta nella vita,
22:31
and when you passpassaggio it by, you'llpotrai always know,
450
1339000
1000
e se la lasciate scappare lo saprete sempre,
22:32
I could have been a heroeroe and I let it passpassaggio me by.
451
1340000
3000
avreste potuto essere un eroe e avete perso l'occasione.
22:35
So the pointpunto is thinkingpensiero it and then doing it.
452
1343000
2000
Il punto è pensarlo e poi farlo.
22:37
So I want to thank you. Thank you. Thank you.
453
1345000
3000
Vorrei ringraziarvi. Grazie. Grazie.
22:40
Let's opposeopporsi al the powerenergia of evilil male systemssistemi at home and abroadall'estero,
454
1348000
3000
Opponiamoci al potere dei sistemi malvagi qui e all'estero,
22:43
and let's focusmessa a fuoco on the positivepositivo.
455
1351000
2000
e concentriamoci sul positivo.
22:45
AdvocateAvvocato for respectrispetto of personalpersonale dignitydignità, for justicegiustizia and peacepace,
456
1353000
3000
Pretendete il rispetto per la dignità personale, per la giustizia e la pace,
22:48
whichquale sadlyPurtroppo our administrationamministrazione has not been doing.
457
1356000
2000
cose che la nostra amministrazione (Bush) non ha fatto.
22:50
ThanksGrazie so much.
458
1358000
1000
Molte grazie.
22:51
(ApplauseApplausi)
459
1359000
13000
(Applausi)
Translated by Alberto Pagani
Reviewed by Barbara Casarini

▲Back to top

ABOUT THE SPEAKER
Philip Zimbardo - Psychologist
Philip Zimbardo was the leader of the notorious 1971 Stanford Prison Experiment -- and an expert witness at Abu Ghraib. His book The Lucifer Effect explores the nature of evil; now, in his new work, he studies the nature of heroism.

Why you should listen

Philip Zimbardo knows what evil looks like. After serving as an expert witness during the Abu Ghraib trials, he wrote The Lucifer Effect: Understanding How Good People Turn Evil. From Nazi comic books to the tactics of used-car salesmen, he explores a wealth of sources in trying to explain the psychology of evil.

A past president of the American Psychological Association and a professor emeritus at Stanford, Zimbardo retired in 2008 from lecturing, after 50 years of teaching his legendary introductory course in psychology. In addition to his work on evil and heroism, Zimbardo recently published The Time Paradox, exploring different cultural and personal perspectives on time.

Still well-known for his controversial Stanford Prison Experiment, Zimbardo in his new research looks at the psychology of heroism. He asks, "What pushes some people to become perpetrators of evil, while others act heroically on behalf of those in need?"

More profile about the speaker
Philip Zimbardo | Speaker | TED.com