ABOUT THE SPEAKER
Philip Zimbardo - Psychologist
Philip Zimbardo was the leader of the notorious 1971 Stanford Prison Experiment -- and an expert witness at Abu Ghraib. His book The Lucifer Effect explores the nature of evil; now, in his new work, he studies the nature of heroism.

Why you should listen

Philip Zimbardo knows what evil looks like. After serving as an expert witness during the Abu Ghraib trials, he wrote The Lucifer Effect: Understanding How Good People Turn Evil. From Nazi comic books to the tactics of used-car salesmen, he explores a wealth of sources in trying to explain the psychology of evil.

A past president of the American Psychological Association and a professor emeritus at Stanford, Zimbardo retired in 2008 from lecturing, after 50 years of teaching his legendary introductory course in psychology. In addition to his work on evil and heroism, Zimbardo recently published The Time Paradox, exploring different cultural and personal perspectives on time.

Still well-known for his controversial Stanford Prison Experiment, Zimbardo in his new research looks at the psychology of heroism. He asks, "What pushes some people to become perpetrators of evil, while others act heroically on behalf of those in need?"

More profile about the speaker
Philip Zimbardo | Speaker | TED.com
TED2008

Philip Zimbardo: The psychology of evil

Philiip Zimbardo: cómo la gente corriente se convierte en monstruos... o héroes

Filmed:
7,078,283 views

Philip Zimbardo sabe lo fácil que es que la buena gente se vuelva mala. En su charla, comparte atinadas percepciones y fotos gráficas de los juicios de Abu Ghraib. Pero también habla de la otra cara de la moneda: lo fácil que es ser un héroe y cómo se puede estar a la altura.
- Psychologist
Philip Zimbardo was the leader of the notorious 1971 Stanford Prison Experiment -- and an expert witness at Abu Ghraib. His book The Lucifer Effect explores the nature of evil; now, in his new work, he studies the nature of heroism. Full bio

Double-click the English transcript below to play the video.

00:13
PhilosophersFilósofos, dramatistsdramaturgos, theologiansteólogos
0
1000
3000
Filósofos, dramaturgos, teólogos
00:16
have grappledluchado with this questionpregunta for centuriessiglos:
1
4000
2000
han lidiado con esta pregunta durante siglos:
00:18
what makeshace people go wrongincorrecto?
2
6000
2000
¿Qué hace que la gente se equivoque?
00:20
InterestinglyInteresantemente, I askedpreguntó this questionpregunta when I was a little kidniño.
3
8000
2000
Curiosamente, solía hacer la misma pregunta cuando era pequeño.
00:23
When I was a kidniño growingcreciente up in the SouthSur BronxBronx, inner-citycentro de la ciudad ghettoghetto
4
11000
2000
Cuando era pequeño, en el Bronx, un gueto urbano en Nueva York,
00:25
in NewNuevo YorkYork, I was surroundedrodeado by evilmal,
5
13000
2000
me rodeaba el mal,
00:28
as all kidsniños are who grewcreció up in an innerinterior cityciudad.
6
16000
2000
como a todos los niños que crecen en un barrio urbano.
00:30
And I had friendsamigos who were really good kidsniños,
7
18000
2000
Y tenía amigos que eran muy buenos chicos,
00:32
who livedvivió out the DrDr. JekyllJekyll MrSeñor. HydeHyde scenarioguión -- RobertRobert LouisLouis StevensonStevenson.
8
20000
4000
que vivían en el mundo de Dr. Jekyll – Mr. Hyde -- Robert Louis Stevenson.
00:36
That is, they tooktomó drugsdrogas, got in troubleproblema, wentfuimos to jailcárcel.
9
24000
4000
Es decir, tomaban drogas, se metían en problemas, iban a la cárcel.
00:40
Some got killeddelicado, and some did it withoutsin drugdroga assistanceasistencia.
10
28000
4000
A algunos los mataron, otros lo hicieron sin necesidad de droga.
00:44
So when I readleer RobertRobert LouisLouis StevensonStevenson, that wasn'tno fue fictionficción.
11
32000
3000
Así que cuando leí a Robert Louis Stevenson, no me pareció ficción.
00:47
The only questionpregunta is, what was in the juicejugo?
12
35000
1000
La única pregunta es, ¿qué les habían dado?
00:48
And more importantlyen tono rimbombante, that linelínea betweenEntre good and evilmal --
13
36000
5000
Y, lo que es más importante, esa línea entre el bien y el mal --
00:53
whichcual privilegedprivilegiado people like to think is fixedfijo and impermeableimpermeable,
14
41000
3000
que a los privilegiados les gusta pensar que es fija e impermeable,
00:56
with them on the good sidelado, and the othersotros on the badmalo sidelado --
15
44000
3000
estando ellos en la parte buena, y los otros en la mala --
00:59
I knewsabía that linelínea was movablemóvil, and it was permeablepermeable.
16
47000
3000
Yo sabía que esa línea era móvil y permeable.
01:02
Good people could be seducedseducido acrossa través de that linelínea,
17
50000
2000
A la buena gente se le podía seducir para cruzarla,
01:05
and underdebajo good and some rareraro circumstancescircunstancias, badmalo kidsniños could recoverrecuperar
18
53000
3000
y en circunstancias buenas y en algunas raras los niños malos podían recuperarse
01:08
with help, with reformreforma, with rehabilitationrehabilitación.
19
56000
3000
con ayuda, reforma, rehabilitación.
01:12
So I want to beginempezar with this this wonderfulmaravilloso illusionespejismo
20
60000
2000
Quiero empezar con esta maravillosa ilusión
01:14
by [Dutchholandés] artistartista M.C. EscherEscher.
21
62000
2000
del artista holandés M.C. Escher.
01:17
If you look at it and focusatención on the whiteblanco,
22
65000
1000
Si lo miran y se centran en lo blanco
01:18
what you see is a worldmundo fullcompleto of angelsángeles.
23
66000
2000
lo que ven es un mundo lleno de ángeles.
01:20
But let's look more deeplyprofundamente, and as we do,
24
68000
3000
Pero miremos más cuidadosamente, y mientras lo hacemos
01:23
what appearsaparece is the demonsdemonios, the devilsdiablos in the worldmundo.
25
71000
3000
lo que aparecen son demonios, los diablos del mundo.
01:27
And that tellsdice us severalvarios things.
26
75000
1000
Y eso nos dice algunas cosas.
01:28
One, the worldmundo is, was, will always be filledlleno with good and evilmal,
27
76000
3000
Una: es mundo está, estuvo y siempre estará lleno de bien y mal,
01:31
because good and evilmal is the yinyin and yangYang of the humanhumano conditioncondición.
28
79000
3000
porque el bien y el mal son el Yin y el Yang de la condición humana.
01:34
It tellsdice me something elsemás. If you rememberrecuerda,
29
82000
2000
Me dice algo más. Si se acuerdan, el ángel favorito
01:36
God'sGallinero favoritefavorito angelángel was LuciferLucifer.
30
84000
3000
de Dios era Lucifer.
01:39
ApparentlyAparentemente, LuciferLucifer meansmedio "the lightligero."
31
87000
2000
Aparentemente, Lucifer significa "la luz".
01:42
It alsoademás meansmedio "the morningMañana starestrella," in some scriptureSagrada Escritura.
32
90000
2000
También significa "la estrella de la mañana" en algunas escrituras.
01:44
And apparentlyaparentemente, he disobeyeddesobedecido God,
33
92000
3000
Y parece que desobedeció a Dios,
01:47
and that's the ultimateúltimo disobediencedesobediencia to authorityautoridad.
34
95000
3000
y esa es la máxima desobediencia a la autoridad.
01:50
And when he did, MichaelMiguel, the archangelarcángel, was sentexpedido
35
98000
3000
Y cuando lo hizo, enviaron al arcángel Miguel
01:54
to kickpatada him out of heavencielo alonga lo largo with the other fallencaído angelsángeles.
36
102000
3000
a sacarlo del cielo junto con los demás ángeles caídos.
01:57
And so LuciferLucifer descendsdesciende into hellinfierno, becomesse convierte SatanSatán,
37
105000
3000
Y Lucifer desciende al infierno, se convierte en Satán,
02:01
becomesse convierte the devildiablo, and the forcefuerza of evilmal in the universeuniverso beginscomienza.
38
109000
2000
en el diablo, y nace la fuerza del mal en el universo.
02:03
ParadoxicallyParadójicamente, it was God who createdcreado hellinfierno as a placelugar to storealmacenar evilmal.
39
111000
5000
Paradójicamente, fue Dios quien creó el infierno para guardar el mal.
02:09
He didn't do a good jobtrabajo of keepingacuerdo it there thoughaunque.
40
117000
1000
Pero fracaso en mantenerlo ahí.
02:10
So, this arcarco of the cosmiccósmico transformationtransformación
41
118000
3000
Así que este arco de la transformación cósmica
02:13
of God'sGallinero favoritefavorito angelángel into the DevilDiablo,
42
121000
2000
del ángel favorito de Dios en el Demonio,
02:15
for me, setsconjuntos the contextcontexto for understandingcomprensión humanhumano beingsseres
43
123000
4000
para mí, establece el contexto para entender a los seres humanos
02:19
who are transformedtransformado from good, ordinaryordinario people
44
127000
3000
que se pasan de ser gente normal y buena
02:22
into perpetratorsperpetradores of evilmal.
45
130000
2000
a agentes del mal.
02:24
So the LuciferLucifer effectefecto, althougha pesar de que it focusesenfoques on the negativesnegativos --
46
132000
4000
Así que el Efecto Lucifer, aunque se centra en lo negativo --
02:28
the negativesnegativos that people can becomevolverse,
47
136000
3000
en lo negativo en que se puede convertir la gente,
02:31
not the negativesnegativos that people are --
48
139000
1000
no en lo negativo que ya son --
02:32
leadsconduce me to a psychologicalpsicológico definitiondefinición. EvilMal is the exerciseejercicio of powerpoder.
49
140000
6000
me lleva a una definición psicológica: el mal es el ejercicio del poder.
02:38
And that's the keyllave: it's about powerpoder.
50
146000
2000
Y esa es la clave: se trata de poder.
02:40
To intentionallyintencionalmente harmdaño people psychologicallypsicológicamente,
51
148000
3000
Hacer daño psicológico a la gente a propósito,
02:44
to hurtherir people physicallyfísicamente, to destroydestruir people mortallymortalmente, or ideasideas,
52
152000
3000
herir físicamente a la gente, destruirla mortalmente, o a sus ideas,
02:47
and to commitcometer crimescrímenes againsten contra humanityhumanidad.
53
155000
2000
y cometer crímenes contra la humanidad.
02:51
If you GoogleGoogle "evilmal," a wordpalabra that should surelyseguramente have witheredmarchito by now,
54
159000
3000
Si buscas "mal" en Google, una palabra que debería haberse desvanecido,
02:54
you come up with 136 millionmillón hitsgolpes in a thirdtercero of a secondsegundo.
55
162000
4000
te salen 136 millones de entradas en un tercio de segundo.
02:58
A fewpocos yearsaños agohace -- I am sure all of you were shockedconmocionado, as I was,
56
166000
4000
Hace unos años -- estoy seguro de que todos se impresionaron, como yo,
03:02
with the revelationrevelación of Americanamericano soldierssoldados
57
170000
3000
con la revelación de que los soldados americanos
03:05
abusingabusando prisonerspresos in a strangeextraño placelugar
58
173000
3000
abusaron de prisioneros en un lugar extraño
03:08
in a controversialpolémico warguerra, AbuAbu GhraibGhraib in IraqIrak.
59
176000
3000
en una guerra controvertida: Abu Ghraib en Irak.
03:11
And these were menhombres and womenmujer
60
179000
1000
Y estos eran hombres y mujeres
03:12
who were puttingponiendo prisonerspresos throughmediante unbelievableincreíble humiliationhumillación.
61
180000
5000
que estaban sometiendo a los prisioneros a una humillación increíble.
03:18
I was shockedconmocionado, but I wasn'tno fue surprisedsorprendido,
62
186000
1000
Me impresionó, pero no me sorprendí,
03:19
because I had seenvisto those samemismo visualvisual parallelsparalelas
63
187000
2000
porque había visto los mismos paralelismos visuales
03:22
when I was the prisonprisión superintendentsuperintendente of the StanfordStanford PrisonPrisión StudyEstudiar.
64
190000
3000
cuando fui encargado de prisión en el Estudio de la Prisión de Stanford.
03:25
ImmediatelyInmediatamente the BushArbusto administrationadministración militarymilitar said ... what?
65
193000
2000
Inmediatamente el ejército de la administración Bush dijo... ¿qué?
03:28
What all administrationsadministraciones say when there's a scandalescándalo.
66
196000
2000
Lo que todos los administradores dicen cuando hay un escándalo.
03:30
"Don't blameculpa us. It's not the systemsistema. It's the fewpocos badmalo applesmanzanas,
67
198000
3000
No nos culpen. No es el sistema. Son unas pocas manzanas podridas,
03:34
the fewpocos roguepícaro soldierssoldados."
68
202000
1000
unos pocos soldados malvados.
03:35
My hypothesishipótesis is, Americanamericano soldierssoldados are good, usuallygeneralmente.
69
203000
3000
Mi hipótesis es que normalmente los soldados americanos son buenos.
03:38
Maybe it was the barrelbarril that was badmalo.
70
206000
2000
Tal vez era la cesta la que estaba mala.
03:40
But how am I going to -- how am I going to dealacuerdo with that hypothesishipótesis?
71
208000
3000
Pero cómo voy a -- ¿cómo voy a tratar esa hipótesis?
03:43
I becameconvirtió an expertexperto witnesstestigo
72
211000
1000
Me convertí en testigo experto
03:44
for one of the guardsguardias, SergeantSargento ChipChip FrederickFrederick,
73
212000
2000
para uno de los guardas, el Sargento Chip Frederick,
03:46
and in that positionposición, I had accessacceso to the dozendocena investigativeinvestigador reportsinformes.
74
214000
4000
y de ese modo tuve acceso a docenas de informes investigativos.
03:50
I had accessacceso to him. I could studyestudiar him,
75
218000
3000
Tuve acceso a él. Pude estudiarlo,
03:54
have him come to my home, get to know him,
76
222000
1000
llevarlo a mi casa, conocerlo,
03:55
do psychologicalpsicológico analysisanálisis to see, was he a good applemanzana or badmalo applemanzana.
77
223000
4000
hacer análisis psicológicos para ver si era una manzana fresca o podrida.
03:59
And thirdlyen tercer lugar, I had accessacceso to all of the 1,000 picturesimágenes
78
227000
4000
En tercer lugar, tuve acceso a las 1.000 fotos tomadas
04:03
that these soldierssoldados tooktomó.
79
231000
1000
por estos soldados.
04:05
These picturesimágenes are of a violentviolento or sexualsexual naturenaturaleza.
80
233000
2000
Estas fotos son de naturaleza violenta o sexual,
04:07
All of them come from the camerascámaras of Americanamericano soldierssoldados.
81
235000
3000
y todas las hicieron cámaras de soldados americanos.
04:11
Because everybodytodos has a digitaldigital cameracámara or cellcelda phoneteléfono cameracámara,
82
239000
2000
Como todo el mundo tiene una cámara digital o un móvil con cámara,
04:13
they tooktomó picturesimágenes of everything. More than 1,000.
83
241000
2000
sacaron fotos de todo. Más de 1.000.
04:16
And what I've donehecho is I organizedorganizado them into variousvarios categoriescategorías.
84
244000
2000
Y lo que he hecho es organizarlas en varias categorías.
04:18
But these are by UnitedUnido StatesEstados militarymilitar policepolicía, armyEjército reservistsreservistas.
85
246000
5000
Pero éstas las tomó la Policía Militar de EE.UU, los Reservistas.
04:24
They are not soldierssoldados preparedpreparado for this missionmisión at all.
86
252000
3000
No son soldados preparados para esta misión en absoluto.
04:27
And it all happenedsucedió in a singlesoltero placelugar, TierNivel 1-A-UN, on the night shiftcambio.
87
255000
5000
Y todo sucedió en un sólo lugar, Piso 1A, durante el turno de noche.
04:32
Why? TierNivel 1-A-UN was the centercentrar for militarymilitar intelligenceinteligencia.
88
260000
3000
¿Por qué? El piso 1A era el centro de inteligencia militar,
04:35
It was the interrogationinterrogatorio holdsostener. The CIACIA was there.
89
263000
3000
donde sucedían los interrogatorios. La CIA estaba allí.
04:39
InterrogatorsInterrogadores from TitanTitán CorporationCorporación, all there,
90
267000
2000
Interrogadores de la Corporación Titán, todos allí,
04:41
and they're gettingconsiguiendo no informationinformación about the insurgencyinsurrección.
91
269000
3000
y como no están consiguiendo información sobre la insurgencia,
04:45
So they're going to put pressurepresión on these soldierssoldados,
92
273000
1000
van a presionar a estos soldados,
04:46
militarymilitar policepolicía, to crosscruzar the linelínea,
93
274000
2000
a la Policía Militar, para que se pasen de la raya,
04:49
give them permissionpermiso to breakdescanso the will of the enemyenemigo,
94
277000
3000
darles permiso para romper la voluntad del enemigo,
04:52
to preparepreparar them for interrogationinterrogatorio, to softenablandar them up,
95
280000
2000
prepararlos para interrogatorios, ablandarlos,
04:54
to take the glovesguantes off. Those are the euphemismseufemismos,
96
282000
2000
para quitarse los guantes. Esos son los eufemismos,
04:56
and this is how it was interpretedinterpretado.
97
284000
3000
y así es como se interpretó.
05:00
Let's go down to that dungeonmazmorra.
98
288000
1000
Bajemos a esa mazmorra.
05:01
(CameraCámara shutterobturador)
99
289000
37000
(Obturador de cámara)
05:38
(ThudsThuds)
100
326000
6000
(Ruido sordo)
05:45
(CameraCámara shutterobturador)
101
333000
14000
(Obturador de cámara)
05:59
(ThudsThuds)
102
347000
10000
(Ruido sordo)
06:09
(BreathingRespiración)
103
357000
8000
(Respiración)
06:17
(BellsCampanas)
104
365000
31000
(Campanas)
06:49
So, prettybonita horrifichorrendo.
105
397000
3000
Bastante horrible.
06:52
That's one of the visualvisual illustrationsilustraciones of evilmal.
106
400000
3000
Esa es una de las ilustraciones visuales del mal.
06:55
And it should not have escapedescapado you that
107
403000
1000
Y no se les debería haber pasado que la razón
06:56
the reasonrazón I pairedemparejado the prisonerprisionero with his armsbrazos out
108
404000
4000
por la que emparejé al prisionero con los brazos extendidos
07:00
with LeonardoLeonardo dada Vinci'sVinci de odeoda to humanityhumanidad
109
408000
3000
con la Oda a la Humanidad de Leonardo da Vinci,
07:03
is that that prisonerprisionero was mentallymentalmente illenfermo.
110
411000
2000
es que el prisionero era un enfermo mental.
07:05
That prisonerprisionero coveredcubierto himselfél mismo with shitmierda everycada day,
111
413000
2000
Se cubría de mierda todos los días,
07:07
and they used to have to rollrodar him in dirtsuciedad so he wouldn'tno lo haría stinkhedor.
112
415000
3000
y solían hacerlo rodar sobre suciedad para que no apestara.
07:10
But the guardsguardias endedterminado up callingvocación him "ShitMierda BoyChico."
113
418000
2000
Pero los guardas terminaron llamándole Shit Boy (Chico Mierda).
07:12
What was he doing in that prisonprisión
114
420000
2000
¿Qué hacía en esa cárcel en vez de
07:14
rathermás bien than in some mentalmental institutioninstitución?
115
422000
3000
en una institución psiquiátrica?
07:17
In any eventevento, here'saquí está formerex SecretarySecretario of DefenseDefensa RumsfeldRumsfeld.
116
425000
3000
De cualquier manera, aquí está el antiguo Ministro de Defensa Rumsfeld.
07:20
He comesproviene down and saysdice, "I want to know, who is responsibleresponsable?
117
428000
2000
Baja y dice: "quiero saber quién es responsable,
07:22
Who are the badmalo applesmanzanas?" Well, that's a badmalo questionpregunta.
118
430000
3000
quiénes son las manzanas podridas". Mala pregunta.
07:25
You have to reframereplantear it and askpedir, "What is responsibleresponsable?"
119
433000
3000
Hay que redefinirla y preguntar: "¿qué es responsable?"
07:28
Because "what" could be the who of people,
120
436000
2000
Porque ese "qué" podría ser el "quién" de dos personas,
07:30
but it could alsoademás be the what of the situationsituación,
121
438000
2000
pero también el "qué" de la situación,
07:32
and obviouslyobviamente that's wrongheadedequivocado y obstinado.
122
440000
2000
y evidentemente ese no es el camino.
07:34
So how do psychologistspsicólogos go about understandingcomprensión
123
442000
2000
Así que, ¿cómo entienden los psicólogos
07:36
suchtal transformationstransformaciones of humanhumano characterpersonaje,
124
444000
2000
tamañas transformaciones del carácter humano,
07:38
if you believe that they were good soldierssoldados
125
446000
2000
si creen que eran buenos soldados
07:40
before they wentfuimos down to that dungeonmazmorra?
126
448000
1000
antes de bajar a esa mazmorra?
07:42
There are threeTres waysformas. The mainprincipal way is -- it's calledllamado dispositionaldisposicional.
127
450000
2000
Hay tres maneras. La principal es la llamada disposicional.
07:44
We look at what's insidedentro of the personpersona, the badmalo applesmanzanas.
128
452000
3000
Miramos al interior de la persona, de la manzana podrida.
07:48
This is the foundationFundación of all of socialsocial scienceciencia,
129
456000
3000
Esa es la base de todas las ciencias sociales,
07:51
the foundationFundación of religionreligión, the foundationFundación of warguerra.
130
459000
2000
la base de la religión, de la guerra.
07:55
SocialSocial psychologistspsicólogos like me come alonga lo largo and say, "Yeah,
131
463000
2000
Los psicólogos sociales como yo dicen, "sí,
07:57
people are the actorsactores on the stageescenario,
132
465000
2000
las personas son los actores en el escenario,
07:59
but you'lltu vas a have to be awareconsciente of what that situationsituación is.
133
467000
2000
pero tendrás que se consciente de cuál es la situación.
08:01
Who are the castemitir of characterscaracteres? What's the costumedisfraz?
134
469000
3000
¿Quiénes son los personajes? ¿Qué disfraz llevan?
08:04
Is there a stageescenario directordirector?"
135
472000
1000
¿Hay un director de escena?"
08:05
And so we're interestedinteresado in, what are the externalexterno factorsfactores
136
473000
2000
Lo que nos interesa son los factores externos que rodean
08:08
around the individualindividual -- the badmalo barrelbarril?
137
476000
2000
al individuo, la cesta podrida.
08:10
And socialsocial scientistscientíficos stop there, and they missperder the biggrande pointpunto
138
478000
3000
Y los científicos sociales se quedan ahí y se pierden lo importante,
08:13
that I discovereddescubierto when I becameconvirtió an expertexperto witnesstestigo for AbuAbu GhraibGhraib.
139
481000
3000
lo que descubrí cuando fui testigo especialista para Abu Ghraib.
08:16
The powerpoder is in the systemsistema.
140
484000
2000
El poder está en el sistema.
08:18
The systemsistema createscrea the situationsituación that corruptscorrompe the individualsindividuos,
141
486000
3000
El sistema crea la situación que corrompe a los individuos,
08:21
and the systemsistema is the legallegal, politicalpolítico, economiceconómico, culturalcultural backgroundfondo.
142
489000
5000
y el sistema es el trasfondo legal, político, económico y cultural.
08:26
And this is where the powerpoder is of the bad-barrelmal barril makerscreadores.
143
494000
3000
Y ahí reside el poder de los que hacen cestas podridas.
08:29
So if you want to changecambio a personpersona, you've got to changecambio the situationsituación.
144
497000
3000
Así que si quieres cambiar a la persona hay que cambiar la situación.
08:32
If you want to changecambio the situationsituación,
145
500000
1000
Si quieres cambiar la situación,
08:33
you've got to know where the powerpoder is, in the systemsistema.
146
501000
2000
tienes que saber que donde está el poder es en el sistema.
08:35
So the LuciferLucifer effectefecto involvesinvolucra understandingcomprensión
147
503000
2000
El Efecto Lucifer implica entender
08:37
humanhumano characterpersonaje transformationstransformaciones with these threeTres factorsfactores.
148
505000
5000
las transformaciones del carácter humano con estos tres factores.
08:43
And it's a dynamicdinámica interplayinteracción.
149
511000
1000
Es una interacción dinámica.
08:44
What do the people bringtraer into the situationsituación?
150
512000
2000
¿Qué aporta la gente a la situación?
08:46
What does the situationsituación bringtraer out of them?
151
514000
2000
¿Qué saca la situación de ellos?
08:48
And what is the systemsistema that createscrea and maintainsmantiene that situationsituación?
152
516000
4000
Y ¿cuál es el sistema que crea y mantiene esa situación?
08:52
So my booklibro, "The LuciferLucifer EffectEfecto," recentlyrecientemente publishedpublicado, is about,
153
520000
2000
Mi reciente libro, The Lucifer Effect (El efecto Lucifer) trata de
08:54
how do you understandentender how good people turngiro evilmal?
154
522000
2000
cómo entendemos que la gente buena se vuelva mala.
08:57
And it has a lot of detaildetalle
155
525000
1000
Y tiene muchos detalles
08:58
about what I'm going to talk about todayhoy.
156
526000
2000
de lo que voy a hablar hoy.
09:01
So DrDr. Z'sZ "LuciferLucifer EffectEfecto," althougha pesar de que it focusesenfoques on evilmal,
157
529000
3000
Así que "El efecto Lucifer" del Dr. Z, aunque se centra en el mal,
09:04
really is a celebrationcelebracion of the humanhumano mind'sla mente
158
532000
2000
es en realidad una celebración de la infinita capacidad
09:06
infiniteinfinito capacitycapacidad to make any of us kindtipo or cruelcruel,
159
534000
4000
de la mente humana de hacernos compasivos o crueles,
09:10
caringcuidando or indifferentindiferente, creativecreativo or destructivedestructivo,
160
538000
3000
comprensivos o indiferentes, creativos o destructivos,
09:13
and it makeshace some of us villainsvillanos.
161
541000
2000
y a algunos de nosotros, villanos.
09:15
And the good newsNoticias storyhistoria that I'm going to hopefullyOjalá come to
162
543000
2000
Las buenas noticias que espero contarles al final
09:18
at the endfin is that it makeshace some of us heroeshéroes.
163
546000
2000
es que a algunos nos hace héroes.
09:20
This is a wonderfulmaravilloso cartoondibujos animados in the NewNuevo YorkerYorker,
164
548000
3000
Esta es una tira cómica maravillosa del New Yorker,
09:23
whichcual really summarizesresume my wholetodo talk:
165
551000
2000
que realmente resume mi charla entera:
09:25
"I'm neitherninguno a good coppolicía norni a badmalo coppolicía, JeromeJerome.
166
553000
2000
"No soy ni el poli bueno ni el poli malo, Jerome.
09:27
Like yourselftú mismo, I'm a complexcomplejo amalgamamalgama
167
555000
2000
Como tú, soy una amalgama compleja
09:29
of positivepositivo and negativenegativo personalitypersonalidad traitsrasgos
168
557000
2000
de cualidades positivas y negativas
09:32
that emergesurgir or not, dependingdependiente on the circumstancescircunstancias."
169
560000
3000
que surgen o no, dependiendo de las circunstancias."
09:35
(LaughterRisa)
170
563000
2000
(Risas)
09:37
There's a studyestudiar some of you think you know about,
171
565000
3000
Hay un estudio sobre el que creen saber algo,
09:40
but very fewpocos people have ever readleer the storyhistoria. You watchedmirado the moviepelícula.
172
568000
4000
pero muy pocas personas han oído la historia. Ustedes han visto la película.
09:44
This is StanleyStanley MilgramMilgram, little Jewishjudío kidniño from the BronxBronx,
173
572000
3000
Este es Stanley Milgrom, un chavalín judío del Bronx,
09:47
and he askedpreguntó the questionpregunta, "Could the HolocaustHolocausto happenocurrir here, now?"
174
575000
3000
que preguntó: "¿podría suceder el holocausto aquí, ahora?"
09:51
People say, "No, that's Nazinazi GermanyAlemania,
175
579000
1000
La gente dice: "No, eso es la Alemania nazi,
09:52
that's HitlerHitler, you know, that's 1939."
176
580000
2000
eso es Hitler, eso es 1939."
09:54
He said, "Yeah, but supposesuponer HitlerHitler askedpreguntó you,
177
582000
2000
Dijo: "Sí, supongan que Hitler les preguntara:
09:56
'Would you electrocuteelectrocutar a strangerdesconocido?' 'No'No way, not me, I'm a good personpersona.' "
178
584000
3000
¿Electrocutarían a un extraño? "No, de ninguna manera, yo no, soy una buena persona."
10:00
He said, "Why don't we put you in a situationsituación
179
588000
1000
Dijo: "¿por qué no les ponemos en una situación
10:01
and give you a chanceoportunidad to see what you would do?"
180
589000
2000
y les damos la oportunidad de ver qué harían?"
10:03
And so what he did was he testedprobado 1,000 ordinaryordinario people.
181
591000
4000
Así que lo que hizo fue poner a prueba a 1.000 personas normales.
10:07
500 NewNuevo HavenRefugio, ConnecticutConnecticut, 500 BridgeportBridgeport.
182
595000
3000
500 de New Haven, Connecticut, 500 de Bridgeport.
10:10
And the adanuncio said, "PsychologistsPsicólogos want to understandentender memorymemoria.
183
598000
4000
El anuncio decía: "Los psicólogos queremos entender la memoria,
10:14
We want to improvemejorar people'sla gente memorymemoria,
184
602000
1000
queremos mejorar la memoria,
10:15
because memorymemoria is the keyllave to successéxito." OK?
185
603000
3000
porque la memoria es la clave del éxito." ¿De acuerdo?
10:18
"We're going to give you fivecinco bucksdinero -- fourlas cuatro dollarsdólares for your time."
186
606000
5000
Les daremos cinco dólares -- cuatro dólares por su tiempo.
10:24
And it said, "We don't want collegeUniversidad studentsestudiantes.
187
612000
1000
Y decía: "No queremos universitarios;
10:25
We want menhombres betweenEntre 20 and 50."
188
613000
2000
queremos hombres entre 20 y 50"
10:27
In the laterluego studiesestudios, they rancorrió womenmujer.
189
615000
1000
-- en estudios posteriores usaron mujeres --
10:28
OrdinaryOrdinario people: barberspeluquería, clerksempleados, white-collarde cuello blanco people.
190
616000
4000
gente normal: barberos, oficinistas, trabajadores no manuales.
10:32
So, you go down, and one of you is going to be a learneraprendiz,
191
620000
3000
Así que bajan, y uno de ustedes será aprendiz,
10:35
and one of you is going to be a teacherprofesor.
192
623000
1000
y otro será maestro
10:36
The learner'saprendiz a genialgenial, middle-agedde edad mediana guy.
193
624000
2000
El aprendiz es un tipo simpático de mediana edad.
10:38
He getsse pone tiedatado up to the shockchoque apparatusaparato in anotherotro roomhabitación.
194
626000
3000
Se le ata a un aparato de descargas en otra habitación.
10:41
The learneraprendiz could be middle-agedde edad mediana, could be as youngjoven as 20.
195
629000
3000
El aprendiz podría ser de mediana edad o un joven de veinte.
10:44
And one of you is told by the authorityautoridad, the guy in the lablaboratorio coatcapa,
196
632000
4000
Y la autoridad, el tipo de la bata, le dice a uno de ustedes:
10:48
"Your jobtrabajo as teacherprofesor is to give this guy materialmaterial to learnaprender.
197
636000
3000
"Tu trabajo como maestro es darle a este tipo material para aprender.
10:51
GetsObtiene it right, rewardrecompensa him.
198
639000
1000
Lo hace bien, le recompensas.
10:52
GetsObtiene it wrongincorrecto, you pressprensa a buttonbotón on the shockchoque boxcaja.
199
640000
2000
Lo hace mal, aprietas un botón de descarga.
10:54
The first buttonbotón is 15 voltsvoltios. He doesn't even feel it."
200
642000
3000
El primer botón es 15 voltios. Ni lo siente."
10:58
That's the keyllave. All evilmal startsempieza with 15 voltsvoltios.
201
646000
3000
Esa es la clave. Todo mal empieza con 15 voltios.
11:01
And then the nextsiguiente steppaso is anotherotro 15 voltsvoltios.
202
649000
2000
El paso siguiente son otros 15 voltios.
11:04
The problemproblema is, at the endfin of the linelínea, it's 450 voltsvoltios.
203
652000
2000
El problema es que al final son 450 voltios.
11:06
And as you go alonga lo largo, the guy is screaminggritando,
204
654000
3000
Y mientras lo haces el tipo está gritando:
11:09
"I've got a heartcorazón conditioncondición! I'm out of here!"
205
657000
2000
¡Tengo problemas de corazón! ¡Me voy de aquí!
11:11
You're a good personpersona. You complainquejar.
206
659000
2000
Tú eres una buena persona. Protestas.
11:13
"Sirseñor, who'squien es going to be responsibleresponsable if something happenssucede to him?"
207
661000
2000
Señor, ¿quién es responsable si le pasa algo?
11:15
The experimenterexperimentador saysdice, "Don't worrypreocupación, I will be responsibleresponsable.
208
663000
3000
El experimentador dice, "No se preocupe, yo seré responsable.
11:18
ContinueContinuar, teacherprofesor."
209
666000
1000
Continúe, maestro."
11:19
And the questionpregunta is, who would go all the way to 450 voltsvoltios?
210
667000
4000
Y la pregunta es: ¿quién llegaría hasta los 450 voltios?
11:24
You should noticedarse cuenta here, when it getsse pone up to 375,
211
672000
2000
Aquí han de darse cuenta de que cuando llega a 375
11:26
it saysdice, "DangerPeligro. SevereGrave ShockChoque."
212
674000
1000
dice: "Peligro: descarga fuerte."
11:28
When it getsse pone up to here, there's "XXXXXX" -- the pornographypornografía of powerpoder.
213
676000
3000
Cuando llega aquí, son "XXX": la pornografía del poder.
11:31
(LaughterRisa)
214
679000
1000
(Risas)
11:32
So MilgramMilgram askspregunta 40 psychiatristspsiquiatras,
215
680000
1000
Así que Milgrom le pregunta a 40 psiquiatras,
11:33
"What percentpor ciento of Americanamericano citizenslos ciudadanos would go to the endfin?"
216
681000
3000
¿Qué porcentaje de americanos llegaría hasta el final?
11:37
They said only one percentpor ciento. Because that's sadisticsádico behaviorcomportamiento,
217
685000
3000
Dijeron que sólo el 1%. Porque eso es comportamiento sádico,
11:40
and we know, psychiatrypsiquiatría knowssabe, only one percentpor ciento of AmericansAmericanos are sadisticsádico.
218
688000
3000
y sabemos, la psiquiatría sabe, que sólo el 1% de los americanos son sádicos.
11:44
OK. Here'sAquí está the datadatos. They could not be more wrongincorrecto.
219
692000
4000
De acuerdo. Aquí están los datos. No podrían estar más equivocados.
11:48
Two thirdstercios go all the way to 450 voltsvoltios. This was just one studyestudiar.
220
696000
5000
Dos tercios llegan hasta 450 voltios. Eso fue sólo un estudio.
11:53
MilgramMilgram did more than 16 studiesestudios. And look at this.
221
701000
3000
Milgram hizo más de 16. Y miren esto.
11:56
In studyestudiar 16, where you see somebodyalguien like you go all the way,
222
704000
4000
En el estudio 16, donde ven a alguien como ustedes llegar al final,
12:00
90 percentpor ciento go all the way. In studyestudiar fivecinco, if you see people rebelrebelde, 90 percentpor ciento rebelrebelde.
223
708000
6000
90% llegan al final. En el estudio 5, si ven que la gente se rebela, el 90% se rebela.
12:06
What about womenmujer? StudyEstudiar 13 -- no differentdiferente than menhombres.
224
714000
3000
¿Y las mujeres? Estudio 13: iguales a los hombres.
12:10
So MilgramMilgram is quantifyingcuantificando evilmal as the willingnesscomplacencia of people
225
718000
3000
Milgrom cuantifica el mal como la disposición de la gente
12:13
to blindlya ciegas obeyobedecer authorityautoridad, to go all the way to 450 voltsvoltios.
226
721000
3000
a obedecer ciegamente a la autoridad, de llegar a los 450 voltios.
12:16
And it's like a dialmarcar on humanhumano naturenaturaleza.
227
724000
2000
Es como una escala de control de la naturaleza humana.
12:18
A dialmarcar in a sensesentido that you can make almostcasi everybodytodos totallytotalmente obedientobediente,
228
726000
4000
Escala de control en el sentido de que casi a cualquiera se le puede volver obediente
12:23
down to the majoritymayoria, down to noneninguna.
229
731000
2000
a la mayoría o a nadie.
12:25
So what are the externalexterno parallelsparalelas? For all researchinvestigación is artificialartificial.
230
733000
4000
¿Cuáles son los paralelismos externos? Puesto que toda investigación es artificial.
12:29
What's the validityvalidez in the realreal worldmundo?
231
737000
1000
¿Cuál es la validez en el mundo real?
12:30
912 Americanamericano citizenslos ciudadanos committedcomprometido suicidesuicidio or were murderedasesinado
232
738000
4000
912 americanos se suicidaron o fueron asesinados por su familia
12:34
by familyfamilia and friendsamigos in GuyanaGuayana jungleselva in 1978,
233
742000
3000
o sus amigos en la selva de Guyana en 1978,
12:37
because they were blindlya ciegas obedientobediente to this guy, theirsu pastorpastor --
234
745000
3000
porque obedecieron ciegamente a su pastor.
12:40
not theirsu priestsacerdote -- theirsu pastorpastor, ReverendReverendo JimJim JonesJones.
235
748000
2000
No su cura. Su pastor, el Reverendo Jim Jones.
12:42
He persuadedpersuadido them to commitcometer massmasa suicidesuicidio.
236
750000
3000
Los convenció para que se suicidaran todos.
12:46
And so, he's the modernmoderno LuciferLucifer effectefecto,
237
754000
1000
Él es el Efecto Lucifer moderno.
12:47
a man of God who becomesse convierte the AngelÁngel of DeathMuerte.
238
755000
3000
Un hombre de Dios que se convierte en el Ángel de la Muerte.
12:52
Milgram'sMilgram studyestudiar is all about individualindividual authorityautoridad to controlcontrolar people.
239
760000
4000
El estudio de Milgram trata de la autoridad individual para controlar a la gente.
12:56
MostMás of the time, we are in institutionsinstituciones,
240
764000
3000
La mayor parte del tiempo estamos en instituciones,
13:00
so the StanfordStanford PrisonPrisión StudyEstudiar is a studyestudiar of the powerpoder of institutionsinstituciones
241
768000
3000
así que el Estudio de la Prisión de Stanford estudia el poder de éstas
13:03
to influenceinfluencia individualindividual behaviorcomportamiento.
242
771000
2000
para influir en el comportamiento individual.
13:05
InterestinglyInteresantemente, StanleyStanley MilgramMilgram and I were in the samemismo highalto schoolcolegio classclase
243
773000
3000
Curiosamente, Stanley Milgram y yo estuvimos en la misma clase en el instituto
13:08
in JamesJames MonroeMonroe in the BronxBronx, 1954.
244
776000
3000
James Monroe en el Bronx, en 1954.
13:13
So this studyestudiar, whichcual I did
245
781000
1000
Para este estudio, que hice
13:14
with my graduategraduado studentsestudiantes, especiallyespecialmente CraigCraig HaneyHaney --
246
782000
2000
con mis estudiantes de postgrado sobre todo Craig Haney,
13:16
we alsoademás beganempezó work with an adanuncio.
247
784000
1000
también empezamos con un anuncio.
13:17
We didn't have moneydinero, so we had a cheapbarato, little adanuncio,
248
785000
2000
No teníamos dinero, así que pusimos un anuncio baratito,
13:19
but we wanted collegeUniversidad studentsestudiantes for a studyestudiar of prisonprisión life.
249
787000
3000
pero queríamos universitarios para un estudio sobre la vida carcelaria.
13:22
75 people volunteeredvoluntario, tooktomó personalitypersonalidad testspruebas.
250
790000
3000
Hubo 75 voluntarios que hicieron tests de personalidad.
13:25
We did interviewsentrevistas. PickedEscogido two dozendocena:
251
793000
2000
Los entrevistamos. Elegimos a dos docenas:
13:27
the mostmás normalnormal, the mostmás healthysaludable.
252
795000
1000
los más normales, los más sanos.
13:29
RandomlyAleatoriamente assignedasignado them to be prisonerprisionero and guardGuardia.
253
797000
2000
Arbitrariamente les nombramos prisioneros o carceleros.
13:31
So on day one, we knewsabía we had good applesmanzanas.
254
799000
2000
Así que el primer día sabíamos que teníamos manzanas frescas.
13:33
I'm going to put them in a badmalo situationsituación.
255
801000
2000
Los voy a poner en una situación difícil.
13:35
And secondlyen segundo lugar, we know there's no differencediferencia
256
803000
2000
Además, sabemos que no hay diferencia alguna
13:38
betweenEntre the boyschicos who are going to be guardsguardias
257
806000
1000
entre los chicos que serán carceleros
13:39
and the boyschicos who are going to be prisonerspresos.
258
807000
1000
y los que serán prisioneros.
13:41
The kidsniños who were going to be prisonerspresos,
259
809000
1000
A los que iban a ser prisioneros
13:42
we said, "Wait at home in the dormitoriesdormitorios. The studyestudiar will beginempezar Sundaydomingo."
260
810000
2000
les dijimos: "Esperad en casa. El estudio empieza el domingo."
13:45
We didn't tell them
261
813000
1000
No les dijimos
13:46
that the cityciudad policepolicía were going to come and do realisticrealista arrestsarrestos.
262
814000
36000
que la policía municipal iba a llevar a cabo arrestos realistas.
14:22
(VideoVídeo) StudentEstudiante: A policepolicía carcoche pullstira up in frontfrente, and a coppolicía comesproviene to the frontfrente doorpuerta,
263
850000
6000
Hombre en el video: un coche de policía para enfrente, y un poli viene a la puerta de entrada,
14:28
and knocksgolpes, and saysdice he's looking for me.
264
856000
2000
llama y dice que me está buscando.
14:30
So they, right there, you know, they tooktomó me out the doorpuerta,
265
858000
2000
Así que allí mismo me sacaron de casa,
14:33
they put my handsmanos againsten contra the carcoche.
266
861000
3000
me pusieron las manos en el coche.
14:36
It was a realreal coppolicía carcoche, it was a realreal policemanpolicía,
267
864000
2000
Era un coche de policía real, y también el policía
14:39
and there were realreal neighborsvecinos in the streetcalle,
268
867000
1000
y los vecinos que estaban en la calle,
14:40
who didn't know that this was an experimentexperimentar.
269
868000
4000
que no sabían que esto era un experimento.
14:44
And there was camerascámaras all around and neighborsvecinos all around.
270
872000
3000
Y había cámaras y vecinos por todas partes.
14:47
They put me in the carcoche, then they drovecondujo me around PaloPalo AltoAlto.
271
875000
3000
Me metieron en el coche, me llevaron por Palo Alto.
14:52
They tooktomó me to the policepolicía stationestación,
272
880000
3000
Me llevaron a la comisaría,
14:55
the basementsótano of the policepolicía stationestación. Then they put me in a cellcelda.
273
883000
10000
al sótano. Me metieron en una celda.
15:05
I was the first one to be pickedescogido up, so they put me in a cellcelda,
274
893000
2000
Fui el primero al que recogieron, así que me pusieron en una celda
15:07
whichcual was just like a roomhabitación with a doorpuerta with barsbarras on it.
275
895000
4000
que era como una habitación con una puerta con barras.
15:12
You could tell it wasn'tno fue a realreal jailcárcel.
276
900000
1000
Estaba claro que no era una cárcel de verdad.
15:13
They lockedbloqueado me in there, in this degradingdegradante little outfitequipar.
277
901000
5000
Me encerraron, vestido con andrajos.
15:19
They were takingtomando this experimentexperimentar too seriouslyseriamente.
278
907000
2000
Se estaban tomando el experimento demasiado en serio.
15:21
PhilipFelipe ZimbardoZimbardo: Here are the prisonerspresos who are going to be dehumanizeddeshumanizado.
279
909000
2000
Aquí están los prisioneros que serán deshumanizados.
15:23
They're going to becomevolverse numbersnúmeros.
280
911000
1000
Se convertirán en números.
15:24
Here are the guardsguardias with the symbolssímbolos of powerpoder and anonymityanonimato.
281
912000
3000
Aquí están los carceleros con los símbolos del poder y el anonimato.
15:27
GuardsGuardias get prisonerspresos
282
915000
1000
Los carceleros hacen que los prisioneros
15:28
to cleanlimpiar the toiletbaño bowlsbochas out with theirsu baredesnudo handsmanos,
283
916000
2000
limpien las tazas del váter con las manos
15:30
to do other humiliatinghumillante tasksTareas.
284
918000
2000
y otras tareas humillantes.
15:32
They striptira them nakeddesnudo. They sexuallysexualmente tauntpulla them.
285
920000
2000
Los desnudan. Los vejan sexualmente.
15:34
They beginempezar to do degradingdegradante activitiesocupaciones,
286
922000
2000
Empiezan a llevar a cabo actividades degradantes,
15:36
like havingteniendo them simulatesimular sodomysodomía.
287
924000
2000
como hacerles simular sodomía.
15:38
You saw simulatingsimulando fellatiofelación in soldierssoldados in AbuAbu GhraibGhraib.
288
926000
3000
Vieron felaciones simuladas en soldados en Abu Ghraib.
15:41
My guardsguardias did it in fivecinco daysdías. The stressestrés reactionreacción was so extremeextremo
289
929000
5000
Mis carceleros lo hicieron en cinco días. La reacción al estrés fue tan extrema
15:46
that normalnormal kidsniños we pickedescogido because they were healthysaludable
290
934000
2000
que chicos normales elegidos porque estaban sanos
15:48
had breakdownsaverías withindentro 36 hourshoras.
291
936000
2000
tuvieron crisis nerviosas en 36 horas.
15:50
The studyestudiar endedterminado after sixseis daysdías, because it was out of controlcontrolar.
292
938000
4000
El estudio terminó seis días más tarde porque estaba fuera de control.
15:54
FiveCinco kidsniños had emotionalemocional breakdownsaverías.
293
942000
2000
Cinco chicos tuvieron crisis emocionales.
15:58
Does it make a differencediferencia if warriorsguerreros go to battlebatalla
294
946000
2000
¿Influye si los guerreros cambian o no
16:00
changingcambiando theirsu appearanceapariencia or not?
295
948000
2000
su apariencia al luchar?
16:02
Does it make a differencediferencia if they're anonymousanónimo,
296
950000
1000
¿Influye si son anónimos en
16:03
in how they treattratar theirsu victimsvíctimas?
297
951000
2000
su tratamiento de las víctimas?
16:05
We know in some culturesculturas, they go to warguerra,
298
953000
1000
Sabemos que en algunas culturas van a la guerra
16:06
they don't changecambio theirsu appearanceapariencia.
299
954000
1000
sin cambiar su aspecto.
16:07
In other culturesculturas, they paintpintar themselvessí mismos like "LordSeñor of the FliesMoscas."
300
955000
2000
En otras se pintan como "El señor de las moscas."
16:09
In some, they wearvestir masksmáscaras.
301
957000
2000
En algunas llevan máscaras.
16:11
In manymuchos, soldierssoldados are anonymousanónimo in uniformuniforme.
302
959000
3000
En muchas, los soldados llevan uniformes anónimos.
16:14
So this anthropologistantropólogo, JohnJohn WatsonWatson, foundencontró
303
962000
2000
El antropólogo John Watson encontró
16:17
23 culturesculturas that had two bitsbits of datadatos.
304
965000
2000
23 culturas que proporcionaron dos datos.
16:19
Do they changecambio theirsu appearanceapariencia? 15.
305
967000
2000
¿Cambian su apariencia? 15
16:21
Do they killmatar, torturetortura, mutilatemutilar? 13.
306
969000
2000
¿Matan, torturan, mutilan? 13
16:23
If they don't changecambio theirsu appearanceapariencia,
307
971000
2000
Si no cambian su apariencia
16:25
only one of eightocho killsmata, torturestorturas or mutilatesmutila.
308
973000
2000
sólo uno de ocho mata, tortura o mutila.
16:27
The keyllave is in the redrojo zonezona.
309
975000
2000
La clave es la zona roja.
16:29
If they changecambio theirsu appearanceapariencia,
310
977000
1000
Si cambian de apariencia
16:30
12 of 13 -- that's 90 percentpor ciento -- killmatar, torturetortura, mutilatemutilar.
311
978000
4000
12 ó 13 -- el 90%-- matan, torturan, mutilan.
16:35
And that's the powerpoder of anonymityanonimato.
312
983000
1000
Ese es el poder del anonimato.
16:36
So what are the sevensiete socialsocial processesprocesos
313
984000
2000
Así que, ¿cuáles son los siete procesos sociales
16:38
that greasegrasa the slipperyresbaladizo slopecuesta abajo of evilmal?
314
986000
2000
que engrasan la resbaladiza cuesta del mal?
16:40
MindlesslySin pensar takingtomando the first smallpequeña steppaso.
315
988000
2000
Dar el primer pasito sin pensarlo mucho.
16:42
DehumanizationDeshumanización of othersotros. De-individuationDesindividualización of SelfYo.
316
990000
3000
Deshumanización de los otros. Desindividualización del ser.
16:45
DiffusionDifusión of personalpersonal responsibilityresponsabilidad. BlindCiego obedienceobediencia to authorityautoridad.
317
993000
3000
Difuminación de la responsabilidad personal. Obediencia ciega a la autoridad.
16:49
UncriticalNo crítico conformityconformidad to groupgrupo normsnormas.
318
997000
1000
Conformidad no crítica a las normas del grupo.
16:50
PassivePasivo tolerancetolerancia to evilmal throughmediante inactionen acción or indifferenceindiferencia.
319
998000
3000
Tolerancia neutral al mal a través de la pasividad o la indiferencia.
16:54
And it happenssucede when you're in a newnuevo or unfamiliardesconocido situationsituación.
320
1002000
2000
Y pasa cuando estás en una situación nueva o no familiar.
16:56
Your habitualhabitual responserespuesta patternspatrones don't work.
321
1004000
2000
Tus patrones de respuesta habitual no funcionan.
16:59
Your personalitypersonalidad and moralitymoralidad are disengageddesacoplado.
322
1007000
2000
Tu personalidad y tu moralidad se separan.
17:01
"Nothing is easiermás fácil than to denouncedenunciar the evildoermalhechor;
323
1009000
3000
"No hay nada más fácil que denunciar al malo;
17:04
nothing more difficultdifícil than understandingcomprensión him," DostoyevksyDostoyevksy tellsdice us.
324
1012000
3000
nada más difícil que entenderlo, nos dice Dostoievsky."
17:07
UnderstandingComprensión is not excusingexcusando. PsychologyPsicología is not excuse-iologyexcusa-iología.
325
1015000
4000
Entender no es excusar. La psicología no es "excusología".
17:12
So socialsocial and psychologicalpsicológico researchinvestigación revealsrevela
326
1020000
1000
La investigación social y psicológica revela
17:13
how ordinaryordinario, good people can be transformedtransformado withoutsin the drugsdrogas.
327
1021000
4000
cómo gente normal y buena puede transformase sin drogas.
17:17
You don't need it. You just need the social-psychologicalsocial-psicológico processesprocesos.
328
1025000
3000
No hace falta. Sólo necesitas los procesos psico-sociales.
17:20
RealReal worldmundo parallelsparalelas? CompareComparar this with this.
329
1028000
4000
¿Paralelismos en el mundo real? Comparen esto y esto.
17:26
JamesJames SchlesingerSchlesinger -- and I'm going to have to endfin with this -- saysdice,
330
1034000
2000
James Schlesinger -- y voy a tener que terminar con esto -- dice:
17:28
"PsychologistsPsicólogos have attemptedintentó to understandentender how and why
331
1036000
2000
"Los psicólogos han intentado entender cómo y por qué
17:31
individualsindividuos and groupsgrupos who usuallygeneralmente actacto humanelyhumanamente
332
1039000
2000
individuos y grupos que normalmente actúan con humanidad
17:33
can sometimesa veces actacto otherwisede otra manera in certaincierto circumstancescircunstancias."
333
1041000
3000
a veces pueden actuar de otro modo en ciertas circunstancias."
17:37
That's the LuciferLucifer effectefecto.
334
1045000
1000
Ese es el Efecto Lucifer.
17:38
And he goesva on to say, "The landmarkpunto de referencia StanfordStanford studyestudiar
335
1046000
2000
Y sigue diciendo, "El famoso estudio de Stanford
17:40
providesproporciona a cautionaryadvertido talecuento for all militarymilitar operationsoperaciones."
336
1048000
4000
es una advertencia para toda operación militar."
17:44
If you give people powerpoder withoutsin oversightvigilancia,
337
1052000
2000
Dar poder sin supervisión a la gente
17:47
it's a prescriptionprescripción for abuseabuso. They knewsabía that, and let that happenocurrir.
338
1055000
3000
es un abuso anunciado. Lo sabían y dejaron que sucediera.
17:50
So anotherotro reportinforme, an investigativeinvestigador reportinforme by GeneralGeneral FayMeter,
339
1058000
5000
Otro informe, uno de investigación hecho por el General Fay,
17:55
saysdice the systemsistema is guiltyculpable. And in this reportinforme,
340
1063000
2000
dice que el sistema es culpable, y en este informe
17:57
he saysdice it was the environmentambiente that createdcreado AbuAbu GhraibGhraib,
341
1065000
3000
dice que fue el entorno lo que creó Abu Ghraib a partir de
18:00
by leadershipliderazgo failuresfallas that contributedcontribuido
342
1068000
2000
fallos de liderazgo que contribuyeron
18:02
to the occurrenceocurrencia of suchtal abuseabuso,
343
1070000
1000
a que sucediera ese abuso,
18:03
and the facthecho that it remainedse mantuvo undiscoveredsin descubrir
344
1071000
2000
y el hecho de que las altas esferas lo ignoraran
18:05
by highermayor authoritiesautoridades for a long periodperíodo of time.
345
1073000
2000
durante mucho tiempo.
18:07
Those abusesabusos wentfuimos on for threeTres monthsmeses. Who was watchingacecho the storealmacenar?
346
1075000
4000
Esos abusos duraron tres meses. ¿Quién vigilaba?
18:11
The answerresponder is nobodynadie, and, I think, nobodynadie on purposepropósito.
347
1079000
2000
La respuesta es nadie, y creo que a propósito.
18:14
He gavedio the guardsguardias permissionpermiso to do those things,
348
1082000
1000
Él dio permiso a los carceleros para hacer esas cosas,
18:15
and they knewsabía nobodynadie was ever going to come down to that dungeonmazmorra.
349
1083000
3000
y ellos sabían que nadie iba a bajar a esa mazmorra.
18:18
So you need a paradigmparadigma shiftcambio in all of these areasáreas.
350
1086000
3000
Así que necesitamos un cambio de paradigma en todas esas áreas.
18:21
The shiftcambio is away from the medicalmédico modelmodelo
351
1089000
2000
El cambio es alejarse del modelo médico
18:23
that focusesenfoques only on the individualindividual.
352
1091000
2000
que se centra sólo en el individuo
18:25
The shiftcambio is towardhacia a publicpúblico healthsalud modelmodelo
353
1093000
2000
y acercarse a un modelo de salud pública
18:28
that recognizesreconoce situationalsituacional and systemicsistémico vectorsvectores of diseaseenfermedad.
354
1096000
3000
que reconoce vectores de enfermedad situacionales y sistémicos.
18:31
BullyingAcoso is a diseaseenfermedad. PrejudicePerjudicar is a diseaseenfermedad. ViolenceViolencia is a diseaseenfermedad.
355
1099000
4000
La intimidación es una enfermedad. El prejuicio y la violencia también.
18:35
And sinceya que the InquisitionInquisición, we'venosotros tenemos been dealingrelación comercial with problemsproblemas
356
1103000
2000
Y desde la Inquisición, hemos lidiado con problemas a nivel
18:37
at the individualindividual levelnivel. And you know what? It doesn't work.
357
1105000
3000
individual. ¿Y saben qué? No funciona.
18:40
AleksandrAleksandr SolzhenitsynSolzhenitsyn saysdice, "The linelínea betweenEntre good and evilmal
358
1108000
3000
Alexander Solzhenitsyn dice que la línea que separa el bien del mal
18:43
cutscortes throughmediante the heartcorazón of everycada humanhumano beingsiendo."
359
1111000
2000
corta el corazón de todos los seres humanos.
18:45
That meansmedio that linelínea is not out there.
360
1113000
2000
Eso quiere decir que la línea no está fuera.
18:47
That's a decisiondecisión that you have to make. That's a personalpersonal thing.
361
1115000
3000
Es una decisión que tú has de tomar. Es personal.
18:50
So I want to endfin very quicklycon rapidez on a positivepositivo noteNota.
362
1118000
3000
Querría terminar rápidamente con algo positivo:
18:53
HeroismHeroísmo as the antidoteantídoto to evilmal,
363
1121000
2000
el heroísmo como antídoto al mal,
18:56
by promotingpromoviendo the heroicheroico imaginationimaginación,
364
1124000
1000
al promocionarse la imaginación heroica
18:57
especiallyespecialmente in our kidsniños, in our educationaleducativo systemsistema.
365
1125000
3000
especialmente en nuestros niños, en nuestro sistema educativo.
19:00
We want kidsniños to think, I'm the herohéroe in waitingesperando,
366
1128000
2000
Queremos que los niños piensen: "soy un héroe que espera
19:02
waitingesperando for the right situationsituación to come alonga lo largo,
367
1130000
2000
a que llegue el momento adecuado,
19:05
and I will actacto heroicallyheroicamente.
368
1133000
1000
y entonces actuaré heroicamente.
19:06
My wholetodo life is now going to focusatención away from evilmal --
369
1134000
2000
A partir de ahora toda mi vida se enfocara en
19:08
that I've been in sinceya que I was a kidniño -- to understandingcomprensión heroeshéroes.
370
1136000
3000
los héroes y no en el mal con que crecí.
19:11
BanalityBanalidad of heroismheroísmo
371
1139000
1707
Ahora su idea del heroísmo es
19:13
is, it's ordinaryordinario people who do heroicheroico deedsandanzas.
372
1140707
2293
gente normal que realiza actos heroicos.
19:15
It's the counterpointcontrapunto to HannahHannah Arendt'sArendt "BanalityBanalidad of EvilMal."
373
1143000
3000
Es el contrapunto a "La banalidad del mal" de Hannah Arendt.
19:18
Our traditionaltradicional societalsocietal heroeshéroes are wrongincorrecto,
374
1146000
3000
Nuestros héroes sociales tradicionales se equivocan
19:21
because they are the exceptionsexcepciones.
375
1149000
1000
porque ellos son la excepción.
19:22
They organizeorganizar theirsu wholetodo life around this.
376
1150000
2000
Organizan toda su vida en torno a su heroísmo.
19:24
That's why we know theirsu namesnombres.
377
1152000
1000
Por eso sabemos sus nombres.
19:25
And our kids'niños heroeshéroes are alsoademás wrongincorrecto modelsmodelos for them,
378
1153000
2000
Y los héroes de nuestros hijos también son modelos para ellos,
19:27
because they have supernaturalsobrenatural talentsprendas.
379
1155000
2000
porque tienen talentos sobrenaturales.
19:30
We want our kidsniños to realizedarse cuenta de mostmás heroeshéroes are everydaycada día people,
380
1158000
2000
Queremos que los niños vean que la mayoría de los héroes son gente normal
19:32
and the heroicheroico actacto is unusualraro. This is JoeJoe DarbyDarby.
381
1160000
4000
y que el acto heroico es poco frecuente. Este es Joe Darby.
19:36
He was the one that stoppeddetenido those abusesabusos you saw,
382
1164000
2000
Él fue quien paró los abusos que vieron
19:38
because when he saw those imagesimágenes,
383
1166000
2000
porque cuando vio esas imágenes
19:40
he turnedconvertido them over to a seniormayor investigatinginvestigando officeroficial.
384
1168000
3000
se las entregó a un oficial de investigación con más experiencia.
19:43
He was a low-levelnivel bajo privateprivado, and that stoppeddetenido it. Was he a herohéroe? No.
385
1171000
3000
Era un soldado raso y lo paró. ¿Fue un héroe? No.
19:47
They had to put him in hidingocultación, because people wanted to killmatar him,
386
1175000
3000
Tuvieron que esconderlo, porque querían matarlo,
19:50
and then his mothermadre and his wifeesposa.
387
1178000
1000
y a su madre y a su mujer.
19:51
For threeTres yearsaños, they were in hidingocultación.
388
1179000
2000
Pasaron tres años escondidos.
19:53
This is the womanmujer who stoppeddetenido the StanfordStanford PrisonPrisión StudyEstudiar.
389
1181000
3000
Esta es la mujer que puso fin al Estudio de la Prisión de Stanford.
19:56
When I said it got out of controlcontrolar, I was the prisonprisión superintendentsuperintendente.
390
1184000
3000
Cuando dije que se nos había ido de las manos, era el encargado de la prisión.
19:59
I didn't know it was out of controlcontrolar. I was totallytotalmente indifferentindiferente.
391
1187000
3000
No sabía que estaba fuera de control. Me era totalmente indiferente.
20:02
She camevino down, saw that madhousemanicomio and said,
392
1190000
2000
Ella bajó, vio esa locura y dijo:
20:04
"You know what, it's terribleterrible what you're doing to those boyschicos.
393
1192000
3000
Lo que les estás haciendo a estos chicos es terrible.
20:07
They're not prisonerspresos, they're not guardsguardias,
394
1195000
1000
No son ni prisioneros ni carceleros,
20:08
they're boyschicos, and you are responsibleresponsable."
395
1196000
2000
son chicos, y tú eres responsable."
20:11
And I endedterminado the studyestudiar the nextsiguiente day.
396
1199000
2000
Terminé el estudio al día siguiente.
20:13
The good newsNoticias is I marriedcasado her the nextsiguiente yearaño.
397
1201000
2000
La buena noticia es que me casé con ella el año después.
20:15
(LaughterRisa)
398
1203000
3000
(Risas)
20:18
(ApplauseAplausos)
399
1206000
7000
(Aplausos)
20:25
I just camevino to my sensessentido, obviouslyobviamente.
400
1213000
2000
Obviamente, entré en razón.
20:27
So situationssituaciones have the powerpoder to do, throughmediante --
401
1215000
2000
Así que las situaciones pueden --
20:31
but the pointpunto is, this is the samemismo situationsituación
402
1219000
1000
pero la cuestión es que la misma situación
20:32
that can inflameinflamar the hostilehostil imaginationimaginación in some of us,
403
1220000
4000
que puede encender una imaginación hostil en algunos de nosotros,
20:36
that makeshace us perpetratorsperpetradores of evilmal,
404
1224000
2000
que nos hace actuar mal,
20:38
can inspireinspirar the heroicheroico imaginationimaginación in othersotros. It's the samemismo situationsituación.
405
1226000
3000
puede inspirar una imaginación heroica en otros. Es la misma situación.
20:42
And you're on one sidelado or the other.
406
1230000
1000
Y estás en un lado o en el otro.
20:43
MostMás people are guiltyculpable of the evilmal of inactionen acción,
407
1231000
2000
La mayoría de la gente peca de pasividad,
20:45
because your mothermadre said, "Don't get involvedinvolucrado. MindMente your ownpropio businessnegocio."
408
1233000
3000
porque tu madre te dijo: "no te metas, tú a lo tuyo."
20:48
And you have to say, "MamaMamá, humanityhumanidad is my businessnegocio."
409
1236000
3000
Y tienes que decir: "mamá, la humanidad es lo mío."
20:51
So the psychologypsicología of heroismheroísmo is -- we're going to endfin in a momentmomento --
410
1239000
2000
Así que la psicología del heroísmo es --terminamos en un minuto--
20:53
how do we encouragealentar childrenniños in newnuevo herohéroe coursescursos,
411
1241000
4000
cómo animar a los niños en cursos nuevos de héroes,
20:57
that I'm workingtrabajando with MattMate LangdonLangdon -- he has a herohéroe workshoptaller --
412
1245000
3000
en eso estoy trabajando con Matt Langdon --tiene un taller de héroes--
21:00
to developdesarrollar this heroicheroico imaginationimaginación, this self-labelingautoetiquetado,
413
1248000
3000
a que desarrollen esta imaginación heroica, esta autodefinición,
21:03
"I am a herohéroe in waitingesperando," and teachenseñar them skillshabilidades.
414
1251000
3000
Soy un héroe a la espera, y enseñarles destrezas.
21:06
To be a herohéroe, you have to learnaprender to be a deviantdesviado,
415
1254000
2000
Para ser un héroe tienes que aprender a salirte de la norma
21:09
because you're always going againsten contra the conformityconformidad of the groupgrupo.
416
1257000
2000
porque siempre vas a ir contra la conformidad del grupo.
21:11
HeroesHéroes are ordinaryordinario people whosecuyo socialsocial actionscomportamiento are extraordinaryextraordinario. Who actacto.
417
1259000
4000
Los héroes son gente normal cuyas acciones sociales son extraordinarias, que actúan.
21:15
The keyllave to heroismheroísmo is two things.
418
1263000
2000
Las claves del heroísmo son:
21:17
A: you've got to actacto when other people are passivepasivo.
419
1265000
2000
A: Tienes que actuar cuando otros están pasivos.
21:20
B: you have to actacto socio-centricallysociocéntrico, not egocentricallyegocéntrico.
420
1268000
3000
B: Tienes que actuar para la sociedad, no para ti.
21:23
And I want to endfin with the storyhistoria that some of you know,
421
1271000
2000
Quiero terminar con una historia, que algunos de ustedes conocen,
21:25
about WesleyWesley AutreyAutrey, NewNuevo YorkYork subwaysubterraneo herohéroe.
422
1273000
2000
sobre Wesley Autrey, héroe del metro de Nueva York.
21:27
Fifty-year-oldCincuenta años de edad African-AmericanAfroamericano constructionconstrucción workerobrero.
423
1275000
2000
Trabajador de la construcción afroamericano de 50 años.
21:29
He's standingen pie on a subwaysubterraneo in NewNuevo YorkYork.
424
1277000
2000
Está parado en un metro de Nueva York;
21:31
A whiteblanco guy fallscaídas on the trackspistas.
425
1279000
1000
un blanco se cae a las vías.
21:32
The subwaysubterraneo traintren is comingviniendo. There's 75 people there.
426
1280000
3000
El metro se acerca. Hay 75 personas.
21:35
You know what? They freezecongelar.
427
1283000
1000
¿Qué hacen? Se quedan inmóviles.
21:36
He's got a reasonrazón not to get involvedinvolucrado.
428
1284000
2000
Él tiene razones para no involucrarse.
21:38
He's blacknegro, the guy'schico whiteblanco, and he's got two little kidsniños.
429
1286000
2000
Es negro, el otro es blanco, y tiene dos niños pequeños.
21:41
InsteadEn lugar, he givesda his kidsniños to a strangerdesconocido,
430
1289000
1000
Es vez de excusarse, le da los niños a un extraño,
21:42
jumpssaltos on the trackspistas, putspone the guy betweenEntre the trackspistas,
431
1290000
3000
salta a las vías, coloca al otro entre las vías,
21:45
liesmentiras on him, the subwaysubterraneo goesva over him.
432
1293000
2000
se tumba sobre él, el metro pasa por encima.
21:47
WesleyWesley and the guy -- 20 and a halfmitad inchespulgadas heightaltura.
433
1295000
3000
Wesley y el hombre: 20 pulgadas y media de alto.
21:51
The traintren clearancedespeje is 21 inchespulgadas.
434
1299000
2000
El tren pasa a 21 pulgadas de alto.
21:53
A halfmitad an inchpulgada would have takentomado his headcabeza off.
435
1301000
2000
Media pulgada le habría cortado la cabeza.
21:56
And he said, "I did what anyonenadie could do,"
436
1304000
3000
Y dijo: "hice lo que cualquiera podría hacer,"
21:59
no biggrande dealacuerdo to jumpsaltar on the trackspistas.
437
1307000
1000
saltar a las vías no es para tanto.
22:00
And the moralmoral imperativeimperativo is "I did what everyonetodo el mundo should do."
438
1308000
4000
El imperativo moral es "hice lo que todos deberían hacer."
22:04
And so one day, you will be in a newnuevo situationsituación.
439
1312000
2000
Así que un día, estarán en una nueva situación.
22:07
Take pathcamino one, you're going to be a perpetratorautor of evilmal.
440
1315000
2000
Tomen el camino uno y serán agentes del mal.
22:09
EvilMal, meaningsentido you're going to be ArthurArturo AndersenAndersen.
441
1317000
3000
Mal en el sentido de que serán Arthur Anderson.
22:12
You're going to cheatengañar, or you're going to allowpermitir bullyingacoso.
442
1320000
2000
Mentirán, permitirán abusos.
22:14
PathCamino two, you becomevolverse guiltyculpable of the evilmal of passivepasivo inactionen acción.
443
1322000
2000
Camino dos: pecarán del mal de la pasividad.
22:17
PathCamino threeTres, you becomevolverse a herohéroe.
444
1325000
1000
Camino tres: serán héroes.
22:18
The pointpunto is, are we readyListo to take the pathcamino
445
1326000
3000
La cuestión es: ¿estamos dispuestos a tomar el camino
22:21
to celebratingcelebrando ordinaryordinario heroeshéroes,
446
1329000
2000
de celebrar a los héroes cotidianos
22:23
waitingesperando for the right situationsituación to come alonga lo largo
447
1331000
2000
que esperan a que llegue la situación adecuada,
22:25
to put heroicheroico imaginationimaginación into actionacción?
448
1333000
2000
para hacer que la imaginación heroica actúe?
22:27
Because it maymayo only happenocurrir onceuna vez in your life,
449
1335000
3000
Porque puede que sólo pase una vez en tu vida,
22:31
and when you passpasar it by, you'lltu vas a always know,
450
1339000
1000
y cuando llegue siempre sabrás,
22:32
I could have been a herohéroe and I let it passpasar me by.
451
1340000
3000
podría haber sido un héroe y lo dejé pasar.
22:35
So the pointpunto is thinkingpensando it and then doing it.
452
1343000
2000
Lo importante es pensarlo y hacerlo.
22:37
So I want to thank you. Thank you. Thank you.
453
1345000
3000
Quiero darles las gracias. Gracias. Gracias.
22:40
Let's opposeoponerse a the powerpoder of evilmal systemssistemas at home and abroaden el extranjero,
454
1348000
3000
Opongámonos al poder de los sistemas del mal en casa y fuera,
22:43
and let's focusatención on the positivepositivo.
455
1351000
2000
y centrémonos en lo positivo.
22:45
AdvocateAbogado for respectel respeto of personalpersonal dignitydignidad, for justicejusticia and peacepaz,
456
1353000
3000
Aboguemos por el respeto a la dignidad personal, por la justicia y la paz,
22:48
whichcual sadlytristemente our administrationadministración has not been doing.
457
1356000
2000
algo que tristemente nuestro gobierno no ha hecho.
22:50
ThanksGracias so much.
458
1358000
1000
Muchas gracias.
22:51
(ApplauseAplausos)
459
1359000
13000
(Aplausos)
Translated by Ruth Alonso
Reviewed by Estuardo Rivas

▲Back to top

ABOUT THE SPEAKER
Philip Zimbardo - Psychologist
Philip Zimbardo was the leader of the notorious 1971 Stanford Prison Experiment -- and an expert witness at Abu Ghraib. His book The Lucifer Effect explores the nature of evil; now, in his new work, he studies the nature of heroism.

Why you should listen

Philip Zimbardo knows what evil looks like. After serving as an expert witness during the Abu Ghraib trials, he wrote The Lucifer Effect: Understanding How Good People Turn Evil. From Nazi comic books to the tactics of used-car salesmen, he explores a wealth of sources in trying to explain the psychology of evil.

A past president of the American Psychological Association and a professor emeritus at Stanford, Zimbardo retired in 2008 from lecturing, after 50 years of teaching his legendary introductory course in psychology. In addition to his work on evil and heroism, Zimbardo recently published The Time Paradox, exploring different cultural and personal perspectives on time.

Still well-known for his controversial Stanford Prison Experiment, Zimbardo in his new research looks at the psychology of heroism. He asks, "What pushes some people to become perpetrators of evil, while others act heroically on behalf of those in need?"

More profile about the speaker
Philip Zimbardo | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee