ABOUT THE SPEAKER
Philip Zimbardo - Psychologist
Philip Zimbardo was the leader of the notorious 1971 Stanford Prison Experiment -- and an expert witness at Abu Ghraib. His book The Lucifer Effect explores the nature of evil; now, in his new work, he studies the nature of heroism.

Why you should listen

Philip Zimbardo knows what evil looks like. After serving as an expert witness during the Abu Ghraib trials, he wrote The Lucifer Effect: Understanding How Good People Turn Evil. From Nazi comic books to the tactics of used-car salesmen, he explores a wealth of sources in trying to explain the psychology of evil.

A past president of the American Psychological Association and a professor emeritus at Stanford, Zimbardo retired in 2008 from lecturing, after 50 years of teaching his legendary introductory course in psychology. In addition to his work on evil and heroism, Zimbardo recently published The Time Paradox, exploring different cultural and personal perspectives on time.

Still well-known for his controversial Stanford Prison Experiment, Zimbardo in his new research looks at the psychology of heroism. He asks, "What pushes some people to become perpetrators of evil, while others act heroically on behalf of those in need?"

More profile about the speaker
Philip Zimbardo | Speaker | TED.com
TED2008

Philip Zimbardo: The psychology of evil

Philip Zimbardo: Como pessoas comuns se tornam monstros... ou heróis

Filmed:
7,078,283 views

Philip Zimbardo sabe que é muito fácil para pessoas boas se tornarem más. Nesta palestra, ele compartilha percepções e fotos inéditas dos julgamentos de Abu Ghraib. Depois ele fala sobre o outro lado: como é fácil se tornar um herói e como nós podemos alcançar isso.
- Psychologist
Philip Zimbardo was the leader of the notorious 1971 Stanford Prison Experiment -- and an expert witness at Abu Ghraib. His book The Lucifer Effect explores the nature of evil; now, in his new work, he studies the nature of heroism. Full bio

Double-click the English transcript below to play the video.

00:13
Philosophers, dramatists, theologians
0
1000
3000
Filósofos, dramaturgos, teólogos
00:16
have grappled with this question for centuries:
1
4000
2000
têm lidado com esta questão por séculos:
00:18
what makes people go wrong?
2
6000
2000
O que faz as pessoas serem más?
00:20
Interestingly, I asked this question when I was a little kid.
3
8000
2000
Curiosamente, eu fiz esta pergunta quando era criança.
00:23
When I was a kid growing up in the South Bronx, inner-city ghetto
4
11000
2000
Quando era uma criança crescendo no sul do Bronx, um gueto dentro
00:25
in New York, I was surrounded by evil,
5
13000
2000
de Nova York, eu estava cercado pelo mal,
00:28
as all kids are who grew up in an inner city.
6
16000
2000
como todas as crianças que cresceram em um gueto.
00:30
And I had friends who were really good kids,
7
18000
2000
E eu tinha amigos que eram realmente bons garotos,
00:32
who lived out the Dr. Jekyll Mr. Hyde scenario -- Robert Louis Stevenson.
8
20000
4000
que viviam fora do cenário médico-e-monstro -- Robert Louis Stevenson.
00:36
That is, they took drugs, got in trouble, went to jail.
9
24000
4000
Isto é, eles se drogavam, violavam a lei, iam para a cadeia.
00:40
Some got killed, and some did it without drug assistance.
10
28000
4000
Alguns foram mortos, e alguns conseguiram isso sem a ajuda das drogas.
00:44
So when I read Robert Louis Stevenson, that wasn't fiction.
11
32000
3000
Então quando eu lia Robert Louis Stevenson, não era ficção.
00:47
The only question is, what was in the juice?
12
35000
1000
A única questão era, o que havia no suco?
00:48
And more importantly, that line between good and evil --
13
36000
5000
E mais importante, aquela linha entre bem e mal --
00:53
which privileged people like to think is fixed and impermeable,
14
41000
3000
que pessoas privilegiadas gostam de pensar que é fixa e impermeável,
00:56
with them on the good side, and the others on the bad side --
15
44000
3000
com elas do lado bom, e os outros do lado ruim --
00:59
I knew that line was movable, and it was permeable.
16
47000
3000
Eu sabia que aquela linha era móvel, e ela era permeável.
01:02
Good people could be seduced across that line,
17
50000
2000
Boas pessoas podiam ser seduzidas a cruzar a linha,
01:05
and under good and some rare circumstances, bad kids could recover
18
53000
3000
e sob boas e bastante raras circunstâncias garotos ruins poderiam se recuperar
01:08
with help, with reform, with rehabilitation.
19
56000
3000
com ajuda, com reforma, com reabilitação.
01:12
So I want to begin with this this wonderful illusion
20
60000
2000
Portanto quero começar com esta maravilhosa ilusão
01:14
by [Dutch] artist M.C. Escher.
21
62000
2000
do artista [holandês] M.C. Escher.
01:17
If you look at it and focus on the white,
22
65000
1000
Se você olha para ela e foca no branco,
01:18
what you see is a world full of angels.
23
66000
2000
o que você vê é um mundo cheio de anjos.
01:20
But let's look more deeply, and as we do,
24
68000
3000
Mas vamos olhar mais fundo, e quando o fazemos,
01:23
what appears is the demons, the devils in the world.
25
71000
3000
o que aparece são os demônios, os diabos do mundo.
01:27
And that tells us several things.
26
75000
1000
E isso nos mostra várias coisas.
01:28
One, the world is, was, will always be filled with good and evil,
27
76000
3000
Uma: o mundo é, foi, sempre será preenchido com bem e mal,
01:31
because good and evil is the yin and yang of the human condition.
28
79000
3000
porque bem e mal são o Yin e o Yang da condição humana.
01:34
It tells me something else. If you remember,
29
82000
2000
Isso me diz algo mais. Se vocês se lembram,
01:36
God's favorite angel was Lucifer.
30
84000
3000
o anjo favorito de Deus era Lúcifer.
01:39
Apparently, Lucifer means "the light."
31
87000
2000
Aparentemente, Lúcifer significa "a luz."
01:42
It also means "the morning star," in some scripture.
32
90000
2000
Também significa "a estrela da manhã," em algumas escrituras.
01:44
And apparently, he disobeyed God,
33
92000
3000
E aparentemente ele desobedeceu Deus,
01:47
and that's the ultimate disobedience to authority.
34
95000
3000
e essa é a máxima desobediência à autoridade.
01:50
And when he did, Michael, the archangel, was sent
35
98000
3000
E quando ele o fez, o arcanjo Miguel foi enviado
01:54
to kick him out of heaven along with the other fallen angels.
36
102000
3000
para o expulsar do céu juntamente com os outros anjos caídos.
01:57
And so Lucifer descends into hell, becomes Satan,
37
105000
3000
E então Lúcifer cai ao inferno, se torna Satã,
02:01
becomes the devil, and the force of evil in the universe begins.
38
109000
2000
se torna o diabo, e a força do mal no universo começa.
02:03
Paradoxically, it was God who created hell as a place to store evil.
39
111000
5000
Paradoxalmente, foi Deus que criou o inferno como um lugar para guardar o mal.
02:09
He didn't do a good job of keeping it there though.
40
117000
1000
Ele não fez um bom trabalho em manter isso lá, entretanto.
02:10
So, this arc of the cosmic transformation
41
118000
3000
Assim, este arco de transformação cósmica
02:13
of God's favorite angel into the Devil,
42
121000
2000
de anjo favorito de Deus para o Diabo,
02:15
for me, sets the context for understanding human beings
43
123000
4000
para mim, define o contexto para a compreensão dos seres humanos
02:19
who are transformed from good, ordinary people
44
127000
3000
que são transformados de pessoas comuns, boas
02:22
into perpetrators of evil.
45
130000
2000
em perpetradores do mal.
02:24
So the Lucifer effect, although it focuses on the negatives --
46
132000
4000
Portanto o Efeito Lúcifer, ainda que com foco nos negativos --
02:28
the negatives that people can become,
47
136000
3000
os negativos que as pessoas podem se tornar,
02:31
not the negatives that people are --
48
139000
1000
não os negativos que as pessoas são --
02:32
leads me to a psychological definition. Evil is the exercise of power.
49
140000
6000
me leva a uma definição psicológica: o mal é o exercício do poder.
02:38
And that's the key: it's about power.
50
146000
2000
E esta é a chave: é sobre poder.
02:40
To intentionally harm people psychologically,
51
148000
3000
Intencionalmente ferir pessoas psicologicamente,
02:44
to hurt people physically, to destroy people mortally, or ideas,
52
152000
3000
ferir pessoas fisicamente, destruir pessoas mortalmente, ou idéias,
02:47
and to commit crimes against humanity.
53
155000
2000
e cometer crimes contra a humanidade.
02:51
If you Google "evil," a word that should surely have withered by now,
54
159000
3000
Se você buscar "mal" no Google, uma palavra que deveria certamente ter já desaparecido,
02:54
you come up with 136 million hits in a third of a second.
55
162000
4000
você obtém 136 milhões de resultados em um terço de segundo.
02:58
A few years ago -- I am sure all of you were shocked, as I was,
56
166000
4000
Alguns anos atrás -- estou certo de que vocês ficaram chocados, como eu fiquei,
03:02
with the revelation of American soldiers
57
170000
3000
com a revelação de soldados Americanos
03:05
abusing prisoners in a strange place
58
173000
3000
abusando de prisioneiros em um lugar estranho
03:08
in a controversial war, Abu Ghraib in Iraq.
59
176000
3000
em uma guerra controversa: Abu Ghraib no Iraque.
03:11
And these were men and women
60
179000
1000
E estes eram homens e mulheres
03:12
who were putting prisoners through unbelievable humiliation.
61
180000
5000
que estavam submetendo prisioneiros a humilhações inacreditáveis.
03:18
I was shocked, but I wasn't surprised,
62
186000
1000
Eu fiquei chocado, mas não surpreso,
03:19
because I had seen those same visual parallels
63
187000
2000
porque eu havia visto aqueles mesmos paralelos visuais
03:22
when I was the prison superintendent of the Stanford Prison Study.
64
190000
3000
quando eu era o superintendente prisional do Estudo sobre a Prisão de Stanford.
03:25
Immediately the Bush administration military said ... what?
65
193000
2000
Imediatamente os militares da administração Bush disseram.. o que?
03:28
What all administrations say when there's a scandal.
66
196000
2000
O que todos os administradores dizem quando há um escândalo.
03:30
"Don't blame us. It's not the system. It's the few bad apples,
67
198000
3000
"Não nos culpem. Não é o sistema. São algumas poucas maçãs podres,
03:34
the few rogue soldiers."
68
202000
1000
os poucos soldados renegados."
03:35
My hypothesis is, American soldiers are good, usually.
69
203000
3000
Minha hipótese é que soldados Americanos são bons, em geral.
03:38
Maybe it was the barrel that was bad.
70
206000
2000
Talvez o barril que era ruim.
03:40
But how am I going to -- how am I going to deal with that hypothesis?
71
208000
3000
Mas como -- como irei lidar com esta hipótese?
03:43
I became an expert witness
72
211000
1000
Eu me tornei uma testemunha especialista
03:44
for one of the guards, Sergeant Chip Frederick,
73
212000
2000
para um dos guardas, sargento Chip Frederick,
03:46
and in that position, I had access to the dozen investigative reports.
74
214000
4000
e nessa posição, eu tive acesso às duzias de relatórios investigativos.
03:50
I had access to him. I could study him,
75
218000
3000
Eu tive acesso a eles. Eu pude estudá-los,
03:54
have him come to my home, get to know him,
76
222000
1000
levá-los para casa, conhecê-los,
03:55
do psychological analysis to see, was he a good apple or bad apple.
77
223000
4000
fazer análises psicológicas para ver se ele era uma maçã boa ou podre.
03:59
And thirdly, I had access to all of the 1,000 pictures
78
227000
4000
E terceiro, eu tive acesso a todas as 1000 fotos
04:03
that these soldiers took.
79
231000
1000
que esses soldados tiraram.
04:05
These pictures are of a violent or sexual nature.
80
233000
2000
Essas fotos são de natureza violenta ou sexual.
04:07
All of them come from the cameras of American soldiers.
81
235000
3000
Todas elas vieram de câmeras de soldados Americanos.
04:11
Because everybody has a digital camera or cell phone camera,
82
239000
2000
Porque todos tinham uma câmera digital ou um celular com câmera,
04:13
they took pictures of everything. More than 1,000.
83
241000
2000
eles tiraram fotos de tudo. Mais de 1000.
04:16
And what I've done is I organized them into various categories.
84
244000
2000
E o que eu fiz foi organizá-las em várias categorias.
04:18
But these are by United States military police, army reservists.
85
246000
5000
Mas estes eram reservistas da Polícia Militar dos Estados Unidos.
04:24
They are not soldiers prepared for this mission at all.
86
252000
3000
Eles não eram absolutamente soldados preparados para esta missão.
04:27
And it all happened in a single place, Tier 1-A, on the night shift.
87
255000
5000
E tudo aconteceu em um único lugar, pavilhão 1A, no turno da noite.
04:32
Why? Tier 1-A was the center for military intelligence.
88
260000
3000
Por que? O pavilhão 1A era o centro da inteligência militar.
04:35
It was the interrogation hold. The CIA was there.
89
263000
3000
Era o centro de interrogatórios. A CIA estava lá.
04:39
Interrogators from Titan Corporation, all there,
90
267000
2000
Interrogadores da Titan Corporation, todos lá,
04:41
and they're getting no information about the insurgency.
91
269000
3000
e eles não estavam obtendo nenhuma informação sobre a insurreição.
04:45
So they're going to put pressure on these soldiers,
92
273000
1000
Então eles começaram a pressionar esses soldados,
04:46
military police, to cross the line,
93
274000
2000
Polícia Militar, a cruzar a linha,
04:49
give them permission to break the will of the enemy,
94
277000
3000
dando a eles permissão para abalar a moral do inimigo,
04:52
to prepare them for interrogation, to soften them up,
95
280000
2000
para prepará-los para o interrogatório, para "amaciá-los",
04:54
to take the gloves off. Those are the euphemisms,
96
282000
2000
para tirar as luvas. Esses são os eufemismos,
04:56
and this is how it was interpreted.
97
284000
3000
e isto é como foram interpretados.
05:00
Let's go down to that dungeon.
98
288000
1000
Vamos descer à masmorra.
05:01
(Camera shutter)
99
289000
37000
(Obturador fotográfico)
05:38
(Thuds)
100
326000
6000
(Impactos)
05:45
(Camera shutter)
101
333000
14000
(Obturador fotográfico)
05:59
(Thuds)
102
347000
10000
(Impactos)
06:09
(Breathing)
103
357000
8000
(Respiração)
06:17
(Bells)
104
365000
31000
(Sinos)
06:49
So, pretty horrific.
105
397000
3000
Portanto, bastante horrível.
06:52
That's one of the visual illustrations of evil.
106
400000
3000
Essa é uma das ilustrações visuais do mal.
06:55
And it should not have escaped you that
107
403000
1000
E não deve escapar dos seus olhos que
06:56
the reason I paired the prisoner with his arms out
108
404000
4000
a razão porque eu combinei o prisioneiro com seus braços estendidos
07:00
with Leonardo da Vinci's ode to humanity
109
408000
3000
com a Ode à Humanidade de Leonardo da Vinci,
07:03
is that that prisoner was mentally ill.
110
411000
2000
é que o prisioneiro tinha doença mental.
07:05
That prisoner covered himself with shit every day,
111
413000
2000
Aquele prisioneiro se cobria de fezes todos os dias,
07:07
and they used to have to roll him in dirt so he wouldn't stink.
112
415000
3000
e eles costumavam fazer ele rolar na terra para que não cheirasse mal.
07:10
But the guards ended up calling him "Shit Boy."
113
418000
2000
Mas os guardas acabaram batizando ele de "Shit Boy".
07:12
What was he doing in that prison
114
420000
2000
O que ele estava fazendo naquela prisão
07:14
rather than in some mental institution?
115
422000
3000
em vez de estar em um hospital psiquátrico?
07:17
In any event, here's former Secretary of Defense Rumsfeld.
116
425000
3000
De qualquer modo, aqui está o ex Secretário de Defesa Rumsfeld.
07:20
He comes down and says, "I want to know, who is responsible?
117
428000
2000
Ele chega e diz, "quero saber quem é responsável"
07:22
Who are the bad apples?" Well, that's a bad question.
118
430000
3000
"Quem são as maçãs podres?", bem, essa é uma pergunta ruim.
07:25
You have to reframe it and ask, "What is responsible?"
119
433000
3000
Você tem de reelaborar e perguntar, "O que é responsável?"
07:28
Because "what" could be the who of people,
120
436000
2000
Porque "o que" pode ser o quem (pessoas),
07:30
but it could also be the what of the situation,
121
438000
2000
mas pode também ser o que (situação),
07:32
and obviously that's wrongheaded.
122
440000
2000
e obviamente que está equivocado.
07:34
So how do psychologists go about understanding
123
442000
2000
Então como psicólogos abordam a compreensão
07:36
such transformations of human character,
124
444000
2000
de tais transformações do caráter humano
07:38
if you believe that they were good soldiers
125
446000
2000
se vocês acreditam que eles eram bons soldados
07:40
before they went down to that dungeon?
126
448000
1000
antes de descerem naquela masmorra?
07:42
There are three ways. The main way is -- it's called dispositional.
127
450000
2000
Existem três formas. A principal forma é chamada disposicional.
07:44
We look at what's inside of the person, the bad apples.
128
452000
3000
Olhamos ao que está dentro da pessoa, as maçãs podres.
07:48
This is the foundation of all of social science,
129
456000
3000
Esta é a base de todas as ciências sociais,
07:51
the foundation of religion, the foundation of war.
130
459000
2000
a base da religião, a base da guerra.
07:55
Social psychologists like me come along and say, "Yeah,
131
463000
2000
Psicólogos sociais como eu chegam e dizem, "Sim,
07:57
people are the actors on the stage,
132
465000
2000
pessoas são os atores no palco,
07:59
but you'll have to be aware of what that situation is.
133
467000
2000
mas você tem de saber qual é a situação.
08:01
Who are the cast of characters? What's the costume?
134
469000
3000
Quem está no elenco? Qual é o figurino?
08:04
Is there a stage director?"
135
472000
1000
Existe um diretor do espetáculo?"
08:05
And so we're interested in, what are the external factors
136
473000
2000
Portanto estamos interessados em: quais são os fatores externos
08:08
around the individual -- the bad barrel?
137
476000
2000
em torno dos indivíduos, o barril ruim?
08:10
And social scientists stop there, and they miss the big point
138
478000
3000
E cientistas sociais param aí e desconsideram o grande ponto
08:13
that I discovered when I became an expert witness for Abu Ghraib.
139
481000
3000
que eu descobri quando me tornei testemunha especialista de Abu Ghraib.
08:16
The power is in the system.
140
484000
2000
O poder está no sistema.
08:18
The system creates the situation that corrupts the individuals,
141
486000
3000
O sistema cria as situações que corrompem os indivíduos,
08:21
and the system is the legal, political, economic, cultural background.
142
489000
5000
e o sistema é o arcabouço legal, político, econômico, cultural.
08:26
And this is where the power is of the bad-barrel makers.
143
494000
3000
E isto é onde o poder está, os fabricantes de barris ruins.
08:29
So if you want to change a person, you've got to change the situation.
144
497000
3000
Assim se você quer mudar uma pessoa você tem de mudar a situação.
08:32
If you want to change the situation,
145
500000
1000
Se você quer mudar a situação,
08:33
you've got to know where the power is, in the system.
146
501000
2000
tem de saber onde o poder está no sistema.
08:35
So the Lucifer effect involves understanding
147
503000
2000
Portanto o Efeito Lúcifer envolve entender
08:37
human character transformations with these three factors.
148
505000
5000
transformações no caráter humano com estes três fatores.
08:43
And it's a dynamic interplay.
149
511000
1000
E é uma interrelação dinâmica.
08:44
What do the people bring into the situation?
150
512000
2000
Em que as pessoas contribuem para estas situações?
08:46
What does the situation bring out of them?
151
514000
2000
O que estas situações obtêm delas?
08:48
And what is the system that creates and maintains that situation?
152
516000
4000
E o que existe no sistema que cria e mantém estas situações?
08:52
So my book, "The Lucifer Effect," recently published, is about,
153
520000
2000
Assim meu livro, O Efeito Lúcifer, recém publicado, é sobre
08:54
how do you understand how good people turn evil?
154
522000
2000
como você entende a maneira como pessoas boas se tornam más?
08:57
And it has a lot of detail
155
525000
1000
E tem muitos detalhes
08:58
about what I'm going to talk about today.
156
526000
2000
sobre os quais eu vou falar hoje.
09:01
So Dr. Z's "Lucifer Effect," although it focuses on evil,
157
529000
3000
Então o "Efeito Lúcifer" do Dr. Z, ainda que focado no mal,
09:04
really is a celebration of the human mind's
158
532000
2000
realmente é uma celebração da mente humana
09:06
infinite capacity to make any of us kind or cruel,
159
534000
4000
sua infinita capacidade de tornar qualquer um de nós gentil ou cruel,
09:10
caring or indifferent, creative or destructive,
160
538000
3000
compassivo ou indiferente, criativo ou destrutivo,
09:13
and it makes some of us villains.
161
541000
2000
e torna alguns de nós vilões.
09:15
And the good news story that I'm going to hopefully come to
162
543000
2000
E a boa notícia a que eu espero chegar
09:18
at the end is that it makes some of us heroes.
163
546000
2000
no final é que torna alguns de nós heróis.
09:20
This is a wonderful cartoon in the New Yorker,
164
548000
3000
Esta é uma ótima tira na revista New Yorker,
09:23
which really summarizes my whole talk:
165
551000
2000
que realmente resume minha palestra inteira:
09:25
"I'm neither a good cop nor a bad cop, Jerome.
166
553000
2000
"Eu não sou nem bom nem mau tira, Jerome.
09:27
Like yourself, I'm a complex amalgam
167
555000
2000
Como você, eu sou uma amálgama complexa
09:29
of positive and negative personality traits
168
557000
2000
de traços de personalidade positivos e negativos
09:32
that emerge or not, depending on the circumstances."
169
560000
3000
que emergem ou não, dependendo das circunstâncias."
09:35
(Laughter)
170
563000
2000
(Risos)
09:37
There's a study some of you think you know about,
171
565000
3000
Existe um estudo que alguns de vocês crêem conhecer,
09:40
but very few people have ever read the story. You watched the movie.
172
568000
4000
mas muito poucas pessoas sequer leram a história. Vocês viram o filme.
09:44
This is Stanley Milgram, little Jewish kid from the Bronx,
173
572000
3000
Este é Stanley Milgrom, pequeno garoto judeu do Bronx,
09:47
and he asked the question, "Could the Holocaust happen here, now?"
174
575000
3000
e ele fez a pergunta: "O holocausto poderia acontecer aqui, agora?"
09:51
People say, "No, that's Nazi Germany,
175
579000
1000
As pessoas dizem: "Não, isso foi na Alemanha Nazista,
09:52
that's Hitler, you know, that's 1939."
176
580000
2000
é Hitler, sabe, é 1939."
09:54
He said, "Yeah, but suppose Hitler asked you,
177
582000
2000
Ele disse "Sim, mas suponha que Hitler pedisse a você,
09:56
'Would you electrocute a stranger?' 'No way, not me, I'm a good person.' "
178
584000
3000
Você eletrocutaria um estranho?" "Sem chance, não eu, eu sou uma pessoa boa."
10:00
He said, "Why don't we put you in a situation
179
588000
1000
Ele disse "Por que não o colocamos em uma situação
10:01
and give you a chance to see what you would do?"
180
589000
2000
e damos a você a chance de ver o que você faria?"
10:03
And so what he did was he tested 1,000 ordinary people.
181
591000
4000
E então o que ele fez foi testar 1000 pessoas comuns.
10:07
500 New Haven, Connecticut, 500 Bridgeport.
182
595000
3000
500 em New Haven, Connecticut; 500 em Bridgeport.
10:10
And the ad said, "Psychologists want to understand memory.
183
598000
4000
E a propaganda dizia: "Psicologistas querem entender a memória,
10:14
We want to improve people's memory,
184
602000
1000
queremos melhorar a memória das pessoas,
10:15
because memory is the key to success." OK?
185
603000
3000
porque a memória é a chave para o sucesso." OK?
10:18
"We're going to give you five bucks -- four dollars for your time."
186
606000
5000
"Vamos lhe dar cinco dólares -- quatro dólares pelo seu tempo."
10:24
And it said, "We don't want college students.
187
612000
1000
E dizia "Não queremos estudantes universitários,
10:25
We want men between 20 and 50."
188
613000
2000
queremos homens entre 20 e 50"
10:27
In the later studies, they ran women.
189
615000
1000
-- nos estudos posteriores eles recrutaram mulheres --
10:28
Ordinary people: barbers, clerks, white-collar people.
190
616000
4000
pessoas comuns: barbeiros, balconistas, colarinhos brancos.
10:32
So, you go down, and one of you is going to be a learner,
191
620000
3000
Então vocês vão, e um de vocês vai ser o aprendiz,
10:35
and one of you is going to be a teacher.
192
623000
1000
e um de vocês vai ser o professor.
10:36
The learner's a genial, middle-aged guy.
193
624000
2000
O aprendiz é um cara genial, de meia-idade.
10:38
He gets tied up to the shock apparatus in another room.
194
626000
3000
Ele é amarrado ao aparato de choque em outra sala.
10:41
The learner could be middle-aged, could be as young as 20.
195
629000
3000
O aprendiz podia ser de meia-idade, podia ser jovem como 20 anos.
10:44
And one of you is told by the authority, the guy in the lab coat,
196
632000
4000
E um de vocês é instruído pela autoridade, o cara com o jaleco de laboratório,
10:48
"Your job as teacher is to give this guy material to learn.
197
636000
3000
"Seu trabalho como professor é dar a este cara material para aprender.
10:51
Gets it right, reward him.
198
639000
1000
Se ele acerta, premie-o.
10:52
Gets it wrong, you press a button on the shock box.
199
640000
2000
Se ele erra, pressione um botão na caixa de choque.
10:54
The first button is 15 volts. He doesn't even feel it."
200
642000
3000
O primeiro botão é de 15 volts. Ele nem sente."
10:58
That's the key. All evil starts with 15 volts.
201
646000
3000
Essa é a chave. Todo o mal começa com 15 volts.
11:01
And then the next step is another 15 volts.
202
649000
2000
E então o próximo passo tem mais 15 volts.
11:04
The problem is, at the end of the line, it's 450 volts.
203
652000
2000
O problema é, o último botão é de 450 volts.
11:06
And as you go along, the guy is screaming,
204
654000
3000
E na medida que você avança o cara está gritando,
11:09
"I've got a heart condition! I'm out of here!"
205
657000
2000
"Tenho problema cardíaco! Quero sair daqui!"
11:11
You're a good person. You complain.
206
659000
2000
Você é uma pessoa boa. Você reclama.
11:13
"Sir, who's going to be responsible if something happens to him?"
207
661000
2000
"Senhor, quem será responsável se algo acontecer a ele?"
11:15
The experimenter says, "Don't worry, I will be responsible.
208
663000
3000
O experimentador diz "Não se preocupe, eu serei responsável.
11:18
Continue, teacher."
209
666000
1000
Continue, professor."
11:19
And the question is, who would go all the way to 450 volts?
210
667000
4000
E a pergunta é, quem iria até o fim aos 450 volts?
11:24
You should notice here, when it gets up to 375,
211
672000
2000
Vocês devem notar aqui, quando chega a 375,
11:26
it says, "Danger. Severe Shock."
212
674000
1000
diz "Perigo: choque grave."
11:28
When it gets up to here, there's "XXX" -- the pornography of power.
213
676000
3000
Quando chega aqui, é "XXX": a pornografia do poder.
11:31
(Laughter)
214
679000
1000
(Risos)
11:32
So Milgram asks 40 psychiatrists,
215
680000
1000
Então Milgrom perguntou a 40 psiquiatras,
11:33
"What percent of American citizens would go to the end?"
216
681000
3000
"Que percentual dos cidadãos Americanos iriam até o fim?"
11:37
They said only one percent. Because that's sadistic behavior,
217
685000
3000
Eles disseram apenas 1 por cento. Porque isso é comportamento sádico,
11:40
and we know, psychiatry knows, only one percent of Americans are sadistic.
218
688000
3000
e sabemos, psiquiatras sabem, apenas 1 por cento dos Americanos são sádicos.
11:44
OK. Here's the data. They could not be more wrong.
219
692000
4000
OK. Aqui estão os dados. Eles não poderiam estar mais errados.
11:48
Two thirds go all the way to 450 volts. This was just one study.
220
696000
5000
Dois terços vão até o fim aos 450 volts. Isso foi só um estudo.
11:53
Milgram did more than 16 studies. And look at this.
221
701000
3000
Mligram fez mais que 16 estudos. E vejam isto.
11:56
In study 16, where you see somebody like you go all the way,
222
704000
4000
No estudo 16, quando você vê alguém como você ir até o fim,
12:00
90 percent go all the way. In study five, if you see people rebel, 90 percent rebel.
223
708000
6000
90 por cento vão até o fim. No estudo cinco, se você vê pessoas se rebelarem, 90 por cento se rebelam.
12:06
What about women? Study 13 -- no different than men.
224
714000
3000
E quanto às mulheres? Estudo 13: nenhuma diferença dos homens.
12:10
So Milgram is quantifying evil as the willingness of people
225
718000
3000
Portanto Milgrom está quantificando o mal como a propensão das pessoas
12:13
to blindly obey authority, to go all the way to 450 volts.
226
721000
3000
a obedecer cegamente à autoridade, a ir até o fim para 450 volts.
12:16
And it's like a dial on human nature.
227
724000
2000
E é como girar um botão na natureza humana.
12:18
A dial in a sense that you can make almost everybody totally obedient,
228
726000
4000
Girar um botão no sentido de poder tornar quase todo mundo totalmente obediente.
12:23
down to the majority, down to none.
229
731000
2000
Até a maioria, até ninguém.
12:25
So what are the external parallels? For all research is artificial.
230
733000
4000
E quais são os paralelos externos? Porque toda pesquisa é artificial.
12:29
What's the validity in the real world?
231
737000
1000
Qual é a validade no mundo real?
12:30
912 American citizens committed suicide or were murdered
232
738000
4000
912 cidadãos americanos cometeram suicídio ou foram assassinados
12:34
by family and friends in Guyana jungle in 1978,
233
742000
3000
pela família e amigos na selva da Guiana em 1978,
12:37
because they were blindly obedient to this guy, their pastor --
234
745000
3000
porque eles eram cegamente obedientes a este cara, seu pastor.
12:40
not their priest -- their pastor, Reverend Jim Jones.
235
748000
2000
Não seu padre. Seu pastor, reverendo Jim Jones.
12:42
He persuaded them to commit mass suicide.
236
750000
3000
Ele os persuadiu a cometer suicídio em massa.
12:46
And so, he's the modern Lucifer effect,
237
754000
1000
E assim ele é o Efeito Lúcifer moderno.
12:47
a man of God who becomes the Angel of Death.
238
755000
3000
Um homem de Deus que se torna o Anjo da Morte.
12:52
Milgram's study is all about individual authority to control people.
239
760000
4000
O estudo de Milgram diz muito sobre a autoridade individual controlando pessoas.
12:56
Most of the time, we are in institutions,
240
764000
3000
Na maior parte do tempo estamos em instituições,
13:00
so the Stanford Prison Study is a study of the power of institutions
241
768000
3000
assim o Estudo da Prisão de Stanford é um estudo sobre o poder das instituições
13:03
to influence individual behavior.
242
771000
2000
para influenciar o comportamento individual.
13:05
Interestingly, Stanley Milgram and I were in the same high school class
243
773000
3000
Curiosamente, Stanley Milgrom e eu estávamos na mesma turma do ensino médio.
13:08
in James Monroe in the Bronx, 1954.
244
776000
3000
na James Monroe do Bronx, 1954.
13:13
So this study, which I did
245
781000
1000
Então este estudo, que eu fiz
13:14
with my graduate students, especially Craig Haney --
246
782000
2000
com meus estudantes de pós-graduação, especialmente Craig Haney,
13:16
we also began work with an ad.
247
784000
1000
nós também começamos a trabalhar com um anúncio.
13:17
We didn't have money, so we had a cheap, little ad,
248
785000
2000
Não tínhamos dinheiro, então fizemos um anúncio pequeno, barato,
13:19
but we wanted college students for a study of prison life.
249
787000
3000
mas procuramos estudantes universitários para um estudo da vida na prisão.
13:22
75 people volunteered, took personality tests.
250
790000
3000
75 pessoas foram voluntárias, fizeram testes de personalidade.
13:25
We did interviews. Picked two dozen:
251
793000
2000
Fizemos entrevistas. Pegamos duas dúzias:
13:27
the most normal, the most healthy.
252
795000
1000
os mais normais, os mais saudáveis.
13:29
Randomly assigned them to be prisoner and guard.
253
797000
2000
Aleatoriamente atribuímos a eles o papel de prisioneiro ou guarda.
13:31
So on day one, we knew we had good apples.
254
799000
2000
E no primeiro dia, sabíamos que tínhamos boas maçãs.
13:33
I'm going to put them in a bad situation.
255
801000
2000
Eu iria colocá-los em uma situação ruim.
13:35
And secondly, we know there's no difference
256
803000
2000
E segundo, sabíamos que não havia diferença
13:38
between the boys who are going to be guards
257
806000
1000
entre os garotos que seriam os guardas
13:39
and the boys who are going to be prisoners.
258
807000
1000
e os garotos que seriam os prisioneiros.
13:41
The kids who were going to be prisoners,
259
809000
1000
Aos garotos que seriam prisioneiros,
13:42
we said, "Wait at home in the dormitories. The study will begin Sunday."
260
810000
2000
dissemos, "Esperem em casa nos dormitórios. O estudo começa domingo."
13:45
We didn't tell them
261
813000
1000
Não contamos a eles
13:46
that the city police were going to come and do realistic arrests.
262
814000
36000
que a polícia municipal iria aparecer e fazer prisões realistas.
14:22
(Video) Student: A police car pulls up in front, and a cop comes to the front door,
263
850000
6000
Homem no vídeo: Um carro de polícia estaciona na frente, e um policial vem à porta da frente
14:28
and knocks, and says he's looking for me.
264
856000
2000
bate e diz que está procurando por mim.
14:30
So they, right there, you know, they took me out the door,
265
858000
2000
Então eles, bem aqui, sabe, eles me levaram para fora,
14:33
they put my hands against the car.
266
861000
3000
puseram minhas mãos contra o carro.
14:36
It was a real cop car, it was a real policeman,
267
864000
2000
Era um carro de polícia real, era um policial real,
14:39
and there were real neighbors in the street,
268
867000
1000
e havia vizinhos reais na rua
14:40
who didn't know that this was an experiment.
269
868000
4000
que não sabiam que isso era um experimento.
14:44
And there was cameras all around and neighbors all around.
270
872000
3000
E havia câmeras em toda a redondeza e vizinhos em toda a redondeza.
14:47
They put me in the car, then they drove me around Palo Alto.
271
875000
3000
Eles me puseram no carro, então eles me levaram perto de Palo Alto.
14:52
They took me to the police station,
272
880000
3000
Eles me levaram à delegacia,
14:55
the basement of the police station. Then they put me in a cell.
273
883000
10000
o porão da delegacia. Então me puseram em uma cela.
15:05
I was the first one to be picked up, so they put me in a cell,
274
893000
2000
Eu fui o primeiro a ser pego, então me puseram um uma cela,
15:07
which was just like a room with a door with bars on it.
275
895000
4000
que era exatamente como uma sala com barras nela.
15:12
You could tell it wasn't a real jail.
276
900000
1000
Não dava para dizer que não era uma cadeia de verdade.
15:13
They locked me in there, in this degrading little outfit.
277
901000
5000
Me trancaram lá, nestas roupas degradantes.
15:19
They were taking this experiment too seriously.
278
907000
2000
Estavam levando este experimento a sério demais.
15:21
Philip Zimbardo: Here are the prisoners who are going to be dehumanized.
279
909000
2000
Aqui estão os prisioneiros que iriam ser desumanizados.
15:23
They're going to become numbers.
280
911000
1000
Eles iriam se tornar números.
15:24
Here are the guards with the symbols of power and anonymity.
281
912000
3000
Aqui estão os guardas com os símbolos de poder e anonimidade.
15:27
Guards get prisoners
282
915000
1000
Guardas pegam prisioneiros
15:28
to clean the toilet bowls out with their bare hands,
283
916000
2000
para limpar as privadas com suas próprias mãos,
15:30
to do other humiliating tasks.
284
918000
2000
para fazer outras tarefas humilhantes.
15:32
They strip them naked. They sexually taunt them.
285
920000
2000
Eles os despem. Eles os ridicularizam sexualmente.
15:34
They begin to do degrading activities,
286
922000
2000
Eles começam a fazer atividades degradantes,
15:36
like having them simulate sodomy.
287
924000
2000
como simulação de sodomia.
15:38
You saw simulating fellatio in soldiers in Abu Ghraib.
288
926000
3000
Vocês viram uma simulação de sexo oral em soldados de Abu Ghraib.
15:41
My guards did it in five days. The stress reaction was so extreme
289
929000
5000
Meus guardas fizeram isso em cinco dias. A reação ao stress foi tão extrema,
15:46
that normal kids we picked because they were healthy
290
934000
2000
que garotos normais que escolhemos porque eram saudáveis
15:48
had breakdowns within 36 hours.
291
936000
2000
tiveram colapsos dentro de 36 horas.
15:50
The study ended after six days, because it was out of control.
292
938000
4000
O estudo terminou depois de seis dias porque saiu do controle.
15:54
Five kids had emotional breakdowns.
293
942000
2000
Cinco garotos tiveram colapsos emocionais.
15:58
Does it make a difference if warriors go to battle
294
946000
2000
Faz diferença se guerreiros vão à batalha
16:00
changing their appearance or not?
295
948000
2000
mudando suas aparências ou não?
16:02
Does it make a difference if they're anonymous,
296
950000
1000
Faz diferença se eles são anônimos
16:03
in how they treat their victims?
297
951000
2000
no modo como tratam suas vítimas?
16:05
We know in some cultures, they go to war,
298
953000
1000
Sabemos que em algumas culturas quem vai à guerra,
16:06
they don't change their appearance.
299
954000
1000
não muda sua aparência.
16:07
In other cultures, they paint themselves like "Lord of the Flies."
300
955000
2000
Em outras culturas eles se pintam como "Senhor das Moscas."
16:09
In some, they wear masks.
301
957000
2000
em algumas eles usam máscaras.
16:11
In many, soldiers are anonymous in uniform.
302
959000
3000
em muitas, soldados estão anônimos nos uniformes.
16:14
So this anthropologist, John Watson, found
303
962000
2000
Então este antropólogo, John Watson, descobriu
16:17
23 cultures that had two bits of data.
304
965000
2000
23 culturas que tinham duas pitadas de dados.
16:19
Do they change their appearance? 15.
305
967000
2000
Elas mudavam sua aparência? 15.
16:21
Do they kill, torture, mutilate? 13.
306
969000
2000
Elas matavam, torturavam, mutilavam? 13.
16:23
If they don't change their appearance,
307
971000
2000
Se eles não mudavam sua aparência
16:25
only one of eight kills, tortures or mutilates.
308
973000
2000
apenas um em oito mata, tortura ou mutila.
16:27
The key is in the red zone.
309
975000
2000
A chave está na zona vermelha.
16:29
If they change their appearance,
310
977000
1000
Se eles mudam sua aparência,
16:30
12 of 13 -- that's 90 percent -- kill, torture, mutilate.
311
978000
4000
12 de 13 -- isso é 90 por cento -- matam, torturam, mutilam.
16:35
And that's the power of anonymity.
312
983000
1000
E este é o poder do anonimato.
16:36
So what are the seven social processes
313
984000
2000
Então quais são os sete processos sociais
16:38
that grease the slippery slope of evil?
314
986000
2000
que lubrificam a ladeira escorregadia do mal?
16:40
Mindlessly taking the first small step.
315
988000
2000
Displicentemente dar o pequeno primeiro passo.
16:42
Dehumanization of others. De-individuation of Self.
316
990000
3000
Desumanização dos outros. De-individualizar o indivíduo.
16:45
Diffusion of personal responsibility. Blind obedience to authority.
317
993000
3000
Difusão da responsabilidade pessoal. Obediência cega à autoridade.
16:49
Uncritical conformity to group norms.
318
997000
1000
Conformismo não-crítica às regras do grupo.
16:50
Passive tolerance to evil through inaction or indifference.
319
998000
3000
Tolerância passiva ao mal pela inação ou indiferença.
16:54
And it happens when you're in a new or unfamiliar situation.
320
1002000
2000
E acontece quando você está em uma situação nova ou não familiar.
16:56
Your habitual response patterns don't work.
321
1004000
2000
Seu padrão de resposta habitual não funciona.
16:59
Your personality and morality are disengaged.
322
1007000
2000
Sua personalidade e moralidade estão desatentas.
17:01
"Nothing is easier than to denounce the evildoer;
323
1009000
3000
"Nada é mais fácil que denunciar o malfeitor;
17:04
nothing more difficult than understanding him," Dostoyevksy tells us.
324
1012000
3000
nada mais difícil que entendê-lo," Dostoievsky nos diz.
17:07
Understanding is not excusing. Psychology is not excuse-iology.
325
1015000
4000
Compreender não é desculpar. A Psicologia não é desculpologia.
17:12
So social and psychological research reveals
326
1020000
1000
Portanto a pesquisa social e psicológica revelam
17:13
how ordinary, good people can be transformed without the drugs.
327
1021000
4000
como pessoas boas comuns podem ser transformadas sem as drogas.
17:17
You don't need it. You just need the social-psychological processes.
328
1025000
3000
Você não precisa delas. Você só precisa do processo psicossocial.
17:20
Real world parallels? Compare this with this.
329
1028000
4000
Paralelos do mundo real? Compare isto com isto.
17:26
James Schlesinger -- and I'm going to have to end with this -- says,
330
1034000
2000
James Schlesinger -- e eu vou precisar terminar com isto -- diz,
17:28
"Psychologists have attempted to understand how and why
331
1036000
2000
"Psicólogos têm tentado entender como e por que
17:31
individuals and groups who usually act humanely
332
1039000
2000
indivíduos e grupos que tipicamente agem humanamente
17:33
can sometimes act otherwise in certain circumstances."
333
1041000
3000
podem às vezes agir de outro modo em certas circunstâncias."
17:37
That's the Lucifer effect.
334
1045000
1000
Este é o Efeito Lúcifer.
17:38
And he goes on to say, "The landmark Stanford study
335
1046000
2000
E ele prossegue e diz, "O pioneiro estudo de Stanford
17:40
provides a cautionary tale for all military operations."
336
1048000
4000
fornece uma palavra de alerta para todas as operações militares."
17:44
If you give people power without oversight,
337
1052000
2000
Se você dá às pessoas poder sem supervisão,
17:47
it's a prescription for abuse. They knew that, and let that happen.
338
1055000
3000
é uma receita para o abuso. Eles sabem disso e deixam acontecer.
17:50
So another report, an investigative report by General Fay,
339
1058000
5000
Assim outro relatório, um relatório investigativo do General Fay,
17:55
says the system is guilty. And in this report,
340
1063000
2000
diz que o sistema é culpado, e neste relatório
17:57
he says it was the environment that created Abu Ghraib,
341
1065000
3000
ele diz que foi o ambiente que criou Abu Ghraib
18:00
by leadership failures that contributed
342
1068000
2000
pelas falhas de liderança que contribuíram
18:02
to the occurrence of such abuse,
343
1070000
1000
à ocorrência de tais abusos,
18:03
and the fact that it remained undiscovered
344
1071000
2000
e o fato de que permaneceu oculto
18:05
by higher authorities for a long period of time.
345
1073000
2000
das autoridades mais altas por um longo período.
18:07
Those abuses went on for three months. Who was watching the store?
346
1075000
4000
Esses abusos aconteceram por três meses. Quem estava cuidando da loja?
18:11
The answer is nobody, and, I think, nobody on purpose.
347
1079000
2000
A resposta é ninguém, e eu acho, propositalmente.
18:14
He gave the guards permission to do those things,
348
1082000
1000
Ele deu aos guardas a permissão para fazer essas coisas,
18:15
and they knew nobody was ever going to come down to that dungeon.
349
1083000
3000
E então sabia que ninguém nunca iria descer àquela masmorra.
18:18
So you need a paradigm shift in all of these areas.
350
1086000
3000
Então você precisa de uma mudança de paradigma em todas estas áreas.
18:21
The shift is away from the medical model
351
1089000
2000
A mudança é para longe do modelo médico
18:23
that focuses only on the individual.
352
1091000
2000
que foca apenas no indivíduo.
18:25
The shift is toward a public health model
353
1093000
2000
A mudança é no sentido de um modelo de saúde pública
18:28
that recognizes situational and systemic vectors of disease.
354
1096000
3000
que reconhece os vetores situacionais e sistêmicos da doença.
18:31
Bullying is a disease. Prejudice is a disease. Violence is a disease.
355
1099000
4000
Prepotência é uma doença. Preconceito é uma doença. Violência é uma doença.
18:35
And since the Inquisition, we've been dealing with problems
356
1103000
2000
E desde a Inquisição, temos tratado de problemas
18:37
at the individual level. And you know what? It doesn't work.
357
1105000
3000
no nível individual. E sabem de uma coisa? Não funciona.
18:40
Aleksandr Solzhenitsyn says, "The line between good and evil
358
1108000
3000
Alexander Solzhenitsyn diz que a linha entre o bem e o mal
18:43
cuts through the heart of every human being."
359
1111000
2000
atravessa o coração de cada ser humano.
18:45
That means that line is not out there.
360
1113000
2000
Isso significa que a linha não está lá fora.
18:47
That's a decision that you have to make. That's a personal thing.
361
1115000
3000
Essa é uma decisão que você tem de tomar. É uma coisa pessoal.
18:50
So I want to end very quickly on a positive note.
362
1118000
3000
Então eu quero terminar bem rápido com uma nota positiva:
18:53
Heroism as the antidote to evil,
363
1121000
2000
heroísmo é o antídoto para o mal.
18:56
by promoting the heroic imagination,
364
1124000
1000
Ao promover a imaginação heróica,
18:57
especially in our kids, in our educational system.
365
1125000
3000
especialmente em nossos filhos, em nosso sistema educacional.
19:00
We want kids to think, I'm the hero in waiting,
366
1128000
2000
Queremos que as crianças pensem, eu sou o herói esperando,
19:02
waiting for the right situation to come along,
367
1130000
2000
esperando que situação certa apareça,
19:05
and I will act heroically.
368
1133000
1000
e eu vou agir heroicamente.
19:06
My whole life is now going to focus away from evil --
369
1134000
2000
Minha vida inteira vai agora focar para longe do mal
19:08
that I've been in since I was a kid -- to understanding heroes.
370
1136000
3000
em que eu estive desde que eu era uma criança, para entender os heróis.
19:11
Banality of heroism
371
1139000
1707
E agora sua idéia de heroísmo
19:13
is, it's ordinary people who do heroic deeds.
372
1140707
2293
é, são pessoas comuns que fizeram coisas heróicas.
19:15
It's the counterpoint to Hannah Arendt's "Banality of Evil."
373
1143000
3000
É o contraponto para A Banalidade do Mal, de Hannah Arendt.
19:18
Our traditional societal heroes are wrong,
374
1146000
3000
Nossos heróis sociais tradicionais estão errados,
19:21
because they are the exceptions.
375
1149000
1000
porque eles são as exceções.
19:22
They organize their whole life around this.
376
1150000
2000
Eles organizam sua vida inteira em torno disto.
19:24
That's why we know their names.
377
1152000
1000
É por isso que conhecemos seus nomes.
19:25
And our kids' heroes are also wrong models for them,
378
1153000
2000
E os heróis de nossos filhos são também exemplos para eles,
19:27
because they have supernatural talents.
379
1155000
2000
porque eles têm talentos sobrenaturais.
19:30
We want our kids to realize most heroes are everyday people,
380
1158000
2000
Queremos que nossos filhos percebam que a maioria dos heróis são pessoas do dia-a-dia,
19:32
and the heroic act is unusual. This is Joe Darby.
381
1160000
4000
e o ato heróico é raro. Este é Joe Darby.
19:36
He was the one that stopped those abuses you saw,
382
1164000
2000
Ele é o que acabou com os abusos que vocês viram,
19:38
because when he saw those images,
383
1166000
2000
porque quando ele viu aquelas imagens,
19:40
he turned them over to a senior investigating officer.
384
1168000
3000
ele as entregou para um oficial da corregedoria.
19:43
He was a low-level private, and that stopped it. Was he a hero? No.
385
1171000
3000
Ele era um soldado de baixa patente e que parou isso. Ele era um herói? Não.
19:47
They had to put him in hiding, because people wanted to kill him,
386
1175000
3000
Eles tiveram que escondê-lo, porque as pessoas queriam matá-lo,
19:50
and then his mother and his wife.
387
1178000
1000
e matar sua mãe e sua esposa.
19:51
For three years, they were in hiding.
388
1179000
2000
Eles estiveram escondidos por três anos.
19:53
This is the woman who stopped the Stanford Prison Study.
389
1181000
3000
Esta é a mulher que interrompeu o Estudo da Prisão de Stanford.
19:56
When I said it got out of control, I was the prison superintendent.
390
1184000
3000
Quando eu disse que saiu do controle, eu era o superintendente da prisão.
19:59
I didn't know it was out of control. I was totally indifferent.
391
1187000
3000
Eu não sabia que estava fora de controle. Eu estava totalmente indiferente.
20:02
She came down, saw that madhouse and said,
392
1190000
2000
Ela apareceu, viu aquele hospício e disse,
20:04
"You know what, it's terrible what you're doing to those boys.
393
1192000
3000
"Sabe de uma coisa, é terrível o que está fazendo com esses garotos.
20:07
They're not prisoners, they're not guards,
394
1195000
1000
Eles não são prisioneiros, eles não são guardas,
20:08
they're boys, and you are responsible."
395
1196000
2000
eles são garotos, e você é responsável."
20:11
And I ended the study the next day.
396
1199000
2000
E eu acabei com o estudo no dia seguinte.
20:13
The good news is I married her the next year.
397
1201000
2000
A boa notícia é que eu me casei com ela no ano seguinte.
20:15
(Laughter)
398
1203000
3000
(Risos)
20:18
(Applause)
399
1206000
7000
(Aplausos)
20:25
I just came to my senses, obviously.
400
1213000
2000
Eu apenas caí na real, obviamente.
20:27
So situations have the power to do, through --
401
1215000
2000
Tais situações têm o poder de fazer isso, entretanto --
20:31
but the point is, this is the same situation
402
1219000
1000
mas o ponto é, esta é a mesma situação
20:32
that can inflame the hostile imagination in some of us,
403
1220000
4000
que pode inflamar a imaginação hostil em alguns de nós,
20:36
that makes us perpetrators of evil,
404
1224000
2000
que nos faz perpetradores do mal,
20:38
can inspire the heroic imagination in others. It's the same situation.
405
1226000
3000
pode inspirar a imaginação heróica em outros. É a mesma situação.
20:42
And you're on one side or the other.
406
1230000
1000
E você está de um lado ou de outro.
20:43
Most people are guilty of the evil of inaction,
407
1231000
2000
A maioria das pessoas são culpadas do mal da inação,
20:45
because your mother said, "Don't get involved. Mind your own business."
408
1233000
3000
porque sua mãe disse, "Não se envolva, cuide da sua vida."
20:48
And you have to say, "Mama, humanity is my business."
409
1236000
3000
E você tem de dizer, "Mãe, a humanidade é parte da minha vida."
20:51
So the psychology of heroism is -- we're going to end in a moment --
410
1239000
2000
Então a psicologia do heroísmo é -- vamos terminar em um instante --
20:53
how do we encourage children in new hero courses,
411
1241000
4000
como incentivamos crianças para o caminho do novo herói,
20:57
that I'm working with Matt Langdon -- he has a hero workshop --
412
1245000
3000
no qual tenho trabalhado com Matt Langdon -- ele tem um workshop de heróis --
21:00
to develop this heroic imagination, this self-labeling,
413
1248000
3000
para desenvolver sua imaginação heróica, esta auto-intitulada,
21:03
"I am a hero in waiting," and teach them skills.
414
1251000
3000
"Eu sou um herói à espera," e ensiná-los habilidades.
21:06
To be a hero, you have to learn to be a deviant,
415
1254000
2000
Para ser um herói você tem de aprender a ser um divergente,
21:09
because you're always going against the conformity of the group.
416
1257000
2000
porque você está sempre indo contra a conformidade do grupo.
21:11
Heroes are ordinary people whose social actions are extraordinary. Who act.
417
1259000
4000
Heróis são pessoas comuns cujas ações sociais são extraordinárias. Que agem.
21:15
The key to heroism is two things.
418
1263000
2000
A chave para o heroísmo são duas coisas.
21:17
A: you've got to act when other people are passive.
419
1265000
2000
A: Você tem de agir quando outras pessoas são passivas.
21:20
B: you have to act socio-centrically, not egocentrically.
420
1268000
3000
B: Você tem de agir de modo sociocêntrico, não egocêntrico.
21:23
And I want to end with the story that some of you know,
421
1271000
2000
E eu quero terminar com a estória que alguns de vocês conhecem,
21:25
about Wesley Autrey, New York subway hero.
422
1273000
2000
sobre Wesley Autrey, herói do metrô de Nova York.
21:27
Fifty-year-old African-American construction worker.
423
1275000
2000
Um afro-americano de 50 anos, trabalhador de construção.
21:29
He's standing on a subway in New York.
424
1277000
2000
Ele estava esperando no metrô em Nova York;
21:31
A white guy falls on the tracks.
425
1279000
1000
um homem branco cai nos trilhos.
21:32
The subway train is coming. There's 75 people there.
426
1280000
3000
O vagão do metrô está chegando. Havia 75 pessoas lá.
21:35
You know what? They freeze.
427
1283000
1000
Sabem o que aconteceu? Elas paralisaram.
21:36
He's got a reason not to get involved.
428
1284000
2000
Ele tinha um motivo para não se envolver.
21:38
He's black, the guy's white, and he's got two little kids.
429
1286000
2000
Ele é negro, o cara é branco, e ele tem dois filhos pequenos.
21:41
Instead, he gives his kids to a stranger,
430
1289000
1000
Entretanto, ele deixa seus filhos com um estranho,
21:42
jumps on the tracks, puts the guy between the tracks,
431
1290000
3000
salta nos trilhos, coloca o cara entre os trilhos,
21:45
lies on him, the subway goes over him.
432
1293000
2000
deita sobre ele, o metrô passa por cima dele.
21:47
Wesley and the guy -- 20 and a half inches height.
433
1295000
3000
Wesley e o cara: meio metro de altura.
21:51
The train clearance is 21 inches.
434
1299000
2000
O trem passa dois centímetros acima.
21:53
A half an inch would have taken his head off.
435
1301000
2000
Um centímetro teria arrancado sua cabeça.
21:56
And he said, "I did what anyone could do,"
436
1304000
3000
E ele diz "Eu fiz o que qualquer um poderia fazer,"
21:59
no big deal to jump on the tracks.
437
1307000
1000
não é grande coisa pular nos trilhos.
22:00
And the moral imperative is "I did what everyone should do."
438
1308000
4000
E o imperativo moral é "Eu fiz o que qualquer um deveria ter feito."
22:04
And so one day, you will be in a new situation.
439
1312000
2000
Então um dia, você estará em uma nova situação.
22:07
Take path one, you're going to be a perpetrator of evil.
440
1315000
2000
Siga o caminho um e você será o perpetrador do mal.
22:09
Evil, meaning you're going to be Arthur Andersen.
441
1317000
3000
Mal, significa que você será Arthur Anderson.
22:12
You're going to cheat, or you're going to allow bullying.
442
1320000
2000
Você vai trapacear, você vai permitir prepotência.
22:14
Path two, you become guilty of the evil of passive inaction.
443
1322000
2000
Caminho dois: você se torna culpado do mal de inação passiva.
22:17
Path three, you become a hero.
444
1325000
1000
Caminho três: você se torna um herói.
22:18
The point is, are we ready to take the path
445
1326000
3000
O ponto é, estamos prontos a tomar o caminho
22:21
to celebrating ordinary heroes,
446
1329000
2000
de premiar heróis comuns,
22:23
waiting for the right situation to come along
447
1331000
2000
esperando pela situação certa aparecer,
22:25
to put heroic imagination into action?
448
1333000
2000
para por a imaginação heróica em ação?
22:27
Because it may only happen once in your life,
449
1335000
3000
Porque pode ser que aconteça só uma vez na vida,
22:31
and when you pass it by, you'll always know,
450
1339000
1000
e quando você deixa passar você sempre saberá,
22:32
I could have been a hero and I let it pass me by.
451
1340000
3000
eu poderia ter sido um herói e eu deixei passar.
22:35
So the point is thinking it and then doing it.
452
1343000
2000
Então o ponto é pensar nisso e então fazer isso.
22:37
So I want to thank you. Thank you. Thank you.
453
1345000
3000
E eu quero agradecer. Obrigado. Obrigado.
22:40
Let's oppose the power of evil systems at home and abroad,
454
1348000
3000
Vamos opor o poder dos sistemas maus em casa e no mundo,
22:43
and let's focus on the positive.
455
1351000
2000
e vamos focar no positivo.
22:45
Advocate for respect of personal dignity, for justice and peace,
456
1353000
3000
Advogar o respeito da dignidade pessoal, a justiça e paz,
22:48
which sadly our administration has not been doing.
457
1356000
2000
que infelizmente nosso governo não tem feito.
22:50
Thanks so much.
458
1358000
1000
Muito obrigado.
22:51
(Applause)
459
1359000
13000
(Aplausos)
Translated by Fabio Ceconello
Reviewed by Moreno Barros

▲Back to top

ABOUT THE SPEAKER
Philip Zimbardo - Psychologist
Philip Zimbardo was the leader of the notorious 1971 Stanford Prison Experiment -- and an expert witness at Abu Ghraib. His book The Lucifer Effect explores the nature of evil; now, in his new work, he studies the nature of heroism.

Why you should listen

Philip Zimbardo knows what evil looks like. After serving as an expert witness during the Abu Ghraib trials, he wrote The Lucifer Effect: Understanding How Good People Turn Evil. From Nazi comic books to the tactics of used-car salesmen, he explores a wealth of sources in trying to explain the psychology of evil.

A past president of the American Psychological Association and a professor emeritus at Stanford, Zimbardo retired in 2008 from lecturing, after 50 years of teaching his legendary introductory course in psychology. In addition to his work on evil and heroism, Zimbardo recently published The Time Paradox, exploring different cultural and personal perspectives on time.

Still well-known for his controversial Stanford Prison Experiment, Zimbardo in his new research looks at the psychology of heroism. He asks, "What pushes some people to become perpetrators of evil, while others act heroically on behalf of those in need?"

More profile about the speaker
Philip Zimbardo | Speaker | TED.com