ABOUT THE SPEAKER
Philip Zimbardo - Psychologist
Philip Zimbardo was the leader of the notorious 1971 Stanford Prison Experiment -- and an expert witness at Abu Ghraib. His book The Lucifer Effect explores the nature of evil; now, in his new work, he studies the nature of heroism.

Why you should listen

Philip Zimbardo knows what evil looks like. After serving as an expert witness during the Abu Ghraib trials, he wrote The Lucifer Effect: Understanding How Good People Turn Evil. From Nazi comic books to the tactics of used-car salesmen, he explores a wealth of sources in trying to explain the psychology of evil.

A past president of the American Psychological Association and a professor emeritus at Stanford, Zimbardo retired in 2008 from lecturing, after 50 years of teaching his legendary introductory course in psychology. In addition to his work on evil and heroism, Zimbardo recently published The Time Paradox, exploring different cultural and personal perspectives on time.

Still well-known for his controversial Stanford Prison Experiment, Zimbardo in his new research looks at the psychology of heroism. He asks, "What pushes some people to become perpetrators of evil, while others act heroically on behalf of those in need?"

More profile about the speaker
Philip Zimbardo | Speaker | TED.com
TED2008

Philip Zimbardo: The psychology of evil

Philip Zimbardo: A psicologia do mal

Filmed:
7,078,283 views

Philip Zimbardo sabe o quão fácil é para as boas pessoas tornarem-se más. Nesta palestra, ele partilha conhecimentos e fotos chocantes nunca vistas dos julgamentos de Abu Ghraib. Em seguida, ele fala do reverso da medalha: o quão fácil é tornarmo-nos heróis e como podemos estar à altura do desafio. [Esta palestra contém imagens gráficas de nudez e violência e uma palavra obscena repetida.]
- Psychologist
Philip Zimbardo was the leader of the notorious 1971 Stanford Prison Experiment -- and an expert witness at Abu Ghraib. His book The Lucifer Effect explores the nature of evil; now, in his new work, he studies the nature of heroism. Full bio

Double-click the English transcript below to play the video.

00:13
PhilosophersFilósofos, dramatistsdramaturgos, theologiansteólogos
0
1000
3000
Filósofos, dramaturgos, teólogos
00:16
have grappledagarrado with this questionquestão for centuriesséculos:
1
4000
2000
têm-se debatido com esta questão
desde há séculos:
00:18
what makesfaz com que people go wrongerrado?
2
6000
2000
O que leva as pessoas a tornarem-se más?
00:20
InterestinglyÉ interessante, I askedperguntei this questionquestão when I was a little kidcriança.
3
8000
2000
Curiosamente, eu coloquei essa questão
quando era pequeno.
00:23
When I was a kidcriança growingcrescendo up in the SouthSul BronxBronx, inner-cityinterior da cidade ghettogueto
4
11000
2000
Quando eu era uma criança a crescer
no sul do Bronx, um gueto urbano
00:25
in NewNovo YorkYork, I was surroundedcercado by evilmal,
5
13000
2000
de Nova Iorque, estava rodeado pelo mal,
00:28
as all kidsfilhos are who grewcresceu up in an innerinterior citycidade.
6
16000
2000
como estão todas as crianças
que cresceram num centro urbano.
00:30
And I had friendsamigos who were really good kidsfilhos,
7
18000
2000
E eu tinha amigos que
eram realmente bons miúdos,
00:32
who livedvivia out the DrDr. JekyllJekyll MrSenhor deputado. HydeHyde scenariocenário -- RobertRobert LouisLouis StevensonStevenson.
8
20000
4000
que viviam num mundo de Dr. Jekyll e Mr. Hyde,
de Robert Louis Stevenson.
00:36
That is, they tooktomou drugsdrogas, got in troubleproblema, wentfoi to jailcadeia.
9
24000
4000
Isto é, consumiam drogas,
metiam-se em problemas, iam presos.
00:40
Some got killedmorto, and some did it withoutsem drugdroga assistanceassistência.
10
28000
4000
Alguns foram mortos e outros faziam-no
sem a ajuda das drogas.
00:44
So when I readler RobertRobert LouisLouis StevensonStevenson, that wasn'tnão foi fictionficção.
11
32000
3000
Por isso, quando li Robert Louis Stevenson,
para mim aquilo não era ficção.
00:47
The only questionquestão is, what was in the juicesuco?
12
35000
1000
A única pergunta é:
o que é que meteram naquele sumo?
00:48
And more importantlyimportante, that linelinha betweenentre good and evilmal --
13
36000
5000
E, ainda mais importante,
aquela linha entre o bem e o mal
00:53
whichqual privilegedprivilegiado people like to think is fixedfixo and impermeableimpermeáveis,
14
41000
3000
— a qual as pessoas privilegiadas
gostam de acreditar que é fixa e impermeável,
00:56
with them on the good sidelado, and the othersoutras on the badmau sidelado --
15
44000
3000
com eles do lado do bem e
os outros do lado do mal
00:59
I knewsabia that linelinha was movablemóveis, and it was permeablepermeável.
16
47000
3000
— eu sabia que essa linha era flexível
e que era permeável.
01:02
Good people could be seducedseduzido acrossatravés that linelinha,
17
50000
2000
Boas pessoas podiam ser seduzidas
a atravessar essa linha,
01:05
and undersob good and some rareraro circumstancescircunstâncias, badmau kidsfilhos could recoverrecuperar
18
53000
3000
e em boas e raras circunstâncias,
crianças más podiam recuperar
01:08
with help, with reformreforma, with rehabilitationreabilitação.
19
56000
3000
com ajuda, com reforma, com reabilitação.
01:12
So I want to begininício with this this wonderfulMaravilhoso illusionilusão
20
60000
2000
Por isso, quero começar com
esta ilusão maravilhosa
01:14
by [DutchHolandês] artistartista M.C. EscherEscher.
21
62000
2000
do artista holandês M.C. Escher.
01:17
If you look at it and focusfoco on the whitebranco,
22
65000
1000
Se olharem para ela e se focarem no branco,
01:18
what you see is a worldmundo fullcheio of angelsanjos.
23
66000
2000
o que veem é um mundo cheio de anjos.
01:20
But let's look more deeplyprofundamente, and as we do,
24
68000
3000
Mas observemos com um olhar penetrante,
e ao fazê-lo,
01:23
what appearsaparece is the demonsdemônios, the devilsdemônios in the worldmundo.
25
71000
3000
tornam-se aparentes os demónios,
os diabos do mundo.
01:27
And that tellsconta us severalde várias things.
26
75000
1000
E isto diz-nos várias coisas.
01:28
One, the worldmundo is, was, will always be filledpreenchidas with good and evilmal,
27
76000
3000
Primeira: que o mundo está, esteve e estará
sempre repleto de bem e mal,
01:31
because good and evilmal is the yinYin and yangYang of the humanhumano conditioncondição.
28
79000
3000
porque o bem e o mal são o "yin" e o "yang"
da condição humana.
01:34
It tellsconta me something elseoutro. If you rememberlembrar,
29
82000
2000
Também me diz algo mais.
Se se recordam,
01:36
God'sDe Deus favoritefavorito angelanjo was LuciferLúcifer.
30
84000
3000
o anjo preferido de Deus era Lúcifer.
01:39
ApparentlyAparentemente, LuciferLúcifer meanssignifica "the lightluz."
31
87000
2000
Aparentemente, Lúcifer significa "a luz".
01:42
It alsoAlém disso meanssignifica "the morningmanhã starEstrela," in some scriptureEscrituras.
32
90000
2000
Mas também significa "a estrela da manhã",
em algumas escrituras.
01:44
And apparentlypelo visto, he disobeyeddesobedeceu God,
33
92000
3000
E, aparentemente, ele desobedeceu a Deus,
01:47
and that's the ultimatefinal disobediencedesobediência to authorityautoridade.
34
95000
3000
e essa é a desobediência máxima à autoridade.
01:50
And when he did, MichaelMichael, the archangelArcanjo, was sentenviei
35
98000
3000
E quando o fez, Miguel, o arcanjo, foi enviado
01:54
to kickpontapé him out of heavencéu alongao longo with the other fallencaído angelsanjos.
36
102000
3000
para o expulsar do Céu,
juntamente com os outros anjos caídos.
01:57
And so LuciferLúcifer descendsDesce into hellinferno, becomestorna-se SatanSatanás,
37
105000
3000
E então, Lúcifer desce ao Inferno,
torna-se Satanás,
02:01
becomestorna-se the devildiabo, and the forceforça of evilmal in the universeuniverso beginscomeça.
38
109000
2000
torna-se Diabo, e tem início
a força do mal no Universo.
02:03
ParadoxicallyParadoxalmente, it was God who createdcriada hellinferno as a placeLugar, colocar to storeloja evilmal.
39
111000
5000
Paradoxalmente, foi Deus quem criou o Inferno
enquanto local para guardar o mal.
02:09
He didn't do a good jobtrabalho of keepingguardando it there thoughApesar.
40
117000
1000
No entanto, ele não fez um bom trabalho
em mantê-lo lá.
02:10
So, this arcarco of the cosmiccósmico transformationtransformação
41
118000
3000
Então, esta arca da transformação cósmica
02:13
of God'sDe Deus favoritefavorito angelanjo into the DevilDiabo,
42
121000
2000
do anjo preferido de Deus em Diabo,
02:15
for me, setsconjuntos the contextcontexto for understandingcompreensão humanhumano beingsseres
43
123000
4000
para mim, estabelece o contexto
para entender os seres humanos
02:19
who are transformedtransformado from good, ordinarycomum people
44
127000
3000
que, de pessoas boas e comuns, se convertem
02:22
into perpetratorsautores of evilmal.
45
130000
2000
em praticantes do mal.
02:24
So the LuciferLúcifer effectefeito, althoughApesar it focusesfoca on the negativesnegativos --
46
132000
4000
Então, o efeito Lúcifer, apesar de se focar
nos aspetos negativos
02:28
the negativesnegativos that people can becometornar-se,
47
136000
3000
— nas coisas más em que as pessoas
se podem tornar,
02:31
not the negativesnegativos that people are --
48
139000
1000
e não nas coisas más que as pessoas são
02:32
leadsconduz me to a psychologicalpsicológico definitiondefinição. EvilMal is the exerciseexercício of powerpoder.
49
140000
6000
— conduz-me a uma definição psicológica:
o mal é o exercício de poder.
02:38
And that's the keychave: it's about powerpoder.
50
146000
2000
E essa é a chave: é sobre poder.
02:40
To intentionallyintencionalmente harmprejuízo people psychologicallypsicologicamente,
51
148000
3000
Para intencionalmente magoar pessoas
psicologicamente,
02:44
to hurtferido people physicallyfisicamente, to destroydestruir people mortallymortalmente, or ideasidéias,
52
152000
3000
para magoar pessoas fisicamente, e para destruir
pessoas mortalmente, ou ideias,
02:47
and to commitcometer crimescrimes againstcontra humanityhumanidade.
53
155000
2000
e para cometer crimes contra a Humanidade.
02:51
If you GoogleGoogle "evilmal," a wordpalavra that should surelycertamente have witheredmurchou by now,
54
159000
3000
Se pesquisarem "mal" no Google, uma palavra
que certamente já deveria ter definhado,
02:54
you come up with 136 millionmilhão hitsexitos in a thirdterceiro of a secondsegundo.
55
162000
4000
aparecem cerca de 136 milhões de resultados
num terço de segundo.
02:58
A fewpoucos yearsanos agoatrás -- I am sure all of you were shockedchocado, as I was,
56
166000
4000
Há alguns anos atrás — estou seguro de que
ficaram chocados, tal como eu,
03:02
with the revelationrevelação of AmericanAmericana soldierssoldados
57
170000
3000
com a revelação dos abusos que
soldados norte-americanos
03:05
abusingabusando prisonersprisioneiros in a strangeestranho placeLugar, colocar
58
173000
3000
fizeram a prisioneiros, num lugar estranho,
03:08
in a controversialcontroverso warguerra, AbuAbu GhraibGhraib in IraqIraque.
59
176000
3000
numa guerra polémica, em Abu Ghraib, no Iraque.
03:11
And these were menhomens and womenmulheres
60
179000
1000
E estes eram homens e mulheres
03:12
who were puttingcolocando prisonersprisioneiros throughatravés unbelievableinacreditável humiliationhumilhação.
61
180000
5000
que estavam a sujeitar prisioneiros
a situações de humilhação extrema.
03:18
I was shockedchocado, but I wasn'tnão foi surprisedsurpreso,
62
186000
1000
Fiquei chocado, mas não surpreendido,
03:19
because I had seenvisto those samemesmo visualvisual parallelsparalelos
63
187000
2000
porque já tinha visto situações idênticas
03:22
when I was the prisonprisão superintendentSuperintendente of the StanfordStanford PrisonPrisão StudyEstudo.
64
190000
3000
enquanto superintendente da prisão
no Estudo da Prisão de Stanford.
03:25
ImmediatelyImediatamente the BushBush administrationadministração militarymilitares said ... what?
65
193000
2000
De imediato, os militares
da administração Bush disseram... o quê?
03:28
What all administrationsadministrações say when there's a scandalescândalo.
66
196000
2000
O que todos os governos dizem
quando há um escândalo.
03:30
"Don't blameculpa us. It's not the systemsistema. It's the fewpoucos badmau applesmaçãs,
67
198000
3000
“Não nos culpem. Não é o sistema.
São algumas maçãs podres,
03:34
the fewpoucos roguedesonestos soldierssoldados."
68
202000
1000
"alguns soldados rebeldes.”
03:35
My hypothesishipótese is, AmericanAmericana soldierssoldados are good, usuallygeralmente.
69
203000
3000
A minha hipótese é: geralmente,
os soldados norte-americanos são bons.
03:38
Maybe it was the barrelbarril that was badmau.
70
206000
2000
Talvez fosse a caixa que estivesse podre.
03:40
But how am I going to -- how am I going to dealacordo with that hypothesishipótese?
71
208000
3000
Mas como é que eu vou...
Como é que vou lidar com essa hipótese?
03:43
I becamepassou a ser an expertespecialista witnesstestemunha
72
211000
1000
Tornei-me um perito judicial
03:44
for one of the guardsguardas, SergeantSargento ChipChip de FrederickFrederico,
73
212000
2000
para um dos guardas, o Sargento Chip Frederick,
03:46
and in that positionposição, I had accessAcesso to the dozendúzia investigativeinvestigação reportsrelatórios.
74
214000
4000
e, nessa posição, tinha acesso
às dúzias de relatórios de investigação.
03:50
I had accessAcesso to him. I could studyestude him,
75
218000
3000
Tinha acesso a ele.
Podia estudá-lo,
03:54
have him come to my home, get to know him,
76
222000
1000
recebê-lo em minha casa, conhecê-lo,
03:55
do psychologicalpsicológico analysisanálise to see, was he a good applemaçã or badmau applemaçã.
77
223000
4000
fazer testes psicológicos para ver se ele
era ou não uma maçã podre.
03:59
And thirdlyem terceiro lugar, I had accessAcesso to all of the 1,000 picturesAs fotos
78
227000
4000
E, em terceiro lugar, tinha acesso
a todas as mil fotografias
04:03
that these soldierssoldados tooktomou.
79
231000
1000
que estes soldados tinham tirado.
04:05
These picturesAs fotos are of a violentviolento or sexualsexual naturenatureza.
80
233000
2000
Estas fotografias são de natureza violenta ou sexual.
04:07
All of them come from the camerascâmeras of AmericanAmericana soldierssoldados.
81
235000
3000
Todas vêm das câmaras
de soldados norte-americanos.
04:11
Because everybodytodo mundo has a digitaldigital cameraCâmera or cellcélula phonetelefone cameraCâmera,
82
239000
2000
Como toda a gente tem uma câmara digital
ou câmara no telemóvel,
04:13
they tooktomou picturesAs fotos of everything. More than 1,000.
83
241000
2000
eles tiraram fotografias de tudo.
Mais de um milhar.
04:16
And what I've donefeito is I organizedorganizado them into variousvários categoriescategorias.
84
244000
2000
E o que eu fiz foi organizá-las em várias categorias.
04:18
But these are by UnitedUnidos StatesEstados-Membros militarymilitares policepolícia, armyexército reservistsreservistas.
85
246000
5000
Mas estas foram tiradas por polícias militares
dos EUA, militares da reserva.
04:24
They are not soldierssoldados preparedpreparado for this missionmissão at all.
86
252000
3000
Não são, de todo, soldados preparados
para esta missão.
04:27
And it all happenedaconteceu in a singlesolteiro placeLugar, colocar, TierCamada de 1-A-A, on the night shiftmudança.
87
255000
5000
E tudo aconteceu num único local:
a Zona 1-A, durante o turno da noite.
04:32
Why? TierCamada de 1-A-A was the centercentro for militarymilitares intelligenceinteligência.
88
260000
3000
E porquê? Porque a Zona 1-A
era o centro dos serviços secretos militares.
04:35
It was the interrogationinterrogatório holdaguarde. The CIACIA was there.
89
263000
3000
Era a prisão dos interrogatórios.
Estava lá a CIA.
04:39
InterrogatorsInterrogadores from TitanTitan CorporationCorporação, all there,
90
267000
2000
Estavam lá interrogadores
da Titan Corporation, todos lá,
04:41
and they're gettingobtendo no informationem formação about the insurgencyinsurgência.
91
269000
3000
e não estavam a conseguir qualquer tipo
de informação sobre a revolta.
04:45
So they're going to put pressurepressão on these soldierssoldados,
92
273000
1000
Por isso, eles estavam fazer pressão
sobre estes soldados,
04:46
militarymilitares policepolícia, to crossCruz the linelinha,
93
274000
2000
esta polícia militar, para pisarem o risco,
04:49
give them permissionpermissão to breakpausa the will of the enemyinimigo,
94
277000
3000
e deram-lhes permissão
para quebrarem a vontade no inimigo,
04:52
to preparePrepare-se them for interrogationinterrogatório, to softenamaciar them up,
95
280000
2000
para os prepararem para o interrogatório,
para os enfraquecerem,
04:54
to take the glovesluvas off. Those are the euphemismseufemismos,
96
282000
2000
para tirarem as luvas.
Eram esses os eufemismos,
04:56
and this is how it was interpretedinterpretado.
97
284000
3000
e foi assim que foram interpretados.
05:00
Let's go down to that dungeonmasmorra.
98
288000
1000
Vamos até àquela masmorra.
05:01
(CameraCâmera shutterobturador)
99
289000
37000
(Máquina de escrever... obturador de câmara)
05:38
(ThudsBatida de)
100
326000
6000
(Ouvem-se pancadas)
05:45
(CameraCâmera shutterobturador)
101
333000
14000
(Ouve-se um obturador de câmara)
05:59
(ThudsBatida de)
102
347000
10000
(Ouvem-se batidas)
06:09
(BreathingRespiração)
103
357000
8000
(Ouve-se respiração)
06:17
(BellsSinos)
104
365000
31000
(Ouvem-se sinos)
06:49
So, prettybonita horrifichorrível.
105
397000
3000
Horrível.
06:52
That's one of the visualvisual illustrationsilustrações of evilmal.
106
400000
3000
Esta é uma das ilustrações visuais do mal.
06:55
And it should not have escapedescapou you that
107
403000
1000
E não vos devia ter escapado que
06:56
the reasonrazão I pairedemparelhado the prisonerprisioneiro with his armsbraços out
108
404000
4000
a razão pela qual emparelhei
o prisioneiro com os braços abertos
07:00
with LeonardoLeonardo dada Vinci'sDa Vinci odeHino to humanityhumanidade
109
408000
3000
com a ode à Humanidade,
de Leonardo da Vinci,
07:03
is that that prisonerprisioneiro was mentallymentalmente illeu vou.
110
411000
2000
é que aquele prisioneiro
tinha uma doença mental.
07:05
That prisonerprisioneiro coveredcoberto himselfele mesmo with shitmerda everycada day,
111
413000
2000
Aquele prisioneiro cobria-se de merda
todos os dias
07:07
and they used to have to rolllista him in dirtsujeira so he wouldn'tnão seria stinkfedor.
112
415000
3000
e eles costumavam fazê-lo rebolar na terra
para que ele não cheirasse mal.
07:10
But the guardsguardas endedterminou up callingligando him "ShitMerda BoyMenino."
113
418000
2000
Mas os guardas acabaram por
apelidá-lo de "Rapaz Merda".
07:12
What was he doing in that prisonprisão
114
420000
2000
Porque é que ele estava naquela prisão
07:14
ratherem vez than in some mentalmental institutioninstituição?
115
422000
3000
em vez de estar numa instituição psiquiátrica?
07:17
In any eventevento, here'saqui está formerantigo SecretarySecretário of DefenseDefesa RumsfeldRumsfeld.
116
425000
3000
De qualquer forma, aqui está
o antigo secretário da Defesa, Rumsfeld.
07:20
He comesvem down and saysdiz, "I want to know, who is responsibleresponsável?
117
428000
2000
Ele aparece e pergunta:
"Quero saber, quem são os responsáveis?
07:22
Who are the badmau applesmaçãs?" Well, that's a badmau questionquestão.
118
430000
3000
"Quem são as maçãs podres?"
Bem, esta é uma má pergunta.
07:25
You have to reframereformular it and askpergunte, "What is responsibleresponsável?"
119
433000
3000
Deve ser reformulada para: "O que é responsável?"
07:28
Because "what" could be the who of people,
120
436000
2000
Porque "o que" pode ser "quem",
07:30
but it could alsoAlém disso be the what of the situationsituação,
121
438000
2000
mas também pode ser "o quê" da situação,
07:32
and obviouslyobviamente that's wrongheadedequivocadas.
122
440000
2000
e obviamente há um equívoco.
07:34
So how do psychologistspsicólogos go about understandingcompreensão
123
442000
2000
Como é que os psicólogos fazem para entenderem
07:36
suchtal transformationstransformações of humanhumano characterpersonagem,
124
444000
2000
tais transformações no comportamento humano,
07:38
if you believe that they were good soldierssoldados
125
446000
2000
se acreditarem que eles eram bons soldados
07:40
before they wentfoi down to that dungeonmasmorra?
126
448000
1000
antes de terem descido àquela masmorra?
07:42
There are threetrês waysmaneiras. The maina Principal way is -- it's calledchamado dispositionaldisposicional.
127
450000
2000
Existem três maneiras.
A principal chama-se disposicional.
07:44
We look at what's insidedentro of the personpessoa, the badmau applesmaçãs.
128
452000
3000
Olhamos para o que está no interior da pessoa,
as maçãs podres.
07:48
This is the foundationFundação of all of socialsocial scienceCiência,
129
456000
3000
Esta é a base de tudo nas ciências sociais,
07:51
the foundationFundação of religionreligião, the foundationFundação of warguerra.
130
459000
2000
a base da religião, a base da guerra.
07:55
SocialSocial psychologistspsicólogos like me come alongao longo and say, "Yeah,
131
463000
2000
Psicólogos sociais, como eu,
aparecem e dizem: "Sim,
07:57
people are the actorsatores on the stageetapa,
132
465000
2000
"as pessoas são os atores no palco,
07:59
but you'llvocê vai have to be awareconsciente of what that situationsituação is.
133
467000
2000
"mas temos de estar cientes de qual é a situação.
08:01
Who are the castfundida of characterspersonagens? What's the costumefantasia?
134
469000
3000
"Qual é o elenco de personagens?
Qual é o disfarce?
08:04
Is there a stageetapa directordiretor?"
135
472000
1000
"Existe um encenador?"
08:05
And so we're interestedinteressado in, what are the externalexterno factorsfatores
136
473000
2000
Então, estamos interessados
em quais são os fatores externos
08:08
around the individualIndividual -- the badmau barrelbarril?
137
476000
2000
que envolvem o indivíduo — o barril podre?
08:10
And socialsocial scientistscientistas stop there, and they misssenhorita the biggrande pointponto
138
478000
3000
E os cientistas sociais ficam-se por aí,
e escapa-se-lhes a grande questão
08:13
that I discovereddescobriu when I becamepassou a ser an expertespecialista witnesstestemunha for AbuAbu GhraibGhraib.
139
481000
3000
que eu descobri quando me tornei
num perito para Abu Ghraib:
08:16
The powerpoder is in the systemsistema.
140
484000
2000
o poder está no sistema.
08:18
The systemsistema createscria the situationsituação that corruptscorrompe the individualsindivíduos,
141
486000
3000
O sistema cria a situação
que corrompe os indivíduos
08:21
and the systemsistema is the legallegal, politicalpolítico, economiceconômico, culturalcultural backgroundfundo.
142
489000
5000
e o sistema é a envolvente legal,
política, económica, cultural.
08:26
And this is where the powerpoder is of the bad-barrelmau-barril makersfabricantes.
143
494000
3000
E é aqui que está o poder dos produtores
de barris podres.
08:29
So if you want to changemudança a personpessoa, you've got to changemudança the situationsituação.
144
497000
3000
Então, se queremos mudar uma pessoa,
temos de alterar a situação.
08:32
If you want to changemudança the situationsituação,
145
500000
1000
Se queremos alterar a situação,
08:33
you've got to know where the powerpoder is, in the systemsistema.
146
501000
2000
temos de saber onde está o poder, no sistema.
08:35
So the LuciferLúcifer effectefeito involvesenvolve understandingcompreensão
147
503000
2000
Então, o efeito Lúcifer implica perceber
08:37
humanhumano characterpersonagem transformationstransformações with these threetrês factorsfatores.
148
505000
5000
as transformações no comportamento humano
com estes três fatores.
08:43
And it's a dynamicdinâmico interplayinteração.
149
511000
1000
E é uma interação dinâmica.
08:44
What do the people bringtrazer into the situationsituação?
150
512000
2000
O que é que as pessoas contribuem
para a situação?
08:46
What does the situationsituação bringtrazer out of them?
151
514000
2000
Como é que a situação as influencia?
08:48
And what is the systemsistema that createscria and maintainsmantém that situationsituação?
152
516000
4000
E qual é o sistema que cria e sustenta
essa situação?
08:52
So my booklivro, "The LuciferLúcifer EffectEfeito," recentlyrecentemente publishedPublicados, is about,
153
520000
2000
Então o meu livro, "O efeito Lúcifer",
recentemente publicado, é sobre
08:54
how do you understandCompreendo how good people turnvirar evilmal?
154
522000
2000
como podemos perceber como é que
boas pessoas se tornam más?
08:57
And it has a lot of detaildetalhe
155
525000
1000
E entra em bastante detalhe
08:58
about what I'm going to talk about todayhoje.
156
526000
2000
sobre aquilo de que vou falar hoje.
09:01
So DrDr. Z'sDo Z "LuciferLúcifer EffectEfeito," althoughApesar it focusesfoca on evilmal,
157
529000
3000
Então, o "Efeito Lúcifer" do Dr. Z,
embora se foque no mal,
09:04
really is a celebrationcelebração of the humanhumano mind'sdo mente
158
532000
2000
é na verdade uma homenagem à mente humana
09:06
infiniteinfinito capacitycapacidade to make any of us kindtipo or cruelcruel,
159
534000
4000
e à sua capacidade infinita de tornar
qualquer um de nós amável ou cruel,
09:10
caringCuidando or indifferentindiferente, creativecriativo or destructivedestrutivo,
160
538000
3000
preocupado ou indiferente, criativo ou destrutivo,
09:13
and it makesfaz com que some of us villainsvilões.
161
541000
2000
e faz de alguns de nós vilões.
09:15
And the good newsnotícia storyhistória that I'm going to hopefullyesperançosamente come to
162
543000
2000
E o final feliz ao qual espero chegar
09:18
at the endfim is that it makesfaz com que some of us heroesHeróis.
163
546000
2000
é que faz de alguns de nós heróis.
09:20
This is a wonderfulMaravilhoso cartoondesenho animado in the NewNovo YorkerIorquino,
164
548000
3000
Este é um cartune maravilhoso da
[revista] The New Yorker,
09:23
whichqual really summarizesresume my wholetodo talk:
165
551000
2000
que verdadeiramente resume
toda a minha palestra:
09:25
"I'm neithernem a good coppolicial nornem a badmau coppolicial, JeromeJerome.
166
553000
2000
"Não sou um polícia bom nem mau, Jerome.
09:27
Like yourselfvocê mesmo, I'm a complexcomplexo amalgamamálgama
167
555000
2000
"Tal como tu, sou uma amalgama complexa
09:29
of positivepositivo and negativenegativo personalitypersonalidade traitstraços
168
557000
2000
"de traços de personalidade positivos e negativos,
09:32
that emergeemergem or not, dependingdependendo on the circumstancescircunstâncias."
169
560000
3000
"que emergem ou não,
dependendo das circunstâncias".
09:35
(LaughterRiso)
170
563000
2000
(Risos)
09:37
There's a studyestude some of you think you know about,
171
565000
3000
Há um estudo que alguns de vocês
pensam conhecer,
09:40
but very fewpoucos people have ever readler the storyhistória. You watchedassisti the moviefilme.
172
568000
4000
mas muito poucas pessoas chegaram a ler
a história. Vocês viram o filme.
09:44
This is StanleyStanley MilgramMilgram, little JewishJudeu kidcriança from the BronxBronx,
173
572000
3000
Este é Stanley Milgram,
uma pequena criança judia do Bronx,
09:47
and he askedperguntei the questionquestão, "Could the HolocaustHolocausto happenacontecer here, now?"
174
575000
3000
que perguntou:
"Seria possível o Holocausto ocorrer aqui, agora?"
09:51
People say, "No, that's NaziNazista GermanyAlemanha,
175
579000
1000
As pessoas respondem:
"Não, isso foi na Alemanha Nazi,
09:52
that's HitlerHitler, you know, that's 1939."
176
580000
2000
"isso foi o Hitler, sabes, isso foi em 1939".
09:54
He said, "Yeah, but supposesuponha HitlerHitler askedperguntei you,
177
582000
2000
Ele disse:
"Sim, mas supõe que o Hitler te perguntava:
09:56
'Would you electrocuteeletrocutar a strangerdesconhecido?' 'No' N way, not me, I'm a good personpessoa.' "
178
584000
3000
"'Conseguirias electrocutar um desconhecido?'
'Nem pensar, eu não, eu sou uma boa pessoa.'"
10:00
He said, "Why don't we put you in a situationsituação
179
588000
1000
Ele disse:
"Porque é que não te colocamos numa situação
10:01
and give you a chancechance to see what you would do?"
180
589000
2000
"na qual te damos a oportunidade
de veres o que farias?"
10:03
And so what he did was he testedtestado 1,000 ordinarycomum people.
181
591000
4000
Então o que ele fez foi testar
1000 pessoas normais.
10:07
500 NewNovo HavenHaven, ConnecticutConnecticut, 500 BridgeportBridgeport.
182
595000
3000
500 em New Haven, Connecticut,
500 em Bridgeport.
10:10
And the adde Anúncios said, "PsychologistsPsicólogos want to understandCompreendo memorymemória.
183
598000
4000
E o anúncio dizia:
"Psicólogos querem perceber a memória.
10:14
We want to improvemelhorar people'spovos memorymemória,
184
602000
1000
"Queremos melhorar a memória das pessoas,
10:15
because memorymemória is the keychave to successsucesso." OK?
185
603000
3000
"porque a memória é a chave
para o sucesso." Ok?
10:18
"We're going to give you fivecinco bucksdólares -- fourquatro dollarsdólares for your time."
186
606000
5000
"Vamos dar-lhe cinco dólares... quatro dólares
pelo seu tempo."
10:24
And it said, "We don't want collegeFaculdade studentsalunos.
187
612000
1000
E dizia: "Não queremos estudantes universitários.
10:25
We want menhomens betweenentre 20 and 50."
188
613000
2000
"Queremos homens entre os 20 e os 50 anos."
10:27
In the latermais tarde studiesestudos, they rancorreu womenmulheres.
189
615000
1000
Em estudos posteriores, incluíram mulheres.
10:28
OrdinaryOrdinário people: barbersbarbeiros, clerksbalconistas, white-collarcolarinho branco people.
190
616000
4000
"Pessoas normais: barbeiros, administrativos,
empregados de escritório."
10:32
So, you go down, and one of you is going to be a learneraprendiz,
191
620000
3000
Então, vocês deslocam-se até lá,
e um de vocês será um aprendiz
10:35
and one of you is going to be a teacherprofessor.
192
623000
1000
e outro será um professor.
10:36
The learner'scarteira de habilitação a genialgenial, middle-agedmeia idade guy.
193
624000
2000
O aprendiz é um homem agradável, de meia-idade.
10:38
He getsobtém tiedamarrado up to the shockchoque apparatusaparelho in anotheroutro roomquarto.
194
626000
3000
Ele é amarrado ao aparelho de choques
que está noutra sala.
10:41
The learneraprendiz could be middle-agedmeia idade, could be as youngjovem as 20.
195
629000
3000
O aprendiz tanto podia ser de meia-idade,
como ter apenas 20 anos.
10:44
And one of you is told by the authorityautoridade, the guy in the lablaboratório coatcasaco,
196
632000
4000
E um de vocês recebe as instruções
da autoridade, o homem de bata branca:
10:48
"Your jobtrabalho as teacherprofessor is to give this guy materialmaterial to learnaprender.
197
636000
3000
"A sua função, enquanto professor,
é dar a este homem material para ele aprender.
10:51
GetsObtém it right, rewardrecompensa him.
198
639000
1000
"Se ele acertar, recompense-o.
10:52
GetsObtém it wrongerrado, you presspressione a buttonbotão on the shockchoque boxcaixa.
199
640000
2000
"Se ele errar, você prime um botão
na caixa de choques.
10:54
The first buttonbotão is 15 voltsvolts. He doesn't even feel it."
200
642000
3000
"O primeiro botão é de 15 volts.
Ele nem o sente."
10:58
That's the keychave. All evilmal startscomeça with 15 voltsvolts.
201
646000
3000
Essa é a chave.
Todo o mal começa com 15 volts.
11:01
And then the nextPróximo stepdegrau is anotheroutro 15 voltsvolts.
202
649000
2000
E o próximo passo são mais 15 volts.
11:04
The problemproblema is, at the endfim of the linelinha, it's 450 voltsvolts.
203
652000
2000
O problema é que, no outro extremo,
são 450 volts.
11:06
And as you go alongao longo, the guy is screaminggritando,
204
654000
3000
E conforme se vai concordando,
o homem está a gritar:
11:09
"I've got a heartcoração conditioncondição! I'm out of here!"
205
657000
2000
"Tenho problemas de coração!
Quero sair daqui!"
11:11
You're a good personpessoa. You complainreclamar.
206
659000
2000
Você é boa pessoa.
Você queixa-se.
11:13
"SirSenhor, who'squem é going to be responsibleresponsável if something happensacontece to him?"
207
661000
2000
"Quem é que será responsabilizado
se lhe acontecer alguma coisa?"
11:15
The experimenterexperimentador saysdiz, "Don't worrypreocupação, I will be responsibleresponsável.
208
663000
3000
O experimentador responde:
"Não se preocupe, eu serei o responsável.
11:18
ContinueContinue, teacherprofessor."
209
666000
1000
"Continue, professor."
11:19
And the questionquestão is, who would go all the way to 450 voltsvolts?
210
667000
4000
E a questão é: quem iria até ao extremo
dos 450 volts?
11:24
You should noticeaviso prévio here, when it getsobtém up to 375,
211
672000
2000
Deveriam reparar que,
quando chega aos 375,
11:26
it saysdiz, "DangerPerigo. SevereGrave ShockChoque."
212
674000
1000
está escrito:
"Perigo. Choque Grave."
11:28
When it getsobtém up to here, there's "XXXXXX" -- the pornographypornografia of powerpoder.
213
676000
3000
Quando chega aqui,
têm "XXX" — a pornografia do poder.
11:31
(LaughterRiso)
214
679000
1000
(Risos)
11:32
So MilgramMilgram askspergunta 40 psychiatristspsiquiatras,
215
680000
1000
Então Milgram pergunta a 40 psiquiatras:
11:33
"What percentpor cento of AmericanAmericana citizenscidadãos would go to the endfim?"
216
681000
3000
"Que percentagem de cidadãos norte-americanos
iria até ao fim?"
11:37
They said only one percentpor cento. Because that's sadisticsádico behaviorcomportamento,
217
685000
3000
Eles disseram que apenas um por cento.
Porque se trata de comportamento sádico
11:40
and we know, psychiatryPsiquiatria knowssabe, only one percentpor cento of AmericansAmericanos are sadisticsádico.
218
688000
3000
e nós sabemos, a psiquiatria sabe, que apenas
um por cento dos norte-americanos são sádicos.
11:44
OK. Here'sAqui é the datadados. They could not be more wrongerrado.
219
692000
4000
Ok. Aqui estão os dados.
Eles não poderiam estar mais errados.
11:48
Two thirdsterços go all the way to 450 voltsvolts. This was just one studyestude.
220
696000
5000
Dois terços prosseguem até aos 450 volts.
Este foi apenas um estudo.
11:53
MilgramMilgram did more than 16 studiesestudos. And look at this.
221
701000
3000
Milgram conduziu mais de 16 estudos.
E olhem para isto.
11:56
In studyestude 16, where you see somebodyalguém like you go all the way,
222
704000
4000
No estudo 16, onde veem alguém
como vocês ir até ao fim,
12:00
90 percentpor cento go all the way. In studyestude fivecinco, if you see people rebelrebelde, 90 percentpor cento rebelrebelde.
223
708000
6000
90 por cento vão até ao fim. No estudo cinco, se virem
pessoas revoltarem-se, 90 por cento revoltam-se.
12:06
What about womenmulheres? StudyEstudo 13 -- no differentdiferente than menhomens.
224
714000
3000
E em relação às mulheres?
Estudo 13 — iguais aos homens.
12:10
So MilgramMilgram is quantifyingquantificação dos evilmal as the willingnessboa vontade of people
225
718000
3000
Milgram quantifica o mal como sendo
o voluntarismo com que as pessoas
12:13
to blindlycegamente obeyobedecer authorityautoridade, to go all the way to 450 voltsvolts.
226
721000
3000
obedecem cegamente à autoridade,
indo até aos 450 volts.
12:16
And it's like a dialdiscagem on humanhumano naturenatureza.
227
724000
2000
E é como um botão de volume da natureza humana.
12:18
A dialdiscagem in a sensesentido that you can make almostquase everybodytodo mundo totallytotalmente obedientobediente,
228
726000
4000
Um botão de volume no sentido em que podemos fazer
com que quase toda a gente seja totalmente obediente,
12:23
down to the majoritymaioria, down to noneNenhum.
229
731000
2000
ou apenas uma maioria, ou então ninguém.
12:25
So what are the externalexterno parallelsparalelos? For all researchpesquisa is artificialartificial.
230
733000
4000
Então quais são os paralelismos externos?
Porque toda a investigação é artificial.
12:29
What's the validityvalidade in the realreal worldmundo?
231
737000
1000
Qual é a validade no mundo real?
12:30
912 AmericanAmericana citizenscidadãos committedcomprometido suicidesuicídio or were murderedassassinado
232
738000
4000
912 cidadãos norte-americanos cometeram
suicídio ou foram assassinados
12:34
by familyfamília and friendsamigos in GuyanaGuiana jungleselva in 1978,
233
742000
3000
por familiares e amigos
na floresta da Guiana, em 1978,
12:37
because they were blindlycegamente obedientobediente to this guy, theirdeles pastorPastor --
234
745000
3000
porque tinham obediência cega
a uma pessoa, o pastor deles
12:40
not theirdeles priestsacerdote -- theirdeles pastorPastor, ReverendReverendo JimJim JonesJones.
235
748000
2000
— não o padre — o pastor deles,
o Reverendo Jim Jones.
12:42
He persuadedpersuadido them to commitcometer massmassa suicidesuicídio.
236
750000
3000
Ele convenceu-os a cometer suicídio em massa.
12:46
And so, he's the modernmoderno LuciferLúcifer effectefeito,
237
754000
1000
E assim, ele é o efeito Lúcifer
dos tempos modernos,
12:47
a man of God who becomestorna-se the AngelAnjo of DeathMorte.
238
755000
3000
um homem de Deus que se converte
no Anjo da Morte.
12:52
Milgram'sDe Milgram studyestude is all about individualIndividual authorityautoridade to controlao controle people.
239
760000
4000
O estudo de Milgram é sobre a autoridade individual para controlar pessoas.
12:56
MostMaioria of the time, we are in institutionsinstituições,
240
764000
3000
Na maior parte do tempo, estamos em instituições,
13:00
so the StanfordStanford PrisonPrisão StudyEstudo is a studyestude of the powerpoder of institutionsinstituições
241
768000
3000
então o Estudo da Prisão de Stanford é
um estudo acerca do poder das instituições
13:03
to influenceinfluência individualIndividual behaviorcomportamento.
242
771000
2000
para influenciarem o comportamento individual.
13:05
InterestinglyÉ interessante, StanleyStanley MilgramMilgram and I were in the samemesmo highAlto schoolescola classclasse
243
773000
3000
Curiosamente, o Stanley Milgram e eu frequentámos
a mesma turma na Escola Secundária
13:08
in JamesJames MonroeMonroe in the BronxBronx, 1954.
244
776000
3000
James Monroe, no Bronx, em 1954.
13:13
So this studyestude, whichqual I did
245
781000
1000
Este estudo, que eu conduzi
13:14
with my graduategraduado studentsalunos, especiallyespecialmente CraigCraig HaneyHaney --
246
782000
2000
com os meus estudantes universitários —
especialmente com o Craig Haney —
13:16
we alsoAlém disso begancomeçasse work with an adde Anúncios.
247
784000
1000
também começámos o trabalho
com um anúncio.
13:17
We didn't have moneydinheiro, so we had a cheapbarato, little adde Anúncios,
248
785000
2000
Não tínhamos dinheiro, então fizemos
um anúncio pequeno e barato,
13:19
but we wanted collegeFaculdade studentsalunos for a studyestude of prisonprisão life.
249
787000
3000
mas queríamos estudantes universitários
para um estudo acerca da vida na prisão.
13:22
75 people volunteeredvoluntariou-se, tooktomou personalitypersonalidade teststestes.
250
790000
3000
75 pessoas voluntariaram-se e
fizeram testes de personalidade.
13:25
We did interviewsentrevistas. PickedEscolheu two dozendúzia:
251
793000
2000
Nós fizemos entrevistas.
Escolhemos duas dúzias:
13:27
the mosta maioria normalnormal, the mosta maioria healthysaudável.
252
795000
1000
os mais normais, os mais saudáveis.
13:29
RandomlyAleatoriamente assignedatribuído them to be prisonerprisioneiro and guardguarda.
253
797000
2000
Atribuímos-lhes aleatoriamente
o papel de prisioneiros ou guardas.
13:31
So on day one, we knewsabia we had good applesmaçãs.
254
799000
2000
Logo de início sabíamos que
tínhamos boas maçãs.
13:33
I'm going to put them in a badmau situationsituação.
255
801000
2000
Vou colocá-los numa situação má.
13:35
And secondlyem segundo lugar, we know there's no differencediferença
256
803000
2000
Da mesma forma, nós sabemos que
não existe diferença
13:38
betweenentre the boysRapazes who are going to be guardsguardas
257
806000
1000
entre os jovens que vão ser guardas
13:39
and the boysRapazes who are going to be prisonersprisioneiros.
258
807000
1000
e os jovens que vão ser prisioneiros.
13:41
The kidsfilhos who were going to be prisonersprisioneiros,
259
809000
1000
Aos jovens que iam ser prisioneiros,
13:42
we said, "Wait at home in the dormitoriesdormitórios. The studyestude will begininício SundayDomingo."
260
810000
2000
nós dissemos: "Esperem em casa ou nos dormitórios.
O estudo vai começar no domingo."
13:45
We didn't tell them
261
813000
1000
Nós não lhes dissemos
13:46
that the citycidade policepolícia were going to come and do realisticrealista arrestsdetenções.
262
814000
36000
que a polícia municipal ia realizar
detenções realísticas.
14:22
(VideoVídeo) StudentEstudante: A policepolícia carcarro pullspuxa up in frontfrente, and a coppolicial comesvem to the frontfrente doorporta,
263
850000
6000
(Vídeo) Estudante: Um carro de patrulha encosta
na entrada e um agente vem à porta
14:28
and knocksbate, and saysdiz he's looking for me.
264
856000
2000
e bate, e diz que está à minha procura.
14:30
So they, right there, you know, they tooktomou me out the doorporta,
265
858000
2000
Então eles, ali mesmo, sabe,
eles levaram-me porta fora.
14:33
they put my handsmãos againstcontra the carcarro.
266
861000
3000
Eles puseram as minhas mãos contra o carro.
14:36
It was a realreal coppolicial carcarro, it was a realreal policemanpolicial,
267
864000
2000
Era um carro de patrulha real, era um agente da polícia real,
14:39
and there were realreal neighborsvizinhos in the streetrua,
268
867000
1000
e estavam vizinhos reais na rua,
14:40
who didn't know that this was an experimentexperimentar.
269
868000
4000
que não sabiam que isto era uma experiência.
14:44
And there was camerascâmeras all around and neighborsvizinhos all around.
270
872000
3000
E havia câmaras por todo o lado
e vizinhos por todo o lado.
14:47
They put me in the carcarro, then they drovedirigiu me around PaloPalo AltoAlto.
271
875000
3000
Eles meteram-me no carro,
depois conduziram-me por Palo Alto.
14:52
They tooktomou me to the policepolícia stationestação,
272
880000
3000
Eles levaram-me para a esquadra,
14:55
the basementporão of the policepolícia stationestação. Then they put me in a cellcélula.
273
883000
10000
para a cave da esquadra.
Depois puseram-me numa cela.
15:05
I was the first one to be pickedescolhido up, so they put me in a cellcélula,
274
893000
2000
Eu fui o primeiro a ser levado,
então eles puseram-me numa cela,
15:07
whichqual was just like a roomquarto with a doorporta with barsbares on it.
275
895000
4000
que era como um quarto
com uma porta com barras.
15:12
You could tell it wasn'tnão foi a realreal jailcadeia.
276
900000
1000
Dava para perceber que não era uma cadeia real.
15:13
They lockedtrancado me in there, in this degradingdegradante little outfitroupa.
277
901000
5000
Eles trancaram-me lá dentro,
nesta roupa degradante.
15:19
They were takinglevando this experimentexperimentar too seriouslya sério.
278
907000
2000
Eles estavam a levar esta experiência
demasiado a sério.
15:21
PhilipPhilip ZimbardoZimbardo: Here are the prisonersprisioneiros who are going to be dehumanizeddesumanizado.
279
909000
2000
Philip Zimbardo: Aqui estão os prisioneiros
que vão ser desumanizados.
15:23
They're going to becometornar-se numbersnúmeros.
280
911000
1000
Eles vão-se tornar números.
15:24
Here are the guardsguardas with the symbolssímbolos of powerpoder and anonymityanonimato.
281
912000
3000
Aqui estão os guardas com
os símbolos de poder e anonimato.
15:27
GuardsGuardas get prisonersprisioneiros
282
915000
1000
Os guardas fazem os prisioneiros
15:28
to cleanlimpar \ limpo the toiletbanheiro bowlstigelas out with theirdeles barenua handsmãos,
283
916000
2000
limparem as sanitas com as próprias mãos,
15:30
to do other humiliatinghumilhante taskstarefas.
284
918000
2000
entre outras tarefas humilhantes.
15:32
They stripfaixa them nakednu. They sexuallysexualmente tauntprovocação them.
285
920000
2000
Eles despem-nos.
Ridicularizam-nos sexualmente.
15:34
They begininício to do degradingdegradante activitiesactividades,
286
922000
2000
Eles começam a fazer atividades degradantes,
15:36
like havingtendo them simulatesimular sodomysodomy.
287
924000
2000
como terem de simular sodomia.
15:38
You saw simulatingsimulando fellatiosexo oral in soldierssoldados in AbuAbu GhraibGhraib.
288
926000
3000
Vocês viram simulações de sexo oral
nos soldados em Abu Ghraib.
15:41
My guardsguardas did it in fivecinco daysdias. The stressestresse reactionreação was so extremeextremo
289
929000
5000
Os meus guardas fizeram-no em cinco dias.
A reação ao "stress" foi tão extrema
15:46
that normalnormal kidsfilhos we pickedescolhido because they were healthysaudável
290
934000
2000
que os jovens normais, que nós escolhemos
porque eram saudáveis,
15:48
had breakdownsdesagregações withindentro 36 hourshoras.
291
936000
2000
tiveram esgotamentos em menos de 36 horas.
15:50
The studyestude endedterminou after sixseis daysdias, because it was out of controlao controle.
292
938000
4000
O estudo terminou ao fim de seis dias,
porque ficou fora de controlo.
15:54
FiveCinco kidsfilhos had emotionalemocional breakdownsdesagregações.
293
942000
2000
Cinco jovens tiveram esgotamentos emocionais.
15:58
Does it make a differencediferença if warriorsguerreiros go to battlebatalha
294
946000
2000
Será que faz diferença se os guerreiros
forem para a batalha
16:00
changingmudando theirdeles appearanceaparência or not?
295
948000
2000
mudando a sua aparência, ou nem por isso?
16:02
Does it make a differencediferença if they're anonymousanônimo,
296
950000
1000
Será que faz diferença serem anónimos,
16:03
in how they treattratar theirdeles victimsvítimas?
297
951000
2000
no modo como tratam as suas vítimas?
16:05
We know in some culturesculturas, they go to warguerra,
298
953000
1000
Sabemos que, em algumas culturas,
eles vão para a guerra
16:06
they don't changemudança theirdeles appearanceaparência.
299
954000
1000
sem mudarem a sua aparência.
16:07
In other culturesculturas, they paintpintura themselvessi mesmos like "LordSenhor of the FliesMoscas."
300
955000
2000
Noutras culturas, pintam-se como
n' "O Senhor das Moscas".
16:09
In some, they wearvestem masksmáscaras.
301
957000
2000
Nalgumas, usam máscaras.
16:11
In manymuitos, soldierssoldados are anonymousanônimo in uniformuniforme.
302
959000
3000
Em muitas, os soldados tornam-se anónimos
nos seus uniformes.
16:14
So this anthropologistantropólogo, JohnJohn WatsonWatson, foundencontrado
303
962000
2000
Um antropólogo, John Watson, encontrou
16:17
23 culturesculturas that had two bitsbits of datadados.
304
965000
2000
23 culturas que tinham dois pedaços de informação.
16:19
Do they changemudança theirdeles appearanceaparência? 15.
305
967000
2000
Eles mudam de aparência? 15.
16:21
Do they killmatar, torturetortura, mutilatemutilar? 13.
306
969000
2000
Eles matam, torturam, mutilam? 13.
16:23
If they don't changemudança theirdeles appearanceaparência,
307
971000
2000
Quando não mudam de aparência,
16:25
only one of eightoito killsmata, torturestorturas or mutilatesmutila.
308
973000
2000
apenas um em oito mata, tortura ou mutila.
16:27
The keychave is in the redvermelho zonezona.
309
975000
2000
A chave está na zona vermelha.
16:29
If they changemudança theirdeles appearanceaparência,
310
977000
1000
Se eles mudarem a sua aparência,
16:30
12 of 13 -- that's 90 percentpor cento -- killmatar, torturetortura, mutilatemutilar.
311
978000
4000
12 em 13 — ou seja, 90% — matam,
torturam, mutilam.
16:35
And that's the powerpoder of anonymityanonimato.
312
983000
1000
E esse é o poder do anonimato.
16:36
So what are the sevenSete socialsocial processesprocessos
313
984000
2000
Então quais são os sete processos sociais
16:38
that greasegraxa the slipperyescorregadio slopedeclive of evilmal?
314
986000
2000
que untam a rampa escorregadia do mal?
16:40
MindlesslySem pensar takinglevando the first smallpequeno stepdegrau.
315
988000
2000
Dar um pequeno primeiro passo
de forma inconsciente.
16:42
DehumanizationDesumanização of othersoutras. De-individuationA individuação of SelfAuto-.
316
990000
3000
Desumanização dos outros.
Desindividualização de Si Próprio.
16:45
DiffusionDifusão of personalpessoal responsibilityresponsabilidade. BlindÀs cegas obedienceobediência to authorityautoridade.
317
993000
3000
Difusão da responsabilidade individual.
Obediência cega à Autoridade.
16:49
UncriticalAcrítica conformityconformidade to groupgrupo normsnormas.
318
997000
1000
Conformidade acrítica às normas do grupo.
16:50
PassivePassivo tolerancetolerância to evilmal throughatravés inactioninação or indifferenceindiferença.
319
998000
3000
Tolerância passiva ao mal,
através da inação ou indiferença.
16:54
And it happensacontece when you're in a newNovo or unfamiliardesconhecido situationsituação.
320
1002000
2000
E acontece quando estamos em
situações novas ou pouco familares.
16:56
Your habitualhabitual responseresposta patternspadrões don't work.
321
1004000
2000
Os nossos padrões de resposta habituais
não funcionam.
16:59
Your personalitypersonalidade and moralitymoralidade are disengageddesengatada.
322
1007000
2000
As nossas personalidade e moralidade
estão desligadas.
17:01
"Nothing is easierMais fácil than to denouncedenunciar the evildoermalfeitor;
323
1009000
3000
"Nada é mais fácil do que denunciar
o praticante do mal;
17:04
nothing more difficultdifícil than understandingcompreensão him," DostoyevksyDostoyevksy tellsconta us.
324
1012000
3000
"nada é mais difícil do que percebê-lo." —
diz-nos Dostoyevksy.
17:07
UnderstandingNoções básicas sobre is not excusingdesculpando. PsychologyPsicologia is not excuse-iologyDesculpa-iology.
325
1015000
4000
Perceber não é desculpar.
A psicologia não é uma "desculpalogia".
17:12
So socialsocial and psychologicalpsicológico researchpesquisa revealsrevela
326
1020000
1000
A investigação sócio-psicológica revela
17:13
how ordinarycomum, good people can be transformedtransformado withoutsem the drugsdrogas.
327
1021000
4000
como pessoas normais, boas,
podem ser transformadas, sem drogas.
17:17
You don't need it. You just need the social-psychologicalsocial-psicológico processesprocessos.
328
1025000
3000
Não são necessárias.
Só precisamos dos processos sócio-psicológicos.
17:20
RealReal worldmundo parallelsparalelos? CompareComparar this with this.
329
1028000
4000
Paralelos no mundo real?
Comparem isto com isto.
17:26
JamesJames SchlesingerSchlesinger -- and I'm going to have to endfim with this -- saysdiz,
330
1034000
2000
James Schlesinger
— e vou ter de terminar assim — diz:
17:28
"PsychologistsPsicólogos have attemptedtentada to understandCompreendo how and why
331
1036000
2000
"Os psicólogos têm tentado perceber
o como e o porquê
17:31
individualsindivíduos and groupsgrupos who usuallygeralmente actAja humanelyhumanamente
332
1039000
2000
"de indivíduos e grupos que normalmente
agem humanamente,
17:33
can sometimesas vezes actAja otherwisede outra forma in certaincerto circumstancescircunstâncias."
333
1041000
3000
"conseguirem, por vezes, atuar de forma contrária,
em certas circunstâncias."
17:37
That's the LuciferLúcifer effectefeito.
334
1045000
1000
Esse é o efeito Lúcifer.
17:38
And he goesvai on to say, "The landmarkMarco StanfordStanford studyestude
335
1046000
2000
E ele acrescenta:
"O marcante estudo de Stanford
17:40
providesfornece a cautionarypreventivo taleconto for all militarymilitares operationsoperações."
336
1048000
4000
"serve de aviso para todas as operações militares".
17:44
If you give people powerpoder withoutsem oversightsupervisão,
337
1052000
2000
Se dermos às pessoas poder sem supervisão,
17:47
it's a prescriptionprescrição for abuseAbuso. They knewsabia that, and let that happenacontecer.
338
1055000
3000
é uma receita para o abuso. Eles sabiam isso
e deixaram que acontecesse.
17:50
So anotheroutro reportrelatório, an investigativeinvestigação reportrelatório by GeneralGeral FayFay,
339
1058000
5000
Outro relatório, um relatório de investigação
do general Fay,
17:55
saysdiz the systemsistema is guiltyculpado. And in this reportrelatório,
340
1063000
2000
diz que o sistema é culpado.
E neste relatório,
17:57
he saysdiz it was the environmentmeio Ambiente that createdcriada AbuAbu GhraibGhraib,
341
1065000
3000
ele diz que foi a envolvente que criou Abu Ghraib,
18:00
by leadershipLiderança failuresfalhas that contributedcontribuído
342
1068000
2000
através de falhas de liderança que contribuíram
18:02
to the occurrenceocorrência of suchtal abuseAbuso,
343
1070000
1000
para que tamanho abuso acontecesse,
18:03
and the factfacto that it remainedpermaneceu undiscoveredpor descobrir
344
1071000
2000
e o facto de ter permanecido desconhecido
18:05
by highersuperior authoritiesautoridades for a long periodperíodo of time.
345
1073000
2000
pelas altas autoridades,
durante um longo período de tempo.
18:07
Those abusesabusos wentfoi on for threetrês monthsmeses. Who was watchingassistindo the storeloja?
346
1075000
4000
Esses abusos ocorreram ao longo de três meses.
Quem é que estava a "tomar conta da loja"?
18:11
The answerresponda is nobodyninguém, and, I think, nobodyninguém on purposepropósito.
347
1079000
2000
A resposta é: ninguém; e, acho eu,
ninguém, de propósito.
18:14
He gavedeu the guardsguardas permissionpermissão to do those things,
348
1082000
1000
Deram aos guardas permissão
para fazerem aquelas coisas,
18:15
and they knewsabia nobodyninguém was ever going to come down to that dungeonmasmorra.
349
1083000
3000
e sabiam que ninguém iria alguma vez
descer àquela masmorra.
18:18
So you need a paradigmparadigma shiftmudança in all of these areasáreas.
350
1086000
3000
É necessária uma mudança de paradigma
em todas essas áreas.
18:21
The shiftmudança is away from the medicalmédico modelmodelo
351
1089000
2000
Uma mudança em que nos afastemos
do modelo médico
18:23
that focusesfoca only on the individualIndividual.
352
1091000
2000
focado apenas no indivíduo.
18:25
The shiftmudança is towardem direção a a publicpúblico healthsaúde modelmodelo
353
1093000
2000
Uma mudança que vá ao encontro
de um modelo de saúde pública
18:28
that recognizesreconhece situationalsituacional and systemicsistêmico vectorsvetores of diseasedoença.
354
1096000
3000
que reconheça vetores de doença
situacionais e sistémicos.
18:31
BullyingAssédio moral is a diseasedoença. PrejudicePreconceito is a diseasedoença. ViolenceViolência is a diseasedoença.
355
1099000
4000
O "bullying" é uma doença. A discriminação
é uma doença. A violência é uma doença.
18:35
And sinceDesde a the InquisitionInquisição, we'venós temos been dealinglidando with problemsproblemas
356
1103000
2000
E desde a Inquisição que temos andado
a lidar com problemas
18:37
at the individualIndividual levelnível. And you know what? It doesn't work.
357
1105000
3000
ao nível individual.
E sabem que mais? Não funciona.
18:40
AleksandrAleksandr SolzhenitsynSolzhenitsyn saysdiz, "The linelinha betweenentre good and evilmal
358
1108000
3000
Aleksandr Solzhenitsyn diz que
"a linha que separa o bem do mal
18:43
cutscortes throughatravés the heartcoração of everycada humanhumano beingser."
359
1111000
2000
"atravessa o coração de cada ser humano".
18:45
That meanssignifica that linelinha is not out there.
360
1113000
2000
Isso significa que a linha não está lá fora.
18:47
That's a decisiondecisão that you have to make. That's a personalpessoal thing.
361
1115000
3000
É uma decisão que temos de tomar.
É algo de pessoal.
18:50
So I want to endfim very quicklyrapidamente on a positivepositivo noteNota.
362
1118000
3000
Quero terminar, muito rapidamente,
com uma nota positiva.
18:53
HeroismHeroísmo as the antidoteantídoto to evilmal,
363
1121000
2000
O heroísmo como antídoto para o mal,
18:56
by promotingpromovendo the heroicheroico imaginationimaginação,
364
1124000
1000
através da promoção da imaginação heróica,
18:57
especiallyespecialmente in our kidsfilhos, in our educationaleducacional systemsistema.
365
1125000
3000
especialmente nas nossas crianças,
no nosso sistema educativo.
19:00
We want kidsfilhos to think, I'm the heroherói in waitingesperando,
366
1128000
2000
Queremos que as crianças pensem:
"Eu sou o próximo herói,
19:02
waitingesperando for the right situationsituação to come alongao longo,
367
1130000
2000
"à espera da circunstância certa,
19:05
and I will actAja heroicallyheroicamente.
368
1133000
1000
"e irei agir como um herói".
19:06
My wholetodo life is now going to focusfoco away from evilmal --
369
1134000
2000
A minha vida vai agora focar-se não no mal
19:08
that I've been in sinceDesde a I was a kidcriança -- to understandingcompreensão heroesHeróis.
370
1136000
3000
— que eu testemunhei desde criança —
mas sim em perceber os heróis.
19:11
BanalityBanalidade of heroismheroísmo
371
1139000
1707
A banalidade do heroísmo
19:13
is, it's ordinarycomum people who do heroicheroico deedsações.
372
1140707
2293
é que são as pessoas normais
que cometem atos heróicos.
19:15
It's the counterpointcontraponto to HannahHannah Arendt'sDe Arendt "BanalityBanalidade of EvilMal."
373
1143000
3000
É o contraponto da "Banalidade do Mal",
da Hannah Arendt.
19:18
Our traditionaltradicional societalsocietal heroesHeróis are wrongerrado,
374
1146000
3000
Os heróis tradicionais da nossa sociedade
estão errados,
19:21
because they are the exceptionsexceções.
375
1149000
1000
porque eles são exceções.
19:22
They organizeorganizar theirdeles wholetodo life around this.
376
1150000
2000
Eles organizam toda a sua vida em torno disto.
19:24
That's why we know theirdeles namesnomes.
377
1152000
1000
É por isso que sabemos os nomes deles.
19:25
And our kids'das crianças heroesHeróis are alsoAlém disso wrongerrado modelsmodelos for them,
378
1153000
2000
E os heróis das nossas crianças
também são modelos errados para elas,
19:27
because they have supernaturalsobrenatural talentstalentos.
379
1155000
2000
porque têm poderes sobrenaturais.
19:30
We want our kidsfilhos to realizeperceber mosta maioria heroesHeróis are everydaytodo dia people,
380
1158000
2000
Queremos que as nossas crianças percebam
que a maioria dos heróis são pessoas normais,
19:32
and the heroicheroico actAja is unusualincomum. This is JoeJoe DarbyDarby.
381
1160000
4000
e que o ato heróico é invulgar.
Este é o Joe Darby.
19:36
He was the one that stoppedparado those abusesabusos you saw,
382
1164000
2000
Foi ele quem pôs termo aos abusos que viram,
19:38
because when he saw those imagesimagens,
383
1166000
2000
porque quando viu aquelas imagens,
19:40
he turnedvirou them over to a seniorSenior investigatinginvestigando officeroficial.
384
1168000
3000
ele entregou-as a um oficial sénior de investigação.
19:43
He was a low-levelbaixo nível de privateprivado, and that stoppedparado it. Was he a heroherói? No.
385
1171000
3000
Ele era um mero soldado e isso colocou
um travão a tudo. Era ele um herói? Não.
19:47
They had to put him in hidingse escondendo, because people wanted to killmatar him,
386
1175000
3000
Tiveram que escondê-lo,
porque havia pessoas que o queriam matar,
19:50
and then his mothermãe and his wifeesposa.
387
1178000
1000
e depois à sua mãe e à sua esposa.
19:51
For threetrês yearsanos, they were in hidingse escondendo.
388
1179000
2000
Durante três anos eles andaram escondidos.
19:53
This is the womanmulher who stoppedparado the StanfordStanford PrisonPrisão StudyEstudo.
389
1181000
3000
Esta é a mulher que pôs termo
ao Estudo da Prisão de Stanford.
19:56
When I said it got out of controlao controle, I was the prisonprisão superintendentSuperintendente.
390
1184000
3000
Quando a situação ficou fora de controlo,
eu era o diretor da prisão.
19:59
I didn't know it was out of controlao controle. I was totallytotalmente indifferentindiferente.
391
1187000
3000
Eu não sabia que estava fora de controlo.
Eu estava completamente indiferente.
20:02
She cameveio down, saw that madhousecasa de loucos and said,
392
1190000
2000
Ela apareceu, viu aquele manicómio e disse:
20:04
"You know what, it's terribleterrivel what you're doing to those boysRapazes.
393
1192000
3000
"Sabes que mais, aquilo que estás a fazer
àqueles rapazes é terrível.
20:07
They're not prisonersprisioneiros, they're not guardsguardas,
394
1195000
1000
"Eles não são prisioneiros,
eles não são guardas,
20:08
they're boysRapazes, and you are responsibleresponsável."
395
1196000
2000
"eles são rapazes, e tu és o responsável".
20:11
And I endedterminou the studyestude the nextPróximo day.
396
1199000
2000
E eu terminei o estudo no dia seguinte.
20:13
The good newsnotícia is I marriedcasado her the nextPróximo yearano.
397
1201000
2000
A boa notícia é que casei com ela no ano seguinte.
20:15
(LaughterRiso)
398
1203000
3000
(Risos).
20:18
(ApplauseAplausos)
399
1206000
7000
(Aplausos).
20:25
I just cameveio to my sensessentidos, obviouslyobviamente.
400
1213000
2000
Eu apenas caí em mim, obviamente.
20:27
So situationssituações have the powerpoder to do, throughatravés --
401
1215000
2000
As situações têm o poder de fazer, através de...
20:31
but the pointponto is, this is the samemesmo situationsituação
402
1219000
1000
Mas a questão é que, esta mesma situação
20:32
that can inflameinflamar the hostilehostil imaginationimaginação in some of us,
403
1220000
4000
que consegue inflamar a imaginação hostil
em alguns de nós,
20:36
that makesfaz com que us perpetratorsautores of evilmal,
404
1224000
2000
que nos torna perpetradores do mal,
20:38
can inspireinspirar the heroicheroico imaginationimaginação in othersoutras. It's the samemesmo situationsituação.
405
1226000
3000
consegue inspirar a imaginação heróica
de outros. É a mesma situação.
20:42
And you're on one sidelado or the other.
406
1230000
1000
E nós ou estamos de um lado, ou do outro.
20:43
MostMaioria people are guiltyculpado of the evilmal of inactioninação,
407
1231000
2000
A maioria das pessoas é culpada do mal da inação,
20:45
because your mothermãe said, "Don't get involvedenvolvido. MindMente your ownpróprio businesso negócio."
408
1233000
3000
porque a nossa mãe nos disse:
"Não te metas. Mete-te na tua vida".
20:48
And you have to say, "MamaMamãe, humanityhumanidade is my businesso negócio."
409
1236000
3000
E nós temos de dizer:
"Mamã, a Humanidade é a minha vida".
20:51
So the psychologyPsicologia of heroismheroísmo is -- we're going to endfim in a momentmomento --
410
1239000
2000
A psicologia do heroísmo é
— vamos terminar em breve —
20:53
how do we encourageencorajar childrencrianças in newNovo heroherói coursescursos,
411
1241000
4000
como é que encorajamos as crianças
em novos cursos de heróis,
20:57
that I'm workingtrabalhando with MattMatt LangdonLangdon -- he has a heroherói workshopoficina --
412
1245000
3000
nos quais estou a trabalhar com o Matt Langdon
— ele tem um "workshop" de herói —
21:00
to developdesenvolve this heroicheroico imaginationimaginação, this self-labelingautorrotulantes,
413
1248000
3000
para desenvolver esta imaginação heróica,
esta auto-categorização,
21:03
"I am a heroherói in waitingesperando," and teachEnsinar them skillsHabilidades.
414
1251000
3000
"Eu sou o próximo herói" e
ensinar-lhes competências.
21:06
To be a heroherói, you have to learnaprender to be a deviantdepravado,
415
1254000
2000
Para sermos um herói,
temos de aprender a ser divergentes,
21:09
because you're always going againstcontra the conformityconformidade of the groupgrupo.
416
1257000
2000
porque vamos sempre
contra a conformidade do grupo.
21:11
HeroesHeróis are ordinarycomum people whosede quem socialsocial actionsações are extraordinaryextraordinário. Who actAja.
417
1259000
4000
Os heróis são pessoas normais cujas ações
na sociedade são extraordinárias. Que atuam.
21:15
The keychave to heroismheroísmo is two things.
418
1263000
2000
A chave para o heroísmo consiste em duas coisas.
21:17
A: you've got to actAja when other people are passivepassiva.
419
1265000
2000
A: temos de agir quando os outros são passivos.
21:20
B: you have to actAja socio-centricallysócio-centrically, not egocentricallyegocentrically.
420
1268000
3000
B: temos de agir socio-centricamente,
não egocentricamente.
21:23
And I want to endfim with the storyhistória that some of you know,
421
1271000
2000
E eu quero terminar com a história
que alguns de vocês conhecem,
21:25
about WesleyWesley AutreyAutrey, NewNovo YorkYork subwaymetrô heroherói.
422
1273000
2000
acerca de Wesley Autrey,
o herói do metro de Nova Iorque.
21:27
Fifty-year-oldCinquenta anos de idade African-AmericanAfro-americano constructionconstrução workertrabalhador.
423
1275000
2000
Um trabalhador da construção civil,
afro-americano, de 50 anos.
21:29
He's standingparado on a subwaymetrô in NewNovo YorkYork.
424
1277000
2000
Ele está numa estação de metro de Nova Iorque.
21:31
A whitebranco guy fallscai on the trackstrilhas.
425
1279000
1000
Um homem branco cai para a linha.
21:32
The subwaymetrô traintrem is comingchegando. There's 75 people there.
426
1280000
3000
O comboio do metro está a vir.
Estão lá 75 pessoas.
21:35
You know what? They freezecongelar.
427
1283000
1000
Sabem que mais?
Elas bloqueiam.
21:36
He's got a reasonrazão not to get involvedenvolvido.
428
1284000
2000
Ele tem uma razão para não se meter.
21:38
He's blackPreto, the guy'srapazes whitebranco, and he's got two little kidsfilhos.
429
1286000
2000
Ele é negro, o outro é branco
e ele tem dois filhos pequenos.
21:41
InsteadEm vez disso, he gives his kidsfilhos to a strangerdesconhecido,
430
1289000
1000
Em vez disso, ele entrega os filhos a um estranho,
21:42
jumpssalta on the trackstrilhas, putscoloca the guy betweenentre the trackstrilhas,
431
1290000
3000
salta para a linha, coloca o outro
no meio dos carris,
21:45
liesmentiras on him, the subwaymetrô goesvai over him.
432
1293000
2000
deita-se em cima dele e o metro
passa por cima dele.
21:47
WesleyWesley and the guy -- 20 and a halfmetade inchespolegadas heightaltura.
433
1295000
3000
Wesley e o homem — 52 cm de altura.
21:51
The traintrem clearanceautorização is 21 inchespolegadas.
434
1299000
2000
O espaço entre o solo e o comboio é de 53 cm.
21:53
A halfmetade an inchpolegada would have takenocupado his headcabeça off.
435
1301000
2000
Mais um centímetro e teria sido decapitado.
21:56
And he said, "I did what anyonealguém could do,"
436
1304000
3000
E ele disse:
"Eu fiz o que qualquer um poderia ter feito,
21:59
no biggrande dealacordo to jumpsaltar on the trackstrilhas.
437
1307000
1000
"não é nada de mais saltar para a linha."
22:00
And the moralmoral imperativeimperativo is "I did what everyonetodos should do."
438
1308000
4000
E o imperativo moral é:
"Eu fiz aquilo que todos deveriam fazer".
22:04
And so one day, you will be in a newNovo situationsituação.
439
1312000
2000
Um dia, estaremos numa situação nova.
22:07
Take pathcaminho one, you're going to be a perpetratorautor of evilmal.
440
1315000
2000
Se seguirmos pelo primeiro caminho,
seremos perpetradores do mal.
22:09
EvilMal, meaningsignificado you're going to be ArthurArthur AndersenAndersen.
441
1317000
3000
Mal, no sentido em que seremos a
Arthur Andersen.
22:12
You're going to cheatbatota, or you're going to allowpermitir bullyingassédio moral.
442
1320000
2000
Vamos enganar, ou vamos consentir o "bullying".
22:14
PathCaminho two, you becometornar-se guiltyculpado of the evilmal of passivepassiva inactioninação.
443
1322000
2000
No segundo caminho, seremos culpados
do mal da inação passiva.
22:17
PathCaminho threetrês, you becometornar-se a heroherói.
444
1325000
1000
No terceiro caminho, tornamo-nos heróis.
22:18
The pointponto is, are we readypronto to take the pathcaminho
445
1326000
3000
A questão é, estaremos prontos
para tomar o caminho
22:21
to celebratingcomemorando ordinarycomum heroesHeróis,
446
1329000
2000
que celebra os heróis normais,
22:23
waitingesperando for the right situationsituação to come alongao longo
447
1331000
2000
que esperam que a situação certa surja
22:25
to put heroicheroico imaginationimaginação into actionaçao?
448
1333000
2000
para colocarem a sua imaginação heróica em ação?
22:27
Because it maypode only happenacontecer onceuma vez in your life,
449
1335000
3000
Porque é algo que nos pode acontecer
apenas uma vez na vida,
22:31
and when you passpassar it by, you'llvocê vai always know,
450
1339000
1000
e se deixarmos passar, vamos sempre saber,
22:32
I could have been a heroherói and I let it passpassar me by.
451
1340000
3000
que podíamos ter sido heróis e
deixámos a oportunidade passar.
22:35
So the pointponto is thinkingpensando it and then doing it.
452
1343000
2000
O objetivo é pensar nisso e depois fazê-lo.
22:37
So I want to thank you. Thank you. Thank you.
453
1345000
3000
Quero agradecer-vos.
Obrigado. Obrigado.
22:40
Let's opposeopor-se the powerpoder of evilmal systemssistemas at home and abroadno exterior,
454
1348000
3000
Vamos opor-nos ao poder
dos sistemas maus em casa e lá fora,
22:43
and let's focusfoco on the positivepositivo.
455
1351000
2000
e vamos focar-nos no positivo.
22:45
AdvocateAdvogado for respectrespeito of personalpessoal dignitydignidade, for justicejustiça and peacePaz,
456
1353000
3000
Defender o respeito pela dignidade pessoal,
pela justiça e pela paz,
22:48
whichqual sadlyInfelizmente our administrationadministração has not been doing.
457
1356000
2000
algo que, infelizmente,
o nosso governo não tem feito.
22:50
ThanksObrigado so much.
458
1358000
1000
Muito obrigado.
22:51
(ApplauseAplausos)
459
1359000
13000
(Aplausos)
Translated by Jorge Duarte
Reviewed by Cátia Monteiro

▲Back to top

ABOUT THE SPEAKER
Philip Zimbardo - Psychologist
Philip Zimbardo was the leader of the notorious 1971 Stanford Prison Experiment -- and an expert witness at Abu Ghraib. His book The Lucifer Effect explores the nature of evil; now, in his new work, he studies the nature of heroism.

Why you should listen

Philip Zimbardo knows what evil looks like. After serving as an expert witness during the Abu Ghraib trials, he wrote The Lucifer Effect: Understanding How Good People Turn Evil. From Nazi comic books to the tactics of used-car salesmen, he explores a wealth of sources in trying to explain the psychology of evil.

A past president of the American Psychological Association and a professor emeritus at Stanford, Zimbardo retired in 2008 from lecturing, after 50 years of teaching his legendary introductory course in psychology. In addition to his work on evil and heroism, Zimbardo recently published The Time Paradox, exploring different cultural and personal perspectives on time.

Still well-known for his controversial Stanford Prison Experiment, Zimbardo in his new research looks at the psychology of heroism. He asks, "What pushes some people to become perpetrators of evil, while others act heroically on behalf of those in need?"

More profile about the speaker
Philip Zimbardo | Speaker | TED.com