ABOUT THE SPEAKER
Philip Zimbardo - Psychologist
Philip Zimbardo was the leader of the notorious 1971 Stanford Prison Experiment -- and an expert witness at Abu Ghraib. His book The Lucifer Effect explores the nature of evil; now, in his new work, he studies the nature of heroism.

Why you should listen

Philip Zimbardo knows what evil looks like. After serving as an expert witness during the Abu Ghraib trials, he wrote The Lucifer Effect: Understanding How Good People Turn Evil. From Nazi comic books to the tactics of used-car salesmen, he explores a wealth of sources in trying to explain the psychology of evil.

A past president of the American Psychological Association and a professor emeritus at Stanford, Zimbardo retired in 2008 from lecturing, after 50 years of teaching his legendary introductory course in psychology. In addition to his work on evil and heroism, Zimbardo recently published The Time Paradox, exploring different cultural and personal perspectives on time.

Still well-known for his controversial Stanford Prison Experiment, Zimbardo in his new research looks at the psychology of heroism. He asks, "What pushes some people to become perpetrators of evil, while others act heroically on behalf of those in need?"

More profile about the speaker
Philip Zimbardo | Speaker | TED.com
TED2008

Philip Zimbardo: The psychology of evil

Philip Zimbardo: Comment des gens ordinaires deviennent des monstres... ou des héros.

Filmed:
7,078,283 views

Philip Zimbardo sait comme il est facile pour des gens aimables de mal tourner. Dans cette présentation, il partage ses pensées et des photos inédites et difficiles des procès d'Abu Ghraib. Il parle ensuite de l'aspect opposé : comme il est facile de devenir un héros, et comment nous pouvons tous relever le défi.
- Psychologist
Philip Zimbardo was the leader of the notorious 1971 Stanford Prison Experiment -- and an expert witness at Abu Ghraib. His book The Lucifer Effect explores the nature of evil; now, in his new work, he studies the nature of heroism. Full bio

Double-click the English transcript below to play the video.

00:13
PhilosophersPhilosophes, dramatistsdramaturges, theologiansthéologiens
0
1000
3000
Philosophes, dramaturges, théologiens
00:16
have grappledaux prises with this questionquestion for centuriesdes siècles:
1
4000
2000
ont débattu de cette question pendant des siècles :
00:18
what makesfait du people go wrongfaux?
2
6000
2000
Qu'est-ce qui rend les gens mauvais ?
00:20
InterestinglyIl est intéressant, I askeda demandé this questionquestion when I was a little kidenfant.
3
8000
2000
J'ai posé cette question quand j'étais un petit garçon.
00:23
When I was a kidenfant growingcroissance up in the SouthSud BronxBronx, inner-citycentre-ville ghettoghetto
4
11000
2000
Quand je grandissais dans le ghetto déshérité du Bronx Sud
00:25
in NewNouveau YorkYork, I was surroundedentouré by evilmal,
5
13000
2000
à New-York, j'étais entouré par le mal,
00:28
as all kidsdes gamins are who grewgrandi up in an innerinterne cityville.
6
16000
2000
comme tous les enfants qui grandissent dans une zone difficile.
00:30
And I had friendscopains who were really good kidsdes gamins,
7
18000
2000
Et j'avais des amis qui étaient vraiment des enfants gentils,
00:32
who livedvivait out the DrDr. JekyllJekyll MrM.. HydeHyde scenarioscénario -- RobertRobert LouisLouis StevensonStevenson.
8
20000
4000
mais qui vivaient la vie de Dr. Jekyll et Mr. Hyde, de Robert Louis Stevenson.
00:36
That is, they tooka pris drugsdrogues, got in troubledifficulté, wentest allé to jailprison.
9
24000
4000
C'est-à-dire qu'ils se droguaient, avaient des ennuis, allaient en prison.
00:40
Some got killedtué, and some did it withoutsans pour autant drugdrogue assistanceassistance.
10
28000
4000
Certains se sont fait tuer, et certains ont fait tout cela sans même l'influence de la drogue.
00:44
So when I readlis RobertRobert LouisLouis StevensonStevenson, that wasn'tn'était pas fictionfiction.
11
32000
3000
Donc quand j'ai lu Robert Louis Stevenson, ce n'était pas de la fiction.
00:47
The only questionquestion is, what was in the juicejus?
12
35000
1000
La seule question, c'est : qu'est-ce qu'il y avait dans la potion ?
00:48
And more importantlyimportant, that lineligne betweenentre good and evilmal --
13
36000
5000
Et plus important, cette ligne entre le bien et le mal --
00:53
whichlequel privilegedprivilégié people like to think is fixedfixé and impermeableimperméables,
14
41000
3000
dont les gens privilégiés aiment à penser qu'elle est fixe et étanche,
00:56
with them on the good sidecôté, and the othersautres on the badmal sidecôté --
15
44000
3000
avec eux du bon côté, et les autres du mauvais côté --
00:59
I knewa connu that lineligne was movablemobiliers, and it was permeableperméables.
16
47000
3000
je savais que cette ligne était mobile, et qu'elle était perméable.
01:02
Good people could be seducedséduit acrossà travers that lineligne,
17
50000
2000
Des gens biens pouvaient être incités à traverser cette ligne,
01:05
and underen dessous de good and some rarerare circumstancesconditions, badmal kidsdes gamins could recoverrécupérer
18
53000
3000
et dans certaines rares circonstances favorables, de jeunes voyous pouvaient en revenir
01:08
with help, with reformréforme, with rehabilitationremise en état.
19
56000
3000
avec de l'aide, un travail sur soi et de la rééducation.
01:12
So I want to begincommencer with this this wonderfulformidable illusionillusion
20
60000
2000
Et donc je vais commencer avec cette merveilleuse illusion
01:14
by [DutchNéerlandais] artistartiste M.C. EscherEscher.
21
62000
2000
par l'artiste hollandais M.C. Escher.
01:17
If you look at it and focusconcentrer on the whiteblanc,
22
65000
1000
Si vous la regardez, et que vous vous concentrez sur les parties blanches,
01:18
what you see is a worldmonde fullplein of angelsanges.
23
66000
2000
ce que vous voyez, c'est un monde plein d'anges.
01:20
But let's look more deeplyprofondément, and as we do,
24
68000
3000
Mais si nous regardons de plus près,
01:23
what appearsapparaît is the demonsdémons, the devilsdiables in the worldmonde.
25
71000
3000
ce qui apparaît ce sont les démons, les diables dans le monde.
01:27
And that tellsraconte us severalnombreuses things.
26
75000
1000
Et ceci nous dit plusieurs choses.
01:28
One, the worldmonde is, was, will always be filledrempli with good and evilmal,
27
76000
3000
Un : le monde est, a toujours été et sera toujours fait du bien et du mal,
01:31
because good and evilmal is the yinYin and yangYang of the humanHumain conditioncondition.
28
79000
3000
parce que le bien et le mal sont le Yin et le Yang de la condition humaine.
01:34
It tellsraconte me something elseautre. If you rememberrappelles toi,
29
82000
2000
Mais cela me dit également autre chose. Si vous vous souvenez bien,
01:36
God'sDe Dieu favoritepréféré angelange was LuciferLucifer.
30
84000
3000
l'ange préféré de Dieu était Lucifer.
01:39
ApparentlyApparemment, LuciferLucifer meansveux dire "the lightlumière."
31
87000
2000
Apparemment, Lucifer signifie "la lumière".
01:42
It alsoaussi meansveux dire "the morningMatin starétoile," in some scriptureécriture.
32
90000
2000
Cela veut aussi dire "l'étoile du matin", dans certains textes.
01:44
And apparentlyApparemment, he disobeyeddésobéi God,
33
92000
3000
Et apparemment, il a désobéi à Dieu,
01:47
and that's the ultimateultime disobediencedésobéissance to authorityautorité.
34
95000
3000
et c'est la plus grande désobéissance possible à l'autorité.
01:50
And when he did, MichaelMichael, the archangelArchange, was sentenvoyé
35
98000
3000
Et lorsque c'est arrivé, l'Archange Michel a été envoyé
01:54
to kickdonner un coup him out of heavenparadis alongle long de with the other fallendéchu angelsanges.
36
102000
3000
pour le bannir du paradis avec les autres anges déchus.
01:57
And so LuciferLucifer descendsdescend into hellenfer, becomesdevient SatanSatan,
37
105000
3000
Et donc Lucifer descend en enfer, devient Satan,
02:01
becomesdevient the devildiable, and the forceObliger of evilmal in the universeunivers beginscommence.
38
109000
2000
devient le diable, et les forces du mal dans l'univers émergent.
02:03
ParadoxicallyParadoxalement, it was God who createdcréé hellenfer as a placeendroit to storele magasin evilmal.
39
111000
5000
Paradoxalement, c'est donc Dieu qui créa l'enfer, en tant qu'endroit où contenir le mal.
02:09
He didn't do a good jobemploi of keepingen gardant it there thoughbien que.
40
117000
1000
Il n'a pas fait un très bon travail d'isolation, cependant.
02:10
So, this arcarc of the cosmiccosmique transformationtransformation
41
118000
3000
Donc, cette histoire de la transformation cosmique
02:13
of God'sDe Dieu favoritepréféré angelange into the DevilDiable,
42
121000
2000
de l'ange préféré de Dieu, en Diable,
02:15
for me, setsensembles the contextle contexte for understandingcompréhension humanHumain beingsêtres
43
123000
4000
à mes yeux, nous donne le contexte nécessaire à la compréhension des êtres humains
02:19
who are transformedtransformé from good, ordinaryordinaire people
44
127000
3000
qui sont transformés, de gens bons et ordinaires
02:22
into perpetratorsauteurs of evilmal.
45
130000
2000
en auteurs de crimes.
02:24
So the LuciferLucifer effecteffet, althoughbien que it focusesse concentre on the negativesnégatifs --
46
132000
4000
Et donc cet Effet Lucifer, bien qu'il se concentre sur les négatifs
02:28
the negativesnégatifs that people can becomedevenir,
47
136000
3000
(les négatifs que peuvent devenir les gens,
02:31
not the negativesnégatifs that people are --
48
139000
1000
pas les négatifs que sont les gens)
02:32
leadspistes me to a psychologicalpsychologique definitiondéfinition. EvilMal is the exerciseexercice of powerPuissance.
49
140000
6000
me mène à une définition psychologique : le mal, c'est l'exercice du pouvoir.
02:38
And that's the keyclé: it's about powerPuissance.
50
146000
2000
Et là est la clé : il s'agit du pouvoir.
02:40
To intentionallyintentionnellement harmnuire people psychologicallypsychologiquement,
51
148000
3000
De faire intentionnellement du mal aux gens, psychologiquement,
02:44
to hurtblesser people physicallyphysiquement, to destroydétruire people mortallymortellement, or ideasidées,
52
152000
3000
physiquement, de détruire mortellement des gens, ou des idées,
02:47
and to commitcommettre crimescrimes againstcontre humanityhumanité.
53
155000
2000
et de commettre des crimes contre l'humanité.
02:51
If you GoogleGoogle "evilmal," a wordmot that should surelysûrement have witheredflétrie by now,
54
159000
3000
Si vous faites une recherche Google du mot "evil", un mot qui devrait sûrement être en retrait de nos jours
02:54
you come up with 136 millionmillion hitsles coups in a thirdtroisième of a secondseconde.
55
162000
4000
vous obtenez 136 millions de réponses en un tiers de seconde.
02:58
A fewpeu yearsannées agodepuis -- I am sure all of you were shockedchoqué, as I was,
56
166000
4000
Il y a quelques années -- Je suis certain que vous avez tous été choqués, comme moi,
03:02
with the revelationrévélation of AmericanAméricain soldierssoldats
57
170000
3000
par la révélation que des soldats américains
03:05
abusingabuser prisonersles prisonniers in a strangeétrange placeendroit
58
173000
3000
maltraitaient des prisonniers dans un endroit éloigné
03:08
in a controversialcontroversé warguerre, AbuAbou GhraibGhraib in IraqIrak.
59
176000
3000
au milieu d'une guerre controversée : Abu Ghraib en Irak.
03:11
And these were menHommes and womenfemmes
60
179000
1000
Il s'agissait d'hommes et de femmes
03:12
who were puttingen mettant prisonersles prisonniers throughpar unbelievableincroyable humiliationhumiliation.
61
180000
5000
qui procédaient à d'incroyables humiliations sur les prisonniers.
03:18
I was shockedchoqué, but I wasn'tn'était pas surprisedsurpris,
62
186000
1000
J'étais choqué, mais pas surpris,
03:19
because I had seenvu those sameMême visualvisuel parallelsParallels
63
187000
2000
parce que j'avais vu ces même parallèles visuels
03:22
when I was the prisonprison superintendentsurintendant of the StanfordStanford PrisonPrison StudyÉtude.
64
190000
3000
quand j'étais le directeur de prison dans l'étude sur la prison de Stanford.
03:25
ImmediatelyImmédiatement the BushBush administrationadministration militarymilitaire said ... what?
65
193000
2000
Immédiatement, qu'a dit l'administration militaire du gouvernement Bush ?
03:28
What all administrationsadministrations say when there's a scandalscandale.
66
196000
2000
Ce que toutes les administrations disent quand il y a un scandale.
03:30
"Don't blamefaire des reproches us. It's not the systemsystème. It's the fewpeu badmal applespommes,
67
198000
3000
"Ce n'est pas notre faute. Ce n'est pas celle du système. C'est celle de quelques brebis galeuses,
03:34
the fewpeu roguevoyous soldierssoldats."
68
202000
1000
de quelques mauvais soldats."
03:35
My hypothesishypothèse is, AmericanAméricain soldierssoldats are good, usuallyd'habitude.
69
203000
3000
Mon hypothèse est que les soldats américains sont bons, en temps normal.
03:38
Maybe it was the barrelbaril that was badmal.
70
206000
2000
Peut-être que c'était le pré qui était mauvais.
03:40
But how am I going to -- how am I going to dealtraiter with that hypothesishypothèse?
71
208000
3000
Mais comment je vais.... comment puis-je développer une telle hypothèse ?
03:43
I becamedevenu an expertexpert witnesstémoin
72
211000
1000
Je suis devenu un expert témoin
03:44
for one of the guardsgardes, SergeantSergent ChipPuce FrederickFrédéric,
73
212000
2000
pour l'un des gardes, le sergent Chip Frederick,
03:46
and in that positionposition, I had accessaccès to the dozendouzaine investigatived’enquête reportsrapports.
74
214000
4000
et dans cette fonction, j'ai eu accès à la dizaine de rapports d'enquêtes,
03:50
I had accessaccès to him. I could studyétude him,
75
218000
3000
J'a eu accès à lui, j'ai pu l'étudier.
03:54
have him come to my home, get to know him,
76
222000
1000
le faire venir chez moi, apprendre à le connaitre,
03:55
do psychologicalpsychologique analysisune analyse to see, was he a good applePomme or badmal applePomme.
77
223000
4000
faire des analyses psychologiques pour voir s'il était une bonne brebis ou une brebis galeuse.
03:59
And thirdlytroisièmement, I had accessaccès to all of the 1,000 picturesdes photos
78
227000
4000
Et enfin, j'ai eu accès à l'intégralité des 1000 photos
04:03
that these soldierssoldats tooka pris.
79
231000
1000
que ces soldats ont prises.
04:05
These picturesdes photos are of a violentviolent or sexualsexuel naturela nature.
80
233000
2000
Ces images sont d'une nature violente ou sexuelle.
04:07
All of them come from the camerasappareils photo of AmericanAméricain soldierssoldats.
81
235000
3000
Elles proviennent toutes des appareils de soldats américains
04:11
Because everybodyTout le monde has a digitalnumérique cameracaméra or cellcellule phonetéléphone cameracaméra,
82
239000
2000
parce que tout le monde a un appareil photo, numérique ou sur son téléphone.
04:13
they tooka pris picturesdes photos of everything. More than 1,000.
83
241000
2000
Ils ont tout photographié. Plus de 1000 photos.
04:16
And what I've doneterminé is I organizedorganisé them into variousdivers categoriescategories.
84
244000
2000
Ce que j'ai fait, c'est que je les ai organisées en différentes catégories.
04:18
But these are by UnitedUnie StatesÉtats militarymilitaire policepolice, armyarmée reservistsréservistes.
85
246000
5000
Mais celles-ci sont prises par la police militaire des Etats-Unis, des réservistes de l'armée.
04:24
They are not soldierssoldats preparedpréparé for this missionmission at all.
86
252000
3000
Ces soldats ne sont absolument pas préparés pour ce type de mission.
04:27
And it all happenedarrivé in a singleunique placeendroit, TierNiveau 1-A-A, on the night shiftdécalage.
87
255000
5000
Et tout s'est déroulé en un seul endroit, au Niveau 1A, pendant la rotation de nuit.
04:32
Why? TierNiveau 1-A-A was the centercentre for militarymilitaire intelligenceintelligence.
88
260000
3000
Pourquoi? Le Niveau 1A était le centre de renseignement militaire.
04:35
It was the interrogationinterrogatoire holdtenir. The CIACIA was there.
89
263000
3000
C'était le centre d'interrogation. La CIA y était,
04:39
InterrogatorsInterrogateurs from TitanTitan CorporationCorporation, all there,
90
267000
2000
les interrogateurs de Titan Corporation, ils sont tous là,
04:41
and they're gettingobtenir no informationinformation about the insurgencyinsurrection.
91
269000
3000
et ils n'obtiennent aucune information concernant l'insurrection.
04:45
So they're going to put pressurepression on these soldierssoldats,
92
273000
1000
Alors ils mettent la pression sur ces soldats,
04:46
militarymilitaire policepolice, to crosstraverser the lineligne,
93
274000
2000
la police militaire, pour qu'ils franchissent la ligne,
04:49
give them permissionautorisation to breakPause the will of the enemyennemi,
94
277000
3000
ils leur donnent la permission de briser la volonté de l'ennemi,
04:52
to preparepréparer them for interrogationinterrogatoire, to softenadoucir them up,
95
280000
2000
de les préparer pour les interrogatoires, de les rendre plus malléables,
04:54
to take the glovesgants off. Those are the euphemismseuphémismes,
96
282000
2000
d'enlever les gants. Voilà les euphémismes,
04:56
and this is how it was interpretedinterprété.
97
284000
3000
et voici comment ils ont été interprétés.
05:00
Let's go down to that dungeondonjon.
98
288000
1000
Descendons dans ce cachot.
05:01
(CameraAppareil photo shutterobturateur)
99
289000
37000
(Bruit d'appareil photo)
05:38
(ThudsBruits sourds)
100
326000
6000
(Bruits sourds)
05:45
(CameraAppareil photo shutterobturateur)
101
333000
14000
(Bruit d'appareil photo)
05:59
(ThudsBruits sourds)
102
347000
10000
(Bruits sourds)
06:09
(BreathingRespiration)
103
357000
8000
(Respiration)
06:17
(BellsCloches)
104
365000
31000
(Cloches)
06:49
So, prettyjoli horrifichorrible.
105
397000
3000
Assez horrible.
06:52
That's one of the visualvisuel illustrationsillustrations of evilmal.
106
400000
3000
C'est l'une des illustrations visuelles du mal.
06:55
And it should not have escapedéchappé you that
107
403000
1000
Et vous avez surement compris que
06:56
the reasonraison I pairedjumelé the prisonerprisonnier with his armsbras out
108
404000
4000
la raison pour laquelle j'ai surimposé l'image du prisonnier avec ses bras écartés
07:00
with LeonardoLeonardo dada Vinci'sDe Vinci odeOde to humanityhumanité
109
408000
3000
et l'ode à l'humanité de Léonard de Vinci,
07:03
is that that prisonerprisonnier was mentallymentalement illmauvais.
110
411000
2000
c'est que le prisonnier était un malade mental.
07:05
That prisonerprisonnier coveredcouvert himselflui-même with shitmerde everychaque day,
111
413000
2000
Ce prisonnier se couvrait de merde chaque jour,
07:07
and they used to have to rollrouleau him in dirtsaleté so he wouldn'tne serait pas stinkpuer.
112
415000
3000
et ils étaient obligés de le rouler dans la poussière pour qu'il ne pue pas.
07:10
But the guardsgardes endedterminé up callingappel him "ShitMerde BoyGarçon."
113
418000
2000
Mais les gardiens ont fini par le surnommer Petit Merdeux.
07:12
What was he doing in that prisonprison
114
420000
2000
Pourquoi était-il dans cette prison
07:14
ratherplutôt than in some mentalmental institutioninstitution?
115
422000
3000
plutôt que dans un asile?
07:17
In any eventun événement, here'svoici formerancien SecretarySecrétaire of DefenseDéfense RumsfeldRumsfeld.
116
425000
3000
Quoiqu'il en soit, voici l'ancien ministre de la Défense, M. Rumsfeld.
07:20
He comesvient down and saysdit, "I want to know, who is responsibleresponsable?
117
428000
2000
Il arrive et dit : "Je veux savoir qui est responsable ?
07:22
Who are the badmal applespommes?" Well, that's a badmal questionquestion.
118
430000
3000
Qui sont les brebis galeuses ?" Mais c'est une mauvaise question.
07:25
You have to reframeREFRAME it and askdemander, "What is responsibleresponsable?"
119
433000
3000
Il faut la recadrer et demander "Qu'est-ce qui est responsable ?"
07:28
Because "what" could be the who of people,
120
436000
2000
Parce que ce "Qu'est-ce que" pourrait être le "qui" des gens
07:30
but it could alsoaussi be the what of the situationsituation,
121
438000
2000
mais pourrait aussi être le "quoi" de la situation
07:32
and obviouslyévidemment that's wrongheadedobtuse.
122
440000
2000
et manifestement sa question va dans le mauvais sens.
07:34
So how do psychologistspsychologues go about understandingcompréhension
123
442000
2000
Alors comment les psychologues font-ils pour comprendre
07:36
suchtel transformationstransformations of humanHumain characterpersonnage,
124
444000
2000
de telles transformations de la personnalité humaine,
07:38
if you believe that they were good soldierssoldats
125
446000
2000
si vous croyez fermement qu'ils étaient de bons soldats
07:40
before they wentest allé down to that dungeondonjon?
126
448000
1000
avant d'être envoyés dans ce cachot ?
07:42
There are threeTrois waysfaçons. The mainprincipale way is -- it's calledappelé dispositionaldispositionnelle.
127
450000
2000
Il y a trois méthodes. La principale est appelée pré-disposition.
07:44
We look at what's insideà l'intérieur of the personla personne, the badmal applespommes.
128
452000
3000
Nous obervons ce qui est à l'intérieur de la personne, les brebis galeuses.
07:48
This is the foundationfondation of all of socialsocial sciencescience,
129
456000
3000
C'est la base de toutes les sciences sociales,
07:51
the foundationfondation of religionreligion, the foundationfondation of warguerre.
130
459000
2000
la base de la religion, la base de la guerre.
07:55
SocialSocial psychologistspsychologues like me come alongle long de and say, "Yeah,
131
463000
2000
Les psychologues sociaux comme moi débarquent et disent "D'accord,
07:57
people are the actorsacteurs on the stageétape,
132
465000
2000
les gens sont les acteurs sur la scène,
07:59
but you'lltu vas have to be awareconscient of what that situationsituation is.
133
467000
2000
mais il faut être conscient du contexte de la situation.
08:01
Who are the castjeter of characterspersonnages? What's the costumecostume?
134
469000
3000
Quel est l'ensemble des personnages ? Quels sont les costumes ?
08:04
Is there a stageétape directorréalisateur?"
135
472000
1000
Y a-t-il un metteur en scène ?"
08:05
And so we're interestedintéressé in, what are the externalexterne factorsfacteurs
136
473000
2000
Et donc nous nous intéressons aux facteurs externes
08:08
around the individualindividuel -- the badmal barrelbaril?
137
476000
2000
autour de l'individu : le mauvais pré ?
08:10
And socialsocial scientistsscientifiques stop there, and they missmanquer the biggros pointpoint
138
478000
3000
Et les sociologues s'arrêtent là, et ne voient pas le point crucial
08:13
that I discovereddécouvert when I becamedevenu an expertexpert witnesstémoin for AbuAbou GhraibGhraib.
139
481000
3000
que j'ai découvert quand je suis devenu expert témoin pour Abu Ghraib.
08:16
The powerPuissance is in the systemsystème.
140
484000
2000
Le pouvoir est dans le système.
08:18
The systemsystème createscrée the situationsituation that corruptscorrompt the individualspersonnes,
141
486000
3000
Le système crée la situation qui corrompt les individus,
08:21
and the systemsystème is the legallégal, politicalpolitique, economicéconomique, culturalculturel backgroundContexte.
142
489000
5000
et le système, c'est l'arrière-plan légal, politique, économique et culturel.
08:26
And this is where the powerPuissance is of the bad-barrelBad-baril makersles décideurs.
143
494000
3000
Et c'est là qu'est le pouvoir des créateurs de mauvais prés.
08:29
So if you want to changechangement a personla personne, you've got to changechangement the situationsituation.
144
497000
3000
Donc si vous voulez changer une personne, il vous faut changer la situation.
08:32
If you want to changechangement the situationsituation,
145
500000
1000
Si vous voulez changer la situation,
08:33
you've got to know where the powerPuissance is, in the systemsystème.
146
501000
2000
il vous faut savoir où réside le pouvoir dans le système.
08:35
So the LuciferLucifer effecteffet involvesimplique understandingcompréhension
147
503000
2000
Et donc l'Effet Lucifer implique la compréhension
08:37
humanHumain characterpersonnage transformationstransformations with these threeTrois factorsfacteurs.
148
505000
5000
des modifications de la personalité humaine avec ces trois facteurs.
08:43
And it's a dynamicdynamique interplayréciproque.
149
511000
1000
Et ce sont des interactions dynamiques.
08:44
What do the people bringapporter into the situationsituation?
150
512000
2000
Qu'est-ce que les gens apportent à la situation ?
08:46
What does the situationsituation bringapporter out of them?
151
514000
2000
Qu'est que la situation fait ressortir d'eux?
08:48
And what is the systemsystème that createscrée and maintainsmaintient that situationsituation?
152
516000
4000
Et quel est le système qui crée et maintient cette situation ?
08:52
So my booklivre, "The LuciferLucifer EffectEffet," recentlyrécemment publishedpublié, is about,
153
520000
2000
Et donc le sujet de mon livre, l'Effet Lucifer, publié récemment, c'est
08:54
how do you understandcomprendre how good people turntour evilmal?
154
522000
2000
de comprendre comment des gens biens deviennent mauvais ?
08:57
And it has a lot of detaildétail
155
525000
1000
Il contient beaucoup de détails
08:58
about what I'm going to talk about todayaujourd'hui.
156
526000
2000
concernant ce dont je vais vous parler aujourd'hui.
09:01
So DrDr. Z'sDe Z "LuciferLucifer EffectEffet," althoughbien que it focusesse concentre on evilmal,
157
529000
3000
Donc "L'Effet Lucifer" du Dr. Z, bien qu'il se concentre sur le mal,
09:04
really is a celebrationcélébration of the humanHumain mind'sde l’esprit
158
532000
2000
est en fait une célébration de la capacité infinie
09:06
infiniteinfini capacitycapacité to make any of us kindgentil or cruelcruel,
159
534000
4000
de l'esprit humain de rendre n'importe lequel d'entre nous compatissant ou cruel,
09:10
caringsoins or indifferentindifférent, creativeCréatif or destructivedestructrice,
160
538000
3000
attentionné ou indifférent, créatif ou destructif,
09:13
and it makesfait du some of us villainsméchants.
161
541000
2000
et il transforme certains d'entre nous en criminels.
09:15
And the good newsnouvelles storyrécit that I'm going to hopefullyj'espère come to
162
543000
2000
Mais la bonne nouvelle, que j'espère je pourrai évoquer
09:18
at the endfin is that it makesfait du some of us heroeshéros.
163
546000
2000
a la fin, c'est qu'il fait de certains d'entre nous des héros.
09:20
This is a wonderfulformidable cartoondessin animé in the NewNouveau YorkerYorker,
164
548000
3000
Ceci est un merveilleux dessin du New Yorker,
09:23
whichlequel really summarizesrésume les my wholeentier talk:
165
551000
2000
qui résume vraiment toute ma présentation :
09:25
"I'm neitherni a good copflic norni a badmal copflic, JeromeJerome.
166
553000
2000
"Je ne suis ni un bon, ni un mauvais flic, Jérôme.
09:27
Like yourselftoi même, I'm a complexcomplexe amalgamamalgame
167
555000
2000
Comme toi, je suis un amalgame complexe
09:29
of positivepositif and negativenégatif personalitypersonnalité traitstraits
168
557000
2000
de traits de personnalité positifs et négatifs
09:32
that emergeémerger or not, dependingen fonction, dépendemment on the circumstancesconditions."
169
560000
3000
qui émergent, ou non, suivant les circonstances."
09:35
(LaughterRires)
170
563000
2000
(Rires)
09:37
There's a studyétude some of you think you know about,
171
565000
3000
Il y a une étude que certains d'entre vous croient connaître
09:40
but very fewpeu people have ever readlis the storyrécit. You watchedregardé the moviefilm.
172
568000
4000
mais très peu de gens ont lu l'histoire. Vous avez vu le film.
09:44
This is StanleyStanley MilgramMilgram, little JewishJuif kidenfant from the BronxBronx,
173
572000
3000
Voici Stanley Milgram, un gamin juif du Bronx,
09:47
and he askeda demandé the questionquestion, "Could the HolocaustHolocauste happense produire here, now?"
174
575000
3000
et il a posé la question "Est-ce que l'holocauste pourrait se produire ici, maintenant?"
09:51
People say, "No, that's NaziNazi GermanyAllemagne,
175
579000
1000
Les gens disent "Non, ça c'est l'Allemagne Nazie,
09:52
that's HitlerHitler, you know, that's 1939."
176
580000
2000
c'est Hitler, c'est 1939."
09:54
He said, "Yeah, but supposesupposer HitlerHitler askeda demandé you,
177
582000
2000
Il a répondu "Oui, mais supposez que Hitler vous demande
09:56
'Would you electrocuteélectrocuter a strangerétranger?' 'No' No way, not me, I'm a good personla personne.' "
178
584000
3000
"Pourriez-vous électrocuter un étranger ?" "Non, pas moi, je suis quelqu'un de bien."
10:00
He said, "Why don't we put you in a situationsituation
179
588000
1000
Et il a dit "Pourquoi ne pas vous placer dans une situation particulière
10:01
and give you a chancechance to see what you would do?"
180
589000
2000
et vous permettre de voir ce que vous feriez ?"
10:03
And so what he did was he testedtesté 1,000 ordinaryordinaire people.
181
591000
4000
Et donc ce qu'il a fait, c'est qu'il a testé 1000 personnes ordinaires,
10:07
500 NewNouveau HavenHavre de paix, ConnecticutConnecticut, 500 BridgeportBridgeport.
182
595000
3000
500 de New Haven dans le Connecticut, 500 de Bridgeport.
10:10
And the adun d said, "PsychologistsPsychologues want to understandcomprendre memoryMémoire.
183
598000
4000
L'annonce disait : "Des psychologues veulent comprendre la mémoire,
10:14
We want to improveaméliorer people'sles gens memoryMémoire,
184
602000
1000
nous voulons améliorer la mémoire des gens,
10:15
because memoryMémoire is the keyclé to successSuccès." OK?
185
603000
3000
parce que la mémoire est la clé du succès." D'accord?
10:18
"We're going to give you fivecinq bucksdollars -- fourquatre dollarsdollars for your time."
186
606000
5000
"Nous allons vous payer cinq dollars -- quatre dollars, pour le temps passé."
10:24
And it said, "We don't want collegeUniversité studentsélèves.
187
612000
1000
Et elle disait "Nous ne voulons pas d'étudiants,
10:25
We want menHommes betweenentre 20 and 50."
188
613000
2000
nous voulons des hommes entre 20 et 50 ans"
10:27
In the laterplus tard studiesétudes, they rancouru womenfemmes.
189
615000
1000
-- dans une enquête ultérieure ils ont étudié les femmes --
10:28
OrdinaryOrdinaire people: barbersCoiffeurs pour hommes, clerkscommis aux, white-collarcols blancs people.
190
616000
4000
des gens ordinaires : coiffeurs, vendeurs, employés de bureau.
10:32
So, you go down, and one of you is going to be a learnerapprenant,
191
620000
3000
Donc vous y allez et l'un d'entre vous va être l'étudiant
10:35
and one of you is going to be a teacherprof.
192
623000
1000
et l'autre sera l'enseignant.
10:36
The learner'sLearner a genialGenial, middle-agedâge moyen guy.
193
624000
2000
L'étudiant est un type sympathique, d'âge moyen.
10:38
He getsobtient tiedattaché up to the shockchoc apparatusappareil in anotherun autre roomchambre.
194
626000
3000
Il est attaché à l'électro-choc dans une autre pièce.
10:41
The learnerapprenant could be middle-agedâge moyen, could be as youngJeune as 20.
195
629000
3000
L'étudiant peut être d'âge moyen, peut n'avoir que vingt ans.
10:44
And one of you is told by the authorityautorité, the guy in the lablaboratoire coatmanteau,
196
632000
4000
Et des instructions vous sont données par une autorité, l'homme en blouse blanche.
10:48
"Your jobemploi as teacherprof is to give this guy materialMatériel to learnapprendre.
197
636000
3000
"Votre travail d'enseignant est de donner à cet homme des choses à apprendre.
10:51
GetsObtient it right, rewardrécompense him.
198
639000
1000
S'il répond juste, récompensez-le.
10:52
GetsObtient it wrongfaux, you presspresse a buttonbouton on the shockchoc boxboîte.
199
640000
2000
S'il se trompe, vous pressez un bouton sur la boite à électro-choc.
10:54
The first buttonbouton is 15 voltsvolts. He doesn't even feel it."
200
642000
3000
Le premier bouton est 15 volts. Il ne le sent même pas."
10:58
That's the keyclé. All evilmal startsdéparts with 15 voltsvolts.
201
646000
3000
Et c'est cela la clé. Toutes les horreurs commencent avec 15 volts.
11:01
And then the nextprochain stepétape is anotherun autre 15 voltsvolts.
202
649000
2000
Et l'étape suivante c'est 15 volts de plus.
11:04
The problemproblème is, at the endfin of the lineligne, it's 450 voltsvolts.
203
652000
2000
Le problème c'est que, à l'autre bout, c'est 450 volts.
11:06
And as you go alongle long de, the guy is screamingen hurlant,
204
654000
3000
Et à mesure que vous progressez, l'homme hurle,
11:09
"I've got a heartcœur conditioncondition! I'm out of here!"
205
657000
2000
"J'ai des problèmes de coeur ! J'abandonne !"
11:11
You're a good personla personne. You complainse plaindre.
206
659000
2000
Vous êtes quelqu'un de bien. Vous vous plaignez.
11:13
"SirMonsieur le Président, who'squi est going to be responsibleresponsable if something happensarrive to him?"
207
661000
2000
"Monsieur, qui sera responsable si quelque chose lui arrive ?"
11:15
The experimenterexpérimentateur saysdit, "Don't worryinquiéter, I will be responsibleresponsable.
208
663000
3000
Et l'expérimentateur répond "Ne vous inquiétez pas, c'est ma responsabilité.
11:18
ContinueContinuer, teacherprof."
209
666000
1000
Continuez d'enseigner."
11:19
And the questionquestion is, who would go all the way to 450 voltsvolts?
210
667000
4000
Et la question est : qui va aller jusqu'à 450 volts?
11:24
You should noticeremarquer here, when it getsobtient up to 375,
211
672000
2000
Remarquez que ici, quand on monte à 375,
11:26
it saysdit, "DangerDanger. SevereSévère ShockChoc."
212
674000
1000
il est écrit : "Danger: Décharge importante."
11:28
When it getsobtient up to here, there's "XXXXXX" -- the pornographypornographie of powerPuissance.
213
676000
3000
Et quand on en arrive là, il y a "XXX" : la pornographie du pouvoir.
11:31
(LaughterRires)
214
679000
1000
(Rires)
11:32
So MilgramMilgram asksdemande 40 psychiatristspsychiatres,
215
680000
1000
Milgram a demandé à 40 psychiatres,
11:33
"What percentpour cent of AmericanAméricain citizenscitoyens would go to the endfin?"
216
681000
3000
"Quel pourcentage de citoyens américains iront jusqu'au bout ?"
11:37
They said only one percentpour cent. Because that's sadisticsadique behaviorcomportement,
217
685000
3000
Ils ont répondu 1%. Parce que c'est un comportement sadique,
11:40
and we know, psychiatrypsychiatrie knowssait, only one percentpour cent of AmericansAméricains are sadisticsadique.
218
688000
3000
et nous savons, la psychiatrie sait, que seulement 1% des Américains sont sadiques.
11:44
OK. Here'sVoici the dataLes données. They could not be more wrongfaux.
219
692000
4000
Voilà les résultats. Ils étaient très loin du compte.
11:48
Two thirdstiers go all the way to 450 voltsvolts. This was just one studyétude.
220
696000
5000
Les deux-tiers sont allés jusqu'à 450 volts. Ce n'était qu'une seule étude.
11:53
MilgramMilgram did more than 16 studiesétudes. And look at this.
221
701000
3000
Milgram en a fait plus de 16 et regardez:
11:56
In studyétude 16, where you see somebodyquelqu'un like you go all the way,
222
704000
4000
dans la seizième étude, où vous voyez quelqu'un dans la même situation aller jusqu'au bout,
12:00
90 percentpour cent go all the way. In studyétude fivecinq, if you see people rebelrebelle, 90 percentpour cent rebelrebelle.
223
708000
6000
90% vont jusqu'au bout. Dans la cinquième étude, si vous voyez des gens se rebeller, 90% se rebellent.
12:06
What about womenfemmes? StudyÉtude 13 -- no differentdifférent than menHommes.
224
714000
3000
Et les femmes ? Etude 13 : pas de différence avec les hommes.
12:10
So MilgramMilgram is quantifyingquantification de evilmal as the willingnessvolonté of people
225
718000
3000
Milgram quantifie le mal comme le consentement des gens
12:13
to blindlyaveuglément obeyobéit authorityautorité, to go all the way to 450 voltsvolts.
226
721000
3000
à obéir aveuglément à l'autorité, à aller jusqu'au bout, à 450 volts.
12:16
And it's like a dialcadran on humanHumain naturela nature.
227
724000
2000
C'est comme un cadran sur la nature humaine.
12:18
A dialcadran in a sensesens that you can make almostpresque everybodyTout le monde totallytotalement obedientobéissants,
228
726000
4000
un cadran dans la mesure où vous pouvez rendre presque tous le monde totalement obéissant
12:23
down to the majoritymajorité, down to noneaucun.
229
731000
2000
ou bien la majorité, ou bien personne.
12:25
So what are the externalexterne parallelsParallels? For all researchrecherche is artificialartificiel.
230
733000
4000
Alors quels sont les parallèles extérieurs ? Toute recherche est après tout artificielle.
12:29
What's the validityvalidité in the realréal worldmonde?
231
737000
1000
Quelle est la validité dans le monde réel ?
12:30
912 AmericanAméricain citizenscitoyens committedengagé suicidesuicide or were murderedassassiné
232
738000
4000
912 citoyens américains se sont suicidés ou ont été tués
12:34
by familyfamille and friendscopains in GuyanaGuyane junglejungle in 1978,
233
742000
3000
par des amis ou des membres de leur famille dans la jungle du Guyana en 1978,
12:37
because they were blindlyaveuglément obedientobéissants to this guy, theirleur pastorPasteur --
234
745000
3000
parce qu'ils obéissaient aveuglément à cet homme, leur pasteur.
12:40
not theirleur priestprêtre -- theirleur pastorPasteur, ReverendRévérend JimJim JonesJones.
235
748000
2000
Pas leur prêtre. Leur pasteur, le révérend Jim Jones.
12:42
He persuadedpersuadé them to commitcommettre massMasse suicidesuicide.
236
750000
3000
Il les a persuadés de commettre un suicide de masse
12:46
And so, he's the modernmoderne LuciferLucifer effecteffet,
237
754000
1000
et il est la représentation moderne de l'Effet Lucifer.
12:47
a man of God who becomesdevient the AngelAnge of DeathMort.
238
755000
3000
Un homme de Dieu qui devient l'Ange de la Mort.
12:52
Milgram'sMilgram studyétude is all about individualindividuel authorityautorité to controlcontrôle people.
239
760000
4000
L'étude de Milgram concerne l'autorité d'un individu pour contrôler les gens.
12:56
MostPlupart of the time, we are in institutionsinstitutions,
240
764000
3000
Cependant la plupart du temps nous sommes dans des institutions
13:00
so the StanfordStanford PrisonPrison StudyÉtude is a studyétude of the powerPuissance of institutionsinstitutions
241
768000
3000
et donc l'étude sur la prison de Stanford est une étude du pouvoir des institutions
13:03
to influenceinfluence individualindividuel behaviorcomportement.
242
771000
2000
à influencer les comportements individuels.
13:05
InterestinglyIl est intéressant, StanleyStanley MilgramMilgram and I were in the sameMême highhaute schoolécole classclasse
243
773000
3000
Et, c'est intéressant, Stanley Milgram et moi étions dans la même classe au lycée
13:08
in JamesJames MonroeMonroe in the BronxBronx, 1954.
244
776000
3000
à James Monroe dans le Bronx en 1954.
13:13
So this studyétude, whichlequel I did
245
781000
1000
Donc cette étude, que j'ai faite
13:14
with my graduatediplômé studentsélèves, especiallynotamment CraigCraig HaneyHaney --
246
782000
2000
avec mes étudiants, en particulier Craig Haney,
13:16
we alsoaussi begana commencé work with an adun d.
247
784000
1000
commençait aussi avec une annonce.
13:17
We didn't have moneyargent, so we had a cheappas cher, little adun d,
248
785000
2000
Nous n'avions pas d'argent, alors nous avions une toute petite annonce bon marché,
13:19
but we wanted collegeUniversité studentsélèves for a studyétude of prisonprison life.
249
787000
3000
mais nous voulions des étudiants en université pour une étude sur la vie en prison.
13:22
75 people volunteeredvolontaire, tooka pris personalitypersonnalité teststests.
250
790000
3000
Nous avons eu 75 volontaires, qui ont passé des tests de personnalité.
13:25
We did interviewsinterviews. PickedCueillies two dozendouzaine:
251
793000
2000
Nous avons fait des entretiens et en avons choisi deux douzaines :
13:27
the mostles plus normalnormal, the mostles plus healthyen bonne santé.
252
795000
1000
les plus normaux, les plus sains.
13:29
RandomlyAu hasard assignedattribué them to be prisonerprisonnier and guardgarde.
253
797000
2000
Un rôle leur a été attribué au hasard, prisonnier ou gardien.
13:31
So on day one, we knewa connu we had good applespommes.
254
799000
2000
Donc, le premier jour, nous savions que nous avions de bonne brebis.
13:33
I'm going to put them in a badmal situationsituation.
255
801000
2000
Je vais les mettre dans une mauvaise situation.
13:35
And secondlyDeuxièmement, we know there's no differencedifférence
256
803000
2000
Deuxièmement, nous savons qu'il n'y a pas de différence
13:38
betweenentre the boysgarçons who are going to be guardsgardes
257
806000
1000
entre les jeunes qui vont être les gardiens
13:39
and the boysgarçons who are going to be prisonersles prisonniers.
258
807000
1000
et ceux qui vont être les prisonniers.
13:41
The kidsdes gamins who were going to be prisonersles prisonniers,
259
809000
1000
Aux gamins qui allaient être les prisonniers,
13:42
we said, "Wait at home in the dormitoriesdortoirs. The studyétude will begincommencer SundayDimanche."
260
810000
2000
nous avons dit : "Attendez chez vous dans les dortoirs. L'étude commence dimanche."
13:45
We didn't tell them
261
813000
1000
Nous ne leur avons pas dit
13:46
that the cityville policepolice were going to come and do realisticréaliste arrestsarrestations.
262
814000
36000
que la police municipale viendrait les arrêter de manière réaliste.
14:22
(VideoVidéo) StudentStudent: A policepolice carvoiture pullstire up in frontde face, and a copflic comesvient to the frontde face doorporte,
263
850000
6000
(Homme dans la vidéo: une voiture de police s'arrête devant, un flic vient à la porte
14:28
and knocksfrappe, and saysdit he's looking for me.
264
856000
2000
et frappe et dit qu'il me cherche.
14:30
So they, right there, you know, they tooka pris me out the doorporte,
265
858000
2000
Et là, immédiatement, ils m'embarquent,
14:33
they put my handsmains againstcontre the carvoiture.
266
861000
3000
me mettent les mains contre la voiture.
14:36
It was a realréal copflic carvoiture, it was a realréal policemanpolicier,
267
864000
2000
C'était une vraie voiture de flics, c'était un vrai policier,
14:39
and there were realréal neighborsvoisins in the streetrue,
268
867000
1000
et il y avait mes vrais voisins dans la rue
14:40
who didn't know that this was an experimentexpérience.
269
868000
4000
qui ne savaient pas que c'était une expérience.
14:44
And there was camerasappareils photo all around and neighborsvoisins all around.
270
872000
3000
Et il y avait ces caméras tout autour et les voisins tout autour.
14:47
They put me in the carvoiture, then they drovea conduit me around PaloPalo AltoAlto.
271
875000
3000
Ils m'ont mis dans la voiture, et ensuite ils ont conduit dans Palo Alto.
14:52
They tooka pris me to the policepolice stationgare,
272
880000
3000
Il's m'ont emmené au poste de police,
14:55
the basementsous-sol of the policepolice stationgare. Then they put me in a cellcellule.
273
883000
10000
dans la cave du poste de police. Et ils m'ont enfermé en cellule.
15:05
I was the first one to be pickedchoisi up, so they put me in a cellcellule,
274
893000
2000
J'étais le premier à être arrêté, donc ils m'ont mis en cellule,
15:07
whichlequel was just like a roomchambre with a doorporte with barsbarres on it.
275
895000
4000
qui était exactement comme une chambre avec une porte à barreaux.
15:12
You could tell it wasn'tn'était pas a realréal jailprison.
276
900000
1000
Ce n'était clairement pas une vraie cellule.
15:13
They lockedfermé à clef me in there, in this degradingdégradants little outfitOutfit.
277
901000
5000
Ils m'ont enfermé là-dedans, avec cet uniforme dégradant.
15:19
They were takingprise this experimentexpérience too seriouslysérieusement.
278
907000
2000
Ils prenaient cette expérience trop au sérieux."
15:21
PhilipPhilippe ZimbardoZimbardo: Here are the prisonersles prisonniers who are going to be dehumanizeddéshumanisé.
279
909000
2000
Voici les prisonniers qui vont être déshumanisés.
15:23
They're going to becomedevenir numbersNombres.
280
911000
1000
Ils vont devenir des numéros.
15:24
Here are the guardsgardes with the symbolssymboles of powerPuissance and anonymityanonymat.
281
912000
3000
Voici les gardes avec les symboles de pouvoir et d'anonymat.
15:27
GuardsGardes get prisonersles prisonniers
282
915000
1000
Les gardiens obligent les prisonniers
15:28
to cleannettoyer the toilettoilette bowlsboules out with theirleur barenu handsmains,
283
916000
2000
à nettoyer les cuvettes des toilettes à mains nues,
15:30
to do other humiliatinghumiliant tasksles tâches.
284
918000
2000
et à effectuer d'autre travaux humiliants.
15:32
They stripbande them nakednu. They sexuallysexuellement tauntnarguer them.
285
920000
2000
Ils les mettent nus. Ils les provoquent sexuellement.
15:34
They begincommencer to do degradingdégradants activitiesActivités,
286
922000
2000
Ils commencent à pratiquer des activités dégradantes,
15:36
like havingayant them simulatesimuler sodomysodomie.
287
924000
2000
comme leur faire simuler la sodomie.
15:38
You saw simulatingsimulant fellatioFellation in soldierssoldats in AbuAbou GhraibGhraib.
288
926000
3000
Vous avez vu une simulation de fellation avec les soldats d'Abu Ghraib.
15:41
My guardsgardes did it in fivecinq daysjournées. The stressstress reactionréaction was so extremeextrême
289
929000
5000
Mes gardiens en sont arrivés là en cinq jours. La réaction de stress était tellement extrême,
15:46
that normalnormal kidsdes gamins we pickedchoisi because they were healthyen bonne santé
290
934000
2000
que des enfants normaux, que nous avions choisis parce qu'ils étaient en bonne santé
15:48
had breakdownsventilations withindans 36 hoursheures.
291
936000
2000
ont fait des dépressions en l'espace de 36 heures.
15:50
The studyétude endedterminé after sixsix daysjournées, because it was out of controlcontrôle.
292
938000
4000
L'étude s'est terminée après six jours parce qu'elle était devenue incontrôlable.
15:54
FiveCinq kidsdes gamins had emotionalémotif breakdownsventilations.
293
942000
2000
Cinq jeunes ont fait des dépressions.
15:58
Does it make a differencedifférence if warriorsguerriers go to battlebataille
294
946000
2000
Est-ce que cela fait une différence si les guerriers partent en guerre
16:00
changingen changeant theirleur appearanceapparence or not?
295
948000
2000
en changeant leur apparence, ou pas ?
16:02
Does it make a differencedifférence if they're anonymousanonyme,
296
950000
1000
Est-ce que cela fait une différence s'ils sont anonymes
16:03
in how they treattraiter theirleur victimsles victimes?
297
951000
2000
dans la manière dont ils traitent leurs victimes ?
16:05
We know in some culturesdes cultures, they go to warguerre,
298
953000
1000
Nous savons que dans certaines cultures, ils partent en guerre
16:06
they don't changechangement theirleur appearanceapparence.
299
954000
1000
sans changer leur apparence.
16:07
In other culturesdes cultures, they paintpeindre themselvesse like "LordSeigneur of the FliesMouches."
300
955000
2000
Dans d'autres cultures, ils se peignent le corps comme dans "Sa Majesté des Mouches"
16:09
In some, they wearporter masksmasques.
301
957000
2000
Dans d'autres, ils portent des masques.
16:11
In manybeaucoup, soldierssoldats are anonymousanonyme in uniformuniforme.
302
959000
3000
Dans beaucoup, les soldats sont anonymes en uniformes.
16:14
So this anthropologistanthropologue, JohnJohn WatsonWatson, founda trouvé
303
962000
2000
Donc cet anthropologue, John Watson, a étudié
16:17
23 culturesdes cultures that had two bitsmorceaux of dataLes données.
304
965000
2000
23 cultures qui avaient 2 types de données.
16:19
Do they changechangement theirleur appearanceapparence? 15.
305
967000
2000
Changent-elles leur apparence ? 15.
16:21
Do they killtuer, torturetorture, mutilatemutiler? 13.
306
969000
2000
Est-ce qu'elles tuent, torturent, mutilent ? 13.
16:23
If they don't changechangement theirleur appearanceapparence,
307
971000
2000
Si elles ne changent pas leur apparence
16:25
only one of eighthuit killstue, torturestortures or mutilatesmutile.
308
973000
2000
seulement une sur huit tue, torture ou mutile.
16:27
The keyclé is in the redrouge zonezone.
309
975000
2000
La clé est dans la zone rouge.
16:29
If they changechangement theirleur appearanceapparence,
310
977000
1000
Si elles changent leur apparence,
16:30
12 of 13 -- that's 90 percentpour cent -- killtuer, torturetorture, mutilatemutiler.
311
978000
4000
12 sur 13 (soit 90 pourcent) tuent, torturent, mutilent.
16:35
And that's the powerPuissance of anonymityanonymat.
312
983000
1000
Et c'est là le pouvoir de l'anonymat.
16:36
So what are the sevenSept socialsocial processesprocessus
313
984000
2000
Quels sont dont les sept processus sociaux
16:38
that greasegraisse the slipperyglissant slopepente of evilmal?
314
986000
2000
qui huilent la pente glissante vers le mal?
16:40
MindlesslySans réfléchir takingprise the first smallpetit stepétape.
315
988000
2000
Faire le premier petit pas sans réfléchir.
16:42
DehumanizationDéshumanisation of othersautres. De-individuationDé-individuation of SelfGites.
316
990000
3000
Déshumaniser les autres. Se désindividualiser soi-même.
16:45
DiffusionDiffusion of personalpersonnel responsibilityresponsabilité. BlindAveugles obedienceobéissance to authorityautorité.
317
993000
3000
Le partage de la responsabilité personnelle. L'obéissance aveugle à l'autorité.
16:49
UncriticalDépourvu de sens critique conformityconformité to groupgroupe normsnormes.
318
997000
1000
Conformité sans réserves aux normes de groupe.
16:50
PassivePassive tolerancetolérance to evilmal throughpar inactioninaction or indifferenceindifférence.
319
998000
3000
Tolérance passive au mal, à travers l'inaction ou l'indifférence.
16:54
And it happensarrive when you're in a newNouveau or unfamiliarpeu familier situationsituation.
320
1002000
2000
Et tout cela se produit lorsque vous êtes dans une situation nouvelle ou peu familière.
16:56
Your habitualhabituelle responseréponse patternsmodèles don't work.
321
1004000
2000
Vos schémas de réponse habituels ne fonctionnent pas.
16:59
Your personalitypersonnalité and moralitymoralité are disengageddébrayé.
322
1007000
2000
Votre personnalité et moralité ne sont pas engagées.
17:01
"Nothing is easierPlus facile than to denouncedénoncer the evildoerevildoer;
323
1009000
3000
"Rien n'est plus facile que de dénoncer celui qui fait le mal ;
17:04
nothing more difficultdifficile than understandingcompréhension him," DostoyevksyDostoyevksy tellsraconte us.
324
1012000
3000
rien n'est plus difficile que de le comprendre," nous dit Dostoïevski.
17:07
UnderstandingCompréhension is not excusingexcuser les. PsychologyPsychologie is not excuse-iologyexcuse-parler.
325
1015000
4000
Comprendre n'est pas excuser. La psychologie n'est pas l'excus-ologie.
17:12
So socialsocial and psychologicalpsychologique researchrecherche revealsrévèle
326
1020000
1000
Et donc les recherches sociologiques et psychologiques révèlent
17:13
how ordinaryordinaire, good people can be transformedtransformé withoutsans pour autant the drugsdrogues.
327
1021000
4000
comment des gens ordinaires peuvent être transformés sans drogues.
17:17
You don't need it. You just need the social-psychologicalsocio-psychologique processesprocessus.
328
1025000
3000
Vous n'en avez pas besoin. Vous avez seulement besoin des processus socio-psychologiques.
17:20
RealReal worldmonde parallelsParallels? CompareComparer this with this.
329
1028000
4000
Des exemples dans le monde réel ? Comparez avec ceci.
17:26
JamesJames SchlesingerSchlesinger -- and I'm going to have to endfin with this -- saysdit,
330
1034000
2000
James Schlesinger (et je vais devoir conclure là-dessus) dit :
17:28
"PsychologistsPsychologues have attemptedtenté to understandcomprendre how and why
331
1036000
2000
"Les psychologues ont tenté de comprendre comment et pourquoi
17:31
individualspersonnes and groupsgroupes who usuallyd'habitude actacte humanelyhumainement
332
1039000
2000
les individus et groupes qui normalement se comportent de manière humaine
17:33
can sometimesparfois actacte otherwiseautrement in certaincertain circumstancesconditions."
333
1041000
3000
peuvent parfois se comporter différemment dans certaines circonstances."
17:37
That's the LuciferLucifer effecteffet.
334
1045000
1000
C'est l'Effet Lucifer.
17:38
And he goesva on to say, "The landmarkpoint de repère StanfordStanford studyétude
335
1046000
2000
Et il continue en disant "L'étude décisive de Stanford
17:40
providesfournit a cautionarymise en garde taleconte for all militarymilitaire operationsopérations."
336
1048000
4000
nous fournit un conte moral pour toutes les opérations militaires."
17:44
If you give people powerPuissance withoutsans pour autant oversightcontrôle,
337
1052000
2000
Si vous donnez aux gens du pouvoir sans surveillance,
17:47
it's a prescriptionordonnance for abuseabuser de. They knewa connu that, and let that happense produire.
338
1055000
3000
c'est une ordonnance pour les abus. Ils le savaient et ont laissé faire.
17:50
So anotherun autre reportrapport, an investigatived’enquête reportrapport by GeneralGénérales FayFay,
339
1058000
5000
Un autre rapport, un rapport d'enquête du général Fay,
17:55
saysdit the systemsystème is guiltycoupable. And in this reportrapport,
340
1063000
2000
dit que le système est coupable et dans son rapport
17:57
he saysdit it was the environmentenvironnement that createdcréé AbuAbou GhraibGhraib,
341
1065000
3000
il dit que c'est l'environnement qui a créé Abu Ghraib
18:00
by leadershipdirection failuresles échecs that contributedcontribué
342
1068000
2000
du fait de manquements de commandement qui ont contribué
18:02
to the occurrenceoccurrence of suchtel abuseabuser de,
343
1070000
1000
à l'avènement de ce type d'abus,
18:03
and the factfait that it remainedresté undiscoveredUndiscovered
344
1071000
2000
et le fait qu'ils soient restés inconnus
18:05
by higherplus haute authoritiesles autorités for a long periodpériode of time.
345
1073000
2000
des autorités supérieures pendant si longtemps.
18:07
Those abusesabus wentest allé on for threeTrois monthsmois. Who was watchingen train de regarder the storele magasin?
346
1075000
4000
Ces abus se sont produits pendant trois mois. Qui gardait le magasin ?
18:11
The answerrépondre is nobodypersonne, and, I think, nobodypersonne on purposeobjectif.
347
1079000
2000
La response est personne et, je pense, de manière voulue.
18:14
He gavea donné the guardsgardes permissionautorisation to do those things,
348
1082000
1000
Ils ont donné aux gardiens la permission de faire ces choses,
18:15
and they knewa connu nobodypersonne was ever going to come down to that dungeondonjon.
349
1083000
3000
et ils savaient que personne ne descendrait jamais dans ce cachot.
18:18
So you need a paradigmparadigme shiftdécalage in all of these areaszones.
350
1086000
3000
Il faut donc un changement de paradigme dans tous ces domaines.
18:21
The shiftdécalage is away from the medicalmédical modelmaquette
351
1089000
2000
Ce changement doit se produire en dehors du modèle médical
18:23
that focusesse concentre only on the individualindividuel.
352
1091000
2000
qui se concentre uniquement sur l'individu.
18:25
The shiftdécalage is towardvers a publicpublic healthsanté modelmaquette
353
1093000
2000
Ce changement doit aller vers un modèle de santé publique
18:28
that recognizesreconnaît situationalsituationnel and systemicsystémique vectorsvecteurs of diseasemaladie.
354
1096000
3000
qui reconnait les vecteurs situationnels et systémiques de la maladie.
18:31
BullyingL’intimidation is a diseasemaladie. PrejudicePréjudice is a diseasemaladie. ViolenceViolence is a diseasemaladie.
355
1099000
4000
L'intimidation est une maladie. Le préjugé est une maladie. La violence est une maladie.
18:35
And sincedepuis the InquisitionInquisition, we'venous avons been dealingtransaction with problemsproblèmes
356
1103000
2000
Et depuis l'Inquisition, nous avons géré ces problèmes
18:37
at the individualindividuel levelniveau. And you know what? It doesn't work.
357
1105000
3000
au niveau des individus. Et vous savez quoi ? Cela ne fonctionne pas.
18:40
AleksandrAleksandr SolzhenitsynSoljenitsyne saysdit, "The lineligne betweenentre good and evilmal
358
1108000
3000
Alexandre Soljenitsyne dit que la ligne entre le bien et le mal
18:43
cutscoupes throughpar the heartcœur of everychaque humanHumain beingétant."
359
1111000
2000
passe au travers du coeur de chaque être humain.
18:45
That meansveux dire that lineligne is not out there.
360
1113000
2000
Cela signifie que la ligne n'est pas quelque part là-bas.
18:47
That's a decisiondécision that you have to make. That's a personalpersonnel thing.
361
1115000
3000
C'est une décision que vous devez prendre. C'est quelque chose de personnel.
18:50
So I want to endfin very quicklyrapidement on a positivepositif noteRemarque.
362
1118000
3000
Mais je voudrais terminer très rapidement sur une note positive :
18:53
HeroismHéroïsme as the antidoteantidote to evilmal,
363
1121000
2000
l'héroïsme en tant qu'antidote au mal.
18:56
by promotingpromouvoir the heroichéroïque imaginationimagination,
364
1124000
1000
En promouvant l'imagination héroïque,
18:57
especiallynotamment in our kidsdes gamins, in our educationaléducatif systemsystème.
365
1125000
3000
particulièrement chez nos enfants, dans notre système d'éducation.
19:00
We want kidsdes gamins to think, I'm the herohéros in waitingattendre,
366
1128000
2000
Nous voulons que nos enfants pensent "Je suis le héros en devenir,
19:02
waitingattendre for the right situationsituation to come alongle long de,
367
1130000
2000
attendant la bonne situation pour apparaître,
19:05
and I will actacte heroicallyhéroïquement.
368
1133000
1000
et j'agirai de manière héroïque".
19:06
My wholeentier life is now going to focusconcentrer away from evilmal --
369
1134000
2000
Toute ma vie va maintenant se détourner du mal
19:08
that I've been in sincedepuis I was a kidenfant -- to understandingcompréhension heroeshéros.
370
1136000
3000
dans lequel j'ai évolué depuis mon enfance, vers la compréhension des héros.
19:11
BanalityBanalité of heroismhéroïsme
371
1139000
1707
Et leur idée de l'héroïsme maintenant,
19:13
is, it's ordinaryordinaire people who do heroichéroïque deedsactes.
372
1140707
2293
ce sont des gens ordinaires qui font des choses héroïques.
19:15
It's the counterpointcontrepoint to HannahHannah Arendt'sArendt sur "BanalityBanalité of EvilMal."
373
1143000
3000
C'est le contrepoint de la banalité du mal de Hannah Arendt.
19:18
Our traditionaltraditionnel societalsociétales heroeshéros are wrongfaux,
374
1146000
3000
Les héros de notre société traditionnelle sont faux,
19:21
because they are the exceptionsexceptions.
375
1149000
1000
parce qu'ils sont les exceptions.
19:22
They organizeorganiser theirleur wholeentier life around this.
376
1150000
2000
Ils organisent toute leur vie autour de cela.
19:24
That's why we know theirleur namesdes noms.
377
1152000
1000
C'est pour cela que nous connaissons leurs noms.
19:25
And our kids'Kids' heroeshéros are alsoaussi wrongfaux modelsdes modèles for them,
378
1153000
2000
Et les héros de nos enfants sont aussi leurs modèles
19:27
because they have supernaturalsurnaturel talentstalents.
379
1155000
2000
parce qu'ils ont des talents supernaturels.
19:30
We want our kidsdes gamins to realizeprendre conscience de mostles plus heroeshéros are everydaytous les jours people,
380
1158000
2000
Nous voulons que nos enfants réalisent que la plupart des héros sont des gens comme vous et moi,
19:32
and the heroichéroïque actacte is unusualinhabituel. This is JoeJoe DarbyDarby.
381
1160000
4000
et que l'acte héroïque est inhabituel. Voici Joe Darby.
19:36
He was the one that stoppedarrêté those abusesabus you saw,
382
1164000
2000
C'est lui qui a stoppé ces abus que vous avez vu,
19:38
because when he saw those imagesimages,
383
1166000
2000
parce que lorsqu'il a vu ces images,
19:40
he turnedtourné them over to a seniorSénior investigatingenquêter officerofficier.
384
1168000
3000
il les a données à un officier supérieur qui enquêtait.
19:43
He was a low-levelbas niveau privateprivé, and that stoppedarrêté it. Was he a herohéros? No.
385
1171000
3000
C'était un simple soldat du rang et cela a tout arrêté. Etait-il un héros ? Non.
19:47
They had to put him in hidingse cacher, because people wanted to killtuer him,
386
1175000
3000
Ils ont dû le mettre sous protection, parce que des gens voulaient le tuer,
19:50
and then his mothermère and his wifefemme.
387
1178000
1000
avec sa mère et sa femme.
19:51
For threeTrois yearsannées, they were in hidingse cacher.
388
1179000
2000
Ils ont dû rester cachés pendant trois ans.
19:53
This is the womanfemme who stoppedarrêté the StanfordStanford PrisonPrison StudyÉtude.
389
1181000
3000
Voici la femme qui a stoppé l'étude sur la prison de Stanford.
19:56
When I said it got out of controlcontrôle, I was the prisonprison superintendentsurintendant.
390
1184000
3000
Quand j'ai dit que c'était devenu hors de contrôle, j'étais le directeur de la prison.
19:59
I didn't know it was out of controlcontrôle. I was totallytotalement indifferentindifférent.
391
1187000
3000
Je ne savais pas qu'elle n'était plus sous contrôle. J'étais totalement indifférent.
20:02
She camevenu down, saw that madhousemaison de fous and said,
392
1190000
2000
Elle est venue, a vu cet asile de fous et m'a dit :
20:04
"You know what, it's terribleterrible what you're doing to those boysgarçons.
393
1192000
3000
"Vous savez, ce que vous faites à ces garçons est terrible.
20:07
They're not prisonersles prisonniers, they're not guardsgardes,
394
1195000
1000
Ce ne sont pas des prisonniers, ce ne sont pas des gardiens,
20:08
they're boysgarçons, and you are responsibleresponsable."
395
1196000
2000
ce sont des garçons, et vous êtes responsable."
20:11
And I endedterminé the studyétude the nextprochain day.
396
1199000
2000
Et j'ai arrêté l'étude le jour suivant.
20:13
The good newsnouvelles is I marriedmarié her the nextprochain yearan.
397
1201000
2000
La bonne nouvelle c'est que je l'ai épousée l'année suivante.
20:15
(LaughterRires)
398
1203000
3000
(Rires)
20:18
(ApplauseApplaudissements)
399
1206000
7000
(Applaudissements)
20:25
I just camevenu to my sensessens, obviouslyévidemment.
400
1213000
2000
J'ai repris mes esprits, manifestement.
20:27
So situationssituations have the powerPuissance to do, throughpar --
401
1215000
2000
Donc certaines situations ont le pouvoir de faire, à travers --
20:31
but the pointpoint is, this is the sameMême situationsituation
402
1219000
1000
mais l'important, c'est que c'est la même situation
20:32
that can inflameenflammer the hostilehostile imaginationimagination in some of us,
403
1220000
4000
qui peut enflammer une imagination agressive chez certains d'entre nous,
20:36
that makesfait du us perpetratorsauteurs of evilmal,
404
1224000
2000
qui nous fait commettre des crimes,
20:38
can inspireinspirer the heroichéroïque imaginationimagination in othersautres. It's the sameMême situationsituation.
405
1226000
3000
qui peut aussi inspirer l'imagination héroïque chez d'autres. C'est la même situation.
20:42
And you're on one sidecôté or the other.
406
1230000
1000
Et vous êtes soit d'un côté, soit de l'autre.
20:43
MostPlupart people are guiltycoupable of the evilmal of inactioninaction,
407
1231000
2000
La plupart des gens sont coupables du crime d'inaction,
20:45
because your mothermère said, "Don't get involvedimpliqué. MindEsprit your ownposséder businessEntreprise."
408
1233000
3000
parce que votre mère vous a dit : "Ne t'en mêle pas, occupe-toi de tes affaires."
20:48
And you have to say, "MamaMama, humanityhumanité is my businessEntreprise."
409
1236000
3000
Et vous devez dire : "Maman, l'humanité est mon affaire."
20:51
So the psychologypsychologie of heroismhéroïsme is -- we're going to endfin in a momentmoment --
410
1239000
2000
Donc la psychologie de l'héroïsme c'est -- nous allons finir dans un moment --
20:53
how do we encourageencourager childrenles enfants in newNouveau herohéros coursescours,
411
1241000
4000
comment encourager nos enfants, dans des cours de héros,
20:57
that I'm workingtravail with MattMatt LangdonLangdon -- he has a herohéros workshopatelier --
412
1245000
3000
sur lesquels je travaille avec Matt Langdon (il a un atelier d'héroïsme),
21:00
to developdévelopper this heroichéroïque imaginationimagination, this self-labelingétiquetage automatique,
413
1248000
3000
à développer cette imagination héroïque, cette étiquette auto-apposée
21:03
"I am a herohéros in waitingattendre," and teachapprendre them skillscompétences.
414
1251000
3000
"Je suis un héros en attente" et leur enseigner des compétences.
21:06
To be a herohéros, you have to learnapprendre to be a deviantdéviants,
415
1254000
2000
Pour être un héros, vous devez apprendre à être différent,
21:09
because you're always going againstcontre the conformityconformité of the groupgroupe.
416
1257000
2000
parce que vous allez toujours à l'encontre de la conformité du groupe.
21:11
HeroesHéros are ordinaryordinaire people whosedont socialsocial actionsactes are extraordinaryextraordinaire. Who actacte.
417
1259000
4000
Les héros sont des gens ordinaires dont les actions sociales sont extraordinaires. Qui agissent.
21:15
The keyclé to heroismhéroïsme is two things.
418
1263000
2000
La clé de l'héroïsme, ce sont deux choses:
21:17
A: you've got to actacte when other people are passivepassif.
419
1265000
2000
A : Il faut agir quand tous les autres sont passifs.
21:20
B: you have to actacte socio-centricallysocio-axial, not egocentricallyégocentrique.
420
1268000
3000
B : Il faut agir de manière socio-centrique, pas égocentrique.
21:23
And I want to endfin with the storyrécit that some of you know,
421
1271000
2000
Et je veux terminer avec cette histoire que certains d'entre vous connaissent,
21:25
about WesleyWesley AutreyAutrey, NewNouveau YorkYork subwaymétro herohéros.
422
1273000
2000
à propos de Wesley Autrey, héros du métro new-yorkais.
21:27
Fifty-year-oldCinquante ans African-AmericanAfro-américain constructionconstruction workerouvrier.
423
1275000
2000
Un noir américain de 50 ans, employé du bâtiment.
21:29
He's standingpermanent on a subwaymétro in NewNouveau YorkYork.
424
1277000
2000
Il est là debout sur le quai du métro à New York ;
21:31
A whiteblanc guy fallschutes on the tracksdes pistes.
425
1279000
1000
un homme blanc tombe sur les rails.
21:32
The subwaymétro traintrain is comingvenir. There's 75 people there.
426
1280000
3000
Le métro arrive. Il y a 75 personnes présentes.
21:35
You know what? They freezegel.
427
1283000
1000
Vous savez quoi ? Ils sont tous cloués au sol.
21:36
He's got a reasonraison not to get involvedimpliqué.
428
1284000
2000
Il a une bonne raison de ne pas intervenir.
21:38
He's blacknoir, the guy'sles gars whiteblanc, and he's got two little kidsdes gamins.
429
1286000
2000
Il est noir, cet homme est blanc, et il a deux petits enfants avec lui.
21:41
InsteadAu lieu de cela, he givesdonne his kidsdes gamins to a strangerétranger,
430
1289000
1000
Au lieu de cela, il confie ses enfants à un inconnu,
21:42
jumpssaute on the tracksdes pistes, putsmet the guy betweenentre the tracksdes pistes,
431
1290000
3000
saute sur les rails, place l'homme entre les rails,
21:45
liesmentir on him, the subwaymétro goesva over him.
432
1293000
2000
se couche sur lui, le métro passe par-dessus.
21:47
WesleyWesley and the guy -- 20 and a halfmoitié inchespouces heightla taille.
433
1295000
3000
Wesley et l'homme : 52 centimètres de hauteur.
21:51
The traintrain clearanceClearance is 21 inchespouces.
434
1299000
2000
La hauteur sous le train est de 53 centimètres et demi.
21:53
A halfmoitié an inchpouce would have takenpris his headtête off.
435
1301000
2000
Un centimètre et demi de plus et il aurait été décapité.
21:56
And he said, "I did what anyonen'importe qui could do,"
436
1304000
3000
Et il a dit: "J'ai fait ce que n'importe qui aurait pu faire"
21:59
no biggros dealtraiter to jumpsaut on the tracksdes pistes.
437
1307000
1000
ce n'est pas bien difficile de sauter sur les rails.
22:00
And the moralmoral imperativeimpératif is "I did what everyonetoutes les personnes should do."
438
1308000
4000
L'impératif moral c'est "J'ai fait ce que tout le monde devrait faire."
22:04
And so one day, you will be in a newNouveau situationsituation.
439
1312000
2000
Et ainsi un jour, vous serez dans une situation nouvelle.
22:07
Take pathchemin one, you're going to be a perpetratorauteur de l’infraction of evilmal.
440
1315000
2000
Prenez un chemin, vous commettrez le mal.
22:09
EvilMal, meaningsens you're going to be ArthurArthur AndersenAndersen.
441
1317000
3000
Le mal, c'est-à-dire que vous serez Arthur Anderson.
22:12
You're going to cheattriche, or you're going to allowpermettre bullyingl’intimidation.
442
1320000
2000
Vous tricherez, ou vous autoriserez l'intimidation.
22:14
PathChemin d’accès two, you becomedevenir guiltycoupable of the evilmal of passivepassif inactioninaction.
443
1322000
2000
Second chemin : vous devenez coupable de commettre le mal par inaction passive.
22:17
PathChemin d’accès threeTrois, you becomedevenir a herohéros.
444
1325000
1000
Troisième voie : vous devenez un héros.
22:18
The pointpoint is, are we readyprêt to take the pathchemin
445
1326000
3000
La question c'est, sommes-nous prêts à prendre le chemin
22:21
to celebratingcélébrant ordinaryordinaire heroeshéros,
446
1329000
2000
qui célèbre les héros ordinaires,
22:23
waitingattendre for the right situationsituation to come alongle long de
447
1331000
2000
qui attendent que la bonne situation se présente,
22:25
to put heroichéroïque imaginationimagination into actionaction?
448
1333000
2000
pour mettre en action leur imagination héroïque ?
22:27
Because it maymai only happense produire onceune fois que in your life,
449
1335000
3000
Parce qu'il se pourrait que cela n'arrive qu'une fois dans votre vie,
22:31
and when you passpasser it by, you'lltu vas always know,
450
1339000
1000
et quand vous l'aurez laissé passer, vous vous souviendrez toujours
22:32
I could have been a herohéros and I let it passpasser me by.
451
1340000
3000
que vous auriez pu être un héros, et que vous n'avez rien fait.
22:35
So the pointpoint is thinkingen pensant it and then doing it.
452
1343000
2000
Le but est d'y penser, et puis de le faire.
22:37
So I want to thank you. Thank you. Thank you.
453
1345000
3000
Je veux vous remercier. Merci. Merci.
22:40
Let's opposes’opposer à the powerPuissance of evilmal systemssystèmes at home and abroadà l'étranger,
454
1348000
3000
Opposons-nous au pouvoir des systèmes immoraux chez nous et à l'étranger,
22:43
and let's focusconcentrer on the positivepositif.
455
1351000
2000
et concentrons-nous sur le positif.
22:45
AdvocateAvocat for respectle respect of personalpersonnel dignitydignité, for justiceJustice and peacepaix,
456
1353000
3000
Défendez le respect de la dignité personnelle, la justice et la paix,
22:48
whichlequel sadlyMalheureusement our administrationadministration has not been doing.
457
1356000
2000
ce que malheureusement notre gouvernement n'a pas fait.
22:50
ThanksMerci so much.
458
1358000
1000
Merci beaucoup.
22:51
(ApplauseApplaudissements)
459
1359000
13000
(Applaudissements)
Translated by Rodolphe Mortreuil
Reviewed by Matthieu Coville

▲Back to top

ABOUT THE SPEAKER
Philip Zimbardo - Psychologist
Philip Zimbardo was the leader of the notorious 1971 Stanford Prison Experiment -- and an expert witness at Abu Ghraib. His book The Lucifer Effect explores the nature of evil; now, in his new work, he studies the nature of heroism.

Why you should listen

Philip Zimbardo knows what evil looks like. After serving as an expert witness during the Abu Ghraib trials, he wrote The Lucifer Effect: Understanding How Good People Turn Evil. From Nazi comic books to the tactics of used-car salesmen, he explores a wealth of sources in trying to explain the psychology of evil.

A past president of the American Psychological Association and a professor emeritus at Stanford, Zimbardo retired in 2008 from lecturing, after 50 years of teaching his legendary introductory course in psychology. In addition to his work on evil and heroism, Zimbardo recently published The Time Paradox, exploring different cultural and personal perspectives on time.

Still well-known for his controversial Stanford Prison Experiment, Zimbardo in his new research looks at the psychology of heroism. He asks, "What pushes some people to become perpetrators of evil, while others act heroically on behalf of those in need?"

More profile about the speaker
Philip Zimbardo | Speaker | TED.com