ABOUT THE SPEAKER
Philip Zimbardo - Psychologist
Philip Zimbardo was the leader of the notorious 1971 Stanford Prison Experiment -- and an expert witness at Abu Ghraib. His book The Lucifer Effect explores the nature of evil; now, in his new work, he studies the nature of heroism.

Why you should listen

Philip Zimbardo knows what evil looks like. After serving as an expert witness during the Abu Ghraib trials, he wrote The Lucifer Effect: Understanding How Good People Turn Evil. From Nazi comic books to the tactics of used-car salesmen, he explores a wealth of sources in trying to explain the psychology of evil.

A past president of the American Psychological Association and a professor emeritus at Stanford, Zimbardo retired in 2008 from lecturing, after 50 years of teaching his legendary introductory course in psychology. In addition to his work on evil and heroism, Zimbardo recently published The Time Paradox, exploring different cultural and personal perspectives on time.

Still well-known for his controversial Stanford Prison Experiment, Zimbardo in his new research looks at the psychology of heroism. He asks, "What pushes some people to become perpetrators of evil, while others act heroically on behalf of those in need?"

More profile about the speaker
Philip Zimbardo | Speaker | TED.com
TED2008

Philip Zimbardo: The psychology of evil

Cum devin oamenii obişnuiţi monştri... sau eroi

Filmed:
7,078,283 views

Philip Zimbardo ştie cât de uşor le este oamenilor normali, simpatici să devină răi. În această prezentare, el dezvăluie fapte şi imagini necunocute până acum publicului, din conflictele de la Abu Ghraib. El vorbeşte apoi despre cealaltă parte a monedei: cât de uşor este să devii un erou, şi cum putem ajunge să atingem acest statut.
- Psychologist
Philip Zimbardo was the leader of the notorious 1971 Stanford Prison Experiment -- and an expert witness at Abu Ghraib. His book The Lucifer Effect explores the nature of evil; now, in his new work, he studies the nature of heroism. Full bio

Double-click the English transcript below to play the video.

00:13
PhilosophersFilozofi, dramatistsdramaturgi, theologiansteologi
0
1000
3000
Flilosofi, dramaturgi şi teologi
00:16
have grappledluptat with this questionîntrebare for centuriessecole:
1
4000
2000
s-au zbătut cu această întrebare de secole:
00:18
what makesmărci people go wronggresit?
2
6000
2000
Ce îi face pe oameni să devină răi?
00:20
InterestinglyInteresant, I askedîntrebă this questionîntrebare when I was a little kidcopil.
3
8000
2000
În mod interesant, şi eu mi-am pus această întrebare când eram doar un mic copil.
00:23
When I was a kidcopil growingcreştere up in the SouthSud BronxBronx, inner-cityorașul interior ghettoghetou
4
11000
2000
Când eram copil, crescut în sudul Bronxului, un ghetto din interiorul oraşului
00:25
in NewNoi YorkYork, I was surroundedinconjurat by evilrău,
5
13000
2000
New York, eram înconjurat de rău
00:28
as all kidscopii are who grewcrescut up in an innerinterior cityoraș.
6
16000
2000
aşa cum sunt toţi copii care cresc în centrul unui oraş, într-un ghetto.
00:30
And I had friendsprieteni who were really good kidscopii,
7
18000
2000
Şi am avut prieteni care erau copii foarte buni
00:32
who livedtrăit out the DrDr. JekyllJekyll MrDomnul. HydeHyde scenarioscenariu -- RobertRobert LouisLouis StevensonStevenson.
8
20000
4000
care au trăit scenariul Dr. Jekyll - Mr. Hyde al lui Robert Louis Stevenson.
00:36
That is, they tooka luat drugsdroguri, got in troublebucluc, wenta mers to jailtemniță.
9
24000
4000
Adică, s-au drogat, au intrat în bucluc, au ajuns în închisoare.
00:40
Some got killeducis, and some did it withoutfără drugmedicament assistanceasistenţă.
10
28000
4000
Unii au murit, iar parte din ei, chiar fără "ajutorul" drogurilor.
00:44
So when I readcitit RobertRobert LouisLouis StevensonStevenson, that wasn'tnu a fost fictionfictiune.
11
32000
3000
Aşa că, pentru mine, poveştile lui Robert Louis Stevenson nu sunt ficţiune.
00:47
The only questionîntrebare is, what was in the juicesuc?
12
35000
1000
Singura întrebare este: ce s-a întâmplat?
00:48
And more importantlyimportant, that linelinia betweenîntre good and evilrău --
13
36000
5000
Şi, mai important, acea linie dintre bine şi rău --
00:53
whichcare privilegedprivilegiat people like to think is fixedfix and impermeableimpermeabil,
14
41000
3000
pe care oamenii privilegiaţi preferă să o considere fixă şi impenetrabilă,
00:56
with them on the good sidelatură, and the othersalții on the badrău sidelatură --
15
44000
3000
cu ei de partea bună, şi alţii de partea rea --
00:59
I knewștiut that linelinia was movablebunuri mobile, and it was permeablepermeabil.
16
47000
3000
Eu am ştiut că acea linie era mobilă şi era permeabilă.
01:02
Good people could be seducedsedus acrosspeste that linelinia,
17
50000
2000
Oameni buni pot fi seduşi să treacă acea linie
01:05
and undersub good and some rarerar circumstancesîmprejurări, badrău kidscopii could recoverrecupera
18
53000
3000
şi în anumite condiţii bune şi rare, copii răi îşi pot reveni
01:08
with help, with reformreforma, with rehabilitationreabilitare.
19
56000
3000
cu ajutor, cu reforme, cu reabilitare.
01:12
So I want to beginÎNCEPE with this this wonderfulminunat illusionamăgire
20
60000
2000
Aşadar, aş vrea să încep cu această minunată iluzie
01:14
by [DutchOlandeză] artistartist M.C. EscherEscher.
21
62000
2000
a artistului olandez M.C. Escher.
01:17
If you look at it and focusconcentra on the whitealb,
22
65000
1000
Dacă te uiţi cu atenţie, concentrat, la alb,
01:18
what you see is a worldlume fulldeplin of angelsÎngerii.
23
66000
2000
ce vezi este o lume plină de îngeri.
01:20
But let's look more deeplyprofund, and as we do,
24
68000
3000
Dar haideţi să ne uităm mai adânc, şi pe măsură ce ne concentrăm,
01:23
what appearsapare is the demonsdemonii, the devilsdraci in the worldlume.
25
71000
3000
putem vedea demoni, demoni în această lume.
01:27
And that tellsspune us severalmai mulți things.
26
75000
1000
Şi aceasta ne spune câteva lucruri.
01:28
One, the worldlume is, was, will always be filledumplut with good and evilrău,
27
76000
3000
Unu: lumea este, a fost şi va fi întotdeauna, plină şi de bine, şi de rău,
01:31
because good and evilrău is the yinYin and yangYang of the humanuman conditioncondiție.
28
79000
3000
pentru că binele şi răul sunt Yin-ul şi Yang-ul condiţiei umane.
01:34
It tellsspune me something elsealtfel. If you remembertine minte,
29
82000
2000
Îmi mai spune ceva. Dacă vă amintiţi,
01:36
God'sLui Dumnezeu favoritefavorit angelînger was LuciferLucifer.
30
84000
3000
îngerul preferal al lui Dumnezeu era Lucifer.
01:39
ApparentlySe pare că, LuciferLucifer meansmijloace "the lightușoară."
31
87000
2000
Se pare că Lucifer înseamnă "lumina"
01:42
It alsode asemenea meansmijloace "the morningdimineaţă starstea," in some scriptureScriptura.
32
90000
2000
De asemenea, înseamnă "steaua dimineţii" în unele scripturi.
01:44
And apparentlyaparent, he disobeyedn-au ascultat God,
33
92000
3000
Şi se pare că el nu l-a ascultat pe Dumnezeu,
01:47
and that's the ultimatefinal disobediencenesupunere to authorityautoritate.
34
95000
3000
iar aceasta este cea mai gravă încălcare a autorităţii.
01:50
And when he did, MichaelMichael, the archangelArhanghel, was senttrimis
35
98000
3000
Şi când nu a mai ascultat, Arhanghelul Mihail a fost trimis
01:54
to kicklovitură him out of heavencer alongde-a lungul with the other fallencăzut angelsÎngerii.
36
102000
3000
să îl alunge din Rai, împreună cu alţi îngeri decăzuţi.
01:57
And so LuciferLucifer descendsCoboară into helliad, becomesdevine SatanSatana,
37
105000
3000
Aşa că Lucifer a decăzut în Iad şi a devenit Satana,
02:01
becomesdevine the devildiavol, and the forceforta of evilrău in the universeunivers beginsîncepe.
38
109000
2000
a devenit diavolul, astfel debutând forţa răului în univers.
02:03
ParadoxicallyÎn mod paradoxal, it was God who createdcreată helliad as a placeloc to storemagazin evilrău.
39
111000
5000
În mod paradoxal, Dumnezeu a fost cel care a creat Iadul ca un loc în care să stocheze răul.
02:09
He didn't do a good jobloc de munca of keepingpăstrare it there thoughdeşi.
40
117000
1000
Totuşi, nu a făcut o treabă prea bună să îl limiteze în acel loc.
02:10
So, this arcarc of the cosmiccosmic transformationtransformare
41
118000
3000
Deci, această poveste a transformării cosmice
02:13
of God'sLui Dumnezeu favoritefavorit angelînger into the DevilDiavolul,
42
121000
2000
a îngerului preferat al lui Dumnezeu în Diavol,
02:15
for me, setsseturi the contextcontext for understandingînţelegere humanuman beingsființe
43
123000
4000
pentru mine, defineşte contextul înţelegerii fiinţelor umane
02:19
who are transformedtransformat from good, ordinarycomun people
44
127000
3000
care pot fi transformate din oameni buni, normali,
02:22
into perpetratorsAutorii of evilrău.
45
130000
2000
în unelte ale răului.
02:24
So the LuciferLucifer effectefect, althoughcu toate ca it focusesse concentrează on the negativesnegative --
46
132000
4000
Aşadar, Efectul Lucifer, deşi se concentrează pe negative --
02:28
the negativesnegative that people can becomedeveni,
47
136000
3000
exemplele negative care pot deveni oamenii,
02:31
not the negativesnegative that people are --
48
139000
1000
nu părţile negative deja existente în oameni --
02:32
leadsOportunitati me to a psychologicalpsihologic definitiondefiniție. EvilRău is the exerciseexercițiu of powerputere.
49
140000
6000
m-au condus la o definiţie psihologică: răul este exercitarea puterii.
02:38
And that's the keycheie: it's about powerputere.
50
146000
2000
Şi aceasta este cheia: totul se rezumă la putere.
02:40
To intentionallyintentionat harmdăuna people psychologicallypsihologic,
51
148000
3000
Să faci rău psihic oamenilor în mod intenţionat,
02:44
to hurtrănit people physicallyfizic, to destroydistruge people mortallymortal, or ideasidei,
52
152000
3000
să răneşti oameni fizic, să omori oameni sau idei,
02:47
and to commitcomite crimescrime againstîmpotriva humanityumanitate.
53
155000
2000
şi să comiţi crime împotriva umanităţii.
02:51
If you GoogleGoogle "evilrău," a wordcuvânt that should surelycu siguranţă have withereds-a uscat by now,
54
159000
3000
Dacă pe Google căutaţi "rău", un cuvânt care cu siguranţă ar fi trebuit să fie învechit până acum,
02:54
you come up with 136 millionmilion hitshit-uri in a thirdal treilea of a secondal doilea.
55
162000
4000
primiţi 136 milioane de rezultate într-o treime de secundă.
02:58
A fewpuțini yearsani agoîn urmă -- I am sure all of you were shockedșocat, as I was,
56
166000
4000
Acum câţiva ani -- sunt sigur că toţi aţi fost şocaţi, ca şi mine,
03:02
with the revelationrevelatie of AmericanAmerican soldierssoldati
57
170000
3000
de revelaţia soldaţilor americani
03:05
abusingabuzarea prisonersprizonieri in a strangeciudat placeloc
58
173000
3000
care au abuzat prizonierii într-un loc străin
03:08
in a controversialcontroversat warrăzboi, AbuArdelean GhraibGhraib in IraqIrak.
59
176000
3000
într-un război controversat: Abu Ghraib din Iraq.
03:11
And these were menbărbați and womenfemei
60
179000
1000
Şi aceşti bărbaţi şi femei
03:12
who were puttingpunând prisonersprizonieri throughprin unbelievablenecrezut humiliationumilire.
61
180000
5000
care au forţat prizonierii să treacă prin umilinţe incredibile.
03:18
I was shockedșocat, but I wasn'tnu a fost surpriseduimit,
62
186000
1000
Am fost şocat, dar nu am fost surprins,
03:19
because I had seenvăzut those samela fel visualvizual parallelsparalelele
63
187000
2000
pentru că am văzut aceleaşi paralele vizuale
03:22
when I was the prisonînchisoare superintendentInspectorul of the StanfordStanford PrisonÎnchisoare StudyStudiu.
64
190000
3000
când eram supraveghetorul închisorii în Experimentul Închisorii organizat de Stanford.
03:25
ImmediatelyImediat the BushBush administrationadministrare militarymilitar said ... what?
65
193000
2000
Administraţia Bush a răspuns urgent ... ce?
03:28
What all administrationsadministraţiile say when there's a scandalscandal.
66
196000
2000
Ceea ce toate administraţiile spun atunci când este un scandal.
03:30
"Don't blamevină us. It's not the systemsistem. It's the fewpuțini badrău applesmere,
67
198000
3000
"Nu daţi vina pe noi. Nu este vina sistemului. Este vina câtorva mere stricate,
03:34
the fewpuțini rogueRogue soldierssoldati."
68
202000
1000
câţiva soldaţi ticăloşi."
03:35
My hypothesisipoteză is, AmericanAmerican soldierssoldati are good, usuallyde obicei.
69
203000
3000
Ipoteza mea este că soldaţii americani sunt, de obicei, buni.
03:38
Maybe it was the barrelbutoi that was badrău.
70
206000
2000
Poate că butoiul era rău gândit.
03:40
But how am I going to -- how am I going to dealafacere with that hypothesisipoteză?
71
208000
3000
Dar cum o să -- cum o să mă împac eu cu această ipoteză?
03:43
I becamea devenit an expertexpert witnessmartor
72
211000
1000
Am devenit un martor expert
03:44
for one of the guardsPoliţiştii, SergeantSergent ChipCip FrederickFrederick,
73
212000
2000
pentru unul din gardieni, sergentul Chip Frederick,
03:46
and in that positionpoziţie, I had accessacces to the dozenduzină investigativeinvestigaţie reportsrapoarte.
74
214000
4000
şi în această poziţie, am avut acces la o duzină de rapoarte de investigaţie.
03:50
I had accessacces to him. I could studystudiu him,
75
218000
3000
Am avut acces la el. L-am putut studia,
03:54
have him come to my home, get to know him,
76
222000
1000
l-am invitat în casa mea, am ajuns să îl cunosc,
03:55
do psychologicalpsihologic analysisanaliză to see, was he a good applemăr or badrău applemăr.
77
223000
4000
să fac analiză psihologică să văd dacă este un măr rău sau unul bun.
03:59
And thirdlyîn al treilea rând, I had accessacces to all of the 1,000 picturespoze
78
227000
4000
Şi în al treilea rând, am avut acces la toate cele 1000 de poze
04:03
that these soldierssoldati tooka luat.
79
231000
1000
făcute de acei soldaţi.
04:05
These picturespoze are of a violentviolent or sexualsexual naturenatură.
80
233000
2000
Aceste poze sunt de natură violentă sau sexuală.
04:07
All of them come from the camerascamere of AmericanAmerican soldierssoldati.
81
235000
3000
Toate provin din camerele foto ale soldaţilor americani.
04:11
Because everybodytoata lumea has a digitaldigital cameraaparat foto or cellcelulă phonetelefon cameraaparat foto,
82
239000
2000
Pentru că toată lumea are o cameră digitală sau un telefon celular echipat cu o cameră,
04:13
they tooka luat picturespoze of everything. More than 1,000.
83
241000
2000
ei au pozat totul. Mai mult de 1000 de imagini.
04:16
And what I've doneTerminat is I organizedorganizat them into variousvariat categoriescategorii.
84
244000
2000
Şi eu le-am organizat în diverse categorii.
04:18
But these are by UnitedMarea StatesStatele militarymilitar policepolitie, armyarmată reservistsrezervişti.
85
246000
5000
Dar acestea sunt făcute de Poliţia Militară a Statelor Unite, de rezervişti ai armatei.
04:24
They are not soldierssoldati preparedpregătit for this missionmisiune at all.
86
252000
3000
Aceştia nu sunt soldaţi pregătiţi pentru astfel de misiuni.
04:27
And it all happeneds-a întâmplat in a singlesingur placeloc, TierNivelul 1-A-A, on the night shiftschimb.
87
255000
5000
Şi totul s-a întâmplat într-un singur loc, Tier 1A, în tura de noapte.
04:32
Why? TierNivelul 1-A-A was the centercentru for militarymilitar intelligenceinteligență.
88
260000
3000
De ce? Tier 1A era centrul inteligenţei militare.
04:35
It was the interrogationinterogare holddeține. The CIACIA was there.
89
263000
3000
Era fortăreaţa unde se ţineau interogările. CIA se afla acolo.
04:39
InterrogatorsAnchetatorii from TitanTitan CorporationCorporation, all there,
90
267000
2000
Interogatori de la Corporaţia Titan, toţi erau acolo,
04:41
and they're gettingobtinerea no informationinformație about the insurgencyinsurecție.
91
269000
3000
şi nu au primit informaţii despre această răscoală.
04:45
So they're going to put pressurepresiune on these soldierssoldati,
92
273000
1000
Aşadar, vor să pună aceşti soldaţi sub presiune,
04:46
militarymilitar policepolitie, to crosscruce the linelinia,
93
274000
2000
Poliţia Militară, să treacă linia,
04:49
give them permissionpermisiune to breakpauză the will of the enemydusman,
94
277000
3000
să le dea voie să distrugă moralul duşmanului,
04:52
to preparepregăti them for interrogationinterogare, to softense înmoaie them up,
95
280000
2000
să îi pregătească pentru interogări, să îi înmoaie,
04:54
to take the glovesmanusi off. Those are the euphemismseufemisme,
96
282000
2000
să îşi scoată mănuşile. Acestea sunt eufemismele,
04:56
and this is how it was interpretedinterpretate.
97
284000
3000
şi acesta este modul în care au fost interpretate.
05:00
Let's go down to that dungeontemnita.
98
288000
1000
Haideţi să mergem jos, în acea carceră.
05:01
(CameraAparat de fotografiat shutterobturator)
99
289000
37000
(Aparat foto)
05:38
(ThudsÎnfundate)
100
326000
6000
(Bubuituri)
05:45
(CameraAparat de fotografiat shutterobturator)
101
333000
14000
(Aparat foto)©
05:59
(ThudsÎnfundate)
102
347000
10000
(Bubuituri)
06:09
(BreathingRespiraţie)
103
357000
8000
(Respiraţie)
06:17
(BellsClopotele)
104
365000
31000
(Clopote)
06:49
So, prettyfrumos horrificoribil.
105
397000
3000
Deci, destul de îngrozitor.
06:52
That's one of the visualvizual illustrationsilustraţii of evilrău.
106
400000
3000
Aceasta este una din ilustraţiile vizuale ale răului.
06:55
And it should not have escapedscăpat you that
107
403000
1000
Şi nu ar fi trebuit să vă scape faptul că
06:56
the reasonmotiv I pairedasociat the prisonerprizonier with his armsarme out
108
404000
4000
motivul pentru care am împerecheat poza prizonierului cu braţele deschise
07:00
with LeonardoLeonardo dada Vinci'sVinci odeOdă to humanityumanitate
109
408000
3000
cu Oda Umanităţii a lui da Vinci,
07:03
is that that prisonerprizonier was mentallymental illbolnav.
110
411000
2000
este pentru că prizonierul era bolnav mintal.
07:05
That prisonerprizonier coveredacoperit himselfse with shitrahat everyfiecare day,
111
413000
2000
Prizonierul se acoperea cu rahat în fiecare zi,™
07:07
and they used to have to rollrulou him in dirtmurdărie so he wouldn'tnu ar fi stinkput.
112
415000
3000
şi ei obişnuiau să îl forţeze să se dea prin mizerie, ca să nu pută.
07:10
But the guardsPoliţiştii endedîncheiat up callingapel him "ShitRahat Boybăiat."
113
418000
2000
Dar gardienii au ajuns să îi numească "Băiatul de Căcat"
07:12
What was he doing in that prisonînchisoare
114
420000
2000
Ce căuta în acea închisoare
07:14
rathermai degraba than in some mentalmental institutioninstituție?
115
422000
3000
în loc să se afle într-un spital de nebuni?
07:17
In any eventeveniment, here'saici e formerfost SecretarySecretar of DefenseApărare RumsfeldRumsfeld.
116
425000
3000
În orice caz, iată-l pe Secretarul Apărării, Rumsfeld.
07:20
He comesvine down and saysspune, "I want to know, who is responsibleresponsabil?
117
428000
2000
el vine şi spune, "Vreau să ştiu cine este responsabil?
07:22
Who are the badrău applesmere?" Well, that's a badrău questionîntrebare.
118
430000
3000
Care sunt merele rele?" Ei bine, este o întrebare greşită.
07:25
You have to reframeschimba it and askcere, "What is responsibleresponsabil?"
119
433000
3000
Trebuie să o reformulezi şi să întrebi: "Ce este responsabil?"
07:28
Because "what" could be the who of people,
120
436000
2000
Pentru că "ce" poate fi cinele oamenilor,
07:30
but it could alsode asemenea be the what of the situationsituatie,
121
438000
2000
dar ar putea fi şi ce-ul situaţiei
07:32
and obviouslyevident that's wrongheadedanapoda.
122
440000
2000
şi desigur, asta este o gândire greşită.
07:34
So how do psychologistspsihologi go about understandingînţelegere
123
442000
2000
Aşadar, prin ce proces trec psihologii pentru a înţelege
07:36
suchastfel de transformationstransformări of humanuman charactercaracter,
124
444000
2000
astfel de transformări ale caracterului uman,
07:38
if you believe that they were good soldierssoldati
125
446000
2000
dacă se presupune că aceştia erau soldaţi buni
07:40
before they wenta mers down to that dungeontemnita?
126
448000
1000
înainte să ajungă în acea închisoare?
07:42
There are threeTrei waysmoduri. The mainprincipal way is -- it's calleddenumit dispositionaldispositional.
127
450000
2000
Există trei posibilităţi. Calea principală se numeşte dispoziţională.
07:44
We look at what's insideinterior of the personpersoană, the badrău applesmere.
128
452000
3000
Ne uităm la ceea ce este înlăuntrul persoanei, merele rele.
07:48
This is the foundationfundație of all of socialsocial scienceştiinţă,
129
456000
3000
Aceasta este baza tuturor ştiinţelor sociale,
07:51
the foundationfundație of religionreligie, the foundationfundație of warrăzboi.
130
459000
2000
baza religiei, fundaţia războiului.
07:55
SocialSociale psychologistspsihologi like me come alongde-a lungul and say, "Yeah,
131
463000
2000
Psihologii sociali ca mine vin şi spun "Da,
07:57
people are the actorsactori on the stageetapă,
132
465000
2000
oamenii sunt actorii de pe o scenă,
07:59
but you'llveți have to be awareconștient of what that situationsituatie is.
133
467000
2000
dar trebuie să fii conştient de situaţie.
08:01
Who are the castarunca of characterscaractere? What's the costumecostum?
134
469000
3000
Cine sunt cei care au ales personajele? Care sunt costumele?
08:04
Is there a stageetapă directordirector?"
135
472000
1000
Există un director de scenă?
08:05
And so we're interestedinteresat in, what are the externalextern factorsfactori
136
473000
2000
Deci suntem interesaţi să aflăm care sunt factorii externi
08:08
around the individualindividual -- the badrău barrelbutoi?
137
476000
2000
din jurul individului, aşa numitul butoi rău?
08:10
And socialsocial scientistsoamenii de știință stop there, and they missdomnișoară the bigmare pointpunct
138
478000
3000
Iar oamenii de ştiinţă socială se opresc acolo şi pierd cel mai important detaliu
08:13
that I discovereddescoperit when I becamea devenit an expertexpert witnessmartor for AbuArdelean GhraibGhraib.
139
481000
3000
pe care eu l-am descoperit când am devenit un martor expert la Abu Ghraib.
08:16
The powerputere is in the systemsistem.
140
484000
2000
Puterea se află în sistem.
08:18
The systemsistem createscreează the situationsituatie that corruptscorupe the individualspersoane fizice,
141
486000
3000
Sistemul crează situaţia care corupe indivizii,
08:21
and the systemsistem is the legallegal, politicalpolitic, economiceconomic, culturalcultural backgroundfundal.
142
489000
5000
iar sistemul este fundalul legal, politic, economic şi cultural.
08:26
And this is where the powerputere is of the bad-barrelBad-baril makersfactorii de decizie.
143
494000
3000
Iar acesta este modul în care puterea revine celor care crează butoaiele rele.
08:29
So if you want to changeSchimbare a personpersoană, you've got to changeSchimbare the situationsituatie.
144
497000
3000
Aşadar, dacă vrei să schimbi o persoană, trebuie să schimbi situaţia.
08:32
If you want to changeSchimbare the situationsituatie,
145
500000
1000
Dacă vrei să schimbi situaţia,
08:33
you've got to know where the powerputere is, in the systemsistem.
146
501000
2000
trebuie să ştii unde se află puterea în acel sistem.
08:35
So the LuciferLucifer effectefect involvesimplică understandingînţelegere
147
503000
2000
Deci Efectul Lucifer implică înţelegerea
08:37
humanuman charactercaracter transformationstransformări with these threeTrei factorsfactori.
148
505000
5000
transformării caracterului uman cu aceşti trei factori.
08:43
And it's a dynamicdinamic interplayinteracţiune.
149
511000
1000
Şi este o interdependenţă dinamică.
08:44
What do the people bringaduce into the situationsituatie?
150
512000
2000
Ce aduc aceşti oameni în situaţia dată?
08:46
What does the situationsituatie bringaduce out of them?
151
514000
2000
Ce poate scoate sutiaţia din ei?
08:48
And what is the systemsistem that createscreează and maintainsmenţine that situationsituatie?
152
516000
4000
Şi care este sistemul care crează şi menţine situaţia?
08:52
So my bookcarte, "The LuciferLucifer EffectEfect," recentlyrecent publishedpublicat, is about,
153
520000
2000
Cartea mea, Efectul Lucifer, publicată de curând, este despre
08:54
how do you understanda intelege how good people turnviraj evilrău?
154
522000
2000
cum poţi înţelege modul în care oamenii buni devin răi?
08:57
And it has a lot of detaildetaliu
155
525000
1000
Şi conţine multe detalii
08:58
about what I'm going to talk about todayastăzi.
156
526000
2000
despre ceea ce voi vorbi astăzi.
09:01
So DrDr. Z'sZaharia "LuciferLucifer EffectEfect," althoughcu toate ca it focusesse concentrează on evilrău,
157
529000
3000
Efectul Lucifer al doctorului Z, deşi se concentrează pe rău,
09:04
really is a celebrationsărbătoare of the humanuman mind'smintea lui
158
532000
2000
este în esenţă o celebrare a minţii umane
09:06
infiniteinfinit capacitycapacitate to make any of us kinddrăguț or cruelcrud,
159
534000
4000
şi a capacităţii sale infinite de a face pe fiecare dintre noi să fie bun sau crud,
09:10
caringîngrijirea or indifferentindiferent, creativecreator or destructivedistructive,
160
538000
3000
înţelegător sau indiferent, creativ sau distructiv,
09:13
and it makesmărci some of us villainsticăloşi.
161
541000
2000
şi de a face pe unii dintre noi să devină cu adevărat răi.
09:15
And the good newsștiri storypoveste that I'm going to hopefullyin speranta come to
162
543000
2000
Însă povestea bună la care sper că voi ajunge
09:18
at the endSfârşit is that it makesmărci some of us heroeseroii.
163
546000
2000
la final este că pe unii dintre noi ne face să devenim eroi.
09:20
This is a wonderfulminunat cartoondesen animat in the NewNoi YorkerYorker,
164
548000
3000
Acesta este un desen minunat din New Yorker,
09:23
whichcare really summarizesrezumă my wholeîntreg talk:
165
551000
2000
care sumarizează esenţa întregii mele prezentări:
09:25
"I'm neithernici a good coppoliţist nornici a badrău coppoliţist, JeromeJerome.
166
553000
2000
"Nu sunt nici un poliţist bun, nici unul rău, Jerome.
09:27
Like yourselftu, I'm a complexcomplex amalgamamalgam
167
555000
2000
Ca şi tine, sunt un amalgam complex
09:29
of positivepozitiv and negativenegativ personalitypersonalitate traitstrăsături
168
557000
2000
de trăsături pozitive şi negative de personalitate
09:32
that emergeapărea or not, dependingîn funcție on the circumstancesîmprejurări."
169
560000
3000
care ies la suprafaţă sau nu, în funcţie de circumstanţe."
09:35
(LaughterRâs)
170
563000
2000
(Râsete)
09:37
There's a studystudiu some of you think you know about,
171
565000
3000
Există un studiu despre care unii dinre voi cred că ştiu ceva
09:40
but very fewpuțini people have ever readcitit the storypoveste. You watchedvizionat the moviefilm.
172
568000
4000
dar foarte puţini oameni au citit cu adevărat povestea. Aţi văzut filmul.
09:44
This is StanleyStanley MilgramMilgram, little JewishEvrei kidcopil from the BronxBronx,
173
572000
3000
Acesta este Stanley Milgrom, un mic copil evreu din Bronx,
09:47
and he askedîntrebă the questionîntrebare, "Could the HolocaustHolocaustul happenîntâmpla here, now?"
174
575000
3000
şi el şi-a pus înrebarea: "Holocaustul s-ar putea întâmpla aici, acum?"
09:51
People say, "No, that's NaziNazist GermanyGermania,
175
579000
1000
Oamenii spun, "Nu, aceea era Germania nazistă,
09:52
that's HitlerHitler, you know, that's 1939."
176
580000
2000
acela este Hilter, ştii, anul este 1939."
09:54
He said, "Yeah, but supposepresupune HitlerHitler askedîntrebă you,
177
582000
2000
Copilul răspunde: "Da, dar să presupunem că Hitler te-ar ruga,"
09:56
'Would you electrocuteElectrocute a strangerstrăin?' 'No' No way, not me, I'm a good personpersoană.' "
178
584000
3000
Ai electrocuta un străin?" "În niciun caz, nu eu, sunt o persoană bună. "
10:00
He said, "Why don't we put you in a situationsituatie
179
588000
1000
El a spus: "De ce nu te-aş pune într-o situaţie
10:01
and give you a chanceşansă to see what you would do?"
180
589000
2000
în care să îţi dau şansa să vezi cu adevărat ce ai face?"
10:03
And so what he did was he testedtestat 1,000 ordinarycomun people.
181
591000
4000
Aşa că ce a făcut a fost să testeze 1000 de oameni obişnuiţi.
10:07
500 NewNoi HavenHaven, ConnecticutConnecticut, 500 BridgeportBridgeport.
182
595000
3000
500 din New Haven, Connecticut şi 500 din Bridgeport.
10:10
And the adanunț said, "PsychologistsPsihologi want to understanda intelege memorymemorie.
183
598000
4000
Reclama spunea: "Psihologii vor să înţeleagă memoria,
10:14
We want to improveîmbunătăţi people'soamenii lui memorymemorie,
184
602000
1000
vrem să îmbunătăţim memoria oamenilor,
10:15
because memorymemorie is the keycheie to successsucces." OK?
185
603000
3000
pentru că memoria este cheia către succes." OK?
10:18
"We're going to give you fivecinci bucksdolari -- fourpatru dollarsdolari for your time."
186
606000
5000
"O să vă dăm cinci parai -- patru dolari pentru timpul vostru."
10:24
And it said, "We don't want collegecolegiu studentselevi.
187
612000
1000
Şi mai spunea: "Nu vrem studenţi;
10:25
We want menbărbați betweenîntre 20 and 50."
188
613000
2000
vrem bărbaţi cu vârsta cuprinsă între 20 şi 50 de ani"
10:27
In the latermai tarziu studiesstudiu, they rana fugit womenfemei.
189
615000
1000
-- în studiile ulterioare reclamele cereau femei--
10:28
OrdinaryOrdinare people: barbersfrizerie, clerksgrefieri, white-collargulerul alb people.
190
616000
4000
oameni obişnuiţi: bărbieri, funcţionari, oameni cu "guler alb".
10:32
So, you go down, and one of you is going to be a learnerelev,
191
620000
3000
Deci te duci jos, şi unul dintre voi va fi un elev,
10:35
and one of you is going to be a teacherprofesor.
192
623000
1000
iar unul dintre voi va fi profesor.
10:36
The learner'scursantului a genialgenialul, middle-agedde vârstă mijlocie guy.
193
624000
2000
Profesorul este un om genial, de o vârstă mijlocie.
10:38
He getsdevine tiedlegat de up to the shockşoc apparatusaparate in anothero alta roomcameră.
194
626000
3000
El primeşte controlul unui aparat de şocuri într-o cameră alăturată.
10:41
The learnerelev could be middle-agedde vârstă mijlocie, could be as youngtineri as 20.
195
629000
3000
Elevul ar putea fi de vârstă mijlocie, sau chiar de 20 de ani.
10:44
And one of you is told by the authorityautoritate, the guy in the lablaborator coatStemă,
196
632000
4000
Iar la unul dintre voi doi, cei din laborator le va spune
10:48
"Your jobloc de munca as teacherprofesor is to give this guy materialmaterial to learnînvăța.
197
636000
3000
"Munca ta ca profesor este să dai material de învăţat acestei persoane.
10:51
GetsDevine it right, rewardrecompensă him.
198
639000
1000
Dacă îl pricepe, recompensează-l.
10:52
GetsDevine it wronggresit, you presspresa a buttonbuton on the shockşoc boxcutie.
199
640000
2000
Dacă nu învaţă, apeşi un buton pe controlul aparatului de şoc.
10:54
The first buttonbuton is 15 voltsvolţi. He doesn't even feel it."
200
642000
3000
Primul buton are 15 volţi. Elevul nici nu îl va simţi.
10:58
That's the keycheie. All evilrău startsîncepe with 15 voltsvolţi.
201
646000
3000
Aceasta este cheia. Tot răul începe cu 15 volţi.
11:01
And then the nextUrmător → stepEtapa is anothero alta 15 voltsvolţi.
202
649000
2000
Iar pasul următor este 15 volţi în plus.
11:04
The problemproblemă is, at the endSfârşit of the linelinia, it's 450 voltsvolţi.
203
652000
2000
Problema este că, la capătul liniei, vorbim de un şoc de 450 de volţi.
11:06
And as you go alongde-a lungul, the guy is screamingțipând,
204
654000
3000
Şi pe măsură ce avansezi, elevul urlă,
11:09
"I've got a heartinimă conditioncondiție! I'm out of here!"
205
657000
2000
"Am probleme cu inima! Am plecat de aici!"
11:11
You're a good personpersoană. You complainplânge.
206
659000
2000
Eşti o persoană bună. te plângi.
11:13
"SirDomnule, who'scine going to be responsibleresponsabil if something happensse întâmplă to him?"
207
661000
2000
"Domnule, cine va fi responsabil dacă se întâmplă ceva cu elevul?"
11:15
The experimenterexperimentator saysspune, "Don't worryface griji, I will be responsibleresponsabil.
208
663000
3000
Experimentatorul spune: "Nu te îngrijora. Eu sunt responsabil.
11:18
ContinueContinua, teacherprofesor."
209
666000
1000
Continuă, profesore."
11:19
And the questionîntrebare is, who would go all the way to 450 voltsvolţi?
210
667000
4000
Întrebarea este, cine va ajunge să pedepsească cu 450 de volţi?
11:24
You should noticeînștiințare here, when it getsdevine up to 375,
211
672000
2000
Trebuie să observaţi că la nivelul 375,
11:26
it saysspune, "DangerPericol. SevereSeveră ShockŞoc."
212
674000
1000
scrie "Pericol. Şoc sever."
11:28
When it getsdevine up to here, there's "XXXXXX" -- the pornographypornografie of powerputere.
213
676000
3000
Când ajunge aici sus, este "XXX": pornografia puterii.
11:31
(LaughterRâs)
214
679000
1000
(Râsete)
11:32
So MilgramMilgram askssolicită 40 psychiatristspsihiatrii,
215
680000
1000
Milgrom a întrebat 40 de psihiatri
11:33
"What percentla sută of AmericanAmerican citizenscetățeni would go to the endSfârşit?"
216
681000
3000
"Cât la sută din cetăţenii americani ar merge până la sfârşit?"
11:37
They said only one percentla sută. Because that's sadisticsadic behaviorcomportament,
217
685000
3000
Ei au spus că doar 1%. Pentru că acela este comportament sadic.
11:40
and we know, psychiatrypsihiatrie knowsștie, only one percentla sută of AmericansAmericanii are sadisticsadic.
218
688000
3000
şi ştim, psihiatria ştie, că doar 1% din cetăţenii americani sunt sadici.
11:44
OK. Here'sAici este the datadate. They could not be more wronggresit.
219
692000
4000
OK. Iată datele. Nu ar fi putut greşi mai mult.
11:48
Two thirdstreimi go all the way to 450 voltsvolţi. This was just one studystudiu.
220
696000
5000
Două treimi merg până la 450 de volţi. Acesta a fost doar un studiu.
11:53
MilgramMilgram did more than 16 studiesstudiu. And look at this.
221
701000
3000
Milgram a făcut mai mult de 16 studii. Şi uitaţi-vă la asta.
11:56
In studystudiu 16, where you see somebodycineva like you go all the way,
222
704000
4000
În cel de-al 16-lea studiu, unde vezi pe cineva ca tine mergând la nivelul maxim,
12:00
90 percentla sută go all the way. In studystudiu fivecinci, if you see people rebelrebel, 90 percentla sută rebelrebel.
223
708000
6000
90 la sută parcurg tot drumul. În studiul cinci, dacă vezi oamenii răzvrătindu-se, 90% se răzvrătesc.
12:06
What about womenfemei? StudyStudiu 13 -- no differentdiferit than menbărbați.
224
714000
3000
Ce ştim despre femei? Studiul 13: nici o diferenţă faţă de bărbaţi.
12:10
So MilgramMilgram is quantifyingcuantificarea evilrău as the willingnessdorinţa of people
225
718000
3000
Aşa că Milgram cuantifică răul ca dorinţa oamenilor
12:13
to blindlyorbeşte obeyasculta authorityautoritate, to go all the way to 450 voltsvolţi.
226
721000
3000
de a se supune orbeşte autorităţii, de a merge până la capăt, la 450 de volţi.
12:16
And it's like a dialcadran on humanuman naturenatură.
227
724000
2000
Şi este ca o tastatură pentru natura umană.
12:18
A dialcadran in a sensesens that you can make almostaproape everybodytoata lumea totallyintru totul obedientascultători,
228
726000
4000
O tastatură, în sensul că poţi face aproape pe oricine complet supus
12:23
down to the majoritymajoritate, down to nonenici unul.
229
731000
2000
până la majoritate, până la nimeni.
12:25
So what are the externalextern parallelsparalelele? For all researchcercetare is artificialartificial.
230
733000
4000
Care sunt paralelele externe? Pentru că orice fel de cercetare este artificială.
12:29
What's the validityvalabilitate in the realreal worldlume?
231
737000
1000
Care este validitatea testului în lumea reală?
12:30
912 AmericanAmerican citizenscetățeni committedcomise suicidesinucidere or were murdereducis
232
738000
4000
912 cetăţeni americani s-au sinucis sau au fost omorâţi
12:34
by familyfamilie and friendsprieteni in GuyanaGuyana junglejunglă in 1978,
233
742000
3000
de familie şi prieteni în jungla Guyana în 1978,
12:37
because they were blindlyorbeşte obedientascultători to this guy, theiral lor pastorPastorul --
234
745000
3000
pentru că erau supuşi orbeşte acestui om, pastorul lor.
12:40
not theiral lor priestpreot -- theiral lor pastorPastorul, ReverendReverendul JimJim JonesJones.
235
748000
2000
Nu preotul lor. Pastorul lor, reverendul Jim Jones.
12:42
He persuadedconvins them to commitcomite massmasa suicidesinucidere.
236
750000
3000
El i-a convins să comită sinucideri în masă.
12:46
And so, he's the modernmodern LuciferLucifer effectefect,
237
754000
1000
Iată deci Efectul Lucifer în versiune modernă.
12:47
a man of God who becomesdevine the AngelAngel of DeathMoartea.
238
755000
3000
Un om al lui Dumnezeu care devine un înger al morţii.
12:52
Milgram'sMilgram pe studystudiu is all about individualindividual authorityautoritate to controlControl people.
239
760000
4000
Studiile lui Milgram se referă la autoritatea individuală de a controla oameni.
12:56
MostCele mai multe of the time, we are in institutionsinstituții,
240
764000
3000
În cea mai mare parte a timpului, ne aflăm în instituţii,
13:00
so the StanfordStanford PrisonÎnchisoare StudyStudiu is a studystudiu of the powerputere of institutionsinstituții
241
768000
3000
deci Studiul Închisorii efectuat la Stanford este un studiu despre puterea instituţiilor
13:03
to influenceinfluență individualindividual behaviorcomportament.
242
771000
2000
de a influenţa comportamentul individual.
13:05
InterestinglyInteresant, StanleyStanley MilgramMilgram and I were in the samela fel highînalt schoolşcoală classclasă
243
773000
3000
În mod interesant, Stanley Milgrom şi eu am fost în aceeaşi clasă la liceu
13:08
in JamesJames MonroeMonroe in the BronxBronx, 1954.
244
776000
3000
la James Monroe în Bronxul anului 1954.
13:13
So this studystudiu, whichcare I did
245
781000
1000
Acest studiu pe care l-am făcut eu
13:14
with my graduateabsolvent studentselevi, especiallyin mod deosebit CraigCraig HaneyIlie --
246
782000
2000
împreună cu foştii mei studenţi, mai ales Craig Haney,
13:16
we alsode asemenea begana început work with an adanunț.
247
784000
1000
am început studiul tot cu o reclamă.
13:17
We didn't have moneybani, so we had a cheapieftin, little adanunț,
248
785000
2000
Nu am avut bani, aşa că am publicat o reclamă ieftină şi mică,
13:19
but we wanted collegecolegiu studentselevi for a studystudiu of prisonînchisoare life.
249
787000
3000
dar am vrut studenţi pentru un studiu legat de viaţa în închisoare.
13:22
75 people volunteeredvoluntar, tooka luat personalitypersonalitate teststeste.
250
790000
3000
75 de oameni s-au oferit voluntari şi au completat teste de personalitate.
13:25
We did interviewsinterviuri. PickedAles two dozenduzină:
251
793000
2000
Am organizat interviuri. Am ales două duzini:
13:27
the mostcel mai normalnormal, the mostcel mai healthysănătos.
252
795000
1000
cei mai normali, cei mai sănătoşi.
13:29
RandomlyLa întâmplare assignedalocate them to be prisonerprizonier and guardpază.
253
797000
2000
Şi am ales la întâmplare care vor juca rolul gardienilor şi care vor fi prizonieri.
13:31
So on day one, we knewștiut we had good applesmere.
254
799000
2000
În prima zi a studiului, am ştiut că dispunem doar de mere bune.
13:33
I'm going to put them in a badrău situationsituatie.
255
801000
2000
O să îi punem într-o situaţie rea.
13:35
And secondlyîn al doilea rând, we know there's no differencediferență
256
803000
2000
În al doilea rând, am ştiut că nu este nicio diferenţă
13:38
betweenîntre the boysbăieți who are going to be guardsPoliţiştii
257
806000
1000
între băieţii care vor fi gardieni
13:39
and the boysbăieți who are going to be prisonersprizonieri.
258
807000
1000
şi băieţii care vor fi prizonieri.
13:41
The kidscopii who were going to be prisonersprizonieri,
259
809000
1000
Copii care urmau să fie prizonieri,
13:42
we said, "Wait at home in the dormitoriesDormitoarele comune. The studystudiu will beginÎNCEPE SundayDuminica."
260
810000
2000
lor le-am spus: "Aşteptaţi acasă, în căminele voastre. Studiul va începe duminica."
13:45
We didn't tell them
261
813000
1000
Nu le-am spus
13:46
that the cityoraș policepolitie were going to come and do realisticrealist arrestsarestări.
262
814000
36000
că poliţia locală va veni şi îi va aresta într-un mod realist.
14:22
(VideoPagina) StudentStudent: A policepolitie carmașină pullstrage up in frontfață, and a coppoliţist comesvine to the frontfață dooruşă,
263
850000
6000
Omul din video: O maşină de poliţie opreşte în faţă şi un poliţist vine la uşă
14:28
and knocksbate, and saysspune he's looking for me.
264
856000
2000
şi bate şi spune că mă caută pe mine.
14:30
So they, right there, you know, they tooka luat me out the dooruşă,
265
858000
2000
Aşa că ei, chiar acolo, ştii, m-au luat afară din casă,
14:33
they put my handsmâini againstîmpotriva the carmașină.
266
861000
3000
mi-au pus mâinile pe maşină.
14:36
It was a realreal coppoliţist carmașină, it was a realreal policemanpolițist,
267
864000
2000
Era o maşină adevărată de poliţie şi era un poliţist adevărat,
14:39
and there were realreal neighborsvecinii in the streetstradă,
268
867000
1000
şi erau vecini mei reali pe stradă
14:40
who didn't know that this was an experimentexperiment.
269
868000
4000
care nu ştiau că este vorba de un experiment.
14:44
And there was camerascamere all around and neighborsvecinii all around.
270
872000
3000
Şi erau camere video peste tot şi vecini peste tot.
14:47
They put me in the carmașină, then they drovea condus me around PaloPopescu AltoAlto.
271
875000
3000
M-au pus în maşină şi apoi au condus prin Palo Alto.
14:52
They tooka luat me to the policepolitie stationstatie,
272
880000
3000
M-au dus la un sediu al poliţiei,
14:55
the basementsubsol of the policepolitie stationstatie. Then they put me in a cellcelulă.
273
883000
10000
la subsolul sediului de poliţie. M-au pus într-o celulă.
15:05
I was the first one to be pickedales up, so they put me in a cellcelulă,
274
893000
2000
Am fost primul care a fost ridicat, aşa că m-au pus într-o celulă
15:07
whichcare was just like a roomcameră with a dooruşă with barsbaruri on it.
275
895000
4000
care arăta exact ca o cameră cu o uşă cu bare pe ea.
15:12
You could tell it wasn'tnu a fost a realreal jailtemniță.
276
900000
1000
Îţi puteai da seama că nu era o celulă adevărată.
15:13
They lockedblocat me in there, in this degradingdegradante little outfitcostum.
277
901000
5000
M-au încuiat acolo, într-un set de haine degradant.
15:19
They were takingluare this experimentexperiment too seriouslySerios.
278
907000
2000
Au luat acest experiment prea în serios.
15:21
PhilipFilip ZimbardoZimbardo: Here are the prisonersprizonieri who are going to be dehumanizeddezumanizate.
279
909000
2000
Iată, aceştia sunt prizonierii care vor fi dezumanizaţi.
15:23
They're going to becomedeveni numbersnumerele.
280
911000
1000
Care vor deveni numere.
15:24
Here are the guardsPoliţiştii with the symbolssimboluri of powerputere and anonymityanonimat.
281
912000
3000
Aici sunt gardienii cu simbolurile puterii şi ale anonimităţii.
15:27
GuardsPoliţiştii get prisonersprizonieri
282
915000
1000
Gardienii pun prizonierii
15:28
to cleancurat the toilettoaletă bowlsboluri out with theiral lor bareneizolat handsmâini,
283
916000
2000
să cureţe toalete cu mâinile goale,
15:30
to do other humiliatingumilitoare taskssarcini.
284
918000
2000
să facă alte treburi înjositoare.
15:32
They stripbandă them nakedgol. They sexuallysexual tauntbatjocură them.
285
920000
2000
Îi dezbracă la pielea goală. Îi batjocoresc sexual.
15:34
They beginÎNCEPE to do degradingdegradante activitiesactivitati,
286
922000
2000
Încep să facă activităţi degradante,
15:36
like havingavând them simulatesimula sodomysodomie.
287
924000
2000
ca de exemplu să îi pună să simuleze sodomia.
15:38
You saw simulatingsimularea fellatiofelatie in soldierssoldati in AbuArdelean GhraibGhraib.
288
926000
3000
Aţi văzut simularea felaţiei la Abu Ghraib.
15:41
My guardsPoliţiştii did it in fivecinci dayszi. The stressstres reactionreacţie was so extremeextrem
289
929000
5000
Gardienii mei au făcut-o în cinci zile. Reacţia la stress a fost atât de extremă
15:46
that normalnormal kidscopii we pickedales because they were healthysănătos
290
934000
2000
încât copiii normali pe care i-am ales fiindcă erau foarte sănătoşi
15:48
had breakdownsdefalcările withinîn 36 hoursore.
291
936000
2000
au avut căderi psihice în 36 de ore.
15:50
The studystudiu endedîncheiat after sixşase dayszi, because it was out of controlControl.
292
938000
4000
Studiul s-a sfârşit după şase zile pentru că ieşise de sub control.
15:54
FiveCinci kidscopii had emotionalemoţional breakdownsdefalcările.
293
942000
2000
Cinci copii au avut căderi psihice.
15:58
Does it make a differencediferență if warriorsrăzboinici go to battleluptă
294
946000
2000
Ce diferenţă face dacă războinicii merg la război
16:00
changingschimbare theiral lor appearanceaspect or not?
295
948000
2000
schimbându-şi costumaţia?
16:02
Does it make a differencediferență if they're anonymousanonim,
296
950000
1000
Există vreo diferenţă dacă aceştia sunt anonimi
16:03
in how they treattrata theiral lor victimsvictime?
297
951000
2000
în modul în care îşi tratează victimele?
16:05
We know in some culturesculturi, they go to warrăzboi,
298
953000
1000
Ştim că în unele culturi, ei merg la război
16:06
they don't changeSchimbare theiral lor appearanceaspect.
299
954000
1000
fără a-şi schimba înfăţişarea.
16:07
In other culturesculturi, they painta picta themselvesînșiși like "LordDomnul of the FliesZboară."
300
955000
2000
În alte culturi se pictează ca "Stăpânul Muştelor."
16:09
In some, they wearpurta masksmasti.
301
957000
2000
În unele poartă măşti.
16:11
In manymulți, soldierssoldati are anonymousanonim in uniformuniformă.
302
959000
3000
În cele mai multe, soldaţii sunt anonimi în uniforme.
16:14
So this anthropologistantropolog, JohnIoan WatsonWatson, foundgăsite
303
962000
2000
Antropologistul John Watson a descoperit
16:17
23 culturesculturi that had two bitsbiți of datadate.
304
965000
2000
23 de culturi care au avut două tipuri de date.
16:19
Do they changeSchimbare theiral lor appearanceaspect? 15.
305
967000
2000
Îţi schimbă înfăţişarea? 15.
16:21
Do they killucide, torturetortura, mutilatemutileze? 13.
306
969000
2000
Omoară, torturează, mutilează? 13.
16:23
If they don't changeSchimbare theiral lor appearanceaspect,
307
971000
2000
Dacă nu îşi schimbă înfăţişarea
16:25
only one of eightopt killsucide, torturesTorturi or mutilatesmutilat.
308
973000
2000
doar unul din opt omoară, torturează sau mutilează.
16:27
The keycheie is in the redroșu zonezona.
309
975000
2000
Cheia se află în zona roşie.
16:29
If they changeSchimbare theiral lor appearanceaspect,
310
977000
1000
Dacă îşi schimbă însăţişarea
16:30
12 of 13 -- that's 90 percentla sută -- killucide, torturetortura, mutilatemutileze.
311
978000
4000
12 din 13 -- asta înseamnă 90% - omoară, torturează, mutilează.
16:35
And that's the powerputere of anonymityanonimat.
312
983000
1000
Iar aceasta este puterea anonimităţiii.
16:36
So what are the sevenȘapte socialsocial processesprocese
313
984000
2000
Aşadar, care sunt cele şapte procese sociale
16:38
that greaseunsoare the slipperyalunecos slopepantă of evilrău?
314
986000
2000
care uşurează tranziţia spre rău?
16:40
MindlesslyFara minte takingluare the first smallmic stepEtapa.
315
988000
2000
Luarea fără a gândi a primului mic pas.
16:42
DehumanizationDezumanizarea of othersalții. De-individuationCategorii folosintei of SelfAuto.
316
990000
3000
Dezumanizarea altor oameni. Dezindividualizarea de sine.
16:45
DiffusionDifuzie of personalpersonal responsibilityresponsabilitate. BlindOrb obedienceascultare to authorityautoritate.
317
993000
3000
Difuzia responsabilităţii personale. Obedienţa oarbă faţă de autoritate.
16:49
UncriticalNecritic conformityconformitatea to groupgrup normsnorme.
318
997000
1000
Conformitatea fără critică la normele grupului.
16:50
PassivePasive tolerancetoleranţă to evilrău throughprin inactioninacţiune or indifferenceindiferenţă.
319
998000
3000
Toleranţa pasivă la rău prin lipsa acţiunii sau prin indiferenţă.
16:54
And it happensse întâmplă when you're in a newnou or unfamiliarnecunoscute situationsituatie.
320
1002000
2000
Şi se întâmplă când te afli într-o situaţie nouă sau nefamiliară.
16:56
Your habitualobişnuită responseraspuns patternsmodele don't work.
321
1004000
2000
Metodele tale obişnuite de răspuns nu funcţionează.
16:59
Your personalitypersonalitate and moralitymoralitate are disengageddecuplat.
322
1007000
2000
Personalitatea şi moralitatea ta sunt lipsite de obligaţie.
17:01
"Nothing is easierMai uşor than to denouncedenunţa the evildoerrăufăcător;
323
1009000
3000
"Nimic nu este mai uşor decât a denunţa răufăcătorul;
17:04
nothing more difficultdificil than understandingînţelegere him," DostoyevksyDostoyevksy tellsspune us.
324
1012000
3000
nimic mai greu decât a-l înţelege," ne spune Dostoevsky.
17:07
UnderstandingÎnţelegerea is not excusingdispensarea de. PsychologyPsihologie is not excuse-iologyScuză-iology.
325
1015000
4000
Înţelegerea nu poartă rol de scuză. Psihologia nu este ştiinţa inventării de scuze.
17:12
So socialsocial and psychologicalpsihologic researchcercetare revealsdezvăluie
326
1020000
1000
Deci cercetările sociale şi psihologice ne arată
17:13
how ordinarycomun, good people can be transformedtransformat withoutfără the drugsdroguri.
327
1021000
4000
cum oameni obişnuiţi şi buni pot fi transformaţi fără droguri.
17:17
You don't need it. You just need the social-psychologicalsocial-psihologice processesprocese.
328
1025000
3000
Nu ai nevoie de ele. Ai nevoie doar de procese sociale şi psihologice.
17:20
RealReal worldlume parallelsparalelele? CompareCompara this with this.
329
1028000
4000
Paralele cu lumea reală? Comparaţi asta cu asta.
17:26
JamesJames SchlesingerSchlesinger -- and I'm going to have to endSfârşit with this -- saysspune,
330
1034000
2000
James Schlesinger -- şi va trebui să termin cu asta -- spune
17:28
"PsychologistsPsihologi have attempteda încercat să to understanda intelege how and why
331
1036000
2000
"Psihologii au încercat să înţeleagă cum şi de ce
17:31
individualspersoane fizice and groupsGrupuri who usuallyde obicei actact humanelyuman
332
1039000
2000
indivizi şi grupuri care în mod normal de comportă uman
17:33
can sometimesuneori actact otherwisein caz contrar in certainanumit circumstancesîmprejurări."
333
1041000
3000
pot uneori să se comporte complet diferit în anumite circumstanţe."
17:37
That's the LuciferLucifer effectefect.
334
1045000
1000
Acesta este Efectul Lucifer.
17:38
And he goesmerge on to say, "The landmarkpunct de reper StanfordStanford studystudiu
335
1046000
2000
Şi el continuă: "Studiul de bază de la Stanford
17:40
providesprevede a cautionarymoralizatoare talepoveste for all militarymilitar operationsoperațiuni."
336
1048000
4000
ne oferă o pildă pentru toate operaţiunile militare."
17:44
If you give people powerputere withoutfără oversightsupraveghere,
337
1052000
2000
Dacă dai oamenilor putere fără responsabilitate,
17:47
it's a prescriptionreteta medicala for abuseabuz. They knewștiut that, and let that happenîntâmpla.
338
1055000
3000
aceasta este o reţetă sigură pentru abuz. Ei au ştiut şi totuşi au lăsat să se întâmple.
17:50
So anothero alta reportraport, an investigativeinvestigaţie reportraport by GeneralGenerale FayFay,
339
1058000
5000
Un alt raport, un raport de investigaţie efectuat de General Fay,
17:55
saysspune the systemsistem is guiltyvinovat. And in this reportraport,
340
1063000
2000
spune că sistemul este de vină, şi în acest raport
17:57
he saysspune it was the environmentmediu inconjurator that createdcreată AbuArdelean GhraibGhraib,
341
1065000
3000
el spune că mediul care a creat Abu Ghraib
18:00
by leadershipconducere failureseșecuri that contributedcontribuit
342
1068000
2000
prin erori de conducere care au contribuit
18:02
to the occurrenceapariţia of suchastfel de abuseabuz,
343
1070000
1000
la întâmplarea unor astfel de abuzuri
18:03
and the factfapt that it remaineda ramas undiscoverednedescoperite
344
1071000
2000
şi faptul că au rămas nedescoperite
18:05
by highersuperior authoritiesAutoritățile for a long periodperioadă of time.
345
1073000
2000
de către autorităţile înalte pentru o lungă perioadă de timp.
18:07
Those abusesabuzuri wenta mers on for threeTrei monthsluni. Who was watchingvizionarea the storemagazin?
346
1075000
4000
Acele abuzuri s-au petrecut pe o perioadă de trei luni. Cine supraveghea afacerea?
18:11
The answerRăspuns is nobodynimeni, and, I think, nobodynimeni on purposescop.
347
1079000
2000
Răspunsul este: nimeni, şi cred că nimeni în mod intenţionat.
18:14
He gavea dat the guardsPoliţiştii permissionpermisiune to do those things,
348
1082000
1000
Le-au dat gardienilor voie să facă toate acele lucruri.
18:15
and they knewștiut nobodynimeni was ever going to come down to that dungeontemnita.
349
1083000
3000
şi ei ştiau că nimeni nu va veni în acea închisoare.
18:18
So you need a paradigmparadigmă shiftschimb in all of these areaszone.
350
1086000
3000
Deci este nevoie de o schimbare de paradigmă în toate acele domenii.
18:21
The shiftschimb is away from the medicalmedical modelmodel
351
1089000
2000
Schimbarea este îndepărtarea de modelul metodic
18:23
that focusesse concentrează only on the individualindividual.
352
1091000
2000
care se concentrează doar pe individ.
18:25
The shiftschimb is towardspre a publicpublic healthsănătate modelmodel
353
1093000
2000
Schimbarea este spre un model public de sănătate
18:28
that recognizesrecunoaşte situationalsituaţionale and systemicsistemice vectorsvectori of diseaseboală.
354
1096000
3000
capabil să recunoască vectorii sistemici şi de situaţie ai bolii.
18:31
BullyingIntimidarea is a diseaseboală. PrejudiceA aduce atingere is a diseaseboală. ViolenceViolenţă is a diseaseboală.
355
1099000
4000
Intimidarea este o boală. Prejudecata este o boală. Violenţa este o boală.
18:35
And sincede cand the InquisitionInchiziţia, we'vene-am been dealingcare se ocupă with problemsProbleme
356
1103000
2000
Şi încă de pe vremea Inchiziţiei ne-am confruntat cu aceste probleme
18:37
at the individualindividual levelnivel. And you know what? It doesn't work.
357
1105000
3000
la nivel individual. Şi ştiţi ce? Nu merge.
18:40
AleksandrAlexandr SolzhenitsynSoljenițîn saysspune, "The linelinia betweenîntre good and evilrău
358
1108000
3000
Alexander Solzhenitsyn spune că linia dintre bine şi rău
18:43
cutsreduceri throughprin the heartinimă of everyfiecare humanuman beingfiind."
359
1111000
2000
taie în jumătate inima fiecărei fiinţe umane.
18:45
That meansmijloace that linelinia is not out there.
360
1113000
2000
Aceasta înseamnă că linia nu este undeva departe.
18:47
That's a decisiondecizie that you have to make. That's a personalpersonal thing.
361
1115000
3000
Este o decizie ce trebuie să o iei. Este o chestiune personală.
18:50
So I want to endSfârşit very quicklyrepede on a positivepozitiv noteNotă.
362
1118000
3000
Vreau să închei foarte rapid într-o notă pozitivă:
18:53
HeroismEroism as the antidoteantidot to evilrău,
363
1121000
2000
eroismul ca antidotul răului.
18:56
by promotingpromovarea the heroiceroice imaginationimaginație,
364
1124000
1000
Prin promovarea imaginaţiei eroice
18:57
especiallyin mod deosebit in our kidscopii, in our educationaleducational systemsistem.
365
1125000
3000
cu precădere în rândul copiilor noştri, în sistemul nostru educaţional.
19:00
We want kidscopii to think, I'm the heroerou in waitingaşteptare,
366
1128000
2000
Vrem ca tinerii noştrii să gândească: sunt un erou în aşteptare.
19:02
waitingaşteptare for the right situationsituatie to come alongde-a lungul,
367
1130000
2000
Aştept ca situaţia bună să apară,
19:05
and I will actact heroicallyeroic.
368
1133000
1000
ca să mă pot comporta eroic.
19:06
My wholeîntreg life is now going to focusconcentra away from evilrău --
369
1134000
2000
Întreaga mea viaţă se va concentra departe de răul
19:08
that I've been in sincede cand I was a kidcopil -- to understandingînţelegere heroeseroii.
370
1136000
3000
în care m-am aflat încă de pe vremea când eram copil, spre înţelegerea eroilor.
19:11
BanalityBanalitatea of heroismeroism
371
1139000
1707
Şi acum, ideea lor de eroism
19:13
is, it's ordinarycomun people who do heroiceroice deedsfapte.
372
1140707
2293
este: oamenii obişnuiţi sunt cei care fac fapte eroice.
19:15
It's the counterpointcontrapunct to HannahHannah Arendt'sArendt pe "BanalityBanalitatea of EvilRău."
373
1143000
3000
Este punctul contrar teoriei Banalitatea Răului a lui Hannah Arendt.
19:18
Our traditionaltradiţional societalsocietale heroeseroii are wronggresit,
374
1146000
3000
Societatea promovează eroii tradiţionali în mod greşit
19:21
because they are the exceptionsexcepţii.
375
1149000
1000
fiindcă ei sunt excepţiile.
19:22
They organizeorganiza theiral lor wholeîntreg life around this.
376
1150000
2000
Ei îşi organizează întreaga viaţă în jurul acestui fapt.
19:24
That's why we know theiral lor namesnumele.
377
1152000
1000
De aceea le cunoaştem numele.
19:25
And our kids'Kids' heroeseroii are alsode asemenea wronggresit modelsmodele for them,
378
1153000
2000
Şi eroii copiilor noştri sunt modele de urmat pentru ei,
19:27
because they have supernaturalsupranatural talentstalente.
379
1155000
2000
pentru că ei au abilităţi supranaturale.
19:30
We want our kidscopii to realizerealiza mostcel mai heroeseroii are everydayin fiecare zi people,
380
1158000
2000
Vrem să facem pe copii noştri să realizeze că majoritatea eroilor sunt oameni comuni, obişnuiţi
19:32
and the heroiceroice actact is unusualneobișnuit. This is JoeJoe DarbyDragu.
381
1160000
4000
şi că actul eroic este cel neobişnuit. Acesta este Joe Darby.
19:36
He was the one that stoppedoprit those abusesabuzuri you saw,
382
1164000
2000
El este cel care a oprit abuzurile pe care le-aţi văzut mai devreme
19:38
because when he saw those imagesimagini,
383
1166000
2000
pentru că, atunci când a văzut imaginile,
19:40
he turnedîntoarse them over to a seniorsenior investigatinginvestigare officerofiţer.
384
1168000
3000
le-a predat spre investigaţie unui ofiţer senior.
19:43
He was a low-levelnivel scăzut privateprivat, and that stoppedoprit it. Was he a heroerou? No.
385
1171000
3000
El a fost un soldat normal şi totuşi a oprit aceste abuzuri. A fost un erou? Nu.
19:47
They had to put him in hidingAscunderea, because people wanted to killucide him,
386
1175000
3000
Au trebuit să îl ascundă, pentru că oamenii vroiau să îl omoare
19:50
and then his mothermamă and his wifesoție.
387
1178000
1000
şi apoi au ascuns-o şi pe mama lui, şi pe nevasta lui.
19:51
For threeTrei yearsani, they were in hidingAscunderea.
388
1179000
2000
S-au ascuns trei ani de zile.
19:53
This is the womanfemeie who stoppedoprit the StanfordStanford PrisonÎnchisoare StudyStudiu.
389
1181000
3000
Aceasta este femeia care a oprit Experimentul Închisorii de la Stanford.
19:56
When I said it got out of controlControl, I was the prisonînchisoare superintendentInspectorul.
390
1184000
3000
Când am văzut că lucrurile nu mai sunt sub control, eram supraveghetorul principal al închisorii.
19:59
I didn't know it was out of controlControl. I was totallyintru totul indifferentindiferent.
391
1187000
3000
Nu ştiam că lucrurile scăpaseră de sub control. Eram total indiferent.
20:02
She camea venit down, saw that madhousebalamuc and said,
392
1190000
2000
Ea a venit, a văzut casa de nebuni şi a spus
20:04
"You know what, it's terribleteribil what you're doing to those boysbăieți.
393
1192000
3000
"Ştii ce, este groaznic ce faci tu acestor băieţi.
20:07
They're not prisonersprizonieri, they're not guardsPoliţiştii,
394
1195000
1000
Ei nu sunt prizonieri, ei nu sunt gardieni,
20:08
they're boysbăieți, and you are responsibleresponsabil."
395
1196000
2000
sunt doar băieţi şi tu eşti responsabil."
20:11
And I endedîncheiat the studystudiu the nextUrmător → day.
396
1199000
2000
Şi am oprit studiul ziua următoare.
20:13
The good newsștiri is I marriedcăsătorit her the nextUrmător → yearan.
397
1201000
2000
Vestea bună este că m-am căsătorit cu ea în anul următor.
20:15
(LaughterRâs)
398
1203000
3000
(Râsete)
20:18
(ApplauseAplauze)
399
1206000
7000
(Aplauze)
20:25
I just camea venit to my sensessimțurile, obviouslyevident.
400
1213000
2000
Mi-am venit în fire, evident
20:27
So situationssituații have the powerputere to do, throughprin --
401
1215000
2000
Deci situaţiile au puterea de a face, în întregime --
20:31
but the pointpunct is, this is the samela fel situationsituatie
402
1219000
1000
dar ideea e, că aceeaşi situaţie
20:32
that can inflameinflama the hostileostil imaginationimaginație in some of us,
403
1220000
4000
care poate înflăcăra imaginaţia ostilă în unii dintre noi
20:36
that makesmărci us perpetratorsAutorii of evilrău,
404
1224000
2000
şi care să ne facă aducători de rău
20:38
can inspirea inspira the heroiceroice imaginationimaginație in othersalții. It's the samela fel situationsituatie.
405
1226000
3000
poate inspira imaginaţia eroică în alţii. Este aceeaşi situaţie.
20:42
And you're on one sidelatură or the other.
406
1230000
1000
Şi te poţi afla într-o parte sau în alta.
20:43
MostCele mai multe people are guiltyvinovat of the evilrău of inactioninacţiune,
407
1231000
2000
Majoritatea oamenilor sunt vinovaţi de răul prin lipsa acţiunii
20:45
because your mothermamă said, "Don't get involvedimplicat. MindMintea your ownpropriu businessAfaceri."
408
1233000
3000
pentru că mama ne-a învăţat: "Nu te implica, vezi-ţi de propriul drum."
20:48
And you have to say, "MamaMama, humanityumanitate is my businessAfaceri."
409
1236000
3000
Şi tu trebuie în schimb să spui: "Mamă, umanitatea este drumul meu."
20:51
So the psychologyPsihologie of heroismeroism is -- we're going to endSfârşit in a momentmoment --
410
1239000
2000
Psihologia eroismului este -- voi termina imediat --
20:53
how do we encouragea incuraja childrencopii in newnou heroerou coursescursuri,
411
1241000
4000
cum ne vom încuraja copii prin cursuri de eroism
20:57
that I'm workinglucru with MattMatt LangdonLangdon -- he has a heroerou workshopatelier --
412
1245000
3000
lucrez cu Matt Langdon -- el are un atelier de eroism--
21:00
to developdezvolta this heroiceroice imaginationimaginație, this self-labelingauto-etichetare,
413
1248000
3000
să dezvoltăm imaginaţia eroică, această auto-etichetare:
21:03
"I am a heroerou in waitingaşteptare," and teacha preda them skillsaptitudini.
414
1251000
3000
"Sunt un erou în aşteptare," şi să îi învăţăm cum.
21:06
To be a heroerou, you have to learnînvăța to be a deviantdeviante,
415
1254000
2000
Ca să fii un erou, trebuie să înveţi să fii un nonconformist
21:09
because you're always going againstîmpotriva the conformityconformitatea of the groupgrup.
416
1257000
2000
pentru că va trebui să acţionezi împotriva conformităţii grupului.
21:11
HeroesEroi are ordinarycomun people whosea caror socialsocial actionsacţiuni are extraordinaryextraordinar. Who actact.
417
1259000
4000
Eroii sunt oameni obişnuiţi ale căror acţiuni sociale sunt extraordinare. Ei acţionează.
21:15
The keycheie to heroismeroism is two things.
418
1263000
2000
Iar cheia către eroism este compusă din două lucruri.
21:17
A: you've got to actact when other people are passivepasiv.
419
1265000
2000
A: Trebuie să acţionezi atunci când alţi oameni sunt pasivi.
21:20
B: you have to actact socio-centricallysocio-centrically, not egocentricallyegocentrically.
420
1268000
3000
B: Trebuie să acţionezi în mod socio-centric, nu egocentric.
21:23
And I want to endSfârşit with the storypoveste that some of you know,
421
1271000
2000
Şi aş vrea să termin cu o poveste pe care unii dintre voi o ştiu
21:25
about WesleyWesley AutreyAutrey, NewNoi YorkYork subwaymetrou heroerou.
422
1273000
2000
despre Wesley Autrey, eroul metroului din New York.
21:27
Fifty-year-oldCincizeci de ani African-AmericanAfro-americană constructionconstructie workermuncitor.
423
1275000
2000
Un muncitor african-american de 50 de ani.
21:29
He's standingpermanent on a subwaymetrou in NewNoi YorkYork.
424
1277000
2000
El se află într-o staţie de metrou în New York
21:31
A whitealb guy fallsFalls on the trackspiese.
425
1279000
1000
când un alb cade pe şine.
21:32
The subwaymetrou traintren is comingvenire. There's 75 people there.
426
1280000
3000
Metroul vine. 75 de persoane se află acolo.
21:35
You know what? They freezeîngheţa.
427
1283000
1000
Ştiţi ce? Toţi au îngheţat.
21:36
He's got a reasonmotiv not to get involvedimplicat.
428
1284000
2000
El are un motiv să nu se implice.
21:38
He's blacknegru, the guy'sbaieti whitealb, and he's got two little kidscopii.
429
1286000
2000
El e negru, cel care a căzut este alb, şi în plus, el are doi copii.
21:41
InsteadÎn schimb, he gives his kidscopii to a strangerstrăin,
430
1289000
1000
În schimb, el îşi dă copiii în grija unui străin
21:42
jumpssalturi on the trackspiese, putsputs the guy betweenîntre the trackspiese,
431
1290000
3000
sare pe şine, îi împinge pe cel căzut între şine
21:45
liesminciuni on him, the subwaymetrou goesmerge over him.
432
1293000
2000
şi îl acoperă în timp ce metroul trece peste ei.
21:47
WesleyWesley and the guy -- 20 and a halfjumătate inchesinch heightînălţime.
433
1295000
3000
Wesley şi victima, culcaţi: o înălţime de vreo 20 de inci şi jumătate.
21:51
The traintren clearanceclearance-ul is 21 inchesinch.
434
1299000
2000
Trenul are o ridicare de la pâmânt de 21 de inci.
21:53
A halfjumătate an inchinch would have takenluate his headcap off.
435
1301000
2000
O jumătate de inci ar fi însemnat moartea.
21:56
And he said, "I did what anyoneoricine could do,"
436
1304000
3000
El a spus: "Am făcut ceea ce ar fi putut face oricine"
21:59
no bigmare dealafacere to jumpa sari on the trackspiese.
437
1307000
1000
nu e mare lucru să sari pe şine.
22:00
And the moralmorală imperativeimperativ is "I did what everyonetoata lumea should do."
438
1308000
4000
Dar imperativa morală este: "Am făcut ceea ce toată lumea ar fi trebuit să facă"
22:04
And so one day, you will be in a newnou situationsituatie.
439
1312000
2000
Într-o zi, veţi fi într-o situaţie nouă.
22:07
Take pathcale one, you're going to be a perpetratorfăptuitorului of evilrău.
440
1315000
2000
Luaţi prima cale şi veţi ajunge un aducător de rău.
22:09
EvilRău, meaningsens you're going to be ArthurArthur AndersenAndersen.
441
1317000
3000
Rău, însemnând că veţi fi un Arthur Anderson.
22:12
You're going to cheatieftin, or you're going to allowpermite bullyingintimidarea.
442
1320000
2000
Veţi trişa sau veţi permite intimidarea.
22:14
PathCalea two, you becomedeveni guiltyvinovat of the evilrău of passivepasiv inactioninacţiune.
443
1322000
2000
Calea a doua: deveniţi vinovaţi de răul prin lipsa acţiunii.
22:17
PathCalea threeTrei, you becomedeveni a heroerou.
444
1325000
1000
Calea a treia: deveniţi eroi.
22:18
The pointpunct is, are we readygata to take the pathcale
445
1326000
3000
Ideea este, suntem gata să urmăm calea
22:21
to celebratingsărbători ordinarycomun heroeseroii,
446
1329000
2000
de a sărbători eroii obişnuiţi,
22:23
waitingaşteptare for the right situationsituatie to come alongde-a lungul
447
1331000
2000
în aşteptarea situaţiei care ne va permite
22:25
to put heroiceroice imaginationimaginație into actionacțiune?
448
1333000
2000
să ne punem imaginaţia eroică în acţiune?
22:27
Because it mayMai only happenîntâmpla onceo singura data in your life,
449
1335000
3000
Pentru că se poate întâmpla o singură dată în viaţă
22:31
and when you passtrece it by, you'llveți always know,
450
1339000
1000
şi când vei trece prin această situaţie, vei ştii întotdeauna
22:32
I could have been a heroerou and I let it passtrece me by.
451
1340000
3000
aş fi putut fi erou, dar am lăsat şansa aceasta să treacă.
22:35
So the pointpunct is thinkinggândire it and then doing it.
452
1343000
2000
Ideea este să vă gândiţi la asta şi apoi să acţionaţi.
22:37
So I want to thank you. Thank you. Thank you.
453
1345000
3000
Vreau să vă mulţumesc. Mulţumesc. Mulţumesc.
22:40
Let's opposese opune the powerputere of evilrău systemssisteme at home and abroadin strainatate,
454
1348000
3000
Haideţi să ne opunem puterii sistemelor rele din ţară şi străinătate
22:43
and let's focusconcentra on the positivepozitiv.
455
1351000
2000
şi haideţi să ne concentrăm pe lucrurile pozitive.
22:45
AdvocateAvocat for respectrespect of personalpersonal dignitydemnitate, for justicejustiţie and peacepace,
456
1353000
3000
Să promovăm respectul demnităţii personale, dreptatea şi pacea,
22:48
whichcare sadlydin pacate our administrationadministrare has not been doing.
457
1356000
2000
ceea ce din păcate, administraţia noastră nu a făcut.
22:50
Thanksmulţumesc so much.
458
1358000
1000
Mulţumesc foarte mult.
22:51
(ApplauseAplauze)
459
1359000
13000
(Aplauze)
Translated by Laura Bularca
Reviewed by Sebastian Bularca

▲Back to top

ABOUT THE SPEAKER
Philip Zimbardo - Psychologist
Philip Zimbardo was the leader of the notorious 1971 Stanford Prison Experiment -- and an expert witness at Abu Ghraib. His book The Lucifer Effect explores the nature of evil; now, in his new work, he studies the nature of heroism.

Why you should listen

Philip Zimbardo knows what evil looks like. After serving as an expert witness during the Abu Ghraib trials, he wrote The Lucifer Effect: Understanding How Good People Turn Evil. From Nazi comic books to the tactics of used-car salesmen, he explores a wealth of sources in trying to explain the psychology of evil.

A past president of the American Psychological Association and a professor emeritus at Stanford, Zimbardo retired in 2008 from lecturing, after 50 years of teaching his legendary introductory course in psychology. In addition to his work on evil and heroism, Zimbardo recently published The Time Paradox, exploring different cultural and personal perspectives on time.

Still well-known for his controversial Stanford Prison Experiment, Zimbardo in his new research looks at the psychology of heroism. He asks, "What pushes some people to become perpetrators of evil, while others act heroically on behalf of those in need?"

More profile about the speaker
Philip Zimbardo | Speaker | TED.com