ABOUT THE SPEAKER
Philip Zimbardo - Psychologist
Philip Zimbardo was the leader of the notorious 1971 Stanford Prison Experiment -- and an expert witness at Abu Ghraib. His book The Lucifer Effect explores the nature of evil; now, in his new work, he studies the nature of heroism.

Why you should listen

Philip Zimbardo knows what evil looks like. After serving as an expert witness during the Abu Ghraib trials, he wrote The Lucifer Effect: Understanding How Good People Turn Evil. From Nazi comic books to the tactics of used-car salesmen, he explores a wealth of sources in trying to explain the psychology of evil.

A past president of the American Psychological Association and a professor emeritus at Stanford, Zimbardo retired in 2008 from lecturing, after 50 years of teaching his legendary introductory course in psychology. In addition to his work on evil and heroism, Zimbardo recently published The Time Paradox, exploring different cultural and personal perspectives on time.

Still well-known for his controversial Stanford Prison Experiment, Zimbardo in his new research looks at the psychology of heroism. He asks, "What pushes some people to become perpetrators of evil, while others act heroically on behalf of those in need?"

More profile about the speaker
Philip Zimbardo | Speaker | TED.com
TED2008

Philip Zimbardo: The psychology of evil

ფილიპ ზიმბარდო: როგორ ხდებიან ჩვეულებრივი ადამიანები მონსტრები... ან გმირები

Filmed:
7,078,283 views

ფილიპ ზიმბარდომ იცის რა მარტივად ხდებიან კარგი ადამიანები ცუდები. ამ გამოსვლაში, ის გვიზიარებს თავის ხედვას და აბუ გრეიბის უნახავ ფოტოებს. შემდეგ ის საუბრობს მეორე მხარეზე: რა მარტივია გახდე გმირი და როგორ უნდა გავიზარდოთ ამ გამოწვევამდე.
- Psychologist
Philip Zimbardo was the leader of the notorious 1971 Stanford Prison Experiment -- and an expert witness at Abu Ghraib. His book The Lucifer Effect explores the nature of evil; now, in his new work, he studies the nature of heroism. Full bio

Double-click the English transcript below to play the video.

00:13
Philosophers, dramatists, theologians
0
1000
3000
ფილოსოფოსები, დრამატურგები, თეოლოგები
00:16
have grappled with this question for centuries:
1
4000
2000
საუკუნეების განმავლობაში ფიქრობდნენ ამ კითხვაზე:
00:18
what makes people go wrong?
2
6000
2000
რა აიძულებთ ადამიანებს გახდნენ ცუდები?
00:20
Interestingly, I asked this question when I was a little kid.
3
8000
2000
საინტერესოა, მე ვსვამდი ამ კითხვას პატარა რომ ვიყავი.
00:23
When I was a kid growing up in the South Bronx, inner-city ghetto
4
11000
2000
მე ვიზრდებოდი სამხრეთ ბრონქსში, ნიუ-იორკის გეტოში,
00:25
in New York, I was surrounded by evil,
5
13000
2000
მე გარშემორტყმული ვიყავი ბოროტებით ისევე,
00:28
as all kids are who grew up in an inner city.
6
16000
2000
როგორც ყველა ბავშვი, რომელიც ღარიბ უბანში გაიზარდა.
00:30
And I had friends who were really good kids,
7
18000
2000
და მე მყავდა მეგობრები, ნამდვილად კარგი ბავშვები,
00:32
who lived out the Dr. Jekyll Mr. Hyde scenario -- Robert Louis Stevenson.
8
20000
4000
რომლებიც ცხოვრობდნენ Dr. Jekyll Mr. Hyde სცენარის მიხედვით -რობერტ ლუის სტივენსონი.
00:36
That is, they took drugs, got in trouble, went to jail.
9
24000
4000
ანუ, იღებდნენ ნარკოტიკს, ეხვეოდნენ უსიამოვნებებში, მიდიოდნენ ციხეში.
00:40
Some got killed, and some did it without drug assistance.
10
28000
4000
ზოგი დაიღუპა, ზოგმა კი ეს ნარკოტიკების გარეშე მოახერხა.
00:44
So when I read Robert Louis Stevenson, that wasn't fiction.
11
32000
3000
ასე, რომ როდესაც წავიკითხე რობერტ ლუის სტივენსონი, ეს არ იყო გამონაგონი.
00:47
The only question is, what was in the juice?
12
35000
1000
ერთი კითხვა მაქვს - რა იყო იმ ჭიქაში?
00:48
And more importantly, that line between good and evil --
13
36000
5000
და ყველაზე მთავარი -გამყოფი ხაზი კეთილსა და ბოროტს შორის -
00:53
which privileged people like to think is fixed and impermeable,
14
41000
3000
რომელიც უზრუნველყოფილი ადამიანების აზრით მტკიცე და ურყევია
00:56
with them on the good side, and the others on the bad side --
15
44000
3000
ისინი კარგ მხარეს არიან, დანარჩენები კი -ცუდ მხარეს.
00:59
I knew that line was movable, and it was permeable.
16
47000
3000
მე ვიცოდი, რომ ეს ხაზი მოძრავი იყო.
01:02
Good people could be seduced across that line,
17
50000
2000
კარგი ადამიანები შეიძლება შეაცდინო და გადაკვთონ ეს ხაზი
01:05
and under good and some rare circumstances, bad kids could recover
18
53000
3000
და კარგ და იშვიათ გარემოებებში, ცუდი ბავშვებიც გამოკეთდებიან
01:08
with help, with reform, with rehabilitation.
19
56000
3000
დახმარებით, შეცვლით, რეაბილიტაციით.
01:12
So I want to begin with this this wonderful illusion
20
60000
2000
მინდა დავიწყო მ.ს. ეშერის
01:14
by [Dutch] artist M.C. Escher.
21
62000
2000
ამ მშვენიერი ილუზიით.
01:17
If you look at it and focus on the white,
22
65000
1000
თუ შეხედავთ და დააკვირდებით თეთრს,
01:18
what you see is a world full of angels.
23
66000
2000
თქვენ დაინახავთ ანგელოზებით სავსე სამყაროს.
01:20
But let's look more deeply, and as we do,
24
68000
3000
მაგრამ, მოდით უფრო ღრმად ჩავიხედოთ,
01:23
what appears is the demons, the devils in the world.
25
71000
3000
და გამოჩნდება დემონები, ეშმაკები სამყაროში.
01:27
And that tells us several things.
26
75000
1000
და ეს ჩვენ გვეუბნება, რომ სამყარო არის
01:28
One, the world is, was, will always be filled with good and evil,
27
76000
3000
იყო და ყოველთვის იქნება სავსე კეთილითა და ბოროტით,
01:31
because good and evil is the yin and yang of the human condition.
28
79000
3000
რადგან კეთილი და ბოროტი არის ადამიანის მდგომარეობის ინი და იანი.
01:34
It tells me something else. If you remember,
29
82000
2000
ეს სხვა რამესაც მეუბნება. თუ გახსოვთ,
01:36
God's favorite angel was Lucifer.
30
84000
3000
ღმერთის საყვარელი ანგელოზი იყო ლუციფერი.
01:39
Apparently, Lucifer means "the light."
31
87000
2000
ცხადია, ლუციფერი ნიშნავს 'სინათლეს'.
01:42
It also means "the morning star," in some scripture.
32
90000
2000
ის ასევე ნიშნავს 'ცისკრის ვარსკვლავს' ზოგიერთ ხელნაწერში.
01:44
And apparently, he disobeyed God,
33
92000
3000
და როგორც ჩანს, ის არ დაემორჩილა ღმერთს,
01:47
and that's the ultimate disobedience to authority.
34
95000
3000
ეს არის ავტორიტეტისადმი დაუმორჩილებლობის უკიდურესი ფორმა.
01:50
And when he did, Michael, the archangel, was sent
35
98000
3000
და მთავარანგელოზი მიქაელი გაგზავნა
01:54
to kick him out of heaven along with the other fallen angels.
36
102000
3000
რომ გაეძევებინა ის და სხვა დაცემული ანგელოზები სამოთხიდან.
01:57
And so Lucifer descends into hell, becomes Satan,
37
105000
3000
ასე რომ ლუციფერი ეშვება ჯოჯოხეთში და ხდება სატანა,
02:01
becomes the devil, and the force of evil in the universe begins.
38
109000
2000
ეშმაკი და სამყაროში ჩნდება ბოროტება.
02:03
Paradoxically, it was God who created hell as a place to store evil.
39
111000
5000
პარადოქსულია, რომ ღმერთი იყო ის, ვინც შექმნა ჯოჯოხეთი ბოროტების შენახვისთვის.
02:09
He didn't do a good job of keeping it there though.
40
117000
1000
სხვათაშორის მისი იქ გაჩერება ვერ შეძლო.
02:10
So, this arc of the cosmic transformation
41
118000
3000
ღმერთის საყვარელი ანგელოზის
02:13
of God's favorite angel into the Devil,
42
121000
2000
ეშმაკად გადაქცევის ეს სიუჟეტი,
02:15
for me, sets the context for understanding human beings
43
123000
4000
ჩემი აზრით, განსაზღვრავს კონტექსტს, რომ გავუგოთ ადამიანებს -
02:19
who are transformed from good, ordinary people
44
127000
3000
რომლებიც კარგი, ჩვეულებრივი ადამიანებიდან
02:22
into perpetrators of evil.
45
130000
2000
ბოროტებად იქცნენ.
02:24
So the Lucifer effect, although it focuses on the negatives --
46
132000
4000
ლუციფერის ეფექტმა - თუმცა ის ფოკუსირებულია ნეგატიურზე -
02:28
the negatives that people can become,
47
136000
3000
იმაზე, როგორი უარყოფითები შეიძლება გახდნენ ადამიანები,
02:31
not the negatives that people are --
48
139000
1000
და არა ადამიანის უარყოფით ბუნებაზე -
02:32
leads me to a psychological definition. Evil is the exercise of power.
49
140000
6000
მიმიყვანა ფსიქოლოგიურ განსაზღვრებამდე: ბოროტება არის ძალის გამოყენება.
02:38
And that's the key: it's about power.
50
146000
2000
ეს არის გასაღები: ძალაუფლება.
02:40
To intentionally harm people psychologically,
51
148000
3000
განზრახ მიაყენო ადამიანებს სულიერი ტკივილი,
02:44
to hurt people physically, to destroy people mortally, or ideas,
52
152000
3000
ფიზიკური ტკივილი, გაანადგურო ადამიანები ფიზიკურად, ან იდეები
02:47
and to commit crimes against humanity.
53
155000
2000
და დანაშაული ჩაიდინო კაცობრიობის წინააღმდეგ.
02:51
If you Google "evil," a word that should surely have withered by now,
54
159000
3000
თუ გუგლში მოძებნით 'ბოროტებას'
02:54
you come up with 136 million hits in a third of a second.
55
162000
4000
თქვენ ნახავთ 136 მილიონ შედეგს წამის მესამედში.
02:58
A few years ago -- I am sure all of you were shocked, as I was,
56
166000
4000
წლების წინ - დარწმუნებული ვარ ჩემსავით შოკში იყავით ყველა-
03:02
with the revelation of American soldiers
57
170000
3000
ამერიკელი ჯარისკაცების მხილებით, რომელბიც
03:05
abusing prisoners in a strange place
58
173000
3000
შეურაცხყოფას აყენებდნენ პატიმრებს უცხო ქვეყანაში,
03:08
in a controversial war, Abu Ghraib in Iraq.
59
176000
3000
წინააღმდეგობრივ ომში, აბუ გრეიბში, ერაყში.
03:11
And these were men and women
60
179000
1000
და ესენი იყვნენ კაცები და ქალები,
03:12
who were putting prisoners through unbelievable humiliation.
61
180000
5000
რომლებიც დაუჯერებლად ამცირებდნენ პატიმრებს.
03:18
I was shocked, but I wasn't surprised,
62
186000
1000
მე შოკში ვიყავი, მაგრამ არ გამკვირვებია,
03:19
because I had seen those same visual parallels
63
187000
2000
რადგან მსგავსი ვიზუალური პარალელები ნანახი მქონდა,
03:22
when I was the prison superintendent of the Stanford Prison Study.
64
190000
3000
როდესაც სტენფორდის ციხის ექსპერიმენტში ციხის ზედამხედველი ვიყავი.
03:25
Immediately the Bush administration military said ... what?
65
193000
2000
ბუშის ადმინისტრაციამ სასწრაფოდ გამოაცხადა.. რა?
03:28
What all administrations say when there's a scandal.
66
196000
2000
რასაც ყველა ბიუროკრატი ამბობს, როდესაც სკანდალი იწყება.
03:30
"Don't blame us. It's not the system. It's the few bad apples,
67
198000
3000
"ჩვენ ნუ დაგვადანაშაულებთ, სისტემის ბრალი არაა. ეს რამდენიმე დამპალი ვაშლის,
03:34
the few rogue soldiers."
68
202000
1000
რამდენიმე ცუდი ჯარისკაცის ბრალია".
03:35
My hypothesis is, American soldiers are good, usually.
69
203000
3000
ჩემი მოსაზრებაა, რომ ამერიკელი ჯარისკაცები ზოგადად კარგები არიან.
03:38
Maybe it was the barrel that was bad.
70
206000
2000
შესაძლოა, იქ იყო რამდენიმე ცუდი.
03:40
But how am I going to -- how am I going to deal with that hypothesis?
71
208000
3000
მაგრამ როგორ - როგორ დავამტკიცო ეს მოსაზრება?
03:43
I became an expert witness
72
211000
1000
მე მიმიწვიეს ექსპერტად, მოწმედ ერთ-ერთი მცველის
03:44
for one of the guards, Sergeant Chip Frederick,
73
212000
2000
სერჟანტი ჩიპო ფრედერიკოს პროცესზე.
03:46
and in that position, I had access to the dozen investigative reports.
74
214000
4000
და მე ამ როლის გამო ხელი მიმიწვდებოდა ათობით საგამოძიებო ანგარიშზე.
03:50
I had access to him. I could study him,
75
218000
3000
მე მასთანაც მქონდა წვდომა. შემეძლო შემესწავლა ის,
03:54
have him come to my home, get to know him,
76
222000
1000
დამეპატიჟებინა სახლში, უკეთ გამეცნო
03:55
do psychological analysis to see, was he a good apple or bad apple.
77
223000
4000
შემესწავლა დამპალი ვაშლი იყო თუ კარგი.
03:59
And thirdly, I had access to all of the 1,000 pictures
78
227000
4000
მესამეც, მე შეხება მქონდა იმ 1000 სურათთან,
04:03
that these soldiers took.
79
231000
1000
რომლებიც ამ ჯარისკაცებმა გადაიღეს.
04:05
These pictures are of a violent or sexual nature.
80
233000
2000
ეს სურათები არის ძალადობის, მათ შორის სექსუალური ძალადობის, ამსახველი.
04:07
All of them come from the cameras of American soldiers.
81
235000
3000
და ყველა მათგანი ამერიკელი ჯარისკაცების კამერებითაა გადაღებული.
04:11
Because everybody has a digital camera or cell phone camera,
82
239000
2000
რადგან ყველას აქვს ციფრული კამერა ან მობილურის კამერა,
04:13
they took pictures of everything. More than 1,000.
83
241000
2000
ისინი ყველაფერს უღებდნენ სურათებს. ათასზე მეტი სურათია.
04:16
And what I've done is I organized them into various categories.
84
244000
2000
და მე სხვადასხვა კატეგორიებში გადავანაწილე ისინი.
04:18
But these are by United States military police, army reservists.
85
246000
5000
მაგრამ ესენი არიან შეერთებული შტატების სამხედრო პოლიციის რეზერვისტები.
04:24
They are not soldiers prepared for this mission at all.
86
252000
3000
ისინი არ არიან ამ მისიისთვის მომზადებული ჯარისკაცები.
04:27
And it all happened in a single place, Tier 1-A, on the night shift.
87
255000
5000
და ეს ყველაფერი ხდებოდა ერთ ადგილას, 1A სექციაში, ღამის ცვლაში.
04:32
Why? Tier 1-A was the center for military intelligence.
88
260000
3000
რატომ? 1A სექცია იყო სამხედრო დაზვერვის ცენტრი.
04:35
It was the interrogation hold. The CIA was there.
89
263000
3000
აქ ტარდებოდა დაკითხვები. აქ იყო CIA.
04:39
Interrogators from Titan Corporation, all there,
90
267000
2000
გამომძიებლები Titan Corporation-დან.
04:41
and they're getting no information about the insurgency.
91
269000
3000
და მათ ვერ მიიღეს ინფორმაცია ამბოხებულებზე.
04:45
So they're going to put pressure on these soldiers,
92
273000
1000
ასე, რომ გადაწყვიტეს ზეწოლა ამ ჯარისკაცებზე.
04:46
military police, to cross the line,
93
274000
2000
სამხედრო პოლიციაზე, რომ ზღვარს გადასულიყვნენ.
04:49
give them permission to break the will of the enemy,
94
277000
3000
მისცეს მათ უფლება მტრის ნებისყოფა გაეტეხათ,
04:52
to prepare them for interrogation, to soften them up,
95
280000
2000
რომ დაკითხვისთვის მოემზადებინათ, დაესუსტებინათ ისინი,
04:54
to take the gloves off. Those are the euphemisms,
96
282000
2000
მისცეს უფლება ხელთათმანები გაეხადათ. ეს ყველაფერი ევფემიზმებია
04:56
and this is how it was interpreted.
97
284000
3000
და აი როგორ გაიგეს მათ.
05:00
Let's go down to that dungeon.
98
288000
1000
მოდით, ჩავიდეთ ამ დილეგში.
05:01
(Camera shutter)
99
289000
37000
(კამერის ხმა)
05:38
(Thuds)
100
326000
6000
(ბრახუნი)
05:45
(Camera shutter)
101
333000
14000
(კამერის ხმა)
05:59
(Thuds)
102
347000
10000
(ბრახუნი)
06:09
(Breathing)
103
357000
8000
(სუნთქვა)
06:17
(Bells)
104
365000
31000
(ზარი)
06:49
So, pretty horrific.
105
397000
3000
საკმაოდ შემზარავია.
06:52
That's one of the visual illustrations of evil.
106
400000
3000
ესაა ბოროტების ვიზუალური ილუსტრაცია.
06:55
And it should not have escaped you that
107
403000
1000
ალბათ შეამჩნევდით, რომ
06:56
the reason I paired the prisoner with his arms out
108
404000
4000
ხელებაწეული პატიმარი დავაწყვილე ლეონარდო და ვინჩის
07:00
with Leonardo da Vinci's ode to humanity
109
408000
3000
ადამიანურობის ოდასთან.
07:03
is that that prisoner was mentally ill.
110
411000
2000
რადგან ეს პატიმარი იყო სულიერად ავადმყოფი.
07:05
That prisoner covered himself with shit every day,
111
413000
2000
ეს პატიმარი ყოველდღე ისვამდა განავალს,
07:07
and they used to have to roll him in dirt so he wouldn't stink.
112
415000
3000
ისინი კი მას აიძულებდნენ ჭუჭყში ეკოტრიალა, რომ სუნი არ ჰქონოდა.
07:10
But the guards ended up calling him "Shit Boy."
113
418000
2000
მცველები მას "განავლის ბიჭს" ეძახდნენ.
07:12
What was he doing in that prison
114
420000
2000
რას აკეთებდა ის ამ ციხეში
07:14
rather than in some mental institution?
115
422000
3000
რატომ არ იყო ის ფსიქიატრიულ საავადმყოფოში?
07:17
In any event, here's former Secretary of Defense Rumsfeld.
116
425000
3000
ნებისმიერ შემთხვევაში, თავდაცვის ყოფილი მდივანი რამსფილდი
07:20
He comes down and says, "I want to know, who is responsible?
117
428000
2000
მოდის და კითხულობს: "მინდა ვიცოდე ვინაა პასუხისმგებელი?
07:22
Who are the bad apples?" Well, that's a bad question.
118
430000
3000
რომლები არიან დამპალი ვაშლები?" - ეს ცუდი კითხვაა.
07:25
You have to reframe it and ask, "What is responsible?"
119
433000
3000
უნდა იკითხოთ "რა არის დამნაშავე?"
07:28
Because "what" could be the who of people,
120
436000
2000
რადგან "რა" შეიძლება ასევე იყოს "ვინ" - ადამიანები
07:30
but it could also be the what of the situation,
121
438000
2000
და ასევე შეიძლება იყოს "რა" - სიტუაცია,
07:32
and obviously that's wrongheaded.
122
440000
2000
და ეს ნამდვილად არასწორია.
07:34
So how do psychologists go about understanding
123
442000
2000
მოკლედ, როგორ ხსნიან ფსიქოლოგები
07:36
such transformations of human character,
124
444000
2000
ადამიანის ბუნების ასეთ ცვლილებას,
07:38
if you believe that they were good soldiers
125
446000
2000
თუ მივიჩნევთ, რომ ისინი კარგი ჯარისკაცები იყვნენ
07:40
before they went down to that dungeon?
126
448000
1000
მანამ მიწისქვეშ ჩავიდოდნენ?
07:42
There are three ways. The main way is -- it's called dispositional.
127
450000
2000
არსებობს სამი გზა. მთავარ გზას სიტუაციური ქვია.
07:44
We look at what's inside of the person, the bad apples.
128
452000
3000
ჩვენ ადამიანის შიგნით ვიხედებით, ვეძებთ ცუდ ვაშლებს.
07:48
This is the foundation of all of social science,
129
456000
3000
ეს ყველა სოციალური მეცნიერების ფუნდამენტია,
07:51
the foundation of religion, the foundation of war.
130
459000
2000
რელიგიის, ომის საფუძველი.
07:55
Social psychologists like me come along and say, "Yeah,
131
463000
2000
სოციალური ფსიქოლოგები, როგორც მე, ვამბობთ: "დიახ,
07:57
people are the actors on the stage,
132
465000
2000
ადამიანები არიან მსახიობები სცენაზე,
07:59
but you'll have to be aware of what that situation is.
133
467000
2000
მაგრამ უნდა იცოდე რა სიტუაციაა.
08:01
Who are the cast of characters? What's the costume?
134
469000
3000
ვინ არიან მსახიობთა სიაში? როგორია კოსტუმები?
08:04
Is there a stage director?"
135
472000
1000
არის თუ არა სცენის რეჟისორი?"
08:05
And so we're interested in, what are the external factors
136
473000
2000
ასე რომ, ჩვენ გვაინტერესებს რა ფაქტორებია
08:08
around the individual -- the bad barrel?
137
476000
2000
ინდივიდის გარშემო - ცუდი გარემოცვა?
08:10
And social scientists stop there, and they miss the big point
138
478000
3000
სოციოლოგები აქ ჩერდებიან და ტოვებენ მნიშვნელოვან ფაქტორს,
08:13
that I discovered when I became an expert witness for Abu Ghraib.
139
481000
3000
რომელიც მე აღმოვაჩინე, როდესაც ექსპერტი ვიყავი აბუ გრეიბის საქმეში.
08:16
The power is in the system.
140
484000
2000
ძალაუფლება სისტემაშია.
08:18
The system creates the situation that corrupts the individuals,
141
486000
3000
სისტემა ქმნის სიტუაციას, რომელიც აფუჭებს ინდივიდს
08:21
and the system is the legal, political, economic, cultural background.
142
489000
5000
და ესაა კანონი, პოლიტიკური, ეკონომიკური სისტემა, კულტურა.
08:26
And this is where the power is of the bad-barrel makers.
143
494000
3000
და სწორედ ეს ქმნის ცუდ გარემოს.
08:29
So if you want to change a person, you've got to change the situation.
144
497000
3000
ასე რომ, თუ გსურთ, შეცვალოთ პიროვნება, უნდა შეცვალოთ სიტუაცია.
08:32
If you want to change the situation,
145
500000
1000
თუ გსურთ, შეცვალოთ სიტუაცია,
08:33
you've got to know where the power is, in the system.
146
501000
2000
უნდა იცოდეთ სად არის ძალაუფლება - სისტემაში.
08:35
So the Lucifer effect involves understanding
147
503000
2000
ლუციფერის ეფექტი გულისხმობს ადამიანური ბუნების
08:37
human character transformations with these three factors.
148
505000
5000
ტრანსფორმაციის გაგებას ამ სამი ფაქტორის მიხედვით.
08:43
And it's a dynamic interplay.
149
511000
1000
და ესაა დინამიკური ურთიერთქმედება.
08:44
What do the people bring into the situation?
150
512000
2000
რა შეაქვთ ადამიანებს სიტუაციაში?
08:46
What does the situation bring out of them?
151
514000
2000
რას იღებს სიტუაცია მათგან?
08:48
And what is the system that creates and maintains that situation?
152
516000
4000
და როგორია სისტემა, რომელიც ქმნის და ინარჩუნებს ამ სიტუაციას?
08:52
So my book, "The Lucifer Effect," recently published, is about,
153
520000
2000
ჩემი ახლახანს გამოცემული წიგნი "ლუციფერის ეფექტი" სწორედ ამაზეა-
08:54
how do you understand how good people turn evil?
154
522000
2000
როგორ გავიგოთ, რატომ ხდებიან კარგი ადამიანები ცუდები?
08:57
And it has a lot of detail
155
525000
1000
და აქ მრავალი დეტალია,
08:58
about what I'm going to talk about today.
156
526000
2000
რომელზეც მე დღეს ვისაუბრებ.
09:01
So Dr. Z's "Lucifer Effect," although it focuses on evil,
157
529000
3000
მიუხედავად იმისა, რომ ჩემი წიგნის თემა ბოროტებაა,
09:04
really is a celebration of the human mind's
158
532000
2000
რეალურად ესაა დიდება გონების შეუზღუდავი შესაძლებლობებისა,
09:06
infinite capacity to make any of us kind or cruel,
159
534000
4000
რომელიც ჩვენ კეთილად ან სასტიკად,
09:10
caring or indifferent, creative or destructive,
160
538000
3000
მზრუნველად ან უდარდელად, შემოქმედად ან დამანგრეველად,
09:13
and it makes some of us villains.
161
541000
2000
ზოგიერთ ჩვენგანს კი ბოროტმოქმედად გვაქცევს.
09:15
And the good news story that I'm going to hopefully come to
162
543000
2000
კარგი ამბავი, რომელსაც მოგვიანებით დავუბრუნდებით, კი ისაა, რომ
09:18
at the end is that it makes some of us heroes.
163
546000
2000
ზოგიერთი ჩვენგანი გმირი ხდება.
09:20
This is a wonderful cartoon in the New Yorker,
164
548000
3000
ეს მშვენიერი კომიქსი "ნიუ იორკერიდან"
09:23
which really summarizes my whole talk:
165
551000
2000
გამოხატავს ყველაფერს, რაც მე ვთქვი:
09:25
"I'm neither a good cop nor a bad cop, Jerome.
166
553000
2000
"მე არც კარგი პოლიციელი ვარ და არც ცუდი, ჯერომ.
09:27
Like yourself, I'm a complex amalgam
167
555000
2000
როგორც შენ, მეც დადებითი და უარყოფითი
09:29
of positive and negative personality traits
168
557000
2000
თვისებების რთული ჯამი ვარ, რომელიც
09:32
that emerge or not, depending on the circumstances."
169
560000
3000
ან ჩნდება, ან არა, სიტუაციის მიხედვით. "
09:35
(Laughter)
170
563000
2000
(სიცილი)
09:37
There's a study some of you think you know about,
171
565000
3000
არის ერთი გამოკვლევა, რომელიც ზოგიერთმა ალბათ იცით,
09:40
but very few people have ever read the story. You watched the movie.
172
568000
4000
მაგრამ მთელი ისტორია ცოტას თუ წაუკითხავს. ზოგიერთებმა ნახეს ფილმი.
09:44
This is Stanley Milgram, little Jewish kid from the Bronx,
173
572000
3000
ეს სტენლი მილგრემია - ებრაელი ბიჭუნა ბრონქსიდან, რომელმაც
09:47
and he asked the question, "Could the Holocaust happen here, now?"
174
575000
3000
იკითხა: "შესაძლებელია ჰოლოკოსტი განმეორდეს აქ და ახლა?"
09:51
People say, "No, that's Nazi Germany,
175
579000
1000
ხალხმა უპასუხა - "არა, მაშინ ნაცისტური გერმანია იყო,
09:52
that's Hitler, you know, that's 1939."
176
580000
2000
ჰიტლერი, 1939-იანი წლები"..
09:54
He said, "Yeah, but suppose Hitler asked you,
177
582000
2000
მან თქვა "კარგი, მაგრამ დავუშვათ ჰიტლერმა გკითხათ,
09:56
'Would you electrocute a stranger?' 'No way, not me, I'm a good person.' "
178
584000
3000
'შეგიძლიათ უცნობი ადამიანი აწამოთ ელექტროშოკით?' ' არა, მე არა, მე კარგი ადამიანი ვარ'
10:00
He said, "Why don't we put you in a situation
179
588000
1000
მან თქვა: "შეგიქმნით სიტუაციას და
10:01
and give you a chance to see what you would do?"
180
589000
2000
მოგცემთ შანსს ნახოთ, რას გააკეთებ".
10:03
And so what he did was he tested 1,000 ordinary people.
181
591000
4000
და აი რა ქნა მილგრემმა - ტესტირება ჩაუტარა 1000 ჩვეულებრივ ადამიანს.
10:07
500 New Haven, Connecticut, 500 Bridgeport.
182
595000
3000
500 ნიუ ჰევენიდან, კონექტიკუტიდან იყო, 500 -ბრიჯპორტიდან.
10:10
And the ad said, "Psychologists want to understand memory.
183
598000
4000
განცხადებაში ეწერა, " ფსიქოლოგებს სურთ შეისწავლონ მეხსიერება.
10:14
We want to improve people's memory,
184
602000
1000
ჩვენ გვინდა გავაუმჯობესოთ ადამიანების მეხსიერება,
10:15
because memory is the key to success." OK?
185
603000
3000
რადგან მეხსიერება წარმატების გასაღებია".
10:18
"We're going to give you five bucks -- four dollars for your time."
186
606000
5000
"დათმობილი დროსთვის ჩვენ გადაგიხდით ოთხ დოლარს".
10:24
And it said, "We don't want college students.
187
612000
1000
"ჩვენ არ გვჭირდება სტუდენტები,
10:25
We want men between 20 and 50."
188
613000
2000
გვჭირდება მამაკაცები 20დან 50 წლამდე."
10:27
In the later studies, they ran women.
189
615000
1000
მოგვიანებით მათ გაიმეორეს ეს ექსპერიმენტი ქალებზე.
10:28
Ordinary people: barbers, clerks, white-collar people.
190
616000
4000
ჩვეულებრივი ხალხი - სტილისტები, კლერკები, ოფისის მუშები.
10:32
So, you go down, and one of you is going to be a learner,
191
620000
3000
როდესაც მოხვალთ, ერთ-ერთი თქვენგანი იქნება მოსწავლე,
10:35
and one of you is going to be a teacher.
192
623000
1000
მეორე - მასწავლებელი.
10:36
The learner's a genial, middle-aged guy.
193
624000
2000
მოსწავლე - სასიამოვნო, საშუალო ასაკის ბიჭია.
10:38
He gets tied up to the shock apparatus in another room.
194
626000
3000
მას ამაგრებენ ელექტროშოკს მეორე ოთახში.
10:41
The learner could be middle-aged, could be as young as 20.
195
629000
3000
მოსწავლე შესაძლოა ყოფილიყო საშუალო ასაკის, ან სულაც 20 წლის.
10:44
And one of you is told by the authority, the guy in the lab coat,
196
632000
4000
ერთ-ერთ თქვენგანს ავტორიტეტი, ანუ თეთრხალათიანი ლაბორანტი ეუბნება
10:48
"Your job as teacher is to give this guy material to learn.
197
636000
3000
"თქვენი, როგორც მასწავლებლის მოვალეობაა მისცეთ ამ ბიჭს დასასწავლი მასალა"
10:51
Gets it right, reward him.
198
639000
1000
"სწორად თუ უპასუხებს - დააჯილდოვებთ.
10:52
Gets it wrong, you press a button on the shock box.
199
640000
2000
არასწორად თუ უპასუხებს - ელექტროშოკის ღილაკს დააჭერთ.
10:54
The first button is 15 volts. He doesn't even feel it."
200
642000
3000
პირველი ღილაკია - 15 ვოლტი. ის ვერც კი იგრძნობს."
10:58
That's the key. All evil starts with 15 volts.
201
646000
3000
ეს მნიშვნელოვანია. ყველა ბოროტება იწყება 15 ვოლტიდან.
11:01
And then the next step is another 15 volts.
202
649000
2000
შემდეგი ნაბიჯი - კიდევ 15 ვოლტი.
11:04
The problem is, at the end of the line, it's 450 volts.
203
652000
2000
პრობლემა ისაა, რომ სერიის ბოლოს 450 ვოლტია.
11:06
And as you go along, the guy is screaming,
204
654000
3000
თქვენ აჭერთ ღილაკს და მოსწავლე იწყებს ყვირილს,
11:09
"I've got a heart condition! I'm out of here!"
205
657000
2000
"ავადმყოფი გული მაქვს, მეტი აღარ შემიძლია!"
11:11
You're a good person. You complain.
206
659000
2000
თქვენ კარგი ადამიანი ხართ. თქვენ ჩივით:
11:13
"Sir, who's going to be responsible if something happens to him?"
207
661000
2000
"სერ, ვინ არის პასუხისმგებელი მას რამე რომ მოუვიდეს?"
11:15
The experimenter says, "Don't worry, I will be responsible.
208
663000
3000
ექსპერიმენტატორი გპასუხობთ, "ნუ წუხართ, მე ვარ პასუხისმგებელი.
11:18
Continue, teacher."
209
666000
1000
განაგრძეთ, მასწავლებელო".
11:19
And the question is, who would go all the way to 450 volts?
210
667000
4000
ჩნდება კითხვა: ვინ ავა 450 ვოლტამდე?
11:24
You should notice here, when it gets up to 375,
211
672000
2000
უნდა აღინიშნოს, რომ 375 ვოლტზე არის წარწერა:
11:26
it says, "Danger. Severe Shock."
212
674000
1000
"საშიშია, შოკი".
11:28
When it gets up to here, there's "XXX" -- the pornography of power.
213
676000
3000
როდესაც აქ ადის, წერია "XXX"- ძალაუფლების პორნოგრაფია.
11:31
(Laughter)
214
679000
1000
(სიცილი)
11:32
So Milgram asks 40 psychiatrists,
215
680000
1000
მილგრემმა ჰკითხა 40 ფსიქიატრს,
11:33
"What percent of American citizens would go to the end?"
216
681000
3000
"ამერიკელ მოქალაქეთა რამდენი პროცენტი ავა ბოლომდე?"
11:37
They said only one percent. Because that's sadistic behavior,
217
685000
3000
მათ უპასუხეს, რომ მხოლოდ ერთი პროცენტი. რადგან ეს სადისტური ქცევაა.
11:40
and we know, psychiatry knows, only one percent of Americans are sadistic.
218
688000
3000
ჩვენ ვიცით, ფსიქიატრებმა იციან, რომ ამერიკელთა მხოლოდ 1%-ია სადისტი.
11:44
OK. Here's the data. They could not be more wrong.
219
692000
4000
კარგი. აი მონაცემები. აქ ალბათ შეცდომაა.
11:48
Two thirds go all the way to 450 volts. This was just one study.
220
696000
5000
ორი მესამედი ავიდა 450 ვოლტამდე. და ეს მხოლოდ ერთი ექსპერიმენტი იყო.
11:53
Milgram did more than 16 studies. And look at this.
221
701000
3000
მილგრემმა 16-ზე მეტი ექსპერიმენტი ჩაატარა. და შეხედეთ ამას.
11:56
In study 16, where you see somebody like you go all the way,
222
704000
4000
მე-16 ექსპერიმენტი, თუ ხედავთ თქვენსს მსგავსს, რომელიც მიდის საზღვრამდე,
12:00
90 percent go all the way. In study five, if you see people rebel, 90 percent rebel.
223
708000
6000
90% მიდის ბოლომდე. მეხუთე ექსპერიმენტში, თუ ხედავთ ერთ ამბოხებულს, 90% შეეწინააღმდეგა.
12:06
What about women? Study 13 -- no different than men.
224
714000
3000
რა ხდება ქალებთან? მე-13 ექსპერიმენტი - არ განსხვავდებიან კაცებისგან.
12:10
So Milgram is quantifying evil as the willingness of people
225
718000
3000
ასე რომ, მილგრემმა განსაზღვრა ბოროტება, როგორც ადამიანების სურვილი,
12:13
to blindly obey authority, to go all the way to 450 volts.
226
721000
3000
ბრმად დაემორჩილონ ავტორიტეტს, მივიდნენ 450 ვოლტამდე.
12:16
And it's like a dial on human nature.
227
724000
2000
ეს ადამიანური ბუნების სამართავია.
12:18
A dial in a sense that you can make almost everybody totally obedient,
228
726000
4000
თქვენ შეგიძლიათ თითქმის ყველა გახადოთ აბსოლუტურად მორჩილი,
12:23
down to the majority, down to none.
229
731000
2000
უმრავლესობა, უკანასკნელ ადამიანამდე.
12:25
So what are the external parallels? For all research is artificial.
230
733000
4000
სადაა გადაკვეთა ცხოვრებასთან? ყველა კვლევა ხელოვნურია.
12:29
What's the validity in the real world?
231
737000
1000
როგორ უკავშირდებიან ისინი რეალობას?
12:30
912 American citizens committed suicide or were murdered
232
738000
4000
ა.შ.შ.-ს 912-მა მოქალაქემ მოიკლა თავი, ან მოკლული იქნა ოჯახის ან
12:34
by family and friends in Guyana jungle in 1978,
233
742000
3000
მეგობრის მიერ გაიანის ჯუნგლებში, 1978 წელს.
12:37
because they were blindly obedient to this guy, their pastor --
234
745000
3000
რადგანაც ისინი ბრმად დაემორჩილნენ ამ კაცს -მათ პასტორს -
12:40
not their priest -- their pastor, Reverend Jim Jones.
235
748000
2000
-არა მღვდელს, არამედ პასტორს - ღირს ჯიმ ჯონსს.
12:42
He persuaded them to commit mass suicide.
236
750000
3000
მან აიძულა ისინი ჩაედინათ მასიური თვითმკვლელობა.
12:46
And so, he's the modern Lucifer effect,
237
754000
1000
ის არის თანამედროვე ლუციფერის ეფექტი.
12:47
a man of God who becomes the Angel of Death.
238
755000
3000
ღვთის ადამიანი, რომელიც სიკვდილის ანგელოზი ხდება.
12:52
Milgram's study is all about individual authority to control people.
239
760000
4000
მილგრემის კვლევა - როგორ აკონტროლებს ხალხს ინდივიდის ავტორიტეტი.
12:56
Most of the time, we are in institutions,
240
764000
3000
ცხოვრების დიდ ნაწილს ჩვენ სხვადასხვა კოლექტივში, ორგანიზაციაში ვატარებთ.
13:00
so the Stanford Prison Study is a study of the power of institutions
241
768000
3000
და სტენფორდის ციხის ექსპერიმენტი იკვლევდა ორგანიზაციის ძალაუფლების
13:03
to influence individual behavior.
242
771000
2000
გავლენას ინდივიდის ქცევაზე.
13:05
Interestingly, Stanley Milgram and I were in the same high school class
243
773000
3000
საინტერესოა, სტენლი მილგრემი და მე ერთ კლასში ვიყავით
13:08
in James Monroe in the Bronx, 1954.
244
776000
3000
ჯეიმს მონროს სახელობის სკოლაში, ბრონქსში, 1954 წელს.
13:13
So this study, which I did
245
781000
1000
ეს კვლევა, რომელიც მე ჩავატარე
13:14
with my graduate students, especially Craig Haney --
246
782000
2000
ჩემს კურსდამთავრებულებთან ერთად, - განსაკუთრებით კრეიგ ჰანისთან-
13:16
we also began work with an ad.
247
784000
1000
ჩვენც ასევე დავიწყეთ საგაზეთო განცხადებით.
13:17
We didn't have money, so we had a cheap, little ad,
248
785000
2000
ჩვენ არ გვქონდა ფული, ამიტომ იაფი, პატარა განცხადება გვქონდა,
13:19
but we wanted college students for a study of prison life.
249
787000
3000
ჩვენ გვინდოდა კოლეჯის სტუდენტები ციხის ცხოვრების შესასწავლად.
13:22
75 people volunteered, took personality tests.
250
790000
3000
75-მა მოხალისემ შეავსო პიროვნების ტესტები.
13:25
We did interviews. Picked two dozen:
251
793000
2000
ჩავატარეთ ინტერვიუები. შევარჩიეთ 12:
13:27
the most normal, the most healthy.
252
795000
1000
ყველაზე ნორმალური, ყველაზე ჯანმრთელი.
13:29
Randomly assigned them to be prisoner and guard.
253
797000
2000
შემთხვევით გავანაწილეთ ისინი პატიმრებად და ზედამხედველებად.
13:31
So on day one, we knew we had good apples.
254
799000
2000
ასე რომ, დასაწყისში, ჩვენ ვიცოდით, რომ ყველა კარგი იყო, გვქონდა 'კარგი ვაშლები'.
13:33
I'm going to put them in a bad situation.
255
801000
2000
მე ვაპირებდი მომეთავსებინა ისინი ცუდ სიტუაციაში.
13:35
And secondly, we know there's no difference
256
803000
2000
გარდა ამისა, ჩვენ ვიცოდით, რომ ზედამხედველებსა და
13:38
between the boys who are going to be guards
257
806000
1000
პატიმრებს შორის არ იყო
13:39
and the boys who are going to be prisoners.
258
807000
1000
არანაირი განსხვავება.
13:41
The kids who were going to be prisoners,
259
809000
1000
პატიმრებს ვუთხარით: "მოიცადეთ საერთო საცხოვრებელში,
13:42
we said, "Wait at home in the dormitories. The study will begin Sunday."
260
810000
2000
ექსპერიმენტი დაიწყება კვირას".
13:45
We didn't tell them
261
813000
1000
ჩვენ მათ არ ვუთხარით, რომ მოვილაპარაკეთ პოლიციასთან
13:46
that the city police were going to come and do realistic arrests.
262
814000
36000
და მათ რეალურად დააპატიმრებდნენ.
14:22
(Video) Student: A police car pulls up in front, and a cop comes to the front door,
263
850000
6000
(ვიდეო) სტუდენტი:"მოვიდა პოლიციის მანქანა, გადმოვიდა პოლიციელი, დააკაკუნა კარზე,
14:28
and knocks, and says he's looking for me.
264
856000
2000
და ამბობს, რომ მე მეძებს.
14:30
So they, right there, you know, they took me out the door,
265
858000
2000
მათ გამიყვანეს საერთო საცხოვრებლიდან,
14:33
they put my hands against the car.
266
861000
3000
მაყენებენ მანქანასთან, ფეხები -განზე.
14:36
It was a real cop car, it was a real policeman,
267
864000
2000
ეს ნამდვილი პოლიციის მანქანა იყო, ნამდვილი პოლიციელები.
14:39
and there were real neighbors in the street,
268
867000
1000
ქუჩაში მეზობლები იყვნენ,
14:40
who didn't know that this was an experiment.
269
868000
4000
არ იცოდნენ, რომ ეს ექსპერიმენტი იყო.
14:44
And there was cameras all around and neighbors all around.
270
872000
3000
გარშემო კამერები და მეზობლები იყვნენ.
14:47
They put me in the car, then they drove me around Palo Alto.
271
875000
3000
მათ ჩამსვეს მანქანაში, მთელი პალო ალტო გავიარეთ.
14:52
They took me to the police station,
272
880000
3000
მიმიყვანს განყოფილებაში,
14:55
the basement of the police station. Then they put me in a cell.
273
883000
10000
ჩამიყვანეს სარდაფში და ჩამსვეს საკანში.
15:05
I was the first one to be picked up, so they put me in a cell,
274
893000
2000
მე ვიყავი პირველი, ამიტომ მათ მე ჩამსვეს საკანში,
15:07
which was just like a room with a door with bars on it.
275
895000
4000
რომელიც ოთახივით იყო, მაგრამ გისოსებიანი კარი ჰქონდა.
15:12
You could tell it wasn't a real jail.
276
900000
1000
ცხადი იყო, რომ ეს ნამდვილი ციხე არ იყო.
15:13
They locked me in there, in this degrading little outfit.
277
901000
5000
მათ მე იქ ჩამკეტეს, ამ დამამცირებელ კოსტუმში.
15:19
They were taking this experiment too seriously.
278
907000
2000
ზედმეტად სერიოზულად მიუდგნენ ამ ექსპერიმენტს".
15:21
Philip Zimbardo: Here are the prisoners who are going to be dehumanized.
279
909000
2000
ფილიპ ზიმბარდო: ესენი არიან პატიმრები, რომლებსაც დაამცირებენ,
15:23
They're going to become numbers.
280
911000
1000
ისინი გახდებიან რიცხვები.
15:24
Here are the guards with the symbols of power and anonymity.
281
912000
3000
ესენი არიან ზედამხედველები - ძალაუფლების და ანონიმურობის სიმბოლოებით.
15:27
Guards get prisoners
282
915000
1000
ზედამხედველები აიძულებდნენ პატიმრებს
15:28
to clean the toilet bowls out with their bare hands,
283
916000
2000
შიშველი ხელებით გაესუფთავებინათ უნიტაზები,
15:30
to do other humiliating tasks.
284
918000
2000
შეესრულებინათ ბინძური, დამამცირებელი დავალებები.
15:32
They strip them naked. They sexually taunt them.
285
920000
2000
აიძულებდნენ გაეხადათ. დასცინოდნენ და სექსუალურად ამცირებდნენ.
15:34
They begin to do degrading activities,
286
922000
2000
მათ დამცირების სხვა საშუალებებიც მოიგონეს,
15:36
like having them simulate sodomy.
287
924000
2000
მაგალითად, აიძულებდნენ მამათმავლობის სიმულირებას.
15:38
You saw simulating fellatio in soldiers in Abu Ghraib.
288
926000
3000
თქვენ ნახეთ, აბუ გრეიბში ფელათიოს (ორალური სექსის) სიმულირება.
15:41
My guards did it in five days. The stress reaction was so extreme
289
929000
5000
ჩემმა ზედამხედველება ეს ხუთ დღეში გააკეთეს. სტრესული რეაქცია იყო იმდენად დიდი
15:46
that normal kids we picked because they were healthy
290
934000
2000
რომ ჩვენ მიერ არჩეული ჯანმრთელი, ნორმალური ბავშვები
15:48
had breakdowns within 36 hours.
291
936000
2000
36 საათში გატყდნენ.
15:50
The study ended after six days, because it was out of control.
292
938000
4000
ექსპერიმენტი დასრულდა 6 დღის შემდეგ, რადგან ის კონტროლს აღარ ექვემდებარებოდა.
15:54
Five kids had emotional breakdowns.
293
942000
2000
ხუთ ბიჭს ნერვული შეტევა ჰქონდა.
15:58
Does it make a difference if warriors go to battle
294
946000
2000
აქვს თუ არა მნიშვნელობა, რომ მეომრები
16:00
changing their appearance or not?
295
948000
2000
ომში წასვლისას იცვლიან გარეგნობას?
16:02
Does it make a difference if they're anonymous,
296
950000
1000
აქვს თუ არა გავლენა მათ ანონიმურობას
16:03
in how they treat their victims?
297
951000
2000
იმაზე, თუ როგორ ექცევიან ისინი საკუთარ მსხვერპლს?
16:05
We know in some cultures, they go to war,
298
953000
1000
ჩვენ ვიცით, რომ ზოგიერთ კულტურაში
16:06
they don't change their appearance.
299
954000
1000
მეომრები არ იცვლიან გარეგნობას.
16:07
In other cultures, they paint themselves like "Lord of the Flies."
300
955000
2000
სხვა კულტურებში ისინი იღებებიან როგორც "ბუზთა მბრძანებლები".
16:09
In some, they wear masks.
301
957000
2000
ზოგიერთში - იკეთებენ ნიღბებს.
16:11
In many, soldiers are anonymous in uniform.
302
959000
3000
მრავალ კულტურაში ჯარისკაცებს უნიფორმა ხდის ანონიმურს.
16:14
So this anthropologist, John Watson, found
303
962000
2000
ანთროპოლოგმა ჯონ ვოტსონმა აღმოაჩინა
16:17
23 cultures that had two bits of data.
304
965000
2000
23 კულტურა, რომელსაც ორი მაჩვენებელი ჰქონდა.
16:19
Do they change their appearance? 15.
305
967000
2000
იცვლიან გარეგნობას ბრძოლის წინ? 15.
16:21
Do they kill, torture, mutilate? 13.
306
969000
2000
კლავენ, აწამებენ, ასახიჩრებენ? 13.
16:23
If they don't change their appearance,
307
971000
2000
თუ არ იცვლიან გარეგნობას,
16:25
only one of eight kills, tortures or mutilates.
308
973000
2000
რვიდან მხოლოდ ერთი კლავს, აწამებს ან ასახიჩრებს.
16:27
The key is in the red zone.
309
975000
2000
გასაღები წითელ ზონაშია.
16:29
If they change their appearance,
310
977000
1000
თუ ისინი იცვლიან გარეგნობას,
16:30
12 of 13 -- that's 90 percent -- kill, torture, mutilate.
311
978000
4000
13 დან 12, ანუ 90% -კლავს, აწამებს ან ასახიჩრებს.
16:35
And that's the power of anonymity.
312
983000
1000
და სწორედ ესაა ანონიმურობის ძალაუფლება.
16:36
So what are the seven social processes
313
984000
2000
ასე რომ, რა არის ის შვიდი სოციალური პროცესი,
16:38
that grease the slippery slope of evil?
314
986000
2000
რომელიც ბოროტების ვიწრო სრიალა გზას პოხავს?
16:40
Mindlessly taking the first small step.
315
988000
2000
უყურადღებოდ გადადგმული პირველი პატარა ნაბიჯი.
16:42
Dehumanization of others. De-individuation of Self.
316
990000
3000
სხვების დამცირება. დეინდივიდუაცია - საკუთარი პიროვნებისგან განდგომა.
16:45
Diffusion of personal responsibility. Blind obedience to authority.
317
993000
3000
პიროვნული პასუხისმგებლობის დიფუზია. ავტორიტეტის ბრმა მორჩილება.
16:49
Uncritical conformity to group norms.
318
997000
1000
ჯგუფის ნორმებისადმი უკრიტიკო მორჩილება - კომფორმულობა.
16:50
Passive tolerance to evil through inaction or indifference.
319
998000
3000
ბოროტების პასიური მიღება - უმოქმედობით ან გულგრილობით.
16:54
And it happens when you're in a new or unfamiliar situation.
320
1002000
2000
და ეს ხდება, როდესაც თქვენ ახალ ან უცხო გარემოში ხართ.
16:56
Your habitual response patterns don't work.
321
1004000
2000
თქვენი სტანდარტული ქცევითი რეაქციები არ მუშაობს.
16:59
Your personality and morality are disengaged.
322
1007000
2000
პიროვნება და მორალი ითიშება.
17:01
"Nothing is easier than to denounce the evildoer;
323
1009000
3000
დოსტოევსკიმ თქვა, "არაფერია უფრო ადვილი, ვიდრე ბოროტმოქმედის განსჯა,
17:04
nothing more difficult than understanding him," Dostoyevksy tells us.
324
1012000
3000
და არაფერია უფრო რთული, ვიდრე მისი გაგება. "
17:07
Understanding is not excusing. Psychology is not excuse-iology.
325
1015000
4000
გაგება - არ ნიშნავს პატიებას. ფსიქოლოგია - არ არის მეცნიერება მიტევებაზე.
17:12
So social and psychological research reveals
326
1020000
1000
სოციალური და ფსიქოლოგიური კვლევები ხსნიან,
17:13
how ordinary, good people can be transformed without the drugs.
327
1021000
4000
როგორ იცვლებიან ჩვეულებრივი კარგი ადამიანები ნარკოტიკების გარეშე.
17:17
You don't need it. You just need the social-psychological processes.
328
1025000
3000
ისინი არაა საჭირო. მხოლოდ სოციო-ფსიქოლოგიური პროცესებია საჭირო.
17:20
Real world parallels? Compare this with this.
329
1028000
4000
პარალელები თანამედროვე მსოფლიოდან? შეადარეთ ეს, ამასთან.
17:26
James Schlesinger -- and I'm going to have to end with this -- says,
330
1034000
2000
ჯეიმს სლეზინგერი - და ამით დავასრულებ - ამბობს:
17:28
"Psychologists have attempted to understand how and why
331
1036000
2000
"ფსიქოლოგები ცდილობდნენ გაეგოთ, ჩვეულებრივ ადამიანურად
17:31
individuals and groups who usually act humanely
332
1039000
2000
მოქმედი პიროვნებები ან ჯგუფები, როგორ და რატომ
17:33
can sometimes act otherwise in certain circumstances."
333
1041000
3000
იქცეოდნენ სხვა გარემოებებში სხვანაირად."
17:37
That's the Lucifer effect.
334
1045000
1000
ეს ლუციფერის ეფექტია.
17:38
And he goes on to say, "The landmark Stanford study
335
1046000
2000
ის ამბობს, "სტენფორდის ძალიან მნიშნელოვანი ექსპერიმენტი
17:40
provides a cautionary tale for all military operations."
336
1048000
4000
გვაფრთხილებს ჩვენ თითოეულ სამხედრო ოპერაციაზე".
17:44
If you give people power without oversight,
337
1052000
2000
თუ ადამიანებს მისცემთ ძალაუფლებას ზედამხედველობის გარეშე
17:47
it's a prescription for abuse. They knew that, and let that happen.
338
1055000
3000
ეს ძალადობის რეცეპტია. მათ იცოდნენ ეს, და დაუშვეს, რომ მომხდარიყო.
17:50
So another report, an investigative report by General Fay,
339
1058000
5000
სხვა ანგარიშში, გენერალი ფეის მოხსენებაში
17:55
says the system is guilty. And in this report,
340
1063000
2000
საუბარია, რომ დამნაშავეა სისტემა და მოხსენებაში ის
17:57
he says it was the environment that created Abu Ghraib,
341
1065000
3000
ამბობს, რომ მიზეზი იყო გარემოება, ვითარება, რომელიც აბუ გრეიბში
18:00
by leadership failures that contributed
342
1068000
2000
შეიქმნა ცუდი ხელმძღვანელობის შედეგად, რომელმაც ხელი შეუწყო
18:02
to the occurrence of such abuse,
343
1070000
1000
ასეთი დამცირების განვითარებას
18:03
and the fact that it remained undiscovered
344
1071000
2000
ისევე როგორც იმას, რომ ეს ძალადობა შეუმჩნეველი
18:05
by higher authorities for a long period of time.
345
1073000
2000
იყო უფროსებისთვის დიდი ხნის განმავლობაში.
18:07
Those abuses went on for three months. Who was watching the store?
346
1075000
4000
ეს დამცირება გრძელდებოდა სამი თვის მანძილზე. ვინ ადევნებდა თვალყურს?
18:11
The answer is nobody, and, I think, nobody on purpose.
347
1079000
2000
პასუხია -არავინ და ვფიქრობ, განზრახ.
18:14
He gave the guards permission to do those things,
348
1082000
1000
მათ მისცეს მცველებს სრული თავისუფლება, ეკეთებინათ რაც სურდათ
18:15
and they knew nobody was ever going to come down to that dungeon.
349
1083000
3000
და მათ იცოდნენ, რომ არავინ არასდროს ჩავიდოდა ამ დილეგში.
18:18
So you need a paradigm shift in all of these areas.
350
1086000
3000
უნდა შეიცვალოს ეს პარადიგმა ყველა სფეროში,
18:21
The shift is away from the medical model
351
1089000
2000
მოვშორდეთ სამედიცინო მოდელს,
18:23
that focuses only on the individual.
352
1091000
2000
რომელიც მხოლოდ ინდივიდითაა დაკავებული.
18:25
The shift is toward a public health model
353
1093000
2000
შევცვალოთ ის საზოგადოებრივი ჯანმრთელობის მოდელით,
18:28
that recognizes situational and systemic vectors of disease.
354
1096000
3000
რომელიც ცნობს ავადმყოფობის სიტუაციურ და სისტემურ გამოვლინებებს.
18:31
Bullying is a disease. Prejudice is a disease. Violence is a disease.
355
1099000
4000
დაშინება - დაავადებაა, ცრურწმენა - დაავადებაა. ძალადობა - დაავადებაა.
18:35
And since the Inquisition, we've been dealing with problems
356
1103000
2000
ინკვიზიციის პერიოდიდან ვკურნავდით ამ დაავადებებს
18:37
at the individual level. And you know what? It doesn't work.
357
1105000
3000
ცალკეული პიროვნების დონეზე. და იცით რა? არაფერი არ გამოვიდა.
18:40
Aleksandr Solzhenitsyn says, "The line between good and evil
358
1108000
3000
ალექსანრდ სოლჟენიცინმა თქვა, რომ ზღვარი კეთილსა და ბოროტს შორის
18:43
cuts through the heart of every human being."
359
1111000
2000
თითოეული ადამიანის გულზე გადის.
18:45
That means that line is not out there.
360
1113000
2000
ეს ნიშნავს, რომ საზღვარი გარეთ არ არის.
18:47
That's a decision that you have to make. That's a personal thing.
361
1115000
3000
ესაა გადაწყვეტილება, რომელიც მხოლოდ შენ უნდა მიიღო. ეს პირადი არჩევანია.
18:50
So I want to end very quickly on a positive note.
362
1118000
3000
მინდა ძალიან მალე დავასრულო დადებით ნოტაზე.
18:53
Heroism as the antidote to evil,
363
1121000
2000
გმირობა - ბოროტების შხამსაწინააღმდეგო საშუალებაა.
18:56
by promoting the heroic imagination,
364
1124000
1000
გმირული ქცევების, წარმოსახვების ხელ შეწყობით
18:57
especially in our kids, in our educational system.
365
1125000
3000
განსაკუთრებით ბავშვებში, განათლების სისტემაში.
19:00
We want kids to think, I'm the hero in waiting,
366
1128000
2000
ჩვენს გვსურს, რომ ბავშვები ფიქრობდნენ: 'მე ვარ გმირი, რომელიც თავისი
19:02
waiting for the right situation to come along,
367
1130000
2000
ჟამის მოლოდინშია, ელის როდის იქნება სიტუაცია, როდის მოვა დრო,
19:05
and I will act heroically.
368
1133000
1000
რომ ვიყო გმირი.'
19:06
My whole life is now going to focus away from evil --
369
1134000
2000
აწი მე ვუძღვნი ჩემს ცხოვრებას არა ბოროტების გაგებას,
19:08
that I've been in since I was a kid -- to understanding heroes.
370
1136000
3000
როგორც ამას ბავშვობიდან ვაკეთებდი, არამედ გმირობის გაგებას.
19:11
Banality of heroism
371
1139000
1707
გმირობის ბანალურობა იმაშია, რომ
19:13
is, it's ordinary people who do heroic deeds.
372
1140707
2293
გმირულად იქცევიან ჩვეულებრივი ადამიანები.
19:15
It's the counterpoint to Hannah Arendt's "Banality of Evil."
373
1143000
3000
ეს ჰანნა არენდტის 'ბოროტების ბანალურობის' საპირწონეა.
19:18
Our traditional societal heroes are wrong,
374
1146000
3000
ჩვენი ტიპური გმირები არაფრად ვარგა,
19:21
because they are the exceptions.
375
1149000
1000
რადგან ისინი გამონაკლისები არიან.
19:22
They organize their whole life around this.
376
1150000
2000
ისინი მთელ თავიან ცხოვრებას ამის გარშემო აწყობენ.
19:24
That's why we know their names.
377
1152000
1000
ამიტომაც ვიცით მათი სახელები.
19:25
And our kids' heroes are also wrong models for them,
378
1153000
2000
და ჩვენი შვილების გმირებიც მათი მოდელებია,
19:27
because they have supernatural talents.
379
1155000
2000
რადგან მათ აქვთ ზებუნებრივი შესაძლებლობები, ნიჭი.
19:30
We want our kids to realize most heroes are everyday people,
380
1158000
2000
ჩვენმა შვილებმა უნდა გაიაზრონ, რომ გმირები ჩვეულებრივი ადამიანები არიან
19:32
and the heroic act is unusual. This is Joe Darby.
381
1160000
4000
და გმირობა არა-ჩვეულებრივია.
19:36
He was the one that stopped those abuses you saw,
382
1164000
2000
ეს ჯო დარბია. მან შეაჩერა ის დამცირებები,
19:38
because when he saw those images,
383
1166000
2000
რადგან როცა მან ნახა სურათები
19:40
he turned them over to a senior investigating officer.
384
1168000
3000
ის მაშინვე შეატყობინა უფროს ოფიცერს.
19:43
He was a low-level private, and that stopped it. Was he a hero? No.
385
1171000
3000
ის უბრალო რიგითი იყო და მან შეაჩერა ეს კოშმარი. იყო ის გმირი? არა.
19:47
They had to put him in hiding, because people wanted to kill him,
386
1175000
3000
ის იძულებული იყო დამალულიყო, რადგან უნდოდათ მისი,
19:50
and then his mother and his wife.
387
1178000
1000
მისი დედის და ცოლის მოკვლა.
19:51
For three years, they were in hiding.
388
1179000
2000
ისინი სამი წელი იმალებოდნენ.
19:53
This is the woman who stopped the Stanford Prison Study.
389
1181000
3000
ამ ქალმა შეაჩერა სტენფორდის ციხის ექსპერიმენტი.
19:56
When I said it got out of control, I was the prison superintendent.
390
1184000
3000
როცა ვთქვი, რომ ის კონტროლს აღარ ემორჩილებოდა. მე ვიყავი ციხის ზედამხედველი.
19:59
I didn't know it was out of control. I was totally indifferent.
391
1187000
3000
მე არ ვიცოდი, რომ კონტროლი დავკარგე. ჩემთვის სულერთი იყო.
20:02
She came down, saw that madhouse and said,
392
1190000
2000
მან დაინახა რა სიგიჟეც ხდებოდა და თქვა:
20:04
"You know what, it's terrible what you're doing to those boys.
393
1192000
3000
'ეს საშინელებაა, რასაც უშვრებით ამ ბავშვებს,
20:07
They're not prisoners, they're not guards,
394
1195000
1000
ისინი არც პატიმრები არიან და არც ზედამხედველები,
20:08
they're boys, and you are responsible."
395
1196000
2000
ისინი ბავშვები არიან და ბრალი მხოლოდ თქვენ მიგიძღვით'.
20:11
And I ended the study the next day.
396
1199000
2000
მომდევნო დღეს მე გავაჩერე ექსპერიმენტი.
20:13
The good news is I married her the next year.
397
1201000
2000
კარგი ამბავი - ერთი წლის მერე ვიქორწინე ამ ქალზე.
20:15
(Laughter)
398
1203000
3000
(სიცილი)
20:18
(Applause)
399
1206000
7000
(აპლოდისმენტები)
20:25
I just came to my senses, obviously.
400
1213000
2000
ეს აშაკარა გადაწყვეტილება იყო, რა თქმა უნდა.
20:27
So situations have the power to do, through --
401
1215000
2000
ასე რომ გარემოებას, სიტუაციას აქვს ძალა -
20:31
but the point is, this is the same situation
402
1219000
1000
მაგრამ მნიშვნელოვანია ის, რომ ამავე სიტუაციამ
20:32
that can inflame the hostile imagination in some of us,
403
1220000
4000
შეიძლება გვაქციოს ჩვენ არაადამიანებად, სასტიკებად,
20:36
that makes us perpetrators of evil,
404
1224000
2000
ბოროტმოქმედებად,
20:38
can inspire the heroic imagination in others. It's the same situation.
405
1226000
3000
ან გვიბიძგოს გმირობისკენ. ეს იგივე სიტუაციაა
20:42
And you're on one side or the other.
406
1230000
1000
და შენ ან ერთ მხარეს ხარ, ან - მეორე მახრეს.
20:43
Most people are guilty of the evil of inaction,
407
1231000
2000
ადამიანთა უმრავლესობა დამნაშავეა უმოქმედობის გამო,
20:45
because your mother said, "Don't get involved. Mind your own business."
408
1233000
3000
რადგან დედა გეუბნებოდათ "არ ჩაერიო სხვის საქმეში".
20:48
And you have to say, "Mama, humanity is my business."
409
1236000
3000
და თქვენ უნდა უპასუხოთ "დედა, ადამიანობა, ჰუმანიზმი - ჩემი საქმეა".
20:51
So the psychology of heroism is -- we're going to end in a moment --
410
1239000
2000
ასე, რომ გმირობის ფსიქოლოგია - ახლავე დავამთავრებ -
20:53
how do we encourage children in new hero courses,
411
1241000
4000
ისაა, როგორ წავაქეზებთ, გავამხნევებთ შვილებს ახალ საგმირო კურსებზე
20:57
that I'm working with Matt Langdon -- he has a hero workshop --
412
1245000
3000
რომელებიც მეთ ლენგდონთან ერთად შევიმუშავე, მას გმირობის მასტერ-კლასი აქვს
21:00
to develop this heroic imagination, this self-labeling,
413
1248000
3000
რათა განავითაროს ბავშვებში გმირული წარმოსახვა, მათ უთხრან საკუთარ თავს:
21:03
"I am a hero in waiting," and teach them skills.
414
1251000
3000
''მე ვარ გმირი, რომელიც თავის ჟამს ელის" და ასწავლოს მათ იყვნენ გმირები.
21:06
To be a hero, you have to learn to be a deviant,
415
1254000
2000
რომ გახდე გმირი, უნდა ისწავლო იყო დევიანტი, ნორმის დამარღვევი,
21:09
because you're always going against the conformity of the group.
416
1257000
2000
რადგან შენ ყოველთვის ჯგუფის კონფორმულობის, უმრავლესობის წინააღმდეგ მიდიხარ.
21:11
Heroes are ordinary people whose social actions are extraordinary. Who act.
417
1259000
4000
გმირები არიან ჩვეულებრივი ადამიანები, რომელთა ქმედებებიც განსაკუთრებულია. რომლებიც მოქმედებენ.
21:15
The key to heroism is two things.
418
1263000
2000
გმირობას ახასიათებს ორი მთავარი მომენტი:
21:17
A: you've got to act when other people are passive.
419
1265000
2000
A: უნდა იმოქმედო, როცა სხვები პასიურობენ.
21:20
B: you have to act socio-centrically, not egocentrically.
420
1268000
3000
B: უნდა იმოქმედო სოციუმის საკეთილდღეოდ და არა საკუთარი თავის.
21:23
And I want to end with the story that some of you know,
421
1271000
2000
მინდა დავასრულო ერთი ისტორიით, რომელიც ზოგიერთმა იცით,
21:25
about Wesley Autrey, New York subway hero.
422
1273000
2000
ვესლი ოტრი, ნიუ-იორკის მეტროს გმირი.
21:27
Fifty-year-old African-American construction worker.
423
1275000
2000
50 წლის, აფრო-ამერიკელი მშენებელი.
21:29
He's standing on a subway in New York.
424
1277000
2000
ის ნიუ-იორკში, მეტროს ბაქანზე იდგა
21:31
A white guy falls on the tracks.
425
1279000
1000
და თეთრკანიანი ბიჭი, გვერდით მდგომი, დაეცა რელსებზე.
21:32
The subway train is coming. There's 75 people there.
426
1280000
3000
მოდიოდა მატარებელი. იქ იყო 75 ადამიანი.
21:35
You know what? They freeze.
427
1283000
1000
იცით რა ქნეს მათ? გაშეშდნენ ადგილზე.
21:36
He's got a reason not to get involved.
428
1284000
2000
მას ჰქონდა მიზეზი არ ჩარეულიყო.
21:38
He's black, the guy's white, and he's got two little kids.
429
1286000
2000
ბიჭი თეთრკანიანია, თვითონ შავკანიანი, ორ ბავშვთან ერთადაა.
21:41
Instead, he gives his kids to a stranger,
430
1289000
1000
ამის ნაცვლად, მან ბავშვები ჩააბარა უცნობს,
21:42
jumps on the tracks, puts the guy between the tracks,
431
1290000
3000
ჩახტა ქვემოთ, ბიჭი რელსებს შორის დააწვინა,
21:45
lies on him, the subway goes over him.
432
1293000
2000
თვითონ გადაეფარა ზემოდან. მატარებელმა გაიარა.
21:47
Wesley and the guy -- 20 and a half inches height.
433
1295000
3000
ვესლი და ის ბიჭი - მიწიდან 20 ინჩში იყვნენ.
21:51
The train clearance is 21 inches.
434
1299000
2000
მატარებლიდან მიწამდე კი - 21 ინჩია.
21:53
A half an inch would have taken his head off.
435
1301000
2000
ნახევარი ინჩით ზემოთ და მას თავს წააცლიდა.
21:56
And he said, "I did what anyone could do,"
436
1304000
3000
და ის ამბობს: "ყველას შეუძლია ასე".
21:59
no big deal to jump on the tracks.
437
1307000
1000
არაფერია განსაკუთრებული, მატარებლის წინ რელსებზე რომ ჩახტე.
22:00
And the moral imperative is "I did what everyone should do."
438
1308000
4000
მორალური იმპერატივი კი ასეთია: "ყველა უნდა იქცეოდეს ასე"
22:04
And so one day, you will be in a new situation.
439
1312000
2000
ასე რომ ერთ დღეს, თქვენ აღმოჩნდებით ახალ სიტუაციაში.
22:07
Take path one, you're going to be a perpetrator of evil.
440
1315000
2000
აირჩევთ პირველ გზას - თქვენ გახდებით ბოროტმოქმედი.
22:09
Evil, meaning you're going to be Arthur Andersen.
441
1317000
3000
ბოროტი - თქვენ იქნებით არტურ ანდერსონი.
22:12
You're going to cheat, or you're going to allow bullying.
442
1320000
2000
თქვენ მოიტყუებით, მისცემთ დაშინების უფლებას,
22:14
Path two, you become guilty of the evil of passive inaction.
443
1322000
2000
მეორე გზა - თქვენ იქნებით დამნაშავე უმოქმედობის გამო.
22:17
Path three, you become a hero.
444
1325000
1000
მესამე გზა - თქვენ გახდებით გმირი.
22:18
The point is, are we ready to take the path
445
1326000
3000
საქმე იმაშია, ვართ კი მზად, რომ წავიდეთ ამ გზით,
22:21
to celebrating ordinary heroes,
446
1329000
2000
უბრალო გმირების გზით,
22:23
waiting for the right situation to come along
447
1331000
2000
ველოდოთ სწორ სიტუაციას,
22:25
to put heroic imagination into action?
448
1333000
2000
რათა ჩავრთოთ ჩვენი გმირული წარმოსახვა?
22:27
Because it may only happen once in your life,
449
1335000
3000
რადგან, ცხოვრებამ შესაძლოა მხოლოდ ერთი შანსი მოგცეთ
22:31
and when you pass it by, you'll always know,
450
1339000
1000
და თუ თქვენ მას ხელიდან გაუშვებთ, სამუდამოდ დაკარგავთ.
22:32
I could have been a hero and I let it pass me by.
451
1340000
3000
მთელი ცხოვრება იფიქრებთ - მე შემეძლო ვყოფილიყავი გმირი და ვერ გამოვიყენე ეს შესაძლებლობა.
22:35
So the point is thinking it and then doing it.
452
1343000
2000
ასე რომ, დაფიქრდით და გააკეთეთ ეს!
22:37
So I want to thank you. Thank you. Thank you.
453
1345000
3000
დიდი მადლობა მინდა გადაგიხადოთ,
22:40
Let's oppose the power of evil systems at home and abroad,
454
1348000
3000
მოდით დავუპირისპირდეთ ბოროტ სისტემებს სახლში და ყველგან
22:43
and let's focus on the positive.
455
1351000
2000
და ყურადღება მივმართოთ დადებითისკენ.
22:45
Advocate for respect of personal dignity, for justice and peace,
456
1353000
3000
დავიცვათ ღისება, სამართლიანობა და მშვიდობა,
22:48
which sadly our administration has not been doing.
457
1356000
2000
რასაც სამწუხაროდ ჩენი მთავრობა არ აკეთებს.
22:50
Thanks so much.
458
1358000
1000
დიდი მადლობა
22:51
(Applause)
459
1359000
13000
(აპლოდისმენტები)
Translated by Kate Mchedlishvili
Reviewed by Razmik Badalyan

▲Back to top

ABOUT THE SPEAKER
Philip Zimbardo - Psychologist
Philip Zimbardo was the leader of the notorious 1971 Stanford Prison Experiment -- and an expert witness at Abu Ghraib. His book The Lucifer Effect explores the nature of evil; now, in his new work, he studies the nature of heroism.

Why you should listen

Philip Zimbardo knows what evil looks like. After serving as an expert witness during the Abu Ghraib trials, he wrote The Lucifer Effect: Understanding How Good People Turn Evil. From Nazi comic books to the tactics of used-car salesmen, he explores a wealth of sources in trying to explain the psychology of evil.

A past president of the American Psychological Association and a professor emeritus at Stanford, Zimbardo retired in 2008 from lecturing, after 50 years of teaching his legendary introductory course in psychology. In addition to his work on evil and heroism, Zimbardo recently published The Time Paradox, exploring different cultural and personal perspectives on time.

Still well-known for his controversial Stanford Prison Experiment, Zimbardo in his new research looks at the psychology of heroism. He asks, "What pushes some people to become perpetrators of evil, while others act heroically on behalf of those in need?"

More profile about the speaker
Philip Zimbardo | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee