ABOUT THE SPEAKER
Clay Shirky - Social Media Theorist
Clay Shirky argues that the history of the modern world could be rendered as the history of ways of arguing, where changes in media change what sort of arguments are possible -- with deep social and political implications.

Why you should listen

Clay Shirky's work focuses on the rising usefulness of networks -- using decentralized technologies such as peer-to-peer sharing, wireless, software for social creation, and open-source development. New technologies are enabling new kinds of cooperative structures to flourish as a way of getting things done in business, science, the arts and elsewhere, as an alternative to centralized and institutional structures, which he sees as self-limiting. In his writings and speeches he has argued that "a group is its own worst enemy."

Shirky is an adjunct professor in New York Universityʼs graduate Interactive Telecommunications Program, where he teaches a course named “Social Weather.” Heʼs the author of several books. This spring at the TED headquarters in New York, he gave an impassioned talk against SOPA/PIPA that saw 1 million views in 48 hours.

More profile about the speaker
Clay Shirky | Speaker | TED.com
TED@Cannes

Clay Shirky: How cognitive surplus will change the world

Քլեյ Շիրկի․ Թե ինչպես կոգնիտիվ ավելցուկը կփոխի աշխարհը

Filmed:
1,065,787 views

Քլեյ Շիրկին դիտարկում է «կոգնիտիվ ավելցուկը»՝ համատեղ առցանց աշխատանքը, որը մենք կատարում ենք մեր ուղեղի ազատ ժամանակի հաշվին։ Wikipedia-ն խմբագրելով կամ Ushahidi-ում գրառում կատարելով (ինչպես նաև LOLcats պատրաստելով), մենք կառուցում ենք ավելի լավ աշխարհ։
- Social Media Theorist
Clay Shirky argues that the history of the modern world could be rendered as the history of ways of arguing, where changes in media change what sort of arguments are possible -- with deep social and political implications. Full bio

Double-click the English transcript below to play the video.

00:16
The story starts in Kenya
0
1000
2000
Այս պատմությունը սկիզբ է առնում Քենիայում
00:18
in December of 2007,
1
3000
2000
2007-ի դեկտեմբերին,
00:20
when there was a disputed presidential election,
2
5000
2000
երբ այնտեղ նախագահական ընտրությունները վիճարկվեցին։
00:22
and in the immediate aftermath of that election,
3
7000
3000
Ընտրությունների անմիջական հետևանքով
00:25
there was an outbreak of ethnic violence.
4
10000
2000
այնտեղ էթնիկ բռնության պայթյուն տեղի ունեցավ։
00:27
And there was a lawyer in Nairobi, Ory Okolloh --
5
12000
3000
Նայրոբիում կար մի իրավաբան՝ Օրի Օկոլոհ,
00:30
who some of you may know from her TEDTalk --
6
15000
2000
որին ձեզանից մի մասը ճանաչում է իր TED ելույթից,
00:32
who began blogging about it on her site,
7
17000
2000
նա սկսեց բլոգ վարել իր կայքում
00:34
Kenyan Pundit.
8
19000
2000
Kenyan Pundit անունով։
00:36
And shortly after the election and the outbreak of violence,
9
21000
3000
Ընտրություններից և էթնիկ բռնության պայթյունից հետո
00:39
the government suddenly imposed
10
24000
2000
կառավարությունը հանկարծակի հարկադրեց,
00:41
a significant media blackout.
11
26000
2000
որ լրատվամիջոցները ընդհատեն իրենց գործունեությունը։
00:43
And so weblogs went from being
12
28000
2000
Եվ այդպիսով, բլոգերը փոխեցին
00:45
commentary as part of the media landscape
13
30000
2000
իրենց զուտ մեկնաբանական բնույթը
00:47
to being a critical part of the media landscape
14
32000
3000
և դարձան լրատվական աշխարհի կարևոր մասը,
00:50
in trying to understand where the violence was.
15
35000
3000
փորձելով հասկանալ, թե որտեղ է տեղի ունենում բռնություն։
00:53
And Okolloh solicited
16
38000
2000
Եվ Օկոլլոն ստացավ
00:55
from her commenters
17
40000
2000
ավելի շատ տեղեկատվություն, այն մասին
00:57
more information about what was going on.
18
42000
2000
թե ինչ է կատարվում կայքում մեկնաբանություններ անող մարդկանցից։
00:59
The comments began pouring in,
19
44000
2000
Սկսվեց մեկնաբանությունների հոսքը։
01:01
and Okolloh would collate them. She would post them.
20
46000
2000
Օկոլոն բաղդատում էր դրանք, և տեղադրում կայքում։
01:03
And she quickly said, "It's too much.
21
48000
2000
Բայց շուտով նա ասեց․ «Սա չափազանց շատ է։
01:05
I could do this all day every day
22
50000
2000
Ես կարող եմ ամեն օր ամբողջ օրը սրանով զբաղվել
01:07
and I can't keep up.
23
52000
2000
և միևնույնն է չհասցնել։
01:09
There is more information
24
54000
2000
Այս պահին այնքան շատ տեղեկատվություն կա
01:11
about what's going on in Kenya right now
25
56000
2000
Քենիայում տեղի ունեցող դեպքերի մասին,
01:13
than any one person can manage.
26
58000
2000
որ որևէ մեկը չի կարող դա կառավարել։
01:15
If only there was a way to automate this."
27
60000
2000
Եթե միայն ձև գտնվեր ավտոմատացնել այս ամենը»։
01:17
And two programmers who read her blog
28
62000
2000
Եվ երկու ծրագրավորող, որոնք ընթերցում էին նրա բլոգը,
01:19
held their hands up and said, "We could do that,"
29
64000
3000
բարձրացրեցին իրենց ձեռքերը և ասցին.«Մենք կարող ենք դա անել»։
01:22
and in 72 hours, they launched Ushahidi.
30
67000
3000
Եվ 72 ժամ անց, նրանք մեկնարկեցին Ushahidi-ին։
01:25
Ushahidi -- the name means "witness"
31
70000
2000
Ushahidi նշանակում է «վկա»
01:27
or "testimony" in Swahili --
32
72000
2000
կամ «վկայություն»,
01:29
is a very simple way of taking reports from the field,
33
74000
3000
դեպքերի մասին հաղորդագրություններ տրամադրելու պարզ ձև է,
01:32
whether it's from the web or, critically,
34
77000
3000
լինի դա վեբկայքերից, թե
01:35
via mobile phones and SMS,
35
80000
2000
բջջային հեռախոսներից՝ SMS-ների տեսքով,
01:37
aggregating it and putting it on a map.
36
82000
3000
այս ամենը միացվում է իրար և տեղադրվում քարտեզի վրա։
01:40
That's all it is, but that's all that's needed
37
85000
2000
Ընդհամենը այդքանը, բայց հենց այդ էլ պահանջվում է։
01:42
because what it does is it takes the tacit information
38
87000
3000
Արվում է հետևյալը. վերցվում է ամբողջ տեղեկատվությունը,
01:45
available to the whole population --
39
90000
2000
որը հասանելի է բնակչությանը,
01:47
everybody knows where the violence is,
40
92000
2000
բոլորը գիտեն որտեղ է բռնություն կատարում,
01:49
but no one person knows what everyone knows --
41
94000
3000
բայց ոչ մեկ չգիտի, թե ինչ գիտեն բոլորը այդ ամենի մասին,
01:52
and it takes that tacit information
42
97000
2000
և այսպիսով, այն վերցնում է տեղեկատվությունը
01:54
and it aggregates it,
43
99000
2000
միավորում այն,
01:56
and it maps it and it makes it public.
44
101000
2000
տեղադրում քարտեզի վրա և հանրային դարձնում։
01:58
And that, that maneuver
45
103000
2000
Եվ այդ միջոցը,
02:00
called "crisis mapping,"
46
105000
2000
որը կոչվում է «ճգնաժամային քարտեզագրում»
02:02
was kicked off in Kenya
47
107000
3000
սկիզբ առավ Քենիայում
02:05
in January of 2008.
48
110000
2000
2008 թ-ի հունվարին։
02:07
And enough people looked at it and found it valuable enough
49
112000
3000
Բավականին քանակությամբ մարդ օգտվեց դրանից և արժեքավորեց այն,
02:10
that the programmers who created Ushahidi
50
115000
2000
և ծրագրավորողները, որոնք ստեղծել էին Ushahidi-ին,
02:12
decided they were going to make it open source
51
117000
2000
որոշեցին այն բաց կոդի վերածել,
02:14
and turn it into a platform.
52
119000
2000
և պլատֆորմ դարձնել։
02:16
It's since been deployed in Mexico
53
121000
2000
Դրանից հետո այն օգտագործվել է Մեքսիկայում
02:18
to track electoral fraud.
54
123000
2000
ընտրական կեղծիքներին հետևելու համար։
02:20
It's been deployed in Washington D.C. to track snow cleanup.
55
125000
3000
Այն օգտագործվել է Վաշինգտոնում ձյուն մաքրելու աշխատանքներին հետևելու համար։
02:23
And it's been used most famously in Haiti
56
128000
2000
Եվ կայքի ամենահայտնի օգտագործումը Հաիթիում
02:25
in the aftermath of the earthquake.
57
130000
3000
երկրաշարժից անմիջապես հետո էր։
02:28
And when you look at the map
58
133000
2000
Եվ երբ նայում եք քարտեզին,
02:30
now posted on the Ushahidi front page,
59
135000
2000
որն այժմ տեղադրված է Ushahidi-ի առաջին էջի վրա,
02:32
you can see that the number of deployments in Ushahidi
60
137000
2000
դուք կարող եք տեսնել, որ Ushahidi-ին օգտագործվում է
02:34
has gone worldwide, all right?
61
139000
3000
ամբողջ աշխարհում, ճի՞շտ է։
02:37
This went from a single idea
62
142000
2000
Այն սկսվեց մեկ գաղափարից
02:39
and a single implementation
63
144000
2000
և մեկ իրագործումից
02:41
in East Africa in the beginning of 2008
64
146000
3000
Արևելյան Աֆրիկայում 2008թ-ի սկզբին,
02:44
to a global deployment
65
149000
2000
և գլոբալ օգտագործում գտավ
02:46
in less than three years.
66
151000
3000
երեք տարուց պակաս ժամկետում։
02:49
Now what Okolloh did
67
154000
3000
Այն ինչ արեց Օկոլոն
02:52
would not have been possible
68
157000
2000
հնարավոր չէր լինի անել
02:54
without digital technology.
69
159000
3000
առանց թվային տեխնոլոգիաների։
02:57
What Okolloh did would not have been possible
70
162000
3000
Այն ինչ արեց Օկոլոն հնարավոր չէր լինի անել
03:00
without human generosity.
71
165000
2000
առանց մարդկային մեծահոգության։
03:02
And the interesting moment now,
72
167000
2000
Հետաքրքիրն այն է,
03:04
the number of environments
73
169000
2000
որ մի շարք միջավայրերում,
03:06
where the social design challenge
74
171000
2000
սոցիալական մարտահրավերները
03:08
relies on both of those things being true.
75
173000
3000
կարող են լուծում գտնել միայն երբ կան այդ երկուսը։
03:11
That is the resource that I'm talking about.
76
176000
3000
Սա այն ռեսուրսն է, որի մասին խոսում եմ։
03:14
I call it cognitive surplus.
77
179000
2000
Ես անվանում են այն կոգնիտիվ ավելցուկ։
03:16
And it represents the ability
78
181000
2000
Եվ այն ներկայացնում է
03:18
of the world's population
79
183000
2000
աշխարհի բնակչության կարողությունը
03:20
to volunteer and to contribute and collaborate
80
185000
3000
կամավոր աշխատել, աջակցել և համագործակցել
03:23
on large, sometimes global, projects.
81
188000
3000
մեծ, երբեմն գլոբալ ծրագրերի շուրջ։
03:26
Cognitive surplus is made up of two things.
82
191000
2000
Կոգնիտիվ ավելցուկը բաղկացած է երկու բանից։
03:28
The first, obviously, is the world's free time and talents.
83
193000
3000
Առաջինը, ակնհայտորեն, մարդկանց ազատ ժամանակն ու տաղանդն է։
03:31
The world has over
84
196000
2000
Աշխարհում կա ավելի քան
03:33
a trillion hours a year
85
198000
3000
երեք տրիլիոն ազատ ժամ
03:36
of free time
86
201000
2000
մեկ տարվա մեջ
03:38
to commit to shared projects.
87
203000
2000
համատեղ ծրագրերի համար։
03:40
Now, that free time existed in the 20th century,
88
205000
2000
Այդ ազատ ժամանակը գոյություն ուներ 20-րդ դարում,
03:42
but we didn't get Ushahidi in the 20th century.
89
207000
3000
բայց 20-րդ դարում մենք չունեինք Ushahidi։
03:45
That's the second half of cognitive surplus.
90
210000
2000
Դա կոգնիտիվ ավելցուկի երկրորդ մասն է։
03:47
The media landscape in the 20th century
91
212000
2000
20-րդ դարում լրատվությունը
03:49
was very good at helping people consume,
92
214000
3000
օգնում էր մարդկանց սպառել։
03:52
and we got, as a result,
93
217000
2000
Եվ որպես արդյունք, մենք շատ լավ
03:54
very good at consuming.
94
219000
2000
սովորեցինք սպառել։
03:56
But now that we've been given media tools --
95
221000
2000
Բայց այժմ, երբ մեզ տրվել են լրատվական գործիքներ,
03:58
the Internet, mobile phones -- that let us do more than consume,
96
223000
3000
ինտերնետ, բջջային հեռախոսներ, դա թույլ է տալիս մեզ ավելին անել,
04:01
what we're seeing is that people weren't couch potatoes
97
226000
3000
մենք տեսնում ենք, որ մարդիկ ծույլ էին, ոչ թե այն պատճառով,
04:04
because we liked to be.
98
229000
2000
որ նրանց դուր էր գալիս ոչինչ չանել։
04:06
We were couch potatoes because that was
99
231000
2000
Մենք ծույլ էինք, որովհետև,
04:08
the only opportunity given to us.
100
233000
2000
դա միակ հնարավորությունն էր, որ մեզ տրվել էր։
04:10
We still like to consume, of course.
101
235000
2000
Իհարկե մեզ այժմ նույնպես դուր է գալիս սպառել։
04:12
But it turns out we also like to create,
102
237000
2000
Բայց պարզվում է, որ մեզ նաև դուր է գալիս ստեղծել,
04:14
and we like to share.
103
239000
3000
և մեզ դուր է գալիս կիսվել մարդկանց հետ։
04:17
And it's those two things together --
104
242000
2000
Եվ այդ երկուսը միասին,
04:19
ancient human motivation
105
244000
2000
հնագույն մարդկային մոտիվացիան
04:21
and the modern tools to allow that motivation
106
246000
2000
և ժամանակակից գործիքներն են, որ մոտիվացիա են հանդիսանում
04:23
to be joined up in large-scale efforts --
107
248000
3000
դրանք միավորելու համար որպիսի խոշոր ծրագրեր իրականացնեն
04:26
that are the new design resource.
108
251000
3000
և հենց դրանք են նորագույն ռեսուրսները։
04:29
And using cognitive surplus,
109
254000
2000
Օգտագործելով կոգնիտիվ ավելցուկը
04:31
we're starting to see truly incredible experiments
110
256000
3000
մենք սկսում ենք տեսնել զարմանահրաշ արդյունքներ
04:34
in scientific, literary,
111
259000
2000
գիտական, գրական,
04:36
artistic, political efforts.
112
261000
3000
գեղարվեստական, քաղաքական ոլորտներում։
04:39
Designing.
113
264000
2000
Դիզայնի մեջ։
04:41
We're also getting, of course, a lot of LOLcats.
114
266000
3000
Մենք նաև իհարկե ստանում ենք բազմաթիվ LOLcats-ներ։
04:44
LOLcats are cute pictures of cats
115
269000
2000
LOLcats-ը դրանք կատուների նկարներ են,
04:46
made cuter with the addition of cute captions.
116
271000
3000
որոնց ավելացված է ծիծաղելի գրություններ։
04:49
And they are also
117
274000
2000
Դրանք նույնպես հանդիսանում են
04:51
part of the abundant media landscape we're getting now.
118
276000
3000
հարուստ լրատվական աշխարհի մի մասը ներկայումս։
04:54
This is one of the participatory --
119
279000
2000
Սա հանդիսանում է մասնակցային
04:56
one of the participatory models
120
281000
2000
մոդելներից մեկը,
04:58
we see coming out of that, along with Ushahidi.
121
283000
3000
որն առաջ է եկել Ushahidi-ի հետ մեկտեղ։
05:01
Now I want to stipulate, as the lawyers say,
122
286000
2000
Ես հավաստիացնում ես ձեզ,
05:03
that LOLcats are the stupidest possible
123
288000
2000
որ LOLcats-ը աշխարհի ամենահիմար
05:05
creative act.
124
290000
2000
ստեղծագործական գործունեությունն է։
05:07
There are other candidates of course,
125
292000
2000
Իհարկե կան նաև այլ թեկնածուներ էլ,
05:09
but LOLcats will do as a general case.
126
294000
3000
բայց, որպես օրինակ, կարող ենք դիտարկել LOLcats-ը։
05:12
But here's the thing:
127
297000
2000
Ահա թե ինչումն է բանը։
05:14
The stupidest possible creative act
128
299000
2000
Ամենահիմար ստեղծագործական գործունեությունը
05:16
is still a creative act.
129
301000
3000
անգամ ստեղծագործական գործունեություն է։
05:19
Someone who has done something like this,
130
304000
3000
Ցանկացած մեկը, որ նման բան է արել,
05:22
however mediocre and throwaway,
131
307000
3000
անկախ նրանից, որ դա «թափելու բան է»,
05:25
has tried something, has put something forward in public.
132
310000
3000
նա փորձել է ստեղծել ինչ-որ բան հանրության համար։
05:28
And once they've done it, they can do it again,
133
313000
3000
Եվ, եթե մարդիկ մեկ անգամ նման դա են անում, նրանք կարող են դա կրկին անել։
05:31
and they could work on getting it better.
134
316000
2000
Եվ նրանք կարող են աշխատել այն ավելի լավը դարձնել։
05:33
There is a spectrum between mediocre work and good work,
135
318000
3000
Միջին և լավ աշխատանքի միջև գոյություն ունի սպեկտր։
05:36
and as anybody who's worked as an artist or a creator knows,
136
321000
3000
Եվ ինչպես ցանկացած արվեստագետ կամ ստեղծագործող անձ գիտի
05:39
it's a spectrum you're constantly
137
324000
2000
այդ սպեկտրի վերին մասին հասնելու համար
05:41
struggling to get on top of.
138
326000
2000
անընդհատ պետք է պայքարել:
05:43
The gap is between
139
328000
2000
Տարբերությունը
05:45
doing anything and doing nothing.
140
330000
3000
ինչ-որ բան անելու և ոչինչ չանելու մեջ է։
05:48
And someone who makes a LOLcat
141
333000
2000
Եվ ինչ-որ մեկը, ով պատրաստել է LOLcat
05:50
has already crossed over that gap.
142
335000
3000
արդեն անցել է այդ սահմանը։
05:53
Now it's tempting to want to get the Ushahidis
143
338000
2000
Առանց LOLcats-ի Ushahidi-ին հասնելու միտքը
05:55
without the LOLcats, right,
144
340000
2000
շատ գայթակղիչ է, այդպես չէ՞,
05:57
to get the serious stuff without the throwaway stuff.
145
342000
3000
հասնել լուրջ բաների առանց «զիբիլիով» զբաղվելու։
06:00
But media abundance never works that way.
146
345000
3000
Բայց լրատվամիջոցները երբեք այդպես չեն գործել։
06:03
Freedom to experiment means freedom to experiment with anything.
147
348000
3000
Փորձարկման ազատությունը նշանակում է ազատություն փորձարկելու ցանկացած բան։
06:06
Even with the sacred printing press,
148
351000
2000
Նույնիսկ «սրբազան» տպագիր մամուլի դեպքում
06:08
we got erotic novels 150 years
149
353000
2000
մենք ստացել ենք սիրային պատմվածքներ և 150 տարի հետո միայն
06:10
before we got scientific journals.
150
355000
3000
գիտական ամսագրեր։
06:14
So before I talk about
151
359000
3000
Բայց մինչ ես կխոսեմ
06:17
what is, I think, the critical difference
152
362000
2000
LOLcats-ի և Ushahidi-ի միջև
06:19
between LOLcats and Ushahidi,
153
364000
2000
հիմնական տարբերության մասին,
06:21
I want to talk about
154
366000
2000
ես ուզում եմ խոսել
06:23
their shared source.
155
368000
2000
դրանց ընդհանուր աղբյուրի մասին։
06:25
And that source is design for generosity.
156
370000
3000
Եվ այդ աղբյուրը առատաձեռնությանն է։
06:28
It is one of the curiosities of our historical era
157
373000
3000
Հետաքրքրականն այն է, որ մեր պատմական դարաշրջանում,
06:31
that even as cognitive surplus
158
376000
2000
երբ կոգնիտիվ ավելցուկը
06:33
is becoming a resource we can design around,
159
378000
2000
դառնում է մի ռեսուրս, որ մենք կարող ենք օգտագործել,
06:35
social sciences are also starting to explain
160
380000
3000
հասարակագետները նաև սկսում են բացատրել,
06:38
how important
161
383000
2000
թե որքան կարևոր է
06:40
our intrinsic motivations are to us,
162
385000
2000
ներքին մոտիվացիան,
06:42
how much we do things because we like to do them
163
387000
3000
թե որքան բան ենք մենք անում այն պատճառով, որ սիրում ենք դա անել,
06:45
rather than because our boss told us to do them,
164
390000
2000
և ոչ թե որովհետև մեր տնօրենն է այդպես կարգադրել,
06:47
or because we're being paid to do them.
165
392000
3000
և ոչ էլ որովհետև մենք գումար ենք ստանում դա անելու համար։
06:50
This is a graph from a paper
166
395000
3000
Սա գրաֆիկ է մի հետազոտությունից,
06:53
by Uri Gneezy and Aldo Rustichini,
167
398000
2000
որն իրականացրել են Ուրի Գնեզին և Ալդո Ռաստիչինին,
06:55
who set out to test, at the beginning of this decade,
168
400000
3000
ովքեր այս տանամյակի սկզբին մի փորձ են արել,
06:58
what they called "deterrence theory."
169
403000
2000
որը նրանք անվանել են «հետ պահող տեսություն»։
07:00
And deterrence theory is a very simple theory of human behavior:
170
405000
2000
Հետ պահող տեսությունը մարդկային վարքագծի շատ պարզ տեսություն է։
07:02
If you want somebody to do less of something,
171
407000
2000
Եթե ցանկանում եք, որ ինչ-որ մեկը ինչ-որ մի բան ավելի քիչ անի,
07:04
add a punishment and they'll do less of it.
172
409000
2000
պատիժ մտցրեք, և մարդիկ ավելի քիչ այդ բանը կանեն։
07:06
Simple, straightforward, commonsensical --
173
411000
3000
Պարզ է, շիտակ և իրականությանը մոտ,
07:09
also, largely untested.
174
414000
2000
ինչպես նաև չփորձարկված։
07:11
And so they went and studied
175
416000
2000
Եվ այդպիսով, նրանք ուսումնասիրեցին
07:13
10 daycare centers in Haifa, Israel.
176
418000
2000
10 մանկապարտեզ Երուսաղեմի Հայֆա քաղաքում։
07:15
They studied those daycare centers
177
420000
2000
Նրանք ուսումնասիրեցին այդ մանկապարտեզները
07:17
at the time of highest tension,
178
422000
2000
ամենալարված ժամանակաշրջանում,
07:19
which is pick-up time.
179
424000
2000
որը երեխաներին մանկապարտեզից տուն տանելու ժամանակահատվածն էր։
07:21
At pick-up time the teachers,
180
426000
2000
Երբ մոտենում է երեխաներին տուն տանելու ժամանակը, մանկավարժները,
07:23
who have been with your children all day,
181
428000
2000
որոնք ամբողջ օրն անցկացրել են ձեր երեխաների հետ,
07:25
would like you to be there at the appointed hour to take your children back.
182
430000
3000
ցանկանում են, որ դուք ճիշտ ժամանակին գաք և երեխաներին տանեք տուն։
07:28
Meanwhile, the parents -- perhaps a little busy at work, running late, running errands --
183
433000
3000
Մինչդեռ ծնողները, որոնք միգուցե մի փոքր զբաղված են աշխատանքի վայրում, այլ գործեր ունեն,
07:31
want a little slack to pick the kids up late.
184
436000
3000
ցանկանում են մի փոքր ավելի ուշ երեխաներին վերցնել մանկապարտեզից։
07:34
So Gneezy and Rustichini said,
185
439000
2000
Այսպիսով, Գնիզին և Ռաստիչին հարց տվեցին,
07:36
"How many instances of late pick-ups
186
441000
2000
«Ինչքա՞ն դեպք է գրանցվել 10 մանկապարտեզում,
07:38
are there at these 10 daycare centers?"
187
443000
2000
երբ ծնողներն ուշ են եկել երեխաների հետևից»։
07:40
Now they saw -- and this is what the graph is,
188
445000
2000
Նրանք տեսան, և դա պատկերված է գրաֆիկի վրա,
07:42
these are the number of weeks and these are the number of late arrivals --
189
447000
3000
սրանք շաբաթներն են, սա` ուշ այցերի քանակը,
07:45
that there were between six and 10
190
450000
2000
որ միջին հաշվով եղել է 6-10 դեպք,
07:47
instances of late pick-ups
191
452000
2000
երբ ծնողներն ուշացել են,
07:49
on average in these 10 daycare centers.
192
454000
2000
բոլոր 10 մանկապարտեզներում։
07:51
So they divided the daycare centers into two groups.
193
456000
3000
Այսպիսով, նրանք բաժանեցին մանկապարտեզներն երկու խմբի։
07:54
The white group there
194
459000
2000
Սպիտակ խումբն այստեղ
07:56
is the control group; they change nothing.
195
461000
3000
վերահսկվող խումբն է, այնտեղ ոչ մի բան չի փոխվել։
07:59
But the group of daycare centers represented by the black line,
196
464000
3000
Բայց սևով նշված մանկապարտեզների խմբում
08:02
they said, "We are changing this bargain
197
467000
2000
նրանք ասեցին, «Մենք փոխում ենք պայմանները
08:04
as of right now.
198
469000
2000
հենց այս պահից սկսած։
08:06
If you pick your kid up more than 10 minutes late,
199
471000
2000
Եթե դուք ուշանում եք ավելի քան 10 րոպե,
08:08
we're going to add a 10 shekel fine to your bill.
200
473000
2000
մենք ավելացնում ենք 10 շեկել ձեր երեխայի վարձին։
08:10
Boom. No ifs, ands or buts."
201
475000
3000
Հենց այդպես։ Ոչ մի բացառություն»։
08:13
And the minute they did that,
202
478000
2000
Եվ այն պահից, երբ պայմանները փոխվեցին,
08:15
the behavior in those daycare centers changed.
203
480000
2000
այդ մանկապարտեզներում ծնողների վարքը փոխվեց։
08:17
Late pick-ups went up
204
482000
2000
Ուշացումների քանակն աճեց
08:19
every week for the next four weeks
205
484000
3000
ամեն շաբաթ յուրաքանչյուր հաջորդ չորս շաբաթվա ընթացքում,
08:22
until they topped out at triple the pre-fine average,
206
487000
3000
մինչև դրանք հասան մինչ տուգանքը եղած ուշացումների թվի եռապատիկին,
08:25
and then they fluctuated
207
490000
2000
և դրանից հետո տատանվեցին
08:27
at between double and triple the pre-fine average
208
492000
2000
մինչ տուգանքն եղած ուշացումների թվի կրկնապատիկի և եռապատիկի միջև,
08:29
for the life of the fine.
209
494000
2000
այնքան ժամանակ քանի դեռ տուգանքն ուժի մեջ էր։
08:31
And you can see immediately what happened, right?
210
496000
3000
Եվ միանգամից երևում է, թե ինչ տեղի ունեցավ, այդպես չէ՞։
08:35
The fine broke the culture
211
500000
2000
Տուգանքը կոտրեց մանկապարտեզների
08:37
of the daycare center.
212
502000
2000
մշակույթը։
08:39
By adding a fine,
213
504000
2000
Տուգանքն ավելացնելով,
08:41
what they did was communicate to the parents
214
506000
2000
նրանք կարծես հաղորդեցին ծնողներին,
08:43
that their entire debt to the teachers
215
508000
2000
որ ծնողների ամբողջ պարտքից ուսուցիչներին
08:45
had been discharged
216
510000
2000
կարելի է ազատվել
08:47
with the payment of 10 shekels,
217
512000
2000
10 շեկել վճարելով,
08:49
and that there was no residue of guilt or social concern
218
514000
3000
առանց խղճի խայթի կամ անհանգստության,
08:52
that the parents owed the teachers.
219
517000
2000
որ ծնողները նախկինում կարող էին ունենալ։
08:54
And so the parents, quite sensibly, said,
220
519000
2000
Եվ այդպես ծնողները մտածեցին,
08:56
"10 shekels to pick my kid up late?
221
521000
2000
«Ուշացման համար 10 շեկե՞լ է պետք վճարել։
08:58
What could be bad?"
222
523000
2000
Ի՞նչ վատ բան կա դրա մեջ»։
09:00
(Laughter)
223
525000
2000
(Ծիծաղ)
09:04
The explanation of human behavior
224
529000
2000
Մարդկային վարքագծի բացատրությունը,
09:06
that we inherited in the 20th century
225
531000
3000
որը մենք ժառանգել ենք 20-րդ դարում,
09:09
was that we are all rational, self-maximizing actors,
226
534000
3000
ասում է, որ մենք բոլորս ռացիոնալ էակներ ենք։
09:12
and in that explanation --
227
537000
2000
Եվ այդ բացատրության համաձայն,
09:14
the daycare center had no contract --
228
539000
3000
քանի դեռ մանկապարտեզները չունեին որևէ պայմանագիր,
09:17
should have been operating without any constraints.
229
542000
3000
նրանք պիտի աշխատեին առանց որևէ հարկադրման։
09:20
But that's not right.
230
545000
2000
Բայց այդպես չէր իրականում։
09:22
They were operating with social constraints
231
547000
2000
Նրանք աշխատում էին սոցիալական հարկադրման ներքո,
09:24
rather than contractual ones.
232
549000
2000
չնայած նրան, որ պայմանագիր չկար։
09:26
And critically, the social constraints
233
551000
2000
Եվ իրականում, սոցիալական հարկադրումը
09:28
created a culture that was more generous
234
553000
3000
ստեղծել էր մի մշակույթ, որն ավելի մեծահոգի էր,
09:31
than the contractual constraints did.
235
556000
2000
քան պայմանագրային հարկադրումը։
09:33
So Gneezy and Rustichini run this experiment for a dozen weeks --
236
558000
3000
Այսպիսով Գնիզին և Ռաստիչին փորձն անցկացրեցին մի քանի շաբաթ,
09:36
run the fine for a dozen weeks --
237
561000
2000
տուգանքը պահպանեցին այդ շաբաթների ընթացքում,
09:38
and then they say, "Okay, that's it. All done; fine."
238
563000
3000
որից հետո նրանք ասեցին, «Լավ, բավական է։ Ամեն ինչ պարզ է»։
09:41
And then a really interesting thing happens:
239
566000
2000
Այնուհետև մի հետաքրքիր բան տեղի ունեցավ։
09:43
Nothing changes.
240
568000
3000
Տուգանքը դադարեցնելուց հետո ոչ մի բան չփոխվեց։
09:46
The culture that got broken by the fine
241
571000
3000
Մշակույթը, որը կոտրվել էր տուգանքի պատճառով,
09:49
stayed broken when the fine was removed.
242
574000
3000
այդպես կոտրված էլ մնաց տուգանը վերացնելուց հետո։
09:52
Not only are economic motivations
243
577000
3000
Ոչ միայն տնտեսական և
09:55
and intrinsic motivations
244
580000
2000
ներքին մոտիվացիաներն
09:57
incompatible,
245
582000
2000
անհամադրելի են,
09:59
that incompatibility
246
584000
2000
այդ անհամադրելիությունը
10:01
can persist over long periods.
247
586000
3000
կարող է պահպանվել երկար ժամանակ։
10:04
So the trick
248
589000
2000
Կարևորը,
10:06
in designing these kinds of situations
249
591000
2000
նման իրավիճակներ ստեղծելիս,
10:08
is to understand where you're relying on
250
593000
3000
հասկանալն է, թե երբ պետք է հույս դնել
10:11
the economic part of the bargain -- as with the parents paying the teachers --
251
596000
3000
տնտեսական գործոնի վրա, ինչպես ծնողների տուգանք վճարման դեպքում,
10:14
and when you're relying on the social part of the bargain,
252
599000
3000
և երբ հույս դնել սոցիալական գործոնի վրա,
10:17
when you're really designing for generosity.
253
602000
3000
այն դեպքում, երբ առատաձեռնության մշակույթ եք ստեղծում։
10:20
This brings me back to the LOLcats
254
605000
3000
Սա կրկին բերում է ինձ LOLcats-ի և
10:23
and to Ushahidi.
255
608000
2000
Ushahidi-ի հարցին։
10:25
This is, I think, the range that matters.
256
610000
2000
Կարծում եմ, այստեղ կարևորը մասնակիցների լայն շրջանն է։
10:27
Both of these rely on cognitive surplus.
257
612000
2000
Դրանք երկուսն էլ հիմնված են կոգնիտիվ ավելցուկի վրա։
10:29
Both of these design for the assumption
258
614000
2000
Երկուսն էլ հիմնված են այն ենթադրության վրա,
10:31
that people like to create and we want to share.
259
616000
3000
որ մարդկանց դուր է գալիս ստեղծել և միմյանց հետ կիսվել։
10:34
Here is the critical difference between these:
260
619000
3000
Ահա դրանց միջև գոյություն ունեցող կարևոր տարբերությունը․
10:39
LOLcats is communal value.
261
624000
3000
LOLcats-ը համայնական արժեք է։
10:42
It's value created by the participants
262
627000
2000
Դա արժեք է, որ ստեղծվում է մասնակիցների կողմից
10:44
for each other.
263
629000
2000
միմյանց համար։
10:46
Communal value on the networks we have
264
631000
3000
Համայնական արժեքը, որը գոյություն ունի ցանցում
10:49
is everywhere --
265
634000
2000
ամենուր է։
10:51
every time you see a large aggregate
266
636000
2000
Յուրաքանչյուր անգամ, երբ դուք տեսնում եք մեծ չափի
10:53
of shared, publicly available data,
267
638000
3000
կամ համատեղ, հանրային մատչելի տեղեկատվություն,
10:56
whether it's photos on Flickr
268
641000
2000
լինի դա լուսանկարներ Flickr-ում,
10:58
or videos on Youtube or whatever.
269
643000
2000
թե տեսահոլովակներ Youtube-ում կամ ցանկացած այլ բան։
11:00
This is good. I like LOLcats as much as the next guy,
270
645000
2000
Դա լավ է։ Ինձ դուր են գալիս LOLcats-ը, միգուցե նույնիսկ ավելի
11:02
maybe a little more even,
271
647000
2000
քան մեկ ուրիշին։
11:04
but this is also
272
649000
3000
Բայց սա նաև
11:07
a largely solved problem.
273
652000
2000
մեծ հաշվով լուծված խնդիր է։
11:09
I have a hard time envisioning a future
274
654000
2000
Ես դժվարությամբ եմ պատկերացնում, որ ապագայում,
11:11
in which someone is saying,
275
656000
2000
որտեղ ինչ-որ մեկը հարցնի․
11:13
"Where, oh where, can I find a picture
276
658000
2000
«Որտեղի՞ց, որտեղի՞ց կարող եմ գտնել
11:15
of a cute cat?"
277
660000
2000
կատվի նկար»։
11:17
Ushahidi, by contrast,
278
662000
2000
Ushahidi-ն, ի տարբերություն,
11:19
is civic value.
279
664000
2000
քաղաքացիական արժեք է։
11:21
It's value created by the participants
280
666000
2000
Դա արժեք է, որ ստեղծվել է մասնակիցների կողմից,
11:23
but enjoyed by society as a whole.
281
668000
2000
և ամբողջ հասարակությունը վայելում է այն։
11:25
The goals set out by Ushahidi
282
670000
2000
Ushahidi-ի կողմից սահմանված նպատակը,
11:27
are not just to make life better
283
672000
2000
կյանքի բարելավումն է ոչ միայն
11:29
for the participants,
284
674000
2000
մասնակիցների համար,
11:31
but to make life better for everyone in the society
285
676000
3000
այն նաև այն հասարակության յուրաքանչյուր անդամի համար,
11:34
in which Ushahidi is operating.
286
679000
2000
որտեղ Ushahidi-ն գործում է։
11:36
And that kind of civic value
287
681000
3000
Եվ այդպիսի քաղաքացիական արժեքը
11:39
is not just a side effect
288
684000
2000
պարզապես մարդկային մոտիվացիայի
11:41
of opening up to human motivation.
289
686000
3000
կողմնակի ազդեցություն չէ։
11:44
It really is going to be a side effect
290
689000
2000
Այն իրականում լինելու է կողմնակի ազդեցություն
11:46
of what we, collectively,
291
691000
2000
այն բանի, ինչ մենք հավաքական ուժերով,
11:48
make of these kinds of efforts.
292
693000
3000
ստեղծելու ենք մեր ջանքերով։
11:51
There are a trillion
293
696000
2000
Յուրաքանչյուր տարի մենք ունենք
11:53
hours a year
294
698000
2000
տրիլիոն ժամ
11:55
of participatory value
295
700000
2000
համատեղ արժեք ստեղծելու
11:57
up for grabs.
296
702000
2000
համար։
11:59
That will be true year-in and year-out.
297
704000
3000
Այդպես է լինելու երկար տարիներ։
12:02
The number of people who are going to be able
298
707000
2000
Մարդկանց թիվը, որոնք կկարողանան
12:04
to participate in these kinds of projects
299
709000
2000
մասնակցել այդպիսի ծրագրերին
12:06
is going to grow,
300
711000
2000
պատրաստվում է աճել։
12:08
and we can see that organizations
301
713000
3000
Եվ մենք կարող ենք տեսնել, որ կազմակերպությունները,
12:11
designed around a culture of generosity
302
716000
2000
որոնք ստեղծված են մեծահոգության մշակութի հիման վրա,
12:13
can achieve incredible effects
303
718000
2000
կարող են ունենալ հրաշալի արդյունքներ,
12:15
without an enormous amount of contractual overhead --
304
720000
3000
առանց հսկայական ծախսեր անելու։
12:18
a very different model
305
723000
2000
Սա շատ տարբերվում է
12:20
than our default model for large-scale group action in the 20th century.
306
725000
3000
20-րդ դարի մեծաքանակ խմբակային գործունեության համար նախատեսված մոդելից։
12:24
What's going to make the difference here
307
729000
3000
Այստեղ կարևորն այն է
12:27
is what Dean Kamen said,
308
732000
3000
ինչ ասել է գյուտարար և ձեռնարկիչ
12:30
the inventor and entrepreneur.
309
735000
2000
Դին Կամենը։
12:32
Kamen said, "Free cultures get what they celebrate."
310
737000
3000
Կամենն ասել է․ «Ազատ մշակույթը ստանում է այն ինչ փառաբանում է»։
12:36
We've got a choice before us.
311
741000
3000
Մենք ընտրություն ունենք մեր առջև։
12:39
We've got this trillion hours a year.
312
744000
2000
Մենք ունենք տարվա մեջ տրիլիոն ժամ։
12:41
We can use it to crack each other up, and we're going to do that.
313
746000
3000
Մենք կարող ենք օգտագործել այն միմյանց վնաս պատճառելու համար, և մենք այդպես էլ անելու ենք։
12:44
That, we get for free.
314
749000
2000
Դա շատ հեշտ է։
12:46
But we can also celebrate
315
751000
2000
Բայց մենք նաև կարող ենք փառաբանել,
12:48
and support and reward the people
316
753000
2000
աջակցել և պարգևել մարդկանց,
12:50
trying to use cognitive surplus
317
755000
2000
որոնք օգտագործում են կոգնիտիվ ավելցուկ,
12:52
to create civic value.
318
757000
2000
քաղաքացիական արժեք ստեղծելու համար։
12:54
And to the degree we're going to do that, to the degree we're able to do that,
319
759000
3000
Եվ այնքանով որքանով, որ մենք անենք դա, այնքանով որքանով, որ մենք կարողանանք անել դա,
12:57
we'll be able to change society.
320
762000
2000
մենք կկարողանաք փոխել հասարակությունը։
12:59
Thank you very much.
321
764000
2000
Շատ շնորհակալություն։
Translated by Gohar Khachatryan
Reviewed by Kristine Sargsyan

▲Back to top

ABOUT THE SPEAKER
Clay Shirky - Social Media Theorist
Clay Shirky argues that the history of the modern world could be rendered as the history of ways of arguing, where changes in media change what sort of arguments are possible -- with deep social and political implications.

Why you should listen

Clay Shirky's work focuses on the rising usefulness of networks -- using decentralized technologies such as peer-to-peer sharing, wireless, software for social creation, and open-source development. New technologies are enabling new kinds of cooperative structures to flourish as a way of getting things done in business, science, the arts and elsewhere, as an alternative to centralized and institutional structures, which he sees as self-limiting. In his writings and speeches he has argued that "a group is its own worst enemy."

Shirky is an adjunct professor in New York Universityʼs graduate Interactive Telecommunications Program, where he teaches a course named “Social Weather.” Heʼs the author of several books. This spring at the TED headquarters in New York, he gave an impassioned talk against SOPA/PIPA that saw 1 million views in 48 hours.

More profile about the speaker
Clay Shirky | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee