ABOUT THE SPEAKER
Clay Shirky - Social Media Theorist
Clay Shirky argues that the history of the modern world could be rendered as the history of ways of arguing, where changes in media change what sort of arguments are possible -- with deep social and political implications.

Why you should listen

Clay Shirky's work focuses on the rising usefulness of networks -- using decentralized technologies such as peer-to-peer sharing, wireless, software for social creation, and open-source development. New technologies are enabling new kinds of cooperative structures to flourish as a way of getting things done in business, science, the arts and elsewhere, as an alternative to centralized and institutional structures, which he sees as self-limiting. In his writings and speeches he has argued that "a group is its own worst enemy."

Shirky is an adjunct professor in New York Universityʼs graduate Interactive Telecommunications Program, where he teaches a course named “Social Weather.” Heʼs the author of several books. This spring at the TED headquarters in New York, he gave an impassioned talk against SOPA/PIPA that saw 1 million views in 48 hours.

More profile about the speaker
Clay Shirky | Speaker | TED.com
TED@Cannes

Clay Shirky: How cognitive surplus will change the world

קליי שירקי: כיצד עודף תודעתי ישנה את העולם

Filmed:
1,065,787 views

קליי שירקי מתבונן על "עודף תודעתי" -- העבודה המקוונת, המשותפת, שאנו עושים בעזרת המעגלים הרזרביים של מוחנו. בעוד אנו עסוקים בעריכת ויקיפדיה, העלאת תוכן ליושאהידי (וכן, יוצרים דמויות מצחיקות של חתולים), אנחנו בונים עולם טוב יותר, שיתופי יותר.
- Social Media Theorist
Clay Shirky argues that the history of the modern world could be rendered as the history of ways of arguing, where changes in media change what sort of arguments are possible -- with deep social and political implications. Full bio

Double-click the English transcript below to play the video.

00:16
The storyכַּתָבָה startsמתחיל in Kenyaקניה
0
1000
2000
הסיפור מתחיל בקניה
00:18
in Decemberדֵצֶמבֶּר of 2007,
1
3000
2000
בדצמבר 2007, כאשר התקיימו שם
00:20
when there was a disputedשנוי במחלוקת presidentialנְשִׂיאוּתִי electionבְּחִירָה,
2
5000
2000
בחירות מעוררות מחלוקת לנשיאות.
00:22
and in the immediateמִיָדִי aftermathאחרי of that electionבְּחִירָה,
3
7000
3000
ומייד לאחר סיום הבחירות,
00:25
there was an outbreakפְּרוֹץ of ethnicאתני violenceאַלִימוּת.
4
10000
2000
היתה התפרצות של אלימות אתנית.
00:27
And there was a lawyerעורך דין in Nairobiניירובי, OryOry Okollohאוקולה --
5
12000
3000
והיתה עורכת-דין אחת בניירובי, אורי אוקולוה --
00:30
who some of you mayמאי know from her TEDTalkTEDTalk --
6
15000
2000
אשר חלק מכם אולי מכיר אותה מהרצאתה ב-TED --
00:32
who beganהחל bloggingבלוגים about it on her siteאֲתַר,
7
17000
2000
אשר החלה לכתוב על כך בבלוג שלה,
00:34
Kenyanקניה Punditמְלוּמָד.
8
19000
2000
"פנדיט קנייתי".
00:36
And shortlyבְּקָרוּב after the electionבְּחִירָה and the outbreakפְּרוֹץ of violenceאַלִימוּת,
9
21000
3000
זמן קצר לאחר הבחירות והתפרצות האלימות,
00:39
the governmentמֶמְשָׁלָה suddenlyפִּתְאוֹם imposedמוּטָל
10
24000
2000
הממשלה פתאום כפתה
00:41
a significantמשמעותי mediaכְּלֵי תִקְשׁוֹרֶת blackoutהַאֲפָלָה.
11
26000
2000
השבתה רבתי של כלי-התקשורת.
00:43
And so weblogsבלוגים wentהלך from beingלהיות
12
28000
2000
וכך הבלוגים שנהגו לדווח חדשות,
00:45
commentaryפַּרשָׁנוּת as partחֵלֶק of the mediaכְּלֵי תִקְשׁוֹרֶת landscapeנוֹף
13
30000
2000
כחלק מהנוף התקשורתי,
00:47
to beingלהיות a criticalקריטי partחֵלֶק of the mediaכְּלֵי תִקְשׁוֹרֶת landscapeנוֹף
14
32000
3000
הפכו להיות לחלק קריטי של הנוף התקשורתי,
00:50
in tryingמנסה to understandמבין where the violenceאַלִימוּת was.
15
35000
3000
בנסותם להבין היכן האלימות מתקיימת.
00:53
And Okollohאוקולה solicitedשוחרר
16
38000
2000
ואוקולוה ביקשה
00:55
from her commentersפרשנים
17
40000
2000
מהמגיבים שלה
00:57
more informationמֵידָע about what was going on.
18
42000
2000
יותר מידע על מה שקורה.
00:59
The commentsהערות beganהחל pouringמוזג in,
19
44000
2000
והדיווחים החלו לזרום.
01:01
and Okollohאוקולה would collateלְהַשְׁווֹת them. She would postהודעה them.
20
46000
2000
אוקולוה היתה משווה ביניהם ומעלה אותם לרשת.
01:03
And she quicklyבִּמְהִירוּת said, "It's too much.
21
48000
2000
אבל מייד היא אמרה, "זה יותר מדיי.
01:05
I could do this all day everyכֹּל day
22
50000
2000
גם אם אעשה זאת כל היום ובכל יום
01:07
and I can't keep up.
23
52000
2000
לא אוכל לעמוד בזה.
01:09
There is more informationמֵידָע
24
54000
2000
יש יותר מידע
01:11
about what's going on in Kenyaקניה right now
25
56000
2000
על מה שמתרחש בקניה כרגע
01:13
than any one personאדם can manageלנהל.
26
58000
2000
משאדם כלשהו יוכל להתמודד איתו.
01:15
If only there was a way to automateלְמַכֵּן this."
27
60000
2000
אם רק היתה דרך להפוך הכל לאוטומטי."
01:17
And two programmersמתכנתים who readלקרוא her blogבלוג
28
62000
2000
שני תוכניתנים שקראו את הבלוג שלה
01:19
heldמוּחזָק theirשֶׁלָהֶם handsידיים up and said, "We could do that,"
29
64000
3000
אמרו שהם יכולים לעשות זאת.
01:22
and in 72 hoursשעות, they launchedMANAG מספר Ushahidiאושידי.
30
67000
3000
ובתוך 72 שעות, הם הפעילו את יושאהידי.
01:25
Ushahidiאושידי -- the nameשֵׁם meansאומר "witnessעֵד"
31
70000
2000
יושאהידי -- פירושו "עד"
01:27
or "testimonyעֵד" in Swahiliסוואהילית --
32
72000
2000
או "עדות" בסוואהילית --
01:29
is a very simpleפָּשׁוּט way of takingלְקִיחָה reportsדיווחים from the fieldשדה,
33
74000
3000
הוא דרך מאוד פשוטה לקליטת דיווחים מהשטח,
01:32
whetherהאם it's from the webאינטרנט or, criticallyבאופן ביקורתי,
34
77000
3000
בין אם זה מהרשת, או,
01:35
viaבְּאֶמצָעוּת mobileנייד phonesטלפונים and SMSסמס,
35
80000
2000
דרך טלפונים ניידים ומסרונים,
01:37
aggregating- it and puttingלשים it on a mapמַפָּה.
36
82000
3000
לקבץ אותם ולמקמם על מפה.
01:40
That's all it is, but that's all that's neededנָחוּץ
37
85000
2000
זה הכל, וזה כל מה שצריך.
01:42
because what it does is it takes the tacitשֶׁבִּשְׁתִיקָה informationמֵידָע
38
87000
3000
מכיוון שמה שהוא עושה זה הוא קולט את המידע המרומז
01:45
availableזמין to the wholeכֹּל populationאוּכְלוֹסִיָה --
39
90000
2000
הזמין לכלל האוכלוסיה --
01:47
everybodyכולם knowsיודע where the violenceאַלִימוּת is,
40
92000
2000
כל אחד יודע היכן האלימות נמצאת,
01:49
but no one personאדם knowsיודע what everyoneכל אחד knowsיודע --
41
94000
3000
אבל אין אדם היודע מה יודע כל אחד אחר --
01:52
and it takes that tacitשֶׁבִּשְׁתִיקָה informationמֵידָע
42
97000
2000
והוא קולט את המידע המרומז הזה
01:54
and it aggregatesאגרגטים it,
43
99000
2000
ומקבץ אותו,
01:56
and it mapsמפות it and it makesעושה it publicפּוּמְבֵּי.
44
101000
2000
וממפה אותו ומפרסם אותו.
01:58
And that, that maneuverלְתַמְרֵן
45
103000
2000
וזה, התכסיס הזה
02:00
calledשקוראים לו "crisisמַשׁבֵּר mappingמיפוי,"
46
105000
2000
המכונה "מיפוי משבר"
02:02
was kickedבעט off in Kenyaקניה
47
107000
3000
הושק בקניה
02:05
in Januaryיָנוּאָר of 2008.
48
110000
2000
בינואר 2008.
02:07
And enoughמספיק people lookedהביט at it and foundמצאתי it valuableבעל ערך enoughמספיק
49
112000
3000
ומספיק אנשים צפו בו ומצאו שהוא מספיק טוב
02:10
that the programmersמתכנתים who createdשנוצר Ushahidiאושידי
50
115000
2000
כך שהתוכניתנים אשר יצרו יושאהידי
02:12
decidedהחליט they were going to make it openלִפְתוֹחַ sourceמָקוֹר
51
117000
2000
החליטו שהם הולכים לעשותו לקוד פתוח
02:14
and turnלפנות it into a platformפּלַטפוֹרמָה.
52
119000
2000
ולהופכו לפלטפורמה.
02:16
It's sinceמאז been deployedלפרוס in Mexicoמקסיקו
53
121000
2000
מאז הוא הופץ במכסיקו
02:18
to trackמַסלוּל electoralהבחירות fraudהונאה.
54
123000
2000
כדי לאתר תרמיות בבחירות.
02:20
It's been deployedלפרוס in Washingtonוושינגטון D.C. to trackמַסלוּל snowשֶׁלֶג cleanupלנקות.
55
125000
3000
הוא הופץ בוושינגטון הבירה כדי לעקוב אחר ניקוי שלג.
02:23
And it's been used mostרוב famouslyמפורסם in Haitiהאיטי
56
128000
2000
והשימוש הכי ידוע שלו היה בהאיטי
02:25
in the aftermathאחרי of the earthquakeרעידת אדמה.
57
130000
3000
לאחר רעידת האדמה.
02:28
And when you look at the mapמַפָּה
58
133000
2000
וכאשר מסתכלים על המפה
02:30
now postedפורסם on the Ushahidiאושידי frontחֲזִית pageעמוד,
59
135000
2000
המופיעה עכשיו על העמוד הראשי של יושאהידי,
02:32
you can see that the numberמספר of deploymentsפריסות in Ushahidiאושידי
60
137000
2000
ניתן לראות שתפוצת היושאהידי
02:34
has goneנעלם worldwideעוֹלָמִי, all right?
61
139000
3000
הגיעה לכל העולם, בסדר?
02:37
This wentהלך from a singleיחיד ideaרַעְיוֹן
62
142000
2000
זה הפך מרעיון בודד
02:39
and a singleיחיד implementationיישום
63
144000
2000
ויישום בודד
02:41
in Eastמזרח Africaאַפְרִיקָה in the beginningהתחלה of 2008
64
146000
3000
במזרח אפריקה בתחילת 2008
02:44
to a globalגלוֹבָּלִי deploymentפְּרִיסָה
65
149000
2000
לתפוצה כלל-עולמית
02:46
in lessפָּחוּת than threeשְׁלוֹשָׁה yearsשנים.
66
151000
3000
בפחות משלוש שנים.
02:49
Now what Okollohאוקולה did
67
154000
3000
מה שאוקולוה עשתה
02:52
would not have been possibleאפשרי
68
157000
2000
היה בלתי אפשרי
02:54
withoutלְלֹא digitalדִיגִיטָלי technologyטֶכנוֹלוֹגִיָה.
69
159000
3000
ללא טכנולוגיה דיגיטלית.
02:57
What Okollohאוקולה did would not have been possibleאפשרי
70
162000
3000
מה שאוקולוה עשתה, היה בלתי אפשרי
03:00
withoutלְלֹא humanבן אנוש generosityנדיבות.
71
165000
2000
ללא נדיבות אנושית.
03:02
And the interestingמעניין momentרֶגַע now,
72
167000
2000
ומה שמעניין כעת,
03:04
the numberמספר of environmentsסביבות
73
169000
2000
הוא מספר המקומות
03:06
where the socialחֶברָתִי designלְעַצֵב challengeאתגר
74
171000
2000
בהם האתגר של תכנון חברתי
03:08
reliesמסתמך on bothשניהם of those things beingלהיות trueנָכוֹן.
75
173000
3000
מסתמך על נכונותם של שני הדברים הללו.
03:11
That is the resourceמַשׁאָב that I'm talkingשִׂיחָה about.
76
176000
3000
זה המשאב שאני מדבר עליו.
03:14
I call it cognitiveקוגניטיבית surplusעוֹדֵף.
77
179000
2000
אני מכנה זאת עודף תודעתי.
03:16
And it representsמייצג the abilityיְכוֹלֶת
78
181000
2000
והוא מייצג את היכולת
03:18
of the world'sשל העולם populationאוּכְלוֹסִיָה
79
183000
2000
של אוכלוסיית העולם
03:20
to volunteerלְהִתְנַדֵב and to contributeלתרום and collaborateלשתף פעולה
80
185000
3000
להתנדב ולשתף פעולה
03:23
on largeגָדוֹל, sometimesלִפְעָמִים globalגלוֹבָּלִי, projectsפרויקטים.
81
188000
3000
במיזמים גדולים, לפעמים גלובליים.
03:26
Cognitiveקוגניטיבית surplusעוֹדֵף is madeעָשׂוּי up of two things.
82
191000
2000
עודף תודעתי עשוי משני דברים.
03:28
The first, obviouslyמובן מאליו, is the world'sשל העולם freeחופשי time and talentsכשרונות.
83
193000
3000
הראשון, כמובן, הוא הזמן החופשי והכישרונות שיש בעולם.
03:31
The worldעוֹלָם has over
84
196000
2000
לעולם יש יותר
03:33
a trillionטרִילִיוֹן hoursשעות a yearשָׁנָה
85
198000
3000
מטריליון שעות חופשיות
03:36
of freeחופשי time
86
201000
2000
בכל שנה
03:38
to commitלְבַצֵעַ to sharedמְשׁוּתָף projectsפרויקטים.
87
203000
2000
כדי להרתם למיזמים משותפים.
03:40
Now, that freeחופשי time existedהיה קיים in the 20thה centuryמֵאָה,
88
205000
2000
אלא שזמן חופשי היה קיים גם במאה ה-20,
03:42
but we didn't get Ushahidiאושידי in the 20thה centuryמֵאָה.
89
207000
3000
אבל לא זכינו ליושאהידי במאה ה-20.
03:45
That's the secondשְׁנִיָה halfחֲצִי of cognitiveקוגניטיבית surplusעוֹדֵף.
90
210000
2000
זה החצי השני של עודף תודעתי.
03:47
The mediaכְּלֵי תִקְשׁוֹרֶת landscapeנוֹף in the 20thה centuryמֵאָה
91
212000
2000
הנוף התקשורתי במאה ה-20
03:49
was very good at helpingמָנָה people consumeלִצְרוֹך,
92
214000
3000
היה מאוד יעיל בלסייע לאנשים לצרוך.
03:52
and we got, as a resultתוֹצָאָה,
93
217000
2000
וכתוצאה מזה, הפכנו
03:54
very good at consumingצורכים.
94
219000
2000
למאוד טובים בצריכה.
03:56
But now that we'veיש לנו been givenנָתוּן mediaכְּלֵי תִקְשׁוֹרֶת toolsכלים --
95
221000
2000
אבל עכשיו שזכינו באמצעים לתקשורת --
03:58
the Internetאינטרנט, mobileנייד phonesטלפונים -- that let us do more than consumeלִצְרוֹך,
96
223000
3000
האינטרנט, טלפונים ניידים -- המאפשרים לנו יותר מאשר לצרוך,
04:01
what we're seeingרְאִיָה is that people weren'tלא היו couchסַפָּה potatoesתפוחי אדמה
97
226000
3000
אנו רואים שאנשים לא היו מכורים לטלוויזיה
04:04
because we likedאהב to be.
98
229000
2000
בגלל שהם אהבו זאת.
04:06
We were couchסַפָּה potatoesתפוחי אדמה because that was
99
231000
2000
היינו מכורים לטלוויזיה בגלל
04:08
the only opportunityהִזדַמְנוּת givenנָתוּן to us.
100
233000
2000
שזו היתה ההזדמנות היחידה שניתנה לנו.
04:10
We still like to consumeלִצְרוֹך, of courseקוּרס.
101
235000
2000
אנחנו עדיין אוהבים לצרוך כמובן.
04:12
But it turnsפונה out we alsoגַם like to createלִיצוֹר,
102
237000
2000
אבל מתברר שאנחנו גם אוהבים ליצור,
04:14
and we like to shareלַחֲלוֹק.
103
239000
3000
ואנחנו אוהבים לחלוק.
04:17
And it's those two things togetherיַחַד --
104
242000
2000
ושני הדברים הללו ביחד --
04:19
ancientעָתִיק humanבן אנוש motivationמוֹטִיבָצִיָה
105
244000
2000
המוטיבציה העתיקה של האדם
04:21
and the modernמוֹדֶרנִי toolsכלים to allowלהתיר that motivationמוֹטִיבָצִיָה
106
246000
2000
והכלים המודרניים המאפשרים למוטיבציה זו
04:23
to be joinedהצטרף up in large-scaleבקנה מידה גדול effortsמַאֲמָצִים --
107
248000
3000
להתאחד לכדי מאמצים בקנה-מידה רחב --
04:26
that are the newחָדָשׁ designלְעַצֵב resourceמַשׁאָב.
108
251000
3000
הם המשאב החדש המעצב.
04:29
And usingמבנה יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוני cognitiveקוגניטיבית surplusעוֹדֵף,
109
254000
2000
ועם השימוש בעודף תודעתי
04:31
we're startingהחל to see trulyבֶּאֱמֶת incredibleמדהים experimentsניסויים
110
256000
3000
אנחנו מתחילים לראות ניסיונות מדהימים
04:34
in scientificמַדָעִי, literaryסִפְרוּתִי,
111
259000
2000
במאמצים מדעיים, ספרותיים,
04:36
artisticאָמָנוּתִי, politicalפּוֹלִיטִי effortsמַאֲמָצִים.
112
261000
3000
אומנותיים, פוליטיים.
04:39
Designingתִכנוּן.
113
264000
2000
ניסיונות שמעצבים.
04:41
We're alsoגַם gettingמקבל, of courseקוּרס, a lot of LOLcatsLolcats.
114
266000
3000
אנחנו גם מקבלים, כמובן, המון חתולים מצחיקים.
04:44
LOLcatsLolcats are cuteחָמוּד picturesתמונות of catsחתולים
115
269000
2000
חתולים מצחיקים הם תמונות של חתולים חמודים
04:46
madeעָשׂוּי cutercuter with the additionבנוסף of cuteחָמוּד captionsכיתובים.
116
271000
3000
שהפכו ליותר חמודים עם הוספת כתוביות חמודות.
04:49
And they are alsoגַם
117
274000
2000
וגם הם מהווים חלק
04:51
partחֵלֶק of the abundantשׁוֹפֵעַ mediaכְּלֵי תִקְשׁוֹרֶת landscapeנוֹף we're gettingמקבל now.
118
276000
3000
מהנוף התקשורתי השופע שאנו זוכים לו עכשיו.
04:54
This is one of the participatoryמשתתפת --
119
279000
2000
זהו אחד מהמודלים --
04:56
one of the participatoryמשתתפת modelsמודלים
120
281000
2000
אחד מהמודלים של השתתפות פעילה
04:58
we see comingמגיע out of that, alongלְאוֹרֶך with Ushahidiאושידי.
121
283000
3000
שאנו רואים אשר נובע ביחד עם יושאהידי.
05:01
Now I want to stipulateלְהַתְנוֹת, as the lawyersעורכי דין say,
122
286000
2000
כעת מה שאני רוצה להדגיש, כפי שעורכי-דין נוהגים לומר,
05:03
that LOLcatsLolcats are the stupidestטיפש possibleאפשרי
123
288000
2000
שחתולים מצחיקים הם מעשה
05:05
creativeיְצִירָתִי actפעולה.
124
290000
2000
היצירה הטפשי ביותר האפשרי.
05:07
There are other candidatesמועמדים of courseקוּרס,
125
292000
2000
ישנם כמובן מועמדים אחרים,
05:09
but LOLcatsLolcats will do as a generalכללי caseמקרה.
126
294000
3000
אבל חתולים מצחיקים ישמשו כמקרה מדגים.
05:12
But here'sהנה the thing:
127
297000
2000
אבל הנה הדבר החשוב.
05:14
The stupidestטיפש possibleאפשרי creativeיְצִירָתִי actפעולה
128
299000
2000
מעשה היצירה הטפשי ביותר האפשרי
05:16
is still a creativeיְצִירָתִי actפעולה.
129
301000
3000
הוא עדיין יצירה.
05:19
Someoneמִישֶׁהוּ who has doneבוצע something like this,
130
304000
3000
מי שעשה משהו כזה,
05:22
howeverלמרות זאת mediocreבֵּינוֹנִי and throwawayלזרוק,
131
307000
3000
לא משנה עד כמה הוא בינוני וחלטוריסטי,
05:25
has triedניסה something, has put something forwardקָדִימָה in publicפּוּמְבֵּי.
132
310000
3000
ניסה לעשות משהו, הניח משהו מול פני הציבור.
05:28
And onceפַּעַם they'veהם כבר doneבוצע it, they can do it again,
133
313000
3000
ומרגע שהוא עשה זאת, הוא יכול לעשות זאת שוב.
05:31
and they could work on gettingמקבל it better.
134
316000
2000
והוא יכול לנסות לשפר אותו.
05:33
There is a spectrumספֵּקטרוּם betweenבֵּין mediocreבֵּינוֹנִי work and good work,
135
318000
3000
קיים תחום שלם בין עבודה בינונית לעבודה טובה.
05:36
and as anybodyמִישֶׁהוּ who'sמי זה workedעבד as an artistאמן or a creatorבורא knowsיודע,
136
321000
3000
וכפי שיודע כל אחד שעבד בתור אמן או יוצר,
05:39
it's a spectrumספֵּקטרוּם you're constantlyתָמִיד
137
324000
2000
זהו תחום שאתה כל הזמן
05:41
strugglingנאבקת to get on topחלק עליון of.
138
326000
2000
נאבק כדי להגיע לפסגתו.
05:43
The gapפער is betweenבֵּין
139
328000
2000
הפער הוא בין
05:45
doing anything and doing nothing.
140
330000
3000
לעשות משהו לבין לעשות כלום.
05:48
And someoneמִישֶׁהוּ who makesעושה a LOLcatחח חתול
141
333000
2000
ומי שיוצר חתול מצחיק
05:50
has alreadyכְּבָר crossedחצה over that gapפער.
142
335000
3000
כבר חצה את הפער הזה.
05:53
Now it's temptingמפתה to want to get the Ushahidisאושאהדיס
143
338000
2000
זה מפתה לרצות את היושאהידי
05:55
withoutלְלֹא the LOLcatsLolcats, right,
144
340000
2000
ללא החתולים המצחיקים.
05:57
to get the seriousרְצִינִי stuffדברים withoutלְלֹא the throwawayלזרוק stuffדברים.
145
342000
3000
לקבל את הדברים הרציניים ללא הדברים החלטוריסטיים.
06:00
But mediaכְּלֵי תִקְשׁוֹרֶת abundanceשפע never worksעובד that way.
146
345000
3000
אבל שפע תקשורתי אף פעם לא עובד ככה.
06:03
Freedomחוֹפֶשׁ to experimentלְנַסוֹת meansאומר freedomחוֹפֶשׁ to experimentלְנַסוֹת with anything.
147
348000
3000
חופש לנסות פרושו חופש לנסות כל דבר.
06:06
Even with the sacredקָדוֹשׁ printingהַדפָּסָה pressללחוץ,
148
351000
2000
אפילו הדפוס המקודש,
06:08
we got eroticאֵרוֹטִי novelsרומנים 150 yearsשנים
149
353000
2000
קיבלנו ממנו רומנים ארוטיים 150 שנה
06:10
before we got scientificמַדָעִי journalsכתבי עת.
150
355000
3000
לפני שקיבלנו ממנו כתבי-עת מדעיים.
06:14
So before I talk about
151
359000
3000
אז לפני שאני מדבר על
06:17
what is, I think, the criticalקריטי differenceהֶבדֵל
152
362000
2000
מהו לפי דעתי ההבדל המהותי
06:19
betweenבֵּין LOLcatsLolcats and Ushahidiאושידי,
153
364000
2000
בין חתולים מצחיקים ויושאהידי,
06:21
I want to talk about
154
366000
2000
אני רוצה לדבר על
06:23
theirשֶׁלָהֶם sharedמְשׁוּתָף sourceמָקוֹר.
155
368000
2000
מקורם המשותף.
06:25
And that sourceמָקוֹר is designלְעַצֵב for generosityנדיבות.
156
370000
3000
ומקור זה הוא היכולת לנדיבות.
06:28
It is one of the curiositiesסקרנות of our historicalהִיסטוֹרִי eraתְקוּפָה
157
373000
3000
זהו אחד הדברים מעוררי הסקרנות של תקופתנו ההיסטורית
06:31
that even as cognitiveקוגניטיבית surplusעוֹדֵף
158
376000
2000
שככל שעודף תודעתי
06:33
is becomingהִתהַוּוּת a resourceמַשׁאָב we can designלְעַצֵב around,
159
378000
2000
הופך למשאב שניתן לבנות סביבו,
06:35
socialחֶברָתִי sciencesמדעים are alsoגַם startingהחל to explainלהסביר
160
380000
3000
גם מדעי החברה מתחילים להסביר
06:38
how importantחָשׁוּב
161
383000
2000
כמה שהמניעים הפנימיים שלנו
06:40
our intrinsicפְּנִימִי motivationsמוטיבציה are to us,
162
385000
2000
חשובים עבורנו,
06:42
how much we do things because we like to do them
163
387000
3000
כמה אנו עושים דברים בגלל שאנו אוהבים לעשותם,
06:45
ratherבמקום than because our bossבּוֹס told us to do them,
164
390000
2000
יותר מאשר בגלל שהבוס שלנו אמר לנו לעשותם,
06:47
or because we're beingלהיות paidשילם to do them.
165
392000
3000
או בגלל שאנו מתוגמלים בעבורם.
06:50
This is a graphגרָף from a paperעיתון
166
395000
3000
גרף זה לקוח ממאמר
06:53
by Uriאורי GneezyGneezy and Aldoאלדו Rustichiniרוסטיצ'יני,
167
398000
2000
מאת יורי גניזי ואלפרדו רוסטיסיני,
06:55
who setמַעֲרֶכֶת out to testמִבְחָן, at the beginningהתחלה of this decadeעָשׂוֹר,
168
400000
3000
אשר יצאו לבחון, בתחילת עשור זה,
06:58
what they calledשקוראים לו "deterrenceהַרתָעָה theoryתֵאוֹרִיָה."
169
403000
2000
את מה שהם כינו "תאוריית הרתעה".
07:00
And deterrenceהַרתָעָה theoryתֵאוֹרִיָה is a very simpleפָּשׁוּט theoryתֵאוֹרִיָה of humanבן אנוש behaviorהִתְנַהֲגוּת:
170
405000
2000
תאוריית הרתעה היא תאוריה מאוד פשוטה על התנהגות אדם.
07:02
If you want somebodyמִישֶׁהוּ to do lessפָּחוּת of something,
171
407000
2000
אם רוצים שמישהו יעשה משהו כמה שפחות,
07:04
addלְהוֹסִיף a punishmentעֲנִישָׁה and they'llהם יהיו do lessפָּחוּת of it.
172
409000
2000
יש לקבוע עונש ואז הוא יבצע את זה פחות.
07:06
Simpleפָּשׁוּט, straightforwardפָּשׁוּט, commonsensicalרגשית --
173
411000
3000
תאוריה פשוטה, ישירה ומתקבלת על הדעת,
07:09
alsoגַם, largelyבמידה רבה untestedלא נבחן.
174
414000
2000
אבל גם כזו שכמעט ולא נבחנה.
07:11
And so they wentהלך and studiedמְחוֹשָׁב
175
416000
2000
וכך הם הלכו ובדקו
07:13
10 daycareמעון יום centersלמרכז in Haifaחיפה, Israelישראל.
176
418000
2000
10 מעונות יום בחיפה, ישראל.
07:15
They studiedמְחוֹשָׁב those daycareמעון יום centersלמרכז
177
420000
2000
והם בדקו את אותם מעונות היום
07:17
at the time of highestהכי גבוה tensionמתח,
178
422000
2000
בזמן של שיא הלחץ,
07:19
whichאיזה is pick-upלאסוף time.
179
424000
2000
שהוא זמן איסוף הילדים.
07:21
At pick-upלאסוף time the teachersמורים,
180
426000
2000
במועד שנקבע לאיסוף, הגננות,
07:23
who have been with your childrenיְלָדִים all day,
181
428000
2000
אשר היו עם הילדים כל היום,
07:25
would like you to be there at the appointedמונה hourשָׁעָה to take your childrenיְלָדִים back.
182
430000
3000
רוצות שההורים יהיו שם בשעה שנקבעה כדי לאסוף את ילדיהם.
07:28
Meanwhileבינתיים, the parentsהורים -- perhapsאוּלַי a little busyעסוק at work, runningרץ lateמאוחר, runningרץ errandsסידורים --
183
433000
3000
בינתיים, ההורים -- שאולי היו עסוקים בעבודה, מאחרים, מבצעים מטלות --
07:31
want a little slackרָפוּי to pickלִבחוֹר the kidsילדים up lateמאוחר.
184
436000
3000
רוצים קצת הנחה בנוגע לאיסוף ילדיהם מאוחר.
07:34
So GneezyGneezy and Rustichiniרוסטיצ'יני said,
185
439000
2000
לכן גניזי ורוסטיסיני אמרו,
07:36
"How manyרב instancesמקרים of lateמאוחר pick-upsטנדרים
186
441000
2000
"כמה מקרים של איסוף מאוחר
07:38
are there at these 10 daycareמעון יום centersלמרכז?"
187
443000
2000
קיימים בעשרת מעונות היום הללו?"
07:40
Now they saw -- and this is what the graphגרָף is,
188
445000
2000
ואז הם ראו -- וזו משמעות הגרף,
07:42
these are the numberמספר of weeksשבועות and these are the numberמספר of lateמאוחר arrivalsכניסות --
189
447000
3000
אלה הם מספר השבועות ואלה הם מספר האיסופים המאוחרים --
07:45
that there were betweenבֵּין sixשֵׁשׁ and 10
190
450000
2000
שהיו בממוצע בין 6 ל-10
07:47
instancesמקרים of lateמאוחר pick-upsטנדרים
191
452000
2000
מקרים של איסוף מאוחר
07:49
on averageמְמוּצָע in these 10 daycareמעון יום centersלמרכז.
192
454000
2000
בעשרת מעונות היום הללו.
07:51
So they dividedמחולק the daycareמעון יום centersלמרכז into two groupsקבוצות.
193
456000
3000
אז הם חילקו את מעונות היום לשתי קבוצות.
07:54
The whiteלבן groupקְבוּצָה there
194
459000
2000
הקבוצה הלבנה שם
07:56
is the controlלִשְׁלוֹט groupקְבוּצָה; they changeשינוי nothing.
195
461000
3000
היא קבוצת בקרה; הם לא שינו שם כלום.
07:59
But the groupקְבוּצָה of daycareמעון יום centersלמרכז representedמיוצג by the blackשָׁחוֹר lineקַו,
196
464000
3000
אבל בקבוצה של מעונות יום המיוצגת על-ידי הקו השחור,
08:02
they said, "We are changingמִשְׁתַנֶה this bargainלְהִתְמַקֵחַ
197
467000
2000
הם אמרו, "נשנה את כללי המשחק
08:04
as of right now.
198
469000
2000
לעומת הקיים עכשיו.
08:06
If you pickלִבחוֹר your kidיֶלֶד up more than 10 minutesדקות lateמאוחר,
199
471000
2000
אם מאחרים באיסוף ילדים ביותר מ-10 דקות,
08:08
we're going to addלְהוֹסִיף a 10 shekelשֶׁקֶל fine to your billשטר כסף.
200
473000
2000
נקנוס אתכם ב-10 שקלים.
08:10
Boomבּוּם. No ifsאם, andsו or butsאבל."
201
475000
3000
בום טראח. אין אבל, אין אם ואין אולי."
08:13
And the minuteדַקָה they did that,
202
478000
2000
ומרגע שזה נעשה,
08:15
the behaviorהִתְנַהֲגוּת in those daycareמעון יום centersלמרכז changedהשתנה.
203
480000
2000
ההתנהגות באותם המעונות השתנתה.
08:17
Lateמאוחר pick-upsטנדרים wentהלך up
204
482000
2000
האיסופים המאוחרים עלו
08:19
everyכֹּל weekשָׁבוּעַ for the nextהַבָּא fourארבעה weeksשבועות
205
484000
3000
בכל שבוע במשך ארבעת השבועות הבאים
08:22
untilעד they toppedלמעלה out at tripleלְשַׁלֵשׁ the pre-fineמראש בסדר averageמְמוּצָע,
206
487000
3000
עד שהם הגיעו לעד פי-3 מאשר הממוצע שלפני הטלת הקנסות,
08:25
and then they fluctuatedתנודות
207
490000
2000
ואחר-כך היו תנודות
08:27
at betweenבֵּין doubleלְהַכפִּיל and tripleלְשַׁלֵשׁ the pre-fineמראש בסדר averageמְמוּצָע
208
492000
2000
בין פי-2 לפי-3 מהממוצע טרום-קנס
08:29
for the life of the fine.
209
494000
2000
לכל אורך תקופת הקנס.
08:31
And you can see immediatelyמיד what happenedקרה, right?
210
496000
3000
וניתן להבין מייד מה קרה.
08:35
The fine brokeחסר פרוטה the cultureתַרְבּוּת
211
500000
2000
הקנס שבר את התרבות
08:37
of the daycareמעון יום centerמֶרְכָּז.
212
502000
2000
של מעונות היום.
08:39
By addingמוֹסִיף a fine,
213
504000
2000
על-ידי הטלת הקנס,
08:41
what they did was communicateלתקשר to the parentsהורים
214
506000
2000
הם העבירו מסר להורים
08:43
that theirשֶׁלָהֶם entireשלם debtחוֹב to the teachersמורים
215
508000
2000
שכל המחוייבות שלהם
08:45
had been dischargedמשוחרר
216
510000
2000
כלפי הגננות מתבטלת
08:47
with the paymentתַשְׁלוּם of 10 shekelsשקל,
217
512000
2000
עם התשלום של 10 שקל קנס,
08:49
and that there was no residueמִשׁקָע of guiltאַשׁמָה or socialחֶברָתִי concernדְאָגָה
218
514000
3000
ושאין עליהם יותר משא של רגשות אשם או מחוייבות חברתית
08:52
that the parentsהורים owedחייב the teachersמורים.
219
517000
2000
שההורים חבים לגננות.
08:54
And so the parentsהורים, quiteדַי sensiblyבצורה הגיונית, said,
220
519000
2000
וכך ההורים, אמרו די בהיגיון,
08:56
"10 shekelsשקל to pickלִבחוֹר my kidיֶלֶד up lateמאוחר?
221
521000
2000
"10 שקל קנס על איסוף מאוחר של ילדיי?
08:58
What could be badרַע?"
222
523000
2000
זה לא כל-כל נורא."
09:00
(Laughterצחוק)
223
525000
2000
(צחוק)
09:04
The explanationהֶסבֵּר of humanבן אנוש behaviorהִתְנַהֲגוּת
224
529000
2000
ההסבר להתנהגות אנושית
09:06
that we inheritedירש in the 20thה centuryמֵאָה
225
531000
3000
שירשנו אותו ממאה ה-20
09:09
was that we are all rationalרַצִיוֹנָלִי, self-maximizingעצמית למקסם actorsשחקנים,
226
534000
3000
היה שכולנו דמויות רציונליות הממקסמות את עצמן.
09:12
and in that explanationהֶסבֵּר --
227
537000
2000
ובהסבר הזה --
09:14
the daycareמעון יום centerמֶרְכָּז had no contractחוֹזֶה --
228
539000
3000
למעונות היום לא היה חוזה --
09:17
should have been operatingהפעלה withoutלְלֹא any constraintsאילוצים.
229
542000
3000
והם היו אמורים לפעול ללא הגבלות.
09:20
But that's not right.
230
545000
2000
אבל זה לא נכון.
09:22
They were operatingהפעלה with socialחֶברָתִי constraintsאילוצים
231
547000
2000
הם פעלו תחת הגבלות חברתיות
09:24
ratherבמקום than contractualחוזית onesיחידות.
232
549000
2000
ולא תחת הגבלות חוזיות.
09:26
And criticallyבאופן ביקורתי, the socialחֶברָתִי constraintsאילוצים
233
551000
2000
ובאופן מכריע, ההגבלות החברתיות
09:28
createdשנוצר a cultureתַרְבּוּת that was more generousנָדִיב
234
553000
3000
יצרו תרבות שהיתה יותר מתחשבת
09:31
than the contractualחוזית constraintsאילוצים did.
235
556000
2000
מאשר זו שנוצרה על-ידי הגבלות חוזיות.
09:33
So GneezyGneezy and Rustichiniרוסטיצ'יני runלָרוּץ this experimentלְנַסוֹת for a dozenתְרֵיסַר weeksשבועות --
236
558000
3000
כך גניזי ורוסטיצ'ני הריצו את הניסוי במשך תריסר שבועות --
09:36
runלָרוּץ the fine for a dozenתְרֵיסַר weeksשבועות --
237
561000
2000
הטילו קנסות במשך תריסר שבועות --
09:38
and then they say, "Okay, that's it. All doneבוצע; fine."
238
563000
3000
ואז הם אמרו, "בסדר, זה מספיק."
09:41
And then a really interestingמעניין thing happensקורה:
239
566000
2000
ואז קרה הדבר הבאמת מעניין.
09:43
Nothing changesשינויים.
240
568000
3000
לא חל שום שינוי.
09:46
The cultureתַרְבּוּת that got brokenשָׁבוּר by the fine
241
571000
3000
התרבות שנשברה בגלל הקנס
09:49
stayedנשאר brokenשָׁבוּר when the fine was removedהוסר.
242
574000
3000
נשארה שבורה גם לאחר ביטול הקנס.
09:52
Not only are economicכַּלְכָּלִי motivationsמוטיבציה
243
577000
3000
זה לא רק שמניעים כלכליים
09:55
and intrinsicפְּנִימִי motivationsמוטיבציה
244
580000
2000
ומניעים פנימיים
09:57
incompatibleשאינו עולה בקנה אחד,
245
582000
2000
אינם תואמים,
09:59
that incompatibilityאי התאמה
246
584000
2000
חוסר התאימות הזה
10:01
can persistלהתמיד over long periodsתקופות.
247
586000
3000
יכול להימשך לאורך תקופות ארוכות.
10:04
So the trickטריק
248
589000
2000
כך שהחוכמה
10:06
in designingתִכנוּן these kindsמיני of situationsמצבים
249
591000
2000
בתכנון של מצבים כאלה
10:08
is to understandמבין where you're relyingהסתמכות on
250
593000
3000
היא להבין היכן להסתמך על
10:11
the economicכַּלְכָּלִי partחֵלֶק of the bargainלְהִתְמַקֵחַ -- as with the parentsהורים payingמשלמים the teachersמורים --
251
596000
3000
על החלק הכלכלי של העסקה -- כמו ההורים ששילמו למורים --
10:14
and when you're relyingהסתמכות on the socialחֶברָתִי partחֵלֶק of the bargainלְהִתְמַקֵחַ,
252
599000
3000
ומתי להסתמך על החלק החברתי של העסקה,
10:17
when you're really designingתִכנוּן for generosityנדיבות.
253
602000
3000
כאשר המטרה הסופית היא לכוון להתחשבות ונדיבות.
10:20
This bringsמביא me back to the LOLcatsLolcats
254
605000
3000
זה מחזיר אותי לחתולים מצחיקים
10:23
and to Ushahidiאושידי.
255
608000
2000
וליושאהידי.
10:25
This is, I think, the rangeטווח that mattersעניינים.
256
610000
2000
אני סבור שזהו טווח העניינים.
10:27
Bothשניהם of these relyלִסְמוֹך on cognitiveקוגניטיבית surplusעוֹדֵף.
257
612000
2000
שניהם כאחד מסתמכים על עודף תודעתי.
10:29
Bothשניהם of these designלְעַצֵב for the assumptionהנחה
258
614000
2000
שניהם מכוונים להנחה
10:31
that people like to createלִיצוֹר and we want to shareלַחֲלוֹק.
259
616000
3000
שאנשים אוהבים ליצור ושאנו רוצים לחלוק.
10:34
Here is the criticalקריטי differenceהֶבדֵל betweenבֵּין these:
260
619000
3000
אבל הנה ההבדל המהותי ביניהם.
10:39
LOLcatsLolcats is communalעֲדָתִי valueערך.
261
624000
3000
חתולים מצחיקים הוא ערך קהילתי.
10:42
It's valueערך createdשנוצר by the participantsמשתתפים
262
627000
2000
ערכו נוצר על-ידי המשתתפים,
10:44
for eachכל אחד other.
263
629000
2000
אחד בעבור השני.
10:46
Communalעֲדָתִי valueערך on the networksרשתות we have
264
631000
3000
יש לנו ערכים קהילתיים של רשתות,
10:49
is everywhereבכל מקום --
265
634000
2000
בכל מקום
10:51
everyכֹּל time you see a largeגָדוֹל aggregateלְקַבֵּץ
266
636000
2000
בכל פעם שרואים מצבור גדול
10:53
of sharedמְשׁוּתָף, publiclyבְּפוּמבֵּי availableזמין dataנתונים,
267
638000
3000
של נתונים שיתופיים הזמינים לציבור,
10:56
whetherהאם it's photosתמונות on Flickrפליקר
268
641000
2000
בין אם אלה תמונות בפליקר
10:58
or videosסרטונים on Youtubeיאהו or whateverמה שתגיד.
269
643000
2000
או סרטונים ביוטיוב או מה שלא יהיה.
11:00
This is good. I like LOLcatsLolcats as much as the nextהַבָּא guy,
270
645000
2000
זה טוב. אני אוהב חתולים מצחיקים בדיוק כמו הבחור שלידי,
11:02
maybe a little more even,
271
647000
2000
אולי אפילו קצת יותר.
11:04
but this is alsoגַם
272
649000
3000
אבל זוהי גם
11:07
a largelyבמידה רבה solvedנפתרה problemבְּעָיָה.
273
652000
2000
בעיה פתורה ברובה.
11:09
I have a hardקָשֶׁה time envisioningחִזוּי a futureעתיד
274
654000
2000
אני מתקשה לדמיין מצב בעתיד
11:11
in whichאיזה someoneמִישֶׁהוּ is sayingפִּתגָם,
275
656000
2000
שבו מישהו אומר,
11:13
"Where, oh where, can I find a pictureתְמוּנָה
276
658000
2000
"היכן, באמת היכן, אוכל למצוא תמונה
11:15
of a cuteחָמוּד catחתול?"
277
660000
2000
של חתול חמוד?"
11:17
Ushahidiאושידי, by contrastבניגוד,
278
662000
2000
לעומת זה, יושאהידי,
11:19
is civicאֶזרָחִי valueערך.
279
664000
2000
הוא ערך אזרחי.
11:21
It's valueערך createdשנוצר by the participantsמשתתפים
280
666000
2000
זהו ערך הנוצר על-ידי המשתתפים,
11:23
but enjoyedנהנה by societyחֶברָה as a wholeכֹּל.
281
668000
2000
אבל החברה כולה נהנית ממנו.
11:25
The goalsמטרות setמַעֲרֶכֶת out by Ushahidiאושידי
282
670000
2000
המטרות שהוגדרו על-ידי יושאהידי
11:27
are not just to make life better
283
672000
2000
אינם רק כדי לשפר את אכות החיים
11:29
for the participantsמשתתפים,
284
674000
2000
של המשתתפים,
11:31
but to make life better for everyoneכל אחד in the societyחֶברָה
285
676000
3000
אלא כדי לשפר אותה עבור כל אחד בחברה
11:34
in whichאיזה Ushahidiאושידי is operatingהפעלה.
286
679000
2000
שבה יושאהידי פועל.
11:36
And that kindסוג of civicאֶזרָחִי valueערך
287
681000
3000
וערך אזרחי כזה
11:39
is not just a sideצַד effectהשפעה
288
684000
2000
אינו רק תוצאת לוואי
11:41
of openingפְּתִיחָה up to humanבן אנוש motivationמוֹטִיבָצִיָה.
289
686000
3000
של פתיחות למניע אנושי.
11:44
It really is going to be a sideצַד effectהשפעה
290
689000
2000
הוא ממש עומד להיות תוצאת לוואי
11:46
of what we, collectivelyיַחַד,
291
691000
2000
של מה שאנחנו, ביחד,
11:48
make of these kindsמיני of effortsמַאֲמָצִים.
292
693000
3000
נעשה מסוגי מאמץ אלו.
11:51
There are a trillionטרִילִיוֹן
293
696000
2000
ישנם טריליון
11:53
hoursשעות a yearשָׁנָה
294
698000
2000
שעות בשנה,
11:55
of participatoryמשתתפת valueערך
295
700000
2000
בעלות ערך שיתופי הממתינות
11:57
up for grabsתופס.
296
702000
2000
לניצול על-ידי הציבור הרחב.
11:59
That will be trueנָכוֹן year-inשנה ב and year-outשנה החוצה.
297
704000
3000
זה נכון שנה אחר שנה.
12:02
The numberמספר of people who are going to be ableיכול
298
707000
2000
מספר האנשים שיוכלו
12:04
to participateלְהִשְׂתַתֵף in these kindsמיני of projectsפרויקטים
299
709000
2000
להשתתף במיזמים מסוג זה
12:06
is going to growלגדול,
300
711000
2000
הולך לגדול.
12:08
and we can see that organizationsארגונים
301
713000
3000
וניתן לראות שאותם הגופים
12:11
designedמְעוּצָב around a cultureתַרְבּוּת of generosityנדיבות
302
716000
2000
שבנויים סביב תרבות של נדיבות
12:13
can achieveלְהַשִׂיג incredibleמדהים effectsההשפעות
303
718000
2000
יכולים להגיע לתוצאות מדהימות
12:15
withoutלְלֹא an enormousעֲנָקִי amountכמות of contractualחוזית overheadמעל --
304
720000
3000
ללא צורך בכמויות אדירות של חוזים התלויים מעל לראשם.
12:18
a very differentשונה modelדֶגֶם
305
723000
2000
מודל שונה מאוד לעומת המודל המקובל
12:20
than our defaultבְּרִירַת מֶחדָל modelדֶגֶם for large-scaleבקנה מידה גדול groupקְבוּצָה actionפעולה in the 20thה centuryמֵאָה.
306
725000
3000
שלנו מהמאה ה-20 לפעולה קבוצתית בקנה-מידה רחב.
12:24
What's going to make the differenceהֶבדֵל here
307
729000
3000
מה שיעשה כאן את ההבדל
12:27
is what Deanדֵיקָן Kamenקאמן said,
308
732000
3000
זה מה שאמר דין קאמן,
12:30
the inventorמַמצִיא and entrepreneurיזם.
309
735000
2000
הממציא והיזם.
12:32
Kamenקאמן said, "Freeחופשי culturesתרבויות get what they celebrateלַחֲגוֹג."
310
737000
3000
קאמן אמר, "תרבויות חופשיות משיגות את מה שהן מרוממות."
12:36
We'veללא שם: יש לנו got a choiceבְּחִירָה before us.
311
741000
3000
יש ברירה לפנינו.
12:39
We'veללא שם: יש לנו got this trillionטרִילִיוֹן hoursשעות a yearשָׁנָה.
312
744000
2000
יש לנו את טריליון השעות האלה בשנה.
12:41
We can use it to crackסדק eachכל אחד other up, and we're going to do that.
313
746000
3000
אנו יכולים להשתמש בהן כדי לשבור האחד את השני ואנחנו עומדים לעשות זאת.
12:44
That, we get for freeחופשי.
314
749000
2000
את זה מקבלים בחינם.
12:46
But we can alsoגַם celebrateלַחֲגוֹג
315
751000
2000
אבל אנחנו גם יכולים לרומם
12:48
and supportתמיכה and rewardפרס the people
316
753000
2000
ולתמוך ולתגמל אנשים
12:50
tryingמנסה to use cognitiveקוגניטיבית surplusעוֹדֵף
317
755000
2000
המנסים להשתמש בעודף תודעתי
12:52
to createלִיצוֹר civicאֶזרָחִי valueערך.
318
757000
2000
כדי ליצור ערך אזרחי.
12:54
And to the degreeתוֹאַר we're going to do that, to the degreeתוֹאַר we're ableיכול to do that,
319
759000
3000
והמידה שבה נעשה זאת, המידה שבה אנו יכולים לעשות זאת,
12:57
we'llטוֹב be ableיכול to changeשינוי societyחֶברָה.
320
762000
2000
באותה מידה נוכל לשנות את החברה.
12:59
Thank you very much.
321
764000
2000
תודה רבה לכם.
Translated by Yubal Masalker
Reviewed by Ido Dekkers

▲Back to top

ABOUT THE SPEAKER
Clay Shirky - Social Media Theorist
Clay Shirky argues that the history of the modern world could be rendered as the history of ways of arguing, where changes in media change what sort of arguments are possible -- with deep social and political implications.

Why you should listen

Clay Shirky's work focuses on the rising usefulness of networks -- using decentralized technologies such as peer-to-peer sharing, wireless, software for social creation, and open-source development. New technologies are enabling new kinds of cooperative structures to flourish as a way of getting things done in business, science, the arts and elsewhere, as an alternative to centralized and institutional structures, which he sees as self-limiting. In his writings and speeches he has argued that "a group is its own worst enemy."

Shirky is an adjunct professor in New York Universityʼs graduate Interactive Telecommunications Program, where he teaches a course named “Social Weather.” Heʼs the author of several books. This spring at the TED headquarters in New York, he gave an impassioned talk against SOPA/PIPA that saw 1 million views in 48 hours.

More profile about the speaker
Clay Shirky | Speaker | TED.com