ABOUT THE SPEAKER
Clay Shirky - Social Media Theorist
Clay Shirky argues that the history of the modern world could be rendered as the history of ways of arguing, where changes in media change what sort of arguments are possible -- with deep social and political implications.

Why you should listen

Clay Shirky's work focuses on the rising usefulness of networks -- using decentralized technologies such as peer-to-peer sharing, wireless, software for social creation, and open-source development. New technologies are enabling new kinds of cooperative structures to flourish as a way of getting things done in business, science, the arts and elsewhere, as an alternative to centralized and institutional structures, which he sees as self-limiting. In his writings and speeches he has argued that "a group is its own worst enemy."

Shirky is an adjunct professor in New York Universityʼs graduate Interactive Telecommunications Program, where he teaches a course named “Social Weather.” Heʼs the author of several books. This spring at the TED headquarters in New York, he gave an impassioned talk against SOPA/PIPA that saw 1 million views in 48 hours.

More profile about the speaker
Clay Shirky | Speaker | TED.com
TED@Cannes

Clay Shirky: How cognitive surplus will change the world

Clay Shirky: Como o superávit cognitivo mudará o mundo

Filmed:
1,065,787 views

Clay Shirky analisa o "superávit cognitivo" -- o trabalho online compartilhado que realizamos com os nossos ciclos cerebrais extras. Enquanto estamos ocupados editando a Wikipedia, postando informações no Ushahidi (sim, e até mesmo repassando fotos engraçadinhas de gatos...), estamos construindo um mundo melhor e mais cooperativo.
- Social Media Theorist
Clay Shirky argues that the history of the modern world could be rendered as the history of ways of arguing, where changes in media change what sort of arguments are possible -- with deep social and political implications. Full bio

Double-click the English transcript below to play the video.

00:16
The story starts in Kenya
0
1000
2000
A estória começa no Quênia,
00:18
in December of 2007,
1
3000
2000
em dezembro de 2007,
00:20
when there was a disputed presidential election,
2
5000
2000
quando aconteceu uma disputada eleição presidencial.
00:22
and in the immediate aftermath of that election,
3
7000
3000
E imediatamente após essa eleição,
00:25
there was an outbreak of ethnic violence.
4
10000
2000
houve um surto de violência étnica.
00:27
And there was a lawyer in Nairobi, Ory Okolloh --
5
12000
3000
Havia uma advogada em Nairobi, Ory Okolloh --
00:30
who some of you may know from her TEDTalk --
6
15000
2000
alguns de vocês devem lembrar-se da palestra que ela deu no TEDTalk --
00:32
who began blogging about it on her site,
7
17000
2000
que passou a escrever um blog sobre os eventos em seu site,
00:34
Kenyan Pundit.
8
19000
2000
o Kenyan Pundit.
00:36
And shortly after the election and the outbreak of violence,
9
21000
3000
Logo após a eleição e o surto de violência,
00:39
the government suddenly imposed
10
24000
2000
o governo subitamente impôs
00:41
a significant media blackout.
11
26000
2000
grandes restrições à mídia.
00:43
And so weblogs went from being
12
28000
2000
Com isso, os blogs deixaram de ser
00:45
commentary as part of the media landscape
13
30000
2000
meros comentaristas da mídia,
00:47
to being a critical part of the media landscape
14
32000
3000
e tornaram-se um elemento essencial da própria mídia,
00:50
in trying to understand where the violence was.
15
35000
3000
ao tentar entender onde estava localizada a violência.
00:53
And Okolloh solicited
16
38000
2000
Okolloh pediu
00:55
from her commenters
17
40000
2000
a seus comentaristas
00:57
more information about what was going on.
18
42000
2000
mais informações sobre o que estava ocorrendo.
00:59
The comments began pouring in,
19
44000
2000
E começaram a chegar os comentários.
01:01
and Okolloh would collate them. She would post them.
20
46000
2000
Okolloh juntava e postava esses comentários.
01:03
And she quickly said, "It's too much.
21
48000
2000
Logo ela concluiu: "É informação demais.
01:05
I could do this all day every day
22
50000
2000
Eu teria de fazer esse trabalho o dia todo, todos os dias,
01:07
and I can't keep up.
23
52000
2000
e ainda assim não daria conta.
01:09
There is more information
24
54000
2000
Há mais informação
01:11
about what's going on in Kenya right now
25
56000
2000
sobre o que está acontecendo agora no Quênia,
01:13
than any one person can manage.
26
58000
2000
do que é administrável para uma pessoa.
01:15
If only there was a way to automate this."
27
60000
2000
Se eu conseguisse automatizar isso."
01:17
And two programmers who read her blog
28
62000
2000
Dois programadores que liam seu blog
01:19
held their hands up and said, "We could do that,"
29
64000
3000
levantaram as mãos e falaram, "Nós podemos fazer isso."
01:22
and in 72 hours, they launched Ushahidi.
30
67000
3000
Em 72 horas, lançaram o Ushahidi.
01:25
Ushahidi -- the name means "witness"
31
70000
2000
Ushahidi -- que quer dizer
01:27
or "testimony" in Swahili --
32
72000
2000
"testemunha" em Swahili --
01:29
is a very simple way of taking reports from the field,
33
74000
3000
é uma forma muito simples de colher relatórios do campo,
01:32
whether it's from the web or, critically,
34
77000
3000
via internet, ou, mais importante,
01:35
via mobile phones and SMS,
35
80000
2000
via celulares e SMS,
01:37
aggregating it and putting it on a map.
36
82000
3000
reunindo essas informações e colocando-as em um mapa.
01:40
That's all it is, but that's all that's needed
37
85000
2000
É só isso que faz, mas é só isso que é necessário.
01:42
because what it does is it takes the tacit information
38
87000
3000
O que ele faz é pegar as informações tácitas,
01:45
available to the whole population --
39
90000
2000
disponíveis a toda a população --
01:47
everybody knows where the violence is,
40
92000
2000
todos sabem onde está a violência,
01:49
but no one person knows what everyone knows --
41
94000
3000
mas nenhuma pessoa em especial sabe o que todos sabem --
01:52
and it takes that tacit information
42
97000
2000
e pega essas informações tácitas
01:54
and it aggregates it,
43
99000
2000
e as agrega,
01:56
and it maps it and it makes it public.
44
101000
2000
mapeando-as e divulgando-as.
01:58
And that, that maneuver
45
103000
2000
E essa manobra,
02:00
called "crisis mapping,"
46
105000
2000
chamada "mapeamento da crise"
02:02
was kicked off in Kenya
47
107000
3000
começou no Quênia,
02:05
in January of 2008.
48
110000
2000
em janeiro de 2008.
02:07
And enough people looked at it and found it valuable enough
49
112000
3000
E tantas pessoas viram e acharam tudo isso valioso,
02:10
that the programmers who created Ushahidi
50
115000
2000
que os programadores que criaram Ushahidi
02:12
decided they were going to make it open source
51
117000
2000
decidiram torná-lo software livre,
02:14
and turn it into a platform.
52
119000
2000
transformando-o em uma plataforma.
02:16
It's since been deployed in Mexico
53
121000
2000
Desde então, foi lançado no México,
02:18
to track electoral fraud.
54
123000
2000
para monitorar fraude eleitoral.
02:20
It's been deployed in Washington D.C. to track snow cleanup.
55
125000
3000
Foi usado em Washington D.C., para fiscalizar a limpeza da neve nas ruas.
02:23
And it's been used most famously in Haiti
56
128000
2000
Ficou muito conhecido no Haiti,
02:25
in the aftermath of the earthquake.
57
130000
3000
logo após o terremoto.
02:28
And when you look at the map
58
133000
2000
Quando olhamos o mapa,
02:30
now posted on the Ushahidi front page,
59
135000
2000
agora mostrado na página principal do Ushahidi,
02:32
you can see that the number of deployments in Ushahidi
60
137000
2000
podemos ver que o número de implementações de Ushahidi
02:34
has gone worldwide, all right?
61
139000
3000
assumiu uma escala global, não?
02:37
This went from a single idea
62
142000
2000
Isso partiu de uma única idéia,
02:39
and a single implementation
63
144000
2000
e uma única implementação,
02:41
in East Africa in the beginning of 2008
64
146000
3000
na África Oriental, no início de 2008,
02:44
to a global deployment
65
149000
2000
para uma implementação global,
02:46
in less than three years.
66
151000
3000
em menos de três anos.
02:49
Now what Okolloh did
67
154000
3000
O que Okolloh fez
02:52
would not have been possible
68
157000
2000
não teria sido possível
02:54
without digital technology.
69
159000
3000
sem a tecnologia digital.
02:57
What Okolloh did would not have been possible
70
162000
3000
O que Okolloh fez não teria sido possível
03:00
without human generosity.
71
165000
2000
sem e generosidade humana.
03:02
And the interesting moment now,
72
167000
2000
E o interessante momento atual,
03:04
the number of environments
73
169000
2000
o número de ambientes,
03:06
where the social design challenge
74
171000
2000
nos quais o desafio da criação social
03:08
relies on both of those things being true.
75
173000
3000
depende de ambos esses elementos serem verdadeiros.
03:11
That is the resource that I'm talking about.
76
176000
3000
Este é o recurso do qual estou falando.
03:14
I call it cognitive surplus.
77
179000
2000
Chamo isso de superávit cognitivo.
03:16
And it represents the ability
78
181000
2000
Representa a habilidade
03:18
of the world's population
79
183000
2000
da população mundial
03:20
to volunteer and to contribute and collaborate
80
185000
3000
de voluntariar-se, contribuir e colaborar,
03:23
on large, sometimes global, projects.
81
188000
3000
em projetos de larga escala, muitas vezes mundial.
03:26
Cognitive surplus is made up of two things.
82
191000
2000
O superávit cognitivo consiste de duas coisas:
03:28
The first, obviously, is the world's free time and talents.
83
193000
3000
A primeira, obviamente, é o tempo e talento livres do mundo.
03:31
The world has over
84
196000
2000
O mundo tem mais de
03:33
a trillion hours a year
85
198000
3000
um trilhão de horas por ano
03:36
of free time
86
201000
2000
de tempo livre,
03:38
to commit to shared projects.
87
203000
2000
a ser comprometido com projetos compartilhados.
03:40
Now, that free time existed in the 20th century,
88
205000
2000
Esse tempo livre já existia no século 20,
03:42
but we didn't get Ushahidi in the 20th century.
89
207000
3000
mas naquela época não tínhamos Ushahidi.
03:45
That's the second half of cognitive surplus.
90
210000
2000
Essa é a segunda metade do superávit cognitivo.
03:47
The media landscape in the 20th century
91
212000
2000
O panorama da mídia no século 20
03:49
was very good at helping people consume,
92
214000
3000
era voltado a fazer as pessoas consumirem.
03:52
and we got, as a result,
93
217000
2000
Em consequência,
03:54
very good at consuming.
94
219000
2000
nos tornamos ótimos consumidores.
03:56
But now that we've been given media tools --
95
221000
2000
Mas agora temos as ferramentas de mídia --
03:58
the Internet, mobile phones -- that let us do more than consume,
96
223000
3000
internet, celulares -- que permitem que façamos mais que apenas consumir,
04:01
what we're seeing is that people weren't couch potatoes
97
226000
3000
o que estamos vendo é que as pessoas não eram acomodadas
04:04
because we liked to be.
98
229000
2000
porque queriam ser assim.
04:06
We were couch potatoes because that was
99
231000
2000
Eram acomodadas porque essa era a
04:08
the only opportunity given to us.
100
233000
2000
oportunidade que nos era dada.
04:10
We still like to consume, of course.
101
235000
2000
Claro, ainda gostamos de consumir.
04:12
But it turns out we also like to create,
102
237000
2000
Ocorre, contudo, que também gostamos de criar,
04:14
and we like to share.
103
239000
3000
e gostamos de compartilhar.
04:17
And it's those two things together --
104
242000
2000
E é a combinação dessas duas coisas --
04:19
ancient human motivation
105
244000
2000
a antiga motivação humana
04:21
and the modern tools to allow that motivation
106
246000
2000
e as modernas ferramentas que permitem reunir essa motivação
04:23
to be joined up in large-scale efforts --
107
248000
3000
em esforços de larga escala --
04:26
that are the new design resource.
108
251000
3000
que são o novo recurso de criação.
04:29
And using cognitive surplus,
109
254000
2000
Ao utilizarmos superávit cognitivo,
04:31
we're starting to see truly incredible experiments
110
256000
3000
estamos passando a ver experimentos realmente incríveis
04:34
in scientific, literary,
111
259000
2000
na ciência, na literatura,
04:36
artistic, political efforts.
112
261000
3000
na arte, no esforço político.
04:39
Designing.
113
264000
2000
Criação.
04:41
We're also getting, of course, a lot of LOLcats.
114
266000
3000
E claro, também estamos vendo muitos gatinhos engraçados, ou LOLcats.
04:44
LOLcats are cute pictures of cats
115
269000
2000
Os LOLcats são fotos bonitinhas de gatos
04:46
made cuter with the addition of cute captions.
116
271000
3000
tornadas mais engraçadinhas com o acréscimo de legendas engraçadinhas.
04:49
And they are also
117
274000
2000
Também são parte
04:51
part of the abundant media landscape we're getting now.
118
276000
3000
do abundante panorama da mídia que estamos vendo agora.
04:54
This is one of the participatory --
119
279000
2000
Este é um dos modelos participatórios --
04:56
one of the participatory models
120
281000
2000
um dos modelos participatórios
04:58
we see coming out of that, along with Ushahidi.
121
283000
3000
que estão surgindo junto com o Ushahidi.
05:01
Now I want to stipulate, as the lawyers say,
122
286000
2000
Gostaria de estipular, como diriam os advogados,
05:03
that LOLcats are the stupidest possible
123
288000
2000
que os LOLcats são o mais abobalhado
05:05
creative act.
124
290000
2000
ato de criação.
05:07
There are other candidates of course,
125
292000
2000
Claro, há outros candidatos,
05:09
but LOLcats will do as a general case.
126
294000
3000
mas LOLcats servem para exemplificar.
05:12
But here's the thing:
127
297000
2000
Mas há um detalhe.
05:14
The stupidest possible creative act
128
299000
2000
Mesmo o mais abobalhado dos atos criativos
05:16
is still a creative act.
129
301000
3000
ainda é um ato criativo.
05:19
Someone who has done something like this,
130
304000
3000
Alguém que tenha feito isso,
05:22
however mediocre and throwaway,
131
307000
3000
não importa quão medíocre ou descartável,
05:25
has tried something, has put something forward in public.
132
310000
3000
tentou fazer algo e conseguiu divulgar algo.
05:28
And once they've done it, they can do it again,
133
313000
3000
Tendo feito isso uma vez, podem fazê-lo novamente.
05:31
and they could work on getting it better.
134
316000
2000
E podem esforçar-se para fazê-lo melhor.
05:33
There is a spectrum between mediocre work and good work,
135
318000
3000
Há um grande espectro entre um trabalho medíocre e um trabalho bom.
05:36
and as anybody who's worked as an artist or a creator knows,
136
321000
3000
E como sabem todos aqueles que já trabalharam como artistas ou criadores,
05:39
it's a spectrum you're constantly
137
324000
2000
é um espectro que estamos
05:41
struggling to get on top of.
138
326000
2000
sempre tentando superar.
05:43
The gap is between
139
328000
2000
A grande lacuna está entre
05:45
doing anything and doing nothing.
140
330000
3000
fazer algo e não fazer nada.
05:48
And someone who makes a LOLcat
141
333000
2000
E alguém que faz um LOLcat
05:50
has already crossed over that gap.
142
335000
3000
já superou essa lacuna.
05:53
Now it's tempting to want to get the Ushahidis
143
338000
2000
O ideal seria termos os Ushahidis
05:55
without the LOLcats, right,
144
340000
2000
sem os LOLcats, sei disso.
05:57
to get the serious stuff without the throwaway stuff.
145
342000
3000
Ter as coisas sérias sem as coisas descartáveis.
06:00
But media abundance never works that way.
146
345000
3000
Mas a abundância da mídia nunca funciona assim.
06:03
Freedom to experiment means freedom to experiment with anything.
147
348000
3000
A liberdade de experimentar significa a liberdade de experimentar com qualquer coisa.
06:06
Even with the sacred printing press,
148
351000
2000
Mesmo com o sagrado prelo,
06:08
we got erotic novels 150 years
149
353000
2000
tivemos romances eróticos 150 anos antes
06:10
before we got scientific journals.
150
355000
3000
das publicações científicas.
06:14
So before I talk about
151
359000
3000
Antes de falar sobre
06:17
what is, I think, the critical difference
152
362000
2000
a grande diferença, a meu ver,
06:19
between LOLcats and Ushahidi,
153
364000
2000
entre LOLcats e Ushahidi,
06:21
I want to talk about
154
366000
2000
Gostaria de falar sobre
06:23
their shared source.
155
368000
2000
a mesma origem delas.
06:25
And that source is design for generosity.
156
370000
3000
E essa origem foi criada por generosidade.
06:28
It is one of the curiosities of our historical era
157
373000
3000
Uma das curiosidades de nossa era histórica
06:31
that even as cognitive surplus
158
376000
2000
é que ao mesmo tempo em que o superávit cognitivo
06:33
is becoming a resource we can design around,
159
378000
2000
está se tornando um recurso de criação,
06:35
social sciences are also starting to explain
160
380000
3000
as ciências humanas também estão passando a explicar
06:38
how important
161
383000
2000
a importância
06:40
our intrinsic motivations are to us,
162
385000
2000
que damos à nossas motivações intrínsicas,
06:42
how much we do things because we like to do them
163
387000
3000
de como fazemos as coisas porque gostamos de fazê-lo,
06:45
rather than because our boss told us to do them,
164
390000
2000
invés de fazê-lo porque nosso chefe mandou,
06:47
or because we're being paid to do them.
165
392000
3000
ou porque estamos sendo pagos para fazê-lo.
06:50
This is a graph from a paper
166
395000
3000
Este é um gráfico de um artigo
06:53
by Uri Gneezy and Aldo Rustichini,
167
398000
2000
de Uri Gneezy e Alfredo Rusticini,
06:55
who set out to test, at the beginning of this decade,
168
400000
3000
que, no início desta década, propuseram-se a testar
06:58
what they called "deterrence theory."
169
403000
2000
o que chamavam de "teoria da detenção".
07:00
And deterrence theory is a very simple theory of human behavior:
170
405000
2000
A teoria da detenção é uma teoria muito simples sobre o comportamento humano.
07:02
If you want somebody to do less of something,
171
407000
2000
Se quisermos que alguém faça menos de alguma coisa,
07:04
add a punishment and they'll do less of it.
172
409000
2000
acrescente uma punição e essa pessoa fará tal coisa menos.
07:06
Simple, straightforward, commonsensical --
173
411000
3000
É simples, direto, senso comum,
07:09
also, largely untested.
174
414000
2000
e não testado.
07:11
And so they went and studied
175
416000
2000
Assim, eles resolveram estudar
07:13
10 daycare centers in Haifa, Israel.
176
418000
2000
10 creches em Haifa, Israel.
07:15
They studied those daycare centers
177
420000
2000
Eles estudaram essas creches
07:17
at the time of highest tension,
178
422000
2000
no momento de maior tensão,
07:19
which is pick-up time.
179
424000
2000
a hora de buscar as crianças.
07:21
At pick-up time the teachers,
180
426000
2000
Nessa hora, os professores,
07:23
who have been with your children all day,
181
428000
2000
que passaram o dia todo com as crianças,
07:25
would like you to be there at the appointed hour to take your children back.
182
430000
3000
gostariam que os pais pegassem as crianças na hora certa.
07:28
Meanwhile, the parents -- perhaps a little busy at work, running late, running errands --
183
433000
3000
Enquanto isso, os pais -- talvez ocupados no trabalho, atrasados, no supermercado,
07:31
want a little slack to pick the kids up late.
184
436000
3000
gostariam de um pouco de flexibilidade nesse horário.
07:34
So Gneezy and Rustichini said,
185
439000
2000
Gneezy e Rusticini perguntaram:
07:36
"How many instances of late pick-ups
186
441000
2000
"Quantos casos de pais atrasados
07:38
are there at these 10 daycare centers?"
187
443000
2000
há nessas 10 creches?"
07:40
Now they saw -- and this is what the graph is,
188
445000
2000
Viram que -- e isso é mostrado no gráfico,
07:42
these are the number of weeks and these are the number of late arrivals --
189
447000
3000
aqui temos o número de semanas e aqui o número de atrasos --
07:45
that there were between six and 10
190
450000
2000
existem entre seis e 10 casos
07:47
instances of late pick-ups
191
452000
2000
de pais atrasados para pegar os filhos,
07:49
on average in these 10 daycare centers.
192
454000
2000
em média nessas 10 creches.
07:51
So they divided the daycare centers into two groups.
193
456000
3000
Assim, dividiram as creches em dois grupos.
07:54
The white group there
194
459000
2000
O grupo branco é o
07:56
is the control group; they change nothing.
195
461000
3000
grupo de controle; não mudaram nada.
07:59
But the group of daycare centers represented by the black line,
196
464000
3000
Para o grupo de creches representado pela linha preta,
08:02
they said, "We are changing this bargain
197
467000
2000
eles falaram: "Vamos mudar isso
08:04
as of right now.
198
469000
2000
agora mesmo.
08:06
If you pick your kid up more than 10 minutes late,
199
471000
2000
Se chegarem mais de 10 minutos atrasados para pegar os filhos,
08:08
we're going to add a 10 shekel fine to your bill.
200
473000
2000
pagarão uma multa de 10 shekels.
08:10
Boom. No ifs, ands or buts."
201
475000
3000
Pronto. Sem discussão."
08:13
And the minute they did that,
202
478000
2000
Assim que fizeram isso,
08:15
the behavior in those daycare centers changed.
203
480000
2000
o comportamento nessas creches mudou.
08:17
Late pick-ups went up
204
482000
2000
Os atrasos aumentaram
08:19
every week for the next four weeks
205
484000
3000
cada semana pelas próximas quatro semanas
08:22
until they topped out at triple the pre-fine average,
206
487000
3000
até chegarem ao triplo da média antiga,
08:25
and then they fluctuated
207
490000
2000
para então flutuar,
08:27
at between double and triple the pre-fine average
208
492000
2000
entre o dobro e o triplo da média anterior à multa,
08:29
for the life of the fine.
209
494000
2000
enquanto durou a multa.
08:31
And you can see immediately what happened, right?
210
496000
3000
Dá para ver imediatamente o que aconteceu.
08:35
The fine broke the culture
211
500000
2000
A multa quebrou a cultura
08:37
of the daycare center.
212
502000
2000
da creche.
08:39
By adding a fine,
213
504000
2000
Ao acrescentar uma multa,
08:41
what they did was communicate to the parents
214
506000
2000
o que fizeram foi informar os pais
08:43
that their entire debt to the teachers
215
508000
2000
que sua dívida com os professores
08:45
had been discharged
216
510000
2000
tinha sido dispensada
08:47
with the payment of 10 shekels,
217
512000
2000
pelo pagamento de 10 shekels,
08:49
and that there was no residue of guilt or social concern
218
514000
3000
e portanto não havia mais resíduo de culpa ou preocupação social,
08:52
that the parents owed the teachers.
219
517000
2000
que os pais deviam aos professores.
08:54
And so the parents, quite sensibly, said,
220
519000
2000
De forma bastante sensata, os pais concluiram:
08:56
"10 shekels to pick my kid up late?
221
521000
2000
"10 shekels para chegar atrasado?
08:58
What could be bad?"
222
523000
2000
Melhor impossível!"
09:00
(Laughter)
223
525000
2000
(risos)
09:04
The explanation of human behavior
224
529000
2000
A explicação do comportamento humano
09:06
that we inherited in the 20th century
225
531000
3000
que herdamos no século 20
09:09
was that we are all rational, self-maximizing actors,
226
534000
3000
foi que somos todos atores racionais e auto-maximizadores.
09:12
and in that explanation --
227
537000
2000
Nessa explicação --
09:14
the daycare center had no contract --
228
539000
3000
a creche não tinha contrato --
09:17
should have been operating without any constraints.
229
542000
3000
funcionaria sem restrições.
09:20
But that's not right.
230
545000
2000
Mas isso não é certo.
09:22
They were operating with social constraints
231
547000
2000
Funcionavam com restrições sociais,
09:24
rather than contractual ones.
232
549000
2000
invés de restrições contratuais.
09:26
And critically, the social constraints
233
551000
2000
E, o mais importante, as restrições sociais
09:28
created a culture that was more generous
234
553000
3000
criaram uma cultura mais generosa
09:31
than the contractual constraints did.
235
556000
2000
que aquela criada por restrições contratuais.
09:33
So Gneezy and Rustichini run this experiment for a dozen weeks --
236
558000
3000
Gneezy e Rustichini continuaram o experimento por 12 semanas --
09:36
run the fine for a dozen weeks --
237
561000
2000
multa por 12 semanas --
09:38
and then they say, "Okay, that's it. All done; fine."
238
563000
3000
e então falaram: "Tudo bem, terminado. Acabou a multa."
09:41
And then a really interesting thing happens:
239
566000
2000
E aí aconteceu algo realmente interessante.
09:43
Nothing changes.
240
568000
3000
Nada mudou.
09:46
The culture that got broken by the fine
241
571000
3000
A cultura que se quebrou com a multa
09:49
stayed broken when the fine was removed.
242
574000
3000
continuou quebrada, mesmo sem a multa.
09:52
Not only are economic motivations
243
577000
3000
As motivações econômicas
09:55
and intrinsic motivations
244
580000
2000
e as motivações intrínsicas
09:57
incompatible,
245
582000
2000
não são apenas incompatíveis,
09:59
that incompatibility
246
584000
2000
essa incompatibilidade
10:01
can persist over long periods.
247
586000
3000
pode persistir por muito tempo.
10:04
So the trick
248
589000
2000
O truque
10:06
in designing these kinds of situations
249
591000
2000
de criar esse tipo de situações
10:08
is to understand where you're relying on
250
593000
3000
é entender em que você está dependendo
10:11
the economic part of the bargain -- as with the parents paying the teachers --
251
596000
3000
a parte econômica da barganha -- os pais pagando os professores --
10:14
and when you're relying on the social part of the bargain,
252
599000
3000
e quando dependemos da parte social da barganha,
10:17
when you're really designing for generosity.
253
602000
3000
quando estamos criando para generosidade.
10:20
This brings me back to the LOLcats
254
605000
3000
Isso me traz de volta aos LOLcats
10:23
and to Ushahidi.
255
608000
2000
e ao Ushahidi.
10:25
This is, I think, the range that matters.
256
610000
2000
Acredito que esse é o ponto que importa.
10:27
Both of these rely on cognitive surplus.
257
612000
2000
Ambos dependem de superávit cognitivo.
10:29
Both of these design for the assumption
258
614000
2000
Ambos criam com base na premissa
10:31
that people like to create and we want to share.
259
616000
3000
que as pessoas gostam de criar e querem compartilhar.
10:34
Here is the critical difference between these:
260
619000
3000
Mas eis a diferença crítica entre eles.
10:39
LOLcats is communal value.
261
624000
3000
LOLcats são um valor comunal.
10:42
It's value created by the participants
262
627000
2000
É valor criado pelos participantes,
10:44
for each other.
263
629000
2000
um para o outro.
10:46
Communal value on the networks we have
264
631000
3000
Valor comunal nas redes que temos
10:49
is everywhere --
265
634000
2000
está por todos os lados.
10:51
every time you see a large aggregate
266
636000
2000
Sempre que virem um grande agregado
10:53
of shared, publicly available data,
267
638000
3000
de dados compartilhados e publicamente disponíveis,
10:56
whether it's photos on Flickr
268
641000
2000
seja fotos no Flickr
10:58
or videos on Youtube or whatever.
269
643000
2000
vídeos no Youtube, ou outra coisa.
11:00
This is good. I like LOLcats as much as the next guy,
270
645000
2000
Isso é bom. Gosto de LOLcats tanto quanto o cara ao lado,
11:02
maybe a little more even,
271
647000
2000
talvez até um pouquinho mais.
11:04
but this is also
272
649000
3000
Mas isso também é
11:07
a largely solved problem.
273
652000
2000
um problema praticamente resolvido.
11:09
I have a hard time envisioning a future
274
654000
2000
Não consigo imaginar um futuro
11:11
in which someone is saying,
275
656000
2000
no qual alguém pergunte:
11:13
"Where, oh where, can I find a picture
276
658000
2000
"Onde será que posso achar uma foto de
11:15
of a cute cat?"
277
660000
2000
um gatinho engraçadinho?"
11:17
Ushahidi, by contrast,
278
662000
2000
Por outro lado, Ushahidi
11:19
is civic value.
279
664000
2000
tem valor cívico.
11:21
It's value created by the participants
280
666000
2000
É valor criado pelos seus participantes,
11:23
but enjoyed by society as a whole.
281
668000
2000
mas aproveitado pela sociedade como um todo.
11:25
The goals set out by Ushahidi
282
670000
2000
As metas estabelecidas pelo Ushahidi
11:27
are not just to make life better
283
672000
2000
não existem apenas para melhorar a vida
11:29
for the participants,
284
674000
2000
dos participantes,
11:31
but to make life better for everyone in the society
285
676000
3000
mas para melhorar a vida de todos na sociedade
11:34
in which Ushahidi is operating.
286
679000
2000
na qual Ushahidi está operando.
11:36
And that kind of civic value
287
681000
3000
E esse tipo de valor cívico
11:39
is not just a side effect
288
684000
2000
não é apenas um efeito colateral
11:41
of opening up to human motivation.
289
686000
3000
de abrir-se para a motivação humana.
11:44
It really is going to be a side effect
290
689000
2000
Será, realmente, um efeito colateral
11:46
of what we, collectively,
291
691000
2000
do que nós, coletivamente,
11:48
make of these kinds of efforts.
292
693000
3000
fazemos desses tipos de esforços.
11:51
There are a trillion
293
696000
2000
Existem um trilhão
11:53
hours a year
294
698000
2000
de horas por ano
11:55
of participatory value
295
700000
2000
de valor participatório
11:57
up for grabs.
296
702000
2000
disponíveis.
11:59
That will be true year-in and year-out.
297
704000
3000
Isso, sim, será permanente.
12:02
The number of people who are going to be able
298
707000
2000
O número de pessoas que será capaz
12:04
to participate in these kinds of projects
299
709000
2000
de participar desses tipos de projetos
12:06
is going to grow,
300
711000
2000
crescerá.
12:08
and we can see that organizations
301
713000
3000
E podemos ver que organizações
12:11
designed around a culture of generosity
302
716000
2000
criadas em torno da cultura da generosidade
12:13
can achieve incredible effects
303
718000
2000
podem obter efeitos incríveis,
12:15
without an enormous amount of contractual overhead --
304
720000
3000
sem imensos custos fixos contratuais.
12:18
a very different model
305
723000
2000
É um modelo muito diferente
12:20
than our default model for large-scale group action in the 20th century.
306
725000
3000
do modelo padrão de ação em grupo de larga escala do século 20.
12:24
What's going to make the difference here
307
729000
3000
O que fará a diferença neste caso
12:27
is what Dean Kamen said,
308
732000
3000
é aquilo dito por Dean Kamen,
12:30
the inventor and entrepreneur.
309
735000
2000
inventor e empreendedor.
12:32
Kamen said, "Free cultures get what they celebrate."
310
737000
3000
Kamen disse: "As culturas livres conseguem aquilo que celebram".
12:36
We've got a choice before us.
311
741000
3000
Temos uma escolha à nossa frente.
12:39
We've got this trillion hours a year.
312
744000
2000
Temos esse trilhão de horas anuais.
12:41
We can use it to crack each other up, and we're going to do that.
313
746000
3000
Podemos usar essas horas para nossa diversão, e faremos isso.
12:44
That, we get for free.
314
749000
2000
Isso sem pagar nada.
12:46
But we can also celebrate
315
751000
2000
Mas podemos também celebrar
12:48
and support and reward the people
316
753000
2000
e apoiar e recompensar as pessoas
12:50
trying to use cognitive surplus
317
755000
2000
tentando usar o superávit cognitivo
12:52
to create civic value.
318
757000
2000
para criar valor cívico.
12:54
And to the degree we're going to do that, to the degree we're able to do that,
319
759000
3000
E, na medida em que fizermos isso, na medida em que conseguirmos fazer isso.
12:57
we'll be able to change society.
320
762000
2000
conseguiremos mudar a sociedade.
12:59
Thank you very much.
321
764000
2000
Muito obrigado.
Translated by RAINER HARTMANN
Reviewed by Belucio Haibara

▲Back to top

ABOUT THE SPEAKER
Clay Shirky - Social Media Theorist
Clay Shirky argues that the history of the modern world could be rendered as the history of ways of arguing, where changes in media change what sort of arguments are possible -- with deep social and political implications.

Why you should listen

Clay Shirky's work focuses on the rising usefulness of networks -- using decentralized technologies such as peer-to-peer sharing, wireless, software for social creation, and open-source development. New technologies are enabling new kinds of cooperative structures to flourish as a way of getting things done in business, science, the arts and elsewhere, as an alternative to centralized and institutional structures, which he sees as self-limiting. In his writings and speeches he has argued that "a group is its own worst enemy."

Shirky is an adjunct professor in New York Universityʼs graduate Interactive Telecommunications Program, where he teaches a course named “Social Weather.” Heʼs the author of several books. This spring at the TED headquarters in New York, he gave an impassioned talk against SOPA/PIPA that saw 1 million views in 48 hours.

More profile about the speaker
Clay Shirky | Speaker | TED.com