ABOUT THE SPEAKER
Susan Blackmore - Memeticist
Susan Blackmore studies memes -- those self-replicating "life forms" that spread themselves via human consciousness. We're now headed, she believes, toward a new form of meme, spread by the technology we've created.

Why you should listen

Susan Blackmore is dedicated to understanding the scientific nature of consciousness. Her latest work centers on the existence of memes -- little bits of knowledge, lore, habit that seem to spread themselves using human brains as mere carriers. She's exploring the existence of a new class of meme, spread by human technology. It's temporarily named the "teme."

She has written about memes, consciousness, and near-death experiences; has appeared on the British Big Brother to discuss the psychology of the participants; and writes for the Guardian UK.

More profile about the speaker
Susan Blackmore | Speaker | TED.com
TED2008

Susan Blackmore: Memes and "temes"

Susan Blackmore sobre memes e "temes"

Filmed:
882,044 views

Susan Blackmore estuda memes: idéias que replicam-se de cérebro para cérebro como um vírus. Ela usa um ousado novo argumento: a humanidade gerou um novo tipo de meme, o teme, o qual espalha-se via tecnologia - e inventa maneiras de continuar vivo.
- Memeticist
Susan Blackmore studies memes -- those self-replicating "life forms" that spread themselves via human consciousness. We're now headed, she believes, toward a new form of meme, spread by the technology we've created. Full bio

Double-click the English transcript below to play the video.

00:18
Cultural evolution is a dangerous child
0
0
3000
A evolução cultural é uma criança perigosa
00:21
for any species to let loose on its planet.
1
3000
3000
para qualquer espécie para deixar solta nesse planeta.
00:24
By the time you realize what's happening, the child is a toddler,
2
6000
4000
E quando você for ver o que está acontecendo, o bebê é uma criança,
00:28
up and causing havoc, and it's too late to put it back.
3
10000
6000
em pé, causando destruição, e aí é muito tarde para guardá-la de volta.
00:34
We humans are Earth's Pandoran species.
4
16000
3000
Nós humanos somos a espécie “pandoriana” da Terra.
00:37
We're the ones who let the second replicator out of its box,
5
19000
5000
Somos aqueles que tiraram o segundo replicante de sua caixa,
00:42
and we can't push it back in.
6
24000
2000
E não podemos empurrá-lo de volta.
00:44
We're seeing the consequences all around us.
7
26000
3000
Estamos vendo as consequências à nossa volta.
00:48
Now that, I suggest, is the view that
8
30000
4000
Agora essa, eu sugiro, é a visão que
00:52
comes out of taking memetics seriously.
9
34000
2000
aparece quando se leva memética a sério.
00:54
And it gives us a new way of thinking about
10
36000
2000
E ela nos dá um novo modo de pensar sobre
00:56
not only what's going on on our planet,
11
38000
2000
não apenas no que acontece em nosso planeta,
00:58
but what might be going on elsewhere in the cosmos.
12
40000
3000
Mas no que pode estar acontecendo em algum lugar do cosmos.
01:01
So first of all, I'd like to say something about memetics
13
43000
3000
Então, primeiro, eu queria dizer algo sobre memética
01:04
and the theory of memes,
14
46000
2000
E a teoria dos memes,
01:06
and secondly, how this might answer questions about who's out there,
15
48000
5000
e segundo, como isto pode responder questões sobre quem está lá fora,
01:11
if indeed anyone is.
16
53000
3000
se de fato houver alguém.
01:14
So, memetics:
17
56000
2000
Então, memética.
01:16
memetics is founded on the principle of Universal Darwinism.
18
58000
4000
Memética é fundada no princípio de darwinismo universal.
01:20
Darwin had this amazing idea.
19
62000
3000
Darwin teve esta idéia incrível.
01:23
Indeed, some people say
20
65000
2000
De fato, alguns dizem que
01:25
it's the best idea anybody ever had.
21
67000
3000
é a melhor idéia que alguém já teve.
01:28
Isn't that a wonderful thought, that there could be such a thing
22
70000
4000
Não é este um pensamento maravilhoso, de que poderia haver algo
01:32
as a best idea anybody ever had?
23
74000
2000
como a melhor idéia que alguém já teve?
01:34
Do you think there could?
24
76000
1000
Vocês pensam que poderia?
01:35
Audience: No.
25
77000
1000
Platéia: Não.
01:36
(Laughter)
26
78000
1000
(Risadas)
01:37
Susan Blackmore: Someone says no, very loudly, from over there.
27
79000
2000
Susan Blackmore: Alguém disse não, bem alto, dali de cima.
01:39
Well, I say yes, and if there is, I give the prize to Darwin.
28
81000
4000
Bem, eu digo sim, e se há, eu dou o prêmio para Darwin.
01:43
Why?
29
85000
2000
Por quê?
01:45
Because the idea was so simple,
30
87000
3000
Por que a idéia foi tão simples,
01:48
and yet it explains all design in the universe.
31
90000
6000
e ainda assim explica todo o design do universo.
01:54
I would say not just biological design,
32
96000
2000
Eu diria não apenas o design biológico,
01:56
but all of the design that we think of as human design.
33
98000
2000
mas o design de tudo que pensamos como design humano.
01:58
It's all just the same thing happening.
34
100000
2000
É apenas a mesma coisa acontecendo em tudo.
02:00
What did Darwin say?
35
102000
2000
O que Darwin disse?
02:02
I know you know the idea, natural selection,
36
104000
2000
Eu sei que vocês sabem a idéia, seleção natural,
02:04
but let me just paraphrase "The Origin of Species," 1859,
37
106000
5000
mas deixem-me apenas parafrasear "A Origem das Espécies" de 1859,
02:09
in a few sentences.
38
111000
2000
em poucas frases.
02:11
What Darwin said was something like this:
39
113000
3000
O que Darwin disse foi algo como:
02:14
if you have creatures that vary, and that can't be doubted --
40
116000
4000
se você tem criaturas que variam, e disso não há dúvida -
02:18
I've been to the Galapagos, and I've measured the size of the beaks
41
120000
3000
Estive nas Ilhas Galápagos e medi o tamanho dos bicos
02:21
and the size of the turtle shells and so on, and so on.
42
123000
2000
e o tamanho dos cascos de tartarugas, e assim por diante.
02:23
And 100 pages later.
43
125000
2000
E cem páginas depois -
02:25
(Laughter)
44
127000
2000
(Risos)
02:27
And if there is a struggle for life,
45
129000
4000
E se há uma batalha pela vida,
02:31
such that nearly all of these creatures die --
46
133000
3000
tal que quase todas as criaturas morram -
02:34
and this can't be doubted, I've read Malthus
47
136000
3000
e disso não há dúvida, pois eu li Malthus
02:37
and I've calculated how long it would take for elephants
48
139000
2000
e calculei quanto tempo iria levar para os elefantes
02:39
to cover the whole world if they bred unrestricted, and so on and so on.
49
141000
3000
cobrirem o planeta se eles procriassem livremente, e assim por diante.
02:42
And another 100 pages later.
50
144000
4000
E outras cem páginas depois.
02:46
And if the very few that survive pass onto their offspring
51
148000
5000
E se aqueles poucos que sobreviveram passarem para seus filhotes
02:51
whatever it was that helped them survive,
52
153000
3000
seja lá o que for que os ajudou a sobreviver
02:54
then those offspring must be better adapted
53
156000
2000
então essas crias devem ser melhor adaptadas
02:56
to the circumstances in which all this happened
54
158000
2000
para as circunstâncias nas quais isso tudo ocorreu
02:58
than their parents were.
55
160000
3000
do que seus pais o foram.
03:01
You see the idea?
56
163000
2000
Vêem a idéia?
03:03
If, if, if, then.
57
165000
2000
Se, se, se, então.
03:05
He had no concept of the idea of an algorithm,
58
167000
2000
Ele não tinha idéia do conceito de algoritmo.
03:07
but that's what he described in that book,
59
169000
3000
Mas é o que ele descreveu nesse livro,
03:10
and this is what we now know as the evolutionary algorithm.
60
172000
3000
e isto é o que agora conhecemos como algoritmo evolutivo.
03:13
The principle is you just need those three things --
61
175000
4000
O princípio é que você só precisa de três coisas -
03:17
variation, selection and heredity.
62
179000
3000
diversidade, seleção e hereditariedade.
03:20
And as Dan Dennett puts it, if you have those,
63
182000
4000
E como Dan Dennet coloca, se você as têm
03:24
then you must get evolution.
64
186000
2000
então você deve ter evolução.
03:26
Or design out of chaos, without the aid of mind.
65
188000
5000
Ou design a partir do caos sem a ajuda de uma mente.
03:31
There's one word I love on that slide.
66
193000
2000
Há uma palavra que eu amo nesse slide.
03:33
What do you think my favorite word is?
67
195000
2000
Qual vocês acham que é minha palavra favorita?
03:35
Audience: Chaos.
68
197000
1000
Platéia: Caos.
03:36
SB: Chaos? No. What? Mind? No.
69
198000
3000
SB: Caos? Não. O quê? Mente? Não.
03:39
Audience: Without.
70
201000
1000
Platéia: Sem.
03:40
SB: No, not without.
71
202000
1000
SB: Não, não é sem.
03:41
(Laughter)
72
203000
1000
(Risos)
03:42
You try them all in order: Mmm...?
73
204000
2000
Tentem elas por ordem: Dee…
03:44
Audience: Must.
74
206000
1000
Platéia: Deve.
03:45
SB: Must, at must. Must, must.
75
207000
4000
Deve, deverá, deve.
03:49
This is what makes it so amazing.
76
211000
2000
Isto é o que faz isso tão incrível.
03:51
You don't need a designer,
77
213000
3000
Você não precisa de designer,
03:54
or a plan, or foresight, or anything else.
78
216000
3000
ou um plano, ou uma previsão ou nada mais.
03:57
If there's something that is copied with variation
79
219000
3000
Se há algo que é copiado com variação
04:00
and it's selected, then you must get design appearing out of nowhere.
80
222000
4000
e é selecionado, então você deve ter o design surgindo do nada.
04:04
You can't stop it.
81
226000
2000
Você não pode pará-lo.
04:06
Must is my favorite word there.
82
228000
4000
Deve é minha palavra favorita.
04:11
Now, what's this to do with memes?
83
233000
2000
Agora, o que tem isso a ver com memes?
04:13
Well, the principle here applies to anything
84
235000
5000
Bem, o princípio aqui se aplica a qualquer coisa
04:18
that is copied with variation and selection.
85
240000
1000
que é copiada com variação e seleção.
04:19
We're so used to thinking in terms of biology,
86
241000
3000
Estamos tão acostumados a pensar em termos de biologia,
04:22
we think about genes this way.
87
244000
2000
que pensamos sobre genes dessa maneira.
04:24
Darwin didn't, of course; he didn't know about genes.
88
246000
3000
Darwin não, é claro, ele não sabia sobre genes.
04:27
He talked mostly about animals and plants,
89
249000
2000
Ele falou mais sobre animais e plantas,
04:29
but also about languages evolving and becoming extinct.
90
251000
3000
mas também falou sobre línguas evoluindo e tornando-se extintas.
04:32
But the principle of Universal Darwinism
91
254000
2000
Mas o princípio de darwinismo universal
04:34
is that any information that is varied and selected
92
256000
4000
é que qualquer informação que é variada e selecionada
04:38
will produce design.
93
260000
2000
irá produzir design.
04:40
And this is what Richard Dawkins was on about
94
262000
2000
E isso é o que Richard Dawkins discutia
04:42
in his 1976 bestseller, "The Selfish Gene."
95
264000
3000
no seu sucesso de vendas de 1976, "O Gene Egoísta".
04:45
The information that is copied, he called the replicator.
96
267000
4000
A informação que é copiada, ele chamou de replicador.
04:49
It selfishly copies.
97
271000
2000
Ele copia-se egoisticamente.
04:51
Not meaning it kind of sits around inside cells going, "I want to get copied."
98
273000
4000
Não significa algo sentado no interior da célula pensando "quero ser copiado".
04:55
But that it will get copied if it can,
99
277000
2000
Mas que aquilo será copiado se puder,
04:57
regardless of the consequences.
100
279000
2000
a despeito das consequências.
05:00
It doesn't care about the consequences because it can't,
101
282000
3000
Não se importa com as consequências porque não pode,
05:03
because it's just information being copied.
102
285000
2000
porque é apenas informação sendo copiada.
05:06
And he wanted to get away
103
288000
1000
E ele quis se distanciar
05:07
from everybody thinking all the time about genes,
104
289000
3000
de todo mundo que pensava o tempo todo em genes,
05:10
and so he said, "Is there another replicator out there on the planet?"
105
292000
3000
e então ele disse, "Haverá um outro replicante no planeta?"
05:13
Ah, yes, there is.
106
295000
2000
Ah, sim, há sim.
05:15
Look around you -- here will do, in this room.
107
297000
3000
Olhem em volta, aqui vai servir, nessa sala.
05:18
All around us, still clumsily drifting about
108
300000
3000
Tudo à nossa volta, ainda vagando desajeitadamente sobre
05:21
in its primeval soup of culture, is another replicator.
109
303000
3000
uma sopa primitiva cultural, é um outro replicador.
05:24
Information that we copy from person to person, by imitation,
110
306000
5000
Informação que copiamos de pessoa para pessoa por imitação,
05:29
by language, by talking, by telling stories,
111
311000
2000
pela linguagem, falando, contando histórias,
05:31
by wearing clothes, by doing things.
112
313000
3000
vestindo roupas, fazendo coisas.
05:34
This is information copied with variation and selection.
113
316000
5000
Isso é informação copiada com variação e seleção.
05:39
This is design process going on.
114
321000
3000
Isto é o processo de design ocorrendo.
05:42
He wanted a name for the new replicator.
115
324000
3000
Ele quis um nome para o novo replicador.
05:45
So, he took the Greek word "mimeme," which means that which is imitated.
116
327000
4000
Então ele pegou a palavra grega "mineme", que significa “o que é imitado”.
05:49
Remember that, that's the core definition:
117
331000
2000
Lembrem-se disso, a definição central.
05:52
that which is imitated.
118
334000
1000
Que é imitado.
05:53
And abbreviated it to meme, just because it sounds good
119
335000
3000
E abreviou para meme, só porque soa bem
05:56
and made a good meme, an effective spreading meme.
120
338000
3000
e fez um bom meme, um que efetivamente espalhou-se.
05:59
So that's how the idea came about.
121
341000
3000
Então foi assim que a idéia apareceu.
06:03
It's important to stick with that definition.
122
345000
3000
É importante permanecer na definição central.
06:06
The whole science of memetics is much maligned,
123
348000
4000
A ciência da memética é muito mal falada.
06:10
much misunderstood, much feared.
124
352000
3000
muito mal-entendida, muito temida.
06:13
But a lot of these problems can be avoided
125
355000
3000
Mas um monte desses problemas pode ser evitado,
06:16
by remembering the definition.
126
358000
2000
lembrando-se da definição.
06:18
A meme is not equivalent to an idea.
127
360000
2000
Um meme não equivale a uma idéia.
06:20
It's not an idea. It's not equivalent to anything else, really.
128
362000
2000
Não é uma idéia, não é equivalente a nada, na realidade.
06:22
Stick with the definition.
129
364000
2000
Permaneçam na definição.
06:24
It's that which is imitated,
130
366000
2000
É o que pode ser copiado.
06:26
or information which is copied from person to person.
131
368000
3000
Ou informação a qual é copiada de pessoa para pessoa.
06:30
So, let's see some memes.
132
372000
1000
Então vamos ver alguns memes.
06:31
Well, you sir, you've got those glasses hung around your neck
133
373000
3000
Bem, o senhor, você tem esse óculos pendurados no pescoço
06:34
in that particularly fetching way.
134
376000
2000
de um jeito particularmente elegante.
06:36
I wonder whether you invented that idea for yourself,
135
378000
2000
Eu me pergunto se você inventou essa idéia por sí,
06:38
or copied it from someone else?
136
380000
2000
ou ela foi copiada de alguém?
06:40
If you copied it from someone else, it's a meme.
137
382000
3000
Se você copiou de alguém é um meme.
06:43
And what about, oh, I can't see any interesting memes here.
138
385000
3000
E que tal, ó, não consigo ver memes interessante aqui.
06:46
All right everyone, who's got some interesting memes for me?
139
388000
3000
E aí pessoal, quem tem memes interessantes para mim?
06:49
Oh, well, your earrings,
140
391000
2000
Hum, bem, seus brincos,
06:51
I don't suppose you invented the idea of earrings.
141
393000
2000
Eu suponho que você não inventou a idéia de usar brincos.
06:53
You probably went out and bought them.
142
395000
2000
Você provavelmente deu uma volta e os comprou.
06:55
There are plenty more in the shops.
143
397000
2000
Há muitos mais nas lojas.
06:57
That's something that's passed on from person to person.
144
399000
2000
Isto é algo que passa de pessoa para pessoa.
06:59
All the stories that we're telling -- well, of course,
145
401000
3000
E as histórias que estamos contando, bem, é claro,
07:02
TED is a great meme-fest, masses of memes.
146
404000
4000
TED é um festival de memes, uma massa de memes.
07:06
The way to think about memes, though,
147
408000
2000
A maneira de pensar sobre memes porém,
07:08
is to think, why do they spread?
148
410000
2000
é pensar, porque eles espalham-se?
07:10
They're selfish information, they will get copied, if they can.
149
412000
4000
Eles são informação egoísta, eles serão copiados se puderem.
07:14
But some of them will be copied because they're good,
150
416000
3000
Mas alguns deles serão copiados porque são bons,
07:17
or true, or useful, or beautiful.
151
419000
2000
ou verdadeiros, ou úteis, ou bonitos.
07:19
Some of them will be copied even though they're not.
152
421000
2000
Alguns deles serão copiados mesmo que não sejam.
07:21
Some, it's quite hard to tell why.
153
423000
2000
Alguns, é difícil dizer porque.
07:24
There's one particular curious meme which I rather enjoy.
154
426000
3000
Há um curioso meme em particular que eu gosto muito.
07:27
And I'm glad to say, as I expected, I found it when I came here,
155
429000
3000
E estou grata em dizer, como esperado, que o achei quando cheguei aqui,
07:30
and I'm sure all of you found it, too.
156
432000
2000
e estou certa de que todos vocês o acharam também.
07:32
You go to your nice, posh, international hotel somewhere,
157
434000
3000
Você vai para seu luxuoso hotel internacional em algum lugar,
07:36
and you come in and you put down your clothes
158
438000
2000
e você entra, tira suas roupas
07:38
and you go to the bathroom, and what do you see?
159
440000
3000
e vai para o banheiro, e o que você vê?
07:41
Audience: Bathroom soap.
160
443000
1000
Platéia: Sabonete.
07:42
SB: Pardon?
161
444000
1000
SB: Como?
07:43
Audience: Soap.
162
445000
1000
Platéia: Sabonete.
07:44
SB: Soap, yeah. What else do you see?
163
446000
2000
SB: Sabonete, sim, mas o que mais?
07:46
Audience: (Inaudible)
164
448000
1000
Platéia: (Inaudível)
07:47
SB: Mmm mmm.
165
449000
1000
SB: Hum hum.
07:48
Audience: Sink, toilet!
166
450000
1000
Platéia: Pia, papel higiênico!
07:49
SB: Sink, toilet, yes, these are all memes, they're all memes,
167
451000
2000
SB: Pia, papel higiênico, sim, todos esses são memes,
07:51
but they're sort of useful ones, and then there's this one.
168
453000
3000
mas estes são os úteis, e então tem esse aqui.
07:54
(Laughter)
169
456000
3000
(Risadas)
07:58
What is this one doing?
170
460000
2000
O que isto está fazendo?
08:00
(Laughter)
171
462000
1000
(Risadas)
08:01
This has spread all over the world.
172
463000
2000
Isto se espalhou pelo mundo todo.
08:03
It's not surprising that you all found it
173
465000
2000
Não é surpreendente que vocês o acharam
08:05
when you arrived in your bathrooms here.
174
467000
2000
quando chegaram nos seus banheiros aqui.
08:07
But I took this photograph in a toilet at the back of a tent
175
469000
5000
Mas tirei essa fotografia de um banheiro atrás de uma tenda
08:12
in the eco-camp in the jungle in Assam.
176
474000
2000
no eco-acampamento na selva de Assam.
08:14
(Laughter)
177
476000
1000
(Risadas)
08:16
Who folded that thing up there, and why?
178
478000
3000
Quem dobrou essa coisa lá, e por quê?
08:19
(Laughter)
179
481000
1000
(Risadas)
08:20
Some people get carried away.
180
482000
2000
Algumas pessoas se entusiasmam.
08:22
(Laughter)
181
484000
3000
(Risadas)
08:26
Other people are just lazy and make mistakes.
182
488000
3000
Outras são preguiçosas e cometem erros.
08:29
Some hotels exploit the opportunity to put even more memes
183
491000
3000
Alguns hotéis exploram a oportunidade para pôr ainda mais memes
08:32
with a little sticker.
184
494000
2000
com um pequeno adesivo.
08:34
(Laughter)
185
496000
1000
(Risadas)
08:35
What is this all about?
186
497000
2000
Do que se trata tudo isso?
08:37
I suppose it's there to tell you that somebody's
187
499000
2000
Eu suponho que é para te dizer que alguém
08:39
cleaned the place, and it's all lovely.
188
501000
2000
limpou o lugar, que está tudo adorável.
08:41
And you know, actually, all it tells you is that another person
189
503000
3000
E, sabe, tudo que isto te diz é que outra pessoa
08:44
has potentially spread germs from place to place.
190
506000
3000
potencialmente espalhou germes de um lugar para outro.
08:47
(Laughter)
191
509000
1000
(Risadas)
08:48
So, think of it this way.
192
510000
2000
Então pense nisso dessa forma.
08:50
Imagine a world full of brains
193
512000
2000
Imagine um mundo cheio de cérebros
08:52
and far more memes than can possibly find homes.
194
514000
3000
e muito mais memes do que casas possíveis para eles.
08:55
The memes are all trying to get copied --
195
517000
3000
Os memes estão tentando serem copiados,
08:58
trying, in inverted commas -- i.e.,
196
520000
3000
tentando, com aspas, isto é,
09:01
that's the shorthand for, if they can get copied, they will.
197
523000
3000
uma abreviação para "se podem ser copiados, serão".
09:04
They're using you and me as their propagating, copying machinery,
198
526000
6000
Estão usando vocês e eu como suas máquinas propagadoras,
09:10
and we are the meme machines.
199
532000
3000
e nós somos as máquinas de memes.
09:13
Now, why is this important?
200
535000
2000
Agora, por que isso é importante?
09:15
Why is this useful, or what does it tell us?
201
537000
2000
Por que é útil, ou o que isso nos diz?
09:17
It gives us a completely new view of human origins
202
539000
4000
Isso nos dá uma visão completamente nova da origem humana
09:21
and what it means to be human,
203
543000
1000
e do que significa ser humano.
09:22
all conventional theories of cultural evolution,
204
544000
4000
Todas as teorias convencionais da evolução cultural,
09:26
of the origin of humans,
205
548000
2000
da origem dos humanos,
09:28
and what makes us so different from other species.
206
550000
4000
e do que nos faz tão diferentes das outras espécies.
09:32
All other theories explaining the big brain, and language, and tool use
207
554000
2000
Todas as outras teorias que explicam o cérebro grande, uso de linguagem e ferramentas
09:34
and all these things that make us unique,
208
556000
2000
e todas essas coisas que nos fazem únicos,
09:36
are based upon genes.
209
558000
3000
são baseadas em genes.
09:39
Language must have been useful for the genes.
210
561000
3000
A linguagem deve ter sido útil para os genes.
09:42
Tool use must have enhanced our survival, mating and so on.
211
564000
3000
Ferramentas devem ter melhorado nossa sobrevivência, acasalamento etc.
09:45
It always comes back, as Richard Dawkins complained
212
567000
3000
Isso sempre retorna, como Richard Dawkinks reclamou
09:48
all that long time ago, it always comes back to genes.
213
570000
3000
sobre isso muito tempo atrás, sempre retorna aos genes.
09:51
The point of memetics is to say, "Oh no, it doesn't."
214
573000
4000
O ponto da memética é dizer que "não, não retorna".
09:55
There are two replicators now on this planet.
215
577000
3000
Existem dois replicadores agora no planeta.
09:58
From the moment that our ancestors,
216
580000
3000
Do momento em que nossos ancestrais,
10:01
perhaps two and a half million years ago or so,
217
583000
2000
talves dois milhões e meio de anos atrás,
10:03
began imitating, there was a new copying process.
218
585000
4000
começaram a imitar, houve um novo processo de cópia.
10:07
Copying with variation and selection.
219
589000
2000
Cópia com variação e seleção.
10:09
A new replicator was let loose, and it could never be --
220
591000
5000
Um novo replicante foi solto, e nunca poderia acontecer -
10:14
right from the start -- it could never be
221
596000
1000
desde o início, nunca poderia acontecer
10:15
that human beings who let loose this new creature,
222
597000
5000
que os seres humanos que soltaram essa nova criatura,
10:20
could just copy the useful, beautiful, true things,
223
602000
3000
pudessem apenas copiar o útil, o bonito, coisas verdadeiras,
10:23
and not copy the other things.
224
605000
2000
e não copiar outras coisas.
10:25
While their brains were having an advantage from being able to copy --
225
607000
3000
Enquanto seus cérebros tinham vantagem por serem capazes de copiar -
10:28
lighting fires, keeping fires going, new techniques of hunting,
226
610000
5000
fazer fogo, manter o fogo, novas técnicas de caça,
10:33
these kinds of things --
227
615000
2000
esses tipos de coisas -
10:35
inevitably they were also copying putting feathers in their hair,
228
617000
3000
inevitavelmente estavam também colocando penas em seus cabelos,
10:38
or wearing strange clothes, or painting their faces,
229
620000
2000
ou vestindo roupas estranhas, ou pintando suas faces,
10:40
or whatever.
230
622000
1000
ou qualquer coisa.
10:41
So, you get an arms race between the genes
231
623000
4000
Então você tem uma queda de braço entre os genes
10:45
which are trying to get the humans to have small economical brains
232
627000
4000
os quais tentam fazer os humanos terem cérebros pequenos, econômicos,
10:49
and not waste their time copying all this stuff,
233
631000
2000
e não gastarem seu tempo tempo copiando tudo isso,
10:51
and the memes themselves, like the sounds that people made and copied --
234
633000
4000
e os próprio memes, como os sons que as pessoas fizeram e copiaram -
10:56
in other words, what turned out to be language --
235
638000
2000
em outras palavras, o que se tornou a linguagem -
10:58
competing to get the brains to get bigger and bigger.
236
640000
3000
competindo para que os cérebros se tornem maiores.
11:01
So, the big brain, on this theory, is driven by the memes.
237
643000
4000
Então o cérebro grande nessa teoria é guiado pelos memes.
11:05
This is why, in "The Meme Machine," I called it memetic drive.
238
647000
4000
Por isso, no "The Meme Machine", eu chamei isso de direção memética.
11:09
As the memes evolve, as they inevitably must,
239
651000
3000
Enquanto os memes evoluem, como eles inevitavelmente devem,
11:12
they drive a bigger brain that is better at copying the memes
240
654000
4000
eles dirigem um cérebro maior que é melhor na cópia dos memes
11:16
that are doing the driving.
241
658000
2000
que estão realizando a direção.
11:18
This is why we've ended up with such peculiar brains,
242
660000
4000
Isto é o porquê de termos esses cérebros tão peculiares,
11:22
that we like religion, and music, and art.
243
664000
3000
de gostarmos de religião, e música, e arte.
11:25
Language is a parasite that we've adapted to,
244
667000
3000
A linguagem é um parasita ao qual nos adaptamos,
11:28
not something that was there originally for our genes,
245
670000
2000
não algo que estava lá, originalmente,
11:30
on this view.
246
672000
2000
por causa de nossos genes, nessa visão.
11:32
And like most parasites, it can begin dangerous,
247
674000
3000
E como muitos parasitas, ela pode começar perigosa,
11:35
but then it coevolves and adapts,
248
677000
3000
mas então ela co-evolui e adapta-se
11:38
and we end up with a symbiotic relationship
249
680000
2000
e terminamos numa relação simbiótica
11:40
with this new parasite.
250
682000
1000
com esse novo parasita.
11:41
And so, from our perspective,
251
683000
2000
Então de nossa perspectiva,
11:43
we don't realize that that's how it began.
252
685000
3000
não percebemos que é assim que isso começou.
11:46
So, this is a view of what humans are.
253
688000
3000
Então essa é uma visão do que são os humanos.
11:49
All other species on this planet are gene machines only,
254
691000
3000
Todas as outras espécies são máquinas genéticas apenas,
11:52
they don't imitate at all well, hardly at all.
255
694000
3000
eles não imitam nada bem, dificilmente.
11:55
We alone are gene machines and meme machines as well.
256
697000
5000
Somente nós somos máquinas genéticas e também máquinas meméticas.
12:00
The memes took a gene machine and turned it into a meme machine.
257
702000
4000
Os memes pegaram uma máquina genética e tornaram-na uma máquina memética.
12:04
But that's not all.
258
706000
2000
Mas isso não é tudo.
12:06
We have a new kind of memes now.
259
708000
3000
Temos novos tipos de memes agora.
12:09
I've been wondering for a long time,
260
711000
1000
Tenho pensado por muito tempo,
12:10
since I've been thinking about memes a lot,
261
712000
2000
já que tenho pensado muito em memes,
12:12
is there a difference between the memes that we copy --
262
714000
2000
há uma diferença entre memes que copiamos -
12:14
the words we speak to each other,
263
716000
2000
as palavras que falamos uns com os outros,
12:16
the gestures we copy, the human things --
264
718000
2000
os gestos que copiamos, as coisas humanas -
12:18
and all these technological things around us?
265
720000
2000
e todas essas coisas tecnológicas à nossa volta?
12:20
I have always, until now, called them all memes,
266
722000
4000
Tenho sempre, até agora, chamado todos eles memes,
12:24
but I do honestly think now
267
726000
3000
mas honestamente penso agora
12:27
we need a new word for technological memes.
268
729000
3000
que precisamos de uma nova palavra para memes tecnológicos.
12:30
Let's call them techno-memes or temes.
269
732000
3000
Vamos chamá-los tecnomemes, ou temes.
12:33
Because the processes are getting different.
270
735000
3000
Porque os processos estão se tornando diferentes.
12:37
We began, perhaps 5,000 years ago, with writing.
271
739000
3000
Começamos, talvez, cinco mil anos atrás, com a escrita.
12:40
We put the storage of memes out there on a clay tablet,
272
742000
7000
Criamos a armazenagem de memes com a tábua de argila,
12:48
but in order to get true temes and true teme machines,
273
750000
2000
mas para termos temes e máquinas de temes de verdade,
12:50
you need to get the variation, the selection and the copying,
274
752000
3000
você deve ter variação, seleção e a cópia,
12:53
all done outside of humans.
275
755000
2000
tudo feito de forma alheia aos humanos.
12:55
And we're getting there.
276
757000
2000
E estamos chegando lá.
12:57
We're at this extraordinary point where we're nearly there,
277
759000
2000
Estamos nesse ponto extraordinário onde estamos quase lá,
12:59
that there are machines like that.
278
761000
2000
de que haja máquinas como essas.
13:01
And indeed, in the short time I've already been at TED,
279
763000
2000
E de fato, no curto prazo que estive aqui na TED,
13:03
I see we're even closer than I thought we were before.
280
765000
2000
vejo que estamos ainda mais próximos do que eu pensava.
13:05
So actually, now the temes are forcing our brains
281
767000
6000
Então, na verdade, os temes estão forçando nossos cérebros
13:11
to become more like teme machines.
282
773000
2000
a tornarem-se mais como máquinas de temes.
13:13
Our children are growing up very quickly learning to read,
283
775000
3000
Nossas crianças estão aprendendo rapidamente a ler,
13:16
learning to use machinery.
284
778000
2000
aprendendo a usar o maquinário.
13:18
We're going to have all kinds of implants,
285
780000
1000
Teremos todo tipo de implantes,
13:19
drugs that force us to stay awake all the time.
286
781000
3000
drogas que nos forçam a permanecer acordados o tempo todo.
13:22
We'll think we're choosing these things,
287
784000
2000
E pensaremos que estamos escolhendo essas coisas,
13:24
but the temes are making us do it.
288
786000
3000
mas os temes estarão nos forçando a isso.
13:28
So, we're at this cusp now
289
790000
1000
Então estamos no ponto agora
13:29
of having a third replicator on our planet.
290
791000
4000
de termos um terceiro replicador no planeta.
13:34
Now, what about what else is going on out there in the universe?
291
796000
5000
Agora, o que mais está acontendo lá fora no universo?
13:39
Is there anyone else out there?
292
801000
2000
Há alguém mais lá fora?
13:41
People have been asking this question for a long time.
293
803000
3000
As pessoas têm perguntado isso por muito tempo.
13:44
We've been asking it here at TED already.
294
806000
2000
Já temos perguntado isso aqui na TED.
13:46
In 1961, Frank Drake made his famous equation,
295
808000
4000
Em 1961, Frank Drake fez sua famosa equação,
13:50
but I think he concentrated on the wrong things.
296
812000
2000
mas eu penso que ele se concentrou nas coisas erradas.
13:52
It's been very productive, that equation.
297
814000
2000
Esta equação tem sido muito produtiva.
13:54
He wanted to estimate N,
298
816000
2000
Ele quis estimar N,
13:56
the number of communicative civilizations out there in our galaxy,
299
818000
4000
o número de civilizações na galáxia, capazes de comunicação interplanetária.
14:00
and he included in there the rate of star formation,
300
822000
4000
E incluiu nela a taxa de formação das estrelas,
14:04
the rate of planets, but crucially, intelligence.
301
826000
4000
a taxa dos planetas, mas crucialmente, inteligência.
14:08
I think that's the wrong way to think about it.
302
830000
4000
Eu penso que essa é a maneira errada de pensar nisto.
14:12
Intelligence appears all over the place, in all kinds of guises.
303
834000
3000
Inteligência aparece em todos os lugares, em todo tipo de formas.
14:15
Human intelligence is only one kind of a thing.
304
837000
2000
Inteligência humana é apenas um tipo dessa coisa.
14:17
But what's really important is the replicators you have
305
839000
3000
Mas o que realmente importa são os replicadores que você tem
14:20
and the levels of replicators, one feeding on the one before.
306
842000
4000
e os níveis de replicadores, cada um se alimentando do anterior.
14:24
So, I would suggest that we don't think intelligence,
307
846000
5000
Então eu sugeriria que não pensássemos em inteligência,
14:29
we think replicators.
308
851000
2000
pensássemos em replicadores.
14:31
And on that basis, I've suggested a different kind of equation.
309
853000
3000
E nessa base, tenho sugerido um tipo diferente de equação.
14:34
A very simple equation.
310
856000
2000
Uma equação muito simples.
14:36
N, the same thing,
311
858000
2000
N, a mesma coisa,
14:38
the number of communicative civilizations out there
312
860000
3000
o número de civilizações comunicativas lá fora,
14:41
[that] we might expect in our galaxy.
313
863000
2000
que devemos esperar em nossa galáxia.
14:43
Just start with the number of planets there are in our galaxy.
314
865000
4000
Apenas começe com o número de planetas que estão em nossa galáxia.
14:47
The fraction of those which get a first replicator.
315
869000
4000
A fração daqueles os quais têm o primeiro replicador.
14:51
The fraction of those that get the second replicator.
316
873000
4000
A fração daqueles que têm o segundo replicador.
14:55
The fraction of those that get the third replicator.
317
877000
2000
A fração daqueles que têm o terceiro replicador.
14:58
Because it's only the third replicator that's going to reach out --
318
880000
3000
Porque é apenas o terceiro replicador que irá se comunicar
15:01
sending information, sending probes, getting out there,
319
883000
3000
enviando informação, enviando sondas, chegando ao espaço,
15:04
and communicating with anywhere else.
320
886000
2000
e comunicando-se com qualquer um.
15:06
OK, so if we take that equation,
321
888000
3000
Ok, então se pegarmos essa equação,
15:09
why haven't we heard from anybody out there?
322
891000
5000
por que não ouvimos nada de ninguém lá de fora?
15:14
Because every step is dangerous.
323
896000
4000
Porque todo passo é perigoso.
15:18
Getting a new replicator is dangerous.
324
900000
3000
Arrumar um novo replicador é perigoso.
15:21
You can pull through, we have pulled through,
325
903000
2000
Você pode sobreviver, nós sobrevivemos,
15:23
but it's dangerous.
326
905000
2000
mas é perigoso.
15:25
Take the first step, as soon as life appeared on this earth.
327
907000
3000
Tome o primeiro passo, tão logo a vida apareceu na Terra.
15:28
We may take the Gaian view.
328
910000
2000
Podemos tomar a visão de Gaia.
15:30
I loved Peter Ward's talk yesterday -- it's not Gaian all the time.
329
912000
3000
Amei a apresentação de Peter Ward ontem - não é Gaiana o tempo todo.
15:33
Actually, life forms produce things that kill themselves.
330
915000
3000
Na realidade, formas de vida produzem coisas que as matam.
15:36
Well, we did pull through on this planet.
331
918000
3000
Bem, de fato sobrevivemos nesse planeta.
15:39
But then, a long time later, billions of years later,
332
921000
2000
Mas então, muito tempo depois, bilhões de anos mais tarde,
15:41
we got the second replicator, the memes.
333
923000
3000
tivemos o segundo replicador, os memes.
15:44
That was dangerous, all right.
334
926000
2000
Que eram perigosos, tudo bem.
15:46
Think of the big brain.
335
928000
2000
Pense no cérebro grande.
15:48
How many mothers do we have here?
336
930000
3000
Quantas mães temos aqui?
15:51
You know all about big brains.
337
933000
2000
Vocês sabem tudo sobre cérebros grandes.
15:53
They are dangerous to give birth to,
338
935000
2000
Eles são perigosos para se dar a luz.
15:55
are agonizing to give birth to.
339
937000
2000
São dolorosos para se dar a luz.
15:57
(Laughter)
340
939000
1000
(Risadas)
15:59
My cat gave birth to four kittens, purring all the time.
341
941000
2000
Minha gata teve quatro gatinhos, miando o tempo todo.
16:01
Ah, mm -- slightly different.
342
943000
2000
Ah, hum, - meio diferente.
16:03
(Laughter)
343
945000
2000
(Risadas)
16:05
But not only is it painful, it kills lots of babies,
344
947000
3000
Mas, não apenas é dolorido, isso mata um monte de bebês.
16:08
it kills lots of mothers,
345
950000
2000
isso mata muitas mães,
16:10
and it's very expensive to produce.
346
952000
2000
e custa caro pra se fazer.
16:12
The genes are forced into producing all this myelin,
347
954000
2000
Os genes são forçados a produzir todas essa mielina,
16:14
all the fat to myelinate the brain.
348
956000
2000
toda essa gordura para mielinizar o cérebro.
16:16
Do you know, sitting here,
349
958000
2000
Sabem, sentados aqui,
16:18
your brain is using about 20 percent of your body's energy output
350
960000
4000
seus cérebros usam cerca de vinte por cento da energia corporal
16:22
for two percent of your body weight?
351
964000
2000
para dois por cento de massa corporal
16:24
It's a really expensive organ to run.
352
966000
2000
É realmente um órgão que custa caro manter.
16:26
Why? Because it's producing the memes.
353
968000
2000
Por quê? Por que ele está produzindo memes.
16:28
Now, it could have killed us off. It could have killed us off,
354
970000
4000
Agora, isto poderia nos ter matado, isto poderia nos ter matado,
16:32
and maybe it nearly did, but you see, we don't know.
355
974000
2000
e talvez quase o fizesse, mas você vê, nós não sabemos.
16:34
But maybe it nearly did.
356
976000
2000
Mas talvez quase o fez.
16:36
Has it been tried before?
357
978000
1000
Isso foi tentado antes?
16:37
What about all those other species?
358
979000
2000
E sobre as outras espécies?
16:39
Louise Leakey talked yesterday
359
981000
2000
Louise Leakey falou ontem
16:41
about how we're the only one in this branch left.
360
983000
3000
sobre como somos os únicos que restaram desse ramo.
16:44
What happened to the others?
361
986000
2000
O que aconteceu com os outros?
16:46
Could it be that this experiment in imitation,
362
988000
2000
Poderia ser que esse experimento em imitação,
16:48
this experiment in a second replicator,
363
990000
2000
esse experimento num segundo replicador,
16:50
is dangerous enough to kill people off?
364
992000
4000
é perigoso o suficiente para matar pessoas?
16:54
Well, we did pull through, and we adapted.
365
996000
2000
Bem, nós sobrevivemos, e nos adaptamos.
16:56
But now, we're hitting, as I've just described,
366
998000
3000
Mas agora, estamos atingindo, como descrevi,
16:59
we're hitting the third replicator point.
367
1001000
2000
estamos atingindo o ponto do terceiro replicador.
17:01
And this is even more dangerous --
368
1003000
3000
E isso é ainda mais perigoso -
17:04
well, it's dangerous again.
369
1006000
2000
Bom, é perigo de novo.
17:06
Why? Because the temes are selfish replicators
370
1008000
4000
Por quê? Por que os temes são replicadores egoístas
17:10
and they don't care about us, or our planet, or anything else.
371
1012000
3000
e não importam-se conosco, nosso planeta, ou nada mais.
17:13
They're just information, why would they?
372
1015000
3000
São apenas informação - porque deveriam?
17:17
They are using us to suck up the planet's resources
373
1019000
2000
Estão nos usando para sugar os recursos do planeta
17:19
to produce more computers,
374
1021000
2000
para produzir mais computadores,
17:21
and more of all these amazing things we're hearing about here at TED.
375
1023000
3000
e mais dessas coisas incríveis que ouvimos sobre, aqui na TED.
17:24
Don't think, "Oh, we created the Internet for our own benefit."
376
1026000
4000
Não pensem, "Ah, criamos a internet para nosso benefício".
17:28
That's how it seems to us.
377
1030000
2000
Isso é como isto nos parece.
17:30
Think, temes spreading because they must.
378
1032000
4000
Pense em temes espalhando-se porque devem.
17:34
We are the old machines.
379
1036000
2000
Somos as máquinas antigas.
17:36
Now, are we going to pull through?
380
1038000
2000
Agora, sobreviveremos?
17:38
What's going to happen?
381
1040000
2000
O que irá acontecer?
17:40
What does it mean to pull through?
382
1042000
2000
O que significa sobreviver?
17:42
Well, there are kind of two ways of pulling through.
383
1044000
2000
Bem, há duas maneiras de sobrevivermos.
17:45
One that is obviously happening all around us now,
384
1047000
2000
Uma que está acontecendo à nossa volta agora,
17:47
is that the temes turn us into teme machines,
385
1049000
4000
é que os temes nos tornam máquinas de temes,
17:51
with these implants, with the drugs,
386
1053000
2000
com esses implantes, com as drogas,
17:53
with us merging with the technology.
387
1055000
3000
com a gente fundindo com a tecnologia.
17:56
And why would they do that?
388
1058000
2000
E porque fariam isso?
17:58
Because we are self-replicating.
389
1060000
2000
Por que somos auto-replicantes.
18:00
We have babies.
390
1062000
2000
Temos bebês.
18:02
We make new ones, and so it's convenient to piggyback on us,
391
1064000
3000
Fazemos outros de nós, então é conveniente pegar carona na gente,
18:05
because we're not yet at the stage on this planet
392
1067000
4000
por que ainda não estamos no estágio nesse planeta
18:09
where the other option is viable.
393
1071000
2000
onde a outra opção é viável.
18:11
Although it's closer, I heard this morning,
394
1073000
2000
Embora esteja mais perto, ouvi essa manhã,
18:13
it's closer than I thought it was.
395
1075000
2000
está mais perto do que eu pensava.
18:15
Where the teme machines themselves will replicate themselves.
396
1077000
3000
Onde as máquinas de temes irão se replicar elas mesmas.
18:18
That way, it wouldn't matter if the planet's climate
397
1080000
4000
Dessa maneira, não teria importância se o clima do planeta
18:22
was utterly destabilized,
398
1084000
2000
fosse completamente desestabilizado,
18:24
and it was no longer possible for humans to live here.
399
1086000
2000
e não fosse mais possível para humanos viverem aqui.
18:26
Because those teme machines, they wouldn't need --
400
1088000
2000
Por que essas máquinas, elas não teriam necessidade -
18:28
they're not squishy, wet, oxygen-breathing,
401
1090000
2000
elas não são moles, úmidas, respiradoras de oxigênio,
18:30
warmth-requiring creatures.
402
1092000
3000
criaturas dependentes de calor.
18:33
They could carry on without us.
403
1095000
2000
Elas continuariam sem nós.
18:35
So, those are the two possibilities.
404
1097000
3000
Então, estas são as duas possibilidades.
18:38
The second, I don't think we're that close.
405
1100000
4000
A segunda, não penso que estejamos assim tão perto.
18:42
It's coming, but we're not there yet.
406
1104000
2000
Está chegando, mas não estamos lá ainda.
18:44
The first, it's coming too.
407
1106000
2000
A primeira, está chegando também.
18:46
But the damage that is already being done
408
1108000
3000
Mas o dano que já está sendo feito
18:49
to the planet is showing us how dangerous the third point is,
409
1111000
5000
para o planeta está nos mostrando o quão perigoso é o terceiro ponto,
18:54
that third danger point, getting a third replicator.
410
1116000
3000
aquele terceiro ponto perigoso, ganhar um terceiro replicador.
18:58
And will we get through this third danger point,
411
1120000
2000
E iremos sobreviver a esse terceiro ponto,
19:00
like we got through the second and like we got through the first?
412
1122000
3000
como sobrevivemos ao segundo e ao primeiro?
19:04
Maybe we will, maybe we won't.
413
1126000
2000
Talvez iremos, talvez não.
19:06
I have no idea.
414
1128000
3000
Não tenho idéia.
19:13
(Applause)
415
1135000
10000
(Aplausos)
19:24
Chris Anderson: That was an incredible talk.
416
1146000
2000
Chris Anderson: Essa foi uma palestra incrível.
19:26
SB: Thank you. I scared myself.
417
1148000
2000
SB: Obrigada. Eu mesma me assustei.
19:28
CA: (Laughter)
418
1150000
1000
CA: (Risadas)
Translated by Rogerio Lourenco
Reviewed by Matheus Costa

▲Back to top

ABOUT THE SPEAKER
Susan Blackmore - Memeticist
Susan Blackmore studies memes -- those self-replicating "life forms" that spread themselves via human consciousness. We're now headed, she believes, toward a new form of meme, spread by the technology we've created.

Why you should listen

Susan Blackmore is dedicated to understanding the scientific nature of consciousness. Her latest work centers on the existence of memes -- little bits of knowledge, lore, habit that seem to spread themselves using human brains as mere carriers. She's exploring the existence of a new class of meme, spread by human technology. It's temporarily named the "teme."

She has written about memes, consciousness, and near-death experiences; has appeared on the British Big Brother to discuss the psychology of the participants; and writes for the Guardian UK.

More profile about the speaker
Susan Blackmore | Speaker | TED.com