ABOUT THE SPEAKER
Susan Blackmore - Memeticist
Susan Blackmore studies memes -- those self-replicating "life forms" that spread themselves via human consciousness. We're now headed, she believes, toward a new form of meme, spread by the technology we've created.

Why you should listen

Susan Blackmore is dedicated to understanding the scientific nature of consciousness. Her latest work centers on the existence of memes -- little bits of knowledge, lore, habit that seem to spread themselves using human brains as mere carriers. She's exploring the existence of a new class of meme, spread by human technology. It's temporarily named the "teme."

She has written about memes, consciousness, and near-death experiences; has appeared on the British Big Brother to discuss the psychology of the participants; and writes for the Guardian UK.

More profile about the speaker
Susan Blackmore | Speaker | TED.com
TED2008

Susan Blackmore: Memes and "temes"

Susan Blackmore parle des mèmes et des "tèmes"

Filmed:
882,044 views

Susan Blackmore étudie les mèmes: des idées qui se reproduisent de cerveau en cerveau comme un virus. Elle fait une proposition étonnante: l'humanité a donné naissance à un nouveau genre de mème, les tèmes, qui se reproduisent par la technologie - et inventent de nouvelles manières de survivre.
- Memeticist
Susan Blackmore studies memes -- those self-replicating "life forms" that spread themselves via human consciousness. We're now headed, she believes, toward a new form of meme, spread by the technology we've created. Full bio

Double-click the English transcript below to play the video.

00:18
CulturalCulturel evolutionévolution is a dangerousdangereux childenfant
0
0
3000
L'évolution culturelle est comme un bébé
00:21
for any speciesespèce to let looseen vrac on its planetplanète.
1
3000
3000
qu'il est dangereux de laisser aller à sa guise sur la planète.
00:24
By the time you realizeprendre conscience de what's happeningévénement, the childenfant is a toddlerenfant en bas âge,
2
6000
4000
Le temps de se rendre compte de ce qui se passe, le nouveau-né apprend à marcher
00:28
up and causingprovoquant havocravages, and it's too lateen retard to put it back.
3
10000
6000
et fait des ravages, et il est trop tard pour le rappeler.
00:34
We humanshumains are Earth'sDe la terre PandoranPandoran speciesespèce.
4
16000
3000
Nous les Humains sommes l'espèce de Pandore de la planète Terre.
00:37
We're the onesceux who let the secondseconde replicatorReplicator out of its boxboîte,
5
19000
5000
C'est nous qui avons laissé sortir le second réplicateur de la boite,
00:42
and we can't pushpousser it back in.
6
24000
2000
et nous ne pouvons l'y remettre.
00:44
We're seeingvoyant the consequencesconséquences all around us.
7
26000
3000
Nous en voyons les conséquences partout autour de nous.
00:48
Now that, I suggestsuggérer, is the viewvue that
8
30000
4000
Cette vision des choses s'impose, je pense,
00:52
comesvient out of takingprise memeticsmémétique seriouslysérieusement.
9
34000
2000
si on prend la mémétique au sérieux.
00:54
And it givesdonne us a newNouveau way of thinkingen pensant about
10
36000
2000
Elle nous apporte une nouvelle manière d'envisager
00:56
not only what's going on on our planetplanète,
11
38000
2000
non seulement ce qui se passe sur notre planète,
00:58
but what mightpourrait be going on elsewhereautre part in the cosmoscosmos.
12
40000
3000
mais aussi ce qui pourrait bien se passer ailleurs dans le cosmos.
01:01
So first of all, I'd like to say something about memeticsmémétique
13
43000
3000
Je vais tout d'abord vous parler de la mémétique
01:04
and the theorythéorie of memesmemes,
14
46000
2000
et de la théorie des mèmes,
01:06
and secondlyDeuxièmement, how this mightpourrait answerrépondre questionsdes questions about who'squi est out there,
15
48000
5000
puis ensuite comment elle peut répondre à la question de l'existence d'autres intelligences dans l'univers,
01:11
if indeedeffectivement anyonen'importe qui is.
16
53000
3000
si tant est qu'il en existe.
01:14
So, memeticsmémétique:
17
56000
2000
D'abord, la mémétique.
01:16
memeticsmémétique is foundedfondé on the principleprincipe of UniversalUniversal DarwinismDarwinisme.
18
58000
4000
La mémétique est fondée sur le principe du Darwinisme universel.
01:20
DarwinDarwin had this amazingincroyable ideaidée.
19
62000
3000
Darwin a eu une idée extraordinaire.
01:23
IndeedEn effet, some people say
20
65000
2000
Certains disent même que
01:25
it's the bestmeilleur ideaidée anybodyn'importe qui ever had.
21
67000
3000
c'est la meilleure idée qu'on ait jamais eu.
01:28
Isn't that a wonderfulformidable thought, that there could be suchtel a thing
22
70000
4000
N'est-ce pas merveilleux de penser qu'il peut exister
01:32
as a bestmeilleur ideaidée anybodyn'importe qui ever had?
23
74000
2000
une "meilleure idée qu'on ait jamais eu" ?
01:34
Do you think there could?
24
76000
1000
Pensez-vous que c'est possible ?
01:35
AudiencePublic: No.
25
77000
1000
(Le public: "non !")
01:36
(LaughterRires)
26
78000
1000
(rires)
01:37
SusanSusan BlackmoreBlackmore: SomeoneQuelqu'un saysdit no, very loudlyhaut et fort, from over there.
27
79000
2000
Susan Blackmore : Quelqu'un dit "non", très fort, là bas.
01:39
Well, I say yes, and if there is, I give the prizeprix to DarwinDarwin.
28
81000
4000
Moi je dis oui, et si c'est possible je donne le prix à Darwin.
01:43
Why?
29
85000
2000
Pourquoi ?
01:45
Because the ideaidée was so simplesimple,
30
87000
3000
Parce que son idée est très simple,
01:48
and yetencore it explainsexplique all designconception in the universeunivers.
31
90000
6000
et pourtant elle explique toute la conception de l'univers.
01:54
I would say not just biologicalbiologique designconception,
32
96000
2000
Non seulement la conception biologique,
01:56
but all of the designconception that we think of as humanHumain designconception.
33
98000
2000
mais aussi toutes les inventions humaines.
01:58
It's all just the sameMême thing happeningévénement.
34
100000
2000
Tout fonctionne selon le même mécanisme.
02:00
What did DarwinDarwin say?
35
102000
2000
Qu'est-ce que Darwin a dit au juste ?
02:02
I know you know the ideaidée, naturalNaturel selectionsélection,
36
104000
2000
Vous connaissez l'idée: la sélection naturelle.
02:04
but let me just paraphraseparaphrase "The OriginOrigine of SpeciesEspèces," 1859,
37
106000
5000
Laissez-moi juste paraphraser son livre "L'origine des Espèces" (1859)
02:09
in a fewpeu sentencesphrases.
38
111000
2000
en quelques phrases.
02:11
What DarwinDarwin said was something like this:
39
113000
3000
Darwin a dit à peu près cela:
02:14
if you have creaturescréatures that varyvarier, and that can't be doubtedmise en doute --
40
116000
4000
s'il existe une variété entre les créatures d'une même espèce, et ça ne fait aucun doute --
02:18
I've been to the GalapagosGalapagos, and I've measuredmesuré the sizeTaille of the beaksbecs
41
120000
3000
j'ai été aux Galapagos, j'ai mesuré la taille des becs
02:21
and the sizeTaille of the turtleTortue shellscoquilles and so on, and so on.
42
123000
2000
et des carapaces de tortues, etc etc...
02:23
And 100 pagespages laterplus tard.
43
125000
2000
et 100 pages plus tard --
02:25
(LaughterRires)
44
127000
2000
(rires)
02:27
And if there is a strugglelutte for life,
45
129000
4000
Et si la vie est un combat,
02:31
suchtel that nearlypresque all of these creaturescréatures diemourir --
46
133000
3000
qui entraine la mort de presque toutes ces créatures --
02:34
and this can't be doubtedmise en doute, I've readlis MalthusMalthus
47
136000
3000
et ça ne fait aucun doute, j'ai lu Malthus
02:37
and I've calculatedcalculé how long it would take for elephantsles éléphants
48
139000
2000
et j'ai calculé le temps qu'il faudrait aux éléphants
02:39
to covercouverture the wholeentier worldmonde if they bredde race unrestrictedsans restriction, and so on and so on.
49
141000
3000
pour peupler la terre entière s'ils se reproduisaient sans contraintes, etc etc...
02:42
And anotherun autre 100 pagespages laterplus tard.
50
144000
4000
et à nouveau 100 pages plus tard --
02:46
And if the very fewpeu that survivesurvivre passpasser ontosur theirleur offspringprogéniture
51
148000
5000
Et si le petit nombre qui survit passe à leur descendance
02:51
whateverpeu importe it was that helpedaidé them survivesurvivre,
52
153000
3000
ce qui leur a permis de survivre,
02:54
then those offspringprogéniture mustdoit be better adaptedadapté
53
156000
2000
alors cette descendance doit être mieux adaptée
02:56
to the circumstancesconditions in whichlequel all this happenedarrivé
54
158000
2000
aux circonstances particulières qui l'entourent
02:58
than theirleur parentsParents were.
55
160000
3000
que ses parents.
03:01
You see the ideaidée?
56
163000
2000
Vous voyez l'idée ?
03:03
If, if, if, then.
57
165000
2000
Si, Si, Si, Alors.
03:05
He had no conceptconcept of the ideaidée of an algorithmalgorithme de,
58
167000
2000
Il n'avait aucune idée de ce qu'est un algorithme,
03:07
but that's what he describeddécrit in that booklivre,
59
169000
3000
mais c'est bien cela qu'il a décrit dans son livre,
03:10
and this is what we now know as the evolutionaryévolutionniste algorithmalgorithme de.
60
172000
3000
que nous connaissons maintenant sous le terme d' "algorithme évolutionnaire".
03:13
The principleprincipe is you just need those threeTrois things --
61
175000
4000
En principe vous n'avez besoin que de ces trois éléments:
03:17
variationvariation, selectionsélection and heredityhérédité.
62
179000
3000
variation, sélection et hérédité.
03:20
And as DanDan DennettDennett putsmet it, if you have those,
63
182000
4000
Et comme le dit Dan Dennett, si vous avez cela,
03:24
then you mustdoit get evolutionévolution.
64
186000
2000
alors vous devez obtenir de l'évolution.
03:26
Or designconception out of chaosle chaos, withoutsans pour autant the aidaide of mindesprit.
65
188000
5000
Ou de l'ordre à partir du chaos sans intervention d'intelligence.
03:31
There's one wordmot I love on that slidefaire glisser.
66
193000
2000
Il y a un mot que j'adore dans cette définition.
03:33
What do you think my favoritepréféré wordmot is?
67
195000
2000
A votre avis c'est lequel ?
03:35
AudiencePublic: ChaosChaos.
68
197000
1000
(Le public : "Chaos")
03:36
SBSB: ChaosChaos? No. What? MindEsprit? No.
69
198000
3000
SB : Chaos ? Non. Quoi ? Intelligence ? Non.
03:39
AudiencePublic: WithoutSans.
70
201000
1000
(Le public : "Sans")
03:40
SBSB: No, not withoutsans pour autant.
71
202000
1000
SB : Non, pas Sans.
03:41
(LaughterRires)
72
203000
1000
(rires)
03:42
You try them all in ordercommande: MmmMmm...?
73
204000
2000
Vous les essayez tous dans l'ordre ?
03:44
AudiencePublic: MustDoit.
74
206000
1000
(audience: "Devez")
03:45
SBSB: MustDoit, at mustdoit. MustDoit, mustdoit.
75
207000
4000
Devez. Devoir. Obligation.
03:49
This is what makesfait du it so amazingincroyable.
76
211000
2000
C'est ça qui est tellement étonnant.
03:51
You don't need a designerdesigner,
77
213000
3000
Vous n'avez pas besoin d'un concepteur,
03:54
or a planplan, or foresightprospective, or anything elseautre.
78
216000
3000
d'un plan, d'une idée préalable ou de quoi que ce soit d'autre.
03:57
If there's something that is copiedcopié with variationvariation
79
219000
3000
Si ça peut être copié avec variation
04:00
and it's selectedchoisi, then you mustdoit get designconception appearingapparaissant out of nowherenulle part.
80
222000
4000
et si c'est sélectionné, alors vous aurez de l'intelligence qui sort de nulle part.
04:04
You can't stop it.
81
226000
2000
C'est inévitable.
04:06
MustDoit is my favoritepréféré wordmot there.
82
228000
4000
"Devez" est mon mot favori.
04:11
Now, what's this to do with memesmemes?
83
233000
2000
Alors, quel rapport avec les mèmes ?
04:13
Well, the principleprincipe here appliesapplique to anything
84
235000
5000
Le principe que je viens d'expliquer s'applique à tout ce qui est copié
04:18
that is copiedcopié with variationvariation and selectionsélection.
85
240000
1000
avec variation et sélection.
04:19
We're so used to thinkingen pensant in termstermes of biologyla biologie,
86
241000
3000
On envisage habituellement cela dans le cadre
04:22
we think about genesgènes this way.
87
244000
2000
de la biologie et des gènes.
04:24
DarwinDarwin didn't, of coursecours; he didn't know about genesgènes.
88
246000
3000
Darwin, lui, ne connaissait pas les gènes.
04:27
He talkeda parlé mostlyla plupart about animalsanimaux and plantsles plantes,
89
249000
2000
Il parlait surtout des animaux et des plantes,
04:29
but alsoaussi about languageslangues evolvingévoluant and becomingdevenir extinctdisparu.
90
251000
3000
mais également des langages qui évoluent et s'éteignent.
04:32
But the principleprincipe of UniversalUniversal DarwinismDarwinisme
91
254000
2000
Mais le principe du Darwinisme universel
04:34
is that any informationinformation that is variedvarié and selectedchoisi
92
256000
4000
est que toute information qui peut varier et être sélectionnée
04:38
will produceproduire designconception.
93
260000
2000
produira une évolution intelligente.
04:40
And this is what RichardRichard DawkinsDawkins was on about
94
262000
2000
C'est cela que Richard Dawkins a évoqué
04:42
in his 1976 bestsellerbestseller, "The SelfishÉgoïste GeneGène."
95
264000
3000
dans son livre à succès de 1976, "Le Gène égoïste".
04:45
The informationinformation that is copiedcopié, he calledappelé the replicatorReplicator.
96
267000
4000
Il appelle le phénomène de copie de l'information un Réplicateur.
04:49
It selfishlyégoïstement copiescopies.
97
271000
2000
Il fait des copies de lui-même égoïstement.
04:51
Not meaningsens it kindgentil of sitsassis around insideà l'intérieur cellscellules going, "I want to get copiedcopié."
98
273000
4000
Egoïste, non pas parce qu'il reste assis dans les cellules à crier "Je veux être copié !",
04:55
But that it will get copiedcopié if it can,
99
277000
2000
mais plutôt parce qu'il se reproduit dès qu'il en a l'occasion,
04:57
regardlessindépendamment of the consequencesconséquences.
100
279000
2000
quelles qu'en soient les conséquences.
05:00
It doesn't carese soucier about the consequencesconséquences because it can't,
101
282000
3000
Il ne s'occupe pas des conséquences car il ne le peut pas,
05:03
because it's just informationinformation beingétant copiedcopié.
102
285000
2000
car il est juste un bout d'information qui est copié.
05:06
And he wanted to get away
103
288000
1000
Richard Dawkins voulait qu'on arrête
05:07
from everybodyTout le monde thinkingen pensant all the time about genesgènes,
104
289000
3000
de penser uniquement aux gènes,
05:10
and so he said, "Is there anotherun autre replicatorReplicator out there on the planetplanète?"
105
292000
3000
et donc il demanda: "Y-a-t'il un autre réplicateur sur la planète ?"
05:13
AhAh, yes, there is.
106
295000
2000
Et oui, il y en a un.
05:15
Look around you -- here will do, in this roomchambre.
107
297000
3000
Regardez autour de vous, dans cette pièce même.
05:18
All around us, still clumsilymaladroitement driftingà la dérive about
108
300000
3000
Tout autour de nous, flottant maladroitement dans
05:21
in its primevalPrimeVal soupsoupe of cultureCulture, is anotherun autre replicatorReplicator.
109
303000
3000
son bouillon de culture primordial, se trouve un autre réplicateur.
05:24
InformationInformations that we copycopie from personla personne to personla personne, by imitationimitation,
110
306000
5000
Des informations que nous copions de l'un à l'autre par imitation,
05:29
by languagela langue, by talkingparlant, by tellingrécit storieshistoires,
111
311000
2000
par la parole, en racontant des histoires,
05:31
by wearingportant clothesvêtements, by doing things.
112
313000
3000
en portant des vêtements, en faisant des choses.
05:34
This is informationinformation copiedcopié with variationvariation and selectionsélection.
113
316000
5000
Ces informations sont copiées avec de la variation et de la sélection.
05:39
This is designconception processprocessus going on.
114
321000
3000
C'est un processus évolutif à l'oeuvre.
05:42
He wanted a nameprénom for the newNouveau replicatorReplicator.
115
324000
3000
Dawkins voulait nommer ce nouveau réplicateur.
05:45
So, he tooka pris the GreekGrec wordmot "mimememimeme," whichlequel meansveux dire that whichlequel is imitatedimité.
116
327000
4000
Il a pris le mot grec mimeme, "ce qui est imité".
05:49
RememberN’oubliez pas that, that's the corecoeur definitiondéfinition:
117
331000
2000
Souvenez-vous, c'est la définition de base.
05:52
that whichlequel is imitatedimité.
118
334000
1000
Ce qui est imité.
05:53
And abbreviateden abrégé it to memememe, just because it soundsdes sons good
119
335000
3000
Il l'a abbrégé en "mème", car il trouvait le mot plus joli
05:56
and madefabriqué a good memememe, an effectiveefficace spreadingdiffusion memememe.
120
338000
3000
et a ainsi fabriqué un nouveau mème, qui s'est répandu efficacement.
05:59
So that's how the ideaidée camevenu about.
121
341000
3000
C'est ainsi que l'idée a été créée.
06:03
It's importantimportant to stickbâton with that definitiondéfinition.
122
345000
3000
Il est important de s'en tenir à cette définition.
06:06
The wholeentier sciencescience of memeticsmémétique is much malignedcalomnié,
123
348000
4000
La mémétique est souvent décriée,
06:10
much misunderstoodmal compris, much fearedcraignait.
124
352000
3000
incomprise, crainte.
06:13
But a lot of these problemsproblèmes can be avoidedévité
125
355000
3000
Mais beaucoup de ces problèmes peuvent être évités
06:16
by rememberingse souvenir the definitiondéfinition.
126
358000
2000
si on se souvient de sa définition exacte.
06:18
A memememe is not equivalentéquivalent to an ideaidée.
127
360000
2000
Un mème n'est pas équivalent à une idée.
06:20
It's not an ideaidée. It's not equivalentéquivalent to anything elseautre, really.
128
362000
2000
Le mème n'a en réalité pas d'équivalent.
06:22
StickBâton with the definitiondéfinition.
129
364000
2000
Collez à la définition:
06:24
It's that whichlequel is imitatedimité,
130
366000
2000
ce qui est imité.
06:26
or informationinformation whichlequel is copiedcopié from personla personne to personla personne.
131
368000
3000
Ou : des informations copiées d'une personne à une autre.
06:30
So, let's see some memesmemes.
132
372000
1000
Bon, essayons de trouver quelques mèmes.
06:31
Well, you sirMonsieur, you've got those glassesdes lunettes hungpendu around your neckcou
133
373000
3000
Vous, monsieur, vous avez vos lunettes accrochées autour de votre cou
06:34
in that particularlyparticulièrement fetchingaller chercher way.
134
376000
2000
de manière particulièrement élégante.
06:36
I wondermerveille whetherqu'il s'agisse you inventeda inventé that ideaidée for yourselftoi même,
135
378000
2000
Je me demande si vous en avez eu l'idée vous-même,
06:38
or copiedcopié it from someoneQuelqu'un elseautre?
136
380000
2000
ou si vous l'avez copié sur quelqu'un d'autre ?
06:40
If you copiedcopié it from someoneQuelqu'un elseautre, it's a memememe.
137
382000
3000
Si vous l'avez copié, c'est un mème.
06:43
And what about, oh, I can't see any interestingintéressant memesmemes here.
138
385000
3000
Voyons... oh, je ne vois pas beaucoup de mèmes intéressants ici.
06:46
All right everyonetoutes les personnes, who'squi est got some interestingintéressant memesmemes for me?
139
388000
3000
Quelqu'un a-t-il des mèmes intéressants dans la salle ?
06:49
Oh, well, your earringsBoucles d’oreilles,
140
391000
2000
Bien, vos boucles d'oreilles,
06:51
I don't supposesupposer you inventeda inventé the ideaidée of earringsBoucles d’oreilles.
141
393000
2000
je ne pense pas que vous avez inventé l'idée des boucles d'oreilles.
06:53
You probablyProbablement wentest allé out and boughtacheté them.
142
395000
2000
Vous les avez probablement achetées.
06:55
There are plentybeaucoup more in the shopsmagasins.
143
397000
2000
On en trouve plein d'autres dans les magasins.
06:57
That's something that's passedpassé on from personla personne to personla personne.
144
399000
2000
C'est une chose qui est passée de l'un à l'autre.
06:59
All the storieshistoires that we're tellingrécit -- well, of coursecours,
145
401000
3000
Toutes les histoires qu'on raconte, comme bien sûr
07:02
TEDTED is a great meme-festmeme-fest, massesmasses of memesmemes.
146
404000
4000
ici à TED, la grand-messe des mèmes, des tonnes de mèmes.
07:06
The way to think about memesmemes, thoughbien que,
147
408000
2000
Ce qu'il faut se demander sur les mèmes,
07:08
is to think, why do they spreadpropager?
148
410000
2000
c'est: pourquoi est-ce qu'ils se répandent ?
07:10
They're selfishégoïste informationinformation, they will get copiedcopié, if they can.
149
412000
4000
C'est de l'information égoïste, qui est copiée tant qu'elle le peut.
07:14
But some of them will be copiedcopié because they're good,
150
416000
3000
Certains sont copiés parce qu'ils sont bons,
07:17
or truevrai, or usefulutile, or beautifulbeau.
151
419000
2000
ou vrais, ou utiles, ou beaux.
07:19
Some of them will be copiedcopié even thoughbien que they're not.
152
421000
2000
D'autres seront copiés alors qu'ils ne sont rien de cela.
07:21
Some, it's quiteassez harddifficile to tell why.
153
423000
2000
Pour certains il est vraiment difficile de savoir pourquoi.
07:24
There's one particularparticulier curiouscurieuse memememe whichlequel I ratherplutôt enjoyprendre plaisir.
154
426000
3000
Comme par exemple, ce mème qui m'amuse beaucoup.
07:27
And I'm gladcontent de to say, as I expectedattendu, I founda trouvé it when I camevenu here,
155
429000
3000
Et je suis heureuse de l'avoir trouvé ici aussi, comme je m'y attendais.
07:30
and I'm sure all of you founda trouvé it, too.
156
432000
2000
Et je suis sûr que vous l'avez trouvé aussi.
07:32
You go to your niceagréable, poshPosh, internationalinternational hotelun hôtel somewherequelque part,
157
434000
3000
Vous allez dans votre petit hôtel international,
07:36
and you come in and you put down your clothesvêtements
158
438000
2000
vous entrez dans votre chambre, vous vous installez,
07:38
and you go to the bathroomsalle de bains, and what do you see?
159
440000
3000
vous allez dans la salle de bain, et qu'est-ce que vous trouvez ?
07:41
AudiencePublic: BathroomSalle de bain soapsavon.
160
443000
1000
(Le public : "du savon")
07:42
SBSB: PardonPardon?
161
444000
1000
SB : Pardon ?
07:43
AudiencePublic: SoapSavon.
162
445000
1000
(Le public : "du savon")
07:44
SBSB: SoapSavon, yeah. What elseautre do you see?
163
446000
2000
Oui, du savon. Mais quoi d'autre ?
07:46
AudiencePublic: (InaudibleInaudible)
164
448000
1000
(Le public : inaudible)
07:47
SBSB: MmmMmm mmmmmm.
165
449000
1000
SB : Mmmmh...
07:48
AudiencePublic: SinkÉvier, toilettoilette!
166
450000
1000
(Le public : "lavabo ! toilettes !")
07:49
SBSB: SinkÉvier, toilettoilette, yes, these are all memesmemes, they're all memesmemes,
167
451000
2000
SB : Oui, lavabo, toilettes, ce sont des mèmes,
07:51
but they're sortTrier of usefulutile onesceux, and then there's this one.
168
453000
3000
mais des mèmes utiles tout de même, et puis il y a celui-là.
07:54
(LaughterRires)
169
456000
3000
(rires)
07:58
What is this one doing?
170
460000
2000
Il sert à quoi celui-là ?
08:00
(LaughterRires)
171
462000
1000
(rires)
08:01
This has spreadpropager all over the worldmonde.
172
463000
2000
Il s'est répandu dans le monde entier.
08:03
It's not surprisingsurprenant that you all founda trouvé it
173
465000
2000
Il n'est pas trop étonnant que vous l'ayez tous trouvé
08:05
when you arrivedarrivée in your bathroomsdes salles here.
174
467000
2000
en arrivant dans vos salles de bain ici.
08:07
But I tooka pris this photographphotographier in a toilettoilette at the back of a tenttente
175
469000
5000
Mais j'ai pris cette photo dans les toilettes à l'arrière d'une tente
08:12
in the eco-campéco-camp in the junglejungle in AssamAssam.
176
474000
2000
dans un éco-camp dans la jungle d'Assam (Inde)
08:14
(LaughterRires)
177
476000
1000
(rires)
08:16
Who foldedplié that thing up there, and why?
178
478000
3000
Mais qui donc est allé plier ce truc là-bas, et pourquoi ?
08:19
(LaughterRires)
179
481000
1000
(rires)
08:20
Some people get carriedporté away.
180
482000
2000
Certains en font même un peu trop.
08:22
(LaughterRires)
181
484000
3000
(rires)
08:26
Other people are just lazyparesseux and make mistakeserreurs.
182
488000
3000
D'autres sont paresseux et font des erreurs.
08:29
Some hotelshôtels exploitexploit the opportunityopportunité to put even more memesmemes
183
491000
3000
Certains hôtels utilisent cette opportunité pour rajouter un autre mème
08:32
with a little stickerautocollant.
184
494000
2000
avec un petit auto-collant.
08:34
(LaughterRires)
185
496000
1000
(rires)
08:35
What is this all about?
186
497000
2000
Quelle est la raison derrière tout cela ?
08:37
I supposesupposer it's there to tell you that somebody'squelqu'un est
187
499000
2000
Je suppose que c'est une manière de vous dire que quelqu'un
08:39
cleanednettoyé the placeendroit, and it's all lovelycharmant.
188
501000
2000
a nettoyé l'endroit, et c'est assez joli.
08:41
And you know, actuallyréellement, all it tellsraconte you is that anotherun autre personla personne
189
503000
3000
En plus, ça vous permet de savoir que cette personne
08:44
has potentiallypotentiellement spreadpropager germsgermes from placeendroit to placeendroit.
190
506000
3000
a potentiellement transporté des microbes d'un endroit à un autre.
08:47
(LaughterRires)
191
509000
1000
(rires)
08:48
So, think of it this way.
192
510000
2000
Vous pouvez vous le représenter comme cela :
08:50
ImagineImaginez a worldmonde fullplein of brainscerveaux
193
512000
2000
imaginez un monde plein de cerveaux
08:52
and farloin more memesmemes than can possiblypeut-être find homesmaisons.
194
514000
3000
et encore plus de mèmes qui cherchent tous un refuge.
08:55
The memesmemes are all tryingen essayant to get copiedcopié --
195
517000
3000
Les mèmes essayent tous de se faire copier --
08:58
tryingen essayant, in invertedinversé commasvirgules -- i.e.,
196
520000
3000
-- "essayent" entre guillemets, c'est un raccourci
09:01
that's the shorthandsténographie for, if they can get copiedcopié, they will.
197
523000
3000
pour dire en réalité: s'ils peuvent être copiés ils le seront.
09:04
They're usingen utilisant you and me as theirleur propagatingde multiplication, copyingcopier machinerymachinerie,
198
526000
6000
Ils nous utilisent vous et moi comme machines à propager leurs copies,
09:10
and we are the memememe machinesmachines.
199
532000
3000
et nous sommes donc des machines à mèmes.
09:13
Now, why is this importantimportant?
200
535000
2000
OK, pourquoi est-ce que cela est important ?
09:15
Why is this usefulutile, or what does it tell us?
201
537000
2000
A quoi ça peut nous servir, qu'est-ce que cela nous fait comprendre ?
09:17
It givesdonne us a completelycomplètement newNouveau viewvue of humanHumain originsorigines
202
539000
4000
Cela nous apporte une perspective totalement nouvelle sur l'origine des hommes
09:21
and what it meansveux dire to be humanHumain,
203
543000
1000
et sur ce que cela signifie d'être humain.
09:22
all conventionalconventionnel theoriesthéories of culturalculturel evolutionévolution,
204
544000
4000
Toutes les théories conventionnelles sur l'évolution culturelle,
09:26
of the originorigine of humanshumains,
205
548000
2000
sur l'origine des hommes,
09:28
and what makesfait du us so differentdifférent from other speciesespèce.
206
550000
4000
et sur ce qui nous différencie des autres espèces,
09:32
All other theoriesthéories explainingexpliquer the biggros braincerveau, and languagela langue, and tooloutil use
207
554000
2000
toutes ces théories expliquent que notre cerveau surdimensionné, le langage,
09:34
and all these things that make us uniqueunique,
208
556000
2000
l'utilisation des outils, et tout ces éléments qui nous rendent uniques,
09:36
are basedbasé uponsur genesgènes.
209
558000
3000
sont issus des gènes.
09:39
LanguageLangue mustdoit have been usefulutile for the genesgènes.
210
561000
3000
Le langage a dû être utile aux gènes.
09:42
ToolOutil use mustdoit have enhancedrenforcée our survivalsurvie, matingaccouplement and so on.
211
564000
3000
Les outils ont dû améliorer notre capacité à survivre, à nous reproduire, etc.
09:45
It always comesvient back, as RichardRichard DawkinsDawkins complaineds’est plaint
212
567000
3000
On en revient toujours aux gènes, ainsi que
09:48
all that long time agodepuis, it always comesvient back to genesgènes.
213
570000
3000
s'en est plaint Richard Dawkins il y a un moment déjà.
09:51
The pointpoint of memeticsmémétique is to say, "Oh no, it doesn't."
214
573000
4000
La position de la mémétique, c'est: "Eh non, ce n'est pas lié aux gènes".
09:55
There are two replicatorsréplicateurs now on this planetplanète.
215
577000
3000
Il y a maintenant deux réplicateurs sur cette planète.
09:58
From the momentmoment that our ancestorsles ancêtres,
216
580000
3000
A partir du moment où nos ancêtres,
10:01
perhapspeut être two and a halfmoitié millionmillion yearsannées agodepuis or so,
217
583000
2000
il y a peut-être 2,5 millions d'années,
10:03
begana commencé imitatingimiter, there was a newNouveau copyingcopier processprocessus.
218
585000
4000
ont commencé à s'imiter entre eux, un nouveau processus de copie s'est créé.
10:07
CopyingCopie with variationvariation and selectionsélection.
219
589000
2000
Copie avec variation et sélection.
10:09
A newNouveau replicatorReplicator was let looseen vrac, and it could never be --
220
591000
5000
Un nouveau réplicateur a été lâché, et il était impossible --
10:14
right from the startdébut -- it could never be
221
596000
1000
dès le début, il était absolument impossible
10:15
that humanHumain beingsêtres who let looseen vrac this newNouveau creaturecréature,
222
597000
5000
que les êtres humains qui ont lâché cette nouvelle créature
10:20
could just copycopie the usefulutile, beautifulbeau, truevrai things,
223
602000
3000
ne copient que les choses utiles, belles, vraies,
10:23
and not copycopie the other things.
224
605000
2000
et pas les autres choses.
10:25
While theirleur brainscerveaux were havingayant an advantageavantage from beingétant ablecapable to copycopie --
225
607000
3000
Dans la mesure où leurs cerveaux avaient la possibilité de copier --
10:28
lightingéclairage firesles feux, keepingen gardant firesles feux going, newNouveau techniquestechniques of huntingchasse,
226
610000
5000
comment allumer un feu, l'entretenir, de nouvelles techniques de chasses,
10:33
these kindssortes of things --
227
615000
2000
ce genre de choses --
10:35
inevitablyinévitablement they were alsoaussi copyingcopier puttingen mettant feathersplumes in theirleur haircheveux,
228
617000
3000
il était inévitable qu'ils copient également les plumes dans les cheveux,
10:38
or wearingportant strangeétrange clothesvêtements, or paintingLa peinture theirleur facesvisages,
229
620000
2000
les vêtements bizarres, les peintures sur le visage,
10:40
or whateverpeu importe.
230
622000
1000
ou n'importe quoi d'autre.
10:41
So, you get an armsbras racecourse betweenentre the genesgènes
231
623000
4000
Vous avez donc une course aux armements entre les gènes,
10:45
whichlequel are tryingen essayant to get the humanshumains to have smallpetit economicaléconomique brainscerveaux
232
627000
4000
pour qui les humains doivent avoir de petits cerceaux économiques
10:49
and not wastedéchets theirleur time copyingcopier all this stuffdes trucs,
233
631000
2000
qui ne perdent pas leur énergie à copier tout ces machins,
10:51
and the memesmemes themselvesse, like the soundsdes sons that people madefabriqué and copiedcopié --
234
633000
4000
et les mèmes, comme ces sons qu'émettent les gens et qui sont copiés --
10:56
in other wordsmots, what turnedtourné out to be languagela langue --
235
638000
2000
autrement dit, ce qui est devenu le langage --
10:58
competingen compétition to get the brainscerveaux to get biggerplus gros and biggerplus gros.
236
640000
3000
qui veulent que les cerveaux soient de plus en plus gros.
11:01
So, the biggros braincerveau, on this theorythéorie, is drivenentraîné by the memesmemes.
237
643000
4000
Donc selon cette théorie, notre cerveau surdéveloppé est le produit des mèmes.
11:05
This is why, in "The MemeMeme MachineMachine," I calledappelé it memeticMemetic driveconduire.
238
647000
4000
C'est pourquoi, dans mon livre "La machine à mème", je l'appelle la force mémétique.
11:09
As the memesmemes evolveévoluer, as they inevitablyinévitablement mustdoit,
239
651000
3000
Du fait de l'évolution des mèmes, qui est inévitable,
11:12
they driveconduire a biggerplus gros braincerveau that is better at copyingcopier the memesmemes
240
654000
4000
ils nous forcent à supporter un cerveau plus gros qui est mieux adapté
11:16
that are doing the drivingau volant.
241
658000
2000
pour copier ces mèmes.
11:18
This is why we'venous avons endedterminé up with suchtel peculiarétrange brainscerveaux,
242
660000
4000
C'est pour cela que nous avons ces cerveaux si particuliers,
11:22
that we like religionreligion, and musicla musique, and artart.
243
664000
3000
et que nous aimons la religion, la musique, et l'art.
11:25
LanguageLangue is a parasiteparasite that we'venous avons adaptedadapté to,
244
667000
3000
Le langage est un parasite auquel nous nous sommes adaptés,
11:28
not something that was there originallyinitialement for our genesgènes,
245
670000
2000
pas quelque chose qui est issu de nos gènes,
11:30
on this viewvue.
246
672000
2000
selon cette théorie.
11:32
And like mostles plus parasitesparasites, it can begincommencer dangerousdangereux,
247
674000
3000
Et comme d'autres parasites il peut être dangereux au départ,
11:35
but then it coevolvescoevolves and adaptsadapte,
248
677000
3000
mais ensuite il évolue avec son hôte et s'adapte
11:38
and we endfin up with a symbioticsymbiotique relationshiprelation
249
680000
2000
et on obtient une relation symbiotique
11:40
with this newNouveau parasiteparasite.
250
682000
1000
avec ce nouveau parasite.
11:41
And so, from our perspectivela perspective,
251
683000
2000
Et de notre point de vue
11:43
we don't realizeprendre conscience de that that's how it begana commencé.
252
685000
3000
il est très difficile de comprendre que c'est ainsi que cela a commencé.
11:46
So, this is a viewvue of what humanshumains are.
253
688000
3000
C'est une nouvelle perspective sur les êtres humains.
11:49
All other speciesespèce on this planetplanète are genegène machinesmachines only,
254
691000
3000
Toutes les autres espèces de cette planète ne sont que des machines à gènes,
11:52
they don't imitateimiter at all well, hardlyà peine at all.
255
694000
3000
elles n'imitent pas, ou très peu.
11:55
We aloneseul are genegène machinesmachines and memememe machinesmachines as well.
256
697000
5000
Nous seuls sommes à la fois des machines à gènes et des machines à mèmes.
12:00
The memesmemes tooka pris a genegène machinemachine and turnedtourné it into a memememe machinemachine.
257
702000
4000
Les mèmes ont pris une machine à gènes et l'ont transformé en machine à mème.
12:04
But that's not all.
258
706000
2000
Mais ce n'est pas tout.
12:06
We have a newNouveau kindgentil of memesmemes now.
259
708000
3000
Nous avons un nouveau genre de mèmes maintenant.
12:09
I've been wonderingme demandant for a long time,
260
711000
1000
Comme je réfléchis beaucoup sur les mèmes,
12:10
sincedepuis I've been thinkingen pensant about memesmemes a lot,
261
712000
2000
je me demande depuis longtemps
12:12
is there a differencedifférence betweenentre the memesmemes that we copycopie --
262
714000
2000
s'il y a une différence entre les mèmes que nous copions --
12:14
the wordsmots we speakparler to eachchaque other,
263
716000
2000
les mots que nous prononçons,
12:16
the gesturesgestes we copycopie, the humanHumain things --
264
718000
2000
les gestes que nous copions, ces choses humaines --
12:18
and all these technologicaltechnologique things around us?
265
720000
2000
et tout ces appareils technologiques qui nous entourent ?
12:20
I have always, untiljusqu'à now, calledappelé them all memesmemes,
266
722000
4000
Jusqu'à présent, je les appelais tous des mèmes,
12:24
but I do honestlyfranchement think now
267
726000
3000
mais maintenant je pense honnêtement
12:27
we need a newNouveau wordmot for technologicaltechnologique memesmemes.
268
729000
3000
qu'il nous faut un nouveau mot pour les mèmes technologiques.
12:30
Let's call them techno-memestechno-mèmes or temesTemes.
269
732000
3000
Appelons-les technomèmes, ou tèmes.
12:33
Because the processesprocessus are gettingobtenir differentdifférent.
270
735000
3000
Parce que les processus sont en train d'évoluer.
12:37
We begana commencé, perhapspeut être 5,000 yearsannées agodepuis, with writingl'écriture.
271
739000
3000
Il y a peut-être 5000 ans est apparue l'écriture.
12:40
We put the storageespace de rangement of memesmemes out there on a clayargile tablettablette,
272
742000
7000
Nous avons pu stocker des mèmes sur des tablettes d'argiles,
12:48
but in ordercommande to get truevrai temesTemes and truevrai temeteme machinesmachines,
273
750000
2000
mais pour obtenir de vrais tèmes et de vraies machines à tèmes,
12:50
you need to get the variationvariation, the selectionsélection and the copyingcopier,
274
752000
3000
nous avons besoin de variation, de sélection et de copie,
12:53
all doneterminé outsideà l'extérieur of humanshumains.
275
755000
2000
qui ne dépendent pas des humains.
12:55
And we're gettingobtenir there.
276
757000
2000
Et nous y arrivons.
12:57
We're at this extraordinaryextraordinaire pointpoint where we're nearlypresque there,
277
759000
2000
Nous arrivons à ce moment extraordinaire
12:59
that there are machinesmachines like that.
278
761000
2000
où apparaissent des machines qui peuvent faire cela.
13:01
And indeedeffectivement, in the shortcourt time I've alreadydéjà been at TEDTED,
279
763000
2000
Et en effet, depuis que je viens à TED,
13:03
I see we're even closerplus proche than I thought we were before.
280
765000
2000
je vois qu'on en est encore plus près que ce que je croyais.
13:05
So actuallyréellement, now the temesTemes are forcingforcer our brainscerveaux
281
767000
6000
En ce moment, les tèmes sont en train de forcer nos cerveaux
13:11
to becomedevenir more like temeteme machinesmachines.
282
773000
2000
à devenir des machines à tèmes.
13:13
Our childrenles enfants are growingcroissance up very quicklyrapidement learningapprentissage to readlis,
283
775000
3000
Nos enfants en grandissant apprennent très vite à lire,
13:16
learningapprentissage to use machinerymachinerie.
284
778000
2000
et à utiliser cette technologie.
13:18
We're going to have all kindssortes of implantsles implants,
285
780000
1000
Nous disposerons bientôt d'un tas d'implants,
13:19
drugsdrogues that forceObliger us to stayrester awakeéveillé all the time.
286
781000
3000
de drogues qui nous permettront de rester éveillés en permanence.
13:22
We'llNous allons think we're choosingchoisir these things,
287
784000
2000
Nous penserons choisir ces choses,
13:24
but the temesTemes are makingfabrication us do it.
288
786000
3000
mais en réalité ce sont les tèmes qui nous y forcent.
13:28
So, we're at this cuspcuspide now
289
790000
1000
Nous sommes donc sur le point
13:29
of havingayant a thirdtroisième replicatorReplicator on our planetplanète.
290
791000
4000
de voir apparaître un troisième réplicateur sur notre planète.
13:34
Now, what about what elseautre is going on out there in the universeunivers?
291
796000
5000
En quoi cela nous renseigne-t-il sur ce qui se passe ailleurs dans l'univers ?
13:39
Is there anyonen'importe qui elseautre out there?
292
801000
2000
Y a-t-il d'autres espèces intelligentes sur d'autres planètes ?
13:41
People have been askingdemandant this questionquestion for a long time.
293
803000
3000
On se pose cette question depuis fort longtemps.
13:44
We'veNous avons been askingdemandant it here at TEDTED alreadydéjà.
294
806000
2000
On se l'est même déjà posé ici à TED.
13:46
In 1961, FrankFrank DrakeDrake madefabriqué his famouscélèbre equationéquation,
295
808000
4000
En 1961, Frank Drake a proposé sa fameuse équation,
13:50
but I think he concentratedconcentré on the wrongfaux things.
296
812000
2000
mais je pense qu'il s'est concentré sur les mauvais facteurs.
13:52
It's been very productiveproductif, that equationéquation.
297
814000
2000
C'est pourtant une équation qui a été très utile.
13:54
He wanted to estimateestimation N,
298
816000
2000
Il voulait estimer le nombre N
13:56
the numbernombre of communicativecommunicative civilizationscivilisations out there in our galaxygalaxie,
299
818000
4000
de civilisations capables de communiquer dans notre galaxie.
14:00
and he includedinclus in there the ratetaux of starétoile formationformation,
300
822000
4000
Il y a inclut le nombre d'étoiles,
14:04
the ratetaux of planetsplanètes, but cruciallycrucialement, intelligenceintelligence.
301
826000
4000
le taux de planètes, et surtout un taux d'intelligence.
14:08
I think that's the wrongfaux way to think about it.
302
830000
4000
Je pense que c'est là son erreur.
14:12
IntelligenceIntelligence appearsapparaît all over the placeendroit, in all kindssortes of guisesguises.
303
834000
3000
L'intelligence doit apparaître partout, sous des formes très diverses.
14:15
HumanHumaine intelligenceintelligence is only one kindgentil of a thing.
304
837000
2000
L'intelligence humaine n'est qu'une de ces formes.
14:17
But what's really importantimportant is the replicatorsréplicateurs you have
305
839000
3000
Mais ce qui est réellement important c'est les réplicateurs,
14:20
and the levelsles niveaux of replicatorsréplicateurs, one feedingalimentation on the one before.
306
842000
4000
et le niveau des réplicateurs qui chacun se nourrissent du réplicateur qui les précède.
14:24
So, I would suggestsuggérer that we don't think intelligenceintelligence,
307
846000
5000
Donc je suggère qu'il ne faut pas penser en terme d'intelligence,
14:29
we think replicatorsréplicateurs.
308
851000
2000
il faut penser en terme de réplicateur.
14:31
And on that basisbase, I've suggestedsuggéré a differentdifférent kindgentil of equationéquation.
309
853000
3000
Sur cette base, j'ai proposé une équation différente
14:34
A very simplesimple equationéquation.
310
856000
2000
et très simple.
14:36
N, the sameMême thing,
311
858000
2000
N, le même nombre
14:38
the numbernombre of communicativecommunicative civilizationscivilisations out there
312
860000
3000
de civilisations communicantes
14:41
[that] we mightpourrait expectattendre in our galaxygalaxie.
313
863000
2000
qui existent dans notre galaxie.
14:43
Just startdébut with the numbernombre of planetsplanètes there are in our galaxygalaxie.
314
865000
4000
Commençons juste avec le nombre de planètes qu'il y a dans notre galaxie.
14:47
The fractionfraction of those whichlequel get a first replicatorReplicator.
315
869000
4000
Une fraction d'entre elles acquiert le premier réplicateur.
14:51
The fractionfraction of those that get the secondseconde replicatorReplicator.
316
873000
4000
Une fraction ensuite acquiert le second réplicateur.
14:55
The fractionfraction of those that get the thirdtroisième replicatorReplicator.
317
877000
2000
Et une nouvelle fraction acquiert le troisième réplicateur.
14:58
Because it's only the thirdtroisième replicatorReplicator that's going to reachatteindre out --
318
880000
3000
Parce que c'est seulement le troisième réplicateur qui permet de s'élancer --
15:01
sendingenvoi informationinformation, sendingenvoi probessondes, gettingobtenir out there,
319
883000
3000
d'envoyer de l'information, des sondes, de sortir d'ici
15:04
and communicatingcommunicant with anywherenulle part elseautre.
320
886000
2000
et de communiquer avec d'autres planètes.
15:06
OK, so if we take that equationéquation,
321
888000
3000
Bon, si on accepte cette nouvelle équation,
15:09
why haven'tn'a pas we heardentendu from anybodyn'importe qui out there?
322
891000
5000
pourquoi n'avons pas encore entendu d'extra-terrestres ?
15:14
Because everychaque stepétape is dangerousdangereux.
323
896000
4000
Parce que chaque étape est dangereuse.
15:18
GettingObtenir a newNouveau replicatorReplicator is dangerousdangereux.
324
900000
3000
Développer un nouveau réplicateur est risqué.
15:21
You can pulltirer throughpar, we have pulledtiré throughpar,
325
903000
2000
On peut s'en sortir, nous l'avons fait,
15:23
but it's dangerousdangereux.
326
905000
2000
mais c'est dangereux.
15:25
Take the first stepétape, as soonbientôt as life appearedest apparu on this earthTerre.
327
907000
3000
Prenez le premier pas, l'apparition de la vie sur cette terre.
15:28
We maymai take the GaianGaian viewvue.
328
910000
2000
On peut considérer les théories Gaïa.
15:30
I lovedaimé PeterPeter Ward'sWard talk yesterdayhier -- it's not GaianGaian all the time.
329
912000
3000
J'ai beaucoup aimé le discours de Peter Ward hier sur les extinctions massives - Gaïa ne fonctionne pas toujours.
15:33
ActuallyEn fait, life formsformes produceproduire things that killtuer themselvesse.
330
915000
3000
En fait, certaines formes de vies ont produit des choses qui les ont décimées.
15:36
Well, we did pulltirer throughpar on this planetplanète.
331
918000
3000
Nous avons eu de la chance, nous nous en sommes sorti sur cette planète.
15:39
But then, a long time laterplus tard, billionsdes milliards of yearsannées laterplus tard,
332
921000
2000
Mais ensuite, quelques milliards d'années plus tard,
15:41
we got the secondseconde replicatorReplicator, the memesmemes.
333
923000
3000
est apparu le second réplicateur, les mèmes.
15:44
That was dangerousdangereux, all right.
334
926000
2000
Là encore ça a été bien dangereux.
15:46
Think of the biggros braincerveau.
335
928000
2000
Pensez au gros cerveau.
15:48
How manybeaucoup mothersmères do we have here?
336
930000
3000
Combien de mères y-a-t'il dans la salle ?
15:51
You know all about biggros brainscerveaux.
337
933000
2000
Vous connaissez tout sur les gros cerveaux.
15:53
They are dangerousdangereux to give birthnaissance to,
338
935000
2000
Vous savez qu'ils sont dangereux à mettre au monde.
15:55
are agonizingangoissant to give birthnaissance to.
339
937000
2000
Ils sont extrêmement douloureux à mettre au monde.
15:57
(LaughterRires)
340
939000
1000
(rires)
15:59
My catchat gavea donné birthnaissance to fourquatre kittenschatons, purringronronnant all the time.
341
941000
2000
Mon chat a donné naissance à quatre châtons en ronronnant.
16:01
AhAh, mmmm -- slightlylégèrement differentdifférent.
342
943000
2000
Nous, mmmh... c'est un peu différent.
16:03
(LaughterRires)
343
945000
2000
(rires)
16:05
But not only is it painfuldouloureux, it killstue lots of babiesbébés,
344
947000
3000
Ce n'est pas seulement douloureux, mais ça tue beaucoup de bébés,
16:08
it killstue lots of mothersmères,
345
950000
2000
et beaucoup de mères,
16:10
and it's very expensivecoûteux to produceproduire.
346
952000
2000
et c'est très coûteux à produire.
16:12
The genesgènes are forcedforcé into producingproduisant all this myelinmyéline,
347
954000
2000
Les gènes sont forcés de produire toute cette myéline
16:14
all the fatgraisse to myelinatemyéliniser the braincerveau.
348
956000
2000
tout ces lipides pour protéger les cellules nerveuses.
16:16
Do you know, sittingséance here,
349
958000
2000
En ce moment, assis à votre place,
16:18
your braincerveau is usingen utilisant about 20 percentpour cent of your body'sdu corps energyénergie outputsortie
350
960000
4000
votre cerveau consomme 20% de l'énergie produit par votre corps
16:22
for two percentpour cent of your bodycorps weightpoids?
351
964000
2000
alors qu'il ne pèse que 2% de votre poids total.
16:24
It's a really expensivecoûteux organorgane to runcourir.
352
966000
2000
C'est un organe particulièrement dépensier.
16:26
Why? Because it's producingproduisant the memesmemes.
353
968000
2000
Pourquoi ? Parce qu'il produit les mèmes !
16:28
Now, it could have killedtué us off. It could have killedtué us off,
354
970000
4000
Ça aurait très bien pu tous nous tuer.
16:32
and maybe it nearlypresque did, but you see, we don't know.
355
974000
2000
Peut-être n'est on pas passé loin.
16:34
But maybe it nearlypresque did.
356
976000
2000
On ne le sait pas vraiment.
16:36
Has it been trieda essayé before?
357
978000
1000
Y a-t'il des précédents ?
16:37
What about all those other speciesespèce?
358
979000
2000
Qu'en est-il des autres espèces ?
16:39
LouiseLouise LeakeyLeakey talkeda parlé yesterdayhier
359
981000
2000
Louise Leakey disait hier
16:41
about how we're the only one in this branchbranche left.
360
983000
3000
que nous sommes les seuls survivants de notre branche évolutive.
16:44
What happenedarrivé to the othersautres?
361
986000
2000
Qu'est-il arrivé aux autres ?
16:46
Could it be that this experimentexpérience in imitationimitation,
362
988000
2000
Serait-ce que cette expérience d'imitation,
16:48
this experimentexpérience in a secondseconde replicatorReplicator,
363
990000
2000
l'apparation d'un second réplicateur,
16:50
is dangerousdangereux enoughassez to killtuer people off?
364
992000
4000
peut être dangereuse au point de décimer une espèce entière ?
16:54
Well, we did pulltirer throughpar, and we adaptedadapté.
365
996000
2000
Bon, on s'en est sorti, on s'est adapté.
16:56
But now, we're hittingfrappe, as I've just describeddécrit,
366
998000
3000
Mais nous en arrivons maintenant, comme je vous l'ai déjà dit,
16:59
we're hittingfrappe the thirdtroisième replicatorReplicator pointpoint.
367
1001000
2000
à l'avènement du troisième réplicateur.
17:01
And this is even more dangerousdangereux --
368
1003000
3000
Et celui-là est particulièrement dangereux --
17:04
well, it's dangerousdangereux again.
369
1006000
2000
enfin, il est à nouveau dangereux.
17:06
Why? Because the temesTemes are selfishégoïste replicatorsréplicateurs
370
1008000
4000
Pourquoi ? Parce que les tèmes sont des réplicateurs égoïstes,
17:10
and they don't carese soucier about us, or our planetplanète, or anything elseautre.
371
1012000
3000
et ils ne se préoccupent pas de nous, de notre planète, ou de quoi que ce soit d'autre.
17:13
They're just informationinformation, why would they?
372
1015000
3000
Et pourquoi s'en préoccuperaient-ils ? Ils ne sont que de l'information.
17:17
They are usingen utilisant us to sucksucer up the planet'splanète resourcesRessources
373
1019000
2000
Ils nous utilisent pour épuiser toutes les ressources de la planète,
17:19
to produceproduire more computersdes ordinateurs,
374
1021000
2000
pour produire plus d'ordinateurs
17:21
and more of all these amazingincroyable things we're hearingaudition about here at TEDTED.
375
1023000
3000
et plus de toutes ces choses merveilleuses dont nous entendons parler ici à TED.
17:24
Don't think, "Oh, we createdcréé the InternetInternet for our ownposséder benefitavantage."
376
1026000
4000
Et ne pensez pas : "Oh, nous avons créé Internet pour notre bénéfice".
17:28
That's how it seemssemble to us.
377
1030000
2000
C'est une illusion.
17:30
Think, temesTemes spreadingdiffusion because they mustdoit.
378
1032000
4000
Pensez que les tèmes se répandent parce qu'ils le doivent.
17:34
We are the oldvieux machinesmachines.
379
1036000
2000
Nous sommes les vieilles machines.
17:36
Now, are we going to pulltirer throughpar?
380
1038000
2000
Allons-nous nous en sortir ?
17:38
What's going to happense produire?
381
1040000
2000
Que va-t-il se passer ?
17:40
What does it mean to pulltirer throughpar?
382
1042000
2000
Et qu'est-ce que cela veut dire, s'en sortir ?
17:42
Well, there are kindgentil of two waysfaçons of pullingtirant throughpar.
383
1044000
2000
Eh bien il y a deux manières de s'en sortir.
17:45
One that is obviouslyévidemment happeningévénement all around us now,
384
1047000
2000
La première, qui est évidente tout autour de nous,
17:47
is that the temesTemes turntour us into temeteme machinesmachines,
385
1049000
4000
est que les tèmes nous transforment en machines à tèmes,
17:51
with these implantsles implants, with the drugsdrogues,
386
1053000
2000
avec ces implants, ces drogues,
17:53
with us mergingla fusion with the technologyLa technologie.
387
1055000
3000
nous nous confondons avec la technologie.
17:56
And why would they do that?
388
1058000
2000
Et pourquoi feraient-ils cela ?
17:58
Because we are self-replicatingauto-répliquant.
389
1060000
2000
Parce que nous nous reproduisons.
18:00
We have babiesbébés.
390
1062000
2000
Nous avons des bébés.
18:02
We make newNouveau onesceux, and so it's convenientpratique to piggybackferroutage on us,
391
1064000
3000
Nous pouvons en faire des nouveaux, alors il est pratique de nous utiliser comme vecteur,
18:05
because we're not yetencore at the stageétape on this planetplanète
392
1067000
4000
parce qu'on n'est pas encore à l'étape
18:09
where the other optionoption is viableviable.
393
1071000
2000
où la seconde option est disponible.
18:11
AlthoughBien que it's closerplus proche, I heardentendu this morningMatin,
394
1073000
2000
Encore qu'on n'en est pas loin, d'après ce que j'ai entendu ce matin,
18:13
it's closerplus proche than I thought it was.
395
1075000
2000
on en est plus près que ce que je pensais.
18:15
Where the temeteme machinesmachines themselvesse will replicatereproduire themselvesse.
396
1077000
3000
Cette étape où les tèmes eux-même peuvent se reproduire.
18:18
That way, it wouldn'tne serait pas mattermatière if the planet'splanète climateclimat
397
1080000
4000
La déstabilisation du climat de notre planète
18:22
was utterlytotalement destabilizeddéstabilisé,
398
1084000
2000
n'aura alors plus aucune importance,
18:24
and it was no longerplus long possiblepossible for humanshumains to livevivre here.
399
1086000
2000
même si cela signifiera la disparition de l'espèce humaine.
18:26
Because those temeteme machinesmachines, they wouldn'tne serait pas need --
400
1088000
2000
Parce que les machines à tèmes n'en auront pas besoin --
18:28
they're not squishyspongieux, wetWet, oxygen-breathingrespirant de l’oxygène,
401
1090000
2000
ce ne sont pas des créatures molles, humides,
18:30
warmth-requiringchaleur-exigeant creaturescréatures.
402
1092000
3000
qui ont besoin de chaleur et d'oxygène.
18:33
They could carryporter on withoutsans pour autant us.
403
1095000
2000
Ils pourraient se passer de nous.
18:35
So, those are the two possibilitiespossibilités.
404
1097000
3000
Nous avons donc ces deux possibilités.
18:38
The secondseconde, I don't think we're that closeFermer.
405
1100000
4000
La deuxième n'est pas encore pour tout de suite.
18:42
It's comingvenir, but we're not there yetencore.
406
1104000
2000
Elle approche, mais on n'y est pas encore.
18:44
The first, it's comingvenir too.
407
1106000
2000
La première approche également.
18:46
But the damagedommage that is alreadydéjà beingétant doneterminé
408
1108000
3000
Mais les dégâts que nous constatons déjà
18:49
to the planetplanète is showingmontrer us how dangerousdangereux the thirdtroisième pointpoint is,
409
1111000
5000
sur cette planète nous montrent combien ce troisième point est dangereux,
18:54
that thirdtroisième dangerdanger pointpoint, gettingobtenir a thirdtroisième replicatorReplicator.
410
1116000
3000
combien l'apparition du troisième réplicateur est risquée.
18:58
And will we get throughpar this thirdtroisième dangerdanger pointpoint,
411
1120000
2000
Survivrons-nous à cette troisième étape,
19:00
like we got throughpar the secondseconde and like we got throughpar the first?
412
1122000
3000
comme nous avons survécu à la première et à la seconde ?
19:04
Maybe we will, maybe we won'thabitude.
413
1126000
2000
Peut-être que oui, peut-être que non.
19:06
I have no ideaidée.
414
1128000
3000
Je n'en ai aucune idée.
19:13
(ApplauseApplaudissements)
415
1135000
10000
(applaudissements)
19:24
ChrisChris AndersonAnderson: That was an incredibleincroyable talk.
416
1146000
2000
Chris Anderson: C'était une présentation incroyable.
19:26
SBSB: Thank you. I scaredeffrayé myselfmoi même.
417
1148000
2000
SB: Merci. Je me suis fait peur également.
19:28
CACA: (LaughterRires)
418
1150000
1000
(rires)
Translated by Loic Prot
Reviewed by Elisabeth Buffard

▲Back to top

ABOUT THE SPEAKER
Susan Blackmore - Memeticist
Susan Blackmore studies memes -- those self-replicating "life forms" that spread themselves via human consciousness. We're now headed, she believes, toward a new form of meme, spread by the technology we've created.

Why you should listen

Susan Blackmore is dedicated to understanding the scientific nature of consciousness. Her latest work centers on the existence of memes -- little bits of knowledge, lore, habit that seem to spread themselves using human brains as mere carriers. She's exploring the existence of a new class of meme, spread by human technology. It's temporarily named the "teme."

She has written about memes, consciousness, and near-death experiences; has appeared on the British Big Brother to discuss the psychology of the participants; and writes for the Guardian UK.

More profile about the speaker
Susan Blackmore | Speaker | TED.com