ABOUT THE SPEAKER
Susan Blackmore - Memeticist
Susan Blackmore studies memes -- those self-replicating "life forms" that spread themselves via human consciousness. We're now headed, she believes, toward a new form of meme, spread by the technology we've created.

Why you should listen

Susan Blackmore is dedicated to understanding the scientific nature of consciousness. Her latest work centers on the existence of memes -- little bits of knowledge, lore, habit that seem to spread themselves using human brains as mere carriers. She's exploring the existence of a new class of meme, spread by human technology. It's temporarily named the "teme."

She has written about memes, consciousness, and near-death experiences; has appeared on the British Big Brother to discuss the psychology of the participants; and writes for the Guardian UK.

More profile about the speaker
Susan Blackmore | Speaker | TED.com
TED2008

Susan Blackmore: Memes and "temes"

Susan Blackmore su memi e "temi" (i tecnomemi)

Filmed:
882,044 views

Susan Blackmore studia i memi: idee che replicano se stesse da cervello a cervello come un virus. Fa un ragionamento nuovo e coraggioso: l'umanità ha deposto un nuovo tipo di meme, il teme, che si diffonde attraverso la tecnologia -- e inventa modi per mantenersi in vita.
- Memeticist
Susan Blackmore studies memes -- those self-replicating "life forms" that spread themselves via human consciousness. We're now headed, she believes, toward a new form of meme, spread by the technology we've created. Full bio

Double-click the English transcript below to play the video.

00:18
CulturalCulturale evolutionEvoluzione is a dangerouspericoloso childbambino
0
0
3000
Per qualsiasi specie l'evoluzione culturale è un figlio pericoloso
00:21
for any speciesspecie to let loosesciolto on its planetpianeta.
1
3000
3000
da lasciar circolare liberamente nel proprio pianeta.
00:24
By the time you realizerendersi conto what's happeningavvenimento, the childbambino is a toddlerinfante,
2
6000
4000
Non fai in tempo ad accorgertene e il bimbetto sgambetta già
00:28
up and causingcausando havocHavoc, and it's too latein ritardo to put it back.
3
10000
6000
e combina guai, ed è troppo tardi per rimetterlo a posto.
00:34
We humansgli esseri umani are Earth'sDella terra PandoranPandora speciesspecie.
4
16000
3000
Noi umani siamo la specie di Pandora della Terra.
00:37
We're the onesquelli who let the secondsecondo replicatorReplicator out of its boxscatola,
5
19000
5000
Siamo quelli che hanno lasciato uscire dal vaso il secondo replicatore,
00:42
and we can't pushspingere it back in.
6
24000
2000
e non possiamo ricacciarcelo dentro.
00:44
We're seeingvedendo the consequencesconseguenze all around us.
7
26000
3000
Ne vediamo le conseguenze ovunque intorno a noi.
00:48
Now that, I suggestsuggerire, is the viewvista that
8
30000
4000
Ora, secondo me, è questa la scena che viene fuori
00:52
comesviene out of takingpresa memeticsmemetica seriouslysul serio.
9
34000
2000
se si prende la memetica sul serio.
00:54
And it gives us a newnuovo way of thinkingpensiero about
10
36000
2000
Ed essa ci offre un modo nuovo di pensare
00:56
not only what's going on on our planetpianeta,
11
38000
2000
non solo a ciò che succede sul nostro pianeta,
00:58
but what mightpotrebbe be going on elsewherealtrove in the cosmoscosmo.
12
40000
3000
ma anche a cosa potrebbe stare succedendo altrove nel cosmo.
01:01
So first of all, I'd like to say something about memeticsmemetica
13
43000
3000
Così, per prima cosa vorrei dire qualcosa sulla memetica
01:04
and the theoryteoria of memesmemi,
14
46000
2000
e sulla teoria dei memi,
01:06
and secondlyin secondo luogo, how this mightpotrebbe answerrisposta questionsle domande about who'schi è out there,
15
48000
5000
e in secondo luogo, come essa potrebbe rispondere a domande su chi c'è altrove,
01:11
if indeedinfatti anyonechiunque is.
16
53000
3000
se qualcuno c'è.
01:14
So, memeticsmemetica:
17
56000
2000
Allora, la memetica.
01:16
memeticsmemetica is foundedfondato on the principleprincipio of UniversalUniversal DarwinismDarwinismo.
18
58000
4000
La Memetica si fonda sul principio del Darwinismo universale.
01:20
DarwinDarwin had this amazingStupefacente ideaidea.
19
62000
3000
Darwin ebbe questa straordinaria idea.
01:23
IndeedInfatti, some people say
20
65000
2000
In effetti qualcuno dice
01:25
it's the bestmigliore ideaidea anybodynessuno ever had.
21
67000
3000
che sia la migliore idea che si abbia mai avuto.
01:28
Isn't that a wonderfulmeraviglioso thought, that there could be suchcome a thing
22
70000
4000
Non è un pensiero meraviglioso, che ci possa essere una cosa
01:32
as a bestmigliore ideaidea anybodynessuno ever had?
23
74000
2000
come la migliore idea che qualcuno abbia mai avuto?
01:34
Do you think there could?
24
76000
1000
Pensate che ci possa essere?
01:35
AudiencePubblico: No.
25
77000
1000
Pubblico: No.
01:36
(LaughterRisate)
26
78000
1000
(Risate)
01:37
SusanSusan BlackmoreBlackmore: SomeoneQualcuno saysdice no, very loudlyad alta voce, from over there.
27
79000
2000
Susan Blackmore: Qualcuno dice no, molto forte, da quella parte.
01:39
Well, I say yes, and if there is, I give the prizepremio to DarwinDarwin.
28
81000
4000
Bene, io dico sì, e se c'è per me il premio va a Darwin.
01:43
Why?
29
85000
2000
Perché?
01:45
Because the ideaidea was so simplesemplice,
30
87000
3000
Perché l'idea è così semplice,
01:48
and yetancora it explainsspiega all designdesign in the universeuniverso.
31
90000
6000
eppure spiega ogni progetto nell'universo.
01:54
I would say not just biologicalbiologico designdesign,
32
96000
2000
E direi non solo il progetto biologico,
01:56
but all of the designdesign that we think of as humanumano designdesign.
33
98000
2000
ma ogni progetto che noi pensiamo come progetto umano.
01:58
It's all just the samestesso thing happeningavvenimento.
34
100000
2000
Succedono esattamente le stesse cose.
02:00
What did DarwinDarwin say?
35
102000
2000
Che cosa ha detto Darwin?
02:02
I know you know the ideaidea, naturalnaturale selectionselezione,
36
104000
2000
Lo so che conoscete l'idea, la selezione naturale,
02:04
but let me just paraphraseparafrasi "The OriginOrigine of SpeciesSpecie," 1859,
37
106000
5000
ma lasciatemi solamente parafrasare l'”Origine della Specie”, 1859,
02:09
in a fewpochi sentencesfrasi.
38
111000
2000
in poche parole.
02:11
What DarwinDarwin said was something like this:
39
113000
3000
Quello che ha detto Darwin suona circa così --
02:14
if you have creaturescreature that varyvariare, and that can't be doubteddubitato --
40
116000
4000
se hai delle creature che variano, in modo inconfutabile --
02:18
I've been to the GalapagosGalapagos, and I've measuredmisurato the sizedimensione of the beaksbecchi
41
120000
3000
sono stato alla Galapagos e ho misurato la dimensione dei becchi
02:21
and the sizedimensione of the turtletartaruga shellsconchiglie and so on, and so on.
42
123000
2000
e la dimensione del carapace delle tartarughe e così via, e via, e via.
02:23
And 100 pagespagine laterdopo.
43
125000
2000
E 100 pagine dopo --
02:25
(LaughterRisate)
44
127000
2000
(Risate)
02:27
And if there is a strugglelotta for life,
45
129000
4000
E se c'è lotta per l'esistenza,
02:31
suchcome that nearlyquasi all of these creaturescreature diemorire --
46
133000
3000
di modo che quasi tutte queste creature muoiono --
02:34
and this can't be doubteddubitato, I've readleggere MalthusMalthus
47
136000
3000
anche questo provato in maniera inconfutabile, ho letto Malthus
02:37
and I've calculatedcalcolato how long it would take for elephantselefanti
48
139000
2000
e ho calcolato quanto tempo ci vorrebbe perché gli elefanti
02:39
to covercopertina the wholetotale worldmondo if they bredallevati unrestrictedsenza restrizioni, and so on and so on.
49
141000
3000
coprissero tutta la terra se si riproducessero senza limiti, e via, e avanti e avanti.
02:42
And anotherun altro 100 pagespagine laterdopo.
50
144000
4000
E dopo altre 100 pagine.
02:46
And if the very fewpochi that survivesopravvivere passpassaggio ontosu theirloro offspringprole
51
148000
5000
E se i pochissimi che sopravvivono passano alla loro prole
02:51
whateverqualunque cosa it was that helpedaiutato them survivesopravvivere,
52
153000
3000
quel qualcosa che li ha aiutati a sopravvivere,
02:54
then those offspringprole mustdovere be better adaptedadattato
53
156000
2000
allora quei discendenti devono essere più adatti
02:56
to the circumstancescondizioni in whichquale all this happenedè accaduto
54
158000
2000
alle circostanze in cui tutto questo è accaduto
02:58
than theirloro parentsgenitori were.
55
160000
3000
di quanto lo fossero i loro progenitori.
03:01
You see the ideaidea?
56
163000
2000
Vedete l'idea?
03:03
If, if, if, then.
57
165000
2000
Se, se, se, allora.
03:05
He had no conceptconcetto of the ideaidea of an algorithmalgoritmo,
58
167000
2000
Lui non aveva nessuna idea di un algoritmo.
03:07
but that's what he describeddescritta in that booklibro,
59
169000
3000
Ma è quello che ha descritto in quel libro,
03:10
and this is what we now know as the evolutionaryevolutiva algorithmalgoritmo.
60
172000
3000
ed è ciò che oggi conosciamo come algoritmo evolutivo.
03:13
The principleprincipio is you just need those threetre things --
61
175000
4000
Il principio è che c'è bisogno di tre sole cose --
03:17
variationvariazione, selectionselezione and heredityeredità.
62
179000
3000
variazione, selezione, ereditarietà.
03:20
And as DanDan DennettDennett putsmette it, if you have those,
63
182000
4000
E per dirla con Dan Dennet, se quelle ci sono,
03:24
then you mustdovere get evolutionEvoluzione.
64
186000
2000
allora deve esserci evoluzione.
03:26
Or designdesign out of chaoscaos, withoutsenza the aidaiuto of mindmente.
65
188000
5000
O progetto dal caos senza l'aiuto della mente.
03:31
There's one wordparola I love on that slidediapositiva.
66
193000
2000
C'è una parola che amo su quella diapositiva.
03:33
What do you think my favoritefavorito wordparola is?
67
195000
2000
Quale pensate che sia la mia parola preferita?
03:35
AudiencePubblico: ChaosCaos.
68
197000
1000
Pubblico: Caos.
03:36
SBSB: ChaosCaos? No. What? MindMente? No.
69
198000
3000
SB: Caos? No. Cosa? Mente? No.
03:39
AudiencePubblico: WithoutSenza.
70
201000
1000
Pubblico: Senza.
03:40
SBSB: No, not withoutsenza.
71
202000
1000
SB: No, non è senza.
03:41
(LaughterRisate)
72
203000
1000
(Risate)
03:42
You try them all in orderordine: MmmMmm...?
73
204000
2000
Provatele tutte in ordine: Mmm?
03:44
AudiencePubblico: MustDeve.
74
206000
1000
Pubblico: devono.
03:45
SBSB: MustDeve, at mustdovere. MustDeve, mustdovere.
75
207000
4000
Devono, devono. Devono, devono.
03:49
This is what makesfa it so amazingStupefacente.
76
211000
2000
Questo è quello che lo rende così sorprendente.
03:51
You don't need a designerprogettista,
77
213000
3000
Non c'è bisogno di un progettista,
03:54
or a planPiano, or foresightlungimiranza, or anything elsealtro.
78
216000
3000
o di un piano, o di preveggenza o qualunque altra cosa.
03:57
If there's something that is copiedcopiati with variationvariazione
79
219000
3000
Se c'è qualcosa che viene copiato con variazione
04:00
and it's selectedselezionato, then you mustdovere get designdesign appearingapparendo out of nowhereDa nessuna parte.
80
222000
4000
e viene selezionato, allora si deve ottenere un disegno che emerge da nessun luogo particolare.
04:04
You can't stop it.
81
226000
2000
Non si può fermare.
04:06
MustDeve is my favoritefavorito wordparola there.
82
228000
4000
La mia parola preferita lì è devono.
04:11
Now, what's this to do with memesmemi?
83
233000
2000
Ora, che c'entra tutto questo con i memi?
04:13
Well, the principleprincipio here appliessi applica to anything
84
235000
5000
Bene, questo principio si applica a qualunque cosa
04:18
that is copiedcopiati with variationvariazione and selectionselezione.
85
240000
1000
che venga copiato con variazione e selezione.
04:19
We're so used to thinkingpensiero in termscondizioni of biologybiologia,
86
241000
3000
Siamo così abituati a pensare in termini biologici,
04:22
we think about genesgeni this way.
87
244000
2000
che pensiamo ai geni in questo modo.
04:24
DarwinDarwin didn't, of coursecorso; he didn't know about genesgeni.
88
246000
3000
Darwin no naturalmente, dei geni non sapeva niente.
04:27
He talkedparlato mostlysoprattutto about animalsanimali and plantspiante,
89
249000
2000
Lui parlava soprattutto di animali e piante,
04:29
but alsoanche about languagesle lingue evolvingin evoluzione and becomingdiventando extinctestinto.
90
251000
3000
ma anche di lingue in evoluzione e in estinzione.
04:32
But the principleprincipio of UniversalUniversal DarwinismDarwinismo
91
254000
2000
Ma il principio del Darwinismo universale
04:34
is that any informationinformazione that is variedvario and selectedselezionato
92
256000
4000
è che ogni informazione che subisca variazioni e sia selezionata
04:38
will produceprodurre designdesign.
93
260000
2000
produrrà progetto.
04:40
And this is what RichardRichard DawkinsDawkins was on about
94
262000
2000
Ed è questo quel che intendeva Richard Dawkins
04:42
in his 1976 bestsellerBest-Seller, "The SelfishEgoista GeneGene."
95
264000
3000
nel suo bestseller del 1976, "Il Gene Egoista".
04:45
The informationinformazione that is copiedcopiati, he calledchiamato the replicatorReplicator.
96
267000
4000
Lui chiamò l'informazione che viene copiata il "replicatore",
04:49
It selfishlyegoisticamente copiescopie.
97
271000
2000
che egoisticamente copia.
04:51
Not meaningsenso it kindgenere of sitssi siede around insidedentro cellscellule going, "I want to get copiedcopiati."
98
273000
4000
Non vuol dire che si piazzi in giro dentro alle cellule dicendo "voglio essere copiato".
04:55
But that it will get copiedcopiati if it can,
99
277000
2000
Ma se possibile sarà copiato,
04:57
regardlessindipendentemente of the consequencesconseguenze.
100
279000
2000
indipendentemente dalle conseguenze.
05:00
It doesn't carecura about the consequencesconseguenze because it can't,
101
282000
3000
Non si preoccupa delle conseguenze perché non può,
05:03
because it's just informationinformazione beingessere copiedcopiati.
102
285000
2000
perché è solamente informazione che viene copiata.
05:06
And he wanted to get away
103
288000
1000
E siccome voleva evitare
05:07
from everybodytutti thinkingpensiero all the time about genesgeni,
104
289000
3000
che tutti pensassero sempre ai geni,
05:10
and so he said, "Is there anotherun altro replicatorReplicator out there on the planetpianeta?"
105
292000
3000
chiese, "C'è un altro replicatore là fuori, sul pianeta?"
05:13
AhAh, yes, there is.
106
295000
2000
Ah, sì, che c'è.
05:15
Look around you -- here will do, in this roomcamera.
107
297000
3000
Guardatevi intorno, basta qui, in questa stanza.
05:18
All around us, still clumsilygoffamente driftingalla deriva about
108
300000
3000
Tutto intorno a noi, ancora goffamente alla deriva
05:21
in its primevalPrimeval soupla minestra of culturecultura, is anotherun altro replicatorReplicator.
109
303000
3000
nel suo brodo di coltura primordiale, è un altro replicatore.
05:24
InformationInformazioni that we copycopia from personpersona to personpersona, by imitationimitazione,
110
306000
5000
L'informazione che copiamo da persona a persona per imitazione,
05:29
by languageLingua, by talkingparlando, by tellingraccontare storiesstorie,
111
311000
2000
con il linguaggio, parlando, raccontando storie,
05:31
by wearingindossare clothesAbiti, by doing things.
112
313000
3000
indossando abiti, facendo cose.
05:34
This is informationinformazione copiedcopiati with variationvariazione and selectionselezione.
113
316000
5000
Questa è informazione copiata con variazione e selezione.
05:39
This is designdesign processprocesso going on.
114
321000
3000
Questo è processo di progettazione in corso.
05:42
He wanted a namenome for the newnuovo replicatorReplicator.
115
324000
3000
Dawkins voleva un nome per il nuovo replicatore.
05:45
So, he tookha preso the GreekGreco wordparola "mimememimeme," whichquale meanssi intende that whichquale is imitatedimitato.
116
327000
4000
Così prese il termine greco mimeme, che significa ciò che è imitato.
05:49
RememberRicordate that, that's the corenucleo definitiondefinizione:
117
331000
2000
Ricordiamolo, è il cuore della definizione.
05:52
that whichquale is imitatedimitato.
118
334000
1000
Ciò che è imitato.
05:53
And abbreviatedabbreviato it to memememe, just because it soundssuoni good
119
335000
3000
E lo ha abbreviato in meme, semplicemente perché suona bene
05:56
and madefatto a good memememe, an effectiveefficace spreadingdiffusione memememe.
120
338000
3000
e lo rende un buon meme, un meme efficace da diffondere.
05:59
So that's how the ideaidea cameè venuto about.
121
341000
3000
Così, ecco come è venuta fuori l'idea.
06:03
It's importantimportante to stickbastone with that definitiondefinizione.
122
345000
3000
E' importante attenersi a quella definizione.
06:06
The wholetotale sciencescienza of memeticsmemetica is much maligneddiffamato,
123
348000
4000
L'intera scienza della memetica è molto calunniata,
06:10
much misunderstoodfrainteso, much fearedtemuto.
124
352000
3000
molto fraintesa, molto temuta.
06:13
But a lot of these problemsi problemi can be avoidedevitato
125
355000
3000
Ma molti problemi possono essere evitati
06:16
by rememberingricordare the definitiondefinizione.
126
358000
2000
ricordando la definizione.
06:18
A memememe is not equivalentequivalente to an ideaidea.
127
360000
2000
Un meme non è equivalente a un'idea.
06:20
It's not an ideaidea. It's not equivalentequivalente to anything elsealtro, really.
128
362000
2000
Non è un'idea, non è equivalente a nient'altro, in realtà.
06:22
StickBastone with the definitiondefinizione.
129
364000
2000
Atteniamoci alla definizione.
06:24
It's that whichquale is imitatedimitato,
130
366000
2000
E' ciò che viene imitato.
06:26
or informationinformazione whichquale is copiedcopiati from personpersona to personpersona.
131
368000
3000
O informazione che viene copiata da persona a persona.
06:30
So, let's see some memesmemi.
132
372000
1000
Così, andiamo a vedere qualche meme.
06:31
Well, you sirsignore, you've got those glassesbicchieri hungsospeso around your neckcollo
133
373000
3000
Bene, lei signore, lei con gli occhiali appesi al collo
06:34
in that particularlysoprattutto fetchingattraente way.
134
376000
2000
in quel modo così attraente.
06:36
I wondermeravigliarsi whetherse you inventedinventato that ideaidea for yourselfte stesso,
135
378000
2000
Mi chiedo, se l'è inventata da solo quell'idea,
06:38
or copiedcopiati it from someonequalcuno elsealtro?
136
380000
2000
o l'ha copiata da qualcun altro?
06:40
If you copiedcopiati it from someonequalcuno elsealtro, it's a memememe.
137
382000
3000
Se l'ha copiata da qualcun altro, è un meme.
06:43
And what about, oh, I can't see any interestinginteressante memesmemi here.
138
385000
3000
E cosa dire di, ooh, non vedo memi interessanti qui.
06:46
All right everyonetutti, who'schi è got some interestinginteressante memesmemi for me?
139
388000
3000
Ascoltate tutti, chi ha qualche meme interessante per me?
06:49
Oh, well, your earringsOrecchini,
140
391000
2000
Oh bene, i suoi orecchini,
06:51
I don't supposesupporre you inventedinventato the ideaidea of earringsOrecchini.
141
393000
2000
non penso che lei abbia inventato l'idea degli orecchini.
06:53
You probablyprobabilmente wentandato out and boughtcomprato them.
142
395000
2000
Probabilmente è uscita e li ha comprati.
06:55
There are plentyabbondanza more in the shopsnegozi.
143
397000
2000
Ce ne sono tanti altri nei negozi.
06:57
That's something that's passedpassato on from personpersona to personpersona.
144
399000
2000
Quello è qualcosa che è stato passato da persona a persona.
06:59
All the storiesstorie that we're tellingraccontare -- well, of coursecorso,
145
401000
3000
Tutte le storie che stiamo raccontando, e sì, naturalmente
07:02
TEDTED is a great meme-festmeme-fest, massesmasse of memesmemi.
146
404000
4000
TED è un grande festival di memi, masse di memi.
07:06
The way to think about memesmemi, thoughanche se,
147
408000
2000
Pensare ai memi tuttavia
07:08
is to think, why do they spreaddiffusione?
148
410000
2000
vuol dire chiedersi: perché si diffondono?
07:10
They're selfishegoista informationinformazione, they will get copiedcopiati, if they can.
149
412000
4000
Sono informazione egoista, saranno copiati se potranno.
07:14
But some of them will be copiedcopiati because they're good,
150
416000
3000
Ma alcuni di essi saranno copiati perché sono buoni,
07:17
or truevero, or usefulutile, or beautifulbellissimo.
151
419000
2000
o veri, o utili, o belli.
07:19
Some of them will be copiedcopiati even thoughanche se they're not.
152
421000
2000
Alcuni di essi saranno copiati anche se non lo sono.
07:21
Some, it's quiteabbastanza harddifficile to tell why.
153
423000
2000
Alcuni, ed è difficile dire perché.
07:24
There's one particularparticolare curiouscurioso memememe whichquale I ratherpiuttosto enjoygodere.
154
426000
3000
C'è un meme speciale e curioso che mi diverte abbastanza.
07:27
And I'm gladlieto to say, as I expectedprevisto, I foundtrovato it when I cameè venuto here,
155
429000
3000
E sono lieta di dire, come mi aspettavo, che l'ho trovato quando sono venuta qui,
07:30
and I'm sure all of you foundtrovato it, too.
156
432000
2000
e sono sicura che anche tutti voi l'avete trovato.
07:32
You go to your nicesimpatico, poshPosh, internationalinternazionale hotelHotel somewhereda qualche parte,
157
434000
3000
Andate nel vostro elegante hotel internazionale da qualche parte,
07:36
and you come in and you put down your clothesAbiti
158
438000
2000
entrate e deponete i vostri abiti
07:38
and you go to the bathroombagno, and what do you see?
159
440000
3000
e andate in bagno, e cosa vedete?
07:41
AudiencePubblico: BathroomBagno soapsapone.
160
443000
1000
Pubblico: Saponetta.
07:42
SBSB: PardonPerdono?
161
444000
1000
SB: Come?
07:43
AudiencePubblico: SoapSapone.
162
445000
1000
Pubblico: Del sapone.
07:44
SBSB: SoapSapone, yeah. What elsealtro do you see?
163
446000
2000
SB: Sapone, sì. Cos'altro vedete?
07:46
AudiencePubblico: (InaudibleNon udibile)
164
448000
1000
Pubblico: (Impercettibile).
07:47
SBSB: MmmMmm mmmmmm.
165
449000
1000
SB: Mmm mmm.
07:48
AudiencePubblico: SinkLavello, toiletgabinetto!
166
450000
1000
Pubblico: Lavandino, gabinetto!
07:49
SBSB: SinkLavello, toiletgabinetto, yes, these are all memesmemi, they're all memesmemi,
167
451000
2000
SB: Lavandino, gabinetto, sì, questi sono tutti memi,
07:51
but they're sortordinare of usefulutile onesquelli, and then there's this one.
168
453000
3000
sono tutti memi, ma sono in qualche modo di quelli utili, e poi c'è questo.
07:54
(LaughterRisate)
169
456000
3000
(Risate).
07:58
What is this one doing?
170
460000
2000
Che ci fa questo?
08:00
(LaughterRisate)
171
462000
1000
(Risate)
08:01
This has spreaddiffusione all over the worldmondo.
172
463000
2000
Questo si è diffuso in tutto il mondo.
08:03
It's not surprisingsorprendente that you all foundtrovato it
173
465000
2000
Non è sorpendente che voi tutti l'abbiate trovata
08:05
when you arrivedarrivato in your bathroomsbagni here.
174
467000
2000
quando siete entrati in bagno qui.
08:07
But I tookha preso this photographfotografia in a toiletgabinetto at the back of a tenttenda
175
469000
5000
Ma ho fatto questa fotografia in un bagno dietro a una tenda
08:12
in the eco-campeco-camp in the junglegiungla in AssamAssam.
176
474000
2000
nel camping ecologico nella jungla in Assam.
08:14
(LaughterRisate)
177
476000
1000
(Risate)
08:16
Who foldedpiegato that thing up there, and why?
178
478000
3000
Chi ha portato quella roba fin lassù, e perché?
08:19
(LaughterRisate)
179
481000
1000
(Risate)
08:20
Some people get carriedtrasportato away.
180
482000
2000
Qualcuno si fa prendere la mano.
08:22
(LaughterRisate)
181
484000
3000
(Risate)
08:26
Other people are just lazypigro and make mistakeserrori.
182
488000
3000
Altri sono solamente pigri e fanno errori.
08:29
Some hotelsalberghi exploitsfruttare the opportunityopportunità to put even more memesmemi
183
491000
3000
Alcuni hotel sfruttano l'opportunità di aggiungere ancora più memi
08:32
with a little stickeretichetta.
184
494000
2000
con un piccolo adesivo.
08:34
(LaughterRisate)
185
496000
1000
(Risate)
08:35
What is this all about?
186
497000
2000
Di che si tratta?
08:37
I supposesupporre it's there to tell you that somebody'sdi qualcuno
187
499000
2000
Suppongo che sia lì per dire che qualcuno
08:39
cleanedpuliti the placeposto, and it's all lovelybello.
188
501000
2000
ha fatto le pulizie.
08:41
And you know, actuallyin realtà, all it tellsdice you is that anotherun altro personpersona
189
503000
3000
E pensate, in realtà tutto quello che vi dice è che un'altra persona
08:44
has potentiallypotenzialmente spreaddiffusione germsgermi from placeposto to placeposto.
190
506000
3000
ha potenzialmente propagato germi da un posto all'altro.
08:47
(LaughterRisate)
191
509000
1000
(Risate)
08:48
So, think of it this way.
192
510000
2000
Provate a pensarla così.
08:50
ImagineImmaginate a worldmondo fullpieno of brainsmente
193
512000
2000
Immaginate un mondo pieno di cervelli
08:52
and farlontano more memesmemi than can possiblypossibilmente find homesle case.
194
514000
3000
e tanti memi in più rispetto a quelli che possono trovare casa.
08:55
The memesmemi are all tryingprovare to get copiedcopiati --
195
517000
3000
I memi stanno tutti cercando di essere copiati,
08:58
tryingprovare, in invertedrovesciato commasvirgole -- i.e.,
196
520000
3000
cercando, tra virgolette, cioè
09:01
that's the shorthandstenografia for, if they can get copiedcopiati, they will.
197
523000
3000
è una scorciatoia per dire che se possono essere copiati, lo saranno.
09:04
They're usingutilizzando you and me as theirloro propagatingmateriali di moltiplicazione, copyingcopiatura machinerymacchinario,
198
526000
6000
Essi stanno usando voi e me come loro macchina copiatrice da propagazione,
09:10
and we are the memememe machinesmacchine.
199
532000
3000
e noi siamo le macchine memetiche.
09:13
Now, why is this importantimportante?
200
535000
2000
Ora, perché questo è importante?
09:15
Why is this usefulutile, or what does it tell us?
201
537000
2000
Perché è utile, o cos'altro ci dice?
09:17
It gives us a completelycompletamente newnuovo viewvista of humanumano originsorigini
202
539000
4000
Ci dà una vista completamente nuova delle origini umane
09:21
and what it meanssi intende to be humanumano,
203
543000
1000
e di cosa voglia dire essere umani.
09:22
all conventionalconvenzionale theoriesteorie of culturalculturale evolutionEvoluzione,
204
544000
4000
Tutte le teorie convenzionali dell'evoluzione culturale,
09:26
of the originorigine of humansgli esseri umani,
205
548000
2000
delle origini degli umani,
09:28
and what makesfa us so differentdiverso from other speciesspecie.
206
550000
4000
e di cosa ci rende così diversi dalla altre specie.
09:32
All other theoriesteorie explainingspiegando the biggrande braincervello, and languageLingua, and toolstrumento use
207
554000
2000
Tutte le altre teorie che spiegano il grosso cervello, e il linguaggio e l'uso di arnesi
09:34
and all these things that make us uniqueunico,
208
556000
2000
e tutte queste cose che ci rendono unici,
09:36
are basedbasato uponsu genesgeni.
209
558000
3000
sono basate sui geni.
09:39
LanguageLingua mustdovere have been usefulutile for the genesgeni.
210
561000
3000
Il linguaggio deve essere stato utile per i geni.
09:42
ToolStrumento use mustdovere have enhancedmigliorata our survivalsopravvivenza, matingcombaciamento and so on.
211
564000
3000
L'uso di arnesi deve aver migliorato la nostra capacità di sopravvivenza e di accoppiamento, etc.
09:45
It always comesviene back, as RichardRichard DawkinsDawkins complainedsi è lamentato
212
567000
3000
Si torna sempre lì, come si lamentava Richard Dawkins
09:48
all that long time agofa, it always comesviene back to genesgeni.
213
570000
3000
già così tanto tempo fa, si torna sempre ai geni.
09:51
The pointpunto of memeticsmemetica is to say, "Oh no, it doesn't."
214
573000
4000
Il punto della memetica è di dire, "Oh no non è così".
09:55
There are two replicatorsReplicatori now on this planetpianeta.
215
577000
3000
Ora ci sono due replicatori su questo pianeta.
09:58
From the momentmomento that our ancestorsantenati,
216
580000
3000
Dal momento in cui i nostri antenati,
10:01
perhapsForse two and a halfmetà millionmilione yearsanni agofa or so,
217
583000
2000
forse due milioni e mezzo di anni fa o giù di lì,
10:03
beganiniziato imitatingimitando, there was a newnuovo copyingcopiatura processprocesso.
218
585000
4000
incominciarono a imitare, ci fu un nuovo processo di copia.
10:07
CopyingCopia with variationvariazione and selectionselezione.
219
589000
2000
Copia con variazione e selezione.
10:09
A newnuovo replicatorReplicator was let loosesciolto, and it could never be --
220
591000
5000
Un nuovo replicatore era stato scatenato, e non può darsi mai
10:14
right from the startinizio -- it could never be
221
596000
1000
-- da capo, non può darsi mai
10:15
that humanumano beingsesseri who let loosesciolto this newnuovo creaturecreatura,
222
597000
5000
che hanno scatenato questa nuova creatura
10:20
could just copycopia the usefulutile, beautifulbellissimo, truevero things,
223
602000
3000
potessero copiare solamente ciò che è utile, bello, le cose vere,
10:23
and not copycopia the other things.
224
605000
2000
e non copiare le altre cose.
10:25
While theirloro brainsmente were havingavendo an advantagevantaggio from beingessere ablecapace to copycopia --
225
607000
3000
Mentre i loro cervelli stavano ottenendo vantaggi dalla capacità di copiare --
10:28
lightingilluminazione firesincendi, keepingconservazione firesincendi going, newnuovo techniquestecniche of huntinga caccia,
226
610000
5000
accendere fuochi, tenere accesi i fuochi, nuove tecniche di caccia,
10:33
these kindstipi of things --
227
615000
2000
questo tipo di cose --
10:35
inevitablyinevitabilmente they were alsoanche copyingcopiatura puttingmettendo featherspiume in theirloro haircapelli,
228
617000
3000
inevitabilmente copiavano anche il fatto di mettersi le piume nei capelli,
10:38
or wearingindossare strangestrano clothesAbiti, or paintingla pittura theirloro facesfacce,
229
620000
2000
o di vestire strani abiti, o di dipingersi il viso,
10:40
or whateverqualunque cosa.
230
622000
1000
o qualunque cosa.
10:41
So, you get an armsbraccia racegara betweenfra the genesgeni
231
623000
4000
Così ci troviamo con una corsa agli armamenti tra i geni
10:45
whichquale are tryingprovare to get the humansgli esseri umani to have smallpiccolo economicaleconomico brainsmente
232
627000
4000
che stanno cercando di fare in modo che gli umani abbiano piccoli cervelli economici e convenienti
10:49
and not wasterifiuto theirloro time copyingcopiatura all this stuffcose,
233
631000
2000
e non perdano il loro tempo copiando tutta quella roba,
10:51
and the memesmemi themselvesloro stessi, like the soundssuoni that people madefatto and copiedcopiati --
234
633000
4000
e i memi stessi, come i suoni che la gente ha fatto e copiato --
10:56
in other wordsparole, what turnedtrasformato out to be languageLingua --
235
638000
2000
in altre parole, ciò che poi è risultato essere linguaggio --
10:58
competingcompetere to get the brainsmente to get biggerpiù grande and biggerpiù grande.
236
640000
3000
in concorrenza per ottenere cervelli sempre più grossi.
11:01
So, the biggrande braincervello, on this theoryteoria, is drivenguidato by the memesmemi.
237
643000
4000
Quindi secondo questa teoria il cervello grande è spinto dai memi.
11:05
This is why, in "The MemeMeme MachineMacchina," I calledchiamato it memeticmemetica driveguidare.
238
647000
4000
E' per questo che, in "La macchina dei memi" io l'ho chiamata pressione memetica, memetic drive.
11:09
As the memesmemi evolveevolvere, as they inevitablyinevitabilmente mustdovere,
239
651000
3000
Con l'evolvere dei memi, come inevitabilmenete sono costretti a fare,
11:12
they driveguidare a biggerpiù grande braincervello that is better at copyingcopiatura the memesmemi
240
654000
4000
essi premono per un cervello più grande che sia migliore nel copiare i memi
11:16
that are doing the drivingguida.
241
658000
2000
che stanno producendo la spinta.
11:18
This is why we'venoi abbiamo endedconclusa up with suchcome peculiarpeculiare brainsmente,
242
660000
4000
E' per questo che alla fine ci troviamo con cervelli così particolari,
11:22
that we like religionreligione, and musicmusica, and artarte.
243
664000
3000
che ci piace la religione, e la musica, e l'arte.
11:25
LanguageLingua is a parasiteparassita that we'venoi abbiamo adaptedadattato to,
244
667000
3000
Il linguaggio è un parassita a cui ci siamo adattati,
11:28
not something that was there originallyoriginariamente for our genesgeni,
245
670000
2000
non qualcosa che era originalmente là per i nostri geni,
11:30
on this viewvista.
246
672000
2000
secondo questa visione.
11:32
And like mostmaggior parte parasitesparassiti, it can begininizio dangerouspericoloso,
247
674000
3000
E come molti parassiti può essere pericoloso all'inizio,
11:35
but then it coevolvescoevolves and adaptsadatta,
248
677000
3000
ma poi co-evolve e si adatta
11:38
and we endfine up with a symbioticsimbiotico relationshiprelazione
249
680000
2000
e finiamo con una relazione simbiotica
11:40
with this newnuovo parasiteparassita.
250
682000
1000
con questo nuovo parassita.
11:41
And so, from our perspectiveprospettiva,
251
683000
2000
E così dalla nostra prospettiva,
11:43
we don't realizerendersi conto that that's how it beganiniziato.
252
685000
3000
noi non ci rendiamo conto che è così che è cominciato.
11:46
So, this is a viewvista of what humansgli esseri umani are.
253
688000
3000
Questa è una visione di ciò che gli umani sono.
11:49
All other speciesspecie on this planetpianeta are genegene machinesmacchine only,
254
691000
3000
Tutte le altre specie sul pianeta sono solamente macchine genetiche,
11:52
they don't imitateimitare at all well, hardlyquasi at all.
255
694000
3000
non imitano affatto bene, anzi, quasi per niente.
11:55
We aloneda solo are genegene machinesmacchine and memememe machinesmacchine as well.
256
697000
5000
Solo noi siamo macchine genetiche e anche macchine memetiche.
12:00
The memesmemi tookha preso a genegene machinemacchina and turnedtrasformato it into a memememe machinemacchina.
257
702000
4000
I memi hanno preso una macchina genetica e l'hanno trasformataa in una macchina memetica.
12:04
But that's not all.
258
706000
2000
Ma non è tutto.
12:06
We have a newnuovo kindgenere of memesmemi now.
259
708000
3000
Adesso abbiamo nuovi tipi di memi.
12:09
I've been wonderingchiedendosi for a long time,
260
711000
1000
Mi sono chiesta per tanto tempo,
12:10
sinceda I've been thinkingpensiero about memesmemi a lot,
261
712000
2000
da quando penso molto ai memi,
12:12
is there a differencedifferenza betweenfra the memesmemi that we copycopia --
262
714000
2000
se ci sia una differenza tra i memi che copiamo --
12:14
the wordsparole we speakparlare to eachogni other,
263
716000
2000
le parole che ci diciamo l'un l'altro,
12:16
the gesturesgesti we copycopia, the humanumano things --
264
718000
2000
i gesti che copiamo, le cose umane --
12:18
and all these technologicaltecnologico things around us?
265
720000
2000
e tutte queste cose tecnologiche intorno a noi?
12:20
I have always, untilfino a now, calledchiamato them all memesmemi,
266
722000
4000
Li ho sempre chiamati tutti memi, finora,
12:24
but I do honestlyonestamente think now
267
726000
3000
ma onestamente credo che ora
12:27
we need a newnuovo wordparola for technologicaltecnologico memesmemi.
268
729000
3000
abbiamo bisogno di un nuovo termine per i memi tecnologici.
12:30
Let's call them techno-memesTechno-memi or temesTemes.
269
732000
3000
Chiamiamoli tecnomemi o temi.
12:33
Because the processesprocessi are gettingottenere differentdiverso.
270
735000
3000
Perché i processi si stanno differenziando.
12:37
We beganiniziato, perhapsForse 5,000 yearsanni agofa, with writingscrittura.
271
739000
3000
Cominciammo, forse 5000 anni fa, con la scrittura.
12:40
We put the storageConservazione of memesmemi out there on a clayargilla tabletcompressa,
272
742000
7000
Abbiamo messo il magazzino dei memi là, su una tavoletta di argilla,
12:48
but in orderordine to get truevero temesTemes and truevero temeteme machinesmacchine,
273
750000
2000
ma per avere dei veri tecnomemi e delle vere macchine da tecnomemi,
12:50
you need to get the variationvariazione, the selectionselezione and the copyingcopiatura,
274
752000
3000
ci vuole variazione, selezione e copia,
12:53
all donefatto outsideal di fuori of humansgli esseri umani.
275
755000
2000
tutto fatto al di fuori degli umani.
12:55
And we're gettingottenere there.
276
757000
2000
E ci stiamo arrivando.
12:57
We're at this extraordinarystraordinario pointpunto where we're nearlyquasi there,
277
759000
2000
Ora siamo in quello straordinario punto in cui quasi ci siamo,
12:59
that there are machinesmacchine like that.
278
761000
2000
che ci siano macchine così.
13:01
And indeedinfatti, in the shortcorto time I've alreadygià been at TEDTED,
279
763000
2000
Ed effettivamente, nel breve tempo passato qui a TED,
13:03
I see we're even closerpiù vicino than I thought we were before.
280
765000
2000
vedo che ci siamo anche più vicini di quanto fossimo prima.
13:05
So actuallyin realtà, now the temesTemes are forcingforzatura our brainsmente
281
767000
6000
Così realmente ora i memi stanno costringendo i nostri cervelli
13:11
to becomediventare more like temeteme machinesmacchine.
282
773000
2000
a diventare più simili a macchine da tecnomemi.
13:13
Our childrenbambini are growingin crescita up very quicklyvelocemente learningapprendimento to readleggere,
283
775000
3000
I nostri bambini crescono imparando molto rapidamente a leggere,
13:16
learningapprendimento to use machinerymacchinario.
284
778000
2000
imparando a usare macchinari.
13:18
We're going to have all kindstipi of implantsimpianti,
285
780000
1000
Avremo presto ogni tipo di dispositivo impiantabile
13:19
drugsfarmaci that forcevigore us to stayrestare awakesveglio all the time.
286
781000
3000
farmaci che ci costringeranno a stare sempre svegli.
13:22
We'llWe'll think we're choosingscegliendo these things,
287
784000
2000
Penseremo di essere noi a scegliere queste cose,
13:24
but the temesTemes are makingfabbricazione us do it.
288
786000
3000
ma saranno i "temi", i tecnomemi, che ce le faranno fare.
13:28
So, we're at this cuspcuspide now
289
790000
1000
E ora siamo a questo culmine,
13:29
of havingavendo a thirdterzo replicatorReplicator on our planetpianeta.
290
791000
4000
in cui abbiamo un terzo replicatore sul nostro pianeta.
13:34
Now, what about what elsealtro is going on out there in the universeuniverso?
291
796000
5000
Ma, che succede là fuori nell'universo?
13:39
Is there anyonechiunque elsealtro out there?
292
801000
2000
C'è qualcun altro là fuori?
13:41
People have been askingchiede this questiondomanda for a long time.
293
803000
3000
La gente si fa questa domanda da tanto tempo.
13:44
We'veAbbiamo been askingchiede it here at TEDTED alreadygià.
294
806000
2000
L'abbiamo già fatta anche qui a TED.
13:46
In 1961, FrankFrank DrakeDrake madefatto his famousfamoso equationequazione,
295
808000
4000
Nel 1961, Frank Drake creò la sua famosa equazione,
13:50
but I think he concentratedconcentrato on the wrongsbagliato things.
296
812000
2000
ma io penso che lui si sia concentrato sulle cose sbagliate.
13:52
It's been very productiveproduttivo, that equationequazione.
297
814000
2000
Quell'equazione è stata molto produttiva.
13:54
He wanted to estimatestima N,
298
816000
2000
Voleva stimare N,
13:56
the numbernumero of communicativecomunicativo civilizationsciviltà out there in our galaxygalassia,
299
818000
4000
il numero di civiltà comunicative che ci sono nella nostra galassia.
14:00
and he includedincluso in there the rateVota of starstella formationformazione,
300
822000
4000
E vi ha incluso il tasso di formazione delle stelle,
14:04
the rateVota of planetspianeti, but cruciallyfondamentalmente, intelligenceintelligenza.
301
826000
4000
il tasso dei pianeti, ma soprattutto l'intelligenza.
14:08
I think that's the wrongsbagliato way to think about it.
302
830000
4000
Penso che sia il modo sbagliato di affrontare la questione.
14:12
IntelligenceIntelligenza appearsappare all over the placeposto, in all kindstipi of guisesforme.
303
834000
3000
L'intelligenza appare in tutti i posti, in tutte le forme.
14:15
HumanUmano intelligenceintelligenza is only one kindgenere of a thing.
304
837000
2000
L'intelligenza umana ne rappresenta solo un tipo.
14:17
But what's really importantimportante is the replicatorsReplicatori you have
305
839000
3000
Ma quel che conta davvero è che replicatori ci sono
14:20
and the levelslivelli of replicatorsReplicatori, one feedingalimentazione on the one before.
306
842000
4000
e i livelli di replicatori, ognuno dei quali si sostiene sul precedente.
14:24
So, I would suggestsuggerire that we don't think intelligenceintelligenza,
307
846000
5000
Così suggerisco che non pensiamo all'intelligenza,
14:29
we think replicatorsReplicatori.
308
851000
2000
pensiamo ai replicatori.
14:31
And on that basisbase, I've suggestedsuggerito a differentdiverso kindgenere of equationequazione.
309
853000
3000
E su quella base, ho suggerito un'equazione di diverso tipo.
14:34
A very simplesemplice equationequazione.
310
856000
2000
Un'equazione molto semplice.
14:36
N, the samestesso thing,
311
858000
2000
N è la stessa cosa,
14:38
the numbernumero of communicativecomunicativo civilizationsciviltà out there
312
860000
3000
il numero di civiltà comunicative
14:41
[that] we mightpotrebbe expectaspettarsi in our galaxygalassia.
313
863000
2000
che ci possiamo aspettare nella nostra galassia.
14:43
Just startinizio with the numbernumero of planetspianeti there are in our galaxygalassia.
314
865000
4000
Cominciamo con il numero di pianeti che ci sono nella nostra galassia.
14:47
The fractionfrazione of those whichquale get a first replicatorReplicator.
315
869000
4000
La frazione di questi che ha un primo replicatore.
14:51
The fractionfrazione of those that get the secondsecondo replicatorReplicator.
316
873000
4000
La frazione di quelli che si trovano con il secondo replicatore.
14:55
The fractionfrazione of those that get the thirdterzo replicatorReplicator.
317
877000
2000
La frazione di quelli che hanno il terzo replicatore.
14:58
Because it's only the thirdterzo replicatorReplicator that's going to reachraggiungere out --
318
880000
3000
Perché è solo il terzo replicatore quello che uscirà dai confini --
15:01
sendinginvio informationinformazione, sendinginvio probessonde, gettingottenere out there,
319
883000
3000
inviando informazione, mandando sonde, uscendo di là,
15:04
and communicatingcomunicare with anywheredovunque elsealtro.
320
886000
2000
e comunicando con qualunque altro luogo.
15:06
OK, so if we take that equationequazione,
321
888000
3000
Bene, così prendiamo l'equazione,
15:09
why haven'tnon hanno we heardsentito from anybodynessuno out there?
322
891000
5000
ma perché non abbiamo sentito niente da nessuno là fuori?
15:14
Because everyogni steppasso is dangerouspericoloso.
323
896000
4000
Perché ogni passo è pericoloso.
15:18
GettingOttenere a newnuovo replicatorReplicator is dangerouspericoloso.
324
900000
3000
Avere un nuovo replicatore è pericoloso.
15:21
You can pullTirare throughattraverso, we have pulledtirato throughattraverso,
325
903000
2000
E' possibile venirne fuori, noi ne siamo venuti fuori,
15:23
but it's dangerouspericoloso.
326
905000
2000
ma è pericoloso.
15:25
Take the first steppasso, as soonpresto as life appearedè apparso on this earthterra.
327
907000
3000
Prendiamo il primo passo, appena la vita è apparsa su questa terra.
15:28
We maypuò take the GaianFederico gaudenzi viewvista.
328
910000
2000
Possiamo usare la visione di Gaia.
15:30
I lovedamato PeterPeter Ward'sDi Ward talk yesterdayieri -- it's not GaianFederico gaudenzi all the time.
329
912000
3000
Mi è piaciuto il discorso di Peter Ward's ieri -- non è sempre gaiano.
15:33
ActuallyIn realtà, life formsforme produceprodurre things that killuccidere themselvesloro stessi.
330
915000
3000
In realtà le forme di vita producono cose che le uccidono.
15:36
Well, we did pullTirare throughattraverso on this planetpianeta.
331
918000
3000
Bene, noi ce l'abbiamo fatta su questo pianeta.
15:39
But then, a long time laterdopo, billionsmiliardi of yearsanni laterdopo,
332
921000
2000
Ma, molto tempo dopo, miliardi di anni dopo,
15:41
we got the secondsecondo replicatorReplicator, the memesmemi.
333
923000
3000
ci siamo trovati con un secondo replicatore, i memi.
15:44
That was dangerouspericoloso, all right.
334
926000
2000
Era pericoloso, d'accordo.
15:46
Think of the biggrande braincervello.
335
928000
2000
Pensate al cervello grosso.
15:48
How manymolti mothersmadri do we have here?
336
930000
3000
Quante mamme ci sono qui?
15:51
You know all about biggrande brainsmente.
337
933000
2000
Voi sapete tutto dei grossi cervelli.
15:53
They are dangerouspericoloso to give birthnascita to,
338
935000
2000
Sono pericolosi da far nascere.
15:55
are agonizingagonizzante to give birthnascita to.
339
937000
2000
E' un'agonia farli nascere.
15:57
(LaughterRisate)
340
939000
1000
(Risate).
15:59
My catgatto gaveha dato birthnascita to fourquattro kittensgattini, purringfa le fusa all the time.
341
941000
2000
Il mio gatto ha dato alla luce quattro gattini, facendo le fusa tutto il tempo.
16:01
AhAh, mmmm -- slightlyleggermente differentdiverso.
342
943000
2000
Ah, mm -- lievemente diverso.
16:03
(LaughterRisate)
343
945000
2000
(Risate).
16:05
But not only is it painfuldoloroso, it killsuccide lots of babiesbambini,
344
947000
3000
Ma non è solo doloroso, uccide anche un sacco di neonati,
16:08
it killsuccide lots of mothersmadri,
345
950000
2000
uccide un sacco di mamme,
16:10
and it's very expensivecostoso to produceprodurre.
346
952000
2000
ed è molto dispendioso da produrre.
16:12
The genesgeni are forcedcostretto into producingproduzione all this myelinmielina,
347
954000
2000
I geni sono costretti a produrre tutta quella mielina,
16:14
all the fatGrasso to myelinatemielinare the braincervello.
348
956000
2000
tutto il grasso che serve per mielinare il cervello.
16:16
Do you know, sittingseduta here,
349
958000
2000
Sapete che, mentre ve ne state seduti,
16:18
your braincervello is usingutilizzando about 20 percentper cento of your body'sdi corpo energyenergia outputproduzione
350
960000
4000
il vostro cervello sta usando circa il 20 percento dell'energia del vostro corpo,
16:22
for two percentper cento of your bodycorpo weightpeso?
351
964000
2000
eppure è il due percento del vostro peso corporeo?
16:24
It's a really expensivecostoso organorgano to runcorrere.
352
966000
2000
E' un organo davvero costoso da mantenere.
16:26
Why? Because it's producingproduzione the memesmemi.
353
968000
2000
Perché? Perché sta producendo i memi.
16:28
Now, it could have killeducciso us off. It could have killeducciso us off,
354
970000
4000
Orbene, avrebbe potuto ucciderci -- avrebbe potuto farci fuori del tutto,
16:32
and maybe it nearlyquasi did, but you see, we don't know.
355
974000
2000
e forse l'ha quasi fatto, ma vedete, non lo sappiamo.
16:34
But maybe it nearlyquasi did.
356
976000
2000
Ma forse l'ha quasi fatto.
16:36
Has it been triedprovato before?
357
978000
1000
E' mai stato tentato prima?
16:37
What about all those other speciesspecie?
358
979000
2000
Che ne è di tutte quelle altre specie?
16:39
LouiseLouise LeakeyLeakey talkedparlato yesterdayieri
359
981000
2000
Louise Leakey ieri ha detto
16:41
about how we're the only one in this branchramo left.
360
983000
3000
che siamo gli unici rimasti su questo ramo.
16:44
What happenedè accaduto to the othersaltri?
361
986000
2000
Che è successo agli altri?
16:46
Could it be that this experimentsperimentare in imitationimitazione,
362
988000
2000
Potrebbe darsi che questo esperimento di imitazione,
16:48
this experimentsperimentare in a secondsecondo replicatorReplicator,
363
990000
2000
questo esperimento di un secondo replicatore,
16:50
is dangerouspericoloso enoughabbastanza to killuccidere people off?
364
992000
4000
sia abbastanza pericoloso da far fuori la gente?
16:54
Well, we did pullTirare throughattraverso, and we adaptedadattato.
365
996000
2000
Bene, noi ce l'abbiamo fatta, e ci siamo adattati.
16:56
But now, we're hittingcolpire, as I've just describeddescritta,
366
998000
3000
Ma ora stiamo toccando, come vi ho appena descritto,
16:59
we're hittingcolpire the thirdterzo replicatorReplicator pointpunto.
367
1001000
2000
stiamo toccando il punto del terzo replicatore.
17:01
And this is even more dangerouspericoloso --
368
1003000
3000
E questo è ancora più pericoloso --
17:04
well, it's dangerouspericoloso again.
369
1006000
2000
ossia, è di nuovo pericoloso.
17:06
Why? Because the temesTemes are selfishegoista replicatorsReplicatori
370
1008000
4000
Perché? Perché i "temi" (i tecnomemi), sono replicatori egoisti
17:10
and they don't carecura about us, or our planetpianeta, or anything elsealtro.
371
1012000
3000
e non si preoccupano di noi, del nostro pianeta, o di altro.
17:13
They're just informationinformazione, why would they?
372
1015000
3000
Non sono nient'altro che informazione -- perché dovrebbero?
17:17
They are usingutilizzando us to sucksucchiare up the planet'sdi pianeta resourcesrisorse
373
1019000
2000
Ci usano per succhiare le risorse del pianeta
17:19
to produceprodurre more computerscomputer,
374
1021000
2000
per produrre più computer,
17:21
and more of all these amazingStupefacente things we're hearingudito about here at TEDTED.
375
1023000
3000
e più di quelle straordinarie cose di cui sentiamo parlare qui a TED.
17:24
Don't think, "Oh, we createdcreato the InternetInternet for our ownproprio benefitvantaggio."
376
1026000
4000
Non pensate, "Oh, abbiamo creato Internet a nostro vantaggio".
17:28
That's how it seemssembra to us.
377
1030000
2000
Sembra a noi che sia così.
17:30
Think, temesTemes spreadingdiffusione because they mustdovere.
378
1032000
4000
Pensate ai "temi", tecnomemi che si diffondono perché devono diffondersi.
17:34
We are the oldvecchio machinesmacchine.
379
1036000
2000
Noi siamo macchine vecchie.
17:36
Now, are we going to pullTirare throughattraverso?
380
1038000
2000
Ebbene, ce la caveremo?
17:38
What's going to happenaccadere?
381
1040000
2000
Che succederà?
17:40
What does it mean to pullTirare throughattraverso?
382
1042000
2000
Che vuol dire cavarsela?
17:42
Well, there are kindgenere of two waysmodi of pullingtraino throughattraverso.
383
1044000
2000
Ora, ci sono un paio di modi per cavarsela.
17:45
One that is obviouslyovviamente happeningavvenimento all around us now,
384
1047000
2000
Uno che sta ovviamente avendo luogo tutto intorno a noi,
17:47
is that the temesTemes turnturno us into temeteme machinesmacchine,
385
1049000
4000
è che i "temi" (i tecnomemi) ci trasformano in macchine da "temi",
17:51
with these implantsimpianti, with the drugsfarmaci,
386
1053000
2000
con dispositivi implantologici, con i farmaci,
17:53
with us mergingl'Unione with the technologytecnologia.
387
1055000
3000
con noi che ci fondiamo con la tecnologia.
17:56
And why would they do that?
388
1058000
2000
E perché dovrebberlo farlo?
17:58
Because we are self-replicatingauto-replicanti.
389
1060000
2000
Perché noi siamo autoreplicanti.
18:00
We have babiesbambini.
390
1062000
2000
Facciamo bambini.
18:02
We make newnuovo onesquelli, and so it's convenientconveniente to piggybackPiggyback on us,
391
1064000
3000
Ne facciamo di nuovi, e quindi è conveniente starci a cavalcioni,
18:05
because we're not yetancora at the stagepalcoscenico on this planetpianeta
392
1067000
4000
perché su questo pianeta non siamo ancora a uno stadio
18:09
where the other optionopzione is viablepraticabile.
393
1071000
2000
in cui l'altra opzione sia praticabile.
18:11
AlthoughAnche se it's closerpiù vicino, I heardsentito this morningmattina,
394
1073000
2000
Anche se è più vicina, come ho sentito stamattina,
18:13
it's closerpiù vicino than I thought it was.
395
1075000
2000
più vicina di quanto pensassi.
18:15
Where the temeteme machinesmacchine themselvesloro stessi will replicatereplicare themselvesloro stessi.
396
1077000
3000
Quando le macchine da tecnomemi si replicheranno da sole.
18:18
That way, it wouldn'tno matterimporta if the planet'sdi pianeta climateclima
397
1080000
4000
In quel modo, non importerà se il clima del pianeta
18:22
was utterlycompletamente destabilizeddestabilizzato,
398
1084000
2000
sarà completamente destabilizzato,
18:24
and it was no longerpiù a lungo possiblepossibile for humansgli esseri umani to livevivere here.
399
1086000
2000
e se non sarà più possibile per gli umani vivere qui.
18:26
Because those temeteme machinesmacchine, they wouldn'tno need --
400
1088000
2000
Perchè loro, quelle macchine da "temi", non ne hanno bisogno --
18:28
they're not squishyscivolavano via, wetbagnato, oxygen-breathingrespirano ossigeno,
401
1090000
2000
non sono creature molliccie, umide, che respirano ossigeno,
18:30
warmth-requiringcalore-richiedere creaturescreature.
402
1092000
3000
e hanno bisogno di calore.
18:33
They could carrytrasportare on withoutsenza us.
403
1095000
2000
Possono andare avanti senza di noi.
18:35
So, those are the two possibilitiespossibilità.
404
1097000
3000
Quindi, ci sono due possibilità.
18:38
The secondsecondo, I don't think we're that closevicino.
405
1100000
4000
Per quanto riguarda la seconda, non credo che ci siamo così vicini.
18:42
It's comingvenuta, but we're not there yetancora.
406
1104000
2000
Sta arrivando, non ci siamo ancora.
18:44
The first, it's comingvenuta too.
407
1106000
2000
Anche la prima sta arrivando.
18:46
But the damagedanno that is alreadygià beingessere donefatto
408
1108000
3000
Ma il danno che è già stato fatto
18:49
to the planetpianeta is showingmostrando us how dangerouspericoloso the thirdterzo pointpunto is,
409
1111000
5000
al pianeta ci mostra quanto sia pericoloso quel terzo punto,
18:54
that thirdterzo dangerPericolo pointpunto, gettingottenere a thirdterzo replicatorReplicator.
410
1116000
3000
quel terzo passaggio pericoloso, avere un terzo replicatore.
18:58
And will we get throughattraverso this thirdterzo dangerPericolo pointpunto,
411
1120000
2000
E ce la caveremo anche con questo terzo passaggio pericoloso,
19:00
like we got throughattraverso the secondsecondo and like we got throughattraverso the first?
412
1122000
3000
come ce la siamo cavata con il secondo e come ce la siamo cavata con il primo?
19:04
Maybe we will, maybe we won'tnon lo farà.
413
1126000
2000
Forse ce la faremo, forse no.
19:06
I have no ideaidea.
414
1128000
3000
Non ne ho idea.
19:13
(ApplauseApplausi)
415
1135000
10000
(Applausi)
19:24
ChrisChris AndersonAnderson: That was an incredibleincredibile talk.
416
1146000
2000
Chris Anderson: E' stato un discorso incredibile.
19:26
SBSB: Thank you. I scaredimpaurito myselfme stessa.
417
1148000
2000
SB. Grazie. Mi sono spaventata da sola.
19:28
CACA: (LaughterRisate)
418
1150000
1000
CA: (Risata)
Translated by Paolo Santinello
Reviewed by Paola Natalucci

▲Back to top

ABOUT THE SPEAKER
Susan Blackmore - Memeticist
Susan Blackmore studies memes -- those self-replicating "life forms" that spread themselves via human consciousness. We're now headed, she believes, toward a new form of meme, spread by the technology we've created.

Why you should listen

Susan Blackmore is dedicated to understanding the scientific nature of consciousness. Her latest work centers on the existence of memes -- little bits of knowledge, lore, habit that seem to spread themselves using human brains as mere carriers. She's exploring the existence of a new class of meme, spread by human technology. It's temporarily named the "teme."

She has written about memes, consciousness, and near-death experiences; has appeared on the British Big Brother to discuss the psychology of the participants; and writes for the Guardian UK.

More profile about the speaker
Susan Blackmore | Speaker | TED.com