ABOUT THE SPEAKER
Susan Blackmore - Memeticist
Susan Blackmore studies memes -- those self-replicating "life forms" that spread themselves via human consciousness. We're now headed, she believes, toward a new form of meme, spread by the technology we've created.

Why you should listen

Susan Blackmore is dedicated to understanding the scientific nature of consciousness. Her latest work centers on the existence of memes -- little bits of knowledge, lore, habit that seem to spread themselves using human brains as mere carriers. She's exploring the existence of a new class of meme, spread by human technology. It's temporarily named the "teme."

She has written about memes, consciousness, and near-death experiences; has appeared on the British Big Brother to discuss the psychology of the participants; and writes for the Guardian UK.

More profile about the speaker
Susan Blackmore | Speaker | TED.com
TED2008

Susan Blackmore: Memes and "temes"

Susan Blackmore o memima i "temima"

Filmed:
882,044 views

Susan Blackmore istražuje meme: ideje koje se samorepliciraju iz mozga u drugi mozak, poput virusa. Donosi odvažnu tvrdnju: Čovječanstvo je stvorilo novu vrstu mema, tem, koja se širi putem tehnologije -- i smišlja načine da bi se održala živom.
- Memeticist
Susan Blackmore studies memes -- those self-replicating "life forms" that spread themselves via human consciousness. We're now headed, she believes, toward a new form of meme, spread by the technology we've created. Full bio

Double-click the English transcript below to play the video.

00:18
CulturalKulturne evolutionevolucija is a dangerousopasno childdijete
0
0
3000
Kulturna evolucija je opasno dijete
00:21
for any speciesvrsta to let looselabav on its planetplaneta.
1
3000
3000
za pustiti na svom planetu.
00:24
By the time you realizeostvariti what's happeningdogađa, the childdijete is a toddlermalo dijete,
2
6000
4000
Dok shvatimo što se događa, dijete odraste
00:28
up and causinguzrok havocpustoš, and it's too latekasno to put it back.
3
10000
6000
stvara kaos, i prekasno je za vratiti ga.
00:34
We humansljudi are Earth'sZemlja je PandoranBotanici speciesvrsta.
4
16000
3000
Mi ljudi smo Zemljina Pandorina vrsta.
00:37
We're the onesone who let the seconddrugi replicatorreplikator out of its boxkutija,
5
19000
5000
Mi smo pustili drugog replikatora iz kutije,
00:42
and we can't pushgurnuti it back in.
6
24000
2000
i ne možemo ga vratiti unutra.
00:44
We're seeingvidim the consequencesposljedice all around us.
7
26000
3000
Vidimo posljedice svugdje oko nas.
00:48
Now that, I suggestpredložiti, is the viewpogled that
8
30000
4000
To je pogled koji
00:52
comesdolazi out of takinguzimanje memeticsMemetics seriouslyozbiljno.
9
34000
2000
slijedi iz ozbiljnog shvaćanja memetike.
00:54
And it givesdaje us a newnovi way of thinkingmišljenje about
10
36000
2000
I pruža nam novi način razmišljanja o
00:56
not only what's going on on our planetplaneta,
11
38000
2000
zbivanju ne samo na našem planetu,
00:58
but what mightmoć be going on elsewheredrugdje in the cosmoskosmos.
12
40000
3000
nego i onom što bi se moglo događati drugdje u svemiru.
01:01
So first of all, I'd like to say something about memeticsMemetics
13
43000
3000
Zato bih najprije željela reći nešto o memetici
01:04
and the theoryteorija of memesmemi,
14
46000
2000
i teoriji o memima,
01:06
and secondlydrugo, how this mightmoć answerodgovor questionspitanja about who'stko je out there,
15
48000
5000
a potom bi tako mogli odgovoriti na pitanje je li netko vani
01:11
if indeeddoista anyonebilo tko is.
16
53000
3000
ako netko jest.
01:14
So, memeticsMemetics:
17
56000
2000
Dakle, memetika.
01:16
memeticsMemetics is foundedosnovan on the principlenačelo of UniversalUniverzalni DarwinismDarvinizam.
18
58000
4000
Memetika se temelji na principu univerzalnog darvinizma.
01:20
DarwinDarwin had this amazingnevjerojatan ideaideja.
19
62000
3000
Darwin je imao fascinantnu ideju.
01:23
IndeedDoista, some people say
20
65000
2000
Zapravo, neki ljudi kažu
01:25
it's the bestnajbolje ideaideja anybodyiko ever had.
21
67000
3000
najbolju ideju koje se itko ikada sjetio.
01:28
Isn't that a wonderfulpredivan thought, that there could be suchtakav a thing
22
70000
4000
Nije li to predivna pomisao, da postoji nešto kao
01:32
as a bestnajbolje ideaideja anybodyiko ever had?
23
74000
2000
najbolja ideja koje se itko ikada sjetio?
01:34
Do you think there could?
24
76000
1000
Mislite da postoji?
01:35
AudiencePublika: No.
25
77000
1000
Publika: Ne.
01:36
(LaughterSmijeh)
26
78000
1000
(Smijeh)
01:37
SusanSusan BlackmoreBlackmore: SomeoneNetko sayskaže no, very loudlyglasno, from over there.
27
79000
2000
Netko je rekao ne..
01:39
Well, I say yes, and if there is, I give the prizenagrada to DarwinDarwin.
28
81000
4000
Pa, ja kažem da, i da postoji, dala bih nagradu Darwinu.
01:43
Why?
29
85000
2000
Zašto?
01:45
Because the ideaideja was so simplejednostavan,
30
87000
3000
Jer je ideja bila tako jednostavna,
01:48
and yetjoš it explainsobjašnjava all designdizajn in the universesvemir.
31
90000
6000
a objašnjava sav dizajn u svemiru.
01:54
I would say not just biologicalbiološki designdizajn,
32
96000
2000
Rekla bih ne samo biološki,
01:56
but all of the designdizajn that we think of as humanljudski designdizajn.
33
98000
2000
već sav dizajn koji smatramo ljudskim dizajnom.
01:58
It's all just the sameisti thing happeningdogađa.
34
100000
2000
To je sve jedna te ista stvar.
02:00
What did DarwinDarwin say?
35
102000
2000
Što je Darwin rekao?
02:02
I know you know the ideaideja, naturalprirodni selectionizbor,
36
104000
2000
Znam da poznajete ideju - prirodna selekcija,
02:04
but let me just paraphraseparafraza "The OriginPorijeklo of SpeciesVrsta," 1859,
37
106000
5000
ali dopustite mi da parafraziram "Porijeklo vrsta", 1859.
02:09
in a fewnekoliko sentencesrečenice.
38
111000
2000
u nekoliko rečenica.
02:11
What DarwinDarwin said was something like this:
39
113000
3000
Darwin je rekao nešto poput ovoga --
02:14
if you have creaturesstvorenja that varyvarirati, and that can't be doubtedsumnjao u --
40
116000
4000
ako imate bića koja se razlikuju, a to je nesumljivo --
02:18
I've been to the GalapagosGalapagos, and I've measuredizmjerena the sizeveličina of the beakskljunovima
41
120000
3000
bio sam na Galapagosu i mjerio veličine kljunova
02:21
and the sizeveličina of the turtlekornjača shellsškoljke and so on, and so on.
42
123000
2000
i veličine oklopa kornjača, itd, itd.
02:23
And 100 pagesstranica laterkasnije.
43
125000
2000
I 100 stranica poslije --
02:25
(LaughterSmijeh)
44
127000
2000
(Smijeh)
02:27
And if there is a struggleborba for life,
45
129000
4000
I ako postoji borba za život,
02:31
suchtakav that nearlyskoro all of these creaturesstvorenja dieumrijeti --
46
133000
3000
takva da gotovo sva ta bića uginu --
02:34
and this can't be doubtedsumnjao u, I've readčitati MalthusMalthus
47
136000
3000
a ovo je nesumljivo, pročitao sam Malthusa
02:37
and I've calculatedizračunava se how long it would take for elephantsslonovi
48
139000
2000
i izračunao koliko bi trebalo slonovima
02:39
to coverpokriti the wholečitav worldsvijet if they breduzgajaju unrestrictedbez ograničenja, and so on and so on.
49
141000
3000
da prekriju Svijet neograničenim razmnožavanjem, itd itd.
02:42
And anotherjoš 100 pagesstranica laterkasnije.
50
144000
4000
I još 100 stranica poslije.
02:46
And if the very fewnekoliko that survivepreživjeti passproći ontona theirnjihov offspringpotomak
51
148000
5000
I ako nekolicina koji prežive prenesu na potomke
02:51
whateveršto god it was that helpedpomogao them survivepreživjeti,
52
153000
3000
štogod im je pomoglo da prežive,
02:54
then those offspringpotomak mustmora be better adaptedprilagođen
53
156000
2000
onda ti potomci moraju biti bolje prilagođeni
02:56
to the circumstancesokolnosti in whichkoji all this happeneddogodilo
54
158000
2000
okolnostima u kojima se to zbivalo
02:58
than theirnjihov parentsroditelji were.
55
160000
3000
nego njihovi roditelji.
03:01
You see the ideaideja?
56
163000
2000
Shvaćate ideju?
03:03
If, if, if, then.
57
165000
2000
Ako, ako, ako, onda.
03:05
He had no conceptkoncept of the ideaideja of an algorithmalgoritam,
58
167000
2000
On nije znao za ideju algoritma.
03:07
but that's what he describedopisan in that bookrezervirati,
59
169000
3000
Ali to je ono što je opisao u toj knjizi,
03:10
and this is what we now know as the evolutionaryevolucioni algorithmalgoritam.
60
172000
3000
i to je ono što nazivamo evolucijskim algoritmom.
03:13
The principlenačelo is you just need those threetri things --
61
175000
4000
Princip je da su potrebne te tri stvari --
03:17
variationvarijacije, selectionizbor and hereditynasljedstvo.
62
179000
3000
varijacija, selekcija i nasljednost.
03:20
And as DanDan DennettDennett putsstavlja it, if you have those,
63
182000
4000
I kako bi Dan Dennett rekao, ako njih imaš
03:24
then you mustmora get evolutionevolucija.
64
186000
2000
onda moraš dobiti evoluciju.
03:26
Or designdizajn out of chaoshaos, withoutbez the aidpomoć of mindum.
65
188000
5000
Ili dizajn iz kaosa bez pomoći uma.
03:31
There's one wordriječ I love on that slideklizanje.
66
193000
2000
Jednu riječ s tog slajda volim.
03:33
What do you think my favoriteljubimac wordriječ is?
67
195000
2000
Što mislite, koja je to riječ?
03:35
AudiencePublika: ChaosKaos.
68
197000
1000
Publika: Kaos.
03:36
SBSB: ChaosKaos? No. What? MindUm? No.
69
198000
3000
Kaos? Ne. Um? Ne.
03:39
AudiencePublika: WithoutBez.
70
201000
1000
Publika: Bez.
03:40
SBSB: No, not withoutbez.
71
202000
1000
Nije bez.
03:41
(LaughterSmijeh)
72
203000
1000
(Smijeh)
03:42
You try them all in ordernarudžba: MmmMmm...?
73
204000
2000
Pokušajte sve po redu: Mmm... ?
03:44
AudiencePublika: MustMora.
74
206000
1000
Publika: Mora.
03:45
SBSB: MustMora, at mustmora. MustMora, mustmora.
75
207000
4000
Mora, konačno. Mora, mora.
03:49
This is what makesmarke it so amazingnevjerojatan.
76
211000
2000
To je ono što to čini tako zadivljujućim.
03:51
You don't need a designerdizajner,
77
213000
3000
Ne trebate stvoritelja,
03:54
or a planplan, or foresightPredviđanje, or anything elsedrugo.
78
216000
3000
ili plan, ili predumišljaj ili išta drugo.
03:57
If there's something that is copiedkopira with variationvarijacije
79
219000
3000
Ako postoji nešto što se kopira s varijacijom
04:00
and it's selectedodabran, then you mustmora get designdizajn appearingpojavljuju out of nowherenigdje.
80
222000
4000
i to je odabrano, onda morate dobiti dizajn iz ničega.
04:04
You can't stop it.
81
226000
2000
Ne možete to zaustaviti.
04:06
MustMora is my favoriteljubimac wordriječ there.
82
228000
4000
"Mora" je moja najdraža riječ tamo.
04:11
Now, what's this to do with memesmemi?
83
233000
2000
Kakve to ima veze s memima?
04:13
Well, the principlenačelo here appliesvrijedi to anything
84
235000
5000
Princip se primjenjuje na bilo što
04:18
that is copiedkopira with variationvarijacije and selectionizbor.
85
240000
1000
što se kopira varijacijom i selekcijom.
04:19
We're so used to thinkingmišljenje in termsUvjeti of biologybiologija,
86
241000
3000
Naviknuti smo na razmišljanje u terminima biologije,
04:22
we think about genesgeni this way.
87
244000
2000
tako razmišljamo o genima.
04:24
DarwinDarwin didn't, of coursenaravno; he didn't know about genesgeni.
88
246000
3000
Darwin, dakako, nije ni znao za gene.
04:27
He talkedRazgovarao mostlyuglavnom about animalsživotinje and plantsbilje,
89
249000
2000
Uglavnom je pričao o životinjama i biljkama,
04:29
but alsotakođer about languagesjezici evolvingrazvojni and becomingpostaje extinctizumro.
90
251000
3000
ali i o jezicima kako evoluiraju i izumiru.
04:32
But the principlenačelo of UniversalUniverzalni DarwinismDarvinizam
91
254000
2000
Ali princip univerzalnog darvinizma
04:34
is that any informationinformacija that is variedraznolik and selectedodabran
92
256000
4000
je da će bilo koja informacija koja varira i odabire se
04:38
will produceproizvoditi designdizajn.
93
260000
2000
stvoriti dizajn.
04:40
And this is what RichardRichard DawkinsDawkins was on about
94
262000
2000
To je ono o čemu je Richard Dawkins pričao
04:42
in his 1976 bestsellerbestseler, "The SelfishSebičan GeneGene."
95
264000
3000
u svom bestselleru iz 1976, "Sebični gen".
04:45
The informationinformacija that is copiedkopira, he calledzvao the replicatorreplikator.
96
267000
4000
Informacija koja se kopira, nju je zvao replikatorom.
04:49
It selfishlysebično copieskopije.
97
271000
2000
Sebično se kopira.
04:51
Not meaningznačenje it kindljubazan of sitssjedi around insideiznutra cellsStanice going, "I want to get copiedkopira."
98
273000
4000
Ne u smislu da leži unutar stanica i govori, "Želim se kopirati."
04:55
But that it will get copiedkopira if it can,
99
277000
2000
Nego da će se kopirati ako može,
04:57
regardlessbez obzira na of the consequencesposljedice.
100
279000
2000
bez obzira na posljedice.
05:00
It doesn't carebriga about the consequencesposljedice because it can't,
101
282000
3000
Ne mari za posljedice jer nije sposobna,
05:03
because it's just informationinformacija beingbiće copiedkopira.
102
285000
2000
jer je to samo informacija.
05:06
And he wanted to get away
103
288000
1000
I želio se odmaknuti
05:07
from everybodysvi thinkingmišljenje all the time about genesgeni,
104
289000
3000
od svih koji su razmišljali samo o genima,
05:10
and so he said, "Is there anotherjoš replicatorreplikator out there on the planetplaneta?"
105
292000
3000
rekao je, "Postoji li još replikatora na ovom planetu?"
05:13
AhAh, yes, there is.
106
295000
2000
Ah, da, postoji.
05:15
Look around you -- here will do, in this roomsoba.
107
297000
3000
Pogledajte oko sebe, u ovoj sobi.
05:18
All around us, still clumsilynespretno driftingsplavarenja about
108
300000
3000
Svugdje oko nas, nespretno se valja
05:21
in its primevaliskonska soupjuha of cultureKultura, is anotherjoš replicatorreplikator.
109
303000
3000
u kulturnoj prajuhi, je drugi replikator.
05:24
InformationInformacije that we copykopirati from personosoba to personosoba, by imitationimitacija,
110
306000
5000
Informacija koju kopiramo od osobe do osobe imitacijom,
05:29
by languagejezik, by talkingkoji govori, by tellingreći storiespriče,
111
311000
2000
jezikom, govorom, pričanjem priča,
05:31
by wearingnošenje clothesodjeća, by doing things.
112
313000
3000
nošenjem odjeće, radeći stvari.
05:34
This is informationinformacija copiedkopira with variationvarijacije and selectionizbor.
113
316000
5000
To je informacija kopirana s varijacijom i selekcijom.
05:39
This is designdizajn processpostupak going on.
114
321000
3000
To je proces dizajna koji se zbiva.
05:42
He wanted a nameime for the newnovi replicatorreplikator.
115
324000
3000
Želio je ime za novi replikator.
05:45
So, he tookuzeo the Greekgrčki wordriječ "mimememimeme," whichkoji meanssredstva that whichkoji is imitatedimitiran.
116
327000
4000
Pa je uzeo grču riječ "mimeme", što znači "ono što je imitirano".
05:49
RememberSjećam se that, that's the coresrž definitiondefinicija:
117
331000
2000
To je ključna definicija.
05:52
that whichkoji is imitatedimitiran.
118
334000
1000
Ono što se imitira.
05:53
And abbreviatedskraćeno it to mememem, just because it soundszvukovi good
119
335000
3000
I skratio to na mem, jer zvuči dobro
05:56
and madenapravljen a good mememem, an effectivedjelotvoran spreadingširenje mememem.
120
338000
3000
i stvorio dobar mem, efektivni šireći mem.
05:59
So that's how the ideaideja camedošao about.
121
341000
3000
Znači tako je ideja nastala.
06:03
It's importantvažno to stickštap with that definitiondefinicija.
122
345000
3000
Važno je držati se te definicije.
06:06
The wholečitav scienceznanost of memeticsMemetics is much malignedmaligned,
123
348000
4000
Cijela znanost memetike je omražena,
06:10
much misunderstoodneshvaćeni, much fearedbojao.
124
352000
3000
krivo shvaćena i pribojavana.
06:13
But a lot of these problemsproblemi can be avoidedizbjegavati
125
355000
3000
Ali mnogo tih problema možemo izbjeći
06:16
by rememberingsjećanja the definitiondefinicija.
126
358000
2000
prisjećajući se definicije.
06:18
A mememem is not equivalentekvivalent to an ideaideja.
127
360000
2000
Mem nije ideja.
06:20
It's not an ideaideja. It's not equivalentekvivalent to anything elsedrugo, really.
128
362000
2000
Nije ideja, nije ekvivalent ničem drugom.
06:22
StickŠtap with the definitiondefinicija.
129
364000
2000
Držite se definicije.
06:24
It's that whichkoji is imitatedimitiran,
130
366000
2000
To je ono što se imitira.
06:26
or informationinformacija whichkoji is copiedkopira from personosoba to personosoba.
131
368000
3000
Ili informacija koja je kopirana od osobe do osobe.
06:30
So, let's see some memesmemi.
132
372000
1000
Pogledajmo memove.
06:31
Well, you sirgospodine, you've got those glassesnaočale hungobješen around your neckvrat
133
373000
3000
Vi, imate naočale obješene oko vrata
06:34
in that particularlynaročito fetchingprivlačan way.
134
376000
2000
na posebno uočljiv način.
06:36
I wonderčudo whetherda li you inventedizumio that ideaideja for yourselfsami,
135
378000
2000
Jeste li smislili tu ideju sami,
06:38
or copiedkopira it from someonenetko elsedrugo?
136
380000
2000
ili ste je kopirali od nekog?
06:40
If you copiedkopira it from someonenetko elsedrugo, it's a mememem.
137
382000
3000
Ako ste je kopirali od nekog, to je mem.
06:43
And what about, oh, I can't see any interestingzanimljiv memesmemi here.
138
385000
3000
Ne vidim nikakve zanimljive meme ovdje.
06:46
All right everyonesvatko, who'stko je got some interestingzanimljiv memesmemi for me?
139
388000
3000
Tko ima zanimljive meme za mene?
06:49
Oh, well, your earringsnaušnice,
140
391000
2000
Vaše naušnice,
06:51
I don't supposepretpostaviti you inventedizumio the ideaideja of earringsnaušnice.
141
393000
2000
Niste izmislili ideju naušnica.
06:53
You probablyvjerojatno wentotišao out and boughtkupio them.
142
395000
2000
Vjerojatno ste ih kupili.
06:55
There are plentymnogo more in the shopstrgovine.
143
397000
2000
Ima ih još mnogo u trgovinama.
06:57
That's something that's passedprošao on from personosoba to personosoba.
144
399000
2000
To se prenosi sa osobe na osobu.
06:59
All the storiespriče that we're tellingreći -- well, of coursenaravno,
145
401000
3000
Sve priče koje pričamo, pa naravno,
07:02
TEDTED is a great meme-festmeme-Festu, massesmase of memesmemi.
146
404000
4000
TED je sjajan festival mema, masa mema.
07:06
The way to think about memesmemi, thoughiako,
147
408000
2000
Način na koji razmišljamo o memima
07:08
is to think, why do they spreadširenje?
148
410000
2000
je, zašto se šire?
07:10
They're selfishsebičan informationinformacija, they will get copiedkopira, if they can.
149
412000
4000
Oni su sebična informacija, kopirat će se ako mogu.
07:14
But some of them will be copiedkopira because they're good,
150
416000
3000
Ali neki od njih će se kopirati jer su dobri,
07:17
or truepravi, or usefulkoristan, or beautifullijep.
151
419000
2000
ili istiniti, ili korisni, ili prekrasni.
07:19
Some of them will be copiedkopira even thoughiako they're not.
152
421000
2000
Neki od njih će se kopirati iako nisu.
07:21
Some, it's quitedosta hardteško to tell why.
153
423000
2000
Za neke je teško reći zašto.
07:24
There's one particularposebno curiousznatiželjan mememem whichkoji I ratherradije enjoyuživati.
154
426000
3000
Ima jedan meme u kojem uživam.
07:27
And I'm gladradostan to say, as I expectedočekuje se, I foundpronađeno it when I camedošao here,
155
429000
3000
I, očekivano, pronašla sam ga kad sam došla ovdje,
07:30
and I'm sure all of you foundpronađeno it, too.
156
432000
2000
sigurna sam da ste ga svi pronašli.
07:32
You go to your nicelijepo, poshotmjen, internationalmeđunarodna hotelhotel somewherenegdje,
157
434000
3000
Idete u svoj lijepi internacionalni hotel,
07:36
and you come in and you put down your clothesodjeća
158
438000
2000
uđete unutra i skinete svoju odjeću
07:38
and you go to the bathroomkupaonica, and what do you see?
159
440000
3000
uđete u kupaonicu, i što vidite?
07:41
AudiencePublika: BathroomKupaonica soapsapun.
160
443000
1000
Publika: Kupaonski sapun.
07:42
SBSB: PardonOprost?
161
444000
1000
Oprostite?
07:43
AudiencePublika: SoapSapun.
162
445000
1000
Publika: Sapun.
07:44
SBSB: SoapSapun, yeah. What elsedrugo do you see?
163
446000
2000
Sapun, da. Što još vidite?
07:46
AudiencePublika: (InaudibleNečujan)
164
448000
1000
Publika: (Nečujno)
07:47
SBSB: MmmMmm mmmMmm.
165
449000
1000
Mmm mmm.
07:48
AudiencePublika: SinkSudoper, toiletWC!
166
450000
1000
Publika: Umivaonik, zahod!
07:49
SBSB: SinkSudoper, toiletWC, yes, these are all memesmemi, they're all memesmemi,
167
451000
2000
Umivaonik, zahod, da, to su sve memi,
07:51
but they're sortvrsta of usefulkoristan onesone, and then there's this one.
168
453000
3000
ali oni su recimo korisni, i onda dođe ovaj.
07:54
(LaughterSmijeh)
169
456000
3000
(Smijeh)
07:58
What is this one doing?
170
460000
2000
Čemu ovaj služi?
08:00
(LaughterSmijeh)
171
462000
1000
(Smijeh)
08:01
This has spreadširenje all over the worldsvijet.
172
463000
2000
Ovaj se proširio svuda po svijetu.
08:03
It's not surprisingiznenađujuće that you all foundpronađeno it
173
465000
2000
Nije čudno što ste ga svi pronašli
08:05
when you arrivedstigao in your bathroomskupaonice here.
174
467000
2000
kada ste ušli u kupaonice.
08:07
But I tookuzeo this photographfotografirati in a toiletWC at the back of a tentšator
175
469000
5000
Uslikala sam ovu fotografiju u zahodu iza šatora
08:12
in the eco-campEko-kamp in the jungledžungla in AssamAssam.
176
474000
2000
u eko-kampu u džungli u Assamu.
08:14
(LaughterSmijeh)
177
476000
1000
(Smijeh)
08:16
Who foldedpresavijen that thing up there, and why?
178
478000
3000
Tko je zamotao tu stvar, i zašto?
08:19
(LaughterSmijeh)
179
481000
1000
(Smijeh)
08:20
Some people get carriedprenosi away.
180
482000
2000
Neki ljudi pretjeruju.
08:22
(LaughterSmijeh)
181
484000
3000
(Smijeh)
08:26
Other people are just lazylijeni and make mistakesgreške.
182
488000
3000
Drugi su samo lijeni i rade greške.
08:29
Some hotelshoteli exploitiskorištavati the opportunityprilika to put even more memesmemi
183
491000
3000
Neki hoteli stvore nove memove
08:32
with a little stickernaljepnica.
184
494000
2000
s naljepnicom.
08:34
(LaughterSmijeh)
185
496000
1000
(Smijeh)
08:35
What is this all about?
186
497000
2000
O čemu se ovdje radi?
08:37
I supposepretpostaviti it's there to tell you that somebody'snetko je
187
499000
2000
Pretpostavljam da žele reći kako je netko
08:39
cleanedočišćeni the placemjesto, and it's all lovelylijep.
188
501000
2000
sve očistio.
08:41
And you know, actuallyzapravo, all it tellsgovori you is that anotherjoš personosoba
189
503000
3000
Ali zapravo vam govori da je ta osoba
08:44
has potentiallypotencijalno spreadširenje germsklice from placemjesto to placemjesto.
190
506000
3000
potencijalno proširila bakterije s mjesta na mjesto.
08:47
(LaughterSmijeh)
191
509000
1000
(Smijeh)
08:48
So, think of it this way.
192
510000
2000
Gledajte na to ovako.
08:50
ImagineZamislite a worldsvijet fullpuni of brainsmozak
193
512000
2000
Zamislite svijet pun mozgova.
08:52
and fardaleko more memesmemi than can possiblymožda find homeskuća.
194
514000
3000
i više memova nego što imaju domova.
08:55
The memesmemi are all tryingtežak to get copiedkopira --
195
517000
3000
Memovi se pokušavaju kopirati,
08:58
tryingtežak, in invertedpreokrenut commaszareze -- i.e.,
196
520000
3000
pokušavaju, tj.
09:01
that's the shorthandvrlo kratko for, if they can get copiedkopira, they will.
197
523000
3000
ako se mogu kopirati onda hoće.
09:04
They're usingkoristeći you and me as theirnjihov propagatingpropagiranje, copyingkopiranje machinerystrojevi,
198
526000
6000
Iskorištavaju vas i mene kao svoju kopirajuću mašineriju,
09:10
and we are the mememem machinesstrojevi.
199
532000
3000
mi smo strojevi za memove.
09:13
Now, why is this importantvažno?
200
535000
2000
Zašto je ovo važno?
09:15
Why is this usefulkoristan, or what does it tell us?
201
537000
2000
Zašto je ovo korisno, ili što nam to govori?
09:17
It givesdaje us a completelypotpuno newnovi viewpogled of humanljudski originspodrijetlo
202
539000
4000
Daje nam novi pogled na ljudsku genezu
09:21
and what it meanssredstva to be humanljudski,
203
543000
1000
i što znači biti čovjek.
09:22
all conventionalkonvencionalne theoriesteorije of culturalkulturni evolutionevolucija,
204
544000
4000
Sve konvencionalne teorije kulturne evolucije,
09:26
of the originpodrijetlo of humansljudi,
205
548000
2000
porijekla ljudi,
09:28
and what makesmarke us so differentdrugačiji from other speciesvrsta.
206
550000
4000
i što nas čini drukčijim od ostalih vrsta.
09:32
All other theoriesteorije explainingobjašnjavajući the bigvelika brainmozak, and languagejezik, and toolalat use
207
554000
2000
Teorije koje govore o velikom mozgu, jeziku i uporabi alata
09:34
and all these things that make us uniquejedinstvena,
208
556000
2000
i sve te stvari koje nas čine posebnima,
09:36
are basedzasnovan uponna genesgeni.
209
558000
3000
se temelje na genima.
09:39
LanguageJezik mustmora have been usefulkoristan for the genesgeni.
210
561000
3000
Jezik je morao biti koristan genima.
09:42
ToolAlat use mustmora have enhancedpoboljšane our survivalopstanak, matingparenje and so on.
211
564000
3000
Oruđa su olakšala preživljavanje, razmnožavanje itd.
09:45
It always comesdolazi back, as RichardRichard DawkinsDawkins complainedsu se žalili
212
567000
3000
Uvijek se sve vraća, kako se žalio Richard Dawkins
09:48
all that long time agoprije, it always comesdolazi back to genesgeni.
213
570000
3000
uvijek se sve vraća na gene.
09:51
The pointtočka of memeticsMemetics is to say, "Oh no, it doesn't."
214
573000
4000
Bit memetike je reći, "O, ne vraća se."
09:55
There are two replicatorsReplikatori now on this planetplaneta.
215
577000
3000
Postoje dva replikatora na ovom planetu.
09:58
From the momenttrenutak that our ancestorspreci,
216
580000
3000
Od trenutka kada su naši preci,
10:01
perhapsmožda two and a halfpola millionmilijuna yearsgodina agoprije or so,
217
583000
2000
prije nekih dva i pol milijuna godina,
10:03
beganpočeo imitatingoponašaju, there was a newnovi copyingkopiranje processpostupak.
218
585000
4000
počeli imitirati, nastao je novi proces kopiranja.
10:07
CopyingKopiranje with variationvarijacije and selectionizbor.
219
589000
2000
Kopiranja s varijacijom i selekcijom.
10:09
A newnovi replicatorreplikator was let looselabav, and it could never be --
220
591000
5000
Novi replikator je oslobođen, i --
10:14
right from the startpočetak -- it could never be
221
596000
1000
od početka, nije moglo biti
10:15
that humanljudski beingsbića who let looselabav this newnovi creaturestvorenje,
222
597000
5000
da ljudska bića koja su pustila ovo novo biće,
10:20
could just copykopirati the usefulkoristan, beautifullijep, truepravi things,
223
602000
3000
mogu kopirati samo korisne, lijepe, istinite stvari,
10:23
and not copykopirati the other things.
224
605000
2000
a ne kopirati ostale stvari.
10:25
While theirnjihov brainsmozak were havingima an advantageprednost from beingbiće ableu stanju to copykopirati --
225
607000
3000
Njihovi mozgovi su imali prednost od kopiranja --
10:28
lightingrasvjeta firespožari, keepingčuvanje firespožari going, newnovi techniquesTehnike of huntinglov,
226
610000
5000
paljenja vatre, održavanja vatre, novih tehnika lova,
10:33
these kindsvrste of things --
227
615000
2000
takvih vrsta stvari --
10:35
inevitablyneizbježno they were alsotakođer copyingkopiranje puttingstavljanje feathersperje in theirnjihov hairdlaka,
228
617000
3000
neizbježno su kopirali i stavljanje pera u kosu,
10:38
or wearingnošenje strangečudan clothesodjeća, or paintingslika theirnjihov faceslica,
229
620000
2000
ili nošenje čudne odjeće, ili bojanja lica,
10:40
or whateveršto god.
230
622000
1000
ili bilo što.
10:41
So, you get an armsoružje raceutrka betweenizmeđu the genesgeni
231
623000
4000
Dobijemo utrku u naoružavanju između gena
10:45
whichkoji are tryingtežak to get the humansljudi to have smallmali economicalekonomičan brainsmozak
232
627000
4000
koji pokušavaju ljudima dati male ekonomične mozgove
10:49
and not wastegubljenje theirnjihov time copyingkopiranje all this stuffstvari,
233
631000
2000
i ne tratiti vrijeme kopirajući sve ove stvari,
10:51
and the memesmemi themselvesse, like the soundszvukovi that people madenapravljen and copiedkopira --
234
633000
4000
i mema, poput zvukova koje su ljudi proizvodili i kopirali --
10:56
in other wordsriječi, what turnedokrenut out to be languagejezik --
235
638000
2000
drugim riječima, onog što je na kraju postalo jezik --
10:58
competingnatječu to get the brainsmozak to get biggerveći and biggerveći.
236
640000
3000
natječući se da bi povećali mozgove više i više.
11:01
So, the bigvelika brainmozak, on this theoryteorija, is drivenupravljan by the memesmemi.
237
643000
4000
Dakle veliki mozak je u ovoj teoriji pogonjen memima.
11:05
This is why, in "The MemeMeme MachineZa prodaju," I calledzvao it memeticmemetic drivepogon.
238
647000
4000
Zato sam ga, u "Stroj za memove", nazvala memetskim pogonom.
11:09
As the memesmemi evolverazviti, as they inevitablyneizbježno mustmora,
239
651000
3000
Kako memi evoluiraju, kao što neizbježno moraju,
11:12
they drivepogon a biggerveći brainmozak that is better at copyingkopiranje the memesmemi
240
654000
4000
pogone veći mozak koji je bolji u kopiranju mema
11:16
that are doing the drivingvožnja.
241
658000
2000
koji ga pogone.
11:18
This is why we'veimamo endedzavršeno up with suchtakav peculiarosebujan brainsmozak,
242
660000
4000
Zato imamo tako čudne mozgove,
11:22
that we like religionreligija, and musicglazba, and artumjetnost.
243
664000
3000
da nam se sviđaju religije, glazba, i umjetnost.
11:25
LanguageJezik is a parasiteparazit that we'veimamo adaptedprilagođen to,
244
667000
3000
Jezik je parazit kojem smo se prilagodili,
11:28
not something that was there originallyizvorno for our genesgeni,
245
670000
2000
a ne nešto stvoreno za gene,
11:30
on this viewpogled.
246
672000
2000
iz ovog gledišta.
11:32
And like mostnajviše parasitesparaziti, it can beginpočeti dangerousopasno,
247
674000
3000
I poput većine parazita može započeti kao opasan,
11:35
but then it coevolvescoevolves and adaptsprilagođava,
248
677000
3000
ali onda ko-evoluira i adaptira se
11:38
and we endkraj up with a symbioticsimbiotski relationshipodnos
249
680000
2000
i na kraju dolazimo do simbiotske veze
11:40
with this newnovi parasiteparazit.
250
682000
1000
s ovim novim parazitom.
11:41
And so, from our perspectiveperspektiva,
251
683000
2000
I zato iz naše perspektive,
11:43
we don't realizeostvariti that that's how it beganpočeo.
252
685000
3000
ne uviđamo da je tako počelo.
11:46
So, this is a viewpogled of what humansljudi are.
253
688000
3000
To je pogled na ono što ljudi jesu.
11:49
All other speciesvrsta on this planetplaneta are genegen machinesstrojevi only,
254
691000
3000
Ostale vrste na planetu su isključivo genetski strojevi,
11:52
they don't imitateimitirati at all well, hardlyjedva at all.
255
694000
3000
ne imitiraju dobro, ako uopće.
11:55
We alonesam are genegen machinesstrojevi and mememem machinesstrojevi as well.
256
697000
5000
Jedino mi smo i genski i memski strojevi.
12:00
The memesmemi tookuzeo a genegen machinemašina and turnedokrenut it into a mememem machinemašina.
257
702000
4000
Memi su uzeli genski stroj i pretvorili ga u memski stroj.
12:04
But that's not all.
258
706000
2000
Ali to nije sve.
12:06
We have a newnovi kindljubazan of memesmemi now.
259
708000
3000
Sada imamo novu vrstu mema.
12:09
I've been wonderingpitate for a long time,
260
711000
1000
Dugo sam se propitkivala,
12:10
sinceod I've been thinkingmišljenje about memesmemi a lot,
261
712000
2000
s obzirom da sam puno razmišljala o memima,
12:12
is there a differencerazlika betweenizmeđu the memesmemi that we copykopirati --
262
714000
2000
postoji li razlika između mema koje mi kopiramo --
12:14
the wordsriječi we speakgovoriti to eachsvaki other,
263
716000
2000
riječi koje pričamo jedni drugima,
12:16
the gesturesgeste we copykopirati, the humanljudski things --
264
718000
2000
običaja koje kopiramo, ljudskim stvarima --
12:18
and all these technologicaltehnološki things around us?
265
720000
2000
i svih ovih tehnoloških stvari uokolo nas?
12:20
I have always, untildo now, calledzvao them all memesmemi,
266
722000
4000
Uvijek sam ih, do sada, sve nazivala memima,
12:24
but I do honestlypošteno think now
267
726000
3000
ali sada iskreno smatram
12:27
we need a newnovi wordriječ for technologicaltehnološki memesmemi.
268
729000
3000
kako trebamo novu riječ za tehnološke meme.
12:30
Let's call them techno-memestehno-memi or temestemes.
269
732000
3000
Nazovimo ih tehnomemi ili temi.
12:33
Because the processesprocesi are gettinguzimajući differentdrugačiji.
270
735000
3000
Zato što se procesi mijenjaju.
12:37
We beganpočeo, perhapsmožda 5,000 yearsgodina agoprije, with writingpisanje.
271
739000
3000
Počeli smo, prije 5000 godina, s pisanjem.
12:40
We put the storageskladištenje of memesmemi out there on a clayglina tablettableta,
272
742000
7000
Pohranjivali smo meme na glinenu ploču,
12:48
but in ordernarudžba to get truepravi temestemes and truepravi temeteme machinesstrojevi,
273
750000
2000
kako bi dobili prave temske strojeve,
12:50
you need to get the variationvarijacije, the selectionizbor and the copyingkopiranje,
274
752000
3000
trebamo varijaciju, selekciju i kopiranje,
12:53
all doneučinio outsideizvan of humansljudi.
275
755000
2000
izvršene bez ljudi.
12:55
And we're gettinguzimajući there.
276
757000
2000
Stižemo ovdje.
12:57
We're at this extraordinaryizvanredan pointtočka where we're nearlyskoro there,
277
759000
2000
Došli smo do točke gdje smo zamalo tu,
12:59
that there are machinesstrojevi like that.
278
761000
2000
gdje postoje takvi strojevi.
13:01
And indeeddoista, in the shortkratak time I've alreadyveć been at TEDTED,
279
763000
2000
I stvarno, u ovo malo vremena što sam na TED-u,
13:03
I see we're even closerbliže than I thought we were before.
280
765000
2000
vidim da smo bliže nego što sam ikad mislila.
13:05
So actuallyzapravo, now the temestemes are forcingforsiranje our brainsmozak
281
767000
6000
Sada temi prisiljavaju naše mozgove
13:11
to becomepostati more like temeteme machinesstrojevi.
282
773000
2000
da postanu sličniji temskim strojevima.
13:13
Our childrendjeca are growingrastući up very quicklybrzo learningučenje to readčitati,
283
775000
3000
Naša djeca odrastaju jako brzo učeći čitati,
13:16
learningučenje to use machinerystrojevi.
284
778000
2000
učeći koristiti strojeve.
13:18
We're going to have all kindsvrste of implantsimplantati,
285
780000
1000
Imat ćemo razne implantanate,
13:19
drugslijekovi that forcesila us to stayboravak awakebudan all the time.
286
781000
3000
droge koja nas prisiljavaju da budemo budni.
13:22
We'llMi ćemo think we're choosingOdabir these things,
287
784000
2000
Mislit ćemo da mi biramo te stvari,
13:24
but the temestemes are makingizrađivanje us do it.
288
786000
3000
ali temi nas na to tjeraju.
13:28
So, we're at this cuspvrh now
289
790000
1000
Na granici smo
13:29
of havingima a thirdtreći replicatorreplikator on our planetplaneta.
290
791000
4000
dolaska trećeg replikatora na planet.
13:34
Now, what about what elsedrugo is going on out there in the universesvemir?
291
796000
5000
Što u vezi zbivanja vani u svemiru?
13:39
Is there anyonebilo tko elsedrugo out there?
292
801000
2000
Ima li nekoga tamo?
13:41
People have been askingtraži this questionpitanje for a long time.
293
803000
3000
Ljudi su se propitkivali ovim dugo vremena.
13:44
We'veMoramo been askingtraži it here at TEDTED alreadyveć.
294
806000
2000
Propitkivali smo se i ovdje na TED-u.
13:46
In 1961, FrankFrank DrakeDrake madenapravljen his famouspoznat equationjednadžba,
295
808000
4000
1961., Frank Drake je stvorio poznatu jednadžbu,
13:50
but I think he concentratedkoncentriran on the wrongpogrešno things.
296
812000
2000
ali se koncentrirao na krive stvari.
13:52
It's been very productiveproduktivan, that equationjednadžba.
297
814000
2000
Bila je vrlo produktivna.
13:54
He wanted to estimateprocjena N,
298
816000
2000
Želio je procijeniti N,
13:56
the numberbroj of communicativekomunikativna civilizationscivilizacije out there in our galaxygalaksija,
299
818000
4000
broj komunikativnih civilizacija u našoj galaksiji.
14:00
and he includeduključen in there the ratestopa of starzvijezda formationformacija,
300
822000
4000
I uključio je brzinu stvaranja zvijezda,
14:04
the ratestopa of planetsplaneti, but cruciallyiznimno, intelligenceinteligencija.
301
826000
4000
faktor planeta, i krucijalno, inteligenciju.
14:08
I think that's the wrongpogrešno way to think about it.
302
830000
4000
Mislim da je to krivi način razmišljanja o tome.
14:12
IntelligenceInteligencija appearsČini all over the placemjesto, in all kindsvrste of guisesoblicima.
303
834000
3000
Inteligencija se pojavljuje posvuda, u svakakvim krinkama.
14:15
HumanLjudski intelligenceinteligencija is only one kindljubazan of a thing.
304
837000
2000
Ljudska inteligencija je samo jedna vrsta.
14:17
But what's really importantvažno is the replicatorsReplikatori you have
305
839000
3000
Ali stvarno bitni su replikatori koje imate
14:20
and the levelsrazina of replicatorsReplikatori, one feedinghranjenje on the one before.
306
842000
4000
i razine replikatora, koji se hrane onim prethodnim.
14:24
So, I would suggestpredložiti that we don't think intelligenceinteligencija,
307
846000
5000
Sugerirala bih da ne razmišljamo o inteligenciji,
14:29
we think replicatorsReplikatori.
308
851000
2000
nego o replikatorima.
14:31
And on that basisosnova, I've suggestedpredložio a differentdrugačiji kindljubazan of equationjednadžba.
309
853000
3000
Na toj osnovi, predložila sam drukčiju vrstu jednadžbe.
14:34
A very simplejednostavan equationjednadžba.
310
856000
2000
Vrlu jednostavnu jednadžbu.
14:36
N, the sameisti thing,
311
858000
2000
N, ista stvar.
14:38
the numberbroj of communicativekomunikativna civilizationscivilizacije out there
312
860000
3000
broj komunikativnih civilizacija,
14:41
[that] we mightmoć expectočekivati in our galaxygalaksija.
313
863000
2000
koje možemo očekivati u galaksiji.
14:43
Just startpočetak with the numberbroj of planetsplaneti there are in our galaxygalaksija.
314
865000
4000
Samo počnimo s brojem planeta koji su u našoj galaksiji.
14:47
The fractionfrakcija of those whichkoji get a first replicatorreplikator.
315
869000
4000
Udio onih koji dobiju prvi replikator.
14:51
The fractionfrakcija of those that get the seconddrugi replicatorreplikator.
316
873000
4000
Udio onih koje dobiju drugi replikator.
14:55
The fractionfrakcija of those that get the thirdtreći replicatorreplikator.
317
877000
2000
Udio onih koje dobiju treći replikator.
14:58
Because it's only the thirdtreći replicatorreplikator that's going to reachdohvatiti out --
318
880000
3000
Zato što će jedino treći replikator posegnuti --
15:01
sendingslanje informationinformacija, sendingslanje probessonde, gettinguzimajući out there,
319
883000
3000
slati informacije, slati sonde, izlaziti van,
15:04
and communicatingkomuniciranje with anywherebilo kuda elsedrugo.
320
886000
2000
i komunicirati sa bilo kime.
15:06
OK, so if we take that equationjednadžba,
321
888000
3000
Ako uzmemo tu jednadžbu,
15:09
why haven'tnisu we heardčuo from anybodyiko out there?
322
891000
5000
zašto nismo čuli ništa od nikoga vani?
15:14
Because everysvaki stepkorak is dangerousopasno.
323
896000
4000
Zato što je svaki korak opasan.
15:18
GettingDobivanje a newnovi replicatorreplikator is dangerousopasno.
324
900000
3000
Nastanak novog replikatora je opasan.
15:21
You can pullVuci throughkroz, we have pulledizvukao throughkroz,
325
903000
2000
Možemo se provući, mi smo se provukli,
15:23
but it's dangerousopasno.
326
905000
2000
ali je opasno.
15:25
Take the first stepkorak, as soonuskoro as life appearedpojavio se on this earthZemlja.
327
907000
3000
Uzmimo prvi korak, čim se život pojavio na zemlji.
15:28
We maysvibanj take the GaianGaian viewpogled.
328
910000
2000
Uzmimo Gajanski pogled.
15:30
I lovedvoljen PeterPetar Ward'sWard je talk yesterdayjučer -- it's not GaianGaian all the time.
329
912000
3000
Svidio mi se Peter Wardov govor jučer -- nije Gajanski cijelo vrijeme.
15:33
ActuallyZapravo, life formsobrasci produceproizvoditi things that killubiti themselvesse.
330
915000
3000
Zapravo, život stvara stvari koje se same ubijaju.
15:36
Well, we did pullVuci throughkroz on this planetplaneta.
331
918000
3000
Pa, mi se jesmo provukli na ovom planetu.
15:39
But then, a long time laterkasnije, billionsmilijarde of yearsgodina laterkasnije,
332
921000
2000
Ali onda, mnogo kasnije, milijarde godina kasnije,
15:41
we got the seconddrugi replicatorreplikator, the memesmemi.
333
923000
3000
dobili smo drugi replikator, meme.
15:44
That was dangerousopasno, all right.
334
926000
2000
To je bilo stvarno opasno.
15:46
Think of the bigvelika brainmozak.
335
928000
2000
Razmislite o velikom mozgu.
15:48
How manymnogi mothersmajke do we have here?
336
930000
3000
Koliko majki ovdje imamo?
15:51
You know all about bigvelika brainsmozak.
337
933000
2000
Znate sve o velikim mozgovima.
15:53
They are dangerousopasno to give birthrođenja to,
338
935000
2000
Opasni su za rađanje.
15:55
are agonizingočajnički to give birthrođenja to.
339
937000
2000
Grozni su za rađanje.
15:57
(LaughterSmijeh)
340
939000
1000
(Smijeh)
15:59
My catmačka gavedali birthrođenja to fourčetiri kittensmačići, purringpredenje all the time.
341
941000
2000
Moja mačka je rodila predući cijelo vrijeme.
16:01
AhAh, mmmm -- slightlymalo differentdrugačiji.
342
943000
2000
Malo drukčije.
16:03
(LaughterSmijeh)
343
945000
2000
(Smijeh)
16:05
But not only is it painfulbolan, it killsubija lots of babiesbebe,
344
947000
3000
Ali nije samo bolno, ubija mnogo djece,
16:08
it killsubija lots of mothersmajke,
345
950000
2000
ubija mnogo majki,
16:10
and it's very expensiveskup to produceproizvoditi.
346
952000
2000
i vrlo skupo za proizvesti.
16:12
The genesgeni are forcedprisiljeni into producingproizvodnju all this myelinmijelin,
347
954000
2000
Geni su prisiljeni proizvoditi sav taj mijelin,
16:14
all the fatmast to myelinatemyelinate the brainmozak.
348
956000
2000
svu tu mast kako bi mijelinirali mozak.
16:16
Do you know, sittingsjedenje here,
349
958000
2000
Sjedeći ovdje,
16:18
your brainmozak is usingkoristeći about 20 percentposto of your body'stijelo je energyenergija outputizlaz
350
960000
4000
vaš mozak koristi oko 20 posto vaše tjelesne energije
16:22
for two percentposto of your bodytijelo weighttežina?
351
964000
2000
za 2 posto vaše tjelesne mase.
16:24
It's a really expensiveskup organorgulje to runtrčanje.
352
966000
2000
To je skupi organ za korištenje.
16:26
Why? Because it's producingproizvodnju the memesmemi.
353
968000
2000
Zašto? Zato jer stvara meme.
16:28
Now, it could have killedubijen us off. It could have killedubijen us off,
354
970000
4000
Mogao nas je pobiti,
16:32
and maybe it nearlyskoro did, but you see, we don't know.
355
974000
2000
i možda skoro jest, ali ne znamo.
16:34
But maybe it nearlyskoro did.
356
976000
2000
Ali možda skoro jest.
16:36
Has it been triedpokušala before?
357
978000
1000
Je li pokušano prije?
16:37
What about all those other speciesvrsta?
358
979000
2000
Što sa svim ostalim vrstama?
16:39
LouiseLouise LeakeyLiki talkedRazgovarao yesterdayjučer
359
981000
2000
Louis Leakey je pričala jučer
16:41
about how we're the only one in this branchpodružnica left.
360
983000
3000
o tome kako smo jedini preostali u ovoj grani.
16:44
What happeneddogodilo to the othersdrugi?
361
986000
2000
Što se dogodilo drugima?
16:46
Could it be that this experimenteksperiment in imitationimitacija,
362
988000
2000
Je li moguće da je ovaj eksperiment imitacije,
16:48
this experimenteksperiment in a seconddrugi replicatorreplikator,
363
990000
2000
ovaj eksperiment drugog replikatora,
16:50
is dangerousopasno enoughdovoljno to killubiti people off?
364
992000
4000
dovoljno opasan da pobije ljude?
16:54
Well, we did pullVuci throughkroz, and we adaptedprilagođen.
365
996000
2000
Pa, provukli smo se, i prilagodili smo se.
16:56
But now, we're hittingudaranje, as I've just describedopisan,
366
998000
3000
Ali sada se približavamo, kao što sam opisala,
16:59
we're hittingudaranje the thirdtreći replicatorreplikator pointtočka.
367
1001000
2000
točki trećeg replikatora.
17:01
And this is even more dangerousopasno --
368
1003000
3000
I ovo je još opasnije --
17:04
well, it's dangerousopasno again.
369
1006000
2000
ponovno je opasno.
17:06
Why? Because the temestemes are selfishsebičan replicatorsReplikatori
370
1008000
4000
Zašto? Zato što su temi sebični replikatori.
17:10
and they don't carebriga about us, or our planetplaneta, or anything elsedrugo.
371
1012000
3000
i ne mare za nas, ili naš planet, ili išta drugo.
17:13
They're just informationinformacija, why would they?
372
1015000
3000
Oni su samo informacija -- zašto bi?
17:17
They are usingkoristeći us to sucksisati up the planet'splaneta resourcesresursi
373
1019000
2000
Iskorištavaju nas kako bi potrošili resurse planeta
17:19
to produceproizvoditi more computersračunala,
374
1021000
2000
za proizvodnju više računala,
17:21
and more of all these amazingnevjerojatan things we're hearingsluh about here at TEDTED.
375
1023000
3000
i više ovih fascinantnih stvari o kojima čujemo na TED-u.
17:24
Don't think, "Oh, we createdstvorio the InternetInternet for our ownvlastiti benefitkorist."
376
1026000
4000
Nemojte misliti, "Stvorili smo Internet za našu korist."
17:28
That's how it seemsčini se to us.
377
1030000
2000
Tako nam se čini.
17:30
Think, temestemes spreadingširenje because they mustmora.
378
1032000
4000
Razmišljajte o temima kako se šire jer moraju.
17:34
We are the oldstar machinesstrojevi.
379
1036000
2000
Mi smo stari strojevi.
17:36
Now, are we going to pullVuci throughkroz?
380
1038000
2000
Hoćemo li se provući?
17:38
What's going to happendogoditi se?
381
1040000
2000
Što će se dogoditi?
17:40
What does it mean to pullVuci throughkroz?
382
1042000
2000
Što znači provući se?
17:42
Well, there are kindljubazan of two waysnačine of pullingpovlačenjem throughkroz.
383
1044000
2000
Postoje dva načina provlačenja.
17:45
One that is obviouslyočito happeningdogađa all around us now,
384
1047000
2000
Jedan je onaj koji se upravo događa oko nas,
17:47
is that the temestemes turnskretanje us into temeteme machinesstrojevi,
385
1049000
4000
da nas temi pretvore u temske strojeve,
17:51
with these implantsimplantati, with the drugslijekovi,
386
1053000
2000
s tim implatantima, s drogama,
17:53
with us mergingSpajanje with the technologytehnologija.
387
1055000
3000
s nama kako se stapamo s tehnologijom.
17:56
And why would they do that?
388
1058000
2000
Zašto bi oni to učinili?
17:58
Because we are self-replicatingsamo-replicirajući.
389
1060000
2000
Zato jer se mi samorepliciramo.
18:00
We have babiesbebe.
390
1062000
2000
Imamo djecu.
18:02
We make newnovi onesone, and so it's convenientzgodan to piggybackpiggyback on us,
391
1064000
3000
Radimo novu, pa je zato prikladno krpati nam se
18:05
because we're not yetjoš at the stagefaza on this planetplaneta
392
1067000
4000
zato što još nismo na toj razini na ovom planetu
18:09
where the other optionopcija is viablesposoban za život.
393
1071000
2000
gdje je druga opcija moguća.
18:11
AlthoughIako it's closerbliže, I heardčuo this morningjutro,
394
1073000
2000
Iako je bliže, čula sam jutros,
18:13
it's closerbliže than I thought it was.
395
1075000
2000
Bliže je nego što sam mislila da jest.
18:15
Where the temeteme machinesstrojevi themselvesse will replicateponoviti themselvesse.
396
1077000
3000
Onda kada će se temski strojevi samoreplicirati.
18:18
That way, it wouldn'tne bi matterstvar if the planet'splaneta climateklima
397
1080000
4000
Tada ne bi bilo važno da se klima planeta
18:22
was utterlysasvim destabilizeddestabiliziran,
398
1084000
2000
potpuno destabilizira,
18:24
and it was no longerviše possiblemoguće for humansljudi to liveživjeti here.
399
1086000
2000
i da nije moguć ljudski život.
18:26
Because those temeteme machinesstrojevi, they wouldn'tne bi need --
400
1088000
2000
Jer ti temski strojevi, ne bi trebali --
18:28
they're not squishySkviči, wetmokro, oxygen-breathingdisanja kisika,
401
1090000
2000
nisu sluzavi, mokri, dišući,
18:30
warmth-requiringkoje zahtijevaju toplinu creaturesstvorenja.
402
1092000
3000
toplinski organizmi.
18:33
They could carrynositi on withoutbez us.
403
1095000
2000
Mogli bi nastaviti bez nas.
18:35
So, those are the two possibilitiesmogućnosti.
404
1097000
3000
Znači, to su dvije mogućnosti.
18:38
The seconddrugi, I don't think we're that closeblizu.
405
1100000
4000
Druga, ne mislim da smo tako blizu.
18:42
It's comingdolazak, but we're not there yetjoš.
406
1104000
2000
Dolazi, ali nismo još stigli.
18:44
The first, it's comingdolazak too.
407
1106000
2000
Prva također dolazi.
18:46
But the damagešteta that is alreadyveć beingbiće doneučinio
408
1108000
3000
Ali šteta koja se već nanosi
18:49
to the planetplaneta is showingpokazivanje us how dangerousopasno the thirdtreći pointtočka is,
409
1111000
5000
planeti nam pokazuje koliko je treća točka opasna
18:54
that thirdtreći dangeropasnost pointtočka, gettinguzimajući a thirdtreći replicatorreplikator.
410
1116000
3000
ta treća točka, dolazak trećeg replikatora.
18:58
And will we get throughkroz this thirdtreći dangeropasnost pointtočka,
411
1120000
2000
Hoćemo li proći treću opasnu točku,
19:00
like we got throughkroz the seconddrugi and like we got throughkroz the first?
412
1122000
3000
kako smo prošli drugu i prvu?
19:04
Maybe we will, maybe we won'tnavika.
413
1126000
2000
Možda hoćemo, možda nećemo.
19:06
I have no ideaideja.
414
1128000
3000
Ne znam.
19:13
(ApplausePljesak)
415
1135000
10000
(Pljesak)
19:24
ChrisChris AndersonAnderson: That was an incrediblenevjerojatan talk.
416
1146000
2000
Chris Anderson: To je bio sjajan govor.
19:26
SBSB: Thank you. I scaredprestrašen myselfsebe.
417
1148000
2000
Hvala. Preplašila sam sebe.
19:28
CACA: (LaughterSmijeh)
418
1150000
1000
(Smijeh)
Translated by Bruno Gašperov
Reviewed by Janko Mihelić

▲Back to top

ABOUT THE SPEAKER
Susan Blackmore - Memeticist
Susan Blackmore studies memes -- those self-replicating "life forms" that spread themselves via human consciousness. We're now headed, she believes, toward a new form of meme, spread by the technology we've created.

Why you should listen

Susan Blackmore is dedicated to understanding the scientific nature of consciousness. Her latest work centers on the existence of memes -- little bits of knowledge, lore, habit that seem to spread themselves using human brains as mere carriers. She's exploring the existence of a new class of meme, spread by human technology. It's temporarily named the "teme."

She has written about memes, consciousness, and near-death experiences; has appeared on the British Big Brother to discuss the psychology of the participants; and writes for the Guardian UK.

More profile about the speaker
Susan Blackmore | Speaker | TED.com