ABOUT THE SPEAKER
Susan Blackmore - Memeticist
Susan Blackmore studies memes -- those self-replicating "life forms" that spread themselves via human consciousness. We're now headed, she believes, toward a new form of meme, spread by the technology we've created.

Why you should listen

Susan Blackmore is dedicated to understanding the scientific nature of consciousness. Her latest work centers on the existence of memes -- little bits of knowledge, lore, habit that seem to spread themselves using human brains as mere carriers. She's exploring the existence of a new class of meme, spread by human technology. It's temporarily named the "teme."

She has written about memes, consciousness, and near-death experiences; has appeared on the British Big Brother to discuss the psychology of the participants; and writes for the Guardian UK.

More profile about the speaker
Susan Blackmore | Speaker | TED.com
TED2008

Susan Blackmore: Memes and "temes"

Сьюзен Блэкмор о мемах и «Т-мемах»

Filmed:
882,044 views

Сьюзен Блэкмор изучает мемы – идеи, реплицирующие сами себя и переходящие из одного мозга в другой, словно вирусы. Она смело выдвигает новый аргумент: человечество породило новый вид мема – «Т-мем», распространяющийся посредством технологий и каждый раз находящий новые возможности выжить.
- Memeticist
Susan Blackmore studies memes -- those self-replicating "life forms" that spread themselves via human consciousness. We're now headed, she believes, toward a new form of meme, spread by the technology we've created. Full bio

Double-click the English transcript below to play the video.

00:18
Culturalкультурный evolutionэволюция is a dangerousопасно childребенок
0
0
3000
Культурная эволюция – опасный ребенок
00:21
for any speciesвид to let looseсвободный on its planetпланета.
1
3000
3000
для любого вида выпускающего её на свою планету.
00:24
By the time you realizeпонимать what's happeningпроисходит, the childребенок is a toddlerребенок, начинающий ходить,
2
6000
4000
Родители еще не осознали, что происходит, а малыш уже начал бегать,
00:28
up and causingвызывая havocопустошение, and it's too lateпоздно to put it back.
3
10000
6000
оставляя вокруг себя хаос, и обратно в живот его уже не вернешь.
00:34
We humansлюди are Earth'sЗемли PandoranПандоры speciesвид.
4
16000
3000
Мы, люди, - земной вид, открывший ящик Пандоры.
00:37
We're the onesте, who let the secondвторой replicatorрепликатор out of its boxкоробка,
5
19000
5000
Это мы выпустили на свободу второй репликатор, а обратно в ящик
00:42
and we can't pushОт себя it back in.
6
24000
2000
мы его уже не загоним.
00:44
We're seeingвидя the consequencesпоследствия all around us.
7
26000
3000
Последствия этого уже повсюду.
00:48
Now that, I suggestпредлагать, is the viewПосмотреть that
8
30000
4000
Такой взгляд характерен для меметики,
00:52
comesвыходит out of takingпринятие memeticsмеметика seriouslyшутки в сторону.
9
34000
2000
если ее воспринимать как серьезную науку.
00:54
And it givesдает us a newновый way of thinkingмышление about
10
36000
2000
И даёт нам новый способ мышления не только о том,
00:56
not only what's going on on our planetпланета,
11
38000
2000
что происходит на нашей планете,
00:58
but what mightмог бы be going on elsewhereв другом месте in the cosmosкосмос.
12
40000
3000
а также, возможно, и где-то в космосе.
01:01
So first of all, I'd like to say something about memeticsмеметика
13
43000
3000
Для начала, я немного расскажу о меметике
01:04
and the theoryтеория of memesмемы,
14
46000
2000
и теории мемов,
01:06
and secondlyво-вторых, how this mightмог бы answerответ questionsвопросов about who'sкто out there,
15
48000
5000
а потом, как она может ответить на вопросы о том, есть ли действительно
01:11
if indeedв самом деле anyoneкто угодно is.
16
53000
3000
кто-нибудь в космосе, кроме нас.
01:14
So, memeticsмеметика:
17
56000
2000
Итак, меметика.
01:16
memeticsмеметика is foundedоснованный on the principleпринцип of Universalуниверсальный Darwinismдарвинизм.
18
58000
4000
Меметика основана на принципе универсального дарвинизма.
01:20
DarwinДарвин had this amazingудивительно ideaидея.
19
62000
3000
У Дарвина была потрясающая идея.
01:23
IndeedВ самом деле, some people say
20
65000
2000
Действительно, некоторые говорят, что
01:25
it's the bestЛучший ideaидея anybodyкто-нибудь ever had.
21
67000
3000
эта идея – самая лучшая на свете.
01:28
Isn't that a wonderfulзамечательно thought, that there could be suchтакие a thing
22
70000
4000
Не правда ли, прекрасная мысль – кто-то предложил
01:32
as a bestЛучший ideaидея anybodyкто-нибудь ever had?
23
74000
2000
самую лучшую идею во всем мире?
01:34
Do you think there could?
24
76000
1000
Думаете, так может быть?
01:35
AudienceАудитория: No.
25
77000
1000
Из зала: Нет.
01:36
(LaughterСмех)
26
78000
1000
(Смех)
01:37
SusanСьюзен BlackmoreBlackmore: SomeoneКто то saysговорит no, very loudlyгромко, from over there.
27
79000
2000
Сьюзен Блэкмор: Кто-то в зале сказал «нет», очень громко.
01:39
Well, I say yes, and if there is, I give the prizeприз to DarwinДарвин.
28
81000
4000
Но я говорю «да». И если такая идея есть, то награду я отдам Дарвину.
01:43
Why?
29
85000
2000
Почему?
01:45
Because the ideaидея was so simpleпросто,
30
87000
3000
Потому что его идея такая простая,
01:48
and yetвсе же it explainsобъясняет all designдизайн in the universeвселенная.
31
90000
6000
и в то же время, она объясняет эволюцию во вселенной.
01:54
I would say not just biologicalбиологический designдизайн,
32
96000
2000
Но не только в применении к одной лишь биологии,
01:56
but all of the designдизайн that we think of as humanчеловек designдизайн.
33
98000
2000
а в отношении ко всему человечеству.
01:58
It's all just the sameодна и та же thing happeningпроисходит.
34
100000
2000
Мир устроен по-одному принципу.
02:00
What did DarwinДарвин say?
35
102000
2000
Что сказал Дарвин?
02:02
I know you know the ideaидея, naturalнатуральный selectionвыбор,
36
104000
2000
Я знаю, что вы знакомы с теорией естественного отбора.
02:04
but let me just paraphraseпарафраз "The Originпроисхождения of Speciesвид," 1859,
37
106000
5000
Я коротко перескажу его труд «Происхождение видов»,
02:09
in a fewмало sentencesпредложения.
38
111000
2000
вышедший в 1859 году.
02:11
What DarwinДарвин said was something like this:
39
113000
3000
Дарвин сказал примерно так:
02:14
if you have creaturesсущества that varyварьировать, and that can't be doubtedсомневался --
40
116000
4000
Если живые существа видоизменяются, и в этом нет сомнения,
02:18
I've been to the GalapagosGalapagos, and I've measuredизмеренный the sizeразмер of the beaksклювы
41
120000
3000
я был на островах Галапагос и я измерил длину клювов птиц
02:21
and the sizeразмер of the turtleчерепаха shellsракушки and so on, and so on.
42
123000
2000
и диаметр панцирей черепах, и так далее и тому подобное.
02:23
And 100 pagesстраницы laterпозже.
43
125000
2000
И 100 страниц спустя.
02:25
(LaughterСмех)
44
127000
2000
(Смех)
02:27
And if there is a struggleборьба for life,
45
129000
4000
И если существует такая борьба за жизнь,
02:31
suchтакие that nearlyоколо all of these creaturesсущества dieумереть --
46
133000
3000
что почти все эти живые существа умирают,
02:34
and this can't be doubtedсомневался, I've readчитать MalthusМальтус
47
136000
3000
и в этом нет сомнения, я читал Мальтуса
02:37
and I've calculatedвычисленный how long it would take for elephantsслоны
48
139000
2000
и я рассчитал, сколько лет потребуется слонам, чтобы
02:39
to coverобложка the wholeвсе worldМир if they bredразводятся unrestrictedнеограниченный, and so on and so on.
49
141000
3000
заполнить собой всю планету, если бы они неограниченно размножались, и так далее.
02:42
And anotherдругой 100 pagesстраницы laterпозже.
50
144000
4000
И еще 100 страниц спустя.
02:46
And if the very fewмало that surviveуцелеть passпроходить ontoна theirих offspringотпрыск
51
148000
5000
И если бы те немногие выжившие передали своим потомкам то,
02:51
whateverбез разницы it was that helpedпомог them surviveуцелеть,
52
153000
3000
что помогло им выжить,
02:54
then those offspringотпрыск mustдолжен be better adaptedадаптированный
53
156000
2000
тогда их потомки должны быть более приспособлены,
02:56
to the circumstancesобстоятельства in whichкоторый all this happenedполучилось
54
158000
2000
чем их родители, к условиям,
02:58
than theirих parentsродители were.
55
160000
3000
в которых все произошло.
03:01
You see the ideaидея?
56
163000
2000
Теперь видите, как построена его идея?
03:03
If, if, if, then.
57
165000
2000
Если, если, если, то.
03:05
He had no conceptконцепция of the ideaидея of an algorithmалгоритм,
58
167000
2000
Он и представления не имел об алгоритме,
03:07
but that's what he describedописано in that bookкнига,
59
169000
3000
но он именно его описал в своей книге,
03:10
and this is what we now know as the evolutionaryэволюционный algorithmалгоритм.
60
172000
3000
и это то, что мы сегодня знаем как эволюционный алгоритм.
03:13
The principleпринцип is you just need those threeтри things --
61
175000
4000
Принцип в том, что необходимы только три категории -
03:17
variationизменение, selectionвыбор and heredityнаследственность.
62
179000
3000
видоизменение, отбор и наследственность.
03:20
And as DanДэн DennettДеннет putsпуты it, if you have those,
63
182000
4000
И как говорит Дэн Дэннет, эти три составляющие
03:24
then you mustдолжен get evolutionэволюция.
64
186000
2000
в итоге должны привести к эволюции.
03:26
Or designдизайн out of chaosхаос, withoutбез the aidпомощь of mindразум.
65
188000
5000
Или созиданию из хаоса, без вовлечения разума.
03:31
There's one wordслово I love on that slideгорка.
66
193000
2000
На этом слайде у меня есть любимое слово.
03:33
What do you think my favoriteлюбимый wordслово is?
67
195000
2000
Как вы думаете, какое?
03:35
AudienceАудитория: ChaosХаос.
68
197000
1000
Из зала: Хаос
03:36
SBSB: ChaosХаос? No. What? MindРазум? No.
69
198000
3000
Сьюзен Блэкмор: Хаос? Нет. Разум? Нет.
03:39
AudienceАудитория: WithoutБез.
70
201000
1000
Из зала: Без.
03:40
SBSB: No, not withoutбез.
71
202000
1000
Сьюзен Блэкмор: Нет. Не «без».
03:41
(LaughterСмех)
72
203000
1000
(Смех)
03:42
You try them all in orderзаказ: MmmМмм...?
73
204000
2000
Давайте попробуем по порядку: Ддд...?
03:44
AudienceАудитория: MustДолжен.
74
206000
1000
Из зала: Должны.
03:45
SBSB: MustДолжен, at mustдолжен. MustДолжен, mustдолжен.
75
207000
4000
Сьюзен Блэкмор: Должны. Должны.
03:49
This is what makesмарки it so amazingудивительно.
76
211000
2000
Вот, что делает это поразительным.
03:51
You don't need a designerдизайнер,
77
213000
3000
Нам не нужен создатель,
03:54
or a planплан, or foresightпредвидение, or anything elseеще.
78
216000
3000
или план, или предвидение, или что-либо еще.
03:57
If there's something that is copiedскопированный with variationизменение
79
219000
3000
Если что-то копируется с изменениями,
04:00
and it's selectedвыбранный, then you mustдолжен get designдизайн appearingпоявляясь out of nowhereнигде.
80
222000
4000
а потом отобирается, то в итоге эволюционный процесс должен появиться из ниоткуда.
04:04
You can't stop it.
81
226000
2000
И остановить его нельзя.
04:06
MustДолжен is my favoriteлюбимый wordслово there.
82
228000
4000
В этом примере «должен» - мое любимое слово.
04:11
Now, what's this to do with memesмемы?
83
233000
2000
Но какое отношение все это имеет к мемам?
04:13
Well, the principleпринцип here appliesотносится to anything
84
235000
5000
Приведенный мною закон применим ко всему,
04:18
that is copiedскопированный with variationизменение and selectionвыбор.
85
240000
1000
что копируется, видоизменяется и отбирается.
04:19
We're so used to thinkingмышление in termsсроки of biologyбиология,
86
241000
3000
Мы обычно этот закон применяем в биологии,
04:22
we think about genesгены this way.
87
244000
2000
например, таким образом мы думаем о генах.
04:24
DarwinДарвин didn't, of courseкурс; he didn't know about genesгены.
88
246000
3000
Дарвин, конечно же, не знал о существовании генов.
04:27
He talkedговорили mostlyв основном about animalsживотные and plantsрастения,
89
249000
2000
Он в основном рассуждал о животных и растениях,
04:29
but alsoтакже about languagesязыки evolvingэволюционирует and becomingстановление extinctпотухший.
90
251000
3000
но также и о языках, которые появляются и исчезают.
04:32
But the principleпринцип of Universalуниверсальный Darwinismдарвинизм
91
254000
2000
Но закон универсального дарвинизма состоит в том, что
04:34
is that any informationИнформация that is variedразнообразный and selectedвыбранный
92
256000
4000
любая информация, которая видоизменяется и отбирается, в итоге
04:38
will produceпроизводить designдизайн.
93
260000
2000
приведет к эволюционному процессу.
04:40
And this is what RichardРичард DawkinsДокинз was on about
94
262000
2000
Об этом написал Ричард Докинз в 1976 году
04:42
in his 1976 bestsellerбестселлер, "The Selfishэгоистичный GeneГен."
95
264000
3000
в своем бестселлере «Эгоистичный ген».
04:45
The informationИнформация that is copiedскопированный, he calledназывается the replicatorрепликатор.
96
267000
4000
Информацию, которая копируется, он назвал «репликатором».
04:49
It selfishlyкорыстно copiesкопии.
97
271000
2000
Она эгоистично копируется.
04:51
Not meaningимея в виду it kindсвоего рода of sitsсидит around insideвнутри cellsячейки going, "I want to get copiedскопированный."
98
273000
4000
Он не имел в виду, что информация сидит в клетках, думая: «Я хочу скопироваться».
04:55
But that it will get copiedскопированный if it can,
99
277000
2000
Но, та информация, которая может быть копирована,
04:57
regardlessнесмотря на of the consequencesпоследствия.
100
279000
2000
обязательно будет скопирована, независимо от последствий.
05:00
It doesn't careзабота about the consequencesпоследствия because it can't,
101
282000
3000
Она не считается с последствиями, потому что не может,
05:03
because it's just informationИнформация beingявляющийся copiedскопированный.
102
285000
2000
потому что это просто информация, которая копируется.
05:06
And he wanted to get away
103
288000
1000
Он хотел абстрагироваться от тех,
05:07
from everybodyвсе thinkingмышление all the time about genesгены,
104
289000
3000
кто все время думает только о генах,
05:10
and so he said, "Is there anotherдругой replicatorрепликатор out there on the planetпланета?"
105
292000
3000
и поэтому он предположил: «Есть ли на нашей планете еще один репликатор?»
05:13
Ahах, yes, there is.
106
295000
2000
Да, есть.
05:15
Look around you -- here will do, in this roomкомната.
107
297000
3000
Посмотрите вокруг, например, в этой аудитории.
05:18
All around us, still clumsilyнеумело driftingдрейфующий about
108
300000
3000
Повсюду вокруг, неуклюже дрейфуя
05:21
in its primevalпервобытный soupсуп of cultureкультура, is anotherдругой replicatorрепликатор.
109
303000
3000
в первичном бульоне культуры, живёт другой репликатор.
05:24
InformationИнформация that we copyкопия from personчеловек to personчеловек, by imitationимитация,
110
306000
5000
Это информация, которую мы копируем от человека к человеку путем имитации,
05:29
by languageязык, by talkingговорящий, by tellingговоря storiesистории,
111
311000
2000
через язык, разговаривая, рассказывая истории,
05:31
by wearingносить clothesодежда, by doing things.
112
313000
3000
нося одежду, или просто делая что-нибудь.
05:34
This is informationИнформация copiedскопированный with variationизменение and selectionвыбор.
113
316000
5000
Это информация, которая копируется, видоизменяется и отбирается.
05:39
This is designдизайн processобработать going on.
114
321000
3000
Это продолжающийся эволюционный процесс.
05:42
He wanted a nameимя for the newновый replicatorрепликатор.
115
324000
3000
Докинз хотел найти имя для нового репликатора.
05:45
So, he tookвзял the Greekгреческий wordслово "mimememimeme," whichкоторый meansозначает that whichкоторый is imitatedимитировали.
116
327000
4000
Он использовал греческое слово «мимем», означающее то, что копируется.
05:49
RememberЗапомнить that, that's the coreядро definitionопределение:
117
331000
2000
Запомните, что это – основополагающее определение:
05:52
that whichкоторый is imitatedимитировали.
118
334000
1000
то, что копируется.
05:53
And abbreviatedсокращенный it to memeмем, just because it soundsзвуки good
119
335000
3000
Он сократил слово «мимем» до «мем», потому что «мем» звучит хорошо,
05:56
and madeсделал a good memeмем, an effectiveэффективный spreadingраспространение memeмем.
120
338000
3000
а также стало хорошим и эффективно распространяющимся мемом.
05:59
So that's how the ideaидея cameпришел about.
121
341000
3000
Так появилась идея о меме.
06:03
It's importantважный to stickпридерживаться with that definitionопределение.
122
345000
3000
Важно придерживаться именно этого определения.
06:06
The wholeвсе scienceнаука of memeticsмеметика is much malignedоклеветанный,
123
348000
4000
Наука меметика имеет достаточно плохую репутацию,
06:10
much misunderstoodнеправильно понятый, much fearedбоялись.
124
352000
3000
ее неправильно понимают и даже опасаются.
06:13
But a lot of these problemsпроблемы can be avoidedизбегать
125
355000
3000
Однако большинство этих проблем можно избежать,
06:16
by rememberingвспоминание the definitionопределение.
126
358000
2000
если помнить определение мема.
06:18
A memeмем is not equivalentэквивалент to an ideaидея.
127
360000
2000
Мем – не эквивалент идеи.
06:20
It's not an ideaидея. It's not equivalentэквивалент to anything elseеще, really.
128
362000
2000
Мем – не идея, а также и не эквивалент вообще ничего.
06:22
StickПридерживаться with the definitionопределение.
129
364000
2000
Придерживайтесь определения.
06:24
It's that whichкоторый is imitatedимитировали,
130
366000
2000
Мем – это то, что копируется,
06:26
or informationИнформация whichкоторый is copiedскопированный from personчеловек to personчеловек.
131
368000
3000
или информация, копируемая от человека к человеку.
06:30
So, let's see some memesмемы.
132
372000
1000
Давайте рассмотрим некоторые из мемов.
06:31
Well, you sirсэр, you've got those glassesочки hungвисела around your neckшея
133
373000
3000
Вот у вас, очки висят на шее
06:34
in that particularlyв частности fetchingвыборка way.
134
376000
2000
оригинальным способом.
06:36
I wonderзадаваться вопросом whetherбудь то you inventedизобрел that ideaидея for yourselfсам,
135
378000
2000
Вы сами так придумали
06:38
or copiedскопированный it from someoneкто то elseеще?
136
380000
2000
или скопировали чью-то идею?
06:40
If you copiedскопированный it from someoneкто то elseеще, it's a memeмем.
137
382000
3000
Если вы ее скопировали у кого-то, то это мем.
06:43
And what about, oh, I can't see any interestingинтересно memesмемы here.
138
385000
3000
К сожалению, я не вижу интересных мемов в зале.
06:46
All right everyoneвсе, who'sкто got some interestingинтересно memesмемы for me?
139
388000
3000
Хорошо, кто может предложить интересный мем?
06:49
Oh, well, your earringsсерьги,
140
391000
2000
А вот, ваши серьги, например.
06:51
I don't supposeпредполагать you inventedизобрел the ideaидея of earringsсерьги.
141
393000
2000
Думаю, вы не изобрели идею серёг.
06:53
You probablyвероятно wentотправился out and boughtкупил them.
142
395000
2000
Скорее всего вы их купили.
06:55
There are plentyмного more in the shopsмагазины.
143
397000
2000
В магазинах их ещё много.
06:57
That's something that's passedпрошло on from personчеловек to personчеловек.
144
399000
2000
Это именно то, что передается от человека к человеку.
06:59
All the storiesистории that we're tellingговоря -- well, of courseкурс,
145
401000
3000
Все истории, которые мы рассказываем, и конечно же TED –
07:02
TEDТЕД is a great meme-festмем-фест, massesмассы of memesмемы.
146
404000
4000
замечательный фестиваль мемов, огромного количества мемов.
07:06
The way to think about memesмемы, thoughхоть,
147
408000
2000
Хотя о мемах нужно думать так -
07:08
is to think, why do they spreadраспространение?
148
410000
2000
почему они распространяются?
07:10
They're selfishэгоистичный informationИнформация, they will get copiedскопированный, if they can.
149
412000
4000
Мемы – эгоистичная информация. При возможности они всегда скопируются.
07:14
But some of them will be copiedскопированный because they're good,
150
416000
3000
Некоторые из мемов будут скопированы потому что они – хорошие,
07:17
or trueправда, or usefulполезным, or beautifulкрасивая.
151
419000
2000
правдивые, полезные или красивые мемы.
07:19
Some of them will be copiedскопированный even thoughхоть they're not.
152
421000
2000
А некоторые из них, не являющиеся таковыми, все равно скопируются.
07:21
Some, it's quiteдовольно hardжесткий to tell why.
153
423000
2000
А причину копирования иных иногда сложно объяснить.
07:24
There's one particularконкретный curiousлюбопытный memeмем whichкоторый I ratherскорее enjoyнаслаждаться.
154
426000
3000
Мне, например, нравится один странный мем.
07:27
And I'm gladдовольный to say, as I expectedожидаемый, I foundнайденный it when I cameпришел here,
155
429000
3000
Рада признаться, как я и ожидала, я его здесь нашла.
07:30
and I'm sure all of you foundнайденный it, too.
156
432000
2000
Я уверена, вы его видели тоже.
07:32
You go to your niceхороший, poshшикарный, internationalМеждународный hotelГостиница somewhereгде-то,
157
434000
3000
Вы приезжаете в красивую и дорогую международную гостиницу,
07:36
and you come in and you put down your clothesодежда
158
438000
2000
вы заходите в номер, раздеваетесь,
07:38
and you go to the bathroomванная, and what do you see?
159
440000
3000
идете в ванную комнату и что вы видите?
07:41
AudienceАудитория: Bathroomванная комната soapмыло.
160
443000
1000
Из зала: Мыло.
07:42
SBSB: Pardonпомиловать?
161
444000
1000
Сьюзен Блэкмор: Повторите, пожалуйста.
07:43
AudienceАудитория: SoapМыло.
162
445000
1000
Из зала: Мыло.
07:44
SBSB: SoapМыло, yeah. What elseеще do you see?
163
446000
2000
Сьюзен Блэкмор: Мыло, да. А что еще?
07:46
AudienceАудитория: (Inaudibleнеслышный)
164
448000
1000
Из зала: (Произнесено невнятно)
07:47
SBSB: MmmМмм mmmммм.
165
449000
1000
Сьюзен Блэкмор: Ммм...
07:48
AudienceАудитория: Sinkтонуть, toiletтуалет!
166
450000
1000
Из зала: Умывальник, туалет!
07:49
SBSB: Sinkтонуть, toiletтуалет, yes, these are all memesмемы, they're all memesмемы,
167
451000
2000
Сьюзен Блэкмор: Умывальник, туалет, да. Это все мемы,
07:51
but they're sortСортировать of usefulполезным onesте,, and then there's this one.
168
453000
3000
но они из разряда полезных мемов. А вот, этот мем.
07:54
(LaughterСмех)
169
456000
3000
(Смех)
07:58
What is this one doing?
170
460000
2000
Что это такое?
08:00
(LaughterСмех)
171
462000
1000
(Смех)
08:01
This has spreadраспространение all over the worldМир.
172
463000
2000
Этот мем обошел весь мир.
08:03
It's not surprisingудивительный that you all foundнайденный it
173
465000
2000
И неудивительно, что вы все его обнаружили,
08:05
when you arrivedприбывший in your bathroomsванные комнаты here.
174
467000
2000
в вашем гостиничном номере, зайдя в ванную комнату.
08:07
But I tookвзял this photographфотография in a toiletтуалет at the back of a tentпалатка
175
469000
5000
Но я сфотографировала этот туалет в палатке
08:12
in the eco-campэко-лагерь in the jungleджунгли in AssamАссам.
176
474000
2000
в эко-лагере в джунглях в Индии.
08:14
(LaughterСмех)
177
476000
1000
(Смех)
08:16
Who foldedсложенный that thing up there, and why?
178
478000
3000
Кто ее там так завернул и почему?
08:19
(LaughterСмех)
179
481000
1000
(Смех)
08:20
Some people get carriedосуществляется away.
180
482000
2000
У некоторых еще более творческий подход.
08:22
(LaughterСмех)
181
484000
3000
(Смех)
08:26
Other people are just lazyленивый and make mistakesошибки.
182
488000
3000
Некоторые ленятся и делают ошибки.
08:29
Some hotelsотели exploitэксплуатировать the opportunityвозможность to put even more memesмемы
183
491000
3000
А в некоторых гостиницах используют возможность добавить мемов,
08:32
with a little stickerнаклейка.
184
494000
2000
используя наклейку.
08:34
(LaughterСмех)
185
496000
1000
(Смех)
08:35
What is this all about?
186
497000
2000
Что же это все означает?
08:37
I supposeпредполагать it's there to tell you that somebody'sчей-то
187
499000
2000
Я думаю, все это нам говорит о том, что кто-то
08:39
cleanedочищенный the placeместо, and it's all lovelyпрекрасный.
188
501000
2000
просто прибрался и что все чисто и красиво.
08:41
And you know, actuallyна самом деле, all it tellsговорит you is that anotherдругой personчеловек
189
503000
3000
Но на самом деле, эти мемы говорят нам, что кто-то
08:44
has potentiallyпотенциально spreadраспространение germsростки from placeместо to placeместо.
190
506000
3000
скорее всего разнес микробы.
08:47
(LaughterСмех)
191
509000
1000
(Смех)
08:48
So, think of it this way.
192
510000
2000
Подумайте об этом таким образом.
08:50
ImagineПредставить a worldМир fullполный of brainsмозги
193
512000
2000
Представьте себе мир, полный разумов,
08:52
and farдалеко more memesмемы than can possiblyвозможно find homesдома.
194
514000
3000
а мемов, которые могут поселиться в разуме человека, намного больше.
08:55
The memesмемы are all tryingпытаясь to get copiedскопированный --
195
517000
3000
Все эти мемы пытаются само-копироваться -
08:58
tryingпытаясь, in invertedперевернутый commasзапятые -- i.e.,
196
520000
3000
«пытаются» -
09:01
that's the shorthandстенография for, if they can get copiedскопированный, they will.
197
523000
3000
и если они смогут, то обязательно скопируются.
09:04
They're usingс помощью you and me as theirих propagatingраспространяющийся, copyingкопирование machineryмашины,
198
526000
6000
Мемы используют и вас и меня в качестве машин для размножения и копирования.
09:10
and we are the memeмем machinesмашины.
199
532000
3000
Мы – мем-машины.
09:13
Now, why is this importantважный?
200
535000
2000
Почему все это так важно для нас?
09:15
Why is this usefulполезным, or what does it tell us?
201
537000
2000
В чем здесь польза? О чем нам это говорит?
09:17
It givesдает us a completelyполностью newновый viewПосмотреть of humanчеловек originsпроисхождения
202
539000
4000
У нас появляется абсолютно новый взгляд на происхождение человека,
09:21
and what it meansозначает to be humanчеловек,
203
543000
1000
и что означает – быть человеком,
09:22
all conventionalобычный theoriesтеории of culturalкультурный evolutionэволюция,
204
544000
4000
а также новое представление о традиционных теориях культурной эволюции,
09:26
of the originпроисхождения of humansлюди,
205
548000
2000
о происхождении человека,
09:28
and what makesмарки us so differentдругой from other speciesвид.
206
550000
4000
и в чем именно мы отличаемся от остальных биологических видов.
09:32
All other theoriesтеории explainingобъясняя the bigбольшой brainголовной мозг, and languageязык, and toolинструмент use
207
554000
2000
Все остальные теории, объясняющие большой мозг, язык и использование орудий,
09:34
and all these things that make us uniqueуникальный,
208
556000
2000
и все, что делает нас уникальными,
09:36
are basedисходя из uponна genesгены.
209
558000
3000
основаны на представлении о генах.
09:39
Languageязык mustдолжен have been usefulполезным for the genesгены.
210
561000
3000
Язык скорее всего важен для генов.
09:42
ToolИнструмент use mustдолжен have enhancedповышенная our survivalвыживание, matingспаривание and so on.
211
564000
3000
Использование орудий возможно повысило наши шансы на выживание, размножение и т.д.
09:45
It always comesвыходит back, as RichardРичард DawkinsДокинз complainedжаловался
212
567000
3000
Все возвращается, как сетовал Ричард Докинз
09:48
all that long time agoтому назад, it always comesвыходит back to genesгены.
213
570000
3000
давным-давно, сводится обратно к генам.
09:51
The pointточка of memeticsмеметика is to say, "Oh no, it doesn't."
214
573000
4000
Но меметика говорит: «Нет, не сводится».
09:55
There are two replicatorsрепликаторы now on this planetпланета.
215
577000
3000
Сейчас на нашей планете существуют два репликатора.
09:58
From the momentмомент that our ancestorsпредки,
216
580000
3000
С того момента, как наши предки,
10:01
perhapsвозможно two and a halfполовина millionмиллиона yearsлет agoтому назад or so,
217
583000
2000
скорее всего примерно два с половиной миллиона лет назад,
10:03
beganначал imitatingимитирующий, there was a newновый copyingкопирование processобработать.
218
585000
4000
начали подражать, появился новый процесс копирования.
10:07
Copyingкопирование with variationизменение and selectionвыбор.
219
589000
2000
Копирование с видоизменением и отбором.
10:09
A newновый replicatorрепликатор was let looseсвободный, and it could never be --
220
591000
5000
Новый репликатор был выпущен на свободу, и с самого начала,
10:14
right from the startНачало -- it could never be
221
596000
1000
когда все это случилось, было понятно,
10:15
that humanчеловек beingsсущества who let looseсвободный this newновый creatureсущество,
222
597000
5000
что люди, отпустившие это создание на волю,
10:20
could just copyкопия the usefulполезным, beautifulкрасивая, trueправда things,
223
602000
3000
не смогут просто лишь копировать все самое полезное, красивое
10:23
and not copyкопия the other things.
224
605000
2000
и настоящее, избегая всего остального.
10:25
While theirих brainsмозги were havingимеющий an advantageпреимущество from beingявляющийся ableв состоянии to copyкопия --
225
607000
3000
Польза для человека была в том, что мозг копировал умение
10:28
lightingосветительные приборы firesпожары, keepingхранение firesпожары going, newновый techniquesметоды of huntingохота,
226
610000
5000
разжигать и поддерживать костер, новые способы охотиться -
10:33
these kindsвиды of things --
227
615000
2000
такого рода способности.
10:35
inevitablyнеизбежно they were alsoтакже copyingкопирование puttingсдачи feathersперья in theirих hairволосы,
228
617000
3000
неизбежно они стали также копировать украшение волос перьями,
10:38
or wearingносить strangeстранный clothesодежда, or paintingкартина theirих facesлица,
229
620000
2000
ношение странной одежды, раскрашивание лица,
10:40
or whateverбез разницы.
230
622000
1000
ну и тому подобное.
10:41
So, you get an armsоружие raceраса betweenмежду the genesгены
231
623000
4000
Существует противостояние между генами, заинтересованными в том,
10:45
whichкоторый are tryingпытаясь to get the humansлюди to have smallмаленький economicalэкономный brainsмозги
232
627000
4000
чтобы человеческий мозг оставался малым и работал экономично,
10:49
and not wasteотходы theirих time copyingкопирование all this stuffматериал,
233
631000
2000
не теряя времени на копирование различной информации,
10:51
and the memesмемы themselvesсамих себя, like the soundsзвуки that people madeсделал and copiedскопированный --
234
633000
4000
и мемами, такими как звуки, которые люди произносят и копируют, -
10:56
in other wordsслова, what turnedоказалось out to be languageязык --
235
638000
2000
другими словами, то, что стало языком, -
10:58
competingконкурирующий to get the brainsмозги to get biggerбольше and biggerбольше.
236
640000
3000
развивающими мозг, чтобы он становился больше и больше.
11:01
So, the bigбольшой brainголовной мозг, on this theoryтеория, is drivenуправляемый by the memesмемы.
237
643000
4000
Большой мозг, по этой теории, приводится в движение мемами.
11:05
This is why, in "The MemeMeme MachineМашина," I calledназывается it memeticмеметическая driveводить машину.
238
647000
4000
Поэтому в своей работе «Мем-машина» я назвала это меметическим управлением.
11:09
As the memesмемы evolveэволюционировать, as they inevitablyнеизбежно mustдолжен,
239
651000
3000
Мемы эволюционируют и это неизбежно.
11:12
they driveводить машину a biggerбольше brainголовной мозг that is better at copyingкопирование the memesмемы
240
654000
4000
Они управляют большим мозгом, умеющим лучше копировать те мемы,
11:16
that are doing the drivingвождение.
241
658000
2000
которые им управляют.
11:18
This is why we'veмы в endedзакончился up with suchтакие peculiarсвоеобразный brainsмозги,
242
660000
4000
Именно поэтому у нас такой специфический мозг, что
11:22
that we like religionрелигия, and musicМузыка, and artИзобразительное искусство.
243
664000
3000
нам нравится религия, музыка и искусство.
11:25
Languageязык is a parasiteпаразит that we'veмы в adaptedадаптированный to,
244
667000
3000
Язык – паразит, к которому мы уже приспособились,
11:28
not something that was there originallyпервоначально for our genesгены,
245
670000
2000
не то, что изначально было связано с генами,
11:30
on this viewПосмотреть.
246
672000
2000
как думают.
11:32
And like mostбольшинство parasitesпаразиты, it can beginначать dangerousопасно,
247
674000
3000
И как большинство паразитов, он может быть опасным в начале,
11:35
but then it coevolvescoevolves and adaptsадаптируются,
248
677000
3000
но потом он эволюционирует совместно и адаптируется,
11:38
and we endконец up with a symbioticсимбиотические relationshipотношения
249
680000
2000
и мы заканчиваем симбиозом
11:40
with this newновый parasiteпаразит.
250
682000
1000
с этим новым паразитом.
11:41
And so, from our perspectiveперспективы,
251
683000
2000
А мы, понимая по-своему,
11:43
we don't realizeпонимать that that's how it beganначал.
252
685000
3000
не осознаем, что именно так все начиналось.
11:46
So, this is a viewПосмотреть of what humansлюди are.
253
688000
3000
Это - представление о природе человека.
11:49
All other speciesвид on this planetпланета are geneген machinesмашины only,
254
691000
3000
Все остальные виды на земле являются только ген-машинами,
11:52
they don't imitateподражать at all well, hardlyедва at all.
255
694000
3000
у них едва ли развито подражание, если вообще оно есть.
11:55
We aloneв одиночестве are geneген machinesмашины and memeмем machinesмашины as well.
256
697000
5000
Только люди являются одновременно ген-машинами и мем-машинами.
12:00
The memesмемы tookвзял a geneген machineмашина and turnedоказалось it into a memeмем machineмашина.
257
702000
4000
Мемы завладели ген-машиной и превратили ее в мем-машину.
12:04
But that's not all.
258
706000
2000
Но это еще не все.
12:06
We have a newновый kindсвоего рода of memesмемы now.
259
708000
3000
У нас уже появились новые виды мемов.
12:09
I've been wonderingинтересно for a long time,
260
711000
1000
С тех пор, как я стала изучать мемы,
12:10
sinceпоскольку I've been thinkingмышление about memesмемы a lot,
261
712000
2000
я уже давно размышляю о существовании
12:12
is there a differenceразница betweenмежду the memesмемы that we copyкопия --
262
714000
2000
разницы между мемами, которые мы копируем,
12:14
the wordsслова we speakговорить to eachкаждый other,
263
716000
2000
например, то, что мы говорим друг другу,
12:16
the gesturesжесты we copyкопия, the humanчеловек things --
264
718000
2000
жесты, которые мы копируем, все, что мы делаем,
12:18
and all these technologicalтехнологический things around us?
265
720000
2000
и новыми технологиями?
12:20
I have always, untilдо now, calledназывается them all memesмемы,
266
722000
4000
До последнего момента я всю эту информацию называла мемами,
12:24
but I do honestlyчестно говоря think now
267
726000
3000
но сейчас я думаю, что нам нужно
12:27
we need a newновый wordслово for technologicalтехнологический memesмемы.
268
729000
3000
новое слово для мемов, порожденных технологиями.
12:30
Let's call them techno-memesтехно-мемы or temesTemes.
269
732000
3000
Давайте назовем их «техно-мемами» или «Т-мемами».
12:33
Because the processesпроцессы are gettingполучение differentдругой.
270
735000
3000
Потому что процесс изменился.
12:37
We beganначал, perhapsвозможно 5,000 yearsлет agoтому назад, with writingписьмо.
271
739000
3000
Мы начали, возможно 5000 лет назад, с письменности.
12:40
We put the storageместо хранения of memesмемы out there on a clayглина tabletтаблетка,
272
742000
7000
Мы организовали хранение мемов на глиняных табличках,
12:48
but in orderзаказ to get trueправда temesTemes and trueправда temeТема machinesмашины,
273
750000
2000
но чтобы получить настоящие Т-мемы и Т-мем-машины,
12:50
you need to get the variationизменение, the selectionвыбор and the copyingкопирование,
274
752000
3000
необходимо пройти через процессы видоизменения, отбора и копирования,
12:53
all doneсделанный outsideза пределами of humansлюди.
275
755000
2000
без помощи человека.
12:55
And we're gettingполучение there.
276
757000
2000
И мы к этому приближаемся.
12:57
We're at this extraordinaryнеобычайный pointточка where we're nearlyоколо there,
277
759000
2000
Мы живем в исключительное время – мы уже приблизились к
12:59
that there are machinesмашины like that.
278
761000
2000
существованию таких машин.
13:01
And indeedв самом деле, in the shortкороткая time I've alreadyуже been at TEDТЕД,
279
763000
2000
И действительно, за короткое время моего участия в TED
13:03
I see we're even closerближе than I thought we were before.
280
765000
2000
я осознала, что мы даже ближе, чем я думала.
13:05
So actuallyна самом деле, now the temesTemes are forcingфорсирование our brainsмозги
281
767000
6000
Фактически, сейчас Т-мемы постепенно превращают
13:11
to becomeстали more like temeТема machinesмашины.
282
773000
2000
мозг человека в Т-мем-машину.
13:13
Our childrenдети are growingрост up very quicklyбыстро learningобучение to readчитать,
283
775000
3000
Наши дети рано начинают учиться читать,
13:16
learningобучение to use machineryмашины.
284
778000
2000
использовать разного рода машины.
13:18
We're going to have all kindsвиды of implantsимплантаты,
285
780000
1000
Различные имплантанты будут в наших телах,
13:19
drugsнаркотики that forceсила us to stayоставаться awakeбодрствующий all the time.
286
781000
3000
а наркотики обеспечат нам бодрствование день и ночь.
13:22
We'llЧто ж think we're choosingвыбор these things,
287
784000
2000
Мы будем думать, что выбираем сами,
13:24
but the temesTemes are makingизготовление us do it.
288
786000
3000
но на самом деле Т-мемы все решат за нас.
13:28
So, we're at this cuspострый выступ now
289
790000
1000
Поэтому уже настал момент
13:29
of havingимеющий a thirdв третьих replicatorрепликатор on our planetпланета.
290
791000
4000
появления третьего репликатора на нашей планете.
13:34
Now, what about what elseеще is going on out there in the universeвселенная?
291
796000
5000
Теперь вопрос о том, что происходит во вселенной.
13:39
Is there anyoneкто угодно elseеще out there?
292
801000
2000
Есть ли в космосе кто-либо еще, помимо нас?
13:41
People have been askingпросить this questionвопрос for a long time.
293
803000
3000
Это - извечный вопрос.
13:44
We'veУ нас been askingпросить it here at TEDТЕД alreadyуже.
294
806000
2000
Об этом рассуждали на TED.
13:46
In 1961, FrankФрэнк Drakeселезень madeсделал his famousизвестный equationуравнение,
295
808000
4000
В 1961 году Фрэнк Дрейк создал свое знаменитое уравнение.
13:50
but I think he concentratedконцентрированный on the wrongнеправильно things.
296
812000
2000
но я думаю он концентрировался на неправильных вещах.
13:52
It's been very productiveпродуктивный, that equationуравнение.
297
814000
2000
Его уравнение широко используется.
13:54
He wanted to estimateоценить N,
298
816000
2000
Он хотел измерить N,
13:56
the numberномер of communicativeкоммуникативный civilizationsцивилизации out there in our galaxyгалактика,
299
818000
4000
число цивилизаций в нашей галактике, готовых вступить в контакт,
14:00
and he includedвключены in there the rateставка of starзвезда formationобразование,
300
822000
4000
используя число образующихся звезд, долю планет,
14:04
the rateставка of planetsпланеты, but cruciallyпринципиально, intelligenceинтеллект.
301
826000
4000
и разумные формы жизни – наиболее важный компонент.
14:08
I think that's the wrongнеправильно way to think about it.
302
830000
4000
Думаю, это неправильный подход.
14:12
Intelligenceинтеллект appearsпоявляется all over the placeместо, in all kindsвиды of guisesобличья.
303
834000
3000
Разум представлен повсюду, во всех возможных обликах.
14:15
HumanЧеловек intelligenceинтеллект is only one kindсвоего рода of a thing.
304
837000
2000
Человеческий разум – одна сторона медали.
14:17
But what's really importantважный is the replicatorsрепликаторы you have
305
839000
3000
Необходимо помнить о репликаторах, а также
14:20
and the levelsуровни of replicatorsрепликаторы, one feedingкормление on the one before.
306
842000
4000
об уровнях репликаторов, где последующий является источником предыдущего.
14:24
So, I would suggestпредлагать that we don't think intelligenceинтеллект,
307
846000
5000
Поэтому, я предлагаю использовать не разум,
14:29
we think replicatorsрепликаторы.
308
851000
2000
а репликаторы.
14:31
And on that basisоснова, I've suggestedпредложенный a differentдругой kindсвоего рода of equationуравнение.
309
853000
3000
И следовательно, я предлагаю новое уравнение.
14:34
A very simpleпросто equationуравнение.
310
856000
2000
Очень простое уравнение.
14:36
N, the sameодна и та же thing,
311
858000
2000
N означает то же самое -
14:38
the numberномер of communicativeкоммуникативный civilizationsцивилизации out there
312
860000
3000
предполагаемое число цивилизаций в нашей галактике,
14:41
[that] we mightмог бы expectожидать in our galaxyгалактика.
313
863000
2000
готовых вступить в контакт.
14:43
Just startНачало with the numberномер of planetsпланеты there are in our galaxyгалактика.
314
865000
4000
Начните с числа планет в нашей галактике.
14:47
The fractionдоля of those whichкоторый get a first replicatorрепликатор.
315
869000
4000
Затем доля всех, у кого есть первый репликатор.
14:51
The fractionдоля of those that get the secondвторой replicatorрепликатор.
316
873000
4000
Затем - доля всех, у кого есть второй репликатор.
14:55
The fractionдоля of those that get the thirdв третьих replicatorрепликатор.
317
877000
2000
Затем - доля всех, у кого есть третий репликатор.
14:58
Because it's only the thirdв третьих replicatorрепликатор that's going to reachдостичь out --
318
880000
3000
Потому что только третий репликатор сможет дотянуться наружу
15:01
sendingотправка informationИнформация, sendingотправка probesзонды, gettingполучение out there,
319
883000
3000
передать информацию, провести исследования в космосе,
15:04
and communicatingсвязь with anywhereв любом месте elseеще.
320
886000
2000
установить связь с другими существами.
15:06
OK, so if we take that equationуравнение,
321
888000
3000
Если мы возьмём это уравнение,
15:09
why haven'tне we heardуслышанным from anybodyкто-нибудь out there?
322
891000
5000
то почему же тогда мы никого не обнаружили?
15:14
Because everyкаждый stepшаг is dangerousопасно.
323
896000
4000
Потому что каждый этап опасен.
15:18
GettingПолучение a newновый replicatorрепликатор is dangerousопасно.
324
900000
3000
Появление нового репликатора – опасный процесс.
15:21
You can pullвытащить throughчерез, we have pulledвытащил throughчерез,
325
903000
2000
Выжить можно, и мы выжили,
15:23
but it's dangerousопасно.
326
905000
2000
но это опасный процесс.
15:25
Take the first stepшаг, as soonскоро as life appearedпоявился on this earthЗемля.
327
907000
3000
Например, первый этап, момент появления жизни на земле.
15:28
We mayмай take the GaianГайи viewПосмотреть.
328
910000
2000
Можно принять точку зрения гайянизма.
15:30
I lovedлюбимый PeterПитер Ward'sУорд talk yesterdayвчера -- it's not GaianГайи all the time.
329
912000
3000
Мне вчера понравилась лекция Питера Уорда – полностью отличная от гайянизма.
15:33
ActuallyНа самом деле, life formsформы produceпроизводить things that killубийство themselvesсамих себя.
330
915000
3000
На самом деле, биологические организмы порождают то, что их убивает.
15:36
Well, we did pullвытащить throughчерез on this planetпланета.
331
918000
3000
Но мы на Земле выжили.
15:39
But then, a long time laterпозже, billionsмиллиарды of yearsлет laterпозже,
332
921000
2000
Но потом, спустя миллиарды лет,
15:41
we got the secondвторой replicatorрепликатор, the memesмемы.
333
923000
3000
появился второй репликатор – мемы.
15:44
That was dangerousопасно, all right.
334
926000
2000
Опасный процесс.
15:46
Think of the bigбольшой brainголовной мозг.
335
928000
2000
Например, большой мозг.
15:48
How manyмногие mothersматери do we have here?
336
930000
3000
Сколько в аудитории матерей?
15:51
You know all about bigбольшой brainsмозги.
337
933000
2000
Вы все знаете о большом мозге.
15:53
They are dangerousопасно to give birthрождение to,
338
935000
2000
Он опасен для рожающих женщин,
15:55
are agonizingмучительный to give birthрождение to.
339
937000
2000
он подвергает страданиям рожающих женщин.
15:57
(LaughterСмех)
340
939000
1000
(Смех)
15:59
My catКот gaveдал birthрождение to four4 kittensкотята, purringмурлыканье all the time.
341
941000
2000
Моя кошка, не переставая мурлыкать, родила четырех котят.
16:01
Ahах, mmмм -- slightlyнемного differentдругой.
342
943000
2000
Ммм, у нас немного иначе.
16:03
(LaughterСмех)
343
945000
2000
(Смех)
16:05
But not only is it painfulболезненный, it killsубийств lots of babiesдети,
344
947000
3000
Роды – не только болезненный процесс, во время родов
16:08
it killsубийств lots of mothersматери,
345
950000
2000
умирают новорожденные и роженицы.
16:10
and it's very expensiveдорогая to produceпроизводить.
346
952000
2000
и мозг очень дорог для воспроизведения.
16:12
The genesгены are forcedпринудительный into producingпроизводства all this myelinмиелин,
347
954000
2000
Гены должны произвести миелин,
16:14
all the fatжир to myelinatemyelinate the brainголовной мозг.
348
956000
2000
жир для образования миелинового слоя в мозге.
16:16
Do you know, sittingсидящий here,
349
958000
2000
Знаете ли вы, что пока вы сидите сейчас,
16:18
your brainголовной мозг is usingс помощью about 20 percentпроцент of your body'sорганизма energyэнергия outputвывод
350
960000
4000
ваш мозг использует около 20 процентов всей энергии, вырабатываемой телом,
16:22
for two percentпроцент of your bodyтело weightвес?
351
964000
2000
приходящейся на 2 процента вашего веса?
16:24
It's a really expensiveдорогая organорган to runбег.
352
966000
2000
Это действительно дорогой в использовании орган.
16:26
Why? Because it's producingпроизводства the memesмемы.
353
968000
2000
Почему? Потому что он порождает мемы.
16:28
Now, it could have killedубитый us off. It could have killedубитый us off,
354
970000
4000
Мы все могли бы умереть.
16:32
and maybe it nearlyоколо did, but you see, we don't know.
355
974000
2000
И может быть мы были близки к этому, но мы не знаем.
16:34
But maybe it nearlyоколо did.
356
976000
2000
Может быть мы были близки к исчезновению.
16:36
Has it been triedпытался before?
357
978000
1000
Что-то подобное происходило раньше?
16:37
What about all those other speciesвид?
358
979000
2000
Что произошло с другими видами?
16:39
LouiseЛуиза LeakeyЛики talkedговорили yesterdayвчера
359
981000
2000
Луиз Ликей говорила вчера о том,
16:41
about how we're the only one in this branchфилиал left.
360
983000
3000
что мы - единственные оставшиеся из человеческого рода.
16:44
What happenedполучилось to the othersдругие?
361
986000
2000
Что же случилось с остальными?
16:46
Could it be that this experimentэксперимент in imitationимитация,
362
988000
2000
Может быть этот эксперимент с копированием,
16:48
this experimentэксперимент in a secondвторой replicatorрепликатор,
363
990000
2000
этот эксперимент на стадии второго репликатора,
16:50
is dangerousопасно enoughдостаточно to killубийство people off?
364
992000
4000
достаточно опасен и может привести к исчезновению людей?
16:54
Well, we did pullвытащить throughчерез, and we adaptedадаптированный.
365
996000
2000
Но мы ведь выжили и адаптировались.
16:56
But now, we're hittingударять, as I've just describedописано,
366
998000
3000
Но сейчас, как я объяснила, мы уже приближаемся
16:59
we're hittingударять the thirdв третьих replicatorрепликатор pointточка.
367
1001000
2000
к порождению третьего репликатора.
17:01
And this is even more dangerousопасно --
368
1003000
3000
И эта стадия еще более опасна.
17:04
well, it's dangerousопасно again.
369
1006000
2000
Да, она снова опасна.
17:06
Why? Because the temesTemes are selfishэгоистичный replicatorsрепликаторы
370
1008000
4000
Почему? Потому что Т-мемы – эгоистичные репликаторы
17:10
and they don't careзабота about us, or our planetпланета, or anything elseеще.
371
1012000
3000
и они не заботятся ни о нас, ни о нашей планете, и вообще ни о чем.
17:13
They're just informationИнформация, why would they?
372
1015000
3000
Т-мемы –информация. О чем им вообще заботиться?
17:17
They are usingс помощью us to suckсосать up the planet'sпланета resourcesРесурсы
373
1019000
2000
Они нас используют для выкачивания ресурсов для того,
17:19
to produceпроизводить more computersкомпьютеры,
374
1021000
2000
чтобы производить еще больше компьютеров,
17:21
and more of all these amazingудивительно things we're hearingслух about here at TEDТЕД.
375
1023000
3000
и поразительные технологические новинки, о которых нам рассказывают на TED.
17:24
Don't think, "Oh, we createdсозданный the Internetинтернет for our ownсвоя benefitвыгода."
376
1026000
4000
Не думайте, что интернет создан для нашего блага.
17:28
That's how it seemsкажется to us.
377
1030000
2000
Так только кажется.
17:30
Think, temesTemes spreadingраспространение because they mustдолжен.
378
1032000
4000
Т-мемы распространяются, потому что они должны это делать.
17:34
We are the oldстарый machinesмашины.
379
1036000
2000
Мы – старые машины.
17:36
Now, are we going to pullвытащить throughчерез?
380
1038000
2000
Мы выживем?
17:38
What's going to happenслучаться?
381
1040000
2000
Что с нами произойдет?
17:40
What does it mean to pullвытащить throughчерез?
382
1042000
2000
А что означает – выжить?
17:42
Well, there are kindсвоего рода of two waysпути of pullingтянущий throughчерез.
383
1044000
2000
Существуют две возможности выжить.
17:45
One that is obviouslyочевидно happeningпроисходит all around us now,
384
1047000
2000
Первая – это то, что происходит сейчас вокруг нас.
17:47
is that the temesTemes turnочередь us into temeТема machinesмашины,
385
1049000
4000
Т-мемы превращают нас в Т-мем-машины,
17:51
with these implantsимплантаты, with the drugsнаркотики,
386
1053000
2000
всеми этими имплантантами, препаратами
17:53
with us mergingобъединение with the technologyтехнологии.
387
1055000
3000
и технологии, которые нас поглощают.
17:56
And why would they do that?
388
1058000
2000
Почему Т-мемы это делают?
17:58
Because we are self-replicatingсамостоятельно тиражирование.
389
1060000
2000
Потому что мы – само-реплицирующиеся существа.
18:00
We have babiesдети.
390
1062000
2000
Мы рожаем детей.
18:02
We make newновый onesте,, and so it's convenientудобный to piggybackкомбинированный on us,
391
1064000
3000
Мы создаем новых людей. Т-мемам удобно к нам «прицепиться»,
18:05
because we're not yetвсе же at the stageсцена on this planetпланета
392
1067000
4000
потому что мы находимся на той стадии на земле,
18:09
where the other optionвариант is viableжизнеспособный.
393
1071000
2000
при которой другие варианты для них не будут жизнеспособными.
18:11
AlthoughНесмотря на то что it's closerближе, I heardуслышанным this morningутро,
394
1073000
2000
Хотя это уже не за горами, как я услышала сегодня утром,
18:13
it's closerближе than I thought it was.
395
1075000
2000
и произойдет быстрее, чем я думала -
18:15
Where the temeТема machinesмашины themselvesсамих себя will replicateкопировать themselvesсамих себя.
396
1077000
3000
Т-мем-машины будут реплицировать сами себя без чей-либо помощи.
18:18
That way, it wouldn'tне будет matterдело if the planet'sпланета climateклимат
397
1080000
4000
Тогда будет уже неважно то, что состояние климата на нашей планете
18:22
was utterlyвконец destabilizedдестабилизированный,
398
1084000
2000
абсолютно дестабилизировано,
18:24
and it was no longerдольше possibleвозможное for humansлюди to liveжить here.
399
1086000
2000
и люди больше не смогут жить на земле.
18:26
Because those temeТема machinesмашины, they wouldn'tне будет need --
400
1088000
2000
Потому что Т-мем-машинам не нужны условия, пригодные для жизни человека.
18:28
they're not squishyболотистый, wetвлажный, oxygen-breathingкислород дыхания,
401
1090000
2000
Они не мягкие, влажные, дышащие кислородом,
18:30
warmth-requiringТеплота нуждающийся creaturesсущества.
402
1092000
3000
требующие тепла существа.
18:33
They could carryнести on withoutбез us.
403
1095000
2000
Они и без нас прекрасно справятся.
18:35
So, those are the two possibilitiesвозможности.
404
1097000
3000
Я описала две вероятности.
18:38
The secondвторой, I don't think we're that closeЗакрыть.
405
1100000
4000
Вторая – не думаю, что это скоро произойдет.
18:42
It's comingприход, but we're not there yetвсе же.
406
1104000
2000
Приближается, но мы еще далеко.
18:44
The first, it's comingприход too.
407
1106000
2000
Первая – тоже приближается.
18:46
But the damageнаносить ущерб that is alreadyуже beingявляющийся doneсделанный
408
1108000
3000
Но вред, уже причиняемый нашей планете,
18:49
to the planetпланета is showingпоказ us how dangerousопасно the thirdв третьих pointточка is,
409
1111000
5000
сигнализирует о том, как опасен третий этап -
18:54
that thirdв третьих dangerОпасность pointточка, gettingполучение a thirdв третьих replicatorрепликатор.
410
1116000
3000
порождение третьего репликатора.
18:58
And will we get throughчерез this thirdв третьих dangerОпасность pointточка,
411
1120000
2000
Пройдем ли мы через этот опасный третий этап,
19:00
like we got throughчерез the secondвторой and like we got throughчерез the first?
412
1122000
3000
так же как мы прошли через первые два?
19:04
Maybe we will, maybe we won'tне будет.
413
1126000
2000
Может быть да, а может быть и нет.
19:06
I have no ideaидея.
414
1128000
3000
Я не знаю.
19:13
(ApplauseАплодисменты)
415
1135000
10000
(Аплодисменты)
19:24
ChrisКрис AndersonАндерсон: That was an incredibleнеимоверный talk.
416
1146000
2000
Крис Андерсон: Потрясающая лекция!
19:26
SBSB: Thank you. I scaredиспуганный myselfсебя.
417
1148000
2000
Сьюзен Блэкмор: Спасибо. Я сама себя напугала.
19:28
CAКалифорния: (LaughterСмех)
418
1150000
1000
(Смех)
Translated by Elena Goodwin
Reviewed by Ivan Ivanov

▲Back to top

ABOUT THE SPEAKER
Susan Blackmore - Memeticist
Susan Blackmore studies memes -- those self-replicating "life forms" that spread themselves via human consciousness. We're now headed, she believes, toward a new form of meme, spread by the technology we've created.

Why you should listen

Susan Blackmore is dedicated to understanding the scientific nature of consciousness. Her latest work centers on the existence of memes -- little bits of knowledge, lore, habit that seem to spread themselves using human brains as mere carriers. She's exploring the existence of a new class of meme, spread by human technology. It's temporarily named the "teme."

She has written about memes, consciousness, and near-death experiences; has appeared on the British Big Brother to discuss the psychology of the participants; and writes for the Guardian UK.

More profile about the speaker
Susan Blackmore | Speaker | TED.com