ABOUT THE SPEAKER
Susan Blackmore - Memeticist
Susan Blackmore studies memes -- those self-replicating "life forms" that spread themselves via human consciousness. We're now headed, she believes, toward a new form of meme, spread by the technology we've created.

Why you should listen

Susan Blackmore is dedicated to understanding the scientific nature of consciousness. Her latest work centers on the existence of memes -- little bits of knowledge, lore, habit that seem to spread themselves using human brains as mere carriers. She's exploring the existence of a new class of meme, spread by human technology. It's temporarily named the "teme."

She has written about memes, consciousness, and near-death experiences; has appeared on the British Big Brother to discuss the psychology of the participants; and writes for the Guardian UK.

More profile about the speaker
Susan Blackmore | Speaker | TED.com
TED2008

Susan Blackmore: Memes and "temes"

سوزان بلکمور از «مِم»ها و «تِم»ها می‌گوید

Filmed:
882,044 views

سوزان بلکمور مِم‌ها را مورد مطالعه قرار می‌دهد. مم [Meme] یعنی ایده‌هایی که خودشان را از یک مغز به مغز دیگر کپی می‌کنند، درست مثل یک ویروس. در همین راه او یک ادعای جسورانه جدید نیز مطرح می‌نماید: انسان نوع جدیدی از مم تولید کرده است؛ که تِم [Teme] نام دارد. تم خودش را بوسیلهٔ تکنولوژی پراکنده می‌سازد، و روش‌هایی را برای بقای خودش اختراع می‌کند.
- Memeticist
Susan Blackmore studies memes -- those self-replicating "life forms" that spread themselves via human consciousness. We're now headed, she believes, toward a new form of meme, spread by the technology we've created. Full bio

Double-click the English transcript below to play the video.

00:18
Culturalفرهنگی evolutionسیر تکاملی is a dangerousخطرناک است childکودک
0
0
3000
فرگشت فرهنگی فرزند خطرناکی برای هر گونه‌ای
00:21
for any speciesگونه ها to let looseشل on its planetسیاره.
1
3000
3000
است که در سیاره‌شان آزاد گذاشته شود.
00:24
By the time you realizeتحقق بخشیدن what's happeningاتفاق می افتد, the childکودک is a toddlerکودک نو پا,
2
6000
4000
تا زمانی که شما به خودتان بیایید کودک تازه براه افتاده است،
00:28
up and causingباعث می شود havocویران کردن, and it's too lateدیر است to put it back.
3
10000
6000
و خرابی به بار می‌آورد، و دیگر برای برگشتِ کار خیلی دیر شده.
00:34
We humansانسان are Earth'sزمین Pandoranپاندوران speciesگونه ها.
4
16000
3000
ما انسان‌ها گونهٔ پاندورایی زمین هستیم.
00:37
We're the onesآنهایی که who let the secondدومین replicatorتکرار کننده out of its boxجعبه,
5
19000
5000
ما آنهایی هستیم که گذاشتیم دومین بازتولیدگر از جعبه‌اش رها شود،
00:42
and we can't pushفشار دادن it back in.
6
24000
2000
و ما نمی‌توانیم دوباره آن را به جعبه‌اش بازگردانیم.
00:44
We're seeingدیدن the consequencesعواقب all around us.
7
26000
3000
پیامدهای آنرا در همه جا دور و بر خود شاهدیم.
00:48
Now that, I suggestپیشنهاد می دهد, is the viewچشم انداز that
8
30000
4000
حال پیشنهاد من این است که، این دیدگاه
00:52
comesمی آید out of takingگرفتن memeticsمامیتی seriouslyبه طور جدی.
9
34000
2000
با جدی گرفتن مِمِتیک مطرح می‌شود.
00:54
And it givesمی دهد us a newجدید way of thinkingفكر كردن about
10
36000
2000
و به ما روش تفکر جدیدی عرضه می‌دارد
00:56
not only what's going on on our planetسیاره,
11
38000
2000
نه تنها درباره چیزهایی که در سیاره خودمان رخ می‌دهد،
00:58
but what mightممکن be going on elsewhereدر جاهای دیگر in the cosmosکیهان.
12
40000
3000
بلکه درمورد چیزهایی که احتمالا در دیگر جاهای کیهان هم اتفاق می‌افتند.
01:01
So first of all, I'd like to say something about memeticsمامیتی
13
43000
3000
پس پیش از هر چیز من دوست دارم چیزی درمورد ممتیک
01:04
and the theoryتئوری of memesالگوهای رفتاری,
14
46000
2000
و نظریه مم‌ها بگویم،
01:06
and secondlyدوم اینکه, how this mightممکن answerپاسخ questionsسوالات about who'sچه کسی است out there,
15
48000
5000
و در درجه دوم بگویم که این چگونه می‌تواند به این پرسش پاسخ دهد که چه کسی آن بیرون است،
01:11
if indeedدر واقع anyoneهر کسی is.
16
53000
3000
اگر اصلا کسی باشد.
01:14
So, memeticsمامیتی:
17
56000
2000
بنابراین ممتیک.
01:16
memeticsمامیتی is foundedتأسیس شد on the principleاصل of Universalجهانی Darwinismداروینیسم.
18
58000
4000
ممتیک بر اساس اصل داروینیسم جهانی بنیان نهاده شده.
01:20
Darwinداروین had this amazingحیرت آور ideaاندیشه.
19
62000
3000
داروین این ایده شگفت انگیز را داشت.
01:23
Indeedدر واقع, some people say
20
65000
2000
حقیقتا، برخی می‌گویند
01:25
it's the bestبهترین ideaاندیشه anybodyهر شخصی ever had.
21
67000
3000
بهترین ایده‌ای بوده که تا کنون کسی داشته است.
01:28
Isn't that a wonderfulفوق العاده thought, that there could be suchچنین a thing
22
70000
4000
آیا این یک ایده عالی نیست، که بتوان گفت چیزی هست به اسم
01:32
as a bestبهترین ideaاندیشه anybodyهر شخصی ever had?
23
74000
2000
بهترین ایده‌ای که تا کنون کسی داشته است؟!
01:34
Do you think there could?
24
76000
1000
آیا فکر می‌کنید چنین چیزی هست؟
01:35
Audienceحضار: No.
25
77000
1000
حضار: نه.
01:36
(Laughterخنده)
26
78000
1000
(خنده)
01:37
Susanسوزان Blackmoreبلک مور: Someoneکسی saysمی گوید no, very loudlyبا صدای بلند, from over there.
27
79000
2000
سوزان بلک‌مور: یکی اونجا خیلی بلند گفت نه.
01:39
Well, I say yes, and if there is, I give the prizeجایزه to Darwinداروین.
28
81000
4000
خب، من می‌گویم بلی، اگر چنین چیزی بود، من جایزه را به داروین می‌دادم.
01:43
Why?
29
85000
2000
چرا؟
01:45
Because the ideaاندیشه was so simpleساده,
30
87000
3000
چون ایده بسیار ساده بود،
01:48
and yetهنوز it explainsتوضیح می دهد all designطرح in the universeجهان.
31
90000
6000
و با این وجود تمام طراحی در جهان را توضیح می‌دهد.
01:54
I would say not just biologicalبیولوژیکی designطرح,
32
96000
2000
من حتی بر این هستم که نه تنها طراحی زیستی را توضیح می‌دهد،
01:56
but all of the designطرح that we think of as humanانسان designطرح.
33
98000
2000
بلکه تمامی طراحی‌ای که ما به عنوان طراحی انسانی می‌شناسیم.
01:58
It's all just the sameیکسان thing happeningاتفاق می افتد.
34
100000
2000
همه آنها یک چیز است.
02:00
What did Darwinداروین say?
35
102000
2000
داروین چی گفت؟
02:02
I know you know the ideaاندیشه, naturalطبیعی است selectionانتخاب,
36
104000
2000
می‌دانم که با این ایده آشنایید، انتخاب طبیعی،
02:04
but let me just paraphraseتفسیر "The Originاصل و نسب of Speciesگونه ها," 1859,
37
106000
5000
ولی بگذارید کتاب اصل انواع «خاستگاه گونه‌ها» ۱۸۵۹ را
02:09
in a fewتعداد کمی sentencesجمله ها.
38
111000
2000
تنها در چند جمله تفسیر کنم.
02:11
What Darwinداروین said was something like this:
39
113000
3000
داروین چیزی مثل این گفت --
02:14
if you have creaturesموجودات that varyمتفاوت, and that can't be doubtedشک داشتم --
40
116000
4000
اگر شما جانورانی داشته باشید که تنوع دارند، و در آن شکی نیست --
02:18
I've been to the Galapagosگالاپاگوس, and I've measuredاندازه گیری شده the sizeاندازه of the beaksضخیم
41
120000
3000
من به گالاپاگوس رفته‌ام و سایز منقارها را اندازه گرفته‌ام
02:21
and the sizeاندازه of the turtleلاک پشت shellsپوسته ها and so on, and so on.
42
123000
2000
و سایز کاسه لاک‌پشت‌ها را اندازه گرفتم و چنین و چنان.
02:23
And 100 pagesصفحات laterبعد.
43
125000
2000
و ۱۰۰ صفحه بعد --
02:25
(Laughterخنده)
44
127000
2000
(خنده)
02:27
And if there is a struggleتقلا for life,
45
129000
4000
و اگر برای بقا تنازع وجود داشته باشد،
02:31
suchچنین that nearlyتقریبا all of these creaturesموجودات dieمرگ --
46
133000
3000
به این صورت که اکثر این جانوران بمیرند --
02:34
and this can't be doubtedشک داشتم, I've readخواندن Malthusمالتوس
47
136000
3000
و در این شکی نیست، من کتب مالتوس را خوانده‌ام
02:37
and I've calculatedمحاسبه شد how long it would take for elephantsفیل ها
48
139000
2000
و حساب کرده‌ام که چقدر طول می‌کشد که فیل‌ها
02:39
to coverپوشش the wholeکل worldجهان if they bredپرورش داد unrestrictedبدون محدودیت, and so on and so on.
49
141000
3000
تمام زمین را پر کنند اگر بدون محدودیت زادآوری کنند، و چنین و چنان.
02:42
And anotherیکی دیگر 100 pagesصفحات laterبعد.
50
144000
4000
و ۱۰۰ صفحه دیگر بعد آن.
02:46
And if the very fewتعداد کمی that surviveزنده ماندن passعبور ontoبه سوی theirخودشان offspringفرزند
51
148000
5000
و اگر آن تعداد اندکی که زنده می‌مانند هر چیزی را که
02:51
whateverهر چه it was that helpedکمک کرد them surviveزنده ماندن,
52
153000
3000
به بقایشان کمک کرده به فرزندان خود منتقل کنند،
02:54
then those offspringفرزند mustباید be better adaptedسازگار
53
156000
2000
در این صورت آن فرزندان بایستی که سازگاری بیشتری
02:56
to the circumstancesشرایط in whichکه all this happenedاتفاق افتاد
54
158000
2000
نسبت به والدین خود با شرایطی داشته باشند که همه این چیزها
02:58
than theirخودشان parentsپدر و مادر were.
55
160000
3000
در آن در حال اتفاق افتادن است.
03:01
You see the ideaاندیشه?
56
163000
2000
متوجه قضیه می‌شوید؟
03:03
If, if, if, then.
57
165000
2000
اگر، اگر، اگر، آنگاه.
03:05
He had no conceptمفهوم of the ideaاندیشه of an algorithmالگوریتم,
58
167000
2000
او هیچ ایده‌ای در مورد الگوریتم نداشت.
03:07
but that's what he describedشرح داده شده in that bookکتاب,
59
169000
3000
ولی این دقیقا چیزی است که در کتابش توصیف کرده،
03:10
and this is what we now know as the evolutionaryتکامل یافته algorithmالگوریتم.
60
172000
3000
و آنرا به نام الگوریتم فرگشتی [تکاملی] می‌شناسیم.
03:13
The principleاصل is you just need those threeسه things --
61
175000
4000
اساسش این است که شما تنها این ۳ چیز را لازم دارید --
03:17
variationتغییر, selectionانتخاب and heredityوراثت.
62
179000
3000
گوناگونی، انتخاب و وراثت.
03:20
And as Danدن Dennettدنت putsقرار می دهد it, if you have those,
63
182000
4000
و همانطور که دن دنت مطرح می‌کند، اگر شما آنها را داشته باشید
03:24
then you mustباید get evolutionسیر تکاملی.
64
186000
2000
بایستی که فرگشت [تکامل] رخ دهد.
03:26
Or designطرح out of chaosهرج و مرج, withoutبدون the aidکمک of mindذهن.
65
188000
5000
یا طراحی از داخل بی‌نظمی بدون کمک هیچگونه هوش.
03:31
There's one wordکلمه I love on that slideاسلاید.
66
193000
2000
یک کلمه هست که من در این اسلاید خیلی دوست دارم.
03:33
What do you think my favoriteمورد علاقه wordکلمه is?
67
195000
2000
شما فکر می‌کنید کلمه مورد علاقهٔ من کدام است؟
03:35
Audienceحضار: Chaosآشوب.
68
197000
1000
حضار: بی‌نظمی.
03:36
SBSB: Chaosآشوب? No. What? Mindذهن? No.
69
198000
3000
سوزان بلکمور: بی‌نظمی؟ نه. چی؟ هوش؟ نه.
03:39
Audienceحضار: Withoutبدون.
70
201000
1000
حضار: بدون.
03:40
SBSB: No, not withoutبدون.
71
202000
1000
سوزان بلکمور:‌ نه، بدون نه.
03:41
(Laughterخنده)
72
203000
1000
(خنده)
03:42
You try them all in orderسفارش: Mmmمامان...?
73
204000
2000
شما همه آنها را به ترتیب امتحان کردید: ممم...؟
03:44
Audienceحضار: Mustباید.
74
206000
1000
حضار: باید.
03:45
SBSB: Mustباید, at mustباید. Mustباید, mustباید.
75
207000
4000
باید، در باید. باید، باید.
03:49
This is what makesباعث می شود it so amazingحیرت آور.
76
211000
2000
این چیزی است که آنرا اینقدر شگفتی‌زا می‌کند.
03:51
You don't need a designerطراح,
77
213000
3000
شما نیازی به طراح ندارید،
03:54
or a planطرح, or foresightآینده نگری, or anything elseچیز دیگری.
78
216000
3000
یا به برنامه، یا پیشبینی یا هیچ چیز دیگر.
03:57
If there's something that is copiedکپی شده with variationتغییر
79
219000
3000
اگر چیزی باشد که با تنوع کپی شود
04:00
and it's selectedانتخاب شد, then you mustباید get designطرح appearingظاهر می شود out of nowhereهیچ جایی.
80
222000
4000
و انتخاب باشد، بعدش حتما بایستی که شاهد ظهور طراحی از هیچ باشید.
04:04
You can't stop it.
81
226000
2000
نمی‌توانید آن را متوقف سازید.
04:06
Mustباید is my favoriteمورد علاقه wordکلمه there.
82
228000
4000
در اینجا «باید» کلمهٔ مورد علاقهٔ من است.
04:11
Now, what's this to do with memesالگوهای رفتاری?
83
233000
2000
حال، این چیزها چه ربطی به مم دارد؟
04:13
Well, the principleاصل here appliesاعمال میشود to anything
84
235000
5000
خوب، قاعدهٔ اینجا در مورد هر چیزی صدق می‌کند
04:18
that is copiedکپی شده with variationتغییر and selectionانتخاب.
85
240000
1000
که با تنوع و انتخاب کپی شود.
04:19
We're so used to thinkingفكر كردن in termsاصطلاحات of biologyزیست شناسی,
86
241000
3000
ما خیلی به در نظر گرفتن آن از نظر زیستی عادت کرده‌ایم،
04:22
we think about genesژن ها this way.
87
244000
2000
ما در مورد ژن‌ها به این طریق می‌اندیشیم.
04:24
Darwinداروین didn't, of courseدوره; he didn't know about genesژن ها.
88
246000
3000
البته داروین چنین کاری نمی‌کرد، او چیزی در مورد ژن نمی‌دانست.
04:27
He talkedصحبت کرد mostlyاغلب about animalsحیوانات and plantsگیاهان,
89
249000
2000
او اساسا در مورد حیوانات و گیاهان صحبت می‌کرد،
04:29
but alsoهمچنین about languagesزبان ها evolvingتکامل یافته and becomingتبدیل شدن به extinctمنقرض شده.
90
251000
3000
ولی گذشته از این در مورد فرگشت و انقراض زبان‌ها هم سخن می‌راند.
04:32
But the principleاصل of Universalجهانی Darwinismداروینیسم
91
254000
2000
اساس قانون داروینیسم جهانی
04:34
is that any informationاطلاعات that is variedمتنوع and selectedانتخاب شد
92
256000
4000
این است که هر اطلاعاتی که تنوع داشته باشد و انتخاب شود
04:38
will produceتولید کردن designطرح.
93
260000
2000
منجر به طراحی می‌شود.
04:40
And this is what Richardریچارد Dawkinsداوکینز was on about
94
262000
2000
و این موضوعی است که ریچارد داوکینز در کتاب پرفروش سال ۱۹۷۶
04:42
in his 1976 bestsellerپرفروش, "The Selfishخود خواه Geneژن."
95
264000
3000
بنام «ژن خودخواه» آنرا مطرح نمود.
04:45
The informationاطلاعات that is copiedکپی شده, he calledبه نام the replicatorتکرار کننده.
96
267000
4000
اطلاعاتی که کپی می‌شود را بازتولیدگر نامید.
04:49
It selfishlyخودخواهانه copiesکپی ها.
97
271000
2000
که خودخواهانه کپی‌برداری می‌کند.
04:51
Not meaningبه معنی it kindنوع of sitsنشسته around insideداخل cellsسلول ها going, "I want to get copiedکپی شده."
98
273000
4000
نه به این معنی که جایی داخل سلول بنشیند و بگوید، «می‌خواهم کپی شوم».
04:55
But that it will get copiedکپی شده if it can,
99
277000
2000
ولی به این شکل که چیزی صرف نظر از نتایج آن
04:57
regardlessبدون در نظر گرفتن of the consequencesعواقب.
100
279000
2000
اگر امکانش باشد کپی می‌شود.
05:00
It doesn't careاهميت دادن about the consequencesعواقب because it can't,
101
282000
3000
اهمیتی به نتیجهٔ آن نمی‌دهد، چونکه نمی‌تواند اهمیت دهد،
05:03
because it's just informationاطلاعات beingبودن copiedکپی شده.
102
285000
2000
چونکه تنها اطلاعاتی است که کپی می‌شود.
05:06
And he wanted to get away
103
288000
1000
و او می‌خواست که از تفکر همیشگی که
05:07
from everybodyهمه thinkingفكر كردن all the time about genesژن ها,
104
289000
3000
نسبت به ژن‌ها مطرح می‌شود فاصله بگیرد،
05:10
and so he said, "Is there anotherیکی دیگر replicatorتکرار کننده out there on the planetسیاره?"
105
292000
3000
پس با خود گفت: «آیا بازتولیدگر دیگری در این سیاره هست؟»
05:13
Ahآه, yes, there is.
106
295000
2000
آهان، بله، هست.
05:15
Look around you -- here will do, in this roomاتاق.
107
297000
3000
به دور و بر خود بنگرید، اینجا در این اتاق می‌بینیم.
05:18
All around us, still clumsilyدست و پا چلفتی driftingدوچرخه سواری about
108
300000
3000
همه جا اطراف ما، هنوز ناشیانه در سوپ اولیه فرهنگ
05:21
in its primevalنخستین soupسوپ of cultureفرهنگ, is anotherیکی دیگر replicatorتکرار کننده.
109
303000
3000
این سو و آنسو می‌رود، یک بازتولیدگر دیگر هست.
05:24
Informationاطلاعات that we copyکپی کنید from personفرد to personفرد, by imitationتقلید,
110
306000
5000
اطلاعاتی که ما از فرد به فرد با تقلید کردن کپی می‌کنیم،
05:29
by languageزبان, by talkingصحبت کردن, by tellingگفتن storiesداستان ها,
111
311000
2000
با زبان، با حرف زدن، با داستان تعریف کردن،
05:31
by wearingپوشیدن clothesلباس ها, by doing things.
112
313000
3000
با لباس پوشیدن، با انجام کارهایی که می‌کنیم.
05:34
This is informationاطلاعات copiedکپی شده with variationتغییر and selectionانتخاب.
113
316000
5000
این اطلاعاتی است که با تنوع و انتخاب کپی می‌شود.
05:39
This is designطرح processروند going on.
114
321000
3000
این یعنی بوقوع پیوستن طراحی.
05:42
He wanted a nameنام for the newجدید replicatorتکرار کننده.
115
324000
3000
او می‌خواست نامی به این بازتولیدگر جدید بدهد.
05:45
So, he tookگرفت the Greekیونانی wordکلمه "mimemeامیدوارم," whichکه meansبه معنای that whichکه is imitatedتقلید کرد.
116
327000
4000
پس او واژه یونانی Mimeme را گرفت، که به معنی چیزی است که تقلید شده.
05:49
Rememberیاد آوردن that, that's the coreهسته definitionتعریف:
117
331000
2000
آن را به خاطر داشته باشید، این تعریف اصلی است.
05:52
that whichکه is imitatedتقلید کرد.
118
334000
1000
چیزی که تقلید شده است.
05:53
And abbreviatedبه اختصار it to memeمامان, just because it soundsبرای تلفن های موبایل good
119
335000
3000
و آن را برای اختصار تبدیل به Meme (مِم)‌ کرد، چونکه آهنگ بهتری داشت
05:56
and madeساخته شده a good memeمامان, an effectiveتاثير گذار spreadingگسترش دادن memeمامان.
120
338000
3000
و مم بهتری می‌شد، یک مم موثر و گسترش‎پذیر.
05:59
So that's how the ideaاندیشه cameآمد about.
121
341000
3000
پس ایده به این شکل به وجود آمد.
06:03
It's importantمهم to stickچوب with that definitionتعریف.
122
345000
3000
مهم است که به تعریف بچسبیم.
06:06
The wholeکل scienceعلوم پایه of memeticsمامیتی is much malignedبدبخت,
123
348000
4000
کل دانش ممتیک بسیار مورد بدخواهی قرار گرفته،
06:10
much misunderstoodاشتباه گرفته شده, much fearedترسید.
124
352000
3000
بسیار مورد سوتفاهم قرار گرفته، و بسیار از آن هراس داشته‌اند.
06:13
But a lot of these problemsمشکلات can be avoidedاجتناب کنید
125
355000
3000
اما می‌توان از بسیاری از این مشکلات با چسبیدن به تعریف
06:16
by rememberingبه یاد آوردن the definitionتعریف.
126
358000
2000
جلوگیری به عمل آورد.
06:18
A memeمامان is not equivalentمعادل to an ideaاندیشه.
127
360000
2000
مم برابر ایده نیست.
06:20
It's not an ideaاندیشه. It's not equivalentمعادل to anything elseچیز دیگری, really.
128
362000
2000
ایده نیست، در حقیقت به معنی هیچ چیز دیگری هم نیست.
06:22
Stickچوب with the definitionتعریف.
129
364000
2000
به تعریف بچسبید.
06:24
It's that whichکه is imitatedتقلید کرد,
130
366000
2000
آن چیزی است که تقلید (کپی)‌ می‌شود.
06:26
or informationاطلاعات whichکه is copiedکپی شده from personفرد to personفرد.
131
368000
3000
یا اطلاعاتی که از فرد به فرد کپی می‌شود.
06:30
So, let's see some memesالگوهای رفتاری.
132
372000
1000
خب پس بگذارید چند تا مم در نظر آوریم.
06:31
Well, you sirآقا, you've got those glassesعینک hungآویزان شد around your neckگردن
133
373000
3000
خب، شما آقا، شما عینک را دم گردن نگه داشتید
06:34
in that particularlyبه خصوص fetchingکشیدن way.
134
376000
2000
به آن شیوهٔ خاص و جذاب.
06:36
I wonderتعجب whetherچه you inventedاختراع شده است that ideaاندیشه for yourselfخودت,
135
378000
2000
برایم جای سوال است که آیا این ایده را خودتان اختراع کرده‌اید،
06:38
or copiedکپی شده it from someoneکسی elseچیز دیگری?
136
380000
2000
یا از کس دیگر کپی کرده‌اید؟
06:40
If you copiedکپی شده it from someoneکسی elseچیز دیگری, it's a memeمامان.
137
382000
3000
اگر آنرا از کس دیگر کپی کرده‌اید، آن یک مم است.
06:43
And what about, oh, I can't see any interestingجالب هست memesالگوهای رفتاری here.
138
385000
3000
و در مورد آن چه، اه، نمی‌توانم مم جالبی اینجا ببینم.
06:46
All right everyoneهر کس, who'sچه کسی است got some interestingجالب هست memesالگوهای رفتاری for me?
139
388000
3000
بسیار خوب دوستان، چه کسی مم‌های جالبی برای من دارد؟
06:49
Oh, well, your earringsگوشواره,
140
391000
2000
اه خب، گوشواره‌هایتان،
06:51
I don't supposeفرض کنید you inventedاختراع شده است the ideaاندیشه of earringsگوشواره.
141
393000
2000
گمان نمی‌کنم ایده گوشواره را اختراع کرده باشید.
06:53
You probablyشاید wentرفتی out and boughtخریداری شد them.
142
395000
2000
شما محتملا بیرون رفته‌اید و آنها را خریدید.
06:55
There are plentyفراوانی more in the shopsمغازه ها.
143
397000
2000
بسیاری چیزهای دیگر از این دست در مغازه‌ها هستند.
06:57
That's something that's passedگذشت on from personفرد to personفرد.
144
399000
2000
چیزهایی که از فرد به فرد منتقل می‌شوند.
06:59
All the storiesداستان ها that we're tellingگفتن -- well, of courseدوره,
145
401000
3000
تمام داستان‌هایی که تعریف می‌کنیم، خب البته،
07:02
TEDTED is a great meme-festخاطره جشنواره, massesتوده ها of memesالگوهای رفتاری.
146
404000
4000
TED یک فستیوال بزرگ مم است، انبوهی از مم‌ها.
07:06
The way to think about memesالگوهای رفتاری, thoughگرچه,
147
408000
2000
ولی یک راه تفکر درمورد مم‌ها این است
07:08
is to think, why do they spreadانتشار دادن?
148
410000
2000
که چرا آنها گسترش می‌یابند.
07:10
They're selfishخود خواه informationاطلاعات, they will get copiedکپی شده, if they can.
149
412000
4000
آنها اطلاعات خودخواهی هستند که اگر بتوانند کپی می‌شوند.
07:14
But some of them will be copiedکپی شده because they're good,
150
416000
3000
ولی بعضی از آنها به این جهت کپی می‌شوند که بهترند،
07:17
or trueدرست است, or usefulمفید است, or beautifulخوشگل.
151
419000
2000
یا درست اند، یا مفید اند، یا زیبایند.
07:19
Some of them will be copiedکپی شده even thoughگرچه they're not.
152
421000
2000
بعضی از آنها با اینکه چنین نیستند کپی می‌شوند.
07:21
Some, it's quiteکاملا hardسخت to tell why.
153
423000
2000
یافت دلیل گسترش بعضی‌ها دشوارتر است.
07:24
There's one particularخاص curiousکنجکاو memeمامان whichکه I ratherنسبتا enjoyلذت بردن.
154
426000
3000
یک نوع مم خاص هست که برایم بنحوی جالب است.
07:27
And I'm gladخوشحالم to say, as I expectedانتظار می رود, I foundپیدا شد it when I cameآمد here,
155
429000
3000
و من خرسندم اعلام کنم، که همانطورکه انتظار داشتم، آن را در اینجا هم یافتم.
07:30
and I'm sure all of you foundپیدا شد it, too.
156
432000
2000
و مطمئنم شما هم آنرا دیده‌اید.
07:32
You go to your niceخوب, poshجالب, internationalبین المللی hotelهتل somewhereجایی,
157
434000
3000
شما به هتل بین‌المللی شیک خود می‌روید،
07:36
and you come in and you put down your clothesلباس ها
158
438000
2000
و داخل می‌شوید و لباس‌هایتان را پایین می‌گذارید
07:38
and you go to the bathroomحمام, and what do you see?
159
440000
3000
و می‌روید به حمام، چه می‌بینید؟
07:41
Audienceحضار: Bathroomحمام soapصابون.
160
443000
1000
حضار:‌ صابون حمام.
07:42
SBSB: Pardonببخشید?
161
444000
1000
سوزان بلکمور: ببخشید؟
07:43
Audienceحضار: Soapصابون.
162
445000
1000
حضار: صابون.
07:44
SBSB: Soapصابون, yeah. What elseچیز دیگری do you see?
163
446000
2000
سوزان بلکمور: صابون، بله. چه چیز دیگری می‌بینید؟
07:46
Audienceحضار: (Inaudibleقابل شنیدن نیست)
164
448000
1000
حضار: (نارسا)
07:47
SBSB: Mmmمامان mmmmmm.
165
449000
1000
سوزان بلکمور: هممم ممم.
07:48
Audienceحضار: Sinkفرو رفتن, toiletتوالت!
166
450000
1000
حضار:‌ وان دستشویی، توالت!
07:49
SBSB: Sinkفرو رفتن, toiletتوالت, yes, these are all memesالگوهای رفتاری, they're all memesالگوهای رفتاری,
167
451000
2000
سوزان بلکمور: وان، توالت، بله، همهٔ اینها مم هستند، همه مم اند،
07:51
but they're sortمرتب سازی of usefulمفید است onesآنهایی که, and then there's this one.
168
453000
3000
ولی بنوعی مم‌های مفید هستند، و بعد این یکی هست.
07:54
(Laughterخنده)
169
456000
3000
(خنده)
07:58
What is this one doing?
170
460000
2000
این یکی اینجا چیکاره است؟
08:00
(Laughterخنده)
171
462000
1000
(خنده)
08:01
This has spreadانتشار دادن all over the worldجهان.
172
463000
2000
این در همه جای دنیا شایع شده.
08:03
It's not surprisingشگفت آور that you all foundپیدا شد it
173
465000
2000
جای شگفتی نیست که همهٔ شما آنرا وقتی
08:05
when you arrivedوارد شد in your bathroomsحمام here.
174
467000
2000
به حمام‌هایتان در اینجا رسیدید دیده‌اید.
08:07
But I tookگرفت this photographعکس in a toiletتوالت at the back of a tentچادر
175
469000
5000
ولی من این عکس را در توالت چادری
08:12
in the eco-campمحیط زیست اردوگاه in the jungleجنگل in Assamآسام.
176
474000
2000
در یک کمپ زیستی در جنگل آسام گرفته‌ام.
08:14
(Laughterخنده)
177
476000
1000
(خنده)
08:16
Who foldedتا شده that thing up there, and why?
178
478000
3000
چه کسی آنرا اینجوری تا کرده و برای چه؟
08:19
(Laughterخنده)
179
481000
1000
(خنده)
08:20
Some people get carriedانجام away.
180
482000
2000
بعضی‌ها زیادی احساساتی می‌شوند.
08:22
(Laughterخنده)
181
484000
3000
(خنده)
08:26
Other people are just lazyتنبل and make mistakesاشتباهات.
182
488000
3000
برخی دیگران تنبل‌اند و اشتباه درست می‌کنند.
08:29
Some hotelsهتل ها exploitبهره برداری the opportunityفرصت to put even more memesالگوهای رفتاری
183
491000
3000
بعضی هتل‌ها از این فرصت استفاده می‌کنند تا مم‌های بیشتری قرار بدهند
08:32
with a little stickerاستیکر.
184
494000
2000
مثل یک برچسب کوچک.
08:34
(Laughterخنده)
185
496000
1000
(خنده)
08:35
What is this all about?
186
497000
2000
اینها همه یعنی چی؟
08:37
I supposeفرض کنید it's there to tell you that somebody'sکسی هست
187
499000
2000
من گمان می‌کنم برای این است که به شما بگویند کسی
08:39
cleanedپاک شده the placeمحل, and it's all lovelyدوست داشتني.
188
501000
2000
قبلا اینجا را تمیز کرده، و خوب و عالی است.
08:41
And you know, actuallyدر واقع, all it tellsمی گوید you is that anotherیکی دیگر personفرد
189
503000
3000
و می‌دونید، این بیشتر به شما می‌گوید که شخص دیگری
08:44
has potentiallyبالقوه spreadانتشار دادن germsمیکروب ها from placeمحل to placeمحل.
190
506000
3000
احتمالا اینجا و آنجا میکروب پراکنیده.
08:47
(Laughterخنده)
191
509000
1000
(خنده)
08:48
So, think of it this way.
192
510000
2000
پس اینطوری به قضیه نگاه کنید.
08:50
Imagineتصور کن a worldجهان fullپر شده of brainsمغز
193
512000
2000
جهانی را تصور کنید پر از مغزها
08:52
and farدور more memesالگوهای رفتاری than can possiblyاحتمالا find homesخانه ها.
194
514000
3000
و تعداد بسیار بیشتری از مم‌ها نسبت به خانه‌های موجود.
08:55
The memesالگوهای رفتاری are all tryingتلاش کن to get copiedکپی شده --
195
517000
3000
همگی مم‌ها «تلاش» دارند تا کپی بشوند،
08:58
tryingتلاش کن, in invertedمعکوس commasکاما -- i.e.,
196
520000
3000
تلاش در داخل گیومه. یعنی،
09:01
that's the shorthandکوتاه for, if they can get copiedکپی شده, they will.
197
523000
3000
کوتاه سخن اینکه، اگر بتوانند کپی بشوند کپی می‌شوند.
09:04
They're usingاستفاده كردن you and me as theirخودشان propagatingترویج, copyingکپی برداری machineryدستگاه,
198
526000
6000
آنها از من و شما به عنوان دستگاه کپی‌کننده استفاده می‌کنند،
09:10
and we are the memeمامان machinesماشین آلات.
199
532000
3000
و ما ماشین‌های مم هستیم.
09:13
Now, why is this importantمهم?
200
535000
2000
حالا چرا این مهم است؟
09:15
Why is this usefulمفید است, or what does it tell us?
201
537000
2000
چرا این مفید است، و برایمان چه برای گفتن دارد؟
09:17
It givesمی دهد us a completelyبه صورت کامل newجدید viewچشم انداز of humanانسان originsریشه ها
202
539000
4000
من دید کاملا جدیدی از خاستگاه انسان و معنی انسان بودن
09:21
and what it meansبه معنای to be humanانسان,
203
543000
1000
به شما می‌دهم.
09:22
all conventionalمرسوم theoriesنظریه ها of culturalفرهنگی evolutionسیر تکاملی,
204
544000
4000
همگیِ نظریه‌های مرسوم فرگشت فرهنگی،
09:26
of the originاصل و نسب of humansانسان,
205
548000
2000
خاستگاه‌های انسان،
09:28
and what makesباعث می شود us so differentناهمسان from other speciesگونه ها.
206
550000
4000
و چیزهایی که ما را اینقدر از دیگر گونه‌ها متمایز می‌سازد.
09:32
All other theoriesنظریه ها explainingتوضیح دادن the bigبزرگ brainمغز, and languageزبان, and toolابزار use
207
554000
2000
همگی نظریه‌های دیگر که بزرگی مغز را توضیح می‌دهند، و استفاده از زبان و ابزار
09:34
and all these things that make us uniqueمنحصر بفرد,
208
556000
2000
و همه این چیزهایی که ما را منحصر به فرد می‌سازند،
09:36
are basedمستقر uponبر genesژن ها.
209
558000
3000
مبتنی بر ژن‌هایمان است.
09:39
Languageزبان mustباید have been usefulمفید است for the genesژن ها.
210
561000
3000
زبان می‌بایستی که برای ژن‌هایمان مفیده بوده باشد.
09:42
Toolابزار use mustباید have enhancedافزایش یافته است our survivalبقاء, matingجفت گیری and so on.
211
564000
3000
استفاده از ابزار بایستی که بقای ما را بهبود بخشیده باشد، و جفتگیری و غیره.
09:45
It always comesمی آید back, as Richardریچارد Dawkinsداوکینز complainedشکایت کرد
212
567000
3000
همیشه به این نقطه می‌رسد که، همانطور که ریچارد داوکینز
09:48
all that long time agoپیش, it always comesمی آید back to genesژن ها.
213
570000
3000
خیلی وقت پیش مخالفت ورزید سرانجام همیشه به ژن‌ها می‌رسد.
09:51
The pointنقطه of memeticsمامیتی is to say, "Oh no, it doesn't."
214
573000
4000
مسئله ممتیک این است که بگوید، «نه اینطور نیست»
09:55
There are two replicatorsتکرار کننده ها now on this planetسیاره.
215
577000
3000
در حال حاضر دو بازتولیدگر در سیاره هستند.
09:58
From the momentلحظه that our ancestorsاجداد,
216
580000
3000
از زمانی که پیشینیان ما،
10:01
perhapsشاید two and a halfنیم millionمیلیون yearsسالها agoپیش or so,
217
583000
2000
شاید از حدود دو و نیم میلیون سال پیش،
10:03
beganآغاز شد imitatingتقلید کردن, there was a newجدید copyingکپی برداری processروند.
218
585000
4000
شروع به تقلید کردند، یک فرآیند کپی‌سازی جدید به وجود آمد.
10:07
Copyingکپی برداری with variationتغییر and selectionانتخاب.
219
589000
2000
کپی با تنوع و انتخاب.
10:09
A newجدید replicatorتکرار کننده was let looseشل, and it could never be --
220
591000
5000
یک بازتولیدگر جدید رها شد، و دیگر هیچگاه نتوانست
10:14
right from the startشروع کن -- it could never be
221
596000
1000
به حال قبلی برگردد، دیگر هیچوقت ممکن نبود
10:15
that humanانسان beingsموجودات who let looseشل this newجدید creatureموجود,
222
597000
5000
انسانی که برساختهٔ جدیدش را آزاد گذاشته بود،
10:20
could just copyکپی کنید the usefulمفید است, beautifulخوشگل, trueدرست است things,
223
602000
3000
فقط چیزهای مفید و خوب و واقعی را کپی کند،
10:23
and not copyکپی کنید the other things.
224
605000
2000
و چیزهای دیگر را کپی نکند.
10:25
While theirخودشان brainsمغز were havingداشتن an advantageمزیت from beingبودن ableتوانایی to copyکپی کنید --
225
607000
3000
درحالیکه مغزشان این مزیت را پیدا کرد که قادر باشد چیزهایی را کپی کند مثل --
10:28
lightingروشنایی firesآتش سوزی, keepingنگه داشتن firesآتش سوزی going, newجدید techniquesتکنیک of huntingشکار,
226
610000
5000
روشن کردن آتش، روشن نگهداشتن آتش، شگردهای جدید شکار،
10:33
these kindsانواع of things --
227
615000
2000
اینجور چیزها --
10:35
inevitablyبه ناچار they were alsoهمچنین copyingکپی برداری puttingقرار دادن feathersپر in theirخودشان hairمو,
228
617000
3000
آنها به ناچار قادر به کپی کردن چیزهایی نیز گشتند، مانند گذاشتن پر لای موهایشان،
10:38
or wearingپوشیدن strangeعجیب clothesلباس ها, or paintingرنگ آمیزی theirخودشان facesچهره ها,
229
620000
2000
یا پوشیدن لباس‌های عجیب و غریب، یا رنگ کردن صورت،
10:40
or whateverهر چه.
230
622000
1000
یا هر چیز دیگر.
10:41
So, you get an armsبازوها raceنژاد betweenبین the genesژن ها
231
623000
4000
اینچنین شما رقابتی پیدا می‌کنید میان ژن‌هایی که
10:45
whichکه are tryingتلاش کن to get the humansانسان to have smallکوچک economicalمقرون به صرفه brainsمغز
232
627000
4000
که دارند سعی می‌کنند تا انسان‌ها مغز‌های کوچکتر و اقتصادی‌‍تر داشته باشند
10:49
and not wasteدور ریختنی theirخودشان time copyingکپی برداری all this stuffچیز,
233
631000
2000
و این همه وقت صرف کپی کردن این چیزها نکنند،
10:51
and the memesالگوهای رفتاری themselvesخودشان, like the soundsبرای تلفن های موبایل that people madeساخته شده and copiedکپی شده --
234
633000
4000
و خود مم‌ها، مثل صداهایی که مردم درمی‌آورند و کپی می‌کردند --
10:56
in other wordsکلمات, what turnedتبدیل شد out to be languageزبان --
235
638000
2000
به بیان دیگر، چیزی که در پایان به زبان انجامید --
10:58
competingرقابت to get the brainsمغز to get biggerبزرگتر and biggerبزرگتر.
236
640000
3000
رقابت برای بزرگ و بزرگتر شدن مغزها.
11:01
So, the bigبزرگ brainمغز, on this theoryتئوری, is drivenرانده by the memesالگوهای رفتاری.
237
643000
4000
پس مغز بزرگ در این نظریه بوسیله مم‌ها به وجود می‌آید.
11:05
This is why, in "The Memeمامان Machineدستگاه," I calledبه نام it memeticممتازی driveراندن.
238
647000
4000
به این دلیل است که در کتاب «ماشین مم»، من آنرا محرک «ممی» نامیدم.
11:09
As the memesالگوهای رفتاری evolveتکامل یابد, as they inevitablyبه ناچار mustباید,
239
651000
3000
همینطور که مم‌ها فرگشت می‌یابند، که لاجرم چنین می‌شود،
11:12
they driveراندن a biggerبزرگتر brainمغز that is better at copyingکپی برداری the memesالگوهای رفتاری
240
654000
4000
آنها باعث حرکت بسوی مغز بزرگتر می‌شوند که در امر کپی‌سازی مم‌ها بهتر عمل می‌کند
11:16
that are doing the drivingرانندگی.
241
658000
2000
تا پیش بردن آن.
11:18
This is why we'veما هستیم endedبه پایان رسید up with suchچنین peculiarعجیب و غریب brainsمغز,
242
660000
4000
این دلیل آن است که چرا ما دارای چنین مغزهای عجیبی گشته‌ایم،
11:22
that we like religionمذهب, and musicموسیقی, and artهنر.
243
664000
3000
که ما به دین، و موسیقی و هنر علاقه داریم.
11:25
Languageزبان is a parasiteانگل that we'veما هستیم adaptedسازگار to,
244
667000
3000
زبان یک انگل است که به آن خو گرفته‌ایم،
11:28
not something that was there originallyدر اصل for our genesژن ها,
245
670000
2000
نه چیزی که از اول برای ژن‌هایمان به وجود آمده باشد،
11:30
on this viewچشم انداز.
246
672000
2000
در این نقطه نظر.
11:32
And like mostاکثر parasitesانگل ها, it can beginشروع dangerousخطرناک است,
247
674000
3000
و مثل بیشتر انگل‌ها می‌تواند خطرناک شود،
11:35
but then it coevolvescoevolves and adaptsسازگار است,
248
677000
3000
ولی بعد هم-فرگشت می‌یابد و سازگاری می‌یابد
11:38
and we endپایان up with a symbioticهمبستگی relationshipارتباط
249
680000
2000
و ما سرانجام به یک رابطهٔ همزیستی
11:40
with this newجدید parasiteانگل.
250
682000
1000
با این انگل‌ها می‌رسیم.
11:41
And so, from our perspectiveچشم انداز,
251
683000
2000
و بنابراین از نقطه نظر ما،
11:43
we don't realizeتحقق بخشیدن that that's how it beganآغاز شد.
252
685000
3000
ما متوجه نمی‌شویم که چگونه آغاز شده است.
11:46
So, this is a viewچشم انداز of what humansانسان are.
253
688000
3000
پس این نظری است در مورد اینکه انسان‌ها چیستند.
11:49
All other speciesگونه ها on this planetسیاره are geneژن machinesماشین آلات only,
254
691000
3000
تمام گونه‌های دیگر این سیاره تنها ماشین ژنی هستند،
11:52
they don't imitateتقلید کردن at all well, hardlyبه سختی at all.
255
694000
3000
آنها در همهٔ سطوح کپی نمی‌کنند، اگر اصلا بتوانند چنین کنند.
11:55
We aloneتنها are geneژن machinesماشین آلات and memeمامان machinesماشین آلات as well.
256
697000
5000
ما هم ماشین ژن هستیم و هم ماشین مم.
12:00
The memesالگوهای رفتاری tookگرفت a geneژن machineدستگاه and turnedتبدیل شد it into a memeمامان machineدستگاه.
257
702000
4000
مم‌ها یک ماشین ژن را می‌گیرند و آنرا تبدیل به یک ماشین مم می‌کنند.
12:04
But that's not all.
258
706000
2000
ولی این همهٔ امر نیست.
12:06
We have a newجدید kindنوع of memesالگوهای رفتاری now.
259
708000
3000
ما امروزه گونه‌های جدیدی از مم داریم.
12:09
I've been wonderingتعجب کردم for a long time,
260
711000
1000
من برای مدت طولانی تامل کرده‌ام،
12:10
sinceاز آنجا که I've been thinkingفكر كردن about memesالگوهای رفتاری a lot,
261
712000
2000
از زمانی که شروع به تفکر دربارهٔ مم‌ها کرده‌ام،
12:12
is there a differenceتفاوت betweenبین the memesالگوهای رفتاری that we copyکپی کنید --
262
714000
2000
آیا تفاوتی وجود دارد میان مم‌هایی که ما کپی می‌کنیم --
12:14
the wordsکلمات we speakصحبت to eachهر یک other,
263
716000
2000
واژگانی که با آنها با هم سخن می‌گوییم،
12:16
the gesturesحرکات we copyکپی کنید, the humanانسان things --
264
718000
2000
ژست‌هایی که کپی می‌کنیم، چیزهای انسانی --
12:18
and all these technologicalتکنولوژیکی things around us?
265
720000
2000
و همه این چیزهای تکنولوژیکی اطرافمان؟
12:20
I have always, untilتا زمان now, calledبه نام them all memesالگوهای رفتاری,
266
722000
4000
من همیشه، تا الان، آنها را هم مم نامیده بودم،
12:24
but I do honestlyصادقانه think now
267
726000
3000
ولی من حالا واقعا فکر می‌کنم که
12:27
we need a newجدید wordکلمه for technologicalتکنولوژیکی memesالگوهای رفتاری.
268
729000
3000
ما نیازمند واژهٔ تازه‌ای برای مِم‌های تکنولوژیکی هستیم.
12:30
Let's call them techno-memesتکنو الگوهای رفتاری or temesتم ها.
269
732000
3000
بگذارید آنها را تکنومِم یا تِم بنامیم.
12:33
Because the processesفرآیندهای are gettingگرفتن differentناهمسان.
270
735000
3000
چونکه فرآیندهای آنها متفاوت است.
12:37
We beganآغاز شد, perhapsشاید 5,000 yearsسالها agoپیش, with writingنوشتن.
271
739000
3000
ما شاید حدود ۵۰۰۰ سال پیش با نوشتن شروع کردیم.
12:40
We put the storageذخیره سازی of memesالگوهای رفتاری out there on a clayخاک رس tabletقرص,
272
742000
7000
ما انباری از مم‌ها را روی لوحه گلی ثبت کردیم؛
12:48
but in orderسفارش to get trueدرست است temesتم ها and trueدرست است temeتم ها machinesماشین آلات,
273
750000
2000
ولی برای اینکه تم‌های واقعی و ماشین‌های تم واقعی داشته باشید،
12:50
you need to get the variationتغییر, the selectionانتخاب and the copyingکپی برداری,
274
752000
3000
بایستی که تنوع در اختیار داشته باشید، انتخاب و کپی کردن،
12:53
all doneانجام شده outsideخارج از of humansانسان.
275
755000
2000
که همه خارج از انسان انجام بشوند.
12:55
And we're gettingگرفتن there.
276
757000
2000
و ما داریم به آنجا می‌رسیم.
12:57
We're at this extraordinaryخارق العاده pointنقطه where we're nearlyتقریبا there,
277
759000
2000
ما به این نقطهٔ شگفت‌انگیز رسیده‌ایم که تقریبا آنجا هستیم،
12:59
that there are machinesماشین آلات like that.
278
761000
2000
که ماشین‌هایی مثل آن به وجود بیایند.
13:01
And indeedدر واقع, in the shortکوتاه time I've alreadyقبلا been at TEDTED,
279
763000
2000
و براستی در اندک زمانی که در TED بوده‌ام،
13:03
I see we're even closerنزدیک تر than I thought we were before.
280
765000
2000
من می‌بینم که ما نزدیکتر از آن چیزی هستیم که قبلا فکر می‌کردم.
13:05
So actuallyدر واقع, now the temesتم ها are forcingاجبار کردن our brainsمغز
281
767000
6000
پس درحقیقت، اکنون تم‌ها به مغزهایمان فشار می‌آورند
13:11
to becomeتبدیل شدن به more like temeتم ها machinesماشین آلات.
282
773000
2000
تا بیشتر شبیه ماشین تم شوند.
13:13
Our childrenفرزندان are growingدر حال رشد up very quicklyبه سرعت learningیادگیری to readخواندن,
283
775000
3000
کودکان ما خیلی زود بزرگ می‌شوند و خواندن می‌آموزند،
13:16
learningیادگیری to use machineryدستگاه.
284
778000
2000
استفاده از ماشین آلات را فرا می‌گیرند.
13:18
We're going to have all kindsانواع of implantsایمپلنت,
285
780000
1000
ما داریم بسویی می‌رویم که ایمپلنت‌های بسیار خواهیم داشت،
13:19
drugsمواد مخدر that forceزور us to stayاقامت کردن awakeبیدار all the time.
286
781000
3000
داروهایی که ما را مجبور خواهند کرد تا همیشه بیدار باقی بمانیم.
13:22
We'llخوب think we're choosingانتخاب کردن these things,
287
784000
2000
ما خیال خواهیم کرد که داریم این چیزها را انتخاب می‌کنیم،
13:24
but the temesتم ها are makingساخت us do it.
288
786000
3000
ولی در واقع تم‌ها ما را وادار می‌سازند تا چنین کنیم.
13:28
So, we're at this cuspcusp now
289
790000
1000
بنابراین ما در این نقطهٔ تغییر هستیم
13:29
of havingداشتن a thirdسوم replicatorتکرار کننده on our planetسیاره.
290
791000
4000
که سومین بازتولیدگر را در سیاره داشته باشیم.
13:34
Now, what about what elseچیز دیگری is going on out there in the universeجهان?
291
796000
5000
اکنون، در مورد چیزهای دیگری که در جهان در حال اتفاق افتادن است چه؟
13:39
Is there anyoneهر کسی elseچیز دیگری out there?
292
801000
2000
آیا کسی آن بیرون هست؟
13:41
People have been askingدرخواست this questionسوال for a long time.
293
803000
3000
مردم از خیلی وقت پیش‌ها این پرسش را می‌پرسیده‌اند.
13:44
We'veما هستیم been askingدرخواست it here at TEDTED alreadyقبلا.
294
806000
2000
ما آنرا در TED هم پرسیده‌ایم.
13:46
In 1961, Frankصریح Drakeدریک madeساخته شده his famousمشهور equationمعادله,
295
808000
4000
در ۱۹۶۱، فرانک دِرِیک معادلهٔ مشهورش را ساخت،
13:50
but I think he concentratedمتمرکز شده on the wrongاشتباه things.
296
812000
2000
ولی به گمان من روی چیزهای اشتباهی تمرکز کرد.
13:52
It's been very productiveسازنده, that equationمعادله.
297
814000
2000
آن معادله بسیار پرحاصل بوده است.
13:54
He wanted to estimateتخمین زدن N,
298
816000
2000
او می‌خواست مقدار N را تخمین بزند،
13:56
the numberعدد of communicativeارتباطی civilizationsتمدن ها out there in our galaxyکهکشان,
299
818000
4000
یعنی تعداد تمدن‌هایی در کهکشان ما که قادر به ارتباط هستند.
14:00
and he includedمشمول in there the rateنرخ of starستاره formationتشکیل,
300
822000
4000
و او سرعت تشکیل ستاره را وارد معادله کرد،
14:04
the rateنرخ of planetsسیارات, but cruciallyبسیار مهم است, intelligenceهوش.
301
826000
4000
و میزان سیاره‌ها، ولی مهمتر از آن، هوشمندی.
14:08
I think that's the wrongاشتباه way to think about it.
302
830000
4000
من فکر می‌کنم اینطور فکر کردن به آن اشتباه است.
14:12
Intelligenceهوش appearsظاهر می شود all over the placeمحل, in all kindsانواع of guisesظاهرا.
303
834000
3000
هوشمندی در هر جا، در لباس‌های مختلف ظاهر می‌شود.
14:15
Humanانسان intelligenceهوش is only one kindنوع of a thing.
304
837000
2000
هوش انسانی فقط یک نوع آن است.
14:17
But what's really importantمهم is the replicatorsتکرار کننده ها you have
305
839000
3000
ولی چیزی که واقعا مهم است بازتولیدگری است که دارید
14:20
and the levelsسطوح of replicatorsتکرار کننده ها, one feedingتغذیه on the one before.
306
842000
4000
و سطوح بازتولیدگرها که هر یک از قبلی ناشی می‌شوند.
14:24
So, I would suggestپیشنهاد می دهد that we don't think intelligenceهوش,
307
846000
5000
بنابراین پیشنهاد من این است که نباید به هوشمندی اندیشید،
14:29
we think replicatorsتکرار کننده ها.
308
851000
2000
باید بازتولیدگرها را در نظر گرفت.
14:31
And on that basisپایه, I've suggestedپیشنهادی a differentناهمسان kindنوع of equationمعادله.
309
853000
3000
و بر پایهٔ آن، من فرمول متفاوتی پیشنهاد داده‌ام.
14:34
A very simpleساده equationمعادله.
310
856000
2000
یک معادله خیلی ساده.
14:36
N, the sameیکسان thing,
311
858000
2000
N مثل همان قبلی است،
14:38
the numberعدد of communicativeارتباطی civilizationsتمدن ها out there
312
860000
3000
یعنی تعداد تمدن‌های ارتباطی که می‌توانیم
14:41
[that] we mightممکن expectانتظار in our galaxyکهکشان.
313
863000
2000
در کهکشان‌مان انتظار داشته باشیم.
14:43
Just startشروع کن with the numberعدد of planetsسیارات there are in our galaxyکهکشان.
314
865000
4000
از تعداد سیاره‌هایی که در کهکشان ما هستند شروع می‌کنیم.
14:47
The fractionکسر of those whichکه get a first replicatorتکرار کننده.
315
869000
4000
کسری از آنها که بازتولیدگر نخست را به دست می‌آورند.
14:51
The fractionکسر of those that get the secondدومین replicatorتکرار کننده.
316
873000
4000
کسری از آنها که بازتولیدگر دوم را به دست می‌آورند.
14:55
The fractionکسر of those that get the thirdسوم replicatorتکرار کننده.
317
877000
2000
کسری از آنها که سومین بازتولیدگر را به دست می‌آورند.
14:58
Because it's only the thirdسوم replicatorتکرار کننده that's going to reachنائل شدن out --
318
880000
3000
چونکه تنها بازتولیدگر سوم است که می‌تواند باعث ارتباط شود --
15:01
sendingدر حال ارسال informationاطلاعات, sendingدر حال ارسال probesپروب ها, gettingگرفتن out there,
319
883000
3000
با فرستادن اطلاعات، فرستادن کاوشگرها، خروج از آنجا،
15:04
and communicatingارتباط برقرار کردن with anywhereهر جا elseچیز دیگری.
320
886000
2000
و ارتباط برقرار کردن با جای‌های دیگر.
15:06
OK, so if we take that equationمعادله,
321
888000
3000
خب، اگر ما این معادله را در نظر بگیریم،
15:09
why haven'tنه we heardشنیدم from anybodyهر شخصی out there?
322
891000
5000
پس چرا تا حالا از هیچکسی در آن بیرون چیزی نشنیده‌ایم؟
15:14
Because everyهرکدام stepگام is dangerousخطرناک است.
323
896000
4000
چونکه هر قسمت راه خطرناک است.
15:18
Gettingگرفتن a newجدید replicatorتکرار کننده is dangerousخطرناک است.
324
900000
3000
رسیدن به بازتولیدگر جدید خطرناک است.
15:21
You can pullکشیدن throughاز طریق, we have pulledکشیده throughاز طریق,
325
903000
2000
می‌توان از پس آن برآمد، ما از پسش برآمدیم،
15:23
but it's dangerousخطرناک است.
326
905000
2000
ولی خطرناک است.
15:25
Take the first stepگام, as soonبه زودی as life appearedظاهر شد on this earthزمین.
327
907000
3000
مرحله اول را در نظر بگیرید، از همان زمانی که حیات بر روی زمین پدیدار گردید.
15:28
We mayممکن است take the Gaianگایان viewچشم انداز.
328
910000
2000
ما می‌توانیم نظریه گایا را در نظر داشته باشیم.
15:30
I lovedدوست داشتنی Peterپیتر Ward'sورد talk yesterdayدیروز -- it's not Gaianگایان all the time.
329
912000
3000
من عاشق سخنرانی دیروز پیتر وارد شدم -- ولی مسئله همیشه گایایی نیست.
15:33
Actuallyدر واقع, life formsتشکیل می دهد produceتولید کردن things that killکشتن themselvesخودشان.
330
915000
3000
در حقیقت، زی‌نمود ها [اشکال حیات] چیزهایی می‌سازند که خودشان را می‌کشند.
15:36
Well, we did pullکشیدن throughاز طریق on this planetسیاره.
331
918000
3000
خب، ما در این سیاره از آن مهلکه جستیم.
15:39
But then, a long time laterبعد, billionsمیلیاردها دلار of yearsسالها laterبعد,
332
921000
2000
ولی، زمان بسیار طولانی بعد از آن، میلیاردها سال بعد،
15:41
we got the secondدومین replicatorتکرار کننده, the memesالگوهای رفتاری.
333
923000
3000
ما دومین بازتولیدگر را داشتیم: مم‌.
15:44
That was dangerousخطرناک است, all right.
334
926000
2000
آن خطرآفرین بود، درست.
15:46
Think of the bigبزرگ brainمغز.
335
928000
2000
به مغز بزرگ بیاندیشید.
15:48
How manyبسیاری mothersمادران do we have here?
336
930000
3000
چند تا مادر در اینجا داریم؟
15:51
You know all about bigبزرگ brainsمغز.
337
933000
2000
همهٔ شما در مورد مغز بزرگ می‌دانید.
15:53
They are dangerousخطرناک است to give birthتولد to,
338
935000
2000
آنها در هنگام زایمان خطرناک‌اند.
15:55
are agonizingتکان دهنده to give birthتولد to.
339
937000
2000
در زایمان باعث رنج‌اند.
15:57
(Laughterخنده)
340
939000
1000
(خنده)
15:59
My catگربه gaveداد birthتولد to fourچهار kittensبچه گربه ها, purringخرد کردن all the time.
341
941000
2000
گربهٔ من چهار تا بچه گربه به دنیا آورد، و پشت سر هم خرخر می‌کرد.
16:01
Ahآه, mmمیلیمتر -- slightlyکمی differentناهمسان.
342
943000
2000
آه، هوم -- کمی متفاوت.
16:03
(Laughterخنده)
343
945000
2000
(خنده)
16:05
But not only is it painfulدردناک, it killsمی کشد lots of babiesنوزادان,
344
947000
3000
ولی فقط دردآور نیست، خیلی از نوزادان را می‌کشد،
16:08
it killsمی کشد lots of mothersمادران,
345
950000
2000
خیلی از مادران را می‌کشد.
16:10
and it's very expensiveگران to produceتولید کردن.
346
952000
2000
و ساخت آن بسیار هزینه‌بر است.
16:12
The genesژن ها are forcedمجبور شدم into producingتولید all this myelinمیلین,
347
954000
2000
ژن‌ها تحت فشار قرار گرفته‌اند تا این همه میلین تولید کنند،
16:14
all the fatچربی to myelinateمیلینیت the brainمغز.
348
956000
2000
همهٔ آن چربی‌ها برای اینکه مغز زیر پوشش غلاف میلین قرار بگیرد.
16:16
Do you know, sittingنشسته here,
349
958000
2000
آیا می‌دانید، همینطور که اینجا نشسته‌اید،
16:18
your brainمغز is usingاستفاده كردن about 20 percentدرصد of your body'sجسد energyانرژی outputخروجی
350
960000
4000
مغز شما ۲۰ درصد انرژی تولیدی بدن شما را مصرف می‌کند
16:22
for two percentدرصد of your bodyبدن weightوزن?
351
964000
2000
درحالیکه تنها ۲ درصد وزن بدن شما را تشکیل داده است.
16:24
It's a really expensiveگران organعضو to runاجرا کن.
352
966000
2000
واقعا اندام هزینه بری است.
16:26
Why? Because it's producingتولید the memesالگوهای رفتاری.
353
968000
2000
چرا؟‌ برای اینکه مم‌ها را تولید می‌کند.
16:28
Now, it could have killedکشته شده us off. It could have killedکشته شده us off,
354
970000
4000
حالا، این می‌توانست ما را بکشد -- می‌توانست همهٔ‌ ما را نابود کند،
16:32
and maybe it nearlyتقریبا did, but you see, we don't know.
355
974000
2000
و شاید چنین کرد، ولی می‌فهمید، ما نمی‌دانیم.
16:34
But maybe it nearlyتقریبا did.
356
976000
2000
ولی شاید تقریبا چنین کرد.
16:36
Has it been triedتلاش کرد before?
357
978000
1000
آیا پیش از این آزموده شده؟
16:37
What about all those other speciesگونه ها?
358
979000
2000
در مورد آن همه گونه‌های دیگر چه؟
16:39
Louiseلوئیس LeakeyLeakey talkedصحبت کرد yesterdayدیروز
359
981000
2000
هفتهٔ پیش لوئیس لیکی تعریف کرد که
16:41
about how we're the only one in this branchشاخه left.
360
983000
3000
چگونه ما تنها گونهٔ باقی‌مانده از این شاخه [جانوری] هستیم.
16:44
What happenedاتفاق افتاد to the othersدیگران?
361
986000
2000
برای بقیه چه اتفاقی افتاده؟
16:46
Could it be that this experimentآزمایشی in imitationتقلید,
362
988000
2000
آیا می‌توانسته اینگونه باشد که این امتحان تقلیدبرداری،
16:48
this experimentآزمایشی in a secondدومین replicatorتکرار کننده,
363
990000
2000
این تجربهٔ بازتولیدگر دوم،
16:50
is dangerousخطرناک است enoughکافی to killکشتن people off?
364
992000
4000
آنقدر خطرناک بوده باشد که مردم را بکشد؟
16:54
Well, we did pullکشیدن throughاز طریق, and we adaptedسازگار.
365
996000
2000
خب، ما از مهلکه جستیم و سازگاری یافتیم.
16:56
But now, we're hittingضربه زدن, as I've just describedشرح داده شده,
366
998000
3000
ولی حال، همانطور که من تعریف کردم داریم نزدیک می‌شیم به
16:59
we're hittingضربه زدن the thirdسوم replicatorتکرار کننده pointنقطه.
367
1001000
2000
داریم می‌خوریم به نقطهٔ بازتولیدگر سوم.
17:01
And this is even more dangerousخطرناک است --
368
1003000
3000
و این حتی خطرناکتر از قبلی‌هاست --
17:04
well, it's dangerousخطرناک است again.
369
1006000
2000
خب، دوباره خطر هست.
17:06
Why? Because the temesتم ها are selfishخود خواه replicatorsتکرار کننده ها
370
1008000
4000
چرا؟ زیرا تم‌ها بازتولیدگرهای خودخواه هستند
17:10
and they don't careاهميت دادن about us, or our planetسیاره, or anything elseچیز دیگری.
371
1012000
3000
و اهمیتی به ما، یا سیارهٔ ما، یا اصولا هیچ چیز نمی‌دهند.
17:13
They're just informationاطلاعات, why would they?
372
1015000
3000
آخر سر آنها تنها اطلاعات هستند -- چرا باید چنین کنند؟
17:17
They are usingاستفاده كردن us to suckمکیدن up the planet'sسیاره resourcesمنابع
373
1019000
2000
آنها دارند از ما استفاده می‌کنند تا شیرهٔ منابع سیاره را برای
17:19
to produceتولید کردن more computersکامپیوترها,
374
1021000
2000
تولید کامپیوترهای بیشتر بکشند،
17:21
and more of all these amazingحیرت آور things we're hearingشنیدن about here at TEDTED.
375
1023000
3000
و خیلی چیزهای متحیرکنندهٔ دیگر که در اینجا در TED داریم درباره‌شان می‌شنویم.
17:24
Don't think, "Oh, we createdایجاد شده the Internetاینترنت for our ownخودت benefitسود."
376
1026000
4000
فکر نکنید، «وه! ما اینترنت را برای سودبخشی به خودمان ساختیم.»
17:28
That's how it seemsبه نظر می رسد to us.
377
1030000
2000
این گونه به نظر می‌رسد.
17:30
Think, temesتم ها spreadingگسترش دادن because they mustباید.
378
1032000
4000
اینطوری فکر کنید که تم‌ها دارند گسترش می‌یابند چون باید چنین شوند.
17:34
We are the oldقدیمی machinesماشین آلات.
379
1036000
2000
ما ماشین‌های قدیمی هستیم.
17:36
Now, are we going to pullکشیدن throughاز طریق?
380
1038000
2000
حال، آیا ما جان سالم به در خواهیم برد؟
17:38
What's going to happenبه وقوع پیوستن?
381
1040000
2000
چه خواهد شد؟
17:40
What does it mean to pullکشیدن throughاز طریق?
382
1042000
2000
اصلا جان سالم به در بردن یعنی چه؟
17:42
Well, there are kindنوع of two waysراه ها of pullingکشیدن throughاز طریق.
383
1044000
2000
خوب، به دو شکل می‌توان جان سالم به در برد.
17:45
One that is obviouslyبدیهی است happeningاتفاق می افتد all around us now,
384
1047000
2000
چیزی که آشکارا دارد دور و بر ما رخ می‌دهد،
17:47
is that the temesتم ها turnدور زدن us into temeتم ها machinesماشین آلات,
385
1049000
4000
این است که تم‌ها ما را تبدیل به ماشین‌های تم می‌کنند،
17:51
with these implantsایمپلنت, with the drugsمواد مخدر,
386
1053000
2000
با این ایمپلنت‌ها، با داروها،
17:53
with us mergingادغام with the technologyتکنولوژی.
387
1055000
3000
با مخلوط شدن ما با تکنولوژی. [سایبورگ]
17:56
And why would they do that?
388
1058000
2000
و چرا باید آنها چنین کنند؟
17:58
Because we are self-replicatingخود تکرار کننده.
389
1060000
2000
برای اینکه ما خود-کپی‌ساز هستیم.
18:00
We have babiesنوزادان.
390
1062000
2000
ما نوزاد داریم.
18:02
We make newجدید onesآنهایی که, and so it's convenientراحت to piggybackکمربندها on us,
391
1064000
3000
و نوزادهای جدید به وجود می‌آوریم، و بسیار آسان است که از ما کولی بگیرند،
18:05
because we're not yetهنوز at the stageمرحله on this planetسیاره
392
1067000
4000
چون هنوز به مرحله‌ای در این سیاره نرسیده‌ایم
18:09
where the other optionگزینه is viableقابل اعتماد.
393
1071000
2000
که راه دیگری ممکن باشد.
18:11
Althoughبا اينكه it's closerنزدیک تر, I heardشنیدم this morningصبح,
394
1073000
2000
گرچه نزدیکتر شده، امروز صبح شنیدم،
18:13
it's closerنزدیک تر than I thought it was.
395
1075000
2000
نزدیکتر از آنی است که گمان می‌کردم. به
18:15
Where the temeتم ها machinesماشین آلات themselvesخودشان will replicateتکثیر themselvesخودشان.
396
1077000
3000
زمانی که خود ماشین‌های تم خودشان را کپی خواهند کرد. [بدون دخالت ما]
18:18
That way, it wouldn'tنمی خواهم matterموضوع if the planet'sسیاره climateآب و هوا
397
1080000
4000
آنطوری، مهم نخواهد بود اگر آب و هوای سیاره
18:22
was utterlyکاملا destabilizedبی ثبات است,
398
1084000
2000
مطلقا بی‌ثبات شده باشد.
18:24
and it was no longerطولانی تر possibleامکان پذیر است for humansانسان to liveزنده here.
399
1086000
2000
و دیگر برای زندگی انسان‌ها ممکن نباشد.
18:26
Because those temeتم ها machinesماشین آلات, they wouldn'tنمی خواهم need --
400
1088000
2000
زیرا آن ماشین‌های تمی، لازم نخواهند داشت --
18:28
they're not squishyخجالتی, wetمرطوب, oxygen-breathingاکسیژن تنفس,
401
1090000
2000
آنها موجودات نرم و نازک، مرطوب، تنفس‌گر اکسیژن
18:30
warmth-requiringگرمای مورد نیاز creaturesموجودات.
402
1092000
3000
و نیازمند گرما نیستند.
18:33
They could carryحمل on withoutبدون us.
403
1095000
2000
آنها می‌توانند بدون ما ادامه دهند.
18:35
So, those are the two possibilitiesامکانات.
404
1097000
3000
بنابراین، آن دو گزینه‌های ممکن هستند.
18:38
The secondدومین, I don't think we're that closeبستن.
405
1100000
4000
دومی، من فکر نمی‌کنم خیلی نزدیک آن باشیم.
18:42
It's comingآینده, but we're not there yetهنوز.
406
1104000
2000
داره میاد، ولی هنوز به اونجا نرسیدیم.
18:44
The first, it's comingآینده too.
407
1106000
2000
اولی هم داره میاد.
18:46
But the damageخسارت that is alreadyقبلا beingبودن doneانجام شده
408
1108000
3000
ولی زیانی که از همین الان به سیاره می‌زند
18:49
to the planetسیاره is showingنشان دادن us how dangerousخطرناک است the thirdسوم pointنقطه is,
409
1111000
5000
نشانگر آن است که این نقطهٔ سوم چه میزان خطرناک است،
18:54
that thirdسوم dangerخطر pointنقطه, gettingگرفتن a thirdسوم replicatorتکرار کننده.
410
1116000
3000
در نقطهٔ خطر سوم، برای رسیدن به بازتولیدگر سوم.
18:58
And will we get throughاز طریق this thirdسوم dangerخطر pointنقطه,
411
1120000
2000
و آیا ما از سومین نقطهٔ خطر هم خواهیم گذشت،
19:00
like we got throughاز طریق the secondدومین and like we got throughاز طریق the first?
412
1122000
3000
مثل گذشتن از اولی و دومی؟
19:04
Maybe we will, maybe we won'tنخواهد بود.
413
1126000
2000
شاید بتوانیم، شاید هم نه.
19:06
I have no ideaاندیشه.
414
1128000
3000
من واقعا نمی‌دونم.
19:13
(Applauseتشویق و تمجید)
415
1135000
10000
(تشویق)
19:24
Chrisکریس Andersonاندرسون: That was an incredibleباور نکردنی talk.
416
1146000
2000
کریس اندرسون: این سخنرانی باورنکردنی بود.
19:26
SBSB: Thank you. I scaredترسیده myselfخودم.
417
1148000
2000
سوزان بلکمور: متشکرم. خودمو ترسوندم.
19:28
CACA: (Laughterخنده)
418
1150000
1000
کریس اندرسون:‌ خنده.
Translated by Bardia Azadandish
Reviewed by GordAfarid Razi

▲Back to top

ABOUT THE SPEAKER
Susan Blackmore - Memeticist
Susan Blackmore studies memes -- those self-replicating "life forms" that spread themselves via human consciousness. We're now headed, she believes, toward a new form of meme, spread by the technology we've created.

Why you should listen

Susan Blackmore is dedicated to understanding the scientific nature of consciousness. Her latest work centers on the existence of memes -- little bits of knowledge, lore, habit that seem to spread themselves using human brains as mere carriers. She's exploring the existence of a new class of meme, spread by human technology. It's temporarily named the "teme."

She has written about memes, consciousness, and near-death experiences; has appeared on the British Big Brother to discuss the psychology of the participants; and writes for the Guardian UK.

More profile about the speaker
Susan Blackmore | Speaker | TED.com