ABOUT THE SPEAKER
Ray Kurzweil - Inventor, futurist
Ray Kurzweil is an engineer who has radically advanced the fields of speech, text and audio technology. He's revered for his dizzying -- yet convincing -- writing on the advance of technology, the limits of biology and the future of the human species.

Why you should listen

Inventor, entrepreneur, visionary, Ray Kurzweil's accomplishments read as a startling series of firsts -- a litany of technological breakthroughs we've come to take for granted. Kurzweil invented the first optical character recognition (OCR) software for transforming the written word into data, the first print-to-speech software for the blind, the first text-to-speech synthesizer, and the first music synthesizer capable of recreating the grand piano and other orchestral instruments, and the first commercially marketed large-vocabulary speech recognition.

Yet his impact as a futurist and philosopher is no less significant. In his best-selling books, which include How to Create a Mind, The Age of Spiritual Machines, The Singularity Is Near: When Humans Transcend Biology, Kurzweil depicts in detail a portrait of the human condition over the next few decades, as accelerating technologies forever blur the line between human and machine.

In 2009, he unveiled Singularity University, an institution that aims to "assemble, educate and inspire leaders who strive to understand and facilitate the development of exponentially advancing technologies." He is a Director of Engineering at Google, where he heads up a team developing machine intelligence and natural language comprehension.

More profile about the speaker
Ray Kurzweil | Speaker | TED.com
TED2014

Ray Kurzweil: Get ready for hybrid thinking

Ray Kurzweil: ပေါင်းစပ် တွေးခေါ်မှုအတွက် အသင့်ရှိနေပါ

Filmed:
3,548,296 views

လွန်ခဲ့တဲ့ နှစ်ပေါင်း သန်းနှစ်ရာတုန်းက ကျွန်တော်တို့ရဲ့ နို့တိုက်သတ္တဝါ ဘီဘင်ဟာ ဦးနှောက်ဆိုင်ရာ လုပ်နိုင်စွမ်း အသစ်ဖြစ်တဲ့ neocortex ကို ဖန်တီးနိုင်ခဲ့ပါတယ်။ တံဆိပ်ခေါင်း အရွယ်ရှိခဲ့ကာ (သစ်ကြားစေ့ အရွယ် ဦးနှောက်ကို ရစ်ပတ်နေခဲ့တဲ့) အဲဒီအသားမျှင်ဟာ လူသားတို့ ပေါ်ပေါက် လာမှုရဲ့ သော့ချက်ပဲ ဖြစ်ခဲ့ပါတယ်။ အခုတော့ အနာဂတ်ပညာရှင် Ray Kurzweil က ဦးနှောက် စွမ်းပကားဆိုင်ရာ နောက်တစ်ခု ခုန်ပျံမှုအတွက်၊ မိုးတိမ်ရဲ့ တွက်ချက်နိုင်စွမ်းကို ရယူနိုင်ဖို့အတွက် အသင့်ရှိကြဖို့ တိုက်တွန်းထားပါတယ်။
- Inventor, futurist
Ray Kurzweil is an engineer who has radically advanced the fields of speech, text and audio technology. He's revered for his dizzying -- yet convincing -- writing on the advance of technology, the limits of biology and the future of the human species. Full bio

Double-click the English transcript below to play the video.

00:12
Let me tell you a story.
0
988
2316
ပုံပြင်တစ်ခုကို ပြောပါရစေ။
00:15
It goes back 200 million years.
1
3304
1799
လွန်ခဲ့တဲ့ နှစ်ပေါင်း သန်း ၂၀၀ ဆီကို သွားကြပါမယ်။
00:17
It's a story of the neocortex,
2
5103
1984
အဲဒါက neocortex အကြောင်းပါ၊
00:19
which means "new rind."
3
7087
1974
အဲဒါရဲ့ အဓိပ္ပါယ်က "အခေါက် အသစ်"လို့ ရပါတယ်။
00:21
So in these early mammals,
4
9061
2431
အဲဒီ သမိုင်းဦး နို့တိုက်သတ္တဝါတွေထဲမှာ၊
00:23
because only mammals have a neocortex,
5
11492
2055
ခုနက ပြောခဲ့တဲ့ neocortex အကောင်များကသာ
00:25
rodent-like creatures.
6
13547
1664
ကိုက်ဖြတ်သတ္တဝါတွေ ဖြစ်ခဲ့ကြပါတယ်။
00:27
It was the size of a postage stamp and just as thin,
7
15211
3579
၎င်းတို့ဟာ စာတိုက်တံဆိပ်ခေါင်း အရွယ်လောက်ရှိခဲ့ကာ
အတော့ကိုပါးခဲ့ကြပါတယ်၊
00:30
and was a thin covering around
8
18790
1439
ပြီးတော့ သစ်ကြားစေ့အရွယ်
သူတို့ဦးနှောက်ဟာ
00:32
their walnut-sized brain,
9
20229
2264
အမျှေးပါးဖြင့် ဖုံးအုပ်လျက် ရှိနေခဲ့တယ်၊
00:34
but it was capable of a new type of thinking.
10
22493
3701
အဲဒီအကောင်ဟာ ပုံစံသစ်ဖြင့်
တွေးခေါ်နိုင်စွမ်း ရှိခဲ့ပါတယ်။
00:38
Rather than the fixed behaviors
11
26194
1567
နို့မတိုက်ကြတဲ့ သတ္တဝါတွေဆီမှာလို
00:39
that non-mammalian animals have,
12
27761
1992
ပုံသေဖြစ်တဲ့ အပြုအမူများနဲ့မတူတဲ့
00:41
it could invent new behaviors.
13
29753
2692
ပြုမူပုံအသစ်တွေကို တီထွင်နိုင်ခဲ့ပါတယ်။
00:44
So a mouse is escaping a predator,
14
32445
2553
ဥပမာ ကြွက်တစ်ကောင်ရဲ့ နောက်မှာ
သားရဲကောင် လိုက်လာနေတယ်၊
00:46
its path is blocked,
15
34998
1540
သူ့လမ်းဟာ ပိတ်ဆို့ခံနေရတယ်ဆိုရင်
00:48
it'll try to invent a new solution.
16
36538
2129
၎င်းဟာ နည်းအသစ်ကို ရှာဖို့ ကြိုးစားမယ်။
00:50
That may work, it may not,
17
38667
1266
အဲဒါဟာ အောင်မြင်ချင်မှ အောင်မြင်မှာပါ၊
00:51
but if it does, it will remember that
18
39933
1910
ဒါပေမဲ့ အောင်မြင်ခဲ့ရင်
၎င်းဟာ အဲဒါကို မှတ်မိနေမှာပါ၊
00:53
and have a new behavior,
19
41843
1292
အဲဒီလိုနည်းဖြင့် ပြုမူပုံအသစ် ပေါ်လာမယ်၊
00:55
and that can actually spread virally
20
43135
1457
အဲဒါကို ၎င်းဟာ လက်တွေ့မှာ
00:56
through the rest of the community.
21
44592
2195
သူ့ရပ်ကွက်ထဲက သူတွေဆီကို
ဖြန့်ဝေပေးနိုင်မှာပါ။
00:58
Another mouse watching this could say,
22
46787
1609
အဲဒါကို စောင့်ကြည့်နေခဲ့တဲ့ အခြားကြွက်ကလည်း၊
01:00
"Hey, that was pretty clever, going around that rock,"
23
48396
2704
"တယ်ဟုတ်ပါလား၊ သူတော်တယ်၊
အဲဒီကျောက်ကို ကွေ့ပတ်သွားကြရအောင်" ဆိုပြီး
01:03
and it could adopt a new behavior as well.
24
51100
3725
သူကပါ ပြုမူပုံအသစ်ကို ကျင့်သုံးလာနိုင်ပါတယ်။
01:06
Non-mammalian animals
25
54825
1717
နို့မတိုက်ကြတဲ့ သတ္တဝါတွေဟာ
01:08
couldn't do any of those things.
26
56542
1713
အဲဒါမျိုးးကို လုံးဝမလုပ်ကိုင်တတ်ကြပါ။
01:10
They had fixed behaviors.
27
58255
1215
သူတို့ရဲ့ ပြုမူပုံဟာ ပုံသေသတ်မှတ်ပြီးသားပါ။
01:11
Now they could learn a new behavior
28
59470
1331
သူတို့ကပါ ပြုမူပုံအသစ် တစ်ခုကို
လေ့လာနိုင်ကြတာမှန်ပေမဲ့၊
01:12
but not in the course of one lifetime.
29
60801
2576
ဘဝ တစ်သက်တာ အတွင်းမှာ မဟုတ်ဘဲ
01:15
In the course of maybe a thousand lifetimes,
30
63377
1767
ထောင်ချီရှိမယ့် အသက်တာများအတွင်းမှာ
01:17
it could evolve a new fixed behavior.
31
65144
3330
ပြုမူပုံအသစ်ကိုသူတို့ရှာတွေ့ချင်
တွေ့လာကြမှာပါ။
01:20
That was perfectly okay 200 million years ago.
32
68474
3377
ကျွန်တော် ပြောပြခဲ့တာက လွန်ခဲ့တဲ့
နှစ်ပေါင်း သန်း ၂၀၀ တုန်းကပါ။
01:23
The environment changed very slowly.
33
71851
1981
ပတ်ဝန်းကျင်ဟာ တဖြည်းဖြည်းချင်း
ပြောင်းလဲလာခဲ့ပါတယ်။
01:25
It could take 10,000 years for there to be
34
73832
1554
ပတ်ဝန်းကျင်ထဲမှာ ထင်ရှားသိသာတဲ့
အပြောင်းအလဲ တစ်ခုဖြစ်လာဖို့အတွက်
01:27
a significant environmental change,
35
75386
2092
နှစ်ပေါင်း ၁၀၀၀၀ ကြာချင်ကြာနိုင်ခဲ့ပါတယ်။
01:29
and during that period of time
36
77478
1382
အဲဒီလို ကာလအတော်အတွင်းမှာ
01:30
it would evolve a new behavior.
37
78860
2929
ပြုမူပုံ အသစ်ဆိုတာ
ပေါ်ပေါက်ချင် ပေါ်လာခဲ့မှာပါ။
01:33
Now that went along fine,
38
81789
1521
အဲဒီလိုနည်းဖြင့် နေထိုင်လာခဲ့ကြရာကနေပြီး
01:35
but then something happened.
39
83310
1704
တစ်စုံတစ်ခု ဖြစ်ပျက်သွားခဲ့ပါတယ်။
01:37
Sixty-five million years ago,
40
85014
2246
လွန်ခဲ့တဲ့ နှစ်ပေါင်း ၆၅ သန်းတုန်းက
01:39
there was a sudden, violent
change to the environment.
41
87260
2615
ပတ်ဝန်းကျင်ထဲတွင် ရုတ်ခနဲ
ပြင်းထန်တဲ့ အပြောင်းအလဲကြီး ဖြစ်လာခဲ့တယ်။
01:41
We call it the Cretaceous extinction event.
42
89875
3505
အဲဒါကို Cretaceous မျိုးသုဉ်းမှုလို့ ခေါ်ပါတယ်။
01:45
That's when the dinosaurs went extinct,
43
93380
2293
ဒိုင်နောဆော အကောင်တွေ မျိုးသုဉ်းသွားတဲ့
အချိန်ကာလပါ၊
01:47
that's when 75 percent of the
44
95673
3449
တိရိစ္ဆာန် နဲ့ အပင်တွေထဲက ၇၅ ရာခိုင်နှုန်း
01:51
animal and plant species went extinct,
45
99122
2746
ပျောက်ကွယ်သွားခဲ့ကြပါတယ်၊
01:53
and that's when mammals
46
101868
1745
အဲဒီတုန်းကမှ နို့တိုက်သတ္တဝါတွေဟာ
01:55
overtook their ecological niche,
47
103613
2152
ပတ်ဝန်းကျင်ထဲမှာ လွှမ်းမိုးလာနိုင်ခဲ့ကာ
01:57
and to anthropomorphize, biological evolution said,
48
105765
3654
ဇီ၀ဆင့်ကဲဖြစ်ပျက်မှုကို လူသားပုံစံကို
သွင်းလာနိုင်ခဲ့ပါတယ်၊
02:01
"Hmm, this neocortex is pretty good stuff,"
49
109419
2025
"အင်း၊ neocortex ကောင်တွေဟာ
သိပ်ကို တော်ခဲ့ကြပါကလား"
02:03
and it began to grow it.
50
111444
1793
ပြောစရာ ဖြစ်လာပြီး
ဆက်လက်ဖွံဖြိုးကြီးထွားခဲ့တာပါ။
02:05
And mammals got bigger,
51
113237
1342
နို့တိုက်သတ္တဝါတွေဟာ
ပိုပိုကြီးထွားလာခဲ့ကြပါတယ်၊
02:06
their brains got bigger at an even faster pace,
52
114579
2915
သူတို့ရဲ့ ဦးနှောက်များကျတော့
ပိုလို့ကို လျင်မြန်စွာ ကြီးလာခဲ့ပါတယ်၊
02:09
and the neocortex got bigger even faster than that
53
117494
3807
ကျွန်တော်တို့ ပြောလာခဲ့ကြတဲ့ neocortex ဆိုရင်
ပိုလို့ကို လျင်မြန်စွာ ကြီးလာခဲ့ပြီး
02:13
and developed these distinctive ridges and folds
54
121301
2929
အထင်အရှားမြင်နိုင်တဲ့
အတွန့်များ နဲ့ အခေါက်များ ဖွံ့ဖြိုးလာခဲ့ပါတယ်
02:16
basically to increase its surface area.
55
124230
2881
အဓိကအားဖြင့် ၎င်းတို့ရဲ့
မျက်နှာပြင် ဧရိယာကို တိုးချဲ့ရန် ဖြစ်ခဲ့တယ်။
02:19
If you took the human neocortex
56
127111
1819
ကျွန်တော်တို့ဟာ လူသားရဲ့ neocortex ကို
ယူကြည့်လျက်
02:20
and stretched it out,
57
128930
1301
ဆွဲဆန့်လိုက်ကြမယ်ဆိုရင်၊
02:22
it's about the size of a table napkin,
58
130231
1713
အဲဒါဟာ စားပွဲခင်း တစ်ခုစာလောက်
ရှိပါလိမ့်မယ်။
02:23
and it's still a thin structure.
59
131944
1306
ဒါပေမဲ့၊ ပါးချပ်တဲ့ပုံစံ ရှိနေတုန်းပါ။
02:25
It's about the thickness of a table napkin.
60
133250
1980
၎င်းရဲ့ အထူဟာလည်း စားပွဲခင်း အတိုင်းပါပဲ။
02:27
But it has so many convolutions and ridges
61
135230
2497
တစ်ချိန်တည်းမှာ ၎င်းထဲမှာ အတွန့်အလိမ့်တွေ
တော်တော့ကို များပါတယ်၊
02:29
it's now 80 percent of our brain,
62
137727
3075
အခုဆိုရင် ၎င်းတို့ဟာ
ဦးနှောက်ရဲ့ ၈၀ ရာခိုင်နှုန်း ရှိကြပါတယ်၊
02:32
and that's where we do our thinking,
63
140802
2461
ကျွန်တော်တို့ စဉ်းစားတွေးခေါ်ကြတဲ့
နေရာတွေပါပဲ၊
02:35
and it's the great sublimator.
64
143263
1761
ပြီးတော့ ၎င်းတို့ဟာ သိပ်ကို သိမ့်မွေ့ကြပါတယ်။
02:37
We still have that old brain
65
145024
1114
ကျွန်တော်တို့ဆီမှာ ကျွန်တော်တို့ရဲ့
အခြေခံအကျဆုံး
02:38
that provides our basic drives and motivations,
66
146138
2764
လှုပ်ရှားမှုများ နဲ့ လိုအင်များကို စီမံပေးတဲ့
ဦးနှောက်ဟောင်း ရှိနေတုန်းပါ၊
02:40
but I may have a drive for conquest,
67
148902
2716
ဒါပေမဲ့၊ ကျွန်တော်ဟာ
တစ်ခုခုကို ရယူအောင်မြင်ချင်ရင်တော့၊
02:43
and that'll be sublimated by the neocortex
68
151618
2715
neocortex ကမှ အဲဒါကို လှုံ့ဆော်ပေးနိုင်ပါတယ်၊
02:46
into writing a poem or inventing an app
69
154333
2909
ကဗျာရေးမယ်၊ ဒါမှမဟုတ်
app တစ်ခုခုကို ထွင်မယ်၊
02:49
or giving a TED Talk,
70
157242
1509
ဒါမှမဟုတ် TED Talk မှာလာပြီး
ဟောပြောချင်မယ်ဆိုရင်၊
02:50
and it's really the neocortex that's where
71
158751
3622
တကယ် လှုံ့ဆော်တိုက်တွန်းပေးတာက
02:54
the action is.
72
162373
1968
neocortex ပဲဖြစ်ပါတယ်။
02:56
Fifty years ago, I wrote a paper
73
164341
1717
လွန်ခဲ့တဲ့ နှစ်ငါးဆယ်တုန်းက ကျွန်တော်ဟာ
စာတမ်းတစ်စောင်ကို ရေးခဲ့ပါတယ်
02:58
describing how I thought the brain worked,
74
166058
1918
ဦးနှောက် အလုပ်လုပ်ပုံဆိုင်ရာ
ကျွန်တော်ရဲ့ ထင်မြင်ချက်ကို ရေးသားခဲ့တာပါ၊
02:59
and I described it as a series of modules.
75
167976
3199
အဲဒါကို ကျွန်တော်ဟာ မော်ဂျူး တသီကြီးဖြင့်
ဖေါ်ပြခဲ့ပါတယ်။
03:03
Each module could do things with a pattern.
76
171175
2128
မော်ဂျူးတိုင်းဟာ အရာတွေကို
ပုံစံတစ်စုံတစ်ခုအတိုင်း လုပ်ပေးခဲ့တယ်။
03:05
It could learn a pattern. It could remember a pattern.
77
173303
2746
၎င်းဟာ ပုံစံတစ်ခုကို သင်ယူနိုင်ခဲ့တယ်။
ပုံစံကို မှတ်မိနိုင်ခဲ့တယ်။
03:08
It could implement a pattern.
78
176049
1407
ပြီးတော့ ပုံစံတစ်ခုကို အသုံးပြုနိုင်ခဲ့တယ်။
03:09
And these modules were organized in hierarchies,
79
177456
2679
ပြီးတော့ အဲဒီမော်ဂျူးတွေကို
ကြီးစဉ်ငယ်လိုက် စီစဉ်ထားတာပါ၊
03:12
and we created that hierarchy with our own thinking.
80
180135
2954
ကျွန်တော်တို့ဟာ အဲဒီဝါစဉ်ကို
မိမိတို့စိတ်ကူးအတိုင်း ဖန်တီးခဲ့ကြပါတယ်။
03:15
And there was actually very little to go on
81
183089
3333
ပြီးတော့ လွန်ခဲ့တဲ့ နှစ် ၅၀ တုန်းက
03:18
50 years ago.
82
186422
1562
လုပ်လို့ ရနိုင်ခဲ့တာ သိပ်မများခဲ့ပါဘူး။
03:19
It led me to meet President Johnson.
83
187984
2115
အဲဒီအလုပ်ကြောင့် ကျွန်တော်ဟာ
သမ္မတ Johnson နဲ့ တွေ့ဆုံခဲ့ပါတယ်။
03:22
I've been thinking about this for 50 years,
84
190099
2173
ကျွန်တော်ဟာ အဲဒီအကြောင်းကို
လွန်ခဲ့တဲ့ နှစ် ၅၀ စလုံးမှာ
03:24
and a year and a half ago I came out with the book
85
192272
2828
စဉ်းစားလာခဲ့ရာ လွန်ခဲ့တဲ့ တစ်နှစ်ခွဲတုန်းက
03:27
"How To Create A Mind,"
86
195100
1265
"How To Create A Mind" ဆိုတဲ့ စာအုပ်ကို
ထုတ်ဝေဖြစ်ခဲ့ပါတယ်၊
03:28
which has the same thesis,
87
196365
1613
ခုကပြောခဲ့တဲ့ ယူဆချက်ကိုပဲ
အခြေခံထားခဲ့ပေမဲ့
03:29
but now there's a plethora of evidence.
88
197978
2812
အခုတော့ တင်ပြစရာ အထောက်အထားတွေ
လိုတာထက်ကို ပိုများပါတယ်။
03:32
The amount of data we're getting about the brain
89
200790
1814
အာရုံကြောဆိုင်ရာ သိပ္ပံပညာထံမှနေပြီး
ရရှိလာနေတဲ့ အချက်အလက် ပမာဏဟာ
03:34
from neuroscience is doubling every year.
90
202604
2203
တစ်နှစ်တစ်ခြား နှစ်ဆများများလာနေပါတယ်။
03:36
Spatial resolution of brainscanning of all types
91
204807
2654
ဦးနှောက်ကို စကင်လုပ် စစ်ဆေးမှုရဲ့
ပြတ်သားမှုဟာလည်း
03:39
is doubling every year.
92
207461
2285
နှစ်တိုင်းမှာ နှစ်ဆပိုမြင့်မားလာနေပါတယ်။
03:41
We can now see inside a living brain
93
209746
1717
အခုဆိုရင် ကျွန်တော်တို့ဟာ အသက်ရှင်
အလုပ်လုပ်နေတဲ့ ဦးနှောက်ထဲကို ဝင်ကြည့်နိုင်ပါပြီ
03:43
and see individual interneural connections
94
211463
2870
နာဗ်ကြောတွေတစ်ခုနဲ့တစ်ခု
ချိတ်ဆက်နေကြပုံကို ကြည့်နိုင်ပါပြီ
03:46
connecting in real time, firing in real time.
95
214333
2703
အချိန်နဲ့တပြေးညီ ချိတ်ဆက်ကာ
လိုတာကို အချိန်နဲ့တပြေးညီ ပစ်စမ်းကြည့်နိုင်ပါပြီ။
03:49
We can see your brain create your thoughts.
96
217036
2419
ခင်ဗျားတို့ရဲ့ ဦးနှောက်ထဲမှာ အတွေးအခေါ်များ
ပေါ်ပေါက်လာတာကို မြင်လို့ရနိုင်ပါပြီ။
03:51
We can see your thoughts create your brain,
97
219455
1575
တစ်ချိန်တည်းမှာ ခင်ဗျားတို့ရဲ့ အတွေးအခေါ်များက
ဦးနှောက်ကို ဖန်တီးနေတာကို မြင်လို့ရပြီ၊
03:53
which is really key to how it works.
98
221030
1999
အဲဒါက ဦးနှောက် အလုပ်လုပ်ပုံရဲ့ သော့ချက်ပါပဲ။
03:55
So let me describe briefly how it works.
99
223029
2219
အခုတော့ ဦးနှောက် အလုပ်လုပ်ပုံကို
အကျဉ်းချုပ် ပြောပြပါရစေ။
03:57
I've actually counted these modules.
100
225248
2275
ကျွန်တော်ဟာ ခုနက မော်ဂျူးတွေကို
တစ်ခုချင်း ရေတွက်ကြည့်ခဲ့ပါတယ်။
03:59
We have about 300 million of them,
101
227523
2046
စုစုပေါင်း အဲဒါတွေဟာ
သန်းပေါင်း ၃၀၀ ခန့်ရှိတယ်၊
04:01
and we create them in these hierarchies.
102
229569
2229
ပြီးတော့ ကျွန်တော်တို့ဟာ
၎င်းတို့ကို ကြီးစဉ်ငယ်လိုက် စီစဉ်ထားပါတယ်။
04:03
I'll give you a simple example.
103
231798
2082
ရိုးရှင်းတဲ့ ဥပမာ တစ်ခုဖြင့် ပြပေးပါမယ်။
04:05
I've got a bunch of modules
104
233880
2805
ဒီမှာဆိုရင် မော်ဂျူး အတွဲတစ်ခု ရှိပါတယ်၊
04:08
that can recognize the crossbar to a capital A,
105
236685
3403
ညွှန်မြားက စာလုံးကြီး A ဆီကိုရောက်ရင်
သိမှတ်ရန်အတွက် ဖြစ်ပါတယ်၊
04:12
and that's all they care about.
106
240088
1914
သူတို့ရဲ့ အဓိကအလုပ်က အဲဒါပါပဲ။
04:14
A beautiful song can play,
107
242002
1578
လှပတဲ့ သီချင်းကို ကြားနိုင်ရပါတယ်၊
04:15
a pretty girl could walk by,
108
243580
1434
လှတဲ့ ကောင်မလေး
ဘေးက ဖြတ်သွားချင် ဖြတ်သွားမှာပါ၊
04:17
they don't care, but they see
a crossbar to a capital A,
109
245014
2846
သူတို့ဟာ ဘာကိုမှ ဂရိုစိုက်မှာ မဟုတ်ပါ၊
ဒါပေမဲ့ စာလုံးကြီး A ပေါ်လာရင်တော့
04:19
they get very excited and they say "crossbar,"
110
247860
3021
သူတို့က သိပ်ကို တက်ကြွလာလျက်
ညွှန်မြား ဆိုပြီး ဟစ်ကြမယ်၊
04:22
and they put out a high probability
111
250881
2112
ပြီးတော့ သူတို့လိုချင်တဲ့ ရလဒ်မျိုးရဖို့
04:24
on their output axon.
112
252993
1634
စောင့်ကြည့်နေမှာပါ။
04:26
That goes to the next level,
113
254627
1333
အဲဒီနောက်မှာ နောက်တစ်ဆင့်ကို သွားကြမယ်၊
04:27
and these layers are organized in conceptual levels.
114
255960
2750
အဲဒီအဆင့်လွှာတွေကို ခံယူချက်
အဆင့်များအဖြစ် စုစည်းထားပါတယ်။
တစ်ဆင့်စီစာ နောက်တစ်ခုထက်ကို
ပိုပြီး စိတ်ကူးယဉ်ဆန်ပါတယ်၊
04:30
Each is more abstract than the next one,
115
258710
1856
အဲဒါကြောင့်မို့လို့ နောက်တစ်ဆင့်မှာဆိုရင်
"စာလုံးကြီး A"လို့ ဖေါ်ပြနိုင်တယ်။
04:32
so the next one might say "capital A."
116
260566
2418
04:34
That goes up to a higher
level that might say "Apple."
117
262984
2891
အဲဒီနောက် ပိုမြင့်တဲ့အဆင့်ဆီကို
တက်သွားလျက် "Apple"လို့ ဆိုနိုင်ပါတယ်။
04:37
Information flows down also.
118
265875
2167
အချက်အလက်တွေဟာ
အောက်ဘက်ကိုလည်း စီးဆင်းပါတယ်။
04:40
If the apple recognizer has seen A-P-P-L,
119
268042
2936
တကယ်လို့ ပန်းသီးကို သိမှတ်လိုလို့
A-P-P-L ကို မြင်နေပြီဆိုရင်၊
04:42
it'll think to itself, "Hmm, I
think an E is probably likely,"
120
270978
3219
၎င်းက၊ "အင်း၊ ရှေ့ဆက်ပြီး E တစ်ခုပေါ်လာဖို့
အလားအလာများတယ်"လို့ ဆိုပါလိမ့်မယ်။
04:46
and it'll send a signal down to all the E recognizers
121
274197
2564
အဲဒါကြောင့်မို့လို့ ၎င်းဟာ အောက်ဘက်ဆီကို
စာလုံး E ကို သိမှတ်လိုကြသူတို့ထံ အချက်ပို့လိုက်ကာ
04:48
saying, "Be on the lookout for an E,
122
276761
1619
"E တစ်လုံးကို စောင့်ကြည့်နေပါ၊
04:50
I think one might be coming."
123
278380
1556
တစ်လုံး လာတော့မယ် ထင်တယ်"လို့ ဆိုနိုင်တယ်။
04:51
The E recognizers will lower their threshold
124
279936
2843
E ကို သိမှတ်သူများဟာ သူတို့ရဲ့
အဆင့်ကို နှိမ့်ချလိုက်ကာ
04:54
and they see some sloppy
thing, could be an E.
125
282779
1945
E ဖြစ်လာနိုင်ခြေရှိတဲ့
တစ်ချို့အရာများကို မြင်နိုင်ကြတယ်။
04:56
Ordinarily you wouldn't think so,
126
284724
1490
သာမန်အားဖြင့် ကျွန်တော်တို့ဟာ
အဲဒီလို စဉ်းစားကြမှာ မဟုတ်ပေမဲ့၊
04:58
but we're expecting an E, it's good enough,
127
286214
2009
အခုတော့ E တစ်လုံးကို စောင့်မျှော်ကြမယ်
ဆိုတော့ အတော်ကလေး ကောင်းပါမယ်၊
05:00
and yeah, I've seen an E, and then apple says,
128
288223
1817
အဲဒီနောက်မှာ E တစ်လုံးကို မြင်လိုက်ရရင်
05:02
"Yeah, I've seen an Apple."
129
290040
1728
"ဟုတ်ပြီ၊ ကျွန်တော် Apple ကို မြင်ရပြီ"
လို့ ဆိုနိုင်ပါပြီ။
05:03
Go up another five levels,
130
291768
1746
ဆက်ပြီး အထက်ကို အဆင့်ငါးဆင့် တက်ကြရအောင်
05:05
and you're now at a pretty high level
131
293514
1353
အခုတော့ အဆင့်ဟာ အတော့်ကို မြင့်လာပါပြီ၊
05:06
of this hierarchy,
132
294867
1569
လက်ရှိ ဝါစဉ် အရပေါ့လေ။
05:08
and stretch down into the different senses,
133
296436
2353
ပြီးတော့ နယ်ပယ်အသီးသီးဆီကို
ဆွဲဆန့်ကြည့်နိုင်ပါတယ်၊
05:10
and you may have a module
that sees a certain fabric,
134
298789
2655
ကျွန်တော်တို့ဟာ အထူးဖြစ်တဲ့
အမျှင်ကို မြင်နိုင်တဲ့ မော်ဂျူး ရှိနိုင်ပါတယ်၊
05:13
hears a certain voice quality,
smells a certain perfume,
135
301444
2844
ရှာလိုတဲ့ အသံအမျိုးအစားကို၊
လိုချင်တဲ့ အနံ့မျိုးကို ဖေါ်ထုတ်နိုင်ကာ
05:16
and will say, "My wife has entered the room."
136
304288
2513
"ကျွန်တော့ဇနီး အခန်းထဲ ဝင်လာပြီ"
လို့ ပြောနိုင်တယ်။
05:18
Go up another 10 levels, and now you're at
137
306801
1895
နောက်ထပ် အဆင့် ၁၀ ဆီကို သွားမယ်ဆိုရင်၊
05:20
a very high level.
138
308696
1160
ကျွန်တော်ရဲ့ အဆင့်ဟာ သိပ်ကို မြင့်လာပါပြီ။
05:21
You're probably in the frontal cortex,
139
309856
1937
ကျွန်တော်တို့ဟာ ဦးနှောက်ရဲ့ ရှေ့ပိုင်းလွှာကို
ရောက်သွားနိုင်ပါတယ်၊
05:23
and you'll have modules that say, "That was ironic.
140
311793
3767
ကျွန်တော်တို့ဆီမှာ၊ "ဟ၊ ရွဲ့တဲ့တဲ့ကြီးပါလား။
05:27
That's funny. She's pretty."
141
315560
2370
ရယ်စရာကောင်းလိုက်တာ။ သူဟာလှလိုက်တာ"လို့
ပြောမယ့် မော်ဂျူးလည်း ရှိနိုင်တယ်။
05:29
You might think that those are more sophisticated,
142
317930
2105
အဲဒါတွေဟာ ပိုလို့ကို ရှုပ်ထွေးလိုက်တာလို့
ခင်ဗျားတို့ ထင်နိုင်ကြပါတယ်၊
05:32
but actually what's more complicated
143
320035
1506
ဒါပေမဲ့ တကယ့်ကို ရှုပ်ထွေးတာက
05:33
is the hierarchy beneath them.
144
321541
2669
၎င်းတို့ရဲ့ အောက်ခြေမှာ ရှိတဲ့ ဝါစဉ်ပါပဲ။
05:36
There was a 16-year-old girl, she had brain surgery,
145
324210
2620
တချိန်တုန်းက ၁၆ နှစ်ရွယ် ကလေးမလေးကို
ဦးနှောက် ခွဲစိတ်မှု လုပ်နေခဲ့တယ်၊
05:38
and she was conscious because the surgeons
146
326830
2051
ဆရာ၀န်တွေက သူနဲ့ စကားပြောလိုခဲ့ကြလို့
05:40
wanted to talk to her.
147
328881
1537
သူဟာ သတိရလျက် ရှိနေခဲ့တယ်။
05:42
You can do that because there's no pain receptors
148
330418
1822
ဦးနှောက်ထဲမှာ နာကျင်မှုကို
ခံစားနိုင်တာ ဘာတစ်ခုမှ မရှိလို့
05:44
in the brain.
149
332240
1038
အဲဒီလို လုပ်နိုင်ပါတယ်။
05:45
And whenever they stimulated particular,
150
333278
1800
ကျွန်တော်တို့ ဒီမှာ အနီရောင်နဲ့
မြင်ရတဲ့ ဦးနှောက်ရဲ့ ရှေ့ပိုင်း နေရာလေးကိုမှ
05:47
very small points on her neocortex,
151
335078
2463
ဆရာဝန်တွေက ဆွပေးတဲ့ အခါတိုင်းမှာ
05:49
shown here in red, she would laugh.
152
337541
2665
ကလေးမလေးဟာ ရယ်နေခဲ့ပါတယ်။
05:52
So at first they thought they were triggering
153
340206
1440
အဲဒါနဲ့ သူတို့ဟာ ရယ်မောမှုကို
တုံ့ပြန်တဲ့ နေရာပဲလို့
05:53
some kind of laugh reflex,
154
341646
1720
သူတို့ ထင်ခဲ့ကြပါတယ်၊
05:55
but no, they quickly realized they had found
155
343366
2519
ဒါပေမဲ့၊ မကြာမီမှာပဲ သူတို့ နားလည်လိုက်ကြတာက
05:57
the points in her neocortex that detect humor,
156
345885
3044
ဦးနှောက်လွှာထဲက သူတို့တွေ့လိုက်တဲ့
နေရာဟာ ဟာသနဲ့ သက်ဆိုင်နေခဲ့တယ်၊
06:00
and she just found everything hilarious
157
348929
1969
သူတို့က အဲဒီနေရာလေးတွေကို ဆွပေးတိုင်းမှာ
06:02
whenever they stimulated these points.
158
350898
2437
သူမအတွက် အရာတိုင်းဟာ
ရယ်စရာ ကောင်းနေခဲ့တယ်။
06:05
"You guys are so funny just standing around,"
159
353335
1925
"ရှင်တို့ ဒီမှာ ရပ်နေကြတာ
ရယ်စရာ ကောင်းလိုက်တာ"
06:07
was the typical comment,
160
355260
1738
သူမက ဆိုလေ့ရှိခဲ့တယ်၊
06:08
and they weren't funny,
161
356998
2302
တကယ်တမ်းမှာ ဆရာဝန်တွေဟာ
06:11
not while doing surgery.
162
359300
3247
ခွဲစိတ်စမ်းသပ်နေကြလို့
လုံးဝကို ရယ်စရာ မဟုတ်ခဲ့ကြပါ။
06:14
So how are we doing today?
163
362547
4830
ကောင်းပြီ၊ ကျွန်တော်တို့ရဲ့ ဒီနေ့
အခြေအနေကကော လို့ မေးနိုင်ကြပါတယ်။
06:19
Well, computers are actually beginning to master
164
367377
3054
ကွန်ပျူတာတွေဟာ လူသား ဘာသာစကားကို
06:22
human language with techniques
165
370431
2001
ခုနက ဦးနှောက် အလွှာပါးနဲ့ ဆင်တူတဲ့
06:24
that are similar to the neocortex.
166
372432
2867
နည်းပညာများဖြင့် စီမံဆောင်ရွက်နေကြပါပြီ။
06:27
I actually described the algorithm,
167
375299
1514
ကျွန်တော် ပြောပြခဲ့တဲ့ အယ်လဂိုရီသမ်ဟာ
06:28
which is similar to something called
168
376813
2054
တကယ်တမ်းတွင် ဝါစဉ်လာ ဝှက်ထားတဲ့
Markov ပုံစံလို့ ခေါ်လေ့ရှိကြတာနဲ့
06:30
a hierarchical hidden Markov model,
169
378867
2233
အတော့်ကို ဆင်တူပါတယ်၊
06:33
something I've worked on since the '90s.
170
381100
3241
လွန်ခဲ့တဲ့ ၉၀ ပြည့်နှစ်များကတည်းက
ကျွန်တော် လုပ်ကိုင်လာခဲ့တဲ့ အရာပါ။
06:36
"Jeopardy" is a very broad natural language game,
171
384341
3238
"Jeopardy" ဆိုရင် ကျယ်ပြန့်တဲ့
သဘာဝ ဘာသာစကား ဂိမ်းပါ၊
06:39
and Watson got a higher score
172
387579
1892
Watson ကျတော့ ပိုပြီး အဆင့်မြင့်ပါတယ်၊
06:41
than the best two players combined.
173
389471
2000
အတော်ဆုံးကစားသူ
နှစ်ယောက်ပေါင်းထက်ကို ပိုမြင့်ပါတယ်။
06:43
It got this query correct:
174
391471
2499
၎င်းဟာ ဒီလို မေးမြန်းမှုကို
မှန်ကန်စွာ ဖြေနိုင်ခဲ့တယ်၊
06:45
"A long, tiresome speech
175
393970
2085
"A long, tiresome speech
06:48
delivered by a frothy pie topping,"
176
396055
2152
delivered by a frothy pie topping" ဆိုလိုက်တာကို
06:50
and it quickly responded,
"What is a meringue harangue?"
177
398207
2796
၎င်းက လျင်မြန်စွာဖြင့်
"What is a meringue harangue?"လို့ဖြေလိုက်တယ်။
06:53
And Jennings and the other guy didn't get that.
178
401003
2635
Jennings နဲ့ တခြားလူတွေ အဲဒါကို
မလုပ်နိုင်ခဲ့ကြပါ။
06:55
It's a pretty sophisticated example of
179
403638
1926
အဲဒါဟာ ကွန်ပျူတာတွေက
လူသားရဲ့ ဘာသာစကားကို
06:57
computers actually understanding human language,
180
405564
1914
လက်တွေ့ နားလည်လာကြပုံ အတော့်ကို
သိမ်မွေ့တဲ့ ဥပမာ တစ်ခုပါ၊
06:59
and it actually got its knowledge by reading
181
407478
1652
ပြီးတော့ ၎င်းဟာ ၎င်းရဲ့ အသိပညာတွေကို
07:01
Wikipedia and several other encyclopedias.
182
409130
3785
Wikipedia နဲ့ များပြားလှတဲ့ စွယ်စုံကျမ်းတွေကို
ဖတ်ခြင်းဖြင့် ရယူခဲ့တာပါ။
07:04
Five to 10 years from now,
183
412915
2133
ဒီနေ့မှစလို့ ၁၀ နှစ်ကြာလာတဲ့ အခါမှာ၊
07:07
search engines will actually be based on
184
415048
2184
ရှာဖွေရေး အင်ဂျင်တွေဟာ၊ လက်တွေ့မှာ
07:09
not just looking for combinations of words and links
185
417232
2794
စာလုံးတွေနဲ့ လင့်တွေရဲ့ ဆက်စပ်ချိတ်ဆက်မှုကို
ကြည့်ရုံသက်သက်ဖြင့် မဟုတ်တော့ဘဲ
07:12
but actually understanding,
186
420026
1914
တကယ့်ကို သိရှိနားလည်လာကြလို့၊
07:13
reading for understanding the billions of pages
187
421940
2411
ဝက်ဘ် ပေါ်မှာ နဲ့ စာအုပ်တွေထဲက
စာမျက်နှာ ကုဍေကုဍာချီကို ဖတ်လျက်
07:16
on the web and in books.
188
424351
2733
သိရှိနားလည်လာကြမှာပါ။
07:19
So you'll be walking along, and Google will pop up
189
427084
2616
အဲဒါကြောင့်မို့လို့ ခင်ဗျားတို့
လမ်းလျှောက်သွားနေတုန်းမှာ
07:21
and say, "You know, Mary, you expressed concern
190
429700
3081
"Mary ခင်ဗျာ၊ လွန်ခဲ့တဲ့ တစ်လတုန်းက
07:24
to me a month ago that your glutathione supplement
191
432781
3019
ရှင်ရဲ့ glutathione ဖြည့်စာကိစ္စနဲ့ ပတ်သက်ပြီး
စိုးရိမ်ချက်ကို ထုတ်ပြောခဲ့တာ မှတ်မိလား၊
07:27
wasn't getting past the blood-brain barrier.
192
435800
2231
အဲဒါက သွေး-ဦးနှောက် အတားအဆီးကို
ဖြတ်​မကျော်နိုင်ခဲ့တဲ့ ပြဿနာ မှတ်မိလား။
07:30
Well, new research just came out 13 seconds ago
193
438031
2593
ကောင်းပြီ၊ သုတေသန ရလဒ်အသစ်တစ်ခု
လွန်ခဲ့တဲ့ ၁၃ စက္ကန့်တုန်းက ထွက်လာပြီ
07:32
that shows a whole new approach to that
194
440624
1711
glutathione ကို သောက်သုံးမှုဆိုင်ရာ
လုံးဝကို အသစ်ဖြစ်တဲ့
07:34
and a new way to take glutathione.
195
442335
1993
ချဉ်းကပ်မှုအကြောင်း ပါရှိပါတယ်။
07:36
Let me summarize it for you."
196
444328
2562
အဲဒါကို ရှင့်အတွက် အကျဉ်းချုံးပြီး ရှင်းပြပါရစေ။"
ပြောလာလာနိုင်ပါတယ်။
07:38
Twenty years from now, we'll have nanobots,
197
446890
3684
တဖန်၊ ဒီနေ့ကနေပြီး အနှစ်နှစ်ဆယ် ကြာလာရင်
nanobot တွေ ပေါ်လာကြပါမယ်၊
07:42
because another exponential trend
198
450574
1627
ဒီနေ့ မြင်နေရတဲ့ နောက်ဦးတည်ချက် တစ်ခုက
07:44
is the shrinking of technology.
199
452201
1615
နည်းပညာတွေကို ချုံ့ပစ်မှု ဖြစ်နေလို့ပါပဲ။
07:45
They'll go into our brain
200
453816
2370
၎င်းတို့ဟာ ကျွန်တော်တို့ရဲ့ ဦးနှောက်ထဲကို
ရောက်သွားကြမှာပါ၊
07:48
through the capillaries
201
456186
1703
သွေးကြောမျှင်တွေမှ တစ်ဆင့်
07:49
and basically connect our neocortex
202
457889
2477
ကျွန်တော်တို့ရဲ့ neocortex ကို
07:52
to a synthetic neocortex in the cloud
203
460366
3185
မိုးတိမ်ထဲက neocortex အတုနဲ့
ချိတ်ဆက်ပေးဖို့အတွက်ပါ
07:55
providing an extension of our neocortex.
204
463551
3591
အဲဒါက ကျွန်တော်တို့ရဲ့ neocortex တွေကို
တိုးချဲ့ပေးမှုပဲ ဖြစ်ပါလိမ့်မယ်။
07:59
Now today, I mean,
205
467142
1578
ဒီနေ့မှာ ကျွန်တော်တို့ရဲ့
08:00
you have a computer in your phone,
206
468720
1530
ဖုန်းတွေထဲမှာ ကွန်ပျူတာ ပါလာနေပါပြီ၊
08:02
but if you need 10,000 computers for a few seconds
207
470250
2754
ဒီတော့ ကျွန်တော်တို့က စက္ကန့်အနည်းငယ်ကြာ
သိပ်ကို ရှုပ်ထွေးလှတဲ့ တွက်ချက်မှုများအတွက်
08:05
to do a complex search,
208
473004
1495
ကွန်ပျူတာ အလုံး ၁၀၀၀၀ လိုအပ်လာခဲ့ရင်
08:06
you can access that for a second or two in the cloud.
209
474499
3396
ခင်ဗျားတို့ဟာ တစ်-နှစ် စက္ကန့်ကြာ
မိုးတိမ်မှတစ်ဆင့် ရယူသုံးနိုင်လာပါမယ်။
08:09
In the 2030s, if you need some extra neocortex,
210
477895
3095
2030 ပြည့်နှစ်တွေထဲမှာကျတော့၊ ခင်ဗျားတို့ဟာ
နောက်ထပ် neocortex နည်းနည်းလိုလာရင်၊
08:12
you'll be able to connect to that in the cloud
211
480990
2273
အဲဒါကို ခင်ဗျားတို့ဟာ ခင်ဗျားတို့ရဲ့
ဦးနှောက်ထဲကနေပြီး မိုးတိမ်ဆီကို
08:15
directly from your brain.
212
483263
1648
တိုက်ရိုက် ချိတ်ဆက်လာနိုင်မှာပါ။
08:16
So I'm walking along and I say,
213
484911
1543
ဒါကြောင့်မို့လို့၊
"အို၊ ရှေ့မှာ Chris Anderson ပါလား။
08:18
"Oh, there's Chris Anderson.
214
486454
1363
သူဟာ ငါ့ဆီကို ဦးတည် လမ်းလျှောက်လာနေတယ်။
08:19
He's coming my way.
215
487817
1525
ငါဟာ သိပ်ကို ထက်မြက်တဲ့ စကားတွေကို
ပြောနိုင်ရင် ကောင်းမှာပဲ။
08:21
I'd better think of something clever to say.
216
489342
2335
ငါ့ဆီမှာ အချိန်ဆိုလို့
08:23
I've got three seconds.
217
491677
1524
သုံးစက္ကန့်ပဲ ရှိတော့တယ်။
08:25
My 300 million modules in my neocortex
218
493201
3097
ကျွန်တော့ neocortex ထဲက မောဂျူး
သန်း ၃၀၀ တို့က အဲဒါကို
08:28
isn't going to cut it.
219
496298
1240
လုပ်ပေးနိုင်မှာ မဟုတ်ပါဘူး။
08:29
I need a billion more."
220
497538
1246
ငါဟာ မော်ဂျူး နောက်ထပ် ကုဍေ တစ်ရာလိုလိမ့်မည်"
စိတ်ကူးမိမှာပါ။
08:30
I'll be able to access that in the cloud.
221
498784
3323
ကျွန်တော်ဟာ မိုးတိမ်မှတစ်ဆင့် အဲဒီလို
ချဉ်းကပ် ရယူနိုင်ပါမယ်။
08:34
And our thinking, then, will be a hybrid
222
502107
2812
အဲဒီလိုဆိုရင် ကျွန်တော်တို့ရဲ့
တွေးခေါ်မှုဟာ နှစ်မျိုးစပ်ဖြစ်လာပါမယ်၊
08:36
of biological and non-biological thinking,
223
504919
3522
ဇီ၀ တွေးခေါ်မှု နဲ့ ဇီဝမဟုတ်တဲ့ တွေးခေါ်မှု
ပေါင်းစပ်လာပါမယ်၊
08:40
but the non-biological portion
224
508441
1898
အဲဒီထဲက ဇီဝမဟုတ်တဲ့ အပိုင်းကိုကျတော့
08:42
is subject to my law of accelerating returns.
225
510339
2682
ကျွန်တော်တို့ရဲ့ အရှိန်အဟုန်
တိုးတက်လာမှု အပေါ်မှာ မူတည်ပါလိမ့်မည်။
အဲဒါဟာ အဆမတန် ကြီးထွားလာနေမှာပါ။
08:45
It will grow exponentially.
226
513021
2239
08:47
And remember what happens
227
515260
2016
ကျွန်တော်တို့က နောက်ဆုံး တစ်ကြိမ်တုန်းက
neocortex ကို တိုးချဲ့နိုင်ခဲ့စဉ်တုန်းက
ဖြစ်ခဲ့တာကို မှတ်မိကြတယ် မဟုတ်လား?
08:49
the last time we expanded our neocortex?
228
517276
2645
08:51
That was two million years ago
229
519921
1426
အဲဒါဟာ လွန်ခဲ့တဲ့ နှစ်ပေါင်း နှစ်သန်းတုန်းက
08:53
when we became humanoids
230
521347
1236
ကျွန်တော်တို့ လူသားအသွင်ကို
စပြောင်းလာခဲ့စဉ်တုန်းက ဖြစ်ခဲ့တာ၊
ကျွန်တော်တို့ရဲ့ ဦးနှောက်ရှေ့ပိုင်းတွေ
ဖွံဖြိုးကြီးထွားလာခဲ့တယ်။
08:54
and developed these large foreheads.
231
522583
1594
08:56
Other primates have a slanted brow.
232
524177
2583
တခြား မျိုးကွဲတွေရဲ့ ပြတ်နဖူးဟာ
ခပ်ရွေ့ရွေ့လေးပဲ ရှိခဲ့တယ်။
08:58
They don't have the frontal cortex.
233
526760
1745
သူတို့ဆီမှာ ရှေ့ပိုင်း ဦးနှောက်လွှာ မရှိခဲ့ပါ။
09:00
But the frontal cortex is not
really qualitatively different.
234
528505
3685
တကယ်တော့ ရှေ့ပိုင်း ဦးနှောက်လွှာရဲ့
အရည်အသွေးဟာ ခြားနားခဲ့တာ မဟုတ်ခဲ့ပါ။
09:04
It's a quantitative expansion of neocortex,
235
532190
2743
အဲဒါဟာ neocortex ကို အရေအတွက်အရ
တိုးချဲ့ပေးလိုက်တာပါ၊
09:06
but that additional quantity of thinking
236
534933
2703
ဘယ်လိုပဲဖြစ်ဖြစ် တွေးခေါ်မှုဆိုင်ရာ အဲဒီလို
တိုးချဲ့ရလိုက်တဲ့ အရေအတွက်ကမှ
09:09
was the enabling factor for us to take
237
537636
1779
ကျွန်တော်တို့အား အရည်အသွေးဆိုင်ရာ
ခုန်ပျံမှုကို လုပ်လာစေခဲ့တဲ့ အချက်ဖြစ်လာကာ
09:11
a qualitative leap and invent language
238
539415
3346
ဘာသာစကားကို၊ ပြီးတော့ အနုပညာကို
09:14
and art and science and technology
239
542761
1967
သိပ္ပံပညာ နဲ့ နည်းပညာတွေကို
09:16
and TED conferences.
240
544728
1454
လက်ရှိ TED တွေ့ဆုံပွဲတွေကို
လုပ်နိုင်လာစေခဲ့တာပါ။
09:18
No other species has done that.
241
546182
2131
တခြားသော ဘယ်သတ္တဝါတွေကမှ
အဲဒီလို မလုပ်နိုင်ခဲ့ကြပါ။
09:20
And so, over the next few decades,
242
548313
2075
ဒါကြောင့်မို့လို့၊ နောင်လာမယ့်
ဆယ်စုနှစ် အချို့အတွင်းမှာ၊
09:22
we're going to do it again.
243
550388
1760
ကျွန်တော်တို့ဟာ အဲဒါမျိုးကို
ထပ်ပြီး လုပ်ကြဦးမှာပါ။
09:24
We're going to again expand our neocortex,
244
552148
2274
ကျွန်တော်တို့ဟာ ကျွန်တော်တို့ရဲ့
neocortex ကို တိုးချဲ့ကြဦးမှာပါ၊
09:26
only this time we won't be limited
245
554422
1756
ဒါပေမဲ့ ဒီတစ်ချီတွင် ကျွန်တော်တို့ဟာ
အဆောက်အဦတို့လို ခိုင်မာတဲ့
09:28
by a fixed architecture of enclosure.
246
556178
4280
ကန့်သတ်ချက် ရှိတော့မှာ မဟုတ်ပါ။
09:32
It'll be expanded without limit.
247
560458
3304
အဲဒါကို အကန့်အသတ်မရှိ တိုးချဲ့ပေးလိုက်မှာပါ။
09:35
That additional quantity will again
248
563762
2243
အဲဒီလို ဖြည့်စွက်ရရှိကြမယ့် အရေအတွက်ဟာဖြင့်
09:38
be the enabling factor for another qualitative leap
249
566005
3005
ယဉ်ကျေးမှု နဲ့ နည်းပညာထဲမှာ
အရည်အသွေးဆိုင်ရာ
09:41
in culture and technology.
250
569010
1635
ခုန်ပျံမှု နောက်တစ်ခုအတွက် နောက်အလားအလာ
တစ်ခုပဲ ဖြစ်ပါလိမ့်မယ်။
09:42
Thank you very much.
251
570645
2054
ခင်ဗျားတို့အားလုံးကို အထူး ကျေးဇူးတင်ပါတယ်။
09:44
(Applause)
252
572699
3086
(လက်ခုပ်တီးသံများ)
Translated by Myo Aung
Reviewed by sann tint

▲Back to top

ABOUT THE SPEAKER
Ray Kurzweil - Inventor, futurist
Ray Kurzweil is an engineer who has radically advanced the fields of speech, text and audio technology. He's revered for his dizzying -- yet convincing -- writing on the advance of technology, the limits of biology and the future of the human species.

Why you should listen

Inventor, entrepreneur, visionary, Ray Kurzweil's accomplishments read as a startling series of firsts -- a litany of technological breakthroughs we've come to take for granted. Kurzweil invented the first optical character recognition (OCR) software for transforming the written word into data, the first print-to-speech software for the blind, the first text-to-speech synthesizer, and the first music synthesizer capable of recreating the grand piano and other orchestral instruments, and the first commercially marketed large-vocabulary speech recognition.

Yet his impact as a futurist and philosopher is no less significant. In his best-selling books, which include How to Create a Mind, The Age of Spiritual Machines, The Singularity Is Near: When Humans Transcend Biology, Kurzweil depicts in detail a portrait of the human condition over the next few decades, as accelerating technologies forever blur the line between human and machine.

In 2009, he unveiled Singularity University, an institution that aims to "assemble, educate and inspire leaders who strive to understand and facilitate the development of exponentially advancing technologies." He is a Director of Engineering at Google, where he heads up a team developing machine intelligence and natural language comprehension.

More profile about the speaker
Ray Kurzweil | Speaker | TED.com