ABOUT THE SPEAKER
Grady Booch - Scientist, philosopher
IBM's Grady Booch is shaping the future of cognitive computing by building intelligent systems that can reason and learn.

Why you should listen

When he was 13, Grady Booch saw 2001: A Space Odyssey in the theaters for the first time. Ever since, he's been trying to build Hal (albeit one without the homicidal tendencies). A scientist, storyteller and philosopher, Booch is Chief Scientist for Software Engineering as well as Chief Scientist for Watson/M at IBM Research, where he leads IBM's research and development for embodied cognition. Having originated the term and the practice of object-oriented design, he is best known for his work in advancing the fields of software engineering and software architecture.

A co-author of the Unified Modeling Language (UML), a founding member of the Agile Allianc, and a founding member of the Hillside Group, Booch has published six books and several hundred technical articles, including an ongoing column for IEEE Software. He's also a trustee for the Computer History Museum, an IBM Fellow, an ACM Fellow and IEEE Fellow. He has been awarded the Lovelace Medal and has given the Turing Lecture for the BCS, and was recently named an IEEE Computer Pioneer.

Booch is currently deeply involved in the development of cognitive systems and is also developing a major trans-media documentary for public broadcast on the intersection of computing and the human experience.

More profile about the speaker
Grady Booch | Speaker | TED.com
TED@IBM

Grady Booch: Don't fear superintelligent AI

Grady Booch: ဆူပါထက်တော်မယ့် AI တွေကို မကြောက်ကြပါနဲ့

Filmed:
2,866,438 views

နည်းပညာသစ်တွေဟာ စိုးရိမ်စရာ အသစ်တွေ ဖြစ်နိုင်ကြတာ မှန်ပေမဲ့၊ ဘာမဆို လုပ်နိုင်စွမ်း ရှိကြပြီး ခံစားမှုမရှိကြတဲ့ AI တွေကို ကြောက်စရာ မလိုပါဘူးလို့ သိပ္ပံပညာရှင် နဲ့ ဒဿနိက ပညာရှင်ဖြစ်သူ Grady Booch က ဆိုပါတယ်။ Booch ဟာ သိပ္ပံဝတ္ထုများမှ ထွက်ပေါ်လာခဲ့ကြတာ ဖြစ်တဲ့ ဆူပါတော်တဲ့ AI တွေဆိုင်ရာ အဆိုးဝါးဆုံး စိုးရိမ်စတ်မှုတွေကို ဖယ်ရှားပစ်ရန်အတွက် AI ကို ကျွန်ုပ်တို့ တန်ဖိုးထားတာတွေကို မျှဝေခံစားရန် ဘယ်လို သင်ကြားပေးမှာကို ရှင်းပြထားပါတယ်။ အလားအလာ နည်းလှတဲ့ ခြိမ်းခြောက်မှုတွေ အကြောင်းကို စိုးရိမ်ကြမယ့် အစား၊ ကျွန်ုပ်တို့ဟာ လူသားတွေရဲ့ ဘဝကို AI ဘယ်လို မြှင့်တင်ပေးနိုင်ကြတာကို ထည့်စဉ်းစားသင့်တယ်လို့ ၎င်းက ယူဆပါတယ်။
- Scientist, philosopher
IBM's Grady Booch is shaping the future of cognitive computing by building intelligent systems that can reason and learn. Full bio

Double-click the English transcript below to play the video.

00:12
When I was a kid,
I was the quintessential nerd.
0
760
3840
ကျွန်တော် ကလေးဘဝတုန်းက
စံပြုလောက်တဲ့ ချာတိတ် ဖြစ်ခဲ့တယ်။
00:17
I think some of you were, too.
1
5320
2176
ခင်ဗျားတို့ တချို့လည်း အလားတူ
ဖြစ်ခဲ့ကြမှာပါ။
00:19
(Laughter)
2
7520
1216
(ရယ်မောသံများ)
00:20
And you, sir, who laughed the loudest,
you probably still are.
3
8760
3216
ခုနက အကျယ်ဆုံး ရယ်လိုက်သူကတော့
အခုထက်ထိ အဲဒီလို ရှိနေပုံ ရတယ်။
00:24
(Laughter)
4
12000
2256
(ရယ်မောသံများ)
00:26
I grew up in a small town
in the dusty plains of north Texas,
5
14280
3496
Texas မြောက်ပိုင်း ဖုန်ထူတဲ့
လွင်ပြင်က မြို့လေးမှာ ကြီးလာခဲ့ပြီး
00:29
the son of a sheriff
who was the son of a pastor.
6
17800
3336
သင်းအုပ်ဆရာရဲ့ သားဖြစ်သူ
ရဲအရာရှိမှ မွေးခဲ့တဲ့ သားတစ်ယောက်ပါ။
00:33
Getting into trouble was not an option.
7
21160
1920
သူများ ဘဝကို ခက်ခဲအောင်
မလုပ်တတ်ခဲ့ပါ။
00:36
And so I started reading
calculus books for fun.
8
24040
3256
ဒါ့အကြောင့် ကျွန်တော်ဟာ calculus
အကြောင်း စာအုပ်တွေ ဖတ်လာခဲ့တယ်။
00:39
(Laughter)
9
27320
1536
(ရယ်မောသံများ)
00:40
You did, too.
10
28880
1696
ခင်ဗျားတို့လည်းဖတ်ခဲ့ကြမှာပါ။
00:42
That led me to building a laser
and a computer and model rockets,
11
30600
3736
ဒါနဲ့ ကျွန်တော်ဟာ လေဆာနဲ့ ကွန်ပျူတာတွေ၊
ဒုံးပျံပုံစံတွေ ဆောက်လာတတ်ခဲ့တယ်၊
00:46
and that led me to making
rocket fuel in my bedroom.
12
34360
3000
အဲဒီကနေပြီး ကိုယ့်အိပ်ခန်းထဲမှာ
ဒုံးပျံလောင်စာကို တီထွင်ခဲ့တယ်။
00:49
Now, in scientific terms,
13
37960
3656
အခုတော့၊ သိပ္ပံပညာ အမြင်အရ
00:53
we call this a very bad idea.
14
41640
3256
သိပ်ကို ဆိုးတဲ့ အရာကြီးပေါ့။
00:56
(Laughter)
15
44920
1216
(ရယ်မောသံများ)
00:58
Around that same time,
16
46160
2176
အဲဒီ အချိန် ဝန်းကျင်မှာပဲ၊
01:00
Stanley Kubrick's "2001: A Space Odyssey"
came to the theaters,
17
48360
3216
Stanley Kubrick ရဲ့ "2001: A Space
Odyssey" ရုပ်ရှင် ထွက်လာခဲ့ရာ
01:03
and my life was forever changed.
18
51600
2200
ကျွန်တော့ဘဝဟာ ထာဝရအတွက်
ပြောင်းလဲသွားတော့တယ်။
01:06
I loved everything about that movie,
19
54280
2056
အဲဒီ ရုပ်ရှင်ထဲက အရာရာတိုင်းကို၊
01:08
especially the HAL 9000.
20
56360
2536
အထူးသဖြင့် HAL ၉၀၀၀ ကို
သိပ်ကို နှစ်ခြိုက်ခဲ့တယ်။
01:10
Now, HAL was a sentient computer
21
58920
2056
အဲဒီ HAL ဟာ အာရုံခံစားနိုင်ခဲ့တဲ့
01:13
designed to guide the Discovery spacecraft
22
61000
2456
ကွန်ပျူတာ ဖြစ်ခဲ့ပြီး
အာကာသယာဉ်ကို ကမ္ဘာဂြိုဟ်မှ
01:15
from the Earth to Jupiter.
23
63480
2536
ဂျူပီတာအထိ လမ်းညွှန်ပေးရန်
ထုတ်လုပ်ခဲ့တဲ့ ကွန်ပျူတာပါ။
01:18
HAL was also a flawed character,
24
66040
2056
HAL ဟာ စိတ်ဓာတ် အားနည်ခဲ့သူပါ၊
01:20
for in the end he chose
to value the mission over human life.
25
68120
4280
နောက်ဆုံးတွင် ၎င်းဟာ လူသားရဲ့ အသက်ထက်
တာဝန်ကို တန်ဖိုးထားရန် ရွေးခဲ့လို့ပါ။
01:24
Now, HAL was a fictional character,
26
72840
2096
HAL ဟာ စိတ်ကူးယဉ် ဖန်တီးလိုက်တဲ့
ဇာတ်ကောင်ပါ၊
01:26
but nonetheless he speaks to our fears,
27
74960
2656
ဒါတောင် ၎င်းဟာ ကျွန်တော်တို့ရဲ့
စိုးရိမ်ချက်တွေကို၊
01:29
our fears of being subjugated
28
77640
2096
ခံစားနိုင်စွမ်းမရှိတဲ့၊ လူသားတွေကို
01:31
by some unfeeling, artificial intelligence
29
79760
3016
ဂရုမစိုက်တဲ့ ဦးနှောက် အတုပိုင်ရှင်ဘက်မှ
ချုပ်ချယ်ခံရမယ့်
01:34
who is indifferent to our humanity.
30
82800
1960
စိုးရိမ်မှုတွေကို ထုတ်ဖေါ် ပြောခဲ့ပါတယ်။
01:37
I believe that such fears are unfounded.
31
85880
2576
အဲဒီကြောက်ရွံမှုတွေ အခြေအမြစ်
မရှိဘူးလို့ ယုံကြည်တယ်။
01:40
Indeed, we stand at a remarkable time
32
88480
2696
တကယ်တမ်းတွင်၊ ကျွန်ုပ်တို့ဟာ
လူသား သမိုင်းမှာ
01:43
in human history,
33
91200
1536
မှတ်သားစရာ ကာလထဲ ရှိနေကြပါတယ်၊
01:44
where, driven by refusal to accept
the limits of our bodies and our minds,
34
92760
4976
ကျွန်ုပ်တို့ ခန္ဓာကိုယ်နဲ့ ဦးနှောက်ရဲ့
ကန့်သတ်ချက်တွေကို လက်မခံနိုင်ကြလို့
ကျွန်ုပ်တို့ဟာ သိမ်မွေ့၊ လှပ ရှုပ်ထွေး
01:49
we are building machines
35
97760
1696
01:51
of exquisite, beautiful
complexity and grace
36
99480
3616
ကျော့ရှင်းကြတဲ့ စက်ပစ္စည်းတွေကို
ထုတ်လုပ်လာခဲ့ကြရာ ၎င်းတို့ဟာ စိတ်ကူးလို့
01:55
that will extend the human experience
37
103120
2056
ရနိုင်တဲ့ လူတွေ လုပ်ကိုင်နိုင်ကြတာထက်ကို
01:57
in ways beyond our imagining.
38
105200
1680
များစွာမှ သာလွန်သွားကြမှာပါ။
01:59
After a career that led me
from the Air Force Academy
39
107720
2576
ကျွန်တော်ဟာ Air Force Academy
မှာ လုပ်ကိုင်ရင်းကနေပြီး
02:02
to Space Command to now,
40
110320
1936
အခု Space Command ကို ရောက်လာလို့
02:04
I became a systems engineer,
41
112280
1696
စနစ်များရဲ့ အင်ဂျင်နီယာဖြစ်လာတယ်၊
02:06
and recently I was drawn
into an engineering problem
42
114000
2736
မကြာခင်မီတွင် NASA ရဲ့ အင်္ဂါသို့ သွားရေး
လုပ်ငန်းကြီးနဲ့
02:08
associated with NASA's mission to Mars.
43
116760
2576
ဆက်စပ်နေတဲ့ အင်ဂျင်နီယာ ပြဿနာကို
လေ့လာလာရပါတယ်။
02:11
Now, in space flights to the Moon,
44
119360
2496
လဆီကို သွားမယ့် ပျံသန်းမှုတွေ
ဆိုရင် ပျံသန်းမှု
02:13
we can rely upon
mission control in Houston
45
121880
3136
ကိစ္စတွေအတွက် Houston ရှိနေတဲ့
ထိန်းချုပ်ရေးဌာနကို
02:17
to watch over all aspects of a flight.
46
125040
1976
အားကိုးလို့ ရနိုင်တာ ရှင်းနေပါတယ်။
02:19
However, Mars is 200 times further away,
47
127040
3536
ဒါပေမဲ့ အင်္ဂါဂြိုဟ်ကျတော့ အဆ ၂၀၀ အထိကို
ပိုဝေးနေပါတယ်၊
02:22
and as a result it takes
on average 13 minutes
48
130600
3216
အဲဒါကြောင့် ကမ္ဘာဂြိုဟ်မှနေပြီး
အင်္ဂါဂြိုဟ်ဆီ ပို့လိုက်တဲ့
02:25
for a signal to travel
from the Earth to Mars.
49
133840
3136
အချက်ပြမှု အနေနဲ့ ရောက်ဖို့ အချိန်
ပျမ်းမျှ ၁၃ မိနစ် ကြာပါတယ်။
02:29
If there's trouble,
there's not enough time.
50
137000
3400
ပြဿနာ တစ်ခုခု ပေါ်လာရင်
အချိန် မလောက်နိုင်ပါ။
02:32
And so a reasonable engineering solution
51
140840
2496
အဲဒါကြောင့် ပျံသန်းမှု ထိန်းချုပ်ရေးကို
02:35
calls for us to put mission control
52
143360
2576
Orion အာကာသယာဉ်ရဲ့
နံရံများအတွင်းမှာကို ထည့်သွင်းရန်
02:37
inside the walls of the Orion spacecraft.
53
145960
3016
အင်ဂျင်နီယာ နည်းပညာက တောင်းဆိုလာပါတယ်။
02:41
Another fascinating idea
in the mission profile
54
149000
2896
အဲဒီပျံသန်းမှု ပရိုဖိုင်တွင် အင်္ဂါဂြိုဟ်
ပေါ်တွင် လူသားပုံစံ
02:43
places humanoid robots
on the surface of Mars
55
151920
2896
robot တွေိကို နေရာချပေးရေး
အံ့ဖွယ် စိတ်ကူးလည်း ပါရှိပါတယ်။
02:46
before the humans themselves arrive,
56
154840
1856
လူတွေ အဲဒီကို မရောက်ခင်တွင်
လိုအပ်တာတွေ
02:48
first to build facilities
57
156720
1656
ဆောက်လုပ်ရန်နဲ့ နောက်ပိုင်းတွင်
02:50
and later to serve as collaborative
members of the science team.
58
158400
3360
သိပ္ပံအဖွဲ့ထဲမှာ ပူးတွဲကူညီပေးမယ့်
လုပ်အားအဖြစ် ထားရှိရန်ဖြစ်တယ်။
02:55
Now, as I looked at this
from an engineering perspective,
59
163400
2736
အဲဒါကို အင်ဂျင်နီယာ ရှုထောင့်မှ
ကျွန်တော် သုံးသပ်ကြည့်ရာ၊
02:58
it became very clear to me
that what I needed to architect
60
166160
3176
ကျွန်တော် ပုံစံထုတ်ပေးရမယ့်ဟာက
တော်ပြီး လက်တွဲလုပ်ကိုင်နိုင်မယ့်၊
03:01
was a smart, collaborative,
61
169360
2176
လူမှုရေးအရ တော်ရမယ့်
03:03
socially intelligent
artificial intelligence.
62
171560
2376
အသိပညာ အတုစားမျိုး ဖြစ်ရပါမယ်။
03:05
In other words, I needed to build
something very much like a HAL
63
173960
4296
တစ်မျိုးကို ရှင်းပြရပါက၊ ကျွန်တော်ဟာ
HAL နဲ့ ဆင်တူဟာမျိုးကို ဆောက်လုပ်ပေးရမယ်၊
03:10
but without the homicidal tendencies.
64
178280
2416
ကိုယ့်ကိုကိုယ် လုပ်ကြံရေး
စိတ်တွေက လွဲလျက်ပေါ့လေ။
03:12
(Laughter)
65
180720
1360
(ရယ်မောသံများ)
03:14
Let's pause for a moment.
66
182920
1816
ဒီနေရာမှာ ခဏ ရပ်လိုက်ကြပါစို့။
03:16
Is it really possible to build
an artificial intelligence like that?
67
184760
3896
artificial intelligence (ဦးနှောက် အတု)ကို
အဲဒီလို ဆောက်လုပ် နိုင်ပါသလား။
03:20
Actually, it is.
68
188680
1456
လက်တွေ့တွင် ရနိုင်ပါတယ်။
03:22
In many ways,
69
190160
1256
နည်းအမျိုးမျိုး ရှိတယ်၊
03:23
this is a hard engineering problem
70
191440
1976
ဒါဟာ ခဲယဉ်းတဲ့ အင်ဂျင်နီယာ ပြဿနာဖြစ်ပြီး
03:25
with elements of AI,
71
193440
1456
AI အစိတ်အပိုင်းတွေ ပါမယ်၊
03:26
not some wet hair ball of an AI problem
that needs to be engineered.
72
194920
4696
ဖြေရှင်းပေးရမယ့် AI ပြဿနာတွေဟာ
အသေးအမွှားတွေ မဟုတ်ကြပါ။
03:31
To paraphrase Alan Turing,
73
199640
2656
Alan Turing ပြောခဲ့ဘူးတာကို တမျိုး
ပြန်ပြောရရင်၊
အာရုံခံစားနိုင်စွမ်း ရှိမယ့် စက်
ဆောက်လုပ်ရန် စိတ်မဝင်စားပါ။
03:34
I'm not interested
in building a sentient machine.
74
202320
2376
03:36
I'm not building a HAL.
75
204720
1576
ကျွန်တော်ဟာ HAL တည်ဆောက်မှာ မဟုတ်ပါ။
03:38
All I'm after is a simple brain,
76
206320
2416
ကျွန်တော် စဉ်းစားနေတာက သာမန် ဦးနှောက်ပါ၊
03:40
something that offers
the illusion of intelligence.
77
208760
3120
အသိပညာ ရှိသလို ခံစားရမယ့်ဟာ
တစ်ခုခုကိုပါ။
HAL ကို ရုပ်ရှင်ထဲ မြင်ခဲ့ရတဲ့ နောက်ပိုင်း
နှစ်များ အတွင်းမှာ
03:45
The art and the science of computing
have come a long way
78
213000
3136
တွက်ချက်မှု ပညာဟာ အတော်လေး
ခရီးပေါက်ခဲ့လို့၊
03:48
since HAL was onscreen,
79
216160
1496
ဒီနေ့သာ တီထွင်ရှင် Dr. Chandra သာ
ဒီမှာ ရှိနေခဲ့ရင် ကျွန်တော်တို့အား
03:49
and I'd imagine if his inventor
Dr. Chandra were here today,
80
217680
3216
မေးလိုက်မယ့် မေးခွန်းတွေ
အတော့်ကို များမှာပါ။
03:52
he'd have a whole lot of questions for us.
81
220920
2336
03:55
Is it really possible for us
82
223280
2096
စက်ကိရိယာတွေ သန်းပေါင်းများစွာ ရှိကြမယ့်
03:57
to take a system of millions
upon millions of devices,
83
225400
4016
စနစ်ကို အတူယူသွားပြီး ၎င်းတို့ရဲ့
ချွတ်ယွင်းချက်တွကို ခန့်မှန်းလျက်
ကြိုတင်ပြီး အရေးယူဆောင်ရွက်နိုင်အောင်
04:01
to read in their data streams,
84
229440
1456
04:02
to predict their failures
and act in advance?
85
230920
2256
၎င်းတို့ရဲ့ ဒေတာကို ဖတ်ပြီး လုပ်နိုင်မလား။
04:05
Yes.
86
233200
1216
ရတယ်။
လူသားတွေနဲ့ ပုံမှန် ဘာသာစကားဖြင့်
ဆက်သွယ်မယ့် စနစ်တွေ ဆောက်နိုင်မလား။
04:06
Can we build systems that converse
with humans in natural language?
87
234440
3176
04:09
Yes.
88
237640
1216
ရတယ်။
အရာတွေကို သိမှတ်နိုင်ကာ စိတ်ခံစားမှုကို
ဖေါ်ထုတ်လျက် ၎င်းတို့ ကိုယ်တိုင်
04:10
Can we build systems
that recognize objects, identify emotions,
89
238880
2976
04:13
emote themselves,
play games and even read lips?
90
241880
3376
ခံစားချက်ကို ပြကာ ဂိမ်းတွေ ကစားလျက်
နှုတ်ခမ်းဖတ်မယ့် စနစ်တွေ ဆောက်နိုင်မလား။
04:17
Yes.
91
245280
1216
ရတယ်။
04:18
Can we build a system that sets goals,
92
246520
2136
ကျွန်ုပ်တို့ဟာ ပန်းတိုင်တွေကို ချမှတ်လျက်
ပန်းတိုင်များအတွက် စီမံကိန်းတွေ လုပ်ကိုင်
ရင်း သင်ယူနိုင်တဲ့ စနစ် ဆောက်နိုင်လား။
04:20
that carries out plans against those goals
and learns along the way?
93
248680
3616
04:24
Yes.
94
252320
1216
ရတယ်။
04:25
Can we build systems
that have a theory of mind?
95
253560
3336
စိတ်ဆိုတဲ့ သီအိုရီ ပါရှိမယ့်
စနစ်တွေကို ဆောက်နိုင်လား။
04:28
This we are learning to do.
96
256920
1496
အဲဒါကို လုပ်နိင်ရန် သင်နေကြတယ်။
04:30
Can we build systems that have
an ethical and moral foundation?
97
258440
3480
ကျင့်စဉ် နဲ့ စိတ်ဓာတ်ဆိုင်ရာ အုတ်မြစ်
ပါမယ့် စနစ်တွေကို ဆောက်နိုင်သလား။
04:34
This we must learn how to do.
98
262480
2040
အဲဒါ ဘယ်လို လုပ်ရမှာကို သင်ကြရပါမယ်။
04:37
So let's accept for a moment
99
265360
1376
အဲဒီလို တာဝန်များနဲ့ အခြား
04:38
that it's possible to build
such an artificial intelligence
100
266760
2896
တာဝန်များအတွက် အသိဉာဏ်အတုကို
ဆောက်လုပ်လို့
04:41
for this kind of mission and others.
101
269680
2136
ရနိုင်တယ်လို့ ခဏ​လေး ခံယူကြပါစို့။
04:43
The next question
you must ask yourself is,
102
271840
2536
အဲနောက်မှာ ကိုယ့်ကိုကိုယ်
မေးရမယ့် မေးခွန်းက အဲဒါကို
04:46
should we fear it?
103
274400
1456
ကျွန်ုပ်တို့ ကြောက်သင့်လား။
04:47
Now, every new technology
104
275880
1976
တကယ်တော့ နည်းပညာသစ် မှန်သမျှဟာ
04:49
brings with it
some measure of trepidation.
105
277880
2896
စိုးရိမ်စရာ တစ်စုံတစ်ခုနဲ့
စတင်တာချည်းပါပဲ။
04:52
When we first saw cars,
106
280800
1696
ကားတွေကို ပထမဦးဆုံး
မြင်တွေ့ခဲ့ရစဉ်
04:54
people lamented that we would see
the destruction of the family.
107
282520
4016
မိသားစုတွေ ပြိုလဲကျတော့မယ်လို့
စိုးရိမ်နေခဲ့ကြတယ်။
04:58
When we first saw telephones come in,
108
286560
2696
တယ်လီဖုန်းတွေ ဘဝထဲ ခြေချဝင်လာတော့၊
05:01
people were worried it would destroy
all civil conversation.
109
289280
2896
လူတွေ စကားဝိုင်းဖွဲ့ ပြောဆိုမှု
ချုပ်ငြိမ်းတော့မယ် ထင်ခဲ့တယ်။
05:04
At a point in time we saw
the written word become pervasive,
110
292200
3936
စာတွေကို ပုံနှိပ်ထုတ်ဝေမှု ပေါ်လာတော့
ကျွန်ုပ်တို့ဟာ မှတ်ဉာဏ်တွေ
05:08
people thought we would lose
our ability to memorize.
111
296160
2496
ဆုံးရှုံးကြတော့မှာဘဲလို့ ထင်မြင်ခဲ့ကြတယ်။
05:10
These things are all true to a degree,
112
298680
2056
အဲဒီလို အရာတွေဟာ တစ်စုံတစ်ရာအထိ
မှန်ကန်တယ်၊
05:12
but it's also the case
that these technologies
113
300760
2416
ဒါပေမဲ့ အဲဒီတချိန်တည်းမှာ အဲဒီလို
နည်းပညာတွေဟာ
05:15
brought to us things
that extended the human experience
114
303200
3376
လူတွေရဲ့ ဘဝအတွေ့အကြုံကို အံ့ဖွယ်
နည်းလမ်းများဖြင့် မြှင့်တင်ပေး
05:18
in some profound ways.
115
306600
1880
ခဲ့ကြတာကိုပါ အသိအမှတ် ပြုကြရပါမယ်။
05:21
So let's take this a little further.
116
309840
2280
ဒီအကြောင်းကို ရှေ့ဆက် ကြည့်ကြရအောင်။
05:25
I do not fear the creation
of an AI like this,
117
313120
4736
ခုနကလို AI ဖန်တီးပေးမယ်ဆိုရင်
ကျွန်ုပ်တို့ရဲ့ တန်ဖိုးထားချက်တွေ
05:29
because it will eventually
embody some of our values.
118
317880
3816
အဲဒီမှာ ထည့်သွင်းပါရှိမှာမို့ အဲဒါကို
ကျွန်တော် မကြောက်ပါဘူး။
05:33
Consider this: building a cognitive system
is fundamentally different
119
321720
3496
သိမြင်နိုင်တဲ့ စနစ်ကို ဆောက်လုပ်မှုဟာ
အခြေခံအရကိုက
05:37
than building a traditional
software-intensive system of the past.
120
325240
3296
အတိတ်ကာလက ဆော့ဝဲ အများအပြားကို
သုံးတဲ့ သမရိုးကျ စနစ်နဲ့ ခြားနားတယ်။
05:40
We don't program them. We teach them.
121
328560
2456
၎င်းတို့အတွက် ပရိုဂရမ်ကို
မရေးဆွဲဘဲ သင်ပေးကြတယ်။
05:43
In order to teach a system
how to recognize flowers,
122
331040
2656
စနစ်တစ်ခုအား ပန်းတွေကို သိမှတ်လာရန်
ကျွန်တော်ဟာ
05:45
I show it thousands of flowers
of the kinds I like.
123
333720
3016
ကျွန်တော် ကြိုက်တဲ့ ပန်းတွေကို
ထောင်ချီ ပြပေးပါတယ်။
05:48
In order to teach a system
how to play a game --
124
336760
2256
စနစ်တစ်ခုအနေနဲ့ ဂိမ်း ကစားလာတတ်ရန်
ကျွန်တော်
05:51
Well, I would. You would, too.
125
339040
1960
လုပ်နိုင်၊ ခင်ဗျားတို့လည်း လုပ်နိုင်တယ်။
05:54
I like flowers. Come on.
126
342600
2040
ကျွန်တော်က ပန်းတွေကို ကြိုက်တယ်။
တကယ်ပါ။
05:57
To teach a system
how to play a game like Go,
127
345440
2856
စနစ်တစ်ခုအနေနဲ့ Go လို ဂိမ်းကို
ကစားလာနိုင်ရန် အတွက်
06:00
I'd have it play thousands of games of Go,
128
348320
2056
ကျွန်တော်ဟာ Go ဂိမ်းကို ထောင်ချီ
ကစားပြရင်း
06:02
but in the process I also teach it
129
350400
1656
ကောင်းတဲ့ ဂိမ်းနဲ့ ဆိုးတဲ့ ဂိမ်း
06:04
how to discern
a good game from a bad game.
130
352080
2416
ခွဲခြားနိုင်ရေးကိုပါ သင်ပေးရမယ်။
06:06
If I want to create an artificially
intelligent legal assistant,
131
354520
3696
တကယ်လို့ ကျွန်တော်ဟာ ဥပဒေရေးရာထဲ
ကူညီပေးရမယ့် ဉာဏ်အတုကို ဖန်တီးချင်ရင်၊
06:10
I will teach it some corpus of law
132
358240
1776
ဥပဒေတွေ အများကြီးကို သင်ပေးရင်း
06:12
but at the same time I am fusing with it
133
360040
2856
ဥပဒေနဲ့ ခွဲခြားမရနိုင်တဲ့ ကရုဏာနဲ့
တရားမျှတမှု ဆိုတဲ့
06:14
the sense of mercy and justice
that is part of that law.
134
362920
2880
သဘောတရားတွေကိုပါ ရိုက်သွင်းပေးဖို့
ကြိုးစားရပါမယ်။
06:18
In scientific terms,
this is what we call ground truth,
135
366560
2976
သိပ္ပံပညာရှင်တွေက အဲဒါကို အခြေခံ
အမှန်တရားလို့ ခေါ်ကြတယ်၊
06:21
and here's the important point:
136
369560
2016
ဒီမှာ အရေးကြီးတဲ့ အချက်က-
06:23
in producing these machines,
137
371600
1456
ဒီလို စက်တွေကို ထုတ်လုပ်ရာတွင်
06:25
we are therefore teaching them
a sense of our values.
138
373080
3416
ကျွန်ုပ်တို့ဟာ ကျွန်ုပ်တို့ တန်ဖိုးတွေရဲ့
အနှစ်သာရကို သင်ပေးရမယ်။
06:28
To that end, I trust
an artificial intelligence
139
376520
3136
အဲဒီနောက်မှာတော့၊ ကျွန်တော်ဟာ
အသိဉာဏ်အတုကို ကောင်းမွန်စွာ
06:31
the same, if not more,
as a human who is well-trained.
140
379680
3640
သင်တန်းပေးထားတဲ့ လူသားနည်းတူ၊ ပိုတောင်
ပုပြီး ယုံကြည်မှာပါ။
06:36
But, you may ask,
141
384080
1216
ဒါပေမဲ့၊ ကောက်ကျစ်တဲ့
06:37
what about rogue agents,
142
385320
2616
ဆိုးဝါးတဲ့ အေဂျင့်တွေ၊
06:39
some well-funded
nongovernment organization?
143
387960
3336
ငွေကြေး အများအပြားရကြတဲ့ အစိုးရ
မဟုတ်တဲ့ အဖွဲ့အစည်းတွေ ကျတော့ကော။
06:43
I do not fear an artificial intelligence
in the hand of a lone wolf.
144
391320
3816
လူဆိုး တစ်ယောက်ရဲ့ လက်ထဲက
အသိဉာဏ်အတုကို ကျွန်တော် မကြောက်ပါ။
06:47
Clearly, we cannot protect ourselves
against all random acts of violence,
145
395160
4536
ကျွန်ုပ်တို့ဟာ အမှတ်တမဲ့ ဖြစ်လာနိုင်တဲ့
အကြမ်းဖက်မှုများမှ ကာကွယ် မရနိုင်ပေမဲ့၊
06:51
but the reality is such a system
146
399720
2136
တကယ်ကျတော့ အဲဒီလို စနစ်ပေါ်လာဖို့
06:53
requires substantial training
and subtle training
147
401880
3096
အတော့်ကို စနစ်တကျ လေ့ကျင့် သင်တန်း
ပေးရန်လိုအပ်တာမို့လို့၊
06:57
far beyond the resources of an individual.
148
405000
2296
လူပုဂ္ဂိုလ် တစ်ဦးဦးအနေနဲ့
တတ်နိုင်ရန် မလွယ်ပါ။
06:59
And furthermore,
149
407320
1216
ဒီထက်ပိုပြီး၊
07:00
it's far more than just injecting
an internet virus to the world,
150
408560
3256
အဲဒါဟာ ဗိုင်းရပ်စ်ကို ခလုတ် တစ်ချက်
နှိပ်ရုံနဲ့ တစ်ကမ္ဘာလုံးမှာ
07:03
where you push a button,
all of a sudden it's in a million places
151
411840
3096
ပျံ့နှံ့သွားစေလျက် နေရာတိုင်းရှိ
လက်တော့ သန်းချီ ပေါက်ကွဲစေရန်
07:06
and laptops start blowing up
all over the place.
152
414960
2456
ကူးစက်နိုင်စေတာမျိုးနဲ့ လုံးဝမတူပါ။
07:09
Now, these kinds of substances
are much larger,
153
417440
2816
အခုပြောနေတဲ့ အရာတွေဟာ များစွာမှ
ပိုပြီး ကြီးမားကြမှာပါ၊
07:12
and we'll certainly see them coming.
154
420280
1715
လာကြတာကို ကျွန်ုပ်တို့ မြင်ကြရမယ်။
07:14
Do I fear that such
an artificial intelligence
155
422520
3056
အဲဒီလို အသိဉာဏ် အတုက လူသား တစ်ရပ်လုံးအား
07:17
might threaten all of humanity?
156
425600
1960
ခြိမ်းခြောက်မှာကို ကျွန်တော်
ကြောက်ပါသလား။
07:20
If you look at movies
such as "The Matrix," "Metropolis,"
157
428280
4376
ခင်ဗျားတို့ဟာ "The Matrix"၊ "Metropolis"၊
"The Terminator"၊
07:24
"The Terminator,"
shows such as "Westworld,"
158
432680
3176
ရုပ်ရှင်တွေနဲ့ "Westworld"လို ရှိုးတွေကို
ကြည့်ကြည့်ပါက၊
07:27
they all speak of this kind of fear.
159
435880
2136
၎င်းတို့ထဲမှာ ခုန ကြောက်စိတ်
အကြောင်းပါတယ်။
07:30
Indeed, in the book "Superintelligence"
by the philosopher Nick Bostrom,
160
438040
4296
ဒဿနိက ပညာရှင် Nick Bostrom ရဲ့
"Superintelligence" စာအုပ်ထဲတွင်
07:34
he picks up on this theme
161
442360
1536
အဲဒီအကြောင်းကို တင်ပြထားပြီး
07:35
and observes that a superintelligence
might not only be dangerous,
162
443920
4016
ဆူပါအသိဉာဏ်ဟာ အန္တရာယ်များရုံသာမက
07:39
it could represent an existential threat
to all of humanity.
163
447960
3856
လူသားတို့အတွက် တကယ့်ခြိမ်းခြောက်မှု
ဖြစ်လာမယ်လို့ ဆိုထားပါတယ်။
07:43
Dr. Bostrom's basic argument
164
451840
2216
Dr. Bostrom ရဲ့ အဓိက ဆင်ခြေက
07:46
is that such systems will eventually
165
454080
2736
အဲဒီလို စနစ်တွေဟာ အချက်အလက်တွေကို
07:48
have such an insatiable
thirst for information
166
456840
3256
တိုးတိုး ရယူချင်ကြမှာ မို့လို့ ၎င်းတို့ဟာ
07:52
that they will perhaps learn how to learn
167
460120
2896
ဘယ်လို သင်ယူနိုင်သလဲဆိုတာကို
သင်ယူနိုင်ကြပြီး
07:55
and eventually discover
that they may have goals
168
463040
2616
အဆုံးမှာ သူတို့ဆီမှာ ပေါ်ပေါက်လာကြမယ့်
ပန်းတိုင်များဟာ
07:57
that are contrary to human needs.
169
465680
2296
လူသားရဲ့ လိုအပ်ချက်များနဲ့
ဆန့်ကျင်ဘက် ဖြစ်လာမယ်။
08:00
Dr. Bostrom has a number of followers.
170
468000
1856
Dr. Bostrom ကို ထောက်ခံသူ များပါတယ်။
08:01
He is supported by people
such as Elon Musk and Stephen Hawking.
171
469880
4320
သူ့ကို Elon Musk နှင့် Stephen Hawking လို
ပုဂ္ဂိုလ်တွေ ထောက်ခံကြတယ်။
08:06
With all due respect
172
474880
2400
အဲဒီမဟာပုဂ္ဂိုလ်ကြီးတွေရဲ့ အမြော်အမြင်ကို
08:10
to these brilliant minds,
173
478160
2016
ထိုက်တန်စွာ လေးစားပေမဲ့၊
08:12
I believe that they
are fundamentally wrong.
174
480200
2256
အခြေခံအရ သူတို့ မှားနေတယ်လို့
ကျွန်တော် ထင်တယ်။
08:14
Now, there are a lot of pieces
of Dr. Bostrom's argument to unpack,
175
482480
3176
Dr. Bostrom ရဲ့ အဆိုကို အသေးစိတ်
ဆင်ခြေပေးရန် အချိန် အများကြီး
08:17
and I don't have time to unpack them all,
176
485680
2136
လိုမှာမို့လို့ တိုတိုနဲ့ ပြောရရင်
08:19
but very briefly, consider this:
177
487840
2696
ဒီလို စဉ်းစားကြည့်စေလိုပါတယ်-
08:22
super knowing is very different
than super doing.
178
490560
3736
ဆူပါ အသိဉာဏ်ဟာ ဆူပါ လုပ်ကိုင်မှုနဲ့
လုံးဝမတူ တခြားစီးပါ။
HAL ဟာ Discovery တဖွဲ့လုံးအတွက်
ခြိမ်းခြောက်မှုပါ
08:26
HAL was a threat to the Discovery crew
179
494320
1896
08:28
only insofar as HAL commanded
all aspects of the Discovery.
180
496240
4416
Discovery ရဲ့ မျက်နှာစာအားလုံးကို HAL က
အမိန့်ပေးနေသရွေ့ မှန်ခဲ့တယ်။
08:32
So it would have to be
with a superintelligence.
181
500680
2496
အဲဒါကြောင့်မို့လို့ ၎င်းဟာ ဆူပါဦးနှောက်
ဖြစ်ခဲ့တာပါ။
08:35
It would have to have dominion
over all of our world.
182
503200
2496
ကျွန်ုပ်တို့ ကမ္ဘာကြီးထဲ အားလုံး
ချုပ်ကိုင်ခဲ့မှာ။
08:37
This is the stuff of Skynet
from the movie "The Terminator"
183
505720
2816
တဖန် "The Terminator" ထဲက
Skynet ဆိုတဲ့ထဲမှာလည်း
08:40
in which we had a superintelligence
184
508560
1856
ဆူပါဦးနှောက် ရှိနေခဲ့ပြီး လူတွေရဲ့
08:42
that commanded human will,
185
510440
1376
စိတ်ဆန္ဒကို အမိန့်ခဲ့တယ်၊
08:43
that directed every device
that was in every corner of the world.
186
511840
3856
ကမ္ဘာကြီးရဲ့ ဘယ်နေရာမှာပဲ ရှိရှိ
ကိရိယာတိုင်းကို ၎င်းက ညွှန်ကြားခဲ့တယ်။
08:47
Practically speaking,
187
515720
1456
လက်တွေ့တွင်
08:49
it ain't gonna happen.
188
517200
2096
ဒါတွေ ဖြစ်လာမှာ မဟုတ်ပါဘူး။
08:51
We are not building AIs
that control the weather,
189
519320
3056
ကျွန်ုပ်တို့ဟာ ရာသီဥတုကို
ထိန်းချုပ်ခဲ့မယ့်၊
08:54
that direct the tides,
190
522400
1336
ဒီရေတွေကို ညွှန်ကြားပေးမယ့်၊
08:55
that command us
capricious, chaotic humans.
191
523760
3376
ပြောင်းလွယ်ပြီး ပရမ်းပတာနိုင်တဲ့ လူတွေကို
အမိန့်ပေးဖို့ ဆောက်နေတာ မဟုတ်။
08:59
And furthermore, if such
an artificial intelligence existed,
192
527160
3896
အဲဒီအပြင်၊ အဲဒီလို ဆူပါဦးနှောက်တု
ရှိခဲ့မယ်ဆိုရင်၊
09:03
it would have to compete
with human economies,
193
531080
2936
၎င်းဟာ လူသားရဲ့ စီးပွားရေးနဲ့
ပြိုင်ဆိုင်ဖို့ လိုအပ်လာမယ်၊
09:06
and thereby compete for resources with us.
194
534040
2520
ကျွန်ုပ်တို့နဲ့အတူ အရင်းအမြစ်များ
အတွက် တိုက်ပွဲဝင်ရမယ်။
09:09
And in the end --
195
537200
1216
နောက်ဆုံးမှာတော့၊
09:10
don't tell Siri this --
196
538440
1240
အဲဒါ Siri ကို မပြောပါနဲ့-
09:12
we can always unplug them.
197
540440
1376
ကျွန်ုပ်တို့ အချိန်မရွေး ပိတ်ပစ်နိုင်တယ်။
09:13
(Laughter)
198
541840
2120
(ရယ်မောသံများ)
ကျွန်ုပ်တို့ဟာ ကျွန်ုပ်တို့ရဲ့ စက်တွေနဲ့
အတူ
09:17
We are on an incredible journey
199
545360
2456
ပူးတွဲလျက် ဆင့်ကဲ ပြောင်းလဲရေး
အံ့ဖွယ် ခရီးကို နှင်နေကြတယ်။
09:19
of coevolution with our machines.
200
547840
2496
09:22
The humans we are today
201
550360
2496
ဒီနေ့ ကျွန်ုပ်တို့ လူသားတွေဟာ
09:24
are not the humans we will be then.
202
552880
2536
လာမယ့် နောင်လူသားတွေ မဟုတ်ပါ။
09:27
To worry now about the rise
of a superintelligence
203
555440
3136
ဒီအချိန်မှာ ဆူပါဦးနှောက်တု ပေါ်ပေါက်
လာမှာကို စိုးရိမ်နေခြင်းဟာ
09:30
is in many ways a dangerous distraction
204
558600
3056
အန္တရာယ်များတဲ့ အာရုံလွှဲပြောင်းမှု
ဖြစ်တယ်လို့ ဆိုချင်တယ်၊
09:33
because the rise of computing itself
205
561680
2336
ကွန်ပျူးတင်းတွေ ပေါ်ပေါက်လာခဲ့ကြလို့
09:36
brings to us a number
of human and societal issues
206
564040
3016
လူသားနဲ့ လူမှုရေး ပြဿနာတွေ
တပုံကြီး ပေါ်လာခဲ့ကြရာ
09:39
to which we must now attend.
207
567080
1640
အဲဒါတွေကို ကျွန်ုပ်တို့
ဂရုစိုက်ဖို့လိုတယ်။
09:41
How shall I best organize society
208
569360
2816
လူသားရဲ့ လုပ်အား လိုအပ်ချက်
နည်းလာတဲ့ အခါမှာ
ကျွန်ုပ်တို့ လူ့အဖွဲ့အစည်းကို
ဘယ်လို စည်းရုံးကြမလဲ။
09:44
when the need for human labor diminishes?
209
572200
2336
09:46
How can I bring understanding
and education throughout the globe
210
574560
3816
ကျွန်ုပ်တို့ဟာ ကျွန်ုပ်တို့ရဲ့ မတူ
ကွဲပြားမှုတွေကို လေးစားရင်း
နားလည်မှုရှိရန် ပညာသင်နိုင်ရန်
ဘယ်လို လုပ်ကြမလဲ။
09:50
and still respect our differences?
211
578400
1776
09:52
How might I extend and enhance human life
through cognitive healthcare?
212
580200
4256
သိမှတ်မှု ကျန်းမာရေး စနစ်ဖြင့်
ကျွန်ုပ်တို့ လူ့ဘဝကို ဘယ်လို မြှင့်တင်မလဲ။
09:56
How might I use computing
213
584480
2856
ကွန်ပျူတာသုံးပြီး ကျွန်ုပ်တို့
ကြယ်တွေဆီ
09:59
to help take us to the stars?
214
587360
1760
သွားနိုင်အောင် ဘယ်လို လုပ်ကိုင်ကြမလဲ။
10:01
And that's the exciting thing.
215
589760
2040
အဲဒါတွေကမှ စိတ်လှုပ်ရှားစရာတွေပါ။
10:04
The opportunities to use computing
216
592400
2336
လူသားတွေရဲ့ ဘဝကို မြှင့်တင်ပေးနိုင်မယ့်
10:06
to advance the human experience
217
594760
1536
ကွန်ပျူတာတွေရဲ့ အလားအလာတွေကို
10:08
are within our reach,
218
596320
1416
ကျွန်ုပ်တို့ လက်လှမ်းမှီတယ်၊
10:09
here and now,
219
597760
1856
ဟိုမှာ ဒီမှာ ပြည့်နေကြတယ်၊
10:11
and we are just beginning.
220
599640
1680
ပြီးတော့ ကျွန်ုပ်တို့ စရုံပဲ
ရှိသေးတယ်။
10:14
Thank you very much.
221
602280
1216
အထူး ကျေးဇူးတင်ပါတယ်။
10:15
(Applause)
222
603520
4286
(လက်ခုပ်တီးသံများ)
Translated by Myo Aung
Reviewed by sann tint

▲Back to top

ABOUT THE SPEAKER
Grady Booch - Scientist, philosopher
IBM's Grady Booch is shaping the future of cognitive computing by building intelligent systems that can reason and learn.

Why you should listen

When he was 13, Grady Booch saw 2001: A Space Odyssey in the theaters for the first time. Ever since, he's been trying to build Hal (albeit one without the homicidal tendencies). A scientist, storyteller and philosopher, Booch is Chief Scientist for Software Engineering as well as Chief Scientist for Watson/M at IBM Research, where he leads IBM's research and development for embodied cognition. Having originated the term and the practice of object-oriented design, he is best known for his work in advancing the fields of software engineering and software architecture.

A co-author of the Unified Modeling Language (UML), a founding member of the Agile Allianc, and a founding member of the Hillside Group, Booch has published six books and several hundred technical articles, including an ongoing column for IEEE Software. He's also a trustee for the Computer History Museum, an IBM Fellow, an ACM Fellow and IEEE Fellow. He has been awarded the Lovelace Medal and has given the Turing Lecture for the BCS, and was recently named an IEEE Computer Pioneer.

Booch is currently deeply involved in the development of cognitive systems and is also developing a major trans-media documentary for public broadcast on the intersection of computing and the human experience.

More profile about the speaker
Grady Booch | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee