ABOUT THE SPEAKER
Grady Booch - Scientist, philosopher
IBM's Grady Booch is shaping the future of cognitive computing by building intelligent systems that can reason and learn.

Why you should listen

When he was 13, Grady Booch saw 2001: A Space Odyssey in the theaters for the first time. Ever since, he's been trying to build Hal (albeit one without the homicidal tendencies). A scientist, storyteller and philosopher, Booch is Chief Scientist for Software Engineering as well as Chief Scientist for Watson/M at IBM Research, where he leads IBM's research and development for embodied cognition. Having originated the term and the practice of object-oriented design, he is best known for his work in advancing the fields of software engineering and software architecture.

A co-author of the Unified Modeling Language (UML), a founding member of the Agile Allianc, and a founding member of the Hillside Group, Booch has published six books and several hundred technical articles, including an ongoing column for IEEE Software. He's also a trustee for the Computer History Museum, an IBM Fellow, an ACM Fellow and IEEE Fellow. He has been awarded the Lovelace Medal and has given the Turing Lecture for the BCS, and was recently named an IEEE Computer Pioneer.

Booch is currently deeply involved in the development of cognitive systems and is also developing a major trans-media documentary for public broadcast on the intersection of computing and the human experience.

More profile about the speaker
Grady Booch | Speaker | TED.com
TED@IBM

Grady Booch: Don't fear superintelligent AI

Grady Booch: Đừng sợ siêu trí tuệ nhân tạo AI

Filmed:
2,866,438 views

Công nghệ mới sinh ra các lo lắng mới, theo nhà triết học và khoa học Grady Booch, nhưng chúng ta không cần sợ một trí tuệ nhân tạo vô cảm, đầy sức mạnh. Booch làm dịu bớt những nỗi sợ hãi về các máy tính siêu trí tuệ bằng việc giải thích cách chúng ta dạy, không phải lập trình, chúng để chia sẽ các giá trị của mình. Thay vì lo lắng về một mối đe dọa gần như không tồn tại, ông ấy giục chúng ta xem xét cách tri tuệ nhân tạo sẽ nâng cao đời sống con người.
- Scientist, philosopher
IBM's Grady Booch is shaping the future of cognitive computing by building intelligent systems that can reason and learn. Full bio

Double-click the English transcript below to play the video.

00:12
When I was a kidđứa trẻ,
I was the quintessentialtinh túy nerdmọt sách.
0
760
3840
Khi còn là đứa trẻ,
tôi là con mọt sách chính hiệu.
00:17
I think some of you were, too.
1
5320
2176
Tôi nghĩ ở đây cũng có các bạn như vậy.
00:19
(LaughterTiếng cười)
2
7520
1216
(Cười)
00:20
And you, sirNgài, who laughedcười the loudestto nhất,
you probablycó lẽ still are.
3
8760
3216
Và bạn, bạn cười to nhất đó,
chắc đúng bạn rồi.
00:24
(LaughterTiếng cười)
4
12000
2256
(Cười)
00:26
I grewlớn lên up in a smallnhỏ bé townthị trấn
in the dustybụi plainsđồng bằng of northBắc TexasTexas,
5
14280
3496
Tôi lớn lên ở một thị trấn nhỏ
trong vùng đồng bằng bụi bặm bắc Texas,
00:29
the sonCon trai of a sheriffcảnh sát trưởng
who was the sonCon trai of a pastormục sư.
6
17800
3336
ba tôi là cảnh sát trưởng
và ông nội tôi là một mục sư.
00:33
GettingNhận được into troublerắc rối was not an optionTùy chọn.
7
21160
1920
Gây ra rắc rối là không được phép.
00:36
And so I startedbắt đầu readingđọc hiểu
calculustính toán bookssách for funvui vẻ.
8
24040
3256
Và tôi bắt đầu đọc các sách số học
để cho vui.
00:39
(LaughterTiếng cười)
9
27320
1536
(Cười)
00:40
You did, too.
10
28880
1696
Bạn cũng vậy chứ.
00:42
That led me to buildingTòa nhà a laserlaser
and a computermáy vi tính and modelmô hình rocketstên lửa,
11
30600
3736
Nó đã đưa tôi đến việc tạo ra thiết bị
laser, máy tính và các tên lửa mô hình,
00:46
and that led me to makingchế tạo
rockettên lửa fuelnhiên liệu in my bedroomphòng ngủ.
12
34360
3000
và đã dẫn dắt tôi tạo ra
nhiên liệu tên lửa trong phòng ngủ.
00:49
Now, in scientificthuộc về khoa học termsđiều kiện,
13
37960
3656
Theo thuật ngữ khoa học mà nói,
00:53
we call this a very badxấu ideaý kiến.
14
41640
3256
chúng ta gọi nó là một ý tưởng sai lầm.
00:56
(LaughterTiếng cười)
15
44920
1216
(Cười)
00:58
Around that sametương tự time,
16
46160
2176
Vào cùng khoảng thời gian đó,
01:00
StanleyStanley Kubrick'sKubrick's "2001: A SpaceSpace OdysseyCuộc phiêu lưu"
cameđã đến to the theatersnhà hát,
17
48360
3216
Ra mắt bộ phim của Stanley Kubrick
"2001: A Space Odyssey",
01:03
and my life was forevermãi mãi changedđã thay đổi.
18
51600
2200
và cuộc đời tôi đã thay đổi từ đó.
01:06
I lovedyêu everything about that moviebộ phim,
19
54280
2056
Tôi yêu mọi thứ của bộ phim đó,
01:08
especiallyđặc biệt the HALHAL 9000.
20
56360
2536
đặc biệt là nhân vật HAL 9000.
01:10
Now, HALHAL was a sentientnhạy cảm computermáy vi tính
21
58920
2056
HAL là một máy tính có tri giác
01:13
designedthiết kế to guidehướng dẫn the DiscoveryKhám phá spacecraftphi thuyền
22
61000
2456
được thiết kế để hướng dẫn
phi thuyền Discovery
01:15
from the EarthTrái đất to JupiterSao Mộc.
23
63480
2536
từ Trái Đất tới sao Mộc.
HAL cũng là một nhân vật có khiếm khuyết,
01:18
HALHAL was alsocũng thế a flawedthiếu sót charactertính cách,
24
66040
2056
01:20
for in the endkết thúc he choseđã chọn
to valuegiá trị the missionsứ mệnh over humanNhân loại life.
25
68120
4280
vì cuối cùng anh ấy đã lựa chọn đề cao
nhiệm vụ hơn sự sống con người.
01:24
Now, HALHAL was a fictionalhư cấu charactertính cách,
26
72840
2096
HAL là một nhân vật viễn tưởng
01:26
but nonethelessdù sao he speaksnói to our fearssợ hãi,
27
74960
2656
nhưng anh ta vẫn nói lên
nỗi sợ hãi của chúng ta
nỗi sợ hãi của việc bị thống trị
01:29
our fearssợ hãi of beingđang subjugatedchinh phục
28
77640
2096
01:31
by some unfeelingthê, artificialnhân tạo intelligenceSự thông minh
29
79760
3016
bởi trí tuệ nhân tạo vô cảm
không quan tâm đến loài người chúng ta.
01:34
who is indifferentvô tư to our humanitynhân loại.
30
82800
1960
01:37
I believe that suchnhư là fearssợ hãi are unfoundedkhông có cơ sở.
31
85880
2576
Tôi tin rằng những nỗi sợ hãi như vậy
là vô căn cứ.
01:40
IndeedThực sự, we standđứng at a remarkableđáng chú ý time
32
88480
2696
Thật vậy, chúng ta đang ở
một thời điểm đáng chú ý
01:43
in humanNhân loại historylịch sử,
33
91200
1536
trong lịch sử loài người,
01:44
where, drivenlái xe by refusaltừ chối to acceptChấp nhận
the limitsgiới hạn of our bodiescơ thể and our mindstâm trí,
34
92760
4976
nó được thúc đẩy nhờ sự bất mãn với các
giới hạn của cơ thể và trí tuệ chúng ta,
01:49
we are buildingTòa nhà machinesmáy móc
35
97760
1696
chúng ta đang tạo ra các cỗ máy
01:51
of exquisitetinh tế, beautifulđẹp
complexityphức tạp and graceân huệ
36
99480
3616
tinh vi, phức tạp, xinh đẹp và duyên dáng
01:55
that will extendmở rộng the humanNhân loại experiencekinh nghiệm
37
103120
2056
thứ sẽ mở rộng trải nghiệm
của con người
theo những cách vượt xa tưởng tượng.
01:57
in wayscách beyondvượt ra ngoài our imaginingtưởng tượng.
38
105200
1680
01:59
After a careernghề nghiệp that led me
from the AirMáy ForceLực lượng AcademyHọc viện
39
107720
2576
Sau quá trinh công tác từ
Học viện không quân
02:02
to SpaceSpace CommandChỉ huy to now,
40
110320
1936
đến công tác tại Không quân đến nay,
02:04
I becameđã trở thành a systemshệ thống engineerkỹ sư,
41
112280
1696
tôi đã trở thành một kỹ sư hệ thống
02:06
and recentlygần đây I was drawnrút ra
into an engineeringkỹ thuật problemvấn đề
42
114000
2736
và gần đây tôi được tham gia vào
một vấn đề kỹ thuật
02:08
associatedliên kết with NASA'sCủa NASA missionsứ mệnh to MarsSao Hỏa.
43
116760
2576
hỗ trợ cho nhiệm vụ đến sao Hỏa của NASA.
02:11
Now, in spacekhông gian flightschuyến bay to the MoonMặt Trăng,
44
119360
2496
Trong các chuyến bay
đến Mặt trăng,
chúng ta có thể dựa trên hệ thống
điều khiển nhiệm vụ ở Houston
02:13
we can relydựa upontrên
missionsứ mệnh controlđiều khiển in HoustonHouston
45
121880
3136
để quan sát mọi khía cạnh của chuyến bay.
02:17
to watch over all aspectscác khía cạnh of a flightchuyến bay.
46
125040
1976
02:19
HoweverTuy nhiên, MarsSao Hỏa is 200 timeslần furtherthêm nữa away,
47
127040
3536
Tuy nhiên, sao Hỏa thì xa hơn đến 200 lần
và như vậy trung bình phải cần 13 phút
02:22
and as a resultkết quả it takes
on averageTrung bình cộng 13 minutesphút
48
130600
3216
02:25
for a signaltín hiệu to traveldu lịch
from the EarthTrái đất to MarsSao Hỏa.
49
133840
3136
để một tín hiệu đi
từ Trái đất đến sao Hỏa.
02:29
If there's troublerắc rối,
there's not enoughđủ time.
50
137000
3400
Nếu có trục trặc, sẽ không đủ thời gian.
02:32
And so a reasonablehợp lý engineeringkỹ thuật solutiondung dịch
51
140840
2496
Và do vậy một giải pháp kỹ thuật hợp lý
02:35
callscuộc gọi for us to put missionsứ mệnh controlđiều khiển
52
143360
2576
đặt ra là cần phải đặt
thiết bị điều khiển nhiệm vụ
02:37
insidephía trong the wallsbức tường of the OrionOrion spacecraftphi thuyền.
53
145960
3016
ngay bên trong phi thuyền Orion
Một ý tưởng hấp dẫn khác
trong hồ sơ nhiệm vụ
02:41
AnotherKhác fascinatinghấp dẫn ideaý kiến
in the missionsứ mệnh profileHồ sơ
54
149000
2896
là đưa các robot giống người
lên bề mặt sao Hỏa
02:43
placesnơi humanoidHumanoid robotsrobot
on the surfacebề mặt of MarsSao Hỏa
55
151920
2896
02:46
before the humanscon người themselvesbản thân họ arriveđến nơi,
56
154840
1856
trước khi con người đặt chân đến,
02:48
first to buildxây dựng facilitiescơ sở vật chất
57
156720
1656
đầu tiên để xây dựng cơ sở hạ tầng
02:50
and latermột lát sau to servephục vụ as collaborativehợp tác
memberscác thành viên of the sciencekhoa học teamđội.
58
158400
3360
và sau đó để phục vụ các thành viên
cộng tác của đội ngũ khoa học.
02:55
Now, as I lookednhìn at this
from an engineeringkỹ thuật perspectivequan điểm,
59
163400
2736
Khi tôi xem xét nó dưới góc độ kỹ thuật,
thì thấy rõ ràng cái mà chúng ta cần
tạo ra
02:58
it becameđã trở thành very cleartrong sáng to me
that what I neededcần to architectkiến trúc sư
60
166160
3176
03:01
was a smartthông minh, collaborativehợp tác,
61
169360
2176
là một trí tuệ nhân tạo hiểu biết xã hội
03:03
sociallyxã hội intelligentthông minh
artificialnhân tạo intelligenceSự thông minh.
62
171560
2376
thông minh, dễ cộng tác.
03:05
In other wordstừ ngữ, I neededcần to buildxây dựng
something very much like a HALHAL
63
173960
4296
Nói cách khác, tôi cần tạo ra một thứ
rất giống với một HAL
nhưng không có khuynh hướng giết người.
03:10
but withoutkhông có the homicidalsát nhân tendencieskhuynh hướng.
64
178280
2416
03:12
(LaughterTiếng cười)
65
180720
1360
(Cười)
03:14
Let's pausetạm ngừng for a momentchốc lát.
66
182920
1816
Chúng ta hãy dừng lại trong giây lát.
03:16
Is it really possiblekhả thi to buildxây dựng
an artificialnhân tạo intelligenceSự thông minh like that?
67
184760
3896
Thực sự chúng ta có thể tạo ra
một trí tuệ nhân tạo như vậy không?
03:20
ActuallyTrên thực tế, it is.
68
188680
1456
Thực ra là có thể.
03:22
In manynhiều wayscách,
69
190160
1256
Theo nhiều cách,
03:23
this is a hardcứng engineeringkỹ thuật problemvấn đề
70
191440
1976
đây là một vấn đề khó khăn về kỹ thuật
có liên quan đến AI,
03:25
with elementscác yếu tố of AIAI,
71
193440
1456
chứ không phải một vấn đề lộn xộn về AI
cần được giải quyết.
03:26
not some wetẩm ướt hairtóc balltrái bóng of an AIAI problemvấn đề
that needsnhu cầu to be engineeredthiết kế.
72
194920
4696
Để diễn đạt lại theo ý của Alan Turing,
03:31
To paraphrasediễn giải AlanAlan TuringTuring,
73
199640
2656
tôi không hứng thú tạo ra
một cỗ máy có tri giác.
03:34
I'm not interestedquan tâm
in buildingTòa nhà a sentientnhạy cảm machinemáy móc.
74
202320
2376
Tôi không tạo ra một HAL.
03:36
I'm not buildingTòa nhà a HALHAL.
75
204720
1576
03:38
All I'm after is a simpleđơn giản brainóc,
76
206320
2416
Cái tôi làm là tạo ra một bộ não đơn giản
mà có thể đem đến ảo giác của trí tuệ.
03:40
something that offerscung cấp
the illusionảo giác of intelligenceSự thông minh.
77
208760
3120
03:45
The artnghệ thuật and the sciencekhoa học of computingtính toán
have come a long way
78
213000
3136
Nghệ thuật và khoa học điện toán đã
đi được một đoạn đường dài
kể từ khi HAL trên sóng,
03:48
sincekể từ HALHAL was onscreentrên màn hình,
79
216160
1496
và tôi tưởng tượng nếu cha đẻ của
anh ta, Dr. Chandra, ở đây hôm nay,
03:49
and I'd imaginetưởng tượng if his inventorngười phát minh
DrTiến sĩ. ChandraChandra were here todayhôm nay,
80
217680
3216
03:52
he'danh ấy have a wholetoàn thể lot of questionscâu hỏi for us.
81
220920
2336
ông ấy sẽ có một loạt câu hỏi
cho chúng ta.
03:55
Is it really possiblekhả thi for us
82
223280
2096
Chúng ta có thể
03:57
to take a systemhệ thống of millionshàng triệu
upontrên millionshàng triệu of devicesthiết bị,
83
225400
4016
sử dụng một hệ thống gồm hàng triệu
triệu thiết bị,
04:01
to readđọc in theirhọ datadữ liệu streamsdòng,
84
229440
1456
để nhập các luồng dữ liệu,
để dự đoán các thất bại và
có hành động trước không?
04:02
to predicttiên đoán theirhọ failuresthất bại
and acthành động in advancenâng cao?
85
230920
2256
04:05
Yes.
86
233200
1216
Vâng, có thể.
Ta tạo ra được các hệ thống
giao tiếp bằng ngôn ngữ tự nhiên không?
04:06
Can we buildxây dựng systemshệ thống that converseConverse
with humanscon người in naturaltự nhiên languagengôn ngữ?
87
234440
3176
04:09
Yes.
88
237640
1216
Được.
Ta tạo ra được các hệ thống
nhận diện vật thể, xác định cảm xúc,
04:10
Can we buildxây dựng systemshệ thống
that recognizenhìn nhận objectscác đối tượng, identifynhận định emotionscảm xúc,
89
238880
2976
tự biểu hiện cảm xúc, chơi trò chơi
và thậm chí đọc khẩu hình không?
04:13
emotebiểu hiện cảm xúc themselvesbản thân họ,
playchơi gamesTrò chơi and even readđọc lipsmôi?
90
241880
3376
Được.
04:17
Yes.
91
245280
1216
Ta tạo ra được hệ thống
tự lập mục tiêu,
04:18
Can we buildxây dựng a systemhệ thống that setsbộ goalsnhững mục tiêu,
92
246520
2136
xây dựng kế hoạch lệch với mục tiêu đó
và học hỏi từ quá trình trên không?
04:20
that carriesmang out planscác kế hoạch againstchống lại those goalsnhững mục tiêu
and learnshọc alongdọc theo the way?
93
248680
3616
04:24
Yes.
94
252320
1216
Được
Chúng ta có thể tạo ra các hệ thống
có khả năng nhận thức tư duy không?
04:25
Can we buildxây dựng systemshệ thống
that have a theorylý thuyết of mindlí trí?
95
253560
3336
Cái này chúng ta đang học.
04:28
This we are learninghọc tập to do.
96
256920
1496
04:30
Can we buildxây dựng systemshệ thống that have
an ethicalđạo đức and moralđạo đức foundationnền tảng?
97
258440
3480
Chúng ta có thể tạo ra các hệ thống
có nền tảng đạo đức và luân lý không?
04:34
This we mustphải learnhọc hỏi how to do.
98
262480
2040
Cái này chúng ta phải học cách làm.
Vậy chúng ta hãy tạm chấp nhận
04:37
So let's acceptChấp nhận for a momentchốc lát
99
265360
1376
rằng có thể tạo ra một hệ thống
trí tuệ nhân tạo như vậy
04:38
that it's possiblekhả thi to buildxây dựng
suchnhư là an artificialnhân tạo intelligenceSự thông minh
100
266760
2896
04:41
for this kindloại of missionsứ mệnh and othersKhác.
101
269680
2136
cho kiểu nhiệm vụ này và cả các loại khác.
Câu hỏi tiếp theo mà bạn phải tự hỏi là,
04:43
The nextkế tiếp questioncâu hỏi
you mustphải askhỏi yourselfbản thân bạn is,
102
271840
2536
04:46
should we fearnỗi sợ it?
103
274400
1456
chúng ta có nên sợ nó?
Thực chất, mọi công nghệ mới
04:47
Now, everymỗi newMới technologyCông nghệ
104
275880
1976
đều đem đến sự lo lắng ở mức độ nào đó.
04:49
bringsmang lại with it
some measuređo of trepidationlo lắng.
105
277880
2896
Khi chúng ta thấy xe hơi lần đầu,
04:52
When we first saw carsxe hơi,
106
280800
1696
người ta đã than phiền rằng nó sẽ
hủy hoại gia đình.
04:54
people lamentedthan khóc that we would see
the destructionsự phá hủy of the familygia đình.
107
282520
4016
04:58
When we first saw telephonesđiện thoại come in,
108
286560
2696
Khi điện thoại lần đầu xuất hiện,
05:01
people were worriedlo lắng it would destroyhủy hoại
all civildân sự conversationcuộc hội thoại.
109
289280
2896
người ta đã lo lắng nó sẽ hủy hoại
việc giao lưu trò chuyện.
Đã có lúc khi chữ viết trở nên phổ biến,
05:04
At a pointđiểm in time we saw
the writtenbằng văn bản wordtừ becometrở nên pervasivephổ biến,
110
292200
3936
05:08
people thought we would losethua
our abilitycó khả năng to memorizeghi nhớ.
111
296160
2496
người ta đã nghĩ
chúng ta sẽ mất khả năng ghi nhớ.
05:10
These things are all truethật to a degreetrình độ,
112
298680
2056
Tất cả lo sợ đó đều đúng ở mức độ nào đó,
nhưng những công nghệ này cũng
05:12
but it's alsocũng thế the casetrường hợp
that these technologiescông nghệ
113
300760
2416
05:15
broughtđưa to us things
that extendedmở rộng the humanNhân loại experiencekinh nghiệm
114
303200
3376
mang đến chúng ta những thứ
đã mở rộng trải nghiệm của con người
05:18
in some profoundthâm thúy wayscách.
115
306600
1880
một cách sâu sắc.
05:21
So let's take this a little furtherthêm nữa.
116
309840
2280
Chúng ta hãy nói thêm về nó một chút.
Tôi không sợ việc một AI như vậy
được tạo ra,
05:25
I do not fearnỗi sợ the creationsự sáng tạo
of an AIAI like this,
117
313120
4736
bởi vì cuối cùng nó vẫn sẽ là hiện thân
một số giá trị của chúng ta.
05:29
because it will eventuallycuối cùng
embodythể hiện some of our valuesgiá trị.
118
317880
3816
Hãy nghĩ thế này: xây dựng một hệ thống
có nhận thức về cơ bản là khác với
05:33
ConsiderXem xét this: buildingTòa nhà a cognitivenhận thức systemhệ thống
is fundamentallyvề cơ bản differentkhác nhau
119
321720
3496
05:37
than buildingTòa nhà a traditionaltruyên thông
software-intensivephần mềm-chuyên sâu systemhệ thống of the pastquá khứ.
120
325240
3296
xây dựng một hệ thống phần mềm chuyên sâu
truyền thống như trước đây.
05:40
We don't programchương trình them. We teachdạy them.
121
328560
2456
Ta không lập trình nó. Ta dạy nó.
Để dạy một hệ thống nhận biết
các bông hoa,
05:43
In ordergọi món to teachdạy a systemhệ thống
how to recognizenhìn nhận flowershoa,
122
331040
2656
Tôi cho nó xem hàng nghìn bông hoa
thuộc những loại tôi thích.
05:45
I showchỉ it thousandshàng nghìn of flowershoa
of the kindscác loại I like.
123
333720
3016
Để dạy một hệ thống cách chơi trò chơi--
05:48
In ordergọi món to teachdạy a systemhệ thống
how to playchơi a gametrò chơi --
124
336760
2256
05:51
Well, I would. You would, too.
125
339040
1960
Vâng, tôi sẽ làm thế. Bạn cũng sẽ thôi.
05:54
I like flowershoa. Come on.
126
342600
2040
Tôi thích hoa mà. Nào mọi người.
05:57
To teachdạy a systemhệ thống
how to playchơi a gametrò chơi like Go,
127
345440
2856
Để dạy một hệ thống chơi game
như Go chẳng hạn,
Tôi sẽ cho nó chơi hàng nghìn ván Go,
06:00
I'd have it playchơi thousandshàng nghìn of gamesTrò chơi of Go,
128
348320
2056
06:02
but in the processquá trình I alsocũng thế teachdạy it
129
350400
1656
trong quá trình đó tôi cũng dạy nó
06:04
how to discernphân biệt
a good gametrò chơi from a badxấu gametrò chơi.
130
352080
2416
cách phân biệt
ván chơi hay và ván chơi dở.
06:06
If I want to createtạo nên an artificiallygiả tạo
intelligentthông minh legalhợp pháp assistanttrợ lý,
131
354520
3696
Nếu tôi muốn tạo ra một trợ lý pháp lý
thông minh nhân tạo,
06:10
I will teachdạy it some corpuscorpus of lawpháp luật
132
358240
1776
Tôi sẽ dạy nó một số tập sách luật
nhưng đồng thời tôi sẽ lồng ghép vào đó
06:12
but at the sametương tự time I am fusingnung chảy with it
133
360040
2856
06:14
the sensegiác quan of mercylòng thương xót and justiceSự công bằng
that is partphần of that lawpháp luật.
134
362920
2880
ý thức về lòng thương người và công lý
là một phần của luật.
06:18
In scientificthuộc về khoa học termsđiều kiện,
this is what we call groundđất truthsự thật,
135
366560
2976
Theo thuật ngữ khoa học,
ta gọi nó là sự thật nền móng,
và đây là điểm quan trọng:
06:21
and here'sđây là the importantquan trọng pointđiểm:
136
369560
2016
06:23
in producingsản xuất these machinesmáy móc,
137
371600
1456
khi sản xuất các cỗ máy này,
06:25
we are thereforevì thế teachinggiảng bài them
a sensegiác quan of our valuesgiá trị.
138
373080
3416
chúng ta đang dạy chúng ý thức
về các giá trị của chúng ta.
06:28
To that endkết thúc, I trustLòng tin
an artificialnhân tạo intelligenceSự thông minh
139
376520
3136
Do vậy, tôi tin tưởng vào
một trí tuệ nhân tạo
06:31
the sametương tự, if not more,
as a humanNhân loại who is well-trainedđược đào tạo tốt.
140
379680
3640
bằng với, nếu không muốn nói hơn cả,
một con người được giáo dục tốt.
06:36
But, you mayTháng Năm askhỏi,
141
384080
1216
Nhưng bạn có thể sẽ hỏi,
06:37
what about rogueRogue agentsđại lý,
142
385320
2616
thế còn các tổ chức biến tướng thì sao,
06:39
some well-fundedđược tài trợ
nongovernmentPhi organizationcơ quan?
143
387960
3336
một tổ chức phi chính phủ
lắm tiền nào đấy chẳng hạn?
Tôi không sợ một trí tuệ nhân tạo
trong tay một kẻ đơn độc.
06:43
I do not fearnỗi sợ an artificialnhân tạo intelligenceSự thông minh
in the handtay of a loneđơn độc wolfchó sói.
144
391320
3816
06:47
ClearlyRõ ràng, we cannotkhông thể protectbảo vệ ourselveschúng ta
againstchống lại all randomngẫu nhiên actshành vi of violencebạo lực,
145
395160
4536
Rõ ràng, chúng ta không thể bảo vệ mình
trước những hành động bạo lực bất ngờ,
06:51
but the realitythực tế is suchnhư là a systemhệ thống
146
399720
2136
nhưng trong thực tế một hệ thống như vậy
06:53
requiresđòi hỏi substantialđáng kể trainingđào tạo
and subtletế nhị trainingđào tạo
147
401880
3096
yêu cầu sự đào tạo cơ bản
và đào tạo tinh vi
06:57
farxa beyondvượt ra ngoài the resourcestài nguyên of an individualcá nhân.
148
405000
2296
vượt xa các nguồn lực của một cá nhân.
06:59
And furthermorehơn nữa,
149
407320
1216
Và hơn nữa,
07:00
it's farxa more than just injectingtiêm chích
an internetInternet virusvirus to the worldthế giới,
150
408560
3256
nó không giống như việc phát tán
virus qua mạng ra khắp thế giới,
07:03
where you pushđẩy a buttonnút,
all of a suddenđột nhiên it's in a milliontriệu placesnơi
151
411840
3096
kiểu bạn chỉ ấn một phím,
nó đã lan ra một triệu vị trí
và laptop bắt đầu nổ tanh bành
khắp mọi nơi.
07:06
and laptopsmáy tính xách tay startkhởi đầu blowingthổi up
all over the placeđịa điểm.
152
414960
2456
Những chuyện thế này lớn hơn rất nhiều,
07:09
Now, these kindscác loại of substancesCác chất
are much largerlớn hơn,
153
417440
2816
và chắc chắn ta
sẽ dự đoán trước được.
07:12
and we'lltốt certainlychắc chắn see them comingđang đến.
154
420280
1715
07:14
Do I fearnỗi sợ that suchnhư là
an artificialnhân tạo intelligenceSự thông minh
155
422520
3056
Tôi có sợ rằng
một trí tuệ nhân tạo như vậy
07:17
mightcó thể threatenđe dọa all of humanitynhân loại?
156
425600
1960
có thể đe dọa toàn nhân loại hay không?
07:20
If you look at moviesphim
suchnhư là as "The MatrixMa trận," "MetropolisMetropolis,"
157
428280
4376
Nếu bạn nhìn vào các bộ phim
như "The Matrix," "Metropolis,"
07:24
"The TerminatorKẻ hủy diệt,"
showstrình diễn suchnhư là as "WestworldWestworld,"
158
432680
3176
"The Terminator,"
các chương trình như "Westworld,"
07:27
they all speaknói of this kindloại of fearnỗi sợ.
159
435880
2136
chúng đều nói về nỗi sợ hãi này.
07:30
IndeedThực sự, in the booksách "SuperintelligenceSuperintelligence"
by the philosophernhà triết học NickNick BostromBostrom,
160
438040
4296
Thực vậy, trong cuốn "Siêu trí tuệ"
của triết gia Nick Bostrom,
ông đề cập đến chủ đề này
07:34
he picksPicks up on this themechủ đề
161
442360
1536
07:35
and observesquan sát that a superintelligencesuperintelligence
mightcó thể not only be dangerousnguy hiểm,
162
443920
4016
và nhận ra rằng một siêu trí tuệ
có thể không chỉ nguy hiểm,
mà còn có thể đại diện cho một
mối đe dọa sống còn với toàn nhân loại.
07:39
it could representđại diện an existentialhiện hữu threatmối đe dọa
to all of humanitynhân loại.
163
447960
3856
Lý lẽ chủ yếu của Dr. Bostrom
07:43
DrTiến sĩ. Bostrom'sCủa Bostrom basiccăn bản argumenttranh luận
164
451840
2216
07:46
is that suchnhư là systemshệ thống will eventuallycuối cùng
165
454080
2736
là các hệ thống như vậy cuối cùng sẽ
07:48
have suchnhư là an insatiableinsatiable
thirstkhát for informationthông tin
166
456840
3256
có một cơn khát thông tin vô độ;
là chúng có lẽ sẽ học cách để học
07:52
that they will perhapscó lẽ learnhọc hỏi how to learnhọc hỏi
167
460120
2896
07:55
and eventuallycuối cùng discoverkhám phá
that they mayTháng Năm have goalsnhững mục tiêu
168
463040
2616
và cuối cùng khám phá ra rằng
chúng có các mục tiêu
07:57
that are contraryngược lại to humanNhân loại needsnhu cầu.
169
465680
2296
trái ngược với nhu cầu con người.
08:00
DrTiến sĩ. BostromBostrom has a numbercon số of followersnhững người theo.
170
468000
1856
Có một số người ủng hộ Dr. Bostrom.
08:01
He is supportedđược hỗ trợ by people
suchnhư là as ElonElon MuskXạ hương and StephenStephen HawkingHawking.
171
469880
4320
Ông ấy được ủng hộ bởi những người như
Elon Musk và Stephen Hawking.
08:06
With all dueđến hạn respectsự tôn trọng
172
474880
2400
Dù rất kính trọng
08:10
to these brilliantrực rỡ mindstâm trí,
173
478160
2016
những bộ óc lỗi lạc này,
08:12
I believe that they
are fundamentallyvề cơ bản wrongsai rồi.
174
480200
2256
tôi tin rằng họ về căn bản đều sai.
08:14
Now, there are a lot of piecesmiếng
of DrTiến sĩ. Bostrom'sCủa Bostrom argumenttranh luận to unpackgiải nén,
175
482480
3176
Có rất nhiều lý lẽ của
Dr. Bostrom cần được mổ xẻ
08:17
and I don't have time to unpackgiải nén them all,
176
485680
2136
và tôi không có thời gian để mổ xẻ tất cả,
08:19
but very brieflyngắn gọn, considerxem xét this:
177
487840
2696
nhưng rất ngắn gọn, hãy nghĩ thế này:
08:22
supersiêu knowingbiết is very differentkhác nhau
than supersiêu doing.
178
490560
3736
biết nhiều khác với làm nhiều.
08:26
HALHAL was a threatmối đe dọa to the DiscoveryKhám phá crewphi hành đoàn
179
494320
1896
HAL là một mối đe dọa với tàu Discovery
08:28
only insofarphạm vi as HALHAL commandedchỉ huy
all aspectscác khía cạnh of the DiscoveryKhám phá.
180
496240
4416
chỉ trong điều kiện HAL được chỉ huy
toàn bộ tàu Discovery.
08:32
So it would have to be
with a superintelligencesuperintelligence.
181
500680
2496
Nghĩa là chúng ta xét về một siêu trí tuệ.
08:35
It would have to have dominionDominion
over all of our worldthế giới.
182
503200
2496
Nó sẽ phải có quyền chi phối
toàn thế giới chúng ta.
08:37
This is the stuffđồ đạc of SkynetSkynet
from the moviebộ phim "The TerminatorKẻ hủy diệt"
183
505720
2816
Đây là trường hợp của Skynet
trong phim "The Terminator"
08:40
in which we had a superintelligencesuperintelligence
184
508560
1856
trong đó chúng ta có một siêu trí tuệ
có thể chỉ huy ý chí con người,
08:42
that commandedchỉ huy humanNhân loại will,
185
510440
1376
08:43
that directedđạo diễn everymỗi devicethiết bị
that was in everymỗi cornergóc of the worldthế giới.
186
511840
3856
điều khiển mọi thiết bị
ở mọi ngõ ngách của thể giới.
08:47
PracticallyThực tế speakingnói,
187
515720
1456
Thực tế mà nói,
08:49
it ain'tkhông phải là gonna happenxảy ra.
188
517200
2096
điều đó sẽ không xảy ra.
08:51
We are not buildingTòa nhà AIsTrường quốc tế Mỹ
that controlđiều khiển the weatherthời tiết,
189
519320
3056
Chúng ta sẽ không tạo ra các AI
kiểm soát được thời tiết,
điều khiển được thủy triều,
08:54
that directthẳng thắn the tidesthủy triều,
190
522400
1336
08:55
that commandchỉ huy us
capricioushay thay đổi, chaotichỗn loạn humanscon người.
191
523760
3376
hay chỉ huy được loài người
lộn xộn thất thường chúng ta.
08:59
And furthermorehơn nữa, if suchnhư là
an artificialnhân tạo intelligenceSự thông minh existedtồn tại,
192
527160
3896
Và hơn nữa,
nếu một trí tuệ nhân tạo như vậy tồn tại,
09:03
it would have to competecạnh tranh
with humanNhân loại economiesnền kinh tế,
193
531080
2936
nó sẽ phải cạnh tranh
với nền kinh tế nhân loại,
09:06
and therebybằng cách ấy competecạnh tranh for resourcestài nguyên with us.
194
534040
2520
và từ đó cạnh tranh với chúng ta
giành các nguồn lực.
09:09
And in the endkết thúc --
195
537200
1216
Và cuối cùng thì --
09:10
don't tell SiriSiri this --
196
538440
1240
đừng nói với Siri nhé --
09:12
we can always unplugrút phích cắm them.
197
540440
1376
ta luôn có thể rút dây điện.
09:13
(LaughterTiếng cười)
198
541840
2120
(Cười)
09:17
We are on an incredibleđáng kinh ngạc journeyhành trình
199
545360
2456
Chúng ta đang ở trên
một hành trình khó tin
09:19
of coevolutioncoevolution with our machinesmáy móc.
200
547840
2496
cùng tiến hóa với các cỗ máy của mình.
09:22
The humanscon người we are todayhôm nay
201
550360
2496
Loài người chúng ta hôm nay
09:24
are not the humanscon người we will be then.
202
552880
2536
sẽ không phải là
loài người chúng ta sau này.
09:27
To worrylo now about the risetăng lên
of a superintelligencesuperintelligence
203
555440
3136
Lo lắng lúc này về sự phát triển
của một siêu trí tuệ
09:30
is in manynhiều wayscách a dangerousnguy hiểm distractionphân tâm
204
558600
3056
theo nhiều cách
là một sự phân tâm nguy hiểm
09:33
because the risetăng lên of computingtính toán itselfchinh no
205
561680
2336
bởi vì sự phát triển của điện toán tự nó
09:36
bringsmang lại to us a numbercon số
of humanNhân loại and societalxã hội issuesvấn đề
206
564040
3016
cũng đã đem đến nhiều vấn đề
về con người và xã hội
mà chúng ta giờ đây phải chú ý tới.
09:39
to which we mustphải now attendtham dự.
207
567080
1640
09:41
How shallsẽ I besttốt organizetổ chức societyxã hội
208
569360
2816
Chúng ta sẽ tổ chức xã hội
một cách tốt nhất như thế nào
09:44
when the need for humanNhân loại laborlao động diminishesgiảm dần?
209
572200
2336
khi nhu cầu về
sức lao động con người giảm đi?
09:46
How can I bringmang đến understandinghiểu biết
and educationgiáo dục throughoutkhắp the globequả địa cầu
210
574560
3816
Làm thế nào tôi có thể đem sự hiểu biết
và giáo dục đi khắp thế giới
09:50
and still respectsự tôn trọng our differencessự khác biệt?
211
578400
1776
và vẫn tôn trọng sự khác biệt?
09:52
How mightcó thể I extendmở rộng and enhancenâng cao humanNhân loại life
throughxuyên qua cognitivenhận thức healthcarechăm sóc sức khỏe?
212
580200
4256
Làm sao tôi có thể mở rộng và nâng cao đời
sống qua chăm sóc sức khỏe có nhận thức?
09:56
How mightcó thể I use computingtính toán
213
584480
2856
Tôi có thể sử dụng điện toán như thế nào
09:59
to help take us to the starssao?
214
587360
1760
để giúp đưa người lên các vì sao?
10:01
And that's the excitingthú vị thing.
215
589760
2040
Và đó là điều thú vị.
10:04
The opportunitiescơ hội to use computingtính toán
216
592400
2336
Các cơ hội sử dụng điện toán
10:06
to advancenâng cao the humanNhân loại experiencekinh nghiệm
217
594760
1536
để nâng cao trải nghiệm
10:08
are withinbên trong our reachchạm tới,
218
596320
1416
đang trong tầm tay chúng ta,
10:09
here and now,
219
597760
1856
ở đây và bây giờ,
10:11
and we are just beginningbắt đầu.
220
599640
1680
và chúng ta chỉ vừa bắt đầu.
10:14
Thank you very much.
221
602280
1216
Xin cám ơn rất nhiều.
10:15
(ApplauseVỗ tay)
222
603520
4286
(Vỗ tay)
Translated by Thuy Nguyen Thanh
Reviewed by Vy Chu Thủy

▲Back to top

ABOUT THE SPEAKER
Grady Booch - Scientist, philosopher
IBM's Grady Booch is shaping the future of cognitive computing by building intelligent systems that can reason and learn.

Why you should listen

When he was 13, Grady Booch saw 2001: A Space Odyssey in the theaters for the first time. Ever since, he's been trying to build Hal (albeit one without the homicidal tendencies). A scientist, storyteller and philosopher, Booch is Chief Scientist for Software Engineering as well as Chief Scientist for Watson/M at IBM Research, where he leads IBM's research and development for embodied cognition. Having originated the term and the practice of object-oriented design, he is best known for his work in advancing the fields of software engineering and software architecture.

A co-author of the Unified Modeling Language (UML), a founding member of the Agile Allianc, and a founding member of the Hillside Group, Booch has published six books and several hundred technical articles, including an ongoing column for IEEE Software. He's also a trustee for the Computer History Museum, an IBM Fellow, an ACM Fellow and IEEE Fellow. He has been awarded the Lovelace Medal and has given the Turing Lecture for the BCS, and was recently named an IEEE Computer Pioneer.

Booch is currently deeply involved in the development of cognitive systems and is also developing a major trans-media documentary for public broadcast on the intersection of computing and the human experience.

More profile about the speaker
Grady Booch | Speaker | TED.com