ABOUT THE SPEAKER
Nick Bostrom - Philosopher
Nick Bostrom asks big questions: What should we do, as individuals and as a species, to optimize our long-term prospects? Will humanity’s technological advancements ultimately destroy us?

Why you should listen

Philosopher Nick Bostrom envisioned a future full of human enhancement, nanotechnology and machine intelligence long before they became mainstream concerns. From his famous simulation argument -- which identified some striking implications of rejecting the Matrix-like idea that humans are living in a computer simulation -- to his work on existential risk, Bostrom approaches both the inevitable and the speculative using the tools of philosophy, probability theory, and scientific analysis.

Since 2005, Bostrom has led the Future of Humanity Institute, a research group of mathematicians, philosophers and scientists at Oxford University tasked with investigating the big picture for the human condition and its future. He has been referred to as one of the most important thinkers of our age.

Nick was honored as one of Foreign Policy's 2015 Global Thinkers .

His recent book Superintelligence advances the ominous idea that “the first ultraintelligent machine is the last invention that man need ever make.”

More profile about the speaker
Nick Bostrom | Speaker | TED.com
TED2015

Nick Bostrom: What happens when our computers get smarter than we are?

Nick Bostrom: Điều gì xảy ra khi máy tính thông minh hơn chúng ta ?

Filmed:
4,632,705 views

Trí thông minh nhân tạo đang ngày càng trở nên thông minh hơn. Các nghiên cứu cho thấy, chỉ trong thế kỷ này, AI của máy tính có thể "thông minh" như con người. Và rồi, nó sẽ vượt qua ta - theo Nick Bostrom. "Trí thông minh nhân tạo là phát kiến cuối cùng mà loài người cần tạo ra". Là triết gia và nhà công nghệ, Bostrom yêu cầu chúng ta suy nghĩ kỹ về thế giới mà mình đang xây dựng lúc này, được điều khiển bởi những máy móc biết suy nghĩ. Liệu những cỗ máy thống minh có giúp bảo tồn nhân loại và giá trị của chúng ta không - hay là chúng có hệ giá trị của riêng mình?
- Philosopher
Nick Bostrom asks big questions: What should we do, as individuals and as a species, to optimize our long-term prospects? Will humanity’s technological advancements ultimately destroy us? Full bio

Double-click the English transcript below to play the video.

00:12
I work with a bunch of mathematiciansnhà toán học,
philosophersnhà triết học and computermáy vi tính scientistscác nhà khoa học,
0
570
4207
Tôi làm việc với một nhóm các nhà
toán học, triết học, khoa học máy tính;
00:16
and we sitngồi around and think about
the futureTương lai of machinemáy móc intelligenceSự thông minh,
1
4777
5209
chúng tôi ngồi lại với nhau, nghĩ về
tương lai của trí thông minh nhân tạo,
00:21
amongtrong số other things.
2
9986
2044
cùng vài điều khác nữa.
00:24
Some people think that some of these
things are sortsắp xếp of sciencekhoa học fiction-ytiểu thuyết-y,
3
12030
4725
Vài người cho rằng những điều này
chỉ có trong khoa học viễn tưởng,
00:28
farxa out there, crazykhùng.
4
16755
3101
không thực tế, điên khùng.
00:31
But I like to say,
5
19856
1470
Nhưng tôi muốn nói rằng
00:33
okay, let's look at the modernhiện đại
humanNhân loại conditionđiều kiện.
6
21326
3604
Được rồi, hãy nhìn vào tình trạng
con người hiện nay.
00:36
(LaughterTiếng cười)
7
24930
1692
(Cười)
00:38
This is the normalbình thường way for things to be.
8
26622
2402
Đây là cách mọi thứ vẫn diễn ra
00:41
But if we think about it,
9
29024
2285
Nhưng nếu chúng ta nghĩ về nó,
chúng ta thực chất chỉ là những vị khách
mới đặt chân đến hành tinh này
00:43
we are actuallythực ra recentlygần đây arrivedđã đến
guestskhách on this planethành tinh,
10
31309
3293
00:46
the humanNhân loại speciesloài.
11
34602
2082
loài người.
00:48
Think about if EarthTrái đất
was createdtạo one yearnăm agotrước,
12
36684
4746
Thử nghĩ xem, nếu Trái đất
hình thành 1 năm trước
00:53
the humanNhân loại speciesloài, then,
would be 10 minutesphút old.
13
41430
3548
thì loài người
mới xuất hiện được 10 phút.
00:56
The industrialcông nghiệp erakỷ nguyên startedbắt đầu
two secondsgiây agotrước.
14
44978
3168
Và kỷ nguyên công nghiệp bắt đầu
2 giây trước.
01:01
AnotherKhác way to look at this is to think of
worldthế giới GDPGDP over the last 10,000 yearsnăm,
15
49276
5225
Một cách nhìn nhận khác về điều này
là GDP của thế giới trong 10.000 năm qua,
01:06
I've actuallythực ra takenLấy the troublerắc rối
to plotâm mưu this for you in a graphbiểu đồ.
16
54501
3029
Thực ra, tôi đã gặp khó khăn khi tìm cách
mô tả nó cho bạn dưới dạng biểu đồ
01:09
It looksnhìn like this.
17
57530
1774
Trông giống như thế này.
01:11
(LaughterTiếng cười)
18
59304
1363
(Cười)
01:12
It's a curiousHiếu kỳ shapehình dạng
for a normalbình thường conditionđiều kiện.
19
60667
2151
Với điều kiện bình thường,
trông nó kỳ lạ thật.
01:14
I sure wouldn'tsẽ không want to sitngồi on it.
20
62818
1698
Tôi chắc chắn rằng
không ai muốn ngồi trên đó.
01:16
(LaughterTiếng cười)
21
64516
2551
(Cười)
01:19
Let's askhỏi ourselveschúng ta, what is the causenguyên nhân
of this currenthiện hành anomalybất thường?
22
67067
4774
Hãy tự hỏi, điều gì là nguyên nhân
của sự dị thường này?
01:23
Some people would say it's technologyCông nghệ.
23
71841
2552
Có người sẽ nói rằng đó là do công nghệ.
01:26
Now it's truethật, technologyCông nghệ has accumulatedtích lũy
throughxuyên qua humanNhân loại historylịch sử,
24
74393
4668
Đúng vậy, công nghệ được tích luỹ
trong suốt lịch sử loài người,
01:31
and right now, technologyCông nghệ
advancesnhững tiến bộ extremelyvô cùng rapidlynhanh chóng --
25
79061
4652
và hiện tại, công nghệ đã phát triển
với tốc độ cực nhanh.
01:35
that is the proximateproximate causenguyên nhân,
26
83713
1565
đó là nguyên nhân gần nhất,
01:37
that's why we are currentlyhiện tại
so very productivecó năng suất.
27
85278
2565
là lý do tại sao hiện nay chúng ta
lại sản xuất hiệu quả như thế
01:40
But I like to think back furtherthêm nữa
to the ultimatetối hậu causenguyên nhân.
28
88473
3661
Nhưng tôi muốn nhìn kỹ hơn vào quá khứ
để tìm nguyên nhân sâu xa.
01:45
Look at these two highlycao
distinguishedphân biệt gentlemenquý ông:
29
93114
3766
Hãy nhìn vào 2 "quý ông"
rất rất khác biệt này
01:48
We have KanziKanzi --
30
96880
1600
Đây là Kanzi,
01:50
he's masteredthông thạo 200 lexicaltừ vựng
tokensthẻ, an incredibleđáng kinh ngạc featfeat.
31
98480
4643
chú tinh tinh hiểu được 200 thẻ từ vựng,
quả là một thành tích đáng kinh ngạc.
01:55
And EdEd WittenWitten unleashedtung the secondthứ hai
superstringsuperstring revolutionCuộc cách mạng.
32
103123
3694
Và Ed Witten, người phát động
cách mạng siêu dây lần 2.
01:58
If we look underDưới the hoodmui xe,
this is what we find:
33
106817
2324
Nếu kiểm tra kỹ càng,
đây là điều chúng ta tìm thấy;
02:01
basicallyvề cơ bản the sametương tự thing.
34
109141
1570
Cơ bản là như nhau.
02:02
One is a little largerlớn hơn,
35
110711
1813
Của người thì lớn hơn một chút.
02:04
it maybe alsocũng thế has a fewvài tricksthủ thuật
in the exactchính xác way it's wiredcó dây.
36
112524
2758
Có thể cũng có vài thủ thuật,
trong cách nó được tạo ra.
02:07
These invisiblevô hình differencessự khác biệt cannotkhông thể
be too complicatedphức tạp, howeverTuy nhiên,
37
115282
3812
Những khác biệt vô hình này có thể
không quá phức tạp, tuy nhiên,
02:11
because there have only
been 250,000 generationscác thế hệ
38
119094
4285
bởi vì chúng ta mới qua
250.000 thế hệ
02:15
sincekể từ our last commonchung ancestortổ tiên.
39
123379
1732
kể từ vị tổ tiên chung cuối cùng
02:17
We know that complicatedphức tạp mechanismscơ chế
take a long time to evolvephát triển.
40
125111
3849
Chúng ta biết rằng những cơ chế phức tạp
đều mất 1 thời gian dài để tiến hóa
02:22
So a bunch of relativelytương đối minordiễn viên phụ changesthay đổi
41
130000
2499
Vì vây, nhiều thay đổi tương đối nhỏ
02:24
take us from KanziKanzi to WittenWitten,
42
132499
3067
tạo ra sự khác biệt giữa Kanzi và Witten,
02:27
from broken-offchia ra treecây brancheschi nhánh
to intercontinentalliên lục địa ballisticđạn đạo missilestên lửa.
43
135566
4543
giữa những nhánh cây dễ gãy
và tên lửa đạn đạo xuyên lục địa
02:32
So this then seemsdường như prettyđẹp obvioushiển nhiên
that everything we'vechúng tôi đã achievedđạt được,
44
140839
3935
Vì thế, điều này sau đó trở nên khá
rõ ràng rằng những điều chúng ta từng đạt được
02:36
and everything we carequan tâm about,
45
144774
1378
và tất cả những gì ta quan tâm
02:38
dependsphụ thuộc cruciallyquan trọng trong on some relativelytương đối minordiễn viên phụ
changesthay đổi that madethực hiện the humanNhân loại mindlí trí.
46
146152
5228
phụ thuộc chủ yếu vào vài thay đổi
tương đối nhỏ làm nên trí óc con người
02:44
And the corollaryhệ luỵ, of coursekhóa học,
is that any furtherthêm nữa changesthay đổi
47
152650
3662
Và tất nhiên, kết quả tất yếu là
bất kỳ những thay đổi xa hơn
02:48
that could significantlyđáng kể changethay đổi
the substratebề mặt of thinkingSuy nghĩ
48
156312
3477
mà có thể thay đổi đáng kể
nền tảng suy nghĩ
02:51
could have potentiallycó khả năng
enormousto lớn consequenceshậu quả.
49
159789
3202
có thể mang tới những kết quả
tiềm năng rất lớn
02:56
Some of my colleaguesđồng nghiệp
think we're on the vergevách đá
50
164321
2905
Vài đồng nghiệp của tôi
nghĩ rằng chúng ta đang tiếp cận
02:59
of something that could causenguyên nhân
a profoundthâm thúy changethay đổi in that substratebề mặt,
51
167226
3908
rất gần với điều có thể tạo ra
thay đổi sâu sắc trong nền tảng ấy
03:03
and that is machinemáy móc superintelligencesuperintelligence.
52
171134
3213
Và đó là siêu trí tuệ nhân tạo
03:06
ArtificialNhân tạo intelligenceSự thông minh used to be
about puttingđặt commandslệnh in a boxcái hộp.
53
174347
4739
Trí thông minh nhân tạo từng được dùng
để đưa những chỉ thị vào máy tính (hộp)
03:11
You would have humanNhân loại programmerslập trình viên
54
179086
1665
Bạn sẽ có những nhà lập trình
03:12
that would painstakinglySửa chữa
handcraftthủ công knowledgehiểu biết itemsmặt hàng.
55
180751
3135
có thể cần cù tạo ra
những vật dụng có hiểu biết
03:15
You buildxây dựng up these expertchuyên gia systemshệ thống,
56
183886
2086
Ta xây dựng những hệ thống chuyên gia này
03:17
and they were kindloại of usefulhữu ích
for some purposesmục đích,
57
185972
2324
và chúng khá là hữu dụng
cho vài mục đích;
03:20
but they were very brittlegiòn,
you couldn'tkhông thể scaletỉ lệ them.
58
188296
2681
chúng cũng rất dễ vỡ,
bạn không thể cạo gỉ cho chúng
03:22
BasicallyVề cơ bản, you got out only
what you put in.
59
190977
3433
Về cơ bản, đầu vào thế nào
thì đầu ra như thế
03:26
But sincekể từ then,
60
194410
997
Nhưng kể từ đó,
03:27
a paradigmmô hình shiftsự thay đổi has takenLấy placeđịa điểm
in the fieldcánh đồng of artificialnhân tạo intelligenceSự thông minh.
61
195407
3467
một sự thay đổi mô hình đã diễn ra
, trong lĩnh vực trí tuệ nhân tạo.
03:30
TodayHôm nay, the actionhoạt động is really
around machinemáy móc learninghọc tập.
62
198874
2770
Giờ đây, hoạt động này chỉ
xoay quanh việc học của máy tính
03:34
So ratherhơn than handcraftinghandcrafting knowledgehiểu biết
representationsđại diện and featuresTính năng, đặc điểm,
63
202394
5387
Vì vậy thay vì tạo ra những tính năng và
mô tả có hiểu biết một cách thủ công,
03:40
we createtạo nên algorithmsthuật toán that learnhọc hỏi,
oftenthường xuyên from rawthô perceptualnhận thức datadữ liệu.
64
208511
5554
chúng ta tạo ra các thuật toán có thể học
hỏi, thường là từ các dữ liệu tri giác thô
03:46
BasicallyVề cơ bản the sametương tự thing
that the humanNhân loại infanttrẻ sơ sinh does.
65
214065
4998
Cơ bản là những gì mà
trẻ sơ sinh thực hiện.
03:51
The resultkết quả is A.I. that is not
limitedgiới hạn to one domainmiền --
66
219063
4207
Kết quả, ta tạo ra trí thông minh nhân tạo
không bị bó buộc trong 1 phạm vi --
03:55
the sametương tự systemhệ thống can learnhọc hỏi to translatedịch
betweengiữa any pairscặp of languagesngôn ngữ,
67
223270
4631
hệ thống đó cũng có thể học cách dịch
bất kỳ cặp ngôn ngữ nào,
03:59
or learnhọc hỏi to playchơi any computermáy vi tính gametrò chơi
on the AtariAtari consolegiao diện điều khiển.
68
227901
5437
có thể học cách chơi bất kỳ trò chơi
máy tính nào trên bảng điều khiển Atari
04:05
Now of coursekhóa học,
69
233338
1779
Giờ đây, tất nhiên,
04:07
A.I. is still nowherehư không nearở gần havingđang có
the sametương tự powerfulquyền lực, cross-domaintên miền chéo
70
235117
3999
trí thông minh nhân tạo vẫn chưa gần với
khả năng học tập và lên kế hoạch
04:11
abilitycó khả năng to learnhọc hỏi and plankế hoạch
as a humanNhân loại beingđang has.
71
239116
3219
mạnh mẽ và đa lĩnh vực
mà con người có
04:14
The cortexvỏ não still has some
algorithmicthuật toán tricksthủ thuật
72
242335
2126
Vỏ não vẫn có vài
mẹo toán học
04:16
that we don't yetchưa know
how to matchtrận đấu in machinesmáy móc.
73
244461
2355
mà chúng ta vẫn chưa biết
làm sao để tạo ra bằng máy móc
04:19
So the questioncâu hỏi is,
74
247886
1899
Vì thế, câu hỏi đặt ra là
04:21
how farxa are we from beingđang ablecó thể
to matchtrận đấu those tricksthủ thuật?
75
249785
3500
chúng ta còn bao lâu nữa thì
mới có thể bắt kịp những mẹo này?
04:26
A couplevợ chồng of yearsnăm agotrước,
76
254245
1083
Vài năm trước,
04:27
we did a surveykhảo sát of some of the world'scủa thế giới
leadingdẫn đầu A.I. expertsCác chuyên gia,
77
255328
2888
chúng tôi đã có 1cuộc khảo sát
vài chuyên gia thế giới về AI
04:30
to see what they think,
and one of the questionscâu hỏi we askedyêu cầu was,
78
258216
3224
để xem họ nghĩ gì,
và 1 trong những điều chúng tôi hỏi là
04:33
"By which yearnăm do you think
there is a 50 percentphần trăm probabilityxác suất
79
261440
3353
"Bạn nghĩ xem, vào năm nào thì
sẽ có khả năng 50%
04:36
that we will have achievedđạt được
human-levelmức độ của con người machinemáy móc intelligenceSự thông minh?"
80
264793
3482
chúng ta đạt được trí thông minh
nhân tạo ở cấp độ con người?"
04:40
We definedđịnh nghĩa human-levelmức độ của con người here
as the abilitycó khả năng to performbiểu diễn
81
268785
4183
Cấp độ con người mà chúng tôi nói đến
ở đây là khả năng thực hiện
04:44
almosthầu hết any jobviệc làm at leastít nhất as well
as an adultngười lớn humanNhân loại,
82
272968
2871
gần như mọi việc, ít nhất là
như 1 người lớn,
04:47
so realthực human-levelmức độ của con người, not just
withinbên trong some limitedgiới hạn domainmiền.
83
275839
4005
tức là, cấp độ con người thực thụ,
chứ không chỉ giới hạn trong vài lĩnh vực.
04:51
And the mediantrung bình answercâu trả lời was 2040 or 2050,
84
279844
3650
Và câu trả lời trung bình
là năm 2040 hoặc 2050
04:55
dependingtùy on preciselyđúng which
groupnhóm of expertsCác chuyên gia we askedyêu cầu.
85
283494
2806
tùy thuộc chính xác vào nhóm
chuyên gia mà chúng tôi hỏi.
04:58
Now, it could happenxảy ra much,
much latermột lát sau, or soonersớm hơn,
86
286300
4039
Việc đó có thể xảy ra, sớm hơn,
hoặc muộn hơn rất nhiều,
05:02
the truthsự thật is nobodykhông ai really knowsbiết.
87
290339
1940
sự thật là, chẳng ai chắc chắn cả.
05:05
What we do know is that the ultimatetối hậu
limitgiới hạn to informationthông tin processingChế biến
88
293259
4412
Điều mà chúng tôi biết chắc là
giới hạn cao nhất cho việc xử lý thông tin
05:09
in a machinemáy móc substratebề mặt liesdối trá farxa outsideở ngoài
the limitsgiới hạn in biologicalsinh học tissue.
89
297671
4871
trong 1 nền tảng máy móc nằm rất xa
ngoài những giới hạn trong mô sinh học.
05:15
This comesđến down to physicsvật lý.
90
303241
2378
Điều này liên quan tới vật lý.
05:17
A biologicalsinh học neuronneuron fireslửa, maybe,
at 200 hertzHertz, 200 timeslần a secondthứ hai.
91
305619
4718
Một nơ-ron sinh học dẫn truyền,
chẳng hạn, ở 200 Hz, 200 lần/ giây
05:22
But even a present-dayhiện nay transistorbóng bán dẫn
operateshoạt động at the GigahertzGigahertz.
92
310337
3594
Nhưng thậm chí 1 bóng bán dẫn ngày nay
vận hành với đơn vị Gigahertz
05:25
NeuronsTế bào thần kinh propagatetuyên truyền slowlychậm rãi in axonssợi trục thần kinh,
100 metersmét permỗi secondthứ hai, topstops.
93
313931
5297
Nơ-ron truyền chậm rãi trong
sợi trục thần kinh, với vận tốc cao nhất là 100 m/s
05:31
But in computersmáy vi tính, signalstín hiệu can traveldu lịch
at the speedtốc độ of lightánh sáng.
94
319228
3111
Nhưng trong máy tính, các tín hiệu có thể đi
với vận tốc ánh sáng
05:35
There are alsocũng thế sizekích thước limitationshạn chế,
95
323079
1869
Cũng có giới hạn về kích cỡ,
05:36
like a humanNhân loại brainóc has
to fitPhù hợp insidephía trong a craniumhộp sọ,
96
324948
3027
não người thì phải
vừa hộp sọ,
05:39
but a computermáy vi tính can be the sizekích thước
of a warehouseKho or largerlớn hơn.
97
327975
4761
nhưng máy tính thì có thể to cỡ
nhà kho hoặc hơn
05:44
So the potentialtiềm năng for superintelligencesuperintelligence
liesdối trá dormantkhông hoạt động in mattervấn đề,
98
332736
5599
Vì thế, tiềm năng của siêu trí tuệ
nằm im lìm trong vật chất,
05:50
much like the powerquyền lực of the atomnguyên tử
layđặt nằm dormantkhông hoạt động throughoutkhắp humanNhân loại historylịch sử,
99
338335
5712
giống như quyền năng của nguyên tử
nằm im lìm xuyên suốt lịch sử loài người,
05:56
patientlykiên nhẫn waitingđang chờ đợi there untilcho đến 1945.
100
344047
4405
kiên nhẫn đợi chờ cho tới tận năm 1945.
06:00
In this centurythế kỷ,
101
348452
1248
Ở thế kỷ này,
06:01
scientistscác nhà khoa học mayTháng Năm learnhọc hỏi to awakenthức tỉnh
the powerquyền lực of artificialnhân tạo intelligenceSự thông minh.
102
349700
4118
các nhà khoa học có thể học cách
thức tỉnh năng lực của trí tuệ nhân tạo.
06:05
And I think we mightcó thể then see
an intelligenceSự thông minh explosionปัก แทน เลือก ปัก.
103
353818
4008
Và tôi nghĩ từ đó chúng ta có thể thấy
một cuộc bùng nổ trí tuệ.
06:10
Now mostphần lớn people, when they think
about what is smartthông minh and what is dumbngớ ngẩn,
104
358406
3957
Giờ đây, hầu hết mọi người, khi nghĩ về
trí khôn và sự ngu ngốc,
06:14
I think have in mindlí trí a picturehình ảnh
roughlygần like this.
105
362363
3023
Với tôi, điều đó
giống như thế này.
06:17
So at one endkết thúc we have the villagelàng idiotkẻ ngốc,
106
365386
2598
Ở một đầu là làng người ngốc,
06:19
and then farxa over at the other sidebên
107
367984
2483
và xa tít phía đối diện,
ở đầu bên kia
06:22
we have EdEd WittenWitten, or AlbertAlbert EinsteinEinstein,
or whoeverbất cứ ai your favoriteyêu thích guruguru is.
108
370467
4756
chúng ta có Ed Witten, Albert Einstein,
hay bất kỳ guru ưa thích nào của bạn.
06:27
But I think that from the pointđiểm of viewlượt xem
of artificialnhân tạo intelligenceSự thông minh,
109
375223
3834
Nhưng tôi nghĩ rằng từ quan điểm của
trí thông minh nhân tạo,
06:31
the truethật picturehình ảnh is actuallythực ra
probablycó lẽ more like this:
110
379057
3681
viễn cảnh thực sự thực ra
trông lại giống như thế này:
06:35
AIAI startsbắt đầu out at this pointđiểm here,
at zerokhông intelligenceSự thông minh,
111
383258
3378
AI bắt đầu tại đây,
từ chỗ không có gì,
06:38
and then, after manynhiều, manynhiều
yearsnăm of really hardcứng work,
112
386636
3011
và rồi, sau rất, rất nhiều năm
nỗ lực vất vả,
06:41
maybe eventuallycuối cùng we get to
mouse-levelchuột-cấp artificialnhân tạo intelligenceSự thông minh,
113
389647
3844
có thể chúng ta rồi sẽ đến với điểm mà
trí tuệ nhân tạo ở mức độ loài chuột,
06:45
something that can navigateđiều hướng
clutteredlộn xộn environmentsmôi trường
114
393491
2430
một thứ có thể vượt qua
những môi trường hỗn loạn
06:47
as well as a mousechuột can.
115
395921
1987
giống như một chú chuột vậy.
06:49
And then, after manynhiều, manynhiều more yearsnăm
of really hardcứng work, lots of investmentđầu tư,
116
397908
4313
Và rồi, sau rất rất rất nhiều năm
lao động vất vả, đầu tư rất nhiều tiền của,
06:54
maybe eventuallycuối cùng we get to
chimpanzee-leveltinh tinh cấp artificialnhân tạo intelligenceSự thông minh.
117
402221
4639
có thể cuối cùng chúng ta sẽ
có được AI ở mức độ tinh tinh.
06:58
And then, after even more yearsnăm
of really, really hardcứng work,
118
406860
3210
Và rồi, lại sau nhiều năm nữa
với rất nhiều, rất nhiều nỗ lực,
07:02
we get to villagelàng idiotkẻ ngốc
artificialnhân tạo intelligenceSự thông minh.
119
410070
2913
chúng ta sẽ tạo ra được trí tuệ
nhân tạo như của kẻ ngốc.
07:04
And a fewvài momentskhoảnh khắc latermột lát sau,
we are beyondvượt ra ngoài EdEd WittenWitten.
120
412983
3272
Và một vài tháng sau đó,
chúng ta sẽ vượt qua Ed Witten.
07:08
The trainxe lửa doesn't stop
at HumanvilleHumanville StationStation.
121
416255
2970
Con tàu này không dừng lại
tại trạm Con người.
07:11
It's likelycó khả năng, ratherhơn, to swooshSwoosh right by.
122
419225
3022
Thay vào đó, từ đây
nó vẫn tiến về phía trước.
07:14
Now this has profoundthâm thúy implicationshàm ý,
123
422247
1984
Điều này có ẩn ý sâu sắc,
07:16
particularlyđặc biệt when it comesđến
to questionscâu hỏi of powerquyền lực.
124
424231
3862
đặc biệt là khi nhắc tới
những câu hỏi về quyền lực.
07:20
For examplethí dụ, chimpanzeestinh tinh are strongmạnh --
125
428093
1899
Ví dụ, loài tinh tinh rất khỏe --
07:21
poundpao for poundpao, a chimpanzeetinh tinh is about
twicehai lần as strongmạnh as a fitPhù hợp humanNhân loại maleNam giới.
126
429992
5222
về cân nặng, 1 chú tinh tinh
khỏe gấp đôi 1 người cân đối.
07:27
And yetchưa, the fatesố phận of KanziKanzi
and his palsbạn bè dependsphụ thuộc a lot more
127
435214
4614
Thế nhưng, số phận của Kanzi và những
người bạn của nó phụ thuộc nhiều
07:31
on what we humanscon người do than on
what the chimpanzeestinh tinh do themselvesbản thân họ.
128
439828
4140
vào điều loài người chúng ta làm
hơn là điều mà tinh tinh làm.
07:37
OnceMột lần there is superintelligencesuperintelligence,
129
445228
2314
Một khi đã có siêu trí tuệ,
07:39
the fatesố phận of humanitynhân loại mayTháng Năm dependtùy theo
on what the superintelligencesuperintelligence does.
130
447542
3839
số phận loài người có thể phụ thuộc
vào điều mà siêu trí tuệ sẽ làm.
07:44
Think about it:
131
452451
1057
Hãy nghĩ về điều đó:
07:45
MachineMáy intelligenceSự thông minh is the last inventionsự phát minh
that humanitynhân loại will ever need to make.
132
453508
5044
Trí thông minh nhân tạo là
phát kiến cuối cùng mà con người cần tạo ra.
07:50
MachinesMáy móc will then be better
at inventingphát minh ra than we are,
133
458552
2973
Khi đó, máy móc sẽ sáng tạo
giỏi hơn chúng ta,
07:53
and they'llhọ sẽ be doing so
on digitalkỹ thuật số timescalestimescales.
134
461525
2540
và chúng làm điều đó
ở thang thời gian số.
07:56
What this meanscó nghĩa is basicallyvề cơ bản
a telescopingTelescoping of the futureTương lai.
135
464065
4901
Điều này về cơ bản là
một lăng kính về tương lai.
08:00
Think of all the crazykhùng technologiescông nghệ
that you could have imaginedtưởng tượng
136
468966
3558
Nghĩ về tất cả những công nghệ điên rồ
mà bạn có thể tưởng tượng ra
08:04
maybe humanscon người could have developedđã phát triển
in the fullnesssung mãn of time:
137
472524
2798
có thể con người sẽ phát triển
trong toàn bộ thời gian:
08:07
cureschữa bệnh for aginglão hóa, spacekhông gian colonizationthuộc địa,
138
475322
3258
làm chậm lão hóa,
sinh sống trên vũ trụ,
08:10
self-replicatingtự sao chép nanobotsNanobots or uploadingtải lên
of mindstâm trí into computersmáy vi tính,
139
478580
3731
những nanobot tự sao chép hay
upload trí óc chúng ta vào máy tính,
08:14
all kindscác loại of sciencekhoa học fiction-ytiểu thuyết-y stuffđồ đạc
140
482311
2159
tất cả những điều có trong
tiểu thuyết viễn tưởng
08:16
that's neverthelessTuy nhiên consistentthích hợp
with the lawspháp luật of physicsvật lý.
141
484470
2737
tuy nhiên lại không nhất quán
với các luật vật lý.
08:19
All of this superintelligencesuperintelligence could
developphát triển, xây dựng, and possiblycó thể quitekhá rapidlynhanh chóng.
142
487207
4212
Tất cả những siêu máy tính này có thể
phát triển, có lẽ là khá nhanh chóng.
08:24
Now, a superintelligencesuperintelligence with suchnhư là
technologicaltínhór แทน użyciu แห่ง แทน แทน แทน ustaw maturitytrưởng thành
143
492449
3558
Giờ, 1 siêu trí tuệ với
độ trưởng thành công nghệ như thế
08:28
would be extremelyvô cùng powerfulquyền lực,
144
496007
2179
có thể cực kỳ mạnh mẽ,
08:30
and at leastít nhất in some scenarioskịch bản,
it would be ablecó thể to get what it wants.
145
498186
4546
và ít nhất ở vài trường hợp,
nó có thể đạt được điều nó muốn.
08:34
We would then have a futureTương lai that would
be shapedcó hình by the preferencessở thích of this A.I.
146
502732
5661
Chúng ta rồi sẽ có 1 tương lai có thể
được định hình theo ưu tiên của A.I này.
08:41
Now a good questioncâu hỏi is,
what are those preferencessở thích?
147
509855
3749
Giờ, câu hỏi hay đặt ra ở đây là,
những ưu tiên đó là gì?
08:46
Here it getsđược trickierphức tạp hơn.
148
514244
1769
Ở đây, mọi thứ trở nên rắc rối hơn.
08:48
To make any headwayđi tới with this,
149
516013
1435
Để tìm hiểu điều này,
08:49
we mustphải first of all
avoidtránh anthropomorphizinganthropomorphizing.
150
517448
3276
trước hết, chúng ta phải
tránh việc nhân cách hóa.
Điều đó thật nực cười bởi vì
mọi bài viết trên mặt báo
08:53
And this is ironicmỉa mai because
everymỗi newspaperbáo chí articlebài báo
151
521934
3301
08:57
about the futureTương lai of A.I.
has a picturehình ảnh of this:
152
525235
3855
về tương lai của trí thông minh nhân tạo
đều đưa ra tình huống thế này:
09:02
So I think what we need to do is
to conceivethụ thai of the issuevấn đề more abstractlyabstractly,
153
530280
4134
Vì thế, tôi nghĩ điều chúng ta cần làm là
tiếp nhận vấn đề 1 cách trừu tượng hơn,
09:06
not in termsđiều kiện of vividsinh động HollywoodHollywood scenarioskịch bản.
154
534414
2790
không rõ ràng và hoành tráng
như những cảnh tượng trên Hollywood.
09:09
We need to think of intelligenceSự thông minh
as an optimizationtối ưu hóa processquá trình,
155
537204
3617
Chúng ta cần nghĩ về trí thông minh
như 1 quá trình tối ưu hóa,
09:12
a processquá trình that steersSteers the futureTương lai
into a particularcụ thể setbộ of configurationscấu hình.
156
540821
5649
một quá trình giúp định hướng tương lai
vào 1 bộ những cấu hình nhất định.
09:18
A superintelligencesuperintelligence is
a really strongmạnh optimizationtối ưu hóa processquá trình.
157
546470
3511
Siêu trí tuệ là quá trình
tối ưu hóa thực sự mạnh mẽ.
09:21
It's extremelyvô cùng good at usingsử dụng
availablecó sẵn meanscó nghĩa to achieveHoàn thành a statetiểu bang
158
549981
4117
Nó có tài đặc biệt trong việc dùng những
phương tiện sẵn có để đạt được trạng thái
09:26
in which its goalmục tiêu is realizedthực hiện.
159
554098
1909
mà ở đó mục tiêu của nó
được thực hiện.
09:28
This meanscó nghĩa that there is no necessarycần thiết
conenctionconenction betweengiữa
160
556447
2672
Có nghĩa là, không cần thiết phải có
sự liên hệ giữa
09:31
beingđang highlycao intelligentthông minh in this sensegiác quan,
161
559119
2734
trở nên cực kỳ thông minh
09:33
and havingđang có an objectivemục tiêu that we humanscon người
would find worthwhileđáng giá or meaningfulcó ý nghĩa.
162
561853
4662
và có 1 mục tiêu mà con người
có thể thấy là đáng giá hoặc ý nghĩa.
09:39
SupposeGiả sử we give an A.I. the goalmục tiêu
to make humanscon người smilenụ cười.
163
567321
3794
Giả sử, chúng ta cho trí tuệ nhân tạo
mục tiêu là làm cho con người cười.
09:43
When the A.I. is weakYếu, it performsthực hiện usefulhữu ích
or amusingvui actionshành động
164
571115
2982
Khi AI còn yếu, nó sẽ thực hiện
các hành động có ích, hài hước
09:46
that causenguyên nhân its userngười dùng to smilenụ cười.
165
574097
2517
khiến chủ nhân của nó mỉm cười.
09:48
When the A.I. becomestrở thành superintelligentsuperintelligent,
166
576614
2417
Khi AI trở thành siêu trí tuệ,
09:51
it realizesnhận ra that there is a more
effectivecó hiệu lực way to achieveHoàn thành this goalmục tiêu:
167
579031
3523
nó nhận ra rằng có cách hiệu quả
hơn nữa để đạt được mục tiêu này:
09:54
take controlđiều khiển of the worldthế giới
168
582554
1922
thống trị thế giới
09:56
and stickgậy electrodesđiện cực into the facialda mặt
musclescơ bắp of humanscon người
169
584476
3162
và cắm điện cực vào
các cơ mặt của con người
09:59
to causenguyên nhân constantkhông thay đổi, beamingbeaming grinsgrins.
170
587638
2941
để tạo ra những nụ cười
rạng rỡ, bất biến.
10:02
AnotherKhác examplethí dụ,
171
590579
1035
Một ví dụ khác,
10:03
supposegiả sử we give A.I. the goalmục tiêu to solvegiải quyết
a difficultkhó khăn mathematicaltoán học problemvấn đề.
172
591614
3383
giả sử chúng ta cho AI mục đích
giải quyết 1 vấn đề toán học khó khăn.
10:06
When the A.I. becomestrở thành superintelligentsuperintelligent,
173
594997
1937
Khi AI trở thành siêu trí tuệ,
10:08
it realizesnhận ra that the mostphần lớn effectivecó hiệu lực way
to get the solutiondung dịch to this problemvấn đề
174
596934
4171
nó nhận ra rằng cách hiệu quả nhất để
giải quyết vấn đề này
10:13
is by transformingchuyển đổi the planethành tinh
into a giantkhổng lồ computermáy vi tính,
175
601105
2930
là biến đổi hành tinh này
thành 1 máy tính khổng lồ
10:16
so as to increasetăng its thinkingSuy nghĩ capacitysức chứa.
176
604035
2246
để gia tăng khả năng suy nghĩ của nó.
10:18
And noticeđể ý that this givesđưa ra the A.I.s
an instrumentalnhạc nền reasonlý do
177
606281
2764
Và để ý rằng điều này cho AI
1 lý do thuộc về phương tiện
10:21
to do things to us that we
mightcó thể not approvephê duyệt of.
178
609045
2516
để làm những việc
mà chúng ta có thể không đồng ý.
10:23
HumanCon người beingschúng sanh in this modelmô hình are threatsmối đe dọa,
179
611561
1935
Trường hợp này, con người
là mối đe dọa,
10:25
we could preventngăn chặn the mathematicaltoán học
problemvấn đề from beingđang solvedđã được giải quyết.
180
613496
2921
chúng ta có thể ngăn vấn đề
toán học đó được giải quyết.
10:29
Of coursekhóa học, perceivablyperceivably things won'tsẽ không
go wrongsai rồi in these particularcụ thể wayscách;
181
617207
3494
Tất nhiên, mọi việc có thể cũng không
lầm lạc theo đúng những hướng này;
10:32
these are cartoonhoạt hình examplesví dụ.
182
620701
1753
chúng là những ví dụ hư cấu.
10:34
But the generalchung pointđiểm here is importantquan trọng:
183
622454
1939
Nhưng đại ý ở đây thì quan trọng:
10:36
if you createtạo nên a really powerfulquyền lực
optimizationtối ưu hóa processquá trình
184
624393
2873
nếu bạn tạo ra một quá trình tối ưu hóa
thực sự quyền lực
10:39
to maximizetối đa hóa for objectivemục tiêu x,
185
627266
2234
để cực đại hóa cho mục tiêu x,
10:41
you better make sure
that your definitionĐịnh nghĩa of x
186
629500
2276
bạn nên chắc chắn rằng
định nghĩa của bạn về x
10:43
incorporateskết hợp everything you carequan tâm about.
187
631776
2469
kết hợp chặt chẽ với mọi điều
bạn quan tâm tới.
10:46
This is a lessonbài học that's alsocũng thế taughtđã dạy
in manynhiều a mythhuyền thoại.
188
634835
4384
Đây cũng là bài học rút ra từ
thần thoại sau đây.
10:51
KingVua MidasMidas wishesmong muốn that everything
he toucheschạm vào be turnedquay into goldvàng.
189
639219
5298
Vua Midas ước rằng mọi thứ ông
chạm vào đều biến thành vàng.
10:56
He toucheschạm vào his daughterCon gái,
she turnslượt into goldvàng.
190
644517
2861
Ông chạm vào con gái mình,
cô biến thành vàng.
10:59
He toucheschạm vào his foodmón ăn, it turnslượt into goldvàng.
191
647378
2553
Ông chạm vào đồ ăn của mình,
chúng biến thành vàng.
11:01
This could becometrở nên practicallythực tế relevantliên quan, thích hợp,
192
649931
2589
Điều này có thể trở nên đặc biệt liên quan,
11:04
not just as a metaphorphép ẩn dụ for greedtham lam,
193
652520
2070
không chỉ là 1 ẩn dụ cho lòng tham,
11:06
but as an illustrationhình minh họa of what happensxảy ra
194
654590
1895
mà còn minh họa cho điều sẽ xảy ra
11:08
if you createtạo nên a powerfulquyền lực
optimizationtối ưu hóa processquá trình
195
656485
2837
nếu bạn tạo ra 1 quá trình
tối ưu hóa mạnh mẽ
11:11
and give it misconceivedmisconceived
or poorlykém specifiedquy định goalsnhững mục tiêu.
196
659322
4789
và đưa cho nó những mục tiêu
sai nhận thức hoặc không được định rõ.
11:16
Now you mightcó thể say, if a computermáy vi tính startsbắt đầu
stickingbám dính electrodesđiện cực into people'sngười faceskhuôn mặt,
197
664111
5189
Giờ bạn có thể nói, nếu 1 máy tính bắt đầu
cắm điện cực vào mặt con người,
11:21
we'dThứ Tư just shutđóng lại it off.
198
669300
2265
chúng ta đơn giản là tắt chúng đi.
11:24
A, this is not necessarilynhất thiết so easydễ dàng to do
if we'vechúng tôi đã grownmới lớn dependentphụ thuộc on the systemhệ thống --
199
672555
5340
A, điều này không dễ dàng đến thế nếu
chúng ta trở nên phụ thuộc vào máy móc-
11:29
like, where is the off switchcông tắc điện
to the InternetInternet?
200
677895
2732
cũng giống như, làm thế nào để
tắt nguồn Internet?
11:32
B, why haven'tđã không the chimpanzeestinh tinh
flickedflicked the off switchcông tắc điện to humanitynhân loại,
201
680627
5120
B, tại sao tinh tinh không
tắt công tắc chuyển sang loài người,
11:37
or the NeanderthalsNgười Neanderthal?
202
685747
1551
hay là người Neanderthals?
11:39
They certainlychắc chắn had reasonslý do.
203
687298
2666
Ắt hẳn phải có lý do nào đó.
11:41
We have an off switchcông tắc điện,
for examplethí dụ, right here.
204
689964
2795
Chúng ta có nút tắt,
ví dụ, ở ngay đây.
11:44
(ChokingNghẹt thở)
205
692759
1554
(Ho)
11:46
The reasonlý do is that we are
an intelligentthông minh adversarykẻ thù;
206
694313
2925
Bởi lẽ chúng ta là
một đối thủ thông minh;
11:49
we can anticipateđoán trước threatsmối đe dọa
and plankế hoạch around them.
207
697238
2728
chúng ta có thể đoán trước các
nguy cơ và lên kế hoạch.
11:51
But so could a superintelligentsuperintelligent agentĐại lý,
208
699966
2504
Nhưng 1siêu máy tính cũng
có thể làm điều tương tự,
11:54
and it would be much better
at that than we are.
209
702470
3254
và nó có thể làm việc đó
giỏi hơn chúng ta rất nhiều.
11:57
The pointđiểm is, we should not be confidenttự tin
that we have this underDưới controlđiều khiển here.
210
705724
7187
Vấn đề là, ở đây chúng ta không nên
tự tin rằng mình đã kiểm soát được nó.
12:04
And we could try to make our jobviệc làm
a little bitbit easierdễ dàng hơn by, say,
211
712911
3447
Và chúng ta có thể cố gắng để
công việc của mình dễ dàng hơn bằng cách
12:08
puttingđặt the A.I. in a boxcái hộp,
212
716358
1590
ví dụ, đặt AI vào 1 chiếc hộp,
12:09
like a securean toàn softwarephần mềm environmentmôi trường,
213
717948
1796
giống như 1 môi trường phần mềm an toàn,
12:11
a virtualảo realitythực tế simulationmô phỏng
from which it cannotkhông thể escapethoát khỏi.
214
719744
3022
1 kích thích thực tế ảo
mà từ đó nó không thể trốn thoát.
12:14
But how confidenttự tin can we be that
the A.I. couldn'tkhông thể find a buglỗi.
215
722766
4146
Nhưng liệu chúng ta tự tin được bao nhiêu
rằng AI không thể tìm ra lỗi kỹ thuật.
12:18
GivenĐưa ra that merelyđơn thuần humanNhân loại hackerstin tặc
find bugslỗi all the time,
216
726912
3169
Cần nhớ rằng, các hacker là con người
luôn luôn tìm ra lỗi,
12:22
I'd say, probablycó lẽ not very confidenttự tin.
217
730081
3036
Tôi cho là vậy, dù có thể không được
tự tin lắm.
12:26
So we disconnectngắt kết nối the ethernetEthernet cablecáp
to createtạo nên an airkhông khí gaplỗ hổng,
218
734237
4548
Vì vậy, chúng ta ngắt cáp cục bộ
để tạo ra 1 lỗ hổng không khí,
12:30
but again, like merelyđơn thuần humanNhân loại hackerstin tặc
219
738785
2668
nhưng 1 lần nữa, giống như những hacker
12:33
routinelythường transgresstransgress airkhông khí gapskhoảng trống
usingsử dụng socialxã hội engineeringkỹ thuật.
220
741453
3381
thường xuyên vi phạm những lỗ hổng
không khí sử dụng mánh khóe xã hội.
12:36
Right now, as I speaknói,
221
744834
1259
Bây giờ, như tôi nói,
12:38
I'm sure there is some employeeNhân viên
out there somewheremột vài nơi
222
746093
2389
Tôi chắc chắn đâu đó
ngoài kia có vài nhân viên
12:40
who has been talkednói chuyện into handinggiao out
her accounttài khoản detailschi tiết
223
748482
3346
được bảo là phải giao nộp
chi tiết tài khoản của mình
12:43
by somebodycó ai claimingtuyên bố to be
from the I.T. departmentbộ phận.
224
751828
2746
bởi 1 người tự nhận là
ở ban công nghệ thông tin.
12:46
More creativesáng tạo scenarioskịch bản are alsocũng thế possiblekhả thi,
225
754574
2127
Những tình huống sáng tạo hơn
cũng có thể xảy ra,
12:48
like if you're the A.I.,
226
756701
1315
chẳng hạn, nếu bạn là AI,
12:50
you can imaginetưởng tượng wigglingwiggling electrodesđiện cực
around in your internalbên trong circuitrymạch điện
227
758016
3532
bạn có thể tưởng tượng điện cực xoáy
trôn ốc xung quanh mạch nội bộ
12:53
to createtạo nên radioradio wavessóng biển that you
can use to communicategiao tiếp.
228
761548
3462
để tạo ra sóng radio mà bạn
có thể dùng để giao tiếp.
12:57
Or maybe you could pretendgiả vờ to malfunctionsự cố,
229
765010
2424
Hoặc, bạn có thể giả vờ gặp sự cố,
12:59
and then when the programmerslập trình viên openmở
you up to see what wentđã đi wrongsai rồi with you,
230
767434
3497
và rồi khi lập trình viên mở bạn ra
để xem bạn bị làm sao,
13:02
they look at the sourcenguồn code -- BamBam! --
231
770931
1936
họ nhìn vào mã nguồn, và Bam!
13:04
the manipulationthao túng can take placeđịa điểm.
232
772867
2447
quá trình thao túng sẽ diễn ra.
13:07
Or it could outputđầu ra the blueprintkế hoạch chi tiết
to a really niftynifty technologyCông nghệ,
233
775314
3430
Hoặc nó có thể cung cấp bản thiết kế
tới 1 công nghệ thực sự tiện lợi,
13:10
and when we implementthực hiện it,
234
778744
1398
và khi bạn sử dụng nó,
13:12
it has some surreptitioussurreptitious sidebên effecthiệu ứng
that the A.I. had plannedkế hoạch.
235
780142
4397
xảy ra vài phản ứng phụ bí mật
mà AI đã tính toán từ trước.
13:16
The pointđiểm here is that we should
not be confidenttự tin in our abilitycó khả năng
236
784539
3463
Tức là, chúng ta không nên tự tin
vào khẳ năng của mình
13:20
to keep a superintelligentsuperintelligent geniethần đèn
lockedbị khóa up in its bottlechai forevermãi mãi.
237
788002
3808
để nhốt vị thần gian lận
trong chai mãi mãi.
13:23
SoonerSớm hơn or latermột lát sau, it will out.
238
791810
2254
Chẳng sớm thì muốn, nó cũng thoát ra.
13:27
I believe that the answercâu trả lời here
is to figurenhân vật out
239
795034
3103
Tôi tin rằng câu trả lời ở đây
là tìm ra
13:30
how to createtạo nên superintelligentsuperintelligent A.I.
suchnhư là that even if -- when -- it escapesthoát,
240
798137
5024
cách thức tạo 1 AI siêu trí tuệ
mà ngay cả khi nó trốn thoát,
13:35
it is still safean toàn because it is
fundamentallyvề cơ bản on our sidebên
241
803161
3277
nó vẫn an toàn bởi vì về cơ bản
nó vẫn thuộc phe ta
13:38
because it sharescổ phiếu our valuesgiá trị.
242
806438
1899
bởi vì hai bên cùng sẻ những giá trị chung.
13:40
I see no way around
this difficultkhó khăn problemvấn đề.
243
808337
3210
Tôi thấy không còn cách nào khác
cho vấn đề khó khăn này.
13:44
Now, I'm actuallythực ra fairlycông bằng optimisticlạc quan
that this problemvấn đề can be solvedđã được giải quyết.
244
812557
3834
Thật ra tôi khá lạc quan rằng
vấn đề này có thể được giải quyết.
13:48
We wouldn'tsẽ không have to writeviết down
a long listdanh sách of everything we carequan tâm about,
245
816391
3903
Chúng ta sẽ không phải viết ra
1 danh sách dài tất cả những gì ta quan tâm,
13:52
or worsetệ hơn yetchưa, spellchính tả it out
in some computermáy vi tính languagengôn ngữ
246
820294
3643
hay tệ hơn, nói ra
bằng ngôn ngữ máy tính nào đó
13:55
like C++ or PythonPython,
247
823937
1454
như C++ hoặc Python,
13:57
that would be a taskbài tập beyondvượt ra ngoài hopelessvô vọng.
248
825391
2767
thế thì còn hơn cả vô vọng.
14:00
InsteadThay vào đó, we would createtạo nên an A.I.
that usessử dụng its intelligenceSự thông minh
249
828158
4297
Thay vào đó, chúng ta có thể tạo ra 1 AI
sử dụng trí thông minh của mình
14:04
to learnhọc hỏi what we valuegiá trị,
250
832455
2771
để học hỏi những gì ta coi trọng,
14:07
and its motivationđộng lực systemhệ thống is constructedxây dựng
in suchnhư là a way that it is motivatedđộng cơ
251
835226
5280
và hệ thống thúc đẩy của nó được xây dựng
tức là động lực của nó là
14:12
to pursuetheo đuổi our valuesgiá trị or to performbiểu diễn actionshành động
that it predictsdự đoán we would approvephê duyệt of.
252
840506
5232
theo đuổi các giá trị của ta hay làm
các điều mà nó dự đoán ta sẽ chấp thuận.
14:17
We would thusdo đó leverageđòn bẩy
its intelligenceSự thông minh as much as possiblekhả thi
253
845738
3414
Từ đó chúng ta có thể tận dụng
trí thông minh của nó nhiều nhất có thể
14:21
to solvegiải quyết the problemvấn đề of value-loadinggiá trị-loading.
254
849152
2745
để giải quyết vấn đề tải giá trị.
14:24
This can happenxảy ra,
255
852727
1512
Điều này có thể xảy ra,
14:26
and the outcomekết quả could be
very good for humanitynhân loại.
256
854239
3596
và kết quả có thể
sẽ rất tốt cho loài người.
14:29
But it doesn't happenxảy ra automaticallytự động.
257
857835
3957
Nhưng điều đó không
tự động xảy ra.
14:33
The initialban đầu conditionsđiều kiện
for the intelligenceSự thông minh explosionปัก แทน เลือก ปัก
258
861792
2998
Các điều kiện ban đầu
cho bùng nổ trí tuệ
14:36
mightcó thể need to be setbộ up
in just the right way
259
864790
2863
có thể cần được thiết lập
đúng cách
14:39
if we are to have a controlledkiểm soát detonationvụ nổ.
260
867653
3530
nếu chúng ta muốn có
1 cuộc bùng nổ được kiểm soát.
14:43
The valuesgiá trị that the A.I. has
need to matchtrận đấu ourscủa chúng tôi,
261
871183
2618
Các giá trị mà AI cần
hòa hợp với chúng ta,
14:45
not just in the familiarquen contextbối cảnh,
262
873801
1760
không chỉ trong bối cảnh quen thuộc,
14:47
like where we can easilydễ dàng checkkiểm tra
how the A.I. behavesứng xử,
263
875561
2438
nơi ta có thể dễ dàng
kiểm tra AI cư xử ra sao,
14:49
but alsocũng thế in all novelcuốn tiểu thuyết contextsbối cảnh
that the A.I. mightcó thể encountergặp gỡ
264
877999
3234
mà còn trong tất cả những hoàn cảnh mới lạ
mà AI có thể gặp phải
14:53
in the indefinitekhông xác định futureTương lai.
265
881233
1557
trong tương lai bất định.
14:54
And there are alsocũng thế some esotericbí truyền issuesvấn đề
that would need to be solvedđã được giải quyết, sortedsắp xếp out:
266
882790
4737
Và cũng có vài vấn đề đặc biệt
cần được giải quyết, sắp xếp:
14:59
the exactchính xác detailschi tiết of its decisionphán quyết theorylý thuyết,
267
887527
2089
chi tiết cụ thể về lý thuyết
ra quyết định
15:01
how to dealthỏa thuận with logicalhợp lý
uncertaintytính không chắc chắn and so forthra.
268
889616
2864
làm sao để giải quyết
bất định hợp lý, vân vân.
15:05
So the technicalkỹ thuật problemscác vấn đề that need
to be solvedđã được giải quyết to make this work
269
893330
3102
Vì thế, những vấn đề kỹ thuật cần
giải quyết để mọi thứ diễn ra suôn sẻ
15:08
look quitekhá difficultkhó khăn --
270
896432
1113
trông có vẻ khó khăn --
15:09
not as difficultkhó khăn as makingchế tạo
a superintelligentsuperintelligent A.I.,
271
897545
3380
tuy không khó khăn bằng việc
tạo ra 1 AI siêu trí tuệ,
15:12
but fairlycông bằng difficultkhó khăn.
272
900925
2868
nhưng cũng tương đối khó khăn.
15:15
Here is the worrylo:
273
903793
1695
Đây là nỗi lo:
15:17
MakingLàm cho superintelligentsuperintelligent A.I.
is a really hardcứng challengethử thách.
274
905488
4684
Tạo ra một AI siêu trí tuệ
là 1 thử thách thực sự khó khăn.
15:22
MakingLàm cho superintelligentsuperintelligent A.I. that is safean toàn
275
910172
2548
Tạo ra 1 AI siêu trí tuệ an toàn
15:24
involvesliên quan some additionalbổ sung
challengethử thách on tophàng đầu of that.
276
912720
2416
còn liên quan
tới vài thử thách nữa.
15:28
The riskrủi ro is that if somebodycó ai figuressố liệu out
how to crackcrack the first challengethử thách
277
916216
3487
Nguy cơ có người tìm ra cách
vượt qua thử thách đầu tiên
15:31
withoutkhông có alsocũng thế havingđang có crackednứt
the additionalbổ sung challengethử thách
278
919703
3001
mà không giải quyết
một thử thách khác
15:34
of ensuringđảm bảo perfecthoàn hảo safetyan toàn.
279
922704
1901
để đảm bảo an toàn tuyệt đối.
15:37
So I think that we should
work out a solutiondung dịch
280
925375
3331
Vì vậy tôi nghĩ chúng ta
nên tìm ra giải pháp
15:40
to the controlđiều khiển problemvấn đề in advancenâng cao,
281
928706
2822
cho vấn đề kiểm soát trước đã,
15:43
so that we have it availablecó sẵn
by the time it is neededcần.
282
931528
2660
để khi cần thiết
ta đã có sẵn giải pháp rồi.
15:46
Now it mightcó thể be that we cannotkhông thể solvegiải quyết
the entiretoàn bộ controlđiều khiển problemvấn đề in advancenâng cao
283
934768
3507
Có thể là chúng ta không thể
giải quyết trước toàn bộ vấn đề kiểm soát
15:50
because maybe some elementscác yếu tố
can only be put in placeđịa điểm
284
938275
3024
bởi vì có lẽ vài yếu tố
chỉ có thể được đặt vào
15:53
onceMột lần you know the detailschi tiết of the
architecturekiến trúc where it will be implementedthực hiện.
285
941299
3997
khi bạn biết chi tiết của
cấu trúc trong đó nó được thực hiện.
15:57
But the more of the controlđiều khiển problemvấn đề
that we solvegiải quyết in advancenâng cao,
286
945296
3380
Nhưng chúng ta giải quyết vấn đề kiểm soát
càng sớm bao nhiêu,
16:00
the better the oddstỷ lệ that the transitionquá trình chuyển đổi
to the machinemáy móc intelligenceSự thông minh erakỷ nguyên
287
948676
4090
thì khả năng quá trình chuyển đổi
tới kỷ nguyên của trí tuệ nhân tạo
16:04
will go well.
288
952766
1540
diễn ra càng tốt bấy nhiêu.
16:06
This to me looksnhìn like a thing
that is well worthgiá trị doing
289
954306
4644
Vói tôi, điều này giống như
1 điều rất đáng làm
16:10
and I can imaginetưởng tượng that if
things turnxoay out okay,
290
958950
3332
và tôi có thể tưởng tượng rằng
nếu mọi thứ diễn ra ổn thỏa,
16:14
that people a milliontriệu yearsnăm from now
look back at this centurythế kỷ
291
962282
4658
rằng con người 1000 năm nữa
sẽ nhìn lại thế kỷ này
16:18
and it mightcó thể well be that they say that
the one thing we did that really matteredảnh hưởng
292
966940
4002
và rất có thể họ sẽ nói rằng
điều quan trọng duy nhất chúng ta làm
16:22
was to get this thing right.
293
970942
1567
là thực hiện đúng điều này.
16:24
Thank you.
294
972509
1689
Cám ơn.
16:26
(ApplauseVỗ tay)
295
974198
2813
(Vỗ tay)
Translated by Ann Jing
Reviewed by Duy Le

▲Back to top

ABOUT THE SPEAKER
Nick Bostrom - Philosopher
Nick Bostrom asks big questions: What should we do, as individuals and as a species, to optimize our long-term prospects? Will humanity’s technological advancements ultimately destroy us?

Why you should listen

Philosopher Nick Bostrom envisioned a future full of human enhancement, nanotechnology and machine intelligence long before they became mainstream concerns. From his famous simulation argument -- which identified some striking implications of rejecting the Matrix-like idea that humans are living in a computer simulation -- to his work on existential risk, Bostrom approaches both the inevitable and the speculative using the tools of philosophy, probability theory, and scientific analysis.

Since 2005, Bostrom has led the Future of Humanity Institute, a research group of mathematicians, philosophers and scientists at Oxford University tasked with investigating the big picture for the human condition and its future. He has been referred to as one of the most important thinkers of our age.

Nick was honored as one of Foreign Policy's 2015 Global Thinkers .

His recent book Superintelligence advances the ominous idea that “the first ultraintelligent machine is the last invention that man need ever make.”

More profile about the speaker
Nick Bostrom | Speaker | TED.com