ABOUT THE SPEAKER
Stuart Russell - AI expert
Stuart Russell wrote the standard text on AI; now he thinks deeply on AI's future -- and the future of us humans, too.

Why you should listen

Stuart Russell is a professor (and formerly chair) of Electrical Engineering and Computer Sciences at University of California at Berkeley. His book Artificial Intelligence: A Modern Approach (with Peter Norvig) is the standard text in AI; it has been translated into 13 languages and is used in more than 1,300 universities in 118 countries. His research covers a wide range of topics in artificial intelligence including machine learning, probabilistic reasoning, knowledge representation, planning, real-time decision making, multitarget tracking, computer vision, computational physiology, global seismic monitoring and philosophical foundations.

He also works for the United Nations, developing a new global seismic monitoring system for the nuclear-test-ban treaty. His current concerns include the threat of autonomous weapons and the long-term future of artificial intelligence and its relation to humanity.

More profile about the speaker
Stuart Russell | Speaker | TED.com
TED2017

Stuart Russell: 3 principles for creating safer AI

Stuart Russell: AI sẽ giúp chúng ta tốt hơn như thế nào

Filmed:
1,465,832 views

Làm sao để chúng ta khai thác sức mạnh của siêu trí tuệ nhân tạo cũng như đề phòng thảm họa bị robot chiếm quyền? Với việc chúng ta ngày càng tiến gần tới lúc tạo ra máy tính biết tất cả mọi thứ, nhà tiên phong trong AI Stuart Russell đang làm việc trên một vấn đề khác: robot với sự không chắc chắn. Hãy nghe tầm nhìn của ông ấy về những AI hòa hợp với con người, có thể giải quyết các vấn đề với ý nghĩa thông thường, lòng vị tha và các giá trị khác của con người.
- AI expert
Stuart Russell wrote the standard text on AI; now he thinks deeply on AI's future -- and the future of us humans, too. Full bio

Double-click the English transcript below to play the video.

Đây là Lee Sedol.
00:12
This is LeeLee SedolSedol.
0
712
1552
Lee Sedol là một trong những kì thủ cờ vây
giỏi nhất thế giới,
00:14
LeeLee SedolSedol is one of the world'scủa thế giới
greatestvĩ đại nhất Go playersngười chơi,
1
2288
3997
cậu ấy đang có thứ mà các bạn của tôi
ở thung lũng Silicon gọi là
00:18
and he's havingđang có what my friendsbạn bè
in SiliconSilicon ValleyThung lũng call
2
6309
2885
00:21
a "HolyThánh CowCon bò" momentchốc lát --
3
9218
1510
khoảnh khắc "Ôi Chúa ơi" --
(Cười)
00:22
(LaughterTiếng cười)
4
10752
1073
00:23
a momentchốc lát where we realizenhận ra
5
11849
2188
khoảnh khắc khi chúng ta nhận ra rằng
00:26
that AIAI is actuallythực ra progressingtiến bộ
a lot fasternhanh hơn than we expectedkỳ vọng.
6
14061
3296
AI (trí tuệ nhân tạo) đã xử lí
nhanh hơn nhiều so với chúng ta mong đợi.
00:30
So humanscon người have lostmất đi on the Go boardbảng.
What about the realthực worldthế giới?
7
18154
3047
Vậy con người đã thua trên bàn cờ vây.
Thế còn trong thế giới thực?
00:33
Well, the realthực worldthế giới is much biggerlớn hơn,
8
21225
2100
Thế giới thực lớn hơn,
00:35
much more complicatedphức tạp than the Go boardbảng.
9
23349
2249
phức tạp hơn nhiều so với cờ vây.
00:37
It's a lot lessít hơn visiblecó thể nhìn thấy,
10
25622
1819
Nó không dễ nhận thấy,
00:39
but it's still a decisionphán quyết problemvấn đề.
11
27465
2038
nhưng nó vẫn là một vấn đề
mang tính chọn lựa.
00:42
And if we think about some
of the technologiescông nghệ
12
30948
2321
Và nếu chúng ta nghĩ về một số công nghệ
00:45
that are comingđang đến down the pikePike ...
13
33293
1749
đang được chú ý đến...
00:47
NorikoNoriko [AraiArai] mentionedđề cập that readingđọc hiểu
is not yetchưa happeningxảy ra in machinesmáy móc,
14
35738
4335
Noriko [Arai] từng khẳng định
máy móc vẫn chưa thể đọc,
00:52
at leastít nhất with understandinghiểu biết.
15
40097
1500
ít nhất là với sự thấu hiểu.
00:53
But that will happenxảy ra,
16
41621
1536
Nhưng điều đó sẽ xảy ra,
00:55
and when that happensxảy ra,
17
43181
1771
và khi điều đó xảy ra,
00:56
very soonSớm afterwardssau đó,
18
44976
1187
rất nhanh sau đó,
00:58
machinesmáy móc will have readđọc everything
that the humanNhân loại racecuộc đua has ever writtenbằng văn bản.
19
46187
4572
máy móc sẽ đọc hết
những thứ mà loài người đã viết.
01:03
And that will enablecho phép machinesmáy móc,
20
51850
2030
Và điều đấy sẽ cho phép máy móc,
01:05
alongdọc theo with the abilitycó khả năng to look
furtherthêm nữa aheadphía trước than humanscon người can,
21
53904
2920
cùng với khả năng dự đoán
xa hơn con người,
01:08
as we'vechúng tôi đã alreadyđã seenđã xem in Go,
22
56848
1680
như chúng ta đã thấy trong cờ vây,
01:10
if they alsocũng thế have accesstruy cập
to more informationthông tin,
23
58552
2164
nếu chúng cũng có thể tiếp cận
nhiều thông tin hơn,
01:12
they'llhọ sẽ be ablecó thể to make better decisionsquyết định
in the realthực worldthế giới than we can.
24
60740
4268
chúng sẽ có thể đưa ra những quyết định
tốt hơn chúng ta trong thế giới thực.
01:18
So is that a good thing?
25
66792
1606
Vậy đó có phải là điều tốt?
01:21
Well, I hopemong so.
26
69898
2232
Tôi hi vọng vậy.
01:26
Our entiretoàn bộ civilizationnền văn minh,
everything that we valuegiá trị,
27
74694
3255
Toàn bộ nền văn minh của loài người,
tất cả những thứ chúng ta coi trọng,
01:29
is baseddựa trên on our intelligenceSự thông minh.
28
77973
2068
đều dựa trên trí tuệ của chúng ta.
01:32
And if we had accesstruy cập
to a lot more intelligenceSự thông minh,
29
80065
3694
Và nếu chúng ta có thể sở hữu
nhiều trí tuệ hơn,
01:35
then there's really no limitgiới hạn
to what the humanNhân loại racecuộc đua can do.
30
83783
3302
những thứ con người có thể làm
sẽ không có giới hạn.
01:40
And I think this could be,
as some people have describedmô tả it,
31
88665
3325
Và tôi nghĩ đây có thể là,
như nhiều người đã miêu tả nó,
sự kiện lớn nhất trong lịch sử nhân loại.
01:44
the biggestlớn nhất eventbiến cố in humanNhân loại historylịch sử.
32
92014
2016
[Chào mừng tới UTOPIA
Hãy tận hưởng hành trình của bạn]
01:48
So why are people sayingnói things like this,
33
96665
2829
Vậy tại sao mọi người lại nói
những điều như thế này,
01:51
that AIAI mightcó thể spellchính tả the endkết thúc
of the humanNhân loại racecuộc đua?
34
99518
2876
AI có thể là sự chấm dứt của loài người?
01:55
Is this a newMới thing?
35
103438
1659
Đây có phải là một điều mới mẻ?
01:57
Is it just ElonElon MuskXạ hương and BillHóa đơn GatesCổng
and StephenStephen HawkingHawking?
36
105121
4110
Phải chăng chỉ có
Elon Musk, Bill Gates và Stephen Hawking?
02:01
ActuallyTrên thực tế, no. This ideaý kiến
has been around for a while.
37
109953
3262
Thực ra là không.
Ý tưởng này đã có trước đây.
02:05
Here'sĐây là a quotationbảng báo giá:
38
113239
1962
Đây là một trích dẫn:
02:07
"Even if we could keep the machinesmáy móc
in a subservientsubservient positionChức vụ,
39
115225
4350
"Ngay cả khi chúng ta có thể giữ
máy móc như một công cụ,
02:11
for instanceví dụ, by turningquay off the powerquyền lực
at strategicchiến lược momentskhoảnh khắc" --
40
119599
2984
chẳng hạn như, bằng cách tắt nguồn
khi chúng ta muốn"--
02:14
and I'll come back to that
"turningquay off the powerquyền lực" ideaý kiến latermột lát sau on --
41
122607
3237
và tôi sẽ quay lại
với khái niệm "tắt nguồn" sau --
chúng ta vẫn nên cảm thấy khiêm tốn hơn.
02:17
"we should, as a speciesloài,
feel greatlyrất nhiều humbledhạ nhục."
42
125868
2804
02:22
So who said this?
This is AlanAlan TuringTuring in 1951.
43
130177
3448
Vậy ai đã nói điều này?
Chính là Alan Turing vào năm 1951.
Alan Turing, như bạn đã biết,
là cha đẻ của khoa học máy tính,
02:26
AlanAlan TuringTuring, as you know,
is the fathercha of computermáy vi tính sciencekhoa học
44
134300
2763
02:29
and in manynhiều wayscách,
the fathercha of AIAI as well.
45
137087
3048
và theo nhiều cách,
ông cũng là cha đẻ của AI.
02:33
So if we think about this problemvấn đề,
46
141239
1882
Nếu chúng ta nghĩ về vấn đề này,
02:35
the problemvấn đề of creatingtạo something
more intelligentthông minh than your ownsở hữu speciesloài,
47
143145
3787
tạo nên một loài
thông minh hơn loài của chính bạn,
02:38
we mightcó thể call this "the gorillaGorilla problemvấn đề,"
48
146956
2622
có thể gọi nó là "vấn đề gorilla,"
02:42
because gorillas'khỉ đột' ancestorstổ tiên did this
a fewvài milliontriệu yearsnăm agotrước,
49
150345
3750
bởi vì tổ tiên gorilla
đã làm việc này từ hàng triệu năm trước,
02:46
and now we can askhỏi the gorillasgorilla:
50
154119
1745
và bây giờ chúng ta có thể hỏi chúng:
Đây có phải là một ý tưởng hay?
02:48
Was this a good ideaý kiến?
51
156752
1160
Và chúng đang có một buổi họp để thảo luận
xem đây có phải là một ý tưởng hay,
02:49
So here they are havingđang có a meetinggặp gỡ
to discussbàn luận whetherliệu it was a good ideaý kiến,
52
157936
3530
02:53
and after a little while,
they concludekết luận, no,
53
161490
3346
và sau một khoảng thời gian,
chúng kết luận: Không,
đó là một ý tưởng tồi tệ.
02:56
this was a terriblekhủng khiếp ideaý kiến.
54
164860
1345
02:58
Our speciesloài is in direthị trường hấp dẫn straitseo biển.
55
166229
1782
Chúng ta đang ở trong
hoàn cảnh rất khó khăn.
Thậm chí, bạn có thể nhìn thấy
nỗi buồn hiện hữu trong mắt chúng.
03:00
In factthực tế, you can see the existentialhiện hữu
sadnessnỗi buồn in theirhọ eyesmắt.
56
168538
4263
03:04
(LaughterTiếng cười)
57
172825
1640
(Cười)
Vậy cảm giác bất an rằng
03:06
So this queasyqueasy feelingcảm giác that makingchế tạo
something smarterthông minh hơn than your ownsở hữu speciesloài
58
174489
4840
tạo ra một loài thông minh hơn
chính loài của chúng ta
có thể không phải là một ý kiến hay --
03:11
is maybe not a good ideaý kiến --
59
179353
2365
Chúng ta có thể làm gì nó?
03:14
what can we do about that?
60
182488
1491
03:16
Well, really nothing,
exceptngoại trừ stop doing AIAI,
61
184003
4767
Thực sự là không gì cả,
trừ việc ngừng tạo ra AI,
03:20
and because of all
the benefitslợi ích that I mentionedđề cập
62
188794
2510
và bởi vì những lợi ích
mà tôi vừa kể ra
cũng như tôi là một nhà nghiên cứu về AI,
03:23
and because I'm an AIAI researchernhà nghiên cứu,
63
191328
1716
03:25
I'm not havingđang có that.
64
193068
1791
tôi sẽ không làm như thế.
Tôi vẫn muốn tiếp tục làm về AI.
03:27
I actuallythực ra want to be ablecó thể
to keep doing AIAI.
65
195283
2468
Chúng ta cần phải
cụ thể hóa vấn đề hơn một chút.
03:30
So we actuallythực ra need to nailmóng tay down
the problemvấn đề a bitbit more.
66
198615
2678
Chính xác thì đâu mới là vấn đề?
03:33
What exactlychính xác is the problemvấn đề?
67
201317
1371
03:34
Why is better AIAI possiblycó thể a catastrophetai biến?
68
202712
3246
Vì sao AI tốt hơn lại có thể
đem lại nhiều tai họa?
Đây là một câu trích dẫn khác:
03:39
So here'sđây là anotherkhác quotationbảng báo giá:
69
207398
1498
03:41
"We had better be quitekhá sure
that the purposemục đích put into the machinemáy móc
70
209935
3335
"Chúng ta nên đảm bảo rằng
mục đích mà chúng ta đưa vào máy móc
là mục đích mà chúng ta
thực sự mong muốn."
03:45
is the purposemục đích which we really desirekhao khát."
71
213294
2298
Đây là câu nói
của Norbert Wiener năm 1960,
03:48
This was said by NorbertNorbert WienerWiener in 1960,
72
216282
3498
không lâu sau khi ông ấy được xem
03:51
shortlymột thời gian ngắn after he watchedđã xem
one of the very earlysớm learninghọc tập systemshệ thống
73
219804
4002
một trong những hệ thống
học tập thời đầu
03:55
learnhọc hỏi to playchơi checkerscờ đam
better than its creatorngười sáng tạo.
74
223830
2583
học cách chơi cờ Đam
giỏi hơn người tạo ra nó.
Nhưng điều tương tự cũng đã được nói
04:00
But this could equallybằng nhau have been said
75
228602
2683
04:03
by KingVua MidasMidas.
76
231309
1167
bởi vua Midas.
Vua Midas đã từng bảo:
04:05
KingVua MidasMidas said, "I want everything
I touchchạm to turnxoay to goldvàng,"
77
233083
3134
"Tôi muốn mọi thứ tôi chạm vào
trở thành vàng."
04:08
and he got exactlychính xác what he askedyêu cầu for.
78
236241
2473
và ông ấy đã có chính xác
những gì ông muốn.
Đấy là mục đích
mà ông đã đưa vào máy móc,
04:10
That was the purposemục đích
that he put into the machinemáy móc,
79
238738
2751
04:13
so to speaknói,
80
241513
1450
như đã nói,
sau đó thì đồ ăn, thức uống
và người thân của ông đều biến thành vàng
04:14
and then his foodmón ăn and his drinkuống
and his relativesngười thân turnedquay to goldvàng
81
242987
3444
và ông đã qua đời
trong đau khổ và đói kém.
04:18
and he diedchết in miseryđau khổ and starvationđói khát.
82
246455
2281
Vậy nên chúng ta gọi đây là
"vấn đề Vua Midas"
04:22
So we'lltốt call this
"the KingVua MidasMidas problemvấn đề"
83
250444
2341
khi chúng ta đưa ra một mục tiêu
không trùng khớp với thứ chúng ta muốn.
04:24
of statingnói rõ an objectivemục tiêu
which is not, in factthực tế,
84
252809
3305
04:28
trulythực sự alignedliên kết with what we want.
85
256138
2413
Hiện tại, chúng ta gọi đó là
"vấn đề trùng khớp giá trị."
04:30
In modernhiện đại termsđiều kiện, we call this
"the valuegiá trị alignmentliên kết problemvấn đề."
86
258575
3253
Tuy nhiên xác định sai mục tiêu
không phải là vấn đề duy nhất.
04:37
PuttingĐưa in the wrongsai rồi objectivemục tiêu
is not the only partphần of the problemvấn đề.
87
265047
3485
Còn một phần nữa.
04:40
There's anotherkhác partphần.
88
268556
1152
Nếu chúng ta đưa mục đích vào một cỗ máy,
04:42
If you put an objectivemục tiêu into a machinemáy móc,
89
270160
1943
04:44
even something as simpleđơn giản as,
"FetchLấy the coffeecà phê,"
90
272127
2448
kể cả một thứ đơn giản
như "đi lấy cà phê,"
cỗ máy tự nói với chính nó,
04:47
the machinemáy móc saysnói to itselfchinh no,
91
275908
1841
04:50
"Well, how mightcó thể I failThất bại
to fetchFetch the coffeecà phê?
92
278733
2623
"Ừm, điều gì có thể
làm việc đi lấy cà phê thất bại?"
04:53
SomeoneAi đó mightcó thể switchcông tắc điện me off.
93
281380
1580
Như ai đó có thể sẽ tắt tôi đi.
04:55
OK, I have to take stepscác bước to preventngăn chặn that.
94
283645
2387
Ok, tôi phải ngăn chặn việc đó.
04:58
I will disablevô hiệu hoá my 'off''tắt' switchcông tắc điện.
95
286056
1906
Tôi sẽ vô hiệu hóa nút 'tắt' của tôi.
Tôi sẽ làm mọi thứ để bảo vệ bản thân
05:00
I will do anything to defendphòng thủ myselfriêng tôi
againstchống lại interferencecan thiệp
96
288534
2959
khỏi các thứ cản trở tôi
đạt được mục đích đã được giao."
05:03
with this objectivemục tiêu
that I have been givenđược."
97
291517
2629
05:06
So this single-mindedchuyên pursuittheo đuổi
98
294170
2012
Vậy sự chuyên tâm theo đuổi này
theo một cách rất phòng ngự
đối với mục tiêu mà, thật ra,
05:09
in a very defensivephòng ngự modechế độ
of an objectivemục tiêu that is, in factthực tế,
99
297213
2945
không tương ứng với
mục đích chính của loài người --
05:12
not alignedliên kết with the truethật objectivesmục tiêu
of the humanNhân loại racecuộc đua --
100
300182
2814
05:16
that's the problemvấn đề that we faceđối mặt.
101
304122
1862
đó là vấn đề mà chúng ta phải đối mặt.
Và thực ra, đây là bài học đáng giá
được rút ra từ bài nói này.
05:19
And in factthực tế, that's the high-valuegiá trị cao
takeawaytakeaway from this talk.
102
307007
4767
Nếu bạn muốn nhớ một điều,
05:23
If you want to remembernhớ lại one thing,
103
311798
2055
05:25
it's that you can't fetchFetch
the coffeecà phê if you're deadđã chết.
104
313877
2675
đó là bạn sẽ không thể
lấy được cà phê nếu bạn chết.
(Cười)
05:28
(LaughterTiếng cười)
105
316576
1061
05:29
It's very simpleđơn giản. Just remembernhớ lại that.
RepeatLặp lại it to yourselfbản thân bạn threesố ba timeslần a day.
106
317661
3829
Nó rất đơn giản, hãy nhớ nó.
Nhắc lại cho bản thân nghe 3 lần mỗi ngày.
05:33
(LaughterTiếng cười)
107
321514
1821
(Cười)
05:35
And in factthực tế, this is exactlychính xác the plotâm mưu
108
323359
2754
Và thực ra, đây chính là nội dung
trong phim "2001: [A Space Odyssey]"
05:38
of "2001: [A SpaceSpace OdysseyCuộc phiêu lưu]"
109
326137
2648
HAL có một mục tiêu, một nhiệm vụ,
05:41
HALHAL has an objectivemục tiêu, a missionsứ mệnh,
110
329226
2090
không trùng với mục tiêu của loài người,
05:43
which is not alignedliên kết
with the objectivesmục tiêu of the humanscon người,
111
331340
3732
05:47
and that leadsdẫn to this conflictcuộc xung đột.
112
335096
1810
và nó dẫn tới sự mâu thuẫn này.
05:49
Now fortunatelymay mắn, HALHAL
is not superintelligentsuperintelligent.
113
337494
2969
Nhưng may mắn là Hal không phải
một cỗ máy siêu trí tuệ.
05:52
He's prettyđẹp smartthông minh,
but eventuallycuối cùng DaveDave outwitsoutwits him
114
340487
3587
Nó khá thông minh,
nhưng cuối cùng Dave đã khuất phục được
05:56
and managesquản lý to switchcông tắc điện him off.
115
344098
1849
và đã tắt nguồn nó thành công.
06:01
But we mightcó thể not be so luckymay mắn.
116
349828
1619
Nhưng có thể chúng ta sẽ
không may mắn như thế.
[Xin lỗi Dave. Tôi e rằng
tôi không thể làm điều đó được.]
Vậy chúng ta sẽ phải làm gì?
06:08
So what are we going to do?
117
356193
1592
[AI hợp tác được với con người]
06:12
I'm tryingcố gắng to redefinexác định lại AIAI
118
360371
2601
Tôi đang cố định nghĩa lại về AI
06:14
to get away from this classicalcổ điển notionkhái niệm
119
362996
2061
để thoát khỏi định nghĩa truyền thống
06:17
of machinesmáy móc that intelligentlythông minh
pursuetheo đuổi objectivesmục tiêu.
120
365081
4567
là máy móc mà theo đuổi
mục tiêu một cách thông minh.
06:22
There are threesố ba principlesnguyên lý involvedcó tính liên quan.
121
370712
1798
Nó bao gồm ba nguyên tắc.
Thứ nhất,
06:24
The first one is a principlenguyên tắc
of altruismchủ nghĩa vị tha, if you like,
122
372534
3289
đó là nguyên tắc về
lòng vị tha, nếu bạn thích,
06:27
that the robot'scủa robot only objectivemục tiêu
123
375847
3262
mục tiêu duy nhất của robot là
06:31
is to maximizetối đa hóa the realizationthực hiện
of humanNhân loại objectivesmục tiêu,
124
379133
4246
hiện thực hóa tối đa
mục tiêu của con người,
06:35
of humanNhân loại valuesgiá trị.
125
383403
1390
các giá trị của con người.
06:36
And by valuesgiá trị here I don't mean
touchy-feelynhạy cảm đụng, goody-goodyGoody-Goody valuesgiá trị.
126
384817
3330
Và giá trị ở đây tôi muốn nói không phải
sự nhạy cảm hay đạo đức giả.
06:40
I just mean whateverbất cứ điều gì it is
that the humanNhân loại would preferthích hơn
127
388171
3787
Ý tôi là bất kể thứ gì mà con người muốn
cuộc sống của họ trở nên giống thế.
06:43
theirhọ life to be like.
128
391982
1343
Và thực ra thì điều này
đã vi phạm luật của Asimov
06:47
And so this actuallythực ra violatesvi phạm Asimov'sAsimov lawpháp luật
129
395364
2309
đó là robot phải tự bảo vệ
sự tồn tại của nó.
06:49
that the robotrobot has to protectbảo vệ
its ownsở hữu existencesự tồn tại.
130
397697
2329
06:52
It has no interestquan tâm in preservingbảo quản
its existencesự tồn tại whatsoeverbất cứ điều gì.
131
400050
3723
Nó không hứng thú duy trì
sự tồn tại của mình bất kể thế nào.
06:57
The secondthứ hai lawpháp luật is a lawpháp luật
of humilitysự khiêm tốn, if you like.
132
405420
3768
Luật thứ hai đó là luật về
sự khiêm tốn, nếu bạn thích.
07:01
And this turnslượt out to be really
importantquan trọng to make robotsrobot safean toàn.
133
409974
3743
Và điều này thật ra rất quan trọng để
robot trở nên an toàn.
07:05
It saysnói that the robotrobot does not know
134
413741
3142
Nó nói rằng robot không hề biết
07:08
what those humanNhân loại valuesgiá trị are,
135
416907
2028
những giá trị của con người là gì,
07:10
so it has to maximizetối đa hóa them,
but it doesn't know what they are.
136
418959
3178
nên nó phải tối ưu hóa chúng,
nhưng không biết chúng là gì.
07:15
And that avoidstránh this problemvấn đề
of single-mindedchuyên pursuittheo đuổi
137
423254
2626
Do đó tránh khỏi rắc rối từ sự chuyên tâm
theo đuổi mục đích.
07:17
of an objectivemục tiêu.
138
425904
1212
Sự không chắc chắn này
hóa ra lại rất quan trọng.
07:19
This uncertaintytính không chắc chắn turnslượt out to be crucialquan trọng.
139
427140
2172
Bây giờ, để trở nên có ích cho chúng ta,
07:21
Now, in ordergọi món to be usefulhữu ích to us,
140
429726
1639
07:23
it has to have some ideaý kiến of what we want.
141
431389
2731
nó phải có một chút ý tưởng về thứ
mà chúng ta muốn.
07:27
It obtainsthu được that informationthông tin primarilychủ yếu
by observationquan sát of humanNhân loại choicessự lựa chọn,
142
435223
5427
Nó thu nhận các thông tin này chủ yếu
bằng việc quan sát con người lựa chọn,
07:32
so our ownsở hữu choicessự lựa chọn revealtiết lộ informationthông tin
143
440674
2801
vậy lựa chọn của chúng ta sẽ
hé lộ thông tin
07:35
about what it is that we preferthích hơn
our livescuộc sống to be like.
144
443499
3300
về những thứ mà chúng ta muốn
cuộc sống của mình trở nên như vậy.
07:40
So those are the threesố ba principlesnguyên lý.
145
448632
1683
Vậy đó là ba nguyên tắc.
Hãy xem ta áp dụng chúng vào
câu hỏi này như thế nào:
07:42
Let's see how that appliesáp dụng
to this questioncâu hỏi of:
146
450339
2318
"Bạn có thể tắt nguồn chiếc máy không?"
như Turing đã đưa ra.
07:44
"Can you switchcông tắc điện the machinemáy móc off?"
as TuringTuring suggestedgợi ý.
147
452681
2789
[Vấn đề tắt nguồn]
07:49
So here'sđây là a PRQUAN HỆ CÔNG CHÚNG2 robotrobot.
148
457073
2120
Đây là robot PR2.
Một cái ở phòng nghiên cứu chúng tôi có,
07:51
This is one that we have in our labphòng thí nghiệm,
149
459217
1821
07:53
and it has a biglớn redđỏ "off" switchcông tắc điện
right on the back.
150
461062
2903
và nó có một nút "tắt" lớn đỏ ở sau lưng.
07:56
The questioncâu hỏi is: Is it
going to let you switchcông tắc điện it off?
151
464541
2615
Câu hỏi là:
Nó có để cho bạn tắt nó đi không?
Giả sử ta làm theo cách truyền thống,
07:59
If we do it the classicalcổ điển way,
152
467180
1465
đưa cho nó mục tiêu là "Đi lấy cà phê",
08:00
we give it the objectivemục tiêu of, "FetchLấy
the coffeecà phê, I mustphải fetchFetch the coffeecà phê,
153
468669
3482
"Tôi phải đi lấy cà phê",
08:04
I can't fetchFetch the coffeecà phê if I'm deadđã chết,"
154
472175
2580
"Tôi không thể lấy cà phê nếu tôi chết",
08:06
so obviouslychắc chắn the PRQUAN HỆ CÔNG CHÚNG2
has been listeningnghe to my talk,
155
474779
3341
vậy rõ ràng PR2 đã nghe bài nói của tôi,
08:10
and so it saysnói, thereforevì thế,
"I mustphải disablevô hiệu hoá my 'off''tắt' switchcông tắc điện,
156
478144
3753
và do đó nó nói:
"Tôi phải vô hiệu hóa nút "tắt" của mình,
08:14
and probablycó lẽ taserTaser all the other
people in StarbucksStarbucks
157
482976
2694
và có lẽ sốc điện tất cả
những người trong Starbucks,
08:17
who mightcó thể interferegây trở ngại with me."
158
485694
1560
những người có thể cản trở tôi."
08:19
(LaughterTiếng cười)
159
487278
2062
(Cười)
Vậy điều này có vẻ không thể
tránh khỏi, đúng không?
08:21
So this seemsdường như to be inevitablechắc chắn xảy ra, right?
160
489364
2153
Sự thất bại như thế này có vẻ
không thể tránh được,
08:23
This kindloại of failurethất bại modechế độ
seemsdường như to be inevitablechắc chắn xảy ra,
161
491541
2398
08:25
and it followstheo sau from havingđang có
a concretebê tông, definitexác định objectivemục tiêu.
162
493963
3543
và nó là kết quả của việc có
một mục tiêu rõ ràng.
08:30
So what happensxảy ra if the machinemáy móc
is uncertainkhông chắc chắn about the objectivemục tiêu?
163
498812
3144
Vậy sẽ thế nào nếu chiếc máy
không chắc chắn với mục tiêu của mình?
08:33
Well, it reasonslý do in a differentkhác nhau way.
164
501980
2127
Nó sẽ lý luận theo một cách khác.
08:36
It saysnói, "OK, the humanNhân loại
mightcó thể switchcông tắc điện me off,
165
504131
2424
Nó nghĩ: "Chà, con người
có thể sẽ tắt mình mất,
08:39
but only if I'm doing something wrongsai rồi.
166
507144
1866
nhưng chỉ khi mình làm sai gì đó.
08:41
Well, I don't really know what wrongsai rồi is,
167
509747
2475
Mình thực sự không biết thế nào là "sai",
nhưng mình biết là
mình không muốn làm điều đó."
08:44
but I know that I don't want to do it."
168
512246
2044
Và đây là lúc áp dụng
luật thứ nhất và thứ hai.
08:46
So that's the first and secondthứ hai
principlesnguyên lý right there.
169
514314
3010
08:49
"So I should let the humanNhân loại switchcông tắc điện me off."
170
517348
3359
"Do đó mình nên để con người tắt mình đi."
08:53
And in factthực tế you can calculatetính toán
the incentivekhuyến khích that the robotrobot has
171
521721
3956
Và thực tế bạn có thể tính toán động lực
mà robot phải để con người tắt nó,
08:57
to allowcho phép the humanNhân loại to switchcông tắc điện it off,
172
525701
2493
09:00
and it's directlytrực tiếp tiedgắn to the degreetrình độ
173
528218
1914
và nó liên kết trực tiếp
09:02
of uncertaintytính không chắc chắn about
the underlyingcơ bản objectivemục tiêu.
174
530156
2746
với mức độ không chắc chắn
về các mục tiêu tiềm ẩn.
09:05
And then when the machinemáy móc is switchedchuyển sang off,
175
533977
2949
Và khi mà chiếc máy đã được tắt đi,
09:08
that thirdthứ ba principlenguyên tắc comesđến into playchơi.
176
536950
1805
thì đến lượt của luật thứ ba.
09:10
It learnshọc something about the objectivesmục tiêu
it should be pursuingtheo đuổi,
177
538779
3062
Nó sẽ học được gì đó về
mục tiêu mà nó cần theo đuổi,
09:13
because it learnshọc that
what it did wasn'tkhông phải là right.
178
541865
2533
vì nó học được những việc
mình đã làm là không đúng.
09:16
In factthực tế, we can, with suitablethích hợp use
of GreekHy Lạp symbolský hiệu,
179
544422
3570
Thực tế, nếu sử dụng
các kí hiệu La Mã thích hợp,
09:20
as mathematiciansnhà toán học usuallythông thường do,
180
548016
2131
như các nhà toán học hay làm,
chúng ta thực sự có thể
chứng minh mệnh đề
09:22
we can actuallythực ra provechứng minh a theoremđịnh lý
181
550171
1984
09:24
that saysnói that suchnhư là a robotrobot
is provablyprovably beneficialmang lại lợi ích to the humanNhân loại.
182
552179
3553
nói rằng robot này quả là
có ích cho con người.
09:27
You are provablyprovably better off
with a machinemáy móc that's designedthiết kế in this way
183
555756
3803
Bạn có thể cải thiện tốt hơn
với chiếc máy được thiết kế như thế này
09:31
than withoutkhông có it.
184
559583
1246
so với không có nó.
09:33
So this is a very simpleđơn giản examplethí dụ,
but this is the first stepbậc thang
185
561237
2906
Vậy đây là một ví dụ rất đơn giản,
nhưng đó là bước đầu tiên
09:36
in what we're tryingcố gắng to do
with human-compatibletương thích với con người AIAI.
186
564167
3903
trong việc chúng tôi cố gắng làm ra
AI hòa hợp với con người.
09:42
Now, this thirdthứ ba principlenguyên tắc,
187
570657
3257
Bây giờ, luật thứ ba này,
tôi nghĩ nó là điều
khiến bạn phải vò đầu bứt tai suốt.
09:45
I think is the one that you're probablycó lẽ
scratchingtrầy xước your headcái đầu over.
188
573938
3112
Có thể bạn đang nghĩ:
09:49
You're probablycó lẽ thinkingSuy nghĩ, "Well,
you know, I behavehành xử badlytệ.
189
577074
3239
"Chà, bạn biết đấy, tôi cư xử khá tệ.
09:52
I don't want my robotrobot to behavehành xử like me.
190
580337
2929
Tôi không muốn robot của mình
cư xử giống tôi.
09:55
I sneaksneak down in the middleở giữa of the night
and take stuffđồ đạc from the fridgeTủ lạnh.
191
583290
3434
Tôi mò mẫm vào giữa đêm và lén lút
lấy đồ trong tủ lạnh.
Tôi làm điều này, điều nọ."
09:58
I do this and that."
192
586748
1168
Có cả tá thứ mà
bạn không muốn robot làm theo.
09:59
There's all kindscác loại of things
you don't want the robotrobot doing.
193
587940
2797
Nhưng thực tế, nó không hoạt động như thế.
10:02
But in factthực tế, it doesn't
quitekhá work that way.
194
590761
2071
Chỉ vì bạn cư xử tồi tệ
10:04
Just because you behavehành xử badlytệ
195
592856
2155
không có nghĩa là robot sẽ
bắt chước hành vi của bạn.
10:07
doesn't mean the robotrobot
is going to copysao chép your behaviorhành vi.
196
595035
2623
Nó sẽ hiểu động lực của bạn
và có thể giúp bạn chống lại chúng,
10:09
It's going to understandhiểu không your motivationsđộng lực
and maybe help you resistkháng cự them,
197
597682
3910
10:13
if appropriatethích hợp.
198
601616
1320
nếu điều đó phù hợp.
10:16
But it's still difficultkhó khăn.
199
604206
1464
Nhưng thực ra vẫn khó.
10:18
What we're tryingcố gắng to do, in factthực tế,
200
606302
2545
Điều chúng tôi đang cố gắng làm, thật ra,
là giúp máy tính dự đoán
cho mỗi người và cho mỗi cuộc sống
10:20
is to allowcho phép machinesmáy móc to predicttiên đoán
for any personngười and for any possiblekhả thi life
201
608871
5796
mà họ có thể đã được sống,
10:26
that they could livetrực tiếp,
202
614691
1161
10:27
and the livescuộc sống of everybodymọi người elsekhác:
203
615876
1597
và cuộc sống của tất cả mọi người khác:
10:29
Which would they preferthích hơn?
204
617497
2517
Họ thích cuộc sống nào nhất?
10:34
And there are manynhiều, manynhiều
difficultiesnhững khó khăn involvedcó tính liên quan in doing this;
205
622061
2954
Và có rất rất nhiều khó khăn
trong việc này.
Tôi không hy vọng là
chúng sẽ được giải quyết nhanh chóng.
10:37
I don't expectchờ đợi that this
is going to get solvedđã được giải quyết very quicklyMau.
206
625039
2932
10:39
The realthực difficultiesnhững khó khăn, in factthực tế, are us.
207
627995
2643
Khó khăn lớn nhất, thật ra,
là chính chúng ta.
10:44
As I have alreadyđã mentionedđề cập,
we behavehành xử badlytệ.
208
632149
3117
Như tôi đã đề cập, chúng ta cư xử khá tệ.
Thực tế, một số chúng ta
thực sự đã mục nát.
10:47
In factthực tế, some of us are downrighthết sức nastykhó chịu.
209
635290
2321
Bây giờ robot, như tôi đã nói,
không cần phải bắt chước các hành vi.
10:50
Now the robotrobot, as I said,
doesn't have to copysao chép the behaviorhành vi.
210
638431
3052
10:53
The robotrobot does not have
any objectivemục tiêu of its ownsở hữu.
211
641507
2791
Robot không có bất cứ
mục tiêu nào cho riêng chúng.
10:56
It's purelyhoàn toàn altruisticvị tha.
212
644322
1737
Chúng hoàn toàn rất vị tha.
10:59
And it's not designedthiết kế just to satisfythỏa mãn
the desiresham muốn of one personngười, the userngười dùng,
213
647293
5221
Và nó không được thiết kế
để thỏa mãn ước muốn
của chỉ một cá nhân, một người dùng,
11:04
but in factthực tế it has to respectsự tôn trọng
the preferencessở thích of everybodymọi người.
214
652538
3138
mà thực tế nó phải tôn trọng quan điểm
của tất cả mọi người.
11:09
So it can dealthỏa thuận with a certainchắc chắn
amountsố lượng of nastinessnastiness,
215
657263
2570
Do đó nó có thể xử lý
với một số hành vi xấu xa,
11:11
and it can even understandhiểu không
that your nastinessnastiness, for examplethí dụ,
216
659857
3701
và thậm chí có thể thông cảm
với sự sai trái của bạn, ví dụ,
11:15
you mayTháng Năm take bribeshối lộ as a passporthộ chiếu officialchính thức
217
663582
2671
có thể bạn nhận hối lộ
khi làm công việc hộ chiếu
11:18
because you need to feednuôi your familygia đình
and sendgửi your kidstrẻ em to schooltrường học.
218
666277
3812
vì bạn cần nuôi sống gia đình
và cho con của bạn đi học.
11:22
It can understandhiểu không that;
it doesn't mean it's going to steallấy trộm.
219
670113
2906
Chúng có thể hiểu điều này;
nó không có nghĩa là chúng sẽ ăn cắp.
11:25
In factthực tế, it'llnó sẽ just help you
sendgửi your kidstrẻ em to schooltrường học.
220
673043
2679
Thực tế, nó chỉ giúp bạn
giúp con bạn được đi học.
11:28
We are alsocũng thế computationallycomputationally limitedgiới hạn.
221
676976
3012
Chúng ta cũng bị hạn chế về mặt tính toán.
11:32
LeeLee SedolSedol is a brilliantrực rỡ Go playerngười chơi,
222
680012
2505
Lee Sedol là một thiên tài cờ vây,
11:34
but he still lostmất đi.
223
682541
1325
nhưng anh ấy vẫn thua.
11:35
So if we look at his actionshành động,
he tooklấy an actionhoạt động that lostmất đi the gametrò chơi.
224
683890
4239
Nếu ta nhìn vào hành động của anh ấy,
anh ấy chấp nhận đã thua ván cờ.
11:40
That doesn't mean he wanted to losethua.
225
688153
2161
Nó không có nghĩa là anh ấy muốn thua.
11:43
So to understandhiểu không his behaviorhành vi,
226
691340
2040
Vậy để hiểu được hành vi của anh ấy,
11:45
we actuallythực ra have to invertđảo ngược
throughxuyên qua a modelmô hình of humanNhân loại cognitionnhận thức
227
693404
3644
chúng ta phải quay ngược trở lại
với mô hình nhận thức của con người
11:49
that includesbao gồm our computationaltính toán
limitationshạn chế -- a very complicatedphức tạp modelmô hình.
228
697072
4977
mà bao gồm những hạn chế về
tính toán của chúng ta.
Và nó là một hệ thống rất phức tạp.
11:54
But it's still something
that we can work on understandinghiểu biết.
229
702073
2993
Nhưng nó vẫn là thứ mà chúng ta có thể
khám phá và hiểu nó.
11:57
ProbablyCó lẽ the mostphần lớn difficultkhó khăn partphần,
from my pointđiểm of viewlượt xem as an AIAI researchernhà nghiên cứu,
230
705876
4320
Có lẽ phần khó khăn nhất,
dưới góc nhìn là một nhà nghiên cứu AI,
12:02
is the factthực tế that there are lots of us,
231
710220
2575
đó là số lượng của chúng ta quá nhiều,
12:06
and so the machinemáy móc has to somehowbằng cách nào đó
tradebuôn bán off, weighcân up the preferencessở thích
232
714294
3581
thế nên máy tính phải bằng một cách nào đó
cân đong đo đếm các quan điểm
12:09
of manynhiều differentkhác nhau people,
233
717899
2225
của nhiều người khác nhau,
12:12
and there are differentkhác nhau wayscách to do that.
234
720148
1906
và có rất nhiều cách để làm việc này.
12:14
EconomistsNhà kinh tế học, sociologistsnhà xã hội học,
moralđạo đức philosophersnhà triết học have understoodhiểu that,
235
722078
3689
Các nhà kinh tế học, xã hội học,
triết học đạo đức đã hiểu điều đó,
12:17
and we are activelytích cực
looking for collaborationhợp tác.
236
725791
2455
và chúng tôi đang chủ động
tìm kiếm các sự hợp tác.
12:20
Let's have a look and see what happensxảy ra
when you get that wrongsai rồi.
237
728270
3251
Hãy quan sát và xem điều gì sẽ xảy ra
khi bạn hiểu sai nó.
12:23
So you can have
a conversationcuộc hội thoại, for examplethí dụ,
238
731545
2133
Ví dụ, bạn có thể có một cuộc đối thoại
12:25
with your intelligentthông minh personalcá nhân assistanttrợ lý
239
733702
1944
với trợ lý thông minh riêng của bạn
12:27
that mightcó thể be availablecó sẵn
in a fewvài years'năm ' time.
240
735670
2285
điều có thể sẽ thành hiện thực
trong vài năm tới.
12:29
Think of a SiriSiri on steroidssteroid.
241
737979
2524
Bạn có thể nghĩ về Siri
nhưng ngoài đời thực.
12:33
So SiriSiri saysnói, "Your wifengười vợ calledgọi là
to remindnhắc lại you about dinnerbữa tối tonighttối nay."
242
741627
4322
Siri nói: "Vợ anh đã gọi để nhắc anh về
buổi ăn tối ngày mai."
12:38
And of coursekhóa học, you've forgottenquên.
"What? What dinnerbữa tối?
243
746616
2508
Và đương nhiên, bạn đã quên.
"Hả? Bữa tối nào?
12:41
What are you talkingđang nói about?"
244
749148
1425
Cô đang nói về gì vậy?"
12:42
"Uh, your 20ththứ anniversaryngày kỷ niệm at 7pmAM."
245
750597
3746
"..., kỉ niệm 20 năm ngày cưới,
lúc 7 giờ tối."
12:48
"I can't do that. I'm meetinggặp gỡ
with the secretary-generalTổng thư ký at 7:30.
246
756915
3719
"Tôi không thể. Tôi có cuộc gặp với
tổng thư ký lúc 7h30.
12:52
How could this have happenedđã xảy ra?"
247
760658
1692
Sao..., sao chuyện này
có thể xảy ra chứ?"
12:54
"Well, I did warncảnh báo you, but you overrodexích
my recommendationsự giới thiệu."
248
762374
4660
"Chà, tôi đã cảnh báo anh
nhưng anh đã lờ đi lời khuyên của tôi."
13:00
"Well, what am I going to do?
I can't just tell him I'm too busybận."
249
768146
3328
"Tôi phải làm gì bây giờ?
Tôi không thể nói cô ấy là tôi quá bận."
13:04
"Don't worrylo. I arrangedbố trí
for his planemáy bay to be delayedtrì hoãn."
250
772490
3281
"Đừng lo lắng. Tôi sẽ sắp xếp để
chuyến bay của anh ấy bị hoãn lại."
13:07
(LaughterTiếng cười)
251
775795
1682
(Cười)
13:10
"Some kindloại of computermáy vi tính malfunctionsự cố."
252
778249
2101
"Bằng một lỗi trục trặc kĩ thuật nào đó."
13:12
(LaughterTiếng cười)
253
780374
1212
(Cười)
13:13
"Really? You can do that?"
254
781610
1617
"Thật ư? Cô có thể làm thế à?"
13:16
"He sendsgửi his profoundthâm thúy apologieslời xin lỗi
255
784400
2179
"Anh ấy đã gửi thư xin lỗi
13:18
and looksnhìn forwardphía trước to meetinggặp gỡ you
for lunchBữa trưa tomorrowNgày mai."
256
786603
2555
và mong sẽ được
gặp anh ở bữa trưa ngày mai."
13:21
(LaughterTiếng cười)
257
789182
1299
(Cười)
13:22
So the valuesgiá trị here --
there's a slightnhẹ mistakesai lầm going on.
258
790505
4403
Vậy giá trị ở đây --
có một chút sai lầm đã xảy ra.
13:26
This is clearlythông suốt followingtiếp theo my wife'svợ valuesgiá trị
259
794932
3009
Nó hoàn toàn theo đuổi giá trị của vợ tôi
13:29
which is "HappyVui vẻ wifengười vợ, happyvui mừng life."
260
797965
2069
đó là "Vợ vui thì đời cũng vui."
13:32
(LaughterTiếng cười)
261
800058
1583
(Cười)
Nó có thể diễn ra
theo một hướng khác.
13:33
It could go the other way.
262
801665
1444
13:35
You could come home
after a hardcứng day'sngày work,
263
803821
2201
Bạn vừa trở về nhà
sau một ngày làm việc vất vả,
13:38
and the computermáy vi tính saysnói, "Long day?"
264
806046
2195
và máy tính hỏi: "Một ngày dài à?"
"Ừ, tôi còn chẳng có
thời gian để ăn trưa."
13:40
"Yes, I didn't even have time for lunchBữa trưa."
265
808265
2288
"Chắc anh phải đói lắm rồi."
13:42
"You mustphải be very hungryđói bụng."
266
810577
1282
13:43
"StarvingĐói, yeah.
Could you make some dinnerbữa tối?"
267
811883
2646
"Ừ, đói muốn chết.
Bạn có thể làm bữa tối cho tôi không?"
13:48
"There's something I need to tell you."
268
816070
2090
"Có điều này tôi phải nói với anh."
13:50
(LaughterTiếng cười)
269
818184
1155
(Cười)
13:52
"There are humanscon người in SouthNam SudanSudan
who are in more urgentkhẩn cấp need than you."
270
820193
4905
"Những người ở Nam Sudan đang cần
sự trợ giúp khẩn cấp hơn anh nhiều."
13:57
(LaughterTiếng cười)
271
825122
1104
(Cười)
13:58
"So I'm leavingđể lại. Make your ownsở hữu dinnerbữa tối."
272
826250
2075
"Nên tôi đi đây.
Tự làm bữa tối của anh đi."
14:00
(LaughterTiếng cười)
273
828349
2000
(Cười)
14:02
So we have to solvegiải quyết these problemscác vấn đề,
274
830823
1739
Vậy chúng ta phải xử lý
những vấn đề như thế này,
14:04
and I'm looking forwardphía trước
to workingđang làm việc on them.
275
832586
2515
và tôi rất nóng lòng được
làm việc với chúng.
14:07
There are reasonslý do for optimismlạc quan.
276
835125
1843
Có những lý do để mà lạc quan.
14:08
One reasonlý do is,
277
836992
1159
Một lý do là,
14:10
there is a massiveto lớn amountsố lượng of datadữ liệu.
278
838175
1868
có một lượng khổng lồ dữ liệu ngoài kia.
14:12
Because remembernhớ lại -- I said
they're going to readđọc everything
279
840067
2794
Bởi vì như tôi đã nói,
chúng sẽ đọc hết tất cả mọi thứ trên đời.
14:14
the humanNhân loại racecuộc đua has ever writtenbằng văn bản.
280
842885
1546
Hầu hết những gì chúng ta viết là về
những việc làm của nhân loại
14:16
MostHầu hết of what we writeviết about
is humanNhân loại beingschúng sanh doing things
281
844455
2724
và sau đó những người khác
cảm thấy phiền lòng về nó.
14:19
and other people gettingnhận được upsetbuồn bã about it.
282
847203
1914
14:21
So there's a massiveto lớn amountsố lượng
of datadữ liệu to learnhọc hỏi from.
283
849141
2398
Do đó có một lượng
khổng lồ dữ liệu để học tập.
14:23
There's alsocũng thế a very
strongmạnh economicthuộc kinh tế incentivekhuyến khích
284
851563
2236
Đồng thời có một động lực kinh tế rất lớn
14:27
to get this right.
285
855331
1186
để làm đúng việc này.
14:28
So imaginetưởng tượng your domestictrong nước robot'scủa robot at home.
286
856541
2001
Hãy tưởng tượng robot gia đình ở nhà bạn.
14:30
You're latemuộn from work again
and the robotrobot has to feednuôi the kidstrẻ em,
287
858566
3067
Bạn lại đi làm về trễ
và robot phải nấu ăn cho bọn trẻ,
14:33
and the kidstrẻ em are hungryđói bụng
and there's nothing in the fridgeTủ lạnh.
288
861657
2823
bọn trẻ thì đang đói
và không còn thứ gì trong tủ lạnh.
14:36
And the robotrobot seesnhìn the catcon mèo.
289
864504
2605
Và robot nhìn thấy con mèo.
14:39
(LaughterTiếng cười)
290
867133
1692
(Cười)
14:40
And the robotrobot hasn'tđã không quitekhá learnedđã học
the humanNhân loại valuegiá trị functionchức năng properlyđúng,
291
868849
4190
Và robot này chưa được học hoàn toàn
về các giá trị của con người,
nên nó không thể hiểu được rằng
14:45
so it doesn't understandhiểu không
292
873063
1251
14:46
the sentimentaltình cảm valuegiá trị of the catcon mèo outweighsoutweighs
the nutritionaldinh dưỡng valuegiá trị of the catcon mèo.
293
874338
4844
các giá trị tình cảm của con mèo
lớn hơn hẳn giá trị dinh dưỡng của nó.
(Cười)
14:51
(LaughterTiếng cười)
294
879206
1095
Vậy sau đó chuyện gì xảy ra?
14:52
So then what happensxảy ra?
295
880325
1748
14:54
Well, it happensxảy ra like this:
296
882097
3297
Chà, nó xảy ra như thế này:
14:57
"DerangedHư hỏng robotrobot cooksđầu bếp kittymèo con
for familygia đình dinnerbữa tối."
297
885418
2964
"Một robot điên loạn nấu mèo con
cho bữa tối của gia đình."
15:00
That one incidentbiến cố would be the endkết thúc
of the domestictrong nước robotrobot industryngành công nghiệp.
298
888406
4523
Một sự cố như thế có thể
sẽ chấm dứt ngành robot gia đình.
15:04
So there's a hugekhổng lồ incentivekhuyến khích
to get this right
299
892953
3372
Do đó có một động lực rất lớn
để làm việc này đúng trong thời gian dài
15:08
long before we reachchạm tới
superintelligentsuperintelligent machinesmáy móc.
300
896349
2715
trước khi chúng ta đạt tới
máy móc siêu thông minh.
15:12
So to summarizetóm tắt:
301
900128
1535
Vậy để tổng kết lại:
15:13
I'm actuallythực ra tryingcố gắng to changethay đổi
the definitionĐịnh nghĩa of AIAI
302
901687
2881
Tôi thực ra đang cố
thay đổi định nghĩa về AI
15:16
so that we have provablyprovably
beneficialmang lại lợi ích machinesmáy móc.
303
904592
2993
để chúng ta có những máy móc
được chứng minh là có hiệu quả.
15:19
And the principlesnguyên lý are:
304
907609
1222
Và những nguyên tắc là:
những chiếc máy hoàn toàn vị tha,
15:20
machinesmáy móc that are altruisticvị tha,
305
908855
1398
15:22
that want to achieveHoàn thành only our objectivesmục tiêu,
306
910277
2804
chỉ muốn đạt được mục đích của chúng ta,
15:25
but that are uncertainkhông chắc chắn
about what those objectivesmục tiêu are,
307
913105
3116
nhưng chúng không chắc chắn
những mục tiêu này là gì,
15:28
and will watch all of us
308
916245
1998
và sẽ theo dõi tất cả chúng ta
15:30
to learnhọc hỏi more about what it is
that we really want.
309
918267
3203
để hiểu thêm về những gì
chúng ta thực sự muốn.
15:34
And hopefullyhy vọng in the processquá trình,
we will learnhọc hỏi to be better people.
310
922373
3559
Và mong rằng trong quá trình đó,
ta cũng học hỏi để trở nên tốt đẹp hơn.
15:37
Thank you very much.
311
925956
1191
Cảm ơn rất nhiều.
15:39
(ApplauseVỗ tay)
312
927171
3709
(Vỗ tay)
Chris Anderson: Rất thú vị, Stuart.
15:42
ChrisChris AndersonAnderson: So interestinghấp dẫn, StuartStuart.
313
930904
1868
Chúng ta sẽ đứng đây thêm chút nữa
15:44
We're going to standđứng here a bitbit
because I think they're settingcài đặt up
314
932796
3170
vì tôi nghĩ họ đang chuẩn bị
cho diễn giả tiếp theo.
15:47
for our nextkế tiếp speakerloa.
315
935990
1151
15:49
A couplevợ chồng of questionscâu hỏi.
316
937165
1538
Đây là một số câu hỏi.
15:50
So the ideaý kiến of programminglập trình in ignorancevô minh
seemsdường như intuitivelytrực giác really powerfulquyền lực.
317
938727
5453
Vậy ý tưởng lập trình với sự thiếu hụt
thông tin có vẻ như rất mạnh mẽ.
15:56
As you get to superintelligencesuperintelligence,
318
944204
1594
Nhưng khi ta có siêu trí tuệ,
15:57
what's going to stop a robotrobot
319
945822
2258
điều gì sẽ ngăn cản robot
16:00
readingđọc hiểu literaturevăn chương and discoveringkhám phá
this ideaý kiến that knowledgehiểu biết
320
948104
2852
đọc những quyển sách
và phát hiện ra ý tưởng là
có kiến thức thực ra
tốt hơn là bị thiếu hụt
16:02
is actuallythực ra better than ignorancevô minh
321
950980
1572
16:04
and still just shiftingchuyển its ownsở hữu goalsnhững mục tiêu
and rewritingviết lại that programminglập trình?
322
952576
4218
và có thể chuyển hướng mục tiêu của chúng
sau đó viết lại các chương trình?
16:09
StuartStuart RussellRussell: Yes, so we want
it to learnhọc hỏi more, as I said,
323
957692
6356
Stuart Rusell: Vâng, chúng ta muốn nó
học hỏi nhiều hơn, như tôi đã nói,
16:16
about our objectivesmục tiêu.
324
964072
1287
về mục tiêu của chúng ta.
16:17
It'llNó sẽ only becometrở nên more certainchắc chắn
as it becomestrở thành more correctchính xác,
325
965383
5521
Nó sẽ chỉ trở nên chắc chắn hơn
khi nó làm đúng nhiều hơn,
16:22
so the evidencechứng cớ is there
326
970928
1945
vậy đó sẽ là những bằng chứng
16:24
and it's going to be designedthiết kế
to interpretgiải thích it correctlyđúng.
327
972897
2724
và chúng sẽ được thiết kế
để diễn dịch đúng đắn điều này.
16:27
It will understandhiểu không, for examplethí dụ,
that bookssách are very biasedcó thành kiến
328
975645
3956
Nó sẽ hiểu được, ví dụ như
những quyển sách rất thiên vị
16:31
in the evidencechứng cớ they containchứa.
329
979625
1483
về những đề tài mà chúng chứa.
16:33
They only talk about kingsvua and princesHoàng tử
330
981132
2397
Chúng chỉ nói về các vị vua và hoàng tử
16:35
and eliteưu tú whitetrắng maleNam giới people doing stuffđồ đạc.
331
983553
2800
và các đàn ông quý tộc da trắng làm gì đó.
16:38
So it's a complicatedphức tạp problemvấn đề,
332
986377
2096
Nên đó là một vấn đề phức tạp,
16:40
but as it learnshọc more about our objectivesmục tiêu
333
988497
3872
nhưng khi nó học hỏi nhiều hơn
về mục tiêu của chúng ta,
16:44
it will becometrở nên more and more usefulhữu ích to us.
334
992393
2063
nó sẽ chở nên càng ngày
càng có ích cho chúng ta.
16:46
CACA: And you couldn'tkhông thể
just boilsôi lên it down to one lawpháp luật,
335
994480
2526
CA: Và anh đã không thể
rút gọn lại trong một luật,
16:49
you know, hardwiredmạch điện điện in:
336
997030
1650
như là bó buộc nó lại:
16:50
"if any humanNhân loại ever triescố gắng to switchcông tắc điện me off,
337
998704
3293
"Nếu loài người đã cố để tắt nguồn tôi,
16:54
I complytuân thủ. I complytuân thủ."
338
1002021
1935
tôi sẽ tuân lệnh thôi."
16:55
SRSR: AbsolutelyHoàn toàn not.
339
1003980
1182
SR: Thực sự thì không.
16:57
That would be a terriblekhủng khiếp ideaý kiến.
340
1005186
1499
Đó sẽ là một ý tưởng tồi tệ.
16:58
So imaginetưởng tượng that you have
a self-drivingtự lái carxe hơi
341
1006709
2689
Hãy tưởng tượng anh có một chiếc xe tự lái
17:01
and you want to sendgửi your five-year-oldnăm tuổi
342
1009422
2433
và anh muốn gửi đứa con 5 tuổi
tới trường mẫu giáo.
17:03
off to preschoolmầm non.
343
1011879
1174
17:05
Do you want your five-year-oldnăm tuổi
to be ablecó thể to switchcông tắc điện off the carxe hơi
344
1013077
3101
Anh có muốn đứa con 5 tuổi có thể
tắt chiếc xe khi nó đang chạy không?
17:08
while it's drivingđiều khiển alongdọc theo?
345
1016202
1213
Chắc là không đâu.
17:09
ProbablyCó lẽ not.
346
1017439
1159
Do đó nó cần hiểu được mức độ
nhận thức của người đó.
17:10
So it needsnhu cầu to understandhiểu không how rationalhợp lý
and sensiblehợp lý the personngười is.
347
1018622
4703
17:15
The more rationalhợp lý the personngười,
348
1023349
1676
Nhận thức người đó càng cao,
17:17
the more willingsẵn lòng you are
to be switchedchuyển sang off.
349
1025049
2103
khả năng máy tính tự nguyện
bị tắt càng cao.
17:19
If the personngười is completelyhoàn toàn
randomngẫu nhiên or even maliciousđộc hại,
350
1027176
2543
Nếu người đó hoàn toàn lạ mặt
hay thậm chí là kẻ xấu,
17:21
then you're lessít hơn willingsẵn lòng
to be switchedchuyển sang off.
351
1029743
2512
thì máy tính sẽ khó để bị tắt hơn.
17:24
CACA: All right. StuartStuart, can I just say,
352
1032279
1866
CA: Được thôi, Stuart,
tôi rất mong anh sẽ giải quyết
vấn đề này cho chúng ta.
17:26
I really, really hopemong you
figurenhân vật this out for us.
353
1034169
2314
Cảm ơn rất nhiều vì cuộc nói chuyện.
Nó rất tuyệt vời.
17:28
Thank you so much for that talk.
That was amazingkinh ngạc.
354
1036507
2375
SR: Cảm ơn.
17:30
SRSR: Thank you.
355
1038906
1167
(Vỗ tay)
17:32
(ApplauseVỗ tay)
356
1040097
1837
Translated by Tân Nguyễn Hoàng
Reviewed by Ngoc Bui

▲Back to top

ABOUT THE SPEAKER
Stuart Russell - AI expert
Stuart Russell wrote the standard text on AI; now he thinks deeply on AI's future -- and the future of us humans, too.

Why you should listen

Stuart Russell is a professor (and formerly chair) of Electrical Engineering and Computer Sciences at University of California at Berkeley. His book Artificial Intelligence: A Modern Approach (with Peter Norvig) is the standard text in AI; it has been translated into 13 languages and is used in more than 1,300 universities in 118 countries. His research covers a wide range of topics in artificial intelligence including machine learning, probabilistic reasoning, knowledge representation, planning, real-time decision making, multitarget tracking, computer vision, computational physiology, global seismic monitoring and philosophical foundations.

He also works for the United Nations, developing a new global seismic monitoring system for the nuclear-test-ban treaty. His current concerns include the threat of autonomous weapons and the long-term future of artificial intelligence and its relation to humanity.

More profile about the speaker
Stuart Russell | Speaker | TED.com