ABOUT THE SPEAKER
Rodney Brooks - Roboticist
Rodney Brooks builds robots based on biological principles of movement and reasoning. The goal: a robot who can figure things out.

Why you should listen

Former MIT professor Rodney Brooks studies and engineers robot intelligence, looking for the holy grail of robotics: the AGI, or artificial general intelligence. For decades, we've been building robots to do highly specific tasks -- welding, riveting, delivering interoffice mail -- but what we all want, really, is a robot that can figure things out on its own, the way we humans do.

Brooks realized that a top-down approach -- just building the biggest brain possible and teaching it everything we could think of -- would never work. What would work is a robot who learns like we do, by trial and error, and with many separate parts that learn separate jobs. The thesis of his work which was captured in Fast, Cheap and Out of Control,went on to become the title of the great Errol Morris documentary.

A founder of iRobot, makers of the Roomba vacuum, Brooks is now founder and CTO of Rethink Robotics, whose mission is to apply advanced robotic intelligence to manufacturing and physical labor. Its first robots: the versatile two-armed Baxter and one-armed Sawyer. Brooks is the former director of CSAIL, MIT's Computers Science and Artificial Intelligence Laboratory.

 
More profile about the speaker
Rodney Brooks | Speaker | TED.com
TED2003

Rodney Brooks: Robots will invade our lives

Filmed:
689,918 views

In this prophetic talk from 2003, roboticist Rodney Brooks talks about how robots are going to work their way into our lives -- starting with toys and moving into household chores ... and beyond.
- Roboticist
Rodney Brooks builds robots based on biological principles of movement and reasoning. The goal: a robot who can figure things out. Full bio

Double-click the English transcript below to play the video.

00:18
What I want to tell you about todayhôm nay is how I see robotsrobot invadingxâm nhập our livescuộc sống
0
0
5000
Điều mà tôi muốn nói ngày hôm nay là cách mà
tôi nhận thấy sự chế ngự của robot trong cuộc sống chúng ta
00:23
at multiplenhiều levelscấp, over multiplenhiều timescalestimescales.
1
5000
3000
ở nhiều mức độ, nhiều khoảng thời gian.
00:26
And when I look out in the futureTương lai, I can't imaginetưởng tượng a worldthế giới, 500 yearsnăm from now,
2
8000
4000
Và khi tôi nhìn vào tương lai, tôi
không thể tưởng tượng được một thế giới
500 năm sau mà không có robot ở mọi nơi.
00:30
where we don't have robotsrobot everywheremọi nơi.
3
12000
2000
00:32
AssumingGiả sử -- despitemặc dù all the direthị trường hấp dẫn predictionsdự đoán from manynhiều people about our futureTương lai --
4
14000
5000
Giả sử -- mặc cho những dự đoán nghiêm trọng về
tương lai từ rất nhiều người --
00:37
assuminggiả định we're still around, I can't imaginetưởng tượng the worldthế giới not beingđang populateddân cư with robotsrobot.
5
19000
4000
giả sử rằng chúng ta còn tồn tại, tôi không thể
tưởng tượng được một thế giới thiếu robots.
00:41
And then the questioncâu hỏi is, well, if they're going to be here in 500 yearsnăm,
6
23000
3000
Và rồi câu hỏi sẽ là, vâng, nếu chúng
sẽ tồn tại trong 500 năm nữa,
00:44
are they going to be everywheremọi nơi soonersớm hơn than that?
7
26000
2000
vậy chúng sẽ tràn ngập mọi nơi
sớm hơn thế hay không?
00:46
Are they going to be around in 50 yearsnăm?
8
28000
2000
Chúng sẽ có mặt xung quanh ta trong vòng
50 năm nữa hay không?
00:48
Yeah, I think that's prettyđẹp likelycó khả năng -- there's going to be lots of robotsrobot everywheremọi nơi.
9
30000
3000
Vâng, tôi nghĩ điều đó rất có thể xảy ra
-- sẽ có vô số robots ở mọi nơi.
00:51
And in factthực tế I think that's going to be a lot soonersớm hơn than that.
10
33000
3000
Và thực tế thì tôi nghĩ rằng điều đó sẽ
xảy ra sớm hơn thế.
00:54
I think we're sortsắp xếp of on the cuspđỉnh of robotsrobot becomingtrở thành commonchung,
11
36000
4000
Tôi nghĩ rằng chúng ta đang ở đỉnh điểm
khi robots trở nên phổ biến hơn,
00:58
and I think we're sortsắp xếp of around 1978 or 1980 in personalcá nhân computermáy vi tính yearsnăm,
12
40000
6000
và tôi nghĩ chúng ta đang ở khoảng 1978-1980
trong những năm của máy tính cá nhân,
01:04
where the first fewvài robotsrobot are startingbắt đầu to appearxuất hiện.
13
46000
3000
khi những robot đầu tiên bắt đầu xuất hiện.
01:07
ComputersMáy vi tính sortsắp xếp of cameđã đến around throughxuyên qua gamesTrò chơi and toysđồ chơi.
14
49000
4000
Máy tính trở nên phổ biến qua games và đồ chơi.
01:11
And you know, the first computermáy vi tính mostphần lớn people had in the housenhà ở
15
53000
3000
Và bạn biết không, chiếc máy tính đầu tiên mà
hầu hết người dân có trong nhà
01:14
mayTháng Năm have been a computermáy vi tính to playchơi PongPong,
16
56000
2000
có thể là một chiếc máy tính để chơi trò Pong,
01:16
a little microprocessorbộ vi xử lý embeddednhúng,
17
58000
2000
một bộ vi xử lý gắn bên trong,
01:18
and then other gamesTrò chơi that cameđã đến after that.
18
60000
3000
và sau đó thì nhiều trò chơi khác ra đời.
01:21
And we're startingbắt đầu to see that sametương tự sortsắp xếp of thing with robotsrobot:
19
63000
3000
Và chúng ta bắt đầu thấy robot cũng như vậy:
01:24
LEGOLEGO MindstormsMindstorms, FurbiesFurbies -- who here -- did anyonebất kỳ ai here have a FurbyFurby?
20
66000
4000
LEGO Mindstorms, Furbies - ai ở đây
có một con Furby?
01:28
Yeah, there's 38 milliontriệu of them soldđã bán worldwidetrên toàn thế giới.
21
70000
3000
Vâng, có 38 triệu con Furbies được bán
trên toàn thế giới.
01:31
They are prettyđẹp commonchung. And they're a little tinynhỏ bé robotrobot,
22
73000
2000
Chúng khá phổ biến. Và chúng là những con
robot nhỏ xíu,
01:33
a simpleđơn giản robotrobot with some sensorscảm biến,
23
75000
2000
loại robot với vài cảm biến,
01:35
a little bitbit of processingChế biến actuationđáp.
24
77000
2000
một chút năng lực xử lý thông tin.
01:37
On the right there is anotherkhác robotrobot dollbúp bê, who you could get a couplevợ chồng of yearsnăm agotrước.
25
79000
3000
Ở góc phải là một con búp bê robot, thứ mà
bạn có thể mua vài năm trước đây.
01:40
And just as in the earlysớm daysngày,
26
82000
2000
Và cũng như những ngày đầu,
01:42
when there was a lot of sortsắp xếp of amateurnghiệp dư interactionsự tương tác over computersmáy vi tính,
27
84000
5000
khi có nhiều sự tương tác giữa
những người nghiệp dư trên máy tính,
01:47
you can now get variousnhiều hackinghacking kitsbộ dụng cụ, how-to-hacklàm thế nào để hack bookssách.
28
89000
4000
bạn có thể mua nhiều bộ công cụ hack,
những cuốn sách dạy hack.
01:51
And on the left there is a platformnền tảng from EvolutionSự tiến hóa RoboticsRobot,
29
93000
4000
Và ở phía bên trái là một nền tảng
từ Evolution Robotics,
01:55
where you put a PCMÁY TÍNH on, and you programchương trình this thing with a GUIGUI
30
97000
3000
nơi bạn có thể cài đặt trên máy tính,
và viết chương trình với một giao diện đồ họa
01:58
to wanderđi lang thang around your housenhà ở and do variousnhiều stuffđồ đạc.
31
100000
3000
cho nó chạy vòng quanh nhà và
làm nhiều trò khác.
02:01
And then there's a highercao hơn pricegiá bán pointđiểm sortsắp xếp of robotrobot toysđồ chơi --
32
103000
3000
Và có những loại robot đồ chơi đắt tiền hơn,
02:04
the SonySony AiboAIBO. And on the right there, is one that the NECNEC developedđã phát triển,
33
106000
4000
như Sony Aibo. Và ở bên phải là một robot
mà NEC phát triển,
02:08
the PaPeRoPaPeRo, which I don't think they're going to releasegiải phóng.
34
110000
3000
con PaPeRo. Tuy nhiên tôi không nghĩ họ sẽ
đưa nó ra thị trường.
02:11
But neverthelessTuy nhiên, those sortsloại of things are out there.
35
113000
3000
Nhưng dù sao thì những thứ như thế này
đang ở ngoài kia.
02:14
And we'vechúng tôi đã seenđã xem, over the last two or threesố ba yearsnăm, lawn-mowinglawn mowing robotsrobot,
36
116000
4000
Và chúng ta đã thấy trong 2-3 năm trở lại đây,
những con robot cắt cỏ,
02:18
HusqvarnaHusqvarna on the bottomđáy, FriendlyThân thiện RoboticsRobot on tophàng đầu there, an IsraeliIsrael companyCông ty.
37
120000
6000
Husqvarna ở phía dưới, Friendly Robotics
ở phía trên, một công ty của Israel.
02:24
And then in the last 12 monthstháng or so
38
126000
2000
Và trong vòng 12 tháng trở lại đây
02:26
we'vechúng tôi đã startedbắt đầu to see a bunch of home-cleaninglàm sạch nhà robotsrobot appearxuất hiện.
39
128000
4000
chúng ta đã bắt đầu thấy những
robot dọn nhà xuất hiện.
02:30
The tophàng đầu left one is a very nicetốt đẹp home-cleaninglàm sạch nhà robotrobot
40
132000
3000
Ở góc trên bên trái là một robot lau dọn nhà
khá tốt,
02:33
from a companyCông ty calledgọi là DysonDyson, in the U.K. ExceptNgoại trừ it was so expensiveđắt --
41
135000
4000
từ một công ty tên Dyson ở Anh. Chỉ có điều,
nó quá đắt --
02:37
3,500 dollarsUSD -- they didn't releasegiải phóng it.
42
139000
2000
$3,500 -- họ không đưa nó ra thị trường.
02:39
But at the bottomđáy left, you see ElectroluxElectrolux, which is on salebán.
43
141000
3000
Nhưng ở phía dưới bên trái là Electrolux,
đang được bán trên thị trường.
02:42
AnotherKhác one from KarcherKarcher.
44
144000
2000
Một robot khác từ Karcher.
02:44
At the bottomđáy right is one that I builtđược xây dựng in my labphòng thí nghiệm
45
146000
2000
Ở phía dưới bên phải là con robot mà tôi
tạo ra trong phòng thí nghiệm của tôi
02:46
about 10 yearsnăm agotrước, and we finallycuối cùng turnedquay that into a productsản phẩm.
46
148000
3000
khoảng 10 năm trước, và chúng tôi biến nó
thành một sản phẩm.
02:49
And let me just showchỉ you that.
47
151000
2000
Và hãy để tôi cho các bạn xem.
02:51
We're going to give this away I think, ChrisChris said, after the talk.
48
153000
4000
Chúng tôi sẽ cho nó đi sau buổi nói chuyện,
Chris nói vậy.
02:55
This is a robotrobot that you can go out and buymua, and that will cleandọn dẹp up your floorsàn nhà.
49
157000
6000
Đây là một robot bạn có thể mua,
và nó sẽ lau nhà cho bạn.
03:05
And it startsbắt đầu off sortsắp xếp of just going around in ever-increasingngày càng tăng circleshình tròn.
50
167000
5000
Và nó bắt đầu bằng cách đi theo
vòng tròn ngày một to dần.
03:10
If it hitslượt truy cập something -- you people see that?
51
172000
4000
Nếu nó tông vào thứ gì đó -- bạn thấy
không?
03:14
Now it's doing wall-followingsau bức tường, it's followingtiếp theo around my feetđôi chân
52
176000
3000
Bây giờ nó đang đi dọc theo tường,
nó đang đi vòng quanh chân của tôi
03:17
to cleandọn dẹp up around me. Let's see, let's --
53
179000
4000
để lau sàn nhà xung quanh tôi. Để xem nào,
03:21
oh, who stoleđánh cắp my RiceGạo KrispiesKrispies? They stoleđánh cắp my RiceGạo KrispiesKrispies!
54
183000
5000
ô, ai lấy Rice Krispies của tôi vậy? Họ
ăn trộm Rice Krispies của tôi!
03:26
(LaughterTiếng cười)
55
188000
6000
(Cười)
03:32
Don't worrylo, relaxthư giãn, no, relaxthư giãn, it's a robotrobot, it's smartthông minh!
56
194000
3000
Đừng lo, thư giãn đi nào, nó là một robot,
nó thông minh mà!
03:35
(LaughterTiếng cười)
57
197000
3000
(Cười)
03:38
See, the three-year-oldBa tuổi kidstrẻ em, they don't worrylo about it.
58
200000
4000
Thấy không, những đứa trẻ 3 tuổi, chúng
không lo lắng về điều đó.
03:42
It's grown-upstrồng-up that get really upsetbuồn bã.
59
204000
2000
Chỉ người lớn mới lo [con robot rớt xuống].
03:44
(LaughterTiếng cười)
60
206000
1000
(Cười).
03:45
We'llChúng tôi sẽ just put some crapcrap here.
61
207000
2000
Chúng ta sẽ để một ít rác ở đây.
03:47
(LaughterTiếng cười)
62
209000
4000
(Cười).
03:51
Okay.
63
213000
2000
Được rồi.
03:53
(LaughterTiếng cười)
64
215000
4000
(Cười).
03:57
I don't know if you see -- so, I put a bunch of RiceGạo KrispiesKrispies there,
65
219000
3000
Tôi không biết là các bạn có thấy được hay
không -- tôi để một ít Rice Krispies ở đây,
04:00
I put some penniesđồng xu, let's just shootbắn it at that, see if it cleanslàm sạch up.
66
222000
7000
một vài đồng xu, chỉ cần chụp hình tại đó,
xem thử nó có lau dọn sạch không.
04:10
Yeah, OK. So --
67
232000
2000
Vâng, được rồi. Xem nào --
04:12
we'lltốt leaverời khỏi that for latermột lát sau.
68
234000
4000
chúng ta sẽ để đó sau.
04:16
(ApplauseVỗ tay)
69
238000
5000
(Vỗ tay).
04:22
PartMột phần of the tricklừa was buildingTòa nhà a better cleaninglàm sạch mechanismcơ chế, actuallythực ra;
70
244000
4000
Một phần của kỹ thuật này là
xây dựng một cơ chế lau dọn tốt hơn, thực ra
04:26
the intelligenceSự thông minh on boardbảng was fairlycông bằng simpleđơn giản.
71
248000
4000
phần 'thông minh' của robot khá đơn giản.
04:30
And that's truethật with a lot of robotsrobot.
72
252000
2000
Và điều đó thì đúng với khá nhiều robot.
04:32
We'veChúng tôi đã all, I think, becometrở nên, sortsắp xếp of computationaltính toán chauvinistschauvinists,
73
254000
4000
Tôi nghĩ hầu hết chúng ta là những người
quá tin vào tính toán,
04:36
and think that computationtính toán is everything,
74
258000
2000
và nghĩ rằng năng lực tính toán là tất cả,
04:38
but the mechanicscơ học still mattervấn đề.
75
260000
2000
nhưng phần cơ khí vẫn rất quan trọng.
04:40
Here'sĐây là anotherkhác robotrobot, the PackBotPackBot,
76
262000
3000
Đây là một robot khác, con PackBot,
04:43
that we'vechúng tôi đã been buildingTòa nhà for a bunch of yearsnăm.
77
265000
2000
mà chúng tôi đã làm việc với nó nhiều năm.
04:45
It's a militaryquân đội surveillancegiám sát robotrobot, to go in aheadphía trước of troopsbinh lính --
78
267000
6000
Nó là một robot do thám quân sự, dùng để
đi trước những người lính --
04:51
looking at caveshang động, for instanceví dụ.
79
273000
3000
ví dụ như kiểm tra các hang động.
04:54
But we had to make it fairlycông bằng robustmạnh mẽ,
80
276000
2000
Nhưng chúng tôi phải làm cho nó linh hoạt,
04:56
much more robustmạnh mẽ than the robotsrobot we buildxây dựng in our labsphòng thí nghiệm.
81
278000
7000
linh hoạt hơn những robot khác chúng tôi
có trong phòng thí nghiệm.
05:03
(LaughterTiếng cười)
82
285000
3000
(Cười)
05:12
On boardbảng that robotrobot is a PCMÁY TÍNH runningđang chạy LinuxLinux.
83
294000
4000
mạch chủ của con robot đó là
một máy tính chạy hệ điều hành Linux.
05:16
It can withstandchịu được a 400G shocksốc. The robotrobot has localđịa phương intelligenceSự thông minh:
84
298000
6000
Nó có thể chịu được một cú sốc 400G. Con
robot có trí thông minh nhân tạo:
05:22
it can fliplật itselfchinh no over, can get itselfchinh no into communicationgiao tiếp rangephạm vi,
85
304000
6000
nó có thể tự lật thẳng lại, có thể đưa
bản thân vào vùng liên lạc,
05:28
can go upstairstầng trên by itselfchinh no, etet ceteracetera.
86
310000
3000
có thể tự mình đi lên cầu thang, v.v.
05:38
Okay, so it's doing localđịa phương navigationdanh mục chính there.
87
320000
4000
Nó đang tự định hướng khu vực xung quanh.
05:42
A soldierlính givesđưa ra it a commandchỉ huy to go upstairstầng trên, and it does.
88
324000
6000
Một người lính cho nó một câu lệnh để
đi lên cầu thang, và nó đi.
05:49
That was not a controlledkiểm soát descentgốc.
89
331000
3000
Và đó không phải là một cú đáp xuống
được điều khiển.
05:52
(LaughterTiếng cười)
90
334000
2000
(Cười)
05:54
Now it's going to headcái đầu off.
91
336000
2000
Bây giờ nó chuẩn bị rời đi.
05:56
And the biglớn breakthroughđột phá for these robotsrobot, really, was SeptemberTháng chín 11ththứ.
92
338000
5000
Và sự bứt phá của những con robot này
thực sự là vụ 11/9.
06:01
We had the robotsrobot down at the WorldTrên thế giới TradeThương mại CenterTrung tâm latemuộn that eveningtối.
93
343000
4000
Chúng tôi đưa lũ robot tới Trung tâm
Thương mại Thế giới chiều tối hôm đó.
06:06
Couldn'tKhông thể do a lot in the mainchủ yếu rubbleđống đổ nát pileĐóng cọc,
94
348000
2000
Không thể làm gì nhiều trong
đống đổ nát chính,
06:08
things were just too -- there was nothing left to do.
95
350000
3000
mọi thứ quá -- không còn gì để làm cả.
06:11
But we did go into all the surroundingxung quanh buildingscác tòa nhà that had been evacuateddi tản,
96
353000
5000
Nhưng chúng tôi vào những toà nhà
xung quanh đã được di tản,
06:16
and searchedtìm kiếm for possiblekhả thi survivorsngười sống sót in the buildingscác tòa nhà
97
358000
3000
và tìm kiếm những người sống sót
trong những toà nhà
06:19
that were too dangerousnguy hiểm to go into.
98
361000
2000
quá nguy hiểm cho con người để vào.
06:21
Let's runchạy this videovideo.
99
363000
2000
Hãy bắt đầu đoạn video này.
06:23
ReporterPhóng viên: ...battlefieldchiến trường companionscompanions are helpinggiúp to reducegiảm the combatchống lại risksrủi ro.
100
365000
3000
Phóng viên: ...Những phụ tá chiến trường
đang giúp giảm thiểu rủi ro.
06:26
NickNick RobertsonRobertson has that storycâu chuyện.
101
368000
3000
Sau đây là câu chuyện của Nick Robertson.
06:31
RodneyRodney BrooksBrooks: Can we have anotherkhác one of these?
102
373000
2000
Rodney Brooks: Chúng ta có thể thêm một
cái nữa được không?
06:38
Okay, good.
103
380000
2000
Được rồi, tốt.
06:43
So, this is a corporalhạ sĩ who had seenđã xem a robotrobot two weekstuần previouslytrước đây.
104
385000
3000
Đây là một hạ sĩ đã làm việc với một robot
hai tuần vừa qua.
06:48
He's sendinggửi robotsrobot into caveshang động, looking at what's going on.
105
390000
4000
Anh ta đưa những con robot vào các
hang động, xem thử có gì đang diễn ra.
06:52
The robot'scủa robot beingđang totallyhoàn toàn autonomoustự trị.
106
394000
2000
Con robot đang hoàn toàn tự điều khiển .
06:54
The worsttệ nhất thing that's happenedđã xảy ra in the cavehang động so farxa
107
396000
4000
Điều tệ nhất xảy ra trong cái hang
tính tới nay,
06:58
was one of the robotsrobot fellrơi down tenmười metersmét.
108
400000
3000
là việc một trong những con robot
rớt xuống từ độ cao 10m.
07:08
So one yearnăm agotrước, the US militaryquân đội didn't have these robotsrobot.
109
410000
3000
Một năm trước, quân đội Mỹ không có những
con robot như thế này.
07:11
Now they're on activeđang hoạt động dutynhiệm vụ in AfghanistanAfghanistan everymỗi day.
110
413000
2000
Bây giờ chúng đang thực hiện nhiệm vụ ở
Afghanistan hằng ngày.
07:13
And that's one of the reasonslý do they say a robotrobot invasioncuộc xâm lăng is happeningxảy ra.
111
415000
3000
Và đó là một trong những lý do người ta nói
một cuộc xâm lấn bằng robot đang xảy ra.
07:16
There's a seabiển changethay đổi happeningxảy ra in how -- where technology'scông nghệ going.
112
418000
4000
Có một biển thay đổi diễn ra ngay lúc này
-- cái đích công nghệ đang hướng tới.
07:20
ThanksCảm ơn.
113
422000
2000
Xin cảm ơn.
07:23
And over the nextkế tiếp couplevợ chồng of monthstháng,
114
425000
2000
Và trong vài tháng tới,
07:25
we're going to be sendinggửi robotsrobot in productionsản xuất
115
427000
3000
chúng tôi sẽ gửi robot đang trong
quá trình sản xuất
07:28
down producingsản xuất oildầu wellsWells to get that last fewvài yearsnăm of oildầu out of the groundđất.
116
430000
4000
xuống những giếng dầu để lấy được những
thùng dầu cuối cùng khỏi mặt đất.
07:32
Very hostileHostile environmentsmôi trường, 150˚ C, 10,000 PSIPSI.
117
434000
4000
Những môi trường cực kỳ khắc nghiệt,
150˚ C, 10,000 PSI.
07:36
AutonomousTự trị robotsrobot going down, doing this sortsắp xếp of work.
118
438000
4000
Robot tự động đi xuống, làm những việc
đại loại thế.
07:40
But robotsrobot like this, they're a little hardcứng to programchương trình.
119
442000
3000
Nhưng robot như vậy thì hơi khó lập trình.
07:43
How, in the futureTương lai, are we going to programchương trình our robotsrobot
120
445000
2000
Làm thế nào để trong tương lai, chúng ta
có thể lập trình robot
07:45
and make them easierdễ dàng hơn to use?
121
447000
2000
và khiến chúng dễ sử dụng hơn?
07:47
And I want to actuallythực ra use a robotrobot here --
122
449000
3000
Và tôi muốn thực sự dùng một robot ở đây -
07:50
a robotrobot namedđặt tên ChrisChris -- standđứng up. Yeah. Okay.
123
452000
5000
con robot tên là Chris --
đứng lên nào. Đúng rồi.
07:57
Come over here. Now noticeđể ý, he thinksnghĩ robotsrobot have to be a bitbit stiffcứng.
124
459000
4000
Đi lại đây nào. Hãy chú ý, anh ta
nghĩ là robot phải hơi cứng đơ như vậy.
08:01
He sortsắp xếp of does that. But I'm going to --
125
463000
3000
Anh ta làm đại loại thế. Nhưng tôi sẽ --
08:04
ChrisChris AndersonAnderson: I'm just BritishNgười Anh. RBRB: Oh.
126
466000
2000
Chris Anderson: Tôi chỉ là người Anh.
Rodney Brooks: Oh.
08:06
(LaughterTiếng cười)
127
468000
2000
(Cười)
08:08
(ApplauseVỗ tay)
128
470000
2000
(Vỗ tay)
08:10
I'm going to showchỉ this robotrobot a taskbài tập. It's a very complexphức tạp taskbài tập.
129
472000
3000
Tôi sẽ đưa ra một nhiệm vụ cho robot này.
Nó khá là phức tạp đấy.
08:13
Now noticeđể ý, he noddedgật đầu there, he was givingtặng me some indicationdấu hiệu
130
475000
3000
Các bạn thấy không, anh ta gật đầu,
ra hiệu cho tôi là
08:16
he was understandinghiểu biết the flowlưu lượng of communicationgiao tiếp.
131
478000
3000
anh ta hiểu được điều tôi đang giao tiếp.
08:19
And if I'd said something completelyhoàn toàn bizarrekỳ lạ
132
481000
2000
Và nếu tôi nói gì đó hoàn toàn kỳ cục,
08:21
he would have lookednhìn askanceaskance at me, and regulatedquy định the conversationcuộc hội thoại.
133
483000
3000
anh ta sẽ nhìn tôi ngờ vực, và điều chỉnh
lại cuộc hội thoại.
08:24
So now I broughtđưa this up in fronttrước mặt of him.
134
486000
3000
Bây giờ tôi đưa ra thứ này trước mặt anh ta.
08:27
I'd lookednhìn at his eyesmắt, and I saw his eyesmắt lookednhìn at this bottlechai tophàng đầu.
135
489000
4000
Tôi nhìn vào mắt anh ta, và tôi thấy là
mắt anh ta cũng nhìn vào cái chai này.
08:31
And I'm doing this taskbài tập here, and he's checkingkiểm tra up.
136
493000
2000
Và tôi đang làm việc này, và anh ta đang
quan sát.
08:33
His eyesmắt are going back and forthra up to me, to see what I'm looking at --
137
495000
3000
Mắt anh ta nhìn qua nhìn lại tôi, để thấy
những gì tôi thấy --
08:36
so we'vechúng tôi đã got sharedchia sẻ attentionchú ý.
138
498000
2000
vậy nên chúng tôi có cùng sự chú ý.
08:38
And so I do this taskbài tập, and he looksnhìn, and he looksnhìn to me
139
500000
3000
Và tôi làm việc này, và anh ta nhìn, và
anh ta nhìn tôi
08:41
to see what's happeningxảy ra nextkế tiếp. And now I'll give him the bottlechai,
140
503000
4000
để thấy cái gì sẽ diễn ra tiếp theo. Và
bây giờ tôi sẽ đưa anh ta cái chai,
08:45
and we'lltốt see if he can do the taskbài tập. Can you do that?
141
507000
2000
và hãy xem thử anh ta có làm được không.
Anh có làm được không?
08:47
(LaughterTiếng cười)
142
509000
3000
(Cười)
08:50
Okay. He's prettyđẹp good. Yeah. Good, good, good.
143
512000
4000
Được rồi. Anh ta khá là giỏi. Tốt, tốt, tốt.
08:54
I didn't showchỉ you how to do that.
144
516000
2000
Tôi chưa từng chỉ anh làm việc đó.
08:56
Now see if you can put it back togethercùng với nhau.
145
518000
2000
Hãy xem thử anh có thể lắp nó lại không.
08:58
(LaughterTiếng cười)
146
520000
2000
(Cười)
09:00
And he thinksnghĩ a robotrobot has to be really slowchậm.
147
522000
1000
Và anh ta nghĩ là robot thì phải thật chậm.
09:01
Good robotrobot, that's good.
148
523000
2000
Robot ngoan, tốt lắm.
09:03
So we saw a bunch of things there.
149
525000
2000
Chúng ta vừa thấy một số thứ ở đây.
09:06
We saw when we're interactingtương tác,
150
528000
3000
Chúng ta thấy khi chúng ta giao tiếp,
09:09
we're tryingcố gắng to showchỉ someonengười nào how to do something, we directthẳng thắn theirhọ visualtrực quan attentionchú ý.
151
531000
4000
khi chúng ta cố dạy ai đó cách làm gì đó,
chúng ta điều khiển sự chú ý bằng mắt của họ.
09:13
The other thing communicatesliên lạc theirhọ internalbên trong statetiểu bang to us,
152
535000
4000
Những thứ khác cho ta thấy tình trạng
bên trong của họ,
09:17
whetherliệu he's understandinghiểu biết or not, regulatesquy định a socialxã hội interactionsự tương tác.
153
539000
3000
ví dụ như anh ta có hiểu hay không,
điều khiển sự tương tác xã hội.
09:20
There was sharedchia sẻ attentionchú ý looking at the sametương tự sortsắp xếp of thing,
154
542000
2000
Có sự chú ý tương đồng khi nhìn vào
cùng một thứ,
09:22
and recognizingcông nhận sociallyxã hội communicatedtruyền đạt reinforcementtăng cường at the endkết thúc.
155
544000
4000
và cuối cùng nhận thức sự hỗ trợ
được giao tiếp một cách xã hội.
09:26
And we'vechúng tôi đã been tryingcố gắng to put that into our labphòng thí nghiệm robotsrobot
156
548000
3000
Và chúng tôi đã cố gắng đưa điều đó vào
robot thí nghiệm của mình
09:29
because we think this is how you're going to want to interacttương tác with robotsrobot in the futureTương lai.
157
551000
4000
bởi vì chúng tôi nghĩ rằng đó là cách bạn
muốn giao tiếp với robot trong tương lai.
09:33
I just want to showchỉ you one technicalkỹ thuật diagrambiểu đồ here.
158
555000
2000
Tôi chỉ muốn cho các bạn thấy một bản vẽ
kỹ thuật ở đây.
09:35
The mostphần lớn importantquan trọng thing for buildingTòa nhà a robotrobot that you can interacttương tác with sociallyxã hội
159
557000
4000
Điều quan trọng nhất khi xây dựng một robot
mà bạn có thể giao tiếp xã hội cùng
09:39
is its visualtrực quan attentionchú ý systemhệ thống.
160
561000
2000
là hệ thống chú ý bằng mắt của nó.
09:41
Because what it paystrả tiền attentionchú ý to is what it's seeingthấy
161
563000
3000
Bởi cái mà nó chú ý tới là cái mà nó thấy
09:44
and interactingtương tác with, and what you're understandinghiểu biết what it's doing.
162
566000
3000
và tương tác cùng, và đó là cái mà bạn
hiểu là nó đang làm.
09:47
So in the videosvideo I'm about to showchỉ you,
163
569000
3000
Trong những đoạn video mà tôi chuẩn bị
cho các bạn xem,
09:50
you're going to see a visualtrực quan attentionchú ý systemhệ thống on a robotrobot
164
572000
4000
bạn sẽ thấy một hệ thống chú ý bằng mắt
trên một con robot --
09:54
which has -- it looksnhìn for skinda tonetấn in HSVHSV spacekhông gian,
165
576000
4000
nó tìm màu da trong không gian HSV,
09:58
so it workscông trinh acrossbăng qua all humanNhân loại coloringscolorings.
166
580000
4000
vì vậy nó tìm kiếm trên mọi màu da.
10:02
It looksnhìn for highlycao saturatedbảo hòa colorsmàu sắc, from toysđồ chơi.
167
584000
2000
Nó tìm những màu bão hoà, từ đồ chơi.
10:04
And it looksnhìn for things that movedi chuyển around.
168
586000
2000
Và nó tìm những thứ đang di chuyển
xung quanh.
10:06
And it weightstrọng lượng those togethercùng với nhau into an attentionchú ý windowcửa sổ,
169
588000
3000
Và nó tính những thứ đó chung lại trong
một cửa sổ chú ý,
10:09
and it looksnhìn for the highest-scoringđiểm cao nhất placeđịa điểm --
170
591000
2000
và nó tìm nơi có điểm số cao nhất --
10:11
the stuffđồ đạc where the mostphần lớn interestinghấp dẫn stuffđồ đạc is happeningxảy ra --
171
593000
2000
nơi mà thứ thú vị nhất đang diễn ra --
10:13
and that is what its eyesmắt then seguenối tiếp to.
172
595000
4000
và đó là cái mà mắt của nó di chuyển đến.
10:17
And it looksnhìn right at that.
173
599000
2000
Và nó nhìn thẳng vào đó.
10:19
At the sametương tự time, some top-downtừ trên xuống sortsắp xếp of stuffđồ đạc:
174
601000
3000
Cùng lúc đó, một vài thứ kiểu định hướng
10:22
mightcó thể decidequyết định that it's lonelycô đơn and look for skinda tonetấn,
175
604000
3000
có thể quyết định là nó đang cô đơn và tìm
màu da,
10:25
or mightcó thể decidequyết định that it's boredchán and look for a toyđồ chơi to playchơi with.
176
607000
3000
hoặc là nó đang chán và tìm
một thứ đồ chơi để chơi.
10:28
And so these weightstrọng lượng changethay đổi.
177
610000
2000
Và những yếu tố này sẽ thay đổi
trọng lượng trong tính toán của nó.
10:30
And over here on the right,
178
612000
2000
Và ở bên phải,
10:32
this is what we call the StevenSteven SpielbergSpielberg memorialĐài kỷ niệm modulemô-đun.
179
614000
3000
là một thứ chúng ta gọi là bộ phận ký ức
Steven Spielberg.
10:35
Did people see the moviebộ phim "AIAI"? (AudienceKhán giả: Yes.)
180
617000
2000
Các bạn đã xem bộ phim "AI" chưa?
Khán giả: Rồi.
10:37
RBRB: Yeah, it was really badxấu, but --
181
619000
2000
Vâng, nó khá tệ, nhưng --
10:39
remembernhớ lại, especiallyđặc biệt when HaleyHaley JoelJoel OsmentOsment, the little robotrobot,
182
621000
4000
các bạn có nhớ cái cảnh Haley Joel
Osment, con robot nhỏ
10:43
lookednhìn at the bluemàu xanh da trời fairynàng tiên for 2,000 yearsnăm withoutkhông có takinglấy his eyesmắt off it?
183
625000
4000
nhìn vào nàng tiên xanh suốt 2000 năm
mà không rời mắt?
10:47
Well, this getsđược ridthoát khỏi of that,
184
629000
2000
Vâng, chúng tôi loại bỏ điều đó,
10:49
because this is a habituationhabituation GaussianGauss that getsđược negativetiêu cực,
185
631000
4000
vì đây là một thói quen Gaussian
khá tiêu cực,
10:53
and more and more intensecường độ cao as it looksnhìn at one thing.
186
635000
3000
và ngày càng gay gắt hơn khi nó nhìn
vào một thứ.
10:56
And it getsđược boredchán, so it will then look away at something elsekhác.
187
638000
3000
Và nó trở nên chán, nên nó sẽ nhìn
một thứ khác.
10:59
So, onceMột lần you've got that -- and here'sđây là a robotrobot, here'sđây là KismetKismet,
188
641000
4000
Vây nên, khi bạn hiểu điều đó -- và đây là
một robot, Kismet,
11:03
looking around for a toyđồ chơi. You can tell what it's looking at.
189
645000
4000
nhìn xung quanh tìm đồ chơi. Bạn có thể
nhận ra thứ mà nó đang nhìn vào.
11:07
You can estimateước tính its gazechiêm ngưỡng directionphương hướng from those eyeballsmắt coveringbao gồm its cameraMáy ảnh,
190
649000
5000
Bạn có thể ước tính hướng nhìn của nó từ
những con mắt giả che cái camera của nó,
11:12
and you can tell when it's actuallythực ra seeingthấy the toyđồ chơi.
191
654000
3000
và bạn có thể nhận ra khi nó thực sự nhìn
thấy món đồ chơi.
11:15
And it's got a little bitbit of an emotionalđa cảm responsephản ứng here.
192
657000
2000
Và nó có một ít phản ứng cảm xúc ở đây.
11:17
(LaughterTiếng cười)
193
659000
1000
(Cười)
11:18
But it's still going to paytrả attentionchú ý
194
660000
2000
Nhưng nó vẫn sẽ chú ý đến
11:20
if something more significantcó ý nghĩa comesđến into its fieldcánh đồng of viewlượt xem --
195
662000
4000
thứ gì đó quan trọng hơn di chuyển vào
tầm nhìn của nó --
11:24
suchnhư là as CynthiaCynthia BreazealBreazeal, the builderxây dựng of this robotrobot, from the right.
196
666000
4000
ví dụ như Cynthia Breazeal, mẹ đẻ của nó,
từ bên phải.
11:28
It seesnhìn her, paystrả tiền attentionchú ý to her.
197
670000
5000
Nó thấy cô ấy, chú ý đến cô ấy.
11:33
KismetKismet has an underlyingcơ bản, three-dimensionalba chiều emotionalđa cảm spacekhông gian,
198
675000
4000
Kismet có một khoảng không gian cảm xúc
3 chiều ở bên trong,
11:37
a vectorvector spacekhông gian, of where it is emotionallytình cảm.
199
679000
3000
một không gian vector cho cảm xúc của nó.
11:40
And at differentkhác nhau placesnơi in that spacekhông gian, it expressesbày tỏ --
200
682000
5000
Và ở những điểm khác nhau trong không gian
đó, nó thể hiện --
11:46
can we have the volumeâm lượng on here?
201
688000
2000
chúng ta có thể vặn âm thanh to hơn không?
11:48
Can you hearNghe that now, out there? (AudienceKhán giả: Yeah.)
202
690000
2000
Các bạn có nghe được chưa?
(Khán giả: Được)
11:50
KismetKismet: Do you really think so? Do you really think so?
203
692000
5000
Kismet: Bạn thực sự nghĩ vậy à?
11:57
Do you really think so?
204
699000
2000
Bạn thực sự nghĩ vậy à?
12:00
RBRB: So it's expressingbày tỏ its emotioncảm xúc throughxuyên qua its faceđối mặt
205
702000
3000
Nó thể hiện cảm xúc qua khuôn mặt
12:03
and the prosodyYahoo! in its voicetiếng nói.
206
705000
2000
và âm điệu trong giọng nói của nó.
12:05
And when I was dealingxử lý with my robotrobot over here,
207
707000
4000
Và khi tôi làm việc với con robot của tôi
ở đây, Chris,
12:09
ChrisChris, the robotrobot, was measuringđo lường the prosodyYahoo! in my voicetiếng nói,
208
711000
3000
con robot ấy cũng nghe âm điệu trong
giọng nói của tôi,
12:12
and so we have the robotrobot measuređo prosodyYahoo! for fourbốn basiccăn bản messagestin nhắn
209
714000
5000
và chúng ta khiến robot đo được âm điệu
cho 4 tín hiệu cơ bản
12:17
that mothersmẹ give theirhọ childrenbọn trẻ pre-linguisticallyPre-linguistically.
210
719000
4000
mà các bà mẹ đưa ra cho trẻ con
trước khi chúng biết nói.
12:21
Here we'vechúng tôi đã got naivengây thơ subjectsđối tượng praisingca ngợi the robotrobot:
211
723000
3000
Ở đây chúng ta có những người ngây thơ
khen ngợi robot:
12:26
VoiceGiọng nói: NiceDễ thương robotrobot.
212
728000
2000
Giọng nói: Robot giỏi.
12:29
You're suchnhư là a cuteDễ thương little robotrobot.
213
731000
2000
Bạn là một con robot rất dễ thương.
12:31
(LaughterTiếng cười)
214
733000
2000
(Cười)
12:33
RBRB: And the robot'scủa robot reactingphản ứng appropriatelythích hợp.
215
735000
2000
Và con robot phản ứng đúng mực.
12:35
VoiceGiọng nói: ...very good, KismetKismet.
216
737000
4000
Giọng nói: ...tốt lắm, Kismet.
12:40
(LaughterTiếng cười)
217
742000
2000
(Cười)
12:42
VoiceGiọng nói: Look at my smilenụ cười.
218
744000
2000
Giọng nói: Nhìn vào nụ cười của tôi này.
12:46
RBRB: It smilesnụ cười. She imitatesbắt chước the smilenụ cười. This happensxảy ra a lot.
219
748000
3000
Nó cười. Cô ấy cười.
12:49
These are naivengây thơ subjectsđối tượng.
220
751000
2000
Họ là những người ngây thơ.
12:51
Here we askedyêu cầu them to get the robot'scủa robot attentionchú ý
221
753000
3000
Ở đây chúng tôi bảo họ cố gắng chiếm được
sự chú ý của con robot
12:54
and indicatebiểu thị when they have the robot'scủa robot attentionchú ý.
222
756000
3000
và cho chúng tôi biết khi họ đã có sự
chú ý của nó.
12:57
VoiceGiọng nói: Hey, KismetKismet, ahah, there it is.
223
759000
4000
Giọng nói: Này Kismet, à, nó kìa.
13:01
RBRB: So she realizesnhận ra she has the robot'scủa robot attentionchú ý.
224
763000
4000
RB: Cô ấy nhận ra là cô ấy có được
sự chú ý của con robot.
13:08
VoiceGiọng nói: KismetKismet, do you like the toyđồ chơi? Oh.
225
770000
4000
Giọng nói: Kismet, bạn có thích đồ chơi
này không? Oh.
13:13
RBRB: Now, here they're askedyêu cầu to prohibitngăn cấm the robotrobot,
226
775000
2000
RB: Bây giờ, họ được bảo phải ngăn
con robot lại,
13:15
and this first womanđàn bà really pushesđẩy the robotrobot into an emotionalđa cảm cornergóc.
227
777000
4000
và người phụ nữ đầu tiên này thực sự đẩy
con robot vào đường cùng về mặt cảm xúc.
13:19
VoiceGiọng nói: No. No. You're not to do that. No.
228
781000
5000
Giọng nói: Không. Bạn không được làm vậy.
Không.
13:24
(LaughterTiếng cười)
229
786000
3000
(Cười)
13:27
Not appropriatethích hợp. No. No.
230
789000
6000
Không đúng. Không.
13:33
(LaughterTiếng cười)
231
795000
3000
(Cười)
13:36
RBRB: I'm going to leaverời khỏi it at that.
232
798000
2000
RB: Tôi sẽ dừng tại đó.
13:38
We put that togethercùng với nhau. Then we put in turnxoay takinglấy.
233
800000
2000
Chúng ta tạo ra [cuộc nói chuyện]. Sau đó
chúng ta nói theo lượt.
13:40
When we talk to someonengười nào, we talk.
234
802000
3000
Khi chúng ta nói chuyện với ai đó,
chúng ta nói.
13:43
Then we sortsắp xếp of raisenâng cao our eyebrowslông mày, movedi chuyển our eyesmắt,
235
805000
4000
Sau đó chúng ta đại loại nhíu lông mày,
di chuyển mắt,
13:47
give the other personngười the ideaý kiến it's theirhọ turnxoay to talk.
236
809000
3000
cho người kia biết là tới lượt họ nói.
13:50
And then they talk, and then we passvượt qua the batonbaton back and forthra betweengiữa eachmỗi other.
237
812000
4000
Và họ nói, rồi chúng ta cứ theo lượt
như thế.
13:54
So we put this in the robotrobot.
238
816000
2000
Chúng tôi đưa điều này vào con robot.
13:56
We got a bunch of naivengây thơ subjectsđối tượng in,
239
818000
2000
Chúng tôi có một số đối tượng thí nghiệm
ngây thơ,
13:58
we didn't tell them anything about the robotrobot,
240
820000
2000
không nói gì với họ về con robot,
14:00
satngồi them down in fronttrước mặt of the robotrobot and said, talk to the robotrobot.
241
822000
2000
đặt họ ngồi trước con robot và nói,
nói chuyện với con robot đi.
14:02
Now what they didn't know was,
242
824000
2000
Cái mà họ không biết là,
14:04
the robotrobot wasn'tkhông phải là understandinghiểu biết a wordtừ they said,
243
826000
2000
con robot không hiểu một từ nào mà
họ nói,
14:06
and that the robotrobot wasn'tkhông phải là speakingnói EnglishTiếng Anh.
244
828000
3000
và con robot không nói tiếng Anh.
14:09
It was just sayingnói randomngẫu nhiên EnglishTiếng Anh phonemesâm vị.
245
831000
2000
Nó chỉ nói những từ tiếng Anh ngẫu nhiên.
14:11
And I want you to watch carefullycẩn thận, at the beginningbắt đầu of this,
246
833000
2000
Và tôi muốn các bạn xem kỹ phần đầu
của đoạn video này,
14:13
where this personngười, RitchieRitchie, who happenedđã xảy ra to talk to the robotrobot for 25 minutesphút --
247
835000
4000
khi Ritchie, người ngồi nói chuyện với
con robot trong 25 phút --
14:17
(LaughterTiếng cười)
248
839000
2000
(Cười)
14:19
-- saysnói, "I want to showchỉ you something.
249
841000
2000
-- nói, "Tôi muốn cho bạn xem cái này.
14:21
I want to showchỉ you my watch."
250
843000
2000
Tôi muốn cho bạn xem đồng hồ của tôi."
14:23
And he bringsmang lại the watch centerTrung tâm, into the robot'scủa robot fieldcánh đồng of visiontầm nhìn,
251
845000
5000
Và anh ta đưa cái mặt đồng hồ vào tầm nhìn
của con robot,
14:28
pointsđiểm to it, givesđưa ra it a motionchuyển động cuegợi ý,
252
850000
2000
chỉ vào đó, cho nó một dấu hiệu cử chỉ,
14:30
and the robotrobot looksnhìn at the watch quitekhá successfullythành công.
253
852000
2000
và con robot nhìn vào cái đồng hồ một cách
khá thành công.
14:32
We don't know whetherliệu he understoodhiểu or not that the robotrobot --
254
854000
3000
Chúng ta không biết rằng liệu anh ta hiểu
được hay không rằng con robot --
14:36
NoticeThông báo the turn-takingbiến-uống.
255
858000
2000
-- chú ý sự lần lượt.
14:38
RitchieRitchie: OK, I want to showchỉ you something. OK, this is a watch
256
860000
3000
Ritchie: OK, tôi muốn cho bạn xem cái này.
OK, đây là một cái đồng hồ
14:41
that my girlfriendbạn gái gaveđưa ra me.
257
863000
3000
mà bạn gái tặng cho tôi.
14:44
RobotRobot: Oh, coolmát mẻ.
258
866000
2000
Robot: Oh, tuyệt.
14:46
RitchieRitchie: Yeah, look, it's got a little bluemàu xanh da trời lightánh sáng in it too. I almosthầu hết lostmất đi it this weektuần.
259
868000
4000
Ritchie: Nhìn này, nó có một cái đèn
màu xanh bên trong nữa. Tôi suýt mất nó
tuần này.
14:51
(LaughterTiếng cười)
260
873000
4000
(Cười)
14:55
RBRB: So it's makingchế tạo eyemắt contacttiếp xúc with him, followingtiếp theo his eyesmắt.
261
877000
3000
RB: Nó đang tiếp xúc bằng ánh mắt với
anh ta, nhìn theo mắt anh ta.
14:58
RitchieRitchie: Can you do the sametương tự thing? RobotRobot: Yeah, sure.
262
880000
2000
Ritchie: Bạn có làm được như vậy không?
Robot: Được thôi.
15:00
RBRB: And they successfullythành công have that sortsắp xếp of communicationgiao tiếp.
263
882000
2000
RB: Và họ tha2h công khi có được sự giao tiếp
đó.
15:02
And here'sđây là anotherkhác aspectkhía cạnh of the sortsloại of things that ChrisChris and I were doing.
264
884000
4000
Và đây là một khía cạnh khác của việc mà
Chris và tôi vừa làm.
15:06
This is anotherkhác robotrobot, CogCOG.
265
888000
2000
Đây là một robot khác, Cog.
15:08
They first make eyemắt contacttiếp xúc, and then, when ChristieChristie looksnhìn over at this toyđồ chơi,
266
890000
6000
Họ giao tiếp bằng mắt trước, rồi sau đó,
khi Christie nhìn vào món đồ chơi này,
15:14
the robotrobot estimatesước tính her gazechiêm ngưỡng directionphương hướng
267
896000
2000
con robot ước tính hướng nhìn của cô ấy
15:16
and looksnhìn at the sametương tự thing that she's looking at.
268
898000
2000
và cùng nhìn vào thứ mà cô ấy đang nhìn.
15:18
(LaughterTiếng cười)
269
900000
1000
(Cười)
15:19
So we're going to see more and more of this sortsắp xếp of robotrobot
270
901000
3000
Chúng ta sẽ thấy ngày càng nhiều hơn loại
robot như thế này
15:22
over the nextkế tiếp fewvài yearsnăm in labsphòng thí nghiệm.
271
904000
2000
trong vòng vài năm tới trong các phòng
thí nghiệm.
15:24
But then the biglớn questionscâu hỏi, two biglớn questionscâu hỏi that people askhỏi me are:
272
906000
5000
Nhưng khi đó, hai câu hỏi lớn mà người ta
hay hỏi tôi là:
15:29
if we make these robotsrobot more and more human-likegiống người,
273
911000
2000
nếu chúng ta tạo ra những robot ngày càng
giống con người,
15:31
will we acceptChấp nhận them, will we -- will they need rightsquyền eventuallycuối cùng?
274
913000
5000
chúng ta có thể chấp nhận chúng không,
chúng có cần các quyền con người không?
15:36
And the other questioncâu hỏi people askhỏi me is, will they want to take over?
275
918000
3000
Và câu hỏi thứ 2 là, có khi nào chúng muốn
lật đổ chúng ta không?
15:39
(LaughterTiếng cười)
276
921000
1000
(Cười)
15:40
And on the first -- you know, this has been a very HollywoodHollywood themechủ đề
277
922000
3000
Và câu hỏi đầu tiên -- nó là một chủ đề
rất Hollywood
15:43
with lots of moviesphim. You probablycó lẽ recognizenhìn nhận these charactersnhân vật here --
278
925000
3000
với khá nhiều bộ phim. Các bạn có thể
nhận ra những nhân vật ở đây --
15:46
where in eachmỗi of these casescác trường hợp, the robotsrobot want more respectsự tôn trọng.
279
928000
4000
-- trong từng trường hợp ở đây, các con
robot muốn được tôn trọng nhiều hơn.
15:50
Well, do you ever need to give robotsrobot respectsự tôn trọng?
280
932000
3000
Bạn có bao giờ cần phải tôn trọng robot
không?
15:54
They're just machinesmáy móc, after all.
281
936000
2000
Suy cho cùng, chúng chỉ là những cái máy.
15:56
But I think, you know, we have to acceptChấp nhận that we are just machinesmáy móc.
282
938000
4000
Nhưng tôi nghĩ rằng, chúng ta cũng cần
chấp nhận rằng chính chúng ta cũng chỉ là
những cái máy.
16:00
After all, that's certainlychắc chắn what modernhiện đại molecularphân tử biologysinh học saysnói about us.
283
942000
5000
Suy cho cùng, đó là cái mà sinh học
hiện đại nói về chúng ta.
16:05
You don't see a descriptionsự miêu tả of how, you know,
284
947000
3000
Bạn không thấy một bản mô tả làm thế nào
16:08
MoleculePhân tử A, you know, comesđến up and docksBến cảng with this other moleculephân tử.
285
950000
4000
mà phân tử A liên kết với một phân tử khác.
16:12
And it's movingdi chuyển forwardphía trước, you know, propelledđẩy by variousnhiều chargesphí,
286
954000
3000
Và nó di chuyển tới trước, được đẩy bằng
nhiều lực khác nhau,
16:15
and then the soulLinh hồn stepscác bước in and tweakstinh chỉnh those moleculesphân tử so that they connectkết nối.
287
957000
4000
và sau đó linh hồn bước vào và vặn vẹo
các phân tử đó để chúng liên kết.
16:19
It's all mechanisticmechanistic. We are mechanismcơ chế.
288
961000
3000
Tất cả điều đó thuộc về cơ khí. Chúng ta
là những chiếc máy.
16:22
If we are machinesmáy móc, then in principlenguyên tắc at leastít nhất,
289
964000
3000
Nếu chúng ta là máy móc, thì ít nhất
trên lý thuyết,
16:25
we should be ablecó thể to buildxây dựng machinesmáy móc out of other stuffđồ đạc,
290
967000
4000
chúng ta có thể xây dựng máy móc từ những thứ khác.
16:29
which are just as alivesống sót as we are.
291
971000
4000
Chúng cũng sống như chúng ta.
16:33
But I think for us to admitthừa nhận that,
292
975000
2000
Nhưng tôi nghĩ nếu chúng ta thừa nhận
điều đó,
16:35
we have to give up on our special-nessđặc biệt-ness, in a certainchắc chắn way.
293
977000
3000
chúng ta phải từ bỏ sự đặc biệt của mình
theo một cách nào đó.
16:38
And we'vechúng tôi đã had the retreatrút lui from special-nessđặc biệt-ness
294
980000
2000
Và chúng ta đã có sự rút lui từ
sự đặc biệt
16:40
underDưới the barrageđập of sciencekhoa học and technologyCông nghệ manynhiều timeslần
295
982000
3000
dưới rào cản của khoa học và công nghệ
khá nhiều lần
16:43
over the last fewvài hundredhàng trăm yearsnăm, at leastít nhất.
296
985000
2000
trong vòng vài trăm năm trở lại đây.
16:45
500 yearsnăm agotrước we had to give up the ideaý kiến
297
987000
2000
500 năm trước chúng ta phải từ bỏ ý nghĩ
16:47
that we are the centerTrung tâm of the universevũ trụ
298
989000
3000
rằng chúng ta là trung tâm của vũ trụ
16:50
when the earthtrái đất startedbắt đầu to go around the sunmặt trời;
299
992000
2000
khi Trái đất bắt đầu quay xung quanh
Mặt trời;
16:52
150 yearsnăm agotrước, with DarwinDarwin, we had to give up the ideaý kiến we were differentkhác nhau from animalsđộng vật.
300
994000
5000
150 năm trước, với Darwin, chúng ta phải
từ bỏ ý nghĩ rằng chúng ta khác các loài vật.
16:57
And to imaginetưởng tượng -- you know, it's always hardcứng for us.
301
999000
3000
Và cứ tưởng tượng -- các bạn thấy đấy,
nó khá khó cho chúng ta.
17:00
RecentlyGần đây we'vechúng tôi đã been batteredbị đánh đập with the ideaý kiến that maybe
302
1002000
3000
Gần đây chúng ta đang đập vỡ ý nghĩ
rằng có lẽ
17:03
we didn't even have our ownsở hữu creationsự sáng tạo eventbiến cố, here on earthtrái đất,
303
1005000
2000
chúng ta còn không có sự kiến tạo của
riêng mình trên Trái đất.
17:05
which people didn't like much. And then the humanNhân loại genomebộ gen said,
304
1007000
3000
Nhiều người không hề thích thế. và sau đó
thì bộ gene của người nói,
17:08
maybe we only have 35,000 genesgen. And that was really --
305
1010000
3000
có lẽ chúng ta chỉ có 35,000 gene. Và đó
thực sự là --
17:11
people didn't like that, we'vechúng tôi đã got more genesgen than that.
306
1013000
3000
nhiều người không thích thế, chúng ta có
nhiều gene hơn thế chứ.
17:14
We don't like to give up our special-nessđặc biệt-ness, so, you know,
307
1016000
3000
Chúng ta không thích từ bỏ sự đặc biệt của
chính mình, nên các bạn thấy đó,
17:17
havingđang có the ideaý kiến that robotsrobot could really have emotionscảm xúc,
308
1019000
2000
cái ý kiến rằng robot có thể có cảm xúc,
17:19
or that robotsrobot could be livingsống creaturessinh vật --
309
1021000
2000
hoặc rằng robot có thể là sinh vật sống,
17:21
I think is going to be hardcứng for us to acceptChấp nhận.
310
1023000
2000
tôi nghĩ sẽ khá khó cho chúng ta chấp nhận
điều đó.
17:23
But we're going to come to acceptChấp nhận it over the nextkế tiếp 50 yearsnăm or so.
311
1025000
4000
Nhưng chúng ta sẽ chấp nhận nó trong vòng
50 năm tới.
17:27
And the secondthứ hai questioncâu hỏi is, will the machinesmáy móc want to take over?
312
1029000
3000
Và câu hỏi thứ 2 là, robot có muốn lật đổ
chúng ta không?
17:30
And here the standardTiêu chuẩn scenariokịch bản is that we createtạo nên these things,
313
1032000
5000
Và ở đây kịch bản thường là chúng ta
tạo ra những thứ này,
17:35
they growlớn lên, we nurturedưỡng dục them, they learnhọc hỏi a lot from us,
314
1037000
3000
chúng phát triển, chúng ta nuôi dưỡng
chúng, chúng học hỏi từ chúng ta,
17:38
and then they startkhởi đầu to decidequyết định that we're prettyđẹp boringnhàm chán, slowchậm.
315
1040000
4000
và sau đó chúng quyết định rằng chúng ta
khá chậm và nhàm chán.
17:42
They want to take over from us.
316
1044000
2000
Chúng muốn lật đổ chúng ta.
17:44
And for those of you that have teenagersthanh thiếu niên, you know what that's like.
317
1046000
3000
Và nếu bạn có con tuổi vị thành niên thì
các bạn sẽ hiểu nó giống như thế nào.
17:47
(LaughterTiếng cười)
318
1049000
1000
(Cười)
17:48
But HollywoodHollywood extendskéo dài it to the robotsrobot.
319
1050000
3000
Nhưng Hollywood mở rộng điều đó tới
lũ robot.
17:51
And the questioncâu hỏi is, you know,
320
1053000
3000
Và câu hỏi là, bạn biết đấy,
17:54
will someonengười nào accidentallyvô tình buildxây dựng a robotrobot that takes over from us?
321
1056000
4000
có khi nào ai đó vô tình tạo ra một robot
có thể lật đổ chúng ta không?
17:58
And that's sortsắp xếp of like this loneđơn độc guy in the backyardsân sau,
322
1060000
3000
Và điều đó giống như một anh chàng cô độc
ở sân sau,
18:01
you know -- "I accidentallyvô tình builtđược xây dựng a 747."
323
1063000
3000
bạn biết đấy -- "Tôi vô tình tạo ra một
chiếc 747."
18:04
I don't think that's going to happenxảy ra.
324
1066000
2000
Tôi không nghĩ rằng điều đó sẽ xảy ra.
18:06
And I don't think --
325
1068000
2000
Và tôi không nghĩ --
18:08
(LaughterTiếng cười)
326
1070000
1000
(Cười)
18:09
-- I don't think we're going to deliberatelythong thả buildxây dựng robotsrobot
327
1071000
3000
-- Tôi không nghĩ chúng ta sẽ cố tình
tạo ra những robot
18:12
that we're uncomfortablekhó chịu with.
328
1074000
2000
mà chúng ta không cảm thấy dễ chịu
khi sống cùng.
18:14
We'llChúng tôi sẽ -- you know, they're not going to have a supersiêu badxấu robotrobot.
329
1076000
2000
Chúng ta sẽ không có một con robot cực kỳ
độc ác.
18:16
Before that has to come to be a mildlynhẹ badxấu robotrobot,
330
1078000
3000
Trước đó phải có một con robot độc ác
vừa vừa,
18:19
and before that a not so badxấu robotrobot.
331
1081000
2000
và trước đó phải có một con robot không
độc ác mấy.
18:21
(LaughterTiếng cười)
332
1083000
1000
(Cười)
18:22
And we're just not going to let it go that way.
333
1084000
2000
Và chúng ta sẽ không để chúng đi theo
con đường đó.
18:24
(LaughterTiếng cười)
334
1086000
1000
(Cười)
18:25
So, I think I'm going to leaverời khỏi it at that: the robotsrobot are comingđang đến,
335
1087000
6000
Thế nên, tôi nghĩ tôi nên dừng ở đây:
thời đại robots đang tới,
18:31
we don't have too much to worrylo about, it's going to be a lot of funvui vẻ,
336
1093000
3000
chúng ta không phải lo quá nhiều về nó,
nó sẽ mang lại nhiều sự vui thích,
18:34
and I hopemong you all enjoythưởng thức the journeyhành trình over the nextkế tiếp 50 yearsnăm.
337
1096000
4000
và tôi hi vọng tất cả các bạn tận hưởng
cuộc hành trình qua 50 năm tới.
18:38
(ApplauseVỗ tay)
338
1100000
2000
(Vỗ tay).
Translated by Tuệ Khoa Nguyễn Lê
Reviewed by yung Phuong

▲Back to top

ABOUT THE SPEAKER
Rodney Brooks - Roboticist
Rodney Brooks builds robots based on biological principles of movement and reasoning. The goal: a robot who can figure things out.

Why you should listen

Former MIT professor Rodney Brooks studies and engineers robot intelligence, looking for the holy grail of robotics: the AGI, or artificial general intelligence. For decades, we've been building robots to do highly specific tasks -- welding, riveting, delivering interoffice mail -- but what we all want, really, is a robot that can figure things out on its own, the way we humans do.

Brooks realized that a top-down approach -- just building the biggest brain possible and teaching it everything we could think of -- would never work. What would work is a robot who learns like we do, by trial and error, and with many separate parts that learn separate jobs. The thesis of his work which was captured in Fast, Cheap and Out of Control,went on to become the title of the great Errol Morris documentary.

A founder of iRobot, makers of the Roomba vacuum, Brooks is now founder and CTO of Rethink Robotics, whose mission is to apply advanced robotic intelligence to manufacturing and physical labor. Its first robots: the versatile two-armed Baxter and one-armed Sawyer. Brooks is the former director of CSAIL, MIT's Computers Science and Artificial Intelligence Laboratory.

 
More profile about the speaker
Rodney Brooks | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee