ABOUT THE SPEAKER
Jeff Hawkins - Computer designer, brain researcher
Jeff Hawkins pioneered the development of PDAs such as the Palm and Treo. Now he's trying to understand how the human brain really works, and adapt its method -- which he describes as a deep system for storing memory -- to create new kinds of computers and tools.

Why you should listen

Jeff Hawkins' Palm PDA became such a widely used productivity tool during the 1990s that some fanatical users claimed it replaced their brains. But Hawkins' deepest interest was in the brain itself. So after the success of the Palm and Treo, which he brought to market at Handspring, Hawkins delved into brain research at the Redwood Center for Theoretical Neuroscience in Berkeley, Calif., and a new company called Numenta.

Hawkins' dual goal is to achieve an understanding of how the human brain actually works -- and then develop software to mimic its functionality, delivering true artificial intelligence. In his book On Intelligence (2004) he lays out his compelling, controversial theory: Contrary to popular AI wisdom, the human neocortex doesn't work like a processor; rather, it relies on a memory system that stores and plays back experiences to help us predict, intelligently, what will happen next. He thinks that "hierarchical temporal memory" computer platforms, which mimic this functionality (and which Numenta might pioneer), could enable groundbreaking new applications that could powerfully extend human intelligence.

More profile about the speaker
Jeff Hawkins | Speaker | TED.com
TED2003

Jeff Hawkins: How brain science will change computing

Jeff Hawkins nói về cách mà khoa học về bộ não thay đổi tin học

Filmed:
1,674,773 views

Jeff Hawkins, người tạo ra máy Treo, hối thúc chúng ta nhìn bộ não ở một góc nhìn mới -- để thấy nó không phải là một bộ xử lý nhanh, mà là một hệ bộ nhớ chứa và chiếu lại các kinh nghiệm để giúp ta tiên đoán một cách thông minh cái gì sẽ xảy ra kế tiếp.
- Computer designer, brain researcher
Jeff Hawkins pioneered the development of PDAs such as the Palm and Treo. Now he's trying to understand how the human brain really works, and adapt its method -- which he describes as a deep system for storing memory -- to create new kinds of computers and tools. Full bio

Double-click the English transcript below to play the video.

00:25
I do two things: I designthiết kế mobiledi động computersmáy vi tính and I studyhọc brainsnão.
0
0
3000
Tôi làm hai việc. Tôi thiết kế máy tính di động và tôi nghiên cứu não bộ.
00:29
And today'sngày nay talk is about brainsnão and,
1
4000
2000
Và buổi nói chuyện hôm nay là về bộ não và,
00:31
yayyay, somewheremột vài nơi I have a brainóc fanquạt out there.
2
6000
2000
ê, ngoài kia có một fan của não kìa.
00:33
(LaughterTiếng cười)
3
8000
2000
(Cười)
00:35
I'm going to, if I can have my first slidetrượt up here,
4
10000
2000
Tôi sẽ, nếu chiếu được slide đầu tiên lên đây,
00:37
and you'llbạn sẽ see the titlechức vụ of my talk and my two affiliationsđảng phái.
5
12000
4000
và bạn sẽ thấy tựa bài nói và hai chỗ mà tôi làm việc.
00:41
So what I'm going to talk about is why we don't have a good brainóc theorylý thuyết,
6
16000
4000
Thế thì tôi định bàn về tại sao ta không có một lý thuyết tốt về não bộ.
00:45
why it is importantquan trọng that we should developphát triển, xây dựng one and what we can do about it.
7
20000
3000
Vì sao phát triển một lý thuyết như vậy quan trọng và ta có thể làm được gì.
00:48
And I'll try to do all that in 20 minutesphút. I have two affiliationsđảng phái.
8
23000
3000
Tôi sẽ thử giải thích trong vòng 20 phút tới. Tôi có 2 chỗ làm.
00:51
MostHầu hết of you know me from my PalmPalm and HandspringHandspring daysngày,
9
26000
3000
Hầu hết các bạn biết tôi từ những ngày ở Palm và Handspring,
00:54
but I alsocũng thế runchạy a nonprofitphi lợi nhuận scientificthuộc về khoa học researchnghiên cứu institutehọc viện
10
29000
3000
nhưng tôi cũng điều hành một viện nghiên cứu phi lợi nhuận
00:57
calledgọi là the RedwoodRedwood NeuroscienceKhoa học thần kinh InstituteHọc viện in MenloMenlo ParkCông viên,
11
32000
2000
gọi là Viện Khoa học Thần kinh Redwood ở Menlo Park,
00:59
and we studyhọc theoreticallý thuyết neurosciencethần kinh học,
12
34000
2000
và chúng tôi nghiên cứu khoa học thần kinh lý thuyết,
01:01
and we studyhọc how the neocortextân tràng workscông trinh.
13
36000
2000
và bọn tôi nghiên cứu cách vỏ não (neocortex) hoạt động.
01:03
I'm going to talk all about that.
14
38000
2000
Tôi sẽ nói về cái đó.
01:05
I have one slidetrượt on my other life, the computermáy vi tính life, and that's the slidetrượt here.
15
40000
3000
Tôi có một slide về cuộc sống kia của tôi, cuộc đời máy tính, đó là slide này.
01:08
These are some of the productscác sản phẩm I've workedđã làm việc on over the last 20 yearsnăm,
16
43000
3000
Đây là vài sản phẩm mà tôi đã làm trong 20 năm qua,
01:11
startingbắt đầu back from the very originalnguyên laptopmáy tính xách tay to some of the first tabletmáy tính bảng computersmáy vi tính
17
46000
4000
bắt đầu từ chiếc laptop nguyên thủy nhất cho đến những máy tablet đầu tiên
01:15
and so on, and endingkết thúc up mostphần lớn recentlygần đây with the TreoTreo,
18
50000
2000
và cứ thế, gần đây nhất là máy điện thoại Treo,
01:17
and we're continuingtiếp tục to do this.
19
52000
2000
và chúng tôi cứ tiếp tục làm chuyện này.
01:19
And I've donelàm xong this because I really believe that mobiledi động computingtính toán
20
54000
2000
Và tôi làm điều này bởi vì tôi thực sự tin rằng tính toán di động
01:21
is the futureTương lai of personalcá nhân computingtính toán, and I'm tryingcố gắng to make the worldthế giới
21
56000
3000
là tương lai của tính toán cá nhân, và tôi cố làm cho thế giới
01:24
a little bitbit better by workingđang làm việc on these things.
22
59000
3000
tốt hơn một chút bằng việc thực hiện những thứ này.
01:27
But this was, I have to admitthừa nhận, all an accidentTai nạn.
23
62000
2000
Nhưng phải thú nhận rằng chuyện này là tình cờ thôi.
01:29
I really didn't want to do any of these productscác sản phẩm
24
64000
2000
Thật ra tôi đâu có muốn làm bất kì sản phẩm nào
01:31
and very earlysớm in my careernghề nghiệp I decidedquyết định
25
66000
2000
và khi bắt đầu sự nghiệp tôi đã quyết định
01:33
I was not going to be in the computermáy vi tính industryngành công nghiệp.
26
68000
3000
là sẽ không theo đuổi công nghiệp máy tính.
01:36
And before I tell you about that, I just have to tell you
27
71000
2000
Và trước khi tôi kể về chuyện đó, tôi chỉ phải nói với bạn
01:38
this one little picturehình ảnh of graffitiGraffiti there I pickedđã chọn off the webweb the other day.
28
73000
2000
tấm hình nhỏ kia là một bức graffiti tôi lấy trên mạng hôm trước.
01:40
I was looking for a picturehình ảnh of graffitiGraffiti, little textbản văn inputđầu vào languagengôn ngữ,
29
75000
3000
Tôi đang ngắm bức graffiti, dòng chữ nhỏ về ngôn ngữ nhập liệu
01:43
and I foundtìm the websitetrang mạng dedicateddành riêng to teachersgiáo viên who want to make these,
30
78000
3000
và tôi thấy một website ngợi khen những giáo viên muốn làm những thứ này,
01:46
you know, the scriptkịch bản writingviết things acrossbăng qua the tophàng đầu of theirhọ blackboardBlackboard,
31
81000
3000
bạn biết đó, viết mã trên đầu bảng đen,
01:49
and they had addedthêm graffitiGraffiti to it, and I'm sorry about that.
32
84000
3000
và họ đã thêm graffiti vô đó, và tôi xin lỗi về chuyện đó.
01:52
(LaughterTiếng cười)
33
87000
2000
(Cười)
01:54
So what happenedđã xảy ra was, when I was youngtrẻ and got out of engineeringkỹ thuật schooltrường học
34
89000
5000
Chuyện xảy ra là, khi tôi còn trẻ và mới tốt nghiệp trường kĩ sư,
01:59
at CornellCornell in '79, I decidedquyết định -- I wentđã đi to work for IntelIntel and
35
94000
4000
ở Cornell năm 79, tôi quyết định là đi làm cho Intel.
02:03
I was in the computermáy vi tính industryngành công nghiệp -- and threesố ba monthstháng into that,
36
98000
3000
Tôi làm trong ngành công nghiệp máy tính, và sau ba tháng,
02:06
I fellrơi in love with something elsekhác, and I said, "I madethực hiện the wrongsai rồi careernghề nghiệp choicelựa chọn here,"
37
101000
4000
tôi xiêu lòng với một thứ khác, và tôi nói, "Mình chọn nghề sai rồi,"
02:10
and I fellrơi in love with brainsnão.
38
105000
3000
và tôi trở nên yêu bộ não.
02:13
This is not a realthực brainóc. This is a picturehình ảnh of one, a linehàng drawingvẽ.
39
108000
3000
Đây không phải là não thật. Đây là bức tranh của não, vẽ theo nét.
02:16
But I don't remembernhớ lại exactlychính xác how it happenedđã xảy ra,
40
111000
3000
Nhưng tôi không còn nhớ chính xác nó xảy ra thế nào nữa,
02:19
but I have one recollectionhồi ức, which was prettyđẹp strongmạnh in my mindlí trí.
41
114000
3000
nhưng tôi có một hồi ức rất mạnh trong tâm trí.
02:22
In SeptemberTháng chín 1979, ScientificKhoa học AmericanNgười Mỹ cameđã đến out
42
117000
3000
Vào tháng 9 năm 1979, tờ Scientific America có ra một số
02:25
with a singleĐộc thân topicđề tài issuevấn đề about the brainóc. And it was quitekhá good.
43
120000
3000
với một chủ đề duy nhất về bộ não. Và nó rất hay.
02:28
It was one of the besttốt issuesvấn đề ever. And they talkednói chuyện about the neuronneuron
44
123000
3000
Đó là một trong những số hay nhất từ trước tới giờ. Và họ đã bàn về neuron
02:31
and developmentphát triển and diseasedịch bệnh and visiontầm nhìn and all the things
45
126000
2000
và sự phát triển, về bệnh tật, về tầm nhìn và mọi thứ
02:33
you mightcó thể want to know about brainsnão. It was really quitekhá impressiveấn tượng.
46
128000
3000
mà bạn muốn biết về bộ não. Rất là ấn tượng.
02:36
And one mightcó thể have the impressionấn tượng that we really knewbiết a lot about brainsnão.
47
131000
3000
Người ta thường hay có ấn tượng là chúng ta đã biết rất nhiều về não.
02:39
But the last articlebài báo in that issuevấn đề was writtenbằng văn bản by FrancisFrancis CrickCrick of DNADNA famedanh tiếng.
48
134000
4000
Nhưng bài báo cuối của số đó do Francis Crick, người nổi tiếng nhờ DNA, viết.
02:43
TodayHôm nay is, I think, the 50ththứ anniversaryngày kỷ niệm of the discoverykhám phá of DNADNA.
49
138000
3000
Tôi nghĩ hôm này là ngày kỉ niệm 50 năm khám phá ra DNA.
02:46
And he wroteđã viết a storycâu chuyện basicallyvề cơ bản sayingnói,
50
141000
2000
Và ông ấy đã viết một câu chuyện nói đơn giản rằng,
02:48
well, this is all well and good, but you know what,
51
143000
3000
à, thật ra thì hay đó, nhưng bạn biết gì không,
02:51
we don't know diddleyDiddley squatngồi xổm about brainsnão
52
146000
2000
là chúng ta không biết một chút gì về bộ não
02:53
and no one has a cluemanh mối how these things work,
53
148000
2000
và không ai có ý niệm gì về cách nó hoạt động,
02:55
so don't believe what anyonebất kỳ ai tellsnói you.
54
150000
2000
vậy thì đừng có tin những gì người khác nói với bạn.
02:57
This is a quoteTrích dẫn from that articlebài báo. He said, "What is conspicuouslyrõ ràng lackingthiếu xót,"
55
152000
3000
Đây là câu trích trong bài viết đó. Ông ấy nói, "Cái đang thiếu rõ ràng nhất,"
03:00
he's a very properthích hợp BritishNgười Anh gentlemanquý ông so, "What is conspicuouslyrõ ràng lackingthiếu xót
56
155000
4000
ông ấy là đúng là một quý ông Anh quốc đích thực nên mới nói, "Cái đang thiếu rõ ràng nhất
03:04
is a broadrộng lớn frameworkkhuôn khổ of ideasý tưởng in which to interpretgiải thích these differentkhác nhau approachescách tiếp cận."
57
159000
3000
là một cơ cấu khái quát của các ý tưởng để diễn giải các cách tiếp cận khác nhau."
03:07
I thought the wordtừ frameworkkhuôn khổ was great.
58
162000
2000
Tôi nghĩ rằng dùng từ "cơ cấu" là rất hay.
03:09
He didn't say we didn't even have a theorylý thuyết. He saysnói,
59
164000
2000
Ông ấy không nói là chúng ta thậm chí còn không có một lý thuyết.
03:11
we don't even know how to beginbắt đầu to think about it --
60
166000
2000
Ông nói là chúng ta thậm chí còn không biết bắt đầu nghĩ về nó như thế nào --
03:13
we don't even have a frameworkkhuôn khổ.
61
168000
2000
chúng ta còn chưa có một cơ cấu.
03:15
We are in the pre-paradigmtrước khi mô hình daysngày, if you want to use ThomasThomas KuhnKuhn.
62
170000
3000
Ta đang ở trong những ngày của tiền mô thức (pre-paradigm) nếu nói theo Thomas Kuhn.
03:18
And so I fellrơi in love with this, and said look,
63
173000
3000
Và tôi phải lòng với chuyện này, và tự nói với mình rằng nhìn xem
03:21
we have all this knowledgehiểu biết about brainsnão. How hardcứng can it be?
64
176000
3000
ta đã có tất cả các kiến thức này về não. Còn có thể khó như thế nào nữa?
03:24
And this is something we can work on my lifetimecả đời. I feltcảm thấy I could make a differenceSự khác biệt,
65
179000
3000
Và đây là thứ mà tôi có thể làm cả đời. Tôi cảm thấy rằng mình có thể tạo sự khác biệt,
03:27
and so I triedđã thử to get out of the computermáy vi tính businesskinh doanh, into the brainóc businesskinh doanh.
66
182000
4000
và tôi cố rời bỏ máy tính để theo đuổi bộ não.
03:31
First, I wentđã đi to MITMIT, the AIAI labphòng thí nghiệm was there,
67
186000
2000
Đầu tiên tôi đến MIT, lab về trí tuệ nhân tạo ở đó,
03:33
and I said, well, I want to buildxây dựng intelligentthông minh machinesmáy móc, too,
68
188000
2000
và tôi nói là tôi cũng muốn tạo các máy móc thông minh,
03:35
but the way I want to do it is to studyhọc how brainsnão work first.
69
190000
3000
nhưng cách tôi muốn làm là tìm hiểu cách bộ não hoạt động trước.
03:38
And they said, oh, you don't need to do that.
70
193000
3000
Và họ nói là, ồ, anh không cần làm vậy đâu.
03:41
We're just going to programchương trình computersmáy vi tính; that's all we need to do.
71
196000
2000
Chúng ta chỉ lập trình máy tính, đó là mọi thứ cần làm.
03:43
And I said, no, you really oughtnên to studyhọc brainsnão. They said, oh, you know,
72
198000
3000
Và tôi nói, không, các anh phải tìm hiểu về não. Họ nói là, ồ, anh biết không,
03:46
you're wrongsai rồi. And I said, no, you're wrongsai rồi, and I didn't get in.
73
201000
2000
anh sai rồi. Và tôi nói, không, các anh mới sai, và tôi đã không được nhận.
03:48
(LaughterTiếng cười)
74
203000
1000
(Cười)
03:50
But I was a little disappointedthất vọng -- prettyđẹp youngtrẻ -- but I wentđã đi back again
75
205000
2000
Nhưng tôi hơi thất vọng -- còn trẻ mà, nhưng tôi quay lại lần nữa
03:52
a fewvài yearsnăm latermột lát sau and this time was in CaliforniaCalifornia, and I wentđã đi to BerkeleyBerkeley.
76
207000
3000
vào vài năm sau và lần này thì ở California, tôi tới Berkeley.
03:55
And I said, I'll go in from the biologicalsinh học sidebên.
77
210000
4000
Và tôi nói là tôi sẽ đi theo hướng sinh học.
03:59
So I got in -- in the PhĐộ pH.D. programchương trình in biophysicssinh lý học, and I was, all right,
78
214000
3000
Thế là tôi được nhận vào chương trình tiến sĩ ngành lý sinh, tôi xem như ổn.
04:02
I'm studyinghọc tập brainsnão now, and I said, well, I want to studyhọc theorylý thuyết.
79
217000
3000
Giờ tôi học về não, và tôi nói, được rồi, tôi muốn nghiên cứu lý thuyết.
04:05
And they said, oh no, you can't studyhọc theorylý thuyết about brainsnão.
80
220000
2000
Và họ nói, không được, anh không nghiên cứu lý thuyết về não được.
04:07
That's not something you do. You can't get fundedđược tài trợ for that.
81
222000
2000
Đó không phải thứ anh cần làm. Anh không được tài trợ đâu.
04:09
And as a graduatetốt nghiệp studentsinh viên, you can't do that. So I said, oh my goshgosh.
82
224000
4000
Nếu là nghiên cứu sinh, anh không thể làm chuyện đó. Thế là tôi nói, trời ơi.
04:13
I was very depressedsuy sụp. I said, but I can make a differenceSự khác biệt in this fieldcánh đồng.
83
228000
2000
Tôi rất buồn phiền. Tôi nói là nhưng tôi có thể tạo ra sự khác biệt cho ngành này.
04:15
So what I did is I wentđã đi back in the computermáy vi tính industryngành công nghiệp
84
230000
3000
Thế là tôi quay trở lại ngành máy tính
04:18
and said, well, I'll have to work here for a while, do something.
85
233000
2000
và tự nói là mình sẽ phải làm ở đây một thời gian, làm cái gì đó.
04:20
That's when I designedthiết kế all those computermáy vi tính productscác sản phẩm.
86
235000
3000
Đó là lúc tôi thiết kế tất cả những sản phẩm máy tính đó.
04:23
(LaughterTiếng cười)
87
238000
1000
(Cười)
04:24
And I said, I want to do this for fourbốn yearsnăm, make some moneytiền bạc,
88
239000
3000
Tôi nói là tôi muốn làm chuyện này 4 năm thôi, kiếm chút tiền,
04:27
like I was havingđang có a familygia đình, and I would maturetrưởng thành a bitbit,
89
242000
4000
cứ như là đang có gia đình, rồi tôi sẽ trưởng thành hơn,
04:31
and maybe the businesskinh doanh of neurosciencethần kinh học would maturetrưởng thành a bitbit.
90
246000
3000
và biết đâu ngành khoa học thần kinh sẽ trưởng thành hơn một chút.
04:34
Well, it tooklấy longerlâu hơn than fourbốn yearsnăm. It's been about 16 yearsnăm.
91
249000
3000
Chà, mất hơn 4 năm đó. Khoảng chừng 16 năm.
04:37
But I'm doing it now, and I'm going to tell you about it.
92
252000
2000
Nhưng giờ tôi đang làm chuyện đó, và tôi sẽ nói cho các bạn về nó.
04:39
So why should we have a good brainóc theorylý thuyết?
93
254000
3000
Thế thì tại sao chúng ta nên có một lý thuyết về não tốt?
04:42
Well, there's lots of reasonslý do people do sciencekhoa học.
94
257000
3000
Ồ, có nhiều lý do người ta làm khoa học.
04:45
One is -- the mostphần lớn basiccăn bản one is -- people like to know things.
95
260000
3000
Lý do cơ bản nhất là người ta muốn hiểu biết.
04:48
We're curiousHiếu kỳ, and we just go out and get knowledgehiểu biết, you know?
96
263000
2000
Chúng ta tò mò, và chúng ta bước ra ngoài để tìm hiểu?
04:50
Why do we studyhọc antskiến? Well, it's interestinghấp dẫn.
97
265000
2000
Tại sao chúng ta lại nghiên cứu về kiến? Ồ, vì nó thú vị.
04:52
Maybe we'lltốt learnhọc hỏi something really usefulhữu ích about it, but it's interestinghấp dẫn and fascinatinghấp dẫn.
98
267000
3000
Có thể ta sẽ biết được cái gì đó hữu dụng về nó, nhưng nó thú vị và quyến rũ.
04:55
But sometimesđôi khi, a sciencekhoa học has some other attributesthuộc tính
99
270000
2000
Nhưng đôi khi, một ngành khoa học có những thuộc tính khác
04:57
which makeslàm cho it really, really interestinghấp dẫn.
100
272000
2000
làm cho nó rất là thú vị.
04:59
SometimesĐôi khi a sciencekhoa học will tell something about ourselveschúng ta,
101
274000
3000
Đôi khi một ngành khoa học chỉ ra điều gì đó về bản thân chúng ta,
05:02
it'llnó sẽ tell us who we are.
102
277000
1000
nó nói chúng ta là ai.
05:03
RarelyHiếm khi, you know: evolutionsự phát triển did this and CopernicusCopernicus did this,
103
278000
3000
Thỉnh thoảng có chuyện như thuyết tiến hóa nói thế này hay Copernicus nói thế kia
05:06
where we have a newMới understandinghiểu biết of who we are.
104
281000
2000
để giúp ta hiểu được chúng ta là ai.
05:08
And after all, we are our brainsnão. My brainóc is talkingđang nói to your brainóc.
105
283000
4000
Suy cho cùng, chúng ta chính là bộ não. Não tôi đang nói chuyện với não bạn.
05:12
Our bodiescơ thể are hangingtreo alongdọc theo for the ridedap xe, but my brainóc is talkingđang nói to your brainóc.
106
287000
3000
Cơ thể chỉ là đi kèm mà thôi, nhưng não tôi đang nói chuyện với não bạn.
05:15
And if we want to understandhiểu không who we are and how we feel and perceivecảm nhận,
107
290000
3000
Và nếu ta muốn hiểu được ta là ai và ta cảm xúc và nhận thức thế nào,
05:18
we really understandhiểu không what brainsnão are.
108
293000
2000
ta sẽ thật sự hiểu được bộ não là gì.
05:20
AnotherKhác thing is sometimesđôi khi sciencekhoa học
109
295000
2000
Còn một chuyện khác là đôi khi khoa học
05:22
leadsdẫn to really biglớn societalxã hội benefitslợi ích and technologiescông nghệ,
110
297000
2000
dẫn đến những lợi ích lớn cho xã hội, công nghệ,
05:24
or businessescác doanh nghiệp, or whateverbất cứ điều gì, that come out of it. And this is one, too,
111
299000
2000
hay là việc kinh doanh, thứ gì cũng được. Và đây cũng là một lợi ích
05:26
because when we understandhiểu không how brainsnão work, we're going to be ablecó thể
112
301000
3000
bởi vì khi ta hiểu được cách não hoạt động, ta sẽ có thể
05:29
to buildxây dựng intelligentthông minh machinesmáy móc, and I think that's actuallythực ra a good thing on the wholetoàn thể,
113
304000
3000
tạo nên các máy móc thông minh, và tôi nghĩ là điều đó rất tốt cho mọi thứ,
05:32
and it's going to have tremendousto lớn benefitslợi ích to societyxã hội,
114
307000
2000
và nó sẽ có lợi ích cực lớn cho xã hội
05:34
just like a fundamentalcăn bản technologyCông nghệ.
115
309000
2000
như là một công nghệ cơ bản.
05:36
So why don't we have a good theorylý thuyết of brainsnão?
116
311000
2000
Thế thì tại sao chúng không có một lý thuyết tốt cho bộ não?
05:38
And people have been workingđang làm việc on it for 100 yearsnăm.
117
313000
3000
Và con người đã nghiên cứu nó trong 100 năm qua.
05:41
Well, let's first take a look at what normalbình thường sciencekhoa học looksnhìn like.
118
316000
2000
Trước tiên hãy xem khoa học thông thường trông như thế nào.
05:43
This is normalbình thường sciencekhoa học.
119
318000
2000
Đây là khoa học thông thường.
05:45
NormalBình thường sciencekhoa học is a nicetốt đẹp balancecân đối betweengiữa theorylý thuyết and experimentalistsbước.
120
320000
4000
Khoa học thông thường là một sự cân bằng khéo léo giữa lý thuyết và thực nghiệm.
05:49
And so the theoristnhà lý luận guys say, well, I think this is what's going on,
121
324000
2000
Và khi người làm lý thuyết nói, ồ, tôi nghĩ nó diễn ra thế này,
05:51
and the experimentalistngười thực nghiệm saysnói, no, you're wrongsai rồi.
122
326000
2000
và người làm thực nghiệm nói, không, anh sai rồi.
05:53
And it goesđi back and forthra, you know?
123
328000
2000
Và nó cứ qua lại như vậy, bạn thấy không?
05:55
This workscông trinh in physicsvật lý. This workscông trinh in geologyđịa chất. But if this is normalbình thường sciencekhoa học,
124
330000
2000
Cách này phù hợp cho vật lý, cho địa lý. Nhưng nếu đó là khoa học thông thường,
05:57
what does neurosciencethần kinh học look like? This is what neurosciencethần kinh học looksnhìn like.
125
332000
3000
còn khoa học thần kinh thì như thế nào? Khoa học thần kình như thế này.
06:00
We have this mountainnúi of datadữ liệu, which is anatomygiải phẫu học, physiologysinh lý học and behaviorhành vi.
126
335000
5000
Chúng ta có một núi dữ liệu, bao gồm giải phẫu học, sinh lý học và hành vi.
06:05
You can't imaginetưởng tượng how much detailchi tiết we know about brainsnão.
127
340000
3000
Bạn không thể tưởng tượng bao nhiêu chi tiết có được về bộ não.
06:08
There were 28,000 people who wentđã đi to the neurosciencethần kinh học conferencehội nghị this yearnăm,
128
343000
4000
Có 28.000 người đến dự hội nghị về khoa học thần kinh năm nay,
06:12
and everymỗi one of them is doing researchnghiên cứu in brainsnão.
129
347000
2000
và mỗi người đều làm nghiên cứu về não.
06:14
A lot of datadữ liệu. But there's no theorylý thuyết. There's a little, wimpywimpy boxcái hộp on tophàng đầu there.
130
349000
4000
Rất nhiều dữ liệu. Nhưng không có lý thuyết.
06:18
And theorylý thuyết has not playedchơi a rolevai trò in any sortsắp xếp of grandlớn way in the neurosciencesneurosciences.
131
353000
5000
Và lý thuyết chưa hề có vai trò chủ đạo nào trong khoa học thần kinh.
06:23
And it's a realthực shamexấu hổ. Now why has this come about?
132
358000
3000
Thật đáng xấu hổ. Nhưng tại sao lại như vậy?
06:26
If you askhỏi neuroscientistsneuroscientists, why is this the statetiểu bang of affairngoại tình,
133
361000
2000
Nếu bạn hỏi một nhà thần kinh học, tại sao lại như thế?
06:28
they'llhọ sẽ first of all admitthừa nhận it. But if you askhỏi them, they'llhọ sẽ say,
134
363000
3000
Trước tiên họ sẽ thú thật là vậy. Nhưng rồi họ sẽ nói,
06:31
well, there's variousnhiều reasonslý do we don't have a good brainóc theorylý thuyết.
135
366000
3000
ồ, có nhiều lý do chúng tôi không có được một lý thuyết về não tốt.
06:34
Some people say, well, we don't still have enoughđủ datadữ liệu,
136
369000
2000
Vài người sẽ nói, ồ, chúng tôi chưa có đủ dữ liệu,
06:36
we need to get more informationthông tin, there's all these things we don't know.
137
371000
3000
cần có thêm thông tin, còn rất nhiều thứ chưa biết.
06:39
Well, I just told you there's so much datadữ liệu comingđang đến out your earsđôi tai.
138
374000
3000
Vậy thì tôi mới nói với bạn rằng có quá nhiều dữ liệu được tạo ra.
06:42
We have so much informationthông tin, we don't even know how to beginbắt đầu to organizetổ chức it.
139
377000
3000
Chúng ta có quá nhiều thông tin; chúng ta không biết bắt đầu tổ chức thế nào.
06:45
What good is more going to do?
140
380000
2000
Vậy thì có nhiều hơn lợi ích chỗ nào?
06:47
Maybe we'lltốt be luckymay mắn and discoverkhám phá some magicma thuật thing, but I don't think so.
141
382000
3000
Có thể chúng ta sẽ may mắn khám phá ra điều gì đó kỳ diệu, nhưng tôi không nghĩ vậy.
06:50
This is actuallythực ra a symptomtriệu chứng of the factthực tế that we just don't have a theorylý thuyết.
142
385000
3000
Đây thật sự là triệu chứng của việc chúng ta không có một lý thuyết.
06:53
We don't need more datadữ liệu -- we need a good theorylý thuyết about it.
143
388000
3000
Chúng ta không cần thêm dữ liệu -- mà cần một lý thuyết tốt về dữ liệu đó.
06:56
AnotherKhác one is sometimesđôi khi people say, well, brainsnão are so complexphức tạp,
144
391000
3000
Đôi khi người ta còn nói là bộ não quá phức tạp,
06:59
it'llnó sẽ take anotherkhác 50 yearsnăm.
145
394000
2000
cần thêm 50 năm nữa.
07:01
I even think ChrisChris said something like this yesterdayhôm qua.
146
396000
2000
Tôi thậm chí còn nghĩ là Chris đã nói cái gì giống vậy ngày hôm qua.
07:03
I'm not sure what you said, ChrisChris, but something like,
147
398000
2000
Tôi không chắc anh đã nói gì, Chris, nhưng kiểu như là,
07:05
well, it's one of the mostphần lớn complicatedphức tạp things in the universevũ trụ. That's not truethật.
148
400000
3000
ồ, nó là thứ phức tạp nhất của vũ trụ. Điều đó không đúng.
07:08
You're more complicatedphức tạp than your brainóc. You've got a brainóc.
149
403000
2000
Bạn còn phức tạp hơn não của bạn. Bạn sở hữu một bộ não mà.
07:10
And it's alsocũng thế, althoughmặc dù the brainóc looksnhìn very complicatedphức tạp,
150
405000
2000
Và mặc dù bộ não nhìn rất phức tạp,
07:12
things look complicatedphức tạp untilcho đến you understandhiểu không them.
151
407000
3000
mọi thứ còn phức tạp cho đến lúc nào bạn hiểu chúng.
07:15
That's always been the casetrường hợp. And so all we can say, well,
152
410000
3000
Luôn luôn là như vậy. Vậy thì tất cả những gì ta có thể nói
07:18
my neocortextân tràng, which is the partphần of the brainóc I'm interestedquan tâm in, has 30 billiontỷ cellstế bào.
153
413000
4000
là lớp vỏ não của tôi, phần não mà tôi quan tâm đến, có 30 tỉ tế bào.
07:22
But, you know what? It's very, very regularđều đặn.
154
417000
2000
Nhưng bạn biết gì không? Điều này rất phổ biến.
07:24
In factthực tế, it looksnhìn like it's the sametương tự thing repeatedlặp đi lặp lại over and over and over again.
155
419000
3000
Sự thật là nó cứ như được lặp đi lặp lại nhiều lần vậy.
07:27
It's not as complexphức tạp as it looksnhìn. That's not the issuevấn đề.
156
422000
3000
Nó không phức tạp như nhìn thế đâu. Đó không phải là vấn đề.
07:30
Some people say, brainsnão can't understandhiểu không brainsnão.
157
425000
2000
Có người nói là bộ não không thể hiểu được bộ não.
07:32
Very Zen-likeGiống như Zen. WhooWhoo. (LaughterTiếng cười)
158
427000
3000
Như là công án thiền. Bạn biết đấy--
07:35
You know,
159
430000
1000
(Cười)
07:36
it soundsâm thanh good, but why? I mean, what's the pointđiểm?
160
431000
3000
Nghe hay đây, nhưng tại sao? Ý tôi là mục đích là gì?
07:39
It's just a bunch of cellstế bào. You understandhiểu không your liverGan.
161
434000
3000
Nó chỉ là một mớ tế bào. Bạn hiểu được lá gan của mình.
07:42
It's got a lot of cellstế bào in it too, right?
162
437000
2000
Nó cũng có nhiều tế bào phải không?
07:44
So, you know, I don't think there's anything to that.
163
439000
2000
Nên bạn biết đó, tôi không nghĩ có gì phức tạp cả.
07:46
And finallycuối cùng, some people say, well, you know,
164
441000
2000
Và cuối cùng, có những người nói là
07:48
I don't feel like a bunch of cellstế bào, you know. I'm consciouscó ý thức.
165
443000
4000
Tôi không cảm thấy như là một mớ tế bào. Tôi tỉnh táo.
07:52
I've got this experiencekinh nghiệm, I'm in the worldthế giới, you know.
166
447000
2000
Tôi có kinh nghiệm, tôi sống trong thế giới.
07:54
I can't be just a bunch of cellstế bào. Well, you know,
167
449000
2000
Tôi không thể là một mớ tế bào đâu. Ồ, bạn biết không,
07:56
people used to believe there was a life forcelực lượng to be livingsống,
168
451000
3000
người ta đã thường tin rằng có một năng lực tinh thần để ta tồn tại,
07:59
and we now know that's really not truethật at all.
169
454000
2000
và giờ thì ta biết chuyện đó hoàn toàn không đúng.
08:01
And there's really no evidencechứng cớ that saysnói -- well, other than people
170
456000
3000
Và thật ra không có bằng chứng gì ngoài việc người ta
08:04
just have disbeliefsự hoài nghi that cellstế bào can do what they do.
171
459000
2000
chỉ không tin rằng tế bào có thể hoạt động theo cách của nó.
08:06
And so, if some people have fallenrơi into the pitpit of metaphysicalsiêu hình dualismthuyết nhị nguyên,
172
461000
3000
Thế thì nếu ai đó đã rơi vào bẫy của thuyết nhị nguyên siêu hình,
08:09
some really smartthông minh people, too, but we can rejecttừ chối all that.
173
464000
3000
những người giỏi lắm đấy, nhưng ta có thể bác bỏ mọi thứ đó.
08:12
(LaughterTiếng cười)
174
467000
2000
(Cười)
08:14
No, I'm going to tell you there's something elsekhác,
175
469000
3000
Không, tôi sắp nói cho bạn là có một thứ khác,
08:17
and it's really fundamentalcăn bản, and this is what it is:
176
472000
2000
và nó rất là cơ bản, nó là thế này:
08:19
there's anotherkhác reasonlý do why we don't have a good brainóc theorylý thuyết,
177
474000
2000
có một lý do khác tại sao chúng ta không có một lý thuyết về não tốt,
08:21
and it's because we have an intuitivetrực quan, strongly-heldtổ chức mạnh mẽ,
178
476000
3000
đó là vì chúng ta có một sự thừa nhận rất vững chắc bằng trực giác
08:24
but incorrectkhông chính xác assumptiongiả thiết that has preventedngăn cản us from seeingthấy the answercâu trả lời.
179
479000
5000
nhưng lại không chính xác đã ngăn cản chũng ta thấy được câu trả lời.
08:29
There's something we believe that just, it's obvioushiển nhiên, but it's wrongsai rồi.
180
484000
3000
Có một thứ mà ta tin tưởng nhưng rõ ràng là sai lầm.
08:32
Now, there's a historylịch sử of this in sciencekhoa học and before I tell you what it is,
181
487000
4000
Bây giờ, có cả một lịch sử về nó trong khoa học và trước khi tôi nói nó là gì,
08:36
I'm going to tell you a bitbit about the historylịch sử of it in sciencekhoa học.
182
491000
2000
tôi sẽ nói một chút về lịch sử của nó.
08:38
You look at some other scientificthuộc về khoa học revolutionscuộc cách mạng,
183
493000
2000
Bạn hãy nhìn về các cuộc cách mạng khoa học khác,
08:40
and this casetrường hợp, I'm talkingđang nói about the solarhệ mặt trời systemhệ thống, that's CopernicusCopernicus,
184
495000
2000
và trong trường hợp này, tôi nói về hệ mặt trời, đó là Copernicus,
08:42
Darwin'sDarwin evolutionsự phát triển, and tectonicmảng kiến tạo platestấm, that's WegenerWegener.
185
497000
3000
thuyết tiến hóa Darwin, về đĩa kiến tạo, đó là Wegener.
08:45
They all have a lot in commonchung with brainóc sciencekhoa học.
186
500000
3000
Chúng có nhiều điểm chung với khoa học não bộ.
08:48
First of all, they had a lot of unexplainedkhông giải thích được datadữ liệu. A lot of it.
187
503000
3000
Đầu tiên là chúng có nhiều dữ liệu chưa giải thích. Rất là nhiều.
08:51
But it got more manageablequản lý onceMột lần they had a theorylý thuyết.
188
506000
3000
Nhưng nó trở nên dễ quản lý hơn khi đã có một lý thuyết.
08:54
The besttốt mindstâm trí were stumpedstumped -- really, really smartthông minh people.
189
509000
3000
Những trí tuệ xuất sắc nhất đã chịu thua, những người sáng láng nhất.
08:57
We're not smarterthông minh hơn now than they were then.
190
512000
2000
Chúng ta giờ không thông minh hơn họ ngày xưa đâu.
08:59
It just turnslượt out it's really hardcứng to think of things,
191
514000
2000
Nó chỉ là rất khó để suy nghĩ về những thứ đó,
09:01
but onceMột lần you've thought of them, it's kindloại of easydễ dàng to understandhiểu không it.
192
516000
2000
nhưng một khi bạn đã nghĩ rồi, khá dễ để hiểu được nó.
09:03
My daughterscon gái understoodhiểu these threesố ba theorieslý thuyết
193
518000
2000
Các con gái tôi hiểu ba lý thuyết này
09:05
in theirhọ basiccăn bản frameworkkhuôn khổ by the time they were in kindergartenmẫu giáo.
194
520000
3000
về mặt cơ bản trước khi chúng vào mẫu giáo.
09:08
And now it's not that hardcứng, you know, here'sđây là the appletáo, here'sđây là the orangetrái cam,
195
523000
3000
Và không có gì khó cả, bạn biết đấy, đây trái táo, đây là trái cam,
09:11
you know, the EarthTrái đất goesđi around, that kindloại of stuffđồ đạc.
196
526000
3000
trái đất thì hình cầu, đại loại như vậy.
09:14
FinallyCuối cùng, anotherkhác thing is the answercâu trả lời was there all alongdọc theo,
197
529000
2000
Cuối cùng, còn một điều nữa là câu trả lời luôn nằm sẵn,
09:16
but we kindloại of ignoredlàm ngơ it because of this obvioushiển nhiên thing, and that's the thing.
198
531000
3000
nhưng ta dường như lờ nó đi chính vì cái điều rõ ràng đó.
09:19
It was an intuitivetrực quan, strong-heldtổ chức mạnh mẽ beliefniềm tin that was wrongsai rồi.
199
534000
3000
Đó chính là niềm tin trực giác vững chắc nhưng sai lầm.
09:22
In the casetrường hợp of the solarhệ mặt trời systemhệ thống, the ideaý kiến that the EarthTrái đất is spinningquay
200
537000
3000
Đối với hệ mặt trời, ý tưởng trái đất xoay vòng
09:25
and the surfacebề mặt of the EarthTrái đất is going like a thousandnghìn milesdặm an hourgiờ,
201
540000
3000
và bề mặt trái đất có vận tốc như là một ngàn dặm một giờ,
09:28
and the EarthTrái đất is going throughxuyên qua the solarhệ mặt trời systemhệ thống about a milliontriệu milesdặm an hourgiờ.
202
543000
3000
và trái đất đi trong hệ mặt trời khoảng một triệu dặm một giờ.
09:31
This is lunacylunacy. We all know the EarthTrái đất isn't movingdi chuyển.
203
546000
2000
Điên rồ quá. Ai cũng biết là trái đất không có dịch chuyển.
09:33
Do you feel like you're movingdi chuyển a thousandnghìn milesdặm an hourgiờ?
204
548000
2000
Bạn có cảm thấy là mình đang đi một ngàn dặm một giờ không?
09:35
Of coursekhóa học not. You know, and someonengười nào who said,
205
550000
2000
Dĩ nhiên là không. Bạn biết là nếu có ai từng nói
09:37
well, it was spinningquay around in spacekhông gian and it's so hugekhổng lồ,
206
552000
2000
là trái đất đang quay trong không gian và nó rất là lớn,
09:39
they would lockKhóa you up, and that's what they did back then.
207
554000
2000
người ta sẽ nhốt bạn lại, ngày xưa họ làm vậy đó.
09:41
(LaughterTiếng cười)
208
556000
1000
(Cười)
09:42
So it was intuitivetrực quan and obvioushiển nhiên. Now what about evolutionsự phát triển?
209
557000
3000
Vật thì nó rất trực giác và rõ ràng. Thế còn thuyết tiến hóa thì sao?
09:45
Evolution'sSự tiến hóa của the sametương tự thing. We taughtđã dạy our kidstrẻ em, well, the BibleKinh Thánh saysnói,
210
560000
3000
Cũng vậy thôi. Chúng ta đã dạy trẻ con là Kinh thánh nói rằng,
09:48
you know, God createdtạo all these speciesloài, catsmèo are catsmèo, dogschó are dogschó,
211
563000
2000
Chúa tạo ra mọi giống loài, mèo là mèo, chó là chó,
09:50
people are people, plantscây are plantscây, they don't changethay đổi.
212
565000
3000
người là người, cây cỏ là cây cỏ, chúng không hề thay đổi.
09:53
NoahNoah put them on the ArkArk in that ordergọi món, blahblah, blahblah, blahblah. And, you know,
213
568000
4000
Noah đưa chúng lên tàu theo trật tự đó, đại loại thế. Và bạn biết chứ,
09:57
the factthực tế is, if you believe in evolutionsự phát triển, we all have a commonchung ancestortổ tiên,
214
572000
4000
sự thật là nếu bạn tin vào thuyết tiến hóa, chúng ta đều có chung ông tổ,
10:01
and we all have a commonchung ancestrytổ tiên with the plantthực vật in the lobbysảnh đợi.
215
576000
3000
có cùng một tổ tiên với cái cây ngoài hành lang.
10:04
This is what evolutionsự phát triển tellsnói us. And, it's truethật. It's kindloại of unbelievableKhông thể tin được.
216
579000
3000
Đó là điều mà thuyết tiến hóa dạy ta. Và đó là sự thật. Không thể tin được.
10:07
And the sametương tự thing about tectonicmảng kiến tạo platestấm, you know?
217
582000
3000
Đĩa kiến tạo thì cũng vậy thôi.
10:10
All the mountainsnúi and the continentslục địa are kindloại of floatingnổi around
218
585000
2000
Tất cả núi non và đại lục đều nổi trên bề mặt
10:12
on tophàng đầu of the EarthTrái đất, you know? It's like, it doesn't make any sensegiác quan.
219
587000
4000
của địa cầu. Thấy không, nó không có nghĩa gì hết.
10:16
So what is the intuitivetrực quan, but incorrectkhông chính xác assumptiongiả thiết,
220
591000
4000
Nó là sự thừa nhận trực giác nhưng không chính xác,
10:20
that's keptgiữ us from understandinghiểu biết brainsnão?
221
595000
2000
đã khiến chúng ta không hiểu được bộ não?
10:22
Now I'm going to tell it to you, and it's going to seemhình như obvioushiển nhiên that that is correctchính xác,
222
597000
2000
Giờ tôi sắp nói với bạn, và nó trông đương nhiên đến mức là chính xác,
10:24
and that's the pointđiểm, right? Then I'm going to have to make an argumenttranh luận
223
599000
2000
và là điểm cốt yếu, phải không? Thế thì tôi sẽ phản biện rằng
10:26
why you're incorrectkhông chính xác about the other assumptiongiả thiết.
224
601000
2000
tại sao bạn đã sai về các thừa nhận khác.
10:28
The intuitivetrực quan but obvioushiển nhiên thing is that somehowbằng cách nào đó intelligenceSự thông minh
225
603000
3000
Cái trực giác và đương nhiên là bằng cách nào đó trí thông minh
10:31
is definedđịnh nghĩa by behaviorhành vi,
226
606000
2000
được định nghĩa bằng hành vi,
10:33
that we are intelligentthông minh because of the way that we do things
227
608000
2000
rằng chúng ta thông minh là vì cách chúng ta làm việc và cư xử
10:35
and the way we behavehành xử intelligentlythông minh, and I'm going to tell you that's wrongsai rồi.
228
610000
3000
một cách thông minh, tôi sẽ nói với bạn như vậy là sai.
10:38
What it is is intelligenceSự thông minh is definedđịnh nghĩa by predictiondự đoán.
229
613000
2000
Trí thông minh được định nghĩa bằng khả năng tiên đoán.
10:40
And I'm going to work you throughxuyên qua this in a fewvài slidesslide here,
230
615000
3000
Và tôi sẽ chỉ cho bạn trong mấy slide sắp tới,
10:43
give you an examplethí dụ of what this meanscó nghĩa. Here'sĐây là a systemhệ thống.
231
618000
4000
cho bạn một ví dụ điều đó nghĩa là gì. Đây là một hệ thống.
10:47
EngineersKỹ sư like to look at systemshệ thống like this. ScientistsCác nhà khoa học like to look at systemshệ thống like this.
232
622000
3000
Các kĩ sư thích quan sát các hệ thống thế này. Khoa học gia cũng vậy.
10:50
They say, well, we have a thing in a boxcái hộp, and we have its inputsđầu vào and its outputskết quả đầu ra.
233
625000
3000
Họ nói rằng chúng ta có một thứ trong cái hộp, chúng ta có dữ liệu và kết quả.
10:53
The AIAI people said, well, the thing in the boxcái hộp is a programmablelập trình được computermáy vi tính
234
628000
3000
Người làm trí tuệ nhân tạo nói vật trong hộp là một máy tính đã được lập trình
10:56
because that's equivalenttương đương to a brainóc, and we'lltốt feednuôi it some inputsđầu vào
235
631000
2000
vì nó tương đương với một bộ não, ta sẽ cấp cho nó vài dữ liệu
10:58
and we'lltốt get it to do something, have some behaviorhành vi.
236
633000
2000
bắt nó làm gì đó, có được hành vi nào đó.
11:00
And AlanAlan TuringTuring definedđịnh nghĩa the TuringTuring testthử nghiệm, which is essentiallybản chất sayingnói,
237
635000
3000
Và Alan Turing định nghĩa bài test Turing, về cơ bản nói rằng,
11:03
we'lltốt know if something'smột số điều intelligentthông minh if it behavesứng xử identicalgiống nhau to a humanNhân loại.
238
638000
3000
chúng ta biết được thứ gì đó thông minh nếu nó cư xử như con người.
11:06
A behavioralhành vi metricsố liệu of what intelligenceSự thông minh is,
239
641000
3000
Đó là thước đo sự thông minh, và nó đã
11:09
and this has stuckbị mắc kẹt in our mindstâm trí for a long periodgiai đoạn of time.
240
644000
3000
tồn tại trong đầu chúng ta rất lâu.
11:12
RealityThực tế thoughTuy nhiên, I call it realthực intelligenceSự thông minh.
241
647000
2000
Nhưng trong thực tế tôi gọi nó là trí thông mình thật.
11:14
RealThực tế intelligenceSự thông minh is builtđược xây dựng on something elsekhác.
242
649000
2000
Trí thông minh thật được tạo nên từ những thứ khác.
11:16
We experiencekinh nghiệm the worldthế giới throughxuyên qua a sequencetrình tự of patternsmẫu, and we storecửa hàng them,
243
651000
4000
Chúng ta trải nghiệm thế giới qua một chuỗi các mẫu hình, và ta lưu chúng lại,
11:20
and we recallhồi tưởng them. And when we recallhồi tưởng them, we matchtrận đấu them up
244
655000
3000
và nhớ lại chúng. Khi nhớ lại, ta so sánh chúng với thực tế
11:23
againstchống lại realitythực tế, and we're makingchế tạo predictionsdự đoán all the time.
245
658000
4000
và chúng ta luôn tiên đoán.
11:27
It's an eternalvĩnh cửu metricsố liệu. There's an eternalvĩnh cửu metricsố liệu about us sortsắp xếp of sayingnói,
246
662000
3000
Đó là thước đo vĩnh viễn. Một thước đo của chúng ta để nói là
11:30
do we understandhiểu không the worldthế giới? Am I makingchế tạo predictionsdự đoán? And so on.
247
665000
3000
chúng ta có hiểu thế giới không. Tôi có đang dự đoán không? Cứ như thế.
11:33
You're all beingđang intelligentthông minh right now, but you're not doing anything.
248
668000
2000
Bạn đang thông minh ngay lúc này, nhưng bạn không làm gì cả.
11:35
Maybe you're scratchingtrầy xước yourselfbản thân bạn, or pickingnhặt your nosemũi,
249
670000
2000
Có thể bạn đang gãi, hoặc đang móc mũi,
11:37
I don't know, but you're not doing anything right now,
250
672000
2000
Tôi không biết, nhưng bạn không làm gì hết lúc này,
11:39
but you're beingđang intelligentthông minh; you're understandinghiểu biết what I'm sayingnói.
251
674000
3000
nhưng bạn vẫn thông minh, bạn hiểu tôi đang nói gì.
11:42
Because you're intelligentthông minh and you speaknói EnglishTiếng Anh,
252
677000
2000
Chính vì bạn thông minh và biết tiếng Anh,
11:44
you know what wordtừ is at the endkết thúc of this -- (SilenceSự im lặng)
253
679000
1000
bạn biết cái từ ở cuối của cái -- (Yên lặng)
11:45
sentencecâu.
254
680000
2000
câu này.
11:47
The wordtừ cameđã đến into you, and you're makingchế tạo these predictionsdự đoán all the time.
255
682000
3000
Từ đó đến với bạn, và bạn luôn luôn tiên đoán.
11:50
And then, what I'm sayingnói is,
256
685000
2000
Thế thì cái tôi đang nói là
11:52
is that the eternalvĩnh cửu predictiondự đoán is the outputđầu ra in the neocortextân tràng.
257
687000
2000
khả năng tiên đoán vĩnh viễn là kết quả trong vỏ não.
11:54
And that somehowbằng cách nào đó, predictiondự đoán leadsdẫn to intelligentthông minh behaviorhành vi.
258
689000
3000
Và bằng cách nào đó, sự tiên đoán dẫn tới ứng xử thông minh.
11:57
And here'sđây là how that happensxảy ra. Let's startkhởi đầu with a non-intelligentkhông thông minh brainóc.
259
692000
3000
Cách nó làm là thế này. Hãy thử với một bộ não không thông minh.
12:00
Well I'll arguetranh luận a non-intelligentkhông thông minh brainóc, we got holdgiữ of an old brainóc,
260
695000
4000
Tôi sẽ lý luận với bộ não không thông minh, lấy một bộ não xưa cũ,
12:04
and we're going to say it's like a non-mammalthú, like a reptilebò sát,
261
699000
3000
không phải của loài có vú, lấy của bò sát vậy,
12:07
so I'll say, an alligatorcá sấu; we have an alligatorcá sấu.
262
702000
2000
chẳng hạn như cá sấu. Ta có một con cá sấu.
12:09
And the alligatorcá sấu has some very sophisticatedtinh vi sensesgiác quan.
263
704000
3000
Con cá sấu có vài cơ quan cảm thụ rất phức tạp.
12:12
It's got good eyesmắt and earsđôi tai and touchchạm sensesgiác quan and so on,
264
707000
3000
Nó có mắt tốt và tai và cơ quan cảm giác,
12:15
a mouthmiệng and a nosemũi. It has very complexphức tạp behaviorhành vi.
265
710000
4000
miệng và mũi. Nó có hành xử rất phức tạp.
12:19
It can runchạy and hideẩn giấu. It has fearssợ hãi and emotionscảm xúc. It can eatăn you, you know.
266
714000
4000
Nó có thể chạy và trốn. Nó biết sợ và biết cảm xúc. Nó có thể ăn thịt bạn.
12:23
It can attacktấn công. It can do all kindscác loại of stuffđồ đạc.
267
718000
4000
Nó có thể tấn công. Làm được mọi thứ.
12:27
But we don't considerxem xét the alligatorcá sấu very intelligentthông minh, not like in a humanNhân loại sortsắp xếp of way.
268
722000
5000
Nhưng ta không xem con cá sấu thông minh lắm, không như con người.
12:32
But it has all this complexphức tạp behaviorhành vi alreadyđã.
269
727000
2000
Nhưng hành xử của nó đã phức tạp rồi.
12:34
Now, in evolutionsự phát triển, what happenedđã xảy ra?
270
729000
2000
Thế thì trong quá trình tiến hóa, cái gì đã xảy ra?
12:36
First thing that happenedđã xảy ra in evolutionsự phát triển with mammalsđộng vật có vú,
271
731000
3000
Đầu tiên là với loài có vú,
12:39
we startedbắt đầu to developphát triển, xây dựng a thing calledgọi là the neocortextân tràng.
272
734000
2000
ta bắt đầu phát triển cái gọi là vỏ não.
12:41
And I'm going to representđại diện the neocortextân tràng here,
273
736000
2000
Tôi sẽ đại diện vỏ não
12:43
by this boxcái hộp that's stickingbám dính on tophàng đầu of the old brainóc.
274
738000
2000
bằng cái hộp chui ra khỏi phần đầu của não cũ.
12:45
NeocortexNeocortex meanscó nghĩa newMới layerlớp. It is a newMới layerlớp on tophàng đầu of your brainóc.
275
740000
3000
Võ nào là một lớp mới nằm trên não của bạn.
12:48
If you don't know it, it's the wrinklyđầy vết nhăn thing on the tophàng đầu of your headcái đầu that,
276
743000
3000
Nếu bạn chưa biết, nó là thứ nhăn nheo ở trên đầu bạn,
12:51
it's got wrinklyđầy vết nhăn because it got shovedđẩy in there and doesn't fitPhù hợp.
277
746000
3000
nó nhăn bởi vì bị nhét vô mà không vừa.
12:54
(LaughterTiếng cười)
278
749000
1000
(Cười)
12:55
No, really, that's what it is. It's about the sizekích thước of a tablebàn napkinkhăn ăn.
279
750000
2000
Không thật ra nó là vậy. Nó có cỡ một tấm khăn ăn.
12:57
And it doesn't fitPhù hợp, so it getsđược all wrinklyđầy vết nhăn. Now look at how I've drawnrút ra this here.
280
752000
3000
Và nó không vừa nên bị nhăn. Giờ hãy nhìn xem tôi vẽ.
13:00
The old brainóc is still there. You still have that alligatorcá sấu brainóc.
281
755000
4000
Bộ não cũ vấn đó. Bạn vẫn có não của con cá sấu.
13:04
You do. It's your emotionalđa cảm brainóc.
282
759000
2000
Đúng vậy. Đó là não dành cho cảm xúc.
13:06
It's all those things, and all those gutruột reactionsphản ứng you have.
283
761000
3000
Đó dành cho những phản ứng bản năng của bạn.
13:09
And on tophàng đầu of it, we have this memoryký ức systemhệ thống calledgọi là the neocortextân tràng.
284
764000
3000
Và bên trên nó, ta có hệ thống bộ nhớ được gọi là vỏ não.
13:12
And the memoryký ức systemhệ thống is sittingngồi over the sensorygiác quan partphần of the brainóc.
285
767000
4000
Và hệ thống bộ nhớ nằm bên trên phần cảm nhận của não.
13:16
And so as the sensorygiác quan inputđầu vào comesđến in and feedsnguồn cấp dữ liệu from the old brainóc,
286
771000
3000
Và khi các dữ liệu cảm nhận đến với bộ não cũ,
13:19
it alsocũng thế goesđi up into the neocortextân tràng. And the neocortextân tràng is just memorizingghi nhớ.
287
774000
4000
nó cũng đến vỏ não. Và vỏ não chỉ ghi nhớ lại.
13:23
It's sittingngồi there sayingnói, ahah, I'm going to memorizeghi nhớ all the things that are going on:
288
778000
4000
Nó ngồi đó và nói là, việc của mình là nhớ hết những gì diễn ra.
13:27
where I've been, people I've seenđã xem, things I've heardnghe, and so on.
289
782000
2000
mình đã ở đâu, gặp ai, nghe thấy gì, cứ như vậy.
13:29
And in the futureTương lai, when it seesnhìn something similargiống to that again,
290
784000
4000
Và trong tương lai, khi nó thấy thứ gì tương tự lần nữa,
13:33
so in a similargiống environmentmôi trường, or the exactchính xác sametương tự environmentmôi trường,
291
788000
3000
trong một môi trường tương tự, hay đúng là môi trường cũ,
13:36
it'llnó sẽ playchơi it back. It'llNó sẽ startkhởi đầu playingđang chơi it back.
292
791000
2000
nó sẽ gợi lại. Nó bắt đầu gợi lại.
13:38
Oh, I've been here before. And when you've been here before,
293
793000
2000
À, tôi đã từng ở đây. Và anh cũng ở đây khi trước,
13:40
this happenedđã xảy ra nextkế tiếp. It allowscho phép you to predicttiên đoán the futureTương lai.
294
795000
3000
có chuyện này đã xảy ra. Nó cho phép bạn tiên đoán tương lai.
13:43
It allowscho phép you to, literallynghĩa đen it feedsnguồn cấp dữ liệu back the signalstín hiệu into your brainóc;
295
798000
4000
Nó cho phép bạn, theo đúng nghĩa đen là đưa lại tín hiệu vào não bạn,
13:47
they'llhọ sẽ let you see what's going to happenxảy ra nextkế tiếp,
296
802000
2000
nó cho phép bạn thấy được cái gì sắp xảy ra,
13:49
will let you hearNghe the wordtừ "sentencecâu" before I said it.
297
804000
3000
sẽ cho bạn nghe được từ "câu" trước khi tôi nói ra.
13:52
And it's this feedingcho ăn back into the old brainóc
298
807000
3000
Và nó gửi thông tin đến bộ não cũ
13:55
that'llđiều đó sẽ allowcho phép you to make very more intelligentthông minh decisionsquyết định.
299
810000
3000
để cho bạn có thể quyết định thông minh hơn.
13:58
This is the mostphần lớn importantquan trọng slidetrượt of my talk, so I'll dwellngự on it a little bitbit.
300
813000
3000
Đây là slide quan trọng nhất của buổi nói chuyện, nên tôi dừng ở đây lâu một chút.
14:01
And so, all the time you say, oh, I can predicttiên đoán the things.
301
816000
4000
Vậy thì bạn luôn có thể nói là, ồ, tôi có thể tiên đoán sự vật.
14:05
And if you're a ratcon chuột and you go throughxuyên qua a mazemê cung, and then you learnhọc hỏi the mazemê cung,
302
820000
3000
Nếu bạn là một con chuột đi trong mê cung, bạn sẽ học được mê cung,
14:08
the nextkế tiếp time you're in a mazemê cung, you have the sametương tự behaviorhành vi,
303
823000
2000
lần kế tiếp bạn đến mê cung, bạn sẽ cư xử y hệt,
14:10
but all of a suddenđột nhiên, you're smarterthông minh hơn
304
825000
2000
nhưng đột nhiên, bạn sẽ thông minh hơn
14:12
because you say, oh, I recognizenhìn nhận this mazemê cung, I know which way to go,
305
827000
3000
vì bạn sẽ nói, à, tôi nhận ra mê cung này, tôi biết đi thế nào,
14:15
I've been here before, I can envisionhình dung the futureTương lai. And that's what it's doing.
306
830000
3000
tôi đã từng ở đây, tôi có thể thấy được tương lai. Đó là cái xảy ra
14:18
In humanscon người -- by the way, this is truethật for all mammalsđộng vật có vú;
307
833000
3000
cho con người và cũng đúng cho mọi loài có vú,
14:21
it's truethật for other mammalsđộng vật có vú -- and in humanscon người, it got a lot worsetệ hơn.
308
836000
2000
nó đúng cho các loài có vú, và ở con người, nó tệ hơn nhiều.
14:23
In humanscon người, we actuallythực ra developedđã phát triển the fronttrước mặt partphần of the neocortextân tràng
309
838000
3000
Ở con người, chúng ta thật ra phát triển phần trước của vỏ não.
14:26
calledgọi là the anteriortrước partphần of the neocortextân tràng. And naturethiên nhiên did a little tricklừa.
310
841000
4000
Và tự nhiên đã có một mẹo.
14:30
It copiedsao chép the posteriorsau partphần, the back partphần, which is sensorygiác quan,
311
845000
2000
Nó chép lại phần sau, là phần cảm giác,
14:32
and put it in the fronttrước mặt partphần.
312
847000
2000
và đưa lên phía trước.
14:34
And humanscon người uniquelyđộc nhất have the sametương tự mechanismcơ chế on the fronttrước mặt,
313
849000
2000
Nên chỉ độc nhất con người có cơ chế hệt như vậy ở phía trước,
14:36
but we use it for motorđộng cơ controlđiều khiển.
314
851000
2000
nhưng ta dùng nó để điều khiển chuyển động (motor control)
14:38
So we are now ablecó thể to make very sophisticatedtinh vi motorđộng cơ planninglập kế hoạch, things like that.
315
853000
3000
Nên ta có thể tạo các chuyển động phức tạp. Tôi không có thời gian
14:41
I don't have time to get into all this, but if you want to understandhiểu không how a brainóc workscông trinh,
316
856000
3000
để nói về mọi thứ, nhưng nếu bạn muốn hiểu cách não hoạt động,
14:44
you have to understandhiểu không how the first partphần of the mammalianđộng vật có vú neocortextân tràng workscông trinh,
317
859000
3000
bạn phải hiểu cách phần đầu của vỏ não của động vật có vú hoạt động,
14:47
how it is we storecửa hàng patternsmẫu and make predictionsdự đoán.
318
862000
2000
cách chúng ta lưu lại mẫu hình và tiên đoán.
14:49
So let me give you a fewvài examplesví dụ of predictionsdự đoán.
319
864000
3000
Vậy để tôi cho bạn vài ví dụ về tiên đoán.
14:52
I alreadyđã said the wordtừ "sentencecâu." In musicÂm nhạc,
320
867000
2000
Tôi đã nói từ "câu". Trong âm nhạc,
14:54
if you've heardnghe a songbài hát before, if you heardnghe JillJill singhát those songsbài hát before,
321
869000
3000
nếu bạn đã nghe một bài hát trước kia, nếu đã nghe Jill hát những bài đó,
14:57
when she singshát them, the nextkế tiếp notechú thích popshiện ra into your headcái đầu alreadyđã --
322
872000
3000
khi cô ấy hát, nốt kế tiếp sẽ bật lên trong đầu bạn --
15:00
you anticipateđoán trước it as you're going. If it was an albumalbum of musicÂm nhạc,
323
875000
2000
bạn mong đợi nó. Nếu nó là một album,
15:02
the endkết thúc of one albumalbum, the nextkế tiếp songbài hát popshiện ra into your headcái đầu.
324
877000
3000
thì hết một album, bài kế tiếp bật lên trong đầu bạn.
15:05
And these things happenxảy ra all the time. You're makingchế tạo these predictionsdự đoán.
325
880000
2000
Và những chuyện này luôn xảy ra. Bạn làm ra các dự đoán.
15:07
I have this thing calledgọi là the alteredthay đổi doorcửa thought experimentthí nghiệm.
326
882000
3000
Tôi có cái gọi là thí nghiệm trong đầu "cửa bị sửa" (thought experiment).
15:10
And the alteredthay đổi doorcửa thought experimentthí nghiệm saysnói, you have a doorcửa at home,
327
885000
3000
Thí nghiệm này nói là, bạn có một cái cửa ở nhà,
15:13
and when you're here, I'm changingthay đổi it, I've got a guy
328
888000
3000
khi bạn đang ở đây, tôi đổi nó đi, tôi có người
15:16
back at your housenhà ở right now, movingdi chuyển the doorcửa around,
329
891000
2000
ở nhà bạn ngay lúc này, dịch cái cửa sang chỗ khác,
15:18
and they're going to take your doorknobpull and movedi chuyển it over two inchesinch.
330
893000
2000
họ lấy tay cầm và dịch nó đi 2 inch.
15:20
And when you go home tonighttối nay, you're going to put your handtay out there,
331
895000
2000
Và khi tối nay bạn về nhà, bạn đưa tay lên,
15:22
and you're going to reachchạm tới for the doorknobpull and you're going to noticeđể ý
332
897000
2000
với tới tay cầm và bạn sẽ nhận thấy là
15:24
it's in the wrongsai rồi spotnơi, and you'llbạn sẽ go, whoawhoa, something happenedđã xảy ra.
333
899000
3000
nó không đúng chỗ, bạn sẽ nói, chà, có gì xảy ra đây.
15:27
It mayTháng Năm take a secondthứ hai to figurenhân vật out what it was, but something happenedđã xảy ra.
334
902000
2000
Chắc mất chừng một giây để hiểu được, nhưng có gì đó đã xảy ra.
15:29
Now I could changethay đổi your doorknobpull in other wayscách.
335
904000
2000
Giờ tôi có thế đổi tay cầm theo cách khác.
15:31
I can make it largerlớn hơn or smallernhỏ hơn, I can changethay đổi its brassthau to silverbạc,
336
906000
2000
Làm cho nó lớn lên hay nhỏ đi, đổi từ bằng đồng sang bằng bạc,
15:33
I could make it a leverđòn bẩy. I can changethay đổi your doorcửa, put colorsmàu sắc on;
337
908000
2000
Tôi có thể chuyển nó thành cái cần. Có thể đổi cửa, sơn màu lên,
15:35
I can put windowscác cửa sổ in. I can changethay đổi a thousandnghìn things about your doorcửa,
338
910000
3000
Có thể đặt cửa sổ. Tôi có thể đổi hàng ngàn thứ với cái cửa của bạn,
15:38
and in the two secondsgiây you take to openmở your doorcửa,
339
913000
2000
và chỉ trong 2 giây bạn mở cửa,
15:40
you're going to noticeđể ý that something has changedđã thay đổi.
340
915000
3000
bạn sẽ nhận ra có gì đó thay đổi.
15:43
Now, the engineeringkỹ thuật approachtiếp cận to this, the AIAI approachtiếp cận to this,
341
918000
2000
Giờ thì, cách tiếp cận kĩ thuật, cách tiếp cận thông minh nhân tạo với vấn đề này,
15:45
is to buildxây dựng a doorcửa databasecơ sở dữ liệu. It has all the doorcửa attributesthuộc tính.
342
920000
3000
là tạo nên một cơ sơ dữ liệu cửa. Nó có tất cả các thuộc tính của cái cửa.
15:48
And as you go up to the doorcửa, you know, let's checkkiểm tra them off one at time.
343
923000
3000
Và bạn sẽ đến bên cái cửa, bạn biết đó, hãy kiểm tra mỗi lần một thứ.
15:51
DoorCửa, doorcửa, doorcửa, you know, colormàu, you know what I'm sayingnói.
344
926000
2000
Cửa, cửa, cửa, bạn biết chứ, màu sắc, bạn biết tôi muốn nói gì.
15:53
We don't do that. Your brainóc doesn't do that.
345
928000
2000
Chúng ta không làm chuyện đó. Não của bạn không làm chuyện đó.
15:55
What your brainóc is doing is makingchế tạo constantkhông thay đổi predictionsdự đoán all the time
346
930000
2000
Cái não làm là luôn tiên đoán ngay lập tức
15:57
about what is going to happenxảy ra in your environmentmôi trường.
347
932000
2000
cái gì sắp xảy ra trong môi trường của bạn.
15:59
As I put my handtay on this tablebàn, I expectchờ đợi to feel it stop.
348
934000
3000
Nếu tôi để tay lên ban, tôi mong là nó sẽ ngừng lại.
16:02
When I walkđi bộ, everymỗi stepbậc thang, if I missedbỏ lỡ it by an eighththứ tám of an inchinch,
349
937000
3000
Khi tôi đi mỗi bước, nếu tôi lỡ khoảng 1/8 inch,
16:05
I'll know something has changedđã thay đổi.
350
940000
2000
tôi biết là có gì đã thay đổi.
16:07
You're constantlyliên tục makingchế tạo predictionsdự đoán about your environmentmôi trường.
351
942000
2000
Bạn liên tục dự đoán về môi trường của mình.
16:09
I'll talk about visiontầm nhìn here brieflyngắn gọn. This is a picturehình ảnh of a womanđàn bà.
352
944000
3000
Tôi sẽ nói về tầm nhìn một chút. Đây là hình của một người phụ nữ.
16:12
And when you look at people, your eyesmắt are caughtbắt
353
947000
2000
Và khi bạn nhìn con người, mắt bạn sẽ chuyên động
16:14
over at two to threesố ba timeslần a secondthứ hai.
354
949000
1000
2 đến 3 lần trong một giây.
16:15
You're not awareý thức of this, but your eyesmắt are always movingdi chuyển.
355
950000
2000
Bạn không ý thức được chuyện này, nhưng mắt bạn luôn dịch chuyển.
16:17
And so when you look at someone'scủa ai đó faceđối mặt,
356
952000
2000
Khi bạn nhìn mặt ai đó,
16:19
you'dbạn muốn typicallythường go from eyemắt to eyemắt to eyemắt to nosemũi to mouthmiệng.
357
954000
2000
một cách đặc trưng, bạn sẽ đi từ mắt sang mắt rồi mũi rồi miệng.
16:21
Now, when your eyemắt movesdi chuyển from eyemắt to eyemắt,
358
956000
2000
Nếu bạn chuyển từ mắt sang mắt,
16:23
if there was something elsekhác there like, a nosemũi,
359
958000
2000
mà có cái gì đó ở đó như là một cái mũi,
16:25
you'dbạn muốn see a nosemũi where an eyemắt is supposedgiả định to be,
360
960000
2000
bạn thấy cái mũi thay vì phải là con mắt,
16:27
and you'dbạn muốn go, oh shitdơ bẩn, you know --
361
962000
3000
bạn sẽ thốt lên, chết rồi --
16:30
(LaughterTiếng cười)
362
965000
1000
(Cười)
16:31
There's something wrongsai rồi about this personngười.
363
966000
2000
Người này có gì đó kì quặc.
16:33
And that's because you're makingchế tạo a predictiondự đoán.
364
968000
2000
Đó là vì bạn đang tiên đoán.
16:35
It's not like you just look over there and say, what am I seeingthấy now?
365
970000
2000
Nó không phải là bạn nhìn qua rồi nói, tôi thấy gì đây?
16:37
A nosemũi, that's okay. No, you have an expectationkỳ vọng of what you're going to see.
366
972000
3000
Mũi hả, cũng ok. Không, bạn mong đợi cái bạn sắp thấy.
16:40
(LaughterTiếng cười)
367
975000
1000
(Cười)
16:41
EveryMỗi singleĐộc thân momentchốc lát. And finallycuối cùng, let's think about how we testthử nghiệm intelligenceSự thông minh.
368
976000
4000
Trong mỗi khoảng khắc. Và cuối cùng, hãy nghĩ về cách ta kiểm tra trí thông minh.
16:45
We testthử nghiệm it by predictiondự đoán. What is the nextkế tiếp wordtừ in this, you know?
369
980000
3000
Ta kiểm tra nó bằng sự tiên đoán. Từ kế tiếp ở đây là gì?
16:48
This is to this as this is to this. What is the nextkế tiếp numbercon số in this sentencecâu?
370
983000
3000
Cái này ứng với cái này cũng như cái này với cái kia. Số kế tiếp là gì trong câu này?
16:51
Here'sĐây là threesố ba visionstầm nhìn of an objectvật.
371
986000
2000
Đây là ba hình hiển thị của một đối tượng.
16:53
What's the fourththứ tư one? That's how we testthử nghiệm it. It's all about predictiondự đoán.
372
988000
4000
Thế thì cái thứ tư là gì? Đó là cách chúng ta kiểm tra nó. Toàn là về tiên đoán.
16:57
So what is the recipecông thức for brainóc theorylý thuyết?
373
992000
3000
Vậy thì công thức cho lý thuyết não là gì?
17:00
First of all, we have to have the right frameworkkhuôn khổ.
374
995000
3000
Đầu tiên, chúng ta phải có cơ cấu đúng.
17:03
And the frameworkkhuôn khổ is a memoryký ức frameworkkhuôn khổ,
375
998000
2000
Và đó là cơ cấu bộ nhớ,
17:05
not a computationtính toán or behaviorhành vi frameworkkhuôn khổ. It's a memoryký ức frameworkkhuôn khổ.
376
1000000
2000
không phải là cơ cấu hành xử hay tính toán. Đó là cơ cấu bộ nhớ.
17:07
How do you storecửa hàng and recallhồi tưởng these sequencestrình tự or patternsmẫu? It's spatio-temporalnhất patternsmẫu.
377
1002000
4000
Làm thế nào mà bạn lưu và gợi lại các chuỗi hay mẫu hình này? Đó là mẫu không và thời gian.
17:11
Then, if in that frameworkkhuôn khổ, you take a bunch of theoreticianstheoreticians.
378
1006000
3000
Rồi thì trong cơ cấu đó, bạn dùng một nhóm các nhà lý thuyết.
17:14
Now biologistsnhà sinh vật học generallynói chung là are not good theoreticianstheoreticians.
379
1009000
2000
Nhà sinh học thường không phải là nhà lý thuyết giỏi.
17:16
It's not always truethật, but in generalchung, there's not a good historylịch sử of theorylý thuyết in biologysinh học.
380
1011000
4000
Không phải luôn là vậy, nhưng thường hay vậy, không có một lịch sử hay về lý thuyết trong sinh học.
17:20
So I foundtìm the besttốt people to work with are physicistsnhà vật lý,
381
1015000
3000
Cho nên tôi thấy những người tốt nhất là nhà vật lý,
17:23
engineersKỹ sư and mathematiciansnhà toán học, who tendcó xu hướng to think algorithmicallyvideo.
382
1018000
3000
kĩ sư và toán học, nhưng người hay nghĩ theo thuật toán.
17:26
Then they have to learnhọc hỏi the anatomygiải phẫu học, and they'vehọ đã got to learnhọc hỏi the physiologysinh lý học.
383
1021000
3000
Rồi thì họ phải học về giải phẫu học, về sinh lý học.
17:29
You have to make these theorieslý thuyết very realisticthực tế in anatomicalgiải phẫu termsđiều kiện.
384
1024000
4000
Bạn phải làm cho các lý thuyết này thật thực tế theo nghĩa giải phẫu học.
17:33
AnyoneBất cứ ai who getsđược up and tellsnói you theirhọ theorylý thuyết about how the brainóc workscông trinh
385
1028000
4000
Ai mà đứng lên nói với bạn lý thuyết về não
17:37
and doesn't tell you exactlychính xác how it's workingđang làm việc in the brainóc
386
1032000
2000
mà không nói được chính xác nó hoạt động trong não thế nào
17:39
and how the wiringHệ thống dây điện workscông trinh in the brainóc, it is not a theorylý thuyết.
387
1034000
2000
và cách nó kết nối trong não, thì đó không phải là lý thuyết.
17:41
And that's what we're doing at the RedwoodRedwood NeuroscienceKhoa học thần kinh InstituteHọc viện.
388
1036000
3000
Và đó là việc chúng tôi đang là ở viện khoa học thần kinh Redwood.
17:44
I would love to have more time to tell you we're makingchế tạo fantastictuyệt diệu progresstiến độ in this thing,
389
1039000
4000
Tôi rất muốn có thêm thời gian để nói rằng chúng tôi đang tiến những bước tuyệt vời,
17:48
and I expectchờ đợi to be back up on this stagesân khấu,
390
1043000
2000
và mong rằng sẽ có dịp quay lại sân khấu này,
17:50
maybe this will be some other time in the not too distantxa xôi futureTương lai and tell you about it.
391
1045000
2000
chắc sẽ có dịp khác không lâu để kể với các bạn.
17:52
I'm really, really excitedbị kích thích. This is not going to take 50 yearsnăm at all.
392
1047000
3000
Tôi rất là háo hức. Sẽ không mất đến 50 năm đâu.
17:55
So what will brainóc theorylý thuyết look like?
393
1050000
2000
Thế thì lý thuyết về não nó như thế nào?
17:57
First of all, it's going to be a theorylý thuyết about memoryký ức.
394
1052000
2000
Trước hết, nó sẽ là lý thuyết về bộ nhớ.
17:59
Not like computermáy vi tính memoryký ức. It's not at all like computermáy vi tính memoryký ức.
395
1054000
3000
Hầu như không như bộ nhớ máy tính đâu.
18:02
It's very, very differentkhác nhau. And it's a memoryký ức of these very
396
1057000
2000
Nó rất là khác. Và nó là bộ nhớ của các khuôn mẫu
18:04
high-dimensionalchiều cao patternsmẫu, like the things that come from your eyesmắt.
397
1059000
3000
nhiều chiều, như những thứ đi từ mắt của bạn.
18:07
It's alsocũng thế memoryký ức of sequencestrình tự.
398
1062000
2000
Nó cũng là bộ nhớ của các chuỗi.
18:09
You cannotkhông thể learnhọc hỏi or recallhồi tưởng anything outsideở ngoài of a sequencetrình tự.
399
1064000
2000
Bạn không thể học hay gợi lại cái gì ở ngoài một chuỗi.
18:11
A songbài hát mustphải be heardnghe in sequencetrình tự over time,
400
1066000
3000
Một bài hát phải được nghe theo trình tự thời gian,
18:14
and you mustphải playchơi it back in sequencetrình tự over time.
401
1069000
3000
và được chơi lại theo trình tự thời gian.
18:17
And these sequencestrình tự are auto-associativelytự động associatively recallednhớ lại, so if I see something,
402
1072000
3000
Và các chuỗi này được gọi lại một cách liên đới tự động, nên nếu tôi thấy gì đó,
18:20
I hearNghe something, it remindsnhắc nhở me of it, and then it playsvở kịch back automaticallytự động.
403
1075000
3000
tôi nghe gì đó, nó gợi cho tôi về nó, và tự động trở lại.
18:23
It's an automatictự động playbackphát lại. And predictiondự đoán of futureTương lai inputsđầu vào is the desiredmong muốn outputđầu ra.
404
1078000
4000
Đó là quá trình trở lại tự động. Và tiên đoán dữ liệu tương lại là kết quả mong muốn.
18:27
And as I said, the theorylý thuyết mustphải be biologicallysinh học accuratechính xác,
405
1082000
3000
Và khi tôi nói, lý thuyết phải chính xác về mặt sinh học,
18:30
it mustphải be testabletestable, and you mustphải be ablecó thể to buildxây dựng it.
406
1085000
2000
nó phải có thể kiểm chứng, và bạn phải biết cách xây dựng nó.
18:32
If you don't buildxây dựng it, you don't understandhiểu không it. So, one more slidetrượt here.
407
1087000
4000
Nếu bạn không xây dựng nó, bạn không hiểu nó. Thế thì, thêm một slide nữa nhé.
18:36
What is this going to resultkết quả in? Are we going to really buildxây dựng intelligentthông minh machinesmáy móc?
408
1091000
4000
Vậy kết quả của việc này là gì? Có phải ta sẽ thật sự tạo nên các máy thông minh?
18:40
AbsolutelyHoàn toàn. And it's going to be differentkhác nhau than people think.
409
1095000
4000
Đương nhiên vậy. Và nó sẽ khác với cái mọi người nghĩ.
18:44
No doubtnghi ngờ that it's going to happenxảy ra, in my mindlí trí.
410
1099000
3000
Không nghi ngờ gì nó sẽ xảy ra, theo suy nghĩ của tôi.
18:47
First of all, it's going to be builtđược xây dựng up, we're going to buildxây dựng the stuffđồ đạc out of siliconsilicon.
411
1102000
4000
Đâu tiên, chúng tôi sẽ tạo nó từ silicon.
18:51
The sametương tự techniqueskỹ thuật we use for buildingTòa nhà siliconsilicon computermáy vi tính memorieskỷ niệm,
412
1106000
3000
Cùng một kĩ thuật mà chúng tôi dùng để tạo bộ nhớ silicon của máy tính,
18:54
we can use for here.
413
1109000
1000
ta có thể dùng được ở đây.
18:55
But they're very differentkhác nhau typesloại of memorieskỷ niệm.
414
1110000
2000
Nhưng chúng là loại bộ nhớ rất khác.
18:57
And we're going to attachđính kèm these memorieskỷ niệm to sensorscảm biến,
415
1112000
2000
Và chúng tôi sẽ gắn các bộ nhớ này vào các cảm biến,
18:59
and the sensorscảm biến will experiencekinh nghiệm real-liveReal-live, real-worldthế giới thực datadữ liệu,
416
1114000
3000
và các cảm biến sẽ cảm nhận dữ liệu của thế giới thật,
19:02
and these things are going to learnhọc hỏi about theirhọ environmentmôi trường.
417
1117000
2000
những thứ này sẽ học về môi trường của chúng.
19:04
Now it's very unlikelykhông chắc the first things you're going to see are like robotsrobot.
418
1119000
3000
Nhiều phần những thứ đầu tiên bạn thấy sẽ không phải là robot.
19:07
Not that robotsrobot aren'tkhông phải usefulhữu ích and people can buildxây dựng robotsrobot.
419
1122000
3000
Không phải là robot vô dụng và người ta có thể tạo được robot.
19:10
But the roboticsrobot partphần is the hardestkhó nhất partphần. That's the old brainóc. That's really hardcứng.
420
1125000
4000
Nhưng robot là phần khó nhất. Đó là não cũ, là cái khó nhất.
19:14
The newMới brainóc is actuallythực ra kindloại of easierdễ dàng hơn than the old brainóc.
421
1129000
2000
Bộ não mới thật ra dễ hơn não cũ.
19:16
So the first thing we're going to do are the things that don't requireyêu cầu a lot of roboticsrobot.
422
1131000
3000
Nên việc đầu tiên chúng tôi làm là những thứ không đòi hỏi nhiều về robot.
19:19
So you're not going to see C-C-3POPO.
423
1134000
2000
Nên bạn sẽ không thấy C-3PO đâu.
19:21
You're going to more see things like, you know, intelligentthông minh carsxe hơi
424
1136000
2000
Bạn sẽ thấy nhiều thứ như xe hơi thông minh
19:23
that really understandhiểu không what trafficgiao thông is and what drivingđiều khiển is
425
1138000
3000
thật sự hiểu được giao thông và lái xe là gì
19:26
and have learnedđã học that certainchắc chắn typesloại of carsxe hơi with the blinkersblinkers on for halfmột nửa a minutephút
426
1141000
3000
và đã học được rằng những xe chớp đèn trong hơn nửa phút
19:29
probablycó lẽ aren'tkhông phải going to turnxoay, things like that.
427
1144000
2000
chắc là sẽ không quẹo đâu, những thứ như vậy đó.
19:31
(LaughterTiếng cười)
428
1146000
1000
(Cười)
19:32
We can alsocũng thế do intelligentthông minh securityBảo vệ systemshệ thống.
429
1147000
2000
Ta cũng có thể tạo ra các hệ thống an ninh thông minh.
19:34
AnywhereBất cứ nơi nào where we're basicallyvề cơ bản usingsử dụng our brainóc, but not doing a lot of mechanicscơ học.
430
1149000
4000
Ở bất kì nơi nào mà ta đơn giản là dùng bộ não, nhưng không động chân động tay.
19:38
Those are the things that are going to happenxảy ra first.
431
1153000
2000
Đó là những thứ sẽ xảy ra trước.
19:40
But ultimatelycuối cùng, the world'scủa thế giới the limitgiới hạn here.
432
1155000
2000
Nhưng cuối cùng, thế giới chính là giới hạn.
19:42
I don't know how this is going to turnxoay out.
433
1157000
2000
Tôi không biết nó sẽ trở nên thế nào.
19:44
I know a lot of people who inventedphát minh the microprocessorbộ vi xử lý
434
1159000
2000
Tôi biết nhiều người đã đầu tư vào bộ vi xử lý
19:46
and if you talk to them, they knewbiết what they were doing was really significantcó ý nghĩa,
435
1161000
5000
và nếu bạn nói chuyện với họ, họ đã biết rằng cái họ làm rất quan trọng,
19:51
but they didn't really know what was going to happenxảy ra.
436
1166000
3000
nhưng họ thật ra đã không biết cái gì sẽ xảy ra.
19:54
They couldn'tkhông thể anticipateđoán trước celltế bào phonesđiện thoại and the InternetInternet and all this kindloại of stuffđồ đạc.
437
1169000
5000
Họ không chờ đợi điện thoại di động, internet hay những thứ khác.
19:59
They just knewbiết like, hey, they were going to buildxây dựng calculatorsmáy tính
438
1174000
2000
Họ chỉ biết là, ờ, phải tạo nên máy tính
20:01
and trafficgiao thông lightánh sáng controllersbộ điều khiển. But it's going to be biglớn.
439
1176000
2000
và bộ điều khiển tín hiệu giao thông. Nhưng rồi nó sẽ phát triển lớn lắm.
20:03
In the sametương tự way, this is like brainóc sciencekhoa học and these memorieskỷ niệm
440
1178000
3000
Cũng hệt như vậy, đây là khoa học về não vào bộ nhớ
20:06
are going to be a very fundamentalcăn bản technologyCông nghệ, and it's going to leadchì
441
1181000
3000
sẽ trở thành công nghệ cơ bản, và sẽ dẫn đến
20:09
to very unbelievableKhông thể tin được changesthay đổi in the nextkế tiếp 100 yearsnăm.
442
1184000
3000
nhưng thay đổi không thể tin được trong 100 năm nữa.
20:12
And I'm mostphần lớn excitedbị kích thích about how we're going to use them in sciencekhoa học.
443
1187000
4000
Và tôi háo hức nhất về cách chúng ta sẽ dùng chúng trong khoa học.
20:16
So I think that's all my time, I'm over it, and I'm going to endkết thúc my talk
444
1191000
3000
Tôi nghĩ là hết giờ rồi, tôi xong rồi và xin dừng bài nói
20:19
right there.
445
1194000
1000
ở đây.
Translated by Hoa Nguyen
Reviewed by Dang Trang Nguyen

▲Back to top

ABOUT THE SPEAKER
Jeff Hawkins - Computer designer, brain researcher
Jeff Hawkins pioneered the development of PDAs such as the Palm and Treo. Now he's trying to understand how the human brain really works, and adapt its method -- which he describes as a deep system for storing memory -- to create new kinds of computers and tools.

Why you should listen

Jeff Hawkins' Palm PDA became such a widely used productivity tool during the 1990s that some fanatical users claimed it replaced their brains. But Hawkins' deepest interest was in the brain itself. So after the success of the Palm and Treo, which he brought to market at Handspring, Hawkins delved into brain research at the Redwood Center for Theoretical Neuroscience in Berkeley, Calif., and a new company called Numenta.

Hawkins' dual goal is to achieve an understanding of how the human brain actually works -- and then develop software to mimic its functionality, delivering true artificial intelligence. In his book On Intelligence (2004) he lays out his compelling, controversial theory: Contrary to popular AI wisdom, the human neocortex doesn't work like a processor; rather, it relies on a memory system that stores and plays back experiences to help us predict, intelligently, what will happen next. He thinks that "hierarchical temporal memory" computer platforms, which mimic this functionality (and which Numenta might pioneer), could enable groundbreaking new applications that could powerfully extend human intelligence.

More profile about the speaker
Jeff Hawkins | Speaker | TED.com