ABOUT THE SPEAKER
Jeff Hawkins - Computer designer, brain researcher
Jeff Hawkins pioneered the development of PDAs such as the Palm and Treo. Now he's trying to understand how the human brain really works, and adapt its method -- which he describes as a deep system for storing memory -- to create new kinds of computers and tools.

Why you should listen

Jeff Hawkins' Palm PDA became such a widely used productivity tool during the 1990s that some fanatical users claimed it replaced their brains. But Hawkins' deepest interest was in the brain itself. So after the success of the Palm and Treo, which he brought to market at Handspring, Hawkins delved into brain research at the Redwood Center for Theoretical Neuroscience in Berkeley, Calif., and a new company called Numenta.

Hawkins' dual goal is to achieve an understanding of how the human brain actually works -- and then develop software to mimic its functionality, delivering true artificial intelligence. In his book On Intelligence (2004) he lays out his compelling, controversial theory: Contrary to popular AI wisdom, the human neocortex doesn't work like a processor; rather, it relies on a memory system that stores and plays back experiences to help us predict, intelligently, what will happen next. He thinks that "hierarchical temporal memory" computer platforms, which mimic this functionality (and which Numenta might pioneer), could enable groundbreaking new applications that could powerfully extend human intelligence.

More profile about the speaker
Jeff Hawkins | Speaker | TED.com
TED2003

Jeff Hawkins: How brain science will change computing

ჯეფ ჰოუკინსი - "როგორ შეცვლის კოგნიტიური მეცნიერებები კომპიუტერულ მეცნიერებებს"

Filmed:
1,674,773 views

Treo-ს შემქმნელი ჯეფ ჰოუკინსი გვთავაზობს, შევხედოთ ადამიანს ტვინს განსხვავებული კუთხიდან - არა როგორც სწრაფ პროცესორს, არამედ როგორც დამახსოვრების სისტემას, რომელიც იმახსოვრებს და უკან ახვევს გამოცდილებებს, რათა დაგვეხმაროს მომავლის პროგნოზირებაში
- Computer designer, brain researcher
Jeff Hawkins pioneered the development of PDAs such as the Palm and Treo. Now he's trying to understand how the human brain really works, and adapt its method -- which he describes as a deep system for storing memory -- to create new kinds of computers and tools. Full bio

Double-click the English transcript below to play the video.

00:25
I do two things: I design mobile computers and I study brains.
0
0
3000
მე ორ სფეროში ვსაქმიანობ: ვაკეთებ მობილურ კომპიუტერებს და ვსწავლობ ადამიანის ტვინს.
00:29
And today's talk is about brains and,
1
4000
2000
და დღევანდელი ჩემი მოხსენება შეეხება ადამიანის ტვინს,
00:31
yay, somewhere I have a brain fan out there.
2
6000
2000
ჰუჰ, აქ ვიღაც ტვინის ფანი ყოფილა .
00:33
(Laughter)
3
8000
2000
(სიცილი)
00:35
I'm going to, if I can have my first slide up here,
4
10000
2000
გაჩვენებთ ჩემს პირველ სლაიდს
00:37
and you'll see the title of my talk and my two affiliations.
5
12000
4000
და თქვენ ნახავთ ჩემი მოხსენების სათაურს და ჩემს ორ საქმიანობის სფეროს.
00:41
So what I'm going to talk about is why we don't have a good brain theory,
6
16000
4000
მოკლედ, მინდა ვისაუბრო, თუ რატომ არ გვაქვს ტვინის ნორმალური თეორია,
00:45
why it is important that we should develop one and what we can do about it.
7
20000
3000
რატომ არის აუცილებელი, რომ განვავითაროთ ასეთი თეორია და რა უნდა გავაკეთოთ ამ სფეროში.
00:48
And I'll try to do all that in 20 minutes. I have two affiliations.
8
23000
3000
ვეცდები ეს ყველაფერი 20 წუთში მოგახსენოთ. მე ორ ორგანიზაციას მივეკუთვნები
00:51
Most of you know me from my Palm and Handspring days,
9
26000
3000
უმეტესობა მიცნობთ Palm-დან და Handspring-დან,
00:54
but I also run a nonprofit scientific research institute
10
29000
3000
მაგრამ მე ასევე ვხელმძღვანელობ არაკომერციულ სამეცნიერო კვლევის ინსტიტუტს,
00:57
called the Redwood Neuroscience Institute in Menlo Park,
11
32000
2000
რომელსაც ჰქვია Redwood Neuroscience Institute მენლო პარკში,
00:59
and we study theoretical neuroscience,
12
34000
2000
და ჩვენ ვსწავლობთ თეორიულ ნეირომეცნიერებას,
01:01
and we study how the neocortex works.
13
36000
2000
და ვსწავლობთ, თუ როგორ მუშაობს ნეოკორტექსი.
01:03
I'm going to talk all about that.
14
38000
2000
ახლა ამის შესახებ ვაპირებ საუბარს.
01:05
I have one slide on my other life, the computer life, and that's the slide here.
15
40000
3000
აქ ერთი სლაიდი მაქვს ჩემს მეორე ცხოვრებაზე, კომპიუტერულ ცხოვრებაზე.
01:08
These are some of the products I've worked on over the last 20 years,
16
43000
3000
ეს არის რამდენიმე ის პროდუქტი, რომლებზეც ვმუშაობდი ბოლო 20 წლის განმავლობაში,
01:11
starting back from the very original laptop to some of the first tablet computers
17
46000
4000
დაწყებული პირველი თაობის ლეპტოპით დამთავრებული პირველი პლანშეტური კომპიუტერით
01:15
and so on, and ending up most recently with the Treo,
18
50000
2000
და ა.შ. სულ ბოლოს აღმოვჩნდი Treo-ში,
01:17
and we're continuing to do this.
19
52000
2000
და ჩვენ ვაგრძელებთ მსგავსი რამეების კეთებას.
01:19
And I've done this because I really believe that mobile computing
20
54000
2000
მე ვაკეთებ ამას, რადგან ნამდვილად მჯერა, რომ მობილური კომპიუტერები
01:21
is the future of personal computing, and I'm trying to make the world
21
56000
3000
არის პერსონალური კომპიუტერების მომავალი, და ვცდილობ, რომ ამ საგნებზე მუშაობით
01:24
a little bit better by working on these things.
22
59000
3000
ეს სამყარო გავხადო თუნდაც ცოტათი უკეთესი.
01:27
But this was, I have to admit, all an accident.
23
62000
2000
თუმცა ყველაფერი ეს, უნდა ვაღიარო, რომ შემთხვევითობა იყო.
01:29
I really didn't want to do any of these products
24
64000
2000
მე სინამდვილეში არ მინდოდა გამეკეთებინა რომელიმე ეს პროდუქტი
01:31
and very early in my career I decided
25
66000
2000
და ჩემი კარიერის ძალიან ადრეულ ეტაპზე მე გადავწყვიტე,
01:33
I was not going to be in the computer industry.
26
68000
3000
რომ არ ვიქნებოდი ჩაბმული კომპიუტერულ ინდუსტრიაში.
01:36
And before I tell you about that, I just have to tell you
27
71000
2000
სანამ ამაზე მოგახსენებთ, მინდა ესეც გითხრათ:
01:38
this one little picture of graffiti there I picked off the web the other day.
28
73000
2000
მოკლედ, აქ მაქვს გრაფიტის პატარა სურათი, რომელიც ინტერნეტიდან ავიღე რამდენიმე დღის წინ.
01:40
I was looking for a picture of graffiti, little text input language,
29
75000
3000
ვეძებდი მცირე ტექსტის შემყვანი ენის ვიზუალურ სურათს, რომელსაც გრაფიტი ჰქვია
01:43
and I found the website dedicated to teachers who want to make these,
30
78000
3000
და ვიპოვე მასწავლებლების ვებსაიტი, რომლებსაც ამის გაკეთება უნდათ,
01:46
you know, the script writing things across the top of their blackboard,
31
81000
3000
ანუ ამგვარი ხელნაწერის ამომცნობი რაღაცის დამატება დაფის ზედა ნაწილში,
01:49
and they had added graffiti to it, and I'm sorry about that.
32
84000
3000
და მათ ამისთვის გრაფიტი გამოიყენეს, რის გამოც ძალიან ვწუხვარ.
01:52
(Laughter)
33
87000
2000
(სიცილი)
01:54
So what happened was, when I was young and got out of engineering school
34
89000
5000
მოკლედ, როცა ვიყავი ახალგაზრდა და დავამთავრე ინჟინერიის სკოლა,
01:59
at Cornell in '79, I decided -- I went to work for Intel and
35
94000
4000
კორნელში 1979 წელს, გადავწყვიტე, რომ მემუშავა "ინტელში".
02:03
I was in the computer industry -- and three months into that,
36
98000
3000
მე უკვე სამი თვე ვიყავი ჩაბმული კომპიუტერულ ინდუსტრიაში
02:06
I fell in love with something else, and I said, "I made the wrong career choice here,"
37
101000
4000
და უცბად შემიყვარდა სრულიად სხვა რამ და ვთქვი, რომ "მე გავაკეთე არასწორი კარიერული არჩევანი,"
02:10
and I fell in love with brains.
38
105000
3000
მე შემიყვარდა ტვინები.
02:13
This is not a real brain. This is a picture of one, a line drawing.
39
108000
3000
ეს ნამდვილი ტვინი არ არის. სურათია, ხაზებით დახატული.
02:16
But I don't remember exactly how it happened,
40
111000
3000
ზუსტად არ მახსოვს, როგორ მოხდა
02:19
but I have one recollection, which was pretty strong in my mind.
41
114000
3000
მაგრამ ერთი მოგონება მაქვს, რომელიც გონებაში მყარად აღმებეჭდა.
02:22
In September 1979, Scientific American came out
42
117000
3000
1979 წლის სექტემბეში, ჟურნალ "Scientific American"-ის ახალი ნომერი გამოვიდა,
02:25
with a single topic issue about the brain. And it was quite good.
43
120000
3000
რომელიც მთლიანად ეძღვენებოდა ტვინის თემას. მართლა კარგი ნომერი იყო.
02:28
It was one of the best issues ever. And they talked about the neuron
44
123000
3000
უფრო სწორედ, ამ ჟურნალის ერთ-ერთი ყველაზე საუკეთესო ნომერი. და ისინი საუბრობდნენ ნეირონზე
02:31
and development and disease and vision and all the things
45
126000
2000
განვითარებაზე, დაავადებაზე, ხედვასა და ყველა იმ საკითხზე
02:33
you might want to know about brains. It was really quite impressive.
46
128000
3000
რაც შეიძლება რომ გაინტერესებდეთ ტვინების შესახებ. ეს ყველაფერი ნამდვილად შთამბეჭდავი იყო.
02:36
And one might have the impression that we really knew a lot about brains.
47
131000
3000
ვიღაცას შეიძლება შეჰქმნოდა ისეთი შთაბეჭდილება, რომ ტვინების შესახებ ბევრი რამ ვიცით.
02:39
But the last article in that issue was written by Francis Crick of DNA fame.
48
134000
4000
ერთ-ერთი სტატია იმ ნომერში იყო ფრენსის კრიკის, დნმ-ის აღმომჩენის.
02:43
Today is, I think, the 50th anniversary of the discovery of DNA.
49
138000
3000
დღეს, როგორც ვიცი, დნმ-ის აღმოჩენის 50-ე წლისთავია.
02:46
And he wrote a story basically saying,
50
141000
2000
და ის წერდა,
02:48
well, this is all well and good, but you know what,
51
143000
3000
რომ ეს ყველაფერი ძალიან კარგი და გასაგებია, მაგრამ იცით რა,
02:51
we don't know diddley squat about brains
52
146000
2000
ჩვენ სინამდვილეში არაფერი ვიცით ტვინების შესახებ
02:53
and no one has a clue how these things work,
53
148000
2000
და არავის წარმოდგენაც არ აქვს, თუ როგორ მუშაობენ ისინი,
02:55
so don't believe what anyone tells you.
54
150000
2000
ამიტომ არ დაიჯეროთ, ამ საკითხზე რასაც გეტყვიან.
02:57
This is a quote from that article. He said, "What is conspicuously lacking,"
55
152000
3000
აი, ციტატა იმ სტატიიდან. იგი ამბობდა, "რაც მხედველობიდან აშკარად გვაკლია,"
03:00
he's a very proper British gentleman so, "What is conspicuously lacking
56
155000
4000
ის ნამდვილი ბრიტანელი ჯენტლმენია, "რაც მხედველობიდან აშკარად გვაკლია,
03:04
is a broad framework of ideas in which to interpret these different approaches."
57
159000
3000
არის ფართო ჩარჩო იდეებისა, რითაც შევძლებდით ამ სხვადასხვა მიდგომების ინტერპრეტირებას."
03:07
I thought the word framework was great.
58
162000
2000
მე ვიფიქრე, რომ სიტყვა "ჩარჩო" მართლაც დიდებული იყო.
03:09
He didn't say we didn't even have a theory. He says,
59
164000
2000
მან ის კი არ თქვა, ჩვენ თეორიაც კი არ გვაქვსო. მან თქვა, რომ
03:11
we don't even know how to begin to think about it --
60
166000
2000
ჩვენ ისიც კი არ ვიცით, როგორ დავიწყოთ ამაზე ფიქრიო -
03:13
we don't even have a framework.
61
168000
2000
ჩვენ ჩარჩოც კი არ გვაქვსო.
03:15
We are in the pre-paradigm days, if you want to use Thomas Kuhn.
62
170000
3000
ჩვენ პრე-პარადიგმულ პერიოდში ვართ, თუ ტომას კუნის ლექსიკონს გამოვიყენებთ.
03:18
And so I fell in love with this, and said look,
63
173000
3000
მოკლედ, მე შემიყვარდა ეს ყველაფერი და ვთქვი, რომ
03:21
we have all this knowledge about brains. How hard can it be?
64
176000
3000
თუ ამდენი ცოდნა გვაქვს ტვინებზე, რატომ უნდა იყოს ჩარჩოს შემუშავება რთული?
03:24
And this is something we can work on my lifetime. I felt I could make a difference,
65
179000
3000
ეს ის არის, რაზეც შეიძლება ვიმუშავოთ მთელი ცხოვრების მანძილზე. ვგრძნობდი, რომ შემეძლო გარდატეხა შემეტანა
03:27
and so I tried to get out of the computer business, into the brain business.
66
182000
4000
და ვეცადე, რომ გამოვსულიყავი კომპიუტერების ბიზნესიდან და შევსულიყავი ტვინის ბიზნესში.
03:31
First, I went to MIT, the AI lab was there,
67
186000
2000
პირველად, მე მივედი მასაჩუსეტსის ტექნოლოგიურ ინსტიტუტში, სადაც იყო ხელოვნური ინტელექტის ლაბორატორია
03:33
and I said, well, I want to build intelligent machines, too,
68
188000
2000
და ვუთხარი, რომ მე მინდა ჭკვიანი მანქანების შექმნაც.
03:35
but the way I want to do it is to study how brains work first.
69
190000
3000
და ამისათვის თავპირველად უნდა შევისწავლო, თუ როგორ მუშაობს ტვინები.
03:38
And they said, oh, you don't need to do that.
70
193000
3000
მათ მითხრეს, რომ უჰ, ამის გაკეთება არ გჭირდებაო.
03:41
We're just going to program computers; that's all we need to do.
71
196000
2000
ჩვენ უბრალოდ გვინდა კომპიუტერების დაპროგრამირება, სულ ეს არის, რაც გვინდაო.
03:43
And I said, no, you really ought to study brains. They said, oh, you know,
72
198000
3000
და მე ვუთხარი, რომ არა, თქვენ აუცილებლად უნდა შეისწავლოთ ტვინები. მათ მითხრეს, რომ ვცდები.
03:46
you're wrong. And I said, no, you're wrong, and I didn't get in.
73
201000
2000
მე ვუთხარი, რომ მე კი არ ვცდები, თქვენ ცდებით-მეთქი და არაფერი გამოვიდა.
03:48
(Laughter)
74
203000
1000
(სიცილი)
03:50
But I was a little disappointed -- pretty young -- but I went back again
75
205000
2000
ცოტა იმედგაცრუებული ვიყავი - საკმაოდ ახალგაზრდა, მაგრამ მაინც უკან დავბრუნდი
03:52
a few years later and this time was in California, and I went to Berkeley.
76
207000
3000
რამდენიმე წლის შემდეგ, ამჯერად კალიფორნიაში, ბერკლიში.
03:55
And I said, I'll go in from the biological side.
77
210000
4000
და ვთქვი, რომ ამ ყველაფერს მივუდგებოდი ბიოლოგიის კუთხიდან.
03:59
So I got in -- in the Ph.D. program in biophysics, and I was, all right,
78
214000
3000
დავიცავი სადოქტორო ბიოფიზიკაში და ყველაფერი კარგად მიდიოდა:
04:02
I'm studying brains now, and I said, well, I want to study theory.
79
217000
3000
ვსწავლობდი ტვინებს... მაგრამ შემდეგ ვთქვი, რომ მინდოდა მესწავლა თეორია.
04:05
And they said, oh no, you can't study theory about brains.
80
220000
2000
მათ მითხრეს, რომ ოჰ, არა, შენ ვერ შეისწავლი თეორიას ტვინების შესახებო.
04:07
That's not something you do. You can't get funded for that.
81
222000
2000
ამისთვის დაფინანსებას ვერ მიიღებო.
04:09
And as a graduate student, you can't do that. So I said, oh my gosh.
82
224000
4000
და როგორც სადოქტოროს სტუდენტი, ამას ვერ იზამო.
04:13
I was very depressed. I said, but I can make a difference in this field.
83
228000
2000
დეპრესიაში ჩავვარდი, მაგრამ ვთქვი, რომ ამ სფეროში გარდატეხის შეტანა შემიძლია-მეთქი.
04:15
So what I did is I went back in the computer industry
84
230000
3000
ავდექი და დავბრუნდი კომპიუტერულ ინდუსტრიაში
04:18
and said, well, I'll have to work here for a while, do something.
85
233000
2000
და ვთქვი, რომ აქ ვიმუშავებდი რამდენიმე ხნის მანძილზე.
04:20
That's when I designed all those computer products.
86
235000
3000
ასე გავაკეთე ეს კომპიუტერული პროდუქტები.
04:23
(Laughter)
87
238000
1000
(სიცილი)
04:24
And I said, I want to do this for four years, make some money,
88
239000
3000
ვთქვი, რომ ამ ყველაფერს გავაკეთებდი ოთხი წლის მანძილზე, გარკვეულ თანხას დავაგროვებდი,
04:27
like I was having a family, and I would mature a bit,
89
242000
4000
რადგან მყავდა ოჯახი, მოვმწიფდებოდი,
04:31
and maybe the business of neuroscience would mature a bit.
90
246000
3000
და შესაძლოა ამასობაში ნეირომეცნიერების ბიზნესიც მომწიფებულიყო.
04:34
Well, it took longer than four years. It's been about 16 years.
91
249000
3000
სინამდვილეში, ამ ყველაფერში 4 წელზე მეტი დრო გავიდა, დაახლოებით 16 წელი.
04:37
But I'm doing it now, and I'm going to tell you about it.
92
252000
2000
მაგრამ ტვინებზე უკვე ახლა ვმუშაობ, რაზეც უნდა მოგიყვეთ კიდეც.
04:39
So why should we have a good brain theory?
93
254000
3000
რატომ უნდა გვქონდეს ტვინების კარგი თეორია?
04:42
Well, there's lots of reasons people do science.
94
257000
3000
არის ბევრი მიზეზია, რატომაც ადამიანები მისდევენ მეცნიერებას.
04:45
One is -- the most basic one is -- people like to know things.
95
260000
3000
პირველი და ყველაზე მთავარი, რომ ადამიანებს უყვართ რაღაცების ცოდნა.
04:48
We're curious, and we just go out and get knowledge, you know?
96
263000
2000
ჩვენ ვართ ცნობისმოყვარენი, გავდივართ და ვღებულობთ ცოდნას.
04:50
Why do we study ants? Well, it's interesting.
97
265000
2000
რატომ ვსწავლობთ ჭიანჭველებს? იმიტომ, რომ საინტერესოა.
04:52
Maybe we'll learn something really useful about it, but it's interesting and fascinating.
98
267000
3000
შეიძლება აქედან რამე პრაქტიკულიც ვისწავლოთ, მაგრამ ეს ნამდვილად საინტერესო და შთამბეჭდავია.
04:55
But sometimes, a science has some other attributes
99
270000
2000
ხანდახან, მეცნიერებას აქვს სხვა მხარეებიც
04:57
which makes it really, really interesting.
100
272000
2000
რაც ხდის მას ძალიან, ძალიან საინტერესოს.
04:59
Sometimes a science will tell something about ourselves,
101
274000
3000
ხანდახან მეცნიერება შეიძლება იყოს რაღაც ჩვენ შესახებ,
05:02
it'll tell us who we are.
102
277000
1000
გვითხრას, თუ ვინ ვართ ჩვენ.
05:03
Rarely, you know: evolution did this and Copernicus did this,
103
278000
3000
მაგრამ იშვიათად; ეს შეძლო ევოლუციამ და კოპერნიკმა,
05:06
where we have a new understanding of who we are.
104
281000
2000
მოგვცეს ჩვენი საკუთარი თავის ახალი გაგება.
05:08
And after all, we are our brains. My brain is talking to your brain.
105
283000
4000
ბოლოსდაბოლოს, ჩვენ ყველანი ვართ ტვინები. ჩემი ტვინი ესაუბრება თქვენს ტვინს.
05:12
Our bodies are hanging along for the ride, but my brain is talking to your brain.
106
287000
3000
ჩვენი სხეულები აქეთ-იქით დაბოდიალობენ, მაგრამ ჩემი ტვინი ესაუბრება თქვენს ტვინს.
05:15
And if we want to understand who we are and how we feel and perceive,
107
290000
3000
თუ გვსურს, რომ გავიგოთ, ვინ ვართ, როგორ ვგრძნობთ და აღვიქვამთ,
05:18
we really understand what brains are.
108
293000
2000
ეს ნიშნავს იმას, რომ უნდა გავიგოთ, რა არის ტვინი.
05:20
Another thing is sometimes science
109
295000
2000
ხდება ისეც, რომ მეცნიერებას ზოგჯერ
05:22
leads to really big societal benefits and technologies,
110
297000
2000
დიდი საზოგადოებრივი სარგებლობა და ტექნოლოგიები მოაქვს,
05:24
or businesses, or whatever, that come out of it. And this is one, too,
111
299000
2000
ან ბიზნესები, ან რაც კი მისგან შეიძლება წარმოიქმნას.
05:26
because when we understand how brains work, we're going to be able
112
301000
3000
როდესაც ჩვენ გავიგებთ, როგორ მუშაობს ტვინი, ჩვენ ასევე შეგვეძლება
05:29
to build intelligent machines, and I think that's actually a good thing on the whole,
113
304000
3000
ავაგოთ ჭკვიანი მანქანები, და ვფიქრობ, ზოგადად ეს მართლაც კარგი რამ იქნება
05:32
and it's going to have tremendous benefits to society,
114
307000
2000
და დიდ სარგებლობას მოუტანს ჩვენს საზოგადოებას
05:34
just like a fundamental technology.
115
309000
2000
როგორც ფუნდამენტალური ტექნოლოგია.
05:36
So why don't we have a good theory of brains?
116
311000
2000
მაშ, რატომ არ გვაქვს ტვინის ნორმალური თეორია?
05:38
And people have been working on it for 100 years.
117
313000
3000
ადამიანები მასზე 100 წელი მუშაობდნენ.
05:41
Well, let's first take a look at what normal science looks like.
118
316000
2000
მოდით, ჯერ შევხედოთ როგორ გამოიყურება ჩვეულებრივი მეცნიერება.
05:43
This is normal science.
119
318000
2000
ეს არის ნორმალური მეცნიერება.
05:45
Normal science is a nice balance between theory and experimentalists.
120
320000
4000
ნორმალური მეცნიერება არის სათანადო ბალანსი თეორიასა და ექსპერიმენტებს შორის.
05:49
And so the theorist guys say, well, I think this is what's going on,
121
324000
2000
ანუ თეორეტიკოსი ამბობს, რომ ესა და ეს პროცესი ხდება
05:51
and the experimentalist says, no, you're wrong.
122
326000
2000
და ექსპერიმენტატორი ეუბნება, რომ არა, მართალი არ ხარ!
05:53
And it goes back and forth, you know?
123
328000
2000
და ესე ხდება წინ და უკან.
05:55
This works in physics. This works in geology. But if this is normal science,
124
330000
2000
ასე ხდება ფიზიკაში, გეოლოგიაში... მაგრამ თუ ნორმალური მეცნიერება ასეთია,
05:57
what does neuroscience look like? This is what neuroscience looks like.
125
332000
3000
მაშინ რა ხდება ნეირომეცნიერებაში? აი, რა ხდება ნეირომეცნიერებაში:
06:00
We have this mountain of data, which is anatomy, physiology and behavior.
126
335000
5000
ჩვენ გვაქვს ზღვა მასალა, მათ შორის ანატომიური, ფიზიოლოგიური და ქცევითი.
06:05
You can't imagine how much detail we know about brains.
127
340000
3000
ვერც კი წარმოიდგენთ, რამდენი დეტალი ვიცით ტვინების შესახებ.
06:08
There were 28,000 people who went to the neuroscience conference this year,
128
343000
4000
ამ წელს 28 000 ადამიანი დაესწრო ნეირომეცნიერების კონფერენციას,
06:12
and every one of them is doing research in brains.
129
347000
2000
და თითოეული მათგანი აკეთებს კვლევას ტვინებზე.
06:14
A lot of data. But there's no theory. There's a little, wimpy box on top there.
130
349000
4000
უამრავი მასალაა, მაგრამ არ არის თეორია. პატარა, მყიფე ყუთია ამ ყველაფრის თავზე.
06:18
And theory has not played a role in any sort of grand way in the neurosciences.
131
353000
5000
თეორიას არ უთამაშია რაიმე სახის წამყვანი როლი ნეირომეცნიერებაში.
06:23
And it's a real shame. Now why has this come about?
132
358000
3000
ეს ნამდვილი სირცხვილია. რატომ მოხდა ასე?
06:26
If you ask neuroscientists, why is this the state of affair,
133
361000
2000
თუ ჰკითხავთ ნეირომეცნიერებს, რატომ ხდება ასე, ისინი
06:28
they'll first of all admit it. But if you ask them, they'll say,
134
363000
3000
პირველ რიგში ამ ყველაფერს აღიარებენ. ისინი ასევე იტყვიან, რომ
06:31
well, there's various reasons we don't have a good brain theory.
135
366000
3000
არსებობს რამდენიმე მიზეზი, რატომაც არ გვაქვს ტვინის ნორმალური თეორია.
06:34
Some people say, well, we don't still have enough data,
136
369000
2000
ზოგიერთი იტყვის, რომ არ არის საკმარისი ინფორმაცია,
06:36
we need to get more information, there's all these things we don't know.
137
371000
3000
გვჭირდება მეტი ინფორმაციის მიღება; უამრავი რამეა, რაც არ ვიცით.
06:39
Well, I just told you there's so much data coming out your ears.
138
374000
3000
მე ახლახანს გითხარით, რომ ინფორმაცია მართლა უამრავია.
06:42
We have so much information, we don't even know how to begin to organize it.
139
377000
3000
იმდენი ინფორმაცია გვაქვს, რომ არც კი ვიცით, როგორ მოვახდინოთ ორგანიზება.
06:45
What good is more going to do?
140
380000
2000
რას გვიზამს უფრო მეტი ინფორმაცია?
06:47
Maybe we'll be lucky and discover some magic thing, but I don't think so.
141
382000
3000
შეიძლება აღმოვჩნდეთ იღბლიანები და რაღაც მაგიური რამ აღმოვაჩინოთ, მაგრამ მაინც არა მგონია.
06:50
This is actually a symptom of the fact that we just don't have a theory.
142
385000
3000
ეს ყველაფერი იმის სიმპტომი უფრო მგონია, რომ თეორია არ გვაქვს.
06:53
We don't need more data -- we need a good theory about it.
143
388000
3000
ჩვენ არ გვჭირდება მეტი ინფორმაცია - ჩვენ გვჭირდება კარგი თეორია ამ ყველაფრის შესახებ.
06:56
Another one is sometimes people say, well, brains are so complex,
144
391000
3000
და კიდევ, ხანდახან ხალხი ამბობს ხოლმე, რომ ტვინები ძალიან რთული და კომპლექსურია,
06:59
it'll take another 50 years.
145
394000
2000
და მომდევნო 50 წელი გვჭირდება მათ გამოსაცნობად.
07:01
I even think Chris said something like this yesterday.
146
396000
2000
კრისმაც კი თქვა ამაზე რაღაც გუშინ.
07:03
I'm not sure what you said, Chris, but something like,
147
398000
2000
ზუსტად აღარ მახსოვს, როგორ თქვი, კრის, მაგრამ მგონი დაახლოებით ის, რომ
07:05
well, it's one of the most complicated things in the universe. That's not true.
148
400000
3000
ტვინი ყველაზე უფრო რთული რამაა სამყაროშიო. არადა, ასე არ არის.
07:08
You're more complicated than your brain. You've got a brain.
149
403000
2000
შენ უფრო რთული მექანიზმი ხარ, ვიდრე შენი ტვინი. შენ გაქვს ტვინი.
07:10
And it's also, although the brain looks very complicated,
150
405000
2000
მართალია, ტვინი ძალიან რთულად გამოიყურება,
07:12
things look complicated until you understand them.
151
407000
3000
მაგრამ საგნები რთულად გამოიყურებიან, სანამ არ ახსნი.
07:15
That's always been the case. And so all we can say, well,
152
410000
3000
ეს ყოველთვის ასე იყო. ამიტომ ყველას შეგვიძლია ვთქვათ, რომ
07:18
my neocortex, which is the part of the brain I'm interested in, has 30 billion cells.
153
413000
4000
ჩემს ნეოკორტექსს, რომელიც არის ტვინის ის ნაწილი, რომელიც მაინტერესებს, აქვს 30 მილიარდი უჯრედი.
07:22
But, you know what? It's very, very regular.
154
417000
2000
მაგრამ იცით რა? ის არის ძალიან, ძალიან რეგულარული.
07:24
In fact, it looks like it's the same thing repeated over and over and over again.
155
419000
3000
სინამდვილეში, ის ისე გამოიყურება, თითქოს ერთი და იგივე რამ ბევრჯერ მეორდებოდეს.
07:27
It's not as complex as it looks. That's not the issue.
156
422000
3000
ის არც ისე რთულია, როგორც ჩანს.
07:30
Some people say, brains can't understand brains.
157
425000
2000
ზოგიერთი ადამიანი ამბობს, რომ ტვინები ვერ ჩაწვდებიან ტვინებს.
07:32
Very Zen-like. Whoo. (Laughter)
158
427000
3000
რაღაც ძენის ფილოსოფიასავით ჟღერს... ვუუუუ....
07:35
You know,
159
430000
1000
(სიცილი)
07:36
it sounds good, but why? I mean, what's the point?
160
431000
3000
კარგად ჟღერს, მაგრამ რატომ? რას გულისხმობს?
07:39
It's just a bunch of cells. You understand your liver.
161
434000
3000
უჯრედების რაღაც ნაკრებია. ჩვენ კარგად გვესმის ჩვენი ღვიძლის.
07:42
It's got a lot of cells in it too, right?
162
437000
2000
ისიც უჯრედების ნაკრებია, არა?
07:44
So, you know, I don't think there's anything to that.
163
439000
2000
ასე რომ, მე არ ვფიქრობ, რომ აქ რამე პრობლემაა.
07:46
And finally, some people say, well, you know,
164
441000
2000
და ბოლოს, ზოგიერთი ადამიანი ამბობს, რომ იცით რა,
07:48
I don't feel like a bunch of cells, you know. I'm conscious.
165
443000
4000
მე არ განვიხილავ ჩემს თავს, როგორც უჯრედების გროვას. მე ვარ ცნობიერი.
07:52
I've got this experience, I'm in the world, you know.
166
447000
2000
მე მაქვს გამოცდილება, ვარსებობ სამყაროში...
07:54
I can't be just a bunch of cells. Well, you know,
167
449000
2000
მე ვერ ვიქნები უჯრედების გროვა.
07:56
people used to believe there was a life force to be living,
168
451000
3000
მაგრამ ხალხს სჯეროდა, რომ არსებობდა სიცოცხლის ძალა
07:59
and we now know that's really not true at all.
169
454000
2000
და ახლა ჩვენ ყველამ ვიცით, რომ ეს მართალი არ არის.
08:01
And there's really no evidence that says -- well, other than people
170
456000
3000
და არ არსებობს მტკიცება, გარდა იმ ადამიანებისა, რომლებიც
08:04
just have disbelief that cells can do what they do.
171
459000
2000
ამბობენ, რომ უჯრედებს შეუძლიათ აკეთონ ის, რასაც აკეთებენ.
08:06
And so, if some people have fallen into the pit of metaphysical dualism,
172
461000
3000
თუ ზოგიერთი ადამიანი ჩავარდა ამ მეტაფიზიკური დუალიზმის ორმოში,
08:09
some really smart people, too, but we can reject all that.
173
464000
3000
ზოგიერთი ნამდვილად ჭკვიანი ადამიანი, ჩვენ შეგვიძლია რომ ამას უბრალოდ ყურადღება არ მივაქციოთ.
08:12
(Laughter)
174
467000
2000
(სიცილი)
08:14
No, I'm going to tell you there's something else,
175
469000
3000
მე მინდა გითხრათ, რომ რაღაც სხვა მიზეზია,
08:17
and it's really fundamental, and this is what it is:
176
472000
2000
უფრო ფუნდამენტური მიზეზი,
08:19
there's another reason why we don't have a good brain theory,
177
474000
2000
თუ რატომ არ გვაქვს ტვინის კარგი თეორია,
08:21
and it's because we have an intuitive, strongly-held,
178
476000
3000
ეს იმიტომ არის, რომ ჩვენ გვაქვს ინტუიტური, მყარი,
08:24
but incorrect assumption that has prevented us from seeing the answer.
179
479000
5000
მაგრამ არასწორი რწმენა, რომელიც ხელს გვიშლის პასუხის დანახვაში.
08:29
There's something we believe that just, it's obvious, but it's wrong.
180
484000
3000
არსებობს რაღაც, რისიც გვჯერა, რომ ჭეშმარიტებაა, მაგრამ სინამდვილეში ასე არ არის.
08:32
Now, there's a history of this in science and before I tell you what it is,
181
487000
4000
მსგავსი ისტორიები მეცნიერებაში არსებობს და სანამ გეტყოდეთ ეს რა არის,
08:36
I'm going to tell you a bit about the history of it in science.
182
491000
2000
გეტყვით ამ ისტორიებზე.
08:38
You look at some other scientific revolutions,
183
493000
2000
შეხედეთ სხვა სამეცნიერო რევოლუციებს,
08:40
and this case, I'm talking about the solar system, that's Copernicus,
184
495000
2000
ამ შემთხვევაში, მაგალითად, მზის სისტემის შესახებ, კოპერნიკის,
08:42
Darwin's evolution, and tectonic plates, that's Wegener.
185
497000
3000
ან დარვინის ევოლუციას, ან ვეგენერის ტექტონიკურ ფილებს.
08:45
They all have a lot in common with brain science.
186
500000
3000
მათ ბევრი საერთო აქვთ ტვინის მეცნიერებასთან.
08:48
First of all, they had a lot of unexplained data. A lot of it.
187
503000
3000
პირველ რიგში, ისინი შეიცავდნენ ძალიან ბევრ ამოუხსნელ ინფორმაციას, ძალიან ბევრს...
08:51
But it got more manageable once they had a theory.
188
506000
3000
მაგრამ ეს ინფორმაცია გახდა ადვილად ორგანიზებადი, როდესაც მათ მოიგონეს თეორია.
08:54
The best minds were stumped -- really, really smart people.
189
509000
3000
საუკეთესო გონების მქონე ადამიანები დაბნეულები იყვნენ, ნამდვილად ძალიან ჭკვიანი ადამიანები,
08:57
We're not smarter now than they were then.
190
512000
2000
ჩვენ არ ვართ მათზე უფრო ჭკვიანები, ვიდრე ისინი მაშინ იყვნენ.
08:59
It just turns out it's really hard to think of things,
191
514000
2000
უბრალოდ, როგორც ჩანს, რთულია საგნებზე ფიქრი,
09:01
but once you've thought of them, it's kind of easy to understand it.
192
516000
2000
მაგრამ როდესაც მოიფიქრებ, უკვე ადვილი ხდება მისი გაგება.
09:03
My daughters understood these three theories
193
518000
2000
ეს სამი თეორია ჩემმა ქალიშვილებმა გაიგეს
09:05
in their basic framework by the time they were in kindergarten.
194
520000
3000
მაშინ, როდესაც ისინი ჯერ კიდევ იყვნენ საბავშო ბაღში.
09:08
And now it's not that hard, you know, here's the apple, here's the orange,
195
523000
3000
და ახლა არც ისე რთულია. აი გაქვს ვაშლი, ან ფორთოხალი,
09:11
you know, the Earth goes around, that kind of stuff.
196
526000
3000
და დედამიწა ბრუნავს თავისი ღერძის გარშემო და ა.შ.
09:14
Finally, another thing is the answer was there all along,
197
529000
2000
პასუხი ყოველთვის არსებობდა,
09:16
but we kind of ignored it because of this obvious thing, and that's the thing.
198
531000
3000
უბრალოდ ჩვენ იგნორირებას ვუწევდით ამ აშკარა პასუხს.
09:19
It was an intuitive, strong-held belief that was wrong.
199
534000
3000
ჩვენ ვინარჩუნებდით ინტუიტურ, მყარ რწმენას, რომელიც იყო მცდარი.
09:22
In the case of the solar system, the idea that the Earth is spinning
200
537000
3000
მზის სისტემის შემთხვევაში, ეს არის იდეა, რომ დედამიწა ბრუნავს
09:25
and the surface of the Earth is going like a thousand miles an hour,
201
540000
3000
და დედამიწის ზედაპირი საათში ათას მილს გადის,
09:28
and the Earth is going through the solar system about a million miles an hour.
202
543000
3000
და რომ დედამიწა მზის სისტემაში საათში მილიონ მილს გადის.
09:31
This is lunacy. We all know the Earth isn't moving.
203
546000
2000
ეს ხო სიგიჟეა. ჩვენ ყველამ ვიცით, რომ დედამიწა არ ბრუნავს.
09:33
Do you feel like you're moving a thousand miles an hour?
204
548000
2000
რა, გრძნობთ, რომ საათში ათასობით მილს გავდივართ?
09:35
Of course not. You know, and someone who said,
205
550000
2000
რა თქმა უნდა, არა. ვინმეს რომ ეთქვა,
09:37
well, it was spinning around in space and it's so huge,
206
552000
2000
რომ ის ბრუნავს თავის თავის გარშემო სივრცეში და ის ძალიან დიდია,
09:39
they would lock you up, and that's what they did back then.
207
554000
2000
ალბათ დაგამწყვევდნენ, და იმ დროში მართლაც ასეც შვრებოდნენ.
09:41
(Laughter)
208
556000
1000
(სიცილი)
09:42
So it was intuitive and obvious. Now what about evolution?
209
557000
3000
ანუ მათ ჰქონდათ ინტუიტური და ცხადი რწმენა. ახლა რაც შეეხება ევოლუციას.
09:45
Evolution's the same thing. We taught our kids, well, the Bible says,
210
560000
3000
ევოლუციაც მსგავსი ისტორიაა. ჩვენ ჩვენს შვილებს ვასწავლეთ, რომ ბიბლია როგორც ამბობს,
09:48
you know, God created all these species, cats are cats, dogs are dogs,
211
563000
2000
ღმერთმა შექმნა ყველა არსება, კატები არიან კატები, ძაღლები არიან ძაღლები,
09:50
people are people, plants are plants, they don't change.
212
565000
3000
ადამიანები არიან ადამიანები, მცენარეები არიან მცენარეები, ისინი არ იცვლებიან.
09:53
Noah put them on the Ark in that order, blah, blah, blah. And, you know,
213
568000
4000
ნოემ ჩასვა ისინი კიდობანში , ბლაბლაბლაბლა....იცით დანარჩენი.
09:57
the fact is, if you believe in evolution, we all have a common ancestor,
214
572000
4000
ფაქტი ის არის, რომ თუ გჯერა ევოლუციის, ჩვენ ყველას გვყავს საერთო წინაპარი,
10:01
and we all have a common ancestry with the plant in the lobby.
215
576000
3000
ჩვენ და დერეფანში დარგულ მცენარეს ერთი წინაპარი გვყავს.
10:04
This is what evolution tells us. And, it's true. It's kind of unbelievable.
216
579000
3000
ევოლუცია ამას გვეუბნება. და ეს სიმართლეა, თუმცა დაუჯერებელია.
10:07
And the same thing about tectonic plates, you know?
217
582000
3000
იგივე შეიძლება ითქვას ტექტონიკურ ფილებზეც.
10:10
All the mountains and the continents are kind of floating around
218
585000
2000
ყველა მთა და კონტინენტი დაფარფატებს
10:12
on top of the Earth, you know? It's like, it doesn't make any sense.
219
587000
4000
დედამიწაზე. ისე ჩანს თითქოს უაზრობაა.
10:16
So what is the intuitive, but incorrect assumption,
220
591000
4000
ასე რომ, რა არის ის ინტუიტური, მაგრამ არასწორი რწმენა,
10:20
that's kept us from understanding brains?
221
595000
2000
რომელიც ხელს გვიშლიდა ტვინების გააზრებაში?
10:22
Now I'm going to tell it to you, and it's going to seem obvious that that is correct,
222
597000
2000
ახლა მე ამას გეტყვით, და თქვენ მოგეჩვენებათ, რომ ეს იმდენად ცხადია, რომ სწორია.
10:24
and that's the point, right? Then I'm going to have to make an argument
223
599000
2000
და მიზანიც ეს არის, არა? შემდეგ მე წამოვაყენებ ჩემს არგუმენტს,
10:26
why you're incorrect about the other assumption.
224
601000
2000
თუ რატომ ცდებით თქვენ.
10:28
The intuitive but obvious thing is that somehow intelligence
225
603000
3000
ინტიუტური, მაგრამ აშკარა "სიმართლე" ის არის, რომ თითქოს ჭკუა
10:31
is defined by behavior,
226
606000
2000
განისაზღვრება ქცევით.
10:33
that we are intelligent because of the way that we do things
227
608000
2000
ჩვენ ვართ ჭკვიანები იმიტომ, რომ რაღაც წესით ვაკეთებთ რაღაცებს...
10:35
and the way we behave intelligently, and I'm going to tell you that's wrong.
228
610000
3000
და ვიქცევით ჭკვიანურად. სინამდვილეში, ეს ტყუილია.
10:38
What it is is intelligence is defined by prediction.
229
613000
2000
სინამდვილეში, ჭკუა განისაზღვრება პროგნოზირებით.
10:40
And I'm going to work you through this in a few slides here,
230
615000
3000
ამაზე მოგახსენებთ რამდენიმე სლაიდის დახმარებით,
10:43
give you an example of what this means. Here's a system.
231
618000
4000
მაგალითს მოგცემთ, თუ რას ვგულისხმობ. აი, აქ არის სისტემა.
10:47
Engineers like to look at systems like this. Scientists like to look at systems like this.
232
622000
3000
ინჟინრებს უყვართ ამგვარ სისტემებზე დაკვირვება. მეცნიერებს უყვართ ამგვარ სისტემებზე დაკვირვება.
10:50
They say, well, we have a thing in a box, and we have its inputs and its outputs.
233
625000
3000
ისინი ამბობენ, რომ ჩვენ გვაქვს საგანი ყუთში, და გვაქვს მის შიგნით შემავალი და გარეთ გამომავალი საგნები.
10:53
The AI people said, well, the thing in the box is a programmable computer
234
628000
3000
ხელოვნური ინტელექტის (AI) მკვლევარებმა თქვეს, რომ ეს საგანი ყუთში არის პროგრამირებადი კომპიუტერი
10:56
because that's equivalent to a brain, and we'll feed it some inputs
235
631000
2000
რადგან იგი ექვივალენტურია ტვინის, და ჩვენ გამოვკვებავთ მას შიგ შემავალი ინფორმაციით.
10:58
and we'll get it to do something, have some behavior.
236
633000
2000
ჩვენ მას ვაიძულებთ გააკეთოს რამე, ჰქონდეს გარკვეული ქცევა.
11:00
And Alan Turing defined the Turing test, which is essentially saying,
237
635000
3000
ალან ტურინგმა შეადგინა ტურინგის ტესტი, რომელიც გულისხმობს, რომ
11:03
we'll know if something's intelligent if it behaves identical to a human.
238
638000
3000
ჩვენ ვიგებთ რაღაცის ჭკუას იმგვარად, რომ ვადარებთ მას ადამიანს.
11:06
A behavioral metric of what intelligence is,
239
641000
3000
ეს არის ჭკუის ბიჰევიორული საზომი,
11:09
and this has stuck in our minds for a long period of time.
240
644000
3000
რომელიც ჩვენს გონებაში დიდი ხნით იყო აღბეჭდილი.
11:12
Reality though, I call it real intelligence.
241
647000
2000
რეალობა კი, მე ვეძახი მას რეალურ ჭკუას
11:14
Real intelligence is built on something else.
242
649000
2000
რეალური ჭკუა დაფუძნებულია სრულიად სხვა რამეზე.
11:16
We experience the world through a sequence of patterns, and we store them,
243
651000
4000
ჩვენ სამყაროს განვიცდით შაბლონების თანმიმდევრობით და ჩვენ მათ ვინახავთ,
11:20
and we recall them. And when we recall them, we match them up
244
655000
3000
შემდეგ ჩვენ მათ ვიხსენებთ. როდესაც ვიხსენებთ, ჩვენ მათ ვაწყვილებთ რეალობასთან
11:23
against reality, and we're making predictions all the time.
245
658000
4000
და ჩვენ ვახდენთ პროგნოზირებას.
11:27
It's an eternal metric. There's an eternal metric about us sort of saying,
246
662000
3000
ეს არის მუდმივი საზომი. ეს არის მუდმივი საზომი, რომელიც გვეკითხება:
11:30
do we understand the world? Am I making predictions? And so on.
247
665000
3000
ვიგებთ სამყაროს? ვაკეთებ პროგნოზირებას? და ა.შ.
11:33
You're all being intelligent right now, but you're not doing anything.
248
668000
2000
თქვენ ამ წუთას იქცევით ჭკვიანურად, მაგრამ თქვენ არ აკეთებთ არაფერს.
11:35
Maybe you're scratching yourself, or picking your nose,
249
670000
2000
შეიძლება იფხანთ თქვენს სხეულს, ან ცხვირში იქექებით,
11:37
I don't know, but you're not doing anything right now,
250
672000
2000
არ ვიცი, მაგრამ ახლა არაფერს აკეთებთ.
11:39
but you're being intelligent; you're understanding what I'm saying.
251
674000
3000
მაგრამ თქვენ ხართ ჭკვიანები, თქვენ იგებთ, რასაც ვამბობ.
11:42
Because you're intelligent and you speak English,
252
677000
2000
იმიტომ, რომ თქვენ ხართ ჭკვიანები და საუბრობთ ინგლისურად,
11:44
you know what word is at the end of this -- (Silence)
253
679000
1000
თქვენ იცით, თუ რა იქნება ბოლოში ამ -- (სიჩუმე)
11:45
sentence.
254
680000
2000
წინადადების.
11:47
The word came into you, and you're making these predictions all the time.
255
682000
3000
ეს სიტყვა უცბად მოგივიდათ თავში. ამგვარ წინასწარგათვლებს გამუდმებით აკეთებთ.
11:50
And then, what I'm saying is,
256
685000
2000
მე ვამბობ, რომ
11:52
is that the eternal prediction is the output in the neocortex.
257
687000
2000
ეს გამუდმებითი პროგნოზირება არის ნეოკორტექსიდან გამომავალი.
11:54
And that somehow, prediction leads to intelligent behavior.
258
689000
3000
რაღაცნაირად პროგნოზირებას მივყავართ აზრიან მოქმედებამდე.
11:57
And here's how that happens. Let's start with a non-intelligent brain.
259
692000
3000
გეტყვით, როგორ ხდება. ჯერ დავიწყოთ განუვითარებელი ტვინით.
12:00
Well I'll argue a non-intelligent brain, we got hold of an old brain,
260
695000
4000
ავიღოთ ძველი ტვინი
12:04
and we're going to say it's like a non-mammal, like a reptile,
261
699000
3000
მოდი ეს არ იყოს ძუძუმწოვრის ტვინი, არამედ იყოს რეპტილიის,
12:07
so I'll say, an alligator; we have an alligator.
262
702000
2000
მაგალითად, ალიგატორის. იყოს ეს ალიგატორის ტვინი.
12:09
And the alligator has some very sophisticated senses.
263
704000
3000
ალიგატორის ტვინს აქვს ძალიან დახვეწილი სენსორები.
12:12
It's got good eyes and ears and touch senses and so on,
264
707000
3000
მას აქვს კარგი თვალები, ყურები და შეხების შეგრძნებები
12:15
a mouth and a nose. It has very complex behavior.
265
710000
4000
პირი და ცხვირი. მას აქვს ძალიან კომპლექსური ქცევა.
12:19
It can run and hide. It has fears and emotions. It can eat you, you know.
266
714000
4000
მას შეუძლია გაიქცეს და დაიმალოს. აქვს შიშები და ემოციები. მას შეუძლია ასევე შეგჭამოთ.
12:23
It can attack. It can do all kinds of stuff.
267
718000
4000
მას შეუძლია თავს დაგესხათ. მოკლედ, გააკეთოს სხვადასხვა მოქმედება
12:27
But we don't consider the alligator very intelligent, not like in a human sort of way.
268
722000
5000
თუმცა ჩვენ არ ვთვლით, რომ ალიგატორი ძალიან ჭკვიანია, ადამიანური გაგებით ჭკვიანი.
12:32
But it has all this complex behavior already.
269
727000
2000
ამავე დროს, მას აქვს კომპლექსური და რთული ქცევები.
12:34
Now, in evolution, what happened?
270
729000
2000
რა მოხდა ევოლუციის დროს?
12:36
First thing that happened in evolution with mammals,
271
731000
3000
პირველი, რაც მოხდა ძუძუმწოვრების ევოლუციაში,
12:39
we started to develop a thing called the neocortex.
272
734000
2000
ჩვენ განგვივითარდა რაღაც, რომელსაც ჰქვია ნეოკორტექსი.
12:41
And I'm going to represent the neocortex here,
273
736000
2000
ახლავე განახებთ ნეოკორტექსის სურათს,
12:43
by this box that's sticking on top of the old brain.
274
738000
2000
აი, ეს ყუთი, რომელიც ძველი ტვინის თავზეა დამაგრებული.
12:45
Neocortex means new layer. It is a new layer on top of your brain.
275
740000
3000
ნეოკორტექსი ახალი ფენაა. ეს არის ახალი ფენა თქვენს ტვინზე.
12:48
If you don't know it, it's the wrinkly thing on the top of your head that,
276
743000
3000
თუ არ იცით, რაზე ვამბობ. ეს არის ნაოჭებიანი ფენა თქვენს თავში,
12:51
it's got wrinkly because it got shoved in there and doesn't fit.
277
746000
3000
ის გახდა ნაოჭებიანი იმიტომ, რომ თავის ქალაში ვერ ეტეოდა და ჩაიხვია.
12:54
(Laughter)
278
749000
1000
(სიცილი)
12:55
No, really, that's what it is. It's about the size of a table napkin.
279
750000
2000
არა, მართლა, მართლა ესეა. ის დაახლოებით მაგიდის ხელსახოცის ზომაა.
12:57
And it doesn't fit, so it gets all wrinkly. Now look at how I've drawn this here.
280
752000
3000
მაგრამ ის არ ეტევა თავის ქალაში და ამიტომ გახდა ნაოჭიანი. შეხედეთ, როგორ დავხატე:
13:00
The old brain is still there. You still have that alligator brain.
281
755000
4000
ძველი ტვინი კვლავ ადგილზეა. ეს კვლავ ალიგატორის ტვინია.
13:04
You do. It's your emotional brain.
282
759000
2000
თქვენ შენარჩუნებული გაქვთ ეს ტვინი, ეს თქვენი ემოციონალური ტვინია.
13:06
It's all those things, and all those gut reactions you have.
283
761000
3000
ემოციური რეაქციები აქედან მოდის
13:09
And on top of it, we have this memory system called the neocortex.
284
764000
3000
და მის თავზე ჩვენ გვაქვს მახსოვრობის სისტემა, რომელსაც ნეოკორტექსი ჰქვია.
13:12
And the memory system is sitting over the sensory part of the brain.
285
767000
4000
ეს მახსოვრობის სისტემა ტვინის გრძნობითი ნაწილის თავზეა,
13:16
And so as the sensory input comes in and feeds from the old brain,
286
771000
3000
ანუ გრძნობითი იმპულსი გამოდის ძველი ტვინიდან
13:19
it also goes up into the neocortex. And the neocortex is just memorizing.
287
774000
4000
და შედის ნეოკორტექსში. ნეოკორტექსი მას იმახსოვრებს.
13:23
It's sitting there saying, ah, I'm going to memorize all the things that are going on:
288
778000
4000
იმახსოვრებს ყველაფერს, რაც ხდება,
13:27
where I've been, people I've seen, things I've heard, and so on.
289
782000
2000
სად ვიყავი, ვინ ვნახე, რა გავიგე და ა.შ.
13:29
And in the future, when it sees something similar to that again,
290
784000
4000
მომავალში, როცა ხედავ რამე მსგავსს, უკვე განცდილს
13:33
so in a similar environment, or the exact same environment,
291
788000
3000
იმავე გარემოში, ან ზუსტად იმავე გარემოში,
13:36
it'll play it back. It'll start playing it back.
292
791000
2000
ის ახვევს უკან გამოცდილებას, ანუ იხსენებს.
13:38
Oh, I've been here before. And when you've been here before,
293
793000
2000
ოჰ, მე აქ უკვე ვიყავი. როცა აქ ვიყავი,
13:40
this happened next. It allows you to predict the future.
294
795000
3000
შემდეგ ეს მოხდა. ასე ის გაძლევთ მომავლის პროგნოზირების უნარს.
13:43
It allows you to, literally it feeds back the signals into your brain;
295
798000
4000
ის უკუსიგნალებს აწვდის თქვენს ტვინს,
13:47
they'll let you see what's going to happen next,
296
802000
2000
რომელიც გაძლევთ საშუალებას გაიგოთ, შემდეგ რა მოხდება,
13:49
will let you hear the word "sentence" before I said it.
297
804000
3000
მაგალითად, გაიგოთ სიტყვა "წინადადება", ვიდრე მე მას წარმოვთქვამდე.
13:52
And it's this feeding back into the old brain
298
807000
3000
ეს უკუსიგნალი ძველ ტვინში
13:55
that'll allow you to make very more intelligent decisions.
299
810000
3000
გვაძლევს საშუალებას, რომ მივიღოთ ჭკვიანური გადაწყვეტილებები.
13:58
This is the most important slide of my talk, so I'll dwell on it a little bit.
300
813000
3000
ეს ჩემი მოხსენების ყველაზე მნიშვნელოვანი სლაიდია, ამიტომ, მასზე ცოტა ხნით კიდევ გავჩერდები.
14:01
And so, all the time you say, oh, I can predict the things.
301
816000
4000
ანუ ყოველთვის, როცა ამბობ, რომ შეგიძლია მოვლენების პროგნოზირება,
14:05
And if you're a rat and you go through a maze, and then you learn the maze,
302
820000
3000
თუ ხარ თაგვი, გაივლი ლაბირინთში და დაიმახსოვრებ ამ ლაბირინთს.
14:08
the next time you're in a maze, you have the same behavior,
303
823000
2000
მომავალში როცა ლაბირინთში მოხვდები და არ იცი როგორ მოიქცე,
14:10
but all of a sudden, you're smarter
304
825000
2000
უცბად გაგახსენდება,
14:12
because you say, oh, I recognize this maze, I know which way to go,
305
827000
3000
რომ უი, მე ვიცი ეს ლაბირინთი, ვიცი რა გზით უნდა წავიდე.
14:15
I've been here before, I can envision the future. And that's what it's doing.
306
830000
3000
მე აქ უკვე ვიყავი, მე შემიძლია მომავალი ქცევის გათვლა. ეს მექანიზმი სწორედ ასე მუშაობს.
14:18
In humans -- by the way, this is true for all mammals;
307
833000
3000
ეს ასე მუშაობს ადამიანებში და ყველა ძუძუმწოვარში,
14:21
it's true for other mammals -- and in humans, it got a lot worse.
308
836000
2000
თუმცა ადამიანების შემთხვევაში საქმე უფრო რთულადაა.
14:23
In humans, we actually developed the front part of the neocortex
309
838000
3000
ადამიანებს განუვითარდათ ნეოკორტექსის წინა ნაწილი,
14:26
called the anterior part of the neocortex. And nature did a little trick.
310
841000
4000
რომელსაც ჰქვია ნეოკორტექსის ფრონტალური ნაწილი. ბუნებამ პატარა ოინი ჩაგვიტარა.
14:30
It copied the posterior part, the back part, which is sensory,
311
845000
2000
მან ტვინის უკანა ნაწილის წინ კოპირება მოახდინა. უკანა ნაწილი გრძნობითია
14:32
and put it in the front part.
312
847000
2000
და ეს ნაწილი ჩასვა წინაც.
14:34
And humans uniquely have the same mechanism on the front,
313
849000
2000
ამიტომ, მხოლოდ ადამიანებს აქვთ იგივე მექანიზმი ტვინის ფრონტალურ ნაწილშიც,
14:36
but we use it for motor control.
314
851000
2000
რომელსაც ვიყენებთ მოტორული კონტროლისთვის,
14:38
So we are now able to make very sophisticated motor planning, things like that.
315
853000
3000
ანუ ჩვენ გვაქვს უნარი განვახორციელოთ დახვეწილი მოტორული დაგეგმარება.
14:41
I don't have time to get into all this, but if you want to understand how a brain works,
316
856000
3000
დრო არ მაქვს ამაში ჩასაღრმავებლად, მაგრამ თუ გვინდა რომ გავიგოთ, როგორ მუშაობს ტვინი,
14:44
you have to understand how the first part of the mammalian neocortex works,
317
859000
3000
უნდა გავიგოთ, ძუძუმწოვრების ნეოკორტექსის პირველი ნაწილი როგორ მუშაობს,
14:47
how it is we store patterns and make predictions.
318
862000
2000
როგორ ვინახავთ მაგალითებს და ვაკეთებთ პროგნოზირებას.
14:49
So let me give you a few examples of predictions.
319
864000
3000
მოდით, პროგნოზირების რამდენიმე შემთხვევას გეტყვით.
14:52
I already said the word "sentence." In music,
320
867000
2000
უკვე გითხარით სიტყვა "წინადადება". მუსიკაში
14:54
if you've heard a song before, if you heard Jill sing those songs before,
321
869000
3000
თუ სიმღერა უკვე მოსმენილი გაქვთ, მაგალითად, თუ ჯილის მიერ ნამღერი სიმღერები უკვე მოგისმენია,
14:57
when she sings them, the next note pops into your head already --
322
872000
3000
როდესაც ის კვლავ დაიწყებს მათ მღერას, შემდეგი ნოტი უკვე თავისით ამოგიხტებათ ტვინში.
15:00
you anticipate it as you're going. If it was an album of music,
323
875000
2000
თქვენ ახდენთ იმის წინასწარმეტყველებას, თუ რას იზამს ის. მაგალითად, როდესაც მუსიკალურ ალბომს
15:02
the end of one album, the next song pops into your head.
324
877000
3000
უსმენთ, შემდეგი სიმღერა ალბომის მიმდევრობაში თავისით გახსენდებათ.
15:05
And these things happen all the time. You're making these predictions.
325
880000
2000
ასეთი რამეები გამუდმებით ხდება. თქვენ ახდენთ პროგნოზირებას.
15:07
I have this thing called the altered door thought experiment.
326
882000
3000
მე მაქვს ერთი ექსპერიმენტი, რომელსაც ჰქვია შეცვლილი კარის ექსპერიმენტი.
15:10
And the altered door thought experiment says, you have a door at home,
327
885000
3000
ამ ექსპერიმენტის მიხედვით, თქვენი სახლის კარს
15:13
and when you're here, I'm changing it, I've got a guy
328
888000
3000
მე ახლა, როდესაც თქვენ აქ იმყოფებით, შევცვლი. გავაგზავნი ვინმეს
15:16
back at your house right now, moving the door around,
329
891000
2000
ვინც თქვენს სახლში კარებს გამოგიცვლით.
15:18
and they're going to take your doorknob and move it over two inches.
330
893000
2000
ისინი თქვენს სახელურს ორი ინჩის იქით გადაადგილებენ.
15:20
And when you go home tonight, you're going to put your hand out there,
331
895000
2000
როდესაც დღეს საღამოს სახლში მიხვალთ, თქვენ თქვენს ხელს წაიღებთ იქ,
15:22
and you're going to reach for the doorknob and you're going to notice
332
897000
2000
სადაც სახელური გეგულებათ, და უცბად შეამჩნევთ, რომ
15:24
it's in the wrong spot, and you'll go, whoa, something happened.
333
899000
3000
არასწორად წაიღეთ ხელი, და იტყვით, რომ ვა, რაღაც მოხდა.
15:27
It may take a second to figure out what it was, but something happened.
334
902000
2000
რამდენიმე წამი წაიღებს იმის გააზრებას, თუ რა მოხდა.
15:29
Now I could change your doorknob in other ways.
335
904000
2000
თქვენი სახელურის შეცვლა კიდევ სხვანაირად შემიძლია.
15:31
I can make it larger or smaller, I can change its brass to silver,
336
906000
2000
მას გავხდი უფრო დიდს ან პატარას. თუ იყო ბრინჯაოსი, გავხდი ვერცხლისას.
15:33
I could make it a lever. I can change your door, put colors on;
337
908000
2000
ან გავხდი მას ჩამკეტს. გადავღებავ თქვენს კარს,
15:35
I can put windows in. I can change a thousand things about your door,
338
910000
3000
დავაყანებ მასზე ფანჯრებს. ათასი რამის შეცვლა შემიძლია თქვენს კარებზე,
15:38
and in the two seconds you take to open your door,
339
913000
2000
და იმ ორ წამში, რაც კარის გაღებას სჭირდება,
15:40
you're going to notice that something has changed.
340
915000
3000
თქვენ გაიაზრებთ, რომ რაღაც შეიცვალა.
15:43
Now, the engineering approach to this, the AI approach to this,
341
918000
2000
ინჟინერული მიდგომა, AI (ხელოვნური ინტელექტის) მიდგომა იქნება
15:45
is to build a door database. It has all the door attributes.
342
920000
3000
კარიბების საინფორმაციო საცავის შექმნა. მასში იქნება კარების ყველა ატრიბუტი.
15:48
And as you go up to the door, you know, let's check them off one at time.
343
923000
3000
როდესაც საკუთარი სახლის კარს მიუახლოვდები, საცავი შეამოწმებს მას:
15:51
Door, door, door, you know, color, you know what I'm saying.
344
926000
2000
კარები, კარები კარები, ფერი... და ა.შ. ხვდებით ალბათ, რასაც ვგულიხმობ.
15:53
We don't do that. Your brain doesn't do that.
345
928000
2000
ჩვენ ამას არ ვაკეთებთ. ჩვენი ტვინი ამას არ აკეთებს.
15:55
What your brain is doing is making constant predictions all the time
346
930000
2000
ჩვენი ტვინი უბრალოდ ახდენს მუდმივ პროგნოზირებას
15:57
about what is going to happen in your environment.
347
932000
2000
ანუ იმის გათვლას, თუ რა მოხდება მოცემულ გარემოში.
15:59
As I put my hand on this table, I expect to feel it stop.
348
934000
3000
როდესაც ჩემს ხელს ამ მაგიდაზე ვდებ, ჩემი მოლოდინი არის, რომ ის გაჩერდება.
16:02
When I walk, every step, if I missed it by an eighth of an inch,
349
937000
3000
როდესაც დავდივარ, თუ ინჩის მეოთხედით ავაცილე,
16:05
I'll know something has changed.
350
940000
2000
ვხვდები, რომ რაღაც იცვლება.
16:07
You're constantly making predictions about your environment.
351
942000
2000
ჩვენ ყოველთვის ვაკეთებთ წინასწარმეტყველებებს გარემოში.
16:09
I'll talk about vision here briefly. This is a picture of a woman.
352
944000
3000
მოკლედ ვისაუბროთ ხედვის უნარზე. აქ მაქვს ქალის სურათი
16:12
And when you look at people, your eyes are caught
353
947000
2000
როდესაც ხალხს უყურებთ, თქვენი თვალი მოძრაობს
16:14
over at two to three times a second.
354
949000
1000
ორ-სამჯერ წამში.
16:15
You're not aware of this, but your eyes are always moving.
355
950000
2000
თქვენ ამას ვერ ხვდებით, მაგრამ თქვენი თვალები მუდმივად მოძრაობენ.
16:17
And so when you look at someone's face,
356
952000
2000
როდესაც ვიღაცას თვალებში უყურებთ,
16:19
you'd typically go from eye to eye to eye to nose to mouth.
357
954000
2000
ჩვეულებრივ, ჯერ თვალიდან იწყებთ, შემდეგ ცხვირი, პირი...
16:21
Now, when your eye moves from eye to eye,
358
956000
2000
როდესაც თვალიდან თვალზე გადადიხარ
16:23
if there was something else there like, a nose,
359
958000
2000
და ხედავ რაღაცას , რაც ჰგავს ცხვირს,
16:25
you'd see a nose where an eye is supposed to be,
360
960000
2000
ხედავ ცხვირს იქ, სადაც წესით თვალი უნდა იყოს,
16:27
and you'd go, oh shit, you know --
361
962000
3000
ამბობ, ოჰ, ჯანდაბა...
16:30
(Laughter)
362
965000
1000
(სიცილი)
16:31
There's something wrong about this person.
363
966000
2000
ამ ტიპს რაღაც სჭირს.
16:33
And that's because you're making a prediction.
364
968000
2000
ეს იმიტომ ხდება, რომ შენ ახდენ წინასწარგანსაზღვრას,
16:35
It's not like you just look over there and say, what am I seeing now?
365
970000
2000
ისე არ ხდება, რომ უბრალოდ შეხედავ ვინმეს და იტყვი, "ვა რას ვხედავ?"
16:37
A nose, that's okay. No, you have an expectation of what you're going to see.
366
972000
3000
"ცხვირია, მერე რა..." არა, თქვენ გაქვთ მოლოდინი, რომ იმ ადგილას რაღაც დაგხვდებათ.
16:40
(Laughter)
367
975000
1000
(სიცილი)
16:41
Every single moment. And finally, let's think about how we test intelligence.
368
976000
4000
და ბოლოს, მოდი შევხედოთ იმასაც, რანაირად ვსაზღვრავთ ჭკუას.
16:45
We test it by prediction. What is the next word in this, you know?
369
980000
3000
ჩვენ ვსაზღვრავთ მას პროგნოზირებას უნარით. რა იქნება შემდეგი სიტყვა?
16:48
This is to this as this is to this. What is the next number in this sentence?
370
983000
3000
ეს მოდის ამის შემდეგ და ეს ამის შემდეგ... რა იქნება შემდეგი ციფრი ამ წინადადებაში?
16:51
Here's three visions of an object.
371
986000
2000
აქ არის ობიექტის სამი ხედვა.
16:53
What's the fourth one? That's how we test it. It's all about prediction.
372
988000
4000
რა არის მეოთხე? მეოთხე არის ის, თუ რანაირად ვახდენთ მის "დატესტვას", როგორ ვახდენთ წინასწარგანსაზღვრას, წინასწარმეტყველებას.
16:57
So what is the recipe for brain theory?
373
992000
3000
რა იქნება ტვინის თეორიის რეცეპტი?
17:00
First of all, we have to have the right framework.
374
995000
3000
პირველ რიგში, უნდა გვქონდეს შესაბამისი ჩარჩო.
17:03
And the framework is a memory framework,
375
998000
2000
ეს ჩარჩო არის მეხსიერების ჩარჩო,
17:05
not a computation or behavior framework. It's a memory framework.
376
1000000
2000
და არა გამოთვლითი ან ქცევითი ჩართო. ეს არის მეხსიერების ჩარჩო.
17:07
How do you store and recall these sequences or patterns? It's spatio-temporal patterns.
377
1002000
4000
როგორ ინახავ და იხსენებ ამ მოდელების შაბლონებს? ეს სივრცით-დროითი შაბლონებია.
17:11
Then, if in that framework, you take a bunch of theoreticians.
378
1006000
3000
სწორედ ამ ჩარჩოში სამუშაოდ უნდა მოვაქციოთ რამდენიმე კარგი თეორეტიკოსი.
17:14
Now biologists generally are not good theoreticians.
379
1009000
2000
ბიოლოგები არც ისე კარგი თეორეტიკოსები არიან.
17:16
It's not always true, but in general, there's not a good history of theory in biology.
380
1011000
4000
ეს ყოველთვის ასე არ არის, მაგრამ ზოგადად, ბიოლოგიაში თეორიის სანიმუშო ისტორია არ აქვთ.
17:20
So I found the best people to work with are physicists,
381
1015000
3000
საუკეთესო ხალხი, ვისთანაც ვმუშაობ, არიან ფიზიკოსები,
17:23
engineers and mathematicians, who tend to think algorithmically.
382
1018000
3000
ინჟინრები და მათემატიკოსები, რომლებიც ფიქრობენ ალგორითმულად.
17:26
Then they have to learn the anatomy, and they've got to learn the physiology.
383
1021000
3000
მათ სჭირდებათ ანატომიის და ფიზიოლოგიის შესწავლა.
17:29
You have to make these theories very realistic in anatomical terms.
384
1024000
4000
ეს თეორიები ანატომიური თვალსაზრისით რეალისტური უნდა იყოს.
17:33
Anyone who gets up and tells you their theory about how the brain works
385
1028000
4000
ვინმე როცა ადგება და გიყვება, თავის თეორიას, როგორ მუშაობს ტვინი,
17:37
and doesn't tell you exactly how it's working in the brain
386
1032000
2000
და არ გიყვება ზუსტად თუ რა პროცესები ხდება ტვინში
17:39
and how the wiring works in the brain, it is not a theory.
387
1034000
2000
კარგ თეორიას ვერ აყალიბებს.
17:41
And that's what we're doing at the Redwood Neuroscience Institute.
388
1036000
3000
ამას ვაკეთებთ რედვუდის ნეირომეცნიერების ინსტიტუტში.
17:44
I would love to have more time to tell you we're making fantastic progress in this thing,
389
1039000
4000
მეტი დრო რომ მქონდეს, სიამოვნებით მოგიყვებით ფანტასტიურ პროგრესზე, რაც ჩვენს საქმეში გვაქვს,
17:48
and I expect to be back up on this stage,
390
1043000
2000
და მე ვიმედოვნებ, რომ ამ სცენაზე კვლავ დავბრუნდები,
17:50
maybe this will be some other time in the not too distant future and tell you about it.
391
1045000
2000
იმედია არც ის შორეულ მომავალში.
17:52
I'm really, really excited. This is not going to take 50 years at all.
392
1047000
3000
მე ნამდვილად ძალიან აღტყინებული ვარ. ეს არ წაიღებს 50 წელს.
17:55
So what will brain theory look like?
393
1050000
2000
როგორი იქნება ტვინის თეორია?
17:57
First of all, it's going to be a theory about memory.
394
1052000
2000
პირველ რიგში, ეს იქნება თეორია მეხსიერების შესახებ,
17:59
Not like computer memory. It's not at all like computer memory.
395
1054000
3000
არა როგორც კომპიეტული მეხსიერების. ეს სრულებითაც არ ჰგავს კომპიუტერულ მეხსიერებას.
18:02
It's very, very different. And it's a memory of these very
396
1057000
2000
ის ძალიან, ძალიან განსხვავებულია.ეს არის ამ მაღალი განზომილებების
18:04
high-dimensional patterns, like the things that come from your eyes.
397
1059000
3000
შაბლონების მეხსიერება, რაღაცების რაც შენში შენი თვალებიდან შედის.
18:07
It's also memory of sequences.
398
1062000
2000
ეს არის ასევე მიმდევრობების მეხსიერება.
18:09
You cannot learn or recall anything outside of a sequence.
399
1064000
2000
თქვენ ვერ ისწავლით ან გაიხსნებთ რამეს მიმდევრობების გარეშე.
18:11
A song must be heard in sequence over time,
400
1066000
3000
სიმღერას უსმენთ რაღაც მიმდევრობით დროში
18:14
and you must play it back in sequence over time.
401
1069000
3000
და ის უნდა გადაახვიოთ ასევე რაღაც მიმდევრობით.
18:17
And these sequences are auto-associatively recalled, so if I see something,
402
1072000
3000
და ეს მიმდევრობები ავტო-ასოციაციურად გვახსენდება, ანუ თუ ვხედავ რამეს,
18:20
I hear something, it reminds me of it, and then it plays back automatically.
403
1075000
3000
ან თუ ვისმენ რამეს, რაც რაღაცას მაგონებს, ავტომატურად ეხვევა ჩემი მეხსიერება უკან.
18:23
It's an automatic playback. And prediction of future inputs is the desired output.
404
1078000
4000
ეს ავტომატური გადახვევაა. მომავალი მიღებული ინფორმაციის პროგნოზირება სასურველი შედეგია.
18:27
And as I said, the theory must be biologically accurate,
405
1082000
3000
როგორც ვთქვი, თეორია უნდა იყოს ბიოლოგიურად გამართული
18:30
it must be testable, and you must be able to build it.
406
1085000
2000
და შეიძლებოდეს მისი გამოცდა, ასევე მისი აშენებაც.
18:32
If you don't build it, you don't understand it. So, one more slide here.
407
1087000
4000
თუ მას ვერ ააშენებ, მაშინ ვერც გაიგებ. აი, კიდევ ერთი სლაიდიც.
18:36
What is this going to result in? Are we going to really build intelligent machines?
408
1091000
4000
რა იქნება შედეგი? ჩვენ ნამდვილად ვაპირებთ ჭკვიანი მანქანების შექმნას?
18:40
Absolutely. And it's going to be different than people think.
409
1095000
4000
დიახ, აბსოლუტურად ასეა. და ისინი არ იქნებიან ისეთი, როგორიც ხალხს წარმოუდგენია.
18:44
No doubt that it's going to happen, in my mind.
410
1099000
3000
ეს ნამდვილად მოხდება.
18:47
First of all, it's going to be built up, we're going to build the stuff out of silicon.
411
1102000
4000
პირველ რიგში, ჩვენ შევქმნით მას სილიკონისგან,
18:51
The same techniques we use for building silicon computer memories,
412
1106000
3000
იგივე ტექნიკით, რასაც ვხმარობთ კომპიუტერების სილიკონის მეხსიერების შექმნაში.
18:54
we can use for here.
413
1109000
1000
მისი გამოყენება აქაც შეიძლება.
18:55
But they're very different types of memories.
414
1110000
2000
ეს იქნება განსხვავებული ტიპის მეხსიერებები.
18:57
And we're going to attach these memories to sensors,
415
1112000
2000
ამ მეხსიერებებს მივაბამთ სენსორებს
18:59
and the sensors will experience real-live, real-world data,
416
1114000
3000
და სენსორები განიცდიან რეალური ცხოვრების ფაქტებს,
19:02
and these things are going to learn about their environment.
417
1117000
2000
და ისინი დაიწყებენ საკუთარი გარემოს შესწავლას.
19:04
Now it's very unlikely the first things you're going to see are like robots.
418
1119000
3000
ეს არ ნიშნავს იმას, რომ პირველი რასაც დაინახავთ, რობოტები იქნება.
19:07
Not that robots aren't useful and people can build robots.
419
1122000
3000
არა იმიტომ, რომ რობოტები არიან გამოუსადეგარნი ან იმიტომ, რომ ადამიანები ვერ შექმნიან რობოტებს.
19:10
But the robotics part is the hardest part. That's the old brain. That's really hard.
420
1125000
4000
რობოტიკის ნაწილი ყველაზე რთულია. ეს ჩვენი საწყისი, "ძველი" ტვინია, რისი აგებაც ძალიან რთულია.
19:14
The new brain is actually kind of easier than the old brain.
421
1129000
2000
ახალი ტვინის აგება უფრო ადვილია, ვიდრე ძველის.
19:16
So the first thing we're going to do are the things that don't require a lot of robotics.
422
1131000
3000
პირველ რიგში რასაც გავაკეთებთ არის ის, რაც მოითხოვს ნაკლებ რობოტიკას.
19:19
So you're not going to see C-3PO.
423
1134000
2000
ანუ თქვენ ვერ იხილავთ C-3PO-ს.
19:21
You're going to more see things like, you know, intelligent cars
424
1136000
2000
თქვენ უფრო იხილავთ ისეთ საგნებს, როგორიცაა მაგალითად ჭკვიანი მანქანები,
19:23
that really understand what traffic is and what driving is
425
1138000
3000
რომლებმაც იციან, თუ რა არის საცობი და რას ნიშნავს სიარული,
19:26
and have learned that certain types of cars with the blinkers on for half a minute
426
1141000
3000
და ისწავლიან, რომ ზოგიერთი ტიპის მანქანას ფანრები ნახევარი წუთით თუ აქვთ ანთებული
19:29
probably aren't going to turn, things like that.
427
1144000
2000
ესე იგი მობრუნებას არ აპირებს და ა.შ.
19:31
(Laughter)
428
1146000
1000
(სიცილი)
19:32
We can also do intelligent security systems.
429
1147000
2000
ჩვენ ასევე შეგვიძლია დაცვის სისტემების შექმნა.
19:34
Anywhere where we're basically using our brain, but not doing a lot of mechanics.
430
1149000
4000
ასეთ რამეებს გამოვიყენებთ ნებისმიერ სფეროში, სადაც ჯერ კიდევ ვიყენებთ ჩვენს ტვინს და არ ვიყენებთ საკმარის მექანიკას.
19:38
Those are the things that are going to happen first.
431
1153000
2000
ეს ისეთი რამეებია, რაც მალე მოხდება.
19:40
But ultimately, the world's the limit here.
432
1155000
2000
სამყაროს აქვს რაღაც ზღვარი.
19:42
I don't know how this is going to turn out.
433
1157000
2000
მე არ ვიცი რაში გადაიზრდება ეს ყველაფერი.
19:44
I know a lot of people who invented the microprocessor
434
1159000
2000
მე ვიცი ბევრი ადამიანი, ვინც შექმნა მიკროპროცესორი,
19:46
and if you talk to them, they knew what they were doing was really significant,
435
1161000
5000
და თუ თქვენ მათ დაელაპარაკებით, ისინი გეტყვიან, რომ აკეთებდნენ რაღაც მნიშვნელოვანს,
19:51
but they didn't really know what was going to happen.
436
1166000
3000
მაგრამ ზუსტად რა მოხდებოდა, არავინ იცოდა.
19:54
They couldn't anticipate cell phones and the Internet and all this kind of stuff.
437
1169000
5000
ისინი ვერ წარმოიდგენდნენ მობილურ ტელეფონებს, ინტერნეტს და ა.შ.
19:59
They just knew like, hey, they were going to build calculators
438
1174000
2000
მათ იცოდნენ, რომ შექმნიდნენ კალკულატორებს
20:01
and traffic light controllers. But it's going to be big.
439
1176000
2000
და საცობის შუქნიშნის კონტროლიორებს. ისინი ვერ წარმოიდგენდნენ, რომ რაღაც დიდს ქმნიდნენ.
20:03
In the same way, this is like brain science and these memories
440
1178000
3000
იგივე გზით, ტვინის მეცნიერება და მეხსიერებები
20:06
are going to be a very fundamental technology, and it's going to lead
441
1181000
3000
იქნება ფუნდამენტური ტექნოლოგია, რომელიც მომდევნო 100 წლის მანძილზე
20:09
to very unbelievable changes in the next 100 years.
442
1184000
3000
წარმოუდგენელ ცვლილებებამდე მიგვიყვანს.
20:12
And I'm most excited about how we're going to use them in science.
443
1187000
4000
და მე ყველაზე მეტად აღტყნიებული ვარ, თუ როგორ გამოვიყენებთ მათ მეცნიერებაში.
20:16
So I think that's all my time, I'm over it, and I'm going to end my talk
444
1191000
3000
ვფიქრობ, რომ ჩემი საუბრის დრო ამოიწურა
20:19
right there.
445
1194000
1000
და მე ამით დავამთავრებ.
Translated by Giorgi Tskhadaia
Reviewed by Levan Khomeriki

▲Back to top

ABOUT THE SPEAKER
Jeff Hawkins - Computer designer, brain researcher
Jeff Hawkins pioneered the development of PDAs such as the Palm and Treo. Now he's trying to understand how the human brain really works, and adapt its method -- which he describes as a deep system for storing memory -- to create new kinds of computers and tools.

Why you should listen

Jeff Hawkins' Palm PDA became such a widely used productivity tool during the 1990s that some fanatical users claimed it replaced their brains. But Hawkins' deepest interest was in the brain itself. So after the success of the Palm and Treo, which he brought to market at Handspring, Hawkins delved into brain research at the Redwood Center for Theoretical Neuroscience in Berkeley, Calif., and a new company called Numenta.

Hawkins' dual goal is to achieve an understanding of how the human brain actually works -- and then develop software to mimic its functionality, delivering true artificial intelligence. In his book On Intelligence (2004) he lays out his compelling, controversial theory: Contrary to popular AI wisdom, the human neocortex doesn't work like a processor; rather, it relies on a memory system that stores and plays back experiences to help us predict, intelligently, what will happen next. He thinks that "hierarchical temporal memory" computer platforms, which mimic this functionality (and which Numenta might pioneer), could enable groundbreaking new applications that could powerfully extend human intelligence.

More profile about the speaker
Jeff Hawkins | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee