ABOUT THE SPEAKER
Daniel Wolpert - Movement expert
A neuroscientist and engineer, Daniel Wolpert studies how the brain controls the body.

Why you should listen

Consider your hand. You use it to lift things, to balance yourself, to give and take, to sense the world. It has a range of interacting degrees of freedom, and it interacts with many different objects under a variety of environmental conditions. And for most of us, it all just works. At his lab in the Engineering department at Cambridge, Daniel Wolpert and his team are studying why, looking to understand the computations underlying the brain's sensorimotor control of the body.

As he says, "I believe that to understand movement is to understand the whole brain. And therefore it’s important to remember when you are studying memory, cognition, sensory processing, they’re there for a reason, and that reason is action.”  Movement is the only way we have of interacting with the world, whether foraging for food or attracting a waiter's attention. Indeed, all communication, including speech, sign language, gestures and writing, is mediated via the motor system. Taking this viewpoint, and using computational and robotic techniques as well as virtual reality systems, Wolpert and his team research the purpose of the human brain and the way it determines future actions.

 

 

More profile about the speaker
Daniel Wolpert | Speaker | TED.com
TEDGlobal 2011

Daniel Wolpert: The real reason for brains

Ντάνιελ Γουόλπερτ: Ο πραγματικός σκοπός του εγκεφάλου

Filmed:
1,994,993 views

Ο επιστήμονας-νευρολόγος Ντάνιελ Γουόλπερτ ξεκινά από μια προϋπόθεση που ξαφνιάζει: ο εγκέφαλος δεν εξελίχθηκε για να σκέφτεται ή να αισθάνεται αλλά για να ελέγχει τις κινήσεις μας.Σε αυτή τη διασκεδαστική, πλούσια σε στοιχεία ομιλία μας δίνει μια μικρή εικόνα για το πώς ο εγκέφαλος δημιουργεί την χάρη και την ευκινησία της ανθρώπινης κίνησης.
- Movement expert
A neuroscientist and engineer, Daniel Wolpert studies how the brain controls the body. Full bio

Double-click the English transcript below to play the video.

00:15
I'm a neuroscientistΝευρολόγος.
0
0
2000
Είμαι επιστήμονας νευρολόγος
00:17
And in neuroscienceνευροεπιστήμη,
1
2000
2000
και στη νευρολογία
00:19
we have to dealσυμφωνία with manyΠολλά difficultδύσκολος questionsερωτήσεις about the brainεγκέφαλος.
2
4000
3000
έχουμε να κάνουμε με πολλές διαφορετικές ερωτήσεις σχετικά με τον εγκέφαλο.
00:22
But I want to startαρχή with the easiestπιο εύκολη questionερώτηση
3
7000
2000
Θέλω όμως να ξεκινήσω με την ευκολότερη ερώτηση
00:24
and the questionερώτηση you really should have all askedερωτηθείς yourselvesσείς οι ίδιοι at some pointσημείο in your life,
4
9000
3000
την ερώτηση που όλοι σας θα έπρεπε να έχετε κάνει στους εαυτούς σας σε κάποια στιγμή της ζωής σας,
00:27
because it's a fundamentalθεμελιώδης questionερώτηση
5
12000
2000
διότι αποτελεί θεμελιώδης ερώτηση
00:29
if we want to understandκαταλαβαίνουν brainεγκέφαλος functionλειτουργία.
6
14000
2000
εάν θέλουμε να καταλάβουμε τη λειτουργία του εγκεφάλου.
00:31
And that is, why do we and other animalsτων ζώων
7
16000
2000
Αυτή είναι, γιατί εμείς και τα υπόλοιπα ζώα
00:33
have brainsμυαλά?
8
18000
2000
έχουμε εγκέφαλο;
00:35
Not all speciesείδος on our planetπλανήτης have brainsμυαλά,
9
20000
3000
Δεν έχουν όλα τα είδη του πλανήτη μας εγκέφαλο,
00:38
so if we want to know what the brainεγκέφαλος is for,
10
23000
2000
άρα αν θέλουμε να ξέρουμε γιατί υπάρχει ο εγκέφαλος,
00:40
let's think about why we evolvedεξελίχθηκε one.
11
25000
2000
ας σκεφτούμε για ποιο λόγο ο δικός μας είναι εξελιγμένος.
00:42
Now you mayενδέχεται reasonλόγος that we have one
12
27000
2000
Μπορεί να θεωρείτε ότι έχουμε εγκέφαλο
00:44
to perceiveαντιλαμβάνονται the worldκόσμος or to think,
13
29000
2000
για να αντιλαμβανόμαστε τον κόσμο ή για να σκεφτόμαστε
00:46
and that's completelyεντελώς wrongλανθασμένος.
14
31000
2000
αλλά αυτό είναι εντελώς λάθος.
00:48
If you think about this questionερώτηση for any lengthμήκος of time,
15
33000
3000
Εάν αναρωτηθείτε αυτή την ερώτηση για οποιοδήποτε χρονικό διάστημα,
00:51
it's blindinglyεκτυφλωτικά obviousφανερός why we have a brainεγκέφαλος.
16
36000
2000
είναι τρομερά προφανανές γιατί έχουμε εγκέφαλο.
00:53
We have a brainεγκέφαλος for one reasonλόγος and one reasonλόγος only,
17
38000
3000
Έχουμε εγκέφαλο για έναν και μόνο λόγο,
00:56
and that's to produceπαράγω adaptableπροσαρμόσιμος and complexσυγκρότημα movementsκινήσεις.
18
41000
3000
και αυτός είναι το να κάνουμε προσαρμόσιμες και πολύπλοκες κινήσεις.
00:59
There is no other reasonλόγος to have a brainεγκέφαλος.
19
44000
2000
Δεν υπάρχει άλλος λόγος για να τον έχουμε.
01:01
Think about it.
20
46000
2000
Σκεφτείτε το.
01:03
MovementΚίνηση is the only way you have
21
48000
2000
Η κίνηση είναι ο μόνος τρόπος που έχετε
01:05
of affectingσυγκινητικός the worldκόσμος around you.
22
50000
2000
για να επιδράτε στον κόσμο γύρω σας.
01:07
Now that's not quiteαρκετά trueαληθής. There's one other way, and that's throughδιά μέσου sweatingεφίδρωση.
23
52000
3000
Βέβαια αυτό δεν έναι εντελώς σωστό.Υπάρχει άλλος ένας τρόπος, ο ιδρώτας.
01:10
But apartχώρια from that,
24
55000
2000
Αλλά εκτός από αυτό,
01:12
everything elseαλλού goesπηγαίνει throughδιά μέσου contractionsσυστολές of musclesμυς.
25
57000
2000
όλα τα υπόλοιπα έχουν να κάνουν με την συστολή των μυών.
01:14
So think about communicationεπικοινωνία --
26
59000
2000
Σκεφτείτε την επικοινωνία --
01:16
speechομιλία, gesturesχειρονομίες, writingΓραφή, signσημάδι languageΓλώσσα --
27
61000
3000
ομιλία,χειρονομίες,γραφή,νοήματα --
01:19
they're all mediatedμε τη μεσολάβηση throughδιά μέσου contractionsσυστολές of your musclesμυς.
28
64000
3000
όλα διαδίδονται μέσω της συστολής των μυών σας.
01:22
So it's really importantσπουδαίος to rememberθυμάμαι
29
67000
2000
Άρα είναι πολύ σημαντικό να θυμάστε
01:24
that sensoryαισθητήριος, memoryμνήμη and cognitiveγνωστική processesδιαδικασίες are all importantσπουδαίος,
30
69000
4000
ότι οι αισθητικές, μνημονικές και γνωστικές διεργασίες είναι όλες σημαντικές,
01:28
but they're only importantσπουδαίος
31
73000
2000
αλλά είναι σημαντικές μόνο
01:30
to eitherείτε driveοδηγώ or suppressκαταστέλλω futureμελλοντικός movementsκινήσεις.
32
75000
2000
για να κατευθύνουμε ή να καταστείλουμε μελλοντικές κινήσεις.
01:32
There can be no evolutionaryεξελικτική advantageπλεονέκτημα
33
77000
2000
Δεν μπορεί να αποτελέσει εξελιγκτικό πλεονέκτημα
01:34
to layingγια τον καθορισμό down memoriesαναμνήσεις of childhoodΠαιδική ηλικία
34
79000
2000
ο καθορισμός παιδικών αναμνήσεων
01:36
or perceivingαντιλαμβάνεται the colorχρώμα of a roseτριαντάφυλλο
35
81000
2000
ή η αντίληψη του χρώματος ενός τριαντάφυλλου
01:38
if it doesn't affectεπηρεάζουν the way you're going to moveκίνηση laterαργότερα in life.
36
83000
3000
εάν δεν επηρεάζει τον τρόπο που θα κινηθείτε αργότερα στη ζωή.
01:41
Now for those who don't believe this argumentδιαφωνία,
37
86000
2000
Τώρα για εκείνους που δεν υποστηρίζουν αυτή την άποψη,
01:43
we have treesδέντρα and grassγρασίδι on our planetπλανήτης withoutχωρίς the brainεγκέφαλος,
38
88000
2000
έχουμε δέντρα και γρασίδι στον πλανήτη μας χωρίς εγκέφαλο,
01:45
but the clinchingclinching evidenceαπόδειξη is this animalζώο here --
39
90000
2000
αλλά η αδιάψευστη απόδειξη είναι αυτό εδώ το ζώο --
01:47
the humbleταπεινός seaθάλασσα squirtΓυναικία ολοκλήρωση.
40
92000
2000
το ταπεινό θαλάσσιο ασκίδιο.
01:49
RudimentaryΣτοιχειώδη animalζώο, has a nervousνευρικός systemΣύστημα,
41
94000
3000
Είναι στοιχειώδες ζώο, έχει νευρικό σύστημα,
01:52
swimsκολυμπά around in the oceanωκεανός in its juvenileνεανικός life.
42
97000
2000
και νεαρό κολυμπάει στον ωκεανό.
01:54
And at some pointσημείο of its life,
43
99000
2000
Σε κάποιο σημείο τις ζωής του
01:56
it implantsεμφυτεύματα on a rockβράχος.
44
101000
2000
κολλάει σε έναν βράχο.
01:58
And the first thing it does in implantingεμφύτευση on that rockβράχος, whichοι οποίες it never leavesφύλλα,
45
103000
3000
Και το πρώτο πράγμα που κάνει αφού κολλήσει στον βράχο, από τον οποίο δεν φεύγει ποτέ,
02:01
is to digestσύνοψη its ownτα δικά brainεγκέφαλος and nervousνευρικός systemΣύστημα
46
106000
3000
είναι το να αφομοιώσει τον εγκέφαλο και το νευρικό του σύστημα
02:04
for foodτροφή.
47
109000
2000
ως τροφή.
02:06
So onceμια φορά you don't need to moveκίνηση,
48
111000
2000
Άρα από τη στιγμή που δεν χρειάζεται να κινείσαι,
02:08
you don't need the luxuryπολυτέλεια of that brainεγκέφαλος.
49
113000
3000
δεν χρειάζεσαι την πολυτέλεια του εγκεφάλου.
02:11
And this animalζώο is oftenσυχνά takenληφθεί
50
116000
2000
Και αυτό το ζώο χρησιμοποιείται συχνά
02:13
as an analogyαναλογία to what happensσυμβαίνει at universitiesπανεπιστήμια
51
118000
2000
σαν αναλογία με το τι συμβαίνει στα πανεπιστήμια
02:15
when professorsκαθηγητές get tenureκατοχή,
52
120000
2000
όταν οι καθηγητές "παλιώνουν",
02:17
but that's a differentδιαφορετικός subjectθέμα.
53
122000
2000
αλλά αυτό είναι άλλο θέμα.
02:19
(ApplauseΧειροκροτήματα)
54
124000
2000
(Χειροκρότημα)
02:21
So I am a movementκίνηση chauvinistσωβινιστής.
55
126000
3000
Οπότε είμαι ένας σοβινιστής της κίνησης.
02:24
I believe movementκίνηση is the mostπλέον importantσπουδαίος functionλειτουργία of the brainεγκέφαλος --
56
129000
2000
Πιστεύω ότι η κίνηση είναι η πιο σημαντική λειτουργία του εγκεφάλου,
02:26
don't let anyoneο καθενας tell you that it's not trueαληθής.
57
131000
2000
και μην αφήσετε κανέναν να σας πει το αντίθετο.
02:28
Now if movementκίνηση is so importantσπουδαίος,
58
133000
2000
Τώρα εάν η κίνηση είναι τόσο σημαντική,
02:30
how well are we doing
59
135000
2000
πόσο καλά πάμε
02:32
understandingκατανόηση how the brainεγκέφαλος controlsελέγχους movementκίνηση?
60
137000
2000
στο να καταλάβουμε πώς ο εγκέφαλος ελέγχει την κίνηση;
02:34
And the answerαπάντηση is we're doing extremelyεπακρώς poorlyπτωχώς; it's a very hardσκληρά problemπρόβλημα.
61
139000
2000
Και η απάντηση είναι ότι δεν τα πάμε και τόσο καλά· είναι ένα πολύ δύσκολο πρόβλημα.
02:36
But we can look at how well we're doing
62
141000
2000
Αλλά μπορούμε να δούμε πώς τα πάμε
02:38
by thinkingσκέψη about how well we're doing buildingΚτίριο machinesμηχανές
63
143000
2000
αν σκεφτούμε πόσο καλά τα πάμε στην κατασκευή μηχανών
02:40
whichοι οποίες can do what humansτου ανθρώπου can do.
64
145000
2000
που μπορούν να κάνουν ότι και οι άνθρωποι.
02:42
Think about the gameπαιχνίδι of chessσκάκι.
65
147000
2000
Σκεφτείτε μία παρτίδα σκάκι.
02:44
How well are we doing determiningκαθορίζοντας what pieceκομμάτι to moveκίνηση where?
66
149000
3000
Πόσο καλά τα πάμε στον προσδιορισμό ποιο πιόνι θα πάει πού;
02:47
If you pitpit GarryΓκάρι KasparovΟ Κασπάροβ here, when he's not in jailφυλακή,
67
152000
3000
Εάν βάλετε τον Γκάρυ Κασπάρωφ εδώ, όταν δεν βρίσκεται στην φυλακή,
02:50
againstκατά IBM'sΤης IBM DeepΒαθύ BlueΜπλε,
68
155000
2000
εναντίον του Ντιπ Μπλου της ΙΒΜ,
02:52
well the answerαπάντηση is IBM'sΤης IBM DeepΒαθύ BlueΜπλε will occasionallyενίοτε winνίκη.
69
157000
3000
η απάντηση είναι ότι ο Ντιπ Μπλου της ΙΒΜ θα κερδίσει κάποιες φορές.
02:55
And I think if IBM'sΤης IBM DeepΒαθύ BlueΜπλε playedέπαιξε anyoneο καθενας in this roomδωμάτιο, it would winνίκη everyκάθε time.
70
160000
3000
Και σκεφτείτε ότι εάν ο Ντιπ Μπλου της ΙΒΜ έπαιζε με κάποιον από αυτή εδώ την αίθουσα, θα κέρδιζε συνέχεια.
02:58
That problemπρόβλημα is solvedλυθεί.
71
163000
2000
Αυτό το πρόβλημα λύθηκε.
03:00
What about the problemπρόβλημα
72
165000
2000
Τι γίνεται όμως με το πρόβλημα
03:02
of pickingσυλλογή up a chessσκάκι pieceκομμάτι,
73
167000
2000
του να παίρνεις ένα πιόνι,
03:04
dexterouslydexterously manipulatingχειραγώγηση it and puttingβάζοντας it back down on the boardσανίδα?
74
169000
3000
να το χειρίζεσαι επιδέξια και να το βάζεις πίσω στην σκακιέρα;
03:07
If you put a fiveπέντε year-oldετών child'sτου παιδιού dexterityεπιδεξιότητα againstκατά the bestκαλύτερος robotsρομπότ of todayσήμερα,
75
172000
3000
Εάν βάλετε την επιδεξιότητα ενός πεντάχρονου παιδιού απέναντι στα καλύτερα ρομπότ του σήμερα,
03:10
the answerαπάντηση is simpleαπλός:
76
175000
2000
η απάντηση είναι απλή:
03:12
the childπαιδί winsκερδίζει easilyεύκολα.
77
177000
2000
το παιδί κερδίζει εύκολα.
03:14
There's no competitionανταγωνισμός at all.
78
179000
2000
Δεν υπάρχει καθόλου ανταγωνισμός.
03:16
Now why is that topμπλουζα problemπρόβλημα so easyεύκολος
79
181000
2000
Τώρα γιατί το πάνω πρόβλημα είναι τόσο απλό
03:18
and the bottomκάτω μέρος problemπρόβλημα so hardσκληρά?
80
183000
2000
ενώ το κάτω πρόβλημα τόσο δύσκολο;
03:20
One reasonλόγος is a very smartέξυπνος fiveπέντε year-oldετών
81
185000
2000
Ένας λόγος είναι ότι ένας πολύ έξυπνος πεντάχρονος
03:22
could tell you the algorithmαλγόριθμος for that topμπλουζα problemπρόβλημα --
82
187000
2000
θα μπορούσε να σας πει τον αλγόριθμο για το πάνω πρόβλημα --
03:24
look at all possibleδυνατόν movesκινήσεις to the endτέλος of the gameπαιχνίδι
83
189000
2000
κοιτάζεις όλες τις πιθανές κινήσεις εώς το τέλος της παρτίδας
03:26
and chooseεπιλέγω the one that makesκάνει you winνίκη.
84
191000
2000
και διαλέγεις εκείνη που σου δίνει την νίκη.
03:28
So it's a very simpleαπλός algorithmαλγόριθμος.
85
193000
2000
Άρα είναι ένας πολύ απλός αλγόριθμος.
03:30
Now of courseσειρά μαθημάτων there are other movesκινήσεις,
86
195000
2000
Τώρα φυσικά υπάρχουν και άλλες κινήσεις,
03:32
but with vastαπέραντος computersΥπολογιστές we approximateκατά προσέγγιση
87
197000
2000
αλλά με τεράστιους υπολογιστές εκτιμούμε
03:34
and come closeΚοντά to the optimalβέλτιστη solutionλύση.
88
199000
2000
και πλησιάζουμε στην ιδανικότερη λύση.
03:36
When it comesέρχεται to beingνα εισαι dexterousεπιδέξιος,
89
201000
2000
Σχετικά με την επιδεξιότητα,
03:38
it's not even clearΣαφή what the algorithmαλγόριθμος is you have to solveλύσει to be dexterousεπιδέξιος.
90
203000
2000
δεν είναι καν ξεκάθαρο ποιον αλγόριθμο πρέπει να λύσετε για να είστε επιδέξιοι.
03:40
And we'llΚαλά see you have to bothκαι τα δυο perceiveαντιλαμβάνονται and actενεργω on the worldκόσμος,
91
205000
2000
Και θα δούμε ότι πρέπει και να αντιληφθείτε αλλά και να πράξετε στον κόσμο,
03:42
whichοι οποίες has a lot of problemsπροβλήματα.
92
207000
2000
κάτι που έχει πολλά προβλήματα.
03:44
But let me showπροβολή you cutting-edgeαιχμής roboticsΡομποτική.
93
209000
2000
Αλλά επιτρέψτε μου να σας δείξω ρομπότ τελευταίας αιχμής.
03:46
Now a lot of roboticsΡομποτική is very impressiveΕΝΤΥΠΩΣΙΑΚΟ,
94
211000
2000
Τώρα πολλά ρομπότ είναι εντυπωσιακά,
03:48
but manipulationχειρισμός roboticsΡομποτική is really just in the darkσκοτάδι agesηλικίες.
95
213000
3000
αλλά η ρομποτική χειρισμών είναι ακόμα στον Μεσαίωνα.
03:51
So this is the endτέλος of a PhPH.D. projectέργο
96
216000
2000
Αυτό είναι το τέλος μιας διδακτορικής διατριβής
03:53
from one of the bestκαλύτερος roboticsΡομποτική institutesΙνστιτούτα.
97
218000
2000
από ένα από τα καλύτερα ιδρύματα ρομποτικής.
03:55
And the studentμαθητης σχολειου has trainedεκπαιδευμένο this robotρομπότ
98
220000
2000
Και ο φοιτητής έχει εκπαιδεύσει αυτό το ρομπότ
03:57
to pourχύνω this waterνερό into a glassποτήρι.
99
222000
2000
να βάζει νερό σε ποτήρι.
03:59
It's a hardσκληρά problemπρόβλημα because the waterνερό sloshessloshes about, but it can do it.
100
224000
3000
Είναι ένα δύσκολο πρόβλημα διότι το νερό χύνεται, αλλά μπορεί να το κάνει.
04:02
But it doesn't do it with anything like the agilityευκινησία of a humanο άνθρωπος.
101
227000
3000
Αλλά δεν το κάνει με την ευχέρεια που το κάνει ένας άνθρωπος.
04:05
Now if you want this robotρομπότ to do a differentδιαφορετικός taskέργο,
102
230000
3000
Τώρα αν θέλετε να κάνει αυτό το ρομπότ κάτι άλλο,
04:08
that's anotherαλλο three-yearτριών ετών PhPH.D. programπρόγραμμα.
103
233000
3000
θα χρειαστεί μία ακόμη τριετής διδακτορική διατριβή.
04:11
There is no generalizationγενίκευση at all
104
236000
2000
Δεν υπάρχει καμία κοινή βάση
04:13
from one taskέργο to anotherαλλο in roboticsΡομποτική.
105
238000
2000
ανάμεσα στις διάφορες εφαρμογές στην ρομποτική.
04:15
Now we can compareσυγκρίνω this
106
240000
2000
Τώρα μπορούμε να το συγκρίνουμε αυτό
04:17
to cutting-edgeαιχμής humanο άνθρωπος performanceεκτέλεση.
107
242000
2000
με τελευταίας αιχμής ανθρώπινη απόδοση.
04:19
So what I'm going to showπροβολή you is EmilyΈμιλυ FoxΑλεπού
108
244000
2000
Αυτό που θα σας δείξω είναι την Έμιλι Φοξ
04:21
winningεπιτυχής the worldκόσμος recordΡεκόρ for cupφλιτζάνι stackingστοίβαγμα.
109
246000
3000
να κερδίζει το παγκόσμιο ρεκόρ στο "χτίσιμο" με ποτήρια.
04:24
Now the AmericansΟι Αμερικανοί in the audienceακροατήριο will know all about cupφλιτζάνι stackingστοίβαγμα.
110
249000
2000
Τώρα οι Αμερικάνοι στο κοινό θα ξέρουν τα πάντα σχετικά με το "χτίσμο" με ποτήρια.
04:26
It's a highυψηλός schoolσχολείο sportΆθλημα
111
251000
2000
Είναι ένα άθλημα του γυμνασίου
04:28
where you have 12 cupsΚύπελλα you have to stackσωρός and unstackΞεκολλήστε
112
253000
2000
όπου έχεις 12 πλαστικά ποτήρια και πρέπει να τα "χτίσεις" και να τα "ξεχτίσεις"
04:30
againstκατά the clockρολόι in a prescribedσυνταγογραφούνται orderΣειρά.
113
255000
2000
με χρόνο και σε συγκεκριμένη διάταξη.
04:32
And this is her gettingνα πάρει the worldκόσμος recordΡεκόρ in realπραγματικός time.
114
257000
3000
Και εδώ,σε πραγματικό χρόνο, κάνει το παγκόσμιο ρεκόρ.
04:39
(LaughterΤο γέλιο)
115
264000
8000
(Γέλια)
04:47
(ApplauseΧειροκροτήματα)
116
272000
5000
(Χειροκρότημα)
04:52
And she's prettyαρκετά happyευτυχισμένος.
117
277000
2000
Και είναι αρκετά χαρούμενη.
04:54
We have no ideaιδέα what is going on insideμέσα her brainεγκέφαλος when she does that,
118
279000
2000
Δεν έχουμε ιδέα για το τι συμβαίνει μέσα στον εγκέφαλό της όταν το κάνει,
04:56
and that's what we'dνυμφεύω like to know.
119
281000
2000
και αυτό είναι που θα θέλαμε να μάθουμε.
04:58
So in my groupομάδα, what we try to do
120
283000
2000
Έτσι στην ομάδα μου, αυτο που προσπαθούμε να κάνουμε
05:00
is reverseΑΝΤΙΣΤΡΟΦΗ engineerμηχανικός how humansτου ανθρώπου controlέλεγχος movementκίνηση.
121
285000
3000
είναι να κατασκευάσουμε αντίστροφα το πώς οι άνθρωποι ελέγχουν την κίνηση.
05:03
And it soundsήχους like an easyεύκολος problemπρόβλημα.
122
288000
2000
Και ακούγεται απλό.
05:05
You sendστείλετε a commandεντολή down, it causesαιτίες musclesμυς to contractσύμβαση.
123
290000
2000
Στέλνεις μια εντολή, αυτή προκαλεί συστολή των μυών.
05:07
Your armμπράτσο or bodyσώμα movesκινήσεις,
124
292000
2000
Το χέρι ή το σώμα σου κινείται,
05:09
and you get sensoryαισθητήριος feedbackανατροφοδότηση from visionόραμα, from skinδέρμα, from musclesμυς and so on.
125
294000
3000
και οι αισθήσεις σου ανατροφοδοτούνται από την όραση,το δέρμα,τους μύες κλπ.
05:12
The troubleταλαιπωρία is
126
297000
2000
Το πρόβλημα είναι
05:14
these signalsσήματα are not the beautifulπανεμορφη signalsσήματα you want them to be.
127
299000
2000
ότι αυτά τα σήματα δεν είναι όσο όμορφα θα ήθελες.
05:16
So one thing that makesκάνει controllingέλεγχος movementκίνηση difficultδύσκολος
128
301000
2000
Έτσι κάτι που κάνει τον έλεγχο της κίνησης δύσκολο
05:18
is, for exampleπαράδειγμα, sensoryαισθητήριος feedbackανατροφοδότηση is extremelyεπακρώς noisyθορυβώδης.
129
303000
3000
είναι,για παράδειγμα, το ότι η ανατροφοδότηση έχει πολύ θόρυβο.
05:21
Now by noiseθόρυβος, I do not mean soundήχος.
130
306000
3000
Τώρα ως θόρυβο δεν εννοώ ήχο.
05:24
We use it in the engineeringμηχανική and neuroscienceνευροεπιστήμη senseέννοια
131
309000
2000
Τον χρησιμοποιούμε στην μηχανική και την νευρολογία
05:26
meaningέννοια a randomτυχαίος noiseθόρυβος corruptingδιαφθείρει a signalσήμα.
132
311000
2000
εννοώντας έναν τυχαίο θόρυβο που αλλοιώνει ένα σήμα.
05:28
So the oldπαλαιός daysημέρες before digitalψηφιακό radioραδιόφωνο when you were tuningtuning in your radioραδιόφωνο
133
313000
3000
Έτσι παλιότερα ,πριν το ψηφιακό ραδιόφωνο, όταν έψαχνες σταθμούς
05:31
and you heardακούσει "crrcckkkcrrcckkk" on the stationσταθμός you wanted to hearακούω,
134
316000
2000
και άκουγες "χρρρ" στο σταθμό που ήθελες να ακούσεις,
05:33
that was the noiseθόρυβος.
135
318000
2000
αυτό ήταν θόρυβος.
05:35
But more generallyγενικά, this noiseθόρυβος is something that corruptsδιαφθείρει the signalσήμα.
136
320000
3000
Αλλά γενικότερα, αυτός ο θόρυβος είναι κάτι που αλλοιώνει το σήμα.
05:38
So for exampleπαράδειγμα, if you put your handχέρι underκάτω από a tableτραπέζι
137
323000
2000
Για παράδειγμα, εάν βάλετε το χέρι σας κάτω από ένα τραπέζι
05:40
and try to localizeμεταφράσετε it with your other handχέρι,
138
325000
2000
και προσπαθήσετε να το εντοπίσετε με το άλλο σας χέρι,
05:42
you can be off by severalαρκετά centimetersΕκατοστόμετρα
139
327000
2000
θα πέσετε έξω κατά μερικά εκατοστά
05:44
dueλόγω to the noiseθόρυβος in sensoryαισθητήριος feedbackανατροφοδότηση.
140
329000
2000
εξαιτίας του θορύβου στην ανατροφοδότηση των αισθήσεων.
05:46
SimilarlyΟμοίως, when you put motorμοτέρ outputπαραγωγή on movementκίνηση outputπαραγωγή,
141
331000
2000
Παρομοίως, όταν μπει η μηχανική εισαγωγή πάνω στην κινητήρια
05:48
it's extremelyεπακρώς noisyθορυβώδης.
142
333000
2000
έχω πολύ θόρυβο.
05:50
ForgetΞεχνάμε about tryingπροσπαθεί to hitΚτύπημα the bull'sΤαύρου eyeμάτι in dartsβέλη,
143
335000
2000
Μην προσπαθείτε να χτυπήσετε κέντρο στα βελάκια,
05:52
just aimσκοπός for the sameίδιο spotσημείο over and over again.
144
337000
2000
απλά σημαδέψτε το ίδιο σημείο ξανά και ξανά.
05:54
You have a hugeτεράστιος spreadδιάδοση dueλόγω to movementκίνηση variabilityμεταβλητότητα.
145
339000
3000
Έχετε μια τεράστια διασπορά εξαιτίας της μεταβλητότητας των κινήσεων.
05:57
And more than that, the outsideεξω απο worldκόσμος, or taskέργο,
146
342000
2000
Επιπλέον,ο έξω κόσμος
05:59
is bothκαι τα δυο ambiguousδιφορούμενη and variableμεταβλητή.
147
344000
2000
είναι διφορούμενος και μεταβλητός.
06:01
The teapotτσαγιέρα could be fullγεμάτος, it could be emptyαδειάζω.
148
346000
2000
Η τσιαγέρα θα μπορούσε να είναι γεμάτη, θα μπορούσε να είναι άδεια.
06:03
It changesαλλαγές over time.
149
348000
2000
Αλλάζει με την ώρα.
06:05
So we work in a wholeολόκληρος sensoryαισθητήριος movementκίνηση taskέργο soupσούπα of noiseθόρυβος.
150
350000
4000
Έτσι δουλεύουμε σε μία σούπα θορύβου αισθητήριων και κινήσεων.
06:09
Now this noiseθόρυβος is so great
151
354000
2000
Αυτός ο θόρυβος είναι τόσο μεγάλος
06:11
that societyκοινωνία placesθέσεις a hugeτεράστιος premiumPremium
152
356000
2000
που η κοινωνία ξεχώρίζει
06:13
on those of us who can reduceπεριορίζω the consequencesσυνέπειες of noiseθόρυβος.
153
358000
3000
εκείνους που μπορούν να μειώσουν τις συνέπειες του θορύβου.
06:16
So if you're luckyτυχερός enoughαρκετά to be ableικανός to knockνοκ a smallμικρό whiteάσπρο ballμπάλα
154
361000
3000
Έτσι έαν μπορείτε να βάλετε μια άσπρη μπάλα
06:19
into a holeτρύπα severalαρκετά hundredεκατό yardsναυπηγεία away usingχρησιμοποιώντας a long metalμέταλλο stickραβδί,
155
364000
3000
σε μια τρύπα μερικές εκατοντάδες μέτρα μακριά χρησιμοποιώντας ένα μακρύ μεταλλικό μπαστούνι,
06:22
our societyκοινωνία will be willingπρόθυμος to rewardανταμοιβή you
156
367000
2000
τότε η κοινωνία θα σας αναταμείψει
06:24
with hundredsεκατοντάδες of millionsεκατομμύρια of dollarsδολάρια.
157
369000
3000
με εκατοντάδες εκατομμύρια δολλάρια.
06:27
Now what I want to convinceπείθω you of
158
372000
2000
Τώρα εγώ θέλω να σας πείσω ότι
06:29
is the brainεγκέφαλος alsoεπίσης goesπηγαίνει throughδιά μέσου a lot of effortπροσπάθεια
159
374000
2000
ο εγκέφαλος πρσπαθεί πάρα πολύ
06:31
to reduceπεριορίζω the negativeαρνητικός consequencesσυνέπειες
160
376000
2000
να μειώσει τις αρνητικές συνέπειες
06:33
of this sortείδος of noiseθόρυβος and variabilityμεταβλητότητα.
161
378000
2000
αυτού του θορύβου και αυτής της μεταβλητότητας.
06:35
And to do that, I'm going to tell you about a frameworkδομή
162
380000
2000
Και για να το κάνω αυτό,θα σας μιλήσω για ένα πλαίσιο
06:37
whichοι οποίες is very popularδημοφιλής in statisticsστατιστική and machineμηχανή learningμάθηση of the last 50 yearsχρόνια
163
382000
3000
που είναι πολύ δημοφιλές στην στατιστική και στην εκμάθηση μηχανών για πάνω από 50 χρόνια
06:40
calledπου ονομάζεται BayesianΜπεϋζιανή decisionαπόφαση theoryθεωρία.
164
385000
2000
και ονομάζεται Μπεϋζιανή θεωρία αποφάσεων.
06:42
And it's more recentlyπρόσφατα a unifyingΕνωτική way
165
387000
3000
Και είναι πιο πρόσφατα ένας ενοποιημένος τρόπος
06:45
to think about how the brainεγκέφαλος dealsσυμφωνίες with uncertaintyαβεβαιότητα.
166
390000
3000
σκέψης για το πώς αντιμετωπίζει ο εγκέφαλος την αβεβαιότητα.
06:48
And the fundamentalθεμελιώδης ideaιδέα is you want to make inferencesεξαγωγή συμπερασμάτων and then take actionsΕνέργειες.
167
393000
3000
Και η θεμελιώδης ιδέα είναι ότι θέλεις να βγάλεις συμπεράσματα προτού λάβεις μέτρα.
06:51
So let's think about the inferenceσυμπέρασμα.
168
396000
2000
Άρα ας σκεφτούμε το συμπέρασμα.
06:53
You want to generateπαράγω beliefsτις πεποιθήσεις about the worldκόσμος.
169
398000
2000
Θέλετε να παράγετε πεποιθήσεις σχετικά με τον κόσμο.
06:55
So what are beliefsτις πεποιθήσεις?
170
400000
2000
Τι είναι οι πεποιθήσεις;
06:57
BeliefsΠεποιθήσεις could be: where are my armsόπλα in spaceχώρος?
171
402000
2000
Θα μπορούσαν να είναι: πού βρίσκονται τα χέρια μου στον χώρο;
06:59
Am I looking at a catΓάτα or a foxαλεπού?
172
404000
2000
Κοιτάω μία γάτα ή μια αλεπού;
07:01
But we're going to representεκπροσωπώ beliefsτις πεποιθήσεις with probabilitiesπιθανότητες.
173
406000
3000
Αλλά θα αντιπροσωπεύσουμε τις πεποιθήσεις με πιθανότητες.
07:04
So we're going to representεκπροσωπώ a beliefπίστη
174
409000
2000
Θα αντιπροσωπεύσουμε μία πεποίθηση
07:06
with a numberαριθμός betweenμεταξύ zeroμηδέν and one --
175
411000
2000
με έναν αρθμό μεταξύ μηδέν και ένα --
07:08
zeroμηδέν meaningέννοια I don't believe it at all, one meansπου σημαίνει I'm absolutelyαπολύτως certainβέβαιος.
176
413000
3000
μηδέν για όταν δεν το πιστεύω καθόλου, και ένα για όταν είμαι απόλυτα σίγουρος.
07:11
And numbersαριθμούς in betweenμεταξύ give you the grayγκρί levelsεπίπεδα of uncertaintyαβεβαιότητα.
177
416000
3000
Και οι αριθμοί ανάμεσα δίνουν τα "γκρίζα" επίπεδα της αβεβαιότητας.
07:14
And the keyκλειδί ideaιδέα to BayesianΜπεϋζιανή inferenceσυμπέρασμα
178
419000
2000
Η βασική ιδέα στο Μπεϋζιανό συμπέρασμα
07:16
is you have two sourcesπηγές of informationπληροφορίες
179
421000
2000
είναι ότι έχεις δύο πηγές πληροφορίας
07:18
from whichοι οποίες to make your inferenceσυμπέρασμα.
180
423000
2000
για να βγάλεις το συμπέρασμά σου.
07:20
You have dataδεδομένα,
181
425000
2000
Έχεις δεδομένα,
07:22
and dataδεδομένα in neuroscienceνευροεπιστήμη is sensoryαισθητήριος inputεισαγωγή.
182
427000
2000
και τα δεδομένα στην νευρολογία είναι η αίσθηση.
07:24
So I have sensoryαισθητήριος inputεισαγωγή, whichοι οποίες I can take in to make beliefsτις πεποιθήσεις.
183
429000
3000
Έτσι έχω αίσθηση, από όπου μπορώ να φτιάξω πεποιθήσεις.
07:27
But there's anotherαλλο sourceπηγή of informationπληροφορίες, and that's effectivelyαποτελεσματικά priorπριν knowledgeη γνώση.
184
432000
3000
Αλλά υπάρχει και μία άλλη πηγή πληροφορίας, και αυτή είναι η προγενέστερη γνώση.
07:30
You accumulateσυσσωρεύω knowledgeη γνώση throughoutκαθόλη τη διάρκεια your life in memoriesαναμνήσεις.
185
435000
3000
Συσωρεύετε γνώση από όλη σας τη ζωή σε αναμνήσεις.
07:33
And the pointσημείο about BayesianΜπεϋζιανή decisionαπόφαση theoryθεωρία
186
438000
2000
Και το θέμα με την Μπεϋζιανή θεωρία αποφάσεων
07:35
is it givesδίνει you the mathematicsμαθηματικά
187
440000
2000
είναι ότι σας δίνει τα μαθηματικά
07:37
of the optimalβέλτιστη way to combineσυνδυασμός
188
442000
2000
του βέλτιστου τρόπου συνδυασμού
07:39
your priorπριν knowledgeη γνώση with your sensoryαισθητήριος evidenceαπόδειξη
189
444000
2000
της προγενέστερης γνώσης σας με τα αποτελέσματα των αισθήσεών σας
07:41
to generateπαράγω newνέος beliefsτις πεποιθήσεις.
190
446000
2000
για την παραγωγή νέων πεποιθήσεων.
07:43
And I've put the formulaτύπος up there.
191
448000
2000
Και έχω βάλει τον τύπο εκεί πάνω.
07:45
I'm not going to explainεξηγώ what that formulaτύπος is, but it's very beautifulπανεμορφη.
192
450000
2000
Δεν θα εξηγήσω τι είναι αυτός ο τύπος,αλλά είναι πολύ όμορφος.
07:47
And it has realπραγματικός beautyομορφιά and realπραγματικός explanatoryεπεξηγηματικός powerεξουσία.
193
452000
3000
Και έχει αληθινή ομορφιά και αληθινή επεξηγηματική δύναμη.
07:50
And what it really saysλέει, and what you want to estimateεκτίμηση,
194
455000
2000
Και αυτό που λέει πραγματικά,και είναι αυτό που θέλετε να υπολογίσετε
07:52
is the probabilityπιθανότητα of differentδιαφορετικός beliefsτις πεποιθήσεις
195
457000
2000
είναι την πιθανότητα διαφορετικών πεποιθήσεων
07:54
givenδεδομένος your sensoryαισθητήριος inputεισαγωγή.
196
459000
2000
δεδομένου του τι αισθανθείτε.
07:56
So let me give you an intuitiveενστικτώδης exampleπαράδειγμα.
197
461000
2000
Επιτρέψτε μου να σας δώσω ένα διαισθητικό παράδειγμα.
07:58
ImagineΦανταστείτε you're learningμάθηση to playπαίζω tennisτένις
198
463000
3000
Φανταστείτε ότι μαθαίνετε να παίζετε τέννις
08:01
and you want to decideαποφασίζω where the ballμπάλα is going to bounceαναπήδηση
199
466000
2000
και θέλετε να αποφασίσετε πού θα σκάσει το μπαλάκι
08:03
as it comesέρχεται over the netκαθαρά towardsπρος you.
200
468000
2000
καθώς περνάει το δίχτυ και έρχεται προς τα εσάς.
08:05
There are two sourcesπηγές of informationπληροφορίες
201
470000
2000
Έχουμε δύο πηγές πληροφοριών
08:07
Bayes'Bayes ruleκανόνας tellsλέει you.
202
472000
2000
κατά τον κανόνα του Μπέυζ.
08:09
There's sensoryαισθητήριος evidenceαπόδειξη -- you can use visualοπτικός informationπληροφορίες auditoryακουστικός informationπληροφορίες,
203
474000
3000
Υπάρχουν αποτελέσματα αισθήσεων -- μπορείτε να χρησιμοποιήσετε οπτικοακουστικές πληροφορίες,
08:12
and that mightθα μπορούσε tell you it's going to landγη in that redτο κόκκινο spotσημείο.
204
477000
3000
που μπορούν να σας πουν να επιτρέψετε το κόκκινο σημείο.
08:15
But you know that your sensesαισθήσεις are not perfectτέλειος,
205
480000
3000
Αλλά ξέρετε πως οι αισθήσεις σας δεν είναι τέλειες,
08:18
and thereforeεπομένως there's some variabilityμεταβλητότητα of where it's going to landγη
206
483000
2000
και για αυτό υπάρχει αβεβαιότητα για το που θα προσγειωθεί
08:20
shownαπεικονίζεται by that cloudσύννεφο of redτο κόκκινο,
207
485000
2000
που φαίνεται από το κόκκινο σύννεφο,
08:22
representingαντιπροσωπεύει numbersαριθμούς betweenμεταξύ 0.5 and maybe 0.1.
208
487000
3000
και αντιπροσωπεύει τους αριθμούς μεταξύ 0.5 και ίσως 0.1
08:26
That informationπληροφορίες is availableδιαθέσιμος in the currentρεύμα shotβολή,
209
491000
2000
Αυτή η πληροφορία είναι διαθέσιμη σε αυτή την βολή,
08:28
but there's anotherαλλο sourceπηγή of informationπληροφορίες
210
493000
2000
αλλά υπάρχει και κάποια άλλη πηγή πληροφορίας
08:30
not availableδιαθέσιμος on the currentρεύμα shotβολή,
211
495000
2000
που δεν είναι διαθέσιμη εδώ,
08:32
but only availableδιαθέσιμος by repeatedαλλεπάλληλος experienceεμπειρία in the gameπαιχνίδι of tennisτένις,
212
497000
3000
παρά μόνο μετά από αρκετή εμπειρία στο τέννις,
08:35
and that's that the ballμπάλα doesn't bounceαναπήδηση
213
500000
2000
και αυτή είναι ότι το μπαλάκι δεν σκάει
08:37
with equalίσος probabilityπιθανότητα over the courtδικαστήριο duringστη διάρκεια the matchαγώνας.
214
502000
2000
με ίση πιθανότητα κατά τη διακεια του παιχνιδιού.
08:39
If you're playingπαιχνίδι againstκατά a very good opponentαντίπαλος,
215
504000
2000
Εάν παίζετε εναντίον ενός πολύ καλού αντιπάλου,
08:41
they mayενδέχεται distributeδιανέμω it in that greenπράσινος areaπεριοχή,
216
506000
2000
μπορεί να μοιραστούν στην πράσινη περιοχή,
08:43
whichοι οποίες is the priorπριν distributionδιανομή,
217
508000
2000
που είναι η βασική κατανομή
08:45
makingκατασκευή it hardσκληρά for you to returnΕΠΙΣΤΡΟΦΗ.
218
510000
2000
κάνοντας πολύ δύσκολη την απόκρουσή σας.
08:47
Now bothκαι τα δυο these sourcesπηγές of informationπληροφορίες carryμεταφέρω importantσπουδαίος informationπληροφορίες.
219
512000
2000
Αυτές οι δύο πηγές μεταφέρουν σημαντικές πληροφορίες.
08:49
And what Bayes'Bayes ruleκανόνας saysλέει
220
514000
2000
Και σύμφωνα με τον κανόνα του Μπέυζ
08:51
is that I should multiplyπολλαπλασιάζω the numbersαριθμούς on the redτο κόκκινο by the numbersαριθμούς on the greenπράσινος
221
516000
3000
θα έπρεπε να πολλαπλασιάσω τους αριθμούς στο κόκκινο με τους αριθμούς στο πράσινο
08:54
to get the numbersαριθμούς of the yellowκίτρινος, whichοι οποίες have the ellipsesαποσιωπητικά,
222
519000
3000
για να πάρω τους αριθμούς στο κίτρινο, που έχουν τις ελλείψεις,
08:57
and that's my beliefπίστη.
223
522000
2000
και αυτή είναι τελικά η πεποίθησή μου.
08:59
So it's the optimalβέλτιστη way of combiningσυνδυάζοντας informationπληροφορίες.
224
524000
3000
Έτσι είναι ο καλύτερος τρόπος συνδυασμού πληροφορίας.
09:02
Now I wouldn'tδεν θα ήταν tell you all this if it wasn'tδεν ήταν that a fewλίγοι yearsχρόνια agoπριν,
225
527000
2000
Δεν θα σας τα έλεγα όλα αυτά εάν πριν από μερικά χρόνια,
09:04
we showedέδειξε this is exactlyακριβώς what people do
226
529000
2000
δεν δείχναμε τι ακριβώς κάνουν οι άνθρωποι
09:06
when they learnμαθαίνω newνέος movementκίνηση skillsικανότητες.
227
531000
2000
όταν μαθαίνουν νέες κινήσεις.
09:08
And what it meansπου σημαίνει
228
533000
2000
Τί σημαίνει
09:10
is we really are BayesianΜπεϋζιανή inferenceσυμπέρασμα machinesμηχανές.
229
535000
2000
ότι είμαστε Μπεϋζιανές μηχανές συμπερασμάτων.
09:12
As we go around, we learnμαθαίνω about statisticsστατιστική of the worldκόσμος and layλαϊκός that down,
230
537000
4000
Καθώς μεγαλώνουμε, μαθαίνουμε για την στατιστική στον κόσμο,
09:16
but we alsoεπίσης learnμαθαίνω
231
541000
2000
αλλά μαθαίνουμε επίσης
09:18
about how noisyθορυβώδης our ownτα δικά sensoryαισθητήριος apparatusσυσκευές is,
232
543000
2000
πόσο θορυβώδεις είναι οι δικές μας αισθητήριες "συσκευές",
09:20
and then combineσυνδυασμός those
233
545000
2000
και μετά τα συνδυάζουμε
09:22
in a realπραγματικός BayesianΜπεϋζιανή way.
234
547000
2000
με Μπεϋζιανό τρόπο.
09:24
Now a keyκλειδί partμέρος to the BayesianΜπεϋζιανή is this partμέρος of the formulaτύπος.
235
549000
3000
Το σημείο κλειδί του Μπεϋζιανού τύπου είναι αυτό εδώ το μέρος.
09:27
And what this partμέρος really saysλέει
236
552000
2000
Και αυτό που λέει
09:29
is I have to predictπρολέγω the probabilityπιθανότητα
237
554000
2000
είναι ότι πρέπει να προβλέψω την πιθανότητα
09:31
of differentδιαφορετικός sensoryαισθητήριος feedbacksανατροφοδοτήσεις
238
556000
2000
των διαφορετικών αισθητήριων ανατροφοδοτήσεων
09:33
givenδεδομένος my beliefsτις πεποιθήσεις.
239
558000
2000
σύμφωνα με τα πιστεύω μου.
09:35
So that really meansπου σημαίνει I have to make predictionsΠρογνωστικά of the futureμελλοντικός.
240
560000
3000
Έτσι αυτό σημαίνει πραγματικά ότι πρέπει να προβλέπω το μέλλον.
09:38
And I want to convinceπείθω you the brainεγκέφαλος does make predictionsΠρογνωστικά
241
563000
2000
Και θέλω να σας πείσω ότι ο εγκέφαλος κάνει προβλέψεις
09:40
of the sensoryαισθητήριος feedbackανατροφοδότηση it's going to get.
242
565000
2000
των ανατροφοδοτήσεων που πρόκειται να δεχθεί.
09:42
And moreoverΕξάλλου, it profoundlyβαθέως changesαλλαγές your perceptionsαντιλήψεις
243
567000
2000
Και επιπλέον,αλλάζει ριζικά τις αντιλήψεις σας
09:44
by what you do.
244
569000
2000
από αυτό που κάνετε.
09:46
And to do that, I'll tell you
245
571000
2000
Και για να το κάνω αυτό, θα σας πω
09:48
about how the brainεγκέφαλος dealsσυμφωνίες with sensoryαισθητήριος inputεισαγωγή.
246
573000
2000
πώς ο εγκέφαλος χειρίζεται μία αίσθηση.
09:50
So you sendστείλετε a commandεντολή out,
247
575000
3000
Στέλνετε μια εντολή,
09:53
you get sensoryαισθητήριος feedbackανατροφοδότηση back,
248
578000
2000
παίρνετε πίσω αισθητήρια ανατροφοδότηση,
09:55
and that transformationμεταμόρφωση is governedκυβερνήθηκε
249
580000
2000
και αυτή η μετατροπή διέπεται
09:57
by the physicsη φυσικη of your bodyσώμα and your sensoryαισθητήριος apparatusσυσκευές.
250
582000
3000
από την φυσική του σώματός σας και τις αισθητήριες συσκευές σας.
10:00
But you can imagineφαντάζομαι looking insideμέσα the brainεγκέφαλος.
251
585000
2000
Αλλά μπορείτε να φανταστείτε κοιτάζοντας μέσα στον εγκέφαλο.
10:02
And here'sεδώ είναι insideμέσα the brainεγκέφαλος.
252
587000
2000
Και εδώ είναι το εσωτερικό του εγκεφάλου.
10:04
You mightθα μπορούσε have a little predictorπρογνωστικός δείκτης, a neuralνευρικός simulatorπροσομοιωτή,
253
589000
2000
Μπορεί να έχετε ένα μικρό παράγοντα πρόβλεψης, ένα νευρωνικό προσομοιωτή,
10:06
of the physicsη φυσικη of your bodyσώμα and your sensesαισθήσεις.
254
591000
2000
της φυσικής του σώματός σας και των αισθήσεων σας.
10:08
So as you sendστείλετε a movementκίνηση commandεντολή down,
255
593000
2000
Έτσι καθώς στέλνετε μία εντολή για κίνηση,
10:10
you tapπαρακέντηση a copyαντιγραφή of that off
256
595000
2000
κάνετε ένα αντίγραφό της
10:12
and runτρέξιμο it into your neuralνευρικός simulatorπροσομοιωτή
257
597000
2000
και το περνάτε από τον νευρωνικό προσομοιωτή σας
10:14
to anticipateπροσδοκώ the sensoryαισθητήριος consequencesσυνέπειες of your actionsΕνέργειες.
258
599000
4000
για να δείτε τις αισθητήριες συνέπειες της κίνησής σας.
10:18
So as I shakeσέικ this ketchupκέτσαπ bottleμπουκάλι,
259
603000
2000
Έτσι ενώ κουνάω ένα μπουκάλι κέτσαπ,
10:20
I get some trueαληθής sensoryαισθητήριος feedbackανατροφοδότηση as the functionλειτουργία of time in the bottomκάτω μέρος rowσειρά.
260
605000
3000
παίρνω κάποια πραγματική αισθητηριακή ανατροφοδότηση σαν τη συνάρτηση του χρόνου στην κάτω σειρά.
10:23
And if I've got a good predictorπρογνωστικός δείκτης, it predictsπροβλέπει the sameίδιο thing.
261
608000
3000
Και εάν έχω καλό παράγοντα πρόβλεψης, προβλέπει ακριβώς το ίδιο.
10:26
Well why would I botherενοχλεί doing that?
262
611000
2000
Αλλά γιατί να το κάνω αυτό;
10:28
I'm going to get the sameίδιο feedbackανατροφοδότηση anywayΤΕΛΟΣ παντων.
263
613000
2000
Θα πάρω την ιδια ανατροφοδότηση ούτως ή άλλως.
10:30
Well there's good reasonsαιτιολογικό.
264
615000
2000
Υπάρχουν καλοί λόγοι.
10:32
ImagineΦανταστείτε, as I shakeσέικ the ketchupκέτσαπ bottleμπουκάλι,
265
617000
2000
Φανταστείτε, ενώ κουνάω την κέτσαπ,
10:34
someoneκάποιος very kindlyευγενικά comesέρχεται up to me and tapsβρύσες it on the back for me.
266
619000
3000
κάποιος πολύ ευγενικά έρχεται και χτυπάει τον πάτο του μπουκαλιού.
10:37
Now I get an extraεπιπλέον sourceπηγή of sensoryαισθητήριος informationπληροφορίες
267
622000
2000
Τώρα έχω έξτρα αισθητήρια πληροφορία
10:39
dueλόγω to that externalεξωτερικός actενεργω.
268
624000
2000
λόγω αυτής της παρέμβασης.
10:41
So I get two sourcesπηγές.
269
626000
2000
Έτσι έχω δύο πηγές.
10:43
I get you tappingτρύπημα on it, and I get me shakingκλονισμός it,
270
628000
3000
εσάς που χτυπατε τον πάτο και εμένα που κουνάω το μπουκάλι.
10:46
but from my senses'ταξίδι των αισθήσεων» pointσημείο of viewθέα,
271
631000
2000
αλλά για τις αισθήσεις μου,
10:48
that is combinedσε συνδυασμό togetherμαζί into one sourceπηγή of informationπληροφορίες.
272
633000
3000
αυτά συνδυάζονται σε μία πληροφορία.
10:51
Now there's good reasonλόγος to believe
273
636000
2000
Είναι λογικό
10:53
that you would want to be ableικανός to distinguishδιακρίνω externalεξωτερικός eventsγεγονότα from internalεσωτερικός eventsγεγονότα.
274
638000
3000
να θέλετε να έχετε την ικανότητα να ξεχωρίζετε εξωτερικά από εσωτερικά συμβάντα.
10:56
Because externalεξωτερικός eventsγεγονότα are actuallyπράγματι much more behaviorallyσυμπεριφορικά relevantσχετικό
275
641000
3000
Διότι τα εξωτερικά συμβάντα είναι πιο σχετικά με τη συμπεριφορά
10:59
than feelingσυναισθημα everything that's going on insideμέσα my bodyσώμα.
276
644000
3000
από το να αισθάνομαι ό,τι συμβαίνει μέσα μου.
11:02
So one way to reconstructανακατασκευάσει that
277
647000
2000
Ένας τρόπος να το αναδομήσω
11:04
is to compareσυγκρίνω the predictionπροφητεία --
278
649000
2000
είναι να συγκρίνω την πρόβλεψη --
11:06
whichοι οποίες is only basedμε βάση on your movementκίνηση commandsεντολές --
279
651000
2000
που βασίζεται μόνο στις κινητήριες εντολές --
11:08
with the realityπραγματικότητα.
280
653000
2000
με την πραγματικότητα.
11:10
Any discrepancyαπόκλιση should hopefullyελπίζω be externalεξωτερικός.
281
655000
3000
Οποιαδήποτε απόκλιση θα προέρχεται από έξω.
11:13
So as I go around the worldκόσμος,
282
658000
2000
Έτσι καθώς περιφέρομαι,
11:15
I'm makingκατασκευή predictionsΠρογνωστικά of what I should get, subtractingαφαιρώντας them off.
283
660000
3000
κάνω προβλέψεις για το τι θα πάρω και μετά τις αφαιρώ.
11:18
Everything left over is externalεξωτερικός to me.
284
663000
2000
Ό,τι μένει είναι για μένα εξωτερικό.
11:20
What evidenceαπόδειξη is there for this?
285
665000
2000
Τι απόδειξη έχω για αυτό;
11:22
Well there's one very clearΣαφή exampleπαράδειγμα
286
667000
2000
Υπάρχει ένα ξεκάθαρο παράδειγμα
11:24
where a sensationαίσθηση generatedδημιουργούνται by myselfεγώ ο ίδιος feelsαισθάνεται very differentδιαφορετικός
287
669000
2000
όπου κάτι που νιώθω εγώ είναι πολύ διαφορετικό
11:26
then if generatedδημιουργούνται by anotherαλλο personπρόσωπο.
288
671000
2000
όταν το νιώθει κάποιος άλλος.
11:28
And so we decidedαποφασισμένος the mostπλέον obviousφανερός placeθέση to startαρχή
289
673000
2000
Έτσι αποφασίσαμε πως το πιο πρφανές για να ξεκινήσουμε
11:30
was with ticklingΓαργάλημα.
290
675000
2000
ήταν το γαργαλητό.
11:32
It's been knownγνωστός for a long time, you can't tickleΓαργάλημα yourselfσύ ο ίδιος
291
677000
2000
Είναι γνωστό από παλιά πως δεν μπορείς να γαργαλήσεις τον εαυτό σου
11:34
as well as other people can.
292
679000
2000
όπως σε γαργαλούν οι άλλοι.
11:36
But it hasn'tδεν έχει really been shownαπεικονίζεται, it's because you have a neuralνευρικός simulatorπροσομοιωτή,
293
681000
3000
Άλλα αν και δεν έχει αποδειχθεί πραγματικά,είναι επειδή έχετε έναν νευρικό προσομοιωτή,
11:39
simulatingπροσομοίωση your ownτα δικά bodyσώμα
294
684000
2000
που προσομοιώνει το ίδιο σας το σώμα
11:41
and subtractingαφαιρώντας off that senseέννοια.
295
686000
2000
και αφαιρεί αυτή την αίσθηση.
11:43
So we can bringνα φερεις the experimentsπειράματα of the 21stst centuryαιώνας
296
688000
3000
Έτσι μπορούμε να φέρουμε τα πειράματα στον 21ου αιώνα
11:46
by applyingεφαρμόζοντας roboticρομποτικό technologiesτεχνολογίες to this problemπρόβλημα.
297
691000
3000
εφαρμόζοντας ρομποτική τεχνολογία σε αυτό το πρόβλημα.
11:49
And in effectαποτέλεσμα, what we have is some sortείδος of stickραβδί in one handχέρι attachedσυνημμένο to a robotρομπότ,
298
694000
3000
Και στην πραγματικότητα, αυτό που έχουμε είναι ένα είδος ραβδιού στο ένα χέρι που συνδέεται με ένα ρομπότ,
11:52
and they're going to moveκίνηση that back and forwardπρος τα εμπρός.
299
697000
2000
και θα το κουνήσουν μπρος πίσω.
11:54
And then we're going to trackπίστα that with a computerυπολογιστή
300
699000
2000
Στη συνέχεια θα το καταγράψουμε σε έναν υπολογιστή
11:56
and use it to controlέλεγχος anotherαλλο robotρομπότ,
301
701000
2000
και θα το χρησιμοποιήσουμε σε ένα άλλο ρομπότ,
11:58
whichοι οποίες is going to tickleΓαργάλημα theirδικα τους palmπαλάμη with anotherαλλο stickραβδί.
302
703000
2000
που θα γαργαλήσει την παλάμη τους με ένα άλλο ραβδί.
12:00
And then we're going to askπαρακαλώ them to rateτιμή a bunchδέσμη of things
303
705000
2000
Μέτα θα τους ρωτήσουμε να βαθμολογήσουν διάφορα πράγματα
12:02
includingσυμπεριλαμβανομένου ticklishnessγαργαλιστικότητα.
304
707000
2000
συμπεραλαμβανομένου και του γαργαλητού.
12:04
I'll showπροβολή you just one partμέρος of our studyμελέτη.
305
709000
2000
Θα σας δείξω ένα μέρος της μελέτης μας.
12:06
And here I've takenληφθεί away the robotsρομπότ,
306
711000
2000
Εδώ έχω απομακρύνει τα ρομπότ,
12:08
but basicallyβασικα people moveκίνηση with theirδικα τους right armμπράτσο sinusoidallysinusoidally back and forwardπρος τα εμπρός.
307
713000
3000
αλλά οι άνθρωποι κουνούν το δεξί τους χέρι ημιτονοειδώς μπρος πίσω.
12:11
And we replayεπανάληψη that to the other handχέρι with a time delayκαθυστέρηση.
308
716000
3000
Επαναλαμβάνουμε στο άλλο χέρι με λίγη καθυστέρηση.
12:14
EitherΕίτε no time delayκαθυστέρηση,
309
719000
2000
Είτε χωρίς καθυστέρηση,
12:16
in whichοι οποίες caseπερίπτωση lightφως would just tickleΓαργάλημα your palmπαλάμη,
310
721000
2000
οπότε απλά γαργαλιέται η παλάμη σας,
12:18
or with a time delayκαθυστέρηση of two-tenthsδύο δέκατα του δευτερολέπτου of three-tenthsτρία δέκατα of a secondδεύτερος.
311
723000
4000
ή με καθυστέρηση ενός,δύο και τριών δεκάτων του δευτερολέπτου.
12:22
So the importantσπουδαίος pointσημείο here
312
727000
2000
Έτσι το σημαντικό εδώ
12:24
is the right handχέρι always does the sameίδιο things -- sinusoidalημιτονοειδές movementκίνηση.
313
729000
3000
είναι ότι το δεξί χέρι κάνει πάντα τα ίδια -- ημιτονοειδή κίνηση.
12:27
The left handχέρι always is the sameίδιο and putsθέτει sinusoidalημιτονοειδές tickleΓαργάλημα.
314
732000
3000
Το αριστερό πάντα τα ίδια και γαργαλιέται ημιτονοειδώς.
12:30
All we're playingπαιχνίδι with is a tempoTempo causalityαιτιότητα.
315
735000
2000
Αυτό που μεταβάλλουμε είναι η συχνότητα του αιτίου.
12:32
And as we go from naughtμηδέν to 0.1 secondδεύτερος,
316
737000
2000
Καθώς πάμε από το μηδέν στο ένα δέκατο του δευτερολέπτου,
12:34
it becomesγίνεται more ticklishγαργαλιστική.
317
739000
2000
το γαργαλητό γίνεται εντονότερο.
12:36
As you go from 0.1 to 0.2,
318
741000
2000
Από το ένα στα δύο δέκατα του δευτερολέπτου,
12:38
it becomesγίνεται more ticklishγαργαλιστική at the endτέλος.
319
743000
2000
γίνεται πάλι πιο έντονο.
12:40
And by 0.2 of a secondδεύτερος,
320
745000
2000
Στα 2 δέκατα του δευτερολέπτου,
12:42
it's equivalentlyισοδύναμα ticklishγαργαλιστική
321
747000
2000
γίνεται το ίδιο έντονο
12:44
to the robotρομπότ that just tickledγαργαλιούνται you withoutχωρίς you doing anything.
322
749000
2000
με όταν σας γαργάλησε το ρομπότ χωρίς να κάνετε τίποτα.
12:46
So whateverοτιδήποτε is responsibleυπεύθυνος for this cancellationακύρωση
323
751000
2000
Έτσι σε ό,τι και αν οφείλεται αυτή η ακύρωση
12:48
is extremelyεπακρώς tightlyσφικτά coupledσε συνδυασμό with tempoTempo causalityαιτιότητα.
324
753000
3000
είναι αυστηρά συνδεδεμένο με την συχνότητα του αιτίου.
12:51
And basedμε βάση on this illustrationαπεικόνιση, we really convincedπεπεισμένοι ourselvesεμείς οι ίδιοι in the fieldπεδίο
325
756000
3000
Βασιζόμενοι σε αυτή την παρουσίαση, πειστήκαμε
12:54
that the brain'sτου εγκεφάλου makingκατασκευή preciseακριβής predictionsΠρογνωστικά
326
759000
2000
ότι ο εγκέφαλος κάνει ακριβείς προβλέψεις
12:56
and subtractingαφαιρώντας them off from the sensationsαισθήσεις.
327
761000
3000
και τις σβήνει από τις αισθήσεις.
12:59
Now I have to admitομολογώ, these are the worstχειριστός studiesσπουδές my labεργαστήριο has ever runτρέξιμο.
328
764000
3000
Πρέπει να παραδεχτώ, αυτή είναι η χειρότερη μελέτη που έχει κάνει ποτέ το εργαστήριό μου.
13:02
Because the tickleΓαργάλημα sensationαίσθηση on the palmπαλάμη comesέρχεται and goesπηγαίνει,
329
767000
2000
Επειδή η αίσθηση του γαργαλητού φεύγει και επανέρχεται,
13:04
you need largeμεγάλο numbersαριθμούς of subjectsμαθήματα
330
769000
2000
χρειάζονται πάρα πολλά υποκείμενα
13:06
with these starsαστέρια makingκατασκευή them significantσημαντικός.
331
771000
2000
με αστεράκια που τους κάνουν σημαντικούς.
13:08
So we were looking for a much more objectiveσκοπός way
332
773000
2000
Έτσι ψάχνουμε έναν πιο αντικειμενικό τρόπο
13:10
to assessεκτιμώ this phenomenaπρωτοφανής.
333
775000
2000
να αξιολογήσουμε αυτό το φαινόμενο.
13:12
And in the interveningπαρέμβαση yearsχρόνια I had two daughtersθυγατέρες.
334
777000
2000
Στα χρόνια που μεσολάβησαν απέκτησα δύο κόρες.
13:14
And one thing you noticeειδοποίηση about childrenπαιδιά in backseatsπίσω θέσεις του αυτοκινήτου of carsαυτοκίνητα on long journeysταξίδια,
335
779000
3000
Αυτό που παρατηρεί κανείς στα παιδιά στο πίσω κάθισμα σε ένα μεγάλο ταξίδι,
13:17
they get into fightsπαλεύει --
336
782000
2000
είναι οτι τσακώνονται --
13:19
whichοι οποίες startedξεκίνησε with one of them doing something to the other, the other retaliatingαντίποινα.
337
784000
3000
το ένα ξεκινάει να ενοχλεί το άλλο,το άλλο αντιδράει.
13:22
It quicklyγρήγορα escalatesκλιμακώνεται.
338
787000
2000
Κλιμακώνεται γρήγορα.
13:24
And childrenπαιδιά tendτείνω to get into fightsπαλεύει whichοι οποίες escalateκλιμάκωση in termsόροι of forceδύναμη.
339
789000
3000
Και τα παιδιά συνηθίζουν να μπλέκουν σε καυγάδες όπου η δύναμη κλιμακώνεται.
13:27
Now when I screamedφώναξε at my childrenπαιδιά to stop,
340
792000
2000
Όταν φώναζα στα παιδιά μου να σταματήσουν,
13:29
sometimesωρες ωρες they would bothκαι τα δυο say to me
341
794000
2000
μου έλεγαν μερικές φορές
13:31
the other personπρόσωπο hitΚτύπημα them harderπιο δυνατα.
342
796000
3000
ότι ο άλλος χτύπησε πιο δυνατά.
13:34
Now I happenσυμβεί to know my childrenπαιδιά don't lieψέμα,
343
799000
2000
Τυχαίνει να ξέρω ότι τα παιδιά μου δεν λένε ψέματα,
13:36
so I thought, as a neuroscientistΝευρολόγος,
344
801000
2000
και έτσι σκέφτηκα,σαν νευρολόγος,
13:38
it was importantσπουδαίος how I could explainεξηγώ
345
803000
2000
θα ήταν σημαντικό να εξηγήσω
13:40
how they were tellingαποτελεσματικός inconsistentασυνεπής truthsαλήθειες.
346
805000
2000
πώς λένε μη συνεπείς αλήθειες.
13:42
And we hypothesizeυποθέτουν basedμε βάση on the ticklingΓαργάλημα studyμελέτη
347
807000
2000
Υποθέτουμε σύμφωνα με την μελέτη για το γαργαλητό
13:44
that when one childπαιδί hitsχτυπήματα anotherαλλο,
348
809000
2000
ότι όταν το ένα παιδί χτυπά το άλλο
13:46
they generateπαράγω the movementκίνηση commandεντολή.
349
811000
2000
παράγει την κινητήρια εντολή.
13:48
They predictπρολέγω the sensoryαισθητήριος consequencesσυνέπειες and subtractαφαίρεση it off.
350
813000
3000
Προβλέπει τις αισθητήριες συνέπειες και μετά την αφαιρεί.
13:51
So they actuallyπράγματι think they'veέχουν hitΚτύπημα the personπρόσωπο lessπιο λιγο hardσκληρά than they have --
351
816000
2000
Έτσι πιστεύουν ότι χτύπησαν τον άλλον λιγότερο δυνατά --
13:53
ratherμάλλον like the ticklingΓαργάλημα.
352
818000
2000
κάπως σαν το γαργαλητό.
13:55
WhereasΛαμβάνοντας υπόψη ότι the passiveπαθητικός recipientπαραλήπτης
353
820000
2000
Όπου ο αποδέκτης
13:57
doesn't make the predictionπροφητεία, feelsαισθάνεται the fullγεμάτος blowπλήγμα.
354
822000
2000
δεν κάνει την πρόβλεψη, και αισθάνεται όλο το πλήγμα.
13:59
So if they retaliateαντίποινα with the sameίδιο forceδύναμη,
355
824000
2000
Έτσι αν ανταποδόσουν με την ίδια δύναμη
14:01
the first personπρόσωπο will think it's been escalatedκλιμάκωση.
356
826000
2000
ο πρώτος θα πιστέψει πως υπάρχει κλιμάκωση.
14:03
So we decidedαποφασισμένος to testδοκιμή this in the labεργαστήριο.
357
828000
2000
Έτσι αποφασίσαμε να το δοκιμάσουμε στο εργαστήριο.
14:05
(LaughterΤο γέλιο)
358
830000
3000
(Γέλια)
14:08
Now we don't work with childrenπαιδιά, we don't work with hittingνα χτυπήσει,
359
833000
2000
Δεν δουλεύουμε με παιδιά ούτε με χτυπήματα,
14:10
but the conceptέννοια is identicalπανομοιότυπο.
360
835000
2000
αλλα η ιδέα είναι η ίδια.
14:12
We bringνα φερεις in two adultsενήλικες. We tell them they're going to playπαίζω a gameπαιχνίδι.
361
837000
3000
Παίρνουμε δύο ενήλικες.Τους λέμε ότι θα παίξουν ένα παιχνίδι.
14:15
And so here'sεδώ είναι playerπαίχτης one and playerπαίχτης two sittingσυνεδρίαση oppositeαπεναντι απο to eachκαθε other.
362
840000
2000
Και εδώ ο ένας παίκτης κάθεται απέναντι στον άλλον.
14:17
And the gameπαιχνίδι is very simpleαπλός.
363
842000
2000
Το παιχνίδι είναι πολύ απλό.
14:19
We startedξεκίνησε with a motorμοτέρ
364
844000
2000
Ξεκινήσαμε με μία μηχανή
14:21
with a little leverμοχλός, a little forceδύναμη transfusertransfuser.
365
846000
2000
με έναν μικρό μοχλό, εναν μικρό μεταδότη κίνησης.
14:23
And we use this motorμοτέρ to applyισχύουν forceδύναμη down to playerπαίχτης one'sκάποιου fingersδάχτυλα
366
848000
2000
Χρησιμοποιούμε αυτή την μηχανή για να ασκήσουμε δύναμη στα δάχτυλα του πρώτου παίκτη
14:25
for threeτρία secondsδευτερολέπτων and then it stopsσταματά.
367
850000
3000
για τρία δευτερόλεπτα.
14:28
And that player'sτου παίκτη been told, rememberθυμάμαι the experienceεμπειρία of that forceδύναμη
368
853000
3000
Λέμε στον παίκτη να θυμηθεί πώς ένιωσε την δύναμη
14:31
and use your other fingerδάχτυλο
369
856000
2000
και με το άλλο δάχτυλο
14:33
to applyισχύουν the sameίδιο forceδύναμη
370
858000
2000
να ασκήσει την ίδια δύναμη
14:35
down to the other subject'sτου υποκειμένου fingerδάχτυλο throughδιά μέσου a forceδύναμη transfusertransfuser -- and they do that.
371
860000
3000
στο δάχτυλο του άλλου παίκτη μέσω ενός μεταδότη δύναμης -- και το κάνουν.
14:38
And playerπαίχτης two'sδύο been told, rememberθυμάμαι the experienceεμπειρία of that forceδύναμη.
372
863000
3000
Λέμε στον δεύτερο παίχτη να θυμηθεί την δύναμη.
14:41
Use your other handχέρι to applyισχύουν the forceδύναμη back down.
373
866000
3000
Και με το άλλο χέρι να την εφαρμόσει πίσω.
14:44
And so they take it in turnsστροφές
374
869000
2000
Και έτσι ο καθένας
14:46
to applyισχύουν the forceδύναμη they'veέχουν just experiencedέμπειρος back and forwardπρος τα εμπρός.
375
871000
2000
εφαρμόζει τη δύναμη που μόλις δέχτηκε.
14:48
But criticallyκρισίμως,
376
873000
2000
Αλλά
14:50
they're briefedενημέρωσε about the rulesκανόνες of the gameπαιχνίδι in separateξεχωριστός roomsδωμάτια.
377
875000
3000
οι κανόνες τους έχουν δωθεί σε διαφορετικά δωμάτια.
14:53
So they don't know the rulesκανόνες the other person'sτου ατόμου playingπαιχνίδι by.
378
878000
2000
Έτσι ο ένας δεν ξέρει με ποιούς κανόνες παίζει ο άλλος.
14:55
And what we'veέχουμε measuredμετρημένος
379
880000
2000
Μετρήσαμε
14:57
is the forceδύναμη as a functionλειτουργία of termsόροι.
380
882000
2000
τη δύναμη ως συνάρτηση των εκτελέσεων.
14:59
And if we look at what we startαρχή with,
381
884000
2000
Αν δούμε με τι αρχίζουμε,
15:01
a quarterτέταρτο of a NewtonΝιούτον there, a numberαριθμός of turnsστροφές,
382
886000
2000
ένα τέταρτο του Νιούτον με τον αριθμό των εκτελέσεων,
15:03
perfectτέλειος would be that redτο κόκκινο lineγραμμή.
383
888000
2000
το τέλειο θα ήταν η κόκκινη γραμμή.
15:05
And what we see in all pairsζεύγη of subjectsμαθήματα is this --
384
890000
3000
Αυτό που βλέπουμε σε όλα τα ζεύγη συμμετεχόντων είναι αυτό --
15:08
a 70 percentτοις εκατό escalationκλιμάκωση in forceδύναμη
385
893000
2000
μία κλιμάκωση της δύναμης κατά 70%
15:10
on eachκαθε go.
386
895000
2000
σε κάθε εκτέλεση.
15:12
So it really suggestsπροτείνει, when you're doing this --
387
897000
2000
Έτσι το συμπέρασμα είναι --
15:14
basedμε βάση on this studyμελέτη and othersοι υπολοιποι we'veέχουμε doneΈγινε --
388
899000
2000
βάσει και άλλων μελετών μας --
15:16
that the brainεγκέφαλος is cancelingακύρωση the sensoryαισθητήριος consequencesσυνέπειες
389
901000
2000
ότι ο εγκέφαλος ακυρώνει τις συνέπειες όσων αισθανόμαστε
15:18
and underestimatingυποτιμώντας the forceδύναμη it's producingπαραγωγή.
390
903000
2000
και υποτιμά τη δύναμη που παράγει.
15:20
So it re-showsεκ νέου δείχνει the brainεγκέφαλος makesκάνει predictionsΠρογνωστικά
391
905000
2000
Άρα μας ξαναδείχνει ότι ο εγκέφαλος κάνει προβλέψεις
15:22
and fundamentallyθεμελιωδώς changesαλλαγές the preceptsΔΙΔΑΓΜΑΤΑ.
392
907000
3000
και αλλάζει ριζικά τους ηθικούς κανόνες.
15:25
So we'veέχουμε madeέκανε inferencesεξαγωγή συμπερασμάτων, we'veέχουμε doneΈγινε predictionsΠρογνωστικά,
393
910000
3000
Οπότε είδαμε τα συμπεράσματα,είδαμε τις προβλέψεις,
15:28
now we have to generateπαράγω actionsΕνέργειες.
394
913000
2000
τώρα πρέπει να δούμε την ανάπτυξη ενεργειών.
15:30
And what Bayes'Bayes ruleκανόνας saysλέει is, givenδεδομένος my beliefsτις πεποιθήσεις,
395
915000
2000
Αυτό που θεωρώ ότι λέει ο κανόνας του Μπέυζ
15:32
the actionδράση should in some senseέννοια be optimalβέλτιστη.
396
917000
2000
είναι πως κάθε ενέργεια θα πρέπει να είναι η καλύτερη κατά κάποιο τρόπο.
15:34
But we'veέχουμε got a problemπρόβλημα.
397
919000
2000
Άλλα έχουμε ένα πρόβλημα.
15:36
TasksΕργασίες are symbolicσυμβολική -- I want to drinkποτό, I want to danceχορός --
398
921000
3000
Οι εργασίες είναι συμβολικές -- θέλω να πιω, θέλω να χορέψω --
15:39
but the movementκίνηση systemΣύστημα has to contractσύμβαση 600 musclesμυς
399
924000
2000
αλλά το σύστημά μου πρέπει να κινήσει 600 μύες
15:41
in a particularιδιαιτερος sequenceαλληλουχία.
400
926000
2000
με συγκεκριμένη σειρά.
15:43
And there's a bigμεγάλο gapχάσμα
401
928000
2000
Υπάρχει ένα μεγάλο κενό
15:45
betweenμεταξύ the taskέργο and the movementκίνηση systemΣύστημα.
402
930000
2000
ανάμεσα στην εργασία και το σύστημά μου.
15:47
So it could be bridgedγεφυρωθεί in infinitelyαπείρως manyΠολλά differentδιαφορετικός waysτρόπους.
403
932000
2000
Θα μπορούσε να γεφυρωθεί με άπειρους τρόπους.
15:49
So think about just a pointσημείο to pointσημείο movementκίνηση.
404
934000
2000
Σκεφτείτε μία απλή κίνηση από ένα σημείο σε ένα άλλο.
15:51
I could chooseεπιλέγω these two pathsδιαδρομές
405
936000
2000
Θα μπορούσα να διαλέξω αυτούς τους δύο δρόμους
15:53
out of an infiniteάπειρος numberαριθμός of pathsδιαδρομές.
406
938000
2000
από ένα σύνολο άπειρων δρόμων.
15:55
HavingΈχοντας chosenεκλεκτός a particularιδιαιτερος pathμονοπάτι,
407
940000
2000
Αφού διαλέξω έναν δρόμο,
15:57
I can holdΚρατήστε my handχέρι on that pathμονοπάτι
408
942000
2000
μπορώ να κρατήσω το χέρι μου εκεί
15:59
as infinitelyαπείρως manyΠολλά differentδιαφορετικός jointάρθρωση configurationsδιαμορφώσεις.
409
944000
2000
ενώ κάνω άπειρους συνδυασμούς με τις αρθρώσεις μου.
16:01
And I can holdΚρατήστε my armμπράτσο in a particularιδιαιτερος jointάρθρωση configurationρύθμιση παραμέτρων
410
946000
2000
Επίσης μπορώ να κρατήσω το χέρι με έναν συγκεκριμένο συνδυασμό
16:03
eitherείτε very stiffδύσκαμπτος or very relaxedχαλαρή.
411
948000
2000
και να το σφίξω ή να το χαλαρώσω.
16:05
So I have a hugeτεράστιος amountποσό of choiceεπιλογή to make.
412
950000
3000
Έτσι έχουμε έναν τεράστιο αριθμό επιλογών.
16:08
Now it turnsστροφές out, we are extremelyεπακρώς stereotypicalστερεοτυπικές.
413
953000
3000
Αποδεικνύεται όμως ότι μας αρέσουν τα στερεότυπα.
16:11
We all moveκίνηση the sameίδιο way prettyαρκετά much.
414
956000
3000
Όλοι κινούμαστε σχεδόν με τον ίδιο τρόπο.
16:14
And so it turnsστροφές out we're so stereotypicalστερεοτυπικές,
415
959000
2000
Μάλιστα είμαστε τόσο στερεοτυπικοί,
16:16
our brainsμυαλά have got dedicatedαφιερωμένη neuralνευρικός circuitryκυκλώματα
416
961000
2000
που οι εγκέφαλοί μας έχουν νευρικό κύκλωμα
16:18
to decodeαποκωδικοποίηση this stereotypingτα στερεότυπα.
417
963000
2000
για να αποκοδικωποιούν αυτον τον στερεοτυπισμό.
16:20
So if I take some dotsκουκκίδες
418
965000
2000
Αν πάρω μερικές τελείες
16:22
and setσειρά them in motionκίνηση with biologicalβιολογικός motionκίνηση,
419
967000
3000
και τις βάλω να κινούνται με ανθρώπινες κινήσεις,
16:25
your brain'sτου εγκεφάλου circuitryκυκλώματα would understandκαταλαβαίνουν instantlyστη στιγμή what's going on.
420
970000
3000
το κύκλωμα του εγκεφάλου σας θα καταλάβει αμέσως τι συμβαίνει.
16:28
Now this is a bunchδέσμη of dotsκουκκίδες movingκίνηση.
421
973000
2000
Αυτό είναι ένα μάτσο τελείες που κουνιούνται.
16:30
You will know what this personπρόσωπο is doing,
422
975000
3000
Θα ξέρετε τι κάνει αυτός εδώ,
16:33
whetherκατά πόσο happyευτυχισμένος, sadλυπημένος, oldπαλαιός, youngνεαρός -- a hugeτεράστιος amountποσό of informationπληροφορίες.
423
978000
3000
εάν είναι χαρούμενος,λυπημένος,ηλικιωμένος,νέος -- πάρα πολλές πληροφορίες.
16:36
If these dotsκουκκίδες were carsαυτοκίνητα going on a racingιπποδρομίες circuitκύκλωμα,
424
981000
2000
Έαν οι τελείες ήταν αυτοκίνητα σε πίστα,
16:38
you would have absolutelyαπολύτως no ideaιδέα what's going on.
425
983000
3000
δεν θα είχατε ιδέα περί τίνος πρόκειται.
16:41
So why is it
426
986000
2000
Γιατί λοιπόν
16:43
that we moveκίνηση the particularιδιαιτερος waysτρόπους we do?
427
988000
2000
κινούμαστε όπως κινούμαστε;
16:45
Well let's think about what really happensσυμβαίνει.
428
990000
2000
Ας σκεφτούμε τι συμβαίνει πραγματικά.
16:47
Maybe we don't all quiteαρκετά moveκίνηση the sameίδιο way.
429
992000
3000
Ίσως δεν κινούμαστε όλοι το ίδιο.
16:50
Maybe there's variationπαραλλαγή in the populationπληθυσμός.
430
995000
2000
Ίσως υπάρχουν διαφορές μέσα στον πληθυσμό.
16:52
And maybe those who moveκίνηση better than othersοι υπολοιποι
431
997000
2000
Και ίσως εκείνοι που κινούνται καλύτερα από τους άλλους
16:54
have got more chanceευκαιρία of gettingνα πάρει theirδικα τους childrenπαιδιά into the nextεπόμενος generationγενιά.
432
999000
2000
να έχουν περισσότερες πιθανότητες να κάνουν παιδιά.
16:56
So in evolutionaryεξελικτική scalesΖυγός, movementsκινήσεις get better.
433
1001000
3000
Έτσι εξελιγκτικώς, οι κινήσεις μας γίνονται καλύτερες.
16:59
And perhapsίσως in life, movementsκινήσεις get better throughδιά μέσου learningμάθηση.
434
1004000
3000
Και ίσως στη ζωή, οι κινήσεις βελτιώνονται μέσω της μάθησης.
17:02
So what is it about a movementκίνηση whichοι οποίες is good or badκακό?
435
1007000
2000
Τι κάνει όμως μία κίνηση καλή ή κακή;
17:04
ImagineΦανταστείτε I want to interceptσημείο τομής this ballμπάλα.
436
1009000
2000
Φανταστείτε ότι θέλω να πιάσω αυτή την μπάλα.
17:06
Here are two possibleδυνατόν pathsδιαδρομές to that ballμπάλα.
437
1011000
3000
Εδώ έχω δύο πιθανούς τρόπους.
17:09
Well if I chooseεπιλέγω the left-handαριστερόχειρας pathμονοπάτι,
438
1014000
2000
Εάν διαλέξω τον αριστερό τρόπο,
17:11
I can work out the forcesδυνάμεις requiredαπαιτείται
439
1016000
2000
Μπορώ να υπολογίσω τις δυνάμεις που χρειάζονται
17:13
in one of my musclesμυς as a functionλειτουργία of time.
440
1018000
2000
σε ένα από τους μύες μου συναρτήσει του χρόνου.
17:15
But there's noiseθόρυβος addedπρόσθεσε to this.
441
1020000
2000
Αλλά υπάρχει θόρυβος.
17:17
So what I actuallyπράγματι get, basedμε βάση on this lovelyωραίος, smoothλείος, desiredεπιθυμητό forceδύναμη,
442
1022000
3000
Έτσι τελικά με αυτή την ωραία,απαλή δύναμη, παίρνω
17:20
is a very noisyθορυβώδης versionεκδοχή.
443
1025000
2000
έναν τρόπο με πολύ θόρυβο.
17:22
So if I pickδιαλέγω the sameίδιο commandεντολή throughδιά μέσου manyΠολλά timesφορές,
444
1027000
3000
Αν διαλέξω το ίδιο πολλές φορές,
17:25
I will get a differentδιαφορετικός noisyθορυβώδης versionεκδοχή eachκαθε time, because noiseθόρυβος changesαλλαγές eachκαθε time.
445
1030000
3000
θα πάρω διαφορετικούς θορυβώδεις τρόπους, επειδή ο θόρυβος αλλάζει κάθε φορά.
17:28
So what I can showπροβολή you here
446
1033000
2000
Αυτό που μπορώ να σας δείξω εδώ
17:30
is how the variabilityμεταβλητότητα of the movementκίνηση will evolveαναπτύσσω
447
1035000
2000
είναι πώς θα εξελειχθεί η μεταβλητότητα της κίνησης
17:32
if I chooseεπιλέγω that way.
448
1037000
2000
αν διαλέξω αυτόν τον τρόπο.
17:34
If I chooseεπιλέγω a differentδιαφορετικός way of movingκίνηση -- on the right for exampleπαράδειγμα --
449
1039000
3000
Εάν διαλέξω άλλο τρόπο -- τον δεξί για παράδειγμα --
17:37
then I'll have a differentδιαφορετικός commandεντολή, differentδιαφορετικός noiseθόρυβος,
450
1042000
2000
θα έχω διαφορετική εντολή, διαφορετικό θόρυβο,
17:39
playingπαιχνίδι throughδιά μέσου a noisyθορυβώδης systemΣύστημα, very complicatedπερίπλοκος.
451
1044000
3000
να παίζουν μέσα σε ένα μη γραμμικό σύστημα, πολύ πολύπλοκα.
17:42
All we can be sure of is the variabilityμεταβλητότητα will be differentδιαφορετικός.
452
1047000
3000
Για το μόνο που είμαστε σίγουροι είναι ότι η μεταβλητότητα θα είναι διαφορετική.
17:45
If I moveκίνηση in this particularιδιαιτερος way,
453
1050000
2000
Έαν κινηθώ έτσι,
17:47
I endτέλος up with a smallerμικρότερος variabilityμεταβλητότητα acrossαπέναντι manyΠολλά movementsκινήσεις.
454
1052000
3000
καταλήγω με μικρότερη μεταβλητότητα.
17:50
So if I have to chooseεπιλέγω betweenμεταξύ those two,
455
1055000
2000
Εάν λοιπόν έπρεπε να διαλέξω,
17:52
I would chooseεπιλέγω the right one because it's lessπιο λιγο variableμεταβλητή.
456
1057000
2000
θα διάλεγα τον δεξί επειδή έχει μικρότερη μεταβλητότητα.
17:54
And the fundamentalθεμελιώδης ideaιδέα
457
1059000
2000
Η ριζική ιδέα
17:56
is you want to planσχέδιο your movementsκινήσεις
458
1061000
2000
είναι ότι θέλετε να σχεδιάσετε τις κινήσεις σας
17:58
so as to minimizeσμικροποιώ the negativeαρνητικός consequenceσυνέπεια of the noiseθόρυβος.
459
1063000
3000
ώστε να ελαχιστοποιηθούν οι επιπτώσεις του θορύβου.
18:01
And one intuitionδιαίσθηση to get
460
1066000
2000
Μία διαίσθηση που καταλήγουμε
18:03
is actuallyπράγματι the amountποσό of noiseθόρυβος or variabilityμεταβλητότητα I showπροβολή here
461
1068000
2000
είναι ότι το μέγεθος του θορύβου ή η μεταβλητότητα που έδειξα
18:05
getsπαίρνει biggerμεγαλύτερος as the forceδύναμη getsπαίρνει biggerμεγαλύτερος.
462
1070000
2000
μεγαλώνει καθώς αυξάνεται η δύναμη.
18:07
So you want to avoidαποφύγει bigμεγάλο forcesδυνάμεις as one principleαρχή.
463
1072000
3000
Έτσι θέλετε να αποφύγετε μεγάλες δυνάμεις ώς αρχή.
18:10
So we'veέχουμε shownαπεικονίζεται that usingχρησιμοποιώντας this,
464
1075000
2000
Δείξαμε ότι με αυτό εδώ,
18:12
we can explainεξηγώ a hugeτεράστιος amountποσό of dataδεδομένα --
465
1077000
2000
μπορούμε να εξηγήσουμε έναν τεράστιο αριθμό δεδομένων --
18:14
that exactlyακριβώς people are going about theirδικα τους livesζωή planningσχεδίαση movementsκινήσεις
466
1079000
3000
ότι ακριβώς οι άνθρωποι στη ζωή τους σχεδιάζουν κινήσεις
18:17
so as to minimizeσμικροποιώ negativeαρνητικός consequencesσυνέπειες of noiseθόρυβος.
467
1082000
3000
με σκοπό την ελαχιστοποίηση των επιπτώσεων του θορύβου.
18:20
So I hopeελπίδα I've convincedπεπεισμένοι you the brainεγκέφαλος is there
468
1085000
2000
Έστι ελπίζω να σας έπεισα ότι ο εγκέφαλος υπάρχει
18:22
and evolvedεξελίχθηκε to controlέλεγχος movementκίνηση.
469
1087000
2000
και εξελίχθηκε για να ελέγχει τις κινήσεις.
18:24
And it's an intellectualδιανοούμενος challengeπρόκληση to understandκαταλαβαίνουν how we do that.
470
1089000
3000
Είναι μία πνευματική πρόκληση να καταλάβουμε πώς γίνεται.
18:27
But it's alsoεπίσης relevantσχετικό
471
1092000
2000
Αλλά είναι το ίδιο σχετικό
18:29
for diseaseασθένεια and rehabilitationαποκατάσταση.
472
1094000
2000
με τις αρρώστιες και την αποκατάσταση.
18:31
There are manyΠολλά diseasesασθένειες whichοι οποίες effectαποτέλεσμα movementκίνηση.
473
1096000
3000
Υπάρχουν πολλές αρρώστιες που επηρεάζουν την κίνηση.
18:34
And hopefullyελπίζω if we understandκαταλαβαίνουν how we controlέλεγχος movementκίνηση,
474
1099000
2000
Και ελπίζουμε πως αν καταλάβουμε το πως ελέγχεται η κίνηση,
18:36
we can applyισχύουν that to roboticρομποτικό technologyτεχνολογία.
475
1101000
2000
θα μπορούμε να το εφαρμόσουμε στην ρομποτική.
18:38
And finallyτελικά, I want to remindυπενθυμίζω you,
476
1103000
2000
Και τελικώς,θέλω να σας υπενθυμίσω
18:40
when you see animalsτων ζώων do what look like very simpleαπλός tasksκαθήκοντα,
477
1105000
2000
ότι όταν βλέπετε ζώα να κάνουν κάτι που φαίνεται απλό,
18:42
the actualπραγματικός complexityπερίπλοκο of what is going on insideμέσα theirδικα τους brainεγκέφαλος
478
1107000
2000
η πραγματική πολυπλοκότητα του τι συμβαίνει μέσα στον εγκέφαλό τους
18:44
is really quiteαρκετά dramaticδραματικός.
479
1109000
2000
είναι αρκετά δραματική.
18:46
Thank you very much.
480
1111000
2000
Σας ευχαριστώ πολύ.
18:48
(ApplauseΧειροκροτήματα)
481
1113000
8000
(Χειροκρότημα)
18:56
ChrisChris AndersonΆντερσον: QuickΓρήγορη questionερώτηση for you, DanDan.
482
1121000
2000
Κρις Άντερσον: Σου έχω μία γρήγορη ερώτηση, Νταν
18:58
So you're a movementκίνηση -- (DWDW: ChauvinistΣωβινιστής.) -- chauvinistσωβινιστής.
483
1123000
4000
Είσαι λοιπόν ένας σωβινιστής της κίνησης.
19:02
Does that mean that you think that the other things we think our brainsμυαλά are about --
484
1127000
3000
Αυτό σημαίνει ότι τα υπόλοιπα που πιστεύουμε ότι κάνει ο εγκέφαλός μας --
19:05
the dreamingόνειρα, the yearningλαχτάρα, the fallingπτώση in love and all these things --
485
1130000
3000
τα όνειρα,το χασμουρητό,τον έρωτα, όλα αυτα --
19:08
are a kindείδος of sideπλευρά showπροβολή, an accidentατύχημα?
486
1133000
3000
είναι κάτι παράπλευρο, ένα ατύχημα;
19:11
DWDW: No, no, actuallyπράγματι I think they're all importantσπουδαίος
487
1136000
2000
Όχι,όχι πιστεύω ότι όλα είναι σημαντικά
19:13
to driveοδηγώ the right movementκίνηση behaviorη ΣΥΜΠΕΡΙΦΟΡΑ to get reproductionαναπαραγωγή in the endτέλος.
488
1138000
3000
στο να οδηγήσουν στις σωστες κινήσεις και τελικώς σε κάτι παραγωγικό.
19:16
So I think people who studyμελέτη sensationαίσθηση or memoryμνήμη
489
1141000
3000
Έτσι πιστεύω πως οι άνθρωποι μελετούν τις αισθήσεις ή την μνήμη
19:19
withoutχωρίς realizingσυνειδητοποιώντας why you're layingγια τον καθορισμό down memoriesαναμνήσεις of childhoodΠαιδική ηλικία.
490
1144000
2000
χωρίς να συνειδητοποιούν για ποιο λόγο έχουμε μνήμες από τα παιδικά μας χρόνια.
19:21
The factγεγονός that we forgetξεχνάμε mostπλέον of our childhoodΠαιδική ηλικία, for exampleπαράδειγμα,
491
1146000
3000
Το γεγονός ότι ξεχνάμε το μεγαλύτερο μέρος της παιδικής μας ηλικίας, για παράδειγμα,
19:24
is probablyπιθανώς fine, because it doesn't effectαποτέλεσμα our movementsκινήσεις laterαργότερα in life.
492
1149000
3000
είναι μάλλον καλό, επειδή δεν επηρεάζει τις κινήσεις μας αργότερα στη ζωή.
19:27
You only need to storeκατάστημα things whichοι οποίες are really going to effectαποτέλεσμα movementκίνηση.
493
1152000
3000
Χρειάζεται να αποθηκεύουμε μόνο εκείνα που θα επηρεάσουν τον τρόπο που κινούμαστε.
19:30
CACA: So you think that people thinkingσκέψη about the brainεγκέφαλος, and consciousnessσυνείδηση generallyγενικά,
494
1155000
3000
Άρα πιστεύετε ότι όσοι ασχολούνται με τον εγκέφαλο, και τη συνείδηση γενικότερα,
19:33
could get realπραγματικός insightδιορατικότητα
495
1158000
2000
μπορούν να γίνουν πιο διορατικοί
19:35
by sayingρητό, where does movementκίνηση playπαίζω in this gameπαιχνίδι?
496
1160000
2000
αν αναρωτηθούν τον ρόλο της κίνησης;
19:37
DWDW: So people have foundβρέθηκαν out for exampleπαράδειγμα
497
1162000
2000
Οι άνθρωποι έχουν ανακαλύψει για παράδειγμα
19:39
that studyingμελετώντας visionόραμα in the absenceαπουσία of realizingσυνειδητοποιώντας why you have visionόραμα
498
1164000
2000
ότι το να μελετούν την όραση χωρίς να έχουν καταλάβει γιατί την έχουμε
19:41
is a mistakeλάθος.
499
1166000
2000
είναι λάθος.
19:43
You have to studyμελέτη visionόραμα with the realizationυλοποίηση
500
1168000
2000
Πρέπει να μελετήσεις την όραση με την αντίληψη
19:45
of how the movementκίνηση systemΣύστημα is going to use visionόραμα.
501
1170000
2000
του πώς το σύστημα κίνησης θα την χρησιμοποιήσει.
19:47
And it usesχρήσεις it very differentlyδιαφορετικά onceμια φορά you think about it that way.
502
1172000
2000
Και την χρησιμοποιεί πολύ διαφορετικά εάν το δεις από αυτή τη σκοπιά.
19:49
CACA: Well that was quiteαρκετά fascinatingγοητευτικός. Thank you very much indeedπράγματι.
503
1174000
3000
Λοιπόν ήταν συναρπαστικό.Σας ευχαριστούμε πάρα πολύ.
19:52
(ApplauseΧειροκροτήματα)
504
1177000
2000
(Χειροκροτήματα)
Translated by Yiannis Gerardis
Reviewed by Vasiliki Fragkoulidou

▲Back to top

ABOUT THE SPEAKER
Daniel Wolpert - Movement expert
A neuroscientist and engineer, Daniel Wolpert studies how the brain controls the body.

Why you should listen

Consider your hand. You use it to lift things, to balance yourself, to give and take, to sense the world. It has a range of interacting degrees of freedom, and it interacts with many different objects under a variety of environmental conditions. And for most of us, it all just works. At his lab in the Engineering department at Cambridge, Daniel Wolpert and his team are studying why, looking to understand the computations underlying the brain's sensorimotor control of the body.

As he says, "I believe that to understand movement is to understand the whole brain. And therefore it’s important to remember when you are studying memory, cognition, sensory processing, they’re there for a reason, and that reason is action.”  Movement is the only way we have of interacting with the world, whether foraging for food or attracting a waiter's attention. Indeed, all communication, including speech, sign language, gestures and writing, is mediated via the motor system. Taking this viewpoint, and using computational and robotic techniques as well as virtual reality systems, Wolpert and his team research the purpose of the human brain and the way it determines future actions.

 

 

More profile about the speaker
Daniel Wolpert | Speaker | TED.com