ABOUT THE SPEAKER
Jeff Hawkins - Computer designer, brain researcher
Jeff Hawkins pioneered the development of PDAs such as the Palm and Treo. Now he's trying to understand how the human brain really works, and adapt its method -- which he describes as a deep system for storing memory -- to create new kinds of computers and tools.

Why you should listen

Jeff Hawkins' Palm PDA became such a widely used productivity tool during the 1990s that some fanatical users claimed it replaced their brains. But Hawkins' deepest interest was in the brain itself. So after the success of the Palm and Treo, which he brought to market at Handspring, Hawkins delved into brain research at the Redwood Center for Theoretical Neuroscience in Berkeley, Calif., and a new company called Numenta.

Hawkins' dual goal is to achieve an understanding of how the human brain actually works -- and then develop software to mimic its functionality, delivering true artificial intelligence. In his book On Intelligence (2004) he lays out his compelling, controversial theory: Contrary to popular AI wisdom, the human neocortex doesn't work like a processor; rather, it relies on a memory system that stores and plays back experiences to help us predict, intelligently, what will happen next. He thinks that "hierarchical temporal memory" computer platforms, which mimic this functionality (and which Numenta might pioneer), could enable groundbreaking new applications that could powerfully extend human intelligence.

More profile about the speaker
Jeff Hawkins | Speaker | TED.com
TED2003

Jeff Hawkins: How brain science will change computing

Jeff Hawkins über die Veränderungen die Gehirnforschung in der Informatik bringen wird.

Filmed:
1,674,773 views

Erfinder von Treo, Jeff Hawkins, drängt uns dazu einen neuen Blick auf das Gehirn zu werfen -- es nicht als schnellen Prozessor zu sehen, sondern als ein Speichersystem, das Erfahrungen speichert und wiederherstellt und uns so dabei hilft intelligente Vorraussagen zu treffen, was als nächstes passiert.
- Computer designer, brain researcher
Jeff Hawkins pioneered the development of PDAs such as the Palm and Treo. Now he's trying to understand how the human brain really works, and adapt its method -- which he describes as a deep system for storing memory -- to create new kinds of computers and tools. Full bio

Double-click the English transcript below to play the video.

00:25
I do two things: I designEntwurf mobileMobile computersComputer and I studyStudie brainsGehirne.
0
0
3000
Ich mache zwei Dinge. Ich entwerfe tragbare Computer und erforsche das Gehirn.
00:29
And today'sheutige talk is about brainsGehirne and,
1
4000
2000
Im heutigen Vortrag geht es um das Gehirn und,
00:31
yayYay, somewhereirgendwo I have a brainGehirn fanVentilator out there.
2
6000
2000
juhu, irgendwo da draußen ist ein Gehirnfan.
00:33
(LaughterLachen)
3
8000
2000
(Lachen)
00:35
I'm going to, if I can have my first slidegleiten up here,
4
10000
2000
Ich werde, kann ich meine erste Folie haben,
00:37
and you'lldu wirst see the titleTitel of my talk and my two affiliationsZugehörigkeiten.
5
12000
4000
und ihr werdet den Titel des Vortrags und meine zwei Leidenschaften sehen.
00:41
So what I'm going to talk about is why we don't have a good brainGehirn theoryTheorie,
6
16000
4000
Ich werde darüber sprechen warum wir keine gute Gehirntheorie haben,
00:45
why it is importantwichtig that we should developentwickeln one and what we can do about it.
7
20000
3000
warum es wichtig ist, dass wir eine entwickeln und was wir dafür tun können.
00:48
And I'll try to do all that in 20 minutesProtokoll. I have two affiliationsZugehörigkeiten.
8
23000
3000
Ich werde all das in 20 Minuten versuchen. Ich habe zwei Leidenschaften.
00:51
MostDie meisten of you know me from my PalmPalm and HandspringHandspring daysTage,
9
26000
3000
Die meisten von euch kennen mich aus meinen Palm und Handspring Tagen.
00:54
but I alsoebenfalls runLauf a nonprofitgemeinnützig scientificwissenschaftlich researchForschung instituteInstitut
10
29000
3000
aber ich leite außerdem ein gemeinnütziges Forschungsinstitut
00:57
callednamens the RedwoodRedwood NeuroscienceNeurowissenschaften InstituteInstitut in MenloMenlo ParkPark,
11
32000
2000
mit dem Namen Redwood Neuroscience Institute in Menlo Park
00:59
and we studyStudie theoreticaltheoretisch neuroscienceNeurowissenschaften,
12
34000
2000
und wir erforschen theoretische Neurowissenschaft.
01:01
and we studyStudie how the neocortexNeocortex worksWerke.
13
36000
2000
und wir erforschen die Funktionsweise des Neocortex.
01:03
I'm going to talk all about that.
14
38000
2000
Darüber werde ich euch berichten.
01:05
I have one slidegleiten on my other life, the computerComputer life, and that's the slidegleiten here.
15
40000
3000
Ich habe eine Folie über den andren Teil meines Lebens, mein Computerleben, diese Folie.
01:08
These are some of the productsProdukte I've workedhat funktioniert on over the last 20 yearsJahre,
16
43000
3000
Dies sind einige der Produkte an denen ich in den letzten 20 Jahren gearbeitet habe,
01:11
startingbeginnend back from the very originalOriginal laptopLaptop to some of the first tabletTablette computersComputer
17
46000
4000
beginnend mit dem originalen Laptop, bis zu einigen der ersten Tablet-PCs
01:15
and so on, and endingEnde up mostdie meisten recentlyvor kurzem with the TreoTreo,
18
50000
2000
usw. und schließlich mit dem Treo
01:17
and we're continuingauch weiterhin to do this.
19
52000
2000
und wir arbeiten weiter an diesen Dingen.
01:19
And I've doneerledigt this because I really believe that mobileMobile computingComputer
20
54000
2000
Ich habe dies getan, weil ich wirklich glaube das Mobile Computer
01:21
is the futureZukunft of personalpersönlich computingComputer, and I'm tryingversuchen to make the worldWelt
21
56000
3000
die Zukunft des PCs sind und ich versuche die Welt
01:24
a little bitBit better by workingArbeiten on these things.
22
59000
3000
ein bisschen besser zu machen, indem ich daran arbeite.
01:27
But this was, I have to admiteingestehen, all an accidentUnfall.
23
62000
2000
All dies war zugegeben ein Zufall.
01:29
I really didn't want to do any of these productsProdukte
24
64000
2000
Ich wollte diese Produkte nicht wirklich entwerfen
01:31
and very earlyfrüh in my careerKarriere I decidedbeschlossen
25
66000
2000
und sehr früh in meiner Karriere entschied ich mich,
01:33
I was not going to be in the computerComputer industryIndustrie.
26
68000
3000
dass ich nicht in der Computer Industrie sein werde.
01:36
And before I tell you about that, I just have to tell you
27
71000
2000
Und bevor ich Ihnen davon erzähle, muss ich noch
01:38
this one little pictureBild of graffitiGraffiti there I pickedabgeholt off the webweb the other day.
28
73000
2000
von diesem kleinen Graffiti Bild erzählen, dass ich im Web gefunden habe.
01:40
I was looking for a pictureBild of graffitiGraffiti, little textText inputEingang languageSprache,
29
75000
3000
Ich war auf der Suche nach einem Graffiti Bild, kleine Texteingabe-Sprache
01:43
and I foundgefunden the websiteWebseite dedicatedgewidmet to teachersLehrer who want to make these,
30
78000
3000
und fand diese Webseite die Lehrern gewidmet war, die diese machen wollten,
01:46
you know, the scriptSkript writingSchreiben things acrossüber the topoben of theirihr blackboardBlackboard,
31
81000
3000
diese Schriftzug-Dinger im oberen Teil ihrer Tafel,
01:49
and they had addedhinzugefügt graffitiGraffiti to it, and I'm sorry about that.
32
84000
3000
und sie hatten Graffiti hinzugefügt - und das tut mir leid.
01:52
(LaughterLachen)
33
87000
2000
(Lachten)
01:54
So what happenedpassiert was, when I was youngjung and got out of engineeringIngenieurwesen schoolSchule
34
89000
5000
Was also passiert ist, als ich jung war und mit der Ingenieurschule fertig war,
01:59
at CornellCornell in '79, I decidedbeschlossen -- I wentging to work for IntelIntel and
35
94000
4000
1979 in Cornell, entschied ich mich für Intel zu arbeiten.
02:03
I was in the computerComputer industryIndustrie -- and threedrei monthsMonate into that,
36
98000
3000
Ich war in der Computer Industrie und drei Monate danach,
02:06
I fellfiel in love with something elsesonst, and I said, "I madegemacht the wrongfalsch careerKarriere choiceWahl here,"
37
101000
4000
verliebte ich mich in etwas andres und sagte mir: "Ich habe die falsche Karriereentscheidung getroffen"
02:10
and I fellfiel in love with brainsGehirne.
38
105000
3000
ich verliebte mich in Gehirne.
02:13
This is not a realecht brainGehirn. This is a pictureBild of one, a lineLinie drawingZeichnung.
39
108000
3000
Dies ist kein echtes Gehirn. Es ist ein Bild von einem, eine Linien-Zeichnung.
02:16
But I don't remembermerken exactlygenau how it happenedpassiert,
40
111000
3000
Ich erinnere mich nicht genau wie es passiert ist
02:19
but I have one recollectionErinnerung, whichwelche was prettyziemlich strongstark in my mindVerstand.
41
114000
3000
aber ich habe eine Erinnerung, die ziemlich stark in meiner Erinnerung ist.
02:22
In SeptemberSeptember 1979, ScientificWissenschaftliche AmericanAmerikanische camekam out
42
117000
3000
Im September 1979, wurde Scientific American veröffentlicht
02:25
with a singleSingle topicThema issueProblem about the brainGehirn. And it was quiteganz good.
43
120000
3000
mit einer Ein-Themen Ausgabe über das Gehirn. Und sie war ziemlich gut.
02:28
It was one of the bestBeste issuesProbleme ever. And they talkedsprach about the neuronNeuron
44
123000
3000
Es war eine der besten Ausgaben jemals. Sie sprachen über Neuronen
02:31
and developmentEntwicklung and diseaseKrankheit and visionVision and all the things
45
126000
2000
und Entwicklung und Erkrankungen und Sehkraft und all diese Dinge
02:33
you mightMacht want to know about brainsGehirne. It was really quiteganz impressivebeeindruckend.
46
128000
3000
die man über das Gehirn wissen möchte. Ich war wirklich erstaunt.
02:36
And one mightMacht have the impressionEindruck that we really knewwusste a lot about brainsGehirne.
47
131000
3000
Man könnte denken, dass wir wirklich viel über Gehirne wissen.
02:39
But the last articleArtikel in that issueProblem was writtengeschrieben by FrancisFrancis CrickCrick of DNADNA fameRuhm.
48
134000
4000
Aber der letzte Artikel in diese Ausgabe war von Francis Crick von DNA fame geschrieben.
02:43
TodayHeute is, I think, the 50thth anniversaryJahrestag of the discoveryEntdeckung of DNADNA.
49
138000
3000
Heute ist glaube ich der 50. Geburtstag der Entdeckung von DNA.
02:46
And he wroteschrieb a storyGeschichte basicallyGrundsätzlich gilt sayingSprichwort,
50
141000
2000
Er schrieb in der Geschichte im Prinzip,
02:48
well, this is all well and good, but you know what,
51
143000
3000
naja, das ist alles schön und gut, aber wissen sie was?
02:51
we don't know diddleyDiddley squatKniebeuge about brainsGehirne
52
146000
2000
Wir wissen rein gar nichts über das Gehirn,
02:53
and no one has a clueHinweis how these things work,
53
148000
2000
niemand hat auch nur eine Idee wie diese Dinge funktionieren
02:55
so don't believe what anyonejemand tellserzählt you.
54
150000
2000
also glaubt nicht was irgendjemand euch erzählt.
02:57
This is a quoteZitat from that articleArtikel. He said, "What is conspicuouslyauffällig lackingfehlend,"
55
152000
3000
In diesem Zitat von dem Artikel sagt er: "Was offensichtlich fehlt,"
03:00
he's a very properordnungsgemäße BritishBritische gentlemanGentleman so, "What is conspicuouslyauffällig lackingfehlend
56
155000
4000
er war ein richtiger britischer Gentleman, also "Was offensichtlich fehlt,
03:04
is a broadbreit frameworkRahmen of ideasIdeen in whichwelche to interpretinterpretieren these differentanders approachesAnsätze."
57
159000
3000
ist ein breites Gerüst von Ideen mit denen wir diese verschiedenen Ansätze interpretieren können."
03:07
I thought the wordWort frameworkRahmen was great.
58
162000
2000
Ich fand das Wort Gerüst großartig.
03:09
He didn't say we didn't even have a theoryTheorie. He sayssagt,
59
164000
2000
Er sagte nicht wir haben nicht mal eine Theorie. Er sagt,
03:11
we don't even know how to beginStart to think about it --
60
166000
2000
wir haben noch nicht einmal angefangen darüber nachzudenken --
03:13
we don't even have a frameworkRahmen.
61
168000
2000
wir haben nicht mal ein Gerüst.
03:15
We are in the pre-paradigmPre-Paradigma daysTage, if you want to use ThomasThomas KuhnKuhn.
62
170000
3000
Wir sind in den Vor-Paradigma Tagen wenn man Thomas Kuhn benutzen will.
03:18
And so I fellfiel in love with this, and said look,
63
173000
3000
Ich verliebte mich also in das und sagte
03:21
we have all this knowledgeWissen about brainsGehirne. How hardhart can it be?
64
176000
3000
Wir haben all dies wissen über das Gehirn. Wie schwer kann es sein?
03:24
And this is something we can work on my lifetimeLebenszeit. I feltFilz I could make a differenceUnterschied,
65
179000
3000
Das ist etwas woran wir in unserer Lebenszeit arbeiten können. Ich glaubte ich kann einen Unterschied bewirken.
03:27
and so I triedversucht to get out of the computerComputer businessGeschäft, into the brainGehirn businessGeschäft.
66
182000
4000
und so versuchte ich aus dem Computergeschäft heraus, in das Gehirngeschäft zu kommen.
03:31
First, I wentging to MITMIT, the AIAI labLabor was there,
67
186000
2000
Zuerst ging ich zum MIT, das KI Labor war dort,
03:33
and I said, well, I want to buildbauen intelligentintelligent machinesMaschinen, too,
68
188000
2000
und sagte, naja, ich will auch intelligente Maschinen bauen,
03:35
but the way I want to do it is to studyStudie how brainsGehirne work first.
69
190000
3000
aber ich will es so tun, dass ich zuerst erforsche wie das Gehirn funktioniert.
03:38
And they said, oh, you don't need to do that.
70
193000
3000
Sie sagten, ach das brauchst du nicht zu tun.
03:41
We're just going to programProgramm computersComputer; that's all we need to do.
71
196000
2000
Wir programmieren einfach Computer, das ist alles was wir tun müssen.
03:43
And I said, no, you really oughtsollen to studyStudie brainsGehirne. They said, oh, you know,
72
198000
3000
Ich sagte, Nein, ihr solltet wirklich das Gehirn erforschen. Sie sagten, ach weißt du was,
03:46
you're wrongfalsch. And I said, no, you're wrongfalsch, and I didn't get in.
73
201000
2000
du liegst falsch. Und ich sagte, nein, ihr liegt falsch und ich wurde nicht angenommen.
03:48
(LaughterLachen)
74
203000
1000
(Lachen)
03:50
But I was a little disappointedenttäuscht -- prettyziemlich youngjung -- but I wentging back again
75
205000
2000
Ich war etwas enttäuscht -- ziemlich jung und ging zurück
03:52
a fewwenige yearsJahre laterspäter and this time was in CaliforniaCalifornia, and I wentging to BerkeleyBerkeley.
76
207000
3000
einige Jahre später und diesmal in Kalifornien ging ich nach Berkeley.
03:55
And I said, I'll go in from the biologicalbiologisch sideSeite.
77
210000
4000
Ich sagte, ich gehe es von der biologischen Seite an.
03:59
So I got in -- in the PhPH.D. programProgramm in biophysicsBiophysik, and I was, all right,
78
214000
3000
Ich wurde also angenommen -- im Doktorantenprogramm in Biophysik und ich fand es OK.
04:02
I'm studyingstudieren brainsGehirne now, and I said, well, I want to studyStudie theoryTheorie.
79
217000
3000
Ich studiere jetzt das Gehirn und sagte, naja ich will Theorie studieren.
04:05
And they said, oh no, you can't studyStudie theoryTheorie about brainsGehirne.
80
220000
2000
Sie sagten, oh nein, du kannst keine Gehirntheorie erforschen.
04:07
That's not something you do. You can't get fundedfinanziert for that.
81
222000
2000
Das ist nichts was man macht. Dafür gibt es keine Förderung.
04:09
And as a graduateAbsolvent studentSchüler, you can't do that. So I said, oh my goshMeine Güte.
82
224000
4000
Als Master-Student/Doktorant, kannst du das nicht tun. Ich sagte, oh mein Gott,
04:13
I was very depressedgedrückt. I said, but I can make a differenceUnterschied in this fieldFeld.
83
228000
2000
ich war sehr deprimiert. Ich sagte, aber ich kann in dem Feld einen Unterschied bewirken,
04:15
So what I did is I wentging back in the computerComputer industryIndustrie
84
230000
3000
Also ging ich zurück in die Computerindustrie
04:18
and said, well, I'll have to work here for a while, do something.
85
233000
2000
und sagte, naja dann muss ich wohl hier für eine Weile arbeiten, etwas machen.
04:20
That's when I designedentworfen all those computerComputer productsProdukte.
86
235000
3000
Das war als ich all diese Computer Produkte entwickelt habe.
04:23
(LaughterLachen)
87
238000
1000
(Lachen)
04:24
And I said, I want to do this for fourvier yearsJahre, make some moneyGeld,
88
239000
3000
Ich sagte mir, ich will das für vier Jahre machen, etwas Geld verdienen,
04:27
like I was havingmit a familyFamilie, and I would matureReifen a bitBit,
89
242000
4000
eine Familie gründen, etwas reifen,
04:31
and maybe the businessGeschäft of neuroscienceNeurowissenschaften would matureReifen a bitBit.
90
246000
3000
und vielleicht entwickelt sich das Gebiet der Neurowissenschaft etwas.
04:34
Well, it tookdauerte longerlänger than fourvier yearsJahre. It's been about 16 yearsJahre.
91
249000
3000
Naja es dauert etwas länger als vier Jahre. es waren ungefähr 16.
04:37
But I'm doing it now, and I'm going to tell you about it.
92
252000
2000
Aber ich mache es jetzt und ich werde euch darüber berichten.
04:39
So why should we have a good brainGehirn theoryTheorie?
93
254000
3000
Warum haben wir also keine gute Gehirntheorie?
04:42
Well, there's lots of reasonsGründe dafür people do scienceWissenschaft.
94
257000
3000
Naja es gibt viele Gründe warum Menschen Wissenschaft betreiben.
04:45
One is -- the mostdie meisten basicBasic one is -- people like to know things.
95
260000
3000
Einer ist -- der natürlichste -- dass Menschen Dinge wissen wollen.
04:48
We're curiousneugierig, and we just go out and get knowledgeWissen, you know?
96
263000
2000
Wir sind neugierig und wollen uns das Wissen aneignen, richtig?
04:50
Why do we studyStudie antsAmeisen? Well, it's interestinginteressant.
97
265000
2000
Warum studieren wir Ameisen? Naja, es ist interessant.
04:52
Maybe we'llGut learnlernen something really usefulsinnvoll about it, but it's interestinginteressant and fascinatingfaszinierend.
98
267000
3000
Vielleicht lernen wir etwas wirklich nützliches darüber aber es ist interessant und faszinierend.
04:55
But sometimesmanchmal, a scienceWissenschaft has some other attributesAttribute
99
270000
2000
Aber manchmal hat Wissenschaft einige andere Eigenschaften,
04:57
whichwelche makesmacht it really, really interestinginteressant.
100
272000
2000
die sie wirklich wirklich interessant machen.
04:59
SometimesManchmal a scienceWissenschaft will tell something about ourselvesuns selbst,
101
274000
3000
Manchmal sagt uns die Wissenschaft etwas über uns selbst
05:02
it'lles wird tell us who we are.
102
277000
1000
sie sagt uns wer wir sind.
05:03
RarelyNur selten, you know: evolutionEvolution did this and CopernicusKopernikus did this,
103
278000
3000
Selten, aber z.B. hat die Evolution dies getan und Kopernikus
05:06
where we have a newneu understandingVerstehen of who we are.
104
281000
2000
wir haben ein neues Verständnis davon erlangt wer wir sind.
05:08
And after all, we are our brainsGehirne. My brainGehirn is talkingim Gespräch to your brainGehirn.
105
283000
4000
Immerhin sind wir unser Gehirn. Mein Gehirn spricht gerade mit eurem Gehirn.
05:12
Our bodiesKörper are hanginghängend alongeine lange for the rideReiten, but my brainGehirn is talkingim Gespräch to your brainGehirn.
106
287000
3000
Unser Körper sitzt nur im gleichen Boot, aber das Gehirn redet mit eurem Gehirn.
05:15
And if we want to understandverstehen who we are and how we feel and perceivewahrnehmen,
107
290000
3000
Und wenn wir verstehen wollen wer wir sind, wie wir fühlen und wahrnehmen
05:18
we really understandverstehen what brainsGehirne are.
108
293000
2000
müssen wir verstehen, was das Gehirn wirklich ist.
05:20
AnotherEin weiterer thing is sometimesmanchmal scienceWissenschaft
109
295000
2000
Noch ein Grund ist, dass Wissenschaft manchmal
05:22
leadsführt to really biggroß societalgesellschaftlichen benefitsVorteile and technologiesTechnologien,
110
297000
2000
zu wirklich großen sozialen Vorteilen oder Technologien,
05:24
or businessesUnternehmen, or whateverwas auch immer, that come out of it. And this is one, too,
111
299000
2000
oder Wirtschaften oder sonst etwas führen kann. Das wird diese auch
05:26
because when we understandverstehen how brainsGehirne work, we're going to be ablefähig
112
301000
3000
weil wenn wir verstehen wie das Gehirn funktioniert, werden wir in der Lage sein
05:29
to buildbauen intelligentintelligent machinesMaschinen, and I think that's actuallytatsächlich a good thing on the wholeganze,
113
304000
3000
intelligente Maschinen zu bauen und ich glaube das ist tatsächlich etwas Gutes
05:32
and it's going to have tremendousenorm benefitsVorteile to societyGesellschaft,
114
307000
2000
und ich glaube es wird enorme soziale Vorteile mit sich bringen
05:34
just like a fundamentalgrundlegend technologyTechnologie.
115
309000
2000
genau wie jede fundamentale Technologie.
05:36
So why don't we have a good theoryTheorie of brainsGehirne?
116
311000
2000
Also, wieso haben wir keine sinnvolle Theorie vom Gehirn?
05:38
And people have been workingArbeiten on it for 100 yearsJahre.
117
313000
3000
Leute arbeiten seit 100 Jahren daran.
05:41
Well, let's first take a look at what normalnormal scienceWissenschaft lookssieht aus like.
118
316000
2000
Naja lasst uns zuerst einen Blick darauf werfen wie normale Wissenschaft aussieht.
05:43
This is normalnormal scienceWissenschaft.
119
318000
2000
Das ist normale Wissenschaft.
05:45
NormalNormal scienceWissenschaft is a nicenett balanceBalance betweenzwischen theoryTheorie and experimentalistsExperimentalisten.
120
320000
4000
Normale Wissenschaft ist ein gutes Gleichgewicht aus Theorie und Experimenten.
05:49
And so the theoristTheoretiker guys say, well, I think this is what's going on,
121
324000
2000
Der Theoretiker sagt, naja ich glaube so funktioniert das
05:51
and the experimentalistExperimentalist sayssagt, no, you're wrongfalsch.
122
326000
2000
und der Experiment'ler sagt nein, du liegst falsch.
05:53
And it goesgeht back and forthher, you know?
123
328000
2000
Und so geht das hin und her.
05:55
This worksWerke in physicsPhysik. This worksWerke in geologyGeologie. But if this is normalnormal scienceWissenschaft,
124
330000
2000
Es funktioniert in der Physik, in der Geologie. Wenn dies nun normale Wissenschaft ist
05:57
what does neuroscienceNeurowissenschaften look like? This is what neuroscienceNeurowissenschaften lookssieht aus like.
125
332000
3000
wie sieht die Neurowissenschaft aus? So sieht die Neurowissenschaft aus.
06:00
We have this mountainBerg of dataDaten, whichwelche is anatomyAnatomie, physiologyPhysiologie and behaviorVerhalten.
126
335000
5000
Wir haben diesen Berg an Daten bestehend aus Anatomie, Physiologie und Verhalten.
06:05
You can't imaginevorstellen how much detailDetail we know about brainsGehirne.
127
340000
3000
Ihr könnt euch Vorstellen wie viel Details wir über das Gehirn wissen.
06:08
There were 28,000 people who wentging to the neuroscienceNeurowissenschaften conferenceKonferenz this yearJahr,
128
343000
4000
Es waren 28.000 Leute bei der Neurowissenschafts Konferenz dieses Jahr,
06:12
and everyjeden one of them is doing researchForschung in brainsGehirne.
129
347000
2000
und jeder davon betreibt Forschung über das Gehirn.
06:14
A lot of dataDaten. But there's no theoryTheorie. There's a little, wimpyWimpy boxBox on topoben there.
130
349000
4000
Eine Menge an Daten. Aber es gibt keine Theorie. Es ist dieser kleine kümmerliche Kasten da.
06:18
And theoryTheorie has not playedgespielt a roleRolle in any sortSortieren of grandgroßartig way in the neurosciencesNeurowissenschaften.
131
353000
5000
Theorie hat bisher noch keine maßgebliche Rolle in der Neurowissenschaft gespielt.
06:23
And it's a realecht shameSchande. Now why has this come about?
132
358000
3000
Und das ist schade. Warum ist dies so?
06:26
If you askFragen neuroscientistsNeurowissenschaftler, why is this the stateBundesland of affairAffäre,
133
361000
2000
Wenn man einen Neurowissenschaftler fragt, warum ist das der Stand der Dinge?
06:28
they'llsie werden first of all admiteingestehen it. But if you askFragen them, they'llsie werden say,
134
363000
3000
Sie geben es zunächst zu. Wenn man aber fragt, sagen sie
06:31
well, there's variousverschiedene reasonsGründe dafür we don't have a good brainGehirn theoryTheorie.
135
366000
3000
naja es gibt verschiedene Gründe, warum wir keine sinnvolle Gehirntheorie haben.
06:34
Some people say, well, we don't still have enoughgenug dataDaten,
136
369000
2000
Manche Leute sagen wir haben nicht genug Daten,
06:36
we need to get more informationInformation, there's all these things we don't know.
137
371000
3000
wir müssen mehr Informationen schaffen, es gibt all diese Sachen, die wir nicht wissen.
06:39
Well, I just told you there's so much dataDaten comingKommen out your earsOhren.
138
374000
3000
Naja, ich habe euch gerade gesagt dass es so viele Daten gibt, dass sie uns aus den Ohren kommen.
06:42
We have so much informationInformation, we don't even know how to beginStart to organizeorganisieren it.
139
377000
3000
Wir haben so viel Informationen, wir wissen nicht wie wir anfangen sollen sie zu organisieren.
06:45
What good is more going to do?
140
380000
2000
Was bringen uns da mehr Daten?
06:47
Maybe we'llGut be luckyglücklich and discoverentdecken some magicMagie thing, but I don't think so.
141
382000
3000
Vielleicht haben wir Glück und entdecken den magischen Baustein, aber ich glaube nicht daran.
06:50
This is actuallytatsächlich a symptomSymptom of the factTatsache that we just don't have a theoryTheorie.
142
385000
3000
Es ist tatsächlich ein Symptom davon, dass wir keine Theorie haben.
06:53
We don't need more dataDaten -- we need a good theoryTheorie about it.
143
388000
3000
Wir brauchen nicht mehr Daten -- wir brauchen eine gute Theorie darüber.
06:56
AnotherEin weiterer one is sometimesmanchmal people say, well, brainsGehirne are so complexKomplex,
144
391000
3000
Etwas anderes dass Leute manchmal sagen, naja das Gehirn ist so komplex,
06:59
it'lles wird take anotherein anderer 50 yearsJahre.
145
394000
2000
das dauert nochmal 50 Jahre.
07:01
I even think ChrisChris said something like this yesterdaygestern.
146
396000
2000
Ich glaube sogar Chris hat so etwas gestern gesagt.
07:03
I'm not sure what you said, ChrisChris, but something like,
147
398000
2000
Ich bin mir nicht sicher was du gesagt hast Chris, aber etwas in die Richtung,
07:05
well, it's one of the mostdie meisten complicatedkompliziert things in the universeUniversum. That's not truewahr.
148
400000
3000
naja, es ist eines der komplexesten Dinge im Universum. Das stimmt nicht.
07:08
You're more complicatedkompliziert than your brainGehirn. You've got a brainGehirn.
149
403000
2000
Du bist komplexer als dein Gehirn. Du hast ein Gehirn.
07:10
And it's alsoebenfalls, althoughobwohl the brainGehirn lookssieht aus very complicatedkompliziert,
150
405000
2000
Und außerdem, obwohl das Gehirn sehr komplex aussieht,
07:12
things look complicatedkompliziert untilbis you understandverstehen them.
151
407000
3000
Dinge wirken komplex bis man sie versteht.
07:15
That's always been the caseFall. And so all we can say, well,
152
410000
3000
Das war schon immer so. Und alles was wir sagen können,
07:18
my neocortexNeocortex, whichwelche is the partTeil of the brainGehirn I'm interestedinteressiert in, has 30 billionMilliarde cellsZellen.
153
413000
4000
mein Neokortex, ist der Teil des Gehirns der mich interessiert, hat 30 Milliarden Zellen.
07:22
But, you know what? It's very, very regularregulär.
154
417000
2000
Aber wissen Sie was? Es ist extremst regelmäßig.
07:24
In factTatsache, it lookssieht aus like it's the samegleich thing repeatedwiederholt over and over and over again.
155
419000
3000
Tatsächlich sieht es so aus, als wäre es das gleiche Ding, das sich immer und immer wieder wiederholt.
07:27
It's not as complexKomplex as it lookssieht aus. That's not the issueProblem.
156
422000
3000
Es ist nicht so complex wie es aussieht. Das ist nicht das Problem.
07:30
Some people say, brainsGehirne can't understandverstehen brainsGehirne.
157
425000
2000
Manche sagen, Gehirne können Gehirne nicht verstehen.
07:32
Very Zen-likeZen-artige. WhooWhoo. (LaughterLachen)
158
427000
3000
Sehr Zen-artig. Whoo. Wissen Sie --
07:35
You know,
159
430000
1000
(Lachen)
07:36
it soundsGeräusche good, but why? I mean, what's the pointPunkt?
160
431000
3000
Es hört sich gut an, aber wieso? Ich meine warum?
07:39
It's just a bunchBündel of cellsZellen. You understandverstehen your liverLeber.
161
434000
3000
Es ist nur eine Menge von Zellen. Man versteht unsre Leber.
07:42
It's got a lot of cellsZellen in it too, right?
162
437000
2000
Sie hat auch eine Menge Zellen in sich, oder?
07:44
So, you know, I don't think there's anything to that.
163
439000
2000
Also glaube ich nicht, dass daran etwas Wahres ist.
07:46
And finallyendlich, some people say, well, you know,
164
441000
2000
Schließlich sagen manche, naja
07:48
I don't feel like a bunchBündel of cellsZellen, you know. I'm consciousbewusst.
165
443000
4000
ich fühle mich nicht wie ein Haufen von Zellen. Ich bin bei Bewusstsein.
07:52
I've got this experienceErfahrung, I'm in the worldWelt, you know.
166
447000
2000
Ich habe diese Erfahrung, ich bin in der Welt.
07:54
I can't be just a bunchBündel of cellsZellen. Well, you know,
167
449000
2000
Ich kann nicht nur ein Ansammlung von Zellen sein. Naja
07:56
people used to believe there was a life forceKraft to be livingLeben,
168
451000
3000
Menschen glaubten es benötigt einer Lebenskraft um lebendig zu sein
07:59
and we now know that's really not truewahr at all.
169
454000
2000
und wir wissen, dass dies nicht im Geringsten wahr ist.
08:01
And there's really no evidenceBeweise that sayssagt -- well, other than people
170
456000
3000
Es gibt keinen Beweis dafür, aber naja andere Leute
08:04
just have disbeliefUnglaube that cellsZellen can do what they do.
171
459000
2000
haben einfach geglaubt, dass Zellen das tun, was sie tun.
08:06
And so, if some people have fallengefallen into the pitGrube of metaphysicalmetaphysisch dualismDualismus,
172
461000
3000
Und wenn Leute in die Grube des metaphysischen Dualismus gefallen sind
08:09
some really smartsmart people, too, but we can rejectablehnen all that.
173
464000
3000
und viele schlaue Leute sind dies, aber wir können das alles ignorieren.
08:12
(LaughterLachen)
174
467000
2000
(Lachen)
08:14
No, I'm going to tell you there's something elsesonst,
175
469000
3000
Ich sage euch, es gibt etwas anderes,
08:17
and it's really fundamentalgrundlegend, and this is what it is:
176
472000
2000
es ist wirklich fundamental und es ist was es ist.
08:19
there's anotherein anderer reasonGrund why we don't have a good brainGehirn theoryTheorie,
177
474000
2000
Es gibt einen weiteren Grund, warum wir keine sinnvolle Gehirntheorie haben
08:21
and it's because we have an intuitiveintuitiv, strongly-heldstark statt,
178
476000
3000
und der ist dass wir gefühlsmäßige, stark verwurzelte,
08:24
but incorrectfalsche assumptionAnnahme that has preventedverhindert us from seeingSehen the answerAntworten.
179
479000
5000
aber falsche Vorstellungen haben, die uns davon abhalten die Antwort zu sehen.
08:29
There's something we believe that just, it's obviousoffensichtlich, but it's wrongfalsch.
180
484000
3000
Es gibt etwas das wir glauben, es ist offensichtlich, aber falsch.
08:32
Now, there's a historyGeschichte of this in scienceWissenschaft and before I tell you what it is,
181
487000
4000
Davon gibt es eine Historie in der Wissenschaft, aber zuvor sage ich Ihnen was es ist.
08:36
I'm going to tell you a bitBit about the historyGeschichte of it in scienceWissenschaft.
182
491000
2000
Ich werde Ihnen ein wenig über die Geschichte davon in der Wissenschaft erzählen.
08:38
You look at some other scientificwissenschaftlich revolutionsRevolutionen,
183
493000
2000
Wenn man auf einige der wissenschaftlichen Revolutionen schaut
08:40
and this caseFall, I'm talkingim Gespräch about the solarSolar- systemSystem, that's CopernicusKopernikus,
184
495000
2000
in diesem Fall rede ich vom Solar System von Kopernikus,
08:42
Darwin'sDarwins evolutionEvolution, and tectonictektonische platesPlatten, that's WegenerWegener.
185
497000
3000
Darwins Evolution und tektonischen Platten von Wegener.
08:45
They all have a lot in commonverbreitet with brainGehirn scienceWissenschaft.
186
500000
3000
All diese Dinge haben einiges Gemeinsam mit der Gehirnforschung.
08:48
First of all, they had a lot of unexplainedunerklärt dataDaten. A lot of it.
187
503000
3000
Zunächsteinmal hatten sie viele Daten ohne Erklärungen. Viel davon.
08:51
But it got more manageableüberschaubare onceEinmal they had a theoryTheorie.
188
506000
3000
Aber es wurde überschaubarer, als sie eine Theorie hatten.
08:54
The bestBeste mindsKöpfe were stumpedratlos -- really, really smartsmart people.
189
509000
3000
Die besten Geister waren verblüfft, wirklich wirklich intelligente Leute.
08:57
We're not smarterintelligenter now than they were then.
190
512000
2000
Wir sind heute nicht schlauer als sie damals waren.
08:59
It just turnswendet sich out it's really hardhart to think of things,
191
514000
2000
Es stellt sich nur heraus, dass es wirklich schwer ist sich Dinge einfallen zu lassen
09:01
but onceEinmal you've thought of them, it's kindArt of easyeinfach to understandverstehen it.
192
516000
2000
aber sobald einem etwas eingefallen ist, sind sie sogar einfach zu verstehen.
09:03
My daughtersTöchter understoodverstanden these threedrei theoriesTheorien
193
518000
2000
Meine Töchter verstanden diese drei Theorien
09:05
in theirihr basicBasic frameworkRahmen by the time they were in kindergartenKindergarten.
194
520000
3000
in ihren Grundzügen als sie im Kindergarten waren.
09:08
And now it's not that hardhart, you know, here'shier ist the appleApfel, here'shier ist the orangeOrange,
195
523000
3000
Jetzt ist es nicht mehr so schwer, das ist der Apfel, das die Orange
09:11
you know, the EarthErde goesgeht around, that kindArt of stuffSachen.
196
526000
3000
die Erde geht im Kreis, die Art von Dingen.
09:14
FinallySchließlich, anotherein anderer thing is the answerAntworten was there all alongeine lange,
197
529000
2000
Letztlich, ist es auch noch so, dass die Antwort die ganze Zeit da war
09:16
but we kindArt of ignoredignoriert it because of this obviousoffensichtlich thing, and that's the thing.
198
531000
3000
aber wir haben sie ignoriert wegen diesem offensichtlichen Ding und das ist der Punkt.
09:19
It was an intuitiveintuitiv, strong-heldstarke statt beliefGlauben that was wrongfalsch.
199
534000
3000
Es war ein intuitiver, stark verwurzelter Glaube der falsch war.
09:22
In the caseFall of the solarSolar- systemSystem, the ideaIdee that the EarthErde is spinningSpinnen
200
537000
3000
Im Fall des Solarsystems, der Glaube dass die Erde sich dreht
09:25
and the surfaceOberfläche of the EarthErde is going like a thousandtausend milesMeilen an hourStunde,
201
540000
3000
und die Oberfläche der Erde sich mit ca. Tausend Meilen pro Stunde bewegt
09:28
and the EarthErde is going throughdurch the solarSolar- systemSystem about a millionMillion milesMeilen an hourStunde.
202
543000
3000
und die Erde sich mit ca. einer Million Meilen pro Stunde durch das Solarsystem bewegt.
09:31
This is lunacyWahnsinn. We all know the EarthErde isn't movingbewegend.
203
546000
2000
Das ist Verrückt. Wir alle wissen, dass die Erde sich nicht bewegt.
09:33
Do you feel like you're movingbewegend a thousandtausend milesMeilen an hourStunde?
204
548000
2000
Fühlt es sich für dich an, als ob die Erde sich mit Tausend Meilen pro Stunde bewegt?
09:35
Of courseKurs not. You know, and someonejemand who said,
205
550000
2000
Natürlich nicht. Sie wissen jemand der sagt,
09:37
well, it was spinningSpinnen around in spacePlatz and it's so hugeenorm,
206
552000
2000
naja, sie dreht sich im Weltall und ist so groß ist,
09:39
they would locksperren you up, and that's what they did back then.
207
554000
2000
würden sie dich einsperren und das ist was man damals gemacht hat.
09:41
(LaughterLachen)
208
556000
1000
(Lachen)
09:42
So it was intuitiveintuitiv and obviousoffensichtlich. Now what about evolutionEvolution?
209
557000
3000
Es war also intuitiv und offensichtlich. Was ist mit Evolution?
09:45
Evolution'sEvolution the samegleich thing. We taughtgelehrt our kidsKinder, well, the BibleBibel sayssagt,
210
560000
3000
Evolution war das Gleiche. Wir lehrten unsere Kinder, die Bibel sagt,
09:48
you know, God createderstellt all these speciesSpezies, catsKatzen are catsKatzen, dogsHunde are dogsHunde,
211
563000
2000
Gott hat all diese Spezies kreiert, Katzen sind Katzen, Hunde sind Hunde,
09:50
people are people, plantsPflanzen are plantsPflanzen, they don't changeVeränderung.
212
565000
3000
Menschen sind Menschen, Pflanzen sind Pflanzen und sie verändern sich nicht.
09:53
NoahNoah put them on the ArkArk in that orderAuftrag, blahbla, blahbla, blahbla. And, you know,
213
568000
4000
Noah hat sie alle in der Reihenfolge auf die Arche geleitet, blah blah blah. Und,
09:57
the factTatsache is, if you believe in evolutionEvolution, we all have a commonverbreitet ancestorVorfahren,
214
572000
4000
Fakt ist, wenn man an Evolution glaubt, haben wir alle einen gemeinsamen Vorfahren
10:01
and we all have a commonverbreitet ancestryAbstammung with the plantPflanze in the lobbyEmpfangshalle.
215
576000
3000
und wir haben alle einen gemeinsamen Vorfahren mit der Pflanze in der Lobby.
10:04
This is what evolutionEvolution tellserzählt us. And, it's truewahr. It's kindArt of unbelievablenicht zu fassen.
216
579000
3000
Das ist es was Evolution uns sagt. Und es ist wahr. Es ist fast Unvorstellbar.
10:07
And the samegleich thing about tectonictektonische platesPlatten, you know?
217
582000
3000
Das Gleiche gilt für Tektonische Platten, wissen Sie?
10:10
All the mountainsBerge and the continentsKontinente are kindArt of floatingFloating around
218
585000
2000
All die Hügel und Kontinente treiben quasi
10:12
on topoben of the EarthErde, you know? It's like, it doesn't make any senseSinn.
219
587000
4000
auf der Erde. Es macht irgendwie keinen Sinn.
10:16
So what is the intuitiveintuitiv, but incorrectfalsche assumptionAnnahme,
220
591000
4000
Was ist also die intuitive aber falsche Annahme
10:20
that's keptgehalten us from understandingVerstehen brainsGehirne?
221
595000
2000
die uns davon abhält das Gehirn zu verstehen?
10:22
Now I'm going to tell it to you, and it's going to seemscheinen obviousoffensichtlich that that is correctrichtig,
222
597000
2000
Ich werde es euch sagen und es wird offensichtlich sein, dass es stimmt
10:24
and that's the pointPunkt, right? Then I'm going to have to make an argumentStreit
223
599000
2000
und das ist der Punkt, richtig? Dann werde ich argumentieren müssen,
10:26
why you're incorrectfalsche about the other assumptionAnnahme.
224
601000
2000
warum Sie falsch liegen über die andere Annahme.
10:28
The intuitiveintuitiv but obviousoffensichtlich thing is that somehowirgendwie intelligenceIntelligenz
225
603000
3000
Die intuitive und offensichtliche Sache ist, dass Intelligenz irgendwie
10:31
is defineddefiniert by behaviorVerhalten,
226
606000
2000
durch Verhalten definiert ist
10:33
that we are intelligentintelligent because of the way that we do things
227
608000
2000
und das wir intelligent sind wegen der Art, in der wir etwas tun
10:35
and the way we behavesich verhalten intelligentlyintelligent, and I'm going to tell you that's wrongfalsch.
228
610000
3000
und die Art wie wir uns intelligent Verhalten und ich werde Ihnen sagen, dass Sie falsch liegen.
10:38
What it is is intelligenceIntelligenz is defineddefiniert by predictionPrognose.
229
613000
2000
Es ist so, dass Intelligenz durch Vorhersage definiert ist.
10:40
And I'm going to work you throughdurch this in a fewwenige slidesFolien here,
230
615000
3000
Ich werde Sie durch dies in ein paar Folien leiten,
10:43
give you an exampleBeispiel of what this meansmeint. Here'sHier ist a systemSystem.
231
618000
4000
werde ein Beispiel bringen, was dies bedeutet. Hier ist ein System,
10:47
EngineersIngenieure like to look at systemsSysteme like this. ScientistsWissenschaftler like to look at systemsSysteme like this.
232
622000
3000
Ingenieure mögen es, sich Systeme so anzuschauen. Wissenschaftler schauen sich Systeme so an.
10:50
They say, well, we have a thing in a boxBox, and we have its inputsEingänge and its outputsAusgänge.
233
625000
3000
Sie sagen, naja wir haben dieses Ding in einer Box und wir haben Inputs und Outputs.
10:53
The AIAI people said, well, the thing in the boxBox is a programmableprogrammierbar computerComputer
234
628000
3000
die KI Leute sagen, naja, das Ding in der Box ist ein programmierbarer Computer
10:56
because that's equivalentÄquivalent to a brainGehirn, and we'llGut feedFutter it some inputsEingänge
235
631000
2000
weil das das Äquivalent zu einem Gehirn ist und wir füttern es mit Inputs
10:58
and we'llGut get it to do something, have some behaviorVerhalten.
236
633000
2000
wir bringen es dazu etwas zu tun, haben ein gewisses Verhalten.
11:00
And AlanAlan TuringTuring defineddefiniert the TuringTuring testTest, whichwelche is essentiallyim Wesentlichen sayingSprichwort,
237
635000
3000
Alan Turing hat den Turing-Test definiert, der im Prinzip sagt,
11:03
we'llGut know if something'smanche Dinge intelligentintelligent if it behavesverhält sich identicalidentisch to a humanMensch.
238
638000
3000
wenn sich etwas Intelligent ist, verhält es sich Intelligent für Menschen.
11:06
A behavioralVerhaltens- metricmetrisch of what intelligenceIntelligenz is,
239
641000
3000
Ein Verhaltensmaßstab davon was Intelligenz ist
11:09
and this has stuckfest in our mindsKöpfe for a long periodPeriode of time.
240
644000
3000
und dieser ist in unserem Verstand seit einiger Zeit verankert.
11:12
RealityRealität thoughobwohl, I call it realecht intelligenceIntelligenz.
241
647000
2000
In Realität jedoch nenne ich es wirklich Intelligenz.
11:14
RealEchte intelligenceIntelligenz is builtgebaut on something elsesonst.
242
649000
2000
Wirklich Intelligenz ist auf etwas anderem Aufgebaut.
11:16
We experienceErfahrung the worldWelt throughdurch a sequenceSequenz of patternsMuster, and we storeGeschäft them,
243
651000
4000
Wir nehmen die Welt über eine Abfolge von Mustern wahr, speichern diese
11:20
and we recallerinnern them. And when we recallerinnern them, we matchSpiel them up
244
655000
3000
und rufen sie ab. Wenn wir sie abrufen, gleichen wir diese gegen
11:23
againstgegen realityWirklichkeit, and we're makingHerstellung predictionsVorhersagen all the time.
245
658000
4000
die Realität ab und wir machen kontinuierlich Voraussagen.
11:27
It's an eternalewige metricmetrisch. There's an eternalewige metricmetrisch about us sortSortieren of sayingSprichwort,
246
662000
3000
Es ist eine ewige Metrik. Es gibt eine ewige Metrik in der wir uns quasi sagen,
11:30
do we understandverstehen the worldWelt? Am I makingHerstellung predictionsVorhersagen? And so on.
247
665000
3000
verstehen wir diese Welt? Mach ich Voraussagen? Und so weiter.
11:33
You're all beingSein intelligentintelligent right now, but you're not doing anything.
248
668000
2000
Sie sind alle Intelligent in diesem Moment, aber Sie machen nichts.
11:35
Maybe you're scratchingkratzen yourselfdich selber, or pickingpflücken your noseNase,
249
670000
2000
Sie kratzen sich vielleicht, oder bohren in der Nase,
11:37
I don't know, but you're not doing anything right now,
250
672000
2000
Ich weiß nicht, aber Sie machen gerade nichts,
11:39
but you're beingSein intelligentintelligent; you're understandingVerstehen what I'm sayingSprichwort.
251
674000
3000
aber Sie sind Intelligent, Sie verstehen was ich sage.
11:42
Because you're intelligentintelligent and you speaksprechen EnglishEnglisch,
252
677000
2000
Weil Sie Intelligent sind und Sie englisch sprechen
11:44
you know what wordWort is at the endEnde of this -- (SilenceStille)
253
679000
1000
wissen Sie was das Wort am Ende diese Satzes -- (Stille)
11:45
sentenceSatz.
254
680000
2000
ist.
11:47
The wordWort camekam into you, and you're makingHerstellung these predictionsVorhersagen all the time.
255
682000
3000
Das Wort kam in Sie, und sie machen diese Voraussagen die ganze Zeit.
11:50
And then, what I'm sayingSprichwort is,
256
685000
2000
Was ich sage ist,
11:52
is that the eternalewige predictionPrognose is the outputAusgabe in the neocortexNeocortex.
257
687000
2000
dass die ewige Voraussage der Output des Neocortexes ist.
11:54
And that somehowirgendwie, predictionPrognose leadsführt to intelligentintelligent behaviorVerhalten.
258
689000
3000
Und das irgendwie, Voraussage zu Intelligentem Verhalten führt.
11:57
And here'shier ist how that happensdas passiert. Let's startAnfang with a non-intelligent-intelligente brainGehirn.
259
692000
3000
Dies geschieht folgendermaßen. Lassen Sie uns mit dem nicht-intelligenten Gehirn anfangen.
12:00
Well I'll argueargumentieren a non-intelligent-intelligente brainGehirn, we got holdhalt of an oldalt brainGehirn,
260
695000
4000
Ich argumentiere ein nicht-intelligentes Gehirn, wir haben dieses alte Gehirn bekommen
12:04
and we're going to say it's like a non-mammalnicht-Säugetier, like a reptileReptil,
261
699000
3000
und wir sagen es ist wie ein Nicht-Säugetier, wie ein Reptil,
12:07
so I'll say, an alligatorAlligator; we have an alligatorAlligator.
262
702000
2000
ich sage also, ein Alligator, wir haben einen Alligator.
12:09
And the alligatorAlligator has some very sophisticatedanspruchsvoll sensesSinne.
263
704000
3000
Und dieser Alligator hat einige sehr gefestigte Sinne.
12:12
It's got good eyesAugen and earsOhren and touchberühren sensesSinne and so on,
264
707000
3000
Er hat gute Augen und Ohren und Tastsinne usw.
12:15
a mouthMund and a noseNase. It has very complexKomplex behaviorVerhalten.
265
710000
4000
einen Mund und eine Nase. Er hat sehr komplexes Verhalten.
12:19
It can runLauf and hideverbergen. It has fearsÄngste and emotionsEmotionen. It can eatEssen you, you know.
266
714000
4000
Er kann rennen und sich verstecken. Er hat Ängste und Emotionen. Er kann Sie essen.
12:23
It can attackAttacke. It can do all kindsArten of stuffSachen.
267
718000
4000
Er kann angreifen. Er kann alles Mögliche machen.
12:27
But we don't considerErwägen the alligatorAlligator very intelligentintelligent, not like in a humanMensch sortSortieren of way.
268
722000
5000
Aber wir betrachten den Alligator nicht als sehr intelligent, nicht in einer menschlichen Art.
12:32
But it has all this complexKomplex behaviorVerhalten alreadybereits.
269
727000
2000
Aber er hat bereits all dieses komplexe Verhalten
12:34
Now, in evolutionEvolution, what happenedpassiert?
270
729000
2000
Was ist in der Evolution nun passiert?
12:36
First thing that happenedpassiert in evolutionEvolution with mammalsSäugetiere,
271
731000
3000
Das Erste was in der Evolution von Säugetieren passiert ist
12:39
we startedhat angefangen to developentwickeln a thing callednamens the neocortexNeocortex.
272
734000
2000
dass wir dieses Ding mit dem Namen Neocortex entwickelt haben.
12:41
And I'm going to representvertreten the neocortexNeocortex here,
273
736000
2000
Ich werde den Neocortex hier durch diese Box repräsentieren
12:43
by this boxBox that's stickingklebt on topoben of the oldalt brainGehirn.
274
738000
2000
die auf dem alten Gehirn sitzt.
12:45
NeocortexNeokortex meansmeint newneu layerSchicht. It is a newneu layerSchicht on topoben of your brainGehirn.
275
740000
3000
Neocortex bedeutet eine neue Schicht. Es ist eine neue Schicht oben auf dem Gehirn.
12:48
If you don't know it, it's the wrinklyfaltig thing on the topoben of your headKopf that,
276
743000
3000
Wenn Sie es nicht kennen, dass ist das faltige Ding oben in Ihrem Kopf,
12:51
it's got wrinklyfaltig because it got shovedgeschoben in there and doesn't fitpassen.
277
746000
3000
das faltig ist, weil es hineingestopft ist und nicht passt.
12:54
(LaughterLachen)
278
749000
1000
(Lachen)
12:55
No, really, that's what it is. It's about the sizeGröße of a tableTabelle napkinServiette.
279
750000
2000
Nein im Ernst, das ist was es ist. Es ist ungefähr die Größe einer Serviette.
12:57
And it doesn't fitpassen, so it getsbekommt all wrinklyfaltig. Now look at how I've drawngezeichnet this here.
280
752000
3000
Und es passt nicht, also wird es faltig. Schauen Sie sich an wie ich das gezeichnet hab.
13:00
The oldalt brainGehirn is still there. You still have that alligatorAlligator brainGehirn.
281
755000
4000
Das alte Gehirn ist immer noch da. Sie haben immernoch dieses Alligator-Gehirn.
13:04
You do. It's your emotionalemotional brainGehirn.
282
759000
2000
Sie haben es. Es ist ihr emotionales Gehirn.
13:06
It's all those things, and all those gutDarm reactionsReaktionen you have.
283
761000
3000
Es ist all dass und all die Reaktionen aus dem Bauch heraus die sie haben.
13:09
And on topoben of it, we have this memoryErinnerung systemSystem callednamens the neocortexNeocortex.
284
764000
3000
Darüber haben wir dieses Speichersystem mit dem Namen Neocortex.
13:12
And the memoryErinnerung systemSystem is sittingSitzung over the sensorysensorisch partTeil of the brainGehirn.
285
767000
4000
Und dieses Speichersystem sitzt über dem sensorischen Teil des Gehirns.
13:16
And so as the sensorysensorisch inputEingang comeskommt in and feedsEinspeisungen from the oldalt brainGehirn,
286
771000
3000
Und wenn der sensorische Input hereinkommt und das alte Gehirn füttert,
13:19
it alsoebenfalls goesgeht up into the neocortexNeocortex. And the neocortexNeocortex is just memorizingAuswendiglernen.
287
774000
4000
geht es auch in den Neocortex. Und der Neocortex speichert nur.
13:23
It's sittingSitzung there sayingSprichwort, ahAh, I'm going to memorizesich einprägen all the things that are going on:
288
778000
4000
Er sitzt herum und sagt, "Hey, ich werde all die Dinge die passieren speichern,
13:27
where I've been, people I've seengesehen, things I've heardgehört, and so on.
289
782000
2000
wo ich war, Leute die ich gesehen hab, Dinge die ich gehört habe usw.
13:29
And in the futureZukunft, when it seessieht something similarähnlich to that again,
290
784000
4000
Und in der Zukunft wenn es etwas Ähnliches sieht,
13:33
so in a similarähnlich environmentUmwelt, or the exactgenau samegleich environmentUmwelt,
291
788000
3000
in einer ähnlichen Umgebung oder der exakt gleichen Umgebung,
13:36
it'lles wird playspielen it back. It'llEs werde startAnfang playingspielen it back.
292
791000
2000
spielt es das wieder ab. Es wird anfangen es abzuspielen.
13:38
Oh, I've been here before. And when you've been here before,
293
793000
2000
"Oh, hier war ich schon mal. Und als ich hier war
13:40
this happenedpassiert nextNächster. It allowserlaubt you to predictvorhersagen the futureZukunft.
294
795000
3000
ist das als nächstes passiert." Es erlaubt Ihnen die Zukunft vorauszusagen.
13:43
It allowserlaubt you to, literallybuchstäblich it feedsEinspeisungen back the signalsSignale into your brainGehirn;
295
798000
4000
Es erlaubt ihnen, im wörtlichen Sinne, es leitet die Signale zurück an das Gehirn
13:47
they'llsie werden let you see what's going to happengeschehen nextNächster,
296
802000
2000
es sagt Ihnen was als nächstes passieren wird,
13:49
will let you hearhören the wordWort "sentenceSatz" before I said it.
297
804000
3000
es wird Sie das Wort "ist" hören lassen, bevor ich es gesagt habe.
13:52
And it's this feedingFütterung back into the oldalt brainGehirn
298
807000
3000
Und es ist dieses zurückleiten ins alte Gehirn
13:55
that'lldas werde allowzulassen you to make very more intelligentintelligent decisionsEntscheidungen.
299
810000
3000
das einem erlaubt intelligentere Entscheidungen zu treffen.
13:58
This is the mostdie meisten importantwichtig slidegleiten of my talk, so I'll dwellwohnen on it a little bitBit.
300
813000
3000
Das ist die wichtigste Folie meiner Rede, also werde ich etwas verweilen.
14:01
And so, all the time you say, oh, I can predictvorhersagen the things.
301
816000
4000
Also sagt man die ganze Zeit "Oh, ich kann Dinge voraussagen."
14:05
And if you're a ratRatte and you go throughdurch a mazeMatze, and then you learnlernen the mazeMatze,
302
820000
3000
Wenn man eine Ratte ist, geht man durch ein Labyrinth und lernt dieses
14:08
the nextNächster time you're in a mazeMatze, you have the samegleich behaviorVerhalten,
303
823000
2000
und beim nächsten Mal in der man durch das Labyrinth geht, hat man das gleiche Verhalten
14:10
but all of a suddenplötzlich, you're smarterintelligenter
304
825000
2000
aber ist plötzlich schlauer
14:12
because you say, oh, I recognizeerkenne this mazeMatze, I know whichwelche way to go,
305
827000
3000
weil man sagt "Hey, ich erkenne dieses Labyrinth, ich kenne den Weg,
14:15
I've been here before, I can envisionsich vorstellen the futureZukunft. And that's what it's doing.
306
830000
3000
ich war hier schon mal, ich kann die mir die Zukunft vorstellen."
14:18
In humansMenschen -- by the way, this is truewahr for all mammalsSäugetiere;
307
833000
3000
In Menschen, und das trifft nebenbei für alle Säugetiere zu,
14:21
it's truewahr for other mammalsSäugetiere -- and in humansMenschen, it got a lot worseschlechter.
308
836000
2000
es ist wahr für andere Säugetiere und in Menschen, wurde es schlimmer.
14:23
In humansMenschen, we actuallytatsächlich developedentwickelt the frontVorderseite partTeil of the neocortexNeocortex
309
838000
3000
In Menschen haben wir den frontalen Teil des Neocortexes entwickelt
14:26
callednamens the anterioranterior partTeil of the neocortexNeocortex. And natureNatur did a little trickTrick.
310
841000
4000
mit dem Namen anteriorer Teil des Neocortex. Die Natur hat diesen kleinen Trick angewandt.
14:30
It copiedkopiert the posteriorposterior partTeil, the back partTeil, whichwelche is sensorysensorisch,
311
845000
2000
Es hat den posterioren Teil, den hinteren Teil, der sensorisch ist, kopiert
14:32
and put it in the frontVorderseite partTeil.
312
847000
2000
und nach vorne getan.
14:34
And humansMenschen uniquelyeinzigartig have the samegleich mechanismMechanismus on the frontVorderseite,
313
849000
2000
Und Menschen haben diesen gleichen Mechanismus als einzige vorne,
14:36
but we use it for motorMotor- controlsteuern.
314
851000
2000
und wir nutzen ihn für Motorik.
14:38
So we are now ablefähig to make very sophisticatedanspruchsvoll motorMotor- planningPlanung, things like that.
315
853000
3000
Jetzt sind wir also in der Lage sehr anspruchsvolle motorische Planung, Dinge wie das, zu tun.
14:41
I don't have time to get into all this, but if you want to understandverstehen how a brainGehirn worksWerke,
316
856000
3000
Ich habe keine Zeit ins Detail zu gehen, aber wenn man verstehen will, wie das Gehirn funktioniert
14:44
you have to understandverstehen how the first partTeil of the mammalianSäugetier- neocortexNeocortex worksWerke,
317
859000
3000
muss man verstehen, wie der erste Teil des Säugetier-Neocortex funktioniert
14:47
how it is we storeGeschäft patternsMuster and make predictionsVorhersagen.
318
862000
2000
und wie wir Muster speichern und Voraussagen machen.
14:49
So let me give you a fewwenige examplesBeispiele of predictionsVorhersagen.
319
864000
3000
Lasst mich ein paar Beispiele von Voraussagen geben.
14:52
I alreadybereits said the wordWort "sentenceSatz." In musicMusik-,
320
867000
2000
Ich hab das Satzbeispiel bereits gemacht. In der Musik
14:54
if you've heardgehört a songLied before, if you heardgehört JillJill singsingen those songsLieder before,
321
869000
3000
haben Sie das Lied bereits gehört, wenn sie Jill das Lied schon einmal singen hören haben,
14:57
when she singssingt them, the nextNächster noteHinweis popsPops into your headKopf alreadybereits --
322
872000
3000
kommt Ihnen die nächste Note bereits ins Gehirn wenn sie singt --
15:00
you anticipateerwarten it as you're going. If it was an albumAlbum of musicMusik-,
323
875000
2000
sie antizipieren während des Prozesses. Wenn es ein Album von Musik ist
15:02
the endEnde of one albumAlbum, the nextNächster songLied popsPops into your headKopf.
324
877000
3000
kommt ihnen das nächste Lied bereits in den Kopf beim Ende des vorherigen.
15:05
And these things happengeschehen all the time. You're makingHerstellung these predictionsVorhersagen.
325
880000
2000
All diese Dinge passieren die ganze Zeit. Sie machen diese Voraussagen.
15:07
I have this thing callednamens the alteredverändert doorTür thought experimentExperiment.
326
882000
3000
Ich habe dieses Ding mit dem Namen "Veränderte Tür Gedanken Experiment."
15:10
And the alteredverändert doorTür thought experimentExperiment sayssagt, you have a doorTür at home,
327
885000
3000
Und das "Veränderte Tür Gedanken Experiment" sagt, dass sie zuhause eine Tür haben
15:13
and when you're here, I'm changingÄndern it, I've got a guy
328
888000
3000
und während Sie hier sind, verändere ich sie. Ich habe diesen Typen
15:16
back at your houseHaus right now, movingbewegend the doorTür around,
329
891000
2000
in Ihren Häusern in diesem Moment, der Türen austauscht
15:18
and they're going to take your doorknobTürklinke and moveBewegung it over two inchesZoll.
330
893000
2000
und er wird Ihre Türgriffe nehmen und sie zwei Zoll versetzen.
15:20
And when you go home tonightheute Abend, you're going to put your handHand out there,
331
895000
2000
Und wenn Sie nach Hause gehen und ihre Hand ausstecken
15:22
and you're going to reacherreichen for the doorknobTürklinke and you're going to noticebeachten
332
897000
2000
und nach dem Türgriff greifen werden Sie bemerken
15:24
it's in the wrongfalsch spotStelle, and you'lldu wirst go, whoaWowa, something happenedpassiert.
333
899000
3000
dass er am falschen Platz ist, und sagen "Woho, etwas ist passiert."
15:27
It maykann take a secondzweite to figureZahl out what it was, but something happenedpassiert.
334
902000
2000
Sie werden vielleicht eine Sekunde brauchen um herauszufinden was, aber etwas ist passiert.
15:29
Now I could changeVeränderung your doorknobTürklinke in other waysWege.
335
904000
2000
Ich könnte den Türgriff auf andere Arten verändern.
15:31
I can make it largergrößer or smallerkleiner, I can changeVeränderung its brassMessing- to silverSilber-,
336
906000
2000
Ich könnte ihn kleiner oder größer machen, ich könnte Messing durch Silber ersetzen,
15:33
I could make it a leverHebel. I can changeVeränderung your doorTür, put colorsFarben on;
337
908000
2000
ich könnte einen Hebel daraus machen. Ich kann Ihre Türen verändern, Farben verändern,
15:35
I can put windowsFenster in. I can changeVeränderung a thousandtausend things about your doorTür,
338
910000
3000
ich kann Fenster hinein setzen. Ich kann Tausend Dinge mit Ihrer Tür machen
15:38
and in the two secondsSekunden you take to openöffnen your doorTür,
339
913000
2000
und in den zwei Sekunden, die Sie benötigen die Tür zu öffnen,
15:40
you're going to noticebeachten that something has changedgeändert.
340
915000
3000
werden Sie bemerken dass etwas sich verändert hat.
15:43
Now, the engineeringIngenieurwesen approachAnsatz to this, the AIAI approachAnsatz to this,
341
918000
2000
Der Ingenieursansatz ist, KI geht dies an
15:45
is to buildbauen a doorTür databaseDatenbank. It has all the doorTür attributesAttribute.
342
920000
3000
durch eine Baue-eine-Tür-Datenbank. Sie hat all die Tür-Attribute.
15:48
And as you go up to the doorTür, you know, let's checkprüfen them off one at time.
343
923000
3000
Und wenn man zur Tür geht, werden diese Punkt für Punkt überprüft.
15:51
DoorTür, doorTür, doorTür, you know, colorFarbe, you know what I'm sayingSprichwort.
344
926000
2000
Tür, Tür, Tür, Farbe, Sie wissen was ich meine.
15:53
We don't do that. Your brainGehirn doesn't do that.
345
928000
2000
Das machen wir nicht. Das Gehirn tut dies nicht.
15:55
What your brainGehirn is doing is makingHerstellung constantKonstante predictionsVorhersagen all the time
346
930000
2000
Was Ihr Gehirn macht, ist dass es konstant Voraussagen darüber macht,
15:57
about what is going to happengeschehen in your environmentUmwelt.
347
932000
2000
was als nächstes in Ihrer Umgebung passieren wird.
15:59
As I put my handHand on this tableTabelle, I expecterwarten von to feel it stop.
348
934000
3000
Wenn ich meine Hand auf den Tisch lege, erwarte ich zu Fühlen, dass sie anhält.
16:02
When I walkgehen, everyjeden stepSchritt, if I missedübersehen it by an eighthachte of an inchZoll,
349
937000
3000
Wenn ich laufe, jede Stufe, wenn ich sie nur ein achtel eines Zoll verpasse
16:05
I'll know something has changedgeändert.
350
940000
2000
weiß ich dass sich etwas verändert hat.
16:07
You're constantlyständig makingHerstellung predictionsVorhersagen about your environmentUmwelt.
351
942000
2000
Wir machen konstant Voraussagen über unsere Umgebung.
16:09
I'll talk about visionVision here brieflykurz. This is a pictureBild of a womanFrau.
352
944000
3000
Ich werde kurz auf Sehkraft eingehen. Das ist das Bild einer Frau.
16:12
And when you look at people, your eyesAugen are caughterwischt
353
947000
2000
Und wenn wir Leute anschauen, bewegen sich Ihre Augen
16:14
over at two to threedrei timesmal a secondzweite.
354
949000
1000
zwei bis drei Mal pro Sekunde.
16:15
You're not awarebewusst of this, but your eyesAugen are always movingbewegend.
355
950000
2000
Sie sind sich dessen nicht bewusst, aber Ihre Augen bewegen sich konstant.
16:17
And so when you look at someone'sjemandes faceGesicht,
356
952000
2000
Und wenn Sie jemandem ins Gesicht schauen,
16:19
you'ddu würdest typicallytypischerweise go from eyeAuge to eyeAuge to eyeAuge to noseNase to mouthMund.
357
954000
2000
gehen Sie normalerweise von Auge zu Auge zu Auge zur Nase zum Mund.
16:21
Now, when your eyeAuge movesbewegt from eyeAuge to eyeAuge,
358
956000
2000
Wenn Ihr Auge von Auge zu Auge geht
16:23
if there was something elsesonst there like, a noseNase,
359
958000
2000
und da ist plötzlich etwas anderes wie z.B. eine Nase,
16:25
you'ddu würdest see a noseNase where an eyeAuge is supposedsoll to be,
360
960000
2000
sehen Sie eine Nase wo ein Auge sein sollte
16:27
and you'ddu würdest go, oh shitScheisse, you know --
361
962000
3000
und sagen "Ach du scheiße..."
16:30
(LaughterLachen)
362
965000
1000
(Lachen)
16:31
There's something wrongfalsch about this personPerson.
363
966000
2000
Da stimmt etwas nicht mit dieser Person.
16:33
And that's because you're makingHerstellung a predictionPrognose.
364
968000
2000
Das liegt daran, dass wir konstant Voraussagen machen.
16:35
It's not like you just look over there and say, what am I seeingSehen now?
365
970000
2000
Es ist nicht so, dass sie da hin schauen und sagen "Was sehe ich jetzt?
16:37
A noseNase, that's okay. No, you have an expectationErwartung of what you're going to see.
366
972000
3000
Eine Nase, das ist OK." Nein, sie haben Erwartungen davon was sie sehen werden.
16:40
(LaughterLachen)
367
975000
1000
(Lachen)
16:41
EveryJedes singleSingle momentMoment. And finallyendlich, let's think about how we testTest intelligenceIntelligenz.
368
976000
4000
In jedem Moment. Schließlich, lassen Sie uns darüber nachdenken wie wir Intelligenz testen.
16:45
We testTest it by predictionPrognose. What is the nextNächster wordWort in this, you know?
369
980000
3000
Wir testen sie durch Voraussagen. Was ist das nächste Wort hier, verstehen sie?
16:48
This is to this as this is to this. What is the nextNächster numberNummer in this sentenceSatz?
370
983000
3000
Das ist zu dem wie das zu dem. Was ist die nächste Nummer in diesem Satz?
16:51
Here'sHier ist threedrei visionsVisionen of an objectObjekt.
371
986000
2000
Ich habe drei Visionen eines Objekts.
16:53
What's the fourthvierte one? That's how we testTest it. It's all about predictionPrognose.
372
988000
4000
Was ist die vierte? Das ist wie wir es testen. Es geht nur um Voraussagen.
16:57
So what is the recipeRezept for brainGehirn theoryTheorie?
373
992000
3000
Was ist also das Rezept für eine Gehirntheorie?
17:00
First of all, we have to have the right frameworkRahmen.
374
995000
3000
Zunächst einmal brauchen wir das richtige Gerüst.
17:03
And the frameworkRahmen is a memoryErinnerung frameworkRahmen,
375
998000
2000
Das Gerüst ist ein Gedächtnisgerüst
17:05
not a computationBerechnung or behaviorVerhalten frameworkRahmen. It's a memoryErinnerung frameworkRahmen.
376
1000000
2000
nicht ein Berechnungs- oder Verhaltensgerüst. Es ist ein Gedächtnisgerüst.
17:07
How do you storeGeschäft and recallerinnern these sequencesSequenzen or patternsMuster? It's spatio-temporalräumlich-zeitliche patternsMuster.
377
1002000
4000
Wie speichert und ruft man all diese Sequenzen oder Muster ab? Es sind räumlich-zeitliche Muster.
17:11
Then, if in that frameworkRahmen, you take a bunchBündel of theoreticiansTheoretiker.
378
1006000
3000
Wenn man in diesem Gerüst ist, nimmt man einige Theoretiker.
17:14
Now biologistsBiologen generallyallgemein are not good theoreticiansTheoretiker.
379
1009000
2000
Biologen sind generell keine guten Theoretiker.
17:16
It's not always truewahr, but in generalGeneral, there's not a good historyGeschichte of theoryTheorie in biologyBiologie.
380
1011000
4000
Das stimmt nicht immer, aber ist gewöhnlich, Biologie hat keine gute Historie von Theorien.
17:20
So I foundgefunden the bestBeste people to work with are physicistsPhysiker,
381
1015000
3000
Die Leute mit denen man am besten arbeiten kann sind Physiker,
17:23
engineersIngenieure and mathematiciansMathematiker, who tendneigen to think algorithmicallyalgorithmisch.
382
1018000
3000
Ingenieure und Mathematiker, die dazu tendieren algorithmisch zu denken.
17:26
Then they have to learnlernen the anatomyAnatomie, and they'veSie haben got to learnlernen the physiologyPhysiologie.
383
1021000
3000
Sie müssen dann die Anatomie lernen und müssen die Physiologie lernen.
17:29
You have to make these theoriesTheorien very realisticrealistische in anatomicalanatomisch termsBegriffe.
384
1024000
4000
Man muss diese Theorien sehr realistisch aus anatomischer Sicht machen.
17:33
AnyoneWer who getsbekommt up and tellserzählt you theirihr theoryTheorie about how the brainGehirn worksWerke
385
1028000
4000
Jeder der daherkommt und Ihnen von der Theorie erzählt wie das Gehirn funktioniert
17:37
and doesn't tell you exactlygenau how it's workingArbeiten in the brainGehirn
386
1032000
2000
und nicht genau sagt, wie es im Gehirn funktioniert
17:39
and how the wiringVerdrahtung worksWerke in the brainGehirn, it is not a theoryTheorie.
387
1034000
2000
und wie die Verdrahtung im Gehirn ist, hat keine Theorie.
17:41
And that's what we're doing at the RedwoodRedwood NeuroscienceNeurowissenschaften InstituteInstitut.
388
1036000
3000
Das ist es, was wir am Redwood Neuroscience Institut machen.
17:44
I would love to have more time to tell you we're makingHerstellung fantasticfantastisch progressFortschritt in this thing,
389
1039000
4000
Ich wünschte ich hätte mehr Zeit Ihnen von den fantastischen Fortschritten zu erzählen die wir hier machen
17:48
and I expecterwarten von to be back up on this stageStufe,
390
1043000
2000
und ich erwarte wieder zurück auf dieser Bühne zu sein
17:50
maybe this will be some other time in the not too distantentfernt futureZukunft and tell you about it.
391
1045000
2000
vielleicht wird dies in der nicht zu entfernten Zukunft sein und Ihnen davon erzählen.
17:52
I'm really, really excitedaufgeregt. This is not going to take 50 yearsJahre at all.
392
1047000
3000
Ich bin wirklich wirklich gespannt. Es wird sicher keine 50 Jahre dauern.
17:55
So what will brainGehirn theoryTheorie look like?
393
1050000
2000
Also, wie wird also eine Gehirntheorie aussehen?
17:57
First of all, it's going to be a theoryTheorie about memoryErinnerung.
394
1052000
2000
Zunächst einmal wird es eine Theorie über das Gedächtnis sein.
17:59
Not like computerComputer memoryErinnerung. It's not at all like computerComputer memoryErinnerung.
395
1054000
3000
Nicht wie ein Computerspeicher. Nicht im Geringsten wie ein Computerspeicher.
18:02
It's very, very differentanders. And it's a memoryErinnerung of these very
396
1057000
2000
Es ist extrem verschieden. Es ist ein Speicher aus all diesen
18:04
high-dimensionalhochdimensional patternsMuster, like the things that come from your eyesAugen.
397
1059000
3000
viel-dimensionalen Mustern, wie die Dinge die von Ihren Augen kommen.
18:07
It's alsoebenfalls memoryErinnerung of sequencesSequenzen.
398
1062000
2000
Es ist ein Gedächtnis von Mustern.
18:09
You cannotnicht können learnlernen or recallerinnern anything outsidedraußen of a sequenceSequenz.
399
1064000
2000
Man kann nichts außerhalb von Abfolgen lernen oder wiedergeben.
18:11
A songLied mustsollen be heardgehört in sequenceSequenz over time,
400
1066000
3000
Ein Lied muss in Sequenz gehört werden über eine Zeit
18:14
and you mustsollen playspielen it back in sequenceSequenz over time.
401
1069000
3000
und man muss es wiederholt in Sequenz über einen Zeitraum abspielen.
18:17
And these sequencesSequenzen are auto-associativelyAuto-assoziativ recalledzurückgerufen, so if I see something,
402
1072000
3000
Und all diese Sequenzen sind auto-assoziativ abgerufen, wenn ich also etwas sehe
18:20
I hearhören something, it remindserinnert me of it, and then it playsTheaterstücke back automaticallyautomatisch.
403
1075000
3000
oder ich etwas höre, erinnert es mich daran und wird automatisch wiedergegeben.
18:23
It's an automaticAutomatisch playbackWiedergabe. And predictionPrognose of futureZukunft inputsEingänge is the desiredauf Wunsch outputAusgabe.
404
1078000
4000
Es ist eine automatische Wiedergabe. Eine voraussage von zukünftigen Inputs ist der erwünschte Output.
18:27
And as I said, the theoryTheorie mustsollen be biologicallybiologisch accurategenau,
405
1082000
3000
Und wie ich sagte, die Theorie muss biologisch akkurat sein
18:30
it mustsollen be testableprüfbar, and you mustsollen be ablefähig to buildbauen it.
406
1085000
2000
sie muss testbar sein und man muss in der Lage sein sie zu bauen.
18:32
If you don't buildbauen it, you don't understandverstehen it. So, one more slidegleiten here.
407
1087000
4000
Wenn man sie nicht bauen kann, versteht man sie nicht. Eine Folie noch.
18:36
What is this going to resultErgebnis in? Are we going to really buildbauen intelligentintelligent machinesMaschinen?
408
1091000
4000
Was wird das Resultat dessen sein? Werden wir wirklich intelligente Maschinen bauen?
18:40
AbsolutelyAbsolut. And it's going to be differentanders than people think.
409
1095000
4000
Absolut. Und es wird anders sein als sich die Leute das vorstellen.
18:44
No doubtZweifel that it's going to happengeschehen, in my mindVerstand.
410
1099000
3000
Es gibt in meinem Verständnis keinen Zweifel, dass dies passieren wird.
18:47
First of all, it's going to be builtgebaut up, we're going to buildbauen the stuffSachen out of siliconSilizium.
411
1102000
4000
Zuerst werden wir sie bauen und wir werden sie aus Silikon bauen.
18:51
The samegleich techniquesTechniken we use for buildingGebäude siliconSilizium computerComputer memoriesErinnerungen,
412
1106000
3000
Die gleichen Techniken die wir nutzen um Silikon Computerspeicher zu bauen
18:54
we can use for here.
413
1109000
1000
können wir hier nutzen.
18:55
But they're very differentanders typesTypen of memoriesErinnerungen.
414
1110000
2000
Aber es wird eine extrem andere Art von Speicher sein.
18:57
And we're going to attachanfügen these memoriesErinnerungen to sensorsSensoren,
415
1112000
2000
Und wir werden diese Speicher an Sensoren anbauen
18:59
and the sensorsSensoren will experienceErfahrung real-liveReal-live, real-worldechte Welt dataDaten,
416
1114000
3000
und diese Sensoren werden reale, wirkliche Welt Daten erleben
19:02
and these things are going to learnlernen about theirihr environmentUmwelt.
417
1117000
2000
und diese Dinge werden über ihre Umgebung lernen.
19:04
Now it's very unlikelyunwahrscheinlich the first things you're going to see are like robotsRoboter.
418
1119000
3000
Es ist sehr unwahrscheinlich, dass das erste was wir sehen werden Roboter sin.
19:07
Not that robotsRoboter aren'tsind nicht usefulsinnvoll and people can buildbauen robotsRoboter.
419
1122000
3000
Nicht, dass Roboter nicht nützlich sind und Menschen können Roboter bauen.
19:10
But the roboticsRobotik partTeil is the hardesthärteste partTeil. That's the oldalt brainGehirn. That's really hardhart.
420
1125000
4000
Aber Robotik ist der schwierigste Teil. Das ist das alte Gehirn. Das ist wirklich schwer.
19:14
The newneu brainGehirn is actuallytatsächlich kindArt of easiereinfacher than the oldalt brainGehirn.
421
1129000
2000
Das neue Gehirn ist tatsächlich einfacher als das alte Gehirn.
19:16
So the first thing we're going to do are the things that don't requireerfordern a lot of roboticsRobotik.
422
1131000
3000
Die ersten Dinge die passieren werden sind, die, die nicht viel Robotik benötigen.
19:19
So you're not going to see C-C-3POPO.
423
1134000
2000
Sie werden also keinen C-3PO sehen.
19:21
You're going to more see things like, you know, intelligentintelligent carsAutos
424
1136000
2000
Sie werden eher Dinge wie intelligente Autos sehen
19:23
that really understandverstehen what trafficder Verkehr is and what drivingFahren is
425
1138000
3000
die wirklich verstehen was Verkehr ist und was Fahren ist
19:26
and have learnedgelernt that certainsicher typesTypen of carsAutos with the blinkersScheuklappen on for halfHälfte a minuteMinute
426
1141000
3000
und werden gelernt haben, dass manche Autos mit Blinkern, die über eine halbe Minute an sind,
19:29
probablywahrscheinlich aren'tsind nicht going to turnWende, things like that.
427
1144000
2000
wahrscheinlich nicht abbiegen werden, Dinge wie das.
19:31
(LaughterLachen)
428
1146000
1000
(Lachen)
19:32
We can alsoebenfalls do intelligentintelligent securitySicherheit systemsSysteme.
429
1147000
2000
Wir können auch intelligente Sicherheitssysteme machen.
19:34
AnywhereÜberall where we're basicallyGrundsätzlich gilt usingmit our brainGehirn, but not doing a lot of mechanicsMechanik.
430
1149000
4000
Überall wo wir im Prinzip das Gehirn nutzen, aber nicht viel Mechanik.
19:38
Those are the things that are going to happengeschehen first.
431
1153000
2000
Das sind die Dinge, die zuerst kommen werden.
19:40
But ultimatelyletzten Endes, the world'sWelt the limitGrenze here.
432
1155000
2000
Aber ultimativ gibt es keine Grenzen.
19:42
I don't know how this is going to turnWende out.
433
1157000
2000
Ich weiß nicht, wie sich das entwickeln wird.
19:44
I know a lot of people who inventederfunden the microprocessorMikroprozessor
434
1159000
2000
Ich kenne viele der Leute, die Mikroprozessoren erfunden haben
19:46
and if you talk to them, they knewwusste what they were doing was really significantsignifikant,
435
1161000
5000
und wenn man mit ihnen gesprochen hat, wussten sie, dass sie etwas wirklich Bedeutsames tun
19:51
but they didn't really know what was going to happengeschehen.
436
1166000
3000
aber sie wussten nicht wirklich was passieren wird.
19:54
They couldn'tkonnte nicht anticipateerwarten cellZelle phonesTelefone and the InternetInternet and all this kindArt of stuffSachen.
437
1169000
5000
Sie konnten nicht das Handy, das Internet usw. antizipieren.
19:59
They just knewwusste like, hey, they were going to buildbauen calculatorsTaschenrechner
438
1174000
2000
Sie wussten nur, dass sie Taschenrechner und
20:01
and trafficder Verkehr lightLicht controllersController. But it's going to be biggroß.
439
1176000
2000
Ampel-Kontroller bauen werden. Aber dieses Ding wird groß.
20:03
In the samegleich way, this is like brainGehirn scienceWissenschaft and these memoriesErinnerungen
440
1178000
3000
Ebenso wird Gehirnwissenschaft und diese Speicher
20:06
are going to be a very fundamentalgrundlegend technologyTechnologie, and it's going to leadführen
441
1181000
3000
eine sehr fundamentale Technologie sein und wird zu
20:09
to very unbelievablenicht zu fassen changesÄnderungen in the nextNächster 100 yearsJahre.
442
1184000
3000
unglaublichen Veränderungen in den nächsten 100 Jahren führen.
20:12
And I'm mostdie meisten excitedaufgeregt about how we're going to use them in scienceWissenschaft.
443
1187000
4000
Und ich bin am meisten gespannt wie wir diese in der Wissenschaft nutzen werden.
20:16
So I think that's all my time, I'm over it, and I'm going to endEnde my talk
444
1191000
3000
Ich glaube das war all meine Zeit, ich bin Fertig und werde meine Rede
20:19
right there.
445
1194000
1000
hier beenden.

▲Back to top

ABOUT THE SPEAKER
Jeff Hawkins - Computer designer, brain researcher
Jeff Hawkins pioneered the development of PDAs such as the Palm and Treo. Now he's trying to understand how the human brain really works, and adapt its method -- which he describes as a deep system for storing memory -- to create new kinds of computers and tools.

Why you should listen

Jeff Hawkins' Palm PDA became such a widely used productivity tool during the 1990s that some fanatical users claimed it replaced their brains. But Hawkins' deepest interest was in the brain itself. So after the success of the Palm and Treo, which he brought to market at Handspring, Hawkins delved into brain research at the Redwood Center for Theoretical Neuroscience in Berkeley, Calif., and a new company called Numenta.

Hawkins' dual goal is to achieve an understanding of how the human brain actually works -- and then develop software to mimic its functionality, delivering true artificial intelligence. In his book On Intelligence (2004) he lays out his compelling, controversial theory: Contrary to popular AI wisdom, the human neocortex doesn't work like a processor; rather, it relies on a memory system that stores and plays back experiences to help us predict, intelligently, what will happen next. He thinks that "hierarchical temporal memory" computer platforms, which mimic this functionality (and which Numenta might pioneer), could enable groundbreaking new applications that could powerfully extend human intelligence.

More profile about the speaker
Jeff Hawkins | Speaker | TED.com