ABOUT THE SPEAKER
Jeff Hawkins - Computer designer, brain researcher
Jeff Hawkins pioneered the development of PDAs such as the Palm and Treo. Now he's trying to understand how the human brain really works, and adapt its method -- which he describes as a deep system for storing memory -- to create new kinds of computers and tools.

Why you should listen

Jeff Hawkins' Palm PDA became such a widely used productivity tool during the 1990s that some fanatical users claimed it replaced their brains. But Hawkins' deepest interest was in the brain itself. So after the success of the Palm and Treo, which he brought to market at Handspring, Hawkins delved into brain research at the Redwood Center for Theoretical Neuroscience in Berkeley, Calif., and a new company called Numenta.

Hawkins' dual goal is to achieve an understanding of how the human brain actually works -- and then develop software to mimic its functionality, delivering true artificial intelligence. In his book On Intelligence (2004) he lays out his compelling, controversial theory: Contrary to popular AI wisdom, the human neocortex doesn't work like a processor; rather, it relies on a memory system that stores and plays back experiences to help us predict, intelligently, what will happen next. He thinks that "hierarchical temporal memory" computer platforms, which mimic this functionality (and which Numenta might pioneer), could enable groundbreaking new applications that could powerfully extend human intelligence.

More profile about the speaker
Jeff Hawkins | Speaker | TED.com
TED2003

Jeff Hawkins: How brain science will change computing

Jeff Hawkis su come la scienza del cervello cambierà l'informatica.

Filmed:
1,674,773 views

Il creatore di Treo Jeff Hawkins ci esorta a dare di nuovo un'occhiata al cervello per vederlo non come un veloce processore, ma come un sistema di memoria che accumula e riproduce esperienze per aiutarci a prevedere, intelligentemente, cosa succederà dopo.
- Computer designer, brain researcher
Jeff Hawkins pioneered the development of PDAs such as the Palm and Treo. Now he's trying to understand how the human brain really works, and adapt its method -- which he describes as a deep system for storing memory -- to create new kinds of computers and tools. Full bio

Double-click the English transcript below to play the video.

00:25
I do two things: I designdesign mobilemobile computerscomputer and I studystudia brainsmente.
0
0
3000
Faccio due cose: progetto computer portatili e studio cervelli.
00:29
And today'sdi oggi talk is about brainsmente and,
1
4000
2000
E il discorso di oggi riguarda i cervelli e,
00:31
yaySìì, somewhereda qualche parte I have a braincervello fanfan out there.
2
6000
2000
Urrà, da qualche parte là fuori ho un tifoso del cervello
00:33
(LaughterRisate)
3
8000
2000
(Risate)
00:35
I'm going to, if I can have my first slidediapositiva up here,
4
10000
2000
Sto per, se posso avere la mia prima diapositiva qui
00:37
and you'llpotrai see the titletitolo of my talk and my two affiliationsaffiliazioni.
5
12000
4000
potrete vedere il titolo del mio discorso e le mie due affiliazioni.
00:41
So what I'm going to talk about is why we don't have a good braincervello theoryteoria,
6
16000
4000
Quindi, ciò di cui parlerò è il motivo per il quale non abbiamo una buona teoria del cervello,
00:45
why it is importantimportante that we should developsviluppare one and what we can do about it.
7
20000
3000
perché è importante doverne svilupparne una e ciò che possiamo fare al riguardo.
00:48
And I'll try to do all that in 20 minutesminuti. I have two affiliationsaffiliazioni.
8
23000
3000
E cercherò di fare tutto questo in 20 minuti. Ho due affiliazioni.
00:51
MostMaggior parte of you know me from my PalmPalma and HandspringHandspring daysgiorni,
9
26000
3000
La maggior parte di voi mi conosce per il mio lavoro di Palm e Handspring,
00:54
but I alsoanche runcorrere a nonprofitsenza scopo di lucro scientificscientifico researchricerca instituteistituto
10
29000
3000
ma dirigo anche un istituto di ricerca scientifica senza scopo di lucro
00:57
calledchiamato the RedwoodRedwood NeuroscienceNeuroscienze InstituteIstituto in MenloMenlo ParkParco,
11
32000
2000
chiamato il Redwood Neuroscience Institute di Menlo Park,
00:59
and we studystudia theoreticalteorico neuroscienceneuroscienza,
12
34000
2000
Noi studiamo le neuroscienze teoretiche,
01:01
and we studystudia how the neocortexneocorteccia workslavori.
13
36000
2000
e come funziona la neocorteccia.
01:03
I'm going to talk all about that.
14
38000
2000
Vi parlero' di tutto questo.
01:05
I have one slidediapositiva on my other life, the computercomputer life, and that's the slidediapositiva here.
15
40000
3000
Ho una diapositiva sull'altra mia vita, la vita del computer, ed è questa diapositiva.
01:08
These are some of the productsprodotti I've workedlavorato on over the last 20 yearsanni,
16
43000
3000
Questi sono alcuni dei prodotti sui quali ho lavorato negli ultimi 20 anni,
01:11
startingdi partenza back from the very originaloriginale laptopil computer portatile to some of the first tabletcompressa computerscomputer
17
46000
4000
iniziando dai veri e propri laptop originali fino ai primi tablet computer
01:15
and so on, and endingfine up mostmaggior parte recentlyrecentemente with the TreoTreo,
18
50000
2000
e cosi' via, arrivando fino al piu' recente Treo,
01:17
and we're continuingcontinua to do this.
19
52000
2000
e continuiamo a fare cio'.
01:19
And I've donefatto this because I really believe that mobilemobile computinginformatica
20
54000
2000
E ho fatto questo perche' credo davvero che il mobile computing
01:21
is the futurefuturo of personalpersonale computinginformatica, and I'm tryingprovare to make the worldmondo
21
56000
3000
sia il futuro del personal computing, e sto cercando di rendere il mondo
01:24
a little bitpo better by workinglavoro on these things.
22
59000
3000
migliore lavorando su queste cose.
01:27
But this was, I have to admitammettere, all an accidentincidente.
23
62000
2000
Ma questo, devo ammetterlo, è stato del tutto casuale.
01:29
I really didn't want to do any of these productsprodotti
24
64000
2000
Non avevo nessuna intezione di creare alcuno di questi prodotti
01:31
and very earlypresto in my careercarriera I decideddeciso
25
66000
2000
e molto presto nella mia carriera decisi
01:33
I was not going to be in the computercomputer industryindustria.
26
68000
3000
che non sarei entrato nell'industria dei computer.
01:36
And before I tell you about that, I just have to tell you
27
71000
2000
E prima che vi parli di tutto cio', devo solo dirvi
01:38
this one little pictureimmagine of graffitiGraffiti there I pickedraccolto off the webweb the other day.
28
73000
2000
di questa piccola immagine di graffiti che ho preso da Internet oggi.
01:40
I was looking for a pictureimmagine of graffitiGraffiti, little texttesto inputingresso languageLingua,
29
75000
3000
Stavo cercando una foto di graffiti, un breve text-input-language,
01:43
and I foundtrovato the websiteSito web dedicateddedito to teachersinsegnanti who want to make these,
30
78000
3000
e ho trovato questo sito dedicato agli insegnanti che vogliono creare questi,
01:46
you know, the scriptscript writingscrittura things acrossattraverso the topsuperiore of theirloro blackboardlavagna,
31
81000
3000
lo sapete, le scritte che vanno sopra le loro lavagne,
01:49
and they had addedaggiunto graffitiGraffiti to it, and I'm sorry about that.
32
84000
3000
e hanno aggiunto i graffiti, e mi dispiace.
01:52
(LaughterRisate)
33
87000
2000
(Risate)
01:54
So what happenedè accaduto was, when I was younggiovane and got out of engineeringingegneria schoolscuola
34
89000
5000
Quindi, quello che accadde, quando ero giovane e venni fuori dalla scuola di ingegneria,
01:59
at CornellCornell in '79, I decideddeciso -- I wentandato to work for IntelIntel and
35
94000
4000
Cornell, nel '79, decisi che avrei lavorato per Intel.
02:03
I was in the computercomputer industryindustria -- and threetre monthsmesi into that,
36
98000
3000
Ero nell'industria dei computer, e dopo tre mesi,
02:06
I fellabbattere in love with something elsealtro, and I said, "I madefatto the wrongsbagliato careercarriera choicescelta here,"
37
101000
4000
mi innamorai di qualcos'altro e dissi: "ho fatto la scelta sbagliata per la mia carriera",
02:10
and I fellabbattere in love with brainsmente.
38
105000
3000
e mi innamorai dei cervelli.
02:13
This is not a realvero braincervello. This is a pictureimmagine of one, a linelinea drawingdisegno.
39
108000
3000
Questo non è un vero cervello. Questa è una rappresentazione, una disegno
02:16
But I don't rememberricorda exactlydi preciso how it happenedè accaduto,
40
111000
3000
Non ricordo esattamente come accadde,
02:19
but I have one recollectionraccoglimento, whichquale was prettybella strongforte in my mindmente.
41
114000
3000
ma ricordo una cosa, che e' impressa piuttosto intensamente nella mia mente.
02:22
In SeptemberSettembre 1979, ScientificScientifico AmericanAmericano cameè venuto out
42
117000
3000
Nel settebre del 1979, Scientific American usci'
02:25
with a singlesingolo topicargomento issueproblema about the braincervello. And it was quiteabbastanza good.
43
120000
3000
con un numero monotematico sul cervello. Ed era piuttosto ben fatto.
02:28
It was one of the bestmigliore issuesproblemi ever. And they talkedparlato about the neuronneurone
44
123000
3000
Fu uno dei migliori numeri mai usciti. E parlarono dei neuroni
02:31
and developmentsviluppo and diseasemalattia and visionvisione and all the things
45
126000
2000
e dello sviluppo, e delle malattie e della vista e di tutte quelle cosa
02:33
you mightpotrebbe want to know about brainsmente. It was really quiteabbastanza impressiveimpressionante.
46
128000
3000
che avresti voluto sapere sul cervello. Fu piuttosto impressionante
02:36
And one mightpotrebbe have the impressionimpressione that we really knewconosceva a lot about brainsmente.
47
131000
3000
E qualcuno potra' avere l'impressione che ne sappiamo tanto di cervelli.
02:39
But the last articlearticolo in that issueproblema was writtenscritto by FrancisFrancesco CrickCrick of DNADNA famefama.
48
134000
4000
Ma l'ultimo articolo in qual numero venne scritto da Francis Crick, famoso per il DNA.
02:43
TodayOggi is, I think, the 50thesimo anniversaryanniversario of the discoveryscoperta of DNADNA.
49
138000
3000
Oggi e', credo, il 50esimo anniversario della scoperta del DNA.
02:46
And he wroteha scritto a storystoria basicallyfondamentalmente sayingdetto,
50
141000
2000
Scrisse un articolo praticamente dicendo,
02:48
well, this is all well and good, but you know what,
51
143000
3000
bene, tutto questo e' fantastico, ma sapete una cosa,
02:51
we don't know diddleyDiddley squatsquat about brainsmente
52
146000
2000
non sappiamo un bel niente del cervello
02:53
and no one has a cluetraccia how these things work,
53
148000
2000
e nessuno ha la piu' pallida idea di come funzionino queste cose,
02:55
so don't believe what anyonechiunque tellsdice you.
54
150000
2000
quindi non credete a quello che vi dicono.
02:57
This is a quotecitazione from that articlearticolo. He said, "What is conspicuouslycospicuamente lackingcarente,"
55
152000
3000
Questa e' una citazione dall'articolo. Disse: "Quello che manca davvero"
03:00
he's a very propercorretto BritishBritannico gentlemansignore so, "What is conspicuouslycospicuamente lackingcarente
56
155000
4000
e' un signore inglese per bene, quindi disse: "Quello che manca davvero
03:04
is a broadampio frameworkstruttura of ideasidee in whichquale to interpretinterpretare these differentdiverso approachesapprocci."
57
159000
3000
e' una chiara struttura di idee con la quale interpretare questi diversi approcci"
03:07
I thought the wordparola frameworkstruttura was great.
58
162000
2000
Penso che l'uso della parola struttura sia stato grandioso.
03:09
He didn't say we didn't even have a theoryteoria. He saysdice,
59
164000
2000
Non disse che non avevamo neanche una teoria. Disse,
03:11
we don't even know how to begininizio to think about it --
60
166000
2000
non sappiamo neanche come cominciare a pensare a questo --
03:13
we don't even have a frameworkstruttura.
61
168000
2000
non abbiamo neanche una struttura.
03:15
We are in the pre-paradigmpre-paradigma daysgiorni, if you want to use ThomasThomas KuhnKuhn.
62
170000
3000
Siamo nei giorni pre-paradigma, se volete usare Thomas Kuhn
03:18
And so I fellabbattere in love with this, and said look,
63
173000
3000
E così mi innamorai di questo e dissi guarda,
03:21
we have all this knowledgeconoscenza about brainsmente. How harddifficile can it be?
64
176000
3000
abbiamo tutte queste conoscenze sui cervelli. Quanto può essere difficile?
03:24
And this is something we can work on my lifetimetutta la vita. I feltprovato I could make a differencedifferenza,
65
179000
3000
E questo è qualcosa sul quale possiamo lavorare nella mia vita. Sentii che avrei potuto fare la differenza
03:27
and so I triedprovato to get out of the computercomputer businessattività commerciale, into the braincervello businessattività commerciale.
66
182000
4000
e così provai ad uscire dal business dei computer per quello del cervello.
03:31
First, I wentandato to MITMIT, the AIAI lablaboratorio was there,
67
186000
2000
Per prima cosa andai al MIT, il laboratorio AL era là,
03:33
and I said, well, I want to buildcostruire intelligentintelligente machinesmacchine, too,
68
188000
2000
e dissi, bene, voglio ancora costruire macchine intelligenti,
03:35
but the way I want to do it is to studystudia how brainsmente work first.
69
190000
3000
ma il modo in cui voglio farlo è studiare prima come i cervelli funzionano.
03:38
And they said, oh, you don't need to do that.
70
193000
3000
Dissero, oh, non hai bisogno di farlo.
03:41
We're just going to programprogramma computerscomputer; that's all we need to do.
71
196000
2000
Stiamo solo programmando computer, questo è tutto quello che dobbiamo fare.
03:43
And I said, no, you really oughtdovere to studystudia brainsmente. They said, oh, you know,
72
198000
3000
Dissi no, dovremmo davvero studiare i cervelli. Dissero, sai,
03:46
you're wrongsbagliato. And I said, no, you're wrongsbagliato, and I didn't get in.
73
201000
2000
ti sbagli. E io risposi, no, voi vi sbagliate, e non entrai.
03:48
(LaughterRisate)
74
203000
1000
(Risate)
03:50
But I was a little disappointeddeluso -- prettybella younggiovane -- but I wentandato back again
75
205000
2000
Ero un po' deluso - piuttosto giovane, ma tornai di nuovo
03:52
a fewpochi yearsanni laterdopo and this time was in CaliforniaCalifornia, and I wentandato to BerkeleyBerkeley.
76
207000
3000
pochi anni dopo e questa volta ero in California, andai a Berkeley
03:55
And I said, I'll go in from the biologicalbiologico sidelato.
77
210000
4000
e dissi, entrerò dal lato biologico.
03:59
So I got in -- in the PhPH.D. programprogramma in biophysicsbiofisica, and I was, all right,
78
214000
3000
Così entrai nel programma di dottorato di ricerca in Biofisica e stavo, va bene,
04:02
I'm studyingstudiando brainsmente now, and I said, well, I want to studystudia theoryteoria.
79
217000
3000
sto studiando cervelli ora, e dissi, bene, voglio studiare la teoria.
04:05
And they said, oh no, you can't studystudia theoryteoria about brainsmente.
80
220000
2000
Loro dissero, oh no, non puoi studiare la teoria del cervello.
04:07
That's not something you do. You can't get fundedfinanziato for that.
81
222000
2000
Questo non è ciò che si fa. Non è possibile ottenere finanziamenti per questo.
04:09
And as a graduatediplomato studentalunno, you can't do that. So I said, oh my goshPerbacco.
82
224000
4000
E come dottorando non è possibile farlo. Così dissi, oh caspita.
04:13
I was very depresseddepresso. I said, but I can make a differencedifferenza in this fieldcampo.
83
228000
2000
Ero molto depresso. Dissi, ma posso fare la differenza in questo campo.
04:15
So what I did is I wentandato back in the computercomputer industryindustria
84
230000
3000
Quindi quello che feci fu tornare nell'industria dei computer
04:18
and said, well, I'll have to work here for a while, do something.
85
233000
2000
e dissi, bene, dovrò lavorare qui per un po', fare qualcosa.
04:20
That's when I designedprogettato all those computercomputer productsprodotti.
86
235000
3000
Questo è stato quando ho disegnato tutti quei computer.
04:23
(LaughterRisate)
87
238000
1000
(Risate)
04:24
And I said, I want to do this for fourquattro yearsanni, make some moneyi soldi,
88
239000
3000
Dissi, voglio fare questo per quattro anni, fare un po’ di soldi,
04:27
like I was havingavendo a familyfamiglia, and I would maturematuro a bitpo,
89
242000
4000
siccome stavo mettendo sù famiglia, sarei maturato un po’
04:31
and maybe the businessattività commerciale of neuroscienceneuroscienza would maturematuro a bitpo.
90
246000
3000
e forse anche il business delle neuroscienze sarebbe maturato un po’.
04:34
Well, it tookha preso longerpiù a lungo than fourquattro yearsanni. It's been about 16 yearsanni.
91
249000
3000
Beh, ci sono voluti più di quattro anni. E' durato circa 16 anni.
04:37
But I'm doing it now, and I'm going to tell you about it.
92
252000
2000
Ma lo sto facendo adesso e ve lo racconterò.
04:39
So why should we have a good braincervello theoryteoria?
93
254000
3000
Quindi, perché dovremmo avere una buona teoria sul cervello?
04:42
Well, there's lots of reasonsmotivi people do sciencescienza.
94
257000
3000
Beh, ci sono un sacco di motivi per i quali le persone fanno scienza.
04:45
One is -- the mostmaggior parte basicdi base one is -- people like to know things.
95
260000
3000
Uno, il più semplice, è che alla gente piace sapere le cose.
04:48
We're curiouscurioso, and we just go out and get knowledgeconoscenza, you know?
96
263000
2000
Siamo curiosi e appena usciamo fuori acquisiamo conoscenze, lo sapete?
04:50
Why do we studystudia antsformiche? Well, it's interestinginteressante.
97
265000
2000
Perché studiamo le formiche? Beh, è interessante.
04:52
Maybe we'llbene learnimparare something really usefulutile about it, but it's interestinginteressante and fascinatingaffascinante.
98
267000
3000
Forse impareremo qualcosa di veramente utile al riguardo, ma è interessante e affascinante.
04:55
But sometimesa volte, a sciencescienza has some other attributesattributi
99
270000
2000
Ma talvolta una scienza ha alcune altre caratteristiche
04:57
whichquale makesfa it really, really interestinginteressante.
100
272000
2000
che la rendono veramente interessante.
04:59
SometimesA volte a sciencescienza will tell something about ourselvesnoi stessi,
101
274000
3000
A volte la scienza ci dirà qualcosa su noi stessi,
05:02
it'llsara tell us who we are.
102
277000
1000
ci dirà chi siamo.
05:03
RarelyRaramente, you know: evolutionEvoluzione did this and CopernicusNiccolò Copernico did this,
103
278000
3000
Raramente, sapete, l'evoluzione ha fatto questo e Copernico lo ha fatto,
05:06
where we have a newnuovo understandingcomprensione of who we are.
104
281000
2000
dove abbiamo una nuova comprensione di chi siamo.
05:08
And after all, we are our brainsmente. My braincervello is talkingparlando to your braincervello.
105
283000
4000
Dopo tutto noi siamo i nostri cervelli. Il mio cervello sta parlando al vostro.
05:12
Our bodiescorpi are hangingsospeso alonglungo for the ridecavalcata, but my braincervello is talkingparlando to your braincervello.
106
287000
3000
I nostri corpi sono qui solo di passaggio, ma il mio cervello sta parlando al vostro.
05:15
And if we want to understandcapire who we are and how we feel and perceivepercepire,
107
290000
3000
E se vogliamo capire chi siamo e come sentiamo e percepiamo,
05:18
we really understandcapire what brainsmente are.
108
293000
2000
allora capiamo veramente cosa sono i cervelli.
05:20
AnotherUn altro thing is sometimesa volte sciencescienza
109
295000
2000
Un'altra cosa è che la scienza a volte
05:22
leadsconduce to really biggrande societaldella società benefitsbenefici and technologiestecnologie,
110
297000
2000
porta notevoli benefici sociali e tecnologie,
05:24
or businessesaziende, or whateverqualunque cosa, that come out of it. And this is one, too,
111
299000
2000
o affari, o qualsiasi altra cosa che venga fuori. E questa è una,
05:26
because when we understandcapire how brainsmente work, we're going to be ablecapace
112
301000
3000
anche perché quando ci rendiamo conto di come il cervello funziona saremo capaci
05:29
to buildcostruire intelligentintelligente machinesmacchine, and I think that's actuallyin realtà a good thing on the wholetotale,
113
304000
3000
di costruire macchine intelligenti e penso che sia una cosa realmente buona nel complesso
05:32
and it's going to have tremendousenorme benefitsbenefici to societysocietà,
114
307000
2000
e darà enormi vantaggi alla società,
05:34
just like a fundamentalfondamentale technologytecnologia.
115
309000
2000
proprio come una tecnologia di base.
05:36
So why don't we have a good theoryteoria of brainsmente?
116
311000
2000
Allora perché non abbiamo una buona teoria del cervello?
05:38
And people have been workinglavoro on it for 100 yearsanni.
117
313000
3000
E le persone hanno lavorato su di esso per 100 anni?
05:41
Well, let's first take a look at what normalnormale sciencescienza lookssembra like.
118
316000
2000
Bene, prima dai un'occhiata a ciò a cui la scienza normale assomiglia.
05:43
This is normalnormale sciencescienza.
119
318000
2000
Questa è la scienza normale.
05:45
NormalNormale sciencescienza is a nicesimpatico balanceequilibrio betweenfra theoryteoria and experimentalistssperimentatori.
120
320000
4000
La scienza normale è un buon equilibrio tra la teoria e la sperimentazione.
05:49
And so the theoristteorico guys say, well, I think this is what's going on,
121
324000
2000
E così i teorici dicono, beh, penso che questo sia quello che sta succedendo
05:51
and the experimentalistsperimentalista saysdice, no, you're wrongsbagliato.
122
326000
2000
e gli sperimentalisti dicono, no, vi sbagliate.
05:53
And it goesva back and forthvia, you know?
123
328000
2000
E va avanti e indietro, lo sapete?
05:55
This workslavori in physicsfisica. This workslavori in geologyGeologia. But if this is normalnormale sciencescienza,
124
330000
2000
Questo funziona in fisica. Questo funziona in geologia. Ma se questa è la scienza normale
05:57
what does neuroscienceneuroscienza look like? This is what neuroscienceneuroscienza lookssembra like.
125
332000
3000
a cosa assomigliano la neuroscienza? Questo è ciò che la neuroscienza sembra.
06:00
We have this mountainmontagna of datadati, whichquale is anatomyanatomia, physiologyfisiologia and behaviorcomportamento.
126
335000
5000
Abbiamo questa montagna di dati, che sono anatomia, fisiologia e comportamento.
06:05
You can't imagineimmaginare how much detaildettaglio we know about brainsmente.
127
340000
3000
Non potete immaginare quanti dettagli sappiamo sui cervelli.
06:08
There were 28,000 people who wentandato to the neuroscienceneuroscienza conferenceconferenza this yearanno,
128
343000
4000
C'erano 28.000 persone alla conferenza di neuroscienze di quest'anno,
06:12
and everyogni one of them is doing researchricerca in brainsmente.
129
347000
2000
e ognuno di loro sta facendo ricerca sui cervelli.
06:14
A lot of datadati. But there's no theoryteoria. There's a little, wimpyWimpy boxscatola on topsuperiore there.
130
349000
4000
Un sacco di dati. Ma non c'è una teoria. C'è una piccola scatola molliccia lassù in alto.
06:18
And theoryteoria has not playedgiocato a roleruolo in any sortordinare of grandgrande way in the neurosciencesneuroscienze.
131
353000
5000
E la teoria non ha avuto un ruolo in nessun tipo di strada maestra nelle neuroscienze.
06:23
And it's a realvero shamevergogna. Now why has this come about?
132
358000
3000
Ed è un vero peccato. Ora, perché è andata così?
06:26
If you askChiedere neuroscientistsneuroscienziati, why is this the statestato of affairaffare,
133
361000
2000
Se chiedete ai neuroscienziati, perché è questo lo stato dei fatti?
06:28
they'llfaranno first of all admitammettere it. But if you askChiedere them, they'llfaranno say,
134
363000
3000
prima di tutto lo ammettono. Ma se glielo chiediamo, diranno,
06:31
well, there's variousvario reasonsmotivi we don't have a good braincervello theoryteoria.
135
366000
3000
beh, ci sono varie ragioni per le quali non abbiamo una buona teoria del cervello.
06:34
Some people say, well, we don't still have enoughabbastanza datadati,
136
369000
2000
Alcune persone dicono, non abbiamo ancora dati sufficienti,
06:36
we need to get more informationinformazione, there's all these things we don't know.
137
371000
3000
abbiamo bisogno di avere maggiori informazioni, ci sono tutte queste cose che non sappiamo.
06:39
Well, I just told you there's so much datadati comingvenuta out your earsorecchie.
138
374000
3000
Bene, vi ho appena detto che ci sono così tanti dati che escono dalle orecchie.
06:42
We have so much informationinformazione, we don't even know how to begininizio to organizeorganizzare it.
139
377000
3000
Ci sono così tante informazioni. Non sappiamo come cominciare a organizzarle.
06:45
What good is more going to do?
140
380000
2000
A che serve fare di più?
06:47
Maybe we'llbene be luckyfortunato and discoverscoprire some magicMagia thing, but I don't think so.
141
382000
3000
Forse saremo fortunati e scopriremo qualcosa di magico, ma io non la penso così.
06:50
This is actuallyin realtà a symptomsintomo of the factfatto that we just don't have a theoryteoria.
142
385000
3000
Questo è in effetti un sintomo del fatto che noi non abbiamo una teoria.
06:53
We don't need more datadati -- we need a good theoryteoria about it.
143
388000
3000
Non abbiamo bisogno di ulteriori dati -- abbiamo bisogno di una buona teoria su di esso.
06:56
AnotherUn altro one is sometimesa volte people say, well, brainsmente are so complexcomplesso,
144
391000
3000
Un'altra è che talvolta le persone dicono, bene, il cervello è talmente complesso,
06:59
it'llsara take anotherun altro 50 yearsanni.
145
394000
2000
ci vorranno altri 50 anni.
07:01
I even think ChrisChris said something like this yesterdayieri.
146
396000
2000
Penso che anche Chris abbia detto qualcosa di simile ieri.
07:03
I'm not sure what you said, ChrisChris, but something like,
147
398000
2000
Non sono sicuro di quello che hai detto, Chris, ma qualcosa di simile a,
07:05
well, it's one of the mostmaggior parte complicatedcomplicato things in the universeuniverso. That's not truevero.
148
400000
3000
beh, è una delle cose più complicate nell'universo. Non è vero.
07:08
You're more complicatedcomplicato than your braincervello. You've got a braincervello.
149
403000
2000
Tu sei più complicato di quanto lo sia il tuo cervello. Tu hai un cervello.
07:10
And it's alsoanche, althoughsebbene the braincervello lookssembra very complicatedcomplicato,
150
405000
2000
Inoltre, sebbene il cervello sembri molto complicato,
07:12
things look complicatedcomplicato untilfino a you understandcapire them.
151
407000
3000
le cose sembrano complicate finché non si capiscono.
07:15
That's always been the casecaso. And so all we can say, well,
152
410000
3000
E’ sempre stato così. E così tutti possiamo dire, bene,
07:18
my neocortexneocorteccia, whichquale is the partparte of the braincervello I'm interestedinteressato in, has 30 billionmiliardo cellscellule.
153
413000
4000
la mia neocorteccia, che è la parte del cervello che mi interessa, ha 30 miliardi cellule.
07:22
But, you know what? It's very, very regularregolare.
154
417000
2000
Ma, sapete una cosa? E' molto regolare.
07:24
In factfatto, it lookssembra like it's the samestesso thing repeatedripetuto over and over and over again.
155
419000
3000
In realtà, sembra che la stessa cosa sia ripetuta più e più e più volte.
07:27
It's not as complexcomplesso as it lookssembra. That's not the issueproblema.
156
422000
3000
Non è così complessa come sembra. Non è questo il problema.
07:30
Some people say, brainsmente can't understandcapire brainsmente.
157
425000
2000
Alcune persone dicono, i cervelli non possono capire i cervelli.
07:32
Very Zen-likeZen-come. WhooWhoo. (LaughterRisate)
158
427000
3000
Molto Zen. Whoo. Sapete --
07:35
You know,
159
430000
1000
(Risate)
07:36
it soundssuoni good, but why? I mean, what's the pointpunto?
160
431000
3000
Suona bene, ma perché? Voglio dire, qual è il punto?
07:39
It's just a bunchmazzo of cellscellule. You understandcapire your liverfegato.
161
434000
3000
E' solo un mucchio di cellule. Capite il vostro fegato.
07:42
It's got a lot of cellscellule in it too, right?
162
437000
2000
E ha un sacco di cellule dentro, giusto?
07:44
So, you know, I don't think there's anything to that.
163
439000
2000
Quindi, sapete, non do credito a questo.
07:46
And finallyfinalmente, some people say, well, you know,
164
441000
2000
Infine, alcune persone dicono, beh, sapete,
07:48
I don't feel like a bunchmazzo of cellscellule, you know. I'm consciousconsapevole.
165
443000
4000
non mi sento come un mucchio di cellule. Io sono consapevole.
07:52
I've got this experienceEsperienza, I'm in the worldmondo, you know.
166
447000
2000
Ho avuto questa esperienza, sono nel mondo, lo sapete.
07:54
I can't be just a bunchmazzo of cellscellule. Well, you know,
167
449000
2000
Non posso essere solo un mucchio di cellule. Bene, sapete,
07:56
people used to believe there was a life forcevigore to be livingvita,
168
451000
3000
le persone erano abituate a credere che ci fosse una forza vitale per vivere,
07:59
and we now know that's really not truevero at all.
169
454000
2000
e ora sappiamo che non è affatto vero.
08:01
And there's really no evidenceprova that saysdice -- well, other than people
170
456000
3000
Non c'è davvero nessun’altra prova che lo affermi, beh, a parte il fatto che le persone
08:04
just have disbeliefincredulità that cellscellule can do what they do.
171
459000
2000
non credono che le cellule possano fare quello che fanno.
08:06
And so, if some people have fallencaduto into the pitfossa of metaphysicalmetafisico dualismdualismo,
172
461000
3000
E così alcune persone sono cadute nella fossa del dualismo metafisico,
08:09
some really smartinteligente people, too, but we can rejectrifiutare all that.
173
464000
3000
anche alcune persone molto intelligenti, ma noi possiamo rifiutare tutto questo.
08:12
(LaughterRisate)
174
467000
2000
(Risate)
08:14
No, I'm going to tell you there's something elsealtro,
175
469000
3000
No, vi dirò che c’è qualcos’altro,
08:17
and it's really fundamentalfondamentale, and this is what it is:
176
472000
2000
ed è davvero fondamentale, ed è questo:
08:19
there's anotherun altro reasonragionare why we don't have a good braincervello theoryteoria,
177
474000
2000
c'è un altro motivo per cui non abbiamo una buona teoria del cervello
08:21
and it's because we have an intuitiveintuitivo, strongly-heldfortemente-tenuto,
178
476000
3000
ed è perché abbiamo una convinzione intuitiva e ben salda,
08:24
but incorrectnon corretto assumptionassunzione that has preventedimpedito us from seeingvedendo the answerrisposta.
179
479000
5000
ma sbagliata che ci ha impedito di vedere la risposta..
08:29
There's something we believe that just, it's obviousevidente, but it's wrongsbagliato.
180
484000
3000
C'è qualcosa che noi crediamo sia proprio ovvio, ma è sbagliato.
08:32
Now, there's a historystoria of this in sciencescienza and before I tell you what it is,
181
487000
4000
Ora, c'è una storia di questo nella scienza e prima di dirvi cosa è,
08:36
I'm going to tell you a bitpo about the historystoria of it in sciencescienza.
182
491000
2000
vi racconterò un po' la sua storia nella scienza.
08:38
You look at some other scientificscientifico revolutionsrivoluzioni,
183
493000
2000
Guardate altre rivoluzioni scientifiche,
08:40
and this casecaso, I'm talkingparlando about the solarsolare systemsistema, that's CopernicusNiccolò Copernico,
184
495000
2000
in questo caso sto parlando del sistema solare, questo è Copernico,
08:42
Darwin'sDi Darwin evolutionEvoluzione, and tectonictettonica platespiastre, that's WegenerWegener.
185
497000
3000
l'evoluzione di Darwin e le placche tettoniche, questo è Wegener.
08:45
They all have a lot in commonComune with braincervello sciencescienza.
186
500000
3000
Tutti loro hanno molto in comune con la scienza del cervello.
08:48
First of all, they had a lot of unexplainednon spiegato datadati. A lot of it.
187
503000
3000
Prima di tutto loro avevano un sacco di dati non spiegati. Molti dati.
08:51
But it got more manageablegestibile onceuna volta they had a theoryteoria.
188
506000
3000
Ma tutto è diventato più maneggevole una volta che loro hanno avuto una teoria.
08:54
The bestmigliore mindsmenti were stumpedperplesso -- really, really smartinteligente people.
189
509000
3000
Le migliori menti erano perplesse, persone molto molto in gamba.
08:57
We're not smarterpiù intelligente now than they were then.
190
512000
2000
Non siamo più intelligenti adesso di quanto lo fossero allora.
08:59
It just turnsgiri out it's really harddifficile to think of things,
191
514000
2000
E’ che è proprio difficile pensare a certe cose,
09:01
but onceuna volta you've thought of them, it's kindgenere of easyfacile to understandcapire it.
192
516000
2000
ma una volta che ci hai pensato è una cosa facile capirle.
09:03
My daughtersfiglie understoodinteso these threetre theoriesteorie
193
518000
2000
Le mie figlie capiscono queste tre teorie
09:05
in theirloro basicdi base frameworkstruttura by the time they were in kindergartenscuola materna.
194
520000
3000
nella loro struttura elementare da quando erano alla scuola materna.
09:08
And now it's not that harddifficile, you know, here'secco the appleMela, here'secco the orangearancia,
195
523000
3000
E adesso non è così difficile, sapete, qui c’è la mela, qui l’arancia,
09:11
you know, the EarthTerra goesva around, that kindgenere of stuffcose.
196
526000
3000
si sa, la Terra gira intorno, questo tipo di cose.
09:14
FinallyInfine, anotherun altro thing is the answerrisposta was there all alonglungo,
197
529000
2000
Infine, un'altra cosa è che la risposta era lì da sempre,
09:16
but we kindgenere of ignoredignorato it because of this obviousevidente thing, and that's the thing.
198
531000
3000
ma noi l’abbiamo solamente ignorata a causa di questa cosa ovvia, e questa è la cosa.
09:19
It was an intuitiveintuitivo, strong-heldforte tenuta beliefcredenza that was wrongsbagliato.
199
534000
3000
E' stata una convinzione intuitiva e ben salda che era sbagliata.
09:22
In the casecaso of the solarsolare systemsistema, the ideaidea that the EarthTerra is spinningFilatura
200
537000
3000
Nel caso del sistema solare, l'idea che la Terra è in rotazione
09:25
and the surfacesuperficie of the EarthTerra is going like a thousandmille milesmiglia an hourora,
201
540000
3000
e la superficie della Terra sta andando a mille chilometri all'ora,
09:28
and the EarthTerra is going throughattraverso the solarsolare systemsistema about a millionmilione milesmiglia an hourora.
202
543000
3000
e la Terra sta attraversando il sistema solare a circa un milione di chilometri all'ora.
09:31
This is lunacyfollia. We all know the EarthTerra isn't movingin movimento.
203
546000
2000
Questa è follia. Sappiamo tutti che la Terra non si sta muovendo.
09:33
Do you feel like you're movingin movimento a thousandmille milesmiglia an hourora?
204
548000
2000
Ti senti come se ti stessi muovendo a mille chilometri all’ora?
09:35
Of coursecorso not. You know, and someonequalcuno who said,
205
550000
2000
Certo che no. Sapete, qualcuno disse,
09:37
well, it was spinningFilatura around in spacespazio and it's so hugeenorme,
206
552000
2000
beh, gira intorno nello spazio ed è così enorme,
09:39
they would lockserratura you up, and that's what they did back then.
207
554000
2000
ti rinchiuderebbero, e questo è ciò che hanno fatto allora.
09:41
(LaughterRisate)
208
556000
1000
(Risate)
09:42
So it was intuitiveintuitivo and obviousevidente. Now what about evolutionEvoluzione?
209
557000
3000
Così fu intuitivo e ovvio. Ora, che dire dell’evoluzione?
09:45
Evolution'sDi evoluzione the samestesso thing. We taughtinsegnato our kidsbambini, well, the BibleBibbia saysdice,
210
560000
3000
La stessa cosa dell’evoluzione. Abbiamo insegnato ai nostri figli, bene, la Bibbia dice,
09:48
you know, God createdcreato all these speciesspecie, catsgatti are catsgatti, dogscani are dogscani,
211
563000
2000
lo sapete, Dio ha creato tutte queste specie, i gatti sono gatti, i cani sono cani,
09:50
people are people, plantspiante are plantspiante, they don't changemodificare.
212
565000
3000
le persone sono persone, le piante sono piante, essi non cambiano.
09:53
NoahNoah put them on the ArkArca in that orderordine, blahbla, blahbla, blahbla. And, you know,
213
568000
4000
Noè li ha messi sull’Arca in questo ordine, blah, blah, blah.
09:57
the factfatto is, if you believe in evolutionEvoluzione, we all have a commonComune ancestorantenato,
214
572000
4000
il fatto è che se si crede nell'evoluzione tutti noi abbiamo un antenato comune,
10:01
and we all have a commonComune ancestryascendenza with the plantpianta in the lobbyatrio.
215
576000
3000
e tutti noi abbiamo un antenato comune con la pianta nell’atrio.
10:04
This is what evolutionEvoluzione tellsdice us. And, it's truevero. It's kindgenere of unbelievableincredibile.
216
579000
3000
Questo è ciò che ci dice l'evoluzione. Ed è vero. È quasi incredibile.
10:07
And the samestesso thing about tectonictettonica platespiastre, you know?
217
582000
3000
E la stessa cosa a proposito delle placche tettoniche, sapete?
10:10
All the mountainsmontagne and the continentscontinenti are kindgenere of floatinggalleggiante around
218
585000
2000
Tutte le montagne e i continenti sono come galleggianti
10:12
on topsuperiore of the EarthTerra, you know? It's like, it doesn't make any sensesenso.
219
587000
4000
sopra la Terra, sapete? E' così, non fa alcun senso.
10:16
So what is the intuitiveintuitivo, but incorrectnon corretto assumptionassunzione,
220
591000
4000
Quindi era la convinzione, intuitiva ma errata,
10:20
that's kepttenere us from understandingcomprensione brainsmente?
221
595000
2000
che ci impediva di comprendere i cervelli?
10:22
Now I'm going to tell it to you, and it's going to seemsembrare obviousevidente that that is correctcorretta,
222
597000
2000
Ora ve lo dirò, e sembrerà ovvio che questo è corretto,
10:24
and that's the pointpunto, right? Then I'm going to have to make an argumentdiscussione
223
599000
2000
e questo è il punto, giusto? Allora dovrò fare un ragionamento
10:26
why you're incorrectnon corretto about the other assumptionassunzione.
224
601000
2000
sul perché vi sbagliate sull’altra ipotesi.
10:28
The intuitiveintuitivo but obviousevidente thing is that somehowin qualche modo intelligenceintelligenza
225
603000
3000
La cosa evidente e intuitiva è che in qualche modo l'intelligenza
10:31
is defineddefinito by behaviorcomportamento,
226
606000
2000
è definita da un comportamento,
10:33
that we are intelligentintelligente because of the way that we do things
227
608000
2000
che noi siamo intelligenti a causa del modo in cui facciamo le cose
10:35
and the way we behavecomportarsi intelligentlyin modo intelligente, and I'm going to tell you that's wrongsbagliato.
228
610000
3000
e perché ci comportiamo in modo intelligente, e vi dirò che questo è sbagliato.
10:38
What it is is intelligenceintelligenza is defineddefinito by predictionpredizione.
229
613000
2000
Cosa è l'intelligenza è definito dalla previsione.
10:40
And I'm going to work you throughattraverso this in a fewpochi slidesscivoli here,
230
615000
3000
Vi spiegherò questo mediante alcune diapositive qui,
10:43
give you an exampleesempio of what this meanssi intende. Here'sQui è a systemsistema.
231
618000
4000
per darvi un esempio di ciò che significa. Ecco un sistema,
10:47
EngineersIngegneri like to look at systemssistemi like this. ScientistsScienziati like to look at systemssistemi like this.
232
622000
3000
Agli ingegneri piace vedere sistemi come questo. Agli scienziati piace vedere sistemi come questo.
10:50
They say, well, we have a thing in a boxscatola, and we have its inputsingressi and its outputsuscite.
233
625000
3000
Dicono, bene, abbiamo una cosa in una scatola, abbiamo i suoi input i suoi output.
10:53
The AIAI people said, well, the thing in the boxscatola is a programmableprogrammabile computercomputer
234
628000
3000
Il popolo AI disse, bene, la cosa nella scatola è un computer programmabile
10:56
because that's equivalentequivalente to a braincervello, and we'llbene feedalimentazione it some inputsingressi
235
631000
2000
perché è equivalente a un cervello e noi gli invieremo alcuni input
10:58
and we'llbene get it to do something, have some behaviorcomportamento.
236
633000
2000
e gli faremo fare qualcosa, avere qualche comportamento.
11:00
And AlanAlan TuringTuring defineddefinito the TuringTuring testTest, whichquale is essentiallyessenzialmente sayingdetto,
237
635000
3000
E Alan Turing definì il test di Turing, che essenzialmente dice,
11:03
we'llbene know if something'sc'è qualcosa che non intelligentintelligente if it behavessi comporta identicalidentico to a humanumano.
238
638000
3000
sapremo se qualcosa è intelligente se si comporta in modo identico a un essere umano.
11:06
A behavioralcomportamentale metricmetrico of what intelligenceintelligenza is,
239
641000
3000
Una metrica comportamentale di ciò che è intelligenza,
11:09
and this has stuckincollato in our mindsmenti for a long periodperiodo of time.
240
644000
3000
e questo è rimasto nelle nostre menti per un lungo periodo di tempo.
11:12
RealityRealtà thoughanche se, I call it realvero intelligenceintelligenza.
241
647000
2000
In concreto io la chiamo intelligenza reale.
11:14
RealReal intelligenceintelligenza is builtcostruito on something elsealtro.
242
649000
2000
L’intelligenza reale è costruita su qualcos'altro.
11:16
We experienceEsperienza the worldmondo throughattraverso a sequencesequenza of patternsmodelli, and we storenegozio them,
243
651000
4000
Sperimentiamo il mondo attraverso una sequenza di modelli, e li immagazziniamo,
11:20
and we recallrichiamare them. And when we recallrichiamare them, we matchincontro them up
244
655000
3000
e li ricordiamo. E quando li ricordiamo, li confrontiamo
11:23
againstcontro realityla realtà, and we're makingfabbricazione predictionsPrevisioni all the time.
245
658000
4000
con la realtà, e facciamo previsioni tutto il tempo.
11:27
It's an eternaleterna metricmetrico. There's an eternaleterna metricmetrico about us sortordinare of sayingdetto,
246
662000
3000
E' una eterna metrica. C'è una metrica eterna in noi, come un modo per dire
11:30
do we understandcapire the worldmondo? Am I makingfabbricazione predictionsPrevisioni? And so on.
247
665000
3000
comprendiamo il mondo? Sto facendo previsioni? E così via.
11:33
You're all beingessere intelligentintelligente right now, but you're not doing anything.
248
668000
2000
Siete tutti esseri intelligenti in questo momento, ma non state facendo niente.
11:35
Maybe you're scratchinggraffiare yourselfte stesso, or pickingscelta your nosenaso,
249
670000
2000
Forse vi state stirando, o vi state mettendo le dita nel naso,
11:37
I don't know, but you're not doing anything right now,
250
672000
2000
non so, ma non state facendo nulla ora,
11:39
but you're beingessere intelligentintelligente; you're understandingcomprensione what I'm sayingdetto.
251
674000
3000
ma siete intelligenti, state capendo cosa sto dicendo.
11:42
Because you're intelligentintelligente and you speakparlare EnglishInglese,
252
677000
2000
Perché siete intelligenti e parlate inglese,
11:44
you know what wordparola is at the endfine of this -- (SilenceSilenzio)
253
679000
1000
sapete che parola c’è alla fine di questa - (Silenzio)
11:45
sentencefrase.
254
680000
2000
frase
11:47
The wordparola cameè venuto into you, and you're makingfabbricazione these predictionsPrevisioni all the time.
255
682000
3000
La parola arriva dentro di voi e voi fate queste previsioni per tutto il tempo.
11:50
And then, what I'm sayingdetto is,
256
685000
2000
Allora, quello che sto dicendo è,
11:52
is that the eternaleterna predictionpredizione is the outputproduzione in the neocortexneocorteccia.
257
687000
2000
è che l’eterna previsione è l'output della neocorteccia.
11:54
And that somehowin qualche modo, predictionpredizione leadsconduce to intelligentintelligente behaviorcomportamento.
258
689000
3000
E che in qualche modo la previsione porta ad un comportamento intelligente.
11:57
And here'secco how that happensaccade. Let's startinizio with a non-intelligentnon intelligente braincervello.
259
692000
3000
E qui è come ciò accade. Cominciate con un cervello non-intelligente.
12:00
Well I'll arguediscutere a non-intelligentnon intelligente braincervello, we got holdtenere of an oldvecchio braincervello,
260
695000
4000
Beh, discuterò di un cervello non-intelligente, abbiamo preso un vecchio cervello,
12:04
and we're going to say it's like a non-mammalnon-mammifero, like a reptilerettile,
261
699000
3000
e diremo che è come un non-mammifero, come un rettile,
12:07
so I'll say, an alligatoralligatore; we have an alligatoralligatore.
262
702000
2000
quindi dirò, un alligatore, abbiamo un alligatore .
12:09
And the alligatoralligatore has some very sophisticatedsofisticato sensessensi.
263
704000
3000
E l’alligatore ha alcuni sensi molto sofisticati.
12:12
It's got good eyesocchi and earsorecchie and touchtoccare sensessensi and so on,
264
707000
3000
Ha buoni occhi e orecchie, tatto e così via
12:15
a mouthbocca and a nosenaso. It has very complexcomplesso behaviorcomportamento.
265
710000
4000
una bocca e un naso. Ha un comportamento molto complesso.
12:19
It can runcorrere and hidenascondere. It has fearspaure and emotionsemozioni. It can eatmangiare you, you know.
266
714000
4000
Può correre e nascondersi. Ha paure ed emozioni. E può mangiarvi, sapete.
12:23
It can attackattacco. It can do all kindstipi of stuffcose.
267
718000
4000
Può attaccare. Può fare tutti i tipi di cose.
12:27
But we don't considerprendere in considerazione the alligatoralligatore very intelligentintelligente, not like in a humanumano sortordinare of way.
268
722000
5000
Ma noi non consideriamo l'alligatore molto intelligente, non allo stesso modo dell'essere umano.
12:32
But it has all this complexcomplesso behaviorcomportamento alreadygià.
269
727000
2000
Ma ha già tutto questo comportamento complesso.
12:34
Now, in evolutionEvoluzione, what happenedè accaduto?
270
729000
2000
Ora, nell’evoluzione, cosa è successo?
12:36
First thing that happenedè accaduto in evolutionEvoluzione with mammalsmammiferi,
271
731000
3000
La prima cosa che è accaduta nell’evoluzione dei mammiferi,
12:39
we startediniziato to developsviluppare a thing calledchiamato the neocortexneocorteccia.
272
734000
2000
abbiamo iniziato a sviluppare una cosa chiamata neocorteccia.
12:41
And I'm going to representrappresentare the neocortexneocorteccia here,
273
736000
2000
E rappresenterò la neocorteccia qui,
12:43
by this boxscatola that's stickingadesivo on topsuperiore of the oldvecchio braincervello.
274
738000
2000
in questa scatola che è attaccata sulla parte superiore del vecchio cervello.
12:45
NeocortexNeocorteccia meanssi intende newnuovo layerstrato. It is a newnuovo layerstrato on topsuperiore of your braincervello.
275
740000
3000
La neocorteccia significa nuovo livello. E' un nuovo livello in cima al tuo cervello.
12:48
If you don't know it, it's the wrinklyrugosa thing on the topsuperiore of your headcapo that,
276
743000
3000
Se non lo conoscete, è la cosa rugosa sulla parte superiore della testa che
12:51
it's got wrinklyrugosa because it got shovedspinto in there and doesn't fitin forma.
277
746000
3000
è diventata rugosa perché si è spinta in là senza adattarsi
12:54
(LaughterRisate)
278
749000
1000
(Risate)
12:55
No, really, that's what it is. It's about the sizedimensione of a tabletavolo napkintovagliolo.
279
750000
2000
No, veramente, è ciò che è. E’ circa la dimensione di un tovagliolo.
12:57
And it doesn't fitin forma, so it getsprende all wrinklyrugosa. Now look at how I've drawndisegnato this here.
280
752000
3000
e non si adatta per cui diventa rugosa. Ora guardate come ho disegnato questo qui.
13:00
The oldvecchio braincervello is still there. You still have that alligatoralligatore braincervello.
281
755000
4000
Il cervello vecchio è ancora lì. Avete ancora questo cervello di alligatore.
13:04
You do. It's your emotionalemotivo braincervello.
282
759000
2000
Ce l’avete. È il vostro cervello emozionale..
13:06
It's all those things, and all those gutintestino reactionsreazioni you have.
283
761000
3000
Esso è tutte queste cose e tutte quelle reazioni viscerali che avete.
13:09
And on topsuperiore of it, we have this memorymemoria systemsistema calledchiamato the neocortexneocorteccia.
284
764000
3000
Ed in cima a esso abbiamo questa memoria di sistema chiamata neocorteccia.
13:12
And the memorymemoria systemsistema is sittingseduta over the sensorysensoriale partparte of the braincervello.
285
767000
4000
E la memoria di sistema è seduta sopra la parte sensoriale del cervello.
13:16
And so as the sensorysensoriale inputingresso comesviene in and feedsfeed from the oldvecchio braincervello,
286
771000
3000
Così come gli input sensoriali entrano e alimentano il vecchio cervello,
13:19
it alsoanche goesva up into the neocortexneocorteccia. And the neocortexneocorteccia is just memorizingmemorizzazione.
287
774000
4000
vanno anche sù nella neocorteccia. E la neocorteccia è soltanto memorizzazione.
13:23
It's sittingseduta there sayingdetto, ahah, I'm going to memorizeimparare a memoria all the things that are going on:
288
778000
4000
E' lì seduta dicendo, ah, sto memorizzando tutte le cose che succedono,
13:27
where I've been, people I've seenvisto, things I've heardsentito, and so on.
289
782000
2000
dove sono stata, le persone che ho visto, le cose che ho sentito, e così via.
13:29
And in the futurefuturo, when it seesvede something similarsimile to that again,
290
784000
4000
E in futuro, quando essa vede nuovamente qualcosa simile a questo,
13:33
so in a similarsimile environmentambiente, or the exactesatto samestesso environmentambiente,
291
788000
3000
sia in un ambiente simile, o nello stesso ambiente,
13:36
it'llsara playgiocare it back. It'llIt'll startinizio playinggiocando it back.
292
791000
2000
lo riprodurrà. Inizierà a riprodurlo.
13:38
Oh, I've been here before. And when you've been here before,
293
793000
2000
Oh, sono stato qui prima. E quando siete stati qui prima,
13:40
this happenedè accaduto nextIl prossimo. It allowsconsente you to predictpredire the futurefuturo.
294
795000
3000
questo è accaduto di nuovo. Vi permette di prevedere il futuro.
13:43
It allowsconsente you to, literallyletteralmente it feedsfeed back the signalssegnali into your braincervello;
295
798000
4000
vi permette, letteralmente, di rinviare i segnali nel vostro cervello,
13:47
they'llfaranno let you see what's going to happenaccadere nextIl prossimo,
296
802000
2000
vi lascerà vedere cosa succederà dopo,
13:49
will let you hearsentire the wordparola "sentencefrase" before I said it.
297
804000
3000
vi farà ascoltare la olofrase prima che l’abbia detta.
13:52
And it's this feedingalimentazione back into the oldvecchio braincervello
298
807000
3000
Ed è questo rinvio nel vecchio cervello
13:55
that'llche ti allowpermettere you to make very more intelligentintelligente decisionsdecisioni.
299
810000
3000
che vi permetterà di prendere decisioni molto più intelligenti.
13:58
This is the mostmaggior parte importantimportante slidediapositiva of my talk, so I'll dwellabitare on it a little bitpo.
300
813000
3000
Questa è la diapositiva più importante del mio discorso, quindi mi soffermerò su di essa un po'.
14:01
And so, all the time you say, oh, I can predictpredire the things.
301
816000
4000
Così, per tutto il tempo voi dite, oh, sono in grado di prevedere le cose.
14:05
And if you're a ratratto and you go throughattraverso a mazelabirinto, and then you learnimparare the mazelabirinto,
302
820000
3000
E se siete un topo e attraversate un labirinto e imparate il labirinto,
14:08
the nextIl prossimo time you're in a mazelabirinto, you have the samestesso behaviorcomportamento,
303
823000
2000
la prossima volta che sarete in un labirinto avrete lo stesso comportamento,
14:10
but all of a suddenimprovviso, you're smarterpiù intelligente
304
825000
2000
ma d'un tratto sarete più intelligenti
14:12
because you say, oh, I recognizericonoscere this mazelabirinto, I know whichquale way to go,
305
827000
3000
perché direte, oh, riconosco questo labirinto, so dove andare,
14:15
I've been here before, I can envisionEnvision the futurefuturo. And that's what it's doing.
306
830000
3000
sono stato qui prima, posso immaginare il futuro. E questo è quello che state facendo.
14:18
In humansgli esseri umani -- by the way, this is truevero for all mammalsmammiferi;
307
833000
3000
Negli esseri umani, per inciso, questo è vero per tutti i mammiferi,
14:21
it's truevero for other mammalsmammiferi -- and in humansgli esseri umani, it got a lot worsepeggio.
308
836000
2000
è vero per gli altri mammiferi e negli esseri umani è peggiorato molto.
14:23
In humansgli esseri umani, we actuallyin realtà developedsviluppato the frontdavanti partparte of the neocortexneocorteccia
309
838000
3000
Negli esseri umani infatti abbiamo sviluppato la parte frontale della neocorteccia,
14:26
calledchiamato the anterioranteriore partparte of the neocortexneocorteccia. And naturenatura did a little tricktrucco.
310
841000
4000
chiamata parte anteriore della neocorteccia. E la natura ha fatto un piccolo trucco.
14:30
It copiedcopiati the posteriorposteriore partparte, the back partparte, whichquale is sensorysensoriale,
311
845000
2000
Ha copiato la parte posteriore, la parte dorsale, che è sensoriale,
14:32
and put it in the frontdavanti partparte.
312
847000
2000
e l’ha messa nella parte frontale.
14:34
And humansgli esseri umani uniquelyunivocamente have the samestesso mechanismmeccanismo on the frontdavanti,
313
849000
2000
E gli esseri umani hanno caratteristicamente lo stesso meccanismo sulla parte anteriore,
14:36
but we use it for motoril motore controlcontrollo.
314
851000
2000
ma lo usiamo per il controllo motorio.
14:38
So we are now ablecapace to make very sophisticatedsofisticato motoril motore planningpianificazione, things like that.
315
853000
3000
Quindi, adesso siamo in grado di effettuare programmazioni motorie molto sofisticate, cose come queste.
14:41
I don't have time to get into all this, but if you want to understandcapire how a braincervello workslavori,
316
856000
3000
Non ho tempo per entrare in tutto questo, ma se volete capire come funziona un cervello,
14:44
you have to understandcapire how the first partparte of the mammaliandei mammiferi neocortexneocorteccia workslavori,
317
859000
3000
dovrete capire come funziona la prima parte della neocorteccia dei mammiferi,
14:47
how it is we storenegozio patternsmodelli and make predictionsPrevisioni.
318
862000
2000
come memorizziamo schemi e facciamo previsioni.
14:49
So let me give you a fewpochi examplesesempi of predictionsPrevisioni.
319
864000
3000
Perciò lasciate che vi dia alcuni esempi di previsioni.
14:52
I alreadygià said the wordparola "sentencefrase." In musicmusica,
320
867000
2000
Ho già detto dell’olofrase. Nella musica,
14:54
if you've heardsentito a songcanzone before, if you heardsentito JillJill singcantare those songscanzoni before,
321
869000
3000
se hai già sentito un brano prima, se hai sentito Jill cantare quelle canzoni prima,
14:57
when she singscanta them, the nextIl prossimo noteNota popssi apre into your headcapo alreadygià --
322
872000
3000
quando lei le canta la nota successiva vi appare già in testa --
15:00
you anticipateanticipare it as you're going. If it was an albumalbum of musicmusica,
323
875000
2000
- la anticipate mentre state ascoltando. Se fosse un album musicale,
15:02
the endfine of one albumalbum, the nextIl prossimo songcanzone popssi apre into your headcapo.
324
877000
3000
la fine di un album, la canzone successiva vi viene in mente.
15:05
And these things happenaccadere all the time. You're makingfabbricazione these predictionsPrevisioni.
325
880000
2000
E queste cose succedono continuamente. State facendo queste previsioni.
15:07
I have this thing calledchiamato the alteredalterato doorporta thought experimentsperimentare.
326
882000
3000
Ho questa cosa chiamata l’esperimento della porta mentale alterata.
15:10
And the alteredalterato doorporta thought experimentsperimentare saysdice, you have a doorporta at home,
327
885000
3000
E l’esperimento della porta mentale alterata dice, avete una porta a casa,
15:13
and when you're here, I'm changingmutevole it, I've got a guy
328
888000
3000
e mentre siete qui la sto cambiando, ho mandato un uomo
15:16
back at your housecasa right now, movingin movimento the doorporta around,
329
891000
2000
a casa vostra proprio adesso, sta modificando la porta,
15:18
and they're going to take your doorknobmaniglia della porta and movemossa it over two inchespollici.
330
893000
2000
ha preso la vostra maniglia e l’ha spostata di circa 6 centimetri.
15:20
And when you go home tonightstasera, you're going to put your handmano out there,
331
895000
2000
E quando andrete a casa stasera, metterete la mano là fuori
15:22
and you're going to reachraggiungere for the doorknobmaniglia della porta and you're going to noticeAvviso
332
897000
2000
per afferrare la maniglia della porta e vi accorgerete
15:24
it's in the wrongsbagliato spotindividuare, and you'llpotrai go, whoawhoa, something happenedè accaduto.
333
899000
3000
che è nel posto sbagliato, e penserete, oh, è successo qualcosa!
15:27
It maypuò take a secondsecondo to figurefigura out what it was, but something happenedè accaduto.
334
902000
2000
Può richiedere un secondo per capire com’era, ma qualcosa è successo.
15:29
Now I could changemodificare your doorknobmaniglia della porta in other waysmodi.
335
904000
2000
Ora potrei cambiare la maniglia in altri modi.
15:31
I can make it largerpiù grandi or smallerpiù piccola, I can changemodificare its brassottone to silverargento,
336
906000
2000
Posso renderla più grande o più piccola, posso cambiare il suo ottone in argento,
15:33
I could make it a leverleva. I can changemodificare your doorporta, put colorscolori on;
337
908000
2000
potrei farne una leva. Posso cambiare la vostra porta, colorarla,
15:35
I can put windowsfinestre in. I can changemodificare a thousandmille things about your doorporta,
338
910000
3000
posso mettere dentro delle fenditure. Posso cambiare mille cose sulla vostra porta,
15:38
and in the two secondssecondi you take to openAperto your doorporta,
339
913000
2000
e in due secondi andate ad aprire la porta,
15:40
you're going to noticeAvviso that something has changedcambiato.
340
915000
3000
e notate che qualcosa è cambiato.
15:43
Now, the engineeringingegneria approachapproccio to this, the AIAI approachapproccio to this,
341
918000
2000
Ora, l'approccio ingegneristico a questo, l'approccio AI è questo,
15:45
is to buildcostruire a doorporta databaseBanca dati. It has all the doorporta attributesattributi.
342
920000
3000
è quello di costruire un database della porta. Esso ha tutti gli attributi della porta.
15:48
And as you go up to the doorporta, you know, let's checkdai un'occhiata them off one at time.
343
923000
3000
E come andate verso la porta, sapete, li controlleranno uno alla volta.
15:51
DoorPorta, doorporta, doorporta, you know, colorcolore, you know what I'm sayingdetto.
344
926000
2000
Porta, porta, porta, sapete, colore, sapete cosa sto dicendo.
15:53
We don't do that. Your braincervello doesn't do that.
345
928000
2000
Noi non lo facciamo. Il vostro cervello non lo fa.
15:55
What your braincervello is doing is makingfabbricazione constantcostante predictionsPrevisioni all the time
346
930000
2000
Cosa il vostro cervello sta facendo è fare previsioni tutto il tempo.
15:57
about what is going to happenaccadere in your environmentambiente.
347
932000
2000
su ciò che succederà nel vostro ambiente.
15:59
As I put my handmano on this tabletavolo, I expectaspettarsi to feel it stop.
348
934000
3000
Come metto la mia mano su questo tavolo, mi aspetto di sentire che si fermi.
16:02
When I walkcamminare, everyogni steppasso, if I missedperse it by an eighthottavo of an inchpollice,
349
937000
3000
Quando cammino, ogni passo, se ho perso 3 cm
16:05
I'll know something has changedcambiato.
350
940000
2000
saprò che qualcosa è cambiato.
16:07
You're constantlycostantemente makingfabbricazione predictionsPrevisioni about your environmentambiente.
351
942000
2000
Siete sempre a fare previsioni sul vostro ambiente.
16:09
I'll talk about visionvisione here brieflybrevemente. This is a pictureimmagine of a womandonna.
352
944000
3000
Parlerò della visione brevemente qui. Questa è una foto di una donna.
16:12
And when you look at people, your eyesocchi are caughtcatturato
353
947000
2000
Quando si guardano le persone i vostri occhi vengono catturati
16:14
over at two to threetre timesvolte a secondsecondo.
354
949000
1000
più di 2-3 volte al secondo.
16:15
You're not awareconsapevole of this, but your eyesocchi are always movingin movimento.
355
950000
2000
voi non siete consapevoli di questo, ma i vostri occhi sono sempre in movimento.
16:17
And so when you look at someone'sdi qualcuno faceviso,
356
952000
2000
E così quando si guarda il viso di qualcuno,
16:19
you'dfaresti typicallytipicamente go from eyeocchio to eyeocchio to eyeocchio to nosenaso to mouthbocca.
357
954000
2000
andate normalmente da un occhio a un occhio a un occhio, al naso, alla bocca.
16:21
Now, when your eyeocchio movessi muove from eyeocchio to eyeocchio,
358
956000
2000
Ora, quando vi muovete da un occhio all’altro,
16:23
if there was something elsealtro there like, a nosenaso,
359
958000
2000
se ci fosse qualcos'altro lì come un naso,
16:25
you'dfaresti see a nosenaso where an eyeocchio is supposedipotetico to be,
360
960000
2000
vedreste il naso dove si suppone esserci un occhio,
16:27
and you'dfaresti go, oh shitmerda, you know --
361
962000
3000
e direste, oh merda, sapete -
16:30
(LaughterRisate)
362
965000
1000
(Risate)
16:31
There's something wrongsbagliato about this personpersona.
363
966000
2000
C'è qualcosa che non va su questa persona.
16:33
And that's because you're makingfabbricazione a predictionpredizione.
364
968000
2000
E questo perché state facendo una previsione.
16:35
It's not like you just look over there and say, what am I seeingvedendo now?
365
970000
2000
Non è solo come se guardaste là e diceste, cosa sto vedendo adesso?
16:37
A nosenaso, that's okay. No, you have an expectationaspettativa of what you're going to see.
366
972000
3000
Un naso, va bene. No, disponete di un’aspettativa di ciò che state per vedere.
16:40
(LaughterRisate)
367
975000
1000
(Risate)
16:41
EveryOgni singlesingolo momentmomento. And finallyfinalmente, let's think about how we testTest intelligenceintelligenza.
368
976000
4000
Ogni singolo momento. E, infine, pensate come noi verifichiamo l’intelligenza.
16:45
We testTest it by predictionpredizione. What is the nextIl prossimo wordparola in this, you know?
369
980000
3000
Noi verifichiamo essa dalla previsione. Qual è la parola successiva a questa, lo sapete?
16:48
This is to this as this is to this. What is the nextIl prossimo numbernumero in this sentencefrase?
370
983000
3000
Questo sta a questo come questo sta a questo.Qual è il numero successivo in questa frase?
16:51
Here'sQui è threetre visionsVisioni of an objectoggetto.
371
986000
2000
Ecco tre visuali di un oggetto.
16:53
What's the fourthil quarto one? That's how we testTest it. It's all about predictionpredizione.
372
988000
4000
Qual è la quarta? Ecco come la verifichiamo. E' tutto relativo a una previsione.
16:57
So what is the recipericetta for braincervello theoryteoria?
373
992000
3000
Quindi, qual è la ricetta per la teoria del cervello?
17:00
First of all, we have to have the right frameworkstruttura.
374
995000
3000
Prima di tutto, dovremmo avere la giusta struttura.
17:03
And the frameworkstruttura is a memorymemoria frameworkstruttura,
375
998000
2000
E la struttura è una struttura di memoria,
17:05
not a computationcalcolo or behaviorcomportamento frameworkstruttura. It's a memorymemoria frameworkstruttura.
376
1000000
2000
non è una struttura di calcolo o di comportamento.E' una struttura di memoria.
17:07
How do you storenegozio and recallrichiamare these sequencessequenze or patternsmodelli? It's spatio-temporalspazio-temporali patternsmodelli.
377
1002000
4000
Come fate a immagazzinare e ricordare queste sequenze o modelli? Sono modelli spazio temporali.
17:11
Then, if in that frameworkstruttura, you take a bunchmazzo of theoreticiansteorici.
378
1006000
3000
Allora, se in tale struttura si prendono un gruppo di teorici.
17:14
Now biologistsbiologi generallygeneralmente are not good theoreticiansteorici.
379
1009000
2000
Ora i biologi non sono generalmente buoni teorici.
17:16
It's not always truevero, but in generalgenerale, there's not a good historystoria of theoryteoria in biologybiologia.
380
1011000
4000
Non è sempre vero, ma in generale, non c'è una buona storia di teoria in biologia.
17:20
So I foundtrovato the bestmigliore people to work with are physicistsi fisici,
381
1015000
3000
Così ho trovato che le persone migliori per lavorarci sono i fisici,
17:23
engineersingegneri and mathematiciansmatematici, who tendtendere to think algorithmicallyalgoritmicamente.
382
1018000
3000
ingegneri e matematici, che tendono a pensare algoritmicamente.
17:26
Then they have to learnimparare the anatomyanatomia, and they'veessi hanno got to learnimparare the physiologyfisiologia.
383
1021000
3000
Allora dovrebbero imparare l'anatomia e hanno iniziato a imparare la fisiologia.
17:29
You have to make these theoriesteorie very realisticrealistico in anatomicalanatomico termscondizioni.
384
1024000
4000
Dovresti costruire queste teorie in modo molto realistico in termini anatomici.
17:33
AnyoneChiunque who getsprende up and tellsdice you theirloro theoryteoria about how the braincervello workslavori
385
1028000
4000
Chi si alza in piedi e vi spiega la propria teoria su come funziona il cervello
17:37
and doesn't tell you exactlydi preciso how it's workinglavoro in the braincervello
386
1032000
2000
e non vi dice esattamente come essa lavora nel cervello
17:39
and how the wiringcablaggio workslavori in the braincervello, it is not a theoryteoria.
387
1034000
2000
e come l'impianto elettrico lavora nel cervello, non ha una teoria,
17:41
And that's what we're doing at the RedwoodRedwood NeuroscienceNeuroscienze InstituteIstituto.
388
1036000
3000
E questo è quello che stiamo facendo al Redwood Neuroscience Institute.
17:44
I would love to have more time to tell you we're makingfabbricazione fantasticfantastico progressprogresso in this thing,
389
1039000
4000
Mi piacerebbe avere più tempo per dirvi che stiamo facendo progressi fantastici in questa cosa,
17:48
and I expectaspettarsi to be back up on this stagepalcoscenico,
390
1043000
2000
e mi aspetto di tornare su questo punto,
17:50
maybe this will be some other time in the not too distantlontano futurefuturo and tell you about it.
391
1045000
2000
forse questo avverrà in un futuro non troppo lontano e vi racconterò a proposito di questo.
17:52
I'm really, really excitedemozionato. This is not going to take 50 yearsanni at all.
392
1047000
3000
Sono molto, molto eccitato. Questo non richiederà affatto 50 anni.
17:55
So what will braincervello theoryteoria look like?
393
1050000
2000
Così a cosa somiglierà la teoria del cervello?
17:57
First of all, it's going to be a theoryteoria about memorymemoria.
394
1052000
2000
Prima di tutto, sarà una teoria sulla memoria.
17:59
Not like computercomputer memorymemoria. It's not at all like computercomputer memorymemoria.
395
1054000
3000
Non come la memoria del computer. Non è affatto come la memoria di un computer.
18:02
It's very, very differentdiverso. And it's a memorymemoria of these very
396
1057000
2000
E' molto, molto diversa. Ed è una memoria di quei modelli
18:04
high-dimensionalhigh-dimensionale patternsmodelli, like the things that come from your eyesocchi.
397
1059000
3000
ad alta-dimensione, come le cose che vengono dai vostri occhi.
18:07
It's alsoanche memorymemoria of sequencessequenze.
398
1062000
2000
E' anche la memoria di sequenze.
18:09
You cannotnon può learnimparare or recallrichiamare anything outsideal di fuori of a sequencesequenza.
399
1064000
2000
Non potete apprendere o ricordare qualche cosa al di fuori di una sequenza.
18:11
A songcanzone mustdovere be heardsentito in sequencesequenza over time,
400
1066000
3000
Una canzone deve essere ascoltata in una sequenza nel tempo,
18:14
and you mustdovere playgiocare it back in sequencesequenza over time.
401
1069000
3000
e la si deve riprodurre in una sequenza nel tempo.
18:17
And these sequencessequenze are auto-associativelyauto-in modo associativo recalledha ricordato, so if I see something,
402
1072000
3000
E queste sequenze sono ricordate in modo auto-associativo, quindi se vedo qualcosa,
18:20
I hearsentire something, it remindsricorda me of it, and then it playsgiochi back automaticallyautomaticamente.
403
1075000
3000
sento qualcosa, me la ricordo ed essa la riproduce automaticamente.
18:23
It's an automaticAutomatico playbackriproduzione. And predictionpredizione of futurefuturo inputsingressi is the desireddesiderata outputproduzione.
404
1078000
4000
E’ una riproduzione automatica. E la previsione di input futuri è l'output desiderato.
18:27
And as I said, the theoryteoria mustdovere be biologicallybiologicamente accuratepreciso,
405
1082000
3000
E come ho detto, la teoria deve essere biologicamente accurata,
18:30
it mustdovere be testabletestabile, and you mustdovere be ablecapace to buildcostruire it.
406
1085000
2000
deve essere verificabile, e dovete essere in grado di costruirla.
18:32
If you don't buildcostruire it, you don't understandcapire it. So, one more slidediapositiva here.
407
1087000
4000
Se non la costruite, non la capite. Quindi, ancora un'altra diapositiva qui.
18:36
What is this going to resultrisultato in? Are we going to really buildcostruire intelligentintelligente machinesmacchine?
408
1091000
4000
Quindi, che cosa risulterà da questo? Costruiremo veramente macchine intelligenti?
18:40
AbsolutelyAssolutamente. And it's going to be differentdiverso than people think.
409
1095000
4000
Assolutamente. E sarà diverso da quello che le persone pensano.
18:44
No doubtdubbio that it's going to happenaccadere, in my mindmente.
410
1099000
3000
Nella mia mente non c'è dubbio che accadrà.
18:47
First of all, it's going to be builtcostruito up, we're going to buildcostruire the stuffcose out of siliconsilicio.
411
1102000
4000
Prima di tutto, le costruiremo, costruiremo i materiali di silicio.
18:51
The samestesso techniquestecniche we use for buildingcostruzione siliconsilicio computercomputer memoriesricordi,
412
1106000
3000
Le stesse tecniche che usiamo per costruire le memorie di silicio per computer
18:54
we can use for here.
413
1109000
1000
si possono usare per queste.
18:55
But they're very differentdiverso typestipi of memoriesricordi.
414
1110000
2000
Ma sono tipi molto diversi di memorie.
18:57
And we're going to attachallegare these memoriesricordi to sensorssensori,
415
1112000
2000
Andremo a fissare queste memorie ai sensori,
18:59
and the sensorssensori will experienceEsperienza real-livevera-live, real-worldmondo reale datadati,
416
1114000
3000
e i sensori sperimenteranno la vita reale, i dati del mondo reale,
19:02
and these things are going to learnimparare about theirloro environmentambiente.
417
1117000
2000
e queste cose impareranno dal loro ambiente.
19:04
Now it's very unlikelyimprobabile the first things you're going to see are like robotsrobot.
418
1119000
3000
Ora è molto improbabile che la prima cosa che vedrete sarà simile ai robot.
19:07
Not that robotsrobot aren'tnon sono usefulutile and people can buildcostruire robotsrobot.
419
1122000
3000
Non che i robot non siano utili e le persone non possano costruire robot.
19:10
But the roboticsRobotica partparte is the hardestpiù difficile partparte. That's the oldvecchio braincervello. That's really harddifficile.
420
1125000
4000
Ma la parte robotica è la parte più difficile. Questo è il vecchio cervello.Questo è veramente difficile.
19:14
The newnuovo braincervello is actuallyin realtà kindgenere of easierPiù facile than the oldvecchio braincervello.
421
1129000
2000
Il nuovo cervello è in realtà più facile di quello vecchio.
19:16
So the first thing we're going to do are the things that don't requirerichiedere a lot of roboticsRobotica.
422
1131000
3000
Così le prime cose che faremo sono le cose che non richiedono eccessiva robotica.
19:19
So you're not going to see C-C-3POPO.
423
1134000
2000
Quindi non vedrete C-3PO.
19:21
You're going to more see things like, you know, intelligentintelligente carsautomobili
424
1136000
2000
Vedrete cose tipo veicoli intelligenti
19:23
that really understandcapire what traffictraffico is and what drivingguida is
425
1138000
3000
che realmente capiscono cosa è il traffico e cosa è guidare
19:26
and have learnedimparato that certaincerto typestipi of carsautomobili with the blinkersparaocchi on for halfmetà a minuteminuto
426
1141000
3000
e hanno imparato che alcuni tipi di auto con i sensori accesi per mezzo minuto,
19:29
probablyprobabilmente aren'tnon sono going to turnturno, things like that.
427
1144000
2000
probabilmente non gireranno, cose come queste.
19:31
(LaughterRisate)
428
1146000
1000
(Risate)
19:32
We can alsoanche do intelligentintelligente securitysicurezza systemssistemi.
429
1147000
2000
Possiamo anche fare i sistemi di sicurezza intelligenti.
19:34
AnywhereOvunque where we're basicallyfondamentalmente usingutilizzando our braincervello, but not doing a lot of mechanicsmeccanica.
430
1149000
4000
Ovunque noi usiamo il nostro cervello, senza fare un sacco di movimenti meccanici.
19:38
Those are the things that are going to happenaccadere first.
431
1153000
2000
Queste sono le cose che accadranno prima.
19:40
But ultimatelyin definitiva, the world'sIl mondo di the limitlimite here.
432
1155000
2000
Ma in sostanza, non ci sono limiti alle possibilità qui.
19:42
I don't know how this is going to turnturno out.
433
1157000
2000
Io non so come gireranno le cose.
19:44
I know a lot of people who inventedinventato the microprocessormicroprocessore
434
1159000
2000
Conosco un sacco di gente che ha inventato il microprocessore
19:46
and if you talk to them, they knewconosceva what they were doing was really significantsignificativo,
435
1161000
5000
e se parlate con loro, essi sapevano che quello che stavano facendo era davvero significativo,
19:51
but they didn't really know what was going to happenaccadere.
436
1166000
3000
ma non sapevano cosa stava per accadere.
19:54
They couldn'tnon poteva anticipateanticipare cellcellula phonestelefoni and the InternetInternet and all this kindgenere of stuffcose.
437
1169000
5000
Non potevano anticipare i telefoni cellulari e Internet e tutto questo genere di cose.
19:59
They just knewconosceva like, hey, they were going to buildcostruire calculatorscalcolatrici
438
1174000
2000
Sapevano solo come, hey, che stavano per costruire calcolatori
20:01
and traffictraffico lightleggero controllerscontrollori. But it's going to be biggrande.
439
1176000
2000
e controllori dei semafori. Ma sarà grande.
20:03
In the samestesso way, this is like braincervello sciencescienza and these memoriesricordi
440
1178000
3000
Analogamente, questo è come la scienza del cervello e queste memorie
20:06
are going to be a very fundamentalfondamentale technologytecnologia, and it's going to leadcondurre
441
1181000
3000
saranno tecnologia fondamentale, e porteranno
20:09
to very unbelievableincredibile changesi cambiamenti in the nextIl prossimo 100 yearsanni.
442
1184000
3000
cambiamenti incredibili nei prossimi 100 anni.
20:12
And I'm mostmaggior parte excitedemozionato about how we're going to use them in sciencescienza.
443
1187000
4000
E sono ancor più eccitato per come li useremo nella scienza.
20:16
So I think that's all my time, I'm over it, and I'm going to endfine my talk
444
1191000
3000
Allora, penso che questo sia tutto il tempo che avevo, l'ho superato e finirò la mia discussione
20:19
right there.
445
1194000
1000
proprio qui.
Translated by Marina Macchia
Reviewed by Michele Busi

▲Back to top

ABOUT THE SPEAKER
Jeff Hawkins - Computer designer, brain researcher
Jeff Hawkins pioneered the development of PDAs such as the Palm and Treo. Now he's trying to understand how the human brain really works, and adapt its method -- which he describes as a deep system for storing memory -- to create new kinds of computers and tools.

Why you should listen

Jeff Hawkins' Palm PDA became such a widely used productivity tool during the 1990s that some fanatical users claimed it replaced their brains. But Hawkins' deepest interest was in the brain itself. So after the success of the Palm and Treo, which he brought to market at Handspring, Hawkins delved into brain research at the Redwood Center for Theoretical Neuroscience in Berkeley, Calif., and a new company called Numenta.

Hawkins' dual goal is to achieve an understanding of how the human brain actually works -- and then develop software to mimic its functionality, delivering true artificial intelligence. In his book On Intelligence (2004) he lays out his compelling, controversial theory: Contrary to popular AI wisdom, the human neocortex doesn't work like a processor; rather, it relies on a memory system that stores and plays back experiences to help us predict, intelligently, what will happen next. He thinks that "hierarchical temporal memory" computer platforms, which mimic this functionality (and which Numenta might pioneer), could enable groundbreaking new applications that could powerfully extend human intelligence.

More profile about the speaker
Jeff Hawkins | Speaker | TED.com