ABOUT THE SPEAKER
Marvin Minsky - AI pioneer
Marvin Minsky is one of the great pioneers of artificial intelligence -- and using computing metaphors to understand the human mind. His contributions to mathematics, robotics and computational linguistics are legendary and far-reaching.

Why you should listen

Marvin Minsky is the superstar-elder of artificial intelligence, one of the most productive and important cognitive scientists of the century, and the leading proponent of the Society of Mind theory. Articulated in his 1985 book of the same name, Minsky's theory says intelligence is not born of any single mechanism, but from the interaction of many independent agents. The book's sequel,The Emotion Machine (2006), says similar activity also accounts for feelings, goals, emotions and conscious thoughts.

Minsky also pioneered advances in mathematics, computational linguistics, optics, robotics and telepresence. He built SNARC, the first neural network simulator, some of the first visual scanners, and the first LOGO "turtle." From his headquarters at MIT's Media Lab and the AI Lab (which he helped found), he continues to work on, as he says, "imparting to machines the human capacity for commonsense reasoning."

More profile about the speaker
Marvin Minsky | Speaker | TED.com
TED2003

Marvin Minsky: Health and the human mind

Marvin Minsky sulla salute e la mente umana

Filmed:
606,909 views

Ascoltate attentamente - la discussione maliziosa, eclettica e deliziosamente disinteressata di Marvin Minsky sulla salute, la sovrappopolazione e la mente umana, confezionata con sagacia: arguzia, saggezza e un briciolo appena di furbizia; sta scherzando? Un avviso.
- AI pioneer
Marvin Minsky is one of the great pioneers of artificial intelligence -- and using computing metaphors to understand the human mind. His contributions to mathematics, robotics and computational linguistics are legendary and far-reaching. Full bio

Double-click the English transcript below to play the video.

00:18
If you askChiedere people about what partparte of psychologyPsicologia do they think is harddifficile,
0
0
6000
Se chiedete alle persone quale parte della psicologia ritengono sia difficile,
00:24
and you say, "Well, what about thinkingpensiero and emotionsemozioni?"
1
6000
3000
e dite, beh, che ne pensate delle emozioni?
00:27
MostMaggior parte people will say, "EmotionsEmozioni are terriblyterribilmente harddifficile.
2
9000
3000
Molte persone diranno: "Le emozioni sono terribilmente difficili.
00:30
They're incrediblyincredibilmente complexcomplesso. They can't -- I have no ideaidea of how they work.
3
12000
6000
Sono incredibilmente complesse, non possono ... non ho idea di come funzionino.
00:36
But thinkingpensiero is really very straightforwardschietto:
4
18000
2000
Ma la questione è davvero molto semplice:
00:38
it's just sortordinare of some kindgenere of logicallogico reasoningragionamento, or something.
5
20000
4000
è solo una cosa di una specie di ragionamento logico o simile.
00:42
But that's not the harddifficile partparte."
6
24000
3000
Ma non è la parte difficile".
00:45
So here'secco a listelenco of problemsi problemi that come up.
7
27000
2000
Quindi ecco una lista di problemi che sono venuti fuori.
00:47
One nicesimpatico problemproblema is, what do we do about healthSalute?
8
29000
3000
Un bel problema è: che facciamo riguardo alla salute?
00:50
The other day, I was readinglettura something, and the personpersona said
9
32000
4000
L'altro giorno stavo leggendo qualcosa, e una persona diceva
00:54
probablyprobabilmente the largestmaggiore singlesingolo causecausa of diseasemalattia is handshakinghandshaking in the WestWest.
10
36000
6000
che probabilmente in Occidente, la più grossa causa delle malattie è la stretta di mano.
01:00
And there was a little studystudia about people who don't handshakestretta di mano,
11
42000
4000
E c'era un piccolo studio sulle persone che non stringono la mano,
01:04
and comparingconfrontando them with onesquelli who do handshakestretta di mano.
12
46000
3000
e si paragonavano a quelle che stringono la mano,
01:07
And I haven'tnon hanno the foggiestpiù pallida ideaidea of where you find the onesquelli that don't handshakestretta di mano,
13
49000
5000
e non ho la più pallida idea di dove si trovino quelle che non stringono la mano,
01:12
because they mustdovere be hidingnascondere.
14
54000
3000
perché devono essere nascoste.
01:15
And the people who avoidevitare that
15
57000
4000
E le persone che lo evitano
01:19
have 30 percentper cento lessDi meno infectiousinfettive diseasemalattia or something.
16
61000
4000
hanno il 30% in meno di malattie infettive o simili.
01:23
Or maybe it was 31 and a quartertrimestre percentper cento.
17
65000
3000
O forse era il 31¼%.
01:26
So if you really want to solverisolvere the problemproblema of epidemicsepidemie and so forthvia,
18
68000
4000
Così, se volete davvero risolvere il problema delle epidemie e via dicendo,
01:30
let's startinizio with that. And sinceda I got that ideaidea,
19
72000
4000
iniziamo con quello. E da quando ho avuto quell'idea,
01:34
I've had to shakescuotere hundredscentinaia of handsmani.
20
76000
4000
ho dovuto stringere centinaia di mani.
01:38
And I think the only way to avoidevitare it
21
80000
5000
E credo che l'unico modo per evitarlo
01:43
is to have some horribleorribile visiblevisibile diseasemalattia,
22
85000
2000
sia di avere qualche orribile malattia visibile,
01:45
and then you don't have to explainspiegare.
23
87000
3000
così da non dover dare spiegazioni.
01:48
EducationFormazione: how do we improveMigliorare educationeducazione?
24
90000
4000
Educazione: come miglioriamo l'educazione?
01:52
Well, the singlesingolo bestmigliore way is to get them to understandcapire
25
94000
4000
Beh, l'unico e miglior modo è fargli capire
01:56
that what they're beingessere told is a wholetotale lot of nonsensesenza senso.
26
98000
3000
che quello che gli stanno dicendo non ha assolutamente senso.
01:59
And then, of coursecorso, you have to do something
27
101000
2000
E poi, certo, si deve fare qualcosa
02:01
about how to moderatemoderare that, so that anybodynessuno can -- so they'llfaranno listen to you.
28
103000
5000
per moderarlo, così che tutti, in qualche modo, ascoltino te.
02:06
PollutionInquinamento, energyenergia shortagecarenza di, environmentalambientale diversitydiversità, povertypovertà.
29
108000
4000
Inquinamento, carenza di energia, diversità ambientale, povertà -
02:10
How do we make stablestabile societiessocietà? LongevityLongevità.
30
112000
4000
come facciamo delle società stabili? Longevità.
02:14
Okay, there'reci sono lots of problemsi problemi to worrypreoccupazione about.
31
116000
3000
Okay, ci sono molti problemi di cui preoccuparsi.
02:17
AnywayIn ogni caso, the questiondomanda I think people should talk about --
32
119000
2000
Ad ogni modo, la domanda di cui credo che dovrebbero parlare le persone -
02:19
and it's absolutelyassolutamente tabootabù -- is, how manymolti people should there be?
33
121000
5000
ed è assolutamente un tabù - è, quante persone ci dovrebbero essere?
02:24
And I think it should be about 100 millionmilione or maybe 500 millionmilione.
34
126000
7000
E credo che dovrebbero essere circa 100 milioni o forse 500 milioni.
02:31
And then noticeAvviso that a great manymolti of these problemsi problemi disappearscomparire.
35
133000
5000
E allora capiremmo che la stragrande maggioranza di questi problemi sparisce.
02:36
If you had 100 millionmilione people
36
138000
2000
Se ci fossero 100 milioni di persone
02:38
properlypropriamente spreaddiffusione out, then if there's some garbagespazzatura,
37
140000
6000
opportunamente sparse, allora, se ci fossero dei rifiuti,
02:44
you throwgettare it away, preferablypreferibilmente where you can't see it, and it will rotRot.
38
146000
7000
li buttereste via, possibilmente dove non si vedono e marcirebbero.
02:51
Or you throwgettare it into the oceanoceano and some fishpesce will benefitvantaggio from it.
39
153000
5000
O li buttereste nell'oceano e alcuni pesci ne trarrebbero beneficio.
02:56
The problemproblema is, how manymolti people should there be?
40
158000
2000
Il problema è, quante persone ci dovrebbero essere?
02:58
And it's a sortordinare of choicescelta we have to make.
41
160000
3000
Ed è una specie di scelta che dobbiamo fare.
03:01
MostMaggior parte people are about 60 inchespollici highalto or more,
42
163000
3000
Molte persone sono alte circa un metro e mezzo o più,
03:04
and there's these cubecubo lawslegislazione. So if you make them this biggrande,
43
166000
4000
e c'è questa perdita al cubo. Quindi se si facessero grandi così -
03:08
by usingutilizzando nanotechnologynanotecnologie, I supposesupporre --
44
170000
3000
usando la nanotecnologia immagino -
03:11
(LaughterRisate)
45
173000
1000
(Risate)
03:12
-- then you could have a thousandmille timesvolte as manymolti.
46
174000
2000
- allora ce ne potrebbero essere mille volte di più.
03:14
That would solverisolvere the problemproblema, but I don't see anybodynessuno
47
176000
2000
Questo risolverebbe il problema, ma non vedo nessuno
03:16
doing any researchricerca on makingfabbricazione people smallerpiù piccola.
48
178000
3000
fare nessun tipo di ricerca per rimpicciolire le persone.
03:19
Now, it's nicesimpatico to reduceridurre the populationpopolazione, but a lot of people want to have childrenbambini.
49
181000
5000
Ora, è bello ridurre la popolazione, ma molte persone vogliono avere dei bambini.
03:24
And there's one solutionsoluzione that's probablyprobabilmente only a fewpochi yearsanni off.
50
186000
3000
E c'è una soluzione che probabilmente è lontana solo qualche anno.
03:27
You know you have 46 chromosomescromosomi. If you're luckyfortunato, you've got 23
51
189000
5000
Sapete di avere 46 cromosomi. Se siete fortunati, ne avete avuti 23
03:32
from eachogni parentgenitore. SometimesA volte you get an extraextra one or dropfar cadere one out,
52
194000
6000
da ognuno dei vostri genitori; a volte se ne ha uno in più o se ne perde uno,
03:38
but -- so you can skipSalta the grandparentnonno and great-grandparentgran-nonno stagepalcoscenico
53
200000
4000
ma ... così potete saltare il passaggio dei nonni e dei bisnonni
03:42
and go right to the great-great-grandparentgran-gran-nonno. And you have 46 people
54
204000
5000
e andare dritti ai trisnonni. E avete 46 persone
03:47
and you give them a scannerscanner, or whateverqualunque cosa you need,
55
209000
3000
e gli date uno scanner, o quello di cui avete bisogno,
03:50
and they look at theirloro chromosomescromosomi and eachogni of them saysdice
56
212000
4000
e loro guardano i loro cromosomi e ognuno di loro dice
03:54
whichquale one he likespiace bestmigliore, or she -- no reasonragionare to have just two sexessessi
57
216000
5000
quale gli o le piace di più, ... nessun motivo per avere solo i due sessi
03:59
any more, even. So eachogni childbambino has 46 parentsgenitori,
58
221000
5000
anche di più. Quindi ogni bambino ha 46 genitori,
04:04
and I supposesupporre you could let eachogni groupgruppo of 46 parentsgenitori have 15 childrenbambini.
59
226000
6000
e immagino che possiate lasciare che ogni gruppo di 46 genitori abbia 15 bambini -
04:10
Wouldn'tNon sarebbe that be enoughabbastanza? And then the childrenbambini
60
232000
2000
non sarebbe abbastanza? E così i bambini
04:12
would get plentyabbondanza of supportsupporto, and nurturingnutrimento, and mentoringmentoring,
61
234000
4000
otterrebbero abbondanza di sostegno e nutrimento e attenzione
04:16
and the worldmondo populationpopolazione would declinedeclino very rapidlyrapidamente
62
238000
2000
e la popolazione mondiale scenderebbe molto rapidamente
04:18
and everybodytutti would be totallytotalmente happycontento.
63
240000
3000
e tutti sarebbero assolutamente felici.
04:21
TimesharingTimesharing is a little furtherulteriore off in the futurefuturo.
64
243000
3000
La condivisione del tempo è un po' più lontana nel futuro.
04:24
And there's this great novelromanzo that ArthurArthur ClarkeClarke wroteha scritto twicedue volte,
65
246000
3000
E c'è questo grande romanzo che Arthur Clarke ha scritto due volte,
04:27
calledchiamato "AgainstContro the FallCaduta of Night" and "The CityCittà and the StarsStelle."
66
249000
4000
chiamato Oltre il buio della notte e La città e le stelle.
04:31
They're bothentrambi wonderfulmeraviglioso and largelyin gran parte the samestesso,
67
253000
3000
Sono entrambi meravigliosi e in gran parte gli stessi,
04:34
excepttranne that computerscomputer happenedè accaduto in betweenfra.
68
256000
2000
tranne per il fatto che nel frattempo sono arrivati i computer.
04:36
And ArthurArthur was looking at this oldvecchio booklibro, and he said, "Well, that was wrongsbagliato.
69
258000
5000
E Arthur guardando questo vecchio libro, ha detto, beh, era sbagliato.
04:41
The futurefuturo mustdovere have some computerscomputer."
70
263000
2000
Il futuro deve avere qualche computer.
04:43
So in the secondsecondo versionversione of it, there are 100 billionmiliardo
71
265000
5000
Quindi nella sua seconda versione, ci sono 100 miliardi,
04:48
or 1,000 billionmiliardo people on EarthTerra, but they're all storedmemorizzati on harddifficile disksdischi or floppiesdischetti,
72
270000
8000
o 1.000 miliardi di persone sulla terra, ma sono tutti ammassati in hard disk o floppy,
04:56
or whateverqualunque cosa they have in the futurefuturo.
73
278000
2000
o in qualunque cosa abbiano in futuro.
04:58
And you let a fewpochi millionmilione of them out at a time.
74
280000
4000
E se ne fanno uscire qualche milione per volta.
05:02
A personpersona comesviene out, they livevivere for a thousandmille yearsanni
75
284000
4000
Una persona viene fuori, vive per un migliaio di anni
05:06
doing whateverqualunque cosa they do, and then, when it's time to go back
76
288000
6000
fa quello che fa, e poi, quando è il momento di tornare indietro
05:12
for a billionmiliardo yearsanni -- or a millionmilione, I forgetdimenticare, the numbersnumeri don't matterimporta --
77
294000
4000
per un miliardo di anni ... o un milione, lo dimentico, le cifre non contano ...
05:16
but there really aren'tnon sono very manymolti people on EarthTerra at a time.
78
298000
4000
ma non ci sono troppe persone alla volta sulla terra.
05:20
And you get to think about yourselfte stesso and your memoriesricordi,
79
302000
2000
E si pensa a se stessi e alle proprie memorie,
05:22
and before you go back into suspensionsospensione, you editmodificare your memoriesricordi
80
304000
5000
e prima di tornare indietro nel limbo, si cancellano le proprie memorie
05:27
and you changemodificare your personalitypersonalità and so forthvia.
81
309000
3000
e si cambia la propria personalità e via dicendo.
05:30
The plottracciare of the booklibro is that there's not enoughabbastanza diversitydiversità,
82
312000
6000
La trama del libro è che non c'è abbastanza diversità,
05:36
so that the people who designedprogettato the citycittà
83
318000
3000
così che le persone che hanno ideato le città
05:39
make sure that everyogni now and then an entirelyinteramente newnuovo personpersona is createdcreato.
84
321000
4000
hanno fatto in modo che di tanto in tanto venga creata una persona totalmente nuova.
05:43
And in the novelromanzo, a particularparticolare one nameddi nome AlvinAlvin is createdcreato. And he saysdice,
85
325000
6000
E nel romanzo, ne viene creato uno in particolare di nome Alvin. E dice,
05:49
maybe this isn't the bestmigliore way, and wrecksrelitti the wholetotale systemsistema.
86
331000
4000
forse questo non è il modo migliore, e distrugge il sistema.
05:53
I don't think the solutionssoluzioni that I proposedproposto
87
335000
2000
Non credo che la soluzione che ho proposto
05:55
are good enoughabbastanza or smartinteligente enoughabbastanza.
88
337000
3000
sia abbastanza buona o abbastanza intelligente.
05:58
I think the biggrande problemproblema is that we're not smartinteligente enoughabbastanza
89
340000
4000
Credo che il problema grosso sia che non siamo abbastanza intelligenti
06:02
to understandcapire whichquale of the problemsi problemi we're facingdi fronte are good enoughabbastanza.
90
344000
4000
per capire quali dei problemi che stiamo affrontando siano buoni abbastanza.
06:06
ThereforePertanto, we have to buildcostruire supersuper intelligentintelligente machinesmacchine like HALHAL.
91
348000
4000
Di conseguenza, dobbiamo costruire macchine super intelligenti come HAL.
06:10
As you rememberricorda, at some pointpunto in the booklibro for "2001,"
92
352000
5000
Come ricorderete, ad un certo punto del libro 2001,
06:15
HALHAL realizesrealizza that the universeuniverso is too biggrande, and grandgrande, and profoundprofondo
93
357000
5000
HAL si rende conto che l'universo è troppo grande e maestoso e ampio
06:20
for those really stupidstupido astronautsastronauti. If you contrastcontrasto HAL'sDi HAL behaviorcomportamento
94
362000
4000
per quegli stupidissimi astronauti. Se si confronta il comportamento di HAL
06:24
with the trivialitybanalità of the people on the spaceshipnavicella spaziale,
95
366000
4000
con la banalità delle persone sulle astronavi,
06:28
you can see what's writtenscritto betweenfra the linesLinee.
96
370000
3000
si può vedere cos'è scritto tra le righe.
06:31
Well, what are we going to do about that? We could get smarterpiù intelligente.
97
373000
3000
Beh, cosa faremo per questo? Diventeremo più intelligenti.
06:34
I think that we're prettybella smartinteligente, as comparedrispetto to chimpanzeesscimpanzé,
98
376000
5000
Credo che siamo piuttosto intelligenti, paragonati agli scimpanzé,
06:39
but we're not smartinteligente enoughabbastanza to dealaffare with the colossalcolossale problemsi problemi that we faceviso,
99
381000
6000
ma non siamo abbastanza intelligenti per trattare con i problemi colossali che affrontiamo,
06:45
eithero in abstractastratto mathematicsmatematica
100
387000
2000
sia nella matematica astratta
06:47
or in figuringcapire out economieseconomie, or balancingbilanciamento del the worldmondo around.
101
389000
5000
che nel comprendere l'economia o equilibrare il mondo.
06:52
So one thing we can do is livevivere longerpiù a lungo.
102
394000
3000
Quindi una cosa che possiamo fare è vivere di più.
06:55
And nobodynessuno knowsconosce how harddifficile that is,
103
397000
2000
E nessuno sa quanto sia difficile,
06:57
but we'llbene probablyprobabilmente find out in a fewpochi yearsanni.
104
399000
3000
ma probabilmente lo scopriremo nel giro di pochi anni.
07:00
You see, there's two forksforcelle in the roadstrada. We know that people livevivere
105
402000
3000
Vedete, la strada ha due bivi. Sappiamo che le persone vivono
07:03
twicedue volte as long as chimpanzeesscimpanzé almostquasi,
106
405000
4000
due volte di più degli scimpanzé, o quasi,
07:07
and nobodynessuno livesvite more than 120 yearsanni,
107
409000
4000
e che nessuno vive più di 120 anni,
07:11
for reasonsmotivi that aren'tnon sono very well understoodinteso.
108
413000
3000
per ragioni che non sono ben comprensibili.
07:14
But lots of people now livevivere to 90 or 100,
109
416000
3000
Ma oggi, molte persone vivono fino a 90 o 100 anni,
07:17
unlesssalvo che they shakescuotere handsmani too much or something like that.
110
419000
4000
a meno che non stringano troppe mani o cose del genere.
07:21
And so maybe if we livedha vissuto 200 yearsanni, we could accumulateaccumulare enoughabbastanza skillsabilità
111
423000
5000
E quindi forse se vivessimo 200 anni, potremmo accumulare abilità
07:26
and knowledgeconoscenza to solverisolvere some problemsi problemi.
112
428000
5000
e conoscenze sufficienti a risolvere alcuni problemi.
07:31
So that's one way of going about it.
113
433000
2000
Quindi questo è un modo di agire.
07:33
And as I said, we don't know how harddifficile that is. It mightpotrebbe be --
114
435000
3000
E come ho detto, non sappiamo quanto sia difficile. Potrebbe essere -
07:36
after all, mostmaggior parte other mammalsmammiferi livevivere halfmetà as long as the chimpanzeescimpanzé,
115
438000
6000
dopo tutto, molti altri mammiferi vivono la metà degli scimpanzé,
07:42
so we're sortordinare of threetre and a halfmetà or fourquattro timesvolte, have fourquattro timesvolte
116
444000
3000
quindi noi viviamo tre volte e mezza o quattro - siamo quattro volte
07:45
the longevitylongevità of mostmaggior parte mammalsmammiferi. And in the casecaso of the primatesprimati,
117
447000
6000
più longevi di molti mammiferi. E nel caso dei primati,
07:51
we have almostquasi the samestesso genesgeni. We only differdifferire from chimpanzeesscimpanzé,
118
453000
4000
abbiamo quasi gli stessi geni. Differiamo dagli scimpanzé solo
07:55
in the presentpresente statestato of knowledgeconoscenza, whichquale is absoluteassoluto hogwashHogwash,
119
457000
6000
al presente stato di conoscenza - che sono solo sciocchezze -
08:01
maybe by just a fewpochi hundredcentinaio genesgeni.
120
463000
2000
forse per qualche centinaio di geni.
08:03
What I think is that the genegene counterscontatori don't know what they're doing yetancora.
121
465000
3000
Ciò che credo è che chi conta i geni non sappia ancora ciò che fa.
08:06
And whateverqualunque cosa you do, don't readleggere anything about geneticsgenetica
122
468000
3000
E qualunque cosa facciate, non leggete niente che riguardi la genetica
08:09
that's publishedpubblicato withinentro your lifetimetutta la vita, or something.
123
471000
3000
e che sia pubblicato durante la vostra vita.
08:12
(LaughterRisate)
124
474000
3000
(Risate)
08:15
The stuffcose has a very shortcorto half-lifeHalf-Life, samestesso with braincervello sciencescienza.
125
477000
4000
Questa roba ha vita breve, come la scienza del cervello.
08:19
And so it mightpotrebbe be that if we just fixfissare fourquattro or fivecinque genesgeni,
126
481000
6000
E quindi dovrebbe essere che se ci concentriamo su 4 o 5 geni,
08:25
we can livevivere 200 yearsanni.
127
487000
2000
potremo vivere 200 anni.
08:27
Or it mightpotrebbe be that it's just 30 or 40,
128
489000
3000
O forse solo 30 o 40,
08:30
and I doubtdubbio that it's severalparecchi hundredcentinaio.
129
492000
2000
e dubito che siano qualche centinaia.
08:32
So this is something that people will be discussingdiscutere
130
494000
4000
Quindi questo è qualcosa di cui le persone discuteranno
08:36
and lots of ethicistsesperti di etica -- you know, an ethiciststudioso di etica is somebodyqualcuno
131
498000
3000
e molti etici - sapete, un etico è qualcuno
08:39
who seesvede something wrongsbagliato with whateverqualunque cosa you have in mindmente.
132
501000
3000
che vede qualcosa di sbagliato in tutto ciò che vi passa per la testa.
08:42
(LaughterRisate)
133
504000
3000
(Risate)
08:45
And it's very harddifficile to find an ethiciststudioso di etica who considersritiene any changemodificare
134
507000
4000
Ed è davvero difficile trovare un etico che consideri che qualunque cambiamento
08:49
worthdi valore makingfabbricazione, because he saysdice, what about the consequencesconseguenze?
135
511000
4000
valga la pena di essere fatto, perché dice: "e le conseguenze?"
08:53
And, of coursecorso, we're not responsibleresponsabile for the consequencesconseguenze
136
515000
3000
E certo, non siamo responsabili per le conseguenze
08:56
of what we're doing now, are we? Like all this complaintdenuncia about clonescloni.
137
518000
6000
di ciò che facciamo adesso, o no? Come tutte queste lamentele sui cloni.
09:02
And yetancora two randomcasuale people will mateMate and have this childbambino,
138
524000
3000
E ancora due persone a caso si uniranno e avranno questo bambino,
09:05
and bothentrambi of them have some prettybella rottenmarcio genesgeni,
139
527000
4000
ed entrambi hanno dei geni abbastanza scadenti,
09:09
and the childbambino is likelyprobabile to come out to be averagemedia.
140
531000
4000
ed è probabile che il bambino venga fuori dalla norma.
09:13
WhichChe, by chimpanzeescimpanzé standardsnorme, is very good indeedinfatti.
141
535000
6000
Che per gli standard degli scimpanzé, è anzi molto buono.
09:19
If we do have longevitylongevità, then we'llbene have to faceviso the populationpopolazione growthcrescita
142
541000
3000
Se avessimo la longevità, allora dovremmo affrontare comunque il problema
09:22
problemproblema anywaycomunque. Because if people livevivere 200 or 1,000 yearsanni,
143
544000
4000
dell'aumento della popolazione. Perché se le persone vivessero 200 o 1.000 anni,
09:26
then we can't let them have a childbambino more than about onceuna volta everyogni 200 or 1,000 yearsanni.
144
548000
6000
non potremmo lasciargli avere dei bambini più di una volta ogni 200 o 1.000 anni.
09:32
And so there won'tnon lo farà be any workforceforza lavoro.
145
554000
3000
E quindi non ci sarebbe forza lavoro.
09:35
And one of the things LaurieLaurie GarrettGarrett pointedappuntito out, and othersaltri have,
146
557000
4000
E una della cose che ha messo in evidenza Laurie Garret, e altri,
09:39
is that a societysocietà that doesn't have people
147
561000
5000
è che una società che non ha persone
09:44
of workinglavoro ageetà is in realvero troubleguaio. And things are going to get worsepeggio,
148
566000
3000
in età da lavoro, è davvero nei guai. E le cose peggioreranno,
09:47
because there's nobodynessuno to educateeducare the childrenbambini or to feedalimentazione the oldvecchio.
149
569000
6000
perché non ci sarebbe nessuno ad educare i bambini o a nutrire gli anziani.
09:53
And when I'm talkingparlando about a long lifetimetutta la vita, of coursecorso,
150
575000
2000
E quando parlo di una vita lunga, certo
09:55
I don't want somebodyqualcuno who'schi è 200 yearsanni oldvecchio to be like our imageImmagine
151
577000
6000
non voglio che qualcuno che ha 200 anni sia l'immagine
10:01
of what a 200-year-old-anni is -- whichquale is deadmorto, actuallyin realtà.
152
583000
4000
di ciò che è un bicentenario - che in effetti, è morto.
10:05
You know, there's about 400 differentdiverso partsparti of the braincervello
153
587000
2000
Sapete, ci sono circa 400 diverse parti del cervello
10:07
whichquale seemsembrare to have differentdiverso functionsfunzioni.
154
589000
2000
che sembrano avere diverse funzioni.
10:09
NobodyNessuno knowsconosce how mostmaggior parte of them work in detaildettaglio,
155
591000
3000
Nessuno sa in dettaglio come lavori la maggior parte di esso,
10:12
but we do know that there'reci sono lots of differentdiverso things in there.
156
594000
4000
ma sappiamo che contengono molte cose diverse.
10:16
And they don't always work togetherinsieme. I like Freud'sDi Freud theoryteoria
157
598000
2000
E non sempre lavorano insieme. Mi piace la teoria di Freud
10:18
that mostmaggior parte of them are cancellingcancellazione eachogni other out.
158
600000
4000
che molte di loro si annullano a vicenda.
10:22
And so if you think of yourselfte stesso as a sortordinare of citycittà
159
604000
4000
Quindi se pensate a voi stessi come ad una specie di città
10:26
with a hundredcentinaio resourcesrisorse, then, when you're afraidimpaurito, for exampleesempio,
160
608000
6000
con un centinaio di risorse, allora, quando si è spaventati, per esempio,
10:32
you maypuò discardscartare your long-rangelungo raggio goalsobiettivi, but you maypuò think deeplyprofondamente
161
614000
4000
si possono eliminare gli obiettivi ad ampio raggio, ma si può pensare con profondità
10:36
and focusmessa a fuoco on exactlydi preciso how to achieveraggiungere that particularparticolare goalobbiettivo.
162
618000
4000
e focalizzarsi esattamente su come raggiungere quel particolare obiettivo.
10:40
You throwgettare everything elsealtro away. You becomediventare a monomaniacmonomaniaco --
163
622000
3000
Tutto il resto si butta via. Si diventa monomaniaci -
10:43
all you carecura about is not steppingfare un passo out on that platformpiattaforma.
164
625000
4000
tutto ciò di cui importa è non uscire da quella piattaforma.
10:47
And when you're hungryAffamato, foodcibo becomesdiventa more attractiveattraente, and so forthvia.
165
629000
4000
E quando si è arrabbiati, il cibo diventa più interessante, e così via.
10:51
So I see emotionsemozioni as highlyaltamente evolvedevoluto subsetssottoinsiemi of your capabilitycapacità.
166
633000
6000
Quindi considero le emozioni come sotto gruppi molto evoluti delle vostre capacità.
10:57
EmotionEmozione is not something addedaggiunto to thought. An emotionalemotivo statestato
167
639000
4000
L'emozione non è qualcosa che si aggiunge al pensiero. Uno stato emozionale
11:01
is what you get when you removerimuovere 100 or 200
168
643000
4000
è ciò che si ottiene quando si eliminano 100 o 200
11:05
of your normallynormalmente availablea disposizione resourcesrisorse.
169
647000
3000
delle normali risorse disponibili.
11:08
So thinkingpensiero of emotionsemozioni as the oppositedi fronte of -- as something
170
650000
3000
Quindi pensando alle emozioni come all'opposto di ... come qualcosa
11:11
lessDi meno than thinkingpensiero is immenselyimmensamente productiveproduttivo. And I hopesperanza,
171
653000
4000
meno che il pensare, è immensamente produttivo. E spero,
11:15
in the nextIl prossimo fewpochi yearsanni, to showmostrare that this will leadcondurre to smartinteligente machinesmacchine.
172
657000
4000
nei prossimi anni, di dimostrare che ciò porterà a macchine più intelligenti.
11:19
And I guessindovina I better skipSalta all the restriposo of this, whichquale are some detailsdettagli
173
661000
3000
E suppongo che sia meglio saltare tutto il resto, ovvero alcuni dettagli
11:22
on how we mightpotrebbe make those smartinteligente machinesmacchine and --
174
664000
5000
su come potremmo fare queste macchine intelligenti e -
11:27
(LaughterRisate)
175
669000
5000
(Risate)
11:32
-- and the mainprincipale ideaidea is in factfatto that the corenucleo of a really smartinteligente machinemacchina
176
674000
5000
- e l'idea principale è infatti che il nucleo di una macchina davvero intelligente
11:37
is one that recognizesriconosce that a certaincerto kindgenere of problemproblema is facingdi fronte you.
177
679000
5000
sia uno che riconosce che si sta affrontando un certo tipo di problema .
11:42
This is a problemproblema of suchcome and suchcome a typetipo,
178
684000
3000
Questo è un problema di tal tipo,
11:45
and thereforeperciò there's a certaincerto way or waysmodi of thinkingpensiero
179
687000
5000
e quindi c'è o ci sono determinati modi di pensare
11:50
that are good for that problemproblema.
180
692000
2000
che vanno bene per quel problema.
11:52
So I think the futurefuturo, mainprincipale problemproblema of psychologyPsicologia is to classifyclassificare
181
694000
4000
Quindi credo che il problema principale e futuro della psicologia sia classificare
11:56
typestipi of predicamentssituazioni difficili, typestipi of situationssituazioni, typestipi of obstaclesostacoli
182
698000
4000
i tipi di difficoltà, i tipi di situazioni, i tipi di ostacoli
12:00
and alsoanche to classifyclassificare availablea disposizione and possiblepossibile waysmodi to think and pairpaio them up.
183
702000
6000
e anche classificare modi validi e possibili di pensare, e accoppiarli.
12:06
So you see, it's almostquasi like a PavlovianPavloviano --
184
708000
3000
Quindi vedete, è quasi come un pavloviano -
12:09
we lostperduto the first hundredcentinaio yearsanni of psychologyPsicologia
185
711000
2000
abbiamo perso le prime centinaia di anni di psicologia
12:11
by really trivialbanale theoriesteorie, where you say,
186
713000
3000
per teorie davvero banali dove si dice,
12:14
how do people learnimparare how to reactreagire to a situationsituazione? What I'm sayingdetto is,
187
716000
6000
come le persone imparano a reagire ad una situazione. Quello che sto dicendo,
12:20
after we go throughattraverso a lot of levelslivelli, includingCompreso designingprogettazione
188
722000
5000
è che dopo essere passati attraverso molti livelli, incluso l'ideare
12:25
a hugeenorme, messydisordinato systemsistema with thousandsmigliaia of portsporte,
189
727000
3000
un enorme e disordinato sistema con migliaia di parti,
12:28
we'llbene endfine up again with the centralcentrale problemproblema of psychologyPsicologia.
190
730000
4000
giungeremo di nuovo al problema centrale della psicologia.
12:32
SayingDicendo:, not what are the situationssituazioni,
191
734000
3000
Dicendo, non quali sono le situazioni,
12:35
but what are the kindstipi of problemsi problemi
192
737000
2000
ma quali sono i tipi di problemi
12:37
and what are the kindstipi of strategiesstrategie, how do you learnimparare them,
193
739000
3000
e quali sono le strategie, come si apprendono,
12:40
how do you connectCollegare them up, how does a really creativecreativo personpersona
194
742000
3000
come si collegano, come fa una persona molto creativa
12:43
inventinventare a newnuovo way of thinkingpensiero out of the availablea disposizione resourcesrisorse and so forthvia.
195
745000
5000
a inventare un nuovo modo di pensare a partire dalle risorse disponibili e così via.
12:48
So, I think in the nextIl prossimo 20 yearsanni,
196
750000
2000
Quindi credo che nei prossimi 20 anni,
12:50
if we can get ridliberare of all of the traditionaltradizionale approachesapprocci to artificialartificiale intelligenceintelligenza,
197
752000
5000
se potessimo liberarci dei tradizionali approcci all'intelligenza artificiale,
12:55
like neuralneurale netsreti and geneticgenetico algorithmsalgoritmi
198
757000
2000
come reti neurali e algoritmi genetici
12:57
and rule-basedBasato su regole systemssistemi, and just turnturno our sightsviste a little bitpo higherpiù alto to say,
199
759000
6000
e sistemi basati sulle regole, e guardare un po' più in alto per dire:
13:03
can we make a systemsistema that can use all those things
200
765000
2000
"Possiamo creare un sistema che possa usare tutte quelle cose
13:05
for the right kindgenere of problemproblema? Some problemsi problemi are good for neuralneurale netsreti;
201
767000
4000
per il giusto tipo di problema?" Alcuni problemi sono buoni per le reti neurali;
13:09
we know that othersaltri, neuralneurale netsreti are hopelesssenza speranza on them.
202
771000
3000
sappiamo che per altri, le reti neurali non servono a niente.
13:12
GeneticGenetica algorithmsalgoritmi are great for certaincerto things;
203
774000
3000
Gli algoritmi genetici sono ottimi per certe cose;
13:15
I suspectsospettare I know what they're badcattivo at, and I won'tnon lo farà tell you.
204
777000
4000
immagino di sapere in cosa non vanno bene e non ve lo dirò.
13:19
(LaughterRisate)
205
781000
1000
(Risate)
13:20
Thank you.
206
782000
2000
Grazie.
13:22
(ApplauseApplausi)
207
784000
6000
(Applausi)
Translated by Maria Gitto
Reviewed by Daniele Berti

▲Back to top

ABOUT THE SPEAKER
Marvin Minsky - AI pioneer
Marvin Minsky is one of the great pioneers of artificial intelligence -- and using computing metaphors to understand the human mind. His contributions to mathematics, robotics and computational linguistics are legendary and far-reaching.

Why you should listen

Marvin Minsky is the superstar-elder of artificial intelligence, one of the most productive and important cognitive scientists of the century, and the leading proponent of the Society of Mind theory. Articulated in his 1985 book of the same name, Minsky's theory says intelligence is not born of any single mechanism, but from the interaction of many independent agents. The book's sequel,The Emotion Machine (2006), says similar activity also accounts for feelings, goals, emotions and conscious thoughts.

Minsky also pioneered advances in mathematics, computational linguistics, optics, robotics and telepresence. He built SNARC, the first neural network simulator, some of the first visual scanners, and the first LOGO "turtle." From his headquarters at MIT's Media Lab and the AI Lab (which he helped found), he continues to work on, as he says, "imparting to machines the human capacity for commonsense reasoning."

More profile about the speaker
Marvin Minsky | Speaker | TED.com