ABOUT THE SPEAKER
Ray Kurzweil - Inventor, futurist
Ray Kurzweil is an engineer who has radically advanced the fields of speech, text and audio technology. He's revered for his dizzying -- yet convincing -- writing on the advance of technology, the limits of biology and the future of the human species.

Why you should listen

Inventor, entrepreneur, visionary, Ray Kurzweil's accomplishments read as a startling series of firsts -- a litany of technological breakthroughs we've come to take for granted. Kurzweil invented the first optical character recognition (OCR) software for transforming the written word into data, the first print-to-speech software for the blind, the first text-to-speech synthesizer, and the first music synthesizer capable of recreating the grand piano and other orchestral instruments, and the first commercially marketed large-vocabulary speech recognition.

Yet his impact as a futurist and philosopher is no less significant. In his best-selling books, which include How to Create a Mind, The Age of Spiritual Machines, The Singularity Is Near: When Humans Transcend Biology, Kurzweil depicts in detail a portrait of the human condition over the next few decades, as accelerating technologies forever blur the line between human and machine.

In 2009, he unveiled Singularity University, an institution that aims to "assemble, educate and inspire leaders who strive to understand and facilitate the development of exponentially advancing technologies." He is a Director of Engineering at Google, where he heads up a team developing machine intelligence and natural language comprehension.

More profile about the speaker
Ray Kurzweil | Speaker | TED.com
TED2014

Ray Kurzweil: Get ready for hybrid thinking

Ray Kurzweil: Preparatevi al pensiero ibrido

Filmed:
3,548,296 views

Duecento milioni di anni fa, i nostri antenati mammiferi hanno sviluppato una nuova caratteristica del cervello: la neurocorteccia. Questo pezzetto di tessuto della misura di un francobollo (avvolto attorno ad un cervello delle dimensioni di una noce) è la chiave di quel che è diventata l'umanità. Il futurista Ray Kurzweil suggerisce che dobbiamo prepararci ad un nuovo grande balzo nel potere del cervello, non appena attingeremo alla potenza di calcolo del cloud.
- Inventor, futurist
Ray Kurzweil is an engineer who has radically advanced the fields of speech, text and audio technology. He's revered for his dizzying -- yet convincing -- writing on the advance of technology, the limits of biology and the future of the human species. Full bio

Double-click the English transcript below to play the video.

00:12
Let me tell you a storystoria.
0
988
2316
Lasciatemi raccontare una storia.
00:15
It goesva back 200 millionmilione yearsanni.
1
3304
1799
Risale a 200 milioni di anni fa.
00:17
It's a storystoria of the neocortexneocorteccia,
2
5103
1984
È la storia della neocorteccia
00:19
whichquale meanssi intende "newnuovo rindcrosta."
3
7087
1974
che in latino significa
letteralmente "nuova corteccia".
00:21
So in these earlypresto mammalsmammiferi,
4
9061
2431
Nei primi mammiferi,
00:23
because only mammalsmammiferi have a neocortexneocorteccia,
5
11492
2055
poiché solo i mammiferi
hanno una neocorteccia,
00:25
rodent-likesimili a roditori creaturescreature.
6
13547
1664
creature simili ai roditori,
00:27
It was the sizedimensione of a postagespese di spedizione stampfrancobollo and just as thinmagro,
7
15211
3579
era della misura di un francobollo
ed ugualmente sottile,
00:30
and was a thinmagro coveringcopertura around
8
18790
1439
era semplicemente
uno strato sottile che ricopriva
00:32
theirloro walnut-sizednoce di dimensioni braincervello,
9
20229
2264
un cervello grande come una noce,
00:34
but it was capablecapace of a newnuovo typetipo of thinkingpensiero.
10
22493
3701
eppure li rendeva capaci
di un nuovo tipo di pensiero.
00:38
RatherPiuttosto than the fixedfisso behaviorscomportamenti
11
26194
1567
Oltre ai comportamenti invariabili,
00:39
that non-mammaliannon mammiferi animalsanimali have,
12
27761
1992
che hanno gli animali non mammiferi,
00:41
it could inventinventare newnuovo behaviorscomportamenti.
13
29753
2692
permetteva di inventare
nuovi comportamenti:
00:44
So a mousetopo is escapingfuga a predatorPredator,
14
32445
2553
un topo sta scappando da un predatore,
00:46
its pathsentiero is blockedbloccato,
15
34998
1540
ha la strada bloccata,
00:48
it'llsara try to inventinventare a newnuovo solutionsoluzione.
16
36538
2129
prova ad inventare una nuova soluzione,
00:50
That maypuò work, it maypuò not,
17
38667
1266
che potrebbe funzionare oppure no,
00:51
but if it does, it will rememberricorda that
18
39933
1910
ma se funziona, lo ricorderà
00:53
and have a newnuovo behaviorcomportamento,
19
41843
1292
e avrà acquisito
un nuovo comportamento
00:55
and that can actuallyin realtà spreaddiffusione virallyviralmente
20
43135
1457
che potrà diffondersi come un virus
00:56
throughattraverso the restriposo of the communitycomunità.
21
44592
2195
nel resto della comunità.
00:58
AnotherUn altro mousetopo watchingGuardando this could say,
22
46787
1609
Un altro topo potrebbe guardarlo e dire
01:00
"Hey, that was prettybella cleverintelligente, going around that rockroccia,"
23
48396
2704
"Ehi, ma che cosa intelligente
fare il giro di quella roccia."
01:03
and it could adoptadottare a newnuovo behaviorcomportamento as well.
24
51100
3725
e potrebbe adottare anche lui
un nuovo comportamento.
01:06
Non-mammalianNon-mammali animalsanimali
25
54825
1717
Animali non mammiferi
01:08
couldn'tnon poteva do any of those things.
26
56542
1713
non potevano fare niente di tutto questo.
01:10
They had fixedfisso behaviorscomportamenti.
27
58255
1215
Avevano comportamenti fissi.
01:11
Now they could learnimparare a newnuovo behaviorcomportamento
28
59470
1331
A dire il vero, potevano imparare
un nuovo comportamento,
01:12
but not in the coursecorso of one lifetimetutta la vita.
29
60801
2576
ma non nel corso di un'unica vita.
01:15
In the coursecorso of maybe a thousandmille lifetimescorsi della vita,
30
63377
1767
Forse nel corso di migliaia di vite
01:17
it could evolveevolvere a newnuovo fixedfisso behaviorcomportamento.
31
65144
3330
poteva persino evolversi
un nuovo comportamento.
01:20
That was perfectlyperfettamente okay 200 millionmilione yearsanni agofa.
32
68474
3377
Questo andava benissimo
200 milioni di anni fa.
01:23
The environmentambiente changedcambiato very slowlylentamente.
33
71851
1981
L'ambiente cambiava molto lentamente
01:25
It could take 10,000 yearsanni for there to be
34
73832
1554
potevano volerci 10 000 di anni prima
01:27
a significantsignificativo environmentalambientale changemodificare,
35
75386
2092
che si verificasse
un cambiamento ambientale
01:29
and duringdurante that periodperiodo of time
36
77478
1382
e durante questo lasso di tempo
01:30
it would evolveevolvere a newnuovo behaviorcomportamento.
37
78860
2929
potevano sviluppare
un nuovo comportamento.
01:33
Now that wentandato alonglungo fine,
38
81789
1521
Fino ad ora questo aveva funzionato,
01:35
but then something happenedè accaduto.
39
83310
1704
ma poi qualcosa è successo.
01:37
Sixty-fiveSessantacinque millionmilione yearsanni agofa,
40
85014
2246
Sessantacinque milioni di anni fa,
01:39
there was a suddenimprovviso, violentviolento
changemodificare to the environmentambiente.
41
87260
2615
ci fu un improvviso e violento
cambiamento nell'ambiente.
01:41
We call it the CretaceousCretaceo extinctionestinzione eventevento.
42
89875
3505
Si chiama estinzione
di massa del Cretaceo.
01:45
That's when the dinosaursdinosauri wentandato extinctestinto,
43
93380
2293
Fu quando si estinsero i dinosauri,
01:47
that's when 75 percentper cento of the
44
95673
3449
cioè quando il 75 per cento
01:51
animalanimale and plantpianta speciesspecie wentandato extinctestinto,
45
99122
2746
delle specie animali
e delle piante si estinsero,
01:53
and that's when mammalsmammiferi
46
101868
1745
ed è quando i mammiferi
01:55
overtookha superato theirloro ecologicalecologico nichenicchia,
47
103613
2152
superarono la loro nicchia ecologica
01:57
and to anthropomorphizeantropomorfizzare, biologicalbiologico evolutionEvoluzione said,
48
105765
3654
per antropomorfizzare,
l'evoluzione biologica disse,
02:01
"HmmHmm, this neocortexneocorteccia is prettybella good stuffcose,"
49
109419
2025
"Questa neurocorteccia
è roba piuttosto buona"
02:03
and it beganiniziato to growcrescere it.
50
111444
1793
e cominciò a farla crescere.
02:05
And mammalsmammiferi got biggerpiù grande,
51
113237
1342
Così i mammiferi
sono diventati più grandi,
02:06
theirloro brainsmente got biggerpiù grande at an even fasterPiù veloce paceritmo,
52
114579
2915
il loro cervello è cresciuto
persino ad una velocità superiore
02:09
and the neocortexneocorteccia got biggerpiù grande even fasterPiù veloce than that
53
117494
3807
e la neurocorteccia è cresciuta
ad una velocità anche superiore
02:13
and developedsviluppato these distinctivedistintivo ridgescreste and foldspieghe
54
121301
2929
e ha sviluppato queste peculiari
creste ed ondulazioni
02:16
basicallyfondamentalmente to increaseaumentare its surfacesuperficie areala zona.
55
124230
2881
fondamentalmente per
aumentarne la superficie.
02:19
If you tookha preso the humanumano neocortexneocorteccia
56
127111
1819
Se prendete la neurocorteccia umana
02:20
and stretchedteso it out,
57
128930
1301
e la stendete
02:22
it's about the sizedimensione of a tabletavolo napkintovagliolo,
58
130231
1713
ha più o meno la misura di un tovagliolo
02:23
and it's still a thinmagro structurestruttura.
59
131944
1306
ed è ancora una struttura sottile.
02:25
It's about the thicknessspessore of a tabletavolo napkintovagliolo.
60
133250
1980
Ha all'incirca lo spessore
di un tovagliolo.
02:27
But it has so manymolti convolutionscirconvoluzioni and ridgescreste
61
135230
2497
Ha talmente tante convoluzioni e creste
02:29
it's now 80 percentper cento of our braincervello,
62
137727
3075
da occupare l'80 per cento
del nostro cervello,
02:32
and that's where we do our thinkingpensiero,
63
140802
2461
ed è proprio dove nascono
i nostri pensieri
02:35
and it's the great sublimatorSublimator.
64
143263
1761
ed è un grande sublimatore.
02:37
We still have that oldvecchio braincervello
65
145024
1114
Abbiamo ancora il vecchio cervelllo
02:38
that providesfornisce our basicdi base drivesunità and motivationsmotivazioni,
66
146138
2764
che ci fornisce gli impulsi
e le motivazioni di base,
02:40
but I maypuò have a driveguidare for conquestconquista,
67
148902
2716
però io potrei avere
un impulso di conquista
02:43
and that'llche ti be sublimatedsublimata by the neocortexneocorteccia
68
151618
2715
e questo verrebbe sublimato
dalla neurocorteccia
02:46
into writingscrittura a poempoesia or inventinginventare an appApp
69
154333
2909
a scrivere un poema o inventare una app
02:49
or givingdando a TEDTED Talk,
70
157242
1509
oppure a tenere un discorso a TED
02:50
and it's really the neocortexneocorteccia that's where
71
158751
3622
ed è effettivamente nella neurocorteccia
02:54
the actionazione is.
72
162373
1968
che si svolge l'azione.
02:56
FiftyCinquanta yearsanni agofa, I wroteha scritto a papercarta
73
164341
1717
Cinquant'anni fa ho scritto un saggio
02:58
describingdescrivendo how I thought the braincervello workedlavorato,
74
166058
1918
che descriveva come pensavo
che il cervello funzionasse
02:59
and I describeddescritta it as a seriesserie of modulesmoduli.
75
167976
3199
e l'ho descritto come una serie di moduli.
03:03
EachOgni modulemodulo could do things with a patternmodello.
76
171175
2128
Ogni modulo può compiere
compiti secondo uno schema.
03:05
It could learnimparare a patternmodello. It could rememberricorda a patternmodello.
77
173303
2746
Può imparare uno schema.
Può ricordare uno schema.
03:08
It could implementstrumento a patternmodello.
78
176049
1407
Può implementare uno schema.
03:09
And these modulesmoduli were organizedorganizzato in hierarchiesgerarchie,
79
177456
2679
Questi moduli sono organizzati
secondo una gerarchia
03:12
and we createdcreato that hierarchygerarchia with our ownproprio thinkingpensiero.
80
180135
2954
e noi creiamo questa gerarchia
con i nostri stessi pensieri.
03:15
And there was actuallyin realtà very little to go on
81
183089
3333
C'era davvero poco con cui procedere
03:18
50 yearsanni agofa.
82
186422
1562
cinquant'anni fa.
03:19
It led me to meetincontrare PresidentPresidente JohnsonJohnson.
83
187984
2115
Mi ha portato a conoscere
il Presidente Johnson.
03:22
I've been thinkingpensiero about this for 50 yearsanni,
84
190099
2173
Dopo averci pensato
per quasi cinquant'anni
03:24
and a yearanno and a halfmetà agofa I cameè venuto out with the booklibro
85
192272
2828
un anno e mezzo fa ho pubblicato il libro
03:27
"How To CreateCreare A MindMente,"
86
195100
1265
"Come creare una Mente"
03:28
whichquale has the samestesso thesistesi,
87
196365
1613
che conteneva le stesse tesi
03:29
but now there's a plethorapletora of evidenceprova.
88
197978
2812
ma adesso ci sono tantissime prove.
03:32
The amountquantità of datadati we're gettingottenere about the braincervello
89
200790
1814
La quantità di dati che stiamo
ricevendo sul cervello
03:34
from neuroscienceneuroscienza is doublingraddoppio everyogni yearanno.
90
202604
2203
dalla neuroscienza raddoppia ogni anno.
03:36
SpatialSpaziali resolutionrisoluzione of brainscanningbrainscanning of all typestipi
91
204807
2654
La risoluzione spaziale di tutti i tipi
di scansione cerebrale
03:39
is doublingraddoppio everyogni yearanno.
92
207461
2285
raddoppia ogni anno.
03:41
We can now see insidedentro a livingvita braincervello
93
209746
1717
Adesso possiamo vedere
all'interno di un cervello vivo
03:43
and see individualindividuale interneuralHemal connectionsconnessioni
94
211463
2870
e vedere le connessioni interneurali
03:46
connectingcollegamento in realvero time, firingcottura in realvero time.
95
214333
2703
che si connettono in tempo reale,
che si attivano in tempo reale.
03:49
We can see your braincervello createcreare your thoughtspensieri.
96
217036
2419
Possiamo vedere il cervello
mentre crea i pensieri.
03:51
We can see your thoughtspensieri createcreare your braincervello,
97
219455
1575
Possiamo vedere i pensieri
creare il cervello
03:53
whichquale is really keychiave to how it workslavori.
98
221030
1999
che in effetti è la chiave
per capire come funziona.
03:55
So let me describedescrivere brieflybrevemente how it workslavori.
99
223029
2219
Fatemi descrivere
brevemente come funziona.
03:57
I've actuallyin realtà countedcontato these modulesmoduli.
100
225248
2275
Ho davvero contato questi moduli.
03:59
We have about 300 millionmilione of them,
101
227523
2046
Ne abbiamo all'incirca trecento milioni
04:01
and we createcreare them in these hierarchiesgerarchie.
102
229569
2229
e li creiamo in queste gerarchie.
04:03
I'll give you a simplesemplice exampleesempio.
103
231798
2082
Vi farò un semplice esempio.
04:05
I've got a bunchmazzo of modulesmoduli
104
233880
2805
Ho una manciata di moduli
04:08
that can recognizericonoscere the crossbarCrossbar to a capitalcapitale A,
105
236685
3403
che possono riconoscere
l'asta trasversale della maiuscola A
04:12
and that's all they carecura about.
106
240088
1914
ed è tutto quello di cui si occupano.
04:14
A beautifulbellissimo songcanzone can playgiocare,
107
242002
1578
Può suonare una bella musica,
04:15
a prettybella girlragazza could walkcamminare by,
108
243580
1434
può passare una bella ragazza,
04:17
they don't carecura, but they see
a crossbarCrossbar to a capitalcapitale A,
109
245014
2846
a loro non importa, quando vedono
l'asta trasversale della A maiuscola
04:19
they get very excitedemozionato and they say "crossbarCrossbar,"
110
247860
3021
si eccitano un sacco e dicono
"asta trasversale"
04:22
and they put out a highalto probabilityprobabilità
111
250881
2112
e con molta probabilità
lascerebbero uscire
04:24
on theirloro outputproduzione axonassone.
112
252993
1634
il loro assone d'uscita.
04:26
That goesva to the nextIl prossimo levellivello,
113
254627
1333
Così si passa al livello successivo,
04:27
and these layersstrati are organizedorganizzato in conceptualconcettuale levelslivelli.
114
255960
2750
questi strati sono organizzati
in livelli concettuali.
04:30
EachOgni is more abstractastratto than the nextIl prossimo one,
115
258710
1856
Ognuno è più astratto del successivo
04:32
so the nextIl prossimo one mightpotrebbe say "capitalcapitale A."
116
260566
2418
così il successivo potrebbe
dire "A maiuscola".
04:34
That goesva up to a higherpiù alto
levellivello that mightpotrebbe say "AppleApple."
117
262984
2891
Quindi si arriva ad un livello superiore
che potrebbe dire "Apple".
04:37
InformationInformazioni flowsflussi down alsoanche.
118
265875
2167
Le informazioni scorrono
anche verso il basso.
04:40
If the appleMela recognizersistema di riconoscimento has seenvisto A-P-P-LA-P-P-L,
119
268042
2936
Se il riconoscitore della mela
ha visto A-P-P-L
04:42
it'llsara think to itselfsi, "HmmHmm, I
think an E is probablyprobabilmente likelyprobabile,"
120
270978
3219
penserà tra sé e sé
"Credo che probabilmente arriverà una E"
04:46
and it'llsara sendinviare a signalsegnale down to all the E recognizerssistemi di riconoscimento
121
274197
2564
e invierà un segnale a tutti
i riconoscitori di E
04:48
sayingdetto, "Be on the lookoutLookout for an E,
122
276761
1619
dicendo "fate attenzione alla E
04:50
I think one mightpotrebbe be comingvenuta."
123
278380
1556
credo che ne arriverà una".
04:51
The E recognizerssistemi di riconoscimento will lowerinferiore theirloro thresholdsoglia
124
279936
2843
I riconoscitori della E abbasseranno
le loro barriere
04:54
and they see some sloppysciatta
thing, could be an E.
125
282779
1945
e vedranno qualcosa
che potrebbe essere una E.
04:56
OrdinarilyOrdinariamente you wouldn'tno think so,
126
284724
1490
Normalmente non sarebbe così
04:58
but we're expectingaspettandosi an E, it's good enoughabbastanza,
127
286214
2009
ma stiamo aspettando una E,
va abbastanza bene,
05:00
and yeah, I've seenvisto an E, and then appleMela saysdice,
128
288223
1817
e sì, ho visto una E e quindi "apple" dirà
05:02
"Yeah, I've seenvisto an AppleApple."
129
290040
1728
"sì, ho visto una mela".
05:03
Go up anotherun altro fivecinque levelslivelli,
130
291768
1746
Risaliamo altri cinque livelli,
05:05
and you're now at a prettybella highalto levellivello
131
293514
1353
adesso siete pittosto in alto
05:06
of this hierarchygerarchia,
132
294867
1569
in questa gerarchia,
05:08
and stretchallungare down into the differentdiverso sensessensi,
133
296436
2353
e si allungherà verso i vari sensi
05:10
and you maypuò have a modulemodulo
that seesvede a certaincerto fabrictessuto,
134
298789
2655
e potreste avere un modulo
che vede una certa stoffa,
05:13
hearssente a certaincerto voicevoce qualityqualità,
smellsodori a certaincerto perfumeprofumo,
135
301444
2844
che sente una certo timbro di voce,
sente un certo profumo,
05:16
and will say, "My wifemoglie has enteredentrato the roomcamera."
136
304288
2513
e dirà, "Mia moglie è appena
entrata nella stanza".
05:18
Go up anotherun altro 10 levelslivelli, and now you're at
137
306801
1895
Risalite un'altra decina di livelli
e adesso sarete
05:20
a very highalto levellivello.
138
308696
1160
al livello più alto.
05:21
You're probablyprobabilmente in the frontalfrontale cortexcorteccia,
139
309856
1937
Probabilmente vi troverete
nella corteccia frontale
05:23
and you'llpotrai have modulesmoduli that say, "That was ironicironico.
140
311793
3767
e avrete dei moduli
che dicono, "Questo era ironico.
05:27
That's funnydivertente. She's prettybella."
141
315560
2370
Questo è divertente. Lei è carina."
05:29
You mightpotrebbe think that those are more sophisticatedsofisticato,
142
317930
2105
Potreste pensare che sia più sofisticato,
05:32
but actuallyin realtà what's more complicatedcomplicato
143
320035
1506
ma in realtà quello che è più complicato
05:33
is the hierarchygerarchia beneathsotto them.
144
321541
2669
è la gerarchia che ci sta sotto.
05:36
There was a 16-year-old-anni girlragazza, she had braincervello surgerychirurgia,
145
324210
2620
Una ragazza di 16 anni, mentre subiva
un intervento chirurgico al cervello
05:38
and she was consciousconsapevole because the surgeonschirurghi
146
326830
2051
era cosciente, perché i chirurghi
05:40
wanted to talk to her.
147
328881
1537
volevano parlare con lei.
05:42
You can do that because there's no paindolore receptorsrecettori
148
330418
1822
Si può fare, perché non
ci sono ricettori del dolore
05:44
in the braincervello.
149
332240
1038
nel cervello.
05:45
And wheneverogni volta they stimulatedstimolato particularparticolare,
150
333278
1800
Ogni volta che stimolavano
una particolare
05:47
very smallpiccolo pointspunti on her neocortexneocorteccia,
151
335078
2463
piccolissima porzione della neurocorteccia
05:49
shownmostrato here in redrosso, she would laughridere.
152
337541
2665
illustrata qui in rosso, lei rideva.
05:52
So at first they thought they were triggeringattivazione
153
340206
1440
Inizialmente pensavano di aver scatenato
05:53
some kindgenere of laughridere reflexriflesso,
154
341646
1720
un qualche riflesso della risata,
05:55
but no, they quicklyvelocemente realizedrealizzato they had foundtrovato
155
343366
2519
ma poi si sono resi conto
che avevano trovato
05:57
the pointspunti in her neocortexneocorteccia that detectindividuare humorumorismo,
156
345885
3044
il punto in cui la sua neurocorteccia
individuava l'umorismo,
06:00
and she just foundtrovato everything hilariousdivertente
157
348929
1969
così che a lei veniva da ridere
06:02
wheneverogni volta they stimulatedstimolato these pointspunti.
158
350898
2437
ogni volta che loro stimolavano
questo punto.
06:05
"You guys are so funnydivertente just standingin piedi around,"
159
353335
1925
"Siete così buffi lì in piedi
tutti intorno",
06:07
was the typicaltipico commentcommento,
160
355260
1738
era il tipico commento,
06:08
and they weren'tnon erano funnydivertente,
161
356998
2302
ma loro non erano divertenti,
06:11
not while doing surgerychirurgia.
162
359300
3247
non mentre operavano.
06:14
So how are we doing todayoggi?
163
362547
4830
Cosa facciamo qui oggi?
06:19
Well, computerscomputer are actuallyin realtà beginninginizio to mastermaestro
164
367377
3054
A dire il vero i computer stanno
iniziando a padroneggiare
06:22
humanumano languageLingua with techniquestecniche
165
370431
2001
tecniche del linguaggio umano
06:24
that are similarsimile to the neocortexneocorteccia.
166
372432
2867
simili a quelle della neurocorteccia.
06:27
I actuallyin realtà describeddescritta the algorithmalgoritmo,
167
375299
1514
A dire il vero ho descritto l'algoritmo
06:28
whichquale is similarsimile to something calledchiamato
168
376813
2054
che assomiglia a qualcosa chiamato
06:30
a hierarchicalgerarchico hiddennascosto MarkovMarkov modelmodello,
169
378867
2233
modello gerarchico di Markov nascosto,
06:33
something I've workedlavorato on sinceda the '90s.
170
381100
3241
una cosa sulla quale ho lavorato
sin dagli anni '90.
06:36
"JeopardyPericolo" is a very broadampio naturalnaturale languageLingua gamegioco,
171
384341
3238
"Jeopardy" è un gioco molto diffuso
sul linguaggio naturale
06:39
and WatsonWatson got a higherpiù alto scorePunto
172
387579
1892
e Watson ha un punteggio più alto
06:41
than the bestmigliore two playersGiocatori combinedcombinato.
173
389471
2000
degli altri due giocatori messi insieme.
06:43
It got this queryquery correctcorretta:
174
391471
2499
Ha risposto correttamente
a questa domanda:
06:45
"A long, tiresomefaticoso speechdiscorso
175
393970
2085
"Un discorso lungo e noioso
06:48
deliveredconsegnato by a frothyschiumoso piegrafico a torta toppingtopping,"
176
396055
2152
consegnato su una torta
con una decorazione spumosa".
06:50
and it quicklyvelocemente respondedrisposto,
"What is a meringuemeringa haranguearringa?"
177
398207
2796
e lui ha velocemente risposto:
"Cos'è un'arringa meringa?"
06:53
And JenningsJennings and the other guy didn't get that.
178
401003
2635
Mentre Jennings e gli altri ragazzi
non ci sono arrivati.
06:55
It's a prettybella sophisticatedsofisticato exampleesempio of
179
403638
1926
È un esempio piuttosto sofisticato
06:57
computerscomputer actuallyin realtà understandingcomprensione humanumano languageLingua,
180
405564
1914
di computer che effettivamente
capiscono il linguaggio umano
06:59
and it actuallyin realtà got its knowledgeconoscenza by readinglettura
181
407478
1652
e che raggiungono questa
conoscenza leggendo
07:01
WikipediaWikipedia and severalparecchi other encyclopediasenciclopedie.
182
409130
3785
Wikipedia e diverse altre enciclopedie.
07:04
FiveCinque to 10 yearsanni from now,
183
412915
2133
Fra cinque o dieci anni da adesso
07:07
searchricerca enginesmotori will actuallyin realtà be basedbasato on
184
415048
2184
i motori di ricerca saranno basati
07:09
not just looking for combinationscombinazioni of wordsparole and linkslink
185
417232
2794
non solo sulla ricerca di combinazioni
di parole e collegamenti,
07:12
but actuallyin realtà understandingcomprensione,
186
420026
1914
ma sulla reale comprensione,
07:13
readinglettura for understandingcomprensione the billionsmiliardi of pagespagine
187
421940
2411
sulla comprensione che deriva
dalla lettura di miliardi di pagine
07:16
on the webweb and in bookslibri.
188
424351
2733
sul web e sui libri
07:19
So you'llpotrai be walkinga passeggio alonglungo, and GoogleGoogle will poppop up
189
427084
2616
Un giorno passeggiando Google
si attiverà all'improvviso
07:21
and say, "You know, MaryMaria, you expressedespresso concernpreoccupazione
190
429700
3081
dicendo "Sai Mary,
un mese fa eri preoccupata
07:24
to me a monthmese agofa that your glutathioneglutatione supplementSupplemento
191
432781
3019
che il tuo integratore di glutatione
07:27
wasn'tnon era gettingottenere pastpassato the blood-brainemato-encefalica barrierbarriera.
192
435800
2231
non andasse oltre
la barriera emato-cefalica.
07:30
Well, newnuovo researchricerca just cameè venuto out 13 secondssecondi agofa
193
438031
2593
Esattamente tredici secondi fa
una nuova ricerca
07:32
that showsSpettacoli a wholetotale newnuovo approachapproccio to that
194
440624
1711
ha scoperto un nuovissimo approccio
07:34
and a newnuovo way to take glutathioneglutatione.
195
442335
1993
e un nuovo modo di prendere il glutatione.
07:36
Let me summarizeriassumere it for you."
196
444328
2562
Lascia che te ne faccia un riassunto."
07:38
TwentyVenti yearsanni from now, we'llbene have nanobotsNanobot,
197
446890
3684
Fra vent'anni avremo i nanobot,
07:42
because anotherun altro exponentialesponenziale trendtendenza
198
450574
1627
perché un'altro trend esponenziale
07:44
is the shrinkingcontrazione of technologytecnologia.
199
452201
1615
è il rimpicciolimento della tecnologia.
07:45
They'llChe faranno go into our braincervello
200
453816
2370
Entreranno nel nostro cervello
07:48
throughattraverso the capillariescapillari
201
456186
1703
attraverso i capillari
07:49
and basicallyfondamentalmente connectCollegare our neocortexneocorteccia
202
457889
2477
e in pratica collegheranno
la nostra neurocorteccia
07:52
to a syntheticsintetico neocortexneocorteccia in the cloudnube
203
460366
3185
ad una neurocorteccia nel cloud
07:55
providingfornitura an extensionestensione of our neocortexneocorteccia.
204
463551
3591
che fungerà da estensione
alla nostra neurocorteccia.
07:59
Now todayoggi, I mean,
205
467142
1578
Mi spiego: oggi
08:00
you have a computercomputer in your phoneTelefono,
206
468720
1530
avete un computer nel vostro cellulare,
08:02
but if you need 10,000 computerscomputer for a fewpochi secondssecondi
207
470250
2754
ma se avete bisogno di 10 000
computer per pochi secondi
08:05
to do a complexcomplesso searchricerca,
208
473004
1495
per effettuare una ricerca complessa,
08:06
you can accessaccesso that for a secondsecondo or two in the cloudnube.
209
474499
3396
potete effettuarla
per qualche secondo nel cloud.
08:09
In the 2030s, if you need some extraextra neocortexneocorteccia,
210
477895
3095
Nel 2030 se avrete bisogno
di un po' di neurocorteccia in più,
08:12
you'llpotrai be ablecapace to connectCollegare to that in the cloudnube
211
480990
2273
sarete in grado di collegarvi
a quella del cloud,
08:15
directlydirettamente from your braincervello.
212
483263
1648
direttamente dal vostro cervello.
08:16
So I'm walkinga passeggio alonglungo and I say,
213
484911
1543
Immaginate: sto camminando ed esclamo
08:18
"Oh, there's ChrisChris AndersonAnderson.
214
486454
1363
"C'è Chris Anderson.
08:19
He's comingvenuta my way.
215
487817
1525
Mi sta venendo incontro.
08:21
I'd better think of something cleverintelligente to say.
216
489342
2335
Farò meglio a pensare a qualcosa
di intelligente da dire.
08:23
I've got threetre secondssecondi.
217
491677
1524
Ho tre secondi.
08:25
My 300 millionmilione modulesmoduli in my neocortexneocorteccia
218
493201
3097
I 300 milioni di moduli
della mia neurocorteccia
08:28
isn't going to cuttagliare it.
219
496298
1240
non riescono a trovare nulla.
08:29
I need a billionmiliardo more."
220
497538
1246
Ho bisogno di un miliardo
di moduli in più".
08:30
I'll be ablecapace to accessaccesso that in the cloudnube.
221
498784
3323
Sarò in grado di averli
a disposizione nel cloud.
08:34
And our thinkingpensiero, then, will be a hybridibrido
222
502107
2812
Così i nostri pensieri saranno un ibrido
08:36
of biologicalbiologico and non-biologicalnon-biologico thinkingpensiero,
223
504919
3522
fra pensiero biologico e non-biologico
08:40
but the non-biologicalnon-biologico portionporzione
224
508441
1898
e la parte non-biologica
08:42
is subjectsoggetto to my lawlegge of acceleratingaccelerando returnsritorna.
225
510339
2682
sarà soggetta alla mia legge
sul ritorno accelerato.
08:45
It will growcrescere exponentiallyin modo esponenziale.
226
513021
2239
Crescerà in modo esponenziale.
08:47
And rememberricorda what happensaccade
227
515260
2016
Ricordate cos'è successo
08:49
the last time we expandedallargato our neocortexneocorteccia?
228
517276
2645
l'ultima volta che la nostra
neurocorteccia è aumentata?
08:51
That was two millionmilione yearsanni agofa
229
519921
1426
È successo due milioni di anni fa,
08:53
when we becamedivenne humanoidsumanoidi
230
521347
1236
quando siamo diventati umanoidi
08:54
and developedsviluppato these largegrande foreheadssulla fronte.
231
522583
1594
e abbiamo sviluppato questa fronte ampia.
08:56
Other primatesprimati have a slantedinclinato browsopracciglia.
232
524177
2583
Gli altri primati hanno
una fronte inclinata.
08:58
They don't have the frontalfrontale cortexcorteccia.
233
526760
1745
Non hanno la corteccia frontale.
09:00
But the frontalfrontale cortexcorteccia is not
really qualitativelyqualitativamente differentdiverso.
234
528505
3685
La corteccia frontale non è differente
dal punto di vista qualitativo.
09:04
It's a quantitativequantitativo expansionespansione of neocortexneocorteccia,
235
532190
2743
È un'espansione della neurocorteccia,
09:06
but that additionalUlteriori quantityquantità of thinkingpensiero
236
534933
2703
ma questa quantità aggiuntiva di pensiero
09:09
was the enablingabilitare factorfattore for us to take
237
537636
1779
è stato il fattore
che ci ha permesso di fare
09:11
a qualitativequalitativa leapsalto and inventinventare languageLingua
238
539415
3346
il salto qualitativo
e di inventare il linguaggio,
09:14
and artarte and sciencescienza and technologytecnologia
239
542761
1967
l'arte, la scienza, la tecnologia
09:16
and TEDTED conferencesconferenze.
240
544728
1454
e le conferenze TED.
09:18
No other speciesspecie has donefatto that.
241
546182
2131
Nessun altra specie l'ha fatto.
09:20
And so, over the nextIl prossimo fewpochi decadesdecenni,
242
548313
2075
Quindi nella prossima decina di anni
09:22
we're going to do it again.
243
550388
1760
lo faremo nuovamente.
09:24
We're going to again expandespandere our neocortexneocorteccia,
244
552148
2274
Espanderemo nuovamente
la nostra neurocorteccia,
09:26
only this time we won'tnon lo farà be limitedlimitato
245
554422
1756
solo che questa volta non sarà limitato
09:28
by a fixedfisso architecturearchitettura of enclosureallegato.
246
556178
4280
da una struttura chiusa.
09:32
It'llIt'll be expandedallargato withoutsenza limitlimite.
247
560458
3304
Si potrà espandere senza limiti.
09:35
That additionalUlteriori quantityquantità will again
248
563762
2243
La quantità aggiuntiva sarà di nuovo
09:38
be the enablingabilitare factorfattore for anotherun altro qualitativequalitativa leapsalto
249
566005
3005
il fattore che permetterà
un altro salto qualitativo
09:41
in culturecultura and technologytecnologia.
250
569010
1635
nella cultura e nella tecnologia.
09:42
Thank you very much.
251
570645
2054
Grazie tante.
09:44
(ApplauseApplausi)
252
572699
3086
(Applausi)
Translated by Debora Serrentino
Reviewed by Anna Cristiana Minoli

▲Back to top

ABOUT THE SPEAKER
Ray Kurzweil - Inventor, futurist
Ray Kurzweil is an engineer who has radically advanced the fields of speech, text and audio technology. He's revered for his dizzying -- yet convincing -- writing on the advance of technology, the limits of biology and the future of the human species.

Why you should listen

Inventor, entrepreneur, visionary, Ray Kurzweil's accomplishments read as a startling series of firsts -- a litany of technological breakthroughs we've come to take for granted. Kurzweil invented the first optical character recognition (OCR) software for transforming the written word into data, the first print-to-speech software for the blind, the first text-to-speech synthesizer, and the first music synthesizer capable of recreating the grand piano and other orchestral instruments, and the first commercially marketed large-vocabulary speech recognition.

Yet his impact as a futurist and philosopher is no less significant. In his best-selling books, which include How to Create a Mind, The Age of Spiritual Machines, The Singularity Is Near: When Humans Transcend Biology, Kurzweil depicts in detail a portrait of the human condition over the next few decades, as accelerating technologies forever blur the line between human and machine.

In 2009, he unveiled Singularity University, an institution that aims to "assemble, educate and inspire leaders who strive to understand and facilitate the development of exponentially advancing technologies." He is a Director of Engineering at Google, where he heads up a team developing machine intelligence and natural language comprehension.

More profile about the speaker
Ray Kurzweil | Speaker | TED.com