ABOUT THE SPEAKER
Grady Booch - Scientist, philosopher
IBM's Grady Booch is shaping the future of cognitive computing by building intelligent systems that can reason and learn.

Why you should listen

When he was 13, Grady Booch saw 2001: A Space Odyssey in the theaters for the first time. Ever since, he's been trying to build Hal (albeit one without the homicidal tendencies). A scientist, storyteller and philosopher, Booch is Chief Scientist for Software Engineering as well as Chief Scientist for Watson/M at IBM Research, where he leads IBM's research and development for embodied cognition. Having originated the term and the practice of object-oriented design, he is best known for his work in advancing the fields of software engineering and software architecture.

A co-author of the Unified Modeling Language (UML), a founding member of the Agile Allianc, and a founding member of the Hillside Group, Booch has published six books and several hundred technical articles, including an ongoing column for IEEE Software. He's also a trustee for the Computer History Museum, an IBM Fellow, an ACM Fellow and IEEE Fellow. He has been awarded the Lovelace Medal and has given the Turing Lecture for the BCS, and was recently named an IEEE Computer Pioneer.

Booch is currently deeply involved in the development of cognitive systems and is also developing a major trans-media documentary for public broadcast on the intersection of computing and the human experience.

More profile about the speaker
Grady Booch | Speaker | TED.com
TED@IBM

Grady Booch: Don't fear superintelligent AI

Grady Booch: Non abbiate paura delle super intelligenze artificiali

Filmed:
2,866,438 views

Nuove tecnologie generano nuove ansie, dice lo scienziato e filosofo Grady Booch, ma non c'è bisogno di spaventarsi per un'onnipotente e apatica intelligenza artificiale. Booch allevia le nostre peggiori paure (indotte dalla fantascienza) verso i computer super intelligenti, spiegando il modo in cui insegneremo loro a condividere i nostri valori. Piuttosto che preoccuparci per un'inesistente minaccia all'umanità, è urgente che consideriamo il modo in cui l'intelligenza artificiale potenzierà l'esperienza umana.
- Scientist, philosopher
IBM's Grady Booch is shaping the future of cognitive computing by building intelligent systems that can reason and learn. Full bio

Double-click the English transcript below to play the video.

00:12
When I was a kidragazzo,
I was the quintessentialquintessenza nerdnerd.
0
760
3840
Quando ero piccolo, ero la quintessenza
dell'essere nerd.
00:17
I think some of you were, too.
1
5320
2176
Penso che anche alcuni di voi lo fossero.
00:19
(LaughterRisate)
2
7520
1216
(Risate)
00:20
And you, sirsignore, who laughedriso the loudestpiù forte,
you probablyprobabilmente still are.
3
8760
3216
E lei, che ride più forte
degli altri, probabilmente lo è ancora.
00:24
(LaughterRisate)
4
12000
2256
(Risate)
00:26
I grewè cresciuto up in a smallpiccolo towncittadina
in the dustypolveroso plainspianure of northnord TexasTexas,
5
14280
3496
Sono cresciuto in una piccola città
nelle piane polverose del nord Texas,
00:29
the sonfiglio of a sheriffSceriffo
who was the sonfiglio of a pastorPastore.
6
17800
3336
figlio di uno sceriffo che era figlio
di un pastore.
00:33
GettingOttenere into troubleguaio was not an optionopzione.
7
21160
1920
Mettersi nei guai non era contemplato.
00:36
And so I startediniziato readinglettura
calculuscalcolo bookslibri for fundivertimento.
8
24040
3256
Quindi ho iniziato a leggere libri
di calcolo per divertimento.
00:39
(LaughterRisate)
9
27320
1536
(Risate)
00:40
You did, too.
10
28880
1696
Lo avete fatto anche voi.
00:42
That led me to buildingcostruzione a laserlaser
and a computercomputer and modelmodello rocketsrazzi,
11
30600
3736
Ciò mi ha portato a costruire un laser,
un computer e modellini di razzi,
00:46
and that led me to makingfabbricazione
rocketrazzo fuelcarburante in my bedroomCamera da letto.
12
34360
3000
e poi a creare del propellente per razzi
nella mia stanza.
00:49
Now, in scientificscientifico termscondizioni,
13
37960
3656
Ora, in termini scientifici,
00:53
we call this a very badcattivo ideaidea.
14
41640
3256
questa si chiama "una pessima idea".
00:56
(LaughterRisate)
15
44920
1216
(Risate)
00:58
Around that samestesso time,
16
46160
2176
All'incirca in quel periodo,
01:00
StanleyStanley Kubrick'sDi Kubrick "2001: A SpaceSpazio OdysseyOdissea"
cameè venuto to the theatersteatri,
17
48360
3216
"2001: Odissea nello spazio" di Kubrick,
usciva nei cinema
01:03
and my life was foreverper sempre changedcambiato.
18
51600
2200
e lì la mia vita cambiò per sempre.
01:06
I lovedamato everything about that moviefilm,
19
54280
2056
Ho amato tutto di quel film,
01:08
especiallyparticolarmente the HALHAL 9000.
20
56360
2536
specialmente HAL 9000.
01:10
Now, HALHAL was a sentientsenziente computercomputer
21
58920
2056
HAL era un computer senziente
01:13
designedprogettato to guideguida the DiscoveryScoperta spacecraftnavicella spaziale
22
61000
2456
progettato per guidare
l'astronave Discovery
01:15
from the EarthTerra to JupiterGiove.
23
63480
2536
dalla Terra a Giove.
01:18
HALHAL was alsoanche a flawedviziata charactercarattere,
24
66040
2056
HAL era anche un personaggio fallace,
01:20
for in the endfine he chosescelto
to valuevalore the missionmissione over humanumano life.
25
68120
4280
perché alla fine preferì
la missione alla vita umana.
01:24
Now, HALHAL was a fictionalimmaginario charactercarattere,
26
72840
2096
HAL era un personaggio fittizio
01:26
but nonethelessciò nonostante he speaksparla to our fearspaure,
27
74960
2656
ma nonostante ciò riusciva
a parlare alle nostre paure,
01:29
our fearspaure of beingessere subjugatedsoggiogato
28
77640
2096
quelle di essere soggiogati
01:31
by some unfeelinginsensibile, artificialartificiale intelligenceintelligenza
29
79760
3016
da qualche intelligenza artificiale,
priva di sentimenti
01:34
who is indifferentindifferente to our humanityumanità.
30
82800
1960
che è indifferente alla nostra umanità.
01:37
I believe that suchcome fearspaure are unfoundedinfondate.
31
85880
2576
Credo che tali paure siano infondate.
01:40
IndeedInfatti, we standstare in piedi at a remarkablenotevole time
32
88480
2696
Infatti, viviamo in un'epoca significativa
01:43
in humanumano historystoria,
33
91200
1536
della storia dell'umanità,
01:44
where, drivenguidato by refusalrifiuto to acceptaccettare
the limitslimiti of our bodiescorpi and our mindsmenti,
34
92760
4976
in cui, guidati dal rifiuto di accettare
i limiti del corpo e della mente
01:49
we are buildingcostruzione machinesmacchine
35
97760
1696
costruiamo macchine
01:51
of exquisitesquisita, beautifulbellissimo
complexitycomplessità and gracegrazia
36
99480
3616
di ricercata, bellissima complessità
e grazia
01:55
that will extendestendere the humanumano experienceEsperienza
37
103120
2056
che espanderà l'esperienza umana
01:57
in waysmodi beyondal di là our imaginingimmaginando.
38
105200
1680
in modi che non possiamo
immaginare.
01:59
After a careercarriera that led me
from the AirAria ForceForza AcademyAccademia
39
107720
2576
Dopo una carriera che va
dall'Air Force Academy
02:02
to SpaceSpazio CommandComando to now,
40
110320
1936
allo Space Command a oggi,
02:04
I becamedivenne a systemssistemi engineeringegnere,
41
112280
1696
sono un ingegnere sistemista,
02:06
and recentlyrecentemente I was drawndisegnato
into an engineeringingegneria problemproblema
42
114000
2736
e da poco sono stato coinvolto
in un problema d'ingegneria
02:08
associatedassociato with NASA'sDella NASA missionmissione to MarsMars.
43
116760
2576
associato alla spedizione NASA su Marte.
02:11
Now, in spacespazio flightsvoli to the MoonLuna,
44
119360
2496
Nelle spedizioni verso la Luna,
02:13
we can relyfare affidamento uponsu
missionmissione controlcontrollo in HoustonHouston
45
121880
3136
possiamo affidarci
al centro di controllo di Houston
02:17
to watch over all aspectsaspetti of a flightvolo.
46
125040
1976
perché sorvegli la spedizione.
02:19
HoweverTuttavia, MarsMars is 200 timesvolte furtherulteriore away,
47
127040
3536
In ogni caso, Marte è 200 volte
più lontano,
02:22
and as a resultrisultato it takes
on averagemedia 13 minutesminuti
48
130600
3216
e perciò ci vogliono in media
13 minuti
02:25
for a signalsegnale to travelviaggio
from the EarthTerra to MarsMars.
49
133840
3136
perché un segnale arrivi
dalla Terra a Marte.
02:29
If there's troubleguaio,
there's not enoughabbastanza time.
50
137000
3400
Se si verifica un problema,
non c'è abbastanza tempo.
02:32
And so a reasonableragionevole engineeringingegneria solutionsoluzione
51
140840
2496
E quindi una soluzione ingegneristica
ragionevole
02:35
callschiamate for us to put missionmissione controlcontrollo
52
143360
2576
ci chiama a mettere dispositivi
di controllo
02:37
insidedentro the wallsmuri of the OrionOrion spacecraftnavicella spaziale.
53
145960
3016
dentro la navicella Orion.
02:41
AnotherUn altro fascinatingaffascinante ideaidea
in the missionmissione profileprofilo
54
149000
2896
Un'altra affascinante idea per le missioni
02:43
placesposti humanoidumanoide robotsrobot
on the surfacesuperficie of MarsMars
55
151920
2896
è piazzare robot umanoidi
sulla superficie di Marte
02:46
before the humansgli esseri umani themselvesloro stessi arrivearrivo,
56
154840
1856
prima che vi arrivino gli esseri umani,
02:48
first to buildcostruire facilitiesstrutture
57
156720
1656
affinché facilitino il lavoro
02:50
and laterdopo to serveservire as collaborativecollaborativo
membersmembri of the sciencescienza teamsquadra.
58
158400
3360
e collaborino
con la squadra scientifica.
02:55
Now, as I lookedguardato at this
from an engineeringingegneria perspectiveprospettiva,
59
163400
2736
Ora, lavorando
da una prospettiva ingegneristica,
02:58
it becamedivenne very clearchiaro to me
that what I needednecessaria to architectarchitetto
60
166160
3176
fu molto chiaro per me che ciò
che dovevo architettare
03:01
was a smartinteligente, collaborativecollaborativo,
61
169360
2176
era un'intelligenza artificiale
brillante, collaborativa,
socialmente ragionevole.
03:03
sociallysocialmente intelligentintelligente
artificialartificiale intelligenceintelligenza.
62
171560
2376
03:05
In other wordsparole, I needednecessaria to buildcostruire
something very much like a HALHAL
63
173960
4296
In altre parole, dovevo creare
qualcosa molto simile ad HAL
03:10
but withoutsenza the homicidalomicida tendenciestendenze.
64
178280
2416
ma senza le sue tendenze omicide.
03:12
(LaughterRisate)
65
180720
1360
(Risate)
03:14
Let's pausepausa for a momentmomento.
66
182920
1816
Fermiamoci per un momento.
03:16
Is it really possiblepossibile to buildcostruire
an artificialartificiale intelligenceintelligenza like that?
67
184760
3896
È davvero possibile costruire
un'intelligenza artificiale come quella?
03:20
ActuallyIn realtà, it is.
68
188680
1456
In effetti sì.
03:22
In manymolti waysmodi,
69
190160
1256
Sotto molti aspetti,
03:23
this is a harddifficile engineeringingegneria problemproblema
70
191440
1976
è un complesso problema ingegneristico
03:25
with elementselementi of AIAI,
71
193440
1456
con elementi di IA,
03:26
not some wetbagnato haircapelli ballpalla of an AIAI problemproblema
that needsesigenze to be engineeredingegnerizzato.
72
194920
4696
non un inestricabile problema di IA
che ha bisogno dell'ingegneria.
03:31
To paraphraseparafrasi AlanAlan TuringTuring,
73
199640
2656
Parafrasando Alan Turing,
03:34
I'm not interestedinteressato
in buildingcostruzione a sentientsenziente machinemacchina.
74
202320
2376
non voglio costruire
una macchina senziente.
03:36
I'm not buildingcostruzione a HALHAL.
75
204720
1576
Non sto costruendo un HAL.
03:38
All I'm after is a simplesemplice braincervello,
76
206320
2416
Ciò che cerco è un semplice cervello,
03:40
something that offersofferte
the illusionillusione of intelligenceintelligenza.
77
208760
3120
qualcosa che offra l'illusione
dell'intelligenza.
03:45
The artarte and the sciencescienza of computinginformatica
have come a long way
78
213000
3136
L'arte e la scienza dell'elaborazione dati
ha fatto molta strada
03:48
sinceda HALHAL was onscreensullo schermo,
79
216160
1496
da quando è apparso HAL,
03:49
and I'd imagineimmaginare if his inventorinventore
DrDr. ChandraChandra were here todayoggi,
80
217680
3216
e immagino che se il suo inventore,
il Dott. Chandra, fosse qui oggi
03:52
he'daveva have a wholetotale lot of questionsle domande for us.
81
220920
2336
avrebbe un sacco di domande per noi.
03:55
Is it really possiblepossibile for us
82
223280
2096
È davvero possibile per noi
03:57
to take a systemsistema of millionsmilioni
uponsu millionsmilioni of devicesdispositivi,
83
225400
4016
prendere un sistema di milioni
e milioni di dispositivi,
04:01
to readleggere in theirloro datadati streamsflussi,
84
229440
1456
leggere le loro sequenze dati,
04:02
to predictpredire theirloro failuresfallimenti
and actatto in advanceavanzare?
85
230920
2256
prevedere i loro fallimenti
e azioni in anticipo?
04:05
Yes.
86
233200
1216
Sì.
Possiamo costruire sistemi che conversino
con noi in linguaggio naturale?
04:06
Can we buildcostruire systemssistemi that converseCONVERSE
with humansgli esseri umani in naturalnaturale languageLingua?
87
234440
3176
04:09
Yes.
88
237640
1216
Sì.
04:10
Can we buildcostruire systemssistemi
that recognizericonoscere objectsoggetti, identifyidentificare emotionsemozioni,
89
238880
2976
Sistemi che riconoscano oggetti,
identifichino emozioni,
04:13
emoteeMote themselvesloro stessi,
playgiocare gamesi giochi and even readleggere lipslabbra?
90
241880
3376
si emozionino a loro volta,
giochino e leggano persino il labiale?
04:17
Yes.
91
245280
1216
Sì.
04:18
Can we buildcostruire a systemsistema that setsimposta goalsobiettivi,
92
246520
2136
Un sistema che ponga degli obiettivi,
04:20
that carriestrasporta out planspiani againstcontro those goalsobiettivi
and learnsImpara alonglungo the way?
93
248680
3616
che pianifichi in base ad essi
e che impari strada facendo?
04:24
Yes.
94
252320
1216
Sì.
04:25
Can we buildcostruire systemssistemi
that have a theoryteoria of mindmente?
95
253560
3336
Costruire sistemi che abbiano
una teoria della mente?
04:28
This we are learningapprendimento to do.
96
256920
1496
Stiamo imparando a farlo.
04:30
Can we buildcostruire systemssistemi that have
an ethicaletico and moralmorale foundationfondazione?
97
258440
3480
Possiamo costruire sistemi che abbiano
un'etica e una morale?
04:34
This we mustdovere learnimparare how to do.
98
262480
2040
Dobbiamo imparare a farlo.
04:37
So let's acceptaccettare for a momentmomento
99
265360
1376
Accettiamo per un momento
04:38
that it's possiblepossibile to buildcostruire
suchcome an artificialartificiale intelligenceintelligenza
100
266760
2896
che si possa costruire una simile
intelligenza artificiale
04:41
for this kindgenere of missionmissione and othersaltri.
101
269680
2136
per questo tipo di missioni o per altre.
04:43
The nextIl prossimo questiondomanda
you mustdovere askChiedere yourselfte stesso is,
102
271840
2536
La domanda successiva che dovete porvi è:
04:46
should we fearpaura it?
103
274400
1456
dovremmo averne paura?
04:47
Now, everyogni newnuovo technologytecnologia
104
275880
1976
Qualsiasi nuova tecnologia
04:49
bringsporta with it
some measuremisurare of trepidationtrepidazione.
105
277880
2896
porta con sé un po' di apprensione.
04:52
When we first saw carsautomobili,
106
280800
1696
Quando arrivarono le prime auto,
04:54
people lamentedsi lamentava that we would see
the destructiondistruzione of the familyfamiglia.
107
282520
4016
la gente temeva di assistere
alla distruzione della famiglia.
04:58
When we first saw telephonestelefoni come in,
108
286560
2696
Quando arrivarono i telefoni,
05:01
people were worriedpreoccupato it would destroydistruggere
all civilcivile conversationconversazione.
109
289280
2896
si preoccupò per la fine
della conversazione civile.
05:04
At a pointpunto in time we saw
the writtenscritto wordparola becomediventare pervasivepervasivo,
110
292200
3936
E, quando assistette alla
diffusione della scrittura,
05:08
people thought we would loseperdere
our abilitycapacità to memorizeimparare a memoria.
111
296160
2496
la gente pensò di perdere
la capacità di memorizzare.
05:10
These things are all truevero to a degreegrado,
112
298680
2056
Tutto questo è vero
fino a un certo punto,
05:12
but it's alsoanche the casecaso
that these technologiestecnologie
113
300760
2416
ma si dà anche il caso
che queste tecnologie
05:15
broughtportato to us things
that extendedesteso the humanumano experienceEsperienza
114
303200
3376
ci abbiano portato cose
che hanno allargato l'esperienza umana
05:18
in some profoundprofondo waysmodi.
115
306600
1880
profondamente.
05:21
So let's take this a little furtherulteriore.
116
309840
2280
Approfondiamo la questione.
05:25
I do not fearpaura the creationcreazione
of an AIAI like this,
117
313120
4736
Non ho paura della creazione di un'IA
come questa,
05:29
because it will eventuallyinfine
embodyincorporare some of our valuesvalori.
118
317880
3816
perché alla fine incarnerà alcuni
dei nostri valori.
05:33
ConsiderPrendere in considerazione this: buildingcostruzione a cognitiveconoscitivo systemsistema
is fundamentallyfondamentalmente differentdiverso
119
321720
3496
Considerate questo: costruire
un sistema cognitivo è molto diverso
05:37
than buildingcostruzione a traditionaltradizionale
software-intensivesoftware-intensive systemsistema of the pastpassato.
120
325240
3296
dal costruire un sistema software intensivo
tradizionale del passato.
05:40
We don't programprogramma them. We teachinsegnare them.
121
328560
2456
Non li programmiamo ma insegniamo loro.
05:43
In orderordine to teachinsegnare a systemsistema
how to recognizericonoscere flowersfiori,
122
331040
2656
Per insegnare a un sistema
a riconoscere i fiori,
05:45
I showmostrare it thousandsmigliaia of flowersfiori
of the kindstipi I like.
123
333720
3016
gli mostro migliaia di fiori, dei tipi
che piacciono a me.
05:48
In orderordine to teachinsegnare a systemsistema
how to playgiocare a gamegioco --
124
336760
2256
Per insegnare a un sistema
a giocare a un gioco --
05:51
Well, I would. You would, too.
125
339040
1960
beh lo farei, farei anche questo.
05:54
I like flowersfiori. Come on.
126
342600
2040
Mi piacciono i fiori. Andiamo.
05:57
To teachinsegnare a systemsistema
how to playgiocare a gamegioco like Go,
127
345440
2856
Per insegnare a un sistema a giocare
a un gioco come Go,
06:00
I'd have it playgiocare thousandsmigliaia of gamesi giochi of Go,
128
348320
2056
devo fargli fare migliaia di partite a Go,
06:02
but in the processprocesso I alsoanche teachinsegnare it
129
350400
1656
e nel frattempo gli insegno anche
06:04
how to discerndiscernere
a good gamegioco from a badcattivo gamegioco.
130
352080
2416
a distinguere un buon gioco
da un gioco cattivo.
06:06
If I want to createcreare an artificiallyartificialmente
intelligentintelligente legallegale assistantAssistente,
131
354520
3696
Se voglio creare un assistente legale
artificialmente intelligente,
06:10
I will teachinsegnare it some corpuscorpo of lawlegge
132
358240
1776
gli insegnerò il corpus legislativo
06:12
but at the samestesso time I am fusingvetrofusione with it
133
360040
2856
ma allo stesso tempo gli infonderò
06:14
the sensesenso of mercymisericordia and justicegiustizia
that is partparte of that lawlegge.
134
362920
2880
il senso di pietà e giustizia
che è parte di quella legge.
06:18
In scientificscientifico termscondizioni,
this is what we call groundterra truthverità,
135
366560
2976
In termini scientifici definiamo tutto
questo "ground truth",
06:21
and here'secco the importantimportante pointpunto:
136
369560
2016
e questo è il punto fondamentale:
06:23
in producingproduzione these machinesmacchine,
137
371600
1456
nel produrre queste macchine,
06:25
we are thereforeperciò teachinginsegnamento them
a sensesenso of our valuesvalori.
138
373080
3416
insegniamo anche loro
il senso dei nostri valori.
06:28
To that endfine, I trustfiducia
an artificialartificiale intelligenceintelligenza
139
376520
3136
Con questo fine, mi fido
di un'intelligenza artificiale
06:31
the samestesso, if not more,
as a humanumano who is well-trainedben addestrato.
140
379680
3640
come, se non di più, mi fido
di un essere umano ben istruito.
06:36
But, you maypuò askChiedere,
141
384080
1216
Ma, potreste chiedere,
06:37
what about roguecanaglia agentsagenti,
142
385320
2616
che ne è degli agenti corrotti,
06:39
some well-fundedben finanziata
nongovernmentnon governative organizationorganizzazione?
143
387960
3336
di qualche organizzazione non governativa
ben finanziata?
06:43
I do not fearpaura an artificialartificiale intelligenceintelligenza
in the handmano of a lonesolitario wolflupo.
144
391320
3816
Non ho paura di un'intelligenza
artificiale in mano a un lupo solitario.
06:47
ClearlyChiaramente, we cannotnon può protectproteggere ourselvesnoi stessi
againstcontro all randomcasuale actsatti of violenceviolenza,
145
395160
4536
È ovvio, non possiamo proteggerci
da tutti gli arbitrari atti di violenza,
06:51
but the realityla realtà is suchcome a systemsistema
146
399720
2136
ma la realtà è che un simile sistema
06:53
requiresrichiede substantialsostanziale trainingformazione
and subtlesottile trainingformazione
147
401880
3096
richiede un allenamento tanto acuto
06:57
farlontano beyondal di là the resourcesrisorse of an individualindividuale.
148
405000
2296
da andare ben oltre le risorse
di un individuo.
06:59
And furthermoreinoltre,
149
407320
1216
E inoltre,
07:00
it's farlontano more than just injectingl'iniezione
an internetInternet virusvirus to the worldmondo,
150
408560
3256
è molto più che iniettare un virus
via internet al mondo,
07:03
where you pushspingere a buttonpulsante,
all of a suddenimprovviso it's in a millionmilione placesposti
151
411840
3096
dove premi un bottone e subito
lo ritrovi in milioni di posti
07:06
and laptopscomputer portatili startinizio blowingsoffiando up
all over the placeposto.
152
414960
2456
e i computer iniziano ovunque
ad andare in tilt.
07:09
Now, these kindstipi of substancessostanze
are much largerpiù grandi,
153
417440
2816
Questo tipo di elementi
è molto più complesso
07:12
and we'llbene certainlycertamente see them comingvenuta.
154
420280
1715
e certamente lo sperimenteremo.
07:14
Do I fearpaura that suchcome
an artificialartificiale intelligenceintelligenza
155
422520
3056
Ho paura che una simile
intelligenza artificiale
07:17
mightpotrebbe threatenminacciare all of humanityumanità?
156
425600
1960
possa minacciare tutta l'umanità?
07:20
If you look at moviesfilm
suchcome as "The MatrixMatrice," "MetropolisMetropoli,"
157
428280
4376
Se guardate film come
"Matrix", "Metropolis",
07:24
"The TerminatorTerminator,"
showsSpettacoli suchcome as "WestworldWestworld,"
158
432680
3176
"Terminator", show come
"Westworld",
07:27
they all speakparlare of this kindgenere of fearpaura.
159
435880
2136
tutti parlano di questo tipo di paura.
07:30
IndeedInfatti, in the booklibro "SuperintelligenceSuperintelligenza"
by the philosopherfilosofo NickNick BostromBostrom,
160
438040
4296
Infatti, nel libro "Superintelligence"
del filosofo Nick Bostrom,
07:34
he pickspicconi up on this themetema
161
442360
1536
l'autore considera questo tema
07:35
and observesosserva that a superintelligencesuperintelligenza
mightpotrebbe not only be dangerouspericoloso,
162
443920
4016
e osserva che una super intelligenza
potrebbe non solo essere pericolosa,
07:39
it could representrappresentare an existentialesistenziale threatminaccia
to all of humanityumanità.
163
447960
3856
ma rappresentare anche una minaccia
esistenziale per tutta l'umanità.
07:43
DrDr. Bostrom'sDi Bostrom basicdi base argumentdiscussione
164
451840
2216
La principale argomentazione del
Dott. Bostrom
07:46
is that suchcome systemssistemi will eventuallyinfine
165
454080
2736
è che tali sistemi potrebbero prima o poi
07:48
have suchcome an insatiableinsaziabile
thirstsete for informationinformazione
166
456840
3256
avere una sete tale di informazioni
07:52
that they will perhapsForse learnimparare how to learnimparare
167
460120
2896
che potrebbero forse imparare
come si impara
07:55
and eventuallyinfine discoverscoprire
that they maypuò have goalsobiettivi
168
463040
2616
e anche scoprire che potrebbero
avere obiettivi
07:57
that are contrarycontrario to humanumano needsesigenze.
169
465680
2296
contrari ai bisogni umani.
08:00
DrDr. BostromBostrom has a numbernumero of followersseguaci.
170
468000
1856
Bostrom ha un gran numero
di seguaci.
08:01
He is supportedsupportato by people
suchcome as ElonElon MuskMuschio and StephenStephen HawkingHawking.
171
469880
4320
È supportato da persone come
Elon Musk e Stephen Hawking.
08:06
With all duedovuto respectrispetto
172
474880
2400
Con tutto il rispetto dovuto
08:10
to these brilliantbrillante mindsmenti,
173
478160
2016
a queste menti brillanti,
08:12
I believe that they
are fundamentallyfondamentalmente wrongsbagliato.
174
480200
2256
credo che siano gravemente in errore.
08:14
Now, there are a lot of piecespezzi
of DrDr. Bostrom'sDi Bostrom argumentdiscussione to unpackscompattare,
175
482480
3176
Ci sarebbero molte parti della teoria
di Bostrom da analizzare,
08:17
and I don't have time to unpackscompattare them all,
176
485680
2136
e non ho il tempo di analizzarle tutte,
08:19
but very brieflybrevemente, considerprendere in considerazione this:
177
487840
2696
ma molto brevemente, considerate questo:
08:22
supersuper knowingsapendo is very differentdiverso
than supersuper doing.
178
490560
3736
una grande conoscenza è diversa
da una grande capacità di azione.
08:26
HALHAL was a threatminaccia to the DiscoveryScoperta crewequipaggio
179
494320
1896
HAL era una minaccia per l'equipaggio
08:28
only insofarnella misura in cui as HALHAL commandedcomandato
all aspectsaspetti of the DiscoveryScoperta.
180
496240
4416
solo finché controllava tutti gli aspetti
del Discovery.
08:32
So it would have to be
with a superintelligencesuperintelligenza.
181
500680
2496
Quindi avrebbe dovuto avere
una super intelligenza.
08:35
It would have to have dominionDominion
over all of our worldmondo.
182
503200
2496
Avrebbe dovuto dominare tutto
il mondo.
08:37
This is the stuffcose of SkynetSkynet
from the moviefilm "The TerminatorTerminator"
183
505720
2816
Questa è la squadra Skynet dal
film "Terminator"
08:40
in whichquale we had a superintelligencesuperintelligenza
184
508560
1856
in cui abbiamo una super intelligenza
08:42
that commandedcomandato humanumano will,
185
510440
1376
che domina la volontà umana
08:43
that directeddirette everyogni devicedispositivo
that was in everyogni cornerangolo of the worldmondo.
186
511840
3856
e ogni congegno in ogni parte del mondo.
08:47
PracticallyPraticamente speakingA proposito di,
187
515720
1456
In pratica,
08:49
it ain'tnon è gonna happenaccadere.
188
517200
2096
questo non succederà.
08:51
We are not buildingcostruzione AIsAIs
that controlcontrollo the weathertempo metereologico,
189
519320
3056
Non stiamo costruendo IA
che controllino il meteo,
08:54
that directdiretto the tidesmaree,
190
522400
1336
le maree,
08:55
that commandcomando us
capriciouscapriccioso, chaoticcaotico humansgli esseri umani.
191
523760
3376
che comandino su noi capricciosi
e caotici umani.
08:59
And furthermoreinoltre, if suchcome
an artificialartificiale intelligenceintelligenza existedesistito,
192
527160
3896
Inoltre, se una simile intelligenza
artificiale esistesse,
09:03
it would have to competecompetere
with humanumano economieseconomie,
193
531080
2936
dovrebbe competere con le economie
degli esseri umani,
09:06
and therebyin tal modo competecompetere for resourcesrisorse with us.
194
534040
2520
e quindi competere con noi
per le risorse disponibili.
09:09
And in the endfine --
195
537200
1216
E infine --
09:10
don't tell SiriSiri this --
196
538440
1240
non ditelo a Siri --
09:12
we can always unplugScollegare them.
197
540440
1376
possiamo sempre disattivarli.
09:13
(LaughterRisate)
198
541840
2120
(Risate)
09:17
We are on an incredibleincredibile journeyviaggio
199
545360
2456
Siamo parte di un incredibile viaggio
09:19
of coevolutioncoevoluzione with our machinesmacchine.
200
547840
2496
di co-evoluzione con altre macchine.
09:22
The humansgli esseri umani we are todayoggi
201
550360
2496
Gli esseri umani che siamo oggi
09:24
are not the humansgli esseri umani we will be then.
202
552880
2536
non sono quelli che saremo in futuro.
09:27
To worrypreoccupazione now about the risesalire
of a superintelligencesuperintelligenza
203
555440
3136
Preoccuparsi ora della minaccia
di una super-intelligenza
09:30
is in manymolti waysmodi a dangerouspericoloso distractiondistrazione
204
558600
3056
è per molti aspetti
una distrazione pericolosa
09:33
because the risesalire of computinginformatica itselfsi
205
561680
2336
perché l'incremento della
computerizzazione
09:36
bringsporta to us a numbernumero
of humanumano and societaldella società issuesproblemi
206
564040
3016
ci presenta una quantità di questioni
umane e sociali
09:39
to whichquale we mustdovere now attendpartecipare.
207
567080
1640
di cui adesso dobbiamo occuparci.
09:41
How shalldeve I bestmigliore organizeorganizzare societysocietà
208
569360
2816
Come posso organizzare al meglio
la società
09:44
when the need for humanumano laborlavoro diminishesdiminuisce?
209
572200
2336
quando diminuirà la necessità
del lavoro umano?
09:46
How can I bringportare understandingcomprensione
and educationeducazione throughoutper tutto the globeglobo
210
574560
3816
Come posso fornire al mondo
conoscenza ed educazione
09:50
and still respectrispetto our differencesdifferenze?
211
578400
1776
rispettando le nostre differenze?
09:52
How mightpotrebbe I extendestendere and enhanceaccrescere humanumano life
throughattraverso cognitiveconoscitivo healthcareassistenza sanitaria?
212
580200
4256
Come posso estendere e migliorare la vita
umana attraverso la salute cognitiva?
09:56
How mightpotrebbe I use computinginformatica
213
584480
2856
Come posso usare la computerizzazione
09:59
to help take us to the starsstelle?
214
587360
1760
per raggiungere le stelle?
10:01
And that's the excitingemozionante thing.
215
589760
2040
Ed è questa la cosa eccitante.
10:04
The opportunitiesopportunità to use computinginformatica
216
592400
2336
Le opportunità di elaborare dati
10:06
to advanceavanzare the humanumano experienceEsperienza
217
594760
1536
per affinare l'esperienza umana
10:08
are withinentro our reachraggiungere,
218
596320
1416
sono alla nostra portata,
10:09
here and now,
219
597760
1856
qui e adesso,
10:11
and we are just beginninginizio.
220
599640
1680
e siamo solo all'inizio.
10:14
Thank you very much.
221
602280
1216
Grazie mille.
10:15
(ApplauseApplausi)
222
603520
4286
(Applausi)
Translated by Rosalia Mazza
Reviewed by Maria Carmina Distratto

▲Back to top

ABOUT THE SPEAKER
Grady Booch - Scientist, philosopher
IBM's Grady Booch is shaping the future of cognitive computing by building intelligent systems that can reason and learn.

Why you should listen

When he was 13, Grady Booch saw 2001: A Space Odyssey in the theaters for the first time. Ever since, he's been trying to build Hal (albeit one without the homicidal tendencies). A scientist, storyteller and philosopher, Booch is Chief Scientist for Software Engineering as well as Chief Scientist for Watson/M at IBM Research, where he leads IBM's research and development for embodied cognition. Having originated the term and the practice of object-oriented design, he is best known for his work in advancing the fields of software engineering and software architecture.

A co-author of the Unified Modeling Language (UML), a founding member of the Agile Allianc, and a founding member of the Hillside Group, Booch has published six books and several hundred technical articles, including an ongoing column for IEEE Software. He's also a trustee for the Computer History Museum, an IBM Fellow, an ACM Fellow and IEEE Fellow. He has been awarded the Lovelace Medal and has given the Turing Lecture for the BCS, and was recently named an IEEE Computer Pioneer.

Booch is currently deeply involved in the development of cognitive systems and is also developing a major trans-media documentary for public broadcast on the intersection of computing and the human experience.

More profile about the speaker
Grady Booch | Speaker | TED.com