ABOUT THE SPEAKER
Stuart Russell - AI expert
Stuart Russell wrote the standard text on AI; now he thinks deeply on AI's future -- and the future of us humans, too.

Why you should listen

Stuart Russell is a professor (and formerly chair) of Electrical Engineering and Computer Sciences at University of California at Berkeley. His book Artificial Intelligence: A Modern Approach (with Peter Norvig) is the standard text in AI; it has been translated into 13 languages and is used in more than 1,300 universities in 118 countries. His research covers a wide range of topics in artificial intelligence including machine learning, probabilistic reasoning, knowledge representation, planning, real-time decision making, multitarget tracking, computer vision, computational physiology, global seismic monitoring and philosophical foundations.

He also works for the United Nations, developing a new global seismic monitoring system for the nuclear-test-ban treaty. His current concerns include the threat of autonomous weapons and the long-term future of artificial intelligence and its relation to humanity.

More profile about the speaker
Stuart Russell | Speaker | TED.com
TED2017

Stuart Russell: 3 principles for creating safer AI

Stuart Russell: Come l'IA potrebbe renderci persone migliori

Filmed:
1,465,832 views

Come possiamo sfruttare il poter della super intelligente IA prevenendo allo stesso tempo la catastrofe della presa di potere dei robot? Mentre ci spostiamo sempre di più verso la creazione di macchine onniscienti, il pioniere di IA, Stuart Russell, sta lavorando su qualcosa di un po' diverso: robot insicuri. Ascoltate la sua visione sull'IA compatibile con gli umani che può risolvere i problemi usando il buonsenso, l'altruismo e altri valori profondamente umani.
- AI expert
Stuart Russell wrote the standard text on AI; now he thinks deeply on AI's future -- and the future of us humans, too. Full bio

Double-click the English transcript below to play the video.

00:12
This is LeeLee SedolSEDOL.
0
712
1552
Questo è Lee Sedol.
00:14
LeeLee SedolSEDOL is one of the world'sIl mondo di
greatestpiù grande Go playersGiocatori,
1
2288
3997
Lee Sedol è uno dei più grandi giocatori
di Go al mondo,
00:18
and he's havingavendo what my friendsamici
in SiliconSilicio ValleyValle call
2
6309
2885
e sta avendo quello che i miei amici
a Silicon Valley dicono
00:21
a "HolySanto CowMucca" momentmomento --
3
9218
1510
un momento "accidenti" --
00:22
(LaughterRisate)
4
10752
1073
(Risate)
00:23
a momentmomento where we realizerendersi conto
5
11849
2188
un momento in cui
ci rendiamo conto
00:26
that AIAI is actuallyin realtà progressingprogredendo
a lot fasterPiù veloce than we expectedprevisto.
6
14061
3296
che l'IA sta progredendo
molto più rapidamente del previsto.
00:30
So humansgli esseri umani have lostperduto on the Go boardtavola.
What about the realvero worldmondo?
7
18154
3047
Gli umani hanno perso a Go.
E nel mondo reale?
00:33
Well, the realvero worldmondo is much biggerpiù grande,
8
21225
2100
Il mondo reale è molto più grande,
00:35
much more complicatedcomplicato than the Go boardtavola.
9
23349
2249
molto più complesso del gioco Go.
00:37
It's a lot lessDi meno visiblevisibile,
10
25622
1819
È molto meno evidente,
00:39
but it's still a decisiondecisione problemproblema.
11
27465
2038
ma è comunque un problema di decisione
00:42
And if we think about some
of the technologiestecnologie
12
30948
2321
E se pensiamo ad alcune delle tecnologie
00:45
that are comingvenuta down the pikeluccio ...
13
33293
1749
che stanno bollendo in pentola...
00:47
NorikoNoriko [AraiArai] mentionedmenzionato that readinglettura
is not yetancora happeningavvenimento in machinesmacchine,
14
35738
4335
Noriko [Arai] ha detto che le macchine
non sono ancora in grado di leggere,
00:52
at leastmeno with understandingcomprensione.
15
40097
1500
o per lo meno di capire bene.
00:53
But that will happenaccadere,
16
41621
1536
Ma succederà,
00:55
and when that happensaccade,
17
43181
1771
e quando succederà,
00:56
very soonpresto afterwardsin seguito,
18
44976
1187
a breve,
00:58
machinesmacchine will have readleggere everything
that the humanumano racegara has ever writtenscritto.
19
46187
4572
le macchine dopo avranno letto tutto ciò
che gli umani hanno scritto.
01:03
And that will enableabilitare machinesmacchine,
20
51850
2030
E ciò permetterà alle macchine,
01:05
alonglungo with the abilitycapacità to look
furtherulteriore aheadavanti than humansgli esseri umani can,
21
53904
2920
insieme all'abilità di guardare
molto più lontano degli umani,
01:08
as we'venoi abbiamo alreadygià seenvisto in Go,
22
56848
1680
come abbiamo già visto nel Go,
01:10
if they alsoanche have accessaccesso
to more informationinformazione,
23
58552
2164
se avranno anche accesso
a più informazioni,
01:12
they'llfaranno be ablecapace to make better decisionsdecisioni
in the realvero worldmondo than we can.
24
60740
4268
potranno prendere decisioni migliori
nel mondo reale rispetto a noi.
01:18
So is that a good thing?
25
66792
1606
È una cosa buona?
01:21
Well, I hopesperanza so.
26
69898
2232
Speriamo.
01:26
Our entireintero civilizationciviltà,
everything that we valuevalore,
27
74694
3255
Tutta la nostra civiltà,
tutto ciò a cui diamo valore,
01:29
is basedbasato on our intelligenceintelligenza.
28
77973
2068
è basato sulla nostra intelligenza.
01:32
And if we had accessaccesso
to a lot more intelligenceintelligenza,
29
80065
3694
E se avessimo accesso
a molta più intelligenza,
01:35
then there's really no limitlimite
to what the humanumano racegara can do.
30
83783
3302
allora non c'è davvero un limite
a ciò che la razza umana può fare.
01:40
And I think this could be,
as some people have describeddescritta it,
31
88665
3325
E credo che ciò possa essere,
come alcuni lo hanno descritto,
01:44
the biggestmaggiore eventevento in humanumano historystoria.
32
92014
2016
l'evento più grande nella storia umana.
01:48
So why are people sayingdetto things like this,
33
96665
2829
Quindi perché le persone dicono cose come
01:51
that AIAI mightpotrebbe spellincantesimo the endfine
of the humanumano racegara?
34
99518
2876
"L'IA potrebbe segnare la fine
della razza umana"?
01:55
Is this a newnuovo thing?
35
103438
1659
È una cosa nuova?
01:57
Is it just ElonElon MuskMuschio and BillBill GatesCancelli
and StephenStephen HawkingHawking?
36
105121
4110
Sono solo Elon Musk e Bill Gates
e Stephen Hawking?
02:01
ActuallyIn realtà, no. This ideaidea
has been around for a while.
37
109953
3262
In realtà no. Questa idea
circola da un po'.
02:05
Here'sQui è a quotationQuotazione:
38
113239
1962
C'è una citazione:
02:07
"Even if we could keep the machinesmacchine
in a subservientservili positionposizione,
39
115225
4350
"Anche se potessimo tenere le macchine
in una posizione subordinata,
02:11
for instanceesempio, by turningsvolta off the powerenergia
at strategicstrategico momentsmomenti" --
40
119599
2984
ad esempio, staccando la corrente
in momenti strategici" --
02:14
and I'll come back to that
"turningsvolta off the powerenergia" ideaidea laterdopo on --
41
122607
3237
e ritornerò più tardi su quell'idea
di "staccare la corrente"
02:17
"we should, as a speciesspecie,
feel greatlymolto humbledumiliato."
42
125868
2804
"dovremmo, come specie,
sentirci fortemente umiliati."
02:22
So who said this?
This is AlanAlan TuringTuring in 1951.
43
130177
3448
Chi l'ha detto?
Questo è Alan Turing nel 1951.
02:26
AlanAlan TuringTuring, as you know,
is the fatherpadre of computercomputer sciencescienza
44
134300
2763
Alan Turing, come sapete,
è il padre dell'informatica
02:29
and in manymolti waysmodi,
the fatherpadre of AIAI as well.
45
137087
3048
e per molti versi,
anche il padre dell'IA.
02:33
So if we think about this problemproblema,
46
141239
1882
Se pensiamo a questo problema,
02:35
the problemproblema of creatingla creazione di something
more intelligentintelligente than your ownproprio speciesspecie,
47
143145
3787
il problema di creare qualcosa
di più intelligente della nostra specie,
02:38
we mightpotrebbe call this "the gorillaGorilla problemproblema,"
48
146956
2622
potremmo chiamarlo
il "problema del gorilla",
02:42
because gorillas'Gorilla ancestorsantenati did this
a fewpochi millionmilione yearsanni agofa,
49
150345
3750
perché gli antenati dei gorilla
lo hanno fatto milioni di anni fa,
02:46
and now we can askChiedere the gorillasgorilla:
50
154119
1745
e adesso possiamo chiedere loro:
02:48
Was this a good ideaidea?
51
156752
1160
è stata una buona idea?
02:49
So here they are havingavendo a meetingincontro
to discussdiscutere whetherse it was a good ideaidea,
52
157936
3530
Qui si stanno incontrando
per discutere se è stata una buona idea,
02:53
and after a little while,
they concludeconcludere, no,
53
161490
3346
e dopo un po',
arrivano alla conclusione: no,
02:56
this was a terribleterribile ideaidea.
54
164860
1345
è stata un'idea terribile.
02:58
Our speciesspecie is in diredire straitsstretto.
55
166229
1782
La nostra specie è in difficoltà.
03:00
In factfatto, you can see the existentialesistenziale
sadnesstristezza in theirloro eyesocchi.
56
168538
4263
In effetti, potete vedere
la tristezza esistenziale nei loro occhi.
03:04
(LaughterRisate)
57
172825
1640
(Risate)
03:06
So this queasynausea feelingsensazione that makingfabbricazione
something smarterpiù intelligente than your ownproprio speciesspecie
58
174489
4840
La sensazione nauseante che fare qualcosa
di più intelligente della propria specie
03:11
is maybe not a good ideaidea --
59
179353
2365
forse non è una buona idea --
03:14
what can we do about that?
60
182488
1491
cosa possiamo fare?
03:16
Well, really nothing,
excepttranne stop doing AIAI,
61
184003
4767
Proprio nulla,
se non smettere di produrre IA,
03:20
and because of all
the benefitsbenefici that I mentionedmenzionato
62
188794
2510
e per tutti i benefici che ho citato,
03:23
and because I'm an AIAI researcherricercatore,
63
191328
1716
e siccome sono un ricercatore di IA,
03:25
I'm not havingavendo that.
64
193068
1791
non lo permetterò.
03:27
I actuallyin realtà want to be ablecapace
to keep doing AIAI.
65
195283
2468
In realtà voglio riuscire
a produrre ancora IA.
03:30
So we actuallyin realtà need to nailchiodo down
the problemproblema a bitpo more.
66
198615
2678
In realtà ci occorre
definire un po' di più il problema.
03:33
What exactlydi preciso is the problemproblema?
67
201317
1371
Qual è il vero problema?
03:34
Why is better AIAI possiblypossibilmente a catastrophecatastrofe?
68
202712
3246
Perché un'IA migliore è potenzialmente
una catastrofe?
03:39
So here'secco anotherun altro quotationQuotazione:
69
207398
1498
Ecco un'altra citazione:
03:41
"We had better be quiteabbastanza sure
that the purposescopo put into the machinemacchina
70
209935
3335
"Dovremmo esserne sicuri
che l'obiettivo inserito nella macchina
03:45
is the purposescopo whichquale we really desiredesiderio."
71
213294
2298
sia l'obiettivo che desideriamo davvero."
03:48
This was said by NorbertNorbert WienerWiener in 1960,
72
216282
3498
È stato detto da Norbert Wiener nel 1960,
03:51
shortlypoco after he watchedguardato
one of the very earlypresto learningapprendimento systemssistemi
73
219804
4002
subito dopo che aveva visto
uno dei primi sistemi di apprendimento
03:55
learnimparare to playgiocare checkersDama
better than its creatorCreatore.
74
223830
2583
imparare a giocare a scacchi
meglio del proprio creatore.
04:00
But this could equallyugualmente have been said
75
228602
2683
Ma potrebbe anche essere stato detto
04:03
by KingRe MidasMidas.
76
231309
1167
da Re Mida.
04:05
KingRe MidasMidas said, "I want everything
I touchtoccare to turnturno to goldoro,"
77
233083
3134
Re Mida disse, "Voglio che tutto ciò
che tocco diventi oro,"
04:08
and he got exactlydi preciso what he askedchiesto for.
78
236241
2473
e ottenne proprio quello che chiese.
04:10
That was the purposescopo
that he put into the machinemacchina,
79
238738
2751
Quello era l'obiettivo
che aveva inserito nella macchina,
04:13
so to speakparlare,
80
241513
1450
per così dire,
04:14
and then his foodcibo and his drinkbere
and his relativesparenti turnedtrasformato to goldoro
81
242987
3444
e poi il suo cibo, le sue bevande
e i suoi parenti diventarono oro
04:18
and he diedmorto in miserymiseria and starvationfame.
82
246455
2281
e morì in miseria e di fame.
04:22
So we'llbene call this
"the KingRe MidasMidas problemproblema"
83
250444
2341
Lo chiameremo
"problema di Re Mida"
04:24
of statingaffermando an objectiveobbiettivo
whichquale is not, in factfatto,
84
252809
3305
dichiarare un obiettivo
che non è, in realtà,
04:28
trulyveramente alignedallineati with what we want.
85
256138
2413
proprio conforme a ciò che vogliamo.
04:30
In modernmoderno termscondizioni, we call this
"the valuevalore alignmentallineamento problemproblema."
86
258575
3253
In termini moderni, lo chiamiamo
"problema di conformità dei valori."
04:37
PuttingMettendo in the wrongsbagliato objectiveobbiettivo
is not the only partparte of the problemproblema.
87
265047
3485
Dichiarare l'obiettivo sbagliato
non è l'unica parte del problema.
04:40
There's anotherun altro partparte.
88
268556
1152
C'è un'altra parte.
04:42
If you put an objectiveobbiettivo into a machinemacchina,
89
270160
1943
Se inserite un obiettivo in una macchina
04:44
even something as simplesemplice as,
"FetchFetch the coffeecaffè,"
90
272127
2448
anche qualcosa di semplice come
"Porta il caffè,"
04:47
the machinemacchina saysdice to itselfsi,
91
275908
1841
la macchina dice a se stessa,
04:50
"Well, how mightpotrebbe I failfallire
to fetchfetch the coffeecaffè?
92
278733
2623
"Be', come posso non riuscire
a portare il caffè?
04:53
SomeoneQualcuno mightpotrebbe switchinterruttore me off.
93
281380
1580
Qualcuno potrebbe spegnermi.
04:55
OK, I have to take stepspassaggi to preventimpedire that.
94
283645
2387
Ok, devo sapere come evitarlo.
04:58
I will disableDisable my 'off'off switchinterruttore.
95
286056
1906
Disattiverò il tasto "off".
05:00
I will do anything to defenddifendere myselfme stessa
againstcontro interferenceinterferenza
96
288534
2959
Farò di tutto per difendermi
dalle interferenze
05:03
with this objectiveobbiettivo
that I have been givendato."
97
291517
2629
con questo obiettivo
che mi è stato dato."
05:06
So this single-mindedrisoluto pursuitricerca
98
294170
2012
Quindi questa ricerca risoluta
05:09
in a very defensivedifensiva modemodalità
of an objectiveobbiettivo that is, in factfatto,
99
297213
2945
in modo molto difensivo di un obiettivo
che non è, in realtà,
05:12
not alignedallineati with the truevero objectivesobiettivi
of the humanumano racegara --
100
300182
2814
conforme ai veri obiettivi
della razza umana --
05:16
that's the problemproblema that we faceviso.
101
304122
1862
questo è il problema che affrontiamo.
05:19
And in factfatto, that's the high-valuealto valore
takeawaya portar via from this talk.
102
307007
4767
Infatti, è questo il succo
di questa conferenza.
05:23
If you want to rememberricorda one thing,
103
311798
2055
Se volete ricordare una cosa,
05:25
it's that you can't fetchfetch
the coffeecaffè if you're deadmorto.
104
313877
2675
è che voi non potrete
portare il caffè se siete morti.
05:28
(LaughterRisate)
105
316576
1061
(Risate)
05:29
It's very simplesemplice. Just rememberricorda that.
RepeatRipetere it to yourselfte stesso threetre timesvolte a day.
106
317661
3829
È molto semplice. Ricordate solo questo.
Ripetetevelo tre volte al giorno.
05:33
(LaughterRisate)
107
321514
1821
(Risate)
05:35
And in factfatto, this is exactlydi preciso the plottracciare
108
323359
2754
E in effetti, questa è
esattamente la trama
05:38
of "2001: [A SpaceSpazio OdysseyOdissea]"
109
326137
2648
di "2001: Odissea nello spazio"
05:41
HALHAL has an objectiveobbiettivo, a missionmissione,
110
329226
2090
HAL ha un obiettivo, una missione,
05:43
whichquale is not alignedallineati
with the objectivesobiettivi of the humansgli esseri umani,
111
331340
3732
che non è conforme
all'obiettivo degli umani,
05:47
and that leadsconduce to this conflictconflitto.
112
335096
1810
e che porta a questo conflitto.
05:49
Now fortunatelyfortunatamente, HALHAL
is not superintelligentsuper intelligente.
113
337494
2969
Adesso per fortuna, HAL
non è super intelligente.
05:52
He's prettybella smartinteligente,
but eventuallyinfine DaveDave outwitsoutwits him
114
340487
3587
È abbastanza astuto
ma alla fine Dave lo batte
05:56
and managesgestisce to switchinterruttore him off.
115
344098
1849
e riesce a spegnerlo.
06:01
But we mightpotrebbe not be so luckyfortunato.
116
349828
1619
Ma possiamo non essere così fortunati.
06:08
So what are we going to do?
117
356193
1592
Quindi cosa faremo?
06:12
I'm tryingprovare to redefineridefinire AIAI
118
360371
2601
Sto cercando di ridefinire l'IA
06:14
to get away from this classicalclassica notionnozione
119
362996
2061
per fuggire da questa nozione classica
06:17
of machinesmacchine that intelligentlyin modo intelligente
pursueperseguire objectivesobiettivi.
120
365081
4567
di macchine che perseguono obiettivi
in modo intelligente.
06:22
There are threetre principlesi principi involvedcoinvolti.
121
370712
1798
Ci sono tre principi coinvolti.
06:24
The first one is a principleprincipio
of altruismaltruismo, if you like,
122
372534
3289
Il primo è un principio
di altruismo, se volete,
06:27
that the robot'sdi robot only objectiveobbiettivo
123
375847
3262
secondo cui l'unico obiettivo del robot
06:31
is to maximizemassimizzare the realizationrealizzazione
of humanumano objectivesobiettivi,
124
379133
4246
è massimizzare la realizzazione
degli obiettivi umani,
06:35
of humanumano valuesvalori.
125
383403
1390
dei valori umani.
06:36
And by valuesvalori here I don't mean
touchy-feelypermaloso-feely, goody-goodyGoody-Goody valuesvalori.
126
384817
3330
E con valori qui non intendo
valori sdolcinati, da santarellini.
06:40
I just mean whateverqualunque cosa it is
that the humanumano would preferpreferire
127
388171
3787
Intendo comunque vogliano
gli esseri umani
06:43
theirloro life to be like.
128
391982
1343
che sia la loro vita.
06:47
And so this actuallyin realtà violatesviola Asimov'sDi Asimov lawlegge
129
395364
2309
E in realtà ciò viola la legge di Asimov
06:49
that the robotrobot has to protectproteggere
its ownproprio existenceesistenza.
130
397697
2329
secondo cui il robot
deve tutelare la sua esistenza.
06:52
It has no interestinteresse in preservingconservazione
its existenceesistenza whatsoeverqualsiasi.
131
400050
3723
Non c'è alcun interesse
nel preservare la sua esistenza.
06:57
The secondsecondo lawlegge is a lawlegge
of humilityumiltà, if you like.
132
405420
3768
La seconda legge è una legge
di umiltà, se volete.
07:01
And this turnsgiri out to be really
importantimportante to make robotsrobot safesicuro.
133
409974
3743
E si rivela essere davvero importante
per rendere sicuri i robot.
07:05
It saysdice that the robotrobot does not know
134
413741
3142
Dice che il robot non sa
07:08
what those humanumano valuesvalori are,
135
416907
2028
quali sono questi valori umani,
07:10
so it has to maximizemassimizzare them,
but it doesn't know what they are.
136
418959
3178
quindi li deve massimizzare,
ma non sa cosa sono.
07:15
And that avoidsevita this problemproblema
of single-mindedrisoluto pursuitricerca
137
423254
2626
E questo evita questo problema
della caccia risoluta
07:17
of an objectiveobbiettivo.
138
425904
1212
di un obiettivo.
07:19
This uncertaintyincertezza turnsgiri out to be crucialcruciale.
139
427140
2172
Questa incertezza si rivela cruciale.
07:21
Now, in orderordine to be usefulutile to us,
140
429726
1639
Per essere utile a noi,
07:23
it has to have some ideaidea of what we want.
141
431389
2731
deve avere un'idea di quello che vogliamo.
07:27
It obtainsOttiene that informationinformazione primarilyprincipalmente
by observationosservazione of humanumano choicesscelte,
142
435223
5427
Lui ottiene l'informazione in primo luogo
dall'osservazione delle scelte umane,
07:32
so our ownproprio choicesscelte revealsvelare informationinformazione
143
440674
2801
quindi le nostre scelte rivelano
delle informazioni
07:35
about what it is that we preferpreferire
our livesvite to be like.
144
443499
3300
su ciò che vogliamo
che le nostre vite siano.
07:40
So those are the threetre principlesi principi.
145
448632
1683
Quindi questi sono i tre principi.
07:42
Let's see how that appliessi applica
to this questiondomanda of:
146
450339
2318
Vediamo come si applicano
alla seguente domanda:
07:44
"Can you switchinterruttore the machinemacchina off?"
as TuringTuring suggestedsuggerito.
147
452681
2789
"Riuscite a spegnere la macchina?"
come suggeriva Turing.
07:49
So here'secco a PRPR2 robotrobot.
148
457073
2120
Ecco un robot PR2.
07:51
This is one that we have in our lablaboratorio,
149
459217
1821
È uno che abbiamo in laboratorio,
07:53
and it has a biggrande redrosso "off" switchinterruttore
right on the back.
150
461062
2903
e ha un gran pulsante "off"
sul dorso.
07:56
The questiondomanda is: Is it
going to let you switchinterruttore it off?
151
464541
2615
La domanda è: ti permetterà
di spegnerlo?
07:59
If we do it the classicalclassica way,
152
467180
1465
Col metodo classico,
08:00
we give it the objectiveobbiettivo of, "FetchFetch
the coffeecaffè, I mustdovere fetchfetch the coffeecaffè,
153
468669
3482
gli diamo l'obiettivo,
"Porta il caffè, devo portare il caffè,
08:04
I can't fetchfetch the coffeecaffè if I'm deadmorto,"
154
472175
2580
non posso portare il caffè se sono morto,"
08:06
so obviouslyovviamente the PRPR2
has been listeningascoltando to my talk,
155
474779
3341
quindi ovviamente il PR2
ha ascoltato il mio discorso,
08:10
and so it saysdice, thereforeperciò,
"I mustdovere disableDisable my 'off'off switchinterruttore,
156
478144
3753
e quindi dice,
"Devo disabilitare il pulsante 'off'",
08:14
and probablyprobabilmente taserTaser all the other
people in StarbucksStarbucks
157
482976
2694
e forse stordire tutte le altre persone
nello Starbucks
08:17
who mightpotrebbe interfereinterferire with me."
158
485694
1560
che possono interferire con me."
08:19
(LaughterRisate)
159
487278
2062
(Risate)
08:21
So this seemssembra to be inevitableinevitabile, right?
160
489364
2153
Sembra inevitabile, giusto?
08:23
This kindgenere of failurefallimento modemodalità
seemssembra to be inevitableinevitabile,
161
491541
2398
Questa modalità di guasto
sembra inevitabile,
08:25
and it followssegue from havingavendo
a concretecalcestruzzo, definitepreciso objectiveobbiettivo.
162
493963
3543
e deriva dall'avere un obiettivo
concreto e definito.
08:30
So what happensaccade if the machinemacchina
is uncertainincerto about the objectiveobbiettivo?
163
498812
3144
Quindi cosa succede se la macchina
è incerta sull'obiettivo?
08:33
Well, it reasonsmotivi in a differentdiverso way.
164
501980
2127
Ragiona in modo diverso.
08:36
It saysdice, "OK, the humanumano
mightpotrebbe switchinterruttore me off,
165
504131
2424
Dice, "Ok, l'essere umano
può spegnermi,
08:39
but only if I'm doing something wrongsbagliato.
166
507144
1866
ma soltanto se sbaglio qualcosa.
08:41
Well, I don't really know what wrongsbagliato is,
167
509747
2475
Non so bene cos'è sbagliato,
08:44
but I know that I don't want to do it."
168
512246
2044
ma so che non voglio farlo."
08:46
So that's the first and secondsecondo
principlesi principi right there.
169
514314
3010
Quindi, questi sono il primo
e il secondo principio.
08:49
"So I should let the humanumano switchinterruttore me off."
170
517348
3359
"Quindi devo lasciare
che l'uomo mi spenga."
08:53
And in factfatto you can calculatecalcolare
the incentiveincentivo that the robotrobot has
171
521721
3956
E in effetti potete calcolare
lo stimolo che riceve il robot
08:57
to allowpermettere the humanumano to switchinterruttore it off,
172
525701
2493
per permettere all'uomo di spegnerlo,
09:00
and it's directlydirettamente tiedlegato to the degreegrado
173
528218
1914
ed è direttamente legato
al grado di incertezza
09:02
of uncertaintyincertezza about
the underlyingsottostanti objectiveobbiettivo.
174
530156
2746
dell'obiettivo di fondo.
09:05
And then when the machinemacchina is switchedcommutata off,
175
533977
2949
Poi quando la macchina viene spenta,
09:08
that thirdterzo principleprincipio comesviene into playgiocare.
176
536950
1805
entra in gioco il terzo principio.
09:10
It learnsImpara something about the objectivesobiettivi
it should be pursuingperseguendo,
177
538779
3062
Lui impara qualcosa sugli obiettivi
che deve perseguire,
09:13
because it learnsImpara that
what it did wasn'tnon era right.
178
541865
2533
perché impara
che ciò che ha fatto non era corretto.
09:16
In factfatto, we can, with suitableadatto use
of GreekGreco symbolssimboli,
179
544422
3570
In realtà possiamo, con un uso adeguato
di simboli greci,
09:20
as mathematiciansmatematici usuallygeneralmente do,
180
548016
2131
come fanno solitamente i matematici,
09:22
we can actuallyin realtà provedimostrare a theoremTeorema
181
550171
1984
possiamo davvero dimostrare un teorema
09:24
that saysdice that suchcome a robotrobot
is provablydimostrabilmente beneficialbenefici to the humanumano.
182
552179
3553
che dice che un robot del genere
è certamente vantaggioso agli umani.
09:27
You are provablydimostrabilmente better off
with a machinemacchina that's designedprogettato in this way
183
555756
3803
Voi siete certamente migliori
con una macchina programmata in tale modo
09:31
than withoutsenza it.
184
559583
1246
che senza.
09:33
So this is a very simplesemplice exampleesempio,
but this is the first steppasso
185
561237
2906
È un esempio molto semplice,
ma è il primo passo
09:36
in what we're tryingprovare to do
with human-compatiblecompatibile con l'uomo AIAI.
186
564167
3903
che proviamo a fare
con l'IA compatibile con gli umani.
09:42
Now, this thirdterzo principleprincipio,
187
570657
3257
Questo terzo principio,
09:45
I think is the one that you're probablyprobabilmente
scratchinggraffiare your headcapo over.
188
573938
3112
credo sia quello
che fa grattare la testa.
09:49
You're probablyprobabilmente thinkingpensiero, "Well,
you know, I behavecomportarsi badlymale.
189
577074
3239
Probabilmente starete pensando,
"Mi comporto male.
09:52
I don't want my robotrobot to behavecomportarsi like me.
190
580337
2929
Non voglio che il mio robot
si comporti come me.
09:55
I sneakSneak down in the middlein mezzo of the night
and take stuffcose from the fridgeFrigorifero.
191
583290
3434
Io sgattaiolo nel cuore della notte
e prendo roba dal frigo.
09:58
I do this and that."
192
586748
1168
Faccio questo e quello."
09:59
There's all kindstipi of things
you don't want the robotrobot doing.
193
587940
2797
Ci sono un sacco di cose
che non volete il robot faccia.
10:02
But in factfatto, it doesn't
quiteabbastanza work that way.
194
590761
2071
Ma in realtà, non funziona
sempre così.
10:04
Just because you behavecomportarsi badlymale
195
592856
2155
Solo perché vi comportate male
non significa che il robot
copierà il vostro comportamento.
10:07
doesn't mean the robotrobot
is going to copycopia your behaviorcomportamento.
196
595035
2623
10:09
It's going to understandcapire your motivationsmotivazioni
and maybe help you resistresistere them,
197
597682
3910
Capirà le vostre motivazioni
e forse potrebbe aiutarvi a resistere,
10:13
if appropriateadeguata.
198
601616
1320
eventualmente.
10:16
But it's still difficultdifficile.
199
604206
1464
Ma è comunque difficile.
10:18
What we're tryingprovare to do, in factfatto,
200
606302
2545
Quello che proviamo a fare, in realtà,
10:20
is to allowpermettere machinesmacchine to predictpredire
for any personpersona and for any possiblepossibile life
201
608871
5796
è permettere alle macchine di prevedere
per chiunque e per ogni possibile vita
10:26
that they could livevivere,
202
614691
1161
che potrebbe vivere,
10:27
and the livesvite of everybodytutti elsealtro:
203
615876
1597
e le vite di tutti gli altri:
10:29
WhichChe would they preferpreferire?
204
617497
2517
quale preferirebbero?
10:34
And there are manymolti, manymolti
difficultiesDifficoltà involvedcoinvolti in doing this;
205
622061
2954
E le difficoltà sono molte;
10:37
I don't expectaspettarsi that this
is going to get solvedrisolto very quicklyvelocemente.
206
625039
2932
non mi aspetto
che si risolva velocemente.
10:39
The realvero difficultiesDifficoltà, in factfatto, are us.
207
627995
2643
La vera difficoltà, in realtà, siamo noi.
10:44
As I have alreadygià mentionedmenzionato,
we behavecomportarsi badlymale.
208
632149
3117
Come ho già detto,
noi ci comportiamo male.
10:47
In factfatto, some of us are downrightdecisamente nastybrutto.
209
635290
2321
Anzi, alcuni di noi sono molto cattivi.
10:50
Now the robotrobot, as I said,
doesn't have to copycopia the behaviorcomportamento.
210
638431
3052
Il robot, come ho detto,
non deve copiare il comportamento.
10:53
The robotrobot does not have
any objectiveobbiettivo of its ownproprio.
211
641507
2791
Il robot non ha obiettivi propri.
10:56
It's purelypuramente altruisticaltruistico.
212
644322
1737
È puramente altruista.
10:59
And it's not designedprogettato just to satisfysoddisfare
the desiresdesideri of one personpersona, the userutente,
213
647293
5221
E non è programmato solo per soddisfare
i desideri di una persona, l'utente,
11:04
but in factfatto it has to respectrispetto
the preferencesPreferenze of everybodytutti.
214
652538
3138
ma deve rispettare
le preferenze di ognuno.
11:09
So it can dealaffare with a certaincerto
amountquantità of nastinessCattiveria,
215
657263
2570
Quindi può avere a che fare
con una certa cattiveria,
11:11
and it can even understandcapire
that your nastinessCattiveria, for exampleesempio,
216
659857
3701
e può anche capire
la vostra cattiveria, per esempio,
11:15
you maypuò take bribestangenti as a passportpassaporto officialufficiale
217
663582
2671
potete farvi corrompere
da agente doganale
11:18
because you need to feedalimentazione your familyfamiglia
and sendinviare your kidsbambini to schoolscuola.
218
666277
3812
perché dovete sfamare
la famiglia e mandare i bambini a scuola.
11:22
It can understandcapire that;
it doesn't mean it's going to stealrubare.
219
670113
2906
Lui è in grado di capirlo;
non significa che andrà a rubare.
11:25
In factfatto, it'llsara just help you
sendinviare your kidsbambini to schoolscuola.
220
673043
2679
Anzi, vi aiuterà
a mandare i vostri bambini a scuola.
11:28
We are alsoanche computationallyinformaticamente limitedlimitato.
221
676976
3012
Noi siamo anche limitati nei calcoli.
11:32
LeeLee SedolSEDOL is a brilliantbrillante Go playergiocatore,
222
680012
2505
Lee Sedol è un brillante giocatore di Go,
11:34
but he still lostperduto.
223
682541
1325
ma ha comunque perso.
11:35
So if we look at his actionsAzioni,
he tookha preso an actionazione that lostperduto the gamegioco.
224
683890
4239
Osservando le sue mosse,
ne ha fatta una che gli ha fatto perdere.
11:40
That doesn't mean he wanted to loseperdere.
225
688153
2161
Non significa che voleva perdere.
11:43
So to understandcapire his behaviorcomportamento,
226
691340
2040
Quindi per capire il suo comportamento,
11:45
we actuallyin realtà have to invertInverti
throughattraverso a modelmodello of humanumano cognitioncognizione
227
693404
3644
dobbiamo invertire
con un modello di cognizione umana
11:49
that includesinclude our computationalcomputazionale
limitationslimitazioni -- a very complicatedcomplicato modelmodello.
228
697072
4977
che include i nostri limiti di calcolo --
un modello molto complicato.
11:54
But it's still something
that we can work on understandingcomprensione.
229
702073
2993
Ma possiamo comunque cercare di capirlo.
11:57
ProbablyProbabilmente the mostmaggior parte difficultdifficile partparte,
from my pointpunto of viewvista as an AIAI researcherricercatore,
230
705876
4320
Forse la parte più complicata,
dal punto di vista di ricercatore di IA,
12:02
is the factfatto that there are lots of us,
231
710220
2575
è il fatto che siamo molti,
12:06
and so the machinemacchina has to somehowin qualche modo
tradecommercio off, weighpesare up the preferencesPreferenze
232
714294
3581
e quindi la macchina deve in qualche modo
alternare, soppesare le preferenze
12:09
of manymolti differentdiverso people,
233
717899
2225
di tante persone diverse,
12:12
and there are differentdiverso waysmodi to do that.
234
720148
1906
e ci sono diversi modi per farlo.
12:14
EconomistsEconomisti, sociologistssociologi,
moralmorale philosophersfilosofi have understoodinteso that,
235
722078
3689
Economisti, sociologi,
filosofi morali lo hanno capito,
12:17
and we are activelyattivamente
looking for collaborationcollaborazione.
236
725791
2455
e stiamo attivamente
cercando collaborazione.
12:20
Let's have a look and see what happensaccade
when you get that wrongsbagliato.
237
728270
3251
Diamo un'occhiata a quel che succede
quando commettete uno sbaglio.
12:23
So you can have
a conversationconversazione, for exampleesempio,
238
731545
2133
Potete conversare, per esempio,
col vostro assistente personale
intelligente
12:25
with your intelligentintelligente personalpersonale assistantAssistente
239
733702
1944
12:27
that mightpotrebbe be availablea disposizione
in a fewpochi years'anni' time.
240
735670
2285
che potrebbe essere disponibile
tra pochi anni.
12:29
Think of a SiriSiri on steroidssteroidi.
241
737979
2524
Pensate a Siri sotto steroidi.
12:33
So SiriSiri saysdice, "Your wifemoglie calledchiamato
to remindricordare you about dinnercena tonightstasera."
242
741627
4322
Siri dice, "Tua moglie ha chiamato
per ricordarti della cena stasera."
12:38
And of coursecorso, you've forgottendimenticato.
"What? What dinnercena?
243
746616
2508
Ovviamente, l'avevate dimenticato.
"Cosa? Quale cena?
12:41
What are you talkingparlando about?"
244
749148
1425
Di cosa stai parlando?"
12:42
"Uh, your 20thesimo anniversaryanniversario at 7pmPM."
245
750597
3746
"Ehm, il tuo 20° anniversario alle 7."
12:48
"I can't do that. I'm meetingincontro
with the secretary-generalSegretario generale at 7:30.
246
756915
3719
"Non posso farlo. Mi incontrerò
col segretario generale alle 7:30.
12:52
How could this have happenedè accaduto?"
247
760658
1692
Come può essere successo?"
12:54
"Well, I did warnavvisare you, but you overrodeGregorio scavalcarono
my recommendationraccomandazione."
248
762374
4660
"Io ti ho avvertito, ma tu hai ignorato
la mia raccomandazione."
13:00
"Well, what am I going to do?
I can't just tell him I'm too busyoccupato."
249
768146
3328
"Cosa faccio? Non posso dirgli
che sono impegnato."
13:04
"Don't worrypreoccupazione. I arrangeddisposte
for his planeaereo to be delayedritardato."
250
772490
3281
"Non preoccuparti.
Ho fatto ritardare il suo aereo."
13:07
(LaughterRisate)
251
775795
1682
(Risate)
13:10
"Some kindgenere of computercomputer malfunctionMalfunzionamento."
252
778249
2101
"Una specie di guasto al computer."
13:12
(LaughterRisate)
253
780374
1212
(Risate)
13:13
"Really? You can do that?"
254
781610
1617
"Davvero? Puoi farlo?"
13:16
"He sendsinvia his profoundprofondo apologiesscuse
255
784400
2179
"Si scusa tantissimo
13:18
and lookssembra forwardinoltrare to meetingincontro you
for lunchpranzo tomorrowDomani."
256
786603
2555
e non vede l'ora di incontrarti
a pranzo domani."
13:21
(LaughterRisate)
257
789182
1299
(Risate)
13:22
So the valuesvalori here --
there's a slightleggero mistakesbaglio going on.
258
790505
4403
Quindi i valori qui --
si è verificato un piccolo errore.
13:26
This is clearlychiaramente followinga seguire my wife'sdella moglie valuesvalori
259
794932
3009
Questo segue chiaramente
i valori di mia moglie
13:29
whichquale is "HappyFelice wifemoglie, happycontento life."
260
797965
2069
cioè "Felice la moglie, felice la vita."
13:32
(LaughterRisate)
261
800058
1583
(Risate)
13:33
It could go the other way.
262
801665
1444
Potrebbe andare diversamente.
Potreste tornare a casa
dopo una dura giornata di lavoro,
13:35
You could come home
after a harddifficile day'sgiornata work,
263
803821
2201
13:38
and the computercomputer saysdice, "Long day?"
264
806046
2195
e il computer dice, "Giornata lunga?"
13:40
"Yes, I didn't even have time for lunchpranzo."
265
808265
2288
"Sì, non ho avuto nemmeno il tempo
di pranzare."
13:42
"You mustdovere be very hungryAffamato."
266
810577
1282
"Devi avere molta fame."
13:43
"StarvingAffamati, yeah.
Could you make some dinnercena?"
267
811883
2646
"Sto morendo di fame, sì.
Puoi prepararmi la cena?"
13:48
"There's something I need to tell you."
268
816070
2090
"Devo dirti una cosa."
13:50
(LaughterRisate)
269
818184
1155
(Risate)
13:52
"There are humansgli esseri umani in SouthSud SudanSudan
who are in more urgenturgente need than you."
270
820193
4905
"Ci sono persone nel sud del Sudan
che hanno un bisogno più urgente del tuo."
13:57
(LaughterRisate)
271
825122
1104
(Risate)
13:58
"So I'm leavingin partenza. Make your ownproprio dinnercena."
272
826250
2075
"Quindi me ne vado. Preparati tu la cena."
14:00
(LaughterRisate)
273
828349
2000
(Risate)
14:02
So we have to solverisolvere these problemsi problemi,
274
830823
1739
Dobbiamo risolvere questi problemi,
14:04
and I'm looking forwardinoltrare
to workinglavoro on them.
275
832586
2515
e non vedo l'ora di lavorarci.
14:07
There are reasonsmotivi for optimismottimismo.
276
835125
1843
Ci sono motivi per essere ottimisti.
14:08
One reasonragionare is,
277
836992
1159
Un motivo è,
14:10
there is a massivemassiccio amountquantità of datadati.
278
838175
1868
c'è una grande quantità di dati.
14:12
Because rememberricorda -- I said
they're going to readleggere everything
279
840067
2794
Perché ricordate --
ho detto che leggeranno tutto ciò
14:14
the humanumano racegara has ever writtenscritto.
280
842885
1546
che la razza umana ha scritto.
14:16
MostMaggior parte of what we writeScrivi about
is humanumano beingsesseri doing things
281
844455
2724
Gran parte di ciò che scriviamo
è su uomini che fanno cose
14:19
and other people gettingottenere upsetirritato about it.
282
847203
1914
e altri che se la prendono per questo.
14:21
So there's a massivemassiccio amountquantità
of datadati to learnimparare from.
283
849141
2398
Quindi c'è una grande mole di dati
da cui imparare.
14:23
There's alsoanche a very
strongforte economiceconomico incentiveincentivo
284
851563
2236
C'è anche un incentivo
economico molto forte
per farlo bene.
14:27
to get this right.
285
855331
1186
Immaginate il vostro robot domestico
a casa.
14:28
So imagineimmaginare your domesticdomestico robot'sdi robot at home.
286
856541
2001
Siete ancora in ritardo dal lavoro
e il robot deve sfamare i bambini,
14:30
You're latein ritardo from work again
and the robotrobot has to feedalimentazione the kidsbambini,
287
858566
3067
14:33
and the kidsbambini are hungryAffamato
and there's nothing in the fridgeFrigorifero.
288
861657
2823
e i bambini sono affamati
e non c'è niente nel frigo.
14:36
And the robotrobot seesvede the catgatto.
289
864504
2605
E il robot vede il gatto.
14:39
(LaughterRisate)
290
867133
1692
(Risate)
14:40
And the robotrobot hasn'tnon ha quiteabbastanza learnedimparato
the humanumano valuevalore functionfunzione properlypropriamente,
291
868849
4190
E il robot non ha ancora imparato
i valori umani in modo corretto,
14:45
so it doesn't understandcapire
292
873063
1251
quindi non capisce
14:46
the sentimentalsentimentale valuevalore of the catgatto outweighssupera
the nutritionalnutritivo valuevalore of the catgatto.
293
874338
4844
che il valore sentimentale del gatto
supera il suo valore nutrizionale.
14:51
(LaughterRisate)
294
879206
1095
(Risate)
14:52
So then what happensaccade?
295
880325
1748
Quindi cosa succede?
14:54
Well, it happensaccade like this:
296
882097
3297
Be', succede questo:
14:57
"DerangedSquilibrato robotrobot cooksi cuochi kittygattino
for familyfamiglia dinnercena."
297
885418
2964
"Robot folle cucina il micio
per la cena di famiglia."
15:00
That one incidentincidente would be the endfine
of the domesticdomestico robotrobot industryindustria.
298
888406
4523
Quell'unico incidente sarebbe la fine
dell'industria del robot domestico.
15:04
So there's a hugeenorme incentiveincentivo
to get this right
299
892953
3372
Quindi c'è un enorme incentivo
per farlo bene
molto prima che arriviamo
alle macchine super intelligenti.
15:08
long before we reachraggiungere
superintelligentsuper intelligente machinesmacchine.
300
896349
2715
15:12
So to summarizeriassumere:
301
900128
1535
Quindi per riassumere:
15:13
I'm actuallyin realtà tryingprovare to changemodificare
the definitiondefinizione of AIAI
302
901687
2881
sto cercando di cambiare
la definizione di IA
15:16
so that we have provablydimostrabilmente
beneficialbenefici machinesmacchine.
303
904592
2993
così che probabilmente
avremo macchine vantaggiose.
15:19
And the principlesi principi are:
304
907609
1222
E i principi sono:
15:20
machinesmacchine that are altruisticaltruistico,
305
908855
1398
macchine che siano altruiste,
15:22
that want to achieveraggiungere only our objectivesobiettivi,
306
910277
2804
che vogliono raggiungere
solo i nostri obiettivi,
15:25
but that are uncertainincerto
about what those objectivesobiettivi are,
307
913105
3116
ma che sono incerti
sui loro obiettivi,
e che guarderanno tutti noi
15:28
and will watch all of us
308
916245
1998
per imparare di più
su cosa vogliamo veramente.
15:30
to learnimparare more about what it is
that we really want.
309
918267
3203
15:34
And hopefullyfiduciosamente in the processprocesso,
we will learnimparare to be better people.
310
922373
3559
E se tutto va bene, in tutto ciò
impareremo ad essere persone migliori.
Grazie tante.
15:37
Thank you very much.
311
925956
1191
15:39
(ApplauseApplausi)
312
927171
3709
(Applausi)
C. Anderson: Molto interessante, Stuart.
15:42
ChrisChris AndersonAnderson: So interestinginteressante, StuartStuart.
313
930904
1868
Staremo qui un po'
perché credo che stiano preparando
15:44
We're going to standstare in piedi here a bitpo
because I think they're settingambientazione up
314
932796
3170
per il prossimo relatore.
15:47
for our nextIl prossimo speakeraltoparlante.
315
935990
1151
Un paio di domande.
15:49
A couplecoppia of questionsle domande.
316
937165
1538
L'idea di programmare nell'ignoranza
sembra intuitivamente molto potente.
15:50
So the ideaidea of programmingprogrammazione in ignoranceignoranza
seemssembra intuitivelyintuitivamente really powerfulpotente.
317
938727
5453
Quando giungi alla super intelligenza,
15:56
As you get to superintelligencesuperintelligenza,
318
944204
1594
15:57
what's going to stop a robotrobot
319
945822
2258
cosa fermerà un robot
16:00
readinglettura literatureletteratura and discoveringscoprire
this ideaidea that knowledgeconoscenza
320
948104
2852
dal leggere letteratura e scoprire
l'idea che la conoscenza
16:02
is actuallyin realtà better than ignoranceignoranza
321
950980
1572
sia migliore dell'ignoranza,
16:04
and still just shiftingmutevole its ownproprio goalsobiettivi
and rewritingriscrittura that programmingprogrammazione?
322
952576
4218
e lo indurrà a spostare le sue finalità
e riscrivere la programmazione?
16:09
StuartStuart RussellRussell: Yes, so we want
it to learnimparare more, as I said,
323
957692
6356
Stuart Russell: Sì, vogliamo
imparare meglio, come ho detto,
16:16
about our objectivesobiettivi.
324
964072
1287
sui nostri obiettivi.
16:17
It'llIt'll only becomediventare more certaincerto
as it becomesdiventa more correctcorretta,
325
965383
5521
Diventerà più sicuro solo
quando diventerà più corretto,
16:22
so the evidenceprova is there
326
970928
1945
quindi la prova è questa
16:24
and it's going to be designedprogettato
to interpretinterpretare it correctlycorrettamente.
327
972897
2724
e sarà progettata
per interpretarla correttamente.
16:27
It will understandcapire, for exampleesempio,
that bookslibri are very biasedparziale
328
975645
3956
Capirà, per esempio,
che i libri sono molto prevenuti
16:31
in the evidenceprova they containcontenere.
329
979625
1483
in ciò che contengono.
16:33
They only talk about kingsre and princesPrinces
330
981132
2397
Parlano solo di re e principi
16:35
and eliteelite whitebianca malemaschio people doing stuffcose.
331
983553
2800
e di élite di maschi bianchi
che fanno cose.
16:38
So it's a complicatedcomplicato problemproblema,
332
986377
2096
Quindi è un problema complicato,
16:40
but as it learnsImpara more about our objectivesobiettivi
333
988497
3872
ma siccome impara di più
sui nostri obiettivi
16:44
it will becomediventare more and more usefulutile to us.
334
992393
2063
diventerà ancora più utile per noi.
16:46
CACA: And you couldn'tnon poteva
just boilBollire it down to one lawlegge,
335
994480
2526
CA: E non potresti soltanto
limitarti a una legge,
16:49
you know, hardwiredHardwired in:
336
997030
1650
sai, programmata così:
16:50
"if any humanumano ever triescerca to switchinterruttore me off,
337
998704
3293
"se un umano cerca di spegnermi,
16:54
I complyconformità. I complyconformità."
338
1002021
1935
lo assecondo. Lo assecondo."
16:55
SRSR: AbsolutelyAssolutamente not.
339
1003980
1182
SR: Assolutamente no.
16:57
That would be a terribleterribile ideaidea.
340
1005186
1499
Sarebbe un'idea terribile.
16:58
So imagineimmaginare that you have
a self-drivingSelf-Guida carauto
341
1006709
2689
Immaginate di avere
una macchina che si guida da sola
17:01
and you want to sendinviare your five-year-oldcinque-anno-vecchio
342
1009422
2433
e volete mandare vostro figlio
di cinque anni
17:03
off to preschoolscuola materna.
343
1011879
1174
all'asilo.
17:05
Do you want your five-year-oldcinque-anno-vecchio
to be ablecapace to switchinterruttore off the carauto
344
1013077
3101
Volete che vostro figlio
sia capace di spegnere la macchina
17:08
while it's drivingguida alonglungo?
345
1016202
1213
mentre va in giro?
17:09
ProbablyProbabilmente not.
346
1017439
1159
Probabilmente no.
17:10
So it needsesigenze to understandcapire how rationalrazionale
and sensiblesensibile the personpersona is.
347
1018622
4703
Quindi deve capire quanto razionale
e sensibile sia la persona.
17:15
The more rationalrazionale the personpersona,
348
1023349
1676
Più razionale è la persona,
17:17
the more willingdisposto you are
to be switchedcommutata off.
349
1025049
2103
più disponibile siete
a essere spenti.
17:19
If the personpersona is completelycompletamente
randomcasuale or even maliciousdannoso,
350
1027176
2543
Se la persona è del tutto ignota
o perfino malvagia,
17:21
then you're lessDi meno willingdisposto
to be switchedcommutata off.
351
1029743
2512
allora sarete meno disponibili
a essere spenti.
17:24
CACA: All right. StuartStuart, can I just say,
352
1032279
1866
CA: Giusto. Stuart, posso dire solo,
17:26
I really, really hopesperanza you
figurefigura this out for us.
353
1034169
2314
spero davvero, davvero che tu
lo scopra per noi.
17:28
Thank you so much for that talk.
That was amazingStupefacente.
354
1036507
2375
Grazie per questa conferenza.
È stata fantastica.
17:30
SRSR: Thank you.
355
1038906
1167
SR: Grazie.
17:32
(ApplauseApplausi)
356
1040097
1837
(Applausi)
Translated by Denise Cosentino

▲Back to top

ABOUT THE SPEAKER
Stuart Russell - AI expert
Stuart Russell wrote the standard text on AI; now he thinks deeply on AI's future -- and the future of us humans, too.

Why you should listen

Stuart Russell is a professor (and formerly chair) of Electrical Engineering and Computer Sciences at University of California at Berkeley. His book Artificial Intelligence: A Modern Approach (with Peter Norvig) is the standard text in AI; it has been translated into 13 languages and is used in more than 1,300 universities in 118 countries. His research covers a wide range of topics in artificial intelligence including machine learning, probabilistic reasoning, knowledge representation, planning, real-time decision making, multitarget tracking, computer vision, computational physiology, global seismic monitoring and philosophical foundations.

He also works for the United Nations, developing a new global seismic monitoring system for the nuclear-test-ban treaty. His current concerns include the threat of autonomous weapons and the long-term future of artificial intelligence and its relation to humanity.

More profile about the speaker
Stuart Russell | Speaker | TED.com