ABOUT THE SPEAKER
Iyad Rahwan - Computational social scientist
Iyad Rahwan's work lies at the intersection of the computer and social sciences, with a focus on collective intelligence, large-scale cooperation and the social aspects of artificial intelligence.

Why you should listen

Iyad Rahwan is the AT&T Career Development Professor and an associate professor of media arts & sciences at the MIT Media Lab, where he leads the Scalable Cooperation group. A native of Aleppo, Syria, Rahwan holds a PhD. from the University of Melbourne, Australia and is an affiliate faculty at the MIT Institute of Data, Systems and Society (IDSS). He led the winning team in the US State Department's Tag Challenge, using social media to locate individuals in remote cities within 12 hours using only their mug shots. Recently he crowdsourced 30 million decisions from people worldwide about the ethics of AI systems. Rahwan's work appeared in major academic journals, including Science and PNAS, and features regularly in major media outlets, including the New York Times, The Economist and the Wall Street Journal.

(Photo: Victoriano Izquierdo)

More profile about the speaker
Iyad Rahwan | Speaker | TED.com
TEDxCambridge

Iyad Rahwan: What moral decisions should driverless cars make?

Iyad Rahwan: Quali decisioni morali dovrebbero prendere le auto a guida autonoma?

Filmed:
1,147,381 views

La tua macchina a guida autonoma dovrebbe ucciderti se questo significasse salvare cinque pedoni? In questa introduzione ai dilemmi sociali delle auto a guida autonoma, Iyad Rahwan analizza come la tecnologia sfiderà la nostra morale e spiega il suo lavoro di raccolta di dati effettuato su persone reali interrogate sui compromessi etici che siamo propensi o meno ad accettare.
- Computational social scientist
Iyad Rahwan's work lies at the intersection of the computer and social sciences, with a focus on collective intelligence, large-scale cooperation and the social aspects of artificial intelligence. Full bio

Double-click the English transcript below to play the video.

00:13
TodayOggi I'm going to talk
about technologytecnologia and societysocietà.
0
1000
4080
Oggi parlerò di tecnologia e società.
00:19
The DepartmentDipartimento of TransportTrasporto
estimatedstimato that last yearanno
1
7040
3696
Il Dipartimento dei Trasporti
ha stimato che lo scorso anno
00:22
35,000 people diedmorto
from traffictraffico crashessi blocca in the US aloneda solo.
2
10760
4080
35.000 persone sono decedute a causa
di incidenti stradali, negli Stati Uniti.
00:28
WorldwideIn tutto il mondo, 1.2 millionmilione people
diemorire everyogni yearanno in traffictraffico accidentsincidenti.
3
16040
4800
Nel Mondo, 1,2 milioni di persone muoiono
ogni anno a causa di incidenti stradali.
00:33
If there was a way we could eliminateeliminare
90 percentper cento of those accidentsincidenti,
4
21760
4096
Se ci fosse la possibilità di eliminare
il 90 percento di questi incidenti,
00:37
would you supportsupporto it?
5
25880
1200
la sosterreste?
00:39
Of coursecorso you would.
6
27720
1296
Certo che lo fareste.
00:41
This is what driverlesssenza conducente carauto technologytecnologia
promisespromesse to achieveraggiungere
7
29040
3655
Questo è quello che la tecnologia
delle auto a guida autonoma si prefigge,
00:44
by eliminatingeliminando the mainprincipale
sourcefonte of accidentsincidenti --
8
32720
2816
eliminando la principale
causa di incidenti --
l'errore umano.
00:47
humanumano errorerrore.
9
35560
1200
00:49
Now pictureimmagine yourselfte stesso
in a driverlesssenza conducente carauto in the yearanno 2030,
10
37920
5416
Ora, immaginatevi in una macchina
a guida autonoma nell'anno 2030,
00:55
sittingseduta back and watchingGuardando
this vintagevintage TEDxCambridgeTEDxCambridge videovideo.
11
43360
3456
accomodati a guardare
questo video vintage di TEDxCambridge.
00:58
(LaughterRisate)
12
46840
2000
(Risate)
01:01
All of a suddenimprovviso,
13
49520
1216
All'improvviso,
01:02
the carauto experiencesesperienze mechanicalmeccanico failurefallimento
and is unableincapace to stop.
14
50760
3280
la macchina ha un guasto meccanico,
e non riesce più a fermarsi.
01:07
If the carauto continuescontinua,
15
55360
1520
Se la macchina proseguisse,
01:09
it will crashschianto into a bunchmazzo
of pedestrianspedoni crossingattraversamento the streetstrada,
16
57720
4120
si schianterebbe contro un gruppo
di pedoni che attraversano la strada,
01:15
but the carauto maypuò swerveSwerve,
17
63080
2135
ma se la macchina sterzasse
01:17
hittingcolpire one bystanderastante,
18
65239
1857
colpirebbe un passante,
01:19
killinguccisione them to savesalvare the pedestrianspedoni.
19
67120
2080
uccidendo lui per salvare i pedoni.
01:22
What should the carauto do,
and who should decidedecidere?
20
70040
2600
Cosa dovrebbe fare l'auto,
e chi dovrebbe decidere?
01:25
What if insteadanziché the carauto
could swerveSwerve into a wallparete,
21
73520
3536
E se invece l'auto
potesse sterzare contro un muro,
01:29
crashingschiantarsi and killinguccisione you, the passengerpasseggero,
22
77080
3296
schiantandosi e uccidendo voi,
il passeggero,
01:32
in orderordine to savesalvare those pedestrianspedoni?
23
80400
2320
per salvare questi pedoni?
01:35
This scenarioscenario is inspiredispirato
by the trolleycarrello problemproblema,
24
83240
3080
Questo scenario è ispirato
dal dilemma del carrello,
01:38
whichquale was inventedinventato
by philosophersfilosofi a fewpochi decadesdecenni agofa
25
86960
3776
che è stato formulato
da filosofi qualche decennio fa
01:42
to think about ethicsetica.
26
90760
1240
per riflettere sull'etica.
01:46
Now, the way we think
about this problemproblema mattersquestioni.
27
94120
2496
Ora, come pensiamo
a questo problema importa.
01:48
We maypuò for exampleesempio
not think about it at all.
28
96640
2616
Potremmo ad esempio
non pensarci affatto.
01:51
We maypuò say this scenarioscenario is unrealisticirrealistico,
29
99280
3376
Potremmo dire
che questo scenario è irrealistico,
01:54
incrediblyincredibilmente unlikelyimprobabile, or just sillysciocco.
30
102680
2320
altamente improbabile,
o semplicemente sciocco.
01:57
But I think this criticismcritica
missesmiss the pointpunto
31
105760
2736
Ma penso che questa critica
non colga il punto,
02:00
because it takes
the scenarioscenario too literallyletteralmente.
32
108520
2160
perché considera
lo scenario letteralmente.
02:03
Of coursecorso no accidentincidente
is going to look like this;
33
111920
2736
Di certo nessun incidente
assomiglierà a questo;
02:06
no accidentincidente has two or threetre optionsopzioni
34
114680
3336
nessun incidente ha due o tre scelte,
02:10
where everybodytutti diesmuore somehowin qualche modo.
35
118040
2000
dove qualcuno muore comunque.
02:13
InsteadInvece, the carauto is going
to calculatecalcolare something
36
121480
2576
Invece, la macchina calcolerebbe qualcosa
02:16
like the probabilityprobabilità of hittingcolpire
a certaincerto groupgruppo of people,
37
124080
4896
come la probabilità di colpire
un certo gruppo di persone
02:21
if you swerveSwerve one directiondirezione
versuscontro anotherun altro directiondirezione,
38
129000
3336
se sterzi in una direzione,
anziché nell'altra,
02:24
you mightpotrebbe slightlyleggermente increaseaumentare the riskrischio
to passengerspasseggeri or other driversdriver
39
132360
3456
potresti accrescere il rischio
per i passeggeri o per gli altri autisti,
02:27
versuscontro pedestrianspedoni.
40
135840
1536
piuttosto che per i pedoni.
02:29
It's going to be
a more complexcomplesso calculationcalcolo,
41
137400
2160
Sarebbe un calcolo più complesso
02:32
but it's still going
to involvecoinvolgere trade-offstrade-off,
42
140480
2520
che, comunque,
prevede una scelta,
02:35
and trade-offstrade-off oftenspesso requirerichiedere ethicsetica.
43
143840
2880
e le scelte spesso presuppongono l'etica.
02:39
We mightpotrebbe say then,
"Well, let's not worrypreoccupazione about this.
44
147840
2736
Potremmo dire,
"Beh, non preoccupiamoci di questo.
02:42
Let's wait untilfino a technologytecnologia
is fullycompletamente readypronto and 100 percentper cento safesicuro."
45
150600
4640
Aspettiamo finché la tecnologia
sarà pronta e al 100 percento sicura."
Supponiamo di poter davvero eliminare
il 90 percento di questi incidenti,
02:48
SupposeSi supponga che that we can indeedinfatti
eliminateeliminare 90 percentper cento of those accidentsincidenti,
46
156520
3680
02:53
or even 99 percentper cento in the nextIl prossimo 10 yearsanni.
47
161080
2840
o persino il 99 percento,
nei prossimi 10 anni.
02:56
What if eliminatingeliminando
the last one percentper cento of accidentsincidenti
48
164920
3176
E se eliminare il restante
un per cento di questi incidenti
03:00
requiresrichiede 50 more yearsanni of researchricerca?
49
168120
3120
richiedesse altri 50 anni di ricerca?
03:04
Should we not adoptadottare the technologytecnologia?
50
172400
1800
Non dovremmo
usare questa tecnologia?
03:06
That's 60 millionmilione people
deadmorto in carauto accidentsincidenti
51
174720
4776
Avremmo 60 milioni di morti
in incidenti automobilistici
03:11
if we maintainmantenere the currentattuale rateVota.
52
179520
1760
se continuassimo così.
03:14
So the pointpunto is,
53
182760
1216
Quindi il punto è,
03:16
waitingin attesa for fullpieno safetysicurezza is alsoanche a choicescelta,
54
184000
3616
aspettare la sicurezza totale
è anch'essa una scelta,
03:19
and it alsoanche involvescoinvolge trade-offstrade-off.
55
187640
2160
che comunque ha conseguenze.
03:23
People onlinein linea on socialsociale mediamedia
have been comingvenuta up with all sortstipi of waysmodi
56
191560
4336
Le persone sui social media
hanno trovato tutti i modi
03:27
to not think about this problemproblema.
57
195920
2016
per non pensare al problema.
03:29
One personpersona suggestedsuggerito
the carauto should just swerveSwerve somehowin qualche modo
58
197960
3216
Una persona ha suggerito che l'auto
dovrebbe sterzare in qualche modo
03:33
in betweenfra the passengerspasseggeri --
59
201200
2136
tra i passeggeri --
03:35
(LaughterRisate)
60
203360
1016
(Risate)
03:36
and the bystanderastante.
61
204400
1256
e il passante.
03:37
Of coursecorso if that's what the carauto can do,
that's what the carauto should do.
62
205680
3360
Ovvio, se la macchina può farlo,
la macchina deve farlo.
03:41
We're interestedinteressato in scenariosscenari
in whichquale this is not possiblepossibile.
63
209920
2840
Ma siamo interessati agli scenari
dove non è possibile.
03:45
And my personalpersonale favoritefavorito
was a suggestionSuggerimento by a bloggerblogger
64
213280
5416
Personalmente, il mio preferito
è stato il suggerimento di un blogger
03:50
to have an ejectespellere buttonpulsante in the carauto
that you pressstampa --
65
218720
3016
sull'avere un pulsante di espulsione,
che puoi premere --
03:53
(LaughterRisate)
66
221760
1216
(Risate)
03:55
just before the carauto self-destructsDestructs.
67
223000
1667
prima che la macchina si autodistrugga.
03:56
(LaughterRisate)
68
224691
1680
(Risate)
03:59
So if we acknowledgericonoscere that carsautomobili
will have to make trade-offstrade-off on the roadstrada,
69
227840
5200
Dunque, se accettiamo che le macchine
debbano fare delle scelte in strada,
04:06
how do we think about those trade-offstrade-off,
70
234200
1880
come pensiamo a queste scelte,
04:09
and how do we decidedecidere?
71
237320
1576
e come decidiamo?
04:10
Well, maybe we should runcorrere a surveysondaggio
to find out what societysocietà wants,
72
238920
3136
Forse potremmo somministrare
un questionario su cosa vuole la società,
04:14
because ultimatelyin definitiva,
73
242080
1456
perché alla fine,
04:15
regulationsnormativa and the lawlegge
are a reflectionriflessione of societaldella società valuesvalori.
74
243560
3960
regole e leggi sono un riflesso
dei valori della società.
04:20
So this is what we did.
75
248040
1240
Quindi, questo è quello
che abbiamo fatto.
04:21
With my collaboratorscollaboratori,
76
249880
1616
Con i miei collaboratori,
04:23
Jean-FranJean-Françoisois BonnefonBonnefon and AzimAzim ShariffShariff,
77
251520
2336
Jean-François Bonnefon e Azim Shariff,
04:25
we rancorse a surveysondaggio
78
253880
1616
abbiamo fatto un'indagine
04:27
in whichquale we presentedpresentata people
with these typestipi of scenariosscenari.
79
255520
2855
dove abbiamo presentato al campione
questi tipi di scenario.
04:30
We gaveha dato them two optionsopzioni
inspiredispirato by two philosophersfilosofi:
80
258399
3777
Abbiamo dato due opzioni
ispirate da due filosofi:
04:34
JeremyJeremy BenthamBentham and ImmanuelImmanuel KantKant.
81
262200
2640
Jeremy Bentham e Immanuel Kant.
04:37
BenthamBentham saysdice the carauto
should followSeguire utilitarianutilitaristico ethicsetica:
82
265600
3096
Bentham dice: l'auto deve
seguire un'etica utilitaristica:
04:40
it should take the actionazione
that will minimizeminimizzare totaltotale harmdanno --
83
268720
3416
deve scegliere l'azione
che minimizza il danno totale --
anche se questa azione
può uccidere un passante
04:44
even if that actionazione will killuccidere a bystanderastante
84
272160
2816
e anche se questa azione
ucciderà il passeggero.
04:47
and even if that actionazione
will killuccidere the passengerpasseggero.
85
275000
2440
Immanuel Kant dice: l'auto deve seguire
i principi dell'imperativo categorico,
04:50
ImmanuelImmanuel KantKant saysdice the carauto
should followSeguire duty-bounddovere principlesi principi,
86
278120
4976
04:55
like "ThouTu shaltSarai not killuccidere."
87
283120
1560
come "Non uccidere."
04:57
So you should not take an actionazione
that explicitlyespressamente harmsHarms a humanumano beingessere,
88
285480
4456
Quindi non si deve agire in modi
che rechino palese danno
all'essere umano,
05:01
and you should let the carauto take its coursecorso
89
289960
2456
e lasciare che l'auto
faccia il suo corso
05:04
even if that's going to harmdanno more people.
90
292440
1960
anche nuocendo a più persone.
05:07
What do you think?
91
295640
1200
Cosa ne pensate?
05:09
BenthamBentham or KantKant?
92
297360
1520
Bentham o Kant?
05:11
Here'sQui è what we foundtrovato.
93
299760
1256
Abbiamo rilevato
che la maggior parte delle persone
è d'accordo con Bentham.
05:13
MostMaggior parte people sidedbiadesivo with BenthamBentham.
94
301040
1800
05:16
So it seemssembra that people
want carsautomobili to be utilitarianutilitaristico,
95
304160
3776
Così sembra che le persone vogliano
macchine utilitaristiche,
05:19
minimizeminimizzare totaltotale harmdanno,
96
307960
1416
che minimizzano il danno totale.
05:21
and that's what we should all do.
97
309400
1576
ed è ciò che tutti dovremmo fare.
05:23
ProblemProblema solvedrisolto.
98
311000
1200
Problema risolto.
05:25
But there is a little catchcatturare.
99
313240
1480
Eppure, c'è un piccolo particolare.
05:27
When we askedchiesto people
whetherse they would purchaseAcquista suchcome carsautomobili,
100
315920
3736
Quando abbiamo chiesto alle persone
se avrebbero acquistato una macchina così,
05:31
they said, "AbsolutelyAssolutamente not."
101
319680
1616
hanno risposto,
"Assolutamente no".
05:33
(LaughterRisate)
102
321320
2296
(Risate)
05:35
They would like to buyacquistare carsautomobili
that protectproteggere them at all costscosti,
103
323640
3896
Vogliono comprare auto
che li proteggano ad ogni costo,
05:39
but they want everybodytutti elsealtro
to buyacquistare carsautomobili that minimizeminimizzare harmdanno.
104
327560
3616
ma vogliono che tutti gli altri
acquistino auto che minimizzino i danni.
05:43
(LaughterRisate)
105
331200
2520
(Risate)
Abbiamo già visto questo problema.
05:46
We'veAbbiamo seenvisto this problemproblema before.
106
334720
1856
05:48
It's calledchiamato a socialsociale dilemmadilemma.
107
336600
1560
Si chiama dilemma sociale.
05:51
And to understandcapire the socialsociale dilemmadilemma,
108
339160
1816
E per capire un dilemma sociale,
05:53
we have to go a little bitpo
back in historystoria.
109
341000
2040
dobbiamo andare
un po' indietro nella storia.
05:56
In the 1800s,
110
344000
2576
Nel diciannovesimo secolo,
05:58
EnglishInglese economisteconomista WilliamWilliam ForsterForster LloydLloyd
publishedpubblicato a pamphletopuscolo
111
346600
3736
l'economista inglese William Forster Lloyd
ha pubblicato un opuscolo
06:02
whichquale describesdescrive the followinga seguire scenarioscenario.
112
350360
2216
che descrive il seguente scenario.
06:04
You have a groupgruppo of farmersagricoltori --
113
352600
1656
C'è un gruppo di agricoltori --
06:06
EnglishInglese farmersagricoltori --
114
354280
1336
agricoltori inglesi --
06:07
who are sharingcompartecipazione a commonComune landsbarcare
for theirloro sheeppecora to grazepascolare.
115
355640
2680
che dividono una terra comune
dove pascolano le loro pecore.
06:11
Now, if eachogni farmercontadino
bringsporta a certaincerto numbernumero of sheeppecora --
116
359520
2576
Se un agricoltore ha
un certo numero di pecore --
06:14
let's say threetre sheeppecora --
117
362120
1496
diciamo tre pecore --
06:15
the landsbarcare will be rejuvenatedringiovanito,
118
363640
2096
la terra sarà rinvigorita,
06:17
the farmersagricoltori are happycontento,
119
365760
1216
gli agricoltori felici,
06:19
the sheeppecora are happycontento,
120
367000
1616
le pecore felici,
06:20
everything is good.
121
368640
1200
tutti contenti.
06:22
Now, if one farmercontadino bringsporta one extraextra sheeppecora,
122
370440
2520
Se un agricoltore
porta una pecora aggiuntiva,
06:25
that farmercontadino will do slightlyleggermente better,
and no one elsealtro will be harmedoffeso.
123
373800
4720
quell'agricoltore farà un po' meglio,
e nessun altro ne avrà un danno.
06:31
But if everyogni farmercontadino madefatto
that individuallyindividualmente rationalrazionale decisiondecisione,
124
379160
3640
Ma se ogni agricoltore prendesse
questa razionale arbitraria decisione,
06:35
the landsbarcare will be overrunsovraccarico del,
and it will be depletedimpoverito
125
383840
2720
la terra verrebbe abusata ed impoverita
06:39
to the detrimentdetrimento of all the farmersagricoltori,
126
387360
2176
a scapito di tutti gli agricoltori
06:41
and of coursecorso,
to the detrimentdetrimento of the sheeppecora.
127
389560
2120
e, ovviamente, a scapito della pecora.
06:44
We see this problemproblema in manymolti placesposti:
128
392720
3680
Osserviamo questo problema in molti posti:
06:49
in the difficultydifficoltà of managinggestione overfishingpesca eccessiva,
129
397080
3176
nella difficoltà di gestire la sovrapesca,
06:52
or in reducingriducendo carboncarbonio emissionsemissioni
to mitigatemitigare climateclima changemodificare.
130
400280
4560
o nel ridurre le emissioni di carbonio
per mitigare il cambiamento climatico.
06:59
When it comesviene to the regulationregolamento
of driverlesssenza conducente carsautomobili,
131
407160
2920
Quando si parla di regolamentazione
di veicoli a guida autonoma,
07:03
the commonComune landsbarcare now
is basicallyfondamentalmente publicpubblico safetysicurezza --
132
411080
4336
l'argomento comune è ora principalmente
la sicurezza pubblica --
07:07
that's the commonComune good --
133
415440
1240
che è un bene comune --
07:09
and the farmersagricoltori are the passengerspasseggeri
134
417400
1976
e gli agricoltori sono passeggeri
07:11
or the carauto ownersproprietari who are choosingscegliendo
to ridecavalcata in those carsautomobili.
135
419400
3600
o automobilisti che stanno scegliendo
di guidare questa macchine.
07:16
And by makingfabbricazione the individuallyindividualmente
rationalrazionale choicescelta
136
424960
2616
E facendo questa scelta
arbitraria e razionale
07:19
of prioritizingDare la priorità theirloro ownproprio safetysicurezza,
137
427600
2816
di preferire la propria sicurezza,
07:22
they maypuò collectivelycollettivamente be
diminishingdiminuzione the commonComune good,
138
430440
3136
possono collettivamente diminuire
il bene comune,
07:25
whichquale is minimizingriducendo al minimo totaltotale harmdanno.
139
433600
2200
che è minimizzare il danno totale.
07:30
It's calledchiamato the tragedytragedia of the commonspopolo,
140
438320
2136
È chiamata la tragedia dei beni comuni,
07:32
traditionallytradizionalmente,
141
440480
1296
normalmente,
07:33
but I think in the casecaso
of driverlesssenza conducente carsautomobili,
142
441800
3096
ma penso che anche nel caso
dei veicoli a guida autonoma,
07:36
the problemproblema maypuò be
a little bitpo more insidiousinsidioso
143
444920
2856
il problema potrebbe essere
un po' più insidioso
07:39
because there is not necessarilynecessariamente
an individualindividuale humanumano beingessere
144
447800
3496
perché non è necessariamente
un essere umano
07:43
makingfabbricazione those decisionsdecisioni.
145
451320
1696
a prendere queste decisioni.
07:45
So carauto manufacturersproduttori
maypuò simplysemplicemente programprogramma carsautomobili
146
453040
3296
Quindi i produttori di autoveicoli
potrebbero programmare le loro auto
07:48
that will maximizemassimizzare safetysicurezza
for theirloro clientsclienti,
147
456360
2520
per massimizzare
la sicurezza dei loro clienti,
07:52
and those carsautomobili maypuò learnimparare
automaticallyautomaticamente on theirloro ownproprio
148
460080
2976
e queste auto potrebbero
imparare automaticamente, loro stesse,
che per fare ciò devono incrementare
leggermente il rischio per i pedoni.
07:55
that doing so requiresrichiede slightlyleggermente
increasingcrescente riskrischio for pedestrianspedoni.
149
463080
3520
07:59
So to use the sheeppecora metaphormetafora,
150
467520
1416
Usando la metafora della pecora,
08:00
it's like we now have electricelettrico sheeppecora
that have a mindmente of theirloro ownproprio.
151
468960
3616
è come se avessimo delle pecore elettriche
dotate di una propria mente.
08:04
(LaughterRisate)
152
472600
1456
(Risate)
08:06
And they maypuò go and grazepascolare
even if the farmercontadino doesn't know it.
153
474080
3080
Che possono andare a pascolare
senza che l'agricoltore lo sappia.
08:10
So this is what we maypuò call
the tragedytragedia of the algorithmicalgoritmico commonspopolo,
154
478640
3976
Questa è quella che potremmo chiamare
la tragedia degli "algoritmi comuni"
08:14
and if offersofferte newnuovo typestipi of challengessfide.
155
482640
2360
e offre nuovi tipi di sfide.
08:22
TypicallyIn genere, traditionallytradizionalmente,
156
490520
1896
Normalmente e tradizionalmente,
08:24
we solverisolvere these typestipi
of socialsociale dilemmasdilemmi usingutilizzando regulationregolamento,
157
492440
3336
risolviamo questo tipo
di dilemmi sociali
usando la regolamentazione,
08:27
so eithero governmentsi governi
or communitiescomunità get togetherinsieme,
158
495800
2736
Così sia i governi,
che le comunità si uniscono,
08:30
and they decidedecidere collectivelycollettivamente
what kindgenere of outcomerisultato they want
159
498560
3736
e decidono collettivamente
quale tipo di risultato vogliono
08:34
and what sortordinare of constraintsvincoli
on individualindividuale behaviorcomportamento
160
502320
2656
e quale tipo di restrizione
sul comportamento individuale
08:37
they need to implementstrumento.
161
505000
1200
è necessario introdurre.
08:39
And then usingutilizzando monitoringmonitoraggio and enforcementrinforzo,
162
507600
2616
E usando il monitoraggio e l'applicazione,
possono assicurare
che il bene pubblico sia preservato.
08:42
they can make sure
that the publicpubblico good is preservedconservati.
163
510240
2559
08:45
So why don't we just,
164
513440
1575
Quindi perché non richiediamo,
08:47
as regulatorsregolatori,
165
515039
1496
da regolamentatori,
08:48
requirerichiedere that all carsautomobili minimizeminimizzare harmdanno?
166
516559
2897
soltanto che tutte le macchine
minimizzino il danno?
08:51
After all, this is
what people say they want.
167
519480
2240
Dopotutto, questo è quello
che le persone dicono di volere.
08:55
And more importantlyimportante,
168
523200
1416
E soprattutto
08:56
I can be sure that as an individualindividuale,
169
524640
3096
posso essere sicuro come individuo
08:59
if I buyacquistare a carauto that maypuò
sacrificesacrificio me in a very rareraro casecaso,
170
527760
3856
che, se comprassi una macchina
che potrebbe sacrificarmi in rari casi,
09:03
I'm not the only suckerPollone doing that
171
531640
1656
non sia io l'unico babbeo a farlo
09:05
while everybodytutti elsealtro
enjoysgode di unconditionalincondizionato protectionprotezione.
172
533320
2680
mentre tutti gli altri si godono
la loro protezione incondizionata.
09:09
In our surveysondaggio, we did askChiedere people
whetherse they would supportsupporto regulationregolamento
173
537120
3336
Nel nostro sondaggio,
abbiamo domandato alle persone
se sostengono la regolamentazione
e abbiamo scoperto
09:12
and here'secco what we foundtrovato.
174
540480
1200
09:14
First of all, people
said no to regulationregolamento;
175
542360
3760
che prima di tutto, le persone
hanno detto no alla regolamentazione;
09:19
and secondsecondo, they said,
176
547280
1256
e poi hanno detto,
09:20
"Well if you regulateregolare carsautomobili to do this
and to minimizeminimizzare totaltotale harmdanno,
177
548560
3936
"Se voi regolamentate le macchine
a minimizzare il danno totale,
09:24
I will not buyacquistare those carsautomobili."
178
552520
1480
io non le comprerò."
09:27
So ironicallyironicamente,
179
555400
1376
Così ironicamente,
09:28
by regulatingregolazione carsautomobili to minimizeminimizzare harmdanno,
180
556800
3496
dal regolamentare le macchine
a minimizzare il danno
09:32
we maypuò actuallyin realtà endfine up with more harmdanno
181
560320
1840
finiamo per creare un danno maggiore
09:35
because people maypuò not
optoptare into the saferpiù sicuro technologytecnologia
182
563040
3656
perché le persone potrebbero
non scegliere la tecnologia più sicura,
09:38
even if it's much saferpiù sicuro
than humanumano driversdriver.
183
566720
2080
anche se fosse più sicura
degli autisti umani.
09:42
I don't have the finalfinale
answerrisposta to this riddleRiddle,
184
570360
3416
Non ho una risposta finale
a questo rompicapo,
09:45
but I think as a startingdi partenza pointpunto,
185
573800
1576
ma penso che come punto di partenza,
09:47
we need societysocietà to come togetherinsieme
186
575400
3296
ci serve una società coesa
09:50
to decidedecidere what trade-offstrade-off
we are comfortableconfortevole with
187
578720
2760
per decidere il compromesso
con cui siamo più a nostro agio
09:54
and to come up with waysmodi
in whichquale we can enforceimporre those trade-offstrade-off.
188
582360
3480
e trovare delle soluzioni per poter
applicare questi compromessi.
09:58
As a startingdi partenza pointpunto,
my brilliantbrillante studentsstudenti,
189
586520
2536
Come punto di partenza,
i miei brillanti studenti,
10:01
EdmondEdmond AwadAwad and SohanSohan DsouzaDsouza,
190
589080
2456
Edmond Awad e Sohan Dsouza,
10:03
builtcostruito the MoralMorale MachineMacchina websiteSito web,
191
591560
1800
hanno costruito il sito Internet
della Macchina Morale,
10:06
whichquale generatesgenera randomcasuale scenariosscenari at you --
192
594200
2680
che genera scenari casuali --
10:10
basicallyfondamentalmente a bunchmazzo
of randomcasuale dilemmasdilemmi in a sequencesequenza
193
598080
2456
praticamente una serie
di dilemmi in sequenza
10:12
where you have to choosescegliere what
the carauto should do in a givendato scenarioscenario.
194
600560
3920
dove bisogna scegliere cosa deve fare
la macchina in uno specifico scenario.
10:17
And we varyvariare the agesevo and even
the speciesspecie of the differentdiverso victimsvittime.
195
605040
4600
Facciamo variare l'età
e anche la specie delle vittime.
10:23
So farlontano we'venoi abbiamo collectedraccolto
over fivecinque millionmilione decisionsdecisioni
196
611040
3696
Fino ad oggi abbiamo raccolto
più di cinque milioni di decisioni
da più di un milione di persone
nel mondo
10:26
by over one millionmilione people worldwideIn tutto il mondo
197
614760
2200
grazie al sito.
10:30
from the websiteSito web.
198
618400
1200
10:32
And this is helpingporzione us
formmodulo an earlypresto pictureimmagine
199
620360
2416
E questo ci aiuta
ad avere un'idea iniziale
10:34
of what trade-offstrade-off
people are comfortableconfortevole with
200
622800
2616
delle scelte con cui
le persone sono a loro agio,
10:37
and what mattersquestioni to them --
201
625440
1896
e che cosa è importante per loro --
10:39
even acrossattraverso culturesculture.
202
627360
1440
anche tra varie culture.
10:42
But more importantlyimportante,
203
630240
1496
Ma soprattutto,
10:43
doing this exerciseesercizio
is helpingporzione people recognizericonoscere
204
631760
3376
fare questo esercizio aiuta
le persone a riconoscere
10:47
the difficultydifficoltà of makingfabbricazione those choicesscelte
205
635160
2816
che compiere queste scelte
è complesso
10:50
and that the regulatorsregolatori
are taskedil compito with impossibleimpossibile choicesscelte.
206
638000
3800
e che chi decide le regole
è incaricato di scelte impossibili.
10:55
And maybe this will help us as a societysocietà
understandcapire the kindstipi of trade-offstrade-off
207
643360
3576
E forse questo può aiutarci come società
a riconoscere l'importanza delle decisioni
10:58
that will be implementedimplementato
ultimatelyin definitiva in regulationregolamento.
208
646960
3056
che possono infine
diventare regolamentazione.
11:02
And indeedinfatti, I was very happycontento to hearsentire
209
650040
1736
E sono davvero stato
felice di sentire
11:03
that the first setimpostato of regulationsnormativa
210
651800
2016
che la prima serie di regolamentazioni
11:05
that cameè venuto from
the DepartmentDipartimento of TransportTrasporto --
211
653840
2136
ricevuta dal Dipartimento dei Trasporti --
11:08
announcedannunciato last weeksettimana --
212
656000
1376
annunciata la scorsa settimana --
11:09
includedincluso a 15-point-punto checklistlista di controllo
for all carmakersCase automobilistiche to providefornire,
213
657400
6576
include una lista di 15 punti
che ogni produttore di auto deve fornire,
11:16
and numbernumero 14 was ethicaletico considerationconsiderazione --
214
664000
3256
e la numero 14 era
una considerazione etica --
11:19
how are you going to dealaffare with that.
215
667280
1720
su come vogliono gestire la cosa.
11:23
We alsoanche have people
reflectriflettere on theirloro ownproprio decisionsdecisioni
216
671800
2656
Abbiamo anche persone
che riflettono sulle loro decisioni
11:26
by givingdando them summariessintesi
of what they chosescelto.
217
674480
3000
e danno descrizioni delle loro scelte.
11:30
I'll give you one exampleesempio --
218
678440
1656
Vi faccio un esempio --
11:32
I'm just going to warnavvisare you
that this is not your typicaltipico exampleesempio,
219
680120
3536
vi voglio solo avvisare
che non è il tipico esempio,
11:35
your typicaltipico userutente.
220
683680
1376
il tipico utente.
11:37
This is the mostmaggior parte sacrificedsacrificato and the mostmaggior parte
savedsalvato charactercarattere for this personpersona.
221
685080
3616
Questi sono il più sacrificabile e
il più salvabile soggetto
per questa persona.
11:40
(LaughterRisate)
222
688720
5200
(Risate)
11:46
Some of you maypuò agreeessere d'accordo with him,
223
694680
1896
Alcuni di voi potrebbero
essere d'accordo con lui,
11:48
or her, we don't know.
224
696600
1640
o lei, non lo sappiamo.
11:52
But this personpersona alsoanche seemssembra to slightlyleggermente
preferpreferire passengerspasseggeri over pedestrianspedoni
225
700480
6136
Ma questa persona sembra anche
preferire i passeggeri ai pedoni,
11:58
in theirloro choicesscelte
226
706640
2096
nelle sue scelte,
ed è molto contenta di punire
chi attraversa distrattamente.
12:00
and is very happycontento to punishpunire jaywalkingJaywalking.
227
708760
2816
12:03
(LaughterRisate)
228
711600
3040
(Risate)
12:09
So let's wrapavvolgere up.
229
717320
1216
Quindi, riepilogando.
12:10
We startediniziato with the questiondomanda --
let's call it the ethicaletico dilemmadilemma --
230
718559
3416
Siamo partiti con un quesito --
chiamiamolo, dilemma etico --
12:14
of what the carauto should do
in a specificspecifica scenarioscenario:
231
722000
3056
di cosa la macchina dovrebbe fare
in uno scenario specifico:
12:17
swerveSwerve or stayrestare?
232
725080
1200
sterzare o rimanere?
12:19
But then we realizedrealizzato
that the problemproblema was a differentdiverso one.
233
727240
2736
Poi abbiamo realizzato
che il problema era differente.
12:22
It was the problemproblema of how to get
societysocietà to agreeessere d'accordo on and enforceimporre
234
730000
4536
Era un problema di come
far accettare alla società, e applicare
12:26
the trade-offstrade-off they're comfortableconfortevole with.
235
734560
1936
le scelte su cui è più a suo agio.
12:28
It's a socialsociale dilemmadilemma.
236
736520
1256
È un dilemma sociale.
12:29
In the 1940s, IsaacIsaac AsimovAsimov
wroteha scritto his famousfamoso lawslegislazione of roboticsRobotica --
237
737800
5016
Negli anni '40, Isaac Asimov ha scritto
le sue famose leggi sulla robotica --
12:34
the threetre lawslegislazione of roboticsRobotica.
238
742840
1320
le tre leggi della robotica.
12:37
A robotrobot maypuò not harmdanno a humanumano beingessere,
239
745240
2456
Un robot non può recar danno
a un essere umano,
12:39
a robotrobot maypuò not disobeydisobbedire a humanumano beingessere,
240
747720
2536
un robot deve obbedire
agli ordini degli esseri umani,
12:42
and a robotrobot maypuò not allowpermettere
itselfsi to come to harmdanno --
241
750280
3256
un robot deve proteggere
la propria esistenza --
12:45
in this orderordine of importanceimportanza.
242
753560
1960
in questo ordine di importanza.
12:48
But after 40 yearsanni or so
243
756360
2136
Ma dopo circa 40 anni,
12:50
and after so manymolti storiesstorie
pushingspingendo these lawslegislazione to the limitlimite,
244
758520
3736
e dopo così tante storie che hanno portato
queste leggi fino ai massimi limiti,
12:54
AsimovAsimov introducedintrodotto the zerothnumero zero lawlegge
245
762280
3696
Asimov ha introdotto la sua legge zero
12:58
whichquale takes precedenceprecedenza abovesopra all,
246
766000
2256
che precede tutte le altre,
13:00
and it's that a robotrobot
maypuò not harmdanno humanityumanità as a wholetotale.
247
768280
3280
e dice che un robot non può
recare danno all'umanità intera.
13:04
I don't know what this meanssi intende
in the contextcontesto of driverlesssenza conducente carsautomobili
248
772480
4376
Non so cosa questo significhi
nel contesto delle auto a guida autonoma
13:08
or any specificspecifica situationsituazione,
249
776880
2736
o nelle situazioni specifiche,
13:11
and I don't know how we can implementstrumento it,
250
779640
2216
e non so come possiamo implementarla,
13:13
but I think that by recognizingriconoscendo
251
781880
1536
ma penso che riconoscendo
13:15
that the regulationregolamento of driverlesssenza conducente carsautomobili
is not only a technologicaltecnologico problemproblema
252
783440
6136
che la regolamentazione
delle auto a guida autonoma
non sia solo un problema tecnologico,
13:21
but alsoanche a societaldella società cooperationcooperazione problemproblema,
253
789600
3280
ma anche un problema
di cooperazione sociale,
13:25
I hopesperanza that we can at leastmeno begininizio
to askChiedere the right questionsle domande.
254
793800
2880
spero che potremo almeno
iniziare a farci le giuste domande.
13:29
Thank you.
255
797200
1216
Grazie.
13:30
(ApplauseApplausi)
256
798440
2920
(Applausi)
Translated by Francesca Finetti
Reviewed by antonio parlato

▲Back to top

ABOUT THE SPEAKER
Iyad Rahwan - Computational social scientist
Iyad Rahwan's work lies at the intersection of the computer and social sciences, with a focus on collective intelligence, large-scale cooperation and the social aspects of artificial intelligence.

Why you should listen

Iyad Rahwan is the AT&T Career Development Professor and an associate professor of media arts & sciences at the MIT Media Lab, where he leads the Scalable Cooperation group. A native of Aleppo, Syria, Rahwan holds a PhD. from the University of Melbourne, Australia and is an affiliate faculty at the MIT Institute of Data, Systems and Society (IDSS). He led the winning team in the US State Department's Tag Challenge, using social media to locate individuals in remote cities within 12 hours using only their mug shots. Recently he crowdsourced 30 million decisions from people worldwide about the ethics of AI systems. Rahwan's work appeared in major academic journals, including Science and PNAS, and features regularly in major media outlets, including the New York Times, The Economist and the Wall Street Journal.

(Photo: Victoriano Izquierdo)

More profile about the speaker
Iyad Rahwan | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee