ABOUT THE SPEAKER
Iyad Rahwan - Computational social scientist
Iyad Rahwan's work lies at the intersection of the computer and social sciences, with a focus on collective intelligence, large-scale cooperation and the social aspects of artificial intelligence.

Why you should listen

Iyad Rahwan is the AT&T Career Development Professor and an associate professor of media arts & sciences at the MIT Media Lab, where he leads the Scalable Cooperation group. A native of Aleppo, Syria, Rahwan holds a PhD. from the University of Melbourne, Australia and is an affiliate faculty at the MIT Institute of Data, Systems and Society (IDSS). He led the winning team in the US State Department's Tag Challenge, using social media to locate individuals in remote cities within 12 hours using only their mug shots. Recently he crowdsourced 30 million decisions from people worldwide about the ethics of AI systems. Rahwan's work appeared in major academic journals, including Science and PNAS, and features regularly in major media outlets, including the New York Times, The Economist and the Wall Street Journal.

(Photo: Victoriano Izquierdo)

More profile about the speaker
Iyad Rahwan | Speaker | TED.com
TEDxCambridge

Iyad Rahwan: What moral decisions should driverless cars make?

Iyad Rahwan: Que decisões morais deveriam os carros autónomos fazer?

Filmed:
1,147,381 views

Deveria o teu carro autónomo matar-te caso isso significasse salvar cinco peões? Nesta introdução sobre os dilemas morais de carros autónomos, Iyad Rahwan explora como a tecnologia irá desafiar a nossa moral e explica o seu trabalho de recolha de dados de pessoas reais nas decisões éticas que estamos dispostos (ou não) a fazer.
- Computational social scientist
Iyad Rahwan's work lies at the intersection of the computer and social sciences, with a focus on collective intelligence, large-scale cooperation and the social aspects of artificial intelligence. Full bio

Double-click the English transcript below to play the video.

00:13
TodayHoje I'm going to talk
about technologytecnologia and societysociedade.
0
1000
4080
Hoje, vou falar
sobre tecnologia e sociedade.
00:19
The DepartmentDepartamento of TransportTransportes
estimatedestimado that last yearano
1
7040
3696
O Departamento de Transportes
estimou que, no ano passado,
00:22
35,000 people diedmorreu
from traffictráfego crashesfalhas in the US alonesozinho.
2
10760
4080
morreram 35 mil pessoas devido
a acidentes rodoviários, somente nos EUA.
00:28
WorldwideEm todo o mundo, 1.2 millionmilhão people
diemorrer everycada yearano in traffictráfego accidentsacidentes.
3
16040
4800
A nível mundial, 1,2 milhões de pessoas
morrem por ano em acidentes rodoviários.
00:33
If there was a way we could eliminateeliminar
90 percentpor cento of those accidentsacidentes,
4
21760
4096
Se existisse uma forma de eliminar
90% desses acidentes,
vocês iriam apoiá-la?
00:37
would you supportApoio, suporte it?
5
25880
1200
00:39
Of coursecurso you would.
6
27720
1296
Claro que sim.
00:41
This is what driverlessnecessita de drivers carcarro technologytecnologia
promisespromessas to achievealcançar
7
29040
3655
É isto que a tecnologia de
carros autónomos pretende alcançar
00:44
by eliminatingeliminando the maina Principal
sourcefonte of accidentsacidentes --
8
32720
2816
ao eliminar a causa principal
dos acidentes
00:47
humanhumano errorerro.
9
35560
1200
— o erro humano.
00:49
Now picturecenário yourselfvocê mesmo
in a driverlessnecessita de drivers carcarro in the yearano 2030,
10
37920
5416
Imaginem-se num carro autónomo
no ano de 2030,
00:55
sittingsentado back and watchingassistindo
this vintagevintage TEDxCambridgeTEDxCambridge videovídeo.
11
43360
3456
descontraídos e a ver este vídeo
"vintage" do TEDxCambridge.
00:58
(LaughterRiso)
12
46840
2000
(Risos)
01:01
All of a suddende repente,
13
49520
1216
De repente,
01:02
the carcarro experiencesexperiências mechanicalmecânico failurefalha
and is unableincapaz to stop.
14
50760
3280
o carro sofre uma falha mecânica
e é incapaz de parar.
01:07
If the carcarro continuescontinuou,
15
55360
1520
Se o carro continuar em frente,
01:09
it will crashbatida into a bunchgrupo
of pedestrianspedestres crossingcruzando the streetrua,
16
57720
4120
irá colidir com um monte de peões
que atravessam a rua,
01:15
but the carcarro maypode swerveSwerve,
17
63080
2135
mas o carro poderá desviar-se,
01:17
hittingbatendo one bystanderespectador,
18
65239
1857
atingindo um peão no passeio,
01:19
killingmatando them to saveSalve  the pedestrianspedestres.
19
67120
2080
matando-o para salvar os restantes peões.
01:22
What should the carcarro do,
and who should decidedecidir?
20
70040
2600
O que deverá o carro fazer,
e quem deverá decidir?
01:25
What if insteadem vez de the carcarro
could swerveSwerve into a wallparede,
21
73520
3536
E se o carro pudesse desviar-se
contra uma parede,
01:29
crashingdeixar de funcionar and killingmatando you, the passengerpassageiros,
22
77080
3296
chocando e matando o passageiro,
01:32
in orderordem to saveSalve  those pedestrianspedestres?
23
80400
2320
de forma a salvar aqueles peões?
01:35
This scenariocenário is inspiredinspirado
by the trolleycarrinho problemproblema,
24
83240
3080
Este cenário é inspirado
pelo dilema do elétrico,
01:38
whichqual was inventedinventado
by philosophersfilósofos a fewpoucos decadesdécadas agoatrás
25
86960
3776
inventado por filósofos
há algumas décadas,
01:42
to think about ethicsética.
26
90760
1240
para pensar sobre a ética.
01:46
Now, the way we think
about this problemproblema mattersimporta.
27
94120
2496
A forma como pensamos
neste problema é importante.
01:48
We maypode for exampleexemplo
not think about it at all.
28
96640
2616
Por exemplo, nós podemos
nem sequer pensar nele.
01:51
We maypode say this scenariocenário is unrealisticirrealista,
29
99280
3376
Podemos dizer que
este cenário é irrealista,
01:54
incrediblyincrivelmente unlikelyimprovável, or just sillyboba.
30
102680
2320
extremamente improvável
ou simplesmente absurdo.
01:57
But I think this criticismcrítica
missessente falta the pointponto
31
105760
2736
Mas eu acho que esta crítica
perde de vista o objetivo
02:00
because it takes
the scenariocenário too literallyliteralmente.
32
108520
2160
porque leva o cenário demasiado à letra.
02:03
Of coursecurso no accidentacidente
is going to look like this;
33
111920
2736
É óbvio que nenhum acidente
se parecerá com este;
02:06
no accidentacidente has two or threetrês optionsopções
34
114680
3336
nenhum acidente tem duas ou três opções
02:10
where everybodytodo mundo diesmorre somehowde alguma forma.
35
118040
2000
em que alguém acaba morto inevitavelmente.
02:13
InsteadEm vez disso, the carcarro is going
to calculatecalcular something
36
121480
2576
Em vez disso, o carro irá calcular algo
02:16
like the probabilityprobabilidade of hittingbatendo
a certaincerto groupgrupo of people,
37
124080
4896
como a probabilidade de embater
num certo grupo de pessoas
02:21
if you swerveSwerve one directiondireção
versusversus anotheroutro directiondireção,
38
129000
3336
e, caso se desvie para
uma direção ou para outra,
02:24
you mightpoderia slightlylevemente increaseaumentar the riskrisco
to passengerspassageiros or other driversdrivers
39
132360
3456
poderá aumentar o risco dos passageiros
ou de outros condutores
02:27
versusversus pedestrianspedestres.
40
135840
1536
em vez dos peões.
02:29
It's going to be
a more complexcomplexo calculationCálculo,
41
137400
2160
Irá ser um cálculo mais complexo,
02:32
but it's still going
to involveenvolver trade-offstrade-offs,
42
140480
2520
mas irá envolver na mesma
tomar decisões
02:35
and trade-offstrade-offs oftenfrequentemente requireexigem ethicsética.
43
143840
2880
e muitas das vezes,
tomar essas decisões requer ética.
02:39
We mightpoderia say then,
"Well, let's not worrypreocupação about this.
44
147840
2736
Podemos dizer:
"Não nos vamos preocupar com isso.
02:42
Let's wait untilaté technologytecnologia
is fullytotalmente readypronto and 100 percentpor cento safeseguro."
45
150600
4640
"Vamos esperar até que a tecnologia esteja
totalmente desenvolvida e 100% segura."
02:48
SupposeSuponha que that we can indeedde fato
eliminateeliminar 90 percentpor cento of those accidentsacidentes,
46
156520
3680
Suponhamos que, de facto, se possam
eliminar 90% desses acidentes,
02:53
or even 99 percentpor cento in the nextPróximo 10 yearsanos.
47
161080
2840
ou mesmo 99% nos próximos 10 anos.
02:56
What if eliminatingeliminando
the last one percentpor cento of accidentsacidentes
48
164920
3176
E se eliminar esse 1% dos acidentes
03:00
requiresexige 50 more yearsanos of researchpesquisa?
49
168120
3120
exigir mais 50 anos de pesquisa?
03:04
Should we not adoptadotar the technologytecnologia?
50
172400
1800
Não deveremos adotar a tecnologia?
03:06
That's 60 millionmilhão people
deadmorto in carcarro accidentsacidentes
51
174720
4776
Trata-se de 60 milhões de pessoas
mortas em acidentes,
03:11
if we maintainmanter the currentatual ratetaxa.
52
179520
1760
se mantivermos o ritmo atual.
03:14
So the pointponto is,
53
182760
1216
Isto significa que
esperar por segurança total
03:16
waitingesperando for fullcheio safetysegurança is alsoAlém disso a choiceescolha,
54
184000
3616
também é uma escolha
03:19
and it alsoAlém disso involvesenvolve trade-offstrade-offs.
55
187640
2160
e também envolve tomar decisões.
03:23
People onlineconectados on socialsocial mediameios de comunicação
have been comingchegando up with all sortstipos of waysmaneiras
56
191560
4336
Nas redes sociais, as pessoas
têm arranjado inúmeras formas
03:27
to not think about this problemproblema.
57
195920
2016
para não ter de pensar neste problema.
03:29
One personpessoa suggestedsugerido
the carcarro should just swerveSwerve somehowde alguma forma
58
197960
3216
Uma pessoa sugeriu que o carro
devia, de alguma forma,
03:33
in betweenentre the passengerspassageiros --
59
201200
2136
passar entre os peões...
03:35
(LaughterRiso)
60
203360
1016
(Risos)
03:36
and the bystanderespectador.
61
204400
1256
e o peão no passeio.
03:37
Of coursecurso if that's what the carcarro can do,
that's what the carcarro should do.
62
205680
3360
Claro que, se isso for possível,
é o que o carro deve fazer.
03:41
We're interestedinteressado in scenarioscenários
in whichqual this is not possiblepossível.
63
209920
2840
Estamos interessados em cenários
em que isso não é possível.
03:45
And my personalpessoal favoritefavorito
was a suggestionsugestão by a bloggerblogueiro
64
213280
5416
O meu cenário favorito foi
uma sugestão feita por um "blogger",
03:50
to have an ejectejetar buttonbotão in the carcarro
that you presspressione --
65
218720
3016
de o carro ter um botão de ejeção
que se pressiona...
03:53
(LaughterRiso)
66
221760
1216
(Risos)
03:55
just before the carcarro self-destructsse auto-destrói.
67
223000
1667
antes de o carro se autodestruir.
03:56
(LaughterRiso)
68
224691
1680
(Risos)
03:59
So if we acknowledgereconhecer that carscarros
will have to make trade-offstrade-offs on the roadestrada,
69
227840
5200
Se nós reconhecermos que os carros
terão que tomar decisões na estrada,
04:06
how do we think about those trade-offstrade-offs,
70
234200
1880
como devemos ponderar essas decisões
04:09
and how do we decidedecidir?
71
237320
1576
e como é que decidimos?
04:10
Well, maybe we should runcorre a surveypesquisa
to find out what societysociedade wants,
72
238920
3136
Talvez devêssemos fazer um inquérito
para saber o que a sociedade quer
04:14
because ultimatelyem última análise,
73
242080
1456
porque, em última análise,
04:15
regulationsregulamentos and the lawlei
are a reflectionreflexão of societalsocietal valuesvalores.
74
243560
3960
as normas e as leis são o espelho
dos valores da sociedade.
04:20
So this is what we did.
75
248040
1240
Então foi o que fizemos.
04:21
With my collaboratorscolaboradores,
76
249880
1616
Com os meus colaboradores,
04:23
Jean-FranJean-FrançoisçoisOIS BonnefonBonnefon and AzimAzim ShariffSouza,
77
251520
2336
Jean-François Bonnefon e Azim Shariff,
04:25
we rancorreu a surveypesquisa
78
253880
1616
realizámos um inquérito
04:27
in whichqual we presentedapresentado people
with these typestipos of scenarioscenários.
79
255520
2855
no qual apresentámos às pessoas
estes tipos de cenários.
04:30
We gavedeu them two optionsopções
inspiredinspirado by two philosophersfilósofos:
80
258399
3777
Demos-lhes duas opções,
inspiradas por dois filósofos:
04:34
JeremyJeremy BenthamBentham and ImmanuelImmanuel KantKant.
81
262200
2640
Jeremy Bentham e Immanuel Kant.
04:37
BenthamBentham saysdiz the carcarro
should followSegue utilitarianutilitária ethicsética:
82
265600
3096
Bentham diz que o carro
deve seguir a ética utilitarista:
04:40
it should take the actionaçao
that will minimizeminimizar totaltotal harmprejuízo --
83
268720
3416
fazer aquilo que irá
minimizar os danos totais
04:44
even if that actionaçao will killmatar a bystanderespectador
84
272160
2816
— mesmo que isso implique
matar um peão no passeio
04:47
and even if that actionaçao
will killmatar the passengerpassageiros.
85
275000
2440
e, mesmo que isso
acabe por matar o passageiro.
04:50
ImmanuelImmanuel KantKant saysdiz the carcarro
should followSegue duty-bounddever principlesprincípios,
86
278120
4976
Immanul Kant diz que o carro
deve seguir princípios morais,
04:55
like "ThouTu shaltDeverás not killmatar."
87
283120
1560
como "Não matarás."
04:57
So you should not take an actionaçao
that explicitlyexplicitamente harmsprejudica a a humanhumano beingser,
88
285480
4456
Então, não se deve agir, caso isso
implique magoar um ser humano,
05:01
and you should let the carcarro take its coursecurso
89
289960
2456
e deverá deixar-se que o carro
siga o seu percurso
05:04
even if that's going to harmprejuízo more people.
90
292440
1960
mesmo que se magoem mais pessoas.
05:07
What do you think?
91
295640
1200
O que acham?
05:09
BenthamBentham or KantKant?
92
297360
1520
Bentham ou Kant?
05:11
Here'sAqui é what we foundencontrado.
93
299760
1256
Estes são os resultados.
05:13
MostMaioria people sidedfrente e verso with BenthamBentham.
94
301040
1800
A maioria concordou com Bentham.
05:16
So it seemsparece that people
want carscarros to be utilitarianutilitária,
95
304160
3776
Parece que as pessoas preferem
que os carros sejam utilitários,
minimizem os danos totais,
e é isso que todos nós devemos fazer.
05:19
minimizeminimizar totaltotal harmprejuízo,
96
307960
1416
05:21
and that's what we should all do.
97
309400
1576
05:23
ProblemProblema solvedresolvido.
98
311000
1200
Problema resolvido.
05:25
But there is a little catchpegar.
99
313240
1480
Mas há um pequeno senão.
05:27
When we askedperguntei people
whetherse they would purchasecompra suchtal carscarros,
100
315920
3736
Quando perguntámos às pessoas
se elas comprariam esses carros,
05:31
they said, "AbsolutelyAbsolutamente not."
101
319680
1616
elas responderam: "Claro que não."
05:33
(LaughterRiso)
102
321320
2296
(Risos)
05:35
They would like to buyComprar carscarros
that protectproteger them at all costscusta,
103
323640
3896
Elas gostariam de comprar carros
que as protegessem a todo o custo,
05:39
but they want everybodytodo mundo elseoutro
to buyComprar carscarros that minimizeminimizar harmprejuízo.
104
327560
3616
mas querem que os restantes
comprem carros que minimizem os danos.
05:43
(LaughterRiso)
105
331200
2520
(Risos)
05:46
We'veTemos seenvisto this problemproblema before.
106
334720
1856
Já vimos este problema.
05:48
It's calledchamado a socialsocial dilemmadilema.
107
336600
1560
Chama-se dilema social.
05:51
And to understandCompreendo the socialsocial dilemmadilema,
108
339160
1816
Para perceber o dilema social,
05:53
we have to go a little bitpouco
back in historyhistória.
109
341000
2040
temos que recuar um pouco na história.
05:56
In the 1800s,
110
344000
2576
No início do século XIX,
05:58
EnglishInglês economisteconomista WilliamWilliam ForsterForster LloydLloyd
publishedPublicados a pamphletpanfleto
111
346600
3736
o economista inglês William Forster Lloyd
publicou um folheto
06:02
whichqual describesdescreve the followingSegue scenariocenário.
112
350360
2216
que descrevia o seguinte cenário:
06:04
You have a groupgrupo of farmersagricultores --
113
352600
1656
Temos um grupo de pastores
— pastores ingleses —
06:06
EnglishInglês farmersagricultores --
114
354280
1336
06:07
who are sharingcompartilhando a commoncomum landterra
for theirdeles sheepovelha to grazepastar.
115
355640
2680
que partilham um terreno
para as ovelhas pastarem.
06:11
Now, if eachcada farmeragricultor
bringstraz a certaincerto numbernúmero of sheepovelha --
116
359520
2576
Se cada pastor levar
um certo número de ovelhas
06:14
let's say threetrês sheepovelha --
117
362120
1496
— por exemplo, três ovelhas —
06:15
the landterra will be rejuvenatedrejuvenescida,
118
363640
2096
o terreno recuperará,
os pastores ficam contentes,
06:17
the farmersagricultores are happyfeliz,
119
365760
1216
06:19
the sheepovelha are happyfeliz,
120
367000
1616
as ovelhas ficam contentes,
06:20
everything is good.
121
368640
1200
tudo fica bem.
06:22
Now, if one farmeragricultor bringstraz one extraextra sheepovelha,
122
370440
2520
Se um pastor levar uma ovelha extra,
06:25
that farmeragricultor will do slightlylevemente better,
and no one elseoutro will be harmedprejudicado.
123
373800
4720
terá uma pequena vantagem,
mas ninguém será prejudicado.
06:31
But if everycada farmeragricultor madefeito
that individuallyindividualmente rationalracional decisiondecisão,
124
379160
3640
Mas, se cada pastor tomar
a mesma decisão,
06:35
the landterra will be overrunsuperação,
and it will be depletedesgotado
125
383840
2720
a terra será sobreutilizada
e ficará empobrecida
06:39
to the detrimentdetrimento of all the farmersagricultores,
126
387360
2176
prejudicando todos os pastores
06:41
and of coursecurso,
to the detrimentdetrimento of the sheepovelha.
127
389560
2120
e, claro, as ovelhas também.
06:44
We see this problemproblema in manymuitos placeslocais:
128
392720
3680
Vemos este problema em muitos sítios:
06:49
in the difficultydificuldade of managinggerenciamento de overfishingsobrepesca,
129
397080
3176
na dificuldade de controlar
a pesca excessiva,
06:52
or in reducingreduzindo carboncarbono emissionsEmissões
to mitigateatenuar os climateclima changemudança.
130
400280
4560
ou em reduzir as emissões de carbono
para atenuar as mudanças climáticas.
06:59
When it comesvem to the regulationregulamento
of driverlessnecessita de drivers carscarros,
131
407160
2920
Quando se trata da regulamentação
de carros autónomos,
07:03
the commoncomum landterra now
is basicallybasicamente publicpúblico safetysegurança --
132
411080
4336
os terrenos baldios são,
basicamente, a segurança pública
07:07
that's the commoncomum good --
133
415440
1240
— ou seja, o bem comum.
07:09
and the farmersagricultores are the passengerspassageiros
134
417400
1976
Os pastores são os passageiros
07:11
or the carcarro ownersproprietários who are choosingescolhendo
to ridepasseio in those carscarros.
135
419400
3600
ou os donos de carros que escolham
conduzir esse tipo de veículo.
07:16
And by makingfazer the individuallyindividualmente
rationalracional choiceescolha
136
424960
2616
E ao fazer essa escolha
individual e racional
07:19
of prioritizingpriorizando theirdeles ownpróprio safetysegurança,
137
427600
2816
de dar prioridade à sua segurança,
07:22
they maypode collectivelycoletivamente be
diminishingdiminuição the commoncomum good,
138
430440
3136
eles podem estar, em conjunto,
a prejudicar o bem comum,
07:25
whichqual is minimizingminimizando totaltotal harmprejuízo.
139
433600
2200
que é o que está
a minimizar os danos totais.
07:30
It's calledchamado the tragedytragédia of the commonsbens comuns,
140
438320
2136
É a chamada "tragédia dos comuns",
tradicionalmente.
07:32
traditionallytradicionalmente,
141
440480
1296
07:33
but I think in the casecaso
of driverlessnecessita de drivers carscarros,
142
441800
3096
Mas eu penso que, no caso
de carros autónomos,
07:36
the problemproblema maypode be
a little bitpouco more insidiousinsidioso
143
444920
2856
o problema pode ser
um pouco mais insidioso
07:39
because there is not necessarilynecessariamente
an individualIndividual humanhumano beingser
144
447800
3496
pois não é necessariamente um ser humano
07:43
makingfazer those decisionsdecisões.
145
451320
1696
a tomar essas decisões.
07:45
So carcarro manufacturersfabricantes
maypode simplysimplesmente programprograma carscarros
146
453040
3296
Os fabricantes de automóveis
podem programar carros
07:48
that will maximizemaximizar o safetysegurança
for theirdeles clientsclientes,
147
456360
2520
que irão maximizar
a segurança dos seus clientes,
07:52
and those carscarros maypode learnaprender
automaticallyautomaticamente on theirdeles ownpróprio
148
460080
2976
e esses carros poderão aprender sozinhos
07:55
that doing so requiresexige slightlylevemente
increasingaumentando riskrisco for pedestrianspedestres.
149
463080
3520
que, ao fazer isso, aumentará
o risco para os peões.
07:59
So to use the sheepovelha metaphormetáfora,
150
467520
1416
Na metáfora das ovelhas,
08:00
it's like we now have electricelétrico sheepovelha
that have a mindmente of theirdeles ownpróprio.
151
468960
3616
é como se tivéssemos ovelhas eletrónicas
que pensam por si mesmas.
08:04
(LaughterRiso)
152
472600
1456
(Risos)
08:06
And they maypode go and grazepastar
even if the farmeragricultor doesn't know it.
153
474080
3080
Elas podem ir pastar
sem que o pastor saiba disso.
08:10
So this is what we maypode call
the tragedytragédia of the algorithmicalgorítmica commonsbens comuns,
154
478640
3976
É a isso que chamamos
a tragédia dos algoritmos comuns,
08:14
and if offersofertas newNovo typestipos of challengesdesafios.
155
482640
2360
e isso apresenta novos tipos de problemas.
08:22
TypicallyNormalmente, traditionallytradicionalmente,
156
490520
1896
Tipicamente,
08:24
we solveresolver these typestipos
of socialsocial dilemmasdilemas usingusando regulationregulamento,
157
492440
3336
nós resolvemos este tipo de
dilemas sociais com regulamentações
08:27
so eitherou governmentsgovernos
or communitiescomunidades get togetherjuntos,
158
495800
2736
em que os governos
e as comunidades se juntam,
08:30
and they decidedecidir collectivelycoletivamente
what kindtipo of outcomeresultado they want
159
498560
3736
e decidem coletivamente
que tipo de resultado querem
08:34
and what sortordenar of constraintsrestrições
on individualIndividual behaviorcomportamento
160
502320
2656
e que tipo de restrições é necessário
aplicar no comportamento individual.
08:37
they need to implementimplemento.
161
505000
1200
08:39
And then usingusando monitoringmonitoramento and enforcementexecução,
162
507600
2616
E depois, com o acompanhamento
e a sua imposição,
08:42
they can make sure
that the publicpúblico good is preservedpreservada.
163
510240
2559
podem certificar-se de que
o bem público é preservado.
08:45
So why don't we just,
164
513440
1575
Então porque é que nós,
enquanto entidades reguladoras,
08:47
as regulatorsreguladores,
165
515039
1496
08:48
requireexigem that all carscarros minimizeminimizar harmprejuízo?
166
516559
2897
não exigimos que todos os carros
minimizem os danos?
08:51
After all, this is
what people say they want.
167
519480
2240
Afinal, as pessoas dizem
que é isso que querem.
08:55
And more importantlyimportante,
168
523200
1416
E mais importante ainda,
08:56
I can be sure that as an individualIndividual,
169
524640
3096
enquanto indivíduo, tenho a certeza
de que, se comprasse um carro,
08:59
if I buyComprar a carcarro that maypode
sacrificesacrifício me in a very rareraro casecaso,
170
527760
3856
numa situação improvável,
decidisse sacrificar-me,
09:03
I'm not the only suckerSucker doing that
171
531640
1656
eu não seria o único a fazer isso
09:05
while everybodytodo mundo elseoutro
enjoysgosta de unconditionalincondicional protectionprotecção.
172
533320
2680
enquanto as demais pessoas
teriam uma proteção ilimitada.
09:09
In our surveypesquisa, we did askpergunte people
whetherse they would supportApoio, suporte regulationregulamento
173
537120
3336
No inquérito, perguntámos às pessoas
se apoiariam a regulamentação
09:12
and here'saqui está what we foundencontrado.
174
540480
1200
e obtivemos este resultado:
09:14
First of all, people
said no to regulationregulamento;
175
542360
3760
Para começar, as pessoas disseram
que não apoiariam a regulamentação.
09:19
and secondsegundo, they said,
176
547280
1256
E em segundo, disseram:
09:20
"Well if you regulateregular carscarros to do this
and to minimizeminimizar totaltotal harmprejuízo,
177
548560
3936
"Se regulamentarem os carros para
fazer isso e minimizar os danos totais,
09:24
I will not buyComprar those carscarros."
178
552520
1480
"não irei comprar esses carros."
09:27
So ironicallyironicamente,
179
555400
1376
Então, ironicamente,
09:28
by regulatingregulação carscarros to minimizeminimizar harmprejuízo,
180
556800
3496
ao regulamentar os carros
para minimizarem os danos,
09:32
we maypode actuallyna realidade endfim up with more harmprejuízo
181
560320
1840
pode-se estar a causar mais danos
09:35
because people maypode not
optoptar into the safermais segura technologytecnologia
182
563040
3656
pois as pessoas podem não optar
pela tecnologia mais segura
mesmo sendo mais segura
do que os condutores humanos.
09:38
even if it's much safermais segura
than humanhumano driversdrivers.
183
566720
2080
09:42
I don't have the finalfinal
answerresponda to this riddleRiddle,
184
570360
3416
Eu não possuo a resposta final
para este enigma,
mas acho que, para começar,
09:45
but I think as a startinginiciando pointponto,
185
573800
1576
09:47
we need societysociedade to come togetherjuntos
186
575400
3296
é necessário que a sociedade
concorde nas decisões mais adequadas
09:50
to decidedecidir what trade-offstrade-offs
we are comfortableconfortável with
187
578720
2760
09:54
and to come up with waysmaneiras
in whichqual we can enforcereforçar those trade-offstrade-offs.
188
582360
3480
e encontre formas de como
se podem impor essas decisões.
09:58
As a startinginiciando pointponto,
my brilliantbrilhante studentsalunos,
189
586520
2536
Como ponto de partida,
os meus brilhantes alunos,
10:01
EdmondEdmond AwadAwad and SohanRosalina DsouzaDsouza,
190
589080
2456
Edmond Awad e Sohan Dsouza,
10:03
builtconstruído the MoralMoral MachineMáquina websitelocal na rede Internet,
191
591560
1800
criaram o site "Moral Machine",
10:06
whichqual generatesgera randomaleatória scenarioscenários at you --
192
594200
2680
que gera cenários aleatórios
10:10
basicallybasicamente a bunchgrupo
of randomaleatória dilemmasdilemas in a sequenceseqüência
193
598080
2456
— basicamente, um monte
de dilemas aleatórios
em que vocês têm que escolher
10:12
where you have to chooseescolher what
the carcarro should do in a givendado scenariocenário.
194
600560
3920
o que um carro deve fazer
num determinado cenário.
10:17
And we varyvariar the agesidades and even
the speciesespécies of the differentdiferente victimsvítimas.
195
605040
4600
E vamos mudando as idades
e as espécies das diversas vítimas.
10:23
So farlonge we'venós temos collectedcoletado
over fivecinco millionmilhão decisionsdecisões
196
611040
3696
Até agora, recolhemos
mais de cinco milhões de respostas
10:26
by over one millionmilhão people worldwideno mundo todo
197
614760
2200
de mais de 1 milhão de pessoas,
a nível mundial,
10:30
from the websitelocal na rede Internet.
198
618400
1200
através desse site.
10:32
And this is helpingajudando us
formFormato an earlycedo picturecenário
199
620360
2416
Isto está a ajudar-nos
a formar um quadro inicial
10:34
of what trade-offstrade-offs
people are comfortableconfortável with
200
622800
2616
do tipo de decisões que
as pessoas acham adequadas
10:37
and what mattersimporta to them --
201
625440
1896
e o que é importante para elas,
10:39
even acrossatravés culturesculturas.
202
627360
1440
mesmo noutras culturas.
10:42
But more importantlyimportante,
203
630240
1496
Mas mais importante,
10:43
doing this exerciseexercício
is helpingajudando people recognizereconhecer
204
631760
3376
fazer este exercício ajuda as pessoas
a reconhecer a dificuldade
de fazer aquelas escolhas
10:47
the difficultydificuldade of makingfazer those choicesescolhas
205
635160
2816
10:50
and that the regulatorsreguladores
are taskeda tarefa with impossibleimpossível choicesescolhas.
206
638000
3800
e que a entidade reguladora está
incumbida de fazer escolhas impossíveis.
10:55
And maybe this will help us as a societysociedade
understandCompreendo the kindstipos of trade-offstrade-offs
207
643360
3576
Enquanto sociedade, talvez isto nos
ajude a perceber que tipos de decisões
10:58
that will be implementedimplementado
ultimatelyem última análise in regulationregulamento.
208
646960
3056
deverão ser implementadas
na regulamentação.
11:02
And indeedde fato, I was very happyfeliz to hearouvir
209
650040
1736
Fiquei bastante feliz ao ouvir
11:03
that the first setconjunto of regulationsregulamentos
210
651800
2016
que o primeiro conjunto de regulamentações
11:05
that cameveio from
the DepartmentDepartamento of TransportTransportes --
211
653840
2136
anunciado pelo Departamento de Transporte,
na semana passada,
11:08
announcedanunciado last weeksemana --
212
656000
1376
11:09
includedincluído a 15-point-ponto checklistlista de verificação
for all carmakersfabricantes de automóveis to provideprovidenciar,
213
657400
6576
inclui uma lista de 15 pontos
que todos os fabricantes
de automóveis devem fornecer.
11:16
and numbernúmero 14 was ethicalético considerationconsideração --
214
664000
3256
O número 14 foi uma reflexão ética
11:19
how are you going to dealacordo with that.
215
667280
1720
sobre como a pessoa vai lidar com isso.
11:23
We alsoAlém disso have people
reflectrefletir on theirdeles ownpróprio decisionsdecisões
216
671800
2656
Nós fazemos as pessoas
refletir nas suas decisões
11:26
by givingdando them summariesresumos
of what they choseescolheu.
217
674480
3000
ao dar-lhes uma síntese do que escolheram.
11:30
I'll give you one exampleexemplo --
218
678440
1656
Vou dar-vos um exemplo
11:32
I'm just going to warnadvertir you
that this is not your typicaltípica exampleexemplo,
219
680120
3536
e desde já vos aviso que este não é
o exemplo de um utilizador habitual.
11:35
your typicaltípica userdo utilizador.
220
683680
1376
11:37
This is the mosta maioria sacrificedsacrificado and the mosta maioria
savedsalvou characterpersonagem for this personpessoa.
221
685080
3616
Estas são a personagem mais sacrificada
e a mais salvo para esta pessoa.
11:40
(LaughterRiso)
222
688720
5200
(Risos)
11:46
Some of you maypode agreeaceita with him,
223
694680
1896
Alguns de vocês podem concordar com ele,
ou com ela — não sabemos.
11:48
or her, we don't know.
224
696600
1640
11:52
But this personpessoa alsoAlém disso seemsparece to slightlylevemente
preferpreferem passengerspassageiros over pedestrianspedestres
225
700480
6136
Mas esta pessoa preferiu salvar
os passageiros ao invés dos peões
11:58
in theirdeles choicesescolhas
226
706640
2096
nas suas escolhas,
12:00
and is very happyfeliz to punishpunir jaywalkingatravessar fora da faixa.
227
708760
2816
e parece muito feliz por punir
peões que não cumprem a lei.
12:03
(LaughterRiso)
228
711600
3040
(Risos)
12:09
So let's wrapembrulho up.
229
717320
1216
Vamos então, concluir.
12:10
We startedcomeçado with the questionquestão --
let's call it the ethicalético dilemmadilema --
230
718559
3416
Começámos com a questão
— chamemos-lhe dilema ético —
12:14
of what the carcarro should do
in a specificespecífico scenariocenário:
231
722000
3056
sobre o que o carro deverá
fazer num cenário específico:
12:17
swerveSwerve or stayfique?
232
725080
1200
desviar-se ou continuar?
12:19
But then we realizedpercebi
that the problemproblema was a differentdiferente one.
233
727240
2736
Mas depois apercebemo-nos
que o problema era outro.
12:22
It was the problemproblema of how to get
societysociedade to agreeaceita on and enforcereforçar
234
730000
4536
O problema era sobre como levar
a sociedade a concordar e a impor
12:26
the trade-offstrade-offs they're comfortableconfortável with.
235
734560
1936
as decisões que consideram adequadas.
12:28
It's a socialsocial dilemmadilema.
236
736520
1256
É um dilema social.
12:29
In the 1940s, IsaacIsaac AsimovAsimov
wroteescrevi his famousfamoso lawsleis of roboticsrobótica --
237
737800
5016
Nos anos 40, Isaac Asimov escreveu
as suas famosas leis da robótica,
12:34
the threetrês lawsleis of roboticsrobótica.
238
742840
1320
as três leis da robótica.
12:37
A robotrobô maypode not harmprejuízo a humanhumano beingser,
239
745240
2456
Um robô não pode magoar um ser humano,
12:39
a robotrobô maypode not disobeydesobedecer a humanhumano beingser,
240
747720
2536
um robô não pode desobedecer
a um ser humano,
12:42
and a robotrobô maypode not allowpermitir
itselfem si to come to harmprejuízo --
241
750280
3256
e um robô não se pode
danificar-se a ele mesmo
12:45
in this orderordem of importanceimportância.
242
753560
1960
— seguindo esta ordem de importância.
12:48
But after 40 yearsanos or so
243
756360
2136
Mas cerca de 40 anos depois,
12:50
and after so manymuitos storieshistórias
pushingempurrando these lawsleis to the limitlimite,
244
758520
3736
e depois de tantas histórias
que levavam estas leis ao limite,
12:54
AsimovAsimov introducedintroduziu the zerothzeroth lawlei
245
762280
3696
Asimov introduziu a lei zero,
12:58
whichqual takes precedenceprecedência aboveacima all,
246
766000
2256
que as precede a todas,
13:00
and it's that a robotrobô
maypode not harmprejuízo humanityhumanidade as a wholetodo.
247
768280
3280
aquela em que um robô
não pode prejudicar a humanidade.
13:04
I don't know what this meanssignifica
in the contextcontexto of driverlessnecessita de drivers carscarros
248
772480
4376
Eu não sei o que isto significa
no contexto de carros autónomos
13:08
or any specificespecífico situationsituação,
249
776880
2736
ou em qualquer situação específica,
13:11
and I don't know how we can implementimplemento it,
250
779640
2216
e não sei como é que
podemos implementar isto,
13:13
but I think that by recognizingreconhecendo
251
781880
1536
mas acho que, ao reconhecer
13:15
that the regulationregulamento of driverlessnecessita de drivers carscarros
is not only a technologicaltecnológica problemproblema
252
783440
6136
que a regulamentação dos carros autónomos
não é apenas um problema tecnológico,
13:21
but alsoAlém disso a societalsocietal cooperationcooperação problemproblema,
253
789600
3280
mas também um problema
de cooperação social,
13:25
I hopeesperança that we can at leastpelo menos begininício
to askpergunte the right questionsquestões.
254
793800
2880
espero que possamos começar
a fazer as questões certas.
13:29
Thank you.
255
797200
1216
Obrigado.
13:30
(ApplauseAplausos)
256
798440
2920
(Aplausos)
Translated by Diana Almeida
Reviewed by Margarida Ferreira

▲Back to top

ABOUT THE SPEAKER
Iyad Rahwan - Computational social scientist
Iyad Rahwan's work lies at the intersection of the computer and social sciences, with a focus on collective intelligence, large-scale cooperation and the social aspects of artificial intelligence.

Why you should listen

Iyad Rahwan is the AT&T Career Development Professor and an associate professor of media arts & sciences at the MIT Media Lab, where he leads the Scalable Cooperation group. A native of Aleppo, Syria, Rahwan holds a PhD. from the University of Melbourne, Australia and is an affiliate faculty at the MIT Institute of Data, Systems and Society (IDSS). He led the winning team in the US State Department's Tag Challenge, using social media to locate individuals in remote cities within 12 hours using only their mug shots. Recently he crowdsourced 30 million decisions from people worldwide about the ethics of AI systems. Rahwan's work appeared in major academic journals, including Science and PNAS, and features regularly in major media outlets, including the New York Times, The Economist and the Wall Street Journal.

(Photo: Victoriano Izquierdo)

More profile about the speaker
Iyad Rahwan | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee