ABOUT THE SPEAKER
Iyad Rahwan - Computational social scientist
Iyad Rahwan's work lies at the intersection of the computer and social sciences, with a focus on collective intelligence, large-scale cooperation and the social aspects of artificial intelligence.

Why you should listen

Iyad Rahwan is the AT&T Career Development Professor and an associate professor of media arts & sciences at the MIT Media Lab, where he leads the Scalable Cooperation group. A native of Aleppo, Syria, Rahwan holds a PhD. from the University of Melbourne, Australia and is an affiliate faculty at the MIT Institute of Data, Systems and Society (IDSS). He led the winning team in the US State Department's Tag Challenge, using social media to locate individuals in remote cities within 12 hours using only their mug shots. Recently he crowdsourced 30 million decisions from people worldwide about the ethics of AI systems. Rahwan's work appeared in major academic journals, including Science and PNAS, and features regularly in major media outlets, including the New York Times, The Economist and the Wall Street Journal.

(Photo: Victoriano Izquierdo)

More profile about the speaker
Iyad Rahwan | Speaker | TED.com
TEDxCambridge

Iyad Rahwan: What moral decisions should driverless cars make?

Iyad Rahwan: Quais decisões morais os carros autônomos devem tomar?

Filmed:
1,147,381 views

Seu carro autônomo deveria matar você, em vez de cinco pedestres? Nesta introdução sobre os dilemas sociais dos carros autônomos, Iyad Rahwan explora como a tecnologia desafiará nossa moralidade e explica o seu trabalho de obtenção de dados de pessoas comuns, sobre quais compromissos éticos estamos (e quais não estamos) dispostos a aceitar.
- Computational social scientist
Iyad Rahwan's work lies at the intersection of the computer and social sciences, with a focus on collective intelligence, large-scale cooperation and the social aspects of artificial intelligence. Full bio

Double-click the English transcript below to play the video.

00:13
Today I'm going to talk
about technology and society.
0
1000
4080
Hoje, vou falar
sobre tecnologia e sociedade.
00:19
The Department of Transport
estimated that last year
1
7040
3696
O Departamento de Transportes
estimou que, no ano passado,
00:22
35,000 people died
from traffic crashes in the US alone.
2
10760
4080
35 mil pessoas morreram em acidentes
de trânsito, somente nos EUA.
00:28
Worldwide, 1.2 million people
die every year in traffic accidents.
3
16040
4800
No mundo todo, 1,2 milhão de pessoas
morrem por ano em acidentes de trânsito.
00:33
If there was a way we could eliminate
90 percent of those accidents,
4
21760
4096
Se houvesse uma forma de eliminar
90% desses acidentes, você a apoiaria?
00:37
would you support it?
5
25880
1200
00:39
Of course you would.
6
27720
1296
Claro que sim.
00:41
This is what driverless car technology
promises to achieve
7
29040
3655
Isso é o que a tecnologia
de carro autônomo promete realizar,
00:44
by eliminating the main
source of accidents --
8
32720
2816
eliminando a principal fonte
de acidentes, o erro humano.
00:47
human error.
9
35560
1200
00:49
Now picture yourself
in a driverless car in the year 2030,
10
37920
5416
Agora, imagine-se em um carro
sem motorista, no ano de 2030,
00:55
sitting back and watching
this vintage TEDxCambridge video.
11
43360
3456
relaxando e assistindo a este vídeo
vintage do TEDxCambridge.
00:58
(Laughter)
12
46840
2000
(Risos)
01:01
All of a sudden,
13
49520
1216
De repente, o carro tem uma falha
mecânica e não consegue parar.
01:02
the car experiences mechanical failure
and is unable to stop.
14
50760
3280
01:07
If the car continues,
15
55360
1520
Se o carro continuar,
01:09
it will crash into a bunch
of pedestrians crossing the street,
16
57720
4120
vai atropelar um monte de gente
que está atravessando a rua,
01:15
but the car may swerve,
17
63080
2135
mas o carro pode desviar,
atingindo um transeunte,
01:17
hitting one bystander,
18
65239
1857
matando-o, para salvar os pedestres.
01:19
killing them to save the pedestrians.
19
67120
2080
01:22
What should the car do,
and who should decide?
20
70040
2600
O que o carro deve fazer
e quem deve decidir?
01:25
What if instead the car
could swerve into a wall,
21
73520
3536
E se, em vez disso, o carro
pudesse desviar para uma parede,
01:29
crashing and killing you, the passenger,
22
77080
3296
batendo e matando o passageiro,
que é você, para salvar os pedestres?
01:32
in order to save those pedestrians?
23
80400
2320
01:35
This scenario is inspired
by the trolley problem,
24
83240
3080
Este cenário é inspirado
no problema do bonde,
01:38
which was invented
by philosophers a few decades ago
25
86960
3776
que foi concebido por filósofos há algumas
décadas, para se refletir sobre ética.
01:42
to think about ethics.
26
90760
1240
01:46
Now, the way we think
about this problem matters.
27
94120
2496
A forma de pensar
nesse problema é importante.
01:48
We may for example
not think about it at all.
28
96640
2616
Podemos, por exemplo,
simplesmente não pensar nisso.
01:51
We may say this scenario is unrealistic,
29
99280
3376
Podemos dizer que esse cenário não é real,
01:54
incredibly unlikely, or just silly.
30
102680
2320
bastante improvável ou simplesmente tolo.
01:57
But I think this criticism
misses the point
31
105760
2736
Mas acho que essa crítica não procede,
02:00
because it takes
the scenario too literally.
32
108520
2160
porque enfoca o problema
de forma muito literal.
02:03
Of course no accident
is going to look like this;
33
111920
2736
Naturalmente, nenhum acidente
vai se parecer com esse;
02:06
no accident has two or three options
34
114680
3336
nenhum acidente tem duas ou três opções,
02:10
where everybody dies somehow.
35
118040
2000
nas quais alguém acaba morto.
02:13
Instead, the car is going
to calculate something
36
121480
2576
Em vez disso, o carro
vai fazer alguns cálculos,
02:16
like the probability of hitting
a certain group of people,
37
124080
4896
como a probabilidade de atingir
um certo grupo de pessoas,
02:21
if you swerve one direction
versus another direction,
38
129000
3336
se houver um desvio
numa ou noutra direção,
02:24
you might slightly increase the risk
to passengers or other drivers
39
132360
3456
pode-se aumentar o risco
aos passageiros ou a outros motoristas,
02:27
versus pedestrians.
40
135840
1536
versus atropelar os pedestres.
02:29
It's going to be
a more complex calculation,
41
137400
2160
Vai ser um cálculo mais complexo,
02:32
but it's still going
to involve trade-offs,
42
140480
2520
mas ainda vai envolver compromissos,
02:35
and trade-offs often require ethics.
43
143840
2880
e compromissos
frequentemente requerem ética.
02:39
We might say then,
"Well, let's not worry about this.
44
147840
2736
Pode-se dizer: "Bem, não vamos
nos preocupar com isso.
02:42
Let's wait until technology
is fully ready and 100 percent safe."
45
150600
4640
Vamos aguardar até que a tecnologia esteja
totalmente desenvolvida e 100% segura".
02:48
Suppose that we can indeed
eliminate 90 percent of those accidents,
46
156520
3680
Suponha que se possa
eliminar 90% desses acidentes,
02:53
or even 99 percent in the next 10 years.
47
161080
2840
ou mesmo 99% nos próximos 10 anos.
02:56
What if eliminating
the last one percent of accidents
48
164920
3176
E se para eliminar
o último 1% dos acidentes
03:00
requires 50 more years of research?
49
168120
3120
precisássemos de mais 50 anos de pesquisa?
03:04
Should we not adopt the technology?
50
172400
1800
Não deveríamos adotar a tecnologia?
03:06
That's 60 million people
dead in car accidents
51
174720
4776
Serão 60 milhões de pessoas
mortas em acidentes de carro,
03:11
if we maintain the current rate.
52
179520
1760
se mantivermos a taxa atual.
03:14
So the point is,
53
182760
1216
Então a questão é:
03:16
waiting for full safety is also a choice,
54
184000
3616
esperar por uma segurança
total também é uma escolha,
03:19
and it also involves trade-offs.
55
187640
2160
e, também, envolve compromissos.
03:23
People online on social media
have been coming up with all sorts of ways
56
191560
4336
As pessoas nas mídias sociais
aparecem com todo tipo de desculpas
03:27
to not think about this problem.
57
195920
2016
para não pensar sobre isso.
03:29
One person suggested
the car should just swerve somehow
58
197960
3216
Uma pessoa sugeriu que o carro deveria
simplesmente passar entre os pedestres
03:33
in between the passengers --
59
201200
2136
(Risos)
03:35
(Laughter)
60
203360
1016
e o transeunte.
03:36
and the bystander.
61
204400
1256
03:37
Of course if that's what the car can do,
that's what the car should do.
62
205680
3360
Naturalmente, se for possível,
é o que o carro deve fazer.
03:41
We're interested in scenarios
in which this is not possible.
63
209920
2840
Estamos interessados nos casos
em que isso não é possível.
03:45
And my personal favorite
was a suggestion by a blogger
64
213280
5416
E a minha favorita foi
a sugestão de um blogueiro:
03:50
to have an eject button in the car
that you press --
65
218720
3016
que houvesse um botão de ejeção
no carro, que você pressiona,
03:53
(Laughter)
66
221760
1216
(Risos)
03:55
just before the car self-destructs.
67
223000
1667
pouco antes da batida.
03:56
(Laughter)
68
224691
1680
(Risos)
03:59
So if we acknowledge that cars
will have to make trade-offs on the road,
69
227840
5200
Se admitirmos que os carros
terão que tomar decisões nas ruas,
04:06
how do we think about those trade-offs,
70
234200
1880
como resolveremos esses compromissos
04:09
and how do we decide?
71
237320
1576
e como decidiremos?
04:10
Well, maybe we should run a survey
to find out what society wants,
72
238920
3136
Talvez uma pesquisa para avaliar
a posição da sociedade,
04:14
because ultimately,
73
242080
1456
porque, em última instância,
04:15
regulations and the law
are a reflection of societal values.
74
243560
3960
as regulamentações e as leis são
um reflexo dos valores da sociedade.
04:20
So this is what we did.
75
248040
1240
Então, fizemos o seguinte.
04:21
With my collaborators,
76
249880
1616
Com meus colaboradores,
04:23
Jean-François Bonnefon and Azim Shariff,
77
251520
2336
Jean-François Bonnefon e Azim
Shariff, fizemos uma pesquisa
04:25
we ran a survey
78
253880
1616
04:27
in which we presented people
with these types of scenarios.
79
255520
2855
em que apresentamos
às pessoas esses tipos de cenários.
04:30
We gave them two options
inspired by two philosophers:
80
258399
3777
Oferecemos duas opções
inspiradas por dois filósofos:
04:34
Jeremy Bentham and Immanuel Kant.
81
262200
2640
Jeremy Bentham e Immanuel Kant.
04:37
Bentham says the car
should follow utilitarian ethics:
82
265600
3096
Bentham diz que o carro
deveria seguir a ética prática:
04:40
it should take the action
that will minimize total harm --
83
268720
3416
fazer aquilo que minimiza os danos totais,
04:44
even if that action will kill a bystander
84
272160
2816
mesmo que isso mate um transeunte
e mesmo que isso mate o passageiro.
04:47
and even if that action
will kill the passenger.
85
275000
2440
04:50
Immanuel Kant says the car
should follow duty-bound principles,
86
278120
4976
Immanuel Kant diz que o carro
deve seguir princípios morais,
04:55
like "Thou shalt not kill."
87
283120
1560
tais como: "Não matarás".
04:57
So you should not take an action
that explicitly harms a human being,
88
285480
4456
Você não deve fazer nada que prejudique
especificamente um ser humano
05:01
and you should let the car take its course
89
289960
2456
e deve deixar o carro seguir seu curso,
mesmo que isso prejudique mais pessoas.
05:04
even if that's going to harm more people.
90
292440
1960
05:07
What do you think?
91
295640
1200
O que você acha?
05:09
Bentham or Kant?
92
297360
1520
Bentham ou Kant?
05:11
Here's what we found.
93
299760
1256
Veja os resultados.
05:13
Most people sided with Bentham.
94
301040
1800
A maioria concordou com Bentham.
05:16
So it seems that people
want cars to be utilitarian,
95
304160
3776
Parece que as pessoas querem
que os carros sejam práticos,
05:19
minimize total harm,
96
307960
1416
minimizando os danos totais
e é o que todos deveríamos fazer.
05:21
and that's what we should all do.
97
309400
1576
05:23
Problem solved.
98
311000
1200
Problema resolvido.
05:25
But there is a little catch.
99
313240
1480
Mas há um pequeno senão.
05:27
When we asked people
whether they would purchase such cars,
100
315920
3736
Quando perguntamos às pessoas
se comprariam esses carros,
05:31
they said, "Absolutely not."
101
319680
1616
disseram: "Absolutamente não".
05:33
(Laughter)
102
321320
2296
(Risos)
05:35
They would like to buy cars
that protect them at all costs,
103
323640
3896
Elas gostariam de comprar
carros que os protejam totalmente,
05:39
but they want everybody else
to buy cars that minimize harm.
104
327560
3616
mas querem que as demais comprem
os carros que minimizem os danos.
05:43
(Laughter)
105
331200
2520
(Risos)
05:46
We've seen this problem before.
106
334720
1856
Já vimos esse problema antes.
05:48
It's called a social dilemma.
107
336600
1560
Chama-se de dilema social.
05:51
And to understand the social dilemma,
108
339160
1816
E para entender esse dilema,
05:53
we have to go a little bit
back in history.
109
341000
2040
temos que voltar um pouco na história.
05:56
In the 1800s,
110
344000
2576
Nos anos 1800,
05:58
English economist William Forster Lloyd
published a pamphlet
111
346600
3736
o economista inglês William
Forster Lloyd publicou um folheto
06:02
which describes the following scenario.
112
350360
2216
que descrevia o seguinte cenário:
06:04
You have a group of farmers --
113
352600
1656
existia um grupo de agricultores ingleses,
06:06
English farmers --
114
354280
1336
06:07
who are sharing a common land
for their sheep to graze.
115
355640
2680
que compartilhavam um terreno
para suas ovelhas pastarem.
06:11
Now, if each farmer
brings a certain number of sheep --
116
359520
2576
Se cada fazendeiro levasse
um certo número de ovelhas,
06:14
let's say three sheep --
117
362120
1496
digamos três ovelhas,
a terra seria revitalizada,
06:15
the land will be rejuvenated,
118
363640
2096
06:17
the farmers are happy,
119
365760
1216
os agricultores e as ovelhas
ficariam felizes,
06:19
the sheep are happy,
120
367000
1616
06:20
everything is good.
121
368640
1200
e tudo ficaria bem.
06:22
Now, if one farmer brings one extra sheep,
122
370440
2520
Agora, se um agricultor
trouxesse uma ovelha a mais,
06:25
that farmer will do slightly better,
and no one else will be harmed.
123
373800
4720
ele teria uma pequena vantagem,
e ninguém mais seria prejudicado.
06:31
But if every farmer made
that individually rational decision,
124
379160
3640
Mas, se cada fazendeiro
tomasse essa decisão racional,
06:35
the land will be overrun,
and it will be depleted
125
383840
2720
a terra seria exaurida e empobrecida
06:39
to the detriment of all the farmers,
126
387360
2176
em detrimento de todos os agricultores
e, naturalmente, das ovelhas.
06:41
and of course,
to the detriment of the sheep.
127
389560
2120
06:44
We see this problem in many places:
128
392720
3680
Vemos este problema em muitos lugares:
06:49
in the difficulty of managing overfishing,
129
397080
3176
na dificuldade de gerenciar
a pesca excessiva,
06:52
or in reducing carbon emissions
to mitigate climate change.
130
400280
4560
ou na redução das emissões de carbono
para mitigar as mudanças climáticas.
06:59
When it comes to the regulation
of driverless cars,
131
407160
2920
Quando se trata da regulamentação
de carros autônomos,
07:03
the common land now
is basically public safety --
132
411080
4336
a terra comum agora é basicamente
a segurança pública, que é o bem comum,
07:07
that's the common good --
133
415440
1240
07:09
and the farmers are the passengers
134
417400
1976
os agricultores são os passageiros
07:11
or the car owners who are choosing
to ride in those cars.
135
419400
3600
ou os donos de carros que decidiram
usar aquele tipo de veículo.
07:16
And by making the individually
rational choice
136
424960
2616
Fazendo uma escolha racional
de priorizar sua própria segurança,
07:19
of prioritizing their own safety,
137
427600
2816
07:22
they may collectively be
diminishing the common good,
138
430440
3136
pode-se estar, coletivamente,
depreciando o bem comum,
07:25
which is minimizing total harm.
139
433600
2200
que é reduzir os danos totais.
07:30
It's called the tragedy of the commons,
140
438320
2136
Isso é tradicionalmente
chamado de tragédia compartilhada,
07:32
traditionally,
141
440480
1296
07:33
but I think in the case
of driverless cars,
142
441800
3096
mas acredito que, no caso
dos carros autônomos,
07:36
the problem may be
a little bit more insidious
143
444920
2856
o problema pode ser
um pouco mais capcioso,
07:39
because there is not necessarily
an individual human being
144
447800
3496
porque não existe
necessariamente um ser humano
07:43
making those decisions.
145
451320
1696
tomando essas decisões.
07:45
So car manufacturers
may simply program cars
146
453040
3296
Os fabricantes de automóveis podem
simplesmente programar os carros
07:48
that will maximize safety
for their clients,
147
456360
2520
que irão maximizar
a segurança de seus clientes,
07:52
and those cars may learn
automatically on their own
148
460080
2976
e esses carros podem
aprender por conta própria
07:55
that doing so requires slightly
increasing risk for pedestrians.
149
463080
3520
e isso resulta num risco
ligeiramente maior para os pedestres.
07:59
So to use the sheep metaphor,
150
467520
1416
Na metáfora das ovelhas,
08:00
it's like we now have electric sheep
that have a mind of their own.
151
468960
3616
é como se existisse uma ovelha
elétrica tomando decisões próprias.
08:04
(Laughter)
152
472600
1456
(Risos)
08:06
And they may go and graze
even if the farmer doesn't know it.
153
474080
3080
Elas poderiam ir pastar,
sem o agricultor saber.
08:10
So this is what we may call
the tragedy of the algorithmic commons,
154
478640
3976
Isso é o que se chama de tragédia
dos algorítmicos compartilhados,
08:14
and if offers new types of challenges.
155
482640
2360
e oferece novos tipos de desafios.
08:22
Typically, traditionally,
156
490520
1896
Normalmente, tradicionalmente,
08:24
we solve these types
of social dilemmas using regulation,
157
492440
3336
resolvemos esses tipos de dilemas
sociais com a regulamentação,
08:27
so either governments
or communities get together,
158
495800
2736
em que os governos
ou as próprias comunidades,
08:30
and they decide collectively
what kind of outcome they want
159
498560
3736
decidem coletivamente o que se deseja
08:34
and what sort of constraints
on individual behavior
160
502320
2656
e quais restrições sobre comportamentos
individuais são necessárias.
08:37
they need to implement.
161
505000
1200
08:39
And then using monitoring and enforcement,
162
507600
2616
Então, com o acompanhamento e a aplicação,
08:42
they can make sure
that the public good is preserved.
163
510240
2559
pode-se garantir
a preservação do bem público.
08:45
So why don't we just,
164
513440
1575
Então, por que não nós,
como regulamentadores,
08:47
as regulators,
165
515039
1496
08:48
require that all cars minimize harm?
166
516559
2897
exigimos que todos os carros
minimizem os prejuízos?
08:51
After all, this is
what people say they want.
167
519480
2240
Afinal, isso é o que as pessoas querem.
08:55
And more importantly,
168
523200
1416
E, o mais importante, posso
ter certeza que, como indivíduo,
08:56
I can be sure that as an individual,
169
524640
3096
08:59
if I buy a car that may
sacrifice me in a very rare case,
170
527760
3856
se eu comprar um carro que possa
me prejudicar muito raramente,
09:03
I'm not the only sucker doing that
171
531640
1656
não seria o único fazendo isso,
09:05
while everybody else
enjoys unconditional protection.
172
533320
2680
enquanto as outras pessoas
teriam proteção incondicional.
09:09
In our survey, we did ask people
whether they would support regulation
173
537120
3336
Na pesquisa, perguntamos se as pessoas
apoiariam a regulamentação
09:12
and here's what we found.
174
540480
1200
e este é o resultado.
09:14
First of all, people
said no to regulation;
175
542360
3760
Em primeiro lugar,
elas disseram não à regulamentação;
09:19
and second, they said,
176
547280
1256
e em segundo, disseram:
09:20
"Well if you regulate cars to do this
and to minimize total harm,
177
548560
3936
"Se houver uma regulamentação dos carros
para fazer isso e minimizar danos totais,
09:24
I will not buy those cars."
178
552520
1480
não comprarei esses carros".
09:27
So ironically,
179
555400
1376
Ironicamente,
09:28
by regulating cars to minimize harm,
180
556800
3496
regulamentando-se os carros
para minimizarem os danos,
09:32
we may actually end up with more harm
181
560320
1840
pode-se, de fato, causar mais danos
09:35
because people may not
opt into the safer technology
182
563040
3656
porque as pessoas podem
não optar pela tecnologia mais segura,
09:38
even if it's much safer
than human drivers.
183
566720
2080
mesmo se for mais seguro
que motoristas humanos.
09:42
I don't have the final
answer to this riddle,
184
570360
3416
Não tenho uma resposta
definitiva para este enigma,
09:45
but I think as a starting point,
185
573800
1576
mas acho que, como início, precisamos
de uma resposta da sociedade,
09:47
we need society to come together
186
575400
3296
09:50
to decide what trade-offs
we are comfortable with
187
578720
2760
e decidir quais são
os compromissos mais adequados
09:54
and to come up with ways
in which we can enforce those trade-offs.
188
582360
3480
e para encontrar formas
de impor esses compromissos.
09:58
As a starting point,
my brilliant students,
189
586520
2536
Como ponto de partida,
meus alunos brilhantes,
10:01
Edmond Awad and Sohan Dsouza,
190
589080
2456
Edmond Awad e Sohan Dsouza,
criaram o site chamado Moral Machine,
10:03
built the Moral Machine website,
191
591560
1800
10:06
which generates random scenarios at you --
192
594200
2680
que produz situações aleatórias,
10:10
basically a bunch
of random dilemmas in a sequence
193
598080
2456
ou seja, vários dilemas
aleatórios em sequência,
10:12
where you have to choose what
the car should do in a given scenario.
194
600560
3920
nos quais se deve escolher que decisão
o carro deve tomar numa certa situação.
10:17
And we vary the ages and even
the species of the different victims.
195
605040
4600
Variamos as idades e até mesmo
os tipos das diferentes vítimas.
10:23
So far we've collected
over five million decisions
196
611040
3696
Até agora, obtivemos
mais de 5 milhões de respostas,
10:26
by over one million people worldwide
197
614760
2200
de mais de um milhão
de pessoas no mundo todo,
10:30
from the website.
198
618400
1200
a partir do site.
10:32
And this is helping us
form an early picture
199
620360
2416
Isso está nos ajudando
a formar um quadro inicial
10:34
of what trade-offs
people are comfortable with
200
622800
2616
de como as pessoas encaram os compromissos
10:37
and what matters to them --
201
625440
1896
e com o que elas se importam,
mesmo em outras culturas.
10:39
even across cultures.
202
627360
1440
10:42
But more importantly,
203
630240
1496
O mais importante
10:43
doing this exercise
is helping people recognize
204
631760
3376
ao fazer este exercício,
é ajudar as pessoas a reconhecer
10:47
the difficulty of making those choices
205
635160
2816
a dificuldade de se fazerem as escolhas,
10:50
and that the regulators
are tasked with impossible choices.
206
638000
3800
que os legisladores terão de enfrentar
com essas alternativas impossíveis.
10:55
And maybe this will help us as a society
understand the kinds of trade-offs
207
643360
3576
Talvez isso ajude a sociedade
a entender os tipos de compromissos
10:58
that will be implemented
ultimately in regulation.
208
646960
3056
que existirão na regulamentação.
11:02
And indeed, I was very happy to hear
209
650040
1736
Fiquei muito feliz ao ouvir
que o primeiro conjunto de regulamentos,
11:03
that the first set of regulations
210
651800
2016
11:05
that came from
the Department of Transport --
211
653840
2136
anunciado pelo Departamento
de Transportes, na semana passada,
11:08
announced last week --
212
656000
1376
11:09
included a 15-point checklist
for all carmakers to provide,
213
657400
6576
tem uma lista de 15 pontos
que todas as montadoras devem fornecer,
11:16
and number 14 was ethical consideration --
214
664000
3256
e o número 14 é uma consideração
ética, de como se vai lidar com isso.
11:19
how are you going to deal with that.
215
667280
1720
11:23
We also have people
reflect on their own decisions
216
671800
2656
Temos pessoas refletindo
sobre suas próprias decisões,
11:26
by giving them summaries
of what they chose.
217
674480
3000
porque se mostrou a elas um resumo
de suas próprias escolhas.
11:30
I'll give you one example --
218
678440
1656
Vamos ver um exemplo,
11:32
I'm just going to warn you
that this is not your typical example,
219
680120
3536
e já aviso que este não é
um exemplo de um usuário típico.
11:35
your typical user.
220
683680
1376
11:37
This is the most sacrificed and the most
saved character for this person.
221
685080
3616
Este é o personagem mais sacrificado
e mais salvo para essa pessoa.
11:40
(Laughter)
222
688720
5200
(Risos)
[Resultados]
[Personagem mais salvo]
[Personagem mais morto]
11:46
Some of you may agree with him,
223
694680
1896
Alguns podem concordar com ele,
11:48
or her, we don't know.
224
696600
1640
ou com ela, não sabemos.
11:52
But this person also seems to slightly
prefer passengers over pedestrians
225
700480
6136
Essa pessoa também parece preferir
ligeiramente passageiros do que pedestres
11:58
in their choices
226
706640
2096
em suas escolhas
12:00
and is very happy to punish jaywalking.
227
708760
2816
e fica muito feliz em punir
pedestres imprudentes.
12:03
(Laughter)
228
711600
3040
(Risos)
12:09
So let's wrap up.
229
717320
1216
Vamos terminar aqui.
12:10
We started with the question --
let's call it the ethical dilemma --
230
718559
3416
Nós começamos com uma pergunta,
vamos chamá-la de dilema ético,
12:14
of what the car should do
in a specific scenario:
231
722000
3056
sobre o que os carros deveriam
fazer num cenário específico:
12:17
swerve or stay?
232
725080
1200
desviar ou não?
12:19
But then we realized
that the problem was a different one.
233
727240
2736
Então, percebe-se
que o problema é diferente.
12:22
It was the problem of how to get
society to agree on and enforce
234
730000
4536
É o problema de como conseguir
que a sociedade concorde e respeite
12:26
the trade-offs they're comfortable with.
235
734560
1936
os compromissos em que se sentem
confortáveis. É um dilema social.
12:28
It's a social dilemma.
236
736520
1256
12:29
In the 1940s, Isaac Asimov
wrote his famous laws of robotics --
237
737800
5016
Na década de 1940, Isaac Asimov
escreveu suas famosas leis da robótica,
12:34
the three laws of robotics.
238
742840
1320
as três leis da robótica:
12:37
A robot may not harm a human being,
239
745240
2456
um robô não pode ferir um ser humano,
12:39
a robot may not disobey a human being,
240
747720
2536
um robô não pode
desobedecer um ser humano,
12:42
and a robot may not allow
itself to come to harm --
241
750280
3256
e um robô não pode se prejudicar,
12:45
in this order of importance.
242
753560
1960
nesta ordem de importância.
12:48
But after 40 years or so
243
756360
2136
Depois de 40 anos
12:50
and after so many stories
pushing these laws to the limit,
244
758520
3736
e depois de tantas histórias
levando essas leis ao limite,
12:54
Asimov introduced the zeroth law
245
762280
3696
Asimov criou a lei zero,
12:58
which takes precedence above all,
246
766000
2256
que tem prioridade acima de tudo,
13:00
and it's that a robot
may not harm humanity as a whole.
247
768280
3280
aquela em que um robô
não pode fazer mal à humanidade.
13:04
I don't know what this means
in the context of driverless cars
248
772480
4376
Não sei o que isso significa
no contexto dos carros autônomos,
13:08
or any specific situation,
249
776880
2736
ou em qualquer situação específica,
13:11
and I don't know how we can implement it,
250
779640
2216
e não sei como podemos implementar isso,
mas acredito que, ao reconhecer
13:13
but I think that by recognizing
251
781880
1536
13:15
that the regulation of driverless cars
is not only a technological problem
252
783440
6136
que a regulamentação
não é apenas um problema tecnológico,
13:21
but also a societal cooperation problem,
253
789600
3280
mas também um problema
de cooperação social,
13:25
I hope that we can at least begin
to ask the right questions.
254
793800
2880
espero que possamos começar
a fazer as perguntas certas.
13:29
Thank you.
255
797200
1216
Obrigado.
13:30
(Applause)
256
798440
2920
(Aplausos)
Translated by Carl Lenny Homer
Reviewed by Maricene Crus

▲Back to top

ABOUT THE SPEAKER
Iyad Rahwan - Computational social scientist
Iyad Rahwan's work lies at the intersection of the computer and social sciences, with a focus on collective intelligence, large-scale cooperation and the social aspects of artificial intelligence.

Why you should listen

Iyad Rahwan is the AT&T Career Development Professor and an associate professor of media arts & sciences at the MIT Media Lab, where he leads the Scalable Cooperation group. A native of Aleppo, Syria, Rahwan holds a PhD. from the University of Melbourne, Australia and is an affiliate faculty at the MIT Institute of Data, Systems and Society (IDSS). He led the winning team in the US State Department's Tag Challenge, using social media to locate individuals in remote cities within 12 hours using only their mug shots. Recently he crowdsourced 30 million decisions from people worldwide about the ethics of AI systems. Rahwan's work appeared in major academic journals, including Science and PNAS, and features regularly in major media outlets, including the New York Times, The Economist and the Wall Street Journal.

(Photo: Victoriano Izquierdo)

More profile about the speaker
Iyad Rahwan | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee