ABOUT THE SPEAKER
Kate Darling - Robot ethicist
Kate Darling investigates the relationship between humans and robots -- now, and in the future.

Why you should listen

Robots are taking increasingly bigger roles in life and business -- moving well beyond manufacturing and into transportation, education, medicine, care for the elderly, our offices and our homes. But ethics and law haven't caught up. Kate Darling, a pioneer in these fields, is helping quicken the pace.

A leading expert in robot ethics, Darling is a researcher at the Massachusetts Institute of Technology (MIT) Media Lab where she investigates social robotics and conducts experimental studies on human-robot interaction. Darling explores the emotional connection between people and life-like inventions, seeking to influence technology design and policy direction. Her writing and research anticipate difficult questions that lawmakers, engineers and the wider public must address as human-robot relationships evolve in the coming decades.

While her background is in intellectual property and law and economics, Darling's passion for technology and robots led her to interdisciplinary fields. She's a former Fellow and current Affiliate at the Harvard Berkman Klein Center for Internet & Society and a former fellow at the Yale Information Society Project, and she's an affiliate at the Institute for Ethics and Emerging Technologies. 
Her work has been featured in Vogue, The New Yorker, The Guardian, BBC, NPR, PBS, The Boston Globe, Forbes, CBC, WIRED, Boston Magazine, The Atlantic, Slate, Die Zeit, The Japan Times and more. She is a contributing writer to Robohub and IEEE Spectrum and speaks and holds workshops covering some of the more interesting developments in the world of robotics, and where we might find ourselves in the future.

Darling graduated from law school with honors and holds a doctorate of sciences from the Swiss Federal Institute of Technology (ETH Zurich) and an honorary doctorate of sciences from Middlebury College. In 2017, the American Bar Association honored her legal work with the Mark T. Banner award in Intellectual Property. She is the caretaker for several domestic robots, including her Pleos Yochai, Peter, and Mr. Spaghetti. She tweets as @grok_ about eating cheerios for dinner.

More profile about the speaker
Kate Darling | Speaker | TED.com
TED Salon Samsung

Kate Darling: Why we have an emotional connection to robots

Kate Darling: Porque é que temos uma ligação emocional a robôs

Filmed:
2,403,010 views

Estamos longe de conseguir construir robôs que sintam emoções, mas já temos sentimentos em relação a eles, diz a especialista em ética robótica Kate Darling, e um instinto como esse pode ter consequências. Saibam mais sobre como estamos pré-programados para projetar intenção e vida em máquinas — e como isso nos pode ajudar a conhecermo-nos melhor.
- Robot ethicist
Kate Darling investigates the relationship between humans and robots -- now, and in the future. Full bio

Double-click the English transcript below to play the video.

00:13
There was a day, about 10 yearsanos agoatrás,
0
1047
2508
Certo dia, há cerca de 10 anos,
00:15
when I askedperguntei a friendamigos to holdaguarde
a babybebê dinosaurdinossauro robotrobô upsideparte de cima down.
1
3579
3944
pedi a um amigo para segurar um
dinossauro bebé robô de cabeça para baixo.
00:21
It was this toybrinquedo calledchamado a PleoPleo
that I had orderedordenado,
2
9889
3446
Era um brinquedo, chamado Pleo,
que eu encomendei.
00:25
and I was really excitedanimado about it
because I've always lovedAmado robotsrobôs.
3
13359
4401
Eu estava super entusiasmada com ele,
porque sempre adorei robôs.
00:29
And this one has really coollegal
technicaltécnico featurescaracterísticas.
4
17784
2279
E este tinha aspetos técnicos
super fixes.
00:32
It had motorsmotores and touchtocar sensorssensores
5
20087
2119
Tinha motores e sensores tácteis
00:34
and it had an infraredinfravermelho cameraCâmera.
6
22230
2244
e uma câmara de infravermelhos.
00:36
And one of the things it had
was a tiltinclinar sensorsensor,
7
24498
2763
Uma das coisas que tinha
era um sensor de inclinação,
00:39
so it knewsabia what directiondireção it was facingvoltado para.
8
27285
2318
por isso, ele sabia em que direção
estava orientado.
00:42
And when you heldmantido it upsideparte de cima down,
9
30095
2134
Quando o segurávamos
de cabeça para baixo,
00:44
it would startcomeçar to crychorar.
10
32253
1572
começava a chorar.
00:46
And I thought this was supersuper coollegal,
so I was showingmostrando it off to my friendamigos,
11
34527
3496
Eu achei que aquilo era super fixe,
mostrei-o ao meu amigo e disse-lhe:
00:50
and I said, "Oh, holdaguarde it up by the tailrabo.
See what it does."
12
38047
2805
"Segura-o pela cauda.
Vê o que ele faz."
00:55
So we're watchingassistindo
the theatricsTeatro of this robotrobô
13
43268
3625
Nós estávamos ali a ver
a teatralidade deste robô
00:58
struggleluta and crychorar out.
14
46917
2199
enquanto lutava e chorava.
01:02
And after a fewpoucos secondssegundos,
15
50767
2047
Passados uns segundos,
01:04
it startscomeça to botherincomoda me a little,
16
52838
1972
eu começo a ficar um bocado incomodada
01:07
and I said, "OK, that's enoughsuficiente now.
17
55744
3424
e digo: "Ok, já chega por agora.
01:11
Let's put him back down."
18
59930
2305
"Vamos pousá-lo outra vez."
01:14
And then I petanimal the robotrobô
to make it stop cryinga chorar.
19
62259
2555
Depois faço-lhe festas
para ele deixar de chorar.
01:18
And that was kindtipo of
a weirdesquisito experienceexperiência for me.
20
66973
2452
Essa foi uma experiência
estranha para mim.
01:22
For one thing, I wasn'tnão foi the mosta maioria
maternalmaterna personpessoa at the time.
21
70084
4569
Primeiro, eu não era a pessoa
mais maternal na altura.
01:26
AlthoughEmbora sinceDesde a then I've becometornar-se
a mothermãe, ninenove monthsmeses agoatrás,
22
74677
2731
Apesar de, desde então,
ter sido mãe, há nove meses,
e sei agora que os bebés também esperneiam
se segurados de cabeça para baixo.
01:29
and I've learnedaprendido that babiesbebês alsoAlém disso squirmse contorcer
when you holdaguarde them upsideparte de cima down.
23
77432
3433
01:32
(LaughterRiso)
24
80889
1563
(Risos)
01:35
But my responseresposta to this robotrobô
was alsoAlém disso interestinginteressante
25
83023
2358
Mas a minha reação a este robô
também foi curiosa
01:37
because I knewsabia exactlyexatamente
how this machinemáquina workedtrabalhou,
26
85405
4101
porque eu sabia exatamente
como é que aquela máquina trabalhava
01:41
and yetainda I still feltsentiu
compelledobrigado to be kindtipo to it.
27
89530
3262
e, mesmo assim, senti-me compelida
a ser afetuosa para com ela.
01:46
And that observationobservação sparkedprovocou a curiositycuriosidade
28
94450
2707
Essa observação desencadeou
uma curiosidade
01:49
that I've spentgasto the pastpassado decadedécada pursuingperseguindo.
29
97181
2832
que eu tenho passado a tentar satisfazer,
nos último 10 anos.
01:52
Why did I comfortconforto this robotrobô?
30
100911
1793
Porque é que eu confortei aquele robô?
01:56
And one of the things I discovereddescobriu
was that my treatmenttratamento of this machinemáquina
31
104228
3579
Uma das coisas que descobri foi que
a forma como eu tratei aquela máquina
01:59
was more than just an awkwardestranho momentmomento
in my livingvivo roomquarto,
32
107831
3701
foi mais do que só um momento
desconfortável na minha sala de estar.
02:03
that in a worldmundo where we're increasinglycada vez mais
integratingintegrando robotsrobôs into our livesvidas,
33
111556
5420
Num mundo em que estamos progressivamente
a integrar mais robôs na nossa vida,
02:09
an instinctinstinto like that
mightpoderia actuallyna realidade have consequencesconsequências,
34
117000
3126
um instinto como aquele
pode ter consequências,
02:13
because the first thing that I discovereddescobriu
is that it's not just me.
35
121452
3749
porque a primeira coisa que eu descobri
é que não sou a única.
02:19
In 2007, the WashingtonWashington PostPostar
reportedrelatado that the UnitedUnidos StatesEstados-Membros militarymilitares
36
127249
4802
Em 2007, o The Washington Post reportou
que as Forças Armadas dos EUA
02:24
was testingtestando this robotrobô
that defuseddesarmado landterra minesminas.
37
132075
3230
estavam a testar um robô
que desativava minas terrestres.
02:27
And the way it workedtrabalhou
was it was shapedem forma like a stickbastão insectinseto
38
135329
2912
Ele tinha uma forma semelhante
a um bicho-pau
02:30
and it would walkandar
around a minefieldcampo minado on its legspernas,
39
138265
2651
e andava à volta dum campo de minas
sobre as suas patas.
02:32
and everycada time it steppedpisou on a minemeu,
one of the legspernas would blowgolpe up,
40
140940
3206
De cada vez que pisava uma mina,
uma das suas patas explodia,
02:36
and it would continuecontinuar on the other legspernas
to blowgolpe up more minesminas.
41
144170
3057
e ele continuava sobre as outras
patas para fazer explodir mais minas.
02:39
And the colonelCoronel who was in chargecarregar
of this testingtestando exerciseexercício
42
147251
3786
O coronel que era responsável
por esse exercício de teste
02:43
endstermina up callingligando it off,
43
151061
2118
acabou por o cancelar,
02:45
because, he saysdiz, it's too inhumanedesumano
44
153203
2435
porque, segundo ele,
era demasiado desumano
02:47
to watch this damagedestragado robotrobô
dragarrastar itselfem si alongao longo the minefieldcampo minado.
45
155662
4516
ver aquele robô danificado
a arrastar-se pelo campo de minas.
02:54
Now, what would causecausa
a hardenedendurecido militarymilitares officeroficial
46
162978
3897
Agora, o que é que levaria
um oficial militar endurecido
02:58
and someonealguém like myselfEu mesmo
47
166899
2043
e alguém como eu
03:00
to have this responseresposta to robotsrobôs?
48
168966
1857
a ter este tipo de reação a robôs?
03:03
Well, of coursecurso, we're primedaprontado
by scienceCiência fictionficção and poppop culturecultura
49
171537
3310
Claro que nós somos preparados
pela ficção científica e cultura popular
03:06
to really want to personifypersonificar these things,
50
174871
2579
para querer personificar estas coisas,
03:09
but it goesvai a little bitpouco deeperDeeper than that.
51
177474
2789
mas é mais profundo do que isso.
03:12
It turnsgira out that we're biologicallybiologicamente
hardwiredhardwired to projectprojeto intentintenção and life
52
180287
5309
Na verdade, nós estamos biologicamente
predefinidos para projetar intenção e vida
03:17
ontopara any movementmovimento in our physicalfisica spaceespaço
that seemsparece autonomousAutônomo to us.
53
185620
4766
em qualquer movimento no nosso espaço
físico que nos pareça autónomo.
03:23
So people will treattratar all sortstipos
of robotsrobôs like they're alivevivo.
54
191214
3465
Assim, as pessoas tratam todos os tipos
de robôs como se tivessem vida.
03:26
These bomb-disposaleliminação de bomba unitsunidades get namesnomes.
55
194703
2683
Estas unidades de desativação
de bombas têm nomes.
03:29
They get medalsmedalhas of honorhonra.
56
197410
1682
Recebem medalhas de honra.
03:31
They'veEles já had funeralsfunerais for them
with gunarma de fogo salutesSaudações.
57
199116
2325
Tiveram direito a funerais
com salvas de tiros.
03:34
And researchpesquisa showsmostra that we do this
even with very simplesimples householdfamília robotsrobôs,
58
202380
3833
E os estudos mostram que fazemos isto
até com os mais simples robôs domésticos,
03:38
like the RoombaRoomba vacuumvácuo cleanerlimpador.
59
206237
2135
como o aspirador Roomba.
03:40
(LaughterRiso)
60
208396
1291
(Risos)
03:41
It's just a discdisco that roamsvagueia
around your floorchão to cleanlimpar \ limpo it,
61
209711
3089
É só um disco que vagueia pelo chão
para o limpar,
03:44
but just the factfacto it's movingmovendo-se
around on its ownpróprio
62
212824
2306
mas só o facto de se estar a mover
por si mesmo
03:47
will causecausa people to namenome the RoombaRoomba
63
215154
2167
leva as pessoas a chamarem-lhe Roomba
03:49
and feel badmau for the RoombaRoomba
when it getsobtém stuckpreso undersob the couchsofá.
64
217345
3182
e a sentirem-se mal se o Roomba
ficar preso debaixo do sofá.
03:52
(LaughterRiso)
65
220551
1865
(Risos)
03:54
And we can designdesenhar robotsrobôs
specificallyespecificamente to evokeevocar this responseresposta,
66
222440
3340
Podemos conceber robôs
para provocarem esta reação,
03:57
usingusando eyesolhos and facesrostos or movementsmovimentos
67
225804
3461
usando olhos e caras ou movimentos
04:01
that people automaticallyautomaticamente,
subconsciouslysubconscientemente associateassociar
68
229289
3259
que as pessoas associam
de forma automática e subconsciente
04:04
with statesestados of mindmente.
69
232572
2020
a estados de espírito.
04:06
And there's an entireinteira bodycorpo of researchpesquisa
calledchamado human-robothomem-robô interactioninteração
70
234616
3293
Há uma área de estudo completa,
chamada interação homem-robô,
04:09
that really showsmostra how well this workstrabalho.
71
237933
1826
que mostra quão bem isto funciona.
04:11
So for exampleexemplo, researcherspesquisadores
at StanfordStanford UniversityUniversidade foundencontrado out
72
239783
3126
Por exemplo, cientistas
na Universidade de Stanford
concluíram que as pessoas
ficam muito desconfortáveis
04:14
that it makesfaz com que people really uncomfortabledesconfortável
73
242933
2001
04:16
when you askpergunte them to touchtocar
a robot'sdo robô privateprivado partspartes.
74
244958
2472
se lhes pedem que toquem
nas partes íntimas de um robô.
04:19
(LaughterRiso)
75
247454
2120
(Risos)
04:21
So from this, but from manymuitos other studiesestudos,
76
249598
2023
Por isso e por muitos outros estudos,
04:23
we know, we know that people
respondresponder to the cuessugestões givendado to them
77
251645
4223
nós sabemos que as pessoas
reagem a sinais
que lhes são dados
por estas máquinas realistas,
04:27
by these lifelikelifelike machinesmáquinas,
78
255892
2022
04:29
even if they know that they're not realreal.
79
257938
2017
mesmo que saibam que elas não são reais.
04:33
Now, we're headedencabeçou towardsem direção a worldmundo
where robotsrobôs are everywhereem toda parte.
80
261654
4056
Estamos a avançar para um mundo
onde há robôs por todo o lado.
04:37
RoboticRobótica technologytecnologia is movingmovendo-se out
from behindatrás factoryfábrica wallsparedes.
81
265734
3065
A tecnologia robótica está a abandonar
o interior das fábricas
04:40
It's enteringentrando workplaceslocais de trabalho, householdsfamílias.
82
268823
3013
e está a entrar nos locais
de trabalho, nas casas.
04:43
And as these machinesmáquinas that can sensesentido
and make autonomousAutônomo decisionsdecisões and learnaprender
83
271860
6209
À medida que estas máquinas sensitivas
que tomam decisões autónomas e aprendem
04:50
enterentrar into these sharedcompartilhado spacesespaços,
84
278093
2552
entram nestes espaços partilhados,
04:52
I think that maybe the bestmelhor
analogyanalogia we have for this
85
280669
2496
acho que a nossa melhor analogia
para esta situação
04:55
is our relationshiprelação with animalsanimais.
86
283189
1935
é a nossa relação com animais.
04:57
ThousandsMilhares of yearsanos agoatrás,
we startedcomeçado to domesticatedomesticar animalsanimais,
87
285523
3888
Há milhares de anos, começámos
a domesticar animais,
05:01
and we trainedtreinado them for work
and weaponryarmamento and companionshipcompanheirismo.
88
289435
4045
e treinámo-los como trabalhadores,
como armas e como companheiros.
05:05
And throughoutao longo historyhistória, we'venós temos treatedtratado
some animalsanimais like toolsFerramentas or like productsprodutos,
89
293504
4985
Ao longo da história, tratámos alguns
animais como ferramentas ou objetos,
05:10
and other animalsanimais,
we'venós temos treatedtratado with kindnessbondade
90
298513
2174
mas tratámos outros animais com carinho
05:12
and we'venós temos givendado a placeLugar, colocar in societysociedade
as our companionscompanheiros.
91
300711
3078
e demos-lhes um lugar na sociedade
como nossos companheiros.
05:15
I think it's plausibleplausível we mightpoderia startcomeçar
to integrateintegrar robotsrobôs in similarsemelhante waysmaneiras.
92
303813
3849
Acho que é plausível começarmos
a integrar robôs de forma semelhante.
05:21
And sure, animalsanimais are alivevivo.
93
309484
3096
É verdade que os animais estão vivos.
05:24
RobotsRobôs are not.
94
312604
1150
Os robôs não.
05:27
And I can tell you,
from workingtrabalhando with roboticistsroboticistas,
95
315626
2580
E sei, por trabalhar com
investigadores de robótica,
05:30
that we're prettybonita farlonge away from developingem desenvolvimento
robotsrobôs that can feel anything.
96
318230
3522
que estamos muito longe de desenvolver
robôs que sintam o que quer que seja.
05:35
But we feel for them,
97
323072
1460
Mas nós sentimos por eles,
05:37
and that mattersimporta,
98
325835
1207
e isso é importante
05:39
because if we're tryingtentando to integrateintegrar
robotsrobôs into these sharedcompartilhado spacesespaços,
99
327066
3627
porque, se estamos a tentar integrar
robôs nestes espaços partilhados,
05:42
we need to understandCompreendo that people will
treattratar them differentlydiferente than other devicesdispositivos,
100
330717
4628
precisamos de perceber que as pessoas
irão tratá-los de forma diferente
de outras máquinas
05:47
and that in some casescasos,
101
335369
1844
e que, em alguns casos,
05:49
for exampleexemplo, the casecaso of a soldiersoldado
who becomestorna-se emotionallyemocionalmente attachedem anexo
102
337237
3172
por exemplo, no caso de um soldado
que fica emocionalmente ligado
05:52
to the robotrobô that they work with,
103
340433
2047
ao robô com que trabalha,
05:54
that can be anything
from inefficientineficiente to dangerousperigoso.
104
342504
2504
isso pode ser ineficaz
ou mesmo perigoso.
05:58
But in other casescasos,
it can actuallyna realidade be usefulútil
105
346551
2138
Mas, noutros casos, até pode ser útil
06:00
to fosterpromover a this emotionalemocional
connectionconexão to robotsrobôs.
106
348713
2623
cultivar essa relação
emocional com os robôs.
06:04
We're already seeingvendo some great use casescasos,
107
352184
2134
Já estamos a ver alguns
exemplos excelentes,
06:06
for exampleexemplo, robotsrobôs workingtrabalhando
with autisticautista childrencrianças
108
354342
2604
como robôs a trabalharem
com crianças com autismo
06:08
to engagese empenhar them in waysmaneiras
that we haven'tnão tem seenvisto previouslyanteriormente,
109
356970
3634
para os envolverem de forma
nunca vista,
06:12
or robotsrobôs workingtrabalhando with teachersprofessores to engagese empenhar
kidsfilhos in learningAprendendo with newNovo resultsresultados.
110
360628
4000
ou robôs a trabalhar com professores
para envolverem os alunos na aprendizagem
com novos resultados.
06:17
And it's not just for kidsfilhos.
111
365433
1381
Mas não são só as crianças.
06:19
EarlyMais cedo studiesestudos showexposição that robotsrobôs
can help doctorsmédicos and patientspacientes
112
367750
3223
Estudos recentes mostram que os robôs
podem ajudar médicos e doentes
06:22
in healthsaúde careCuidado settingsConfigurações.
113
370997
1427
na área dos cuidados de saúde.
06:25
This is the PAROPARO babybebê sealfoca robotrobô.
114
373535
1810
Esta é a foca bebé robô PARO.
06:27
It's used in nursingde enfermagem homescasas
and with dementiademência patientspacientes.
115
375369
3285
É usada em lares de idosos
e com doentes com demência.
06:30
It's been around for a while.
116
378678
1570
Já não é recente.
06:32
And I rememberlembrar, yearsanos agoatrás,
beingser at a partyfesta
117
380272
3325
Lembro-me de, há uns anos,
estar numa festa
06:35
and tellingdizendo someonealguém about this robotrobô,
118
383621
2571
e falar com alguém sobre este robô.
06:38
and her responseresposta was,
119
386216
2126
A resposta dela foi:
06:40
"Oh my goshPoxa.
120
388366
1262
"Oh meu deus.
06:42
That's horriblehorrível.
121
390508
1188
"Isso é horrível.
06:45
I can't believe we're givingdando people
robotsrobôs insteadem vez de of humanhumano careCuidado."
122
393056
3397
"Custa-me acreditar que damos robôs
às pessoas, em vez de cuidados humanos."
06:50
And this is a really commoncomum responseresposta,
123
398540
1875
Esta é uma reação muito comum,
06:52
and I think it's absolutelyabsolutamente correctum lugar para outro,
124
400439
2499
e eu acho que está completamente certa,
06:54
because that would be terribleterrivel.
125
402962
2040
porque isso seria terrível.
06:57
But in this casecaso,
it's not what this robotrobô replacesSubstitui o.
126
405795
2484
Mas neste caso,
não é isso o que o robô substitui.
07:00
What this robotrobô replacesSubstitui o is animalanimal therapyterapia
127
408858
3120
O que este robô substitui
é a terapia com animais
07:04
in contextscontextos de where
we can't use realreal animalsanimais
128
412002
3198
nos casos em que não podemos
usar animais verdadeiros
mas podemos usar robôs,
07:07
but we can use robotsrobôs,
129
415224
1168
07:08
because people will consistentlyconsistentemente treattratar
them more like an animalanimal than a devicedispositivo.
130
416416
5230
porque as pessoas vão tratá-los
mais como animais do que como máquinas.
07:15
AcknowledgingReconhecendo this emotionalemocional
connectionconexão to robotsrobôs
131
423502
2380
Reconhecer esta ligação emocional
com os robôs
07:17
can alsoAlém disso help us anticipateantecipar challengesdesafios
132
425906
1969
também nos pode ajudar
a prever desafios
07:19
as these devicesdispositivos movemover into more intimateíntima
areasáreas of people'spovos livesvidas.
133
427899
3451
à medida que estes entram em
áreas mais privadas na vida das pessoas.
07:24
For exampleexemplo, is it OK
if your child'sdo filho teddypeluche bearUrso robotrobô
134
432111
3404
Por exemplo, será correto se o ursinho
de peluche dos vossos filhos
07:27
recordsregistros privateprivado conversationsconversas?
135
435539
2237
puder gravar conversas privadas?
07:29
Is it OK if your sexsexo robotrobô
has compellingconvincente in-appem-app purchasescompras?
136
437800
4063
E se o vosso robô sexual vos oferecer boas
oportunidades de compra numa aplicação?
07:33
(LaughterRiso)
137
441887
1396
(Risos)
07:35
Because robotsrobôs plusmais capitalismcapitalismo
138
443307
2501
Porque capitalismo somado a robôs
07:37
equalsé igual a questionsquestões around
consumerconsumidor protectionprotecção and privacyprivacidade.
139
445832
3705
origina questões relacionadas
com a proteção do consumidor
e a privacidade.
07:42
And those aren'tnão são the only reasonsrazões
140
450549
1612
Mas não é só por isso
que a forma como agimos
07:44
that our behaviorcomportamento around
these machinesmáquinas could matterimportam.
141
452185
2570
com estas máquinas
pode ser importante.
07:48
A fewpoucos yearsanos after that first
initialinicial experienceexperiência I had
142
456747
3270
Uns anos depois dessa primeira
experiência que tive
07:52
with this babybebê dinosaurdinossauro robotrobô,
143
460041
2311
com o dinossauro bebé robô,
07:54
I did a workshopoficina
with my friendamigos HannesHannes GassertGassert.
144
462376
2501
fiz um "workshop" com o meu amigo
Hannes Gassert.
07:56
And we tooktomou fivecinco
of these babybebê dinosaurdinossauro robotsrobôs
145
464901
2897
Pegámos em cinco destes
dinossauros bebés robôs
07:59
and we gavedeu them to fivecinco teamsequipes of people.
146
467822
2453
e demo-los a cinco equipas de pessoas.
08:02
And we had them namenome them
147
470299
1697
Pedimos que lhes dessem nomes,
08:04
and playToque with them and interactinteragir with them
for about an hourhora.
148
472020
3809
e brincassem e interagissem
com eles durante uma hora.
08:08
And then we unveileddesvelado
a hammermartelo and a hatchetMachado
149
476707
2206
Depois mostrámos um martelo
e uma machadinha
08:10
and we told them to torturetortura
and killmatar the robotsrobôs.
150
478937
2278
e dissemos-lhes para torturarem
e matarem os robôs.
08:13
(LaughterRiso)
151
481239
3007
(Risos)
08:16
And this turnedvirou out to be
a little more dramaticdramático
152
484857
2294
A situação ficou um bocadinho
mais dramática
08:19
than we expectedesperado it to be,
153
487175
1278
do que tínhamos previsto,
08:20
because noneNenhum of the participantsparticipantes
would even so much as strikegreve
154
488477
3072
porque nenhum dos participantes
atacou os bebês dinossauros robôs.
08:23
these babybebê dinosaurdinossauro robotsrobôs,
155
491573
1307
08:24
so we had to improviseimprovisar a little,
and at some pointponto, we said,
156
492904
5150
Então, tivemos de improvisar um bocado,
e a certa altura dissemos:
"Ok, podem salvar o robô da vossa equipa
se destruírem o robô de outra equipa."
08:30
"OK, you can saveSalve  your team'sequipe robotrobô
if you destroydestruir anotheroutro team'sequipe robotrobô."
157
498078
4437
08:34
(LaughterRiso)
158
502539
1855
(Risos)
08:36
And even that didn't work.
They couldn'tnão podia do it.
159
504839
2195
Nem mesmo isso funcionou.
Eles não conseguiam.
08:39
So finallyfinalmente, we said,
160
507058
1151
Então, por fim, dissemos:
08:40
"We're going to destroydestruir all of the robotsrobôs
161
508233
2032
"Nós vamos destruir todos os robôs
08:42
unlessa menos que someonealguém takes
a hatchetMachado to one of them."
162
510289
2285
"a não ser que alguém use
a machadinha num deles."
08:45
And this guy stoodficou up,
and he tooktomou the hatchetMachado,
163
513586
3579
Um senhor levanta-se
e agarra na machadinha.
08:49
and the wholetodo roomquarto wincedrecuei
as he broughttrouxe the hatchetMachado down
164
517189
2706
Toda a gente se encolheu
quando ele desceu a machadinha
08:51
on the robot'sdo robô neckpescoço,
165
519919
1780
no pescoço do robô.
08:53
and there was this half-jokingmeio brincalhão,
half-seriousmeia-grave momentmomento of silencesilêncio in the roomquarto
166
521723
6338
Houve um momento de silêncio na sala,
entre o gozo e a seriedade
09:00
for this fallencaído robotrobô.
167
528085
1698
em nome daquele robô caído.
09:01
(LaughterRiso)
168
529807
1406
(Risos)
09:03
So that was a really
interestinginteressante experienceexperiência.
169
531237
3694
Então, essa experiência acabou por ser
muito interessante.
09:06
Now, it wasn'tnão foi a controlledcontrolada
studyestude, obviouslyobviamente,
170
534955
2459
É óbvio que não foi um
estudo controlado,
09:09
but it did leadconduzir to some
latermais tarde researchpesquisa that I did at MITMIT
171
537438
2850
mas levou-me a uma pesquisa
que fiz mais tarde no MIT
09:12
with PalashPaula NandyNandy and CynthiaCynthia BreazealBreazeal,
172
540312
2228
com o Palash Nandy e a Cynthia Breazeal,
09:14
where we had people come into the lablaboratório
and smashSmash these HEXBUGsHEXBUGs
173
542564
3627
em que vinham pessoas ao laboratório
e esmagavam HEXBUGs,
09:18
that movemover around in a really
lifelikelifelike way, like insectsinsetos.
174
546215
3087
que se movem de uma forma muito
realista, como insetos.
09:21
So insteadem vez de of choosingescolhendo something cutebonito
that people are drawndesenhado to,
175
549326
3134
Em vez de escolhermos algo fofo
que atraísse as pessoas
09:24
we choseescolheu something more basicbásico,
176
552484
2093
escolhemos algo mais básico.
09:26
and what we foundencontrado
was that high-empathyalta-empatia people
177
554601
3480
Descobrimos que as pessoas
com mais empatia
09:30
would hesitatehesite more to hitacertar the HEXBUGSHEXBUGS.
178
558105
2143
hesitavam mais em esmagar os HEXBUGs.
09:33
Now this is just a little studyestude,
179
561575
1564
Este é só um pequeno estudo,
09:35
but it's partparte of a largermaior bodycorpo of researchpesquisa
180
563163
2389
mas faz parte de uma pesquisa maior
09:37
that is startinginiciando to indicateindicar
that there maypode be a connectionconexão
181
565576
2944
que começa a indicar
que talvez haja uma correlação
09:40
betweenentre people'spovos tendenciestendências for empathyempatia
182
568544
2373
entre as tendências de empatia das pessoas
09:42
and theirdeles behaviorcomportamento around robotsrobôs.
183
570941
1976
e o seu comportamento com robôs.
09:45
But my questionquestão for the comingchegando eraera
of human-robothomem-robô interactioninteração
184
573721
3627
Mas a minha questão para o futuro
da interação entre humanos e robôs
09:49
is not: "Do we empathizeter empatia with robotsrobôs?"
185
577372
3055
não é: "Sentimos empatia com os robôs?"
09:53
It's: "Can robotsrobôs changemudança
people'spovos empathyempatia?"
186
581211
2920
mas sim: "Podem os robôs mudar
a empatia dos humanos?"
09:57
Is there reasonrazão to, for exampleexemplo,
187
585489
2287
Por exemplo, haverá uma razão
09:59
preventevita your childcriança
from kickingchutando a roboticrobótico dogcachorro,
188
587800
2333
para impedirmos uma criança
de dar pontapés num cão robótico
10:03
not just out of respectrespeito for propertypropriedade,
189
591228
2914
não só por respeito material,
10:06
but because the childcriança mightpoderia be
more likelyprovável to kickpontapé a realreal dogcachorro?
190
594166
2953
mas porque pode levar a criança
a dar pontapés num cão verdadeiro?
E novamente, não são só as crianças.
10:10
And again, it's not just kidsfilhos.
191
598507
1883
10:13
This is the violentviolento videovídeo gamesjogos questionquestão,
but it's on a completelycompletamente newNovo levelnível
192
601564
4056
Esta é a questão dos jogos de vídeo
violentos, mas a um nível totalmente novo
10:17
because of this visceralvisceral physicalityfisicalidade
that we respondresponder more intenselyintensamente to
193
605644
4760
devido a este aspeto físico visceral
a que reagimos mais intensamente
do que a imagens num ecrã.
10:22
than to imagesimagens on a screentela.
194
610428
1547
10:25
When we behavecomporte-se violentlyviolentamente towardsem direção robotsrobôs,
195
613674
2578
Quando somos violentos para com robôs,
10:28
specificallyespecificamente robotsrobôs
that are designedprojetado to mimicmímico life,
196
616276
3120
especificamente robôs concebidos
para imitarem vida,
10:31
is that a healthysaudável outletsaída
for violentviolento behaviorcomportamento
197
619420
3892
será uma forma saudável de nos libertarmos
de comportamentos violentos
10:35
or is that trainingTreinamento our crueltycrueldade musclesmúsculos?
198
623336
2544
ou será treinar os nossos
músculos da crueldade?
10:39
We don't know ...
199
627511
1150
Não sabemos...
10:42
But the answerresponda to this questionquestão has
the potentialpotencial to impactimpacto humanhumano behaviorcomportamento,
200
630622
3945
Mas a resposta a esta pergunta pode ter
impacto no comportamento humano,
10:46
it has the potentialpotencial
to impactimpacto socialsocial normsnormas,
201
634591
2768
pode ter impacto nas normas sociais,
10:49
it has the potentialpotencial to inspireinspirar rulesregras
around what we can and can't do
202
637383
3849
pode inspirar legislação
sobre o que podemos ou não fazer
10:53
with certaincerto robotsrobôs,
203
641256
1151
com certos robôs,
10:54
similarsemelhante to our animalanimal crueltycrueldade lawsleis.
204
642431
1848
em semelhança com as leis
sobre a crueldade animal.
10:57
Because even if robotsrobôs can't feel,
205
645228
2864
Porque apesar de os robôs
nada sentirem,
11:00
our behaviorcomportamento towardsem direção them
mightpoderia matterimportam for us.
206
648116
3080
o nosso comportamento em relação a eles
pode ser importante para nós.
11:04
And regardlessindependentemente of whetherse
we endfim up changingmudando our rulesregras,
207
652889
2855
E independentemente de mudarmos
ou não as nossas regras,
11:08
robotsrobôs mightpoderia be ablecapaz to help us
come to a newNovo understandingcompreensão of ourselvesnós mesmos.
208
656926
3556
os robôs podem ajudar-nos
a compreendermo-nos melhor.
11:14
MostMaioria of what I've learnedaprendido
over the pastpassado 10 yearsanos
209
662276
2316
A maior parte do que aprendi
nos últimos 10 anos
11:16
has not been about technologytecnologia at all.
210
664616
2238
não tem sido, de forma alguma,
sobre tecnologia.
11:18
It's been about humanhumano psychologyPsicologia
211
666878
2503
Tem sido sobre psicologia humana,
11:21
and empathyempatia and how we relaterelacionar to othersoutras.
212
669405
2603
sobre empatia e como nos relacionamos
com os outros.
11:25
Because when a childcriança is kindtipo to a RoombaRoomba,
213
673524
2365
Porque, quando uma criança
é gentil com um Roomba,
11:29
when a soldiersoldado triestentativas to saveSalve 
a robotrobô on the battlefieldcampo de batalha,
214
677262
4015
quando um soldado tenta salvar
um robô num campo de batalha,
11:33
or when a groupgrupo of people refusesrecusa-se
to harmprejuízo a roboticrobótico babybebê dinosaurdinossauro,
215
681301
3638
ou quando um grupo de pessoas se recusa
a magoar um bebé dinossauro robô,
11:38
those robotsrobôs aren'tnão são just motorsmotores
and gearsengrenagens and algorithmsalgoritmos.
216
686248
3191
esses robôs não são só motores
e engrenagens e algoritmos.
11:42
They're reflectionsreflexões of our ownpróprio humanityhumanidade.
217
690501
1905
São reflexo da nossa própria humanidade.
11:45
Thank you.
218
693523
1151
Obrigada.
11:46
(ApplauseAplausos)
219
694698
3397
(Aplausos)
Translated by Matilde Freitas
Reviewed by Margarida Ferreira

▲Back to top

ABOUT THE SPEAKER
Kate Darling - Robot ethicist
Kate Darling investigates the relationship between humans and robots -- now, and in the future.

Why you should listen

Robots are taking increasingly bigger roles in life and business -- moving well beyond manufacturing and into transportation, education, medicine, care for the elderly, our offices and our homes. But ethics and law haven't caught up. Kate Darling, a pioneer in these fields, is helping quicken the pace.

A leading expert in robot ethics, Darling is a researcher at the Massachusetts Institute of Technology (MIT) Media Lab where she investigates social robotics and conducts experimental studies on human-robot interaction. Darling explores the emotional connection between people and life-like inventions, seeking to influence technology design and policy direction. Her writing and research anticipate difficult questions that lawmakers, engineers and the wider public must address as human-robot relationships evolve in the coming decades.

While her background is in intellectual property and law and economics, Darling's passion for technology and robots led her to interdisciplinary fields. She's a former Fellow and current Affiliate at the Harvard Berkman Klein Center for Internet & Society and a former fellow at the Yale Information Society Project, and she's an affiliate at the Institute for Ethics and Emerging Technologies. 
Her work has been featured in Vogue, The New Yorker, The Guardian, BBC, NPR, PBS, The Boston Globe, Forbes, CBC, WIRED, Boston Magazine, The Atlantic, Slate, Die Zeit, The Japan Times and more. She is a contributing writer to Robohub and IEEE Spectrum and speaks and holds workshops covering some of the more interesting developments in the world of robotics, and where we might find ourselves in the future.

Darling graduated from law school with honors and holds a doctorate of sciences from the Swiss Federal Institute of Technology (ETH Zurich) and an honorary doctorate of sciences from Middlebury College. In 2017, the American Bar Association honored her legal work with the Mark T. Banner award in Intellectual Property. She is the caretaker for several domestic robots, including her Pleos Yochai, Peter, and Mr. Spaghetti. She tweets as @grok_ about eating cheerios for dinner.

More profile about the speaker
Kate Darling | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee