ABOUT THE SPEAKER
Damon Horowitz - Philosopher, entrepreneur
Damon Horowitz explores what is possible at the boundaries of technology and the humanities.

Why you should listen

Damon Horowitz is a philosophy professor and serial entrepreneur. He recently joined Google as In-House Philosopher / Director of Engineering, heading development of several initiatives involving social and search. He came to Google from Aardvark, the social search engine, where he was co-founder and CTO, overseeing product development and research strategy. Prior to Aardvark, Horowitz built several companies around applications of intelligent language processing. He co-founded Perspecta (acquired by Excite), was lead architect for Novation Biosciences (acquired by Agilent), and co-founded NewsDB (now Daylife).

Horowitz teaches courses in philosophy, cognitive science, and computer science at several institutions, including Stanford, NYU, University of Pennsylvania and San Quentin State Prison.

Get more information on the Prison University Project >>

More profile about the speaker
Damon Horowitz | Speaker | TED.com
TEDxSiliconValley

Damon Horowitz: We need a "moral operating system"

Damon Horowitz pede um "sistema operativo moral"

Filmed:
795,617 views

Em TEDxSiliconValley, Damon Horowitz revê os enormes novos poderes que a tecnologia nos proporciona: saber mais -- e mais sobre cada um dos outros -- do que nunca. Arrastando o público para uma discussão filosófica, Horowitz convida-nos a prestar nova atenção à filosofia básica -- os princípios éticos -- por detrás da explosão de inventos que está a recriar o nosso mundo. Onde está o sistema operativo moral que nos permite retirar sentido de tudo isto?
- Philosopher, entrepreneur
Damon Horowitz explores what is possible at the boundaries of technology and the humanities. Full bio

Double-click the English transcript below to play the video.

00:15
PowerPoder.
0
0
2000
Poder.
00:17
That is the wordpalavra that comesvem to mindmente.
1
2000
2000
Essa é a palavra que nos vem à mente.
00:19
We're the newNovo technologiststecnólogos.
2
4000
2000
Somos os novos tecnólogos.
00:21
We have a lot of datadados, so we have a lot of powerpoder.
3
6000
3000
Temos muita informação, por isso temos muito poder.
00:24
How much powerpoder do we have?
4
9000
2000
Quanto poder temos?
00:26
SceneCena from a moviefilme: "ApocalypseApocalipse Now" -- great moviefilme.
5
11000
3000
Cena de um filme: "Apocalypse Now" -- grande filme.
00:29
We'veTemos got to get our heroherói, CaptainCapitão WillardWillard, to the mouthboca of the NungNung RiverRio
6
14000
3000
Temos que levar o nosso herói, Capitão Willard, até à foz do Rio Nung
00:32
so he can go pursueperseguir ColonelCoronel KurtzKurtz.
7
17000
2000
para que ele persiga o Coronel Kurtz.
00:34
The way we're going to do this is flymosca him in and dropsolta him off.
8
19000
2000
Para isso, vamos transportá-lo por via aérea e largá-lo no local.
00:36
So the scenecena:
9
21000
2000
Eis a cena:
00:38
the skycéu is filledpreenchidas with this fleetfrota of helicoptershelicópteros carryingcarregando him in.
10
23000
3000
o céu está coberto pela esquadrilha de helicópteros que o transportam.
00:41
And there's this loudalto, thrillingemocionante musicmúsica in the backgroundfundo,
11
26000
2000
E há, no fundo, esta música alta e arrebatadora,
00:43
this wildselvagem musicmúsica.
12
28000
2000
esta música selvagem.
00:45
DumDum dada tata dada dumdum
13
30000
2000
♫Dum da ta da dum ♫
00:47
DumDum dada tata dada dumdum
14
32000
2000
♫ Dum da ta da dum ♫
00:49
DaDa tata dada dada
15
34000
3000
♫ Da ta da da ♫
00:52
That's a lot of powerpoder.
16
37000
2000
É um enorme poder.
00:54
That's the kindtipo of powerpoder I feel in this roomquarto.
17
39000
2000
É o tipo de poder que sinto nesta sala.
00:56
That's the kindtipo of powerpoder we have
18
41000
2000
É o tipo de poder que nós temos
00:58
because of all of the datadados that we have.
19
43000
2000
devido a toda a informação que temos.
01:00
Let's take an exampleexemplo.
20
45000
2000
Tomemos um exemplo.
01:02
What can we do
21
47000
2000
O que é que podemos fazer
01:04
with just one person'spessoas datadados?
22
49000
3000
com os dados de apenas uma pessoa?
01:07
What can we do
23
52000
2000
O que é que podemos fazer
01:09
with that guy'srapazes datadados?
24
54000
2000
com os dados daquele indivíduo?
01:11
I can look at your financialfinanceiro recordsregistros.
25
56000
2000
Posso ver os seus registos financeiros.
01:13
I can tell if you paypagamento your billscontas on time.
26
58000
2000
Posso dizer se paga as suas contas atempadamente.
01:15
I know if you're good to give a loanempréstimo to.
27
60000
2000
Sei se reúne as condições para contrair um empréstimo.
01:17
I can look at your medicalmédico recordsregistros; I can see if your pumpbomba is still pumpingbombeamento --
28
62000
3000
Posso ver os seus registos clínicos, posso ver se o seu coração ainda bate --
01:20
see if you're good to offeroferta insuranceseguro to.
29
65000
3000
ver se está bem, para lhe oferecer um seguro.
01:23
I can look at your clickingclicando patternspadrões.
30
68000
2000
Posso observar os seus hábitos na internet.
01:25
When you come to my websitelocal na rede Internet, I actuallyna realidade know what you're going to do already
31
70000
3000
Quando visita o meu sitio na web, já sei o você vai fazer,
01:28
because I've seenvisto you visitVisita millionsmilhões of websitessites before.
32
73000
2000
porque o vi visitar milhões de sítios anteriormente.
01:30
And I'm sorry to tell you,
33
75000
2000
E, lamento dizer-lhe,
01:32
you're like a pokerpóquer playerjogador, you have a tell.
34
77000
2000
você é como um jogador de póquer, descai-se.
01:34
I can tell with datadados analysisanálise what you're going to do
35
79000
2000
Analisando os dados, posso dizer o que você vai fazer
01:36
before you even do it.
36
81000
2000
antes mesmo de você o fazer.
01:38
I know what you like. I know who you are,
37
83000
3000
Eu sei do que você gosta. Sei quem você é.
01:41
and that's even before I look at your mailenviar
38
86000
2000
E isso, antes mesmo de ver o seu correio
01:43
or your phonetelefone.
39
88000
2000
ou o seu telemóvel.
01:45
Those are the kindstipos of things we can do
40
90000
2000
Esse é o tipo de coisas que podemos fazer
01:47
with the datadados that we have.
41
92000
3000
com a informação que temos.
01:50
But I'm not actuallyna realidade here to talk about what we can do.
42
95000
3000
Mas eu não estou aqui para falar sobre o que podemos fazer.
01:56
I'm here to talk about what we should do.
43
101000
3000
Estou aqui para falar sobre o que devemos fazer.
02:00
What's the right thing to do?
44
105000
3000
Qual é a actuação correcta?
02:04
Now I see some puzzledintrigado looksparece
45
109000
2000
Agora vejo alguns olhares confusos
02:06
like, "Why are you askingPerguntando us what's the right thing to do?
46
111000
3000
tipo: "Porque é que nos está a perguntar qual é a actuação correcta?
02:09
We're just buildingconstrução this stuffcoisa. SomebodyAlguém elseoutro is usingusando it."
47
114000
3000
Nós só estamos a criar isto. São outras pessoas que o utilizam."
02:12
FairJusto enoughsuficiente.
48
117000
3000
É verdade.
02:15
But it bringstraz me back.
49
120000
2000
Mas isso leva-me ao passado.
02:17
I think about WorldMundo WarGuerra IIII --
50
122000
2000
Penso na II Guerra Mundial --
02:19
some of our great technologiststecnólogos then,
51
124000
2000
alguns dos nossos grandes tecnólogos de então,
02:21
some of our great physicistsfísicos,
52
126000
2000
alguns dos nossos grandes físicos,
02:23
studyingestudando nuclearnuclear fissionfissão and fusionfusão --
53
128000
2000
estudando a fissão e a fusão nuclear --
02:25
just nuclearnuclear stuffcoisa.
54
130000
2000
apenas estudos nucleares.
02:27
We gatherreunir togetherjuntos these physicistsfísicos in LosLos AlamosÁlamos
55
132000
3000
Nós reunimos estes físicos em Los Alamos
02:30
to see what they'lleles vão buildconstruir.
56
135000
3000
para ver o que criarão.
02:33
We want the people buildingconstrução the technologytecnologia
57
138000
3000
Nós queremos que as pessoas que criam a tecnologia
02:36
thinkingpensando about what we should be doing with the technologytecnologia.
58
141000
3000
pensem no que devemos fazer com a tecnologia.
02:41
So what should we be doing with that guy'srapazes datadados?
59
146000
3000
Então, o que devemos fazer com os dados daquele indivíduo?
02:44
Should we be collectingcoletando it, gatheringreunindo it,
60
149000
3000
Devemos colher estes dados, reuni-los,
02:47
so we can make his onlineconectados experienceexperiência better?
61
152000
2000
para melhorar a sua experiência online?
02:49
So we can make moneydinheiro?
62
154000
2000
Para ganharmos dinheiro?
02:51
So we can protectproteger ourselvesnós mesmos
63
156000
2000
Para podermos proteger-nos
02:53
if he was up to no good?
64
158000
2000
caso ele proceda mal?
02:55
Or should we respectrespeito his privacyprivacidade,
65
160000
3000
Ou devemos respeitar a sua privacidade,
02:58
protectproteger his dignitydignidade and leavesair him alonesozinho?
66
163000
3000
proteger a sua dignidade e deixá-lo em paz?
03:02
WhichQue one is it?
67
167000
3000
O que devemos fazer?
03:05
How should we figurefigura it out?
68
170000
2000
Como devemos decidir?
03:07
I know: crowdsourcecrowdsourcing. Let's crowdsourcecrowdsourcing this.
69
172000
3000
Eu sei: colaboração pública. Vamos resolver isto juntos.
03:11
So to get people warmedaquecido up,
70
176000
3000
Para fazermos o aquecimento,
03:14
let's startcomeçar with an easyfácil questionquestão --
71
179000
2000
vamos começar com uma questão simples --
03:16
something I'm sure everybodytodo mundo here has an opinionopinião about:
72
181000
3000
uma coisa a respeito da qual estou certo de que todos aqui têm uma opinião:
03:19
iPhoneiPhone versusversus AndroidAndroide.
73
184000
2000
iPhone versus Android.
03:21
Let's do a showexposição of handsmãos -- iPhoneiPhone.
74
186000
3000
Levantem as vossas mãos -- iPhone.
03:24
Uh huh.
75
189000
2000
Uh huh.
03:26
AndroidAndroide.
76
191000
3000
Android.
03:29
You'dVocê faria think with a bunchgrupo of smartinteligente people
77
194000
2000
Pensar-se-ia que com um grupo de gente inteligente
03:31
we wouldn'tnão seria be suchtal suckersventosas just for the prettybonita phonestelefones.
78
196000
2000
não seríamos tão malucos pelos telemóveis bonitinhos.
03:33
(LaughterRiso)
79
198000
2000
(Risos)
03:35
NextNa próxima questionquestão,
80
200000
2000
Questão seguinte,
03:37
a little bitpouco hardermais difíceis.
81
202000
2000
um pouco mais difícil.
03:39
Should we be collectingcoletando all of that guy'srapazes datadados
82
204000
2000
Devemos recolher todos aqueles dados daquele indivíduo
03:41
to make his experiencesexperiências better
83
206000
2000
para melhorar as suas experiências
03:43
and to protectproteger ourselvesnós mesmos in casecaso he's up to no good?
84
208000
3000
e para nos protegermos no caso de ele não se portar bem?
03:46
Or should we leavesair him alonesozinho?
85
211000
2000
Ou devemos deixá-lo em paz?
03:48
CollectColetar his datadados.
86
213000
3000
Recolher os dados.
03:53
LeaveDeixar him alonesozinho.
87
218000
3000
Deixá-lo em paz.
03:56
You're safeseguro. It's fine.
88
221000
2000
Estão safos. Está certo.
03:58
(LaughterRiso)
89
223000
2000
(Risos)
04:00
Okay, last questionquestão --
90
225000
2000
Muito bem, última questão --
04:02
hardermais difíceis questionquestão --
91
227000
2000
esta mais difícil --
04:04
when tryingtentando to evaluateAvalie
92
229000
3000
quando tentamos avaliar
04:07
what we should do in this casecaso,
93
232000
3000
o que devemos fazer neste caso,
04:10
should we use a KantianKantiano deontologicaldeontológicos moralmoral frameworkestrutura,
94
235000
4000
devemos usar o sistema da moral deontológica de Kant,
04:14
or should we use a MillianMillian consequentialistconsequencialista one?
95
239000
3000
ou devemos usar a teoria da causalidade de Mill?
04:19
KantKant.
96
244000
3000
Kant.
04:22
MillMill.
97
247000
3000
Mill.
04:25
Not as manymuitos votesvotos.
98
250000
2000
Já não há tantos votos.
04:27
(LaughterRiso)
99
252000
3000
(Risos)
04:30
Yeah, that's a terrifyingaterrorizante resultresultado.
100
255000
3000
Sim, é um resultado terrível.
04:34
TerrifyingAterrorizante, because we have strongermais forte opinionsopiniões
101
259000
4000
Terrível porque temos opiniões mais firmes
04:38
about our hand-heldHand-Held devicesdispositivos
102
263000
2000
sobre os nossos aparelhos portáteis
04:40
than about the moralmoral frameworkestrutura
103
265000
2000
do que sobre os padrões morais
04:42
we should use to guideguia our decisionsdecisões.
104
267000
2000
que devemos usar para orientar as nossas decisões.
04:44
How do we know what to do with all the powerpoder we have
105
269000
3000
Como sabemos o que fazer com todo o poder que temos
04:47
if we don't have a moralmoral frameworkestrutura?
106
272000
3000
se não temos um enquadramento moral?
04:50
We know more about mobileMóvel operatingoperativo systemssistemas,
107
275000
3000
Sabemos mais sobre sistemas operativos móveis,
04:53
but what we really need is a moralmoral operatingoperativo systemsistema.
108
278000
3000
mas do que realmente necessitamos é de um sistema operativo moral.
04:58
What's a moralmoral operatingoperativo systemsistema?
109
283000
2000
O que é um sistema operativo moral?
05:00
We all know right and wrongerrado, right?
110
285000
2000
Certo, todos nós sabemos o que é certo e errado.
05:02
You feel good when you do something right,
111
287000
2000
Sentimo-nos bem quando fazemos qualquer coisa boa,
05:04
you feel badmau when you do something wrongerrado.
112
289000
2000
sentimo-nos mal quando fazemos alguma coisa errada.
05:06
Our parentsparentes teachEnsinar us that: praiseelogio with the good, scoldNeemias Silva with the badmau.
113
291000
3000
Os nossos pais ensinam-nos que se louva o bom, ralha-se ao mau.
05:09
But how do we figurefigura out what's right and wrongerrado?
114
294000
3000
Mas como sabemos o que é bom e o que é mau?
05:12
And from day to day, we have the techniquestécnicas that we use.
115
297000
3000
E, de dia para dia, temos as técnicas que usamos.
05:15
Maybe we just followSegue our gutintestino.
116
300000
3000
Talvez apenas sigamos o nosso instinto.
05:18
Maybe we take a votevoto -- we crowdsourcecrowdsourcing.
117
303000
3000
Talvez recorramos à votação - pedimos uma colaboração pública.
05:21
Or maybe we puntPunt --
118
306000
2000
Ou talvez apostemos --
05:23
askpergunte the legallegal departmentdepartamento, see what they say.
119
308000
3000
perguntemos ao departamento jurídico, para ver o que dizem.
05:26
In other wordspalavras, it's kindtipo of randomaleatória,
120
311000
2000
Por outras palavras, é um pouco aleatório,
05:28
kindtipo of adde Anúncios hochoc,
121
313000
2000
estilo ad hoc,
05:30
how we figurefigura out what we should do.
122
315000
3000
como decidimos o que devemos fazer.
05:33
And maybe, if we want to be on surermais seguro footingequilíbrio,
123
318000
3000
E talvez, se quisermos sentir-nos mais seguros,
05:36
what we really want is a moralmoral frameworkestrutura that will help guideguia us there,
124
321000
3000
o que realmente queiramos seja um sistema moral que nos oriente,
05:39
that will tell us what kindstipos of things are right and wrongerrado in the first placeLugar, colocar,
125
324000
3000
que nos diga que tipos de coisas são, à partida, certas e erradas,
05:42
and how would we know in a givendado situationsituação what to do.
126
327000
4000
e como sabemos o que fazer numa dada situação.
05:46
So let's get a moralmoral frameworkestrutura.
127
331000
2000
Então, vamos arranjar um sistema moral.
05:48
We're numbersnúmeros people, livingvivo by numbersnúmeros.
128
333000
3000
Somos pessoas que lidam com números, vivemos através de números.
05:51
How can we use numbersnúmeros
129
336000
2000
Como podemos usar números
05:53
as the basisbase for a moralmoral frameworkestrutura?
130
338000
3000
como base de um sistema moral?
05:56
I know a guy who did exactlyexatamente that.
131
341000
3000
Conheço um indivíduo que fez exactamente isso.
05:59
A brilliantbrilhante guy --
132
344000
3000
Era um indivíduo brilhamte --
06:02
he's been deadmorto 2,500 yearsanos.
133
347000
3000
morreu há 2.500 anos.
06:05
PlatoPlatão, that's right.
134
350000
2000
Platão, isso mesmo.
06:07
RememberLembre-se him -- oldvelho philosopherfilósofo?
135
352000
2000
Lembram-se dele -- o velho filósofo?
06:09
You were sleepingdormindo duringdurante that classclasse.
136
354000
3000
Vocês estavam a dormir nessa aula.
06:12
And PlatoPlatão, he had a lot of the samemesmo concernspreocupações that we did.
137
357000
2000
Platão tinha grande parte das nossas preocupações.
06:14
He was worriedpreocupado about right and wrongerrado.
138
359000
2000
Estava preocupado com o certo e o errado.
06:16
He wanted to know what is just.
139
361000
2000
Queria saber o que é justo.
06:18
But he was worriedpreocupado that all we seemparecem to be doing
140
363000
2000
Mas preocupava-o o facto de que tudo o que parecemos fazer
06:20
is tradingnegociação opinionsopiniões about this.
141
365000
2000
é trocar opiniões sobre o assunto.
06:22
He saysdiz something'salgumas coisas just. She saysdiz something elseoutro is just.
142
367000
3000
Ele diz que isto é justo. Ela diz que aquilo é justo.
06:25
It's kindtipo of convincingconvincente when he talksfala and when she talksfala too.
143
370000
2000
Parece convincente quando ele fala e quando ela fala também.
06:27
I'm just going back and forthadiante; I'm not gettingobtendo anywherequalquer lugar.
144
372000
2000
Ando para trás e para a frente; não chego a lugar nenhum.
06:29
I don't want opinionsopiniões; I want knowledgeconhecimento.
145
374000
3000
Não quero opiniões, quero conhecimento.
06:32
I want to know the truthverdade about justicejustiça --
146
377000
3000
Quero saber a verdade sobre a Justiça --
06:35
like we have truthsverdades in mathmatemática.
147
380000
3000
tal como temos verdades na Matemática.
06:38
In mathmatemática, we know the objectiveobjetivo factsfatos.
148
383000
3000
Em Matemática, sabemos factos objectivos.
06:41
Take a numbernúmero, any numbernúmero -- two.
149
386000
2000
Escolham um número, qualquer número -- dois.
06:43
FavoriteFavorito numbernúmero. I love that numbernúmero.
150
388000
2000
O meu número favorito. Adoro-o.
06:45
There are truthsverdades about two.
151
390000
2000
Há verdades sobre o dois.
06:47
If you've got two of something,
152
392000
2000
Se vocês tiverem dois de alguma coisa,
06:49
you addadicionar two more, you get fourquatro.
153
394000
2000
adicionam dois e obtêm quatro.
06:51
That's trueverdade no matterimportam what thing you're talkingfalando about.
154
396000
2000
Isto é verdade, independentemente daquilo de que estejam a falar.
06:53
It's an objectiveobjetivo truthverdade about the formFormato of two,
155
398000
2000
É uma verdade objectiva sobre a forma dois,
06:55
the abstractabstrato formFormato.
156
400000
2000
a forma abstracta.
06:57
When you have two of anything -- two eyesolhos, two earsorelhas, two nosesnarizes,
157
402000
2000
Quando vocês têm dois de alguma coisa -- dois olhos, duas orelhas, dois narizes,
06:59
just two protrusionssaliências --
158
404000
2000
apenas duas saliências --
07:01
those all partakeparticipar of the formFormato of two.
159
406000
3000
todas elas participam da forma de dois.
07:04
They all participateparticipar in the truthsverdades that two has.
160
409000
4000
Todas elas participam nas verdades que dois tem.
07:08
They all have two-nessdois-ness in them.
161
413000
2000
Todos têm em si o ser dois.
07:10
And thereforeassim sendo, it's not a matterimportam of opinionopinião.
162
415000
3000
E, consequentemente, isto não é uma questão de opinião.
07:13
What if, PlatoPlatão thought,
163
418000
2000
Platão pensou: E se
07:15
ethicsética was like mathmatemática?
164
420000
2000
a Ética fosse como a Matemática?
07:17
What if there were a purepuro formFormato of justicejustiça?
165
422000
3000
E se houvesse uma forma pura de Justiça?
07:20
What if there are truthsverdades about justicejustiça,
166
425000
2000
E se houvesse verdades sobre a Justiça
07:22
and you could just look around in this worldmundo
167
427000
2000
e pudéssemos olhar à nossa volta, neste mundo
07:24
and see whichqual things participatedparticipou,
168
429000
2000
e ver quais as coisas que participam
07:26
partookcomeram of that formFormato of justicejustiça?
169
431000
3000
partilham dessa forma de Justiça?
07:29
Then you would know what was really just and what wasn'tnão foi.
170
434000
3000
Assim saberíamos o que é realmente justo e o que o não é.
07:32
It wouldn'tnão seria be a matterimportam
171
437000
2000
Não seria uma questão
07:34
of just opinionopinião or just appearancesaparências.
172
439000
3000
de mera opinião ou aparência.
07:37
That's a stunningimpressionante visionvisão.
173
442000
2000
É uma visão assombrosa.
07:39
I mean, think about that. How grandgrande. How ambitiousambicioso.
174
444000
3000
Quero dizer, pensem nisto. Que grandioso. Que ambicioso.
07:42
That's as ambitiousambicioso as we are.
175
447000
2000
Tão ambicioso como nós.
07:44
He wants to solveresolver ethicsética.
176
449000
2000
Ele quer resolver a Ética.
07:46
He wants objectiveobjetivo truthsverdades.
177
451000
2000
Quer verdades objectivas.
07:48
If you think that way,
178
453000
3000
Se pensarem assim,
07:51
you have a PlatonistPlatónico moralmoral frameworkestrutura.
179
456000
3000
têm um sistema moral Platónico.
07:54
If you don't think that way,
180
459000
2000
Se não pensarem assim,
07:56
well, you have a lot of companyempresa in the historyhistória of WesternWestern philosophyfilosofia,
181
461000
2000
bem, terão muita companhia na história da filosofia ocidental,
07:58
because the tidyarrumar ideaidéia, you know, people criticizedcriticado it.
182
463000
3000
porque a ideia pura -- vocês sabem, as pessoas criticaram-na.
08:01
AristotleAristóteles, in particularespecial, he was not amusedse divertiu.
183
466000
3000
Aristóteles, em particular, não a apreciou muito.
08:04
He thought it was impracticalimpraticável.
184
469000
3000
Achou-a impraticável.
08:07
AristotleAristóteles said, "We should seekprocurar only so much precisionprecisão in eachcada subjectsujeito
185
472000
4000
Aristóteles disse: "Apenas devemos procurar em cada assunto o nível de precisão
08:11
as that subjectsujeito allowspermite."
186
476000
2000
que esse assunto permita."
08:13
AristotleAristóteles thought ethicsética wasn'tnão foi a lot like mathmatemática.
187
478000
3000
Aristóteles pensou que a Ética não era como a Matemática.
08:16
He thought ethicsética was a matterimportam of makingfazer decisionsdecisões in the here-and-nowaqui e agora
188
481000
3000
Pensou que a Ética tinha a ver com tomar decisões no aqui e agora
08:19
usingusando our bestmelhor judgmentjulgamento
189
484000
2000
usando o nosso melhor julgamento
08:21
to find the right pathcaminho.
190
486000
2000
para encontrar o caminho certo.
08:23
If you think that, Plato'sPlatão not your guy.
191
488000
2000
Se pensarem assim, Platão não é o vosso tipo.
08:25
But don't give up.
192
490000
2000
Mas não desistam.
08:27
Maybe there's anotheroutro way
193
492000
2000
Talvez haja outra maneira
08:29
that we can use numbersnúmeros as the basisbase of our moralmoral frameworkestrutura.
194
494000
3000
de podermos usar números como base do nosso sistema moral.
08:33
How about this:
195
498000
2000
Que tal isto:
08:35
What if in any situationsituação you could just calculatecalcular,
196
500000
3000
E se em cada situação pudéssemos calcular,
08:38
look at the choicesescolhas,
197
503000
2000
olhar para as opções,
08:40
measurea medida out whichqual one'suns better and know what to do?
198
505000
3000
medir qual delas é a melhor e saber o que fazer?
08:43
That soundsom familiarfamiliar?
199
508000
2000
Soa familiar?
08:45
That's a utilitarianutilitária moralmoral frameworkestrutura.
200
510000
3000
É um sistema moral utilitarista.
08:48
JohnJohn StuartStuart MillMill was a great advocateadvogado of this --
201
513000
2000
John Stuart Mill foi um seu grande defensor --
08:50
nicebom guy besidesalém de --
202
515000
2000
um tipo fixe, aliás --
08:52
and only been deadmorto 200 yearsanos.
203
517000
2000
e só morreu há 200 anos.
08:54
So basisbase of utilitarianismutilitarismo --
204
519000
2000
Portanto, as bases do utilitarismo --
08:56
I'm sure you're familiarfamiliar at leastpelo menos.
205
521000
2000
de certeza que pelo menos vos são familiares.
08:58
The threetrês people who votedvotou for MillMill before are familiarfamiliar with this.
206
523000
2000
Às três pessoas que há pouco votaram no Mill são familiares.
09:00
But here'saqui está the way it workstrabalho.
207
525000
2000
Mas eis a forma como isto funciona.
09:02
What if moralsmoral, what if what makesfaz com que something moralmoral
208
527000
3000
Que tal se a moral, se o que torna uma coisa moral,
09:05
is just a matterimportam of if it maximizesmaximiza pleasureprazer
209
530000
2000
é só uma questão de essa coisa maximizar o prazer
09:07
and minimizesminimiza a paindor?
210
532000
2000
e minimizar a dor?
09:09
It does something intrinsicintrínseco to the actAja.
211
534000
3000
Trata-se de uma coisa intrínseca ao acto.
09:12
It's not like its relationrelação to some abstractabstrato formFormato.
212
537000
2000
Não tem que ver com a sua relação com uma forma abstracta.
09:14
It's just a matterimportam of the consequencesconsequências.
213
539000
2000
É apenas uma questão de consequências.
09:16
You just look at the consequencesconsequências
214
541000
2000
Olhamos apenas para as consequências
09:18
and see if, overallNo geral, it's for the good or for the worsepior.
215
543000
2000
e vemos se, no conjunto, são positivas ou negativas.
09:20
That would be simplesimples. Then we know what to do.
216
545000
2000
Isso seria simples. Assim saberíamos o que fazer.
09:22
Let's take an exampleexemplo.
217
547000
2000
Tomemos um exemplo.
09:24
SupposeSuponha que I go up
218
549000
2000
Suponham que eu vou
09:26
and I say, "I'm going to take your phonetelefone."
219
551000
2000
e digo: "Vou ficar com o seu telemóvel."
09:28
Not just because it rangtocou earliermais cedo,
220
553000
2000
Não só porque, há bocado, ele tocou,
09:30
but I'm going to take it because I madefeito a little calculationCálculo.
221
555000
3000
mas porque fiz um pequeno cálculo.
09:33
I thought, that guy looksparece suspicioussuspeito.
222
558000
3000
Pensei, aquele indivíduo parece suspeito.
09:36
And what if he's been sendingenviando little messagesmensagens to BinBin Laden'sDo carga hideoutesconderijo --
223
561000
3000
E se ele tiver estado a enviar mensagens para o esconderijo do Bin Laden --
09:39
or whoeverquem quer que seja tooktomou over after BinBin LadenCarregado --
224
564000
2000
ou para quem quer que tenha sucedido a Bin Laden --
09:41
and he's actuallyna realidade like a terroristterrorista, a sleeperdorminhoco cellcélula.
225
566000
3000
E ele é realmente como um terrorista, uma célula de espionagem.
09:44
I'm going to find that out, and when I find that out,
226
569000
3000
Vou descobrir isso, e quando descobrir,
09:47
I'm going to preventevita a hugeenorme amountmontante of damagedanificar that he could causecausa.
227
572000
3000
vou impedir uma enorme quantidade de prejuízos que ele podia causar.
09:50
That has a very highAlto utilityutilidade to preventevita that damagedanificar.
228
575000
3000
Será muito útil para evitar aqueles prejuízos.
09:53
And comparedcomparado to the little paindor that it's going to causecausa --
229
578000
2000
E comparado com a pequena dor que vai causar --
09:55
because it's going to be embarrassingembaraçoso when I'm looking on his phonetelefone
230
580000
2000
porque será embaraçoso quando eu estiver a ver o seu telemóvel
09:57
and seeingvendo that he has a FarmvilleFarmville problemproblema and that wholetodo bitpouco --
231
582000
3000
e a ver que ele tem um problema na Farmville e tudo o resto --
10:00
that's overwhelmedsobrecarregado
232
585000
3000
isso é minimizado
10:03
by the valuevalor of looking at the phonetelefone.
233
588000
2000
pelo vantagem de ver o telemóvel.
10:05
If you feel that way,
234
590000
2000
Se vocês se sentirem assim,
10:07
that's a utilitarianutilitária choiceescolha.
235
592000
3000
trata-se de uma escolha utilitária.
10:10
But maybe you don't feel that way eitherou.
236
595000
3000
Mas talvez vocês também não se sintam dessa maneira.
10:13
Maybe you think, it's his phonetelefone.
237
598000
2000
Talvez pensem, é o telemóvel dele.
10:15
It's wrongerrado to take his phonetelefone
238
600000
2000
É errado tirar-lhe o telemóvel,
10:17
because he's a personpessoa
239
602000
2000
porque ele é uma pessoa
10:19
and he has rightsdireitos and he has dignitydignidade,
240
604000
2000
e tem direitos, e tem dignidade,
10:21
and we can't just interfereinterferir with that.
241
606000
2000
e não podemos simplesmente interferir neles.
10:23
He has autonomyautonomia.
242
608000
2000
Ele é autónomo.
10:25
It doesn't matterimportam what the calculationscálculos are.
243
610000
2000
Não interessam os cálculos.
10:27
There are things that are intrinsicallyintrinsecamente wrongerrado --
244
612000
3000
Há coisas que são intrinsecamente erradas --
10:30
like lyingdeitado is wrongerrado,
245
615000
2000
como mentir -- é errado,
10:32
like torturingtorturar innocentinocente childrencrianças is wrongerrado.
246
617000
3000
como torturar crianças inocentes -- é errado.
10:35
KantKant was very good on this pointponto,
247
620000
3000
Kant era muito bom neste ponto,
10:38
and he said it a little better than I'll say it.
248
623000
2000
e disse isto um pouco melhor do que eu direi.
10:40
He said we should use our reasonrazão
249
625000
2000
Ele disse que devíamos usar a nossa razão
10:42
to figurefigura out the rulesregras by whichqual we should guideguia our conductconduta,
250
627000
3000
para decidir as regras pelas quais devíamos orientar a nossa conduta.
10:45
and then it is our dutydever to followSegue those rulesregras.
251
630000
3000
E depois é nosso dever seguir essas regras.
10:48
It's not a matterimportam of calculationCálculo.
252
633000
3000
Não é uma questão de cálculos.
10:51
So let's stop.
253
636000
2000
Por isso vamos parar.
10:53
We're right in the thickGrosso of it, this philosophicalfilosófico thicketbosque.
254
638000
3000
Estamos mesmo no cerne deste emaranhado filosófico.
10:56
And this goesvai on for thousandsmilhares of yearsanos,
255
641000
3000
E isto continua durante milhares de anos,
10:59
because these are hardDifícil questionsquestões,
256
644000
2000
porque estas questões são difíceis,
11:01
and I've only got 15 minutesminutos.
257
646000
2000
e só dispomos de 15 minutos.
11:03
So let's cutcortar to the chaseChase.
258
648000
2000
Por isso, vamos directos ao que interessa.
11:05
How should we be makingfazer our decisionsdecisões?
259
650000
4000
Como devemos tomar as nossas decisões?
11:09
Is it PlatoPlatão, is it AristotleAristóteles, is it KantKant, is it MillMill?
260
654000
3000
De acordo com Platão, Aristóteles, Kant, Mill?
11:12
What should we be doing? What's the answerresponda?
261
657000
2000
O que devemos fazer? Qual é a resposta?
11:14
What's the formulaFórmula that we can use in any situationsituação
262
659000
3000
Qual é a fórmula que podemos usar em qualquer situação
11:17
to determinedeterminar what we should do,
263
662000
2000
para determinar o que devemos fazer,
11:19
whetherse we should use that guy'srapazes datadados or not?
264
664000
2000
se devemos ou não usar a informação sobre aquele individuo?
11:21
What's the formulaFórmula?
265
666000
3000
Qual é a fórmula?
11:25
There's not a formulaFórmula.
266
670000
2000
Não há fórmula.
11:29
There's not a simplesimples answerresponda.
267
674000
2000
Não há uma resposta simples.
11:31
EthicsÉtica is hardDifícil.
268
676000
3000
A Ética é difícil.
11:34
EthicsÉtica requiresexige thinkingpensando.
269
679000
3000
A Ética requer pensamento.
11:38
And that's uncomfortabledesconfortável.
270
683000
2000
E é desconfortável.
11:40
I know; I spentgasto a lot of my careercarreira
271
685000
2000
Eu sei, passei grande parte da minha carreira
11:42
in artificialartificial intelligenceinteligência,
272
687000
2000
na inteligência artificial,
11:44
tryingtentando to buildconstruir machinesmáquinas that could do some of this thinkingpensando for us,
273
689000
3000
tentando construir máquinas que pudessem pensar nalgumas destas questões por nós,
11:47
that could give us answersresponde.
274
692000
2000
que pudessem dar-nos respostas.
11:49
But they can't.
275
694000
2000
Mas não podem.
11:51
You can't just take humanhumano thinkingpensando
276
696000
2000
Não se consegue simplesmente pegar no pensamento humano
11:53
and put it into a machinemáquina.
277
698000
2000
e colocá-lo numa máquina.
11:55
We're the onesuns who have to do it.
278
700000
3000
Somos nós que temos de pensar.
11:58
HappilyFelizes para sempre, we're not machinesmáquinas, and we can do it.
279
703000
3000
Felizmente, não somos máquinas, podemos pensar.
12:01
Not only can we think,
280
706000
2000
Não apenas podemos pensar,
12:03
we mustdevo.
281
708000
2000
mas devemos fazê-lo.
12:05
HannahHannah ArendtArendt said,
282
710000
2000
Hannah Arendt disse:
12:07
"The sadtriste truthverdade
283
712000
2000
"A triste verdade
12:09
is that mosta maioria evilmal donefeito in this worldmundo
284
714000
2000
é que o maior mal feito neste mundo
12:11
is not donefeito by people
285
716000
2000
não é feito por pessoas
12:13
who chooseescolher to be evilmal.
286
718000
2000
que escolhem ser más.
12:15
It arisessurge from not thinkingpensando."
287
720000
3000
Ele surge da falta do pensamento."
12:18
That's what she calledchamado the "banalitybanalidade of evilmal."
288
723000
4000
É o que ela denomina a "banalidade do mal."
12:22
And the responseresposta to that
289
727000
2000
E a resposta a isso
12:24
is that we demandexigem the exerciseexercício of thinkingpensando
290
729000
2000
é que exigimos o exercício do pensamento
12:26
from everycada sane personpessoa.
291
731000
3000
a todas as pessoas sãs.
12:29
So let's do that. Let's think.
292
734000
2000
Vamos, então, fazer isso. Vamos pensar.
12:31
In factfacto, let's startcomeçar right now.
293
736000
3000
De facto, vamos começar agora mesmo.
12:34
EveryCada personpessoa in this roomquarto do this:
294
739000
3000
Cada pessoa, nesta sala, faça o seguinte:
12:37
think of the last time you had a decisiondecisão to make
295
742000
3000
pense na última vez que teve que tomar uma decisão
12:40
where you were worriedpreocupado to do the right thing,
296
745000
2000
em que se preocupou em fazer o que era certo,
12:42
where you wonderedme perguntei, "What should I be doing?"
297
747000
2000
em que se perguntou: "O que devo fazer?"
12:44
BringTrazer that to mindmente,
298
749000
2000
Recordem esse momento.
12:46
and now reflectrefletir on that
299
751000
2000
E agora reflictam sobre ele
12:48
and say, "How did I come up that decisiondecisão?
300
753000
3000
e digam: "Como é que cheguei àquela decisão?"
12:51
What did I do? Did I followSegue my gutintestino?
301
756000
3000
O que é que eu fiz? Segui a minha intuição?
12:54
Did I have somebodyalguém votevoto on it? Or did I puntPunt to legallegal?"
302
759000
2000
Pedi a alguém para votar sobre o assunto? Ou pedi um parecer jurídico?"
12:56
Or now we have a fewpoucos more choicesescolhas.
303
761000
3000
Ou, agora, nós temos mais algumas opções.
12:59
"Did I evaluateAvalie what would be the highestmais alto pleasureprazer
304
764000
2000
"Avaliei qual seria o prazer máximo
13:01
like MillMill would?
305
766000
2000
como faria Mill?
13:03
Or like KantKant, did I use reasonrazão to figurefigura out what was intrinsicallyintrinsecamente right?"
306
768000
3000
Ou, como Kant, usei a razão para decidir o que era intrinsecamente correcto?"
13:06
Think about it. Really bringtrazer it to mindmente. This is importantimportante.
307
771000
3000
Pensem nisso. Recordem-se. Isto é importante.
13:09
It is so importantimportante
308
774000
2000
É tão importante
13:11
we are going to spendgastar 30 secondssegundos of valuablevalioso TEDTalkTEDTalk time
309
776000
2000
que vamos passar 30 segundos do valioso tempo do TED Talk
13:13
doing nothing but thinkingpensando about this.
310
778000
2000
a não fazer mais nada senão pensar nisto.
13:15
Are you readypronto? Go.
311
780000
2000
Estão prontos? Partida.
13:33
Stop. Good work.
312
798000
3000
Parem. Bom trabalho.
13:36
What you just did,
313
801000
2000
O que acabaram de fazer
13:38
that's the first stepdegrau towardsem direção takinglevando responsibilityresponsabilidade
314
803000
2000
é o primeiro passo no sentido de assumir a responsabilidade
13:40
for what we should do with all of our powerpoder.
315
805000
3000
sobre o que devemos fazer com todo o nosso poder.
13:45
Now the nextPróximo stepdegrau -- try this.
316
810000
3000
Agora, o passo seguinte -- tentem isto.
13:49
Go find a friendamigos and explainexplicar to them
317
814000
2000
Procurem um amigo e expliquem-lhe
13:51
how you madefeito that decisiondecisão.
318
816000
2000
como tomaram aquela decisão.
13:53
Not right now. Wait tillaté I finishterminar talkingfalando.
319
818000
2000
Não neste preciso momento. Esperem que eu acabe de falar.
13:55
Do it over lunchalmoço.
320
820000
2000
Façam-no ao almoço.
13:57
And don't just find anotheroutro technologistTecnólogo friendamigos;
321
822000
3000
E não se limitem a fazê-lo com outro amigo da área das tecnologias;
14:00
find somebodyalguém differentdiferente than you.
322
825000
2000
encontrem alguém diferente de vós.
14:02
Find an artistartista or a writerescritor --
323
827000
2000
Encontrem um artista ou um escritor --
14:04
or, heavencéu forbidproibido, find a philosopherfilósofo and talk to them.
324
829000
3000
ou, o céu vos proteja, encontrem um filósofo e falem com ele.
14:07
In factfacto, find somebodyalguém from the humanitieshumanidades.
325
832000
2000
De facto, encontrem alguém da área de humanidades.
14:09
Why? Because they think about problemsproblemas
326
834000
2000
Porquê? Porque eles pensam nos problemas
14:11
differentlydiferente than we do as technologiststecnólogos.
327
836000
2000
de uma forma diferente de nós, da área tecnológica.
14:13
Just a fewpoucos daysdias agoatrás, right acrossatravés the streetrua from here,
328
838000
3000
Há poucos dias, aqui em frente, exactamente do outro lado da rua,
14:16
there was hundredscentenas of people gatheredcoletado togetherjuntos.
329
841000
2000
reuniram-se centenas de pessoas.
14:18
It was technologiststecnólogos and humanistshumanistas
330
843000
2000
Pessoas das áreas humanística e tecnológica
14:20
at that biggrande BiblioTechBiblioTech ConferenceConferência.
331
845000
2000
naquela Conferência sobre Bibliotecas Tecnológicas.
14:22
And they gatheredcoletado togetherjuntos
332
847000
2000
E juntaram-se todos
14:24
because the technologiststecnólogos wanted to learnaprender
333
849000
2000
porque os de tecnologia queriam aprender
14:26
what it would be like to think from a humanitieshumanidades perspectiveperspectiva.
334
851000
3000
como seria pensar a partir de uma perspectiva humanística.
14:29
You have someonealguém from GoogleGoogle
335
854000
2000
Havia pessoas do Google
14:31
talkingfalando to someonealguém who does comparativecomparativo literatureliteratura.
336
856000
2000
a falar com pessoas que fazem literatura comparativa.
14:33
You're thinkingpensando about the relevancerelevância of 17thº centuryséculo FrenchFrancês theaterteatro --
337
858000
3000
Estão a pensar na relevância do Teatro Francês do séc. XVII --
14:36
how does that bearUrso uponsobre venturerisco capitalcapital?
338
861000
2000
como é que ele incidiu sobre o capital de risco?
14:38
Well that's interestinginteressante. That's a differentdiferente way of thinkingpensando.
339
863000
3000
Bom, isso é interessante. É uma forma diferente de pensar.
14:41
And when you think in that way,
340
866000
2000
E quando pensa dessa maneira,
14:43
you becometornar-se more sensitivesensível to the humanhumano considerationsconsiderações sobre,
341
868000
3000
a pessoa torna-se mais sensível às considerações humanas,
14:46
whichqual are crucialcrucial to makingfazer ethicalético decisionsdecisões.
342
871000
3000
que são cruciais para a tomada de decisões éticas.
14:49
So imagineImagine that right now
343
874000
2000
Então, imaginem que agora mesmo
14:51
you wentfoi and you foundencontrado your musicianmúsico friendamigos.
344
876000
2000
iam e encontravam o vosso amigo músico.
14:53
And you're tellingdizendo him what we're talkingfalando about,
345
878000
3000
E contavam-lhe aquilo de que estamos a falar,
14:56
about our wholetodo datadados revolutionrevolução and all this --
346
881000
2000
sobre a revolução na informação e tudo isso --
14:58
maybe even humcantarolar a fewpoucos barsbares of our themetema musicmúsica.
347
883000
2000
talvez até trauteassem algumas partes do nosso tema musical:
15:00
DumDum tata dada dada dumdum dumdum tata dada dada dumdum
348
885000
3000
♫ Dum ta da da dum dum ta da da dum ♫
15:03
Well, your musicianmúsico friendamigos will stop you and say,
349
888000
2000
Bem, nesse caso, o vosso amigo músico interromper-vos-á e dirá:
15:05
"You know, the themetema musicmúsica
350
890000
2000
"Sabes, a música de fundo
15:07
for your datadados revolutionrevolução,
351
892000
2000
da vossa revolução da informação
15:09
that's an operaópera, that's WagnerWagner.
352
894000
2000
é uma ópera, é Wagner.
15:11
It's basedSediada on NorseNórdica legendlenda.
353
896000
2000
É baseada na mitologia nórdica.
15:13
It's GodsDeuses and mythicalmítica creaturescriaturas
354
898000
2000
São deuses e criaturas míticas
15:15
fightingcombate over magicalmágico jewelryjoalheria."
355
900000
3000
a lutar por jóias mágicas."
15:19
That's interestinginteressante.
356
904000
3000
É interessante.
15:22
Now it's alsoAlém disso a beautifulbonita operaópera,
357
907000
3000
Agora também é uma ópera maravilhosa.
15:25
and we're movedse mudou by that operaópera.
358
910000
3000
E emocionamo-nos com aquela ópera.
15:28
We're movedse mudou because it's about the battlebatalha
359
913000
2000
Ficamos emocionados porque se trata de uma batalha
15:30
betweenentre good and evilmal,
360
915000
2000
entre o bem e o mal,
15:32
about right and wrongerrado.
361
917000
2000
sobre o certo e o errado.
15:34
And we careCuidado about right and wrongerrado.
362
919000
2000
E nós preocupamo-nos com o certo e o errado.
15:36
We careCuidado what happensacontece in that operaópera.
363
921000
3000
Preocupamo-nos com o que acontece naquela ópera.
15:39
We careCuidado what happensacontece in "ApocalypseApocalipse Now."
364
924000
3000
Preocupamo-nos com o que acontece no "Apocalypse Now."
15:42
And we certainlyCertamente careCuidado
365
927000
2000
E procupamo-nos certamente
15:44
what happensacontece with our technologiestecnologias.
366
929000
2000
com o que acontece com as nossas tecnologias.
15:46
We have so much powerpoder todayhoje,
367
931000
2000
Temos tanto poder hoje,
15:48
it is up to us to figurefigura out what to do,
368
933000
3000
cabe-nos a nós decidir o que fazer.
15:51
and that's the good newsnotícia.
369
936000
2000
E essa é a boa notícia.
15:53
We're the onesuns writingescrevendo this operaópera.
370
938000
3000
Somos os únicos a escrever esta ópera.
15:56
This is our moviefilme.
371
941000
2000
É o nosso filme.
15:58
We figurefigura out what will happenacontecer with this technologytecnologia.
372
943000
3000
Nós decidimos o que vai acontecer com esta tecnologia.
16:01
We determinedeterminar how this will all endfim.
373
946000
3000
Determinamos como tudo isto acabará.
16:04
Thank you.
374
949000
2000
Obrigado.
16:06
(ApplauseAplausos)
375
951000
5000
(Aplausos)
Translated by Ilona Bastos
Reviewed by Nuno Lima

▲Back to top

ABOUT THE SPEAKER
Damon Horowitz - Philosopher, entrepreneur
Damon Horowitz explores what is possible at the boundaries of technology and the humanities.

Why you should listen

Damon Horowitz is a philosophy professor and serial entrepreneur. He recently joined Google as In-House Philosopher / Director of Engineering, heading development of several initiatives involving social and search. He came to Google from Aardvark, the social search engine, where he was co-founder and CTO, overseeing product development and research strategy. Prior to Aardvark, Horowitz built several companies around applications of intelligent language processing. He co-founded Perspecta (acquired by Excite), was lead architect for Novation Biosciences (acquired by Agilent), and co-founded NewsDB (now Daylife).

Horowitz teaches courses in philosophy, cognitive science, and computer science at several institutions, including Stanford, NYU, University of Pennsylvania and San Quentin State Prison.

Get more information on the Prison University Project >>

More profile about the speaker
Damon Horowitz | Speaker | TED.com