ABOUT THE SPEAKER
Damon Horowitz - Philosopher, entrepreneur
Damon Horowitz explores what is possible at the boundaries of technology and the humanities.

Why you should listen

Damon Horowitz is a philosophy professor and serial entrepreneur. He recently joined Google as In-House Philosopher / Director of Engineering, heading development of several initiatives involving social and search. He came to Google from Aardvark, the social search engine, where he was co-founder and CTO, overseeing product development and research strategy. Prior to Aardvark, Horowitz built several companies around applications of intelligent language processing. He co-founded Perspecta (acquired by Excite), was lead architect for Novation Biosciences (acquired by Agilent), and co-founded NewsDB (now Daylife).

Horowitz teaches courses in philosophy, cognitive science, and computer science at several institutions, including Stanford, NYU, University of Pennsylvania and San Quentin State Prison.

Get more information on the Prison University Project >>

More profile about the speaker
Damon Horowitz | Speaker | TED.com
TEDxSiliconValley

Damon Horowitz: We need a "moral operating system"

Damon Horowitz clama por um "sistema operacional moral"

Filmed:
795,617 views

No TEDxSiliconValley, Damon Horowitz comenta sobre o enorme poder que as novas tecnologias nos oferecem: aprender mais do que nunca sobre nós mesmos. Levando o público para uma discussão filosófica, Horowitz nos convida para prestarmos mais atenção à filosofia básica -- os princípio éticos -- por detrás da explosão de descobertas que transformam o nosso mundo. Onde está o "sistema operacional moral" que nos permite ter noção disto?
- Philosopher, entrepreneur
Damon Horowitz explores what is possible at the boundaries of technology and the humanities. Full bio

Double-click the English transcript below to play the video.

00:15
Power.
0
0
2000
Poder.
00:17
That is the word that comes to mind.
1
2000
2000
Esta é a palavra que vem à mente.
00:19
We're the new technologists.
2
4000
2000
Nós somos os novos tecnólogos.
00:21
We have a lot of data, so we have a lot of power.
3
6000
3000
Nós temos uma grande quantidade de informação, então temos uma grande quantidade de poder.
00:24
How much power do we have?
4
9000
2000
Quanto poder nós temos?
00:26
Scene from a movie: "Apocalypse Now" -- great movie.
5
11000
3000
Cena do filme "Apocalypse Now" -- excelente filme.
00:29
We've got to get our hero, Captain Willard, to the mouth of the Nung River
6
14000
3000
Nós temos que levar o nosso heroi, Capitão Willard, para a foz do Rio Nung
00:32
so he can go pursue Colonel Kurtz.
7
17000
2000
na perseguição ao Coronel Kurtz.
00:34
The way we're going to do this is fly him in and drop him off.
8
19000
2000
A forma que faremos isso é levá-lo e deixá-lo em solo seguro.
00:36
So the scene:
9
21000
2000
Então a cena começa:
00:38
the sky is filled with this fleet of helicopters carrying him in.
10
23000
3000
o céu está coberto de helicópteros transportando o nosso heroi.
00:41
And there's this loud, thrilling music in the background,
11
26000
2000
E ao fundo há aquela música estrondosa, excitante
00:43
this wild music.
12
28000
2000
e selvagem.
00:45
♫ Dum da ta da dum ♫
13
30000
2000
♫ Dum da ta da dum ♫
00:47
♫ Dum da ta da dum ♫
14
32000
2000
♫ Dum da ta da dum ♫
00:49
♫ Da ta da da ♫
15
34000
3000
♫ Da ta da da ♫
00:52
That's a lot of power.
16
37000
2000
Isto é muito poder.
00:54
That's the kind of power I feel in this room.
17
39000
2000
Este é o tipo de poder que sinto nesta sala.
00:56
That's the kind of power we have
18
41000
2000
Este é o tipo de poder que nós é dado
00:58
because of all of the data that we have.
19
43000
2000
por causa de toda a informação que temos.
01:00
Let's take an example.
20
45000
2000
Vejamos um exemplo.
01:02
What can we do
21
47000
2000
O que podemos fazer
01:04
with just one person's data?
22
49000
3000
com a informação de apenas uma pessoa?
01:07
What can we do
23
52000
2000
O que podemos fazer
01:09
with that guy's data?
24
54000
2000
com a informação deste cara?
01:11
I can look at your financial records.
25
56000
2000
Posso analisar seus rastros bancários.
01:13
I can tell if you pay your bills on time.
26
58000
2000
Posso dizer se você paga suas contas em dia.
01:15
I know if you're good to give a loan to.
27
60000
2000
Sei se você pode receber um empréstimo.
01:17
I can look at your medical records; I can see if your pump is still pumping --
28
62000
3000
Posso observar seus registros médicos, posso ver se seu coração continua batendo --
01:20
see if you're good to offer insurance to.
29
65000
3000
ver se vale a pena oferecer um seguro a você.
01:23
I can look at your clicking patterns.
30
68000
2000
Posso observar seu padrão de navegação.
01:25
When you come to my website, I actually know what you're going to do already
31
70000
3000
Quando você vem a meu site, eu já sei o que você vai fazer,
01:28
because I've seen you visit millions of websites before.
32
73000
2000
pois já vi você visitar milhões de sites anteriormente.
01:30
And I'm sorry to tell you,
33
75000
2000
E sinto muito em dizer a você,
01:32
you're like a poker player, you have a tell.
34
77000
2000
você é como jogador de poker, você tem uma forma de se expressar.
01:34
I can tell with data analysis what you're going to do
35
79000
2000
Posso falar, com análise da informação, o que você vai fazer
01:36
before you even do it.
36
81000
2000
antes mesmo que o faça.
01:38
I know what you like. I know who you are,
37
83000
3000
Eu sei o que você gosta. Eu sei o que você é.
01:41
and that's even before I look at your mail
38
86000
2000
Mesmo antes de checar o seu e-mail
01:43
or your phone.
39
88000
2000
ou o seu telefone.
01:45
Those are the kinds of things we can do
40
90000
2000
Estas são coisas que podemos fazer
01:47
with the data that we have.
41
92000
3000
com todas as informações que temos.
01:50
But I'm not actually here to talk about what we can do.
42
95000
3000
Mas eu não estou aqui para falar sobre o que podemos fazer.
01:56
I'm here to talk about what we should do.
43
101000
3000
Estou aqui para falar sobre o que deveriamos fazer.
02:00
What's the right thing to do?
44
105000
3000
Qual a coisa certa a fazer?
02:04
Now I see some puzzled looks
45
109000
2000
Agora vejo algumas pessoas intrigadas
02:06
like, "Why are you asking us what's the right thing to do?
46
111000
3000
como, "Porque você está nos perguntando qual a coisa certa a fazer?
02:09
We're just building this stuff. Somebody else is using it."
47
114000
3000
Nós apenas estamos criando essas coisas. Outras pessoas estão usando."
02:12
Fair enough.
48
117000
3000
Bastante justo.
02:15
But it brings me back.
49
120000
2000
Mas isto faz com que eu relembre.
02:17
I think about World War II --
50
122000
2000
Penso a respeito da Segunda Guerra Mundial --
02:19
some of our great technologists then,
51
124000
2000
alguns de nossos maiores tecnólogos da época,
02:21
some of our great physicists,
52
126000
2000
alguns de nossos maiores físicos,
02:23
studying nuclear fission and fusion --
53
128000
2000
estudando fissão e fusão nuclear --
02:25
just nuclear stuff.
54
130000
2000
apenas assuntos nucleares.
02:27
We gather together these physicists in Los Alamos
55
132000
3000
Nós reunimos aqueles físicos em Los Alamos
02:30
to see what they'll build.
56
135000
3000
para ver o que eles construiriam.
02:33
We want the people building the technology
57
138000
3000
Nós queremos pessoas construindo a tecnologia
02:36
thinking about what we should be doing with the technology.
58
141000
3000
pensando no que deveriamos fazer com essa tecnologia.
02:41
So what should we be doing with that guy's data?
59
146000
3000
Então, o que deveriamos fazer com as informações deste cara?
02:44
Should we be collecting it, gathering it,
60
149000
3000
Devemos coletá-la e juntá-la
02:47
so we can make his online experience better?
61
152000
2000
para que possamos fazer a sua experiência online ainda melhor?
02:49
So we can make money?
62
154000
2000
Podemos fazer dinheiro?
02:51
So we can protect ourselves
63
156000
2000
Podemos nos proteger
02:53
if he was up to no good?
64
158000
2000
se ele não era capaz de nada bom?
02:55
Or should we respect his privacy,
65
160000
3000
Ou devemos respeitar a sua privacidade,
02:58
protect his dignity and leave him alone?
66
163000
3000
proteger a sua dignidade e deixá-lo em paz?
03:02
Which one is it?
67
167000
3000
Qual dessas alternativas?
03:05
How should we figure it out?
68
170000
2000
Como podemos descobrir?
03:07
I know: crowdsource. Let's crowdsource this.
69
172000
3000
Eu sei: crowdsource. Vamos fazer crowdsource disto.
03:11
So to get people warmed up,
70
176000
3000
Então, para aquecer todo mundo,
03:14
let's start with an easy question --
71
179000
2000
vamos começar com uma simples questão --
03:16
something I'm sure everybody here has an opinion about:
72
181000
3000
algo que eu tenho certeza que todos tem uma opinião formada sobre o tema:
03:19
iPhone versus Android.
73
184000
2000
iPhone contra Android.
03:21
Let's do a show of hands -- iPhone.
74
186000
3000
Vamos levantar as mãos -- iPhone.
03:24
Uh huh.
75
189000
2000
Aham.
03:26
Android.
76
191000
3000
Android.
03:29
You'd think with a bunch of smart people
77
194000
2000
Você poderia pensar que em um grupo de pessoas inteleligentes
03:31
we wouldn't be such suckers just for the pretty phones.
78
196000
2000
nós não seríamos tão tolos em escolher somente os telefones bonitos.
03:33
(Laughter)
79
198000
2000
(Risos)
03:35
Next question,
80
200000
2000
Próxima pergunta,
03:37
a little bit harder.
81
202000
2000
um pouco mais complicada.
03:39
Should we be collecting all of that guy's data
82
204000
2000
Deveríamos coletar a informação desta pessoa
03:41
to make his experiences better
83
206000
2000
para tornar suas experiências ainda melhor
03:43
and to protect ourselves in case he's up to no good?
84
208000
3000
e nos proteger em caso dela não capaz de nada bom?
03:46
Or should we leave him alone?
85
211000
2000
Ou devemos deixá-lo em paz?
03:48
Collect his data.
86
213000
3000
Coletar seus dados.
03:53
Leave him alone.
87
218000
3000
Deixá-lo em paz.
03:56
You're safe. It's fine.
88
221000
2000
Você está segura. Está tudo bem.
03:58
(Laughter)
89
223000
2000
(Risos)
04:00
Okay, last question --
90
225000
2000
Tudo bem, última pergunta --
04:02
harder question --
91
227000
2000
uma pergunta mais difícil --
04:04
when trying to evaluate
92
229000
3000
quando tentamos avaliar
04:07
what we should do in this case,
93
232000
3000
o que deveríamos fazer neste caso,
04:10
should we use a Kantian deontological moral framework,
94
235000
4000
deveríamos utilizar uma estrutura moral deontológica Kantiana
04:14
or should we use a Millian consequentialist one?
95
239000
3000
ou devemos utilizar a ética consequencialista de Stuart Mill?
04:19
Kant.
96
244000
3000
Kant.
04:22
Mill.
97
247000
3000
Mill.
04:25
Not as many votes.
98
250000
2000
Sem muitos votos.
04:27
(Laughter)
99
252000
3000
(Risos)
04:30
Yeah, that's a terrifying result.
100
255000
3000
Sim, este é um resultado terrível.
04:34
Terrifying, because we have stronger opinions
101
259000
4000
Terrível pois temos opiniões mais fortes
04:38
about our hand-held devices
102
263000
2000
a respeito de nossos dispositivos portáteis
04:40
than about the moral framework
103
265000
2000
do que a respeito da estrutura moral
04:42
we should use to guide our decisions.
104
267000
2000
que deveríamos usar para guiar nossas decisões.
04:44
How do we know what to do with all the power we have
105
269000
3000
Como sabemos o que fazer com o poder que temos
04:47
if we don't have a moral framework?
106
272000
3000
se não temos uma estrutura moral definida?
04:50
We know more about mobile operating systems,
107
275000
3000
Sabemos muito sobre sistemas operacionais de celulares,
04:53
but what we really need is a moral operating system.
108
278000
3000
mas o que nós realmente precisamos é um sistema operacional moral.
04:58
What's a moral operating system?
109
283000
2000
O que é um sistema operacional moral?
05:00
We all know right and wrong, right?
110
285000
2000
Todos nós sabemos o que é certo e errado, certo.
05:02
You feel good when you do something right,
111
287000
2000
Você se sente bem quando faz alguma coisa correta,
05:04
you feel bad when you do something wrong.
112
289000
2000
você se sente mau quando faz algo incorreto.
05:06
Our parents teach us that: praise with the good, scold with the bad.
113
291000
3000
Nossos pais nos ensinam isso: enalteça os bons e repreenda os maus.
05:09
But how do we figure out what's right and wrong?
114
294000
3000
Mas como sabemos o que é certo ou errado?
05:12
And from day to day, we have the techniques that we use.
115
297000
3000
No nosso dia a dia temos as técnicas que nós usamos.
05:15
Maybe we just follow our gut.
116
300000
3000
Talvez nós apenas seguimos nossa razão interior.
05:18
Maybe we take a vote -- we crowdsource.
117
303000
3000
Talvez nós apenas votemos -- nós fazemos crowd source.
05:21
Or maybe we punt --
118
306000
2000
Ou talvez nós jogamos --
05:23
ask the legal department, see what they say.
119
308000
3000
pergunte ao departamento jurídico, veja o que eles dizem.
05:26
In other words, it's kind of random,
120
311000
2000
Em outras palavras, isto se dá aleatoriamente,
05:28
kind of ad hoc,
121
313000
2000
meio ad hoc,
05:30
how we figure out what we should do.
122
315000
3000
a maneira como resolvemos o que deveríamos fazer.
05:33
And maybe, if we want to be on surer footing,
123
318000
3000
E talvez, se nós queremos estar em terra firme,
05:36
what we really want is a moral framework that will help guide us there,
124
321000
3000
o que na verdade nós queremos é uma estrutura moral que nos guie,
05:39
that will tell us what kinds of things are right and wrong in the first place,
125
324000
3000
que nos diga que tipo de ações são certas ou erradas primeiramente,
05:42
and how would we know in a given situation what to do.
126
327000
4000
e o que nós faríamos em uma determinada situação.
05:46
So let's get a moral framework.
127
331000
2000
Então vamos criar uma estrutura moral.
05:48
We're numbers people, living by numbers.
128
333000
3000
Nós somos pessoas que vivem com números.
05:51
How can we use numbers
129
336000
2000
Como podemos usar números
05:53
as the basis for a moral framework?
130
338000
3000
como a base para a estrutura moral?
05:56
I know a guy who did exactly that.
131
341000
3000
Conheço um cara que fez exatamente isso,
05:59
A brilliant guy --
132
344000
3000
um cara brilhante --
06:02
he's been dead 2,500 years.
133
347000
3000
que morreu a 2500 anos atrás.
06:05
Plato, that's right.
134
350000
2000
Platão, exatamente.
06:07
Remember him -- old philosopher?
135
352000
2000
Lembra-se dele -- velho fil
06:09
You were sleeping during that class.
136
354000
3000
Você estava dormindo durante a aula.
06:12
And Plato, he had a lot of the same concerns that we did.
137
357000
2000
Platão possuia várias preocupações parecidas com as nossas.
06:14
He was worried about right and wrong.
138
359000
2000
Ele estava preocupado sobre o certo e o errado.
06:16
He wanted to know what is just.
139
361000
2000
Ele queria saber o que era justo.
06:18
But he was worried that all we seem to be doing
140
363000
2000
Mas ele estava preocupado com o fato de que tudo o que parecíamos estar fazendo
06:20
is trading opinions about this.
141
365000
2000
era trocar opiniões a respeito disto.
06:22
He says something's just. She says something else is just.
142
367000
3000
Ele diz que algo é justo. Ela diz que algo é justo.
06:25
It's kind of convincing when he talks and when she talks too.
143
370000
2000
É meio que convincente quando ele fala e quando ela fala, também.
06:27
I'm just going back and forth; I'm not getting anywhere.
144
372000
2000
Estou somente indo e voltando; Não estou indo a lugar algum.
06:29
I don't want opinions; I want knowledge.
145
374000
3000
Eu não quero opiniões, eu quero conhecimento.
06:32
I want to know the truth about justice --
146
377000
3000
Eu quero saber a verdade sobre a justiça --
06:35
like we have truths in math.
147
380000
3000
como nós temos verdades na matemática.
06:38
In math, we know the objective facts.
148
383000
3000
Na matemática, sabemos os fatos exatos.
06:41
Take a number, any number -- two.
149
386000
2000
Pegue um número, qualquer número -- 2.
06:43
Favorite number. I love that number.
150
388000
2000
Número favorito. Adoro esse número.
06:45
There are truths about two.
151
390000
2000
Existem verdades sobre o número dois.
06:47
If you've got two of something,
152
392000
2000
Se você tem duas unidades de alguma coisa,
06:49
you add two more, you get four.
153
394000
2000
e você adiciona mais dois, você tem quatro.
06:51
That's true no matter what thing you're talking about.
154
396000
2000
Isto é verdade, não importando sobre o quê você está falando.
06:53
It's an objective truth about the form of two,
155
398000
2000
É uma verdade objetiva sobre o dois,
06:55
the abstract form.
156
400000
2000
a forma abstrata.
06:57
When you have two of anything -- two eyes, two ears, two noses,
157
402000
2000
Quando você tem dois itens de algo -- dois olhos, duas orelhas, dois narizes,
06:59
just two protrusions --
158
404000
2000
somente duas projeções --
07:01
those all partake of the form of two.
159
406000
3000
todos parte do mesmo dois.
07:04
They all participate in the truths that two has.
160
409000
4000
Eles todos fazem parte das verdades que o dois tem.
07:08
They all have two-ness in them.
161
413000
2000
Todos tem as particularidades do dois.
07:10
And therefore, it's not a matter of opinion.
162
415000
3000
E então, isto não diz respeito a opiniões de cada um.
07:13
What if, Plato thought,
163
418000
2000
E caso, Platão pensou,
07:15
ethics was like math?
164
420000
2000
ética fosse como matemática?
07:17
What if there were a pure form of justice?
165
422000
3000
E se existiesse a pura forma da justiça?
07:20
What if there are truths about justice,
166
425000
2000
E se existissem verdades sobre a justiça,
07:22
and you could just look around in this world
167
427000
2000
e você pudesse somente olhar o mundo ao seu redor
07:24
and see which things participated,
168
429000
2000
e enxergar que coisas participam,
07:26
partook of that form of justice?
169
431000
3000
são parte integrante desta forma de justiça?
07:29
Then you would know what was really just and what wasn't.
170
434000
3000
Então você saberia o que de fato era justo e o que não era.
07:32
It wouldn't be a matter
171
437000
2000
Isso não seria uma questão
07:34
of just opinion or just appearances.
172
439000
3000
de mera opinião ou aparências.
07:37
That's a stunning vision.
173
442000
2000
Esta é uma visão impressionante.
07:39
I mean, think about that. How grand. How ambitious.
174
444000
3000
Quero dizer, pense sobre isso. O quão grande. O quão ambicioso.
07:42
That's as ambitious as we are.
175
447000
2000
Isso é tão ambicioso quanto nós somos.
07:44
He wants to solve ethics.
176
449000
2000
Ele quer solucionar a ética.
07:46
He wants objective truths.
177
451000
2000
Ele quer verdades objetivas.
07:48
If you think that way,
178
453000
3000
Se pensar dessa forma,
07:51
you have a Platonist moral framework.
179
456000
3000
você tem uma estrutura moral platônica.
07:54
If you don't think that way,
180
459000
2000
Se você não pensa dessa forma,
07:56
well, you have a lot of company in the history of Western philosophy,
181
461000
2000
bem, você tem muita companhia na história da filosofia Ocidental,
07:58
because the tidy idea, you know, people criticized it.
182
463000
3000
por causa dessa precisa ideia -- você sabe, as pessoas criticam isso.
08:01
Aristotle, in particular, he was not amused.
183
466000
3000
Aristóteles, em particular, não era tão impressionado por isso.
08:04
He thought it was impractical.
184
469000
3000
Ele achava que isto era impraticável.
08:07
Aristotle said, "We should seek only so much precision in each subject
185
472000
4000
Aristóteles disse, "Só devemos buscar precisão em um determinado assunto
08:11
as that subject allows."
186
476000
2000
até o ponto em que este assunto permite."
08:13
Aristotle thought ethics wasn't a lot like math.
187
478000
3000
Aristóteles não achava que a ética era como a matemática.
08:16
He thought ethics was a matter of making decisions in the here-and-now
188
481000
3000
Ele acreditava que a ética era uma questão de tomar decisões aqui e agora,
08:19
using our best judgment
189
484000
2000
utilizando nosso melhor julgamento
08:21
to find the right path.
190
486000
2000
para achar o caminho certo.
08:23
If you think that, Plato's not your guy.
191
488000
2000
Se pensar assim, Platão não é o seu cara.
08:25
But don't give up.
192
490000
2000
Mas não desista.
08:27
Maybe there's another way
193
492000
2000
Talvez exista um outro caminho
08:29
that we can use numbers as the basis of our moral framework.
194
494000
3000
que possamos utilizar os números como base para a nossa estrutura moral.
08:33
How about this:
195
498000
2000
Que tal isso:
08:35
What if in any situation you could just calculate,
196
500000
3000
E se em qualquer situação você pudesse simplesmente calcular,
08:38
look at the choices,
197
503000
2000
observar as opções,
08:40
measure out which one's better and know what to do?
198
505000
3000
mensurar qual a melhor e saber o que fazer?
08:43
That sound familiar?
199
508000
2000
Isso soa familiar?
08:45
That's a utilitarian moral framework.
200
510000
3000
Essa é uma estrutura moral utilitarista.
08:48
John Stuart Mill was a great advocate of this --
201
513000
2000
John Stuart Mill era um grande defensor disto --
08:50
nice guy besides --
202
515000
2000
um excelente cara --
08:52
and only been dead 200 years.
203
517000
2000
e só morreu a cerca de 200 anos.
08:54
So basis of utilitarianism --
204
519000
2000
Então, à base do utilitarismo --
08:56
I'm sure you're familiar at least.
205
521000
2000
eu tenho certeza que você é familiar.
08:58
The three people who voted for Mill before are familiar with this.
206
523000
2000
As três pessoas que votaram a favor de Mill anteriormente são familiares com isso.
09:00
But here's the way it works.
207
525000
2000
Mas aqui está a forma que isso funciona.
09:02
What if morals, what if what makes something moral
208
527000
3000
E se a moral, e se o que faz com que algo seja moral,
09:05
is just a matter of if it maximizes pleasure
209
530000
2000
seja somente uma questão de maximizar o prazer
09:07
and minimizes pain?
210
532000
2000
e minimizar a dor?
09:09
It does something intrinsic to the act.
211
534000
3000
Isso é algo intrínseco ao ato.
09:12
It's not like its relation to some abstract form.
212
537000
2000
Não é algo relacionado a uma forma abstrata.
09:14
It's just a matter of the consequences.
213
539000
2000
É só uma questão de saber as consequências.
09:16
You just look at the consequences
214
541000
2000
Você somente observa as consequências
09:18
and see if, overall, it's for the good or for the worse.
215
543000
2000
e vê se, de maneira geral, isto é para melhorar algo ou para piorar.
09:20
That would be simple. Then we know what to do.
216
545000
2000
Isso seria simples. Assim saberíamos o que fazer.
09:22
Let's take an example.
217
547000
2000
Vamos tomar um exemplo.
09:24
Suppose I go up
218
549000
2000
Digamos que eu levante
09:26
and I say, "I'm going to take your phone."
219
551000
2000
e diga, "Vou pegar seu telefone."
09:28
Not just because it rang earlier,
220
553000
2000
Não somente porque ele tocou anteriormente,
09:30
but I'm going to take it because I made a little calculation.
221
555000
3000
mas pegarei isso pois eu fiz um pequeno cálculo.
09:33
I thought, that guy looks suspicious.
222
558000
3000
Eu pensei, esse cara parece suspeito.
09:36
And what if he's been sending little messages to Bin Laden's hideout --
223
561000
3000
E se ele está mandando mensagens para o esconderijo de Bin Laden --
09:39
or whoever took over after Bin Laden --
224
564000
2000
ou quem quer que seja quem assumiu depois de Bin Laden --
09:41
and he's actually like a terrorist, a sleeper cell.
225
566000
3000
e ele é, na verdade, um terrorista, um agente infiltrado.
09:44
I'm going to find that out, and when I find that out,
226
569000
3000
Eu descobrirei isto e quando eu descobrir isto,
09:47
I'm going to prevent a huge amount of damage that he could cause.
227
572000
3000
eu evitaria uma grande quantidade de danos que ele poderia causar.
09:50
That has a very high utility to prevent that damage.
228
575000
3000
Esta foi uma ação muito útil para prevenir o dano.
09:53
And compared to the little pain that it's going to cause --
229
578000
2000
E comparado ao pequeno dano que isso vai causar --
09:55
because it's going to be embarrassing when I'm looking on his phone
230
580000
2000
pois vai ser embaraçoso eu olhar seu telefone
09:57
and seeing that he has a Farmville problem and that whole bit --
231
582000
3000
e ver que ele tem um problema na sua Farmville --
10:00
that's overwhelmed
232
585000
3000
isso é superado
10:03
by the value of looking at the phone.
233
588000
2000
pelo valor de olhar o telefone.
10:05
If you feel that way,
234
590000
2000
Se você se sente dessa forma,
10:07
that's a utilitarian choice.
235
592000
3000
essa é uma escolha utilitarista.
10:10
But maybe you don't feel that way either.
236
595000
3000
Mas talvez você também não se sinta assim.
10:13
Maybe you think, it's his phone.
237
598000
2000
Talvez você pense, esse é o telefone dele.
10:15
It's wrong to take his phone
238
600000
2000
É errado pegar seu telefone,
10:17
because he's a person
239
602000
2000
pois ele é uma pessoa
10:19
and he has rights and he has dignity,
240
604000
2000
ele tem direitos e tem dignidade,
10:21
and we can't just interfere with that.
241
606000
2000
e não podemos interferir nisto.
10:23
He has autonomy.
242
608000
2000
Ele tem autonomia.
10:25
It doesn't matter what the calculations are.
243
610000
2000
Não interessa que cálculos eu fiz.
10:27
There are things that are intrinsically wrong --
244
612000
3000
Existem coisas que são intrínsecamente erradas -
10:30
like lying is wrong,
245
615000
2000
como mentir é errado,
10:32
like torturing innocent children is wrong.
246
617000
3000
como torturar crianças inocentes é errado.
10:35
Kant was very good on this point,
247
620000
3000
Kant era muito bom nesse sentido,
10:38
and he said it a little better than I'll say it.
248
623000
2000
e ele disse um pouco melhor do que eu direi.
10:40
He said we should use our reason
249
625000
2000
Ele disse que deveríamos utilizar nossa razão
10:42
to figure out the rules by which we should guide our conduct,
250
627000
3000
para enteder as regrar pelas quais nós deveríamos guiar a nossa conduta.
10:45
and then it is our duty to follow those rules.
251
630000
3000
E então seria o nosso dever seguir essas regras.
10:48
It's not a matter of calculation.
252
633000
3000
Isto não é uma questão de cálculo.
10:51
So let's stop.
253
636000
2000
Então vamos parar.
10:53
We're right in the thick of it, this philosophical thicket.
254
638000
3000
Nós estamos no âmago disto, no núcleo filosófico disto.
10:56
And this goes on for thousands of years,
255
641000
3000
E isto continua por milhares de anos,
10:59
because these are hard questions,
256
644000
2000
pois estas são questões difíceis,
11:01
and I've only got 15 minutes.
257
646000
2000
e só tenho 15 minutos.
11:03
So let's cut to the chase.
258
648000
2000
Então vamos direto ao ponto.
11:05
How should we be making our decisions?
259
650000
4000
Como deveríamos tomar nossa decisão?
11:09
Is it Plato, is it Aristotle, is it Kant, is it Mill?
260
654000
3000
Pelo pensamento de Platão, Aristóteles, Kant ou Mill?
11:12
What should we be doing? What's the answer?
261
657000
2000
O que deveríamos fazer? Qual a resposta?
11:14
What's the formula that we can use in any situation
262
659000
3000
Qual a fórmula que podemos utilizar em qualquer situação
11:17
to determine what we should do,
263
662000
2000
e determinar o que devemos fazer,
11:19
whether we should use that guy's data or not?
264
664000
2000
se devemos utilizar os dados deste cara ou não?
11:21
What's the formula?
265
666000
3000
Qual a fórmula?
11:25
There's not a formula.
266
670000
2000
Não há nenhuma fórmula.
11:29
There's not a simple answer.
267
674000
2000
Não há uma resposta simples.
11:31
Ethics is hard.
268
676000
3000
Ética é difícil.
11:34
Ethics requires thinking.
269
679000
3000
Ética requer pensamento.
11:38
And that's uncomfortable.
270
683000
2000
E isto é desconfortável.
11:40
I know; I spent a lot of my career
271
685000
2000
Eu sei; Eu gastei muito de minha carreira
11:42
in artificial intelligence,
272
687000
2000
na intelgência artificial,
11:44
trying to build machines that could do some of this thinking for us,
273
689000
3000
tentando criar máquinas que poderiam fazer boa parte desse pensar por nós,
11:47
that could give us answers.
274
692000
2000
que poderia nos dar respostas.
11:49
But they can't.
275
694000
2000
Mas elas não podem.
11:51
You can't just take human thinking
276
696000
2000
Você não pode pegar o pensamento humano
11:53
and put it into a machine.
277
698000
2000
e colocar uma uma máquina.
11:55
We're the ones who have to do it.
278
700000
3000
Nós que devemos fazer isto.
11:58
Happily, we're not machines, and we can do it.
279
703000
3000
Felizmente, não somos máquinas, e podemos fazer isso.
12:01
Not only can we think,
280
706000
2000
Não apenas podemos,
12:03
we must.
281
708000
2000
devemos.
12:05
Hannah Arendt said,
282
710000
2000
Hannah Arendt disse,
12:07
"The sad truth
283
712000
2000
"A triste verdade
12:09
is that most evil done in this world
284
714000
2000
é que a maioria do mal feito nesse mundo
12:11
is not done by people
285
716000
2000
não é feito por pessoas
12:13
who choose to be evil.
286
718000
2000
que escolheram serem más.
12:15
It arises from not thinking."
287
720000
3000
Isso emerge do não pensar."
12:18
That's what she called the "banality of evil."
288
723000
4000
Isto é o que ela chamou de "banalidade do mal."
12:22
And the response to that
289
727000
2000
E a resposta a isso
12:24
is that we demand the exercise of thinking
290
729000
2000
é que necessitamos do exercício do pensar
12:26
from every sane person.
291
731000
3000
de toda pessoa sã.
12:29
So let's do that. Let's think.
292
734000
2000
Então vamos fazer isto. Vamos pensar.
12:31
In fact, let's start right now.
293
736000
3000
De fato, vamos começar agora mesmo.
12:34
Every person in this room do this:
294
739000
3000
Todos nesta sala façam isso:
12:37
think of the last time you had a decision to make
295
742000
3000
pense na última vez que você teve que tomar uma decisão,
12:40
where you were worried to do the right thing,
296
745000
2000
quando você estava preocupado em fazer a coisa certa,
12:42
where you wondered, "What should I be doing?"
297
747000
2000
quando você pensou, "O que eu devo fazer?"
12:44
Bring that to mind,
298
749000
2000
Traga isso à mente.
12:46
and now reflect on that
299
751000
2000
Agora reflita sobre isso
12:48
and say, "How did I come up that decision?
300
753000
3000
e diga, "Como cheguei a essa conclusão?"
12:51
What did I do? Did I follow my gut?
301
756000
3000
O que eu fiz? Eu segui meu eu interior?
12:54
Did I have somebody vote on it? Or did I punt to legal?"
302
759000
2000
Fiz uma votação sobre isso? Ou eu apostei no que era legal?
12:56
Or now we have a few more choices.
303
761000
3000
Agora nós temos algumas outras opções.
12:59
"Did I evaluate what would be the highest pleasure
304
764000
2000
"Eu avaliei o que traria as maiores vantagens,
13:01
like Mill would?
305
766000
2000
como Mill faria?
13:03
Or like Kant, did I use reason to figure out what was intrinsically right?"
306
768000
3000
Ou como Kant, eu usei a razão para imaginar o que estava intrinsecamente correto?
13:06
Think about it. Really bring it to mind. This is important.
307
771000
3000
Pense sobre isto. Traga isso à sua mente. Isto é importante.
13:09
It is so important
308
774000
2000
Isto é tão importante
13:11
we are going to spend 30 seconds of valuable TEDTalk time
309
776000
2000
que gastaremos 30 segundos valiosos do TEDTalk
13:13
doing nothing but thinking about this.
310
778000
2000
fazendo nada, somente pensando a respeito disto.
13:15
Are you ready? Go.
311
780000
2000
Está pronto? Vai.
13:33
Stop. Good work.
312
798000
3000
Pare. Bom trabalho.
13:36
What you just did,
313
801000
2000
O que você acabou de fazer,
13:38
that's the first step towards taking responsibility
314
803000
2000
este é o primeiro passo em direção a tomar responsabilidae
13:40
for what we should do with all of our power.
315
805000
3000
para aquilo que podemos fazer com o nosso poder.
13:45
Now the next step -- try this.
316
810000
3000
Agora o próximo passo -- tente isto.
13:49
Go find a friend and explain to them
317
814000
2000
Procure um amigo e explique a ele
13:51
how you made that decision.
318
816000
2000
como você tomou essa decisão.
13:53
Not right now. Wait till I finish talking.
319
818000
2000
Não agora. Espere que eu termine a palstra.
13:55
Do it over lunch.
320
820000
2000
Faça isso no almoço.
13:57
And don't just find another technologist friend;
321
822000
3000
E não o faça com outro amigo da área de tecnologia.
14:00
find somebody different than you.
322
825000
2000
Ache alguém diferente de você.
14:02
Find an artist or a writer --
323
827000
2000
Ache um artista ou escritor --
14:04
or, heaven forbid, find a philosopher and talk to them.
324
829000
3000
ou, que os céus proibam, ache um filósofo e fale com ele sobre isso.
14:07
In fact, find somebody from the humanities.
325
832000
2000
Na verdade, ache alguém da área de humanas.
14:09
Why? Because they think about problems
326
834000
2000
Porquê? Pois eles pensam sobre problemas
14:11
differently than we do as technologists.
327
836000
2000
diferente de como pensamos enquanto tecnólogos.
14:13
Just a few days ago, right across the street from here,
328
838000
3000
Alguns dias atrás, logo do outro lado da rua,
14:16
there was hundreds of people gathered together.
329
841000
2000
havia centemas de pessoas juntas.
14:18
It was technologists and humanists
330
843000
2000
eram pessoas da área de tecnologia e humanas
14:20
at that big BiblioTech Conference.
331
845000
2000
na gramde Conferência BiblioTech.
14:22
And they gathered together
332
847000
2000
Eles estavam juntos
14:24
because the technologists wanted to learn
333
849000
2000
pois os tecnólogos queriam aprender
14:26
what it would be like to think from a humanities perspective.
334
851000
3000
como seria pensar sobre a perspectiva da área humana.
14:29
You have someone from Google
335
854000
2000
Você tem alguém do Google
14:31
talking to someone who does comparative literature.
336
856000
2000
conversando com alguém que faz literatura comparativa.
14:33
You're thinking about the relevance of 17th century French theater --
337
858000
3000
Você está pensando sobre a relevância do teatro francês do século XVII --
14:36
how does that bear upon venture capital?
338
861000
2000
o que isto tem a ver com capital de risco?
14:38
Well that's interesting. That's a different way of thinking.
339
863000
3000
Isso é interessante. Esta é uma diferente forma de pensar.
14:41
And when you think in that way,
340
866000
2000
E quando você pensa dessa forma,
14:43
you become more sensitive to the human considerations,
341
868000
3000
você se torna mais sensível para as considerações humanas,
14:46
which are crucial to making ethical decisions.
342
871000
3000
que são cruciais para a tomada de decisões éticas.
14:49
So imagine that right now
343
874000
2000
Então imagine que agora mesmo
14:51
you went and you found your musician friend.
344
876000
2000
você encontrasse seu amigo músico.
14:53
And you're telling him what we're talking about,
345
878000
3000
E você dissesse para ele sobre o que estamos falando,
14:56
about our whole data revolution and all this --
346
881000
2000
sobre nossa revolução de dados e tudo isso --
14:58
maybe even hum a few bars of our theme music.
347
883000
2000
talvez até cantarolasse algo da nossa música tema.
15:00
♫ Dum ta da da dum dum ta da da dum ♫
348
885000
3000
♫ Dum ta da da dum dum ta da da dum ♫
15:03
Well, your musician friend will stop you and say,
349
888000
2000
Bem, seu amigo músico pararia e diria,
15:05
"You know, the theme music
350
890000
2000
"Sabe, a música tema
15:07
for your data revolution,
351
892000
2000
de sua revolução de dados,
15:09
that's an opera, that's Wagner.
352
894000
2000
é uma ópera escrita por Wagner.
15:11
It's based on Norse legend.
353
896000
2000
É baseada nas lendas Nórdicas.
15:13
It's Gods and mythical creatures
354
898000
2000
Seus deuses e criaturas míticas
15:15
fighting over magical jewelry."
355
900000
3000
lutando por joias mágicas."
15:19
That's interesting.
356
904000
3000
Isto é interessante.
15:22
Now it's also a beautiful opera,
357
907000
3000
É também uma linda ópera.
15:25
and we're moved by that opera.
358
910000
3000
E somos movidos pela ópera.
15:28
We're moved because it's about the battle
359
913000
2000
Somos movidos pois é sobre uma batalha
15:30
between good and evil,
360
915000
2000
entre o bem e o mal,
15:32
about right and wrong.
361
917000
2000
entre o certo e o errado.
15:34
And we care about right and wrong.
362
919000
2000
E nos importamos com o bem e o mal.
15:36
We care what happens in that opera.
363
921000
3000
Nos importamos com o que acontece na ópera.
15:39
We care what happens in "Apocalypse Now."
364
924000
3000
Nos importamos com o que acontece no "Apocalypse Now."
15:42
And we certainly care
365
927000
2000
E com certeza nos importamos
15:44
what happens with our technologies.
366
929000
2000
com o que acontece com nossas tecnologias.
15:46
We have so much power today,
367
931000
2000
Temos tanto poder hoje,
15:48
it is up to us to figure out what to do,
368
933000
3000
e é nossa responsabilidade entender o que fazer.
15:51
and that's the good news.
369
936000
2000
Essa é a boa notícia.
15:53
We're the ones writing this opera.
370
938000
3000
Nós somos as pessoas escrevendo a ópera.
15:56
This is our movie.
371
941000
2000
Este é o nosso filme.
15:58
We figure out what will happen with this technology.
372
943000
3000
Nós dizemos o que acontecerá com essa tecnologia.
16:01
We determine how this will all end.
373
946000
3000
Nós determinamos como tudo isso irá acabar.
16:04
Thank you.
374
949000
2000
Obrigado.
16:06
(Applause)
375
951000
5000
(Aplausos)
Translated by Thiago Bello
Reviewed by Wesley Oliveira

▲Back to top

ABOUT THE SPEAKER
Damon Horowitz - Philosopher, entrepreneur
Damon Horowitz explores what is possible at the boundaries of technology and the humanities.

Why you should listen

Damon Horowitz is a philosophy professor and serial entrepreneur. He recently joined Google as In-House Philosopher / Director of Engineering, heading development of several initiatives involving social and search. He came to Google from Aardvark, the social search engine, where he was co-founder and CTO, overseeing product development and research strategy. Prior to Aardvark, Horowitz built several companies around applications of intelligent language processing. He co-founded Perspecta (acquired by Excite), was lead architect for Novation Biosciences (acquired by Agilent), and co-founded NewsDB (now Daylife).

Horowitz teaches courses in philosophy, cognitive science, and computer science at several institutions, including Stanford, NYU, University of Pennsylvania and San Quentin State Prison.

Get more information on the Prison University Project >>

More profile about the speaker
Damon Horowitz | Speaker | TED.com