ABOUT THE SPEAKER
Damon Horowitz - Philosopher, entrepreneur
Damon Horowitz explores what is possible at the boundaries of technology and the humanities.

Why you should listen

Damon Horowitz is a philosophy professor and serial entrepreneur. He recently joined Google as In-House Philosopher / Director of Engineering, heading development of several initiatives involving social and search. He came to Google from Aardvark, the social search engine, where he was co-founder and CTO, overseeing product development and research strategy. Prior to Aardvark, Horowitz built several companies around applications of intelligent language processing. He co-founded Perspecta (acquired by Excite), was lead architect for Novation Biosciences (acquired by Agilent), and co-founded NewsDB (now Daylife).

Horowitz teaches courses in philosophy, cognitive science, and computer science at several institutions, including Stanford, NYU, University of Pennsylvania and San Quentin State Prison.

Get more information on the Prison University Project >>

More profile about the speaker
Damon Horowitz | Speaker | TED.com
TEDxSiliconValley

Damon Horowitz: We need a "moral operating system"

Damon Horowitz brega por un "sistema operativo moral"

Filmed:
795,617 views

En TEDxSiliconValley, Damon Horowitz revisa los poderes nuevos, enormes, que nos da la tecnología: saber más -más unos de otros- más que nunca antes. Llevando a la audiencia a una discusión filosófica, Horowitz nos invita a prestar atención a la filosofía de fondo -los principios éticos- que subyacen la explosión inventiva que está rehaciendo nuestro mundo. ¿Dónde está el sistema operativo moral que nos permite darle sentido?
- Philosopher, entrepreneur
Damon Horowitz explores what is possible at the boundaries of technology and the humanities. Full bio

Double-click the English transcript below to play the video.

00:15
PowerPoder.
0
0
2000
Poder.
00:17
That is the wordpalabra that comesproviene to mindmente.
1
2000
2000
Esa es la palabra que viene a la mente.
00:19
We're the newnuevo technologiststecnólogos.
2
4000
2000
Somos los nuevos tecnólogos.
00:21
We have a lot of datadatos, so we have a lot of powerpoder.
3
6000
3000
Tenemos gran cantidad de información, así que tenemos mucho poder.
00:24
How much powerpoder do we have?
4
9000
2000
¿Cuánto poder tenemos?
00:26
SceneEscena from a moviepelícula: "ApocalypseApocalipsis Now" -- great moviepelícula.
5
11000
3000
Escena de la película: "Apocalipsis Now" -- excelente película.
00:29
We'veNosotros tenemos got to get our herohéroe, CaptainCapitán WillardWillard, to the mouthboca of the NungNung RiverRío
6
14000
3000
Tenemos que llevar a nuestro héroe, el capitán Willard, a la desembocadura del río Nung
00:32
so he can go pursueperseguir ColonelCoronel KurtzKurtz.
7
17000
2000
para que pueda perseguir al coronel Kurtz.
00:34
The way we're going to do this is flymosca him in and dropsoltar him off.
8
19000
2000
Para esto, lo vamos a transportar volando y lo dejamos en el lugar.
00:36
So the sceneescena:
9
21000
2000
En esta escena
00:38
the skycielo is filledlleno with this fleetflota of helicoptershelicópteros carryingque lleva him in.
10
23000
3000
el cielo está repleto de helicópteros que lo llevan.
00:41
And there's this loudruidoso, thrillingemocionante musicmúsica in the backgroundfondo,
11
26000
2000
Hay de fondo una música fuerte y emocionante,
00:43
this wildsalvaje musicmúsica.
12
28000
2000
una música desenfrenada.
00:45
DumDum dada taejército de reserva dada dumdum
13
30000
2000
♫ Dum da ta da dum ♫
00:47
DumDum dada taejército de reserva dada dumdum
14
32000
2000
♫ Dum da ta da dum ♫
00:49
DaDa taejército de reserva dada dada
15
34000
3000
♫ Da ta da da ♫
00:52
That's a lot of powerpoder.
16
37000
2000
Hay mucha potencia.
00:54
That's the kindtipo of powerpoder I feel in this roomhabitación.
17
39000
2000
La clase de potencia que siento en esta sala.
00:56
That's the kindtipo of powerpoder we have
18
41000
2000
Es el poder que nos da
00:58
because of all of the datadatos that we have.
19
43000
2000
toda la información que tenemos.
01:00
Let's take an exampleejemplo.
20
45000
2000
Pongamos un ejemplo:
01:02
What can we do
21
47000
2000
¿Qué podemos hacer
01:04
with just one person'spersona datadatos?
22
49000
3000
con la información de una sola persona?
01:07
What can we do
23
52000
2000
¿Qué podemos hacer
01:09
with that guy'schico datadatos?
24
54000
2000
con la información de ese señor?
01:11
I can look at your financialfinanciero recordsarchivos.
25
56000
2000
Puedo mirar sus registros financieros.
01:13
I can tell if you paypaga your billsfacturas on time.
26
58000
2000
Puedo decir si paga sus cuentas puntualmente.
01:15
I know if you're good to give a loanpréstamo to.
27
60000
2000
Sé si reúne las condiciones para que le den un préstamo.
01:17
I can look at your medicalmédico recordsarchivos; I can see if your pumpbomba is still pumpingbombeo --
28
62000
3000
Puedo ver su historia clínica, puedo ver si aún late su corazón;
01:20
see if you're good to offeroferta insuranceseguro to.
29
65000
3000
ver si está bien para que le ofrezcan un seguro.
01:23
I can look at your clickinghaciendo clic patternspatrones.
30
68000
2000
Puedo observar sus hábitos en Internet.
01:25
When you come to my websitesitio web, I actuallyactualmente know what you're going to do alreadyya
31
70000
3000
Cuando viene a mi sitio web, en realidad ya sé lo que va a hacer,
01:28
because I've seenvisto you visitvisitar millionsmillones of websitessitios web before.
32
73000
2000
porque lo he visto visitar millones de sitios web antes.
01:30
And I'm sorry to tell you,
33
75000
2000
Y lamento decirlo,
01:32
you're like a pokerpóker playerjugador, you have a tell.
34
77000
2000
eres como un jugador de póquer, tienes esa manía.
01:34
I can tell with datadatos analysisanálisis what you're going to do
35
79000
2000
Analizando datos puedo decir lo que vas a hacer
01:36
before you even do it.
36
81000
2000
aún antes que lo hagas.
01:38
I know what you like. I know who you are,
37
83000
3000
Sé lo que te gusta. Sé quién eres.
01:41
and that's even before I look at your mailcorreo
38
86000
2000
Incluso antes de mirar tu correo
01:43
or your phoneteléfono.
39
88000
2000
o tu teléfono.
01:45
Those are the kindsclases of things we can do
40
90000
2000
Ese es el tipo de cosas que podemos hacer
01:47
with the datadatos that we have.
41
92000
3000
con los datos que tenemos.
01:50
But I'm not actuallyactualmente here to talk about what we can do.
42
95000
3000
Pero en realidad no estoy aquí para hablar de lo que podemos hacer.
01:56
I'm here to talk about what we should do.
43
101000
3000
Estoy aquí para hablar de lo que debemos hacer.
02:00
What's the right thing to do?
44
105000
3000
¿Cuál es la acción correcta?
02:04
Now I see some puzzledperplejo looksmiradas
45
109000
2000
Veo algunas miradas desconcertadas
02:06
like, "Why are you askingpreguntando us what's the right thing to do?
46
111000
3000
como diciendo, "¿Por qué nos preguntas qué es lo correcto?
02:09
We're just buildingedificio this stuffcosas. SomebodyAlguien elsemás is usingutilizando it."
47
114000
3000
Nosotros hacemos. Son otros los que la usan".
02:12
FairJusta enoughsuficiente.
48
117000
3000
Es cierto.
02:15
But it bringstrae me back.
49
120000
2000
Pero esto me lleva al pasado.
02:17
I think about WorldMundo WarGuerra IIII --
50
122000
2000
Pienso en la Segunda Guerra Mundial --
02:19
some of our great technologiststecnólogos then,
51
124000
2000
algunos de nuestros grandes tecnólogos de entonces,
02:21
some of our great physicistsfísicos,
52
126000
2000
algunos de los grandes físicos,
02:23
studyingestudiando nuclearnuclear fissionfisión and fusionfusión --
53
128000
2000
estudiaban la fisión y la fusión nuclear --
02:25
just nuclearnuclear stuffcosas.
54
130000
2000
cuestiones nucleares.
02:27
We gatherreunir togetherjuntos these physicistsfísicos in LosLos AlamosAlamos
55
132000
3000
Reunimos a estos físicos en Los Álamos
02:30
to see what they'llellos van a buildconstruir.
56
135000
3000
para ver que construían.
02:33
We want the people buildingedificio the technologytecnología
57
138000
3000
Queremos que la gente que desarrolla tecnología
02:36
thinkingpensando about what we should be doing with the technologytecnología.
58
141000
3000
piense qué deberíamos hacer nosotros con ella.
02:41
So what should we be doing with that guy'schico datadatos?
59
146000
3000
Entonces, ¿qué deberíamos hacer con los datos de ese señor?
02:44
Should we be collectingcoleccionar it, gatheringreunión it,
60
149000
3000
¿Deberíamos recolectar, reunir los datos,
02:47
so we can make his onlineen línea experienceexperiencia better?
61
152000
2000
para mejorar su experiencia en línea?
02:49
So we can make moneydinero?
62
154000
2000
¿Para ganar dinero?
02:51
So we can protectproteger ourselvesNosotros mismos
63
156000
2000
¿Para protegernos nosotros mismos
02:53
if he was up to no good?
64
158000
2000
si no se comporta bien?
02:55
Or should we respectel respeto his privacyintimidad,
65
160000
3000
¿O deberíamos respetar su privacidad,
02:58
protectproteger his dignitydignidad and leavesalir him alonesolo?
66
163000
3000
proteger su dignidad y dejarlo en paz?
03:02
WhichCual one is it?
67
167000
3000
¿Qué hacemos?
03:05
How should we figurefigura it out?
68
170000
2000
¿Cómo debemos decidir?
03:07
I know: crowdsourcecrowdsource. Let's crowdsourcecrowdsource this.
69
172000
3000
Ya sé: colaboración pública. Vamos a resolver esto juntos.
03:11
So to get people warmedcalentado up,
70
176000
3000
Para entrar en calor,
03:14
let's startcomienzo with an easyfácil questionpregunta --
71
179000
2000
comencemos con una pregunta fácil --
03:16
something I'm sure everybodytodos here has an opinionopinión about:
72
181000
3000
algo sobre lo que estoy seguro que todos aquí tienen una opinión:
03:19
iPhoneiPhone versusversus AndroidAndroide.
73
184000
2000
iPhone versus Android.
03:21
Let's do a showespectáculo of handsmanos -- iPhoneiPhone.
74
186000
3000
Levanten las manos por el iPhone.
03:24
Uh huh.
75
189000
2000
Ajá.
03:26
AndroidAndroide.
76
191000
3000
Android.
03:29
You'dTu hubieras think with a bunchmanojo of smartinteligente people
77
194000
2000
Uno pensaría que un grupo de gente inteligente
03:31
we wouldn'tno lo haría be suchtal suckersretoños just for the prettybonita phonesteléfonos.
78
196000
2000
o sucumbiría tan fácil ante unos lindos teléfonos.
03:33
(LaughterRisa)
79
198000
2000
(Risas)
03:35
NextSiguiente questionpregunta,
80
200000
2000
Siguiente pregunta,
03:37
a little bitpoco harderMás fuerte.
81
202000
2000
un poco más difícil.
03:39
Should we be collectingcoleccionar all of that guy'schico datadatos
82
204000
2000
¿Deberíamos recolectar toda los datos de ese hombre
03:41
to make his experiencesexperiencias better
83
206000
2000
para ofrecerle una mejor experiencia
03:43
and to protectproteger ourselvesNosotros mismos in casecaso he's up to no good?
84
208000
3000
y para protegernos en caso de que trame algo malo?
03:46
Or should we leavesalir him alonesolo?
85
211000
2000
¿O deberíamos dejarlo en paz?
03:48
CollectRecoger his datadatos.
86
213000
3000
Recolectar sus datos.
03:53
LeaveSalir him alonesolo.
87
218000
3000
Dejarlo en paz.
03:56
You're safeseguro. It's fine.
88
221000
2000
Estás a salvo. Está bien.
03:58
(LaughterRisa)
89
223000
2000
(Risas)
04:00
Okay, last questionpregunta --
90
225000
2000
Bien, última pregunta --
04:02
harderMás fuerte questionpregunta --
91
227000
2000
más difícil --
04:04
when tryingmolesto to evaluateevaluar
92
229000
3000
Al tratar de evaluar
04:07
what we should do in this casecaso,
93
232000
3000
lo que deberíamos hacer en este caso,
04:10
should we use a Kantiankantiano deontologicaldeontológico moralmoral frameworkmarco de referencia,
94
235000
4000
¿deberíamos usar un sistema moral deontológico kantiano,
04:14
or should we use a MillianMillian consequentialistconsecuencialista one?
95
239000
3000
o un sistema consecuencionalista milliano?
04:19
KantKant.
96
244000
3000
Kant.
04:22
MillMolino.
97
247000
3000
Mill.
04:25
Not as manymuchos votesvotos.
98
250000
2000
No hay tantos votos.
04:27
(LaughterRisa)
99
252000
3000
(Risas)
04:30
Yeah, that's a terrifyingespantoso resultresultado.
100
255000
3000
Sí, ese es un resultado aterrador.
04:34
TerrifyingEspantoso, because we have strongermás fuerte opinionsopiniones
101
259000
4000
Es aterrador porque tenemos opiniones más firmes
04:38
about our hand-heldMano devicesdispositivos
102
263000
2000
sobre nuestros aparatos portátiles
04:40
than about the moralmoral frameworkmarco de referencia
103
265000
2000
que sobre el sistema moral
04:42
we should use to guideguía our decisionsdecisiones.
104
267000
2000
que debería guiar nuestras decisiones.
04:44
How do we know what to do with all the powerpoder we have
105
269000
3000
¿Cómo sabemos qué hacer con todo el poder que tenemos
04:47
if we don't have a moralmoral frameworkmarco de referencia?
106
272000
3000
si no tenemos un sistema moral?
04:50
We know more about mobilemóvil operatingoperando systemssistemas,
107
275000
3000
Sabemos más sobre los sistemas operativos móviles,
04:53
but what we really need is a moralmoral operatingoperando systemsistema.
108
278000
3000
pero lo que realmente necesitamos es un sistema operativo moral.
04:58
What's a moralmoral operatingoperando systemsistema?
109
283000
2000
¿Qué es un sistema operativo moral?
05:00
We all know right and wrongincorrecto, right?
110
285000
2000
Todos sabemos lo que es correcto e incorrecto.
05:02
You feel good when you do something right,
111
287000
2000
Te sientes bien cuando haces algo correcto,
05:04
you feel badmalo when you do something wrongincorrecto.
112
289000
2000
te sientes mal cuando haces algo incorrecto.
05:06
Our parentspadres teachenseñar us that: praisealabanza with the good, scoldregaño with the badmalo.
113
291000
3000
Nuestros padres nos enseñan que se alaba lo bueno y se regaña lo malo.
05:09
But how do we figurefigura out what's right and wrongincorrecto?
114
294000
3000
Pero, ¿cómo podemos averiguar qué es lo correcto y lo incorrecto?
05:12
And from day to day, we have the techniquestécnicas that we use.
115
297000
3000
Y, día a día, tenemos las técnicas que utilizamos.
05:15
Maybe we just followseguir our gutintestino.
116
300000
3000
Tal vez solo seguimos nuestro instinto.
05:18
Maybe we take a votevotar -- we crowdsourcecrowdsource.
117
303000
3000
Tal vez votamos --consultamos la opinión pública.
05:21
Or maybe we puntbatea --
118
306000
2000
O tal vez apostamos --
05:23
askpedir the legallegal departmentDepartamento, see what they say.
119
308000
3000
preguntamos al departamento legal, vemos lo que dicen.
05:26
In other wordspalabras, it's kindtipo of randomaleatorio,
120
311000
2000
En otras palabras, es un poco aleatorio,
05:28
kindtipo of adanuncio hochoc,
121
313000
2000
improvisamos,
05:30
how we figurefigura out what we should do.
122
315000
3000
la forma de averiguar lo que debemos hacer.
05:33
And maybe, if we want to be on surermás seguro footingpie,
123
318000
3000
Y, tal vez, si queremos sentirnos más seguros,
05:36
what we really want is a moralmoral frameworkmarco de referencia that will help guideguía us there,
124
321000
3000
lo que realmente queremos es un sistema moral que nos oriente,
05:39
that will tell us what kindsclases of things are right and wrongincorrecto in the first placelugar,
125
324000
3000
que nos diga en primer lugar que tipo de cosas están bien y mal,
05:42
and how would we know in a givendado situationsituación what to do.
126
327000
4000
y cómo sabemos qué hacer en una situación dada.
05:46
So let's get a moralmoral frameworkmarco de referencia.
127
331000
2000
Entonces tengamos un sistema moral.
05:48
We're numbersnúmeros people, livingvivo by numbersnúmeros.
128
333000
3000
Somos seres que trabajamos con números, vivimos por los números.
05:51
How can we use numbersnúmeros
129
336000
2000
¿Cómo podemos usar los números
05:53
as the basisbase for a moralmoral frameworkmarco de referencia?
130
338000
3000
como base para un sistema moral?
05:56
I know a guy who did exactlyexactamente that.
131
341000
3000
Conozco a un hombre que hizo exactamente eso,
05:59
A brilliantbrillante guy --
132
344000
3000
Un hombre brillante --
06:02
he's been deadmuerto 2,500 yearsaños.
133
347000
3000
murió hace 2500 años.
06:05
PlatoPlatón, that's right.
134
350000
2000
Platón, exacto.
06:07
RememberRecuerda him -- oldantiguo philosopherfilósofo?
135
352000
2000
¿Lo recuerdan? ¿un viejo filósofo?
06:09
You were sleepingdormido duringdurante that classclase.
136
354000
3000
Se durmieron durante esa clase.
06:12
And PlatoPlatón, he had a lot of the samemismo concernspreocupaciones that we did.
137
357000
2000
Y Platón se planteó muchas de estas preocupaciones que tenemos.
06:14
He was worriedpreocupado about right and wrongincorrecto.
138
359000
2000
Se preocupaba por lo correcto y lo incorrecto.
06:16
He wanted to know what is just.
139
361000
2000
Quería saber qué era lo justo.
06:18
But he was worriedpreocupado that all we seemparecer to be doing
140
363000
2000
Pero le preocupaba que todo lo que parecíamos hacer
06:20
is tradingcomercio opinionsopiniones about this.
141
365000
2000
era intercambiar opiniones sobre el tema.
06:22
He saysdice something'salgunas cosas just. She saysdice something elsemás is just.
142
367000
3000
Él dice que algo es lo justo. Ella dice que otra cosa es lo justo.
06:25
It's kindtipo of convincingConvincente when he talksnegociaciones and when she talksnegociaciones too.
143
370000
2000
Ambos suenan convincentes.
06:27
I'm just going back and forthadelante; I'm not gettingconsiguiendo anywhereen cualquier sitio.
144
372000
2000
Vamos y volvemos sin llegar a ningún lado.
06:29
I don't want opinionsopiniones; I want knowledgeconocimiento.
145
374000
3000
No quiero opiniones, quiero conocimiento.
06:32
I want to know the truthverdad about justicejusticia --
146
377000
3000
Quiero saber la verdad sobre la justicia --
06:35
like we have truthsverdades in mathmates.
147
380000
3000
tal como tenemos verdades en matemáticas.
06:38
In mathmates, we know the objectiveobjetivo factshechos.
148
383000
3000
En matemáticas conocemos los hechos objetivos.
06:41
Take a numbernúmero, any numbernúmero -- two.
149
386000
2000
Tomen un número, cualquier número -- el 2.
06:43
FavoriteFavorito numbernúmero. I love that numbernúmero.
150
388000
2000
Mi número favorito. Me encanta ese número.
06:45
There are truthsverdades about two.
151
390000
2000
Hay verdades sobre el 2.
06:47
If you've got two of something,
152
392000
2000
Si tienen 2 de algo,
06:49
you addañadir two more, you get fourlas cuatro.
153
394000
2000
y agregan 2 más, tienen 4.
06:51
That's truecierto no matterimportar what thing you're talkinghablando about.
154
396000
2000
Eso es verdad sin importar qué estén hablando.
06:53
It's an objectiveobjetivo truthverdad about the formformar of two,
155
398000
2000
Es una verdad objetiva sobre la forma del 2,
06:55
the abstractabstracto formformar.
156
400000
2000
la forma abstracta.
06:57
When you have two of anything -- two eyesojos, two earsorejas, two nosesnarices,
157
402000
2000
Cuando se tiene 2 de cualquier cosa - 2 ojos, 2 oídos, 2 narices,
06:59
just two protrusionsprotuberancias --
158
404000
2000
2 protuberancias --
07:01
those all partakeparticipar of the formformar of two.
159
406000
3000
todos ellos participan de la forma del 2.
07:04
They all participateparticipar in the truthsverdades that two has.
160
409000
4000
Todos participan de las verdades del 2.
07:08
They all have two-nessdos-ness in them.
161
413000
2000
Todos tienen la dualidad.
07:10
And thereforepor lo tanto, it's not a matterimportar of opinionopinión.
162
415000
3000
Y por lo tanto, no es una cuestión de opinión.
07:13
What if, PlatoPlatón thought,
163
418000
2000
Platón pensaba: ¿y si
07:15
ethicsética was like mathmates?
164
420000
2000
la ética fuese como la matemática?
07:17
What if there were a purepuro formformar of justicejusticia?
165
422000
3000
¿Y si hubiera una forma pura de justicia?
07:20
What if there are truthsverdades about justicejusticia,
166
425000
2000
¿Y si hay verdades acerca de la justicia,
07:22
and you could just look around in this worldmundo
167
427000
2000
y si pudiéramos mirar el mundo
07:24
and see whichcual things participatedparticipado,
168
429000
2000
y ver las cosas que la componen,
07:26
partookparto of that formformar of justicejusticia?
169
431000
3000
que forman parte de la justicia?
07:29
Then you would know what was really just and what wasn'tno fue.
170
434000
3000
Entonces podría saberse lo que realmente es justo y lo que no.
07:32
It wouldn'tno lo haría be a matterimportar
171
437000
2000
No sería una cuestión
07:34
of just opinionopinión or just appearancesapariciones.
172
439000
3000
de simple opinión o apariencias.
07:37
That's a stunningmaravilloso visionvisión.
173
442000
2000
Esa es una visión asombrosa.
07:39
I mean, think about that. How grandgrandioso. How ambitiousambicioso.
174
444000
3000
Quiero decir, piénsenlo. Es magnífico y ambicioso.
07:42
That's as ambitiousambicioso as we are.
175
447000
2000
Tan ambicioso como nosotros.
07:44
He wants to solveresolver ethicsética.
176
449000
2000
Él quiere resolver la ética.
07:46
He wants objectiveobjetivo truthsverdades.
177
451000
2000
Quiere verdades objetivas.
07:48
If you think that way,
178
453000
3000
Si piensas de esa forma,
07:51
you have a PlatonistPlatonista moralmoral frameworkmarco de referencia.
179
456000
3000
tienes un sistema moral platónico.
07:54
If you don't think that way,
180
459000
2000
Si no piensas de esa forma,
07:56
well, you have a lot of companyempresa in the historyhistoria of Westernoccidental philosophyfilosofía,
181
461000
2000
bien, tienes mucha compañía en la historia de la filosofía occidental,
07:58
because the tidyordenado ideaidea, you know, people criticizedcriticado it.
182
463000
3000
porque, ya saben, esta linda idea fue criticada.
08:01
AristotleAristóteles, in particularespecial, he was not amuseddivertido.
183
466000
3000
Aristóteles, en particular, no la compartía.
08:04
He thought it was impracticalpoco práctico.
184
469000
3000
Le resultaba poco práctico.
08:07
AristotleAristóteles said, "We should seekbuscar only so much precisionprecisión in eachcada subjecttema
185
472000
4000
Aristóteles dijo: "En cada asunto solo debemos buscar el nivel de precisión
08:11
as that subjecttema allowspermite."
186
476000
2000
que ese asunto permite".
08:13
AristotleAristóteles thought ethicsética wasn'tno fue a lot like mathmates.
187
478000
3000
Aristóteles pensaba que la ética no era como la matemática.
08:16
He thought ethicsética was a matterimportar of makingfabricación decisionsdecisiones in the here-and-nowaquí y ahora
188
481000
3000
Él pensaba que la ética es una cuestión de tomar decisiones aquí y ahora
08:19
usingutilizando our bestmejor judgmentjuicio
189
484000
2000
usando nuestro mejor juicio
08:21
to find the right pathcamino.
190
486000
2000
para encontrar el camino correcto.
08:23
If you think that, Plato'sPlatón not your guy.
191
488000
2000
Si piensan eso, Platón no es la persona a seguir.
08:25
But don't give up.
192
490000
2000
Pero no se rindan.
08:27
Maybe there's anotherotro way
193
492000
2000
Tal vez hay otra manera
08:29
that we can use numbersnúmeros as the basisbase of our moralmoral frameworkmarco de referencia.
194
494000
3000
de usar los números como base de nuestro sistema moral.
08:33
How about this:
195
498000
2000
¿Qué tal si
08:35
What if in any situationsituación you could just calculatecalcular,
196
500000
3000
ante cada situación simplemente pudieran calcular,
08:38
look at the choiceselecciones,
197
503000
2000
mirar las opciones,
08:40
measuremedida out whichcual one'suno better and know what to do?
198
505000
3000
medir cuál es mejor y saber qué hacer?
08:43
That soundsonar familiarfamiliar?
199
508000
2000
¿Les suena familiar?
08:45
That's a utilitarianutilitario moralmoral frameworkmarco de referencia.
200
510000
3000
Ese es un sistema moral utilitarista.
08:48
JohnJohn StuartStuart MillMolino was a great advocateabogado of this --
201
513000
2000
John Stuart Mill fue un gran defensor de esto --
08:50
nicebonito guy besidesademás --
202
515000
2000
además de un tipo genial --
08:52
and only been deadmuerto 200 yearsaños.
203
517000
2000
y murió hace solo 200 años.
08:54
So basisbase of utilitarianismutilitarismo --
204
519000
2000
Así, la base del utilitarismo --
08:56
I'm sure you're familiarfamiliar at leastmenos.
205
521000
2000
Seguro que al menos están familiarizados.
08:58
The threeTres people who votedvotado for MillMolino before are familiarfamiliar with this.
206
523000
2000
Las 3 personas que votaron por Mill antes están familiarizados con esto.
09:00
But here'saquí está the way it workstrabajos.
207
525000
2000
Esto es así:
09:02
What if moralsmoralidad, what if what makeshace something moralmoral
208
527000
3000
¿Qué pasa si la moral, lo que hace que algo sea moral,
09:05
is just a matterimportar of if it maximizesmaximiza pleasurePlacer
209
530000
2000
es solo una cuestión de maximizar el placer
09:07
and minimizesminimiza paindolor?
210
532000
2000
y minimizar el dolor?
09:09
It does something intrinsicintrínseco to the actacto.
211
534000
3000
Se trata de algo intrínseco al acto.
09:12
It's not like its relationrelación to some abstractabstracto formformar.
212
537000
2000
No se trata de una relación con alguna forma abstracta.
09:14
It's just a matterimportar of the consequencesConsecuencias.
213
539000
2000
Es sólo una cuestión de consecuencias.
09:16
You just look at the consequencesConsecuencias
214
541000
2000
Buscamos sólo en las consecuencias
09:18
and see if, overallen general, it's for the good or for the worsepeor.
215
543000
2000
y vemos si en el todo, son positivas o negativas.
09:20
That would be simplesencillo. Then we know what to do.
216
545000
2000
Eso sería simple. Entonces sabríamos que hacer.
09:22
Let's take an exampleejemplo.
217
547000
2000
Pongamos un ejemplo.
09:24
SupposeSuponer I go up
218
549000
2000
Supongamos que voy
09:26
and I say, "I'm going to take your phoneteléfono."
219
551000
2000
y digo, "Voy a tomar tu teléfono".
09:28
Not just because it rangsonó earliermás temprano,
220
553000
2000
No sólo porque sonó antes,
09:30
but I'm going to take it because I madehecho a little calculationcálculo.
221
555000
3000
sino que lo voy a tomar porque hice un pequeño cálculo.
09:33
I thought, that guy looksmiradas suspicioussuspicaz.
222
558000
3000
Pensé, ese tipo parece sospechoso.
09:36
And what if he's been sendingenviando little messagesmensajes to BinCompartimiento Laden'sLaden hideoutescondite --
223
561000
3000
Y qué tal si ha estado enviando mensajes a la guarida de Bin Laden --
09:39
or whoeverquien tooktomó over after BinCompartimiento LadenCargado --
224
564000
2000
o quien haya reemplazado a Bin Laden -
09:41
and he's actuallyactualmente like a terroristterrorista, a sleeperdurmiente cellcelda.
225
566000
3000
Y en realidad es un terrorista, una célula latente.
09:44
I'm going to find that out, and when I find that out,
226
569000
3000
Voy a averiguarlo, y cuando lo descubra,
09:47
I'm going to preventevitar a hugeenorme amountcantidad of damagedañar that he could causeporque.
227
572000
3000
voy a evitar el enorme daño que podría causar.
09:50
That has a very highalto utilityutilidad to preventevitar that damagedañar.
228
575000
3000
Eso va a ser muy útil para evitar ese daño.
09:53
And comparedcomparado to the little paindolor that it's going to causeporque --
229
578000
2000
Y comparado con el pequeño dolor que va a causar --
09:55
because it's going to be embarrassingembarazoso when I'm looking on his phoneteléfono
230
580000
2000
porque va a ser vergonzoso cuando vea su teléfono móvil
09:57
and seeingviendo that he has a FarmvilleGranja problemproblema and that wholetodo bitpoco --
231
582000
3000
y vea que tiene un problema con Farmville y todo lo demás -
10:00
that's overwhelmedabrumado
232
585000
3000
eso es minimizado
10:03
by the valuevalor of looking at the phoneteléfono.
233
588000
2000
por el valor de mirar su teléfono.
10:05
If you feel that way,
234
590000
2000
Si consideran ese camino,
10:07
that's a utilitarianutilitario choiceelección.
235
592000
3000
esa es una opción utilitarista.
10:10
But maybe you don't feel that way eitherya sea.
236
595000
3000
Pero tal vez tampoco consideren esa opción.
10:13
Maybe you think, it's his phoneteléfono.
237
598000
2000
Tal vez piensen, es su teléfono.
10:15
It's wrongincorrecto to take his phoneteléfono
238
600000
2000
No está bien tomar su teléfono,
10:17
because he's a personpersona
239
602000
2000
porque él es una persona
10:19
and he has rightsderechos and he has dignitydignidad,
240
604000
2000
y tiene derechos y dignidad,
10:21
and we can't just interfereinterferir with that.
241
606000
2000
y simplemente no podemos interferir en eso.
10:23
He has autonomyautonomía.
242
608000
2000
Él tiene autonomía.
10:25
It doesn't matterimportar what the calculationscálculos are.
243
610000
2000
No importa cuáles sean los cálculos.
10:27
There are things that are intrinsicallyintrínsecamente wrongincorrecto --
244
612000
3000
Hay cosas que intrínsecamente están mal --
10:30
like lyingacostado is wrongincorrecto,
245
615000
2000
como mentir está mal.
10:32
like torturingtorturando innocentinocente childrenniños is wrongincorrecto.
246
617000
3000
torturar a niños inocentes está mal.
10:35
KantKant was very good on this pointpunto,
247
620000
3000
Kant era muy bueno en este punto,
10:38
and he said it a little better than I'll say it.
248
623000
2000
y planteaba esto un poco mejor de lo que yo lo haré.
10:40
He said we should use our reasonrazón
249
625000
2000
Decía que deberíamos usar nuestro razonamiento
10:42
to figurefigura out the rulesreglas by whichcual we should guideguía our conductconducta,
250
627000
3000
para decidir las reglas que deberían guiar nuestra conducta.
10:45
and then it is our dutydeber to followseguir those rulesreglas.
251
630000
3000
Y luego es nuestro deber seguir esas reglas.
10:48
It's not a matterimportar of calculationcálculo.
252
633000
3000
No es una cuestión de cálculos.
10:51
So let's stop.
253
636000
2000
Así que detengámonos.
10:53
We're right in the thickgrueso of it, this philosophicalfilosófico thicketmatorral.
254
638000
3000
Estamos justo en el centro de esta maraña filosófica.
10:56
And this goesva on for thousandsmiles of yearsaños,
255
641000
3000
Esto continuó durante miles de años,
10:59
because these are harddifícil questionspreguntas,
256
644000
2000
porque son preguntas difíciles,
11:01
and I've only got 15 minutesminutos.
257
646000
2000
y solo tengo 15 minutos.
11:03
So let's cutcortar to the chasepersecución.
258
648000
2000
Por lo tanto, vamos directo al grano.
11:05
How should we be makingfabricación our decisionsdecisiones?
259
650000
4000
¿Cómo debemos tomar nuestras decisiones?
11:09
Is it PlatoPlatón, is it AristotleAristóteles, is it KantKant, is it MillMolino?
260
654000
3000
¿De acuerdo a Platón, a Aristóteles, a Kant, a Mill?
11:12
What should we be doing? What's the answerresponder?
261
657000
2000
¿Qué debemos hacer? ¿Cuál es la respuesta?
11:14
What's the formulafórmula that we can use in any situationsituación
262
659000
3000
¿Cuál es la fórmula que podemos usar en cualquier situación
11:17
to determinedeterminar what we should do,
263
662000
2000
para determinar qué debemos hacer,
11:19
whethersi we should use that guy'schico datadatos or not?
264
664000
2000
sea que debamos o no usar la información de ese hombre?
11:21
What's the formulafórmula?
265
666000
3000
¿Cuál es la fórmula?
11:25
There's not a formulafórmula.
266
670000
2000
No hay fórmula.
11:29
There's not a simplesencillo answerresponder.
267
674000
2000
No hay una respuesta simple.
11:31
EthicsÉtica is harddifícil.
268
676000
3000
La ética es algo difícil.
11:34
EthicsÉtica requiresrequiere thinkingpensando.
269
679000
3000
Requiere reflexión.
11:38
And that's uncomfortableincómodo.
270
683000
2000
Y eso es incómodo.
11:40
I know; I spentgastado a lot of my careercarrera
271
685000
2000
Lo sé; pasé gran parte de mi carrera
11:42
in artificialartificial intelligenceinteligencia,
272
687000
2000
en inteligencia artificial,
11:44
tryingmolesto to buildconstruir machinesmáquinas that could do some of this thinkingpensando for us,
273
689000
3000
tratando de construir máquinas que pudiesen pensar algunas de estas cuestiones por nosotros,
11:47
that could give us answersrespuestas.
274
692000
2000
que pudiesen darnos respuestas.
11:49
But they can't.
275
694000
2000
Pero ellas no pueden.
11:51
You can't just take humanhumano thinkingpensando
276
696000
2000
No se puede tomar el pensamiento humano
11:53
and put it into a machinemáquina.
277
698000
2000
y ponerlo dentro de una máquina.
11:55
We're the onesunos who have to do it.
278
700000
3000
Somos nosotros quienes debemos hacerlo.
11:58
HappilyFelizmente, we're not machinesmáquinas, and we can do it.
279
703000
3000
Felizmente, no somos máquinas y podemos hacerlo.
12:01
Not only can we think,
280
706000
2000
Y no sólo podemos pensar,
12:03
we mustdebe.
281
708000
2000
debemos hacerlo.
12:05
HannahHannah ArendtArendt said,
282
710000
2000
Hannah Arendt dijo:
12:07
"The sadtriste truthverdad
283
712000
2000
"La triste verdad
12:09
is that mostmás evilmal donehecho in this worldmundo
284
714000
2000
es que el mayor daño hecho en este mundo
12:11
is not donehecho by people
285
716000
2000
no lo causan las personas
12:13
who chooseescoger to be evilmal.
286
718000
2000
que eligen ser malas.
12:15
It arisessurge from not thinkingpensando."
287
720000
3000
Surge de la falta de pensamiento".
12:18
That's what she calledllamado the "banalitybanalidad of evilmal."
288
723000
4000
Es lo que ella llamaba la "banalidad del mal".
12:22
And the responserespuesta to that
289
727000
2000
Y la respuesta a eso
12:24
is that we demanddemanda the exerciseejercicio of thinkingpensando
290
729000
2000
es que demandamos el ejercicio del pensamiento
12:26
from everycada sanecuerdo personpersona.
291
731000
3000
de cada persona sana.
12:29
So let's do that. Let's think.
292
734000
2000
Así que hagámoslo. Pensemos.
12:31
In facthecho, let's startcomienzo right now.
293
736000
3000
De hecho, empecemos ahora mismo.
12:34
EveryCada personpersona in this roomhabitación do this:
294
739000
3000
Cada persona de esta sala haga esto:
12:37
think of the last time you had a decisiondecisión to make
295
742000
3000
piensen en la última vez que tuvieron que tomar una decisión
12:40
where you were worriedpreocupado to do the right thing,
296
745000
2000
donde estuvieron preocupados por hacer lo correcto,
12:42
where you wonderedpreguntado, "What should I be doing?"
297
747000
2000
donde se preguntaron, "¿Qué debo hacer?"
12:44
BringTraer that to mindmente,
298
749000
2000
Recuerden ese momento.
12:46
and now reflectreflejar on that
299
751000
2000
Y ahora reflexionen en eso
12:48
and say, "How did I come up that decisiondecisión?
300
753000
3000
y digan: "¿Cómo llegué a esa decisión?
12:51
What did I do? Did I followseguir my gutintestino?
301
756000
3000
¿Qué hice? ¿Seguí mi intuición?
12:54
Did I have somebodyalguien votevotar on it? Or did I puntbatea to legallegal?"
302
759000
2000
¿Pedí la votación de alguien? ¿Pedí opinión legal?"
12:56
Or now we have a fewpocos more choiceselecciones.
303
761000
3000
O, ahora, tenemos algunas opciones más.
12:59
"Did I evaluateevaluar what would be the highestmás alto pleasurePlacer
304
764000
2000
"¿Evalué cuál sería el mayor de los placeres
13:01
like MillMolino would?
305
766000
2000
como lo haría Mill?
13:03
Or like KantKant, did I use reasonrazón to figurefigura out what was intrinsicallyintrínsecamente right?"
306
768000
3000
O al igual que Kant, ¿usé la razón para decidir qué era intrínsecamente correcto?"
13:06
Think about it. Really bringtraer it to mindmente. This is importantimportante.
307
771000
3000
Piensen en esto. Recuerden. Esto es importante.
13:09
It is so importantimportante
308
774000
2000
Es tan importante
13:11
we are going to spendgastar 30 secondssegundos of valuablevalioso TEDTalkTEDTalk time
309
776000
2000
que vamos a usar 30 segundos del valioso tiempo de TED
13:13
doing nothing but thinkingpensando about this.
310
778000
2000
nada más que para pensar en esto.
13:15
Are you readyListo? Go.
311
780000
2000
¿Están listos? Vamos.
13:33
Stop. Good work.
312
798000
3000
Paren. Buen trabajo.
13:36
What you just did,
313
801000
2000
Lo que acaban de hacer,
13:38
that's the first steppaso towardshacia takingtomando responsibilityresponsabilidad
314
803000
2000
es el primer paso en el sentido de asumir responsabilidad
13:40
for what we should do with all of our powerpoder.
315
805000
3000
por lo que debemos hacer con todo nuestro poder.
13:45
Now the nextsiguiente steppaso -- try this.
316
810000
3000
Ahora el siguiente paso -- prueben esto.
13:49
Go find a friendamigo and explainexplique to them
317
814000
2000
Busquen un amigo y explíquenle
13:51
how you madehecho that decisiondecisión.
318
816000
2000
cómo tomaron esa decisión.
13:53
Not right now. Wait tillhasta I finishterminar talkinghablando.
319
818000
2000
Ahora no. Esperen el final de la charla.
13:55
Do it over lunchalmuerzo.
320
820000
2000
Durante el almuerzo.
13:57
And don't just find anotherotro technologisttecnólogo friendamigo;
321
822000
3000
Y no lo hagan con otro amigo tecnólogo;
14:00
find somebodyalguien differentdiferente than you.
322
825000
2000
encuentren alguien diferente a ustedes.
14:02
Find an artistartista or a writerescritor --
323
827000
2000
Encuentren un artista o un escritor --
14:04
or, heavencielo forbidprohibir, find a philosopherfilósofo and talk to them.
324
829000
3000
o, Dios nos libre, encuentren un filósofo y hablen con ellos.
14:07
In facthecho, find somebodyalguien from the humanitieshumanidades.
325
832000
2000
De hecho, encuentren alguien de las humanidades.
14:09
Why? Because they think about problemsproblemas
326
834000
2000
¿Por qué? Porque ellos piensan en los problemas
14:11
differentlydiferentemente than we do as technologiststecnólogos.
327
836000
2000
de forma diferente a como lo hacemos los tecnólogos.
14:13
Just a fewpocos daysdías agohace, right acrossa través de the streetcalle from here,
328
838000
3000
Hace unos días, aquí en frente, al otro lado de la calle,
14:16
there was hundredscientos of people gatheredreunido togetherjuntos.
329
841000
2000
había cientos de personas reunidas.
14:18
It was technologiststecnólogos and humanistshumanistas
330
843000
2000
Eran tecnólogos y humanistas
14:20
at that biggrande BiblioTechBiblioTech ConferenceConferencia.
331
845000
2000
en una conferencias sobre Bibliotecas Tecnológicas.
14:22
And they gatheredreunido togetherjuntos
332
847000
2000
Y ellos se reunieron
14:24
because the technologiststecnólogos wanted to learnaprender
333
849000
2000
porque los tecnólogos querían aprender
14:26
what it would be like to think from a humanitieshumanidades perspectiveperspectiva.
334
851000
3000
cómo era pensar desde una perspectiva humanista.
14:29
You have someonealguien from GoogleGoogle
335
854000
2000
Hay alguien de Google
14:31
talkinghablando to someonealguien who does comparativecomparativo literatureliteratura.
336
856000
2000
hablando con alguien que hace literatura comparada.
14:33
You're thinkingpensando about the relevancepertinencia of 17thth centurysiglo Frenchfrancés theaterteatro --
337
858000
3000
Están pensando sobre la relevancia del teatro francés del siglo XVII --
14:36
how does that bearoso uponsobre ventureriesgo capitalcapital?
338
861000
2000
¿cómo se relaciona eso con el capital de riesgo?
14:38
Well that's interestinginteresante. That's a differentdiferente way of thinkingpensando.
339
863000
3000
Bien eso es interesante. Es una forma de pensar diferente.
14:41
And when you think in that way,
340
866000
2000
Y cuando piensan de esa forma,
14:43
you becomevolverse more sensitivesensible to the humanhumano considerationsconsideraciones,
341
868000
3000
se vuelven más sensibles a las cuestionas humanas,
14:46
whichcual are crucialcrucial to makingfabricación ethicalético decisionsdecisiones.
342
871000
3000
lo cual es crucial para tomar decisiones éticas.
14:49
So imagineimagina that right now
343
874000
2000
Entonces, imaginen que ahora mismo
14:51
you wentfuimos and you foundencontró your musicianmúsico friendamigo.
344
876000
2000
van y encuentran a su amigo músico.
14:53
And you're tellingnarración him what we're talkinghablando about,
345
878000
3000
Y le cuentan lo que estuvimos hablando,
14:56
about our wholetodo datadatos revolutionrevolución and all this --
346
881000
2000
sobre la revolución de la información y todo eso --
14:58
maybe even humtararear a fewpocos barsbarras of our themetema musicmúsica.
347
883000
2000
incluso tarareando algunas partes de nuestro tema:
15:00
DumDum taejército de reserva dada dada dumdum dumdum taejército de reserva dada dada dumdum
348
885000
3000
♫ Dum ta da da dum dum ta da da dum ♫
15:03
Well, your musicianmúsico friendamigo will stop you and say,
349
888000
2000
Bueno, su amigo músico los detendrá y dirá:
15:05
"You know, the themetema musicmúsica
350
890000
2000
"Sabes, la música de fondo
15:07
for your datadatos revolutionrevolución,
351
892000
2000
para tu revolución de la información,
15:09
that's an operaópera, that's WagnerWagner.
352
894000
2000
es una ópera, es Wagner.
15:11
It's basedbasado on Norsenórdico legendleyenda.
353
896000
2000
Se basa en la mitología nórdica.
15:13
It's GodsGallinero and mythicalmítico creaturescriaturas
354
898000
2000
Son dioses y criaturas míticas
15:15
fightinglucha over magicalmágico jewelryjoyería."
355
900000
3000
luchando por joyas mágicas".
15:19
That's interestinginteresante.
356
904000
3000
Eso es interesante.
15:22
Now it's alsoademás a beautifulhermosa operaópera,
357
907000
3000
También es una ópera hermosa.
15:25
and we're movedmovido by that operaópera.
358
910000
3000
Y esa ópera nos emociona.
15:28
We're movedmovido because it's about the battlebatalla
359
913000
2000
Nos emociona porque es sobre la lucha
15:30
betweenEntre good and evilmal,
360
915000
2000
entre el bien y el mal,
15:32
about right and wrongincorrecto.
361
917000
2000
sobre lo correcto y lo incorrecto.
15:34
And we carecuidado about right and wrongincorrecto.
362
919000
2000
Y nos importa lo que lo correcto y lo incorrecto.
15:36
We carecuidado what happenssucede in that operaópera.
363
921000
3000
Nos importa lo que pasa en la ópera.
15:39
We carecuidado what happenssucede in "ApocalypseApocalipsis Now."
364
924000
3000
Nos importa lo que pasa en "Apocalipsis Now".
15:42
And we certainlyciertamente carecuidado
365
927000
2000
Y sin duda que nos importa
15:44
what happenssucede with our technologiestecnologías.
366
929000
2000
lo que pasa con nuestras tecnologías.
15:46
We have so much powerpoder todayhoy,
367
931000
2000
Hoy tenemos mucho poder,
15:48
it is up to us to figurefigura out what to do,
368
933000
3000
depende de nosotros decidir qué hacer.
15:51
and that's the good newsNoticias.
369
936000
2000
Y esa es la buena noticia.
15:53
We're the onesunos writingescritura this operaópera.
370
938000
3000
Somos nosotros los que escribimos esta ópera.
15:56
This is our moviepelícula.
371
941000
2000
Es nuestra película.
15:58
We figurefigura out what will happenocurrir with this technologytecnología.
372
943000
3000
Nosotros decidimos lo que pasará con esta tecnología.
16:01
We determinedeterminar how this will all endfin.
373
946000
3000
Nosotros determinamos cómo terminará todo esto.
16:04
Thank you.
374
949000
2000
Gracias.
16:06
(ApplauseAplausos)
375
951000
5000
(Aplausos)
Translated by Veronica Vera
Reviewed by Sebastian Betti

▲Back to top

ABOUT THE SPEAKER
Damon Horowitz - Philosopher, entrepreneur
Damon Horowitz explores what is possible at the boundaries of technology and the humanities.

Why you should listen

Damon Horowitz is a philosophy professor and serial entrepreneur. He recently joined Google as In-House Philosopher / Director of Engineering, heading development of several initiatives involving social and search. He came to Google from Aardvark, the social search engine, where he was co-founder and CTO, overseeing product development and research strategy. Prior to Aardvark, Horowitz built several companies around applications of intelligent language processing. He co-founded Perspecta (acquired by Excite), was lead architect for Novation Biosciences (acquired by Agilent), and co-founded NewsDB (now Daylife).

Horowitz teaches courses in philosophy, cognitive science, and computer science at several institutions, including Stanford, NYU, University of Pennsylvania and San Quentin State Prison.

Get more information on the Prison University Project >>

More profile about the speaker
Damon Horowitz | Speaker | TED.com