ABOUT THE SPEAKER
Jonathan Haidt - Social psychologist
Jonathan Haidt studies how -- and why -- we evolved to be moral and political creatures.

Why you should listen

By understanding more about our moral psychology and its biases, Jonathan Haidt says we can design better institutions (including companies, universities and democracy itself), and we can learn to be more civil and open-minded toward those who are not on our team.

Haidt is a social psychologist whose research on morality across cultures led to his 2008 TED Talk on the psychological roots of the American culture war, and his 2013 TED Talk on how "common threats can make common ground." In both of those talks he asks, "Can't we all disagree more constructively?" Haidt's 2012 TED Talk explored the intersection of his work on morality with his work on happiness to talk about "hive psychology" -- the ability that humans have to lose themselves in groups pursuing larger projects, almost like bees in a hive. This hivish ability is crucial, he argues, for understanding the origins of morality, politics, and religion. These are ideas that Haidt develops at greater length in his book, The Righteous Mind: Why Good People are Divided by Politics and Religion.

Haidt joined New York University Stern School of Business in July 2011. He is the Thomas Cooley Professor of Ethical Leadership, based in the Business and Society Program. Before coming to Stern, Professor Haidt taught for 16 years at the University of Virginia in the department of psychology.

Haidt's writings appear frequently in the New York Times and The Wall Street Journal. He was named one of the top global thinkers by Foreign Policy magazine and by Prospect magazine. Haidt received a B.A. in Philosophy from Yale University, and an M.A. and Ph.D. in Psychology from the University of Pennsylvania.

More profile about the speaker
Jonathan Haidt | Speaker | TED.com
TED2008

Jonathan Haidt: The moral roots of liberals and conservatives

Jonathan Haidt habla sobre la raíz moral de liberales y conservadores

Filmed:
3,635,704 views

Sicólogo Johnathan Haidt estudia los cinco valores morales que forman la base de nuestras elecciones políticas, ya sean de izquierda, derecha o centro. En su charla reveladora, señala los valores morales que liberales y conservadores tienden a honrar más.
- Social psychologist
Jonathan Haidt studies how -- and why -- we evolved to be moral and political creatures. Full bio

Double-click the English transcript below to play the video.

00:19
SupposeSuponer that two Americanamericano friendsamigos are travelingde viaje togetherjuntos in ItalyItalia.
0
1000
3000
Supongan que dos amigos Americanos estan viajando juntos por Italia.
00:22
They go to see Michelangelo'sMichelangelo "DavidDavid,"
1
4000
2000
Van a ver el "David" de Miguel Angel,
00:24
and when they finallyfinalmente come facecara to facecara with the statueestatua,
2
6000
2000
y cuando estan cara-a-cara con la estatua,
00:26
they bothambos freezecongelar deadmuerto in theirsu trackspistas.
3
8000
2000
ambos quedan paralizados.
00:28
The first guy -- we'llbien call him AdamAdán --
4
10000
2000
El primer individuo -- llamemoslo Adam --
00:30
is transfixedtransfigurado by the beautybelleza of the perfectPerfecto humanhumano formformar.
5
12000
3000
esta paralizado por la belleza de la perfecta forma humana.
00:33
The secondsegundo guy -- we'llbien call him BillCuenta --
6
15000
2000
El segundo individuo -- llamemoslo Bill --
00:35
is transfixedtransfigurado by embarrassmentvergüenza, at staringcurioso at the thing there in the centercentrar.
7
17000
4000
esta paralizado por la verguenza al observar esa cosa ahí en el centro.
00:40
So here'saquí está my questionpregunta for you:
8
22000
2000
Esta es mi pregunta:
00:42
whichcual one of these two guys was more likelyprobable to have votedvotado for GeorgeJorge BushArbusto,
9
24000
4000
cual de estos dos individuos tiene más posibilidades de haber votado por George Bush,
00:46
whichcual for AlAlabama GoreSangre?
10
28000
2000
cual por Al Gore?
00:48
I don't need a showespectáculo of handsmanos
11
30000
1000
No necesito que muestren manos
00:49
because we all have the samemismo politicalpolítico stereotypesestereotipos.
12
31000
3000
porque todos tenemos los mismos estereotipos políticos.
00:52
We all know that it's BillCuenta.
13
34000
2000
Todos sabemos que es Bill.
00:54
And in this casecaso, the stereotypeestereotipo correspondscorresponde to realityrealidad.
14
36000
4000
Y en este caso, el estereotipo corresponde a la realidad.
00:58
It really is a facthecho that liberalsliberales are much highermayor than conservativesconservadores
15
40000
3000
Es realmente un hecho que los liberales tienen un sentido mas elevado que los conservadores
01:01
on a majormayor personalitypersonalidad traitrasgo calledllamado opennessfranqueza to experienceexperiencia.
16
43000
3000
en un rasgo importante de la personalidad, llamado apertura a la experiencia.
01:04
People who are highalto in opennessfranqueza to experienceexperiencia
17
46000
2000
Las personas con sentido elevado de apertura a la experiencia
01:06
just cravepedir noveltynovedad, varietyvariedad, diversitydiversidad, newnuevo ideasideas, travelviajar.
18
48000
4000
tienen ansias de novedad, variedad, diversidad, ideas nuevas, viajes.
01:10
People lowbajo on it like things that are familiarfamiliar, that are safeseguro and dependableconfiable.
19
52000
5000
Las personas bajas en ello gustan de cosas familiares, que son seguras y confiables.
01:15
If you know about this traitrasgo,
20
57000
2000
Si conocen esta característica,
01:17
you can understandentender a lot of puzzlesrompecabezas about humanhumano behaviorcomportamiento.
21
59000
2000
pueden entender muchos enigmas sobre el comportamiento humano.
01:19
You can understandentender why artistsartistas are so differentdiferente from accountantscontadores.
22
61000
3000
Pueden entender por qué los artistas son tan diferentes a los contadores.
01:22
You can actuallyactualmente predictpredecir what kindsclases of bookslibros they like to readleer,
23
64000
2000
Pueden, de hecho, predecir que tipo de libros les gusta leer,
01:24
what kindsclases of placeslugares they like to travelviajar to,
24
66000
2000
a que tipo de lugares les gusta viajar,
01:26
and what kindsclases of foodcomida they like to eatcomer.
25
68000
2000
y que tipo de comidas les gusta comer.
01:28
OnceUna vez you understandentender this traitrasgo, you can understandentender
26
70000
3000
Una vez que entendemos esta característica, podemos entender
01:31
why anybodynadie would eatcomer at Applebee'sApplebee's, but not anybodynadie that you know.
27
73000
4000
por qué cualquiera puede comer en Applebee's, pero nadie que tu conozcas.
01:35
(LaughterRisa)
28
77000
6000
(Risas)
01:41
This traitrasgo alsoademás tellsdice us a lot about politicspolítica.
29
83000
2000
Esta característica también nos dice mucho sobre la política.
01:43
The mainprincipal researcherinvestigador of this traitrasgo, RobertRobert McCraeMcCrae saysdice that,
30
85000
3000
El investigador principal de esta característica, Robert McCrae dice que,
01:46
"OpenAbierto individualsindividuos have an affinityafinidad for liberalliberal, progressiveprogresivo, left-wingala izquierda politicalpolítico viewspuntos de vista" --
31
88000
4000
"Individuos de mente abierta tienen afinidad con ideas políticas de izquierda, liberales y progresivas." --
01:50
they like a societysociedad whichcual is openabierto and changingcambiando --
32
92000
2000
les gusta una sociedad abierta y cambiante --
01:52
"whereasmientras closedcerrado individualsindividuos preferpreferir conservativeconservador, traditionaltradicional, right-wingala derecha viewspuntos de vista."
33
94000
5000
"mientras que individuos de mente cerrada prefieren ideas políticas de derecha, tradicionales, conservadoras.
01:57
This traitrasgo alsoademás tellsdice us a lot about the kindsclases of groupsgrupos people joinunirse.
34
99000
4000
Esta característica también nos dice mucho sobre los tipos de grupos a los que las personas se unen.
02:01
So here'saquí está the descriptiondescripción of a groupgrupo I foundencontró on the WebWeb.
35
103000
2000
Aqui tienen la descripción de un grupo que encontré en la Web.
02:03
What kindsclases of people would joinunirse a globalglobal communitycomunidad
36
105000
2000
Qué tipo de personas se unirían a una comunidad global
02:05
welcomingbienvenida people from everycada disciplinedisciplina and culturecultura,
37
107000
2000
acogiendo gente de todas las disciplinas y culturas,
02:07
who seekbuscar a deeperMás adentro understandingcomprensión of the worldmundo,
38
109000
2000
que buscan una comprensión más profunda del mundo,
02:09
and who hopeesperanza to turngiro that understandingcomprensión into a better futurefuturo for us all?
39
111000
3000
y que esperan convertir ese entendimiento en un mejor futuro para todos?
02:12
This is from some guy namedllamado TedTed.
40
114000
2000
Esto es de un individuo llamado TED.
02:14
(LaughterRisa)
41
116000
2000
(Risas)
02:16
Well, let's see now, if opennessfranqueza predictspredice who becomesse convierte liberalliberal,
42
118000
4000
Bueno, veamos, si la apertura predice quien se convierte en liberal,
02:20
and opennessfranqueza predictspredice who becomesse convierte a TEDsterTEDster,
43
122000
2000
y si la apertura predice quien se convierte en TEDster,
02:22
then mightpodría we predictpredecir that mostmás TEDstersTEDsters are liberalliberal?
44
124000
3000
entonces ¿podríamos predecir que la mayoría de los TEDsters son liberales?
02:25
Let's find out.
45
127000
1000
Vamos a averiguar.
02:26
I'm going to askpedir you to raiseaumento your handmano, whethersi you are liberalliberal, left of centercentrar --
46
128000
4000
Voy a pedirles que levanten la mano, si usted es liberal, izquierda del centro--
02:30
on socialsocial issuescuestiones, we're talkinghablando about, primarilyante todo --
47
132000
2000
hablando, principalmente, sobre asuntos sociales,
02:32
or conservativeconservador, and I'll give a thirdtercero optionopción,
48
134000
2000
o conservador, y les daré una tercera opción,
02:34
because I know there are a numbernúmero of libertarianslibertarios in the audienceaudiencia.
49
136000
2000
porque sé que hay un número de libertarios en la audiencia.
02:36
So, right now, please raiseaumento your handmano --
50
138000
2000
Asi que, ahora mismo, por favor levanten la mano --
02:38
down in the simulcasttransmisión simultánea roomshabitaciones, too,
51
140000
1000
en los cuartos de retransmisión también,
02:39
let's let everybodytodos see who'squien es here --
52
141000
2000
dejemos saber a todo el mundo quién esta aqui.
02:41
please raiseaumento your handmano if you would say that you are liberalliberal or left of centercentrar.
53
143000
3000
Por favor levanten la mano aquellos que se consideran liberales o a la izquierda del centro.
02:44
Please raiseaumento your handmano highalto right now. OK.
54
146000
3000
Por favor levanten la mano alto, ahora. OK.
02:48
Please raiseaumento your handmano if you'dtu hubieras say you're libertarianlibertario.
55
150000
2000
Por favor levanten la mano si se consideran libertarios.
02:51
OK, about a -- two dozendocena.
56
153000
2000
OK, unas -- dos docenas.
02:53
And please raiseaumento your handmano if you'dtu hubieras say you are right of centercentrar or conservativeconservador.
57
155000
3000
Y por favor levanten la mano los que se consideran conservadores o a la derecha del centro.
02:56
One, two, threeTres, fourlas cuatro, fivecinco -- about eightocho or 10.
58
158000
5000
Uno, dos, tres, cuatro, cinco -- unos ocho o 10.
03:02
OK. This is a bitpoco of a problemproblema.
59
164000
3000
Ok. Esto es un problema.
03:05
Because if our goalGol is to understandentender the worldmundo,
60
167000
3000
Porque si nuestro objetivo es entender al mundo,
03:08
to seekbuscar a deeperMás adentro understandingcomprensión of the worldmundo,
61
170000
2000
la búsqueda de un entendimiento más profundo del mundo,
03:10
our generalgeneral lackausencia of moralmoral diversitydiversidad here is going to make it harderMás fuerte.
62
172000
3000
nuestra falta general de diversidad moral aqui, lo va a hacer más dificil.
03:13
Because when people all sharecompartir valuesvalores, when people all sharecompartir moralsmoralidad,
63
175000
4000
Porque cuando la gente comparte valores, cuando la gente comparte la moral,
03:17
they becomevolverse a teamequipo, and onceuna vez you engagecontratar the psychologypsicología of teamsequipos,
64
179000
3000
se convierten en equipo, y una vez que se entabla la sicología de equipo,
03:20
it shutscierra down open-mindedmente abierta thinkingpensando.
65
182000
2000
se cierra el pensamiento de mente abierta.
03:25
When the liberalliberal teamequipo losespierde, as it did in 2004,
66
187000
4000
Cuando el equipo liberal pierde, como lo hizo en el 2004,
03:29
and as it almostcasi did in 2000, we comfortcomodidad ourselvesNosotros mismos.
67
191000
4000
y como casi lo hizo en el 2000, nos consolamos.
03:33
(LaughterRisa)
68
195000
2000
(Risas)
03:35
We try to explainexplique why halfmitad of AmericaAmerica votedvotado for the other teamequipo.
69
197000
4000
Tratamos de explicar por qué la mitad de América votó por el otro equipo.
03:39
We think they mustdebe be blindedcegado by religionreligión, or by simplesencillo stupidityestupidez.
70
201000
5000
Pensamos que deben estar cegados por la religión, o por simple estupidez.
03:44
(LaughterRisa)
71
206000
3000
(Risas)
03:47
(ApplauseAplausos)
72
209000
8000
(Aplausos)
03:55
So, if you think that halfmitad of AmericaAmerica votesvotos RepublicanRepublicano
73
217000
6000
Por lo tanto, si piensan que la mitad de América vota Republicano
04:01
because they are blindedcegado in this way,
74
223000
3000
porque están cegados de esta manera,
04:04
then my messagemensaje to you is that you're trappedatrapado in a moralmoral matrixmatriz,
75
226000
3000
entonces mi mensaje para ustedes es que están atrapados en una matrix moral,
04:07
in a particularespecial moralmoral matrixmatriz.
76
229000
1000
en una matrix moral en particular,
04:08
And by the matrixmatriz, I mean literallyliteralmente the matrixmatriz, like the moviepelícula "The MatrixMatriz."
77
230000
4000
Y al decir matrix, me refiero literalmente a la matrix como en la pelicula " Matrix."
04:12
But I'm here todayhoy to give you a choiceelección.
78
234000
2000
Pero me encuentro aquí hoy para ofrecerles una opción.
04:14
You can eitherya sea take the blueazul pillpíldora and stickpalo to your comfortingconsolador delusionsilusiones,
79
236000
4000
Pueden tomar la píldora azul y aferrarse a sus engaños reconfortantes,
04:18
or you can take the redrojo pillpíldora,
80
240000
2000
o pueden tomar la pildora roja,
04:20
learnaprender some moralmoral psychologypsicología and steppaso outsidefuera de the moralmoral matrixmatriz.
81
242000
3000
aprender algo de sicología moral y dar un paso fuera de la matrix moral.
04:23
Now, because I know --
82
245000
2000
Ahora, porque yo sé --
04:25
(ApplauseAplausos) --
83
247000
3000
(Aplausos)
04:28
OK, I assumeasumir that answersrespuestas my questionpregunta.
84
250000
2000
Ok, supongo que eso contesta mi pregunta.
04:30
I was going to askpedir you whichcual one you pickedescogido, but no need.
85
252000
2000
Yo iba a preguntarles cual escogieron, pero no hay necesidad.
04:32
You're all highalto in opennessfranqueza to experienceexperiencia, and besidesademás,
86
254000
2000
Estan todos elevados en apertura a la experiencia, y a parte,
04:34
it looksmiradas like it mightpodría even tastegusto good, and you're all epicuresepicúreos.
87
256000
3000
parece que inclusive sabe bien, y todos ustedes son sibaritas.
04:37
So anywayde todas formas, let's go with the redrojo pillpíldora.
88
259000
2000
Asi que, de todos modos, tomemos la píldora roja.
04:39
Let's studyestudiar some moralmoral psychologypsicología and see where it takes us.
89
261000
2000
Estudiemos un poco de sicología moral a ver a donde nos lleva.
04:41
Let's startcomienzo at the beginningcomenzando.
90
263000
2000
Empecemos por el principio.
04:43
What is moralitymoralidad and where does it come from?
91
265000
2000
¿Qué es moralidad y de dónde viene?
04:45
The worstpeor ideaidea in all of psychologypsicología
92
267000
2000
La peor idea en toda la sicología
04:47
is the ideaidea that the mindmente is a blankblanco slatepizarra at birthnacimiento.
93
269000
3000
es la idea de que la mente está en blanco al nacer.
04:50
DevelopmentalDe desarrollo psychologypsicología has shownmostrado
94
272000
2000
La sicología del Desarrollo ha demostrado
04:52
that kidsniños come into the worldmundo alreadyya knowingconocimiento so much
95
274000
2000
que los niños entran al mundo ya sabiendo tanto
04:54
about the physicalfísico and socialsocial worldsmundos,
96
276000
2000
acerca del mundo físico y social,
04:56
and programmedprogramado to make it really easyfácil for them to learnaprender certaincierto things
97
278000
4000
y programados para que les sea fácil aprender ciertas cosas
05:00
and harddifícil to learnaprender othersotros.
98
282000
1000
y difícil aprender otras.
05:01
The bestmejor definitiondefinición of innatenessinnato I've ever seenvisto --
99
283000
2000
La mejor definición del estado innato que yo he visto --
05:03
this just clarifiesaclara so manymuchos things for me --
100
285000
2000
esto clarifica tantas cosas para mi --
05:05
is from the braincerebro scientistcientífico GaryGary MarcusMarcus.
101
287000
2000
es la del científico cerebral Gary Marcus.
05:07
He saysdice, "The initialinicial organizationorganización of the braincerebro does not dependdepender that much on experienceexperiencia.
102
289000
5000
El dice, "La organización inicial del cerebro no depende tanto de la experiencia.
05:12
NatureNaturaleza providesproporciona a first draftborrador, whichcual experienceexperiencia then revisesrevisa.
103
294000
3000
La naturaleza provee el primer borrador, el cual es revisado luego por la experiencia.
05:15
Built-inIncorporado doesn't mean unmalleableunmalleable;
104
297000
2000
Inherente no significa que no sea maleable;
05:17
it meansmedio organizedorganizado in advanceavanzar of experienceexperiencia."
105
299000
3000
significa organizado anteriormente a la experiencia."
05:20
OK, so what's on the first draftborrador of the moralmoral mindmente?
106
302000
2000
OK, entonces, ¿qué hay en el primer borrador de la mente moral?
05:22
To find out, my colleaguecolega, CraigCraig JosephJoseph, and I
107
304000
3000
Para averiguarlo, mi colega Craig Joseph y yo
05:25
readleer throughmediante the literatureliteratura on anthropologyantropología,
108
307000
2000
leímos, a través de la literatura, sobre antropología,
05:27
on culturecultura variationvariación in moralitymoralidad
109
309000
2000
sobre las variaciones de moralidad en las culturas
05:29
and alsoademás on evolutionaryevolutivo psychologypsicología, looking for matchespartidos.
110
311000
2000
y también sobre sicología evolucionaria, buscando compatibilidades.
05:31
What are the sortstipo of things that people talk about acrossa través de disciplinesdisciplinas?
111
313000
3000
¿De qué tipo de cosa hablan las personas a través de las disciplinas
05:34
That you find acrossa través de culturesculturas and even acrossa través de speciesespecies?
112
316000
2000
que uno encuentra a través de las culturas e inclusive las especies?
05:36
We foundencontró fivecinco -- fivecinco bestmejor matchespartidos,
113
318000
2000
Encontramos cinco -- los cinco más compatibles,
05:38
whichcual we call the fivecinco foundationscimientos of moralitymoralidad.
114
320000
2000
los cuales llamamos los cinco pilares de la moralidad.
05:40
The first one is harmdaño/carecuidado.
115
322000
2000
El primero es daño-cuidado.
05:42
We're all mammalsmamíferos here, we all have a lot of neuralneural and hormonalhormonal programmingprogramación
116
324000
4000
Somos todos mamíferos, tenemos mucha programación neuronal y hormonal
05:46
that makeshace us really bondenlace with othersotros, carecuidado for othersotros,
117
328000
2000
que nos hace vincularnos verdaderamente con los otros, preocuparnos por otros,
05:48
feel compassioncompasión for othersotros, especiallyespecialmente the weakdébiles and vulnerablevulnerable.
118
330000
3000
sentir compasión por otros, sobre todo los débiles y vulnerables.
05:51
It givesda us very strongfuerte feelingssentimientos about those who causeporque harmdaño.
119
333000
3000
Nos produce sentimientos intensos por aquellos que causan daño.
05:54
This moralmoral foundationFundación underliessubyacente about 70 percentpor ciento
120
336000
3000
Este pilar moral es la base de alrededor del 70 por ciento
05:57
of the moralmoral statementsdeclaraciones I've heardoído here at TEDTED.
121
339000
2000
de las declaraciones morales que he escuchado aqui en TED.
05:59
The secondsegundo foundationFundación is fairnessjusticia/reciprocityreciprocidad.
122
341000
3000
El segundo pilar es igualdad-reciprocidad.
06:02
There's actuallyactualmente ambiguousambiguo evidenceevidencia
123
344000
2000
De hecho, hay evidencia ambigua
06:04
as to whethersi you find reciprocityreciprocidad in other animalsanimales,
124
346000
2000
de si se puede encontrar reciprocidad en otros animales,
06:06
but the evidenceevidencia for people could not be clearermás claro.
125
348000
2000
pero la evidencia del ser humano no puede ser más clara.
06:08
This Normannormando RockwellRockwell paintingpintura is calledllamado "The GoldenDorado RuleRegla,"
126
350000
2000
Esta pintura de Norman Rockwell se titula "La Regla de Oro",
06:10
and we heardoído about this from KarenKaren ArmstrongArmstrong, of coursecurso,
127
352000
2000
y hemos escuchado al respecto a través de Karen Armstrong, por supuesto,
06:12
as the foundationFundación of so manymuchos religionsreligiones.
128
354000
3000
como es el fundamento de tantas religiones.
06:15
That secondsegundo foundationFundación underliessubyacente the other 30 percentpor ciento
129
357000
2000
Ese segundo pilar es la base del otro 30 por ciento
06:17
of the moralmoral statementsdeclaraciones I've heardoído here at TEDTED.
130
359000
2000
de las declaraciones morales que he escuchado aqui en TED.
06:19
The thirdtercero foundationFundación is in-groupen grupo/loyaltylealtad.
131
361000
2000
El tercer pilar es la lealtad de grupo.
06:21
You do find groupsgrupos in the animalanimal kingdomReino --
132
363000
2000
Uno encuentra grupos en el reino animal --
06:23
you do find cooperativecooperativa groupsgrupos --
133
365000
2000
uno encuentra grupos cooperativos --
06:25
but these groupsgrupos are always eitherya sea very smallpequeña or they're all siblingshermanos.
134
367000
3000
pero estos grupos son siempre o bien pequeños o son todos parientes.
06:28
It's only amongentre humanshumanos that you find very largegrande groupsgrupos of people
135
370000
3000
Solamente entre los humanos encontramos grupos grandes de personas
06:31
who are ablepoder to cooperatecooperar, joinunirse togetherjuntos into groupsgrupos,
136
373000
3000
que son capaces de cooperar, unirse en grupos --
06:34
but in this casecaso, groupsgrupos that are unitedunido to fightlucha other groupsgrupos.
137
376000
4000
pero en este caso, grupos unidos para luchar contra otros grupos.
06:38
This probablyprobablemente comesproviene from our long historyhistoria of tribaltribal livingvivo, of tribaltribal psychologypsicología.
138
380000
4000
Esto probablemente proviene de nuestra larga historia de convivencia tribal, de sicología tribal.
06:42
And this tribaltribal psychologypsicología is so deeplyprofundamente pleasurableagradable
139
384000
2000
Y esta sicología tribal es tan profundamente placentera
06:44
that even when we don't have tribestribus,
140
386000
2000
que inclusive cuando no tenemos tribus,
06:46
we go aheadadelante and make them, because it's fundivertido.
141
388000
3000
las formamos porque es divertido.
06:49
(LaughterRisa)
142
391000
3000
(Risas)
06:52
SportsDeportes is to warguerra as pornographypornografía is to sexsexo.
143
394000
3000
Los deportes son a la guerra lo que la pornografía es al sexo.
06:55
We get to exerciseejercicio some ancientantiguo, ancientantiguo drivesunidades.
144
397000
3000
Podemos ejercitar algunos instintos muy, muy antiguos.
06:58
The fourthcuarto foundationFundación is authorityautoridad/respectel respeto.
145
400000
3000
El cuarto pilar es autoridad-respeto.
07:01
Here you see submissivesumiso gesturesgestos from two membersmiembros of very closelycercanamente relatedrelacionado speciesespecies.
146
403000
3000
Aqui observamos gestos de sumisión de dos miembros de especies muy extrechamente relacionadas --
07:04
But authorityautoridad in humanshumanos is not so closelycercanamente basedbasado on powerpoder and brutalitybrutalidad,
147
406000
4000
pero la autoridad en los humanos no está tan estrechamente basada en el poder y la brutalidad,
07:08
as it is in other primatesprimates.
148
410000
2000
como lo es en otros primates.
07:10
It's basedbasado on more voluntaryvoluntario deferencedeferencia,
149
412000
2000
Esta basado en un respeto más voluntario,
07:12
and even elementselementos of love, at timesveces.
150
414000
2000
e inclusive, a veces, en elementos de amor.
07:14
The fifthquinto foundationFundación is puritypureza/sanctitysantidad.
151
416000
2000
El quinto pilar es pureza-santidad.
07:16
This paintingpintura is calledllamado "The AllegoryAlegoría Of ChastityCastidad,"
152
418000
3000
Esta pintura se titula "La Alegoria de la Castidad,"
07:19
but purity'spureza not just about suppressingsuprimiendo femalehembra sexualitysexualidad.
153
421000
3000
pero pureza no es solamente la supresión de la sexualidad femenina.
07:22
It's about any kindtipo of ideologyideología, any kindtipo of ideaidea
154
424000
3000
Es sobre cualquier tipo de ideología, cualquier tipo de idea
07:25
that tellsdice you that you can attainalcanzar virtuevirtud
155
427000
2000
que nos diga que podemos obtener virtud
07:27
by controllingcontrolador what you do with your bodycuerpo,
156
429000
1000
controlando lo que hacemos con nuestro cuerpo,
07:28
by controllingcontrolador what you put into your bodycuerpo.
157
430000
2000
controlando lo que introducimos en nuestro sistema.
07:30
And while the politicalpolítico right maymayo moralizemoralizar sexsexo much more,
158
432000
4000
Y mientras la derecha política puede moralizar el sexo mucho más,
07:34
the politicalpolítico left is really doing a lot of it with foodcomida.
159
436000
2000
la izquierda política lo esta haciendo realmente bastante con la comida.
07:36
FoodComida is becomingdevenir extremelyextremadamente moralizedmoralizado nowadayshoy en día,
160
438000
2000
El alimento se esta convirtiendo en algo extremadamente moralizado hoy en día,
07:38
and a lot of it is ideasideas about puritypureza,
161
440000
2000
y mucho de ello son ideas sobre pureza,
07:40
about what you're willingcomplaciente to touchtoque, or put into your bodycuerpo.
162
442000
3000
sobre lo que estamos dispuestos a tocar o introducir en nuestro cuerpo.
07:43
I believe these are the fivecinco bestmejor candidatescandidatos
163
445000
3000
Yo creo que estos son los cinco mejores candidatos
07:46
for what's writtenescrito on the first draftborrador of the moralmoral mindmente.
164
448000
2000
para lo que está escrito en el primer borrador de la mente moral.
07:48
I think this is what we come with, at leastmenos
165
450000
1000
Yo creo que esto es al menos con lo que contamos,
07:49
a preparednesspreparación to learnaprender all of these things.
166
451000
3000
una preparación para aprender todas estas cosas.
07:52
But as my sonhijo, MaxMax, growscrece up in a liberalliberal collegeUniversidad townpueblo,
167
454000
3000
Pero mientras mi hijo Max crece en un pueblo universitario liberal,
07:56
how is this first draftborrador going to get revisedrevisado?
168
458000
2000
¿cómo va a ser revisado este primer borrador?
07:58
And how will it endfin up beingsiendo differentdiferente
169
460000
2000
Y ¿cómo va a terminar siendo diferente
08:00
from a kidniño bornnacido 60 milesmillas southsur of us in LynchburgLynchburg, VirginiaVirginia?
170
462000
3000
del joven nacido a 60 millas al sur de nosotros en Lynchburg, Virginia?
08:03
To think about culturecultura variationvariación, let's try a differentdiferente metaphormetáfora.
171
465000
2000
Para pensar sobre variación cultural, probemos una metáfora distinta.
08:05
If there really are fivecinco systemssistemas at work in the mindmente --
172
467000
3000
Si hay en realidad cinco sistemas trabajando en la mente --
08:08
fivecinco sourcesfuentes of intuitionsintuiciones and emotionsemociones --
173
470000
2000
cinco fuentes de intuiciones y emociones --
08:10
then we can think of the moralmoral mindmente
174
472000
2000
entonces podemos pensar que la mente moral
08:12
as beingsiendo like one of those audioaudio equalizersecualizadores that has fivecinco channelscanales,
175
474000
2000
es como si fuese un ecualizador de audio con cinco canales,
08:14
where you can setconjunto it to a differentdiferente settingajuste on everycada channelcanal.
176
476000
2000
que puede ser programado en una posición diferente en cada canal.
08:16
And my colleaguescolegas, BrianBrian NosekNosek and JesseJesse GrahamGraham, and I,
177
478000
3000
Mis colegas, Brian Nosek y Jesse Graham y yo,
08:19
madehecho a questionnairecuestionario, whichcual we put up on the WebWeb at wwwwww.YourMoralsYourMorals.orgorg.
178
481000
5000
hicimos un cuestionario, que colocamos en la Web en www.YourMorals.org.
08:24
And so farlejos, 30,000 people have takentomado this questionnairecuestionario, and you can too.
179
486000
5000
Y hasta ahora, 30,000 personas han contestado el cuestionario, y ustedes también pueden hacerlo.
08:29
Here are the resultsresultados.
180
491000
1000
Aquí están los resultados.
08:30
Here are the resultsresultados from about 23,000 Americanamericano citizenslos ciudadanos.
181
492000
3000
Aquí están los resultados de alrededor de 23,000 ciudadanos Americanos.
08:33
On the left, I've plottedtramado the scorespuntuaciones for liberalsliberales;
182
495000
2000
A la izquierda he representado los resultados liberales,
08:35
on the right, those for conservativesconservadores; in the middlemedio, the moderatesmoderado.
183
497000
2000
a la derecha aquellos conservadores, en el centro los moderados.
08:37
The blueazul linelínea showsmuestra you people'sla gente responsesrespuestas
184
499000
2000
La línea azul muestra las respuestas de ustedes
08:39
on the averagepromedio of all the harmdaño questionspreguntas.
185
501000
2000
en promedio a todas las preguntas de daño.
08:41
So, as you see, people carecuidado about harmdaño and carecuidado issuescuestiones.
186
503000
3000
Asi que, como pueden ver, la gente se preocupa por temas de daño y cuidado.
08:44
They give highalto endorsementaprobación of these sortstipo of statementsdeclaraciones
187
506000
2000
Le dan alta aprobación a estos tipos de declaraciones
08:46
all acrossa través de the boardtablero, but as you alsoademás see,
188
508000
2000
por igual en toda la pizarra, pero como también pueden ver,
08:48
liberalsliberales carecuidado about it a little more than conservativesconservadores -- the linelínea slopespendientes down.
189
510000
3000
los liberales se preocupan un poco más que los conservadores, la línea desciende.
08:51
SameMismo storyhistoria for fairnessjusticia.
190
513000
2000
La misma historia para la justicia.
08:53
But look at the other threeTres lineslíneas.
191
515000
2000
Pero observen las otras tres líneas,
08:55
For liberalsliberales, the scorespuntuaciones are very lowbajo.
192
517000
2000
para los liberales los resultados son muy bajos.
08:57
LiberalsLiberales are basicallybásicamente sayingdiciendo, "No, this is not moralitymoralidad.
193
519000
2000
Los liberales están basicamente diciendo, "No, esto no es moralidad.
08:59
In-groupEn grupo, authorityautoridad, puritypureza -- this stuffcosas has nothing to do with moralitymoralidad. I rejectrechazar it."
194
521000
3000
autoridad, unidad de grupo, pureza -- eso no tiene nada que ver con moralidad. Lo rechazo."
09:02
But as people get more conservativeconservador, the valuesvalores risesubir.
195
524000
2000
Pero según la gente se hace más conservadora, los valores aumentan.
09:04
We can say that liberalsliberales have a kindtipo of a two-channeldos canales,
196
526000
3000
Podemos decir que los liberales tienen -- dos canales,
09:07
or two-foundationdos fundaciones moralitymoralidad.
197
529000
1000
o una moralidad de pilar doble.
09:08
ConservativesConservadores have more of a five-foundationcinco fundaciones,
198
530000
2000
Los conservadores tienen un pilar quintuple,
09:10
or five-channelcinco canales moralitymoralidad.
199
532000
2000
o una moralidad de cinco canales.
09:12
We find this in everycada countrypaís we look at.
200
534000
1000
Encontramos esto en cada país que observamos.
09:13
Here'sAquí está the datadatos for 1,100 CanadiansCanadienses.
201
535000
2000
Estas son las estadísticas de 1,100 Canadienses.
09:15
I'll just flipdar la vuelta throughmediante a fewpocos other slidesdiapositivas.
202
537000
2000
Voy a mostrar algunas otras diapositivas.
09:17
The U.K., AustraliaAustralia, NewNuevo ZealandZelanda, Westernoccidental EuropeEuropa, EasternOriental EuropeEuropa,
203
539000
3000
El Reino Unido, Australia, Nueva Zelandia, Europa Occidental, Europa Oriental,
09:20
Latinlatín AmericaAmerica, the MiddleMedio EastEste, EastEste AsiaAsia and SouthSur AsiaAsia.
204
542000
4000
America Latina, el Medio Oriente, Asia y Asia del Sur.
09:24
Noticedarse cuenta alsoademás that on all of these graphsgráficos,
205
546000
2000
Noten también que en todos estos gráficos,
09:26
the slopecuesta abajo is steepermás empinado on in-groupen grupo, authorityautoridad, puritypureza.
206
548000
3000
el declive es mayor en unidad de grupo, autoridad, pureza.
09:29
WhichCual showsmuestra that withindentro any countrypaís,
207
551000
2000
Lo cual demuestra que dentro de cualquier país,
09:31
the disagreementdesacuerdo isn't over harmdaño and fairnessjusticia.
208
553000
3000
el desacuerdo no es sobre daño y justicia.
09:34
EverybodyTodos -- I mean, we debatedebate over what's fairjusta --
209
556000
2000
Todo el mundo -- Quiero decir, debatimos acerca de lo que es justo --
09:36
but everybodytodos agreesde acuerdo that harmdaño and fairnessjusticia matterimportar.
210
558000
3000
pero todos estamos de acuerdo en que daño y justicia son importantes.
09:39
MoralMoral argumentsargumentos withindentro culturesculturas
211
561000
2000
Los argumentos morales entre culturas
09:41
are especiallyespecialmente about issuescuestiones of in-groupen grupo, authorityautoridad, puritypureza.
212
563000
3000
son especialmente sobre asuntos de unidad de grupo, autoridad, pureza.
09:44
This effectefecto is so robustrobusto that we find it no matterimportar how we askpedir the questionpregunta.
213
566000
3000
Este efecto es tan robusto que lo encontramos no importa como presentemos la pregunta.
09:47
In one recentreciente studyestudiar,
214
569000
2000
En un estudio reciente,
09:49
we askedpreguntó people to supposesuponer you're about to get a dogperro.
215
571000
2000
preguntamos a la gente, supongan que están a punto de adquirir un perro.
09:51
You pickedescogido a particularespecial breedraza,
216
573000
1000
Escogen una raza en particular,
09:52
you learnedaprendido some newnuevo informationinformación about the breedraza.
217
574000
2000
aprenden información nueva sobre la raza.
09:54
SupposeSuponer you learnaprender that this particularespecial breedraza is independent-mindedmente independiente,
218
576000
3000
Supongan que aprenden que esta raza en particular es de mente independiente,
09:57
and relatesrelaciona to its ownerpropietario as a friendamigo and an equaligual?
219
579000
2000
y se relaciona con su amo como amigo e igual.
09:59
Well, if you are a liberalliberal, you say, "Hey, that's great!"
220
581000
2000
Bien, si eres liberal dices, "Hey, eso es genial!"
10:01
Because liberalsliberales like to say, "FetchHa podido recuperar, please."
221
583000
2000
porque a los liberales les gusta decir "Traelo, por favor."
10:03
(LaughterRisa)
222
585000
4000
(Risas)
10:08
But if you're conservativeconservador, that's not so attractiveatractivo.
223
590000
3000
Pero si eres conservador, no es tan atractivo.
10:11
If you're conservativeconservador, and you learnaprender that a dog'sperros extremelyextremadamente loyalleal
224
593000
3000
Si eres conservador, y aprendes que un perro es extremadamente leal
10:14
to its home and familyfamilia, and doesn't warmcalentar up quicklycon rapidez to strangersextraños,
225
596000
2000
a su hogar y familia, y que no se da rapidamente con extraños,
10:16
for conservativesconservadores, well, loyaltylealtad is good -- dogsperros oughtdebería to be loyalleal.
226
598000
3000
para los conservadores -- bien, la lealtad es buena -- los perros deben ser leales.
10:19
But to a liberalliberal, it soundssonidos like this dogperro
227
601000
2000
Pero para un liberal, suena como que este perro
10:21
is runningcorriendo for the RepublicanRepublicano nominationnominación.
228
603000
2000
esta corriendo para la nominación Republicana.
10:23
(LaughterRisa)
229
605000
1000
(Risas)
10:24
So, you mightpodría say, OK,
230
606000
2000
Por lo tanto, pueden decir, OK,
10:26
there are these differencesdiferencias betweenEntre liberalsliberales and conservativesconservadores,
231
608000
2000
existen estas diferencias entre liberales y conservadores,
10:28
but what makeshace those threeTres other foundationscimientos moralmoral?
232
610000
2000
pero ¿qué hace a esos tres otros pilares ser morales?
10:30
Aren'tNo son those just the foundationscimientos of xenophobiaxenofobia
233
612000
2000
¿No son esos precisamente los fundamentos de la xenofobia
10:32
and authoritarianismautoritarismo and Puritanismpuritanismo?
234
614000
2000
el autoritarismo y Puritanismo?
10:34
What makeshace them moralmoral?
235
616000
1000
¿Qué los hace morales?
10:35
The answerresponder, I think, is containedcontenido in this incredibleincreíble triptychtríptico from HieronymusHieronymus BoschBosch,
236
617000
3000
La respuesta, creo, está contenida en este tríptico increíble de Hieronymus Bosch,
10:38
"The GardenJardín of EarthlyTerrenal DelightsDelicias."
237
620000
2000
"El Jardín de las Delicias Terrenales."
10:40
In the first panelpanel, we see the momentmomento of creationcreación.
238
622000
3000
En el primer panel vemos el momento de la creación.
10:43
All is orderedordenado, all is beautifulhermosa, all the people and animalsanimales
239
625000
4000
Todo esta en orden, todo es bello, toda la gente y los animales
10:47
are doing what they're supposedsupuesto to be doing, where they're supposedsupuesto to be.
240
629000
3000
estan haciendo lo que se supone deben hacer, estan donde se supone deben estar.
10:50
But then, givendado the way of the worldmundo, things changecambio.
241
632000
3000
Pero entonces, dado el modo del mundo, las cosas cambian.
10:53
We get everycada personpersona doing whateverlo que sea he wants,
242
635000
2000
Tenemos a cada persona haciendo lo que quiere,
10:55
with everycada apertureabertura of everycada other personpersona and everycada other animalanimal.
243
637000
3000
con cada orificio de cada otra persona y cada otro animal.
10:58
Some of you mightpodría recognizereconocer this as the '60s.
244
640000
2000
Algunos de ustedes puede que reconozcan esto como los años 60.
11:00
(LaughterRisa)
245
642000
1000
(Risas)
11:01
But the '60s inevitablyinevitablemente givesda way to the '70s,
246
643000
4000
Pero los 60 inevitablemente dan paso a los 70,
11:05
where the cuttingsesquejes of the aperturesaberturas hurtherir a little bitpoco more.
247
647000
4000
donde los cortes de los orificios duelen un poco más.
11:09
Of coursecurso, BoschBosch calledllamado this hellinfierno.
248
651000
2000
Por supuesto, Bosch llamo a esto El Infierno.
11:11
So this triptychtríptico, these threeTres panelspaneles
249
653000
3000
Por lo tanto este tríptico, estos tres paneles,
11:14
portrayretratar the timelesseterno truthverdad that orderorden tendstiende to decaydecaer.
250
656000
5000
describen la eterna verdad que el orden tiende a deteriorar.
11:19
The truthverdad of socialsocial entropyentropía.
251
661000
2000
La verdad de la entropía social.
11:21
But lestpara que no you think this is just some partparte of the Christiancristiano imaginationimaginación
252
663000
3000
Pero al menos que piensen que esto es sólo una parte de la imaginación cristiana
11:24
where ChristiansCristianos have this weirdextraño problemproblema with pleasurePlacer,
253
666000
2000
donde los cristianos tienen este problema raro con el placer,
11:26
here'saquí está the samemismo storyhistoria, the samemismo progressionprogresión,
254
668000
3000
aquí está la misma historia, la misma progresión,
11:29
told in a paperpapel that was publishedpublicado in NatureNaturaleza a fewpocos yearsaños agohace,
255
671000
3000
narrada en un documento que fue publicado en la revista Nature hace unos años,
11:32
in whichcual ErnstErnst FehrFehr and SimonSimon GachterGachter had people playjugar a commonslos comunes dilemmadilema.
256
674000
4000
en el cual Ernst Fehr y Simon Gachter hicieron a la gente jugar con un dilema comun.
11:36
A gamejuego in whichcual you give people moneydinero,
257
678000
2000
un juego en el cual le das dinero a la gente,
11:38
and then, on eachcada roundredondo of the gamejuego,
258
680000
2000
y entonces en cada ronda del juego,
11:40
they can put moneydinero into a commoncomún potmaceta,
259
682000
2000
ellos pueden colocar dinero en un contenedor común,
11:42
and then the experimenterexperimentador doublesdobles what's in there,
260
684000
2000
y entonces el experimentador dobla lo que hay,
11:44
and then it's all divideddividido amongentre the playersjugadores.
261
686000
2000
y es dividido entre los jugadores.
11:46
So it's a really nicebonito analogcosa análoga for all sortstipo of environmentalambiental issuescuestiones,
262
688000
3000
Por lo tanto es una buena analogía para todo tipo de problemas medioambientales
11:49
where we're askingpreguntando people to make a sacrificesacrificio
263
691000
2000
donde le estamos pidiendo a la gente que hagan un sacrificio.
11:51
and they themselvessí mismos don't really benefitbeneficio from theirsu ownpropio sacrificesacrificio.
264
693000
2000
y ellos en si no se benefician verdaderamente de su propio sacrificio.
11:53
But you really want everybodytodos elsemás to sacrificesacrificio,
265
695000
2000
Pero quieren que todos los demás se sacrifiquen,
11:55
but everybodytodos has a temptationtentación to a freegratis ridepaseo.
266
697000
2000
pero todo el mundo tiene la tentación de un paseo gratis.
11:57
And what happenssucede is that, at first, people startcomienzo off reasonablyrazonablemente cooperativecooperativa --
267
699000
4000
y lo que ocurre es que al principio, la gente comienza cooperando razonablemente --
12:01
and this is all playedjugó anonymouslyanónimamente.
268
703000
2000
y todo esto es jugado anonimamente --
12:03
On the first roundredondo, people give about halfmitad of the moneydinero that they can.
269
705000
3000
en la primera ronda, la gente da al rededor de la mitad del dinero que pueden dar.
12:06
But they quicklycon rapidez see, "You know what, other people aren'tno son doing so much thoughaunque.
270
708000
3000
Pero enseguida ven, "Sabes que, otros no estan dando tanto.
12:09
I don't want to be a suckerventosa. I'm not going to cooperatecooperar."
271
711000
2000
No quiero ser un bobo. No voy a cooperar."
12:11
And so cooperationcooperación quicklycon rapidez decaysdecae from reasonablyrazonablemente good, down to closecerca to zerocero.
272
713000
4000
Y por consiguiente la cooperación pronto declina de razonablemente buena a casi cero.
12:15
But then -- and here'saquí está the tricktruco --
273
717000
2000
Pero entonces -- y aquí está el truco --
12:17
FehrFehr and GachterGachter said, on the seventhséptimo roundredondo, they told people,
274
719000
2000
Fehr y Gachter dicen -- en la séptima ronda le dijeron a la gente,
12:19
"You know what? NewNuevo ruleregla.
275
721000
2000
"¿Saben qué? Regla nueva.
12:21
If you want to give some of your ownpropio moneydinero
276
723000
2000
Si quieren dar algo de su propio dinero
12:23
to punishcastigar people who aren'tno son contributingcontribuyendo, you can do that."
277
725000
4000
para castigar a los que no están contribuyendo, pueden hacerlo."
12:27
And as soonpronto as people heardoído about the punishmentcastigo issueproblema going on,
278
729000
3000
Y tan pronto como la gente supo sobre la situación de castigo,
12:30
cooperationcooperación shootsbrotes up.
279
732000
2000
la cooperación creció con rapidez.
12:32
It shootsbrotes up and it keepsmantiene going up.
280
734000
2000
Se dispara y continúa creciendo.
12:34
There's a lot of researchinvestigación showingdemostración that to solveresolver cooperativecooperativa problemsproblemas, it really helpsayuda.
281
736000
3000
Hay gran cantidad de investigación que muestra que realmente ayuda para resolver problemas de cooperación.
12:37
It's not enoughsuficiente to just appealapelación to people'sla gente good motivesmotivos.
282
739000
2000
No es suficiente sólo apelar a los buenos motivos de la gente,
12:39
It really helpsayuda to have some sortordenar of punishmentcastigo.
283
741000
2000
verdaderamente ayuda tener algún tipo de castigo.
12:41
Even if it's just shamevergüenza or embarrassmentvergüenza or gossipchisme,
284
743000
2000
Inclusive cuando sea sólo verguenza, bochorno o chisme,
12:43
you need some sortordenar of punishmentcastigo to bringtraer people,
285
745000
3000
necesitamos algún tipo de castigo para lograr que la gente,
12:46
when they're in largegrande groupsgrupos, to cooperatecooperar.
286
748000
2000
cuando estén en grupos grandes, cooperen.
12:48
There's even some recentreciente researchinvestigación suggestingsugerencia that religionreligión --
287
750000
3000
Inclusive hay investigaciones recientes que sugieren que la religión --
12:51
primingcebado God, makingfabricación people think about God --
288
753000
2000
primando a Dios, hacer que la gente piense en Dios --
12:53
oftena menudo, in some situationssituaciones, leadsconduce to more cooperativecooperativa, more pro-socialpro-social behaviorcomportamiento.
289
755000
5000
a menudo, en algunos casos conlleva a más cooperación, mayor comportamiento pro-social.
12:59
Some people think that religionreligión is an adaptationadaptación
290
761000
2000
Algunas personas piensan que la religión es una adaptación
13:01
evolvedevolucionado bothambos by culturalcultural and biologicalbiológico evolutionevolución
291
763000
2000
desarrollada de una evolución cultural y biológica
13:03
to make groupsgrupos to cohereadherirse,
292
765000
2000
para lograr que los grupos se cohesionen,
13:05
in partparte for the purposepropósito of trustingconfiando eachcada other,
293
767000
2000
en parte con el propósito de confiar los unos en los otros,
13:07
and then beingsiendo more effectiveeficaz at competingcompitiendo with other groupsgrupos.
294
769000
2000
y por lo tanto ser más efectivos en la competencia con otros grupos.
13:09
I think that's probablyprobablemente right,
295
771000
1000
Yo pienso que esto es probablemente correcto,
13:10
althougha pesar de que this is a controversialpolémico issueproblema.
296
772000
2000
a pesar de que es un tema controversial.
13:12
But I'm particularlyparticularmente interestedinteresado in religionreligión,
297
774000
2000
Pero estoy particularmente interesado en la religión,
13:14
and the originorigen of religionreligión, and in what it does to us and for us.
298
776000
3000
y el origen de la religión, en lo que hace con nosotros y por nosotros.
13:17
Because I think that the greatestmejor wonderpreguntarse in the worldmundo is not the Grandgrandioso CanyonCañón.
299
779000
4000
Porque pienso que la maravilla más grande de este mundo no es el Gran Cañón.
13:21
The Grandgrandioso CanyonCañón is really simplesencillo.
300
783000
2000
El Gran Cañón es realmente simple.
13:23
It's just a lot of rockrock, and then a lot of wateragua and windviento, and a lot of time,
301
785000
3000
Es sencillamente mucha roca, y luego mucha agua y viento, y mucho tiempo,
13:26
and you get the Grandgrandioso CanyonCañón.
302
788000
2000
y obtenemos el Gran Cañón.
13:28
It's not that complicatedComplicado.
303
790000
1000
No es tan complicado.
13:29
This is what's really complicatedComplicado,
304
791000
2000
Esto es lo que es verdaderamente complicado,
13:31
that there were people livingvivo in placeslugares like the Grandgrandioso CanyonCañón,
305
793000
2000
que había gente viviendo en sitios como el Gran Cañón,
13:33
cooperatingcooperando with eachcada other, or on the savannahssabanas of AfricaÁfrica,
306
795000
2000
cooperando unos con otros, o en las sabanas de Africa,
13:35
or on the frozencongelado shoresorillas of AlaskaAlaska, and then some of these villagesaldeas
307
797000
3000
o en las costas frias de Alaska, y entonces algunas de estas aldeas
13:38
grewcreció into the mightypoderoso citiesciudades of BabylonBabilonia, and RomeRoma, and TenochtitlanTenochtitlan.
308
800000
4000
se convirtieron en las poderosas ciudades de Babilonia, y Roma y Tenochtitlan.
13:42
How did this happenocurrir?
309
804000
1000
¿Cómo ocurrió esto?
13:43
This is an absoluteabsoluto miraclemilagro, much harderMás fuerte to explainexplique than the Grandgrandioso CanyonCañón.
310
805000
3000
Es un milagro absoluto, mucho más difícil de explicar que el Gran Cañón.
13:46
The answerresponder, I think, is that they used everycada toolherramienta in the toolboxcaja de instrumento.
311
808000
3000
La respuesta, creo, es que utilizaron todas las herramientas al alcance.
13:49
It tooktomó all of our moralmoral psychologypsicología
312
811000
2000
Hizo falta toda nuestra sicología moral
13:51
to createcrear these cooperativecooperativa groupsgrupos.
313
813000
2000
para crear estos grupos cooperativos.
13:53
Yes, you do need to be concernedpreocupado about harmdaño,
314
815000
2000
Si, es necesario preocuparse acerca del daño,
13:55
you do need a psychologypsicología of justicejusticia.
315
817000
1000
es necesaria una sicología de justicia.
13:56
But it really helpsayuda to organizeorganizar a groupgrupo if you can have sub-groupssubgrupos,
316
818000
3000
Pero verdaderamente ayuda a organizar un grupo si se pueden tener sub-grupos,
13:59
and if those sub-groupssubgrupos have some internalinterno structureestructura,
317
821000
3000
y si esos sub-grupos tienen alguna estructura interna,
14:02
and if you have some ideologyideología that tellsdice people
318
824000
2000
y si se tiene alguna ideología que le dice a la gente
14:04
to suppressreprimir theirsu carnalitysensualidad, to pursueperseguir highermayor, noblermás noble endstermina.
319
826000
4000
que supriman su carnalidad, para perseguir fines más elevados y nobles.
14:08
And now we get to the cruxquid of the disagreementdesacuerdo
320
830000
2000
Y ahora llegamos al núcleo del desacuerdo
14:10
betweenEntre liberalsliberales and conservativesconservadores.
321
832000
2000
entre liberales y conservadores.
14:12
Because liberalsliberales rejectrechazar threeTres of these foundationscimientos.
322
834000
2000
Porque los liberales rechazan tres de estos pilares.
14:14
They say "No, let's celebratecelebrar diversitydiversidad, not commoncomún in-groupen grupo membershipafiliación."
323
836000
3000
Ellos dicen "No, celebremos la diversidad, no membresias comunes de grupo."
14:17
They say, "Let's questionpregunta authorityautoridad."
324
839000
2000
Ellos dicen, "Cuestionemos la autoridad."
14:19
And they say, "Keep your lawsleyes off my bodycuerpo."
325
841000
2000
Y dicen, "Mantén tus leyes lejos de mi cuerpo."
14:21
LiberalsLiberales have very noblenoble motivesmotivos for doing this.
326
843000
3000
Los liberales tienen motivos muy nobles para hacer esto.
14:24
TraditionalTradicional authorityautoridad, traditionaltradicional moralitymoralidad can be quitebastante repressiverepresivo,
327
846000
3000
La autoridad tradicional, la moralidad tradicional, pueden ser bastante represivas,
14:27
and restrictiverestrictivo to those at the bottomfondo, to womenmujer, to people that don't fitajuste in.
328
849000
3000
y restrictivas para aquellos en el fondo, para las mujeres, para la gente que no encaja.
14:30
So liberalsliberales speakhablar for the weakdébiles and oppressedoprimido.
329
852000
2000
Por lo tanto los liberales hablan por los oprimidos y los débiles.
14:32
They want changecambio and justicejusticia, even at the riskriesgo of chaoscaos.
330
854000
2000
Quieren cambio y justicia, inclusive a riesgo de caos.
14:34
This guy'schico shirtcamisa saysdice, "Stop bitchingperra, startcomienzo a revolutionrevolución."
331
856000
3000
La camiseta de este tipo dice, "Para de quejarte, empieza una revolución."
14:37
If you're highalto in opennessfranqueza to experienceexperiencia, revolutionrevolución is good,
332
859000
2000
Si estas elevado en apertura a la experiencia, la revolución es buena,
14:39
it's changecambio, it's fundivertido.
333
861000
2000
es cambio, es divertido.
14:41
ConservativesConservadores, on the other handmano, speakhablar for institutionsinstituciones and traditionstradiciones.
334
863000
3000
Los conservadores, por otra parte, defienden las instituciones y tradiciones.
14:44
They want orderorden, even at some costcosto to those at the bottomfondo.
335
866000
4000
Quieren orden, inclusive al costo de aquellos en el fondo.
14:48
The great conservativeconservador insightvisión is that orderorden is really harddifícil to achievelograr.
336
870000
2000
La gran revelación conservadora es que el orden es realmente difícil de lograr.
14:50
It's really preciousprecioso, and it's really easyfácil to loseperder.
337
872000
3000
es verdaderamente preciado, y es realmente fácil de perder.
14:53
So as EdmundEdmund BurkeBurke said, "The restraintsrestricciones on menhombres,
338
875000
2000
Por lo tanto como dijo Edmund Burke, "Las restricciones del hombre
14:55
as well as theirsu libertieslibertades, are to be reckonedcontado amongentre theirsu rightsderechos."
339
877000
3000
tanto como sus libertades, deben ser consideradas entre sus derechos."
14:58
This was after the chaoscaos of the Frenchfrancés RevolutionRevolución.
340
880000
2000
Esto fue después del caos de la Revolucion Francesa.
15:00
So onceuna vez you see this -- onceuna vez you see
341
882000
2000
Una vez que ven esto -- una vez que ven
15:02
that liberalsliberales and conservativesconservadores bothambos have something to contributecontribuir,
342
884000
3000
que tanto liberales como conservadores tienen algo que contribuir,
15:05
that they formformar a balanceequilibrar on changecambio versusversus stabilityestabilidad --
343
887000
3000
que forman un balance en cuanto a cambio versus estabilidad --
15:08
then I think the way is openabierto to steppaso outsidefuera de the moralmoral matrixmatriz.
344
890000
3000
entonces pienso que el paso queda abierto para salir de la matrix moral.
15:11
This is the great insightvisión that all the Asianasiático religionsreligiones have attainedlogrado.
345
893000
5000
Esta es la gran revelación que todas las religiones de Asia han obtenido.
15:16
Think about yinyin and yangYang.
346
898000
2000
Piensen en el Yin y Yang.
15:18
YinYin and yangYang aren'tno son enemiesenemigos. YinYin and yangYang don't hateodio eachcada other.
347
900000
2000
Yin y Yang no son enemigos. Yin y Yang no se odian.
15:20
YinYin and yangYang are bothambos necessarynecesario, like night and day,
348
902000
2000
Yin y Yang son ambos necesarios, como el día y la noche,
15:22
for the functioningmarcha of the worldmundo.
349
904000
2000
para el funcionamiento del mundo.
15:24
You find the samemismo thing in Hinduismhinduismo.
350
906000
2000
Encontrarán lo mismo en el Hinduismo.
15:26
There are manymuchos highalto godsgallinero in Hinduismhinduismo.
351
908000
2000
Hay muchos dioses altos en el Hinduismo.
15:28
Two of them are VishnuVishnu, the preserverpreservador, and ShivaShiva, the destroyerdestructor.
352
910000
3000
Dos de ellos son Vishnu el conservador, y Shiva la destructora.
15:31
This imageimagen actuallyactualmente is bothambos of those godsgallinero sharingcompartiendo the samemismo bodycuerpo.
353
913000
3000
Esta imagen es ,de hecho, ambos dioses compartiendo el mismo cuerpo.
15:34
You have the markingsmarcas of VishnuVishnu on the left,
354
916000
2000
Tienen las características de Vishnu a la izquierda,
15:36
so we could think of VishnuVishnu as the conservativeconservador god.
355
918000
3000
por lo tanto podemos pensar en Vishnu como el dios conservador.
15:39
You have the markingsmarcas of ShivaShiva on the right,
356
921000
2000
Tienen las características de Shiva a la derecha,
15:41
Shiva'sShiva the liberalliberal god. And they work togetherjuntos.
357
923000
2000
Shiva es la diosa liberal -- y trabajan en conjunto.
15:43
You find the samemismo thing in BuddhismBudismo.
358
925000
2000
Encuentran lo mismo en el Buddhismo.
15:45
These two stanzasestrofas containContiene, I think, the deepestmás profundo insightsideas
359
927000
2000
Estas dos estrofas contienen, creo, las más profundas revelaciones
15:47
that have ever been attainedlogrado into moralmoral psychologypsicología.
360
929000
3000
que hayan sido obtenidas en la sicología moral.
15:50
From the Zenzen masterdominar Seng-ts'anSeng-ts'an:
361
932000
2000
Del maestro Zen Seng-ts'an:
15:52
"If you want the truthverdad to standestar clearclaro before you, never be for or againsten contra.
362
934000
4000
"Si quieres que la verdad se pose claramente frente a ti, nunca estes a favor o en contra,
15:56
The strugglelucha betweenEntre for and againsten contra is the mind'sla mente worstpeor diseaseenfermedad."
363
938000
4000
la lucha entre estar a favor o en contra es la peor enfermedad de la mente."
16:00
Now unfortunatelyDesafortunadamente, it's a diseaseenfermedad
364
942000
2000
Ahora desafortunadamente, es una enfermedad
16:02
that has been caughtatrapado by manymuchos of the world'smundo leaderslíderes.
365
944000
2000
que ha sido contraída por muchos líderes mundiales.
16:04
But before you feel superiorsuperior to GeorgeJorge BushArbusto,
366
946000
3000
Pero antes de que se sientan superiores a George Bush,
16:07
before you throwlanzar a stonepiedra, askpedir yourselftú mismo, do you acceptaceptar this?
367
949000
4000
antes de tirar la primera piedra, pregúntense: ¿Aceptas esto?
16:11
Do you acceptaceptar steppingcaminando out of the battlebatalla of good and evilmal?
368
953000
3000
¿Aceptas retirarte de la batalla entre el bien y el mal?
16:14
Can you be not for or againsten contra anything?
369
956000
3000
¿Puedes no estar a favor o en contra de nada?
16:18
So, what's the pointpunto? What should you do?
370
960000
3000
Entonces, ¿cuál es el punto? ¿Qué debo hacer?
16:21
Well, if you take the greatestmejor insightsideas
371
963000
2000
Bien, si tomamos las más grandes revelaciones
16:23
from ancientantiguo Asianasiático philosophiesfilosofías and religionsreligiones,
372
965000
2000
de las antiguas religiones y filosofías Asiáticas,
16:25
and you combinecombinar them with the latestúltimo researchinvestigación on moralmoral psychologypsicología,
373
967000
2000
y las combinamos con las más recientes investigaciones en sicología moral,
16:27
I think you come to these conclusionsconclusiones:
374
969000
2000
creo que llegarán a estas conclusiones:
16:29
that our righteousjusto mindsmentes were designeddiseñado by evolutionevolución
375
971000
4000
Que nuestras mentes rectas fueron diseñadas por la evolución
16:33
to uniteunir us into teamsequipos, to dividedividir us againsten contra other teamsequipos
376
975000
3000
para unirnos en equipos, para dividirnos en contra de otros equipos
16:36
and then to blindciego us to the truthverdad.
377
978000
2000
y entonces cegarnos a la verdad.
16:39
So what should you do? Am I tellingnarración you to not striveesforzarse?
378
981000
4000
Entonces, ¿qué debes hacer? ¿Te estoy diciendo que no te esfuerzes?
16:43
Am I tellingnarración you to embraceabrazo Seng-ts'anSeng-ts'an and stop,
379
985000
3000
¿Te estoy diciendo que acojas a Seng-ts'ab y ceses,
16:46
stop with this strugglelucha of for and againsten contra?
380
988000
3000
ceses la lucha entre estar a favor o en contra?
16:49
No, absolutelyabsolutamente not. I'm not sayingdiciendo that.
381
991000
2000
No, absolutamente no. No estoy diciendo eso.
16:51
This is an amazingasombroso groupgrupo of people who are doing so much,
382
993000
3000
Este es un grupo asombroso de personas que estan haciendo tanto,
16:54
usingutilizando so much of theirsu talenttalento, theirsu brilliancebrillantez, theirsu energyenergía, theirsu moneydinero,
383
996000
4000
utilizando tanto talento, genialidad, energia, dinero,
16:58
to make the worldmundo a better placelugar, to fightlucha --
384
1000000
2000
para hacer de este un mundo mejor, para luchar --
17:00
to fightlucha wrongserrores, to solveresolver problemsproblemas.
385
1002000
3000
batallar el mal, resolver problemas.
17:04
But as we learnedaprendido from SamanthaSamantha PowerPoder, in her storyhistoria
386
1006000
4000
Pero como aprendimos de Samantha Power en su historia
17:08
about SergioSergio VieiraVieira deDelaware MelloMello, you can't just go chargingcargando in,
387
1010000
5000
sobre Sergio Vieira de Mello, uno no puede embestir
17:13
sayingdiciendo, "You're wrongincorrecto, and I'm right."
388
1015000
2000
diciendo, "Tu estas equivocado, y yo tengo la razón."
17:15
Because, as we just heardoído, everybodytodos thinkspiensa they are right.
389
1017000
4000
Porque, como hemos escuchado, todo el mundo piensa que ellos tienen la razón.
17:19
A lot of the problemsproblemas we have to solveresolver
390
1021000
2000
Muchos de los problemas que tenemos que resolver
17:21
are problemsproblemas that requireexigir us to changecambio other people.
391
1023000
3000
son problemas que requieren que cambiemos a otros.
17:24
And if you want to changecambio other people, a much better way to do it
392
1026000
3000
Y si tu quieres cambiar a otros, una manera mucho mejor de hacerlo
17:27
is to first understandentender who we are -- understandentender our moralmoral psychologypsicología,
393
1029000
4000
es primero entender quienes somos -- entender nuestra sicología moral.
17:31
understandentender that we all think we're right -- and then steppaso out,
394
1033000
3000
entender que todos pensamos que tenemos la razón -- y entonces apartate --
17:34
even if it's just for a momentmomento, steppaso out -- checkcomprobar in with Seng-ts'anSeng-ts'an.
395
1036000
4000
inclusive si es sólo por un momento, apártate -- chequea con Seng-ts'am.
17:38
StepPaso out of the moralmoral matrixmatriz,
396
1040000
2000
Sal fuera de la matrix moral.
17:40
just try to see it as a strugglelucha playingjugando out,
397
1042000
2000
trata de verlo solamente como una lucha activa
17:42
in whichcual everybodytodos does think they're right,
398
1044000
2000
donde todos piensan que tienen razón,
17:44
and everybodytodos, at leastmenos, has some reasonsrazones -- even if you disagreediscrepar with them --
399
1046000
2000
y todos, por lo menos, tienen algunas razones -- inclusive si estas en desacuerdo con ellos --
17:46
everybodytodos has some reasonsrazones for what they're doing.
400
1048000
2000
todo el mundo tiene alguna razón para lo que están haciendo.
17:48
StepPaso out.
401
1050000
1000
Sal fuera.
17:49
And if you do that, that's the essentialesencial movemovimiento to cultivatecultivar moralmoral humilityhumildad,
402
1051000
4000
Y si lo logras, es la movida esencial para cultivar humildad moral,
17:53
to get yourselftú mismo out of this self-righteousnessjusticia propia,
403
1055000
1000
para sacarte de esa santurronería,
17:54
whichcual is the normalnormal humanhumano conditioncondición.
404
1056000
2000
que es la condición humana normal.
17:56
Think about the DalaiDalai LamaLama.
405
1058000
2000
Piensa en el Dalai Lama.
17:58
Think about the enormousenorme moralmoral authorityautoridad of the DalaiDalai LamaLama --
406
1060000
3000
Piensa en la inmensa autoridad moral del Dalai Lama --
18:01
and it comesproviene from his moralmoral humilityhumildad.
407
1063000
2000
y proviene de su humildad moral.
18:05
So I think the pointpunto -- the pointpunto of my talk,
408
1067000
2000
Asi que pienso que el punto -- el punto de mi charla,
18:07
and I think the pointpunto of TEDTED --
409
1069000
3000
y pienso que el punto -- el punto de TED,
18:10
is that this is a groupgrupo that is passionatelyapasionadamente engagedcomprometido
410
1072000
3000
es que este es un grupo que esta involucrado apasionadamente
18:13
in the pursuitbúsqueda of changingcambiando the worldmundo for the better.
411
1075000
2000
con la búsqueda de cambiar el mundo para bien.
18:15
People here are passionatelyapasionadamente engagedcomprometido
412
1077000
3000
Las personas aquí están involucradas con pasión
18:18
in tryingmolesto to make the worldmundo a better placelugar.
413
1080000
2000
tratando de hacer de este un mundo mejor.
18:20
But there is alsoademás a passionateapasionado commitmentcompromiso to the truthverdad.
414
1082000
3000
Pero también hay un compromiso apasionado con la verdad.
18:23
And so I think that the answerresponder is to use that passionateapasionado commitmentcompromiso
415
1085000
4000
Y pienso que la respuesta es utilizar ese compromiso apasionado
18:27
to the truthverdad to try to turngiro it into a better futurefuturo for us all.
416
1089000
4000
hacia la verdad y tratar de convertirlo en un mejor futuro para todos nosotros.
18:31
Thank you.
417
1093000
1000
Gracias.
18:32
(ApplauseAplausos)
418
1094000
3000
(Aplausos)
Translated by diana soler
Reviewed by Karina Fuentes Coros

▲Back to top

ABOUT THE SPEAKER
Jonathan Haidt - Social psychologist
Jonathan Haidt studies how -- and why -- we evolved to be moral and political creatures.

Why you should listen

By understanding more about our moral psychology and its biases, Jonathan Haidt says we can design better institutions (including companies, universities and democracy itself), and we can learn to be more civil and open-minded toward those who are not on our team.

Haidt is a social psychologist whose research on morality across cultures led to his 2008 TED Talk on the psychological roots of the American culture war, and his 2013 TED Talk on how "common threats can make common ground." In both of those talks he asks, "Can't we all disagree more constructively?" Haidt's 2012 TED Talk explored the intersection of his work on morality with his work on happiness to talk about "hive psychology" -- the ability that humans have to lose themselves in groups pursuing larger projects, almost like bees in a hive. This hivish ability is crucial, he argues, for understanding the origins of morality, politics, and religion. These are ideas that Haidt develops at greater length in his book, The Righteous Mind: Why Good People are Divided by Politics and Religion.

Haidt joined New York University Stern School of Business in July 2011. He is the Thomas Cooley Professor of Ethical Leadership, based in the Business and Society Program. Before coming to Stern, Professor Haidt taught for 16 years at the University of Virginia in the department of psychology.

Haidt's writings appear frequently in the New York Times and The Wall Street Journal. He was named one of the top global thinkers by Foreign Policy magazine and by Prospect magazine. Haidt received a B.A. in Philosophy from Yale University, and an M.A. and Ph.D. in Psychology from the University of Pennsylvania.

More profile about the speaker
Jonathan Haidt | Speaker | TED.com