English-Video.net comment policy

The comment field is common to all languages

Let's write in your language and use "Google Translate" together

Please refer to informative community guidelines on TED.com

TEDNYC

Jonathan Haidt: Can a divided America heal?

Jonathan Haidt: ¿Puede llegar a reponerse un EE. UU. dividido?

Filmed
Views 1,548,727

¿Cómo puede Estados Unidos recuperarse después de las elecciones presidenciales negativas y partidistas de 2016? El psicólogo social Jonathan Haidt estudia la moral que moldea la base de nuestras elecciones políticas. En conversación con el curador de TED Chris Anderson, Haidt describe los patrones de pensamiento y las causas históricas que han llevado a divisiones tan agudas en EE. UU. y proporciona una visión de cómo el país podría avanzar.

- Social psychologist
Jonathan Haidt studies how -- and why -- we evolved to be moral. By understanding more about our moral roots, his hope is that we can learn to be civil and open-minded. Full bio

- TED Curator
After a long career in journalism and publishing, Chris Anderson became the curator of the TED Conference in 2002 and has developed it as a platform for identifying and disseminating ideas worth spreading. Full bio

Chris Anderson: So, Jon, this feels scary.
Chris Anderson: Jon, esto da miedo.
00:12
Jonathan Haidt: Yeah.
Jonathan Haidt: Sí.
00:15
CA: It feels like the world is in a place
CA: Es como si el mundo
estuviera en un lugar
00:16
that we haven't seen for a long time.
que no habíamos visto
hacía mucho tiempo.
00:18
People don't just disagree
in the way that we're familiar with,
La gente no solo discrepa
de la forma habitual,
00:20
on the left-right political divide.
sobre la división política
entre izquierda-derecha.
00:24
There are much deeper differences afoot.
Existen diferencias mucho
más profundas en curso.
00:26
What on earth is going on,
and how did we get here?
¿Qué narices pasa,
y cómo hemos llegado hasta aquí?
00:29
JH: This is different.
JH: Esto es diferente.
00:33
There's a much more
apocalyptic sort of feeling.
Hay un sentimiento mucho más apocalíptico.
00:36
Survey research by Pew Research shows
La investigación de encuestas
de Pew muestra que
00:39
that the degree to which we feel
that the other side is not just --
el grado en el que sentimos al otro,
00:41
we don't just dislike them;
we strongly dislike them,
no nos limitamos a detestarlo;
lo detestamos fuertemente
00:45
and we think that they are
a threat to the nation.
y creemos que es
una amenaza para la nación.
00:48
Those numbers have been going up and up,
Esos números han ido
aumentando más
00:51
and those are over 50 percent
now on both sides.
y alcanzan ahora
más del 50 % en ambos lados.
00:53
People are scared,
La gente tiene miedo,
00:56
because it feels like this is different
than before; it's much more intense.
porque siente que esto es diferente
a lo anterior, mucho más intenso.
00:57
Whenever I look
at any sort of social puzzle,
Cada vez que observo
un rompecabezas social,
01:01
I always apply the three basic
principles of moral psychology,
siempre aplico los tres principios
básicos de la psicología moral,
01:04
and I think they'll help us here.
y creo que esos nos van a ayudar.
01:07
So the first thing that you
have to always keep in mind
Así que lo primero que hay que
tener siempre en cuenta
01:09
when you're thinking about politics
cuando se piensa en política
01:11
is that we're tribal.
es que somos tribales.
01:13
We evolved for tribalism.
Hemos evolucionado para el tribalismo.
01:15
One of the simplest and greatest
insights into human social nature
Una de las ideas más simples y
más grandes en la naturaleza social humana
01:16
is the Bedouin proverb:
es el proverbio beduino:
01:19
"Me against my brother;
"Yo contra mi hermano;
01:20
me and my brother against our cousin;
yo y mi hermano contra nuestro primo;
01:22
me and my brother and cousins
against the stranger."
yo, mi hermano y primos
contra el desconocido".
01:24
And that tribalism allowed us
to create large societies
Y el tribalismo permitió
crear grandes sociedades
01:26
and to come together
in order to compete with others.
y agruparse para competir
contra los demás.
01:31
That brought us out of the jungle
and out of small groups,
Nos sacó de la selva
y de grupos pequeños,
01:34
but it means that we have
eternal conflict.
pero también significa que
tenemos un eterno conflicto.
01:38
The question you have to look at is:
La pregunta que hay que examinar es:
01:40
What aspects of our society
are making that more bitter,
¿Qué aspectos de nuestra sociedad
se están resintiendo más,
01:42
and what are calming them down?
y cómo mitigarlos?
01:44
CA: That's a very dark proverb.
CA: Es un proverbio muy oscuro.
01:46
You're saying that that's actually
baked into most people's mental wiring
¿Dices esto se crea en las conexiones
mentales de la mayoría de la gente
01:47
at some level?
en algún nivel?
01:52
JH: Oh, absolutely. This is just
a basic aspect of human social cognition.
JH: Por supuesto. Esto es un aspecto
básico de la cognición social humana.
01:53
But we can also live together
really peacefully,
Pero también podemos
realmente vivir juntos en paz
01:57
and we've invented all kinds
of fun ways of, like, playing war.
y hemos inventado todo tipo de formas
divertidas de jugar a la guerra.
01:59
I mean, sports, politics --
Es decir, los deportes, la política.
02:02
these are all ways that we get
to exercise this tribal nature
Estas son las formas cómo
ejercemos esta naturaleza tribal
02:04
without actually hurting anyone.
sin llegar a herir a nadie.
02:08
We're also really good at trade
and exploration and meeting new people.
También somos muy buenos comerciando,
explorando y conociendo gente nueva.
02:09
So you have to see our tribalism
as something that goes up or down --
Hay que ver nuestro tribalismo como
algo que va hacia arriba o hacia abajo.
02:14
it's not like we're doomed
to always be fighting each other,
No es que estemos condenados
a estar luchando entre nosotros,
02:17
but we'll never have world peace.
pero nunca vamos a tener paz en el mundo.
02:20
CA: The size of that tribe
can shrink or expand.
CA: El tamaño de esa tribu
puede reducirse o aumentar.
02:22
JH: Right.
JH: Eso es.
02:26
CA: The size of what we consider "us"
CA: El tamaño de lo que
consideramos "nosotros"
02:27
and what we consider "other" or "them"
y lo que consideramos "otros" o "ellos"
02:29
can change.
puede cambiar.
02:31
And some people believed that process
could continue indefinitely.
Y algunas personas creían que el proceso
podría continuar indefinidamente.
02:34
JH: That's right.
JH: Correcto.
02:40
CA: And we were indeed expanding
the sense of tribe for a while.
CA: Y estuvimos expandiendo
el sentido de la tribu durante un tiempo.
02:41
JH: So this is, I think,
JH: Así es, creo que
02:44
where we're getting at what's possibly
the new left-right distinction.
vamos a lo que posiblemente sea
la nueva distinción izquierda-derecha.
02:45
I mean, the left-right
as we've all inherited it,
Es decir, la izquierda-derecha
como la hemos heredado,
02:49
comes out of the labor
versus capital distinction,
que emana de la distinción
entre mano de obra y capital,
02:51
and the working class, and Marx.
la clase obrera y Marx.
02:54
But I think what we're seeing
now, increasingly,
Pero creo que lo que vemos
ahora cada vez más,
02:56
is a divide in all the Western democracies
es una brecha en todas
las democracias occidentales
02:59
between the people
who want to stop at nation,
entre las personas que quieren
parar en la nación,
03:01
the people who are more parochial --
las personas que son más comunales,
03:05
and I don't mean that in a bad way --
—y no me refiero a esto como mala opción—
03:07
people who have much more
of a sense of being rooted,
las personas que tienen
más sentido de arraigo,
03:09
they care about their town,
their community and their nation.
que se preocupan por su ciudad,
su comunidad y su nación.
03:12
And then those who are
anti-parochial and who --
Y luego los que son anticomunales que
03:15
whenever I get confused, I just think
of the John Lennon song "Imagine."
—siempre que me confundo, pienso
en la canción de John Lennon "Imagine".
03:19
"Imagine there's no countries,
nothing to kill or die for."
"Imagina que no hay países,
nada por lo que matar o morir"—
03:23
And so these are the people
who want more global governance,
Y así, hay personas que desean
una gestión más global,
03:26
they don't like nation states,
they don't like borders.
no les gusta los estados-nación,
no les gustan las fronteras.
03:29
You see this all over Europe as well.
Esto se ve en toda Europa.
03:32
There's a great metaphor guy --
actually, his name is Shakespeare --
Hay una gran metáfora, de hecho,
su nombre es Shakespeare,
03:33
writing ten years ago in Britain.
escrito hace diez años en Gran Bretaña.
03:37
He had a metaphor:
Tenía una metáfora:
03:38
"Are we drawbridge-uppers
or drawbridge-downers?"
"¿Alzamos el puente levadizo o
cerramos el puente levadizo?".
03:39
And Britain is divided
52-48 on that point.
Y la división de Gran Bretaña
en este punto es de 52-48.
03:43
And America is divided on that point, too.
Y EE. UU. está dividido
en ese momento, también.
03:46
CA: And so, those of us
who grew up with The Beatles
CA: Y así, aquellos que
crecimos con los Beatles
03:49
and that sort of hippie philosophy
of dreaming of a more connected world --
y esa filosofía hippie de los sueños
de un mundo más conectado,
03:52
it felt so idealistic and "how could
anyone think badly about that?"
se percibía muy idealista y "¿cómo alguien
puede pensar mal acerca de eso?".
03:56
And what you're saying is that, actually,
Y lo que dices es que, en realidad,
04:00
millions of people today
feel that that isn't just silly;
millones de personas hoy en día
se sienten que eso no es una tontería;
04:02
it's actually dangerous and wrong,
and they're scared of it.
en realidad, es peligroso y malo,
y tienen miedo de ella.
04:07
JH: I think the big issue, especially
in Europe but also here,
JH: Creo que el gran problema, sobre todo
en Europa, pero también en este caso,
04:09
is the issue of immigration.
es el tema de la inmigración.
04:13
And I think this is where
we have to look very carefully
Y ahí es donde tenemos
que ver con mucho detalle
04:14
at the social science
about diversity and immigration.
las ciencias sociales en relación
a la diversidad e inmigración.
04:17
Once something becomes politicized,
Una vez que algo se politiza,
04:21
once it becomes something
that the left loves and the right --
una vez que se convierte en algo que
adora tanto la izquierda como la derecha,
04:22
then even the social scientists
can't think straight about it.
entonces incluso los científicos sociales
no pueden pensar con claridad.
04:25
Now, diversity is good in a lot of ways.
La diversidad es buena en muchos sentidos.
04:29
It clearly creates more innovation.
Se crea claramente más innovación.
04:31
The American economy
has grown enormously from it.
La economía estadounidense
ha crecido enormemente por ella.
04:33
Diversity and immigration
do a lot of good things.
La diversidad y la inmigración
hacen muchas cosas buenas.
04:35
But what the globalists,
I think, don't see,
Pero lo que los globalistas,
creo, no ven
04:38
what they don't want to see,
lo que no quieren ver,
04:40
is that ethnic diversity
cuts social capital and trust.
es que la diversidad étnica reduce
el capital social y la confianza.
04:42
There's a very important
study by Robert Putnam,
Hay un estudio muy importante
de Robert Putnam,
04:48
the author of "Bowling Alone,"
el autor de "Bowling Alone"
04:51
looking at social capital databases.
que examina las bases de
datos del capital social.
04:52
And basically, the more people
feel that they are the same,
Y en el fondo, cuantas más personas
sientan que somos lo mismo,
04:54
the more they trust each other,
más confiarán entre sí,
04:57
the more they can have
a redistributionist welfare state.
y tendrán un mejor estado
de bienestar por su redistribución.
04:59
Scandinavian countries are so wonderful
Los países escandinavos son maravillosos
05:02
because they have this legacy
of being small, homogenous countries.
porque tienen este legado de
ser países pequeños y homogéneos.
05:04
And that leads to
a progressive welfare state,
Y eso lleva a un estado
de bienestar progresivo,
05:07
a set of progressive
left-leaning values, which says,
un conjunto de valores
progresistas de izquierda, que dice:
05:11
"Drawbridge down!
The world is a great place.
"¡Puente levadizo!
El mundo es un gran lugar.
05:14
People in Syria are suffering --
we must welcome them in."
La gente en Siria está sufriendo,
hay que darles la bienvenida".
05:17
And it's a beautiful thing.
Y es algo hermoso.
05:20
But if, and I was in Sweden
this summer,
Y estuve
en Suecia este verano,
05:21
if the discourse in Sweden
is fairly politically correct
y si el discurso en Suecia es
bastante políticamente correcto
05:24
and they can't talk about the downsides,
y no se puede hablar de las desventajas,
05:27
you end up bringing a lot of people in.
excluye a una gran cantidad de gente.
05:30
That's going to cut social capital,
Eso va a cortar el capital social,
05:32
it makes it hard to have a welfare state
esto hace que sea difícil
tener un estado de bienestar
05:33
and they might end up,
as we have in America,
y que podría acabar como
lo hemos hecho en EE. UU.
05:35
with a racially divided, visibly
racially divided, society.
con una sociedad racialmente dividida,
visiblemente dividida.
05:38
So this is all very
uncomfortable to talk about.
Todo esto resulta muy incómodo de hablar.
05:41
But I think this is the thing,
especially in Europe and for us, too,
Pero creo que esto, especialmente
en Europa y nosotros también,
05:44
we need to be looking at.
tenemos que observarlo.
05:47
CA: You're saying that people of reason,
CA: Dices que la gente razonable,
05:48
people who would consider
themselves not racists,
personas que no se considerarían racistas,
05:50
but moral, upstanding people,
pero moralmente personas decentes,
05:53
have a rationale that says
humans are just too different;
tienen una lógica que dice que
los humanos somos demasiado diferentes;
05:55
that we're in danger of overloading
our sense of what humans are capable of,
que nos arriesgamos a sobrecargar
05:58
by mixing in people who are too different.
nuestro sentido de lo que
los humanos podemos hacer,
06:03
JH: Yes, but I can make it
much more palatable
mezclándonos con personas
que son demasiado diferentes.
06:06
by saying it's not necessarily about race.
JH: Sí, pero se puede hacer mucho
más agradable al paladar
06:09
It's about culture.
diciendo que no se trata
necesariamente de raza.
06:12
There's wonderful work by a political
scientist named Karen Stenner,
Se trata de la cultura.
06:14
who shows that when people have a sense
Hay un trabajo magnífico de
la politóloga Karen Stenner,
06:18
that we are all united,
we're all the same,
que muestra que cuando
las personas tienen un sentido
06:21
there are many people who have
a predisposition to authoritarianism.
de estar todos unidos,
de ser todos iguales,
06:23
Those people aren't particularly racist
hay muchas personas predispuestas
al autoritarismo.
06:27
when they feel as through
there's not a threat
Esas personas no son
particularmente racistas
06:29
to our social and moral order.
cuando sienten que no hay amenaza
06:31
But if you prime them experimentally
en nuestro orden social y moral.
06:33
by thinking we're coming apart,
people are getting more different,
Pero si experimentalmente se hace
06:35
then they get more racist, homophobic,
they want to kick out the deviants.
pensar que nos venimos abajo, que
la gente es cada vez más diferente,
06:38
So it's in part that you get
an authoritarian reaction.
entonces son más racistas, homófobos
y quieren echar a los desviados.
06:41
The left, following through
the Lennonist line --
En parte se obtiene
una reacción autoritaria.
06:44
the John Lennon line --
La izquierda,
siguiendo por la línea lennonista,
06:47
does things that create
an authoritarian reaction.
la línea de John Lennon,
06:48
We're certainly seeing that
in America with the alt-right.
hace cosas que crean
una reacción autoritaria.
06:50
We saw it in Britain,
we've seen it all over Europe.
Ciertamente vemos esto en EE. UU.
con la ultraderecha.
06:53
But the more positive part of that
Lo vimos en Gran Bretaña,
y en toda Europa.
06:56
is that I think the localists,
or the nationalists, are actually right --
Pero la parte más positiva de eso
06:58
that, if you emphasize
our cultural similarity,
es que creo que los localistas o los
nacionalistas son en realidad la derecha.
07:03
then race doesn't actually
matter very much.
Si uno acentúa nuestra afinidad cultural,
07:07
So an assimilationist
approach to immigration
entonces la raza en realidad
no importa mucho.
07:09
removes a lot of these problems.
Así, un enfoque
asimilacionista de la inmigración
07:12
And if you value having
a generous welfare state,
elimina gran cantidad de estos problemas.
07:13
you've got to emphasize
that we're all the same.
Y si uno valora tener
un estado de bienestar generoso,
07:16
CA: OK, so rising immigration
and fears about that
hay que destacar que
todos somos lo mismo.
07:18
are one of the causes
of the current divide.
CA: El aumento de la inmigración
y los recelos que despierta
07:21
What are other causes?
son una de las causas de la brecha actual.
07:25
JH: The next principle of moral psychology
¿Qué otras causas hay?
07:26
is that intuitions come first,
strategic reasoning second.
JH: El siguiente principio
de la psicología moral
07:28
You've probably heard
the term "motivated reasoning"
es que la intuición es lo primero y
luego el razonamiento estratégico.
07:32
or "confirmation bias."
Probablemente conoces
el término "razonamiento motivado"
07:35
There's some really interesting work
o "sesgo de confirmación".
07:36
on how our high intelligence
and our verbal abilities
Existen trabajos realmente interesantes
07:38
might have evolved
not to help us find out the truth,
sobre cómo nuestra gran inteligencia
y habilidades verbales
07:41
but to help us manipulate each other,
defend our reputation ...
no han evolucionado para ayudarnos
a encontrar la verdad,
07:45
We're really, really good
at justifying ourselves.
sino para manipularnos
para defender nuestra reputación...
07:48
And when you bring
group interests into account,
Somos muy buenos
autojustificandonos a nosotros mismos.
07:51
so it's not just me,
it's my team versus your team,
Y consideramos
los intereses de un grupo,
07:53
whereas if you're evaluating evidence
that your side is wrong,
no solo soy yo,
es mi equipo contra el otro equipo,
07:56
we just can't accept that.
pero si uno evalúa
la evidencia de que su lado está mal,
07:59
So this is why you can't win
a political argument.
simplemente no podemos aceptarlo.
08:01
If you're debating something,
Por eso es que no se puede ganar
una discusión política.
08:03
you can't persuade the person
with reasons and evidence,
Si uno está debatiendo algo,
08:05
because that's not
the way reasoning works.
no se puede convencer
a la persona con razones y pruebas,
08:08
So now, give us the internet,
give us Google:
porque así no funciona el razonamiento.
08:10
"I heard that Barack Obama
was born in Kenya.
Así que ahora, danos Internet, Google:
08:14
Let me Google that -- oh my God!
10 million hits! Look, he was!"
"He oído que Barack Obama nació en Kenia.
08:17
CA: So this has come as an unpleasant
surprise to a lot of people.
Voy a googlearlo,
¡10 millones de visitas! ¡Así era él!".
08:21
Social media has often been framed
by techno-optimists
CA: Así que esto ha sido
una sorpresa desagradable para muchos.
08:24
as this great connecting force
that would bring people together.
Los medios sociales a menudo
se denominan tecnooptimistas
08:27
And there have been some
unexpected counter-effects to that.
ya que existe esta gran
fuerza de conexión que une a la gente.
08:32
JH: That's right.
Y ha habido algunos
inesperados efectos contrarios.
08:36
That's why I'm very enamored
of yin-yang views
JH: Eso es correcto.
08:38
of human nature and left-right --
Por eso estoy enamorado
de la perspectiva yin-yang
08:40
that each side is right
about certain things,
de la naturaleza humana
y de izquierda y derecha,
08:42
but then it goes blind to other things.
que cada lado tiene razón
sobre ciertas cosas,
08:44
And so the left generally believes
that human nature is good:
pero luego se ciegan ante otras.
08:46
bring people together, knock down
the walls and all will be well.
Y la izquierda, en general, cree que
la naturaleza humana es buena:
08:49
The right -- social conservatives,
not libertarians --
une a la gente, derriba los muros
y todo estará bien.
08:52
social conservatives generally
believe people can be greedy
La derecha, conservadores
sociales, no liberales
08:55
and sexual and selfish,
los conservadores sociales creen
que las personas pueden ser codiciosas,
08:59
and we need regulation,
and we need restrictions.
sexuales y egoístas,
09:01
So, yeah, if you knock down all the walls,
y se necesita regulación y restricciones.
09:04
allow people to communicate
all over the world,
Así que, si se derriban
todos los muros,
09:06
you get a lot of porn and a lot of racism.
y se permite que la gente
se comunique con todo el mundo,
09:08
CA: So help us understand.
tendrás mucha pornografía
y mucho racismo.
09:10
These principles of human nature
have been with us forever.
CA: Ayúdanos a comprender.
09:12
What's changed that's deepened
this feeling of division?
Estos principios de la naturaleza humana
han estado con nosotros siempre.
09:18
JH: You have to see six to ten
different threads all coming together.
¿Qué ha profundizado
este sentimiento de división?
09:24
I'll just list a couple of them.
JH: Hay que detectar de 6 a 10
hilos diferentes todos unidos.
09:29
So in America, one of the big --
actually, America and Europe --
Voy a enumerar un par de ellos.
09:31
one of the biggest ones is World War II.
En EE. UU., una de las grandes,
—de hecho, en EE. UU. y Europa—,
09:35
There's interesting research
from Joe Henrich and others
una de las mayores es
la 2ª Guerra Mundial.
09:37
that says if your country was at war,
Existe un buen estudio
de Joe Henrich y otros
09:40
especially when you were young,
que dice que si tu país estaba en guerra,
09:42
then we test you 30 years later
in a commons dilemma
siendo jóvenes,
09:44
or a prisoner's dilemma,
si se les examina 30 años más tarde
en un dilema común
09:47
you're more cooperative.
o el dilema del prisionero,
09:49
Because of our tribal nature, if you're --
son más cooperativos.
09:50
my parents were teenagers
during World War II,
Debido a nuestra naturaleza tribal,
si Ud. es...,
09:53
and they would go out
looking for scraps of aluminum
mis padres eran adolescentes
durante la 2ª Guerra Mundial,
09:56
to help the war effort.
y buscaban aluminio para
contribuir al esfuerzo de guerra.
09:59
I mean, everybody pulled together.
Es decir, todo el mundo se unió.
10:00
And so then these people go on,
Y es así, estas personas siguen,
10:02
they rise up through business
and government,
emprenden negocios y gobiernos,
10:04
they take leadership positions.
toman posiciones de liderazgo.
10:06
They're really good
at compromise and cooperation.
Son muy buenos
en el compromiso y la cooperación.
10:08
They all retire by the '90s.
Todos se jubilaron en los 90.
10:11
So we're left with baby boomers
by the end of the '90s.
Así que nos quedamos
con el baby boom a finales de los 90.
10:13
And their youth was spent fighting
each other within each country,
Y su juventud la pasaron luchando
dentro de cada país,
10:17
in 1968 and afterwards.
en 1968 y después.
10:21
The loss of the World War II generation,
"The Greatest Generation,"
La pérdida de la generación de la
2ª Guerra Mundial, "La gran generación",
10:22
is huge.
es enorme.
10:26
So that's one.
Ese es un hilo.
10:28
Another, in America,
is the purification of the two parties.
Segundo, en EE. UU. es
la purificación de los dos partidos.
10:30
There used to be liberal Republicans
and conservative Democrats.
Solía haber republicanos liberales
y demócratas conservadores.
10:33
So America had a mid-20th century
that was really bipartisan.
EE. UU. se vivió una mitad del siglo. XX.
realmente bipartidista.
10:37
But because of a variety of factors
that started things moving,
Pero por varios factores
que hicieron mover cosas,
10:40
by the 90's, we had a purified
liberal party and conservative party.
en los 90, había un partido liberal
y otro conservador purificado.
10:44
So now, the people in either party
really are different,
Ahora las personas de
cada partido son diferentes,
10:48
and we really don't want
our children to marry them,
y no queremos que
nuestros hijos se casen con ellos,
10:50
which, in the '60s,
didn't matter very much.
lo que en los años 60 no importaba mucho.
10:53
So, the purification of the parties.
La purificación de los partidos.
10:55
Third is the internet and, as I said,
El tercero Internet,
el estimulante más sorprendente
10:57
it's just the most amazing stimulant
for post-hoc reasoning and demonization.
para el razonamiento
a posteriori y la demonización.
10:59
CA: The tone of what's happening
on the internet now is quite troubling.
CA: El tono de Internet
ahora es bastante preocupante.
11:04
I just did a quick search
on Twitter about the election
He hecho una búsqueda
en Twitter sobre las elecciones
11:09
and saw two tweets next to each other.
y he visto dos tuits,
uno al lado del otro.
11:12
One, against a picture of racist graffiti:
Uno de ellos, en contra
de una foto de grafiti racista:
11:15
"This is disgusting!
"¡Esto es repugnante!
11:20
Ugliness in this country,
brought to us by #Trump."
La fealdad que
nos ha traído Trump a este país".
11:21
And then the next one is:
Y el siguiente es:
11:25
"Crooked Hillary
dedication page. Disgusting!"
"Página dedicada a Crooked Hillary.
¡Asqueroso!".
11:27
So this idea of "disgust"
is troubling to me.
Esta idea de "asco"
es preocupante para mí.
11:31
Because you can have an argument
or a disagreement about something,
Porque uno puede tener una discusión
o un desacuerdo sobre algo,
11:35
you can get angry at someone.
y lograr enojarse con alguien.
11:38
Disgust, I've heard you say,
takes things to a much deeper level.
El asco activa las cosas
a un nivel mucho más profundo.
11:41
JH: That's right. Disgust is different.
JH: Así es. El asco es diferente.
11:44
Anger -- you know, I have kids.
Enojo..., ya sabes tengo hijos...
11:46
They fight 10 times a day,
Se pelean 10 veces al día,
11:48
and they love each other 30 times a day.
y se quieren 30 veces al día.
11:50
You just go back and forth:
you get angry, you're not angry;
Acabas de ir y venir:
te enojas, no estás enojado;
11:52
you're angry, you're not angry.
estás enojado, no estás enojado.
11:55
But disgust is different.
Pero el asco es diferente.
11:56
Disgust paints the person
as subhuman, monstrous,
El asco muestra a las personas
como subhumanas, monstruosos,
11:58
deformed, morally deformed.
moralmente deformes.
12:02
Disgust is like indelible ink.
El asco es como tinta indeleble.
12:04
There's research from John Gottman
on marital therapy.
Hay investigaciones de
John Gottman en terapia de pareja.
12:07
If you look at the faces -- if one
of the couple shows disgust or contempt,
Al fijarnos en las caras, si uno
de la pareja muestra asco o desprecio,
12:11
that's a predictor that they're going
to get divorced soon,
eso es un indicador
de que se van a divorciar pronto,
12:16
whereas if they show anger,
that doesn't predict anything,
mientras que si muestran enojo,
eso no predice nada,
12:19
because if you deal with anger well,
it actually is good.
porque si uno gestiona la ira bien,
es realmente buena.
12:22
So this election is different.
Esta elección es diferente.
12:25
Donald Trump personally
uses the word "disgust" a lot.
Donald Trump personalmente
usa la palabra "asco" mucho.
12:26
He's very germ-sensitive,
so disgust does matter a lot --
Es muy susceptible a los gérmenes
por eso el asco importa mucho,
12:30
more for him, that's something
unique to him --
más para él, eso es algo único en él.
12:33
but as we demonize each other more,
Pero a medida que
nos demonizamos entre nosotros,
12:37
and again, through
the Manichaean worldview,
a través de una visión maniqueísta,
12:40
the idea that the world
is a battle between good and evil
es decir, que el mundo es
una batalla entre el bien y el mal
12:43
as this has been ramping up,
y mientras esto está aumentando,
12:46
we're more likely not just to say
they're wrong or I don't like them,
es más probable decir no solo que
los otros están equivocados,
12:47
but we say they're evil, they're satanic,
sino que son satánicos,
12:51
they're disgusting, they're revolting.
que son repugnantes,
que son asquerosos.
12:53
And then we want nothing to do with them.
Y no queremos nada con ellos.
12:55
And that's why I think we're seeing it,
for example, on campus now.
Y creo que lo estamos viendo,
por ejemplo, en el campus ahora.
12:58
We're seeing more the urge
to keep people off campus,
Vemos la necesidad de mantener
a la gente fuera del campus,
13:02
silence them, keep them away.
silenciarlos y alejarlos.
13:04
I'm afraid that this whole
generation of young people,
Me temo que
toda esta generación de jóvenes,
13:06
if their introduction to politics
involves a lot of disgust,
si su entrada a la política
implica mucho asco,
13:09
they're not going to want to be involved
in politics as they get older.
no querrán estar involucrados
en política con el tiempo.
13:13
CA: So how do we deal with that?
CA: ¿Cómo podemos hacer frente a eso?
13:17
Disgust. How do you defuse disgust?
Asco. ¿Cómo se desactiva el asco?
13:19
JH: You can't do it with reasons.
JH: No se puede desactivar con razones.
13:24
I think ...
Creo...
13:27
I studied disgust for many years,
and I think about emotions a lot.
Estudié el asco muchos años
y pienso mucho en las emociones.
13:30
And I think that the opposite
of disgust is actually love.
Y creo que lo contrario del asco
es realmente el amor.
13:33
Love is all about, like ...
El amor, como...
13:37
Disgust is closing off, borders.
El asco bloquea, crea fronteras.
13:41
Love is about dissolving walls.
El amor disuelve los muros.
13:43
So personal relationships, I think,
Por eso las relaciones personales, creo,
13:47
are probably the most
powerful means we have.
son probablemente los medios
más poderosos que tenemos.
13:49
You can be disgusted by a group of people,
Uno puede sentir asco
por un grupo de personas,
13:53
but then you meet a particular person
pero luego conoces a
una persona en particular
13:56
and you genuinely discover
that they're lovely.
y descubres que es preciosa.
13:57
And then gradually that chips away
or changes your category as well.
Y gradualmente la antigua visión se aleja
y también se cambia tu percepción.
14:00
The tragedy is, Americans used to be
much more mixed up in the their towns
La tragedia es que los estadounidenses
solían estar mucho más mezclados
14:06
by left-right or politics.
en sus pueblos
los de derechas y de izquierdas.
14:12
And now that it's become
this great moral divide,
Y ahora existe esta gran brecha moral,
14:14
there's a lot of evidence
that we're moving to be near people
hay mucha evidencia de que nos mudamos
para estar cerca de la gente
14:16
who are like us politically.
políticamente afín a nosotros.
14:19
It's harder to find somebody
who's on the other side.
Es más difícil encontrar
a alguien del otro lado.
14:21
So they're over there, they're far away.
Así que están allí, muy lejos.
14:23
It's harder to get to know them.
Es más difícil conocerlos.
14:26
CA: What would you say to someone
or say to Americans,
CA: ¿Qué le dirías a los estadounidenses,
14:27
people generally,
a la gente en general,
14:31
about what we should understand
about each other
sobre lo que debemos
entender sobre cada uno
14:33
that might help us rethink for a minute
que pueda ayudar a replantear
14:35
this "disgust" instinct?
este instinto de asco?
14:39
JH: Yes.
JH: Sí.
14:42
A really important
thing to keep in mind --
Un dato fundamental a tener en cuenta,
14:43
there's research by political
scientist Alan Abramowitz,
existe un estudio del politólogo
Alan Abramowitz,
14:45
showing that American democracy
is increasingly governed
que muestra que la democracia
estadounidense se rige cada vez
14:50
by what's called "negative partisanship."
por el denominado "partidismo negativo".
14:54
That means you think,
OK there's a candidate,
Eso significa que piensas:
Muy bien hay un candidato,
14:56
you like the candidate,
you vote for the candidate.
te gusta el candidato,
votas por el candidato.
15:00
But with the rise of negative advertising
Pero con el aumento
de la publicidad negativa
15:02
and social media
and all sorts of other trends,
y los medios sociales
y todo tipo de tendencias,
15:04
increasingly, the way elections are done
cada vez más, la forma
cómo se hacen las elecciones
15:06
is that each side tries to make
the other side so horrible, so awful,
es que cada parte intenta
hacer al otro horrible, tan horrible,
15:08
that you'll vote for my guy by default.
que tú votarás
por mi candidato por defecto.
15:12
And so as we more and more vote
against the other side
Y así, se vota más y más
en contra del otro lado
15:15
and not for our side,
y no a favor de lo nuestro.
15:18
you have to keep in mind
that if people are on the left,
Hay que tener en cuenta que,
si la gente es de izquierdas,
15:19
they think, "Well, I used to think
that Republicans were bad,
piensa: "Yo solía pensar
que los republicanos eran malos,
15:25
but now Donald Trump proves it.
pero ahora Donald Trump lo demuestra.
15:28
And now every Republican,
I can paint with all the things
Y ahora describo a todo republicano
con los atributos
15:29
that I think about Trump."
que pienso de Trump".
15:32
And that's not necessarily true.
Y eso no es siempre cierto.
15:33
They're generally not very happy
with their candidate.
Por lo general, no están
muy contentos con su candidato.
15:35
This is the most negative partisanship
election in American history.
Son las elecciones partidistas más
negativas en la historia estadounidense.
15:38
So you have to first separate
your feelings about the candidate
Así que hay que separar primero
los sentimientos sobre el candidato
15:43
from your feelings about the people
who are given a choice.
de tus sentimientos sobre las
personas que eligen una opción.
15:47
And then you have to realize that,
Y entonces hay que ver que,
15:50
because we all live
in a separate moral world --
dado que todos vivimos
en un mundo moral separado,
15:53
the metaphor I use in the book
is that we're all trapped in "The Matrix,"
—la metáfora que utilizo en el libro es
que todos estamos atrapados en el "Matrix"
15:55
or each moral community is a matrix,
a consensual hallucination.
o cada comunidad moral es
una matriz, una alucinación consensual.
15:59
And so if you're within the blue matrix,
Y si estás dentro
de la matriz de color azul,
16:02
everything's completely compelling
that the other side --
todo lo que es convincente
del otro lado...
16:04
they're troglodytes, they're racists,
they're the worst people in the world,
son trogloditas, racistas,
son las peores personas en el mundo,
16:08
and you have all the facts
to back that up.
y tienes todos
los datos para respaldar eso.
16:11
But somebody in the next house from yours
Pero alguien en la casa contigua a la tuya
16:13
is living in a different moral matrix.
vive en una matriz moral diferente.
16:16
They live in a different video game,
Ellos viven en un videojuego diferente,
16:18
and they see a completely
different set of facts.
y ven un conjunto completamente
diferente de hechos.
16:20
And each one sees
different threats to the country.
Y cada uno ve diferentes
amenazas para el país.
16:22
And what I've found
from being in the middle
Y lo que he comprobado
estando en el centro
16:25
and trying to understand both sides
is: both sides are right.
para entender ambos lados es
que ambas partes tienen razón.
16:27
There are a lot of threats
to this country,
Hay muchas amenazas en este país,
16:30
and each side is constitutionally
incapable of seeing them all.
y cada lado es constitucionalmente
incapaz de ver todas.
16:32
CA: So, are you saying
that we almost need a new type of empathy?
CA: Entonces, ¿dices que necesitamos
un nuevo tipo de empatía?
16:36
Empathy is traditionally framed as:
La empatía es tradicionalmente:
16:43
"Oh, I feel your pain.
I can put myself in your shoes."
"Oh, siento tu dolor.
Puedo ponerme en tu piel".
16:45
And we apply it to the poor,
the needy, the suffering.
Y lo aplicamos a los pobres,
los necesitados, los que sufren.
16:48
We don't usually apply it
to people who we feel as other,
Por lo general no la aplicamos
a aquellos que percibimos como otros,
16:52
or we're disgusted by.
o por los que sentimos asco.
16:55
JH: No. That's right.
JH: No. Eso es correcto.
16:57
CA: What would it look like
to build that type of empathy?
CA: ¿Qué aspecto tendría
la construcción de ese tipo de empatía?
16:58
JH: Actually, I think ...
JH: En realidad, creo...
17:04
Empathy is a very, very
hot topic in psychology,
La empatía es un tema muy,
muy candente en psicología,
17:06
and it's a very popular word
on the left in particular.
y una palabra muy popular
de la izquierda en particular.
17:08
Empathy is a good thing, and empathy
for the preferred classes of victims.
La empatía es algo bueno y empatía
por las clases preferidas de víctimas.
17:11
So it's important to empathize
Por eso es importante empatizar
17:15
with the groups that we on the left
think are so important.
con grupos que la izquierda
cree que son tan importantes.
17:16
That's easy to do,
because you get points for that.
Eso es fácil de hacer,
porque se obtienen puntos por eso.
17:19
But empathy really should get you points
if you do it when it's hard to do.
Pero la empatía realmente debe contar,
si se hace cuando es difícil.
17:22
And, I think ...
Y pienso...
17:26
You know, we had a long 50-year period
of dealing with our race problems
Hemos tenido un período de 50 años para
tratar con nuestros problemas raciales
17:28
and legal discrimination,
y la discriminación legal,
17:33
and that was our top priority
for a long time
y fue nuestra prioridad
durante mucho tiempo
17:35
and it still is important.
y sigue siendo importante.
17:37
But I think this year,
Sin embargo, creo que este año,
17:39
I'm hoping it will make people see
estoy esperando que la gente vea
17:40
that we have an existential
threat on our hands.
que tenemos una amenaza
existencial en nuestras manos.
17:43
Our left-right divide, I believe,
Nuestra división izquierda-derecha, creo,
17:45
is by far the most important
divide we face.
es la brecha más importante
a la que nos enfrentamos.
17:48
We still have issues about race
and gender and LGBT,
Todavía tenemos problemas
de raza, género y grupos LGTB,
17:50
but this is the urgent need
of the next 50 years,
pero esta es la necesidad urgente
de los próximos 50 años,
17:53
and things aren't going
to get better on their own.
y las cosas no van a mejorar solas.
17:57
So we're going to need to do
a lot of institutional reforms,
Así que debemos hacer
muchas reformas institucionales,
18:01
and we could talk about that,
y podríamos hablar de eso,
18:03
but that's like a whole long,
wonky conversation.
pero eso es una conversación
larga y retorcida.
18:05
But I think it starts with people
realizing that this is a turning point.
Pero se inicia con la gente entendiendo
de que este es un punto de inflexión.
18:07
And yes, we need a new kind of empathy.
Y sí, necesitamos
un nuevo tipo de empatía.
18:11
We need to realize:
Debemos darnos cuenta de que
18:14
this is what our country needs,
lo necesitamos en nuestro país,
18:15
and this is what you need
if you don't want to --
y esto es lo que tú necesitas,
aunque no quieras.
18:17
Raise your hand if you want
to spend the next four years
Levanten la mano quienes no quieren
pasar los próximos 4 años
18:19
as angry and worried as you've been
for the last year -- raise your hand.
enojados y preocupados como.
lo estuvieron el último año.
18:22
So if you want to escape from this,
Así que si quieren evitar eso,
18:26
read Buddha, read Jesus,
read Marcus Aurelius.
lean a Buda, a Jesús y a Marco Aurelio.
18:27
They have all kinds of great advice
for how to drop the fear,
Tienen todo tipo de consejos
sobre cómo abandonar el miedo,
18:29
reframe things,
replantear las cosas,
18:35
stop seeing other people as your enemy.
para no ver a los otros como enemigos.
18:36
There's a lot of guidance in ancient
wisdom for this kind of empathy.
Hay mucho escrito en la sabiduría antigua
para este tipo de empatía.
18:38
CA: Here's my last question:
CA: Mi última pregunta:
18:41
Personally, what can
people do to help heal?
En lo personal, ¿qué puede hacer
la gente para ayudar a curar?
18:43
JH: Yeah, it's very hard to just decide
to overcome your deepest prejudices.
JH: Sí, es muy difícil decidir superar
los prejuicios más profundos.
18:47
And there's research showing
Hay un estudio que revela
18:51
that political prejudices are deeper
and stronger than race prejudices
que ahora los prejuicios políticos son
más profundos y fuertes que los raciales
18:53
in the country now.
en el país.
18:57
So I think you have to make an effort --
that's the main thing.
Así que creo que hay que hacer
un esfuerzo, eso es lo principal.
18:59
Make an effort to actually meet somebody.
Hagan un esfuerzo
para agradar a alguien.
19:02
Everybody has a cousin, a brother-in-law,
Todo el mundo tiene un primo, un cuñado
19:04
somebody who's on the other side.
alguien que está en el otro lado.
19:07
So, after this election --
Así que, después de estas elecciones,
19:09
wait a week or two,
esperen una semana o dos,
19:11
because it's probably going to feel
awful for one of you --
ya que probablemente alguno de Uds.
se sentirá muy mal,
19:12
but wait a couple weeks, and then
reach out and say you want to talk.
pero esperen dos semanas y
ofrezcan diálogo.
19:15
And before you do it,
Y antes de hacerlo,
19:19
read Dale Carnegie, "How to Win
Friends and Influence People" --
lean "Cómo ganar amigos e influir sobre
las personas" de Dale Carnegie,
19:21
(Laughter)
(Risas)
19:24
I'm totally serious.
Lo digo totalmente en serio.
19:25
You'll learn techniques
if you start by acknowledging,
Aprenderán técnicas,
si comienzan con reconocimiento,
19:26
if you start by saying,
si comienzan diciendo:
19:29
"You know, we don't agree on a lot,
"Sabes, no estamos
de acuerdo en un tema,
19:30
but one thing I really respect
about you, Uncle Bob,"
pero una cosa que
realmente respeto de ti, tío Bob..."
19:32
or "... about you conservatives, is ... "
o "... de los conservadores, es..."
19:34
And you can find something.
Y se puede encontrar algo.
19:36
If you start with some
appreciation, it's like magic.
Si Uds. comienzan con reconocimiento,
es como magia.
19:38
This is one of the main
things I've learned
Es una de las principales cosas
que he aprendido
19:40
that I take into my human relationships.
y que aplico en mis relaciones humanas.
19:42
I still make lots of stupid mistakes,
Todavía cometo muchos errores estúpidos,
19:44
but I'm incredibly good
at apologizing now,
pero ahora soy muy bueno disculpándome,
19:46
and at acknowledging what
somebody was right about.
y reconociendo que alguien tenía razón.
19:48
And if you do that,
Y si uno lo hace,
19:51
then the conversation goes really well,
and it's actually really fun.
entonces la conversación va muy bien,
y, de hecho, es muy divertido.
19:52
CA: Jon, it's absolutely fascinating
speaking with you.
CA: Jon, es fascinante hablar contigo.
19:56
It's really does feel like
the ground that we're on
Realmente parece que la base
donde estamos es un terreno poblado
19:59
is a ground populated by deep questions
of morality and human nature.
de profundas cuestiones
de moralidad y la naturaleza humana.
20:03
Your wisdom couldn't be more relevant.
tu sabiduría no podría ser más relevante.
20:08
Thank you so much for sharing
this time with us.
Gracias por compartir
este momento con nosotros.
20:10
JH: Thanks, Chris.
JH: Gracias, Chris.
20:13
JH: Thanks, everyone.
JH: Gracias a todos.
20:14
(Applause)
(Aplausos)
20:15
Translated by Lidia Cámara de la Fuente
Reviewed by Ciro Gomez

▲Back to top

About the speakers:

Jonathan Haidt - Social psychologist
Jonathan Haidt studies how -- and why -- we evolved to be moral. By understanding more about our moral roots, his hope is that we can learn to be civil and open-minded.

Why you should listen

Haidt is a social psychologist whose research on morality across cultures led up to his much-quoted 2008 TEDTalk on the psychological roots of the American culture war. He asks, "Can't we all disagree more constructively?" In September 2009, Jonathan Haidt spoke to the TED Blog about the moral psychology behind the healthcare debate in the United States. He's also active in the study of positive psychology and human flourishing.

At TED2012 he explored the intersection of his work on morality with his work on happiness to talk about “hive psychology” – the ability that humans have to lose themselves in groups pursuing larger projects, almost like bees in a hive. This hivish ability Is crucial, he argues, for understanding the origins of morality, politics, and religion. These are ideas that Haidt develops at greater length in his new book, The Righteous Mind: Why Good People are Divided by Politics and Religion. Learn more about his drive for a more productive and civil politics on his website CivilPolitics.org. And take an eye-opening quiz about your own morals at YourMorals.org

During the bruising 2012 political season, Haidt was invited to speak at TEDxMidAtlantic on the topic of civility. He developed the metaphor of The Asteroids Club to embody how we can reach. common groun. Learn how to start your own Asteroids Club at www.AsteroidsClub.org.

Watch Haidt talk about the Asteroids Club on MSNBC's The Cycle >>

More profile about the speaker
Jonathan Haidt | Speaker | TED.com
Chris Anderson - TED Curator
After a long career in journalism and publishing, Chris Anderson became the curator of the TED Conference in 2002 and has developed it as a platform for identifying and disseminating ideas worth spreading.

Why you should listen

Chris Anderson is the Curator of TED, a nonprofit devoted to sharing valuable ideas, primarily through the medium of 'TED Talks' -- short talks that are offered free online to a global audience.

Chris was born in a remote village in Pakistan in 1957. He spent his early years in India, Pakistan and Afghanistan, where his parents worked as medical missionaries, and he attended an American school in the Himalayas for his early education. After boarding school in Bath, England, he went on to Oxford University, graduating in 1978 with a degree in philosophy, politics and economics.

Chris then trained as a journalist, working in newspapers and radio, including two years producing a world news service in the Seychelles Islands.

Back in the UK in 1984, Chris was captivated by the personal computer revolution and became an editor at one of the UK's early computer magazines. A year later he founded Future Publishing with a $25,000 bank loan. The new company initially focused on specialist computer publications but eventually expanded into other areas such as cycling, music, video games, technology and design, doubling in size every year for seven years. In 1994, Chris moved to the United States where he built Imagine Media, publisher of Business 2.0 magazine and creator of the popular video game users website IGN. Chris eventually merged Imagine and Future, taking the combined entity public in London in 1999, under the Future name. At its peak, it published 150 magazines and websites and employed 2,000 people.

This success allowed Chris to create a private nonprofit organization, the Sapling Foundation, with the hope of finding new ways to tackle tough global issues through media, technology, entrepreneurship and, most of all, ideas. In 2001, the foundation acquired the TED Conference, then an annual meeting of luminaries in the fields of Technology, Entertainment and Design held in Monterey, California, and Chris left Future to work full time on TED.

He expanded the conference's remit to cover all topics, including science, business and key global issues, while adding a Fellows program, which now has some 300 alumni, and the TED Prize, which grants its recipients "one wish to change the world." The TED stage has become a place for thinkers and doers from all fields to share their ideas and their work, capturing imaginations, sparking conversation and encouraging discovery along the way.

In 2006, TED experimented with posting some of its talks on the Internet. Their viral success encouraged Chris to begin positioning the organization as a global media initiative devoted to 'ideas worth spreading,' part of a new era of information dissemination using the power of online video. In June 2015, the organization posted its 2,000th talk online. The talks are free to view, and they have been translated into more than 100 languages with the help of volunteers from around the world. Viewership has grown to approximately one billion views per year.

Continuing a strategy of 'radical openness,' in 2009 Chris introduced the TEDx initiative, allowing free licenses to local organizers who wished to organize their own TED-like events. More than 8,000 such events have been held, generating an archive of 60,000 TEDx talks. And three years later, the TED-Ed program was launched, offering free educational videos and tools to students and teachers.

More profile about the speaker
Chris Anderson | Speaker | TED.com