18:20
TEDxVienna

Paul Knoepfler: The ethical dilemma of designer babies

Paul Knoepfler: El dilema ético del diseño de bebés

Filmed:

Crear niños genéticamente modificados ya no es una fantasía de la ciencia ficción, es un escenario futuro probable. El biólogo Paul Knoepfler estima que, dentro de 15 años, los científicos podrían usar la tecnología CRISPR de edición genética para hacer ciertas "mejoras" a los embriones humanos —desde modificar ciertas características físicas hasta eliminar el riesgo de enfermedades autoinmunes. En esta reflexiva charla, Knoepfler nos prepara para la próxima revolución del diseño de bebés y sus muy personales e imprevisibles consecuencias.

- Biologist
Paul Knoepfler is a biomedical scientist and writer focusing on stem cells and genetics. Full bio

So what if I could make for you
Y bien, ¿qué tal si pudiera crearles
00:12
a designer baby?
un bebé de diseño?
00:15
What if you as a parent-to-be
¿Qué tal si Uds. como futuros padres
00:18
and I as a scientist decided
to go down that road together?
y yo como científico decidiéramos
juntos optar por esa vía?
00:20
What if we didn't?
¿Y qué tal si no?
00:25
What if we thought, "That's a bad idea,"
¿Qué tal si pensáramos,
"es una mala idea",
00:27
but many of our family,
friends and coworkers
pero muchos familiares, amigos y colegas
00:30
did make that decision?
tomaran esa decisión?
00:33
Let's fast-forward just 15 years from now.
Avancemos 15 años.
00:36
Let's pretend it's the year 2030,
Imaginemos que es el año 2030,
00:39
and you're a parent.
y son padres.
00:42
You have your daughter,
Marianne, next to you,
Tienen a su hija, Marianne, junto a Uds.,
00:44
and in 2030, she is what we call a natural
y en el 2030, ella es, por decir, natural
00:47
because she has no genetic modifications.
porque no tiene modificaciones genéticas.
00:51
And because you and your partner
consciously made that decision,
Y porque Ud. y su pareja
tomaron conscientemente esa decisión.
00:55
many in your social circle,
they kind of look down on you.
Muchos en su círculo social,
casi los miran con desdén,
00:59
They think you're, like,
a Luddite or a technophobe.
creen que son iguales a
un ludita o a un tecnófobo.
01:02
Marianne's best friend Jenna,
who lives right next door,
Jenna, la mejor amiga de Marianne
que vive al lado,
01:07
is a very different story.
tiene una historia diferente.
01:10
She was born a genetically modified
designer baby with numerous upgrades.
Nació modificada genéticamente como
una bebé de diseño con numerosas mejoras.
01:12
Yeah. Upgrades.
Sí. "Mejoras".
01:20
And these enhancements were introduced
Y estas modificaciones se aplicaron
01:22
using a new genetic
modification technology
usando una nueva tecnología
de modificación genética
01:25
that goes by the funny name CRISPR,
que surge con el curioso
nombre de CRISPR,
01:28
you know, like something's crisp,
ya saben, como la palabra "crisp",
01:31
this is CRISPR.
pero esta es CRISPR.
01:32
The scientist that Jenna's parents
hired to do this
Los científicos que los padres
de Jenna contrataron,
01:35
for several million dollars
por varios millones de dólares,
01:38
introduced CRISPR
into a whole panel of human embryos.
aplicaron CRISPR a un completo panel
de embriones humanos.
01:41
And then they used genetic testing,
Luego usaron pruebas genéticas,
01:46
and they predicted that
that little tiny embryo, Jenna's embryo,
y predijeron que un pequeño embrión,
el embrión de Jenna,
01:47
would be the best of the bunch.
sería el mejor de su serie.
01:52
And now, Jenna is an actual, real person.
Y ahora, Jenna es una persona viva y real.
01:55
She's sitting on the carpet
in your living room
Está sentada sobre la alfombra de su sala
01:58
playing with your daughter Marianne.
y juega con su hija Marianne.
02:01
And your families have known
each other for years now,
Y sus familias se han conocido
desde hace años,
02:04
and it's become very clear to you
y es muy evidente para Uds.
02:08
that Jenna is extraordinary.
que Jenna es extraordinaria.
02:10
She's incredibly intelligent.
Es increíblemente inteligente.
02:13
If you're honest with yourself,
she's smarter than you,
Para ser honestos, es más lista que Uds.
02:15
and she's five years old.
y apenas tiene 5 años.
02:18
She's beautiful, tall, athletic,
Es hermosa, alta, atlética
02:20
and the list goes on and on.
y la lista sigue y sigue.
02:24
And in fact, there's
a whole new generation
Y, de hecho, hay toda
una nueva generación
02:28
of these GM kids like Jenna.
de estos niños modificados como Jenna.
02:30
And so far it looks like
Y hasta donde se aprecia
02:33
they're healthier
than their parents' generation,
son más saludables que
la generación progenitora,
02:35
than your generation.
que nuestra generación.
02:38
And they have lower health care costs.
Y tienen menores costos
en atención médica.
02:40
They're immune to a host
of health conditions,
Son inmunes a una gran cantidad de males,
02:43
including HIV/AIDS and genetic diseases.
incluso al VIH-SIDA
y a enfermedades genéticas.
02:46
It all sounds so great,
Todo suena genial,
02:50
but you can't help but have
this sort of unsettling feeling,
pero Ud. no puede evitar tener
esa perturbadora sensación,
02:53
a gut feeling, that there's something
just not quite right about Jenna,
un presentimiento de que hay algo
que no está del todo bien con Jenna,
02:56
and you've had the same feeling
about other GM kids that you've met.
y puede tener esa misma sensación de
otros niños modificados que ha conocido.
03:02
You were also reading
in the newspaper earlier this week
También puede leer en el periódico
a inicios de semana
03:07
that a study of these children
who were born as designer babies
que un estudio de estos niños
que nacieron como bebés de diseño
03:10
indicates they may have some issues,
indica que podrían tener problemas,
03:14
like increased aggressiveness
and narcissism.
como altos niveles
de agresividad y narcisismo.
03:16
But more immediately on your mind
Pero, inmediatamente, en su mente
03:21
is some news that you just got
from Jenna's family.
recuerda haber recibido
noticias de la familia de Jenna.
03:23
She's so smart,
Ella es tan inteligente
03:26
she's now going to be going
to a special school,
que ahora asistirá
a una escuela especial,
03:28
a different school
than your daughter Marianne,
una escuela diferente que
la de su hija Marianne,
03:31
and this is kind of throwing
your family into a disarray.
y esto está sumiendo
a su familia en desconcierto.
03:34
Marianne's been crying,
Marianne ha estado llorando,
03:37
and last night when you took her to bed
to kiss her goodnight,
y la noche anterior al llevarla a la cama
para darle las buenas noches,
03:39
she said, "Daddy, will Jenna
even be my friend anymore?"
pregunta, "¿Papá, acaso Jenna
ya no será mi amiga?"
03:42
So now, as I've been telling you
this imagined 2030 story,
Al contarles esta imaginaria
historia del 2030,
03:48
I have a feeling
that I may have put some of you
tengo la sensación de
poder haber llevado a algunos
03:51
into this sci-fi
frame of reference. Right?
a este contexto de referencia
ficticio. ¿Cierto?
03:54
You think you're reading a sci-fi book.
Imaginan estar leyendo
un libro de ficción,
03:57
Or maybe, like,
in Halloween mode of thinking.
o, quizá, tengan ideas terroríficas.
03:59
But this is really
a possible reality for us,
Pero, en verdad,
es una posible realidad
04:02
just 15 years from now.
en apenas unos 15 años más.
04:05
I'm a stem cell and genetics researcher
Yo investigo sobre las células
madre y la genética
04:07
and I can see this new CRISPR technology
y puedo ver esta nueva tecnología CRISPR
04:10
and its potential impact.
y su potencial impacto.
04:13
And we may find ourselves in that reality,
Y podemos vernos,
en sí, en esa realidad,
04:15
and a lot will depend
on what we decide to do today.
y mucho dependerá de lo que
decidamos hacer hoy.
04:19
And if you're still
kind of thinking in sci-fi mode,
Y si aún siguen pensando
en el modo de ficción,
04:23
consider that the world of science
had a huge shock earlier this year,
consideren que el mundo científico
tuvo un gran impacto este año,
04:26
and the public largely
doesn't even know about it.
y la gran mayoría del público
ni siquiera sabe de eso.
04:30
Researchers in China just a few months ago
Investigadores de China hace unos meses
04:33
reported the creation
of genetically modified human embryos.
informaron de la creación de embriones
humanos modificados genéticamente.
04:36
This was the first time in history.
Esa fue la primera vez en la historia.
04:41
And they did it using
this new CRISPR technology.
Y lo hicieron usando
esta nueva tecnología CRISPR.
04:43
It didn't work perfectly,
No funcionó a la perfección,
04:47
but I still think
they sort of cracked the door ajar
pero creo que, de cierto modo,
dejaron la tapa abierta
04:49
on a Pandora's box here.
de la caja de Pandora.
04:52
And I think some people
are going to run with this technology
Y creo que algunas personas
van a usar esta tecnología
04:56
and try to make designer babies.
e intentarán hacer bebés de diseño.
04:59
Now, before I go on, some of you
may hold up your hands and say,
Ahora, antes de seguir,
algunos alzarán sus manos y dirán:
05:02
"Stop, Paul, wait a minute.
"Detente, Paul, espera un minuto.
05:05
Wouldn't that be illegal?
¿Eso no sería ilegal?
05:07
You can't just go off
and create a designer baby."
No se puede solo ir
y crear un bebé de diseño”.
05:09
And in fact, to some extent, you're right.
Y de hecho, en cierto punto,
tienen razón.
05:13
In some countries, you couldn't do that.
En algunos países,
no se puede hacer eso,
05:15
But in many other countries,
including my country, the US,
pero en muchos otros países,
aun en mi propio país, EE.UU,
05:18
there's actually no law on this,
so in theory, you could do it.
en realidad, no hay leyes sobre esto,
así que en teoría, se puede.
05:21
And there was another development
this year that resonates in this area,
Y hubo otro desarrollo este año
que resuena en esta área,
05:26
and that happened
not so far from here over in the UK.
y sucedió no muy lejos de aquí,
en el Reino Unido.
05:31
And the UK traditionally
has been the strictest country
Y el Reino Unido ha sido
tradicionalmente el país más estricto
05:34
when it comes to human
genetic modification.
en materia de modificación
de genética humana.
05:37
It was illegal there,
Era ilegal allí,
05:40
but just a few months ago,
pero solo hace unos meses,
05:42
they carved out an exception to that rule.
hicieron una excepción a esa regla;
05:43
They passed a new law
aprobaron una nueva ley
05:46
allowing the creation
of genetically modified humans
que permite la creación de humanos
genéticamente modificados
05:47
with the noble goal of trying
to prevent a rare kind of genetic disease.
con el noble objetivo de prevenir
un raro tipo de enfermedad genética.
05:51
But still I think in combination
these events are pushing us
Pero aún así creo que la suma de
estos eventos está presionándonos
05:56
further towards an acceptance
aún más hacia la aceptación
06:00
of human genetic modification.
de la modificación genética humana.
06:02
So I've been talking
about this CRISPR technology.
Y bien, he estado hablando
sobre la tecnología CRISPR.
06:05
What actually is CRISPR?
¿Qué es en realidad CRISPR?
06:08
So if you think about the GMOs
that we're all more familiar with,
Bueno, si piensan en las modificaciones
genéticas más familiares,
06:11
like GMO tomatoes and wheat
como los tomates y el trigo transgénico
06:14
and things like that,
y alimentos así,
06:17
this technology
is similar to the technologies
esta tecnología es similar
a las tecnologías
06:19
that were used to make those,
usadas para esos alimentos,
06:22
but it's dramatically better,
pero es mucho mejor,
06:24
cheaper and faster.
más barato y más rápido.
06:26
So what is it?
Entonces, ¿qué es?
06:30
It's actually like
a genetic Swiss army knife.
En realidad, es como una navaja multiusos.
06:31
We can pretend this is a Swiss army knife
Imaginemos que esto es
una navaja multiusos
06:34
with different tools in it,
con herramientas adicionales,
06:36
and one of the tools
is kind of like a magnifying glass
y una de ellas es similar a una lupa
06:37
or a GPS for our DNA,
o a un GPS para el ADN
06:40
so it can home in on a certain spot.
que puede buscar cierto punto.
06:43
And the next tool is like scissors
Otra herramienta, unas tijeras,
06:46
that can cut the DNA right in that spot.
puede cortar el ADN en tal punto.
06:48
And finally we have a pen
Y finalmente tenemos un bolígrafo
06:51
where we can literally rewrite
the genetic code in that location.
que puede, literalmente, reescribir
el código genético en ese lugar.
06:52
It's really that simple.
Es así de simple.
06:57
And this technology, which came
on the scene just three years ago,
Y esta tecnología, que entró
en escena hace apenas tres años,
06:59
has taken science by storm.
ha cautivado a la ciencia.
07:03
It's evolving so fast, and it's
so freaking exciting to scientists,
Evoluciona tan rápido, y es
muy emocionante para los científicos,
07:05
and I admit I'm fascinated by it
and we use it in my own lab,
y admito que estoy fascinado
por ella y la uso en mi trabajo,
07:10
that I think someone
is going to go that extra step
y creo que alguien
va a dar ese paso extra,
07:14
and continue the GM human embryo work
y continuará con el trabajo
en embriones humanos modificados
07:18
and maybe make designer babies.
y quizá haga bebés de diseño.
07:21
This is so ubiquitous now.
Esto ya se ha generalizado,
07:24
It just came on the scene three years ago.
pese a que entró en escena
solo hace tres años.
07:26
Thousands of labs
literally have this in hand today,
Cientos de laboratorios
lo tienen en sus manos hoy
07:29
and they're doing important research.
y están haciendo
una investigación importante.
07:33
Most of them are not interested
in designer babies.
Muchos de ellos no se interesan
en diseñar bebés,
07:35
They're studying human disease
solo estudian enfermedades humanas
07:38
and other important elements of science.
y otros elementos
importantes de la ciencia.
07:41
So there's a lot of good research
going on with CRISPR.
Así que hay buenos estudios
en curso gracias a CRISPR.
07:43
And the fact that we can
now do genetic modifications
Y el hecho de que se pueda
hacer modificaciones genéticas
07:46
that used to take years
and cost millions of dollars
que ayer solían tomar años
y costar millones de dólares,
07:50
in a few weeks
for a couple thousand bucks,
y hoy solo semanas
y por unos miles de dólares,
07:54
to me as a scientist that's fantastic,
para mí como científico es fantástico,
07:57
but again, at the same time,
pero, al mismo tiempo,
07:59
it opens the door to people going too far.
abre las puertas a que la gente
vaya más allá.
08:01
And I think for some people
Y creo que para algunos
08:05
the focus is not going to be
so much on science.
su objetivo no será tanto la ciencia,
08:06
That's not what's going
to be driving them.
eso no es lo que los impulsará,
08:09
It's going to be ideology
or the chase for a profit.
sino que será la ideología
o la búsqueda de ganancia,
08:11
And they're going to go
for designer babies.
y van a optar por el diseño de bebés.
08:16
So why should we be concerned about this?
Así que, ¿por qué deberíamos
preocuparnos por esto?
08:20
We know from Darwin,
if we go back two centuries,
Sabemos desde Darwin,
si retrocedemos dos siglos,
08:24
that evolution and genetics
profoundly have impacted humanity,
que la evolución y la genética
han impactado mucho a la humanidad,
08:27
who we are today.
a lo que somos hoy.
08:31
And some think there's like
a social Darwinism at work in our world,
Y algunos creen que hay un cierto
darwinismo en acción en el mundo,
08:33
and maybe even a eugenics as well.
y quizá incluso una eugenesia también.
08:37
Imagine those trends, those forces,
Imaginen esas tendencias, esas fuerzas,
08:40
with a booster rocket
of this CRISPR technology
con un catalizador
de esta tecnología CRISPR
08:44
that is so powerful and so ubiquitous.
que es tan poderosa y tan ubicua.
08:47
And in fact, we can just go back
one century to the last century
De hecho, se puede retroceder
solo un siglo, al siglo pasado,
08:50
to see the power that eugenics can have.
para ver el poder que
puede tener la eugenesia.
08:54
So my father, Peter Knoepfler,
Así, mi padre, Peter Knoepfler,
08:58
was actually born right here in Vienna.
que nació justo aquí en Viena,
09:01
He was Viennese,
and he was born here in 1929.
él era vienés, y nació aquí en 1929.
09:03
And when my grandparents
had little baby Peter,
Y cuando mis abuelos
tuvieron al pequeño Peter,
09:08
the world was very different. Right?
el mundo era muy diferente, ¿no?
09:12
It was a different Vienna.
Era una Viena diferente,
09:14
The United States was different.
Estados Unidos era diferente,
09:15
The world was different.
el mundo era diferente.
09:17
There was a eugenics rising,
Había una eugenesia en auge,
09:18
and my grandparents realized,
y mis abuelos notaron,
09:20
pretty quickly I think,
bastante pronto, creo,
09:23
that they were on the wrong side
of the eugenics equation.
que estaban en el lado equivocado
de la ecuación eugenésica.
09:24
And so despite this being their home
A pesar de que este era su hogar
09:28
and their whole extended family's home,
y el hogar de todo el clan familiar,
09:31
and this area being their family's
home for generations,
y de que esta área fue el hogar
de la familia por generaciones,
09:33
they decided because of eugenics
decidieron por causa de la eugenesia
09:37
that they had to leave.
que tenían que partir.
09:40
And they survived,
but they were heartbroken,
Y sobrevivieron,
pero estaban destrozados,
09:42
and I'm not sure my dad
ever really got over leaving Vienna.
y no estoy seguro de que mi papá
haya superado el partir de Viena,
09:44
He left when he was just eight years old
él partió cuando tenía apenas ocho años
09:48
in 1938.
en 1938.
09:51
So today, I see a new eugenics
Así, hoy, veo una nueva eugenesia
09:54
kind of bubbling to the surface.
casi borboteando a la superficie.
09:57
It's supposed to be a kinder,
gentler, positive eugenics,
Se supone que debe de ser
una eugenesia más favorable y positiva,
09:59
different than all that past stuff.
diferente a todo lo pasado.
10:04
But I think even though it's focused
on trying to improve people,
Pero creo que aun cuando se enfoca
en la mejoría de la gente,
10:08
it could have negative consequences,
podría tener consecuencias negativas,
10:12
and it really worries me
y eso sí me preocupa,
10:15
that some of the top proponents
of this new eugenics,
que algunos de los defensores
de esta nueva eugenesia,
10:16
they think CRISPR is the ticket
to make it happen.
crean que CRISPR sea el boleto
para hacer eso posible.
10:19
So I have to admit, you know,
Así que tengo que admitir, ya saben,
10:24
eugenics, we talk
about making better people.
con la eugenesia hablamos
sobre mejorar personas,
10:26
It's a tough question.
es una cuestión difícil,
10:29
What is better when we're talking
about a human being?
¿qué es lo mejor cuando hablamos
sobre un ser humano?
10:30
But I admit I think maybe a lot of us
Pero admito y creo
que muchos de nosotros
10:34
could agree that human beings,
pueden aceptar que los humanos,
10:36
maybe we could use a little betterment.
quizá podrían aplicar ciertas mejoras.
10:39
Look at our politicians
Observen a los políticos
10:41
here, you know, back in the US --
aquí, de regreso a EE.UU.
10:44
God forbid we go there right now.
Dios perdone que vayamos ahí ahora.
10:46
Maybe even if we just look in the mirror,
Tal vez incluso si nos miramos al espejo,
10:49
there might be ways
we think we could be better.
pueden haber formas
en las que podríamos mejorar.
10:51
I might wish, honestly, that I had
more hair here, instead of baldness.
Podría desear, honestamente, que tuviera
cabello aquí en vez de calvicie.
10:54
Some people might wish they were taller,
Algunos podrían desear ser más altos,
10:59
have a different weight, a different face.
tener un peso diferente,
un rostro diferente.
11:01
If we could do those things,
we could make those things happen,
Si pudiéramos hacer eso,
podríamos hacer que eso suceda,
11:05
or we could make them happen
in our children,
o podríamos hacer que ocurra
en nuestros hijos,
11:09
it would be very seductive.
eso sería muy seductor.
11:11
And yet coming with it
would be these risks.
Y aun con ello habría riesgos.
11:13
I talked about eugenics,
Ya hablé sobre eugenesia,
11:16
but there would be risks
to individuals as well.
pero habría riesgos
para los individuos también.
11:18
So if we forget about enhancing people
Así que si olvidáramos
hacer mejoras humanas
11:21
and we just try to make them
healthier using genetic modification,
y solo intentáramos mejorar la salud
con la modificación genética,
11:24
this technology is so new
esta tecnología tan nueva
11:28
and so powerful,
y también poderosa,
11:31
that by accident
we could make them sicker.
por accidente, podría
empeorar una enfermedad.
11:32
That easily could happen.
Eso podría suceder fácilmente.
11:36
And there's another risk,
Y hay otro riesgo,
11:38
and that is that all of the legitimate,
important genetic modification research
y es que todo esa legítima e importante
investigación sobre modificación genética
11:39
going on just in the lab --
dándose en el laboratorio.
11:44
again, no interest in designer babies --
— una vez más, sin pretender
el diseño genético —
11:46
a few people going
the designer baby route,
al seguir algunos
la ruta del diseño de bebés,
11:49
things go badly,
si acaso algo va mal,
11:52
that entire field could be damaged.
todo ese campo podría dañarse.
11:53
I also think it's not that unlikely
Tampoco creo que sea improbable
11:57
that governments might start taking
an interest in genetic modification.
que los gobiernos puedan empezar
a interesarse en la modificación genética.
11:59
So for example our imagined GM Jenna child
Así que, por ejemplo,
nuestra niña Jenna modificada
12:04
who is healthier,
que es más saludable,
12:09
if there's a generation that looks
like they have lower health care costs,
si hay una generación que parece tener
un menor costo en atención médica,
12:10
it's possible that governments
may start trying to compel their citizens
es posible que los gobiernos
puedan empezar a obligar a sus ciudadanos
12:15
to go the GM route.
a seguir la vía de la modificación.
12:19
Look at China's one-child policy.
Vean la ley china:
"un hijo por familia".
12:21
It's thought that that prevented
the birth of 400 million human beings.
Se cree que impidió el nacimiento
de 400 millones de seres humanos.
12:23
So it's not beyond the realm of possible
Así que no está lejos de lo posible
12:30
that genetic modification
could be something that governments push.
que la modificación genética
pueda ser algo que el gobierno exija.
12:32
And if designer babies become popular,
Y si el diseño de bebés se hace popular,
12:37
in our digital age --
en nuestra era digital,
12:40
viral videos, social media --
videos virales, redes sociales,
12:42
what if designer babies
are thought to be fashionable,
qué tal si el diseño de bebés
se considerara una moda,
12:45
and they kind of become
the new glitterati,
y se vuelven las nuevas personalidades,
12:47
the new Kardashians or something?
¿algo así como los nuevos Kardashian?
12:49
(Laughter)
(Risas)
12:51
You know, are those trends
that we really could control?
¿Acaso esas son tendencias
que podamos controlar?
12:52
I'm not convinced that we could.
No estoy convencido de que podamos.
12:57
So again, today it's Halloween
Una vez más, hoy es Halloween
13:00
and when we talk
about genetic modification,
y cuando hablamos
de modificación genética,
13:03
there's one Halloween-associated character
hay un personaje asociado a Halloween
13:06
that is talked about
or invoked more than anything else,
del que se nombra
o se habla más que de nadie,
13:09
and that is Frankenstein.
y ese es Frankenstein.
13:12
Mostly that's been Frankenfoods
and all this other stuff.
Mayormente ha habido comida
del tipo Frankenstein y esas cosas.
13:14
But if we think about this now
and we think about it in the human context
Pero si pensamos en esto ahora
y lo imaginamos en el contexto humano.
13:18
on a day like Halloween,
en un día como Halloween,
13:23
if parents can in essence
costume their children genetically,
si los padres pueden, en esencia,
disfrazar a sus hijos genéticamente,
13:24
are we going to be talking about
a Frankenstein 2.0 kind of situation?
¿estaremos hablando de un caso
de un Frankenstein 2.0?
13:30
I don't think so. I don't think
it's going to get to that extreme.
No lo creo. No creo que
vaya a llegar a ese extremo.
13:36
But when we are going about
hacking the human code,
Pero cuando se intenta
irrumpir en el código humano,
13:39
I think all bets are off
in terms of what might come of that.
creo que las apuestas están fuera
en términos de lo que surgiría.
13:43
There would still be dangers.
Aún habría peligros.
13:46
And we can look in the past
Y podemos mirar el pasado
13:49
to other elements
of transformative science
a otros elementos
de la ciencia transformadora
13:50
and see how they can
basically go out of control
y ver cómo pueden,
básicamente, salirse de control
13:53
and permeate society.
e infiltrarse en la sociedad.
13:57
So I'll just give you one example,
and that is in vitro fertilization.
Les daré un ejemplo, y es
de la fertilización in vitro.
13:59
Almost exactly 40 years ago,
Casi hace unos 40 años,
14:04
test tube baby number one
Louise Brown was born,
el bebé probeta número uno,
Louise Brown nació,
14:08
and that's a great thing,
eso fue genial,
14:11
and I think since then
five million IVF babies have been born,
y desde allí, creo que 5 millones
de bebés probeta han nacido,
14:13
bringing immeasurable happiness.
trayendo una enorme felicidad.
14:18
A lot of parents now can love those kids.
Muchos padres ahora
puedes amar a esos niños.
14:20
But if you think about it,
in four decades,
Pero si piensan en ello,
en cuatro décadas,
14:23
five million babies being born
from a new technology
cinco millones de bebés que
nacen de una nueva tecnología
14:25
is pretty remarkable,
es bastante notable,
14:29
and the same kind of thing could happen
y las mismas cosas podrían pasar
14:31
with human genetic modification
and designer babies.
con la modificación genética humana
y el diseño de bebés.
14:33
So depending on the decisions
we make in the next few months,
Así que depende de la decisión
que se tome en los próximos meses,
14:37
the next year or so,
o en el año siguiente,
14:40
if designer baby number one is born,
si el bebé de diseño número uno nace,
14:41
within a few decades,
dentro de unas décadas,
14:44
there could well be millions
of genetically modified humans.
bien podrían haber millones de
humanos modificados genéticamente.
14:46
And there's a difference there too,
because if we, you in the audience, or I,
Y hay una diferencia allí también, porque
si nosotros, Uds., el público, o yo,
14:49
if we decide to have a designer baby,
decidimos tener un bebé de diseño,
14:54
then their children will also
be genetically modified, and so on,
entonces sus hijos también serán
genéticamente modificados, y así,
14:57
because it's heritable.
porque es hereditario.
15:01
So that's a big difference.
Así que hay una gran diferencia.
15:02
So with all of this in mind,
Y con eso en mente,
15:05
what should we do?
¿qué deberíamos hacer?
15:07
There's actually going to be a meeting
De hecho, va a haber una reunión
15:10
a month from tomorrow in Washington, D.C.
en un mes a partir de mañana
en Washington, D.C.,
15:11
by the US National Academy of Sciences
por la Academia Nacional de Ciencias
15:14
to tackle that exact question.
para abordar esa cuestión exacta.
15:16
What is the right path forward
with human genetic modification?
¿Cuál es la vía correcta para
la modificación genética humana?
15:19
I believe at this time
Creo que en este momento
15:23
we need a moratorium.
necesitamos una moratoria.
15:26
We have to ban this.
Se tiene que prohibir esto.
15:27
We should not allow
creating genetically modified people,
No deberíamos permitir la creación
de personas genéticamente modificadas,
15:29
because it's just too dangerous
and too unpredictable.
porque es demasiado peligroso
e impredecible.
15:32
But there's a lot of people --
Pero hay muchas personas...
15:37
(Applause)
(Aplausos)
15:38
Thanks.
Gracias.
15:39
(Applause)
(Aplausos)
15:41
And let me say, just as a scientist,
Y les diré, solo como científico,
15:47
it's a little bit scary
for me to say that in public,
es un poco aterrador
decir esto en público,
15:50
because science generally doesn't like
self-regulation and things like that.
porque a la ciencia generalmente
no le gusta la autorregulación.
15:52
So I think we need to put a hold on this,
Así que debemos poner un alto a esto,
15:59
but there are many people
who not only disagree with me,
pero hay gente que no solo
está en desacuerdo conmigo,
16:02
they feel the exact opposite.
también sienten lo contrario.
16:05
They're like, step on the gas,
full speed ahead,
Sienten que deben pisar
el acelerador e ir a toda marcha
16:06
let's make designer babies.
para hacer bebés de diseño.
16:09
And so in the meeting in December
Así que en la reunión de diciembre
16:11
and other meetings that are likely
to follow in the next few months,
y en otras que probablemente
sigan en los meses próximos,
16:14
it's very possible
there may be no moratorium.
es muy posible de que pueda
que no haya moratorias.
16:18
And I think part
of the problem that we have
Y creo que parte del problema que tenemos
16:21
is that all of this trend,
es que a toda esta tendencia,
16:24
this revolution in genetic modification
applying to humans,
esta revolución en modificación
genética aplicada a humanos,
16:26
the public hasn't known about it.
el público la desconoce.
16:30
Nobody has been saying,
Nadie ha dicho,
16:32
look, this is a big deal,
this is a revolution,
observen, esto es importante,
es una revolución,
16:33
and this could affect you
in very personal ways.
y podría afectarnos
en formas muy personales.
16:38
And so part of my goal
is actually to change that
Así que parte de mi objetivo
es, de hecho, cambiar eso
16:40
and to educate and engage with the public
y educar y sensibilizar al público,
16:43
and get you guys talking about this.
y animarlos a hablar sobre esto.
16:46
And so I hope at these meetings
that there will be a role for the public
Y así espero que en esas reuniones
haya un lugar para el público
16:49
to bring their voice to bear as well.
para que exprese su voz y nos apoye.
16:53
So if we kind of circle back now
to 2030 again, that imagined story,
Así que si retrocedemos al 2030
otra vez, a esa historia imaginaria,
16:57
and depending on the decisions
we make, again, today --
y dependiendo de las decisiones
que se tomen, hoy,
17:03
literally we don't have a lot of time --
literalmente no se tiene mucho tiempo,
17:06
in the next few months,
the next year or so,
en los próximos meses, o próximos años,
17:08
because this technology
is spreading like wildfire.
porque esta tecnología
se propaga como un incendio.
17:10
Let's pretend we're back in that reality.
Imaginemos que estamos
de regreso en esa realidad.
17:13
We're at a park,
Estamos en un parque,
17:16
and our kid is swinging on the swing.
y nuestro niño se balancea
en el columpio.
17:18
Is that kid a regular old kid,
¿Es él un niño normal
17:22
or did we decide to have a designer baby?
o decidimos tener un bebé de diseño?
17:25
And let's say we went
the sort of traditional route,
Digamos que fuimos
por la vía tradicional,
17:28
and there's our kid swinging on the swing,
y ahí esta nuestro hijo en el columpio,
17:32
and frankly, they're kind of a mess.
y francamente, es un desastre.
17:34
Their hair is all over
the place like mine.
Su cabello está desaliñado como el mío,
17:37
They have a stuffy nose.
tiene congestión nasal.
17:40
They're not the best student in the world.
No es el mejor estudiante del mundo,
17:42
They're adorable, you love them,
es adorable, uno los ama,
17:45
but there on the swing next to them,
pero en el otro columpio de al lado,
17:47
their best friend is a GM kid,
su mejor amigo es un niño modificado,
17:49
and the two of them
are kind of swinging like this,
y los dos se balancean de este modo,
17:52
and you can't help
but compare them, right?
y no se puede evitar compararlos, ¿no?
17:54
And the GM kid is swinging higher,
Y el niño modificado se balancea más alto,
17:56
they look better,
they're a better student,
luce mejor, es un mejor estudiante,
17:59
they don't have that stuffy nose
you need to wipe.
no tiene esa congestión nasal
que necesite limpiar.
18:01
How is that going to make you feel
¿Cómo lo haría sentir eso
18:04
and what decision
might you make next time?
y qué decisión podrían
tomar en esa ocasión?
18:06
Thank you.
Gracias.
18:10
(Applause)
(Aplausos)
18:11
Translated by César Incio
Reviewed by Sebastian Betti

▲Back to top

About the Speaker:

Paul Knoepfler - Biologist
Paul Knoepfler is a biomedical scientist and writer focusing on stem cells and genetics.

Why you should listen

Dr. Paul Knoepfler loves stem cells. He is working to figure out how we use safely them to treat many diseases and how stem cells sometimes turn to the dark side to cause cancer. Over the years he has made key discoveries about how stem cells and cancer are programmed. Now he is especially interested in how to hack these cells to control their behavior, including using powerful CRISPR genetic modification technology.

Knoepfler has also been a leading voice in the discussion about how CRISPR could be used to make designer babies and the risks of going down that path. He is a professor of cell biology and anatomy at UC Davis School of Medicine in California, where he both does research and teaches. In addition, he is a prolific writer including his popular science blog, The Niche, and two books: Stem Cells: An Insider's Guide and GMO Sapiens: The Life-Changing Science of Designer Babies. He is excited about contributing to efforts to build an innovative, global community of interconnected people with a shared passion for biomedical science and battling fake science. Knoepfler’s outspoken, approachable nature in tackling some of the most transformative questions in science has made him a go-to scientist for journalists and ordinary people across the globe.

More profile about the speaker
Paul Knoepfler | Speaker | TED.com