TEDxCERN
Sinan Aral: How we can protect truth in the age of misinformation
Sinan Aral: Cómo proteger la verdad en la era de la desinformación
Filmed:
Readability: 5.3
1,289,169 views
Las noticias falsas pueden influir en las elecciones, arruinar las economías y sembrar la discordia en la vida cotidiana. El experto en datos Sinan Aral desmitifica cómo y por qué se difunden tan rápidamente, para lo cual cita uno de los mayores estudios sobre desinformación, e identifica cinco estrategias para ayudarnos a desentrañar la enredada red entre lo verdadero y lo falso.
Double-click the English transcript below to play the video.
00:13
So, on April 23 of 2013,
0
1468
5222
El 23 de abril de 2013,
00:18
the Associated Press
put out the following tweet on Twitter.
put out the following tweet on Twitter.
1
6714
5514
Associated Press
puso el siguiente tuit en Twitter.
puso el siguiente tuit en Twitter.
00:24
It said, "Breaking news:
2
12252
2397
Decía: "Noticia de última hora:
00:26
Two explosions at the White House
3
14673
2571
dos explosiones en la Casa Blanca.
00:29
and Barack Obama has been injured."
4
17268
2333
Barack Obama ha resultado herido".
00:32
This tweet was retweeted 4,000 times
in less than five minutes,
in less than five minutes,
5
20212
5425
Este tuit fue retuiteado 4000 veces
en menos de cinco minutos,
en menos de cinco minutos,
00:37
and it went viral thereafter.
6
25661
2217
y se hizo viral a partir de ese instante.
Ahora bien, este tuit
no fue una noticia verdadera
no fue una noticia verdadera
00:40
Now, this tweet wasn't real news
put out by the Associated Press.
put out by the Associated Press.
7
28760
4350
difundida por la agencia Associated Press.
00:45
In fact it was false news, or fake news,
8
33134
3333
En realidad, fue una noticia falsa,
00:48
that was propagated by Syrian hackers
9
36491
2825
propagada por 'hackers' sirios
00:51
that had infiltrated
the Associated Press Twitter handle.
the Associated Press Twitter handle.
10
39340
4694
que se habían hecho con el control
del Twitter de Associated Press.
del Twitter de Associated Press.
00:56
Their purpose was to disrupt society,
but they disrupted much more.
but they disrupted much more.
11
44407
3889
Su objetivo era alterar a la sociedad,
pero alteraron mucho más,
pero alteraron mucho más,
01:00
Because automated trading algorithms
12
48320
2476
porque los algoritmos
automatizados de negociación
automatizados de negociación
01:02
immediately seized
on the sentiment on this tweet,
on the sentiment on this tweet,
13
50820
3360
inmediatamente interpretaron
la sensibilidad de este tuit,
la sensibilidad de este tuit,
01:06
and began trading based on the potential
14
54204
2968
y comenzaron a operar
en base a la posibilidad
en base a la posibilidad
01:09
that the president of the United States
had been injured or killed
had been injured or killed
15
57196
3381
de que el presidente de los EE. UU.
hubiese sido herido o asesinado
hubiese sido herido o asesinado
en esa explosión.
01:12
in this explosion.
16
60601
1200
01:14
And as they started tweeting,
17
62188
1992
Y cuando empezaron a tuitear,
01:16
they immediately sent
the stock market crashing,
the stock market crashing,
18
64204
3349
hicieron que el mercado de valores
se desplomara al instante,
se desplomara al instante,
01:19
wiping out 140 billion dollars
in equity value in a single day.
in equity value in a single day.
19
67577
5167
y se perdieron 140 mil millones de dólares
en valor bursátil en un solo día.
en valor bursátil en un solo día.
01:25
Robert Mueller, special counsel
prosecutor in the United States,
prosecutor in the United States,
20
73062
4476
Robert Mueller, consejero
y fiscal especial de los Estados Unidos,
y fiscal especial de los Estados Unidos,
01:29
issued indictments
against three Russian companies
against three Russian companies
21
77562
3892
acusó penalmente a tres compañías rusas
01:33
and 13 Russian individuals
22
81478
2619
y a 13 individuos rusos
01:36
on a conspiracy to defraud
the United States
the United States
23
84121
3167
de conspirar para cometer fraude
contra los Estados Unidos
contra los Estados Unidos
01:39
by meddling in the 2016
presidential election.
presidential election.
24
87312
3780
al entrometerse en las elecciones
presidenciales de 2016.
presidenciales de 2016.
01:43
And what this indictment tells as a story
25
91855
3564
Lo que esta acusación deja al descubierto
01:47
is the story of the Internet
Research Agency,
Research Agency,
26
95443
3142
es la historia de la Agencia
de Investigación de Internet,
de Investigación de Internet,
01:50
the shadowy arm of the Kremlin
on social media.
on social media.
27
98609
3594
el oscuro brazo del Kremlin
en las redes sociales.
en las redes sociales.
01:54
During the presidential election alone,
28
102815
2777
Solo en las elecciones presidenciales,
01:57
the Internet Agency's efforts
29
105616
1889
los intentos de la Agencia de Internet
01:59
reached 126 million people
on Facebook in the United States,
on Facebook in the United States,
30
107529
5167
llegaron a 126 millones de personas
en Facebook en los Estados Unidos,
en Facebook en los Estados Unidos,
02:04
issued three million individual tweets
31
112720
3277
emitieron tres millones
de tuits individuales
de tuits individuales
02:08
and 43 hours' worth of YouTube content.
32
116021
3842
y 43 horas de contenido de YouTube.
02:11
All of which was fake --
33
119887
1652
Todo lo cual era falso,
02:13
misinformation designed to sow discord
in the US presidential election.
in the US presidential election.
34
121563
6323
desinformación diseñada para meter cizaña
en la elección presidencial de EE. UU.
en la elección presidencial de EE. UU.
Un estudio reciente
realizado por la Universidad de Oxford
realizado por la Universidad de Oxford
02:20
A recent study by Oxford University
35
128996
2650
02:23
showed that in the recent
Swedish elections,
Swedish elections,
36
131670
3270
mostró que en las últimas
elecciones suecas,
elecciones suecas,
02:26
one third of all of the information
spreading on social media
spreading on social media
37
134964
4375
un tercio de toda la información
que se difundió en las redes sociales
que se difundió en las redes sociales
02:31
about the election
38
139363
1198
sobre las elecciones
02:32
was fake or misinformation.
39
140585
2087
era falsa o incorrecta.
02:35
In addition, these types
of social-media misinformation campaigns
of social-media misinformation campaigns
40
143037
5078
Además, este tipo de campañas
de desinformación en redes sociales
de desinformación en redes sociales
02:40
can spread what has been called
"genocidal propaganda,"
"genocidal propaganda,"
41
148139
4151
pueden difundir lo que se ha llamado
"propaganda genocida",
"propaganda genocida",
02:44
for instance against
the Rohingya in Burma,
the Rohingya in Burma,
42
152314
3111
por ejemplo contra los rohingya en Burma,
02:47
triggering mob killings in India.
43
155449
2303
que desencadenó linchamientos en la India.
02:49
We studied fake news
44
157776
1494
Estudiamos las noticias falsas
02:51
and began studying it
before it was a popular term.
before it was a popular term.
45
159294
3219
y comenzamos a hacerlo
antes de que fuera un término popular.
antes de que fuera un término popular.
02:55
And we recently published
the largest-ever longitudinal study
the largest-ever longitudinal study
46
163030
5040
Y hemos publicado recientemente el estudio
longitudinal más grande jamás realizado
longitudinal más grande jamás realizado
03:00
of the spread of fake news online
47
168094
2286
sobre la difusión
de noticias falsas en línea
de noticias falsas en línea
03:02
on the cover of "Science"
in March of this year.
in March of this year.
48
170404
3204
en la portada de la revista "Science"
en marzo de este año.
en marzo de este año.
03:06
We studied all of the verified
true and false news stories
true and false news stories
49
174523
4161
Estudiamos todas las noticias
verificadas como verdaderas y falsas
verificadas como verdaderas y falsas
03:10
that ever spread on Twitter,
50
178708
1753
que se propagaron por Twitter,
03:12
from its inception in 2006 to 2017.
51
180485
3818
desde su creación en 2006 hasta 2017.
03:16
And when we studied this information,
52
184612
2314
Y cuando estudiamos esta información,
03:18
we studied verified news stories
53
186950
2876
tomamos las noticias
verificadas y revisadas
verificadas y revisadas
03:21
that were verified by six
independent fact-checking organizations.
independent fact-checking organizations.
54
189850
3918
por seis organizaciones
independientes de comprobación de datos.
independientes de comprobación de datos.
03:25
So we knew which stories were true
55
193792
2762
Así que sabíamos cuáles eran ciertas
03:28
and which stories were false.
56
196578
2126
y cuáles falsas.
03:30
We can measure their diffusion,
57
198728
1873
Podemos medir su difusión,
03:32
the speed of their diffusion,
58
200625
1651
la velocidad de su difusión,
03:34
the depth and breadth of their diffusion,
59
202300
2095
el alcance de su difusión,
03:36
how many people become entangled
in this information cascade and so on.
in this information cascade and so on.
60
204419
4142
cuántas personas se enredan
en esta cascada de información, etc.
en esta cascada de información, etc.
03:40
And what we did in this paper
61
208942
1484
Y lo que hicimos en esta investigación
03:42
was we compared the spread of true news
to the spread of false news.
to the spread of false news.
62
210450
3865
fue comparar la propagación
de noticias verdaderas con las falsas.
de noticias verdaderas con las falsas.
03:46
And here's what we found.
63
214339
1683
Y estos son los resultados.
03:48
We found that false news
diffused further, faster, deeper
diffused further, faster, deeper
64
216046
3979
Hallamos que una noticia falsa
llega más lejos, más rápido
llega más lejos, más rápido
03:52
and more broadly than the truth
65
220049
1806
y tiene más alcance que la verdadera
03:53
in every category of information
that we studied,
that we studied,
66
221879
3003
en todas las categorías de información
que hemos estudiado,
que hemos estudiado,
03:56
sometimes by an order of magnitude.
67
224906
2499
a veces en un orden de magnitud.
03:59
And in fact, false political news
was the most viral.
was the most viral.
68
227842
3524
Y las noticias falsas en el ámbito
de la política fueron las más virales.
de la política fueron las más virales.
04:03
It diffused further, faster,
deeper and more broadly
deeper and more broadly
69
231390
3147
Se difunden más lejos, más rápido,
y tienen mayor alcance
y tienen mayor alcance
04:06
than any other type of false news.
70
234561
2802
que cualquier otro tipo
de noticias falsas.
de noticias falsas.
04:09
When we saw this,
71
237387
1293
Cuando vimos esto,
04:10
we were at once worried but also curious.
72
238704
2841
sentimos a la vez
preocupación y curiosidad.
preocupación y curiosidad.
04:13
Why?
73
241569
1151
¿Por qué?
04:14
Why does false news travel
so much further, faster, deeper
so much further, faster, deeper
74
242744
3373
¿Por qué las noticias falsas llegan
más lejos, más rápido,
más lejos, más rápido,
04:18
and more broadly than the truth?
75
246141
1864
y tienen mayor alcance que la verdad?
04:20
The first hypothesis
that we came up with was,
that we came up with was,
76
248339
2961
La primera hipótesis
que se nos ocurrió fue:
que se nos ocurrió fue:
"Bueno, tal vez quienes
difunden noticias falsas
difunden noticias falsas
04:23
"Well, maybe people who spread false news
have more followers or follow more people,
have more followers or follow more people,
77
251324
4792
tienen más seguidores
o siguen a más gente,
o siguen a más gente,
04:28
or tweet more often,
78
256140
1557
o tuitean con más frecuencia,
04:29
or maybe they're more often 'verified'
users of Twitter, with more credibility,
users of Twitter, with more credibility,
79
257721
4126
o tal vez son más usuarios 'verificados'
de Twitter, con más credibilidad,
de Twitter, con más credibilidad,
04:33
or maybe they've been on Twitter longer."
80
261871
2182
o tal vez han estado
en Twitter más tiempo".
en Twitter más tiempo".
04:36
So we checked each one of these in turn.
81
264077
2298
Así que inspeccionamos
cada uno de estos casos.
cada uno de estos casos.
04:38
And what we found
was exactly the opposite.
was exactly the opposite.
82
266691
2920
Y lo que encontramos
fue exactamente lo contrario.
fue exactamente lo contrario.
Quienes difundían noticias falsas
tenían menos seguidores,
tenían menos seguidores,
04:41
False-news spreaders had fewer followers,
83
269635
2436
04:44
followed fewer people, were less active,
84
272095
2254
seguían a menos gente, eran menos activos,
eran usuarios poco "verificados"
eran usuarios poco "verificados"
04:46
less often "verified"
85
274373
1460
y habían estado en Twitter
por un período de tiempo más corto.
por un período de tiempo más corto.
04:47
and had been on Twitter
for a shorter period of time.
for a shorter period of time.
86
275857
2960
04:50
And yet,
87
278841
1189
Y sin embargo,
04:52
false news was 70 percent more likely
to be retweeted than the truth,
to be retweeted than the truth,
88
280054
5033
las noticias falsas eran un 70 %
más propensas a ser retuiteadas,
más propensas a ser retuiteadas,
04:57
controlling for all of these
and many other factors.
and many other factors.
89
285111
3363
teniendo en cuenta estos
y muchos otros factores.
y muchos otros factores.
05:00
So we had to come up
with other explanations.
with other explanations.
90
288498
2690
Así que tuvimos que buscar
otras explicaciones.
otras explicaciones.
E ideamos lo que llamamos
"hipótesis de la novedad".
"hipótesis de la novedad".
05:03
And we devised what we called
a "novelty hypothesis."
a "novelty hypothesis."
91
291212
3467
05:07
So if you read the literature,
92
295038
1960
Si leemos documentaciones sobre el tema,
05:09
it is well known that human attention
is drawn to novelty,
is drawn to novelty,
93
297022
3754
es bien sabido que la atención humana
se siente atraída por la novedad,
se siente atraída por la novedad,
05:12
things that are new in the environment.
94
300800
2519
cosas que son nuevas en el entorno.
05:15
And if you read the sociology literature,
95
303343
1985
Y si leemos la literatura sociológica,
05:17
you know that we like to share
novel information.
novel information.
96
305352
4300
veremos que nos gusta compartir
información novedosa.
información novedosa.
05:21
It makes us seem like we have access
to inside information,
to inside information,
97
309676
3838
Sentimos que tenemos acceso
a información privilegiada,
a información privilegiada,
05:25
and we gain in status
by spreading this kind of information.
by spreading this kind of information.
98
313538
3785
y ganamos estatus mediante la difusión
de este tipo de información.
de este tipo de información.
05:29
So what we did was we measured the novelty
of an incoming true or false tweet,
of an incoming true or false tweet,
99
317792
6452
Decidimos entonces medir
la novedad de un tuit verdadero o falso,
la novedad de un tuit verdadero o falso,
05:36
compared to the corpus
of what that individual had seen
of what that individual had seen
100
324268
4055
en comparación con el corpus
de lo que esa persona había visto
de lo que esa persona había visto
05:40
in the 60 days prior on Twitter.
101
328347
2952
en Twitter los 60 días anteriores.
05:43
But that wasn't enough,
because we thought to ourselves,
because we thought to ourselves,
102
331323
2659
Pero no fue suficiente, porque pensamos:
05:46
"Well, maybe false news is more novel
in an information-theoretic sense,
in an information-theoretic sense,
103
334006
4208
"Bueno, quizá las noticias falsas
son más novedosas en un sentido teórico,
son más novedosas en un sentido teórico,
05:50
but maybe people
don't perceive it as more novel."
don't perceive it as more novel."
104
338238
3258
pero tal vez la gente
no las percibe como más novedosas".
no las percibe como más novedosas".
05:53
So to understand people's
perceptions of false news,
perceptions of false news,
105
341849
3927
Así que para entender cómo
la gente percibe las noticias falsas,
la gente percibe las noticias falsas,
05:57
we looked at the information
and the sentiment
and the sentiment
106
345800
3690
nos fijamos en la información
y el componente afectivo
y el componente afectivo
06:01
contained in the replies
to true and false tweets.
to true and false tweets.
107
349514
4206
de las respuestas
a los tuits verdaderos y falsos.
a los tuits verdaderos y falsos.
06:06
And what we found
108
354022
1206
Y lo que detectamos
06:07
was that across a bunch
of different measures of sentiment --
of different measures of sentiment --
109
355252
4214
fue que, teniendo en cuenta
un montón de sentimientos diferentes,
un montón de sentimientos diferentes,
06:11
surprise, disgust, fear, sadness,
110
359490
3301
como sorpresa, disgusto, miedo, tristeza,
06:14
anticipation, joy and trust --
111
362815
2484
expectativa, alegría y confianza,
06:17
false news exhibited significantly more
surprise and disgust
surprise and disgust
112
365323
5857
las noticias falsas generaron
significativamente más sorpresa y disgusto
significativamente más sorpresa y disgusto
06:23
in the replies to false tweets.
113
371204
2806
en las respuestas a los falsos tuits.
06:26
And true news exhibited
significantly more anticipation,
significantly more anticipation,
114
374392
3789
Y las noticias verdaderas mostraron
significativamente más expectativas,
significativamente más expectativas,
06:30
joy and trust
115
378205
1547
alegría y confianza
06:31
in reply to true tweets.
116
379776
2547
en respuesta a los tuits verdaderos.
06:34
The surprise corroborates
our novelty hypothesis.
our novelty hypothesis.
117
382347
3786
La sorpresa corrobora
nuestra hipótesis de la novedad.
nuestra hipótesis de la novedad.
06:38
This is new and surprising,
and so we're more likely to share it.
and so we're more likely to share it.
118
386157
4609
Esto es nuevo y sorprendente,
por lo que es más fácil que se comparta.
por lo que es más fácil que se comparta.
06:43
At the same time,
there was congressional testimony
there was congressional testimony
119
391092
2925
Al mismo tiempo,
hubo testimonios ante el Congreso
hubo testimonios ante el Congreso
06:46
in front of both houses of Congress
in the United States,
in the United States,
120
394041
3036
en las dos cámaras parlamentarias
de los Estados Unidos
de los Estados Unidos
06:49
looking at the role of bots
in the spread of misinformation.
in the spread of misinformation.
121
397101
3738
sobre el papel de los robots
en la propagación de información errónea.
en la propagación de información errónea.
Así que consideramos esto también.
06:52
So we looked at this too --
122
400863
1354
06:54
we used multiple sophisticated
bot-detection algorithms
bot-detection algorithms
123
402241
3598
Utilizamos múltiples algoritmos
complejos de rastreo
complejos de rastreo
06:57
to find the bots in our data
and to pull them out.
and to pull them out.
124
405863
3074
para encontrar los robots
en nuestros datos y sacarlos.
en nuestros datos y sacarlos.
07:01
So we pulled them out,
we put them back in
we put them back in
125
409347
2659
Los sacamos, los volvimos a poner
07:04
and we compared what happens
to our measurement.
to our measurement.
126
412030
3119
y comparamos lo que sucede
con nuestras mediciones.
con nuestras mediciones.
07:07
And what we found was that, yes indeed,
127
415173
2293
Descubrimos que, efectivamente,
07:09
bots were accelerating
the spread of false news online,
the spread of false news online,
128
417490
3682
los robots aceleraban la propagación
de noticias falsas en línea,
de noticias falsas en línea,
07:13
but they were accelerating
the spread of true news
the spread of true news
129
421196
2651
pero aceleraban
la propagación de las verdaderas
la propagación de las verdaderas
07:15
at approximately the same rate.
130
423871
2405
aproximadamente a la misma velocidad.
07:18
Which means bots are not responsible
131
426300
2858
Lo que significa que los robots
no son los responsables
no son los responsables
07:21
for the differential diffusion
of truth and falsity online.
of truth and falsity online.
132
429182
4713
de la difusión diferencial
de la verdad y la mentira en línea.
de la verdad y la mentira en línea.
07:25
We can't abdicate that responsibility,
133
433919
2849
No podemos renunciar
a esa responsabilidad,
a esa responsabilidad,
07:28
because we, humans,
are responsible for that spread.
are responsible for that spread.
134
436792
4259
porque nosotros, los seres humanos,
somos responsables de esa propagación.
somos responsables de esa propagación.
07:34
Now, everything
that I have told you so far,
that I have told you so far,
135
442472
3334
Ahora bien, todo lo que
les he dicho hasta el momento,
les he dicho hasta el momento,
07:37
unfortunately for all of us,
136
445830
1754
por desgracia para todos nosotros,
07:39
is the good news.
137
447608
1261
es la buena noticia.
07:42
The reason is because
it's about to get a whole lot worse.
it's about to get a whole lot worse.
138
450670
4450
La razón es que está
a punto de ponerse mucho peor.
a punto de ponerse mucho peor.
07:47
And two specific technologies
are going to make it worse.
are going to make it worse.
139
455850
3682
Y dos tecnologías específicas
van a empeorar la situación.
van a empeorar la situación.
07:52
We are going to see the rise
of a tremendous wave of synthetic media.
of a tremendous wave of synthetic media.
140
460207
5172
Vamos a presenciar el aumento
de una tremenda ola de medios sintéticos.
de una tremenda ola de medios sintéticos.
07:57
Fake video, fake audio
that is very convincing to the human eye.
that is very convincing to the human eye.
141
465403
6031
Video falso, audio falso,
muy convincentes para el ojo humano.
muy convincentes para el ojo humano.
08:03
And this will powered by two technologies.
142
471458
2754
Y esto será impulsado por dos tecnologías.
08:06
The first of these is known
as "generative adversarial networks."
as "generative adversarial networks."
143
474236
3833
La primera es conocida como
"redes de confrontación generativas".
"redes de confrontación generativas".
08:10
This is a machine-learning model
with two networks:
with two networks:
144
478093
2563
Es un modelo de aprendizaje
automático con dos redes:
automático con dos redes:
08:12
a discriminator,
145
480680
1547
un discriminador,
08:14
whose job it is to determine
whether something is true or false,
whether something is true or false,
146
482251
4200
cuyo trabajo es determinar
si algo es verdadero o falso,
si algo es verdadero o falso,
08:18
and a generator,
147
486475
1167
y un generador,
08:19
whose job it is to generate
synthetic media.
synthetic media.
148
487666
3150
cuyo trabajo es generar medios sintéticos.
08:22
So the synthetic generator
generates synthetic video or audio,
generates synthetic video or audio,
149
490840
5102
El generador sintético
genera un video o audio sintético,
genera un video o audio sintético,
08:27
and the discriminator tries to tell,
"Is this real or is this fake?"
"Is this real or is this fake?"
150
495966
4675
y el discriminador trata de distinguir
si es verdadero o falso.
si es verdadero o falso.
08:32
And in fact, it is the job
of the generator
of the generator
151
500665
2874
Y, de hecho, el trabajo del generador
08:35
to maximize the likelihood
that it will fool the discriminator
that it will fool the discriminator
152
503563
4435
es maximizar la probabilidad
de engañar al discriminador
de engañar al discriminador
08:40
into thinking the synthetic
video and audio that it is creating
video and audio that it is creating
153
508022
3587
para que crea que el video
y el audio sintéticos que está creando
y el audio sintéticos que está creando
08:43
is actually true.
154
511633
1730
son realmente ciertos.
08:45
Imagine a machine in a hyperloop,
155
513387
2373
Imaginen una máquina en un Hyperloop,
08:47
trying to get better
and better at fooling us.
and better at fooling us.
156
515784
2803
que se perfecciona más y más
con el fin de engañarnos.
con el fin de engañarnos.
08:51
This, combined with the second technology,
157
519114
2500
Esto, combinado con la segunda tecnología,
08:53
which is essentially the democratization
of artificial intelligence to the people,
of artificial intelligence to the people,
158
521638
5722
que es esencialmente la democratización
de la inteligencia artificial,
de la inteligencia artificial,
08:59
the ability for anyone,
159
527384
2189
la capacidad de cualquier persona,
09:01
without any background
in artificial intelligence
in artificial intelligence
160
529597
2830
sin ningún tipo de experiencia
en inteligencia artificial
en inteligencia artificial
o aprendizaje automático,
09:04
or machine learning,
161
532451
1182
09:05
to deploy these kinds of algorithms
to generate synthetic media
to generate synthetic media
162
533657
4103
de implementar este tipo de algoritmos
para generar los medios sintéticos
para generar los medios sintéticos
09:09
makes it ultimately so much easier
to create videos.
to create videos.
163
537784
4547
hace que, en última instancia,
sea mucho más fácil crear videos.
sea mucho más fácil crear videos.
09:14
The White House issued
a false, doctored video
a false, doctored video
164
542355
4421
La Casa Blanca emitió
el video falso y adulterado
el video falso y adulterado
09:18
of a journalist interacting with an intern
who was trying to take his microphone.
who was trying to take his microphone.
165
546800
4288
de una pasante que intentaba
sacarle el micrófono a un periodista.
sacarle el micrófono a un periodista.
09:23
They removed frames from this video
166
551427
1999
Eliminaron fotogramas de este video
09:25
in order to make his actions
seem more punchy.
seem more punchy.
167
553450
3287
para que las acciones del periodista
pareciesen más violentas.
pareciesen más violentas.
09:29
And when videographers
and stuntmen and women
and stuntmen and women
168
557157
3385
Y cuando camarógrafos y dobles
09:32
were interviewed
about this type of technique,
about this type of technique,
169
560566
2427
fueron consultados
acerca de este tipo de técnica,
acerca de este tipo de técnica,
09:35
they said, "Yes, we use this
in the movies all the time
in the movies all the time
170
563017
3828
dijeron: "Sí, siempre
lo hacemos en las películas
lo hacemos en las películas
09:38
to make our punches and kicks
look more choppy and more aggressive."
look more choppy and more aggressive."
171
566869
4763
para que nuestros puñetazos y patadas
parezcan más rápidos y agresivos".
parezcan más rápidos y agresivos".
09:44
They then put out this video
172
572268
1867
Entonces mostraron este video
09:46
and partly used it as justification
173
574159
2500
y lo utilizaron parcialmente como excusa
09:48
to revoke Jim Acosta,
the reporter's, press pass
the reporter's, press pass
174
576683
3999
para denegar el acceso de Jim Acosta
como periodista a la Casa Blanca.
como periodista a la Casa Blanca.
09:52
from the White House.
175
580706
1339
09:54
And CNN had to sue
to have that press pass reinstated.
to have that press pass reinstated.
176
582069
4809
Y la CNN tuvo que demandarlos
para regresarle su pase de prensa.
para regresarle su pase de prensa.
10:00
There are about five different paths
that I can think of that we can follow
that I can think of that we can follow
177
588538
5603
Hay unos cinco modos diferentes
que se me ocurren
que se me ocurren
10:06
to try and address some
of these very difficult problems today.
of these very difficult problems today.
178
594165
3739
para tratar de abordar algunos
de estos problemas difíciles hoy en día.
de estos problemas difíciles hoy en día.
10:10
Each one of them has promise,
179
598379
1810
Cada uno es prometedor,
10:12
but each one of them
has its own challenges.
has its own challenges.
180
600213
2999
pero tiene sus propios desafíos.
10:15
The first one is labeling.
181
603236
2008
El primero es el etiquetado.
10:17
Think about it this way:
182
605268
1357
Piénsenlo de esta manera:
10:18
when you go to the grocery store
to buy food to consume,
to buy food to consume,
183
606649
3611
cuando van a la tienda
para comprar alimentos,
para comprar alimentos,
10:22
it's extensively labeled.
184
610284
1904
está todo etiquetado.
10:24
You know how many calories it has,
185
612212
1992
Saben la cantidad de calorías que tiene,
10:26
how much fat it contains --
186
614228
1801
la cantidad de grasa que contiene,
10:28
and yet when we consume information,
we have no labels whatsoever.
we have no labels whatsoever.
187
616053
4278
pero, cuando consumimos información,
no tenemos etiquetas de ningún tipo.
no tenemos etiquetas de ningún tipo.
10:32
What is contained in this information?
188
620355
1928
¿Qué contiene esta información?
10:34
Is the source credible?
189
622307
1453
¿Es creíble la fuente?
10:35
Where is this information gathered from?
190
623784
2317
¿De dónde se obtuvo esta información?
10:38
We have none of that information
191
626125
1825
No tenemos ninguno de esos datos
cuando consumimos información.
cuando consumimos información.
10:39
when we are consuming information.
192
627974
2103
10:42
That is a potential avenue,
but it comes with its challenges.
but it comes with its challenges.
193
630101
3238
Esa es una vía potencial,
pero viene con sus desafíos.
pero viene con sus desafíos.
10:45
For instance, who gets to decide,
in society, what's true and what's false?
in society, what's true and what's false?
194
633363
6451
Por ejemplo, ¿quién decide en la sociedad
lo que es cierto y lo que es falso?
lo que es cierto y lo que es falso?
10:52
Is it the governments?
195
640387
1642
¿Son los gobiernos?
10:54
Is it Facebook?
196
642053
1150
¿Es Facebook?
10:55
Is it an independent
consortium of fact-checkers?
consortium of fact-checkers?
197
643601
3762
¿Es un consorcio independiente
de verificadores?
de verificadores?
10:59
And who's checking the fact-checkers?
198
647387
2466
¿Y quién controla a los verificadores?
11:02
Another potential avenue is incentives.
199
650427
3084
Otra vía potencial son los incentivos.
11:05
We know that during
the US presidential election
the US presidential election
200
653535
2634
Sabemos que durante
la elección presidencial de EE. UU.
la elección presidencial de EE. UU.
11:08
there was a wave of misinformation
that came from Macedonia
that came from Macedonia
201
656193
3690
se produjo una oleada de información falsa
que procedía de Macedonia.
que procedía de Macedonia.
11:11
that didn't have any political motive
202
659907
2337
No tenía ningún fin político
11:14
but instead had an economic motive.
203
662268
2460
pero sí un fin económico.
11:16
And this economic motive existed,
204
664752
2148
Y este fin económico existió
11:18
because false news travels
so much farther, faster
so much farther, faster
205
666924
3524
porque las noticias falsas viajan
mucho más lejos, más rápido,
mucho más lejos, más rápido,
11:22
and more deeply than the truth,
206
670472
2010
y tienen mayor alcance que la verdad,
11:24
and you can earn advertising dollars
as you garner eyeballs and attention
as you garner eyeballs and attention
207
672506
4960
y se puede ganar dinero con la publicidad
mientras se atrae la atención
mientras se atrae la atención
11:29
with this type of information.
208
677490
1960
con este tipo de información.
11:31
But if we can depress the spread
of this information,
of this information,
209
679474
3833
Pero si podemos reducir la difusión
de esta información,
de esta información,
11:35
perhaps it would reduce
the economic incentive
the economic incentive
210
683331
2897
tal vez se reduciría
el incentivo económico
el incentivo económico
11:38
to produce it at all in the first place.
211
686252
2690
para producirla.
11:40
Third, we can think about regulation,
212
688966
2500
En tercer lugar, pensemos en la regulación
11:43
and certainly, we should think
about this option.
about this option.
213
691490
2325
y, desde luego, debemos
pensar en esta opción.
pensar en esta opción.
11:45
In the United States, currently,
214
693839
1611
En EE. UU., en la actualidad,
11:47
we are exploring what might happen
if Facebook and others are regulated.
if Facebook and others are regulated.
215
695474
4848
estamos explorando lo que podría suceder
si Facebook y otros medios se regularan.
si Facebook y otros medios se regularan.
11:52
While we should consider things
like regulating political speech,
like regulating political speech,
216
700346
3801
Aunque debemos tener en cuenta cosas
como la regulación del discurso político,
como la regulación del discurso político,
11:56
labeling the fact
that it's political speech,
that it's political speech,
217
704171
2508
es decir, etiquetarlo
como discurso político,
como discurso político,
asegurarse de que los actores extranjeros
no puedan financiar el discurso político,
no puedan financiar el discurso político,
11:58
making sure foreign actors
can't fund political speech,
can't fund political speech,
218
706703
3819
12:02
it also has its own dangers.
219
710546
2547
también tiene sus propios peligros.
12:05
For instance, Malaysia just instituted
a six-year prison sentence
a six-year prison sentence
220
713522
4878
Por ejemplo, Malasia acaba de instituir
una condena de seis años de prisión
una condena de seis años de prisión
12:10
for anyone found spreading misinformation.
221
718424
2734
para cualquier persona que sea sorprendida
difundiendo datos falsos.
difundiendo datos falsos.
12:13
And in authoritarian regimes,
222
721696
2079
Y en los regímenes autoritarios,
12:15
these kinds of policies can be used
to suppress minority opinions
to suppress minority opinions
223
723799
4666
este tipo de políticas se pueden utilizar
para suprimir las opiniones minoritarias
para suprimir las opiniones minoritarias
12:20
and to continue to extend repression.
224
728489
3508
y para seguir ampliando la represión.
12:24
The fourth possible option
is transparency.
is transparency.
225
732680
3543
La cuarta opción posible
es la transparencia.
es la transparencia.
12:28
We want to know
how do Facebook's algorithms work.
how do Facebook's algorithms work.
226
736843
3714
Queremos saber cómo funcionan
los algoritmos de Facebook.
los algoritmos de Facebook.
12:32
How does the data
combine with the algorithms
combine with the algorithms
227
740581
2880
¿De qué manera los datos
se combinan con los algoritmos
se combinan con los algoritmos
12:35
to produce the outcomes that we see?
228
743485
2838
para producir los resultados que vemos?
12:38
We want them to open the kimono
229
746347
2349
Queremos que abran el kimono
12:40
and show us exactly the inner workings
of how Facebook is working.
of how Facebook is working.
230
748720
4214
y nos muestren exactamente
el funcionamiento interno de Facebook.
el funcionamiento interno de Facebook.
Y si queremos conocer el efecto
de las redes sociales en la sociedad,
de las redes sociales en la sociedad,
12:44
And if we want to know
social media's effect on society,
social media's effect on society,
231
752958
2779
12:47
we need scientists, researchers
232
755761
2086
necesitamos que científicos,
investigadores y otras personas
investigadores y otras personas
12:49
and others to have access
to this kind of information.
to this kind of information.
233
757871
3143
tengan acceso a este tipo de información.
12:53
But at the same time,
234
761038
1547
Pero al mismo tiempo,
12:54
we are asking Facebook
to lock everything down,
to lock everything down,
235
762609
3801
estamos pidiendo a Facebook
poner todo bajo llave
poner todo bajo llave
12:58
to keep all of the data secure.
236
766434
2173
para mantener los datos seguros.
13:00
So, Facebook and the other
social media platforms
social media platforms
237
768631
3159
Así, Facebook y las otras
plataformas de medios sociales
plataformas de medios sociales
13:03
are facing what I call
a transparency paradox.
a transparency paradox.
238
771814
3134
se enfrentan a lo que llamo
"la paradoja de la transparencia".
"la paradoja de la transparencia".
13:07
We are asking them, at the same time,
239
775266
2674
Les estamos pidiendo
13:09
to be open and transparent
and, simultaneously secure.
and, simultaneously secure.
240
777964
4809
que sean abiertas, transparentes
y, al mismo tiempo, seguras.
y, al mismo tiempo, seguras.
13:14
This is a very difficult needle to thread,
241
782797
2691
Esta es una aguja muy difícil enhebrar,
13:17
but they will need to thread this needle
242
785512
1913
pero deberán enhebrar esta aguja
13:19
if we are to achieve the promise
of social technologies
of social technologies
243
787449
3787
si queremos alcanzar la promesa
de las tecnologías sociales
de las tecnologías sociales
13:23
while avoiding their peril.
244
791260
1642
y, a la vez, evitar sus riesgos.
13:24
The final thing that we could think about
is algorithms and machine learning.
is algorithms and machine learning.
245
792926
4691
La última opción posible
son los algoritmos
y el aprendizaje automático,
y el aprendizaje automático,
13:29
Technology devised to root out
and understand fake news, how it spreads,
and understand fake news, how it spreads,
246
797641
5277
tecnología ideada para erradicar
y entender las noticias falsas,
y entender las noticias falsas,
cómo se transmiten,
y tratar de reducir su difusión.
y tratar de reducir su difusión.
13:34
and to try and dampen its flow.
247
802942
2331
13:37
Humans have to be in the loop
of this technology,
of this technology,
248
805824
2897
La humanidad tiene que estar
en el bucle de esta tecnología,
en el bucle de esta tecnología,
13:40
because we can never escape
249
808745
2278
porque nunca podremos negar
13:43
that underlying any technological
solution or approach
solution or approach
250
811047
4038
que detrás de cualquier
solución o enfoque tecnológico
solución o enfoque tecnológico
13:47
is a fundamental ethical
and philosophical question
and philosophical question
251
815109
4047
hay una pregunta ética
y filosófica fundamental
y filosófica fundamental
13:51
about how do we define truth and falsity,
252
819180
3270
acerca de cómo definimos
la verdad y la falsedad,
la verdad y la falsedad,
13:54
to whom do we give the power
to define truth and falsity
to define truth and falsity
253
822474
3180
a quién le damos el poder
de definir la verdad y la mentira,
de definir la verdad y la mentira,
13:57
and which opinions are legitimate,
254
825678
2460
y qué opiniones son legítimas,
14:00
which type of speech
should be allowed and so on.
should be allowed and so on.
255
828162
3706
qué tipo de discurso
debe permitirse y así sucesivamente.
debe permitirse y así sucesivamente.
La tecnología no es
una solución en este caso.
una solución en este caso.
14:03
Technology is not a solution for that.
256
831892
2328
14:06
Ethics and philosophy
is a solution for that.
is a solution for that.
257
834244
3698
La ética y la filosofía son la solución.
14:10
Nearly every theory
of human decision making,
of human decision making,
258
838950
3318
Casi todas las teorías
de la toma de decisiones humanas,
de la toma de decisiones humanas,
14:14
human cooperation and human coordination
259
842292
2761
la cooperación humana
y la coordinación humana
y la coordinación humana
14:17
has some sense of the truth at its core.
260
845077
3674
tienen un cierto sentido
de la verdad en su esencia.
de la verdad en su esencia.
14:21
But with the rise of fake news,
261
849347
2056
Pero con el aumento de noticias falsas,
14:23
the rise of fake video,
262
851427
1443
de videos falsos,
14:24
the rise of fake audio,
263
852894
1882
de audios falsos,
14:26
we are teetering on the brink
of the end of reality,
of the end of reality,
264
854800
3924
estamos al borde del precipicio
del fin de la realidad,
del fin de la realidad,
14:30
where we cannot tell
what is real from what is fake.
what is real from what is fake.
265
858748
3889
donde no podemos diferenciar
lo que es real de lo que es falso.
lo que es real de lo que es falso.
14:34
And that's potentially
incredibly dangerous.
incredibly dangerous.
266
862661
3039
Y eso es potencialmente
muy peligroso.
muy peligroso.
14:38
We have to be vigilant
in defending the truth
in defending the truth
267
866931
3948
Tenemos que estar vigilantes
en la defensa de la verdad
en la defensa de la verdad
14:42
against misinformation.
268
870903
1534
contra la información errónea,
14:44
With our technologies, with our policies
269
872919
3436
con nuestras tecnologías,
con nuestras políticas
con nuestras políticas
14:48
and, perhaps most importantly,
270
876379
1920
y, quizás lo más importante,
14:50
with our own individual responsibilities,
271
878323
3214
con nuestras propias responsabilidades,
14:53
decisions, behaviors and actions.
272
881561
3555
decisiones, comportamientos
y acciones individuales.
y acciones individuales.
14:57
Thank you very much.
273
885553
1437
Muchas gracias.
14:59
(Applause)
274
887014
3517
(Aplausos)