TEDxCERN

Sinan Aral: How we can protect truth in the age of misinformation

Sinan Aral: Cómo proteger la verdad en la era de la desinformación

Filmed:
1,289,169 views

Las noticias falsas pueden influir en las elecciones, arruinar las economías y sembrar la discordia en la vida cotidiana. El experto en datos Sinan Aral desmitifica cómo y por qué se difunden tan rápidamente, para lo cual cita uno de los mayores estudios sobre desinformación, e identifica cinco estrategias para ayudarnos a desentrañar la enredada red entre lo verdadero y lo falso.

Double-click the English transcript below to play the video.

00:13
So, on Aprilabril 23 of 2013,
0
1468
5222
El 23 de abril de 2013,
00:18
the AssociatedAsociado Pressprensa
put out the followingsiguiendo tweetPío on TwitterGorjeo.
1
6714
5514
Associated Press
puso el siguiente tuit en Twitter.
00:24
It said, "BreakingRotura newsNoticias:
2
12252
2397
Decía: "Noticia de última hora:
00:26
Two explosionsexplosiones at the WhiteBlanco HouseCasa
3
14673
2571
dos explosiones en la Casa Blanca.
00:29
and BarackBarack ObamaObama has been injuredlesionado."
4
17268
2333
Barack Obama ha resultado herido".
00:32
This tweetPío was retweetedretuiteado 4,000 timesveces
in lessMenos than fivecinco minutesminutos,
5
20212
5425
Este tuit fue retuiteado 4000 veces
en menos de cinco minutos,
00:37
and it wentfuimos viralviral thereafterdespués de eso.
6
25661
2217
y se hizo viral a partir de ese instante.
Ahora bien, este tuit
no fue una noticia verdadera
00:40
Now, this tweetPío wasn'tno fue realreal newsNoticias
put out by the AssociatedAsociado Pressprensa.
7
28760
4350
difundida por la agencia Associated Press.
00:45
In facthecho it was falsefalso newsNoticias, or fakefalso newsNoticias,
8
33134
3333
En realidad, fue una noticia falsa,
00:48
that was propagatedpropagado by SyrianSirio hackershackers
9
36491
2825
propagada por 'hackers' sirios
00:51
that had infiltratedinfiltrado
the AssociatedAsociado Pressprensa TwitterGorjeo handleencargarse de.
10
39340
4694
que se habían hecho con el control
del Twitter de Associated Press.
00:56
TheirSu purposepropósito was to disruptinterrumpir societysociedad,
but they disruptedinterrumpido much more.
11
44407
3889
Su objetivo era alterar a la sociedad,
pero alteraron mucho más,
01:00
Because automatedautomatizado tradingcomercio algorithmsAlgoritmos
12
48320
2476
porque los algoritmos
automatizados de negociación
01:02
immediatelyinmediatamente seizedapoderado
on the sentimentsentimiento on this tweetPío,
13
50820
3360
inmediatamente interpretaron
la sensibilidad de este tuit,
01:06
and beganempezó tradingcomercio basedbasado on the potentialpotencial
14
54204
2968
y comenzaron a operar
en base a la posibilidad
01:09
that the presidentpresidente of the UnitedUnido StatesEstados
had been injuredlesionado or killeddelicado
15
57196
3381
de que el presidente de los EE. UU.
hubiese sido herido o asesinado
en esa explosión.
01:12
in this explosionexplosión.
16
60601
1200
01:14
And as they startedempezado tweetingtuiteando,
17
62188
1992
Y cuando empezaron a tuitear,
01:16
they immediatelyinmediatamente sentexpedido
the stockvalores marketmercado crashingestrellarse,
18
64204
3349
hicieron que el mercado de valores
se desplomara al instante,
01:19
wipinglimpiando out 140 billionmil millones dollarsdólares
in equityequidad valuevalor in a singlesoltero day.
19
67577
5167
y se perdieron 140 mil millones de dólares
en valor bursátil en un solo día.
01:25
RobertRobert MuellerMueller, specialespecial counselconsejo
prosecutorfiscal in the UnitedUnido StatesEstados,
20
73062
4476
Robert Mueller, consejero
y fiscal especial de los Estados Unidos,
01:29
issuedemitido indictmentsAcusaciones
againsten contra threeTres Russianruso companiescompañías
21
77562
3892
acusó penalmente a tres compañías rusas
01:33
and 13 Russianruso individualsindividuos
22
81478
2619
y a 13 individuos rusos
01:36
on a conspiracyconspiración to defrauddefraudar
the UnitedUnido StatesEstados
23
84121
3167
de conspirar para cometer fraude
contra los Estados Unidos
01:39
by meddlingintromisión in the 2016
presidentialpresidencial electionelección.
24
87312
3780
al entrometerse en las elecciones
presidenciales de 2016.
01:43
And what this indictmentacusación tellsdice as a storyhistoria
25
91855
3564
Lo que esta acusación deja al descubierto
01:47
is the storyhistoria of the InternetInternet
ResearchInvestigación AgencyAgencia,
26
95443
3142
es la historia de la Agencia
de Investigación de Internet,
01:50
the shadowyvago armbrazo of the KremlinKremlin
on socialsocial mediamedios de comunicación.
27
98609
3594
el oscuro brazo del Kremlin
en las redes sociales.
01:54
DuringDurante the presidentialpresidencial electionelección alonesolo,
28
102815
2777
Solo en las elecciones presidenciales,
01:57
the InternetInternet Agency'sAgencia de effortsesfuerzos
29
105616
1889
los intentos de la Agencia de Internet
01:59
reachedalcanzado 126 millionmillón people
on FacebookFacebook in the UnitedUnido StatesEstados,
30
107529
5167
llegaron a 126 millones de personas
en Facebook en los Estados Unidos,
02:04
issuedemitido threeTres millionmillón individualindividual tweetstweets
31
112720
3277
emitieron tres millones
de tuits individuales
02:08
and 43 hours'horas worthvalor of YouTubeYoutube contentcontenido.
32
116021
3842
y 43 horas de contenido de YouTube.
02:11
All of whichcual was fakefalso --
33
119887
1652
Todo lo cual era falso,
02:13
misinformationdesinformación designeddiseñado to sowsembrar discorddiscordia
in the US presidentialpresidencial electionelección.
34
121563
6323
desinformación diseñada para meter cizaña
en la elección presidencial de EE. UU.
Un estudio reciente
realizado por la Universidad de Oxford
02:20
A recentreciente studyestudiar by OxfordOxford UniversityUniversidad
35
128996
2650
02:23
showedmostró that in the recentreciente
Swedishsueco electionselecciones,
36
131670
3270
mostró que en las últimas
elecciones suecas,
02:26
one thirdtercero of all of the informationinformación
spreadingextensión on socialsocial mediamedios de comunicación
37
134964
4375
un tercio de toda la información
que se difundió en las redes sociales
02:31
about the electionelección
38
139363
1198
sobre las elecciones
02:32
was fakefalso or misinformationdesinformación.
39
140585
2087
era falsa o incorrecta.
02:35
In additionadición, these typestipos
of social-mediamedios sociales misinformationdesinformación campaignscampañas
40
143037
5078
Además, este tipo de campañas
de desinformación en redes sociales
02:40
can spreaduntado what has been calledllamado
"genocidalgenocida propagandapropaganda,"
41
148139
4151
pueden difundir lo que se ha llamado
"propaganda genocida",
02:44
for instanceejemplo againsten contra
the RohingyaRohingya in BurmaBirmania,
42
152314
3111
por ejemplo contra los rohingya en Burma,
02:47
triggeringdesencadenante mobmultitud killingsasesinatos in IndiaIndia.
43
155449
2303
que desencadenó linchamientos en la India.
02:49
We studiedestudió fakefalso newsNoticias
44
157776
1494
Estudiamos las noticias falsas
02:51
and beganempezó studyingestudiando it
before it was a popularpopular termtérmino.
45
159294
3219
y comenzamos a hacerlo
antes de que fuera un término popular.
02:55
And we recentlyrecientemente publishedpublicado
the largest-evermás grande de la historia longitudinallongitudinal studyestudiar
46
163030
5040
Y hemos publicado recientemente el estudio
longitudinal más grande jamás realizado
03:00
of the spreaduntado of fakefalso newsNoticias onlineen línea
47
168094
2286
sobre la difusión
de noticias falsas en línea
03:02
on the covercubrir of "ScienceCiencia"
in Marchmarzo of this yearaño.
48
170404
3204
en la portada de la revista "Science"
en marzo de este año.
03:06
We studiedestudió all of the verifiedverificado
truecierto and falsefalso newsNoticias storiescuentos
49
174523
4161
Estudiamos todas las noticias
verificadas como verdaderas y falsas
03:10
that ever spreaduntado on TwitterGorjeo,
50
178708
1753
que se propagaron por Twitter,
03:12
from its inceptioncomienzo in 2006 to 2017.
51
180485
3818
desde su creación en 2006 hasta 2017.
03:16
And when we studiedestudió this informationinformación,
52
184612
2314
Y cuando estudiamos esta información,
03:18
we studiedestudió verifiedverificado newsNoticias storiescuentos
53
186950
2876
tomamos las noticias
verificadas y revisadas
03:21
that were verifiedverificado by sixseis
independentindependiente fact-checkingverificación de hechos organizationsorganizaciones.
54
189850
3918
por seis organizaciones
independientes de comprobación de datos.
03:25
So we knewsabía whichcual storiescuentos were truecierto
55
193792
2762
Así que sabíamos cuáles eran ciertas
03:28
and whichcual storiescuentos were falsefalso.
56
196578
2126
y cuáles falsas.
03:30
We can measuremedida theirsu diffusiondifusión,
57
198728
1873
Podemos medir su difusión,
03:32
the speedvelocidad of theirsu diffusiondifusión,
58
200625
1651
la velocidad de su difusión,
03:34
the depthprofundidad and breadthamplitud of theirsu diffusiondifusión,
59
202300
2095
el alcance de su difusión,
03:36
how manymuchos people becomevolverse entangledenredado
in this informationinformación cascadecascada and so on.
60
204419
4142
cuántas personas se enredan
en esta cascada de información, etc.
03:40
And what we did in this paperpapel
61
208942
1484
Y lo que hicimos en esta investigación
03:42
was we comparedcomparado the spreaduntado of truecierto newsNoticias
to the spreaduntado of falsefalso newsNoticias.
62
210450
3865
fue comparar la propagación
de noticias verdaderas con las falsas.
03:46
And here'saquí está what we foundencontró.
63
214339
1683
Y estos son los resultados.
03:48
We foundencontró that falsefalso newsNoticias
diffuseddifundido furtherpromover, fasterMás rápido, deeperMás adentro
64
216046
3979
Hallamos que una noticia falsa
llega más lejos, más rápido
03:52
and more broadlyen general than the truthverdad
65
220049
1806
y tiene más alcance que la verdadera
03:53
in everycada categorycategoría of informationinformación
that we studiedestudió,
66
221879
3003
en todas las categorías de información
que hemos estudiado,
03:56
sometimesa veces by an orderorden of magnitudemagnitud.
67
224906
2499
a veces en un orden de magnitud.
03:59
And in facthecho, falsefalso politicalpolítico newsNoticias
was the mostmás viralviral.
68
227842
3524
Y las noticias falsas en el ámbito
de la política fueron las más virales.
04:03
It diffuseddifundido furtherpromover, fasterMás rápido,
deeperMás adentro and more broadlyen general
69
231390
3147
Se difunden más lejos, más rápido,
y tienen mayor alcance
04:06
than any other typetipo of falsefalso newsNoticias.
70
234561
2802
que cualquier otro tipo
de noticias falsas.
04:09
When we saw this,
71
237387
1293
Cuando vimos esto,
04:10
we were at onceuna vez worriedpreocupado but alsoademás curiouscurioso.
72
238704
2841
sentimos a la vez
preocupación y curiosidad.
04:13
Why?
73
241569
1151
¿Por qué?
04:14
Why does falsefalso newsNoticias travelviajar
so much furtherpromover, fasterMás rápido, deeperMás adentro
74
242744
3373
¿Por qué las noticias falsas llegan
más lejos, más rápido,
04:18
and more broadlyen general than the truthverdad?
75
246141
1864
y tienen mayor alcance que la verdad?
04:20
The first hypothesishipótesis
that we camevino up with was,
76
248339
2961
La primera hipótesis
que se nos ocurrió fue:
"Bueno, tal vez quienes
difunden noticias falsas
04:23
"Well, maybe people who spreaduntado falsefalso newsNoticias
have more followersseguidores or followseguir more people,
77
251324
4792
tienen más seguidores
o siguen a más gente,
04:28
or tweetPío more oftena menudo,
78
256140
1557
o tuitean con más frecuencia,
04:29
or maybe they're more oftena menudo 'verified''verificado'
usersusuarios of TwitterGorjeo, with more credibilitycredibilidad,
79
257721
4126
o tal vez son más usuarios 'verificados'
de Twitter, con más credibilidad,
04:33
or maybe they'veellos tienen been on TwitterGorjeo longermás."
80
261871
2182
o tal vez han estado
en Twitter más tiempo".
04:36
So we checkedcomprobado eachcada one of these in turngiro.
81
264077
2298
Así que inspeccionamos
cada uno de estos casos.
04:38
And what we foundencontró
was exactlyexactamente the oppositeopuesto.
82
266691
2920
Y lo que encontramos
fue exactamente lo contrario.
Quienes difundían noticias falsas
tenían menos seguidores,
04:41
False-newsFalsas noticias spreadersEsparcidores had fewermenos followersseguidores,
83
269635
2436
04:44
followedseguido fewermenos people, were lessMenos activeactivo,
84
272095
2254
seguían a menos gente, eran menos activos,
eran usuarios poco "verificados"
04:46
lessMenos oftena menudo "verifiedverificado"
85
274373
1460
y habían estado en Twitter
por un período de tiempo más corto.
04:47
and had been on TwitterGorjeo
for a shortercorta periodperíodo of time.
86
275857
2960
04:50
And yettodavía,
87
278841
1189
Y sin embargo,
04:52
falsefalso newsNoticias was 70 percentpor ciento more likelyprobable
to be retweetedretuiteado than the truthverdad,
88
280054
5033
las noticias falsas eran un 70 %
más propensas a ser retuiteadas,
04:57
controllingcontrolador for all of these
and manymuchos other factorsfactores.
89
285111
3363
teniendo en cuenta estos
y muchos otros factores.
05:00
So we had to come up
with other explanationsexplicaciones.
90
288498
2690
Así que tuvimos que buscar
otras explicaciones.
E ideamos lo que llamamos
"hipótesis de la novedad".
05:03
And we devisedideado what we calledllamado
a "noveltynovedad hypothesishipótesis."
91
291212
3467
05:07
So if you readleer the literatureliteratura,
92
295038
1960
Si leemos documentaciones sobre el tema,
05:09
it is well knownconocido that humanhumano attentionatención
is drawndibujado to noveltynovedad,
93
297022
3754
es bien sabido que la atención humana
se siente atraída por la novedad,
05:12
things that are newnuevo in the environmentambiente.
94
300800
2519
cosas que son nuevas en el entorno.
05:15
And if you readleer the sociologysociología literatureliteratura,
95
303343
1985
Y si leemos la literatura sociológica,
05:17
you know that we like to sharecompartir
novelnovela informationinformación.
96
305352
4300
veremos que nos gusta compartir
información novedosa.
05:21
It makeshace us seemparecer like we have accessacceso
to insidedentro informationinformación,
97
309676
3838
Sentimos que tenemos acceso
a información privilegiada,
05:25
and we gainganancia in statusestado
by spreadingextensión this kindtipo of informationinformación.
98
313538
3785
y ganamos estatus mediante la difusión
de este tipo de información.
05:29
So what we did was we measuredmesurado the noveltynovedad
of an incomingentrante truecierto or falsefalso tweetPío,
99
317792
6452
Decidimos entonces medir
la novedad de un tuit verdadero o falso,
05:36
comparedcomparado to the corpuscuerpo
of what that individualindividual had seenvisto
100
324268
4055
en comparación con el corpus
de lo que esa persona había visto
05:40
in the 60 daysdías prioranterior on TwitterGorjeo.
101
328347
2952
en Twitter los 60 días anteriores.
05:43
But that wasn'tno fue enoughsuficiente,
because we thought to ourselvesNosotros mismos,
102
331323
2659
Pero no fue suficiente, porque pensamos:
05:46
"Well, maybe falsefalso newsNoticias is more novelnovela
in an information-theoreticinformación-teórico sensesentido,
103
334006
4208
"Bueno, quizá las noticias falsas
son más novedosas en un sentido teórico,
05:50
but maybe people
don't perceivepercibir it as more novelnovela."
104
338238
3258
pero tal vez la gente
no las percibe como más novedosas".
05:53
So to understandentender people'sla gente
perceptionspercepciones of falsefalso newsNoticias,
105
341849
3927
Así que para entender cómo
la gente percibe las noticias falsas,
05:57
we lookedmirado at the informationinformación
and the sentimentsentimiento
106
345800
3690
nos fijamos en la información
y el componente afectivo
06:01
containedcontenido in the repliesrespuestas
to truecierto and falsefalso tweetstweets.
107
349514
4206
de las respuestas
a los tuits verdaderos y falsos.
06:06
And what we foundencontró
108
354022
1206
Y lo que detectamos
06:07
was that acrossa través de a bunchmanojo
of differentdiferente measuresmedidas of sentimentsentimiento --
109
355252
4214
fue que, teniendo en cuenta
un montón de sentimientos diferentes,
06:11
surprisesorpresa, disgustasco, fearmiedo, sadnesstristeza,
110
359490
3301
como sorpresa, disgusto, miedo, tristeza,
06:14
anticipationanticipación, joyalegría and trustconfianza --
111
362815
2484
expectativa, alegría y confianza,
06:17
falsefalso newsNoticias exhibitedexhibido significantlysignificativamente more
surprisesorpresa and disgustasco
112
365323
5857
las noticias falsas generaron
significativamente más sorpresa y disgusto
06:23
in the repliesrespuestas to falsefalso tweetstweets.
113
371204
2806
en las respuestas a los falsos tuits.
06:26
And truecierto newsNoticias exhibitedexhibido
significantlysignificativamente more anticipationanticipación,
114
374392
3789
Y las noticias verdaderas mostraron
significativamente más expectativas,
06:30
joyalegría and trustconfianza
115
378205
1547
alegría y confianza
06:31
in replyrespuesta to truecierto tweetstweets.
116
379776
2547
en respuesta a los tuits verdaderos.
06:34
The surprisesorpresa corroboratesCorrobora
our noveltynovedad hypothesishipótesis.
117
382347
3786
La sorpresa corrobora
nuestra hipótesis de la novedad.
06:38
This is newnuevo and surprisingsorprendente,
and so we're more likelyprobable to sharecompartir it.
118
386157
4609
Esto es nuevo y sorprendente,
por lo que es más fácil que se comparta.
06:43
At the samemismo time,
there was congressionaldel congreso testimonytestimonio
119
391092
2925
Al mismo tiempo,
hubo testimonios ante el Congreso
06:46
in frontfrente of bothambos housescasas of CongressCongreso
in the UnitedUnido StatesEstados,
120
394041
3036
en las dos cámaras parlamentarias
de los Estados Unidos
06:49
looking at the rolepapel of botsbots
in the spreaduntado of misinformationdesinformación.
121
397101
3738
sobre el papel de los robots
en la propagación de información errónea.
Así que consideramos esto también.
06:52
So we lookedmirado at this too --
122
400863
1354
06:54
we used multiplemúltiple sophisticatedsofisticado
bot-detectiondetección de bots algorithmsAlgoritmos
123
402241
3598
Utilizamos múltiples algoritmos
complejos de rastreo
06:57
to find the botsbots in our datadatos
and to pullHalar them out.
124
405863
3074
para encontrar los robots
en nuestros datos y sacarlos.
07:01
So we pulledtirado them out,
we put them back in
125
409347
2659
Los sacamos, los volvimos a poner
07:04
and we comparedcomparado what happenssucede
to our measurementmedición.
126
412030
3119
y comparamos lo que sucede
con nuestras mediciones.
07:07
And what we foundencontró was that, yes indeeden efecto,
127
415173
2293
Descubrimos que, efectivamente,
07:09
botsbots were acceleratingacelerador
the spreaduntado of falsefalso newsNoticias onlineen línea,
128
417490
3682
los robots aceleraban la propagación
de noticias falsas en línea,
07:13
but they were acceleratingacelerador
the spreaduntado of truecierto newsNoticias
129
421196
2651
pero aceleraban
la propagación de las verdaderas
07:15
at approximatelyaproximadamente the samemismo ratetarifa.
130
423871
2405
aproximadamente a la misma velocidad.
07:18
WhichCual meansmedio botsbots are not responsibleresponsable
131
426300
2858
Lo que significa que los robots
no son los responsables
07:21
for the differentialdiferencial diffusiondifusión
of truthverdad and falsityFalsedad onlineen línea.
132
429182
4713
de la difusión diferencial
de la verdad y la mentira en línea.
07:25
We can't abdicateabdicar that responsibilityresponsabilidad,
133
433919
2849
No podemos renunciar
a esa responsabilidad,
07:28
because we, humanshumanos,
are responsibleresponsable for that spreaduntado.
134
436792
4259
porque nosotros, los seres humanos,
somos responsables de esa propagación.
07:34
Now, everything
that I have told you so farlejos,
135
442472
3334
Ahora bien, todo lo que
les he dicho hasta el momento,
07:37
unfortunatelyDesafortunadamente for all of us,
136
445830
1754
por desgracia para todos nosotros,
07:39
is the good newsNoticias.
137
447608
1261
es la buena noticia.
07:42
The reasonrazón is because
it's about to get a wholetodo lot worsepeor.
138
450670
4450
La razón es que está
a punto de ponerse mucho peor.
07:47
And two specificespecífico technologiestecnologías
are going to make it worsepeor.
139
455850
3682
Y dos tecnologías específicas
van a empeorar la situación.
07:52
We are going to see the risesubir
of a tremendoustremendo waveola of syntheticsintético mediamedios de comunicación.
140
460207
5172
Vamos a presenciar el aumento
de una tremenda ola de medios sintéticos.
07:57
FakeFalso videovídeo, fakefalso audioaudio
that is very convincingConvincente to the humanhumano eyeojo.
141
465403
6031
Video falso, audio falso,
muy convincentes para el ojo humano.
08:03
And this will poweredmotorizado by two technologiestecnologías.
142
471458
2754
Y esto será impulsado por dos tecnologías.
08:06
The first of these is knownconocido
as "generativegenerativo adversarialadversario networksredes."
143
474236
3833
La primera es conocida como
"redes de confrontación generativas".
08:10
This is a machine-learningaprendizaje automático modelmodelo
with two networksredes:
144
478093
2563
Es un modelo de aprendizaje
automático con dos redes:
08:12
a discriminatorDiscriminador,
145
480680
1547
un discriminador,
08:14
whosecuyo jobtrabajo it is to determinedeterminar
whethersi something is truecierto or falsefalso,
146
482251
4200
cuyo trabajo es determinar
si algo es verdadero o falso,
08:18
and a generatorgenerador,
147
486475
1167
y un generador,
08:19
whosecuyo jobtrabajo it is to generategenerar
syntheticsintético mediamedios de comunicación.
148
487666
3150
cuyo trabajo es generar medios sintéticos.
08:22
So the syntheticsintético generatorgenerador
generatesgenera syntheticsintético videovídeo or audioaudio,
149
490840
5102
El generador sintético
genera un video o audio sintético,
08:27
and the discriminatorDiscriminador triesintentos to tell,
"Is this realreal or is this fakefalso?"
150
495966
4675
y el discriminador trata de distinguir
si es verdadero o falso.
08:32
And in facthecho, it is the jobtrabajo
of the generatorgenerador
151
500665
2874
Y, de hecho, el trabajo del generador
08:35
to maximizemaximizar the likelihoodprobabilidad
that it will fooltonto the discriminatorDiscriminador
152
503563
4435
es maximizar la probabilidad
de engañar al discriminador
08:40
into thinkingpensando the syntheticsintético
videovídeo and audioaudio that it is creatingcreando
153
508022
3587
para que crea que el video
y el audio sintéticos que está creando
08:43
is actuallyactualmente truecierto.
154
511633
1730
son realmente ciertos.
08:45
ImagineImagina a machinemáquina in a hyperloophyperloop,
155
513387
2373
Imaginen una máquina en un Hyperloop,
08:47
tryingmolesto to get better
and better at foolingengañando us.
156
515784
2803
que se perfecciona más y más
con el fin de engañarnos.
08:51
This, combinedconjunto with the secondsegundo technologytecnología,
157
519114
2500
Esto, combinado con la segunda tecnología,
08:53
whichcual is essentiallyesencialmente the democratizationdemocratización
of artificialartificial intelligenceinteligencia to the people,
158
521638
5722
que es esencialmente la democratización
de la inteligencia artificial,
08:59
the abilitycapacidad for anyonenadie,
159
527384
2189
la capacidad de cualquier persona,
09:01
withoutsin any backgroundfondo
in artificialartificial intelligenceinteligencia
160
529597
2830
sin ningún tipo de experiencia
en inteligencia artificial
o aprendizaje automático,
09:04
or machinemáquina learningaprendizaje,
161
532451
1182
09:05
to deploydesplegar these kindsclases of algorithmsAlgoritmos
to generategenerar syntheticsintético mediamedios de comunicación
162
533657
4103
de implementar este tipo de algoritmos
para generar los medios sintéticos
09:09
makeshace it ultimatelypor último so much easiermás fácil
to createcrear videosvideos.
163
537784
4547
hace que, en última instancia,
sea mucho más fácil crear videos.
09:14
The WhiteBlanco HouseCasa issuedemitido
a falsefalso, doctoredadulterado videovídeo
164
542355
4421
La Casa Blanca emitió
el video falso y adulterado
09:18
of a journalistperiodista interactinginteractuando with an interninterno
who was tryingmolesto to take his microphonemicrófono.
165
546800
4288
de una pasante que intentaba
sacarle el micrófono a un periodista.
09:23
They removedremoto framesmarcos from this videovídeo
166
551427
1999
Eliminaron fotogramas de este video
09:25
in orderorden to make his actionscomportamiento
seemparecer more punchyGarra.
167
553450
3287
para que las acciones del periodista
pareciesen más violentas.
09:29
And when videographerscamarógrafos
and stuntmendobles and womenmujer
168
557157
3385
Y cuando camarógrafos y dobles
09:32
were interviewedentrevistado
about this typetipo of techniquetécnica,
169
560566
2427
fueron consultados
acerca de este tipo de técnica,
09:35
they said, "Yes, we use this
in the moviespelículas all the time
170
563017
3828
dijeron: "Sí, siempre
lo hacemos en las películas
09:38
to make our punchespuñetazos and kickspatadas
look more choppypicado and more aggressiveagresivo."
171
566869
4763
para que nuestros puñetazos y patadas
parezcan más rápidos y agresivos".
09:44
They then put out this videovídeo
172
572268
1867
Entonces mostraron este video
09:46
and partlyparcialmente used it as justificationjustificación
173
574159
2500
y lo utilizaron parcialmente como excusa
09:48
to revokeRevocar JimJim AcostaAcosta,
the reporter'sreportero, pressprensa passpasar
174
576683
3999
para denegar el acceso de Jim Acosta
como periodista a la Casa Blanca.
09:52
from the WhiteBlanco HouseCasa.
175
580706
1339
09:54
And CNNCNN had to suedemandar
to have that pressprensa passpasar reinstatedreinstalado.
176
582069
4809
Y la CNN tuvo que demandarlos
para regresarle su pase de prensa.
10:00
There are about fivecinco differentdiferente pathscaminos
that I can think of that we can followseguir
177
588538
5603
Hay unos cinco modos diferentes
que se me ocurren
10:06
to try and addressdirección some
of these very difficultdifícil problemsproblemas todayhoy.
178
594165
3739
para tratar de abordar algunos
de estos problemas difíciles hoy en día.
10:10
EachCada one of them has promisepromesa,
179
598379
1810
Cada uno es prometedor,
10:12
but eachcada one of them
has its ownpropio challengesdesafíos.
180
600213
2999
pero tiene sus propios desafíos.
10:15
The first one is labelingetiquetado.
181
603236
2008
El primero es el etiquetado.
10:17
Think about it this way:
182
605268
1357
Piénsenlo de esta manera:
10:18
when you go to the grocerytienda de comestibles storealmacenar
to buycomprar foodcomida to consumeconsumir,
183
606649
3611
cuando van a la tienda
para comprar alimentos,
10:22
it's extensivelyextensamente labeledetiquetado.
184
610284
1904
está todo etiquetado.
10:24
You know how manymuchos caloriescalorías it has,
185
612212
1992
Saben la cantidad de calorías que tiene,
10:26
how much fatgrasa it containscontiene --
186
614228
1801
la cantidad de grasa que contiene,
10:28
and yettodavía when we consumeconsumir informationinformación,
we have no labelsetiquetas whatsoeverlo que.
187
616053
4278
pero, cuando consumimos información,
no tenemos etiquetas de ningún tipo.
10:32
What is containedcontenido in this informationinformación?
188
620355
1928
¿Qué contiene esta información?
10:34
Is the sourcefuente crediblecreíble?
189
622307
1453
¿Es creíble la fuente?
10:35
Where is this informationinformación gatheredreunido from?
190
623784
2317
¿De dónde se obtuvo esta información?
10:38
We have noneninguna of that informationinformación
191
626125
1825
No tenemos ninguno de esos datos
cuando consumimos información.
10:39
when we are consumingconsumidor informationinformación.
192
627974
2103
10:42
That is a potentialpotencial avenueavenida,
but it comesproviene with its challengesdesafíos.
193
630101
3238
Esa es una vía potencial,
pero viene con sus desafíos.
10:45
For instanceejemplo, who getsse pone to decidedecidir,
in societysociedad, what's truecierto and what's falsefalso?
194
633363
6451
Por ejemplo, ¿quién decide en la sociedad
lo que es cierto y lo que es falso?
10:52
Is it the governmentsgobiernos?
195
640387
1642
¿Son los gobiernos?
10:54
Is it FacebookFacebook?
196
642053
1150
¿Es Facebook?
10:55
Is it an independentindependiente
consortiumconsorcio of fact-checkersverificadores de hechos?
197
643601
3762
¿Es un consorcio independiente
de verificadores?
10:59
And who'squien es checkingcomprobación the fact-checkersverificadores de hechos?
198
647387
2466
¿Y quién controla a los verificadores?
11:02
AnotherOtro potentialpotencial avenueavenida is incentivesincentivos.
199
650427
3084
Otra vía potencial son los incentivos.
11:05
We know that duringdurante
the US presidentialpresidencial electionelección
200
653535
2634
Sabemos que durante
la elección presidencial de EE. UU.
11:08
there was a waveola of misinformationdesinformación
that camevino from Macedoniamacedonia
201
656193
3690
se produjo una oleada de información falsa
que procedía de Macedonia.
11:11
that didn't have any politicalpolítico motivemotivo
202
659907
2337
No tenía ningún fin político
11:14
but insteaden lugar had an economiceconómico motivemotivo.
203
662268
2460
pero sí un fin económico.
11:16
And this economiceconómico motivemotivo existedexistió,
204
664752
2148
Y este fin económico existió
11:18
because falsefalso newsNoticias travelsviajes
so much farthermás lejos, fasterMás rápido
205
666924
3524
porque las noticias falsas viajan
mucho más lejos, más rápido,
11:22
and more deeplyprofundamente than the truthverdad,
206
670472
2010
y tienen mayor alcance que la verdad,
11:24
and you can earnganar advertisingpublicidad dollarsdólares
as you garnergranero eyeballsglobos oculares and attentionatención
207
672506
4960
y se puede ganar dinero con la publicidad
mientras se atrae la atención
11:29
with this typetipo of informationinformación.
208
677490
1960
con este tipo de información.
11:31
But if we can depressdeprimir the spreaduntado
of this informationinformación,
209
679474
3833
Pero si podemos reducir la difusión
de esta información,
11:35
perhapsquizás it would reducereducir
the economiceconómico incentiveincentivo
210
683331
2897
tal vez se reduciría
el incentivo económico
11:38
to produceProduce it at all in the first placelugar.
211
686252
2690
para producirla.
11:40
ThirdTercero, we can think about regulationregulación,
212
688966
2500
En tercer lugar, pensemos en la regulación
11:43
and certainlyciertamente, we should think
about this optionopción.
213
691490
2325
y, desde luego, debemos
pensar en esta opción.
11:45
In the UnitedUnido StatesEstados, currentlyactualmente,
214
693839
1611
En EE. UU., en la actualidad,
11:47
we are exploringexplorador what mightpodría happenocurrir
if FacebookFacebook and othersotros are regulatedregulado.
215
695474
4848
estamos explorando lo que podría suceder
si Facebook y otros medios se regularan.
11:52
While we should considerconsiderar things
like regulatingregulando politicalpolítico speechhabla,
216
700346
3801
Aunque debemos tener en cuenta cosas
como la regulación del discurso político,
11:56
labelingetiquetado the facthecho
that it's politicalpolítico speechhabla,
217
704171
2508
es decir, etiquetarlo
como discurso político,
asegurarse de que los actores extranjeros
no puedan financiar el discurso político,
11:58
makingfabricación sure foreignexterior actorsactores
can't fundfondo politicalpolítico speechhabla,
218
706703
3819
12:02
it alsoademás has its ownpropio dangerspeligros.
219
710546
2547
también tiene sus propios peligros.
12:05
For instanceejemplo, MalaysiaMalasia just institutedinstituido
a six-yearseis años prisonprisión sentencefrase
220
713522
4878
Por ejemplo, Malasia acaba de instituir
una condena de seis años de prisión
12:10
for anyonenadie foundencontró spreadingextensión misinformationdesinformación.
221
718424
2734
para cualquier persona que sea sorprendida
difundiendo datos falsos.
12:13
And in authoritarianautoritario regimesregímenes,
222
721696
2079
Y en los regímenes autoritarios,
12:15
these kindsclases of policiespolíticas can be used
to suppressreprimir minorityminoría opinionsopiniones
223
723799
4666
este tipo de políticas se pueden utilizar
para suprimir las opiniones minoritarias
12:20
and to continuecontinuar to extendampliar repressionrepresión.
224
728489
3508
y para seguir ampliando la represión.
12:24
The fourthcuarto possibleposible optionopción
is transparencytransparencia.
225
732680
3543
La cuarta opción posible
es la transparencia.
12:28
We want to know
how do Facebook'sFacebook algorithmsAlgoritmos work.
226
736843
3714
Queremos saber cómo funcionan
los algoritmos de Facebook.
12:32
How does the datadatos
combinecombinar with the algorithmsAlgoritmos
227
740581
2880
¿De qué manera los datos
se combinan con los algoritmos
12:35
to produceProduce the outcomesresultados that we see?
228
743485
2838
para producir los resultados que vemos?
12:38
We want them to openabierto the kimonokimono
229
746347
2349
Queremos que abran el kimono
12:40
and showespectáculo us exactlyexactamente the innerinterior workingsfuncionamiento
of how FacebookFacebook is workingtrabajando.
230
748720
4214
y nos muestren exactamente
el funcionamiento interno de Facebook.
Y si queremos conocer el efecto
de las redes sociales en la sociedad,
12:44
And if we want to know
socialsocial media'smedios effectefecto on societysociedad,
231
752958
2779
12:47
we need scientistscientíficos, researchersinvestigadores
232
755761
2086
necesitamos que científicos,
investigadores y otras personas
12:49
and othersotros to have accessacceso
to this kindtipo of informationinformación.
233
757871
3143
tengan acceso a este tipo de información.
12:53
But at the samemismo time,
234
761038
1547
Pero al mismo tiempo,
12:54
we are askingpreguntando FacebookFacebook
to lockbloquear everything down,
235
762609
3801
estamos pidiendo a Facebook
poner todo bajo llave
12:58
to keep all of the datadatos secureseguro.
236
766434
2173
para mantener los datos seguros.
13:00
So, FacebookFacebook and the other
socialsocial mediamedios de comunicación platformsplataformas
237
768631
3159
Así, Facebook y las otras
plataformas de medios sociales
13:03
are facingfrente a what I call
a transparencytransparencia paradoxparadoja.
238
771814
3134
se enfrentan a lo que llamo
"la paradoja de la transparencia".
13:07
We are askingpreguntando them, at the samemismo time,
239
775266
2674
Les estamos pidiendo
13:09
to be openabierto and transparenttransparente
and, simultaneouslysimultaneamente secureseguro.
240
777964
4809
que sean abiertas, transparentes
y, al mismo tiempo, seguras.
13:14
This is a very difficultdifícil needleaguja to threadhilo,
241
782797
2691
Esta es una aguja muy difícil enhebrar,
13:17
but they will need to threadhilo this needleaguja
242
785512
1913
pero deberán enhebrar esta aguja
13:19
if we are to achievelograr the promisepromesa
of socialsocial technologiestecnologías
243
787449
3787
si queremos alcanzar la promesa
de las tecnologías sociales
13:23
while avoidingevitar theirsu perilpeligro.
244
791260
1642
y, a la vez, evitar sus riesgos.
13:24
The finalfinal thing that we could think about
is algorithmsAlgoritmos and machinemáquina learningaprendizaje.
245
792926
4691
La última opción posible
son los algoritmos
y el aprendizaje automático,
13:29
TechnologyTecnología devisedideado to rootraíz out
and understandentender fakefalso newsNoticias, how it spreadsdiferenciales,
246
797641
5277
tecnología ideada para erradicar
y entender las noticias falsas,
cómo se transmiten,
y tratar de reducir su difusión.
13:34
and to try and dampenhumedecer its flowfluir.
247
802942
2331
13:37
HumansHumanos have to be in the looplazo
of this technologytecnología,
248
805824
2897
La humanidad tiene que estar
en el bucle de esta tecnología,
13:40
because we can never escapeescapar
249
808745
2278
porque nunca podremos negar
13:43
that underlyingsubyacente any technologicaltecnológico
solutionsolución or approachenfoque
250
811047
4038
que detrás de cualquier
solución o enfoque tecnológico
13:47
is a fundamentalfundamental ethicalético
and philosophicalfilosófico questionpregunta
251
815109
4047
hay una pregunta ética
y filosófica fundamental
13:51
about how do we definedefinir truthverdad and falsityFalsedad,
252
819180
3270
acerca de cómo definimos
la verdad y la falsedad,
13:54
to whomquién do we give the powerpoder
to definedefinir truthverdad and falsityFalsedad
253
822474
3180
a quién le damos el poder
de definir la verdad y la mentira,
13:57
and whichcual opinionsopiniones are legitimatelegítimo,
254
825678
2460
y qué opiniones son legítimas,
14:00
whichcual typetipo of speechhabla
should be allowedpermitido and so on.
255
828162
3706
qué tipo de discurso
debe permitirse y así sucesivamente.
La tecnología no es
una solución en este caso.
14:03
TechnologyTecnología is not a solutionsolución for that.
256
831892
2328
14:06
EthicsÉtica and philosophyfilosofía
is a solutionsolución for that.
257
834244
3698
La ética y la filosofía son la solución.
14:10
NearlyCasi everycada theoryteoría
of humanhumano decisiondecisión makingfabricación,
258
838950
3318
Casi todas las teorías
de la toma de decisiones humanas,
14:14
humanhumano cooperationcooperación and humanhumano coordinationcoordinación
259
842292
2761
la cooperación humana
y la coordinación humana
14:17
has some sensesentido of the truthverdad at its corenúcleo.
260
845077
3674
tienen un cierto sentido
de la verdad en su esencia.
14:21
But with the risesubir of fakefalso newsNoticias,
261
849347
2056
Pero con el aumento de noticias falsas,
14:23
the risesubir of fakefalso videovídeo,
262
851427
1443
de videos falsos,
14:24
the risesubir of fakefalso audioaudio,
263
852894
1882
de audios falsos,
14:26
we are teeteringtambaleante on the brinkborde
of the endfin of realityrealidad,
264
854800
3924
estamos al borde del precipicio
del fin de la realidad,
14:30
where we cannotno poder tell
what is realreal from what is fakefalso.
265
858748
3889
donde no podemos diferenciar
lo que es real de lo que es falso.
14:34
And that's potentiallypotencialmente
incrediblyincreíblemente dangerouspeligroso.
266
862661
3039
Y eso es potencialmente
muy peligroso.
14:38
We have to be vigilantvigilante
in defendingdefendiendo the truthverdad
267
866931
3948
Tenemos que estar vigilantes
en la defensa de la verdad
14:42
againsten contra misinformationdesinformación.
268
870903
1534
contra la información errónea,
14:44
With our technologiestecnologías, with our policiespolíticas
269
872919
3436
con nuestras tecnologías,
con nuestras políticas
14:48
and, perhapsquizás mostmás importantlyen tono rimbombante,
270
876379
1920
y, quizás lo más importante,
14:50
with our ownpropio individualindividual responsibilitiesresponsabilidades,
271
878323
3214
con nuestras propias responsabilidades,
14:53
decisionsdecisiones, behaviorscomportamientos and actionscomportamiento.
272
881561
3555
decisiones, comportamientos
y acciones individuales.
14:57
Thank you very much.
273
885553
1437
Muchas gracias.
14:59
(ApplauseAplausos)
274
887014
3517
(Aplausos)
Translated by Jose Manuel Miana Borau
Reviewed by Paula Motter

▲Back to top

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee