ABOUT THE SPEAKER
Andreas Ekström - Author and journalist
Andreas Ekström describes the power structures of the digital revolution.

Why you should listen

Andreas Ekström is staff writer at Sydsvenskan, a daily morning paper in Malmö, Sweden.

His passion is educating for digital equality, and he has a vision for a world in which we share the wealth -- not only financially, but also in terms of knowledge and power. Andreas is the author of six books, a columnist and a commentator, and he often lectures and leads seminars on the digital revolution.

More profile about the speaker
Andreas Ekström | Speaker | TED.com
TEDxOslo

Andreas Ekström: The moral bias behind your search results

Andreas Ekström: El sesgo moral detrás de los resultados de búsqueda

Filmed:
1,550,129 views

Los motores de búsqueda se han convertido en nuestras fuentes más confiables de información y en árbitros de la verdad. Pero ¿se puede obtener un resultado de búsqueda imparcial? El autor y periodista sueco Andreas Ekström sostiene que eso es una imposibilidad filosófica. En esta charla reflexiva, que nos invita a fortalecer los vínculos entre la tecnología y las humanidades, nos recuerda que detrás de cada algoritmo hay un conjunto de creencias personales que ningún código puede jamás erradicar por completo.
- Author and journalist
Andreas Ekström describes the power structures of the digital revolution. Full bio

Double-click the English transcript below to play the video.

Cuando voy a una escuela
y hablo con los estudiantes,
00:13
So whenevercuando I visitvisitar a schoolcolegio
and talk to studentsestudiantes,
0
1087
2493
00:15
I always askpedir them the samemismo thing:
1
3604
2143
siempre les pregunto lo mismo:
00:18
Why do you GoogleGoogle?
2
6754
1434
¿Por qué googlean?
00:20
Why is GoogleGoogle the searchbuscar enginemotor
of choiceelección for you?
3
8624
3397
¿Por qué escogen Google
como su motor de búsqueda?
00:24
StrangelyExtrañamente enoughsuficiente, I always get
the samemismo threeTres answersrespuestas.
4
12855
2552
Extraño y todo, siempre dan
las mismas 3 respuestas.
00:27
One, "Because it workstrabajos,"
5
15431
2039
Uno: "Porque funciona",
00:29
whichcual is a great answerresponder;
that's why I GoogleGoogle, too.
6
17494
2906
que es una gran respuesta;
por eso yo también googleo.
00:32
Two, somebodyalguien will say,
7
20424
2033
Dos: --alguno dirá--
00:34
"I really don't know of any alternativesalternativas."
8
22481
2640
"No conozco ninguna otra alternativa".
No es una respuesta igual de buena
y siempre respondo diciendo:
00:37
It's not an equallyIgualmente great answerresponder
and my replyrespuesta to that is usuallygeneralmente,
9
25708
3128
"Intenten googlear 'motor de búsqueda',
00:40
"Try to GoogleGoogle the wordpalabra 'search'buscar enginemotor,'
10
28860
1921
puede que encuentren
un par de alternativas interesantes".
00:42
you maymayo find a couplePareja
of interestinginteresante alternativesalternativas."
11
30805
2402
00:45
And last but not leastmenos, thirdlyen tercer lugar,
12
33231
2095
Y por último, pero
no menos importante:
00:47
inevitablyinevitablemente, one studentestudiante will raiseaumento
her or his handmano and say,
13
35350
3310
inevitablemente, un estudiante
levantará la mano y dirá:
00:50
"With GoogleGoogle, I'm certaincierto to always get
the bestmejor, unbiasedimparcial searchbuscar resultresultado."
14
38684
5183
"Con Google, estoy seguro de que siempre
obtendré el resultado más imparcial".
00:57
CertainCierto to always get the bestmejor,
unbiasedimparcial searchbuscar resultresultado.
15
45157
6506
Seguro de que siempre obtendré
el resultado más imparcial.
01:05
Now, as a man of the humanitieshumanidades,
16
53091
2390
Como hombre de humanidades,
01:07
albeitaunque a digitaldigital humanitieshumanidades man,
17
55505
2181
aunque hombre de humanidades digitales,
01:09
that just makeshace my skinpiel curlrizo,
18
57710
1738
esto me eriza la piel,
01:11
even if I, too, realizedarse cuenta de that that trustconfianza,
that ideaidea of the unbiasedimparcial searchbuscar resultresultado
19
59472
4886
aunque también veo que esa confianza,
la creencia en el resultado imparcial,
01:16
is a cornerstonepiedra angular in our collectivecolectivo love
for and appreciationapreciación of GoogleGoogle.
20
64382
3855
es una piedra angular de nuestro amor
colectivo y del valor que damos a Google.
01:20
I will showespectáculo you why that, philosophicallyfilosóficamente,
is almostcasi an impossibilityimposibilidad.
21
68658
4258
Les mostraré por qué, filosóficamente,
eso es casi un imposible.
01:24
But let me first elaborateelaborar,
just a little bitpoco, on a basicBASIC principleprincipio
22
72940
3254
Pero déjenme primero profundizar,
solo un poco, en un principio básico
01:28
behinddetrás eachcada searchbuscar queryconsulta
that we sometimesa veces seemparecer to forgetolvidar.
23
76218
3113
que hay detrás de toda consulta
y que algunas veces parece que olvidamos.
Cuando vayan a googlear,
01:31
So whenevercuando you setconjunto out
to GoogleGoogle something,
24
79851
2080
01:33
startcomienzo by askingpreguntando yourselftú mismo this:
"Am I looking for an isolatedaislado facthecho?"
25
81955
3927
empiece preguntándose lo siguiente:
"¿Busco un hecho aislado?".
01:38
What is the capitalcapital of FranceFrancia?
26
86334
3161
¿Cuál es la capital de Francia?
¿Cuáles son los componentes básicos
de una molécula de agua?
01:41
What are the buildingedificio blocksbloques
of a wateragua moleculemolécula?
27
89519
2425
01:43
Great -- GoogleGoogle away.
28
91968
2341
Listo, googleelo.
01:46
There's not a groupgrupo of scientistscientíficos
who are this closecerca to provingprueba
29
94333
3120
No hay un grupo de científicos
que estén a punto de probar
01:49
that it's actuallyactualmente LondonLondres and H30.
30
97477
1997
que en realidad es Londres y H30.
01:51
You don't see a biggrande conspiracyconspiración
amongentre those things.
31
99498
2371
Uno no ve una gran conspiración
en esas cosas.
01:53
We agreede acuerdo, on a globalglobal scaleescala,
32
101893
1533
Estamos de acuerdo,
a escala global,
01:55
what the answersrespuestas are
to these isolatedaislado factshechos.
33
103450
2725
sobre cuáles son las respuestas
a estos hechos aislados.
01:58
But if you complicatecomplicar your questionpregunta
just a little bitpoco and askpedir something like,
34
106199
5302
Pero si uno complica la consulta
un poco y pregunta, por ejemplo:
02:03
"Why is there
an Israeli-PalestineIsrael-Palestina conflictconflicto?"
35
111525
2683
"¿Por qué hay un conflicto
entre Israel y Palestina?".
02:06
You're not exactlyexactamente looking
for a singularsingular facthecho anymorenunca más,
36
114978
2640
Entonces, ya no busca
un hecho particular,
02:09
you're looking for knowledgeconocimiento,
37
117642
1833
uno busca conocimiento,
02:11
whichcual is something way more
complicatedComplicado and delicatedelicado.
38
119499
2578
que es algo mucho
más complicado y delicado.
Y para llegar al conocimiento,
02:14
And to get to knowledgeconocimiento,
39
122600
1549
02:16
you have to bringtraer 10 or 20
or 100 factshechos to the tablemesa
40
124173
3031
hay que poner 10, 20
o 100 hechos sobre la mesa
02:19
and acknowledgereconocer them and say,
"Yes, these are all truecierto."
41
127228
2976
y reconocerlos y decir:
"Sí, son todos ciertos."
Pero al ser lo que soy, joven o viejo,
negro o blanco, gay o heterosexual,
02:22
But because of who I am,
42
130228
1674
02:23
youngjoven or oldantiguo, blacknegro or whiteblanco,
gaygay or straightDerecho,
43
131926
2270
02:26
I will valuevalor them differentlydiferentemente.
44
134220
1611
los valoraré de manera diferente.
02:27
And I will say, "Yes, this is truecierto,
45
135855
1688
Y diré: "Sí, esto es cierto,
pero esto es más importante
para mí que aquello".
02:29
but this is more importantimportante
to me than that."
46
137567
2114
02:31
And this is where it becomesse convierte interestinginteresante,
47
139705
1990
Y en este punto es
que se vuelve interesante,
02:33
because this is where we becomevolverse humanhumano.
48
141719
2146
porque es ahí
donde nos volvemos humanos.
02:35
This is when we startcomienzo
to arguediscutir, to formformar societysociedad.
49
143889
2996
Ahí es cuando empezamos
a discutir, a ser sociedad.
02:38
And to really get somewherealgun lado,
we need to filterfiltrar all our factshechos here,
50
146909
3357
Para llegar realmente a alguna parte,
necesitamos filtrar todos los hechos,
02:42
throughmediante friendsamigos and neighborsvecinos
and parentspadres and childrenniños
51
150290
2556
a través de amigos, vecinos,
padres, niños,
compañeros de trabajo
y periódicos y revistas,
02:44
and coworkerscompañeros de trabajo and newspapersperiódicos
and magazinesrevistas,
52
152870
2032
02:46
to finallyfinalmente be groundedconectado a tierra in realreal knowledgeconocimiento,
53
154926
3080
y así finalmente estar basados
en un conocimiento real,
02:50
whichcual is something that a searchbuscar enginemotor
is a poorpobre help to achievelograr.
54
158030
4047
algo en lo que poco puede ayudar
un motor de búsqueda.
02:55
So, I promisedprometido you an exampleejemplo
just to showespectáculo you why it's so harddifícil
55
163284
6328
Les prometí un ejemplo
solo para mostrar por qué es tan difícil
03:01
to get to the pointpunto of truecierto, cleanlimpiar,
objectiveobjetivo knowledgeconocimiento --
56
169636
3404
llegar al punto de verdadero
conocimiento limpio, objetivo,
03:05
as foodcomida for thought.
57
173064
1468
como alimento del pensamiento.
03:06
I will conductconducta a couplePareja of simplesencillo
queriesconsultas, searchbuscar queriesconsultas.
58
174556
3893
Llevaré a cabo un par de consultas
simples, consultas de búsqueda.
03:10
We'llBien startcomienzo with "MichelleMichelle ObamaObama,"
59
178473
4040
Vamos a empezar con "Michelle Obama"
03:14
the First Ladydama of the UnitedUnido StatesEstados.
60
182537
1804
la Primera Dama de EE. UU.
03:16
And we'llbien clickhacer clic for picturesimágenes.
61
184365
1729
Y vamos a buscar por imágenes.
03:19
It workstrabajos really well, as you can see.
62
187007
2272
Funciona muy bien, como se puede ver.
03:21
It's a perfectPerfecto searchbuscar
resultresultado, more or lessMenos.
63
189303
3028
Es un resultado de búsqueda
perfecto, más o menos.
03:24
It's just her in the pictureimagen,
not even the Presidentpresidente.
64
192355
2750
Solo está ella en la foto,
ni siquiera el Presidente.
03:27
How does this work?
65
195664
1313
¿Cómo funciona esto?
03:29
QuiteBastante simplesencillo.
66
197837
1372
Bastante sencillo.
03:31
GoogleGoogle usesusos a lot of smartnesselegancia
to achievelograr this, but quitebastante simplysimplemente,
67
199233
3215
Google lo hace con mucha inteligencia,
pero es algo bastante sencillo,
03:34
they look at two things
more than anything.
68
202472
2060
reparan en dos cosas
antes que nada.
03:36
First, what does it say in the captionsubtítulo
underdebajo the pictureimagen on eachcada websitesitio web?
69
204556
5156
Primero, ¿cuál es la leyenda
a pie de foto en cada sitio web?
¿Dice "Michelle Obama" a pie de foto?
03:41
Does it say "MichelleMichelle ObamaObama"
underdebajo the pictureimagen?
70
209736
2215
Bastante buena indicación
de que en realidad ella está allí.
03:43
PrettyBonita good indicationindicación
it's actuallyactualmente her on there.
71
211975
2356
03:46
SecondSegundo, GoogleGoogle looksmiradas at the pictureimagen filearchivo,
72
214355
2386
Segundo, Google explora
en el archivo de imagen,
03:48
the namenombre of the filearchivo as suchtal
uploadedcargado to the websitesitio web.
73
216765
3032
el nombre del archivo
subido a la página web.
03:51
Again, is it calledllamado "MichelleObamaMichelle Obama.jpegjpeg"?
74
219821
2669
¿Se llama "MichelleObama.jpeg"?
Buena señal de que
Clint Eastwood no está en la foto.
03:54
PrettyBonita good indicationindicación it's not
ClintClint EastwoodEastwood in the pictureimagen.
75
222839
2922
03:57
So, you've got those two and you get
a searchbuscar resultresultado like this -- almostcasi.
76
225785
4265
Uno tiene esos criterios y se obtiene
un resultado de búsqueda como este. Casi.
04:02
Now, in 2009, MichelleMichelle ObamaObama
was the victimvíctima of a racistracista campaignCampaña,
77
230074
6603
En 2009, Michelle Obama fue víctima
de una campaña racista,
04:08
where people setconjunto out to insultinsulto her
throughmediante her searchbuscar resultsresultados.
78
236701
4015
donde la gente empezó a insultarla
a través de resultados de búsqueda.
Había una imagen distribuida
ampliamente a través de Internet
04:13
There was a pictureimagen distributedrepartido
widelyextensamente over the InternetInternet
79
241430
2702
04:16
where her facecara was distorteddistorsionado
to look like a monkeymono.
80
244156
2644
con su cara distorsionada
para que pareciera un mono.
04:18
And that pictureimagen was publishedpublicado all over.
81
246824
3169
Y esa foto fue publicada
por todas partes.
04:22
And people publishedpublicado it
very, very purposefullya propósito,
82
250017
3761
Y la gente la publicó muy a propósito,
para llegar hasta allí
en los resultados de búsqueda.
04:25
to get it up there in the searchbuscar resultsresultados.
83
253802
1971
04:27
They madehecho sure to writeescribir
"MichelleMichelle ObamaObama" in the captionsubtítulo
84
255797
2955
Se aseguraron de escribir
"Michelle Obama" en la foto
04:30
and they madehecho sure to uploadsubir the pictureimagen
as "MichelleObamaMichelle Obama.jpegjpeg," or the like.
85
258776
4177
y se aseguraron de cargar la imagen
como 'MichelleObama.jpeg' o similares.
Uds. entienden por qué,
para manipular el resultado de búsqueda.
04:34
You get why -- to manipulatemanipular
the searchbuscar resultresultado.
86
262977
2367
04:37
And it workedtrabajó, too.
87
265368
1295
Y funcionó, también.
Así que cuando se googleaba
'Michelle Obama' por imágenes en 2009,
04:38
So when you picture-Googledimagen en Google
for "MichelleMichelle ObamaObama" in 2009,
88
266687
2720
04:41
that distorteddistorsionado monkeymono pictureimagen
showedmostró up amongentre the first resultsresultados.
89
269431
3387
esa imagen distorsionada como mono
aparecía entre los primeros resultados.
04:44
Now, the resultsresultados are self-cleansingauto limpieza,
90
272842
3566
Los resultados son de autolimpieza,
04:48
and that's sortordenar of the beautybelleza of it,
91
276432
1753
y eso es parte de belleza de esto,
04:50
because GoogleGoogle measuresmedidas relevancepertinencia
everycada hourhora, everycada day.
92
278209
3403
porque Google mide la relevancia
cada hora, cada día.
04:53
Howeversin embargo, GoogleGoogle didn't settleresolver
for that this time,
93
281636
2714
Sin embargo, Google
no se conformó esta vez,
04:56
they just thought, "That's racistracista
and it's a badmalo searchbuscar resultresultado
94
284374
3124
pensaron: "Eso es racista
y un mal resultado de búsqueda
04:59
and we're going to go back
and cleanlimpiar that up manuallya mano.
95
287522
3135
y vamos a limpiar esto manualmente.
05:02
We are going to writeescribir
some codecódigo and fixfijar it,"
96
290681
2932
Escribiremos algo
de código para arreglarlo".
05:05
whichcual they did.
97
293637
1247
Lo hicieron.
05:07
And I don't think anyonenadie in this roomhabitación
thinkspiensa that was a badmalo ideaidea.
98
295454
3742
Y no creo que nadie aquí crea
que haya sido una mala idea.
05:11
Me neitherninguno.
99
299789
1164
Yo tampoco.
Pero un par de años más tarde,
05:14
But then, a couplePareja of yearsaños go by,
100
302802
3032
05:17
and the world'smundo most-Googledmás buscado en Google AndersAnders,
101
305858
2984
lo más googleado del mundo fue Anders,
05:20
AndersAnders BehringBehring BreivikBreivik,
102
308866
2279
Anders Behring Breivik,
05:23
did what he did.
103
311169
1706
quien hizo lo que hizo.
05:24
This is Julyjulio 22 in 2011,
104
312899
2001
El 22 de julio en 2011,
05:26
and a terribleterrible day in Norwegiannoruego historyhistoria.
105
314924
2649
un terrible día en la historia de Noruega.
05:29
This man, a terroristterrorista, blewsopló up
a couplePareja of governmentgobierno buildingsedificios
106
317597
3787
Este hombre, un terrorista,
voló un par de edificios del gobierno
05:33
walkingpara caminar distancedistancia from where we are
right now in OsloOslo, NorwayNoruega
107
321408
2883
a poca distancia de donde
estamos ahora en Oslo, Noruega,
05:36
and then he traveledviajado
to the islandisla of UtUtahøya
108
324315
2051
y luego viajó a la isla de Utoya
05:38
and shotDisparo and killeddelicado a groupgrupo of kidsniños.
109
326390
2223
y disparó y mató a un grupo de niños.
05:41
AlmostCasi 80 people diedmurió that day.
110
329113
1728
Casi 80 personas murieron ese día.
Y un montón de gente describiría
este acto de terror como dos pasos,
05:44
And a lot of people would describedescribir
this actacto of terrorterror as two stepspasos,
111
332397
4559
05:48
that he did two things: he blewsopló up
the buildingsedificios and he shotDisparo those kidsniños.
112
336980
3411
que hizo dos cosas: hizo explotar
los edificios y disparó a esos niños.
05:52
It's not truecierto.
113
340415
1165
No es verdad.
05:54
It was threeTres stepspasos.
114
342326
2143
Fueron tres pasos.
Hizo explotar esos edificios,
disparó a esos niños,
05:56
He blewsopló up those buildingsedificios,
he shotDisparo those kidsniños,
115
344493
2214
05:58
and he satsab down and waitedesperado
for the worldmundo to GoogleGoogle him.
116
346731
3644
y se sentó y esperó
a que el mundo lo googleara.
Y preparó los tres pasos igualmente bien.
06:03
And he preparedpreparado
all threeTres stepspasos equallyIgualmente well.
117
351227
2627
Y si hubo alguien que
inmediatamente entendió esto,
06:06
And if there was somebodyalguien
who immediatelyinmediatamente understoodentendido this,
118
354544
2790
fue un desarrollador sueco de webs,
06:09
it was a Swedishsueco webweb developerdesarrollador,
119
357358
1524
06:10
a searchbuscar enginemotor optimizationmejoramiento expertexperto
in StockholmEstocolmo, namedllamado NikkeNikke LindqvistLindqvist.
120
358906
3623
un experto en motores de búsqueda
de Estocolmo, llamado Nikke Lindqvist.
06:14
He's alsoademás a very politicalpolítico guy
121
362553
1588
También es un hombre muy político
06:16
and he was right out there
in socialsocial mediamedios de comunicación, on his blogBlog and FacebookFacebook.
122
364165
3276
y estaba bien en las redes sociales,
en su blog y en Facebook.
06:19
And he told everybodytodos,
123
367465
1206
Y dijo a todo el mundo,
06:20
"If there's something that
this guy wants right now,
124
368695
2455
"Si hay algo que este tipo
quiere en este momento,
06:23
it's to controlcontrolar the imageimagen of himselfél mismo.
125
371174
2459
es controlar su propia imagen.
Veamos si podemos distorsionar eso.
06:26
Let's see if we can distortdistorsionar that.
126
374760
1960
Veamos si nosotros, el mundo civilizado,
podemos protestar contra lo que hizo
06:29
Let's see if we, in the civilizedcivilizado worldmundo,
can protestprotesta againsten contra what he did
127
377490
3977
06:33
throughmediante insultinginsultante him
in his searchbuscar resultsresultados."
128
381491
3317
insultándolo
en sus resultados de búsqueda".
06:36
And how?
129
384832
1187
¿Y cómo?
Dijo a todos sus lectores lo siguiente:
06:38
He told all of his readerslectores the followingsiguiendo,
130
386797
2056
06:40
"Go out there on the InternetInternet,
131
388877
1864
"Busquen en Internet,
06:42
find picturesimágenes of dogperro poopmierda on sidewalksaceras --
132
390765
2895
encuentren fotos
de caca de perro en las aceras
encuentren fotos de
caca de perro en las aceras,
06:46
find picturesimágenes of dogperro poopmierda on sidewalksaceras --
133
394708
2174
06:48
publishpublicar them in your feedsalimenta,
on your websitessitios web, on your blogsblogs.
134
396906
3470
publíquenlas en sus feeds,
en sus sitios web, en sus blogs.
06:52
Make sure to writeescribir the terrorist'sterrorista
namenombre in the captionsubtítulo,
135
400400
2921
Asegúrense de escribir
el nombre del terrorista en la imagen,
06:55
make sure to namenombre
the pictureimagen filearchivo "BreivikBreivik.jpegjpeg."
136
403345
4487
asegúrese de nombrar el archivo
de imagen así 'Breivik.jpeg'.
06:59
Let's teachenseñar GoogleGoogle that that's
the facecara of the terroristterrorista."
137
407856
3801
Enseñemos a Google que
ese es el rostro del terrorista".
Y funcionó.
07:05
And it workedtrabajó.
138
413552
1278
07:07
Two yearsaños after that campaignCampaña
againsten contra MichelleMichelle ObamaObama,
139
415853
2898
Dos años después de la campaña
contra Michelle Obama,
07:10
this manipulationmanipulación campaignCampaña
againsten contra AndersAnders BehringBehring BreivikBreivik workedtrabajó.
140
418775
3266
funcionó esta campaña de manipulación
contra Anders Behring Breivik.
07:14
If you picture-Googledimagen en Google for him weekssemanas after
the Julyjulio 22 eventseventos from SwedenSuecia,
141
422065
4462
Al googlear por imágenes de él semanas
tras lo acaecido el 22 de julio en Suecia,
07:18
you'dtu hubieras see that pictureimagen of dogperro poopmierda
highalto up in the searchbuscar resultsresultados,
142
426551
4327
se verían imágenes de la caca de perro
arriba de los resultados de búsqueda,
07:22
as a little protestprotesta.
143
430902
1444
como una pequeña protesta.
07:25
StrangelyExtrañamente enoughsuficiente, GoogleGoogle
didn't interveneintervenir this time.
144
433425
4132
Por extraño que parezca,
Google no intervino en esta ocasión.
07:30
They did not steppaso in and manuallya mano
cleanlimpiar those searchbuscar resultsresultados up.
145
438494
4272
No intervino y no limpió manualmente
los resultados de búsqueda.
07:35
So the million-dollarun millón de dólares questionpregunta,
146
443964
1716
Así la pregunta del millón es
07:37
is there anything differentdiferente
betweenEntre these two happeningsacontecimientos here?
147
445704
3368
¿hay algo diferente entre
estos dos acontecimientos?
07:41
Is there anything differentdiferente betweenEntre
what happenedsucedió to MichelleMichelle ObamaObama
148
449096
3193
¿Hay algo diferente entre
lo que pasó con Michelle Obama
07:44
and what happenedsucedió
to AndersAnders BehringBehring BreivikBreivik?
149
452313
2065
y lo que le pasó
con Anders Behring Breivik?
07:46
Of coursecurso not.
150
454402
1284
Por supuesto que no.
07:48
It's the exactexacto samemismo thing,
151
456861
1471
Es exactamente lo mismo,
07:50
yettodavía GoogleGoogle intervenedintervenido in one casecaso
and not in the other.
152
458356
2864
sin embargo, Google intervino
en un caso y no en el otro.
07:53
Why?
153
461244
1253
¿Por qué?
07:55
Because MichelleMichelle ObamaObama
is an honorablehonorable personpersona, that's why,
154
463283
3300
Debido a que Michelle Obama es
una persona honorable, por eso,
07:58
and AndersAnders BehringBehring BreivikBreivik
is a despicabledespreciable personpersona.
155
466607
2916
y Anders Behring Breivik es
una persona despreciable.
08:02
See what happenssucede there?
156
470142
1535
¿Ven lo que pasa?
08:03
An evaluationevaluación of a personpersona takes placelugar
157
471701
3255
Se evalúa a una persona
08:06
and there's only one
power-playerjugador de poder in the worldmundo
158
474980
3786
y solo hay un poder en el mundo
08:10
with the authorityautoridad to say who'squien es who.
159
478790
2480
con autoridad para decidir
quién es quién.
08:13
"We like you, we dislikedisgusto you.
160
481882
1741
"Le gusta, le disgusta.
08:15
We believe in you,
we don't believe in you.
161
483647
2039
Creemos en ti, no creemos en ti.
08:17
You're right, you're wrongincorrecto.
You're truecierto, you're falsefalso.
162
485710
2547
Tienes razón, te equivocas.
Eres verdad, eres falso.
08:20
You're ObamaObama, and you're BreivikBreivik."
163
488281
1805
Tú eres Obama y tú Breivik".
08:22
That's powerpoder if I ever saw it.
164
490791
2000
Ese es poder sin igual.
Por eso les recuerdo
que detrás de cada algoritmo
08:27
So I'm askingpreguntando you to rememberrecuerda
that behinddetrás everycada algorithmalgoritmo
165
495206
3652
08:30
is always a personpersona,
166
498882
1777
hay siempre una persona,
08:32
a personpersona with a setconjunto of personalpersonal beliefscreencias
167
500683
2495
una persona con un conjunto
de creencias personales
08:35
that no codecódigo can ever
completelycompletamente eradicateerradicar.
168
503202
2525
que ningún código puede
erradicar completamente.
08:37
And my messagemensaje goesva
out not only to GoogleGoogle,
169
505751
2434
Y mi mensaje va no solo a Google,
08:40
but to all believerscreyentes in the faithfe
of codecódigo around the worldmundo.
170
508209
2810
sino a todos los creyentes
en la fe de código del mundo.
08:43
You need to identifyidentificar
your ownpropio personalpersonal biasparcialidad.
171
511043
2976
Es necesario identificar
su propio sesgo personal.
08:46
You need to understandentender that you are humanhumano
172
514043
2013
Es necesario comprender
que uno es humano
08:48
and take responsibilityresponsabilidad accordinglyen consecuencia.
173
516080
2491
y, en consecuencia,
asumir la responsabilidad
Y digo esto porque creo que
hemos llegado a un punto
08:51
And I say this because I believe
we'venosotros tenemos reachedalcanzado a pointpunto in time
174
519891
2938
en que es absolutamente imperativo
08:54
when it's absolutelyabsolutamente imperativeimperativo
175
522853
1555
08:56
that we tieCorbata those bondscautiverio
togetherjuntos again, tightermás apretado:
176
524432
3217
atar esos lazos de nuevo,
de forma más ajustada:
08:59
the humanitieshumanidades and the technologytecnología.
177
527673
2368
las humanidades y la tecnología.
09:02
TighterMás estricto than ever.
178
530483
1805
Más apretados que nunca.
Y para recordarnos que esa idea
maravillosamente seductora
09:04
And, if nothing elsemás, to remindrecordar us
that that wonderfullymaravillosamente seductiveseductor ideaidea
179
532312
3339
09:07
of the unbiasedimparcial, cleanlimpiar searchbuscar resultresultado
180
535675
2668
del resultado de búsqueda
limpio imparcial
09:10
is, and is likelyprobable to remainpermanecer, a mythmito.
181
538367
2767
es, y probable siga siendo, un mito.
Gracias por tu tiempo.
09:13
Thank you for your time.
182
541984
1159
09:15
(ApplauseAplausos)
183
543167
2432
(Aplausos)
Translated by Carlos Arturo Morales
Reviewed by Ciro Gomez

▲Back to top

ABOUT THE SPEAKER
Andreas Ekström - Author and journalist
Andreas Ekström describes the power structures of the digital revolution.

Why you should listen

Andreas Ekström is staff writer at Sydsvenskan, a daily morning paper in Malmö, Sweden.

His passion is educating for digital equality, and he has a vision for a world in which we share the wealth -- not only financially, but also in terms of knowledge and power. Andreas is the author of six books, a columnist and a commentator, and he often lectures and leads seminars on the digital revolution.

More profile about the speaker
Andreas Ekström | Speaker | TED.com