ABOUT THE SPEAKER
Andreas Ekström - Author and journalist
Andreas Ekström describes the power structures of the digital revolution.

Why you should listen

Andreas Ekström is staff writer at Sydsvenskan, a daily morning paper in Malmö, Sweden.

His passion is educating for digital equality, and he has a vision for a world in which we share the wealth -- not only financially, but also in terms of knowledge and power. Andreas is the author of six books, a columnist and a commentator, and he often lectures and leads seminars on the digital revolution.

More profile about the speaker
Andreas Ekström | Speaker | TED.com
TEDxOslo

Andreas Ekström: The moral bias behind your search results

Andreas Ekström: Les préjugés éthiques des moteurs de recherche

Filmed:
1,550,129 views

Les moteurs de recherche sont devenus nos sources d'information, des arbitres de la vérité. Est-il vraiment possible d'obtenir un résultat de recherche impartial ? Le journaliste suédois Andreas Ekström nous explique pourquoi un résultat dépourvu de jugement est une impossibilité philosophique. Il nous invite à réfléchir aux liens entre la technologie et l'humanisme et nous rappelle que derrière chaque algorithme se trouve un choix de croyances personnelles qu'aucun code ne pourra jamais effacer.
- Author and journalist
Andreas Ekström describes the power structures of the digital revolution. Full bio

Double-click the English transcript below to play the video.

00:13
So whenevern'importe quand I visitvisite a schoolécole
and talk to studentsélèves,
0
1087
2493
Quand je visite une école
et parle aux élèves,
je leur demande toujours la même chose :
00:15
I always askdemander them the sameMême thing:
1
3604
2143
00:18
Why do you GoogleGoogle?
2
6754
1434
Pourquoi utiliser Google ?
00:20
Why is GoogleGoogle the searchchercher enginemoteur
of choicechoix for you?
3
8624
3397
Pourquoi Google est-il
votre moteur de recherche préféré ?
00:24
StrangelyÉtrangement enoughassez, I always get
the sameMême threeTrois answersréponses.
4
12855
2552
Curieusement, j'obtiens toujours
trois réponses.
Premièrement : « Parce que ça marche. »
00:27
One, "Because it workstravaux,"
5
15431
2039
00:29
whichlequel is a great answerrépondre;
that's why I GoogleGoogle, too.
6
17494
2906
Bonne réponse ; c'est pour ça
que moi aussi, je google.
Ensuite, quelqu'un d'autre dira :
00:32
Two, somebodyquelqu'un will say,
7
20424
2033
00:34
"I really don't know of any alternativessolutions de rechange."
8
22481
2640
« Je ne connais pas
d'autres alternatives. »
00:37
It's not an equallyégalement great answerrépondre
and my replyrépondre to that is usuallyd'habitude,
9
25708
3128
Cette réponse est moins bonne.
J'y réponds d'habitude par :
00:40
"Try to GoogleGoogle the wordmot 'search« recherche enginemoteur,'
10
28860
1921
« Tape moteur de recherche
dans Google,
00:42
you maymai find a couplecouple
of interestingintéressant alternativessolutions de rechange."
11
30805
2402
tu trouveras sûrement
des alternatives valables. »
00:45
And last but not leastmoins, thirdlytroisièmement,
12
33231
2095
Enfin et surtout,
inévitablement, un élève
lèvera la main pour dire :
00:47
inevitablyinévitablement, one studentétudiant will raiseélever
her or his handmain and say,
13
35350
3310
00:50
"With GoogleGoogle, I'm certaincertain to always get
the bestmeilleur, unbiasedimpartiale searchchercher resultrésultat."
14
38684
5183
« Avec Google, je suis sûr de toujours
obtenir le meilleur résultat impartial. »
00:57
CertainCertains to always get the bestmeilleur,
unbiasedimpartiale searchchercher resultrésultat.
15
45157
6506
Sûr de toujours obtenir
un résultat impartial.
01:05
Now, as a man of the humanitieshumanités,
16
53091
2390
En tant qu'humaniste,
quoiqu'humaniste numérique,
01:07
albeitquoique a digitalnumérique humanitieshumanités man,
17
55505
2181
01:09
that just makesfait du my skinpeau curlCURL,
18
57710
1738
ça me fait grincer des dents.
01:11
even if I, too, realizeprendre conscience de that that trustconfiance,
that ideaidée of the unbiasedimpartiale searchchercher resultrésultat
19
59472
4886
Je me rends certes compte
que notre confiance en un résultat neutre
est la clef de voûte de notre amour
et de notre estime pour Google.
01:16
is a cornerstonepierre angulaire in our collectivecollectif love
for and appreciationappréciation of GoogleGoogle.
20
64382
3855
01:20
I will showmontrer you why that, philosophicallyphilosophiquement,
is almostpresque an impossibilityimpossibilité.
21
68658
4258
Je vais cependant vous démontrer
pourquoi c'est une utopie philosophique.
En préambule, je vais esquisser
le principe de base, souvent oublié,
01:24
But let me first elaborateélaborer,
just a little bitbit, on a basicde base principleprincipe
22
72940
3254
qui rend possible
chacune de nos recherches.
01:28
behindderrière eachchaque searchchercher queryrequête
that we sometimesparfois seemsembler to forgetoublier.
23
76218
3113
01:31
So whenevern'importe quand you setensemble out
to GoogleGoogle something,
24
79851
2080
Quand on fait une recherche sur Google,
01:33
startdébut by askingdemandant yourselftoi même this:
"Am I looking for an isolatedisolé factfait?"
25
81955
3927
on doit se demander si on est
à la recherche d’un fait isolé ou pas.
01:38
What is the capitalCapitale of FranceFrance?
26
86334
3161
Quelle est la capitale de la France ?
Quels sont les éléments
d'une molécule d'eau ?
01:41
What are the buildingbâtiment blocksblocs
of a watereau moleculemolécule?
27
89519
2425
01:43
Great -- GoogleGoogle away.
28
91968
2341
Super - on lance la recherche.
01:46
There's not a groupgroupe of scientistsscientifiques
who are this closeFermer to provingprouver
29
94333
3120
Le groupe de scientifiques
qui vous prouvera
que c'est Londres et H3O
n'est pas encore né.
01:49
that it's actuallyréellement LondonLondres and H30.
30
97477
1997
01:51
You don't see a biggros conspiracyconspiration
amongparmi those things.
31
99498
2371
Pas de conspiration à l'horizon.
Le monde entier accepte ces réponses
01:53
We agreese mettre d'accord, on a globalglobal scaleéchelle,
32
101893
1533
01:55
what the answersréponses are
to these isolatedisolé factsfaits.
33
103450
2725
à des questions qui portent
sur des faits isolés.
01:58
But if you complicatecompliquer your questionquestion
just a little bitbit and askdemander something like,
34
106199
5302
Mais quand les questions sont complexes,
« Pourquoi y a-t-il un conflit
israélo-palestinien ? », par exemple,
02:03
"Why is there
an Israeli-PalestineIsraël-Palestine conflictconflit?"
35
111525
2683
on n'est plus à la recherche
d'un fait unique.
02:06
You're not exactlyexactement looking
for a singularsingulier factfait anymoreplus,
36
114978
2640
On est à la recherche d'intelligence,
02:09
you're looking for knowledgeconnaissance,
37
117642
1833
02:11
whichlequel is something way more
complicatedcompliqué and delicatedélicat.
38
119499
2578
ce qui est plus complexe et plus délicat.
02:14
And to get to knowledgeconnaissance,
39
122600
1549
Pour acquérir ce savoir,
02:16
you have to bringapporter 10 or 20
or 100 factsfaits to the tabletable
40
124173
3031
il faut réunir et recouper
10, 20 ou 100 données,
02:19
and acknowledgereconnaître them and say,
"Yes, these are all truevrai."
41
127228
2976
les reconnaître, les accepter :
« Oui, tout ça est exact. »
02:22
But because of who I am,
42
130228
1674
Cependant, je vais leur accorder
une importance variable,
02:23
youngJeune or oldvieux, blacknoir or whiteblanc,
gaygay or straighttout droit,
43
131926
2270
selon qui je suis, jeune, âgé,
noir, blanc, gay ou hétéro.
02:26
I will valuevaleur them differentlydifféremment.
44
134220
1611
Je reconnais l'exactitude des faits,
02:27
And I will say, "Yes, this is truevrai,
45
135855
1688
mais ceci est plus important
à mes yeux que ça.
02:29
but this is more importantimportant
to me than that."
46
137567
2114
02:31
And this is where it becomesdevient interestingintéressant,
47
139705
1990
C'est là que ça devient intéressant,
02:33
because this is where we becomedevenir humanHumain.
48
141719
2146
car c'est là que l'on devient humain.
02:35
This is when we startdébut
to arguese disputer, to formforme societysociété.
49
143889
2996
C'est à cet instant que l'on commence
à délibérer et former une société.
02:38
And to really get somewherequelque part,
we need to filterfiltre all our factsfaits here,
50
146909
3357
Pour y réussir, on doit filtrer
tous les faits,
02:42
throughpar friendscopains and neighborsvoisins
and parentsParents and childrenles enfants
51
150290
2556
à travers nos amis et voisins,
nos parents et enfants,
nos collègues, les journaux et magazines.
02:44
and coworkerscollègues de travail and newspapersjournaux
and magazinesles magazines,
52
152870
2032
02:46
to finallyenfin be groundedà la terre in realréal knowledgeconnaissance,
53
154926
3080
Tous ces filtres nous aident à transformer
les données en intelligence,
02:50
whichlequel is something that a searchchercher enginemoteur
is a poorpauvre help to achieveatteindre.
54
158030
4047
ce qui est le point faible
d'un moteur de recherche.
02:55
So, I promisedpromis you an exampleExemple
just to showmontrer you why it's so harddifficile
55
163284
6328
Je vous ai promis un exemple illustratif
de la difficulté de créer un vrai savoir,
pur et objectif.
03:01
to get to the pointpoint of truevrai, cleannettoyer,
objectiveobjectif knowledgeconnaissance --
56
169636
3404
J'espère que ça vous fera réfléchir.
03:05
as foodaliments for thought.
57
173064
1468
03:06
I will conductconduite a couplecouple of simplesimple
queriesrequêtes, searchchercher queriesrequêtes.
58
174556
3893
Réalisons quelques recherches ensemble.
03:10
We'llNous allons startdébut with "MichelleMichelle ObamaObama,"
59
178473
4040
Commençons avec « Michelle Obama »,
la Première Dame des États-Unis.
03:14
the First LadyLady of the UnitedUnie StatesÉtats.
60
182537
1804
03:16
And we'llbien clickCliquez for picturesdes photos.
61
184365
1729
On va cliquer sur les photos.
03:19
It workstravaux really well, as you can see.
62
187007
2272
Ça fonctionne très bien,
comme vous le voyez.
03:21
It's a perfectparfait searchchercher
resultrésultat, more or lessMoins.
63
189303
3028
C'est un résultat parfait
pour notre recherche.
Elle est seule sur la photo,
sans même le Président.
03:24
It's just her in the picturephoto,
not even the PresidentPrésident.
64
192355
2750
03:27
How does this work?
65
195664
1313
Comment ça fonctionne ?
03:29
QuiteTout à fait simplesimple.
66
197837
1372
En fait, c'est assez simple.
03:31
GoogleGoogle usesles usages a lot of smartnessAstuce
to achieveatteindre this, but quiteassez simplysimplement,
67
199233
3215
Google est très malin,
mais la manière est simple.
Le système recherche
avant tout deux choses.
03:34
they look at two things
more than anything.
68
202472
2060
03:36
First, what does it say in the captionlégende
underen dessous de the picturephoto on eachchaque websitesite Internet?
69
204556
5156
D'abord, le libellé de la légende
des photos sur chaque site web.
Est-ce « Michelle Obama » ?
03:41
Does it say "MichelleMichelle ObamaObama"
underen dessous de the picturephoto?
70
209736
2215
03:43
PrettyAssez good indicationindication
it's actuallyréellement her on there.
71
211975
2356
Voilà une bonne indication
sur son identité.
03:46
SecondSeconde, GoogleGoogle looksregards at the picturephoto filefichier,
72
214355
2386
Ensuite, Google regarde
le nom du fichier lui-même,
03:48
the nameprénom of the filefichier as suchtel
uploadedtéléchargé to the websitesite Internet.
73
216765
3032
tel qu'il est téléchargé sur le site.
03:51
Again, is it calledappelé "MichelleObamaMichelleObama.jpegJPEG"?
74
219821
2669
Dans ce cas aussi, ça s'appelle
« MichelleObama.jpeg ».
03:54
PrettyAssez good indicationindication it's not
ClintClint EastwoodEastwood in the picturephoto.
75
222839
2922
Un indice nous laissant penser
que ce n'est pas Clint Eastwood.
03:57
So, you've got those two and you get
a searchchercher resultrésultat like this -- almostpresque.
76
225785
4265
Les deux indices croisés permettent donc
d'obtenir un résultat comme celui-ci.
04:02
Now, in 2009, MichelleMichelle ObamaObama
was the victimvictime of a racistraciste campaigncampagne,
77
230074
6603
En 2009, Michelle Obama a été
la victime d'une campagne raciste.
Des gens l'ont insultée
à travers les résultats de recherche.
04:08
where people setensemble out to insultinsulte her
throughpar her searchchercher resultsrésultats.
78
236701
4015
04:13
There was a picturephoto distributeddistribué
widelylargement over the InternetInternet
79
241430
2702
Une photo a été publiée sur internet
dans laquelle son visage a été déformé
pour ressembler à un singe.
04:16
where her facevisage was distorteddéformée
to look like a monkeysinge.
80
244156
2644
04:18
And that picturephoto was publishedpublié all over.
81
246824
3169
Cette photo a été publiée partout.
04:22
And people publishedpublié it
very, very purposefullydélibérément,
82
250017
3761
Les gens l'ont postée délibérément,
pour qu'elle s'affiche
en haut des résultats.
04:25
to get it up there in the searchchercher resultsrésultats.
83
253802
1971
Ils se sont assurés que la légende
soit « Michelle Obama »,
04:27
They madefabriqué sure to writeécrire
"MichelleMichelle ObamaObama" in the captionlégende
84
255797
2955
et que le nom du fichier téléchargé soit
« MichelleObama.jpeg ».
04:30
and they madefabriqué sure to uploadtélécharger the picturephoto
as "MichelleObamaMichelleObama.jpegJPEG," or the like.
85
258776
4177
Dans un seul but :
manipuler le résultat des recherches.
04:34
You get why -- to manipulatemanipuler
the searchchercher resultrésultat.
86
262977
2367
04:37
And it workedtravaillé, too.
87
265368
1295
Et ça a fonctionné.
04:38
So when you picture-Googledphoto-googlé
for "MichelleMichelle ObamaObama" in 2009,
88
266687
2720
Quand on cherchait une image
d'elle sur Google en 2009,
04:41
that distorteddéformée monkeysinge picturephoto
showedmontré up amongparmi the first resultsrésultats.
89
269431
3387
cette photo de singe déformée
arrivait dans les premiers résultats.
04:44
Now, the resultsrésultats are self-cleansingnettoyage automatique,
90
272842
3566
Les résultats sont en fait
auto-correctifs.
C'est ça qui fait la beauté du système.
04:48
and that's sortTrier of the beautybeauté of it,
91
276432
1753
Google mesure la pertinence
des données en continu.
04:50
because GoogleGoogle measuresles mesures relevancepertinence
everychaque hourheure, everychaque day.
92
278209
3403
Or, dans ce cas précis,
Google est allé plus loin.
04:53
HoweverCependant, GoogleGoogle didn't settleSettle
for that this time,
93
281636
2714
04:56
they just thought, "That's racistraciste
and it's a badmal searchchercher resultrésultat
94
284374
3124
Ils ont pensé : « C'est un acte raciste,
et le résultat est erroné.
04:59
and we're going to go back
and cleannettoyer that up manuallymanuellement.
95
287522
3135
Revenons en arrière,
et corrigeons manuellement.
05:02
We are going to writeécrire
some codecode and fixréparer it,"
96
290681
2932
On va écrire un code et corriger ça ! »
Aussitôt dit, aussitôt fait.
05:05
whichlequel they did.
97
293637
1247
05:07
And I don't think anyonen'importe qui in this roomchambre
thinkspense that was a badmal ideaidée.
98
295454
3742
Je suis absolument sûr que
tout le monde ici trouve l'idée bonne.
05:11
Me neitherni.
99
299789
1164
Moi aussi.
05:14
But then, a couplecouple of yearsannées go by,
100
302802
3032
Cependant, quelques années plus tard,
05:17
and the world'smonde most-Googledla plupart-googlé AndersAnders,
101
305858
2984
l'Anders le plus recherché sur Google,
Anders Behring Breivik,
05:20
AndersAnders BehringBehring BreivikBreivik,
102
308866
2279
05:23
did what he did.
103
311169
1706
a commis les actes que l'on sait.
05:24
This is JulyJuillet 22 in 2011,
104
312899
2001
Le 22 Juillet 2011 restera un jour
noir dans l'histoire de la Norvège.
05:26
and a terribleterrible day in NorwegianNorvégien historyhistoire.
105
314924
2649
Cet homme, un terroriste, a fait sauter
quelques bâtiments administratifs,
05:29
This man, a terroristactivités terroristes, blewa soufflé up
a couplecouple of governmentgouvernement buildingsbâtiments
106
317597
3787
05:33
walkingen marchant distancedistance from where we are
right now in OsloOslo, NorwayNorvège
107
321408
2883
à un jet de pierre d'Oslo, où nous sommes.
Il s'est ensuite rendu dans l'ile d'Utøya
05:36
and then he traveledvoyagé
to the islandîle of UtUTøya
108
324315
2051
et a tiré sur un groupe d'enfants.
05:38
and shotcoup and killedtué a groupgroupe of kidsdes gamins.
109
326390
2223
05:41
AlmostPresque 80 people dieddécédés that day.
110
329113
1728
Presque 80 personnes
sont mortes ce jour-là.
La plupart des gens pensent
que cet acte horrible a deux étapes.
05:44
And a lot of people would describedécrire
this actacte of terrorla terreur as two stepspas,
111
332397
4559
05:48
that he did two things: he blewa soufflé up
the buildingsbâtiments and he shotcoup those kidsdes gamins.
112
336980
3411
Un, il fait sauter les immeubles ;
et deux, il tue ces enfants.
Ce n'est pas exact.
05:52
It's not truevrai.
113
340415
1165
05:54
It was threeTrois stepspas.
114
342326
2143
Il y a 3 étapes à son plan.
05:56
He blewa soufflé up those buildingsbâtiments,
he shotcoup those kidsdes gamins,
115
344493
2214
Il fait sauter les immeubles,
il tue les enfants,
05:58
and he satsam down and waitedattendu
for the worldmonde to GoogleGoogle him.
116
346731
3644
et trois, il attend
que le monde entier le google.
06:03
And he preparedpréparé
all threeTrois stepspas equallyégalement well.
117
351227
2627
Et il a préparé les 3 étapes
minutieusement.
06:06
And if there was somebodyquelqu'un
who immediatelyimmédiatement understoodcompris this,
118
354544
2790
Quelqu'un a compris ça immédiatement :
un développeur web Suédois,
Nikke Lindqvist,
06:09
it was a SwedishSuédois webweb developerdéveloppeur,
119
357358
1524
06:10
a searchchercher enginemoteur optimizationoptimisation expertexpert
in StockholmStockholm, namednommé NikkeNikke LindqvistLindqvist.
120
358906
3623
spécialisé dans l’optimisation
des moteurs de recherche.
06:14
He's alsoaussi a very politicalpolitique guy
121
362553
1588
Il s’intéresse aussi à la politique.
06:16
and he was right out there
in socialsocial mediamédias, on his blogBlog and FacebookFacebook.
122
364165
3276
Il s'est immédiatement connecté
aux réseaux sociaux, son blog, FB.
Voici ce qu'il a dit :
06:19
And he told everybodyTout le monde,
123
367465
1206
06:20
"If there's something that
this guy wants right now,
124
368695
2455
« Cet homme veut avant tout
contrôler son image.
06:23
it's to controlcontrôle the imageimage of himselflui-même.
125
371174
2459
C'est son objectif principal.
06:26
Let's see if we can distortfausser that.
126
374760
1960
Tentons de déformer ça.
06:29
Let's see if we, in the civilizedcivilisé worldmonde,
can protestprotestation againstcontre what he did
127
377490
3977
Voyons si on peut, dans la monde civilisé,
protester les actes qu'il a commis,
en l'insultant
dans les résultats de recherche. »
06:33
throughpar insultinginsulte him
in his searchchercher resultsrésultats."
128
381491
3317
06:36
And how?
129
384832
1187
Comment faire ?
06:38
He told all of his readerslecteurs the followingSuivant,
130
386797
2056
Il a demandé à tous ses lecteurs :
« Allez sur Internet,
06:40
"Go out there on the InternetInternet,
131
388877
1864
06:42
find picturesdes photos of dogchien poopdunette on sidewalkstrottoirs --
132
390765
2895
trouvez des photos de crottes de chien
sur les trottoirs,
06:46
find picturesdes photos of dogchien poopdunette on sidewalkstrottoirs --
133
394708
2174
des crottes de chien,
06:48
publishpublier them in your feedsflux,
on your websitessites Internet, on your blogsblogs.
134
396906
3470
et postez-les sur vos sites web,
sur vos blogs.
Mentionnez le nom du terroriste
dans la légende de la photo,
06:52
Make sure to writeécrire the terrorist'sles terroristes
nameprénom in the captionlégende,
135
400400
2921
06:55
make sure to nameprénom
the picturephoto filefichier "BreivikBreivik.jpegJPEG."
136
403345
4487
et donnez au fichier le nom
« Brievik.jpeg. »
Apprenons à Google que tel est le visage
d'un terroriste. »
06:59
Let's teachapprendre GoogleGoogle that that's
the facevisage of the terroristactivités terroristes."
137
407856
3801
07:05
And it workedtravaillé.
138
413552
1278
Ça a marché.
07:07
Two yearsannées after that campaigncampagne
againstcontre MichelleMichelle ObamaObama,
139
415853
2898
Deux ans après la campagne
contre Michelle Obama,
07:10
this manipulationmanipulation campaigncampagne
againstcontre AndersAnders BehringBehring BreivikBreivik workedtravaillé.
140
418775
3266
cette campagne manipulatrice
contre Anders Behring Breivik a marché.
07:14
If you picture-Googledphoto-googlé for him weekssemaines after
the JulyJuillet 22 eventsévénements from SwedenSuède,
141
422065
4462
Quand on faisait une recherche
des semaines après ce 22 Juillet,
cette photo de crottes de chien
apparaissait en haut des résultats.
07:18
you'dtu aurais see that picturephoto of dogchien poopdunette
highhaute up in the searchchercher resultsrésultats,
142
426551
4327
Une petite protestation.
07:22
as a little protestprotestation.
143
430902
1444
07:25
StrangelyÉtrangement enoughassez, GoogleGoogle
didn't interveneintervenir this time.
144
433425
4132
Curieusement, Google n'est pas
intervenu cette fois-ci.
07:30
They did not stepétape in and manuallymanuellement
cleannettoyer those searchchercher resultsrésultats up.
145
438494
4272
Ils n'ont pas nettoyé ces résultats
manuellement.
07:35
So the million-dollarmillion de dollars questionquestion,
146
443964
1716
La question à cent balles
consiste à savoir
07:37
is there anything differentdifférent
betweenentre these two happeningshappenings here?
147
445704
3368
s'il y a une différence
entre ces deux événements.
Y a-t-il une différence
entre ce qui est arrivé à Michelle Obama
07:41
Is there anything differentdifférent betweenentre
what happenedarrivé to MichelleMichelle ObamaObama
148
449096
3193
et ce qui est arrivé à Anders Breivik ?
07:44
and what happenedarrivé
to AndersAnders BehringBehring BreivikBreivik?
149
452313
2065
Bien sûr que non.
07:46
Of coursecours not.
150
454402
1284
07:48
It's the exactexact sameMême thing,
151
456861
1471
C'est exactement la même chose.
07:50
yetencore GoogleGoogle intervenedest intervenu in one caseCas
and not in the other.
152
458356
2864
Cependant, Google est intervenu
dans un cas et non dans l'autre.
07:53
Why?
153
461244
1253
Pourquoi ?
07:55
Because MichelleMichelle ObamaObama
is an honorablehonorable personla personne, that's why,
154
463283
3300
Parce que Michelle Obama
est une personne honorable,
et Anders Breivik
est une personne ignoble.
07:58
and AndersAnders BehringBehring BreivikBreivik
is a despicableméprisable personla personne.
155
466607
2916
08:02
See what happensarrive there?
156
470142
1535
Vous comprenez ce qui se passe ?
08:03
An evaluationévaluation of a personla personne takes placeendroit
157
471701
3255
On a porté un jugement de valeur
sur une personne.
Il n'y a qu'une puissance au monde
08:06
and there's only one
power-playerpuissance-joueur in the worldmonde
158
474980
3786
pourvue de l'autorité
de décider qui est qui.
08:10
with the authorityautorité to say who'squi est who.
159
478790
2480
08:13
"We like you, we disliken’aime pas you.
160
481882
1741
« On vous aime, on ne vous aime pas.
08:15
We believe in you,
we don't believe in you.
161
483647
2039
On croit en vous, on ne croit pas en vous.
08:17
You're right, you're wrongfaux.
You're truevrai, you're falsefaux.
162
485710
2547
Vous avez raison, vous avez tort.
Vous êtes Obama,
et vous êtes Breivik. »
08:20
You're ObamaObama, and you're BreivikBreivik."
163
488281
1805
08:22
That's powerPuissance if I ever saw it.
164
490791
2000
Voilà le pouvoir à l'état brut.
08:27
So I'm askingdemandant you to rememberrappelles toi
that behindderrière everychaque algorithmalgorithme de
165
495206
3652
C'est pour ça que je vous demande
de vous rappeler
que derrière chaque algorithme,
il y a toujours une personne,
08:30
is always a personla personne,
166
498882
1777
08:32
a personla personne with a setensemble of personalpersonnel beliefscroyances
167
500683
2495
avec des croyances personnelles,
08:35
that no codecode can ever
completelycomplètement eradicateéradiquer.
168
503202
2525
qu'aucun code ne pourra jamais
complètement effacer.
08:37
And my messagemessage goesva
out not only to GoogleGoogle,
169
505751
2434
J'adresse mon message à Google,
08:40
but to all believerscroyants in the faithFoi
of codecode around the worldmonde.
170
508209
2810
et à tous les croyants
en la programmation.
08:43
You need to identifyidentifier
your ownposséder personalpersonnel biasbiais.
171
511043
2976
Vous devez identifier
vos propres préjugés.
Vous devez comprendre
que vous êtes humain,
08:46
You need to understandcomprendre that you are humanHumain
172
514043
2013
08:48
and take responsibilityresponsabilité accordinglyen conséquence.
173
516080
2491
et prendre vos responsabilités
en conséquence.
08:51
And I say this because I believe
we'venous avons reachedatteint a pointpoint in time
174
519891
2938
Je crois que nous avons atteint
un moment où il est impératif
08:54
when it's absolutelyabsolument imperativeimpératif
175
522853
1555
que nous resserrions les liens
entre l'humanisme et la technologie,
08:56
that we tieattacher those bondsobligations
togetherensemble again, tighterplus serré:
176
524432
3217
08:59
the humanitieshumanités and the technologyLa technologie.
177
527673
2368
et que nous les cultivions
comme jamais auparavant.
09:02
TighterPlus serré than ever.
178
530483
1805
09:04
And, if nothing elseautre, to remindrappeler us
that that wonderfullymerveilleusement seductiveséduisant ideaidée
179
532312
3339
Si vous ne deviez retenir
qu'une seule idée :
l'idée séductrice du résultat
de recherche neutre, et objectif,
09:07
of the unbiasedimpartiale, cleannettoyer searchchercher resultrésultat
180
535675
2668
09:10
is, and is likelyprobable to remainrester, a mythmythe.
181
538367
2767
est et restera, un mythe.
09:13
Thank you for your time.
182
541984
1159
Merci pour votre temps.
09:15
(ApplauseApplaudissements)
183
543167
2432
(Applaudissements)
Translated by Amber Rignell
Reviewed by Claire Ghyselen

▲Back to top

ABOUT THE SPEAKER
Andreas Ekström - Author and journalist
Andreas Ekström describes the power structures of the digital revolution.

Why you should listen

Andreas Ekström is staff writer at Sydsvenskan, a daily morning paper in Malmö, Sweden.

His passion is educating for digital equality, and he has a vision for a world in which we share the wealth -- not only financially, but also in terms of knowledge and power. Andreas is the author of six books, a columnist and a commentator, and he often lectures and leads seminars on the digital revolution.

More profile about the speaker
Andreas Ekström | Speaker | TED.com