ABOUT THE SPEAKER
Andreas Ekström - Author and journalist
Andreas Ekström describes the power structures of the digital revolution.

Why you should listen

Andreas Ekström is staff writer at Sydsvenskan, a daily morning paper in Malmö, Sweden.

His passion is educating for digital equality, and he has a vision for a world in which we share the wealth -- not only financially, but also in terms of knowledge and power. Andreas is the author of six books, a columnist and a commentator, and he often lectures and leads seminars on the digital revolution.

More profile about the speaker
Andreas Ekström | Speaker | TED.com
TEDxOslo

Andreas Ekström: The moral bias behind your search results

Andreas Ekström: Prejudecata morală din spatele rezultatelor unei căutări

Filmed:
1,550,129 views

Motoarele de căutare au devenit sursele noastre de informaţii cele mai credibile şi imparţiale în transmiterea adevărului. Este însă posibil să obţinem un rezultat al unei căutări lipsit de prejudecăţi? Autorul şi jurnalistul suedez Andreas Ekström afirmă ca acest lucru reprezintă o imposibilitate filosofică. În această prelegere profundă, ne îndeamnă să consolidăm legăturile existente între tehnologie şi ştiinţele umane şi ne reaminteşte că în spatele fiecărui algoritm se află un set de valori personale pe care nici un cod nu îl poate eradica în totalitate.
- Author and journalist
Andreas Ekström describes the power structures of the digital revolution. Full bio

Double-click the English transcript below to play the video.

00:13
So wheneveroricând I visitvizita a schoolşcoală
and talk to studentselevi,
0
1087
2493
Când vizitez o şcoală
şi le vorbesc elevilor,
00:15
I always askcere them the samela fel thing:
1
3604
2143
le pun această întrebare:
00:18
Why do you GoogleGoogle?
2
6754
1434
De ce daţi căutare pe Google?
00:20
Why is GoogleGoogle the searchcăutare enginemotor
of choicealegere for you?
3
8624
3397
De ce preferaţi Google?
00:24
StrangelyCiudat enoughdestul, I always get
the samela fel threeTrei answersrăspunsuri.
4
12855
2552
Surprinzător, mereu primesc
aceleaşi trei răspunsuri:
00:27
One, "Because it workslucrări,"
5
15431
2039
Primul: „Pentru că funcţionează.”
00:29
whichcare is a great answerRăspuns;
that's why I GoogleGoogle, too.
6
17494
2906
E un răspuns excelent;
de-asta folosesc și eu Google.
00:32
Two, somebodycineva will say,
7
20424
2033
Al doilea, cineva va zice:
00:34
"I really don't know of any alternativesalternative."
8
22481
2640
„Nu știu alternative.”
00:37
It's not an equallyin aceeasi masura great answerRăspuns
and my replyrăspuns to that is usuallyde obicei,
9
25708
3128
Nu e o variantă la fel de bună,
iar răspunsul meu e de obicei:
00:40
"Try to GoogleGoogle the wordcuvânt 'search' căutare enginemotor,'
10
28860
1921
„Încearcă ‘motor de căutare’ pe Google,
00:42
you mayMai find a couplecuplu
of interestinginteresant alternativesalternative."
11
30805
2402
poate găseşti
câteva alternative interesante.”
00:45
And last but not leastcel mai puţin, thirdlyîn al treilea rând,
12
33231
2095
Iar a treia variantă de răspuns -
00:47
inevitablyinevitabil, one studentstudent will raisea ridica
her or his handmână and say,
13
35350
3310
inevitabil, un elev va ridica mâna
şi va zice:
00:50
"With GoogleGoogle, I'm certainanumit to always get
the bestCel mai bun, unbiasedimparţiale searchcăutare resultrezultat."
14
38684
5183
„Cu Google, sunt sigur că voi obţine
cel mai bun rezultat imparţial.”
00:57
CertainAnumite to always get the bestCel mai bun,
unbiasedimparţiale searchcăutare resultrezultat.
15
45157
6506
Sigur că se obţine
cel mai bun rezultat imparţial.
01:05
Now, as a man of the humanitiesumanistică,
16
53091
2390
Ca om al ştiinţelor umane,
01:07
albeitcu toate că a digitaldigital humanitiesumanistică man,
17
55505
2181
deși unul al științelor umane digitale,
01:09
that just makesmărci my skinpiele curlcurl,
18
57710
1738
mă cutremur când aud asta,
01:11
even if I, too, realizerealiza that that trustîncredere,
that ideaidee of the unbiasedimparţiale searchcăutare resultrezultat
19
59472
4886
chiar dacă şi eu realizez că încrederea
în ideea unei căutări imparţiale
01:16
is a cornerstonepiatra de temelie in our collectivecolectiv love
for and appreciationapreciere of GoogleGoogle.
20
64382
3855
stă la baza admiraţiei şi iubirii noastre
colective pentru Google.
01:20
I will showspectacol you why that, philosophicallyfilozofic,
is almostaproape an impossibilityimposibilitatea.
21
68658
4258
Am să vă demonstrez de ce asta este
aproape o imposibilitate filosofică.
01:24
But let me first elaborateelaborat,
just a little bitpic, on a basicde bază principleprincipiu
22
72940
3254
Mai întâi, permiteți-mi să vorbesc
despre un principiu fundamental
01:28
behindin spate eachfiecare searchcăutare queryinterogare
that we sometimesuneori seempărea to forgeta uita.
23
76218
3113
ce stă la baza fiecărei căutări,
dar de care uităm adesea.
01:31
So wheneveroricând you seta stabilit out
to GoogleGoogle something,
24
79851
2080
Atunci când daţi o căutare pe Google,
01:33
startstart by askingcer yourselftu this:
"Am I looking for an isolatedizolat factfapt?"
25
81955
3927
începeţi prin a vă întreba:
„Caut un fapt izolat?"
01:38
What is the capitalcapital of FranceFranţa?
26
86334
3161
Care este capitala Franţei?
01:41
What are the buildingclădire blocksblocuri
of a waterapă moleculemoleculă?
27
89519
2425
Din ce e alcătuită o moleculă de apă?
01:43
Great -- GoogleGoogle away.
28
91968
2341
Super - căutaţi în voie.
01:46
There's not a groupgrup of scientistsoamenii de știință
who are this closeînchide to provingdovedind
29
94333
3120
Nu există niciun grup de specialişti
aproape de a demostra
01:49
that it's actuallyde fapt LondonLondra and H30.
30
97477
1997
că e vorba, de fapt, depre Londra şi H3O.
01:51
You don't see a bigmare conspiracyconspiraţie
amongprintre those things.
31
99498
2371
Nu vedem nicio conspiraţie
în aceste lucruri.
01:53
We agreede acord, on a globalglobal scalescară,
32
101893
1533
Suntem de acord global
01:55
what the answersrăspunsuri are
to these isolatedizolat factsfapte.
33
103450
2725
cu răspunsurile
la aceste fapte izolate.
01:58
But if you complicatecomplica your questionîntrebare
just a little bitpic and askcere something like,
34
106199
5302
Dar dacă aveţi o întrebare
puţin mai complicată precum:
02:03
"Why is there
an Israeli-PalestineIsrael-Palestina conflictconflict?"
35
111525
2683
„De ce există
un conflict palestino-israelian?”,
02:06
You're not exactlyexact looking
for a singularsingular factfapt anymoremai,
36
114978
2640
nu mai sunteţi în căutarea
unui fapt singular,
02:09
you're looking for knowledgecunoştinţe,
37
117642
1833
sunteţi în căutare de cunoştinţe,
02:11
whichcare is something way more
complicatedcomplicat and delicatedelicat.
38
119499
2578
ceva mult mai complicat şi mai delicat.
02:14
And to get to knowledgecunoştinţe,
39
122600
1549
Pentru a ajunge la cunoştinţe,
02:16
you have to bringaduce 10 or 20
or 100 factsfapte to the tablemasa
40
124173
3031
trebuie să incluzi 10, 20
sau 100 de fapte în ecuaţie,
02:19
and acknowledgerecunoaște them and say,
"Yes, these are all trueAdevărat."
41
127228
2976
să le confirmi şi să spui:
„Da, toate astea sunt adevăruri.”
02:22
But because of who I am,
42
130228
1674
Însă datorită identităţii mele,
02:23
youngtineri or oldvechi, blacknegru or whitealb,
gayhomosexual or straightdrept,
43
131926
2270
tânăr sau bătrân, negru sau alb,
gay sau hetero,
02:26
I will valuevaloare them differentlydiferit.
44
134220
1611
le voi evalua diferit.
02:27
And I will say, "Yes, this is trueAdevărat,
45
135855
1688
Și voi spune:
„Da, asta e adevărat,
02:29
but this is more importantimportant
to me than that."
46
137567
2114
dar acest lucru e mai important
decât acela."
02:31
And this is where it becomesdevine interestinginteresant,
47
139705
1990
În acea clipă
lucrurile devin interesante,
02:33
because this is where we becomedeveni humanuman.
48
141719
2146
fiindcă atunci devenim umani.
02:35
This is when we startstart
to argueargumenta, to formformă societysocietate.
49
143889
2996
Atunci începem să dezbatem,
să formăm societatea.
02:38
And to really get somewhereundeva,
we need to filterfiltru all our factsfapte here,
50
146909
3357
Iar pentru a putea ajunge undeva,
trebuie să filtrăm totul aici,
02:42
throughprin friendsprieteni and neighborsvecinii
and parentspărinţi and childrencopii
51
150290
2556
prin prieteni şi vecini, părinţi şi copii,
02:44
and coworkerscolegii and newspaperspresă
and magazinesreviste,
52
152870
2032
colegi de muncă, ziare şi reviste,
02:46
to finallyin sfarsit be groundedîmpământat in realreal knowledgecunoştinţe,
53
154926
3080
ca să avem la final
o bază reală de cunoaştere,
02:50
whichcare is something that a searchcăutare enginemotor
is a poorsărac help to achieveobține.
54
158030
4047
un lucru la care motoarele de căutare
nu prea ne ajută.
02:55
So, I promiseda promis you an exampleexemplu
just to showspectacol you why it's so hardgreu
55
163284
6328
Deci v-am promis un exemplu
pentru a demonstra dificultatea
03:01
to get to the pointpunct of trueAdevărat, cleancurat,
objectiveobiectiv knowledgecunoştinţe --
56
169636
3404
de a ajunge la o cunoştere adevărată,
curată şi obiectivă -
03:05
as foodalimente for thought.
57
173064
1468
luaţi-o ca şi temă de gândire.
03:06
I will conductconduita a couplecuplu of simplesimplu
queriesinterogări, searchcăutare queriesinterogări.
58
174556
3893
O să efectuez două căutări simple.
03:10
We'llVom startstart with "MichelleMichelle ObamaObama,"
59
178473
4040
Începem cu „Michelle Obama”,
03:14
the First LadyLady of the UnitedMarea StatesStatele.
60
182537
1804
Prima Doamnă a Statelor Unite.
03:16
And we'llbine clickclic for picturespoze.
61
184365
1729
Şi o să căutăm imagini.
03:19
It workslucrări really well, as you can see.
62
187007
2272
După cum vedeţi, funcţionează foarte bine.
03:21
It's a perfectperfect searchcăutare
resultrezultat, more or lessMai puțin.
63
189303
3028
E mai mult sau mai puţin
un rezultat perfect al căutării.
03:24
It's just her in the pictureimagine,
not even the PresidentPreşedintele.
64
192355
2750
Nici măcar preşedintele
nu apare în imagini, doar ea.
03:27
How does this work?
65
195664
1313
Cum funcţionează asta?
03:29
QuiteDestul simplesimplu.
66
197837
1372
Destul de simplu.
03:31
GoogleGoogle usesutilizări a lot of smartnessusturimi
to achieveobține this, but quitedestul de simplypur şi simplu,
67
199233
3215
Google foloseşte multă inteligenţă
pentru a obține asta,
dar, în principal,
03:34
they look at two things
more than anything.
68
202472
2060
e atent la două lucruri:
03:36
First, what does it say in the captionlegendă
undersub the pictureimagine on eachfiecare websitewebsite?
69
204556
5156
Mai întâi, ce titlu au imaginile
de pe fiecare site?
03:41
Does it say "MichelleMichelle ObamaObama"
undersub the pictureimagine?
70
209736
2215
Scrie „Michelle Obama” sub imagine?
03:43
Prettyfrumos good indicationindicaţie
it's actuallyde fapt her on there.
71
211975
2356
Acesta ar fi un indiciu bun
că e ea în imagine.
03:46
SecondAl doilea, GoogleGoogle looksarată at the pictureimagine filefişier,
72
214355
2386
Apoi, Google se uită la fişierul imagine,
03:48
the nameNume of the filefişier as suchastfel de
uploadedîncărcat to the websitewebsite.
73
216765
3032
numele fişierului
aşa cum a fost el încărcat pe Internet.
03:51
Again, is it calleddenumit "MichelleObamaMichelleObama.jpegJPEG"?
74
219821
2669
Din nou, se numeşte
imaginea „MichelleObama.jpeg”?
03:54
Prettyfrumos good indicationindicaţie it's not
ClintClint EastwoodElena in the pictureimagine.
75
222839
2922
Dacă da, cel mai probabil
nu e Clint Eastwood în ea.
03:57
So, you've got those two and you get
a searchcăutare resultrezultat like this -- almostaproape.
76
225785
4265
Deci avem aceste două criterii
şi obţinem acest rezultat - aproape.
04:02
Now, in 2009, MichelleMichelle ObamaObama
was the victimvictimă of a racistrasist campaigncampanie,
77
230074
6603
În 2009, Michelle Obama
a fost victima unei campanii rasiste.
04:08
where people seta stabilit out to insultinsultă her
throughprin her searchcăutare resultsrezultate.
78
236701
4015
Oamenii doreau să o insulte prin
rezultatele la căutările numelui ei.
04:13
There was a pictureimagine distributeddistribuite
widelype scară largă over the InternetInternet
79
241430
2702
O anumită imagine s-a răspândit
larg pe Internet,
04:16
where her facefață was distorteddistorsionate
to look like a monkeymaimuţă.
80
244156
2644
una în care faţa ei e făcută
să semene cu o maimuţă.
04:18
And that pictureimagine was publishedpublicat all over.
81
246824
3169
Imaginea a fost publicată peste tot.
04:22
And people publishedpublicat it
very, very purposefullyintenţionat,
82
250017
3761
Oamenii o publicau
cu intenţia clară de a fi prima
04:25
to get it up there in the searchcăutare resultsrezultate.
83
253802
1971
la rezultatele de căutare.
S-au asigurat să pună titlul
“Michelle Obama”
04:27
They madefăcut sure to writescrie
"MichelleMichelle ObamaObama" in the captionlegendă
84
255797
2955
şi să încarce imaginea
04:30
and they madefăcut sure to uploadîncărcați the pictureimagine
as "MichelleObamaMichelleObama.jpegJPEG," or the like.
85
258776
4177
ca “MichelleObama.jpeg” sau ceva similar.
04:34
You get why -- to manipulatemanipula
the searchcăutare resultrezultat.
86
262977
2367
Aţi înţeles de ce:
să manipuleze rezultatele.
04:37
And it workeda lucrat, too.
87
265368
1295
Şi a mers.
Astfel, dacă în 2009 căutaţi
“Michelle Obama” pe Google imagini
04:38
So when you picture-Googledpoze pentru Googled
for "MichelleMichelle ObamaObama" in 2009,
88
266687
2720
04:41
that distorteddistorsionate monkeymaimuţă pictureimagine
showeda arătat up amongprintre the first resultsrezultate.
89
269431
3387
acea imagine distorsionată
apărea printre primele rezultate.
04:44
Now, the resultsrezultate are self-cleansingauto-curăţare,
90
272842
3566
Dar, rezultatele căutărilor
se auto-corectează,
04:48
and that's sortfel of the beautyfrumuseţe of it,
91
276432
1753
în aceasta constă de fapt frumuseţea lor,
04:50
because GoogleGoogle measuresmăsuri relevancerelevanţă
everyfiecare hourora, everyfiecare day.
92
278209
3403
pentru că Google le măsoară relevanţă
în fiecare oră, fiecare zi.
04:53
HoweverCu toate acestea, GoogleGoogle didn't settleSettle
for that this time,
93
281636
2714
În acest caz însă,
Google nu s-a mulţumit doar cu atât.
04:56
they just thought, "That's racistrasist
and it's a badrău searchcăutare resultrezultat
94
284374
3124
A zis: “Asta e rasism
şi un rezultat de căutare prost.
04:59
and we're going to go back
and cleancurat that up manuallymanual.
95
287522
3135
O să curăţăm rezultatele manual.
05:02
We are going to writescrie
some codecod and fixrepara it,"
96
290681
2932
O să codăm ceva
şi o să rezolvăm problema.
05:05
whichcare they did.
97
293637
1247
Şi au reuşit.
05:07
And I don't think anyoneoricine in this roomcameră
thinkscrede that was a badrău ideaidee.
98
295454
3742
Nu cred că se afla cineva aici
care să creadă că a fost o idee rea.
05:11
Me neithernici.
99
299789
1164
Nici eu nu cred.
05:14
But then, a couplecuplu of yearsani go by,
100
302802
3032
Însă după doi ani,
05:17
and the world'slume most-Googledcele mai multe-Googled AndersAnders,
101
305858
2984
cel mai căutat Anders de pe Google,
05:20
AndersAnders BehringBehring BreivikBreivik,
102
308866
2279
anume Anders Behring Breivik,
05:23
did what he did.
103
311169
1706
a făcut ce a făcut.
05:24
This is JulyIulie 22 in 2011,
104
312899
2001
E 22 iulie 2011,
05:26
and a terribleteribil day in NorwegianNorvegiană historyistorie.
105
314924
2649
o zi înfiorătoare în istoria Norvegiei.
05:29
This man, a terroristteroriste, blewa suflat up
a couplecuplu of governmentGuvern buildingsclădiri
106
317597
3787
Acest individ, un terorist,
a atacat două clădiri guvernamentale
05:33
walkingmers distancedistanţă from where we are
right now in OsloOslo, NorwayNorvegia
107
321408
2883
aproape de locul unde ne aflăm
acum în Oslo, Norvegia
05:36
and then he traveledcălătorit
to the islandinsulă of UtUTøya
108
324315
2051
Apoi a călătorit în insula Utøya
05:38
and shotlovitură and killeducis a groupgrup of kidscopii.
109
326390
2223
unde a împuşcat mortal un grup de copii.
05:41
AlmostAproape 80 people dieddecedat that day.
110
329113
1728
Aproape 80 de persoane
au murit atunci.
05:44
And a lot of people would describedescrie
this actact of terrorteroare as two stepspași,
111
332397
4559
Mulţi ar zice ca actul terorist
a avut două etape,
05:48
that he did two things: he blewa suflat up
the buildingsclădiri and he shotlovitură those kidscopii.
112
336980
3411
că teroristul a comis două fapte:
a detonat clădirile şi a ucis copiii.
05:52
It's not trueAdevărat.
113
340415
1165
Nu este adevărat.
05:54
It was threeTrei stepspași.
114
342326
2143
Au fost trei etape.
05:56
He blewa suflat up those buildingsclădiri,
he shotlovitură those kidscopii,
115
344493
2214
A detonat clădirile,
a împușcat acei copii
05:58
and he satSAT down and waitedașteptă
for the worldlume to GoogleGoogle him.
116
346731
3644
apoi a stat şi a aşteptat
ca lumea să îl caute pe Google.
06:03
And he preparedpregătit
all threeTrei stepspași equallyin aceeasi masura well.
117
351227
2627
A pregătit toţi cei trei paşi
la fel de atent.
06:06
And if there was somebodycineva
who immediatelyimediat understoodînțeles this,
118
354544
2790
Cineva a înţeles imediat acest lucru,
un dezvoltator web
suedez, un expert
06:09
it was a SwedishSuedeză webweb developerdezvoltator,
119
357358
1524
în optimizarea motoarelor
de căutare
06:10
a searchcăutare enginemotor optimizationoptimizare expertexpert
in StockholmStockholm, namednumit NikkeNikke LindqvistLindqvist.
120
358906
3623
din Stockholm, pe nume Nikke Lindqvist.
06:14
He's alsode asemenea a very politicalpolitic guy
121
362553
1588
El este şi activ politic,
06:16
and he was right out there
in socialsocial mediamass-media, on his blogblogul and FacebookFacebook.
122
364165
3276
prezent pe reţele de socializare,
pe blogul lui şi pe Facebook.
06:19
And he told everybodytoata lumea,
123
367465
1206
A spus tuturor:
06:20
"If there's something that
this guy wants right now,
124
368695
2455
“Ceea ce îşi doreşte acest om
cel mai mult acum
06:23
it's to controlControl the imageimagine of himselfse.
125
371174
2459
este să îşi controleze imaginea publică.
06:26
Let's see if we can distortdenatura that.
126
374760
1960
Să vedem dacă reuşim să încurcăm asta,
06:29
Let's see if we, in the civilizedcivilizat worldlume,
can protestprotest againstîmpotriva what he did
127
377490
3977
dacă noi, lumea civilizată, reuşim
să protestăm împotriva a ceea ce a făcut
06:33
throughprin insultinginsultarea him
in his searchcăutare resultsrezultate."
128
381491
3317
prin a-l insulta
în rezultatele lui de căutare.
06:36
And how?
129
384832
1187
Dar cum?
06:38
He told all of his readerscititori the followingca urmare a,
130
386797
2056
Le-a spus cititorilor lui următoarele:
06:40
"Go out there on the InternetInternet,
131
388877
1864
Intraţi pe internet,
06:42
find picturespoze of dogcâine poopcaca on sidewalkstrotuare --
132
390765
2895
şi găsiţi imagini cu
excremente de câine pe trotuar,
06:46
find picturespoze of dogcâine poopcaca on sidewalkstrotuare --
133
394708
2174
06:48
publishpublica them in your feedsfeed-uri,
on your websitessite-uri web, on your blogsbloguri.
134
396906
3470
publicaţi-le în postările, blogurile
şi site-urile voastre.
06:52
Make sure to writescrie the terrorist'steroriste pe
nameNume in the captionlegendă,
135
400400
2921
Asiguraţi-vă să scrieţi
numele teroristului în titlu,
06:55
make sure to nameNume
the pictureimagine filefişier "BreivikBreivik.jpegJPEG."
136
403345
4487
asiguraţi-vă să denumiţi
fişierul “Breivik.jpeg.”
06:59
Let's teacha preda GoogleGoogle that that's
the facefață of the terroristteroriste."
137
407856
3801
Haideţi să-l învăţăm pe Google
că aceasta e faţa unui terorist.
07:05
And it workeda lucrat.
138
413552
1278
Şi a funcţionat.
07:07
Two yearsani after that campaigncampanie
againstîmpotriva MichelleMichelle ObamaObama,
139
415853
2898
La doi ani după campania
împotriva lui Michelle Obama,
07:10
this manipulationmanipulare campaigncampanie
againstîmpotriva AndersAnders BehringBehring BreivikBreivik workeda lucrat.
140
418775
3266
campania de manipulare împotriva
lui Anders Breivik a funcţionat.
07:14
If you picture-Googledpoze pentru Googled for him weekssăptămâni after
the JulyIulie 22 eventsevenimente from SwedenSuedia,
141
422065
4462
Câteva săptămâni după incidentul
din 22 iulie, căutarea imaginii lui
07:18
you'dte-ai see that pictureimagine of dogcâine poopcaca
highînalt up in the searchcăutare resultsrezultate,
142
426551
4327
dădea în fruntea rezultatelor
imagini cu excremente de câine,
07:22
as a little protestprotest.
143
430902
1444
în semn de protest.
07:25
StrangelyCiudat enoughdestul, GoogleGoogle
didn't interveneinterveni this time.
144
433425
4132
Straniu, de această dată
Google nu a intervenit.
07:30
They did not stepEtapa in and manuallymanual
cleancurat those searchcăutare resultsrezultate up.
145
438494
4272
Nu au acţionat să cureţe manual
acele rezultate de căutare.
07:35
So the million-dollarmilioane de dolari questionîntrebare,
146
443964
1716
Deci întrebarea fundamentală:
07:37
is there anything differentdiferit
betweenîntre these two happeningsCe se intampla here?
147
445704
3368
Există vreo diferenţă
între cele două campanii prezentate?
07:41
Is there anything differentdiferit betweenîntre
what happeneds-a întâmplat to MichelleMichelle ObamaObama
148
449096
3193
Există vreo diferenţă între ce a păţit
Michelle Obama şi Anders Breivik?
07:44
and what happeneds-a întâmplat
to AndersAnders BehringBehring BreivikBreivik?
149
452313
2065
07:46
Of coursecurs not.
150
454402
1284
Desigur că nu.
07:48
It's the exactcorect samela fel thing,
151
456861
1471
Este exact aceeaşi situaţie
Dar Google a intervenit
07:50
yetinca GoogleGoogle interveneda intervenit in one casecaz
and not in the other.
152
458356
2864
într-un caz, nu şi în celălalt.
07:53
Why?
153
461244
1253
De ce?
07:55
Because MichelleMichelle ObamaObama
is an honorableonorabil personpersoană, that's why,
154
463283
3300
Pentru că Michelle Obama
este o persoană onorabilă,
07:58
and AndersAnders BehringBehring BreivikBreivik
is a despicablejosnic personpersoană.
155
466607
2916
iar Anders Behring Breivik
este demn de dispreţ.
08:02
See what happensse întâmplă there?
156
470142
1535
Înţelegeţi ce se întâmplă?
08:03
An evaluationevaluare of a personpersoană takes placeloc
157
471701
3255
Are loc o evaluare a persoanei,
08:06
and there's only one
power-playerjucător de putere in the worldlume
158
474980
3786
şi există un singur actor de putere
în lume autorizat să facă asta,
să decidă:
08:10
with the authorityautoritate to say who'scine who.
159
478790
2480
“Ne place de tine, nu ne place de tine.
08:13
"We like you, we dislikeNu-i plăcea you.
160
481882
1741
Credem în tine, dar nu în tine.
08:15
We believe in you,
we don't believe in you.
161
483647
2039
Tu ai dreptate, tu nu.
08:17
You're right, you're wronggresit.
You're trueAdevărat, you're falsefals.
162
485710
2547
Tu ești adevat, tu fals.
Tu eşti Obama, tu eşti Breivik.
08:20
You're ObamaObama, and you're BreivikBreivik."
163
488281
1805
08:22
That's powerputere if I ever saw it.
164
490791
2000
Asta da putere.
08:27
So I'm askingcer you to remembertine minte
that behindin spate everyfiecare algorithmAlgoritmul
165
495206
3652
Așadar vă îndemn să ţineti cont
că în spatele fiecărui algoritm
08:30
is always a personpersoană,
166
498882
1777
se află o persoană,
08:32
a personpersoană with a seta stabilit of personalpersonal beliefscredințe
167
500683
2495
cineva cu un set de valori personale
08:35
that no codecod can ever
completelycomplet eradicateeradica.
168
503202
2525
pe care nici un cod
nu îl poate elimina complet.
08:37
And my messagemesaj goesmerge
out not only to GoogleGoogle,
169
505751
2434
Mesajul meu nu este îndreptat
nu doar către Google,
08:40
but to all believerscredincioşi in the faithcredinţă
of codecod around the worldlume.
170
508209
2810
ci către toţi cei cred
în soarta codurilor.
08:43
You need to identifyidentifica
your ownpropriu personalpersonal biaspărtinire.
171
511043
2976
Trebuie să vă identificaţii
propriile voastre prejudecăţi
08:46
You need to understanda intelege that you are humanuman
172
514043
2013
trebuie să înţelegeţi că sunteţi oameni
08:48
and take responsibilityresponsabilitate accordinglyîn consecinţă.
173
516080
2491
şi să vă asumaţi responsabilitatea
corespunzător.
08:51
And I say this because I believe
we'vene-am reachedatins a pointpunct in time
174
519891
2938
Şi spun asta fiindcă cred
că am ajuns într-o etapă în care
08:54
when it's absolutelyabsolut imperativeimperativ
175
522853
1555
este absolut imperativ
08:56
that we tiecravată those bondsobligațiuni
togetherîmpreună again, tightermai stricte:
176
524432
3217
să înnodăm din nou mai strâns
acea legătură
08:59
the humanitiesumanistică and the technologytehnologie.
177
527673
2368
dintre ştiinţele umane şi tehnologie,
09:02
TighterMai stricte than ever.
178
530483
1805
mai strâns ca niciodată.
09:04
And, if nothing elsealtfel, to remindreaminti us
that that wonderfullyminunat seductiveseducatoare ideaidee
179
532312
3339
Măcar ca să ne amintească
că acea idee atât de atrăgătoare
09:07
of the unbiasedimparţiale, cleancurat searchcăutare resultrezultat
180
535675
2668
a unui rezultat de căutare
imparţial, curat
09:10
is, and is likelyprobabil to remainrămâne, a mythMitul.
181
538367
2767
este, şi probabil va rămâne, un mit.
Vă mulţumesc pentru timpul acordat.
09:13
Thank you for your time.
182
541984
1159
09:15
(ApplauseAplauze)
183
543167
2432
(Aplauze)
Translated by Cristina Nicolae
Reviewed by Lorena Ciutacu

▲Back to top

ABOUT THE SPEAKER
Andreas Ekström - Author and journalist
Andreas Ekström describes the power structures of the digital revolution.

Why you should listen

Andreas Ekström is staff writer at Sydsvenskan, a daily morning paper in Malmö, Sweden.

His passion is educating for digital equality, and he has a vision for a world in which we share the wealth -- not only financially, but also in terms of knowledge and power. Andreas is the author of six books, a columnist and a commentator, and he often lectures and leads seminars on the digital revolution.

More profile about the speaker
Andreas Ekström | Speaker | TED.com