ABOUT THE SPEAKER
Andreas Ekström - Author and journalist
Andreas Ekström describes the power structures of the digital revolution.

Why you should listen

Andreas Ekström is staff writer at Sydsvenskan, a daily morning paper in Malmö, Sweden.

His passion is educating for digital equality, and he has a vision for a world in which we share the wealth -- not only financially, but also in terms of knowledge and power. Andreas is the author of six books, a columnist and a commentator, and he often lectures and leads seminars on the digital revolution.

More profile about the speaker
Andreas Ekström | Speaker | TED.com
TEDxOslo

Andreas Ekström: The moral bias behind your search results

Андреас Екстром: Моралните убедувања зад вашите интернет пребарувања

Filmed:
1,550,129 views

Интернет пребарувачите станаа нашиот најверен извор на информации и арбитар на вистината. Но, дали воопшто можеме да добиеме објективни резултати од пребарувањата? Шведскиот автор и новинар Андреас Екстром, тврди дека такво нешто е филозофска невозможност. Во неговиот содржаен говор тој повикува да ги зајакнеме врските помеѓу технологијата и хуманистичките науки и нé потсетува дека зад секој алгоритам постои збир на лични убедувања кои ниту една шифра не може да ги искорени.
- Author and journalist
Andreas Ekström describes the power structures of the digital revolution. Full bio

Double-click the English transcript below to play the video.

Кога посетувам училишта и
зборувам со учениците,
00:13
So whenever I visit a school
and talk to students,
0
1087
2493
00:15
I always ask them the same thing:
1
3604
2143
секогаш го поставувам истото прашање:
00:18
Why do you Google?
2
6754
1434
Зошто гуглате?
00:20
Why is Google the search engine
of choice for you?
3
8624
3397
Зошто токму Гугл го користите како
пребарувач?
00:24
Strangely enough, I always get
the same three answers.
4
12855
2552
За чудо, секогаш добивам
три исти одговори.
00:27
One, "Because it works,"
5
15431
2039
Прво, „Бидејќи функционира.“
00:29
which is a great answer;
that's why I Google, too.
6
17494
2906
што е одличен одговор, затоа
и јас гуглам.
00:32
Two, somebody will say,
7
20424
2033
Второ, некој ќе рече:
00:34
"I really don't know of any alternatives."
8
22481
2640
„Не знам за други алтернативи“,
00:37
It's not an equally great answer
and my reply to that is usually,
9
25708
3128
што не е толку добар одговор и
јас обично им велам,
00:40
"Try to Google the word 'search engine,'
10
28860
1921
„Обидете се да изгуглате
'интернет пребарувач'
00:42
you may find a couple
of interesting alternatives."
11
30805
2402
и ќе најдете неколку други алтернативи.“
00:45
And last but not least, thirdly,
12
33231
2095
И трето, но не и последно,
00:47
inevitably, one student will raise
her or his hand and say,
13
35350
3310
на крај некој ќе крене рака и ќе рече:
00:50
"With Google, I'm certain to always get
the best, unbiased search result."
14
38684
5183
„Со Гугл сум сигурен дека ќе го добијам
најдобриот и најобјективниот одговор.“
00:57
Certain to always get the best,
unbiased search result.
15
45157
6506
Уверени се дека секогаш ќе го добијат
најдобриот и најобјективен одговор.
01:05
Now, as a man of the humanities,
16
53091
2390
Како човек од хуманитарните науки,
01:07
albeit a digital humanities man,
17
55505
2181
т.е. човек од дигиталните
хуманитарни науки,
01:09
that just makes my skin curl,
18
57710
1738
тоа ме вади од кожа,
01:11
even if I, too, realize that that trust,
that idea of the unbiased search result
19
59472
4886
иако и јас сфаќам дека таа доверба,
идејата за објективни одговори
01:16
is a cornerstone in our collective love
for and appreciation of Google.
20
64382
3855
е темелот на нашата колективна
љубов кон Гугл.
01:20
I will show you why that, philosophically,
is almost an impossibility.
21
68658
4258
Ќе ви покажам зошто ова филозофски
е речиси невозможно.
01:24
But let me first elaborate,
just a little bit, on a basic principle
22
72940
3254
Но, дозволете прво да разјаснам нешто
околу основниот принцип
01:28
behind each search query
that we sometimes seem to forget.
23
76218
3113
на сите пребарувања,
кое понекогаш го забораваме.
01:31
So whenever you set out
to Google something,
24
79851
2080
Кога ќе сакате да изгуглате нешто,
01:33
start by asking yourself this:
"Am I looking for an isolated fact?"
25
81955
3927
прво запрашајте се:
„Дали барам изолиран факт?“
01:38
What is the capital of France?
26
86334
3161
Кој е главен град на Франција?
01:41
What are the building blocks
of a water molecule?
27
89519
2425
Кои се составните делови на
молекулот на водата?
01:43
Great -- Google away.
28
91968
2341
Одлично-Гугл настрана.
01:46
There's not a group of scientists
who are this close to proving
29
94333
3120
Никој не се обидува да докаже дека тоа
01:49
that it's actually London and H30.
30
97477
1997
е Лондон и Н3О.
01:51
You don't see a big conspiracy
among those things.
31
99498
2371
Нема голема дебата околу овие нешта.
01:53
We agree, on a global scale,
32
101893
1533
Се согласуваме на глобално ниво,
01:55
what the answers are
to these isolated facts.
33
103450
2725
за одговорите на овие изолирани факти.
01:58
But if you complicate your question
just a little bit and ask something like,
34
106199
5302
Но, ако поставите сложено прашање
и прашате, на пример,
02:03
"Why is there
an Israeli-Palestine conflict?"
35
111525
2683
„Зошто постои
Израелско-Палестинскиот конфликт?“
02:06
You're not exactly looking
for a singular fact anymore,
36
114978
2640
Веќе не барате изолиран факт,
02:09
you're looking for knowledge,
37
117642
1833
туку барате знаење,
02:11
which is something way more
complicated and delicate.
38
119499
2578
кое е многу посложено и деликатно.
02:14
And to get to knowledge,
39
122600
1549
а за да добиете знаење,
02:16
you have to bring 10 or 20
or 100 facts to the table
40
124173
3031
треба да извадите 10, 20
или 100 факти пред себе,
02:19
and acknowledge them and say,
"Yes, these are all true."
41
127228
2976
да ги потврдите и речете:
„Да, сите се точни.“
02:22
But because of who I am,
42
130228
1674
Но, бидејќи јас сум тоа што сум,
02:23
young or old, black or white,
gay or straight,
43
131926
2270
млад или стар, црн или бел, геј или стрејт
02:26
I will value them differently.
44
134220
1611
јас ќе ги вреднувам различно.
02:27
And I will say, "Yes, this is true,
45
135855
1688
И ќе речам:„Ова е точно,
02:29
but this is more important
to me than that."
46
137567
2114
но ова ми е поважно од другото."
02:31
And this is where it becomes interesting,
47
139705
1990
И тука станува интересно,
02:33
because this is where we become human.
48
141719
2146
бидејќи тука стануваме луѓе.
02:35
This is when we start
to argue, to form society.
49
143889
2996
Тука почнуваме да се расправаме,
да заземаме страни.
02:38
And to really get somewhere,
we need to filter all our facts here,
50
146909
3357
И за да стигнеме некаде, треба да
ги филтрираме фактите,
02:42
through friends and neighbors
and parents and children
51
150290
2556
преку пријателите, соседите
родителите и децата,
02:44
and coworkers and newspapers
and magazines,
52
152870
2032
колегите, весниците и списанијата,
02:46
to finally be grounded in real knowledge,
53
154926
3080
за да на крај дојдеме до
вистинското знаење,
02:50
which is something that a search engine
is a poor help to achieve.
54
158030
4047
за кое ниту еден пребарувач
не може да ни помогне.
02:55
So, I promised you an example
just to show you why it's so hard
55
163284
6328
Ќе ви дадам пример за да ви покажам
зошто е тешко
03:01
to get to the point of true, clean,
objective knowledge --
56
169636
3404
да се дојде до моментот на чистата,
објективна вистина-
03:05
as food for thought.
57
173064
1468
вреди да се размисли.
03:06
I will conduct a couple of simple
queries, search queries.
58
174556
3893
Сега ќе направам неколку едноставни
пребарувања.
03:10
We'll start with "Michelle Obama,"
59
178473
4040
Ќе започнам со "Мишел Обама",
03:14
the First Lady of the United States.
60
182537
1804
првата дама на Соединетите Држави.
03:16
And we'll click for pictures.
61
184365
1729
Ќе кликнеме за слики.
03:19
It works really well, as you can see.
62
187007
2272
Функционира добро,
како што гледате.
03:21
It's a perfect search
result, more or less.
63
189303
3028
Совршен одговор,
повеќе или помалку.
03:24
It's just her in the picture,
not even the President.
64
192355
2750
Таа е на сликите, дури го нема
ни претседателот.
03:27
How does this work?
65
195664
1313
Како функционира ова?
03:29
Quite simple.
66
197837
1372
Многу едноставно.
03:31
Google uses a lot of smartness
to achieve this, but quite simply,
67
199233
3215
Гугл паметно работи да го постигне ова,
но е прилично едноставно.
03:34
they look at two things
more than anything.
68
202472
2060
Две основни работи се земаат предвид.
03:36
First, what does it say in the caption
under the picture on each website?
69
204556
5156
Прво, што пишува под секоја
слика на интернет страните?
03:41
Does it say "Michelle Obama"
under the picture?
70
209736
2215
Пишува “Мишел Обама“ под сликата?
03:43
Pretty good indication
it's actually her on there.
71
211975
2356
Добар показател, значи на сликите е таа.
03:46
Second, Google looks at the picture file,
72
214355
2386
Второ, Гугл го чита фајлот на сликата,
03:48
the name of the file as such
uploaded to the website.
73
216765
3032
името на фајлот кој е
поставен на веб страната.
03:51
Again, is it called "MichelleObama.jpeg"?
74
219821
2669
Тој е наречен "MichelleObama.jpeg"?
03:54
Pretty good indication it's not
Clint Eastwood in the picture.
75
222839
2922
Добар показател пак-
секако не е Клинт Иствуд на сликите.
03:57
So, you've got those two and you get
a search result like this -- almost.
76
225785
4265
Значи, овие две работи и ги добивате
овие резултати.
04:02
Now, in 2009, Michelle Obama
was the victim of a racist campaign,
77
230074
6603
Во 2009 Мишел Обама беше
жртва на расистичка кампања,
04:08
where people set out to insult her
through her search results.
78
236701
4015
кога луѓето почнаа да ја навредуваат
преку пребарувањата.
04:13
There was a picture distributed
widely over the Internet
79
241430
2702
Имаше една слика широко
распространета низ интернет,
04:16
where her face was distorted
to look like a monkey.
80
244156
2644
каде лицето и беше изобличено
како на мајмун.
04:18
And that picture was published all over.
81
246824
3169
И сликата беше објавена насекаде.
04:22
And people published it
very, very purposefully,
82
250017
3761
И луѓето ја објавија со јасна намера
04:25
to get it up there in the search results.
83
253802
1971
за да ја има во пребарувањата.
04:27
They made sure to write
"Michelle Obama" in the caption
84
255797
2955
Не заборавиле да напишат
„Мишел Обама“ на сликите
04:30
and they made sure to upload the picture
as "MichelleObama.jpeg," or the like.
85
258776
4177
и ја објавија сликата како
"MichelleObama.jpeg или слично.
04:34
You get why -- to manipulate
the search result.
86
262977
2367
Јасно е зошто - за да манипулираат
со пребарувањата.
04:37
And it worked, too.
87
265368
1295
И тоа функционираше.
04:38
So when you picture-Googled
for "Michelle Obama" in 2009,
88
266687
2720
Ако сте барале слика на Гугл
за Мишел Обама во 2009,
04:41
that distorted monkey picture
showed up among the first results.
89
269431
3387
изобличената слика на мајмун
се појавуваше меѓу првите.
04:44
Now, the results are self-cleansing,
90
272842
3566
Резултатите од пребарувањата
сами се чистат
04:48
and that's sort of the beauty of it,
91
276432
1753
и тоа е убавата страна кај нив,
04:50
because Google measures relevance
every hour, every day.
92
278209
3403
бидејќи Гугл ја мери веродостојноста
секој час, секој ден.
04:53
However, Google didn't settle
for that this time,
93
281636
2714
Но, Гугл овојпат не се согласи,
04:56
they just thought, "That's racist
and it's a bad search result
94
284374
3124
помислија:„ Расистички е и лошо пребарување.
04:59
and we're going to go back
and clean that up manually.
95
287522
3135
затоа ќе се вратиме и
ќе го исчистиме рачно.
05:02
We are going to write
some code and fix it,"
96
290681
2932
Ќе напишеме некоја шифра и ќе средиме.
05:05
which they did.
97
293637
1247
И го сторија тоа.
05:07
And I don't think anyone in this room
thinks that was a bad idea.
98
295454
3742
И сигурно никој овде не мисли дека
тоа беше лоша замисла.
05:11
Me neither.
99
299789
1164
Ниту јас.
05:14
But then, a couple of years go by,
100
302802
3032
Така, поминаа неколку години,
05:17
and the world's most-Googled Anders,
101
305858
2984
и најгугланиот на светот-Андерс,
05:20
Anders Behring Breivik,
102
308866
2279
Андерс Беринг Брејвик,
05:23
did what he did.
103
311169
1706
го направи тоа што го направи.
05:24
This is July 22 in 2011,
104
312899
2001
на 22 јули во 2011,
05:26
and a terrible day in Norwegian history.
105
314924
2649
ужасниот ден во историјата на Норвешка.
05:29
This man, a terrorist, blew up
a couple of government buildings
106
317597
3787
Овој човек, терорист, крена во воздух
неколку владини згради
05:33
walking distance from where we are
right now in Oslo, Norway
107
321408
2883
блиску до местото каде сме сега во Осло,
Норвешка
05:36
and then he traveled
to the island of Utøya
108
324315
2051
и замина на островот Утоја
05:38
and shot and killed a group of kids.
109
326390
2223
и застрела, уби група на деца.
05:41
Almost 80 people died that day.
110
329113
1728
Речиси 80 луѓе загинаа тој ден.
05:44
And a lot of people would describe
this act of terror as two steps,
111
332397
4559
Многумина ќе го опишат
овој ужасен акт во два чекора,
05:48
that he did two things: he blew up
the buildings and he shot those kids.
112
336980
3411
дека направи две работи: ги крена во
воздух зградите и ги уби децата.
05:52
It's not true.
113
340415
1165
Не е вистина.
05:54
It was three steps.
114
342326
2143
Имаше три чекори.
05:56
He blew up those buildings,
he shot those kids,
115
344493
2214
Ги крена во воздух зградите, ги уби децата
05:58
and he sat down and waited
for the world to Google him.
116
346731
3644
а потоа седна и чекаше светот да го
пребарува на интернет.
06:03
And he prepared
all three steps equally well.
117
351227
2627
Секој од овие три чекори еднакво
добро ги осмисли.
06:06
And if there was somebody
who immediately understood this,
118
354544
2790
Ова веднаш го свати
06:09
it was a Swedish web developer,
119
357358
1524
Шведскиот
веб дивелопер,
06:10
a search engine optimization expert
in Stockholm, named Nikke Lindqvist.
120
358906
3623
Нике Линдквист, стручњак за оптимизирање
на пребарувачи од Стокхолм.
06:14
He's also a very political guy
121
362553
1588
Тој се занимава и со политика
06:16
and he was right out there
in social media, on his blog and Facebook.
122
364165
3276
и беше таму во социјалните медиуми,
на неговиот блог и на Фејсбук.
06:19
And he told everybody,
123
367465
1206
Тој им кажа на сите,
06:20
"If there's something that
this guy wants right now,
124
368695
2455
„Типот во моментов сака
06:23
it's to control the image of himself.
125
371174
2459
да има контрола над својот имиџ.
06:26
Let's see if we can distort that.
126
374760
1960
Ајде да го разобличиме тоа.
06:29
Let's see if we, in the civilized world,
can protest against what he did
127
377490
3977
Дали ние, во цивилизираниот свет можеме
да протестираме против тоа што го направи
06:33
through insulting him
in his search results."
128
381491
3317
така што ќе го навредуваме
преку пребарувањата.
06:36
And how?
129
384832
1187
И како?
06:38
He told all of his readers the following,
130
386797
2056
На своите читатели им го кажа следново:
06:40
"Go out there on the Internet,
131
388877
1864
„Одете на интернет,
06:42
find pictures of dog poop on sidewalks --
132
390765
2895
најдете слики од кучиња кои вршат
нужда по тротоари-
06:46
find pictures of dog poop on sidewalks --
133
394708
2174
најдете такви слики со кучиња
06:48
publish them in your feeds,
on your websites, on your blogs.
134
396906
3470
објавете ги на вашите веб страни,
блогови, социјални мрежи.
06:52
Make sure to write the terrorist's
name in the caption,
135
400400
2921
Не заборавајте да го ставите
името на терористот под сликите,
06:55
make sure to name
the picture file "Breivik.jpeg."
136
403345
4487
обележете ги сликите
како фајл "Breivik.jpeg."
06:59
Let's teach Google that that's
the face of the terrorist."
137
407856
3801
Да го подучиме Гугл дека тоа е ликот
на еден терорист.
07:05
And it worked.
138
413552
1278
И тоа успеа.
07:07
Two years after that campaign
against Michelle Obama,
139
415853
2898
Две години после кампањата
против Мишел Обама,
07:10
this manipulation campaign
against Anders Behring Breivik worked.
140
418775
3266
оваа манипулациска кампања
против Брејвик успеа.
07:14
If you picture-Googled for him weeks after
the July 22 events from Sweden,
141
422065
4462
Ако побарате негова слика на Гугл
од Шведска, по настаните од 22 јули
07:18
you'd see that picture of dog poop
high up in the search results,
142
426551
4327
меѓу првите слики ќе се појават
оние со кучиња кои вршат нужда,
07:22
as a little protest.
143
430902
1444
како мал знак на протест.
07:25
Strangely enough, Google
didn't intervene this time.
144
433425
4132
За чудо, Гугл не интервенираше овојпат.
07:30
They did not step in and manually
clean those search results up.
145
438494
4272
Тие не ги чистеа рачно резултатите
од пребарувањата.
07:35
So the million-dollar question,
146
443964
1716
Па, еве го прашањето за милион долари:
07:37
is there anything different
between these two happenings here?
147
445704
3368
Дали има разлика помеѓу
овие две случувања тука?
07:41
Is there anything different between
what happened to Michelle Obama
148
449096
3193
Дали е различно тоа што
ѝ се случи на Мишел Обама
07:44
and what happened
to Anders Behring Breivik?
149
452313
2065
од она што му се случи на Беринг Брејвик?
07:46
Of course not.
150
454402
1284
Секако дека нема.
07:48
It's the exact same thing,
151
456861
1471
Сосема е исто,
07:50
yet Google intervened in one case
and not in the other.
152
458356
2864
но, Гугл интервенираше во
едниот случај, а во другиот не.
07:53
Why?
153
461244
1253
Зошто?
07:55
Because Michelle Obama
is an honorable person, that's why,
154
463283
3300
Бидејќи Мишел Обама е ценета
личност, ете зошто,
07:58
and Anders Behring Breivik
is a despicable person.
155
466607
2916
а Беринг Брејвик е омразена личност.
08:02
See what happens there?
156
470142
1535
Гледате што се случува овде?
08:03
An evaluation of a person takes place
157
471701
3255
Имаме вреднување на личноста
08:06
and there's only one
power-player in the world
158
474980
3786
и има само еден кој ја има моќта во светот
08:10
with the authority to say who's who.
159
478790
2480
со авторитет да каже кој е кој.
08:13
"We like you, we dislike you.
160
481882
1741
„Ни се допаѓаш, не ни се допаѓаш.
08:15
We believe in you,
we don't believe in you.
161
483647
2039
Ти веруваме, не ти веруваме.
08:17
You're right, you're wrong.
You're true, you're false.
162
485710
2547
Ти си во право; Ти не си во право,
08:20
You're Obama, and you're Breivik."
163
488281
1805
Ти си Обама, а ти си Брејвик.
08:22
That's power if I ever saw it.
164
490791
2000
Тоа е моќта, ако некогаш ја имам видено.
08:27
So I'm asking you to remember
that behind every algorithm
165
495206
3652
Затоа, ве молам имајте на ум
дека зад секој алгоритам
08:30
is always a person,
166
498882
1777
стои секогаш човекот,
08:32
a person with a set of personal beliefs
167
500683
2495
со своите лични убедувања
08:35
that no code can ever
completely eradicate.
168
503202
2525
кои ниту една шифра
не може да ги искорени.
08:37
And my message goes
out not only to Google,
169
505751
2434
Мојата порака не е упатена само до Гугл,
08:40
but to all believers in the faith
of code around the world.
170
508209
2810
туку кон сите оние во светот кои
веруваат во кодирањето.
08:43
You need to identify
your own personal bias.
171
511043
2976
Треба ди ги идентификувате
вашите лични убедувања,
08:46
You need to understand that you are human
172
514043
2013
да разберете дека сте човечко суштество
08:48
and take responsibility accordingly.
173
516080
2491
и соодветно на тоа
преземете одговорност.
08:51
And I say this because I believe
we've reached a point in time
174
519891
2938
Ова го велам зашто верувам дека
го достигнавме моментот
08:54
when it's absolutely imperative
175
522853
1555
кога е неопходно
08:56
that we tie those bonds
together again, tighter:
176
524432
3217
уште посилно да ги соединиме двете врски:
08:59
the humanities and the technology.
177
527673
2368
хуманистичките науки и технологијата.
09:02
Tighter than ever.
178
530483
1805
Посилно од било кога досега.
09:04
And, if nothing else, to remind us
that that wonderfully seductive idea
179
532312
3339
Ако ништо друго, да нé потсетува
дека привлечната идеја
09:07
of the unbiased, clean search result
180
535675
2668
за објективните резултати од пребарувањата
09:10
is, and is likely to remain, a myth.
181
538367
2767
е, и веројатно ќе остане само мит.
09:13
Thank you for your time.
182
541984
1159
Ви благодарам !
09:15
(Applause)
183
543167
2432
(аплауз)
Translated by Julia Pascal Kalaputi
Reviewed by Zoran Blazevski

▲Back to top

ABOUT THE SPEAKER
Andreas Ekström - Author and journalist
Andreas Ekström describes the power structures of the digital revolution.

Why you should listen

Andreas Ekström is staff writer at Sydsvenskan, a daily morning paper in Malmö, Sweden.

His passion is educating for digital equality, and he has a vision for a world in which we share the wealth -- not only financially, but also in terms of knowledge and power. Andreas is the author of six books, a columnist and a commentator, and he often lectures and leads seminars on the digital revolution.

More profile about the speaker
Andreas Ekström | Speaker | TED.com