09:19
TEDxOslo

Andreas Ekström: The moral bias behind your search results

アンドレアス・エクストローム: インターネット検索結果に隠れた道徳的価値観

Filmed:

検索エンジンは、今や最も信頼できる情報源、そして真実の拠り所となりました。でも、公正な検索結果は存在しうるのでしょうか? スウェーデンの文筆家でジャーナリストのアンドレアス・エクストロームは、そのようなものは哲学的にありえないと言います。この示唆に富んだトークで、彼は技術と人類との結びつきを強めるよう呼びかけます。そして、アルゴリズムには人間の価値観が反映されており、どんなプログラムをもってしても、それを消し去ることはできないことを心に留めておくべきだと訴えます。

- Author and journalist
Andreas Ekström describes the power structures of the digital revolution. Full bio

So whenever I visit a school
and talk to students,
学校で生徒たちに話す機会があると
00:13
I always ask them the same thing:
必ず聞くことがあります
00:15
Why do you Google?
「なぜGoogle検索するの?
00:18
Why is Google the search engine
of choice for you?
なぜ検索エンジンにGoogleしか選ばないの?」
00:20
Strangely enough, I always get
the same three answers.
不思議と 返ってくる答えは
決まってこの3つです
00:24
One, "Because it works,"
1つ目は「うまく検索できるから」
00:27
which is a great answer;
that's why I Google, too.
ご名答です
私も同じ理由でGoogleを使っています
00:29
Two, somebody will say,
2つ目は―
00:32
"I really don't know of any alternatives."
「ほかの検索エンジンを知らないから」
00:34
It's not an equally great answer
and my reply to that is usually,
ちょっと惜しい
たいてい 私はこう返します
00:37
"Try to Google the word 'search engine,'
「Googleで『検索エンジン』を
00:40
you may find a couple
of interesting alternatives."
検索してごらん
ほかにも面白いのがあるよ」
00:42
And last but not least, thirdly,
そして トリとなる3つ目です
00:45
inevitably, one student will raise
her or his hand and say,
必ず 手を挙げて
満を持して言う子がいるんです
00:47
"With Google, I'm certain to always get
the best, unbiased search result."
「Googleを使うと 絶対に
常に最高で公正な検索結果が得られるから」
00:50
Certain to always get the best,
unbiased search result.
絶対に 常に最高で公正な
検索結果が得られる―
00:57
Now, as a man of the humanities,
これを耳にするたび
デジタル世代とはいえ
01:05
albeit a digital humanities man,
人類のひとりとして
01:07
that just makes my skin curl,
虫唾(むしず)が走ります
01:09
even if I, too, realize that that trust,
that idea of the unbiased search result
みんながGoogleを愛し
大事にしているからこそ
01:11
is a cornerstone in our collective love
for and appreciation of Google.
「公正な検索結果」と信じ 考えるのだと
わかっていてもです
01:16
I will show you why that, philosophically,
is almost an impossibility.
公正な結果など 哲学的にほぼありえません
なぜかご説明しましょう
01:20
But let me first elaborate,
just a little bit, on a basic principle
でも まず検索の基本原理について
少しだけお話しさせてください
01:24
behind each search query
that we sometimes seem to forget.
みんな 忘れてしまいがちなことです
01:28
So whenever you set out
to Google something,
Googleで何かを検索するとき
01:31
start by asking yourself this:
"Am I looking for an isolated fact?"
まず考えるべきは
「個別の事実を知りたいのか?」
01:33
What is the capital of France?
フランスの首都はどこか
01:38
What are the building blocks
of a water molecule?
水分子の構成元素は何か
といったものです
01:41
Great -- Google away.
この場合は
ぜひGoogle検索しましょう
01:43
There's not a group of scientists
who are this close to proving
科学者といえども
答えは「ロンドン」と「H30」だなんて
01:46
that it's actually London and H30.
証明できやしませんから
01:49
You don't see a big conspiracy
among those things.
ここに何の陰謀もありません
01:51
We agree, on a global scale,
こうした個別の事実については
01:53
what the answers are
to these isolated facts.
世界全体で 答えが何か
一致しているのです
01:55
But if you complicate your question
just a little bit and ask something like,
でも 質問をほんの少し複雑にして
こんな風にしたらどうでしょう
01:58
"Why is there
an Israeli-Palestine conflict?"
「なぜパレスチナ問題が起こっているのか?」
02:03
You're not exactly looking
for a singular fact anymore,
もはや 求めているのは
ただ一つの「事実」ではなく
02:06
you're looking for knowledge,
「知識」ということになります
02:09
which is something way more
complicated and delicate.
知識は はるかに複雑で繊細なものです
02:11
And to get to knowledge,
そうした知識を得るには
02:14
you have to bring 10 or 20
or 100 facts to the table
10 、20 または100の事実を集め
自分のものにし
02:16
and acknowledge them and say,
"Yes, these are all true."
「これらは すべて真実だ」と
言えないといけません
02:19
But because of who I am,
でも ひとは
02:22
young or old, black or white,
gay or straight,
年齢や人種、性的趣向に関わらず
02:23
I will value them differently.
違う価値観を持っています
02:26
And I will say, "Yes, this is true,
ですから「確かに これは真実だけど
02:27
but this is more important
to me than that."
こっちのほうが重要だ」となります
02:29
And this is where it becomes interesting,
ここからが面白いのです
02:31
because this is where we become human.
私たちが人間らしさを発揮するからです
02:33
This is when we start
to argue, to form society.
私たちは互いに議論し
社会を形成し始めます
02:35
And to really get somewhere,
we need to filter all our facts here,
本当に答えを出すには
まず事実をすべて ふるいにかけます
02:38
through friends and neighbors
and parents and children
友だちやご近所さん
両親、子どもたち、同僚
02:42
and coworkers and newspapers
and magazines,
そして新聞や雑誌を通じて
ふるいにかけ
02:44
to finally be grounded in real knowledge,
真の知識にたどりつくのです
02:46
which is something that a search engine
is a poor help to achieve.
ここで検索エンジンは
あまり役に立ちません
02:50
So, I promised you an example
just to show you why it's so hard
さきほど 真に純粋で客観的な知識を
手にするのが なぜ難しいか
02:55
to get to the point of true, clean,
objective knowledge --
例をお見せするとお話ししました
03:01
as food for thought.
皆さんにお考えいただきましょう
03:05
I will conduct a couple of simple
queries, search queries.
まず いくつか簡単な検索をしてみます
03:06
We'll start with "Michelle Obama,"
まずは「ミシェル・オバマ」
03:10
the First Lady of the United States.
アメリカのファーストレディです
03:14
And we'll click for pictures.
「画像」をクリックします
03:16
It works really well, as you can see.
ご覧のとおり うまく行っていますね
03:19
It's a perfect search
result, more or less.
まあ 完ぺきな検索結果です
03:21
It's just her in the picture,
not even the President.
写真には ミシェル一人だけ
大統領さえいません
03:24
How does this work?
どうなっているんでしょう
03:27
Quite simple.
とてもシンプルです
03:29
Google uses a lot of smartness
to achieve this, but quite simply,
Googleは 色々頭を使っていますが
簡単に言うと
03:31
they look at two things
more than anything.
2つのことに着目しています
03:34
First, what does it say in the caption
under the picture on each website?
1つは 各ウェブサイトの写真の下にある
キャプションの内容です
03:36
Does it say "Michelle Obama"
under the picture?
写真の下に「ミシェル・オバマ」とあれば
03:41
Pretty good indication
it's actually her on there.
彼女の写真の可能性が高いですね
03:43
Second, Google looks at the picture file,
つぎにGoogleが見るのは
写真ファイル
03:46
the name of the file as such
uploaded to the website.
ウェブサイトにアップロードされた
ファイルの名前です
03:48
Again, is it called "MichelleObama.jpeg"?
「MichellObama.jpeg」というファイルなら
03:51
Pretty good indication it's not
Clint Eastwood in the picture.
クリント・イーストウッドの写真
ということはないでしょう
03:54
So, you've got those two and you get
a search result like this -- almost.
この2つを手がかりにすると
こんな検索結果になるんです―普通は
03:57
Now, in 2009, Michelle Obama
was the victim of a racist campaign,
さて2009年 ミシェル・オバマに
人種差別攻撃の矛先が向きました
04:02
where people set out to insult her
through her search results.
検索結果を通じて侮辱されたのです
04:08
There was a picture distributed
widely over the Internet
ある写真がばらまかれ
インターネットを席巻します
04:13
where her face was distorted
to look like a monkey.
彼女の顔が サルのように
ゆがめられた写真です
04:16
And that picture was published all over.
写真は インターネット上の
あらゆるところに掲載されました
04:18
And people published it
very, very purposefully,
しかも 検索結果の上位に表示されるよう
04:22
to get it up there in the search results.
非常に意図的な形でネット掲載されました
04:25
They made sure to write
"Michelle Obama" in the caption
キャプションには必ず
「ミシェル・オバマ」と書かれ
04:27
and they made sure to upload the picture
as "MichelleObama.jpeg," or the like.
ファイル名も
「MichelleObama.jpeg」などとされたのです
04:30
You get why -- to manipulate
the search result.
そう 検索結果を操作するためです
04:34
And it worked, too.
確かに それは成功し
04:37
So when you picture-Googled
for "Michelle Obama" in 2009,
Googleで「ミシェル・オバマ」を
画像検索すると
04:38
that distorted monkey picture
showed up among the first results.
2009年当時 サル顔に変形された写真が
結果上位に表示されました
04:41
Now, the results are self-cleansing,
さて 検索結果には自浄作用があります
04:44
and that's sort of the beauty of it,
そこが素晴らしいところでもあり
04:48
because Google measures relevance
every hour, every day.
Googleは 毎日 毎時間
関連度を測っているのです
04:50
However, Google didn't settle
for that this time,
でも このときGoogleは
黙ってはいませんでした
04:53
they just thought, "That's racist
and it's a bad search result
「これは人種差別的で
悪い検索結果だから
04:56
and we're going to go back
and clean that up manually.
自らの手で きれいにしないといけない
04:59
We are going to write
some code and fix it,"
プログラムを書いて修正するんだ」と考え
05:02
which they did.
実際にそうしました
05:05
And I don't think anyone in this room
thinks that was a bad idea.
皆さんのなかで これが悪いことと
思う方はいないでしょう
05:07
Me neither.
私も そう思いません
05:11
But then, a couple of years go by,
それから2年ほどして
05:14
and the world's most-Googled Anders,
世界で最もGoogle検索されたアンネシュ
05:17
Anders Behring Breivik,
アンネシュ・ベーリン・ブレイヴィークは
05:20
did what he did.
こんなことをしました
05:23
This is July 22 in 2011,
2011年7月22日
05:24
and a terrible day in Norwegian history.
ノルウェー史上 悲惨な日となったこの日
05:26
This man, a terrorist, blew up
a couple of government buildings
この男―テロリストは
政府庁舎を爆破しました
05:29
walking distance from where we are
right now in Oslo, Norway
ここ ノルウェー・オスロの会場から
徒歩圏内の場所です
05:33
and then he traveled
to the island of Utøya
その後 彼はウトヤ島に渡り
05:36
and shot and killed a group of kids.
子どもたちを銃撃し殺しました
05:38
Almost 80 people died that day.
その日 80人近くの命が失われました
05:41
And a lot of people would describe
this act of terror as two steps,
多くの場合 このテロ行為には
2つの段階があったと語られます
05:44
that he did two things: he blew up
the buildings and he shot those kids.
つまり 建物爆破と 子どもの銃殺
という2つの段階です
05:48
It's not true.
実は違うのです
05:52
It was three steps.
3つの段階があったんです
05:54
He blew up those buildings,
he shot those kids,
彼は建物を爆破し
子どもたちを銃殺し
05:56
and he sat down and waited
for the world to Google him.
そして世界が彼を
Google検索するのを待ったのです
05:58
And he prepared
all three steps equally well.
彼は この3つの段階すべてを
周到に準備していました
06:03
And if there was somebody
who immediately understood this,
彼の意図をすぐに見破ったのが
06:06
it was a Swedish web developer,
スウェーデンのウェブ開発者で
06:09
a search engine optimization expert
in Stockholm, named Nikke Lindqvist.
検索エンジン適正化の専門家
ストックホルムのニック・リンドクヴィストです
06:10
He's also a very political guy
自らも非常に政治的なニックは
06:14
and he was right out there
in social media, on his blog and Facebook.
ブログやFacebookなど
ソーシャルメディアを通じて
06:16
And he told everybody,
みんなに訴えかけました
06:19
"If there's something that
this guy wants right now,
「こいつが今ほしいものがあるとしたら
06:20
it's to control the image of himself.
自分のイメージをコントロールすることだ
06:23
Let's see if we can distort that.
みんなで それを崩そうじゃないか
06:26
Let's see if we, in the civilized world,
can protest against what he did
文明社会のみんなの力をあわせて
彼の行為に対して抗議するんだ
06:29
through insulting him
in his search results."
検索結果を通して彼を侮辱するんだ」
06:33
And how?
でも どうやって?
06:36
He told all of his readers the following,
彼は以下のことをするよう呼びかけました
06:38
"Go out there on the Internet,
インターネットで
06:40
find pictures of dog poop on sidewalks --
道端の犬のフンの写真を探し―
06:42
find pictures of dog poop on sidewalks --
道端の犬のフンの写真を探し―
06:46
publish them in your feeds,
on your websites, on your blogs.
それをフィードやウェブサイト
ブログに掲載するのです
06:48
Make sure to write the terrorist's
name in the caption,
そのとき必ず
キャプションにはテロリストの名前を書き
06:52
make sure to name
the picture file "Breivik.jpeg."
ファイル名を「Breivik.jpeg」とするのです
06:55
Let's teach Google that that's
the face of the terrorist."
Googleに これがテロリストの顔だと
教えるのです
06:59
And it worked.
効果てき面でした
07:05
Two years after that campaign
against Michelle Obama,
ミシェル・オバマ事件の2年後
07:07
this manipulation campaign
against Anders Behring Breivik worked.
アンネシュ・ベーリン・ブレイヴィークの
検索結果が操作されました
07:10
If you picture-Googled for him weeks after
the July 22 events from Sweden,
7月22日事件以降の数週間
スウェーデンから彼をGoogleで画像検索すると
07:14
you'd see that picture of dog poop
high up in the search results,
検索結果の上位に犬のフンの写真が
表示されるに至りました
07:18
as a little protest.
小さな抗議行動です
07:22
Strangely enough, Google
didn't intervene this time.
奇妙なことに このとき
Googleは介入しませんでした
07:25
They did not step in and manually
clean those search results up.
人為的に検索結果をきれいにしようとは
しなかったのです
07:30
So the million-dollar question,
さて ここで難しい質問です
07:35
is there anything different
between these two happenings here?
これら2つの現象は何が違うんでしょうか?
07:37
Is there anything different between
what happened to Michelle Obama
ミシェル・オバマに起こったことと
07:41
and what happened
to Anders Behring Breivik?
アンネシュに起こったことは違いますか?
07:44
Of course not.
もちろん違いません
07:46
It's the exact same thing,
まったく同じ事象です
07:48
yet Google intervened in one case
and not in the other.
でも Googleは片方には介入し
他方にはしませんでした
07:50
Why?
なぜでしょう
07:53
Because Michelle Obama
is an honorable person, that's why,
それはミシェル・オバマが
尊敬に値する人物である一方
07:55
and Anders Behring Breivik
is a despicable person.
アンネシュ・ベーリン・ブレイヴィークが
卑劣な人間だからです
07:58
See what happens there?
ご覧いただいたとおり
08:02
An evaluation of a person takes place
ここには 人に対する評価が介在しています
08:03
and there's only one
power-player in the world
世界には
重要人物を決める権力を持つ―
08:06
with the authority to say who's who.
唯一の権力者がいるのです
08:10
"We like you, we dislike you.
「君は好き 君は嫌い
08:13
We believe in you,
we don't believe in you.
君は信じる 君は信じない
08:15
You're right, you're wrong.
You're true, you're false.
君は正しい 君は間違っている
君は真実 君は嘘
08:17
You're Obama, and you're Breivik."
君はオバマで 君はブレイヴィーク」
08:20
That's power if I ever saw it.
これが力というものです
08:22
So I'm asking you to remember
that behind every algorithm
ですから覚えておいてください
どんなアルゴリズムでも
08:27
is always a person,
その後ろには 必ず人間がいるんです
08:30
a person with a set of personal beliefs
人間は それぞれ価値観を持っていて
プログラムで
08:32
that no code can ever
completely eradicate.
その影響を
完全に消し去ることはできません
08:35
And my message goes
out not only to Google,
私はこのメッセージを
Googleだけではなく
08:37
but to all believers in the faith
of code around the world.
プログラムに信頼を寄せる
世界中のすべての人に伝えたい
08:40
You need to identify
your own personal bias.
自らの偏見をしっかり認識し
08:43
You need to understand that you are human
人間であることを自覚し
08:46
and take responsibility accordingly.
責任を持たなければいけません
08:48
And I say this because I believe
we've reached a point in time
このことを伝えたいのは
結束を今一度
08:51
when it's absolutely imperative
強くしなければいけない
08:54
that we tie those bonds
together again, tighter:
そんなときが来ていると
信じているからです
08:56
the humanities and the technology.
人類と技術のつながり
08:59
Tighter than ever.
この結束を 今以上に強くするのです
09:02
And, if nothing else, to remind us
that that wonderfully seductive idea
少なくとも
心地よい魅惑的に聞こえる―
09:04
of the unbiased, clean search result
公正で きれいな検索結果というものは
09:07
is, and is likely to remain, a myth.
神話に過ぎず これからもそうだと
心に留めるべきです
09:10
Thank you for your time.
ありがとうございました
09:13
(Applause)
(拍手)
09:15
Translated by Yuko Yoshida
Reviewed by Masako Kigami

▲Back to top

About the Speaker:

Andreas Ekström - Author and journalist
Andreas Ekström describes the power structures of the digital revolution.

Why you should listen

Andreas Ekström is staff writer at Sydsvenskan, a daily morning paper in Malmö, Sweden.

His passion is educating for digital equality, and he has a vision for a world in which we share the wealth -- not only financially, but also in terms of knowledge and power. Andreas is the author of six books, a columnist and a commentator, and he often lectures and leads seminars on the digital revolution.

More profile about the speaker
Andreas Ekström | Speaker | TED.com