Zeynep Tufekci: We're building a dystopia just to make people click on ads
ジーナップ・トゥフェックチー: ネット広告の仕組みが拓く ディストピアへの道
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread. Full bio
Double-click the English transcript below to play the video.
of artificial intelligence,
口にするとき
of humanoid robots run amok.
イメージしています
something to consider,
しれませんが
ありません
監視への懸念から
持ち出したりもします
for the 21st century.
正しく言い当ててはいません
恐れるべきなのは
will do to us on its own,
何をするかではなく
will use artificial intelligence
巧妙なやり方で
使うかもしれないことです
and our dignity in the near-term future
脅かすテクノロジーの多くは
and selling our data and our attention
販売している企業によって
bolstering their business as well.
強化し始めています
like artificial intelligence
思えるかもしれません
of many areas of study and research.
急速に発展する可能性があります
a famous Hollywood philosopher,
論者によると
comes prodigious risk."
途方もないリスクがつきもの」です
of our digital lives, online ads.
オンライン広告に目を向けましょう
まあ たいてい無視しますよね
of being followed on the web
読んだりしたら
we searched or read.
誰にでもありますよね
you around everywhere you go.
そのブーツの広告がついて回ります
they're still following you around.
やっぱりまだ追いかけてくるのです
of basic, cheap manipulation.
私たちは慣れっこになっています
"You know what? These things don't work."
と呆れてしまいます
広告に限りません
let's think of a physical world example.
物理的世界の例を考えてみましょう
at supermarkets, near the cashier,
at the eye level of kids?
キャンディやガムが置いてありますよね
whine at their parents
しようとしているときに
are about to sort of check out.
仕向けるための手法です
ともかく機能します
in every supermarket.
見られるのです
are kind of limited,
いくらか制限を受けます
so many things by the cashier. Right?
限られているからです そうですね?
it's the same for everyone,
誰にとっても同じ製品です
whiny little humans beside them.
人に対してだけですけれど
we live with those limitations.
そうした制約とともに生きています
can be built at the scale of billions
何十億というスケールで構築でき
to everyone's phone private screen,
送信できるため
that artificial intelligence can do.
たった1つにすぎません
売りたいとしましょう
plane tickets to Vegas. Right?
of some demographics to target
購入してくれそうな層を
and what you can guess.
設定するでしょう
a high limit on their credit card,
限度額が大きい人々や
するかもしれません
that Facebook has on you:
あなたの全データを思い浮かべてください
すべての近況アップデート
that you uploaded there.
and change your mind and delete it,
気が変わって削除しても
and analyzes them, too.
分析します
to match you with your offline data.
どんどん進めています
a lot of data from data brokers.
大量のデータを購入しています
from your financial records
ブラウザの膨大な閲覧履歴まで
such data is routinely collected,
日常的に収集され
もっと厳しいルールがあります
these machine-learning algorithms --
機械学習のアルゴリズムは
learning algorithms --
組み合わせることで
the characteristics of people
航空券を買った人々の特徴を
how to apply this to new people.
適用する方法も学びます
is likely to buy a ticket to Vegas or not.
購入しそうかどうか分類できるのです
an offer to buy tickets to Vegas.
広告を見て考えます
how these complex algorithms work.
もうよく分からなくなってしまっている事です
how they're doing this categorization.
私たちには分かりません
thousands of rows and columns,
行と列で構成された
how exactly it's operating
正確に理解することはできません
what I was thinking right now
a cross section of my brain.
分からないのと同じです
という次元ではなく
that we don't truly understand.
育てているかのようです
if there's an enormous amount of data,
膨大なデータが必要なため
deep surveillance on all of us
algorithms can work.
という力も働きます
to collect all the data it can about you.
出来る限りのデータを集めようとします
もう少し掘り下げましょう
that we do not understand
システムの判断で
to sell Vegas tickets
売りつけやすい相手は
and about to enter the manic phase.
ということになったらどうでしょう
overspenders, compulsive gamblers.
しやすい人たちです
that's what they were picking up on.
その事実を知る手がかりがありません
to a bunch of computer scientists once
コンピュータ科学者たちに尋ねてみたところ
私のところへ来ました
"That's why I couldn't publish it."
「だから論文を発表できなかったんです」
figure out the onset of mania
躁状態になりかけているかどうかを
before clinical symptoms,
判断できるかということで
判別できたのですが
or what it was picking up on.
分かりませんでした
if he doesn't publish it,
問題は解決していません
this kind of technology,
is just off the shelf.
たくさんあるからです
難しいことではないのです
meaning to watch one video
YouTubeのサイトへ行き
見ていたという経験は?
has this column on the right
右側の欄に
that you might be interested in
判断された動画です
and what people like you have watched,
あなたに似た人が見たものを選び出し
what you're interested in,
and useful feature,
聞こえますが
of then-candidate Donald Trump
ドナルド・トランプの集会に行って
the movement supporting him.
研究しました
so I was studying it, too.
トランプ支持についても調べたのです
about one of his rallies,
何か書こうと思って
動画を私に推奨し
white supremacist videos
出してくるようになりました
or Bernie Sanders content,
バーニー・サンダースの動画を見れば
and autoplays conspiracy left,
動画を推奨して自動再生し
ひどくなっていきます
this is politics, but it's not.
間違いです
figuring out human behavior.
アルゴリズムにすぎないのです
about vegetarianism on YouTube
ベジタリアンについての動画を見たら
and autoplayed a video about being vegan.
推奨し 自動再生しました
hardcore enough for YouTube.
足りないとでもいうように
公開されていませんが
show them something more hardcore,
誘惑できれば
going down that rabbit hole
見ながらのめり込むという訳です
the ethics of the store,
今は誰も気にしていないので
プロファイリングして
寄生していると思っている人
anti-Semitic content,
掲げている人だと分類し
探し出すのにも利用でき
anti-Semitic content on their profile
プロフィールに書いていなくても
may be susceptible to such messages,
アルゴリズムで検知して
like an implausible example,
聞こえるかもしれませんが
do this on Facebook,
この機能が利用でき
offered up suggestions
and very quickly they found,
すぐに分かりました
同じことができるのです
たいしてかかりません
spent about 30 dollars
30ドルほど払って
social media manager disclosed
SNS担当者が明らかにしたのは
to demobilize people,
動員の逆を狙ったもので
固めさせるためだったということです
they targeted specifically,
例えば
in key cities like Philadelphia,
アフリカ系の男性でした
exactly what he said.
そのまま読み上げます
we want to see it see it.
それを見るようにした
to turn these people out."
力に劇的な影響を及ぼすこと」
何が書かれていたのか?
arranges the posts
投稿の並べ換えを
ページでも行っています
or the pages you follow.
everything chronologically.
表示しているのではなく
that the algorithm thinks will entice you
サイトに長く留まってくれるだろうと
順序で表示しているのです
生んでいます
somebody is snubbing you on Facebook.
あなたを無視していると思ったことは?
be showing your post to them.
彼らに表示していないのかも
some of them and burying the others.
他は埋もれさせてしまいます
can affect your emotions.
人の感情は影響を受けます
on 61 million people in the US
アメリカ人を対象に実験を行い
"Today is election day,"
the one with that tiny tweak
手を加えて
they repeated the same experiment.
しているからです
US presidential election
大統領選挙では
決まっています
very easily infer what your politics are,
政治的な内容を書いていなくても
disclosed them on the site.
たやすく推論できます
can do that quite easily.
ごく簡単にできるのです
プラットフォームが
of one candidate over the other?
支持すると決めたらどうでしょう?
あるでしょうか?
seemingly innocuous --
無害そうなこと―
オンライン広告からスタートして
if we're seeing the same information
同じ情報を見ているのかどうか
分かりません
不可能になりつつあります
the beginning stages of this.
始まったばかりの段階です
かなり容易に
personality traits,
use of addictive substances,
顔の一部が隠れていても
are partially concealed.
特定できます
to detect people's sexual orientation
プロフィール画像だけからでも
かもしれません
to be 100 percent right,
the temptation to use these technologies
いくらか交じるというだけで
some false positives,
思いとどまるとは考えにくく
a whole other layer of problems.
山のように生じるでしょう
手に入れたら
it has on its citizens.
想像してみてください
face detection technology
逮捕しています
of surveillance authoritarianism
インフラを整備しているのは
という点です
Orwell's authoritarianism.
ようにはなりません
is using overt fear to terrorize us,
支配するのであれば
何が起きているかは分かるので
抵抗するでしょう
are using these algorithms
こうしたアルゴリズムを使って
the troublemakers and the rebels,
反抗的な者を洗い出してマークし
architectures at scale
大々的に利用し
weaknesses and vulnerabilities,
何を目にしているか
and neighbors are seeing,
will envelop us like a spider's web
クモの巣のように包み込んでも
夢にも思わないかもしれません
as a persuasion architecture.
絶大な効果を発揮しているからです
その違いは分かりません
同じアルゴリズムが
personal and social information flows,
情報の流れも組織している―
because they provide us with great value.
大きな価値を提供してくれるからです
with friends and family around the world.
繋がるためにFacebookを使っています
social media is for social movements.
どれほど重要かを文章にしてきました
these technologies can be used
世界中で検閲を回避する方法も
you know, Facebook or Google
経営者たちが
or the world more polarized
わけではありません
well-intentioned statements
people in technology make that matter,
意図や声明ではなく
and business models they're building.
ビジネスモデルが問題なのです
of half a trillion dollars
5000億ドルの巨大な詐欺であり
as a persuasion architecture,
無力なのか―
is of great concern.
重大な懸念を招きます
提示できません
digital technology operates.
必要があるからです
technology is developed
economic and otherwise,
インセンティブまで
組み込まれています
対処しなければならないのは
created by the proprietary algorithms,
もたらす透明性の欠如や
of machine learning's opacity,
構造的な課題や
that's being collected about us.
見境なく収集されていることです
直面しています
artificial intelligence
支えてくれるとともに
by our human values.
制約も受けるようなAIです
分かっています
on what those terms mean.
簡単には合意できないかも
依存しているシステムが
depend on for so much operate,
真剣に考えるなら
this conversation anymore.
先延ばしにできるとは思えません
何ができないかを
こうしたプラットフォームの多くは
強調しています
that we are the product that's being sold.
私たち自身だということです
デジタル経済は
独裁者や扇動的な政治家に
authoritarian or demagogue.
売り渡されないシステムです
that Hollywood paraphrase,
ハリウッドの言葉に話を戻すなら
デジタルテクノロジーが
and digital technology to blossom,
切に望みながらも
this prodigious menace,
目をそらさず
ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologistTechno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.
Why you should listen
We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.
Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.
Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.
Zeynep Tufekci | Speaker | TED.com