Zeynep Tufekci: We're building a dystopia just to make people click on ads
Zeynep Tüfekçi: İnsanların reklamlara tıklaması için bir distopya yaratıyoruz
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread. Full bio
Double-click the English transcript below to play the video.
of artificial intelligence,
korkularını dile getirdiğinde,
of humanoid robots run amok.
insansı robotları hayal ederler.
something to consider,
for the 21st century.
will do to us on its own,
bize ne yapacağı değil,
will use artificial intelligence
bizi kontrol ve manipüle etmek adına
and our dignity in the near-term future
teknolojinin büyük kısmı
and selling our data and our attention
bolstering their business as well.
katkıda bulunmaya başladı.
like artificial intelligence
internet reklamcılığından sonra gelen
ilgili alanda yepyeni bir açılım.
of many areas of study and research.
kavrayışımızı hızlandırabilir.
alıntı yapacak olursam,
a famous Hollywood philosopher,
comes prodigious risk."
muhteşem riskler barındırır.''
of our digital lives, online ads.
Onları yok sayıyoruz.
of being followed on the web
bir konuyla ilgili reklamlar tarafından
hepimiz yaşadık.
we searched or read.
you around everywhere you go.
her sayfada botlar sizi takip eder.
they're still following you around.
sizi takip ederler.
of basic, cheap manipulation.
adeta kanıksamış durumdayız.
"You know what? These things don't work."
''İşe yaramıyor bunlar.'' diyoruz.
reklamlardan ibaret değil.
let's think of a physical world example.
fiziksel bir dünya örneği ele alalım.
at supermarkets, near the cashier,
kasaların hemen yanında
at the eye level of kids?
şekerleme ve sakız olur.
whine at their parents
are about to sort of check out.
için tasarlanmıştır.
in every supermarket.
are kind of limited,
so many things by the cashier. Right?
şeylerin bir sınırı var, değil mi?
it's the same for everyone,
whiny little humans beside them.
aileler için işe yarasa da.
we live with those limitations.
can be built at the scale of billions
to everyone's phone private screen,
bile gönderilebilir,
that artificial intelligence can do.
temel şeylerden yalnızca biri.
plane tickets to Vegas. Right?
satmak istiyorsunuz.
of some demographics to target
deneyim ve öngörülerinize dayanarak
and what you can guess.
a high limit on their credit card,
yüksek olan insanlar
ve makine öğrenimi (ing. machine learning) ile
that Facebook has on you:
sahip olduğu tüm verileri düşünün:
that you uploaded there.
and change your mind and delete it,
sonra vazgeçip silerseniz,
and analyzes them, too.
saklayıp analiz ediyor.
to match you with your offline data.
gitgide eşleştirmeye çalışıyor.
a lot of data from data brokers.
çok fazla veri satın alıyor.
from your financial records
tarama geçmişinize kadar
such data is routinely collected,
rutin olarak toplanıyor,
these machine-learning algorithms --
bu makine öğrenimli algoritmalar -
learning algorithms --
the characteristics of people
öğreniyorlar.
how to apply this to new people.
uygulamayı da öğreniyorlar.
is likely to buy a ticket to Vegas or not.
sınıflandırabiliyorlar.
an offer to buy tickets to Vegas.
alt tarafı Vegas'a uçak bileti teklifi.
how these complex algorithms work.
nasıl çalıştığını artık anlamıyoruz.
how they're doing this categorization.
artık anlamıyoruz.
thousands of rows and columns,
binlerce sıra ve sütun,
how exactly it's operating
what I was thinking right now
a cross section of my brain.
that we don't truly understand.
bir zeka/bilinç geliştiriyoruz.
if there's an enormous amount of data,
müthiş miktarda veri varsa çalışıyor,
deep surveillance on all of us
kapsamlı bir gözetleme de teşvik ediliyor ki
algorithms can work.
işini yapabilsin.
to collect all the data it can about you.
toplayabildiği tüm veriyi istiyor.
that we do not understand
to sell Vegas tickets
bipolar insanlara
and about to enter the manic phase.
daha kolay olduğunu anlarsa?
overspenders, compulsive gamblers.
ve dürtüsel kumarbazlığa meyilli oluyor.
that's what they were picking up on.
ve söz konusu kriteri seçtiklerinden haberiniz bile olmaz.
to a bunch of computer scientists once
bir grup bilgisayar bilimcisine verdim
"That's why I couldn't publish it."
''İşte bu yüzden yayınlayamadım.''
figure out the onset of mania
klinik semptomlardan önce
before clinical symptoms,
anlaşılabilirliğini incelemişti
or what it was picking up on.
bilgi topladığını o da bilmiyordu.
if he doesn't publish it,
this kind of technology,
is just off the shelf.
meaning to watch one video
oluyor mu hiç?
has this column on the right
that you might be interested in
bulamayacağınızı düşündüğü
and what people like you have watched,
izlediklerini derliyor
what you're interested in,
ve daha fazlasını görmek istediğiniz
and useful feature,
of then-candidate Donald Trump
Trump'ın toplantılarına
the movement supporting him.
akademisyen olarak katıldım.
so I was studying it, too.
yani araştırıyordum da.
about one of his rallies,
yazmak istedim,
YouTube'da birkaç kez izledim.
white supremacist videos
videolar önermeye
or Bernie Sanders content,
ile ilgili içerikler izlerseniz,
and autoplays conspiracy left,
öneriyor ve oynatıyor,
this is politics, but it's not.
düşünebilirsiniz ama değil.
figuring out human behavior.
anlayan algoritma.
about vegetarianism on YouTube
bir video izledim
and autoplayed a video about being vegan.
bir video önerip oynattı.
hardcore enough for YouTube.
yeteri kadar cüretkar olamıyoruz.
show them something more hardcore,
going down that rabbit hole
ardı ardına video izleyecek,
reklam sunacak.
the ethics of the store,
anti-Semitic content,
profilleme yapabiliyor
hedeflemenizi sağlıyor.
anti-Semitic content on their profile
may be susceptible to such messages,
duyarlı olabileceğini belirlediği kişileri yakalıyor
hedeflemenize izin veriyor.
like an implausible example,
( *Araştırmacı gazetecilik üzerine bir STK)
do this on Facebook,
yapabileceğinizi ortaya koydu,
offered up suggestions
and very quickly they found,
ve hızla anladılar ki
spent about 30 dollars
bu kategoriyi hedeflemek için
social media manager disclosed
kargaşayı sona erdirmek için
to demobilize people,
kullandıklarını açıkladı,
they targeted specifically,
özel olarak hedef belirlediler,
in key cities like Philadelphia,
Afro Amerikalı erkekler,
exactly what he said.
kontrol ettiği
we want to see it see it.
insanların görebileceği
to turn these people out."
önemli ölçüde etkileyecektir.''
arranges the posts
arkadaşlarınızın paylaşımlarını
or the pages you follow.
everything chronologically.
kronolojik olarak göstermiyor.
that the algorithm thinks will entice you
sitede daha fazla kalmanızı sağlayacak şekilde
somebody is snubbing you on Facebook.
düşünüyor olabiliirsiniz.
be showing your post to them.
asla onlara göstermiyor olabilir.
some of them and burying the others.
kimini ortadan kaldırıyor.
can affect your emotions.
duygularınızı etkileyebilir.
on 61 million people in the US
ABD'deki 61 milyon insan üstünde
"Today is election day,"
''Bugün seçim günü'' yazısı gösterildi,
the one with that tiny tweak
they repeated the same experiment.
US presidential election
başkanlık seçimleri
very easily infer what your politics are,
politikanız hakkında çıkarım yapabiliyor,
disclosed them on the site.
hiç açıklamamış olsanız bile.
can do that quite easily.
oldukça kolay başarabiliyorlar.
of one candidate over the other?
destekçilerini arttırmak için kullanırsa?
seemingly innocuous --
if we're seeing the same information
the beginning stages of this.
personality traits,
kişilik özelliklerini,
use of addictive substances,
madde kullanıp kullanmadığını,
tahmin edebilir.
are partially concealed.
to detect people's sexual orientation
insanların cinsel yönelimini
profil fotoğraflarından anlayabilir.
to be 100 percent right,
the temptation to use these technologies
some false positives,
a whole other layer of problems.
bir yığın farklı sorun getirecek.
vatandaşları hakkında sahip oldukları
it has on its citizens.
neler yapabileceklerini düşünün.
face detection technology
of surveillance authoritarianism
reklamlara tıklaması için geliştiriyoruz.
Orwell's authoritarianism.
is using overt fear to terrorize us,
aleni korku kullanacaksa
ama bundan haberimiz olacak,
are using these algorithms
bu algoritmaları
the troublemakers and the rebels,
önceden tahmin etmek ve kimliğini belirlemek,
architectures at scale
weaknesses and vulnerabilities,
yararlanarak- kullanırlarsa,
and neighbors are seeing,
bir şekilde yaparlarsa,
will envelop us like a spider's web
bizi bir örümcek ağı gibi kıstırır
as a persuasion architecture.
harika çalışıyor olması.
personal and social information flows,
bilgi akışımızı da düzenliyor
because they provide us with great value.
dijital platformları kullanıyoruz.
with friends and family around the world.
aile ve arkadaşlarımla görüşebiliyorum,
social media is for social movements.
ne kadar önemli olduğu hakkında yazdım.
these technologies can be used
dünyadaki sansür uygulamalarının üstesinden gelmek için
you know, Facebook or Google
or the world more polarized
well-intentioned statements
people in technology make that matter,
niyet veya ifadelerin bir önemi yok.
and business models they're building.
ve iş modelleri.
of half a trillion dollars
dev bir yapı
as a persuasion architecture,
is of great concern.
çalışma şeklini
digital technology operates.
technology is developed
economic and otherwise,
şeffaflık noksanlığı,
created by the proprietary algorithms,
yapısal zorluğu,
of machine learning's opacity,
tüm bu gelişigüzel veri
that's being collected about us.
ve bunların üstesinden gelmeye çalışmak zorundayız.
artificial intelligence
by our human values.
on what those terms mean.
konusunda bile kolayca anlaşamayabiliriz.
depend on for so much operate,
ciddiye alırsak,
this conversation anymore.
hiçbir sebep göremiyorum.
bu platformların çoğu
that we are the product that's being sold.
satılmakta olan ürün biziz.
otoriter veya demagoga satılmadığı
authoritarian or demagogue.
that Hollywood paraphrase,
geri dönmek gerekirse,
and digital technology to blossom,
this prodigious menace,
bu müthiş tehditle yüzleşmemiz lazım,
ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologistTechno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.
Why you should listen
We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.
Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.
Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.
Zeynep Tufekci | Speaker | TED.com