Zeynep Tufekci: Machine intelligence makes human morals more important
Zeynep Tüfekçi: Makine Zekâsı İnsani Değerlerin Önemini Arttırıyor
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread. Full bio
Double-click the English transcript below to play the video.
as a computer programmer
ilk çalışmaya başladığımda
came down to where I was,
And why are we whispering?"
Ayrıca neden fısıldaşıyoruz?" dedim.
at the computer in the room.
an affair with the receptionist.
biriyle ilişki yaşıyordu.
if you're lying."
bilgisayar anlar." dedim.
the laugh's on me.
gülünmesi gereken bendim.
emotional states and even lying
ve hatta yalan söylediğini
are very interested.
çok ilgi duyuyor.
crazy about math and science.
bilgisayar programcısı olmuştum.
I'd learned about nuclear weapons,
nükleer silahlara dair bilgi edinmiş
with the ethics of science.
çok ilgi duymaya başlamıştım.
as soon as possible.
işe girmem gerekiyordu.
let me pick a technical field
kolaylıkla iş bulabileceğim
with any troublesome questions of ethics.
uğraşmak zorunda kalmayayım dedim.
All the laughs are on me.
Herkes bana gülüyordur.
are building platforms
her gün milyarlarca insanın
people see every day.
programlar kuruyor.
that could decide who to run over.
arabalar geliştiriyorlar.
to make all sort of decisions,
bilgisayar kullanıyoruz,
that have no single right answers,
cevabı olmayan, öznel,
should you be shown?"
hangi güncellemeyi görmelisiniz?"
likely to reoffend?"
should be recommended to people?"
tavsiye edilmeli?"
computers for a while,
kullanıyoruz,
for such subjective decisions
bilgisayara güvenemeyiz,
for flying airplanes, building bridges,
köprü inşa etmede, aya gitmede
Did the bridge sway and fall?
Köprü sallanıp çöker miydi?
fairly clear benchmarks,
ve bize yol gösteren doğa kanunları
karar verirken
our software is getting more powerful,
yazılımımız gittikçe güçleniyor,
transparent and more complex.
daha karmaşık oluyor.
have made great strides.
büyük aşamalar katetti.
tespit edip
teşhis edebiliyorlar.
from a method called "machine learning."
denilen bir yöntemden geliyor.
than traditional programming,
detaylı, doğru ve itinalı
detailed, exact, painstaking instructions.
geleneksel programlamadan farklıdır.
and you feed it lots of data,
dijital yaşamlarımızda ürettiğimiz türden
in our digital lives.
by churning through this data.
karıştırarak öğrenir.
under a single-answer logic.
mantıkla çalışmadığıdır.
it's more probabilistic:
daha çok olasılık vardır:
what you're looking for."
this method is really powerful.
Bu yöntem gerçekten çok güçlüdür.
what the system learned.
tam olarak anlamıyor olmamızdır.
instructions to a computer;
talimat vermek gibi değildir;
a puppy-machine-creature
bir içecek sıkma makinesini
intelligence system gets things wrong.
yanlış anladığında problem olur.
when it gets things right,
problem olur,
when it's a subjective problem.
hangisinin hangisi olduğunu bilmiyoruz.
using machine-learning systems.
bir işe alım algoritma sistemi düşünün.
on previous employees' data
çalışanların verilerine ayarlı
high performers in the company.
işe almaya kurulmuş olmalı.
human resources managers and executives,
insan kaynakları uzmanları ile
more objective, less biased,
daha az ön yargılı yapacağını
and minorities a better shot
insan kaynakları karşısında
düşünüyorlardı.
as a programmer,
işlerimden birinde
come down to where I was
or really late in the afternoon,
yanıma gelir
let's go to lunch!"
Her zaman giderdim.
had not confessed to their higher-ups
çok ciddi bir iş için
for a serious job was a teen girl
kot pantolon ve spor ayakkabı giyen
söylememişlerdi.
I just looked wrong
ama yanlış görünüyordum,
gözetilmeksizin işe alım
it is more complicated, and here's why:
daha karmaşık oluyor, nedeni şu:
can infer all sorts of things about you
paylaşmadığınız şeyler bile olsa
disclosed those things.
with high levels of accuracy.
you haven't even disclosed.
şeyleri bile.
such computational systems
klinik depresyon veya
of clinical or postpartum depression
öngören sayısal sistemler geliştiren
the likelihood of depression
semptomların başlamasından
for early intervention. Great!
kullanılacağını umuyor. Muhteşem!
işe alım kavramına uygulayın.
managers conference,
yöneticileri konferansında
in a very large company,
üst düzey bir yöneticisiyle görüştüm.
what if, unbeknownst to you,
with high future likelihood of depression?
insanları ayıklıyorsa?
just maybe in the future, more likely.
ancak belki ileride olabilir.
more likely to be pregnant
gelecek bir ya da iki yıl içinde
but aren't pregnant now?
kadınları ayıklıyorsa?
because that's your workplace culture?"
agresif insanları işe alıyorsa?" dedim.
at gender breakdowns.
anlayamazsınız.
not traditional coding,
makine öğrenimi olduğu için
labeled "higher risk of depression,"
"yüksek hamilelik riski",
what your system is selecting on,
where to begin to look.
bile bilmiyorsunuz.
but you don't understand it.
onu anlamıyorsunuz.
"kara kutunuzun
isn't doing something shady?"
emin olmak için?"
just stepped on 10 puppy tails.
another word about this."
duymak istemiyorum." dedi.
isn't my problem, go away, death stare.
sorunum değil, bas git, öldürücü bakış.
may even be less biased
insan yöneticilerden
shutting out of the job market
istikrarlı ve gizli olarak girmesini
we want to build,
to machines we don't totally understand?
anlamadığımız makinelere bırakıyoruz.
on data generated by our actions,
davranışlarımızla; insan izleri tarafından
reflecting our biases,
could be picking up on our biases
neutral computation."
yapıyoruz." diyoruz.
yüksek maaşlı iş ilanlarını
to be shown job ads for high-paying jobs.
erkeklerden daha az olduğunu tespit etti.
suggesting criminal history,
sabıka geçmişi ile ilgili ilanları
and black-box algorithms
ancak bazen bizim bilmediğimiz
but sometimes we don't know,
kara kutu algoritmalarının
was sentenced to six years in prison
altı yıl hapse mahkûm edildi,
in parole and sentencing decisions.
kararlarında kullanımı giderek artıyor.
How is this score calculated?
Bu sonuç nasıl hesaplanmıştı?
be challenged in open court.
işlemlerinin sorgulanmasını reddetmişti.
nonprofit, audited that very algorithm
ProPublica, bu algoritmayı
was dismal, barely better than chance,
biraz iyi olduğunu
black defendants as future criminals
beyaz sanıklardan iki kat fazla bir oranla
etiketlediğini bulguladı.
picking up her godsister
Broward bölgesindeki bir okuldan
with a friend of hers.
and a scooter on a porch
çocuk bisikleti ve bir kaydırak görüyor
a woman came out and said,
kadının biri çıkıyor ve
bisikleti!" diyor.
but they were arrested.
but she was also just 18.
ama henüz 18 yaşındaydı.
for shoplifting in Home Depot --
hırsızlık yapmaktan tutuklanmıştı.
a similar petty crime.
benzeri bir hafif suç.
armed robbery convictions.
soygun sabıkası vardı.
as high risk, and not him.
kadını yüksek riskli olarak işaretledi.
that she had not reoffended.
tekrar suç işlemediğini tespit etti.
for her with her record.
prison term for a later crime.
yüzünden sekiz yıllık hapis cezasında.
kontrol etmemiz
this kind of unchecked power.
vermememiz gerekiyor.
but they don't solve all our problems.
ancak tüm sorunlarımızı çözmüyorlar.
news feed algorithm --
haber akışı algoritmasına bakın,
and decides what to show you
ve sayfalardan her şeyi sıralayıp
karar veren algoritma.
for engagement on the site:
en uygun hâle getiriyor:
Afro-Amerikan bir gencin
teenager by a white police officer,
bir şekilde öldürülmesi sonrası
unfiltered Twitter feed,
Twitter akışımda vardı
devre dışı bıraktım,
keeps wanting to make you
sizi algoritmanın
were talking about it.
bunu konuşuyor.
wasn't showing it to me.
algoritmanın ta kendisiydi.
this was a widespread problem.
yaygın bir problem olduğunu gördüm.
wasn't algorithm-friendly.
to even fewer people,
gösteriyor olmalıydı,
şunu ön plana çıkardı:
donate to charity, fine.
bağış yap, tamam.
but difficult conversation
çok önemli ancak
can also be wrong
insan sistemlerine
yanlış olabilir.
IBM's machine-intelligence system
IBM'in Riziko'da
with human contestants on Jeopardy?
makine zekâsı sistemini?
Watson was asked this question:
Watson'a şu soru soruldu:
for a World War II hero,
Dünya Savaşı kahramanından alır,
for a World War II battle."
answered "Toronto" --
Birleşik Devletler şehri olarak
a second-grader wouldn't make.
asla yapmayacağı bir hata yapmıştı.
error patterns of humans,
uymayan şekilde,
and be prepared for.
şekilde hata yapabilir.
one is qualified for,
kötü olabilirdi,
if it was because of stack overflow
bellek dolu dediği için oluyorsa
fueled by a feedback loop
"satış" algoritmalarını
körüklediği ani bir düşüş
of value in 36 minutes.
what "error" means
autonomous weapons.
düşünmek bile istemiyorum.
ön yargıda bulunur.
but that's exactly my point.
asıl dikkat çekmek istediğim bu.
these difficult questions.
our responsibilities to machines.
makinelere yaptıramayız.
a "Get out of ethics free" card.
kartı vermiyor.
calls this math-washing.
buna matematiksel yıkama diyor.
scrutiny and investigation.
inceleme ile desteklemeliyiz.
algorithmic accountability,
emin olmamız gerek.
that bringing math and computation
karmaşık, değer yüklü
kabul etmemiz gerekiyor;
invades the algorithms.
algoritmaları ele geçiriyor.
bilgisayar kullanabiliriz,
to our moral responsibility to judgment,
ahlaki sorumluluk alıp
kullanmak zorundayız,
and outsource our responsibilities
sorumluluklarımızı üstümüzden atıp
bir yolu gibi görmemeliyiz.
sıkı sarılmamız gerekiyor.
ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologistTechno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.
Why you should listen
We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.
Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.
Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.
Zeynep Tufekci | Speaker | TED.com