Zeynep Tufekci: Machine intelligence makes human morals more important
زينب توفيكسي: الذكاء الاصطناعي يجعل الأخلاق الإنسانية أكثر أهمية
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread. Full bio
Double-click the English transcript below to play the video.
as a computer programmer
came down to where I was,
And why are we whispering?"
تكذب؟ ولماذا نحن نهمس؟"
at the computer in the room.
an affair with the receptionist.
مع موظفة الاستقبال.
if you're lying."
يُخبر فيما إذا كنتَ تكذب."
the laugh's on me.
ولكن في الحقيقة ضحكت على نفسي.
emotional states and even lying
على الحالات العاطفية وحتى الكذب
are very interested.
وحتى الحكومات مهتمون جداً.
crazy about math and science.
الأطفال المحبين للرياضيات والعلوم.
I'd learned about nuclear weapons,
الطريق تعلمت عن الأسلحة النووية،
with the ethics of science.
as soon as possible.
العمل بأسرع ما يمكن.
let me pick a technical field
أدخلي في المجال التقني
with any troublesome questions of ethics.
مع أسئلة أخلاقية مزعجة.
All the laughs are on me.
كل الضحك علي.
are building platforms
يقومون بصياغة البرامج
people see every day.
يشاهده مليار شخص كل يوم.
that could decide who to run over.
ممكن أن تقرر مَن تجاوز السرعة.
to make all sort of decisions,
that have no single right answers,
ليس له إجابات صحيحة منفردة
should you be shown?"
يجب أن تُشاهد؟"
likely to reoffend?"
should be recommended to people?"
أن يوصى بها إلى الناس؟"
computers for a while,
for such subjective decisions
من أجل هكذا قرارات شخصية
for flying airplanes, building bridges,
لأجل تحليق الطائرات، بناء الجسور،
Did the bridge sway and fall?
هل الجسر تأرجح وانهار؟
fairly clear benchmarks,
معيار واضح ألى حد ما،
our software is getting more powerful,
برمجياتُنا أصبحت أكثر قوة،
transparent and more complex.
شفافية وأكثر تعقيداً.
have made great strides.
صنعت خطوات عظيمة.
from a method called "machine learning."
يُدعى"تعلم الآلة."
than traditional programming,
detailed, exact, painstaking instructions.
دقيقة ومضبوطة ومُفصلة.
and you feed it lots of data,
وتُلقمه الكثير من البيانات،
in our digital lives.
by churning through this data.
الخوض بهذه البيانات.
under a single-answer logic.
منطق الإجابة الفريدة.
it's more probabilistic:
إنها أكثر إحتمالية:
what you're looking for."
الشيء هو ما تبحث عنه."
this method is really powerful.
هذه الطريقة حقاً قوية.
what the system learned.
نفهم ماذا يُعلم النظام تماماً.
instructions to a computer;
التعليمات للحاسوب؛
a puppy-machine-creature
مخلوق آلي مغرور
intelligence system gets things wrong.
الإصطناعي هذا أشياء خاطئة.
when it gets things right,
على الأشياء الصحيحة،
when it's a subjective problem.
تكون مشكلة غير موضوعية.
using machine-learning systems.
باستعمال أنظمة تعلّم الآلة.
on previous employees' data
على بيانات العاملين السابقة
high performers in the company.
من ذوي الكفاءات العالية.
human resources managers and executives,
والمدراء التنفيذيين،
more objective, less biased,
أكثر موضوعية وأقل تحيز،
and minorities a better shot
as a programmer,
come down to where I was
حيث كُنت أعمل
or really late in the afternoon,
let's go to lunch!"
كنت دائماً أذهب.
had not confessed to their higher-ups
المدراء في المستوى الأعلى
for a serious job was a teen girl
العمل المُهم كانت فتاة شابة
الرياضية في العمل.
I just looked wrong
فقط مظهري كان خاطئاً
it is more complicated, and here's why:
إنه أكثر تعقيداً، والسبب:
can infer all sorts of things about you
تستدل على كل الأشياء حولك
disclosed those things.
with high levels of accuracy.
you haven't even disclosed.
such computational systems
of clinical or postpartum depression
الإكتئاب ما بعد الولادة
the likelihood of depression
for early intervention. Great!
managers conference,
in a very large company,
في شركة كبيرة جداً،
what if, unbeknownst to you,
with high future likelihood of depression?
المستقبلية الكبيرة من الإكتئاب؟
just maybe in the future, more likely.
ربما فقط في المستقبل، أكثر احتمالية.
more likely to be pregnant
احتمالية لأن يكونوا حوامل
but aren't pregnant now?
ولكن غير حوامل الآن؟
because that's your workplace culture?"
لأن ذلك هو ثقافة مكان عملك؟"
at gender breakdowns.
إلى التقسيم من حيث الجنس.
not traditional coding,
وليس تدوين تقليدي،
labeled "higher risk of depression,"
اسمه "خطر أعلى من الإكتئاب،"
what your system is selecting on,
where to begin to look.
but you don't understand it.
لكنك لا تفهمها.
isn't doing something shady?"
لا يعمل أي شيء مضلل؟"
just stepped on 10 puppy tails.
ضربتها بعشرة ذيول جِراء.
another word about this."
isn't my problem, go away, death stare.
اذهب بعيداً، الموت يُحدق.
may even be less biased
shutting out of the job market
we want to build,
الذي نريد أن نبنيه،
to machines we don't totally understand?
إلى ألات لا نفهمها تماماً؟
on data generated by our actions,
على البيانات أُنتجت من أعمالنا،
reflecting our biases,
could be picking up on our biases
neutral computation."
to be shown job ads for high-paying jobs.
العمل بالنسبة للأعمال بالدخل العالي.
suggesting criminal history,
مُقترحة تاريخ جنائي،
and black-box algorithms
وخوارزميات الصندوق الأسود
but sometimes we don't know,
ولكن أحياناً لا نعلم،
تغيير مدى الحياة.
was sentenced to six years in prison
ست سنوات في السجن
in parole and sentencing decisions.
اطلاق السراح وقرارات اصدار الأحكام.
How is this score calculated?
كيف تُحسب هذه النتيجة؟
be challenged in open court.
مُعترض عليها في المحكمة المفتوحة.
nonprofit, audited that very algorithm
دققت الخوارزمية
was dismal, barely better than chance,
بالكاد أفضل من الفرصة،
black defendants as future criminals
السود كمجرمي المستقبل
picking up her godsister
with a friend of hers.
مع صديقتها.
and a scooter on a porch
ودراجة على الرواق
a woman came out and said,
ظهرت امرأة وقالت،
but they were arrested.
ولكنهم كانوا قد أُعتقلوا.
but she was also just 18.
ولكنها كانت بعمر 18 سنة أيضاً.
for shoplifting in Home Depot --
قد أُعتقل للسرقة مخزن المنزل --
a similar petty crime.
جريمة سخيفة مُشابهة.
armed robbery convictions.
as high risk, and not him.
كخطر كبير ولم تُسجله.
that she had not reoffended.
أن المرأة لم تكن قد ارتكبت مُخالفة.
for her with her record.
تحصل على عمل بسبب سجلها.
prison term for a later crime.
سنوات سجن بسبب جريمة لاحقة.
إلى تدقيق صناديقنا السود
this kind of unchecked power.
من القوة الغير مفحوصة.
but they don't solve all our problems.
ولكنهن لا يحللن كل مشاكلنا.
news feed algorithm --
and decides what to show you
ويقرر ما يُظهر لك
for engagement on the site:
للتشابك على الموقع:
مُقاطعة ميسوري،
teenager by a white police officer,
من قبل ضابط شرطة أبيض،
unfiltered Twitter feed,
keeps wanting to make you
دائماً يُريد أن يجعلك
were talking about it.
wasn't showing it to me.
لم تكن تُظهره لي.
this was a widespread problem.
أن هذا كان مُشكلة واسعة الانتشار.
wasn't algorithm-friendly.
ضمن نظام الخوارزمية بشكل ودّي.
تُعلق عليه.
to even fewer people,
أن تظهره لعدد أقل من الناس،
donate to charity, fine.
صُنع المعروف، جميل.
صديقة بامتياز.
but difficult conversation
can also be wrong
يمكن أيضاً أن تكون مخطئة
IBM's machine-intelligence system
نظام الذكاء الآلي لشركة IBM
with human contestants on Jeopardy?
المتنافسين البشر على لعبة Jeopardy؟
Watson was asked this question:
سُأل واتسون هذا السؤال:
for a World War II hero,
الحرب العالمية الثانية،
for a World War II battle."
الحرب العالمية الثانية."
answered "Toronto" --
أجاب "تورونتو"--
a second-grader wouldn't make.
الصنف الثاني سوف لن يصنعها.
error patterns of humans,
and be prepared for.
ونكون مُحضرين لها.
one is qualified for,
الشخص على عمل يكون مؤهل له،
if it was because of stack overflow
إذا كان بسبب فائض مُكدس
fueled by a feedback loop
المُغذى بحلقة ردود الفعل
في وول ستريت
of value in 36 minutes.
في 36 دقيقة.
what "error" means
ما يعني"الخطأ"
autonomous weapons.
but that's exactly my point.
ولكن تلك فكرتي بالضبط.
these difficult questions.
هذه الأسئلة الصعبة.
our responsibilities to machines.
بمسؤلياتنا إلى الآلات.
a "Get out of ethics free" card.
بطاقة "الخروج من الأخلاق بحرية".
calls this math-washing.
يدعو هذا غسيل الرياضيات.
scrutiny and investigation.
الفحص الدقيق و الاستقصاء.
algorithmic accountability,
حول ما يتعلق بالخوارزمية.
that bringing math and computation
الرياضيات والحساب
العلاقات الانسانية المحملة بالقيمة
invades the algorithms.
تنتهك الخوارزميات.
أن نستخدم الحساب
to our moral responsibility to judgment,
بمسؤليتنا الاخلاقية في الحكم،
ضمن اطار العمل ذلك،
and outsource our responsibilities
بمسؤلياتنا
إنسان لإنسان.
ننتظر بشكل محكم أكثر من أي وقت مضى
ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologistTechno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.
Why you should listen
We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.
Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.
Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.
Zeynep Tufekci | Speaker | TED.com