Zeynep Tufekci: Machine intelligence makes human morals more important
زینب توفکسی: ماشینهای هوشمند، انسانهای اخلاقمند را بیشتر با اهمیت میکند
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread. Full bio
Double-click the English transcript below to play the video.
as a computer programmer
برنامه نویس کامپیوتر شروع کردم
came down to where I was,
نزد من آمد،
And why are we whispering?"
و چرا ما در حال پچ پچ کردن هستیم؟"
at the computer in the room.
an affair with the receptionist.
if you're lying."
اگه تو دروغ بگی"
the laugh's on me.
خنده به خودم
emotional states and even lying
از طریق تحلیل صورت انسان
are very interested.
جالبند.
شده بودم
crazy about math and science.
ریاضی و علم بودم
I'd learned about nuclear weapons,
سلاحهای هستهای چیزهایی یادگرفتم،
with the ethics of science.
as soon as possible.
در اسرع وقت- کارم را شروع کنم
let me pick a technical field
بگذار تا یک رشته تکنیکی را بردارم
with any troublesome questions of ethics.
مواجه نشوم؟
All the laughs are on me.
همه خندهها برای من هستند.
are building platforms
در حال ساخت یک سیستم عامل هستند
people see every day.
هر روز میبینند روکنترل میکنه
that could decide who to run over.
تصمیم بگیرند که چه کسی زیر بگیرند.
تسلیحاتی
to make all sort of decisions,
هستیم که همه تصمیمات ما را مرتب میکنه،
that have no single right answers,
هیچ جواب معین درستی ندارند،
و پر محتوا هستند.
should you be shown?"
باید نشان داده شود؟»
likely to reoffend?"
should be recommended to people?"
توصیه بشه؟»
computers for a while,
استفاده از کامپیوترها هستیم
for such subjective decisions
برای تصمیمهای ذهنی نگه داریم
for flying airplanes, building bridges,
برای پرواز هواپیما، ساخت پلها
Did the bridge sway and fall?
آیا این پل فرو میریزد؟
fairly clear benchmarks,
روشن توافق کردیم
برای تصمیم گیری
our software is getting more powerful,
تا نرم افزارهای ما بیشتر قدرتمند میشوند،
transparent and more complex.
و بیشتر پیچیده باشد.
have made great strides.
با گامهای بلندی ساخته شدهاند.
بازشناسایی کنند.
کشف کنند
کشف کنند.
شطرنج و گو از آدمها ببرند.
from a method called "machine learning."
"یادگیری ماشین" آمدهاند.
than traditional programming,
متفاوت هست،
detailed, exact, painstaking instructions.
دستورات پر زحمت را میدهید.
and you feed it lots of data,
گرفتهاید و اطلاعات زیادی به آن میخورانید
in our digital lives.
تولید میکنیم.
by churning through this data.
یاد میگیرد.
under a single-answer logic.
منطقی عمل نمی کنند
it's more probabilistic:
این ها بیشتر "احتمال" هستند
what you're looking for."
آنچه شما دنبال آن هستید "
this method is really powerful.
واقعا قدرتمند است.
این را نام گذاری کرد:
what the system learned.
سیستم چه یاد میگیرد.
instructions to a computer;
به کامپیوتر است،
a puppy-machine-creature
توله ماشین زندهاست
intelligence system gets things wrong.
چیزها را اشتباه یاد میگیرد.
when it gets things right,
این چیزها را درست یاد میگیرد،
when it's a subjective problem.
وقتی که این یک مشکل درونی است.
به چه چیزی است
using machine-learning systems.
سیستم یادگیری ماشین استخدام می کند.
on previous employees' data
کارمندان قبلی آموزش دیده شده است
high performers in the company.
دارند.
human resources managers and executives,
دور هم جمع شده بودند،
استفاده می کردند.
more objective, less biased,
و کمتر مغروضانه خواهند بود،
and minorities a better shot
یک شانس بهتری میدهد
استخدام افراد غرض ورزانه است.
as a programmer,
برنامه نویس
come down to where I was
or really late in the afternoon,
let's go to lunch!"
من همیشه برای ناهار مجانی میرفتم
had not confessed to their higher-ups
for a serious job was a teen girl
و جین در محل کار میپوشید
اشتباه نکرده بودند.
I just looked wrong
اما به نظرمیآمد که من مناسب نیستم
it is more complicated, and here's why:
بغرنجتر و پیچیدهتر شده و دلیلیش اینجاست:
can infer all sorts of things about you
به همه چیزهای شما
دیجیتالی شما پیببرند،
disclosed those things.
with high levels of accuracy.
you haven't even disclosed.
حتی آنها را فاش نکردهاید
such computational systems
محاسبه گری را توسعه میدهد
of clinical or postpartum depression
را پیش بینی کند
the likelihood of depression
میتوان
بیماری را پیشبینی کند--
ولی پیش بینی میشود.
for early intervention. Great!
(روانشناسی) استفاده کند . عالیه.
managers conference,
in a very large company,
در یک شرکت بزرگ نزدیک شدم
what if, unbeknownst to you,
تو فردی ناشناخته میشدم؟"
with high future likelihood of depression?
با احتمال بالای افسردگی در آینده، است ؟
just maybe in the future, more likely.
آینده به احتمال زیاد دچار افسردگی شوند.
more likely to be pregnant
دو سال آینده باردار شوند
but aren't pregnant now?
را کنار گذارده شوند؟
because that's your workplace culture?"
زیرا آن فرهنگ محیط کاریت است
at gender breakdowns.
تقسیم بندی جنسبت نمی توانی بگویی
not traditional coding,
برنامه نویسی سنتی نیست
labeled "higher risk of depression,"
"بیشترین خطر افسردگی " نام گذاری شود
what your system is selecting on,
چگونه سیستم شما، انتخاب می کنه
where to begin to look.
در کجا جستجو میکند
but you don't understand it.
اما شما این را نمیفهمی
isn't doing something shady?"
کار مشکوکی انجام نمیدهد؟»
just stepped on 10 puppy tails.
پا روی دُم ده تا توله گذاشتم!
another word about this."
isn't my problem, go away, death stare.
این مشکل من نیست، برو.
may even be less biased
حتی کمتر جانبدارانه باشد
shutting out of the job market
بازار کار مردم
we want to build,
که ما میخواهیم بسازیم؟
انجام دادیم
to machines we don't totally understand?
به ماشین که ما سرانجامش را نمیفهمیم
on data generated by our actions,
توسط کارهای ما آموزش داده میشوند،
reflecting our biases,
تمایلات ما را منعکس کنند،
could be picking up on our biases
تمایلات ما را انتخاب کنند
neutral computation."
to be shown job ads for high-paying jobs.
برای مشاغل با حقوق بالاتر قدام کنند.
suggesting criminal history,
and black-box algorithms
but sometimes we don't know,
و ما از آن گاهی اطلاع نداریم.
was sentenced to six years in prison
محکوم شد
in parole and sentencing decisions.
مشروط و صدور حکم در حال استفاده هستند
How is this score calculated?
چگونه این نمره محاسبه می شود؟
be challenged in open court.
در دادگاه به چالش کشیده بشود را رد کرد.
nonprofit, audited that very algorithm
غیرانتفاعی خیلی از الگوریتم ها را
پیدا کنند بررسی میکنند.
was dismal, barely better than chance,
نه فقظ شانسی( بلکه به عمد)
black defendants as future criminals
مجرمان آینده دوبرابر نرخ مجرمان سفید
picking up her godsister
دخترخواندهاش دیر رسید
with a friend of hers.
and a scooter on a porch
روی ایوان که قفل نشده بود را نشان دادند
a woman came out and said,
یک زن آمد و گفت
but they were arrested.
ولی آن ها دستگیر شدند
but she was also just 18.
ولی او تنها ۱۸ سال داشت
for shoplifting in Home Depot --
هوم دیپو دستگیر شده بود--
a similar petty crime.
armed robbery convictions.
as high risk, and not him.
نشان میداد، و نه برای این مرد.
that she had not reoffended.
که این نباید در حبس باشد.
for her with her record.
برای او پیدا کردن شغل مشگل بود.
prison term for a later crime.
برای هشت سال زندانی خواهد بود.
جعبه سیاهمان را بازبینی و بررسی کنیم
this kind of unchecked power.
قدرت چک نشده را حسابرسی کنیم
but they don't solve all our problems.
اما آنها تمام مشکلات ما را حل نمی کنند.
news feed algorithm --
را در نظر بگیرید.
and decides what to show you
و تصمیم میگیرد که چه به شما نشان دهد
صفحههایی که شما دنبال میکنید.
for engagement on the site:
در سایت بهینه شده :
teenager by a white police officer,
به وسیله یک پلیس سفید پوست
unfiltered Twitter feed,
غیر فعال کردم،
keeps wanting to make you
خواسته های شما را حفظ میکند
were talking about it.
صحبت کردن درباره این حادثه بودند.
wasn't showing it to me.
به من نشان من داد.
this was a widespread problem.
که این یه مشکل شایع بود
wasn't algorithm-friendly.
روی "like" کلیک کنید؟
تا کامنتی روی آن قرار دهید.
to even fewer people,
کمتری را نشان داده میشد،
donate to charity, fine.
کمک به موسسه خیریه خوب است
but difficult conversation
can also be wrong
میتوانند اشتباه باشند
به سیستم انسانی ندارد.
IBM's machine-intelligence system
ماشین هوشمند آی بی ام
with human contestants on Jeopardy?
را به خاطر دارید؟
Watson was asked this question:
for a World War II hero,
جنگ جهانی دوم نام گذاری شد"
for a World War II battle."
مبارزه جنگ جهانی دوم نامگذاری شد.»
answered "Toronto" --
a second-grader wouldn't make.
نخواهد کرد، حتی یک کلاس دومی.
error patterns of humans,
الگوی خطای انسان ها را متناسب کند
and be prepared for.
و آمادگی برای آن نخواهیم داشت
one is qualified for,
که واجد شرایط هست شفلی را نگیرد،
if it was because of stack overflow
fueled by a feedback loop
از یک حلقه فیدبک تقویت شد در وال استریت
of value in 36 minutes.
در ۳۶ دقیقه از بین برد.
what "error" means
معنیهای «خطا»
autonomous weapons.
but that's exactly my point.
اما این دقیقا نکته مورد نظر من است.
these difficult questions.
مشگل فرارکنیم.
our responsibilities to machines.
را در قبال ماشین ها نادیده بگیریم.
a "Get out of ethics free" card.
«خارج شدن از اخلاق به صورت رایگان» بدهد
calls this math-washing.
این را "شستشوی ریاضی" مینامد
scrutiny and investigation.
با بررسی دقیق و موشکافانه رشد دهیم.
algorithmic accountability,
که مسولیت الگوریتمی داریم،
that bringing math and computation
آورده های ریاضی و محاسباتی
invades the algorithms.
الگوریتم ها حتما غلبه میکند.
از محاسبات استفاده کنیم
به خودمان کمک کنیم
to our moral responsibility to judgment,
به مسئولیت اخلاقی و قضاوت
and outsource our responsibilities
و واگذاری مسئولیت هایمان
ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologistTechno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.
Why you should listen
We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.
Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.
Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.
Zeynep Tufekci | Speaker | TED.com