Stuart Russell: 3 principles for creating safer AI
ستيوارت راسل: كيفَ يُمكنُ للذّكاءِ الاصطناعي أن يجعلنا أُناسًا أفضل
Stuart Russell wrote the standard text on AI; now he thinks deeply on AI's future -- and the future of us humans, too. Full bio
Double-click the English transcript below to play the video.
greatest Go players,
لُعبةِ "غو" على مستوى العالم
in Silicon Valley call
في سيليكون فالي
a lot faster than we expected.
تتطوّر بسرعة أكبرَ بكثيرٍ ممّا توقعنا.
لكِنْ ماذا عنِ العالمِ الواقعيّ؟
What about the real world?
of the technologies
لا تستطيع القراءة بعد
is not yet happening in machines,
that the human race has ever written.
كلَّ ما توصّل إليهِ البشرُ مِن عِلم.
في حسابِ الاحتمالاتِ المستقبليّة،
further ahead than humans can,
من الوصولِ إلى المزيدِ من المعلومات،
to more information,
in the real world than we can.
من قراراتنا في العالمِ الواقعيّ.
و كلّ شيءٍ ذو قيمةٍ لدينا
everything that we value,
to a lot more intelligence,
على ذكاءٍ أكثر،
to what the human race can do.
لن يستطيعَ البشرُ القيامَ به.
أن يُصنّف كما وصفهُ البعضُ
as some people have described it,
أشياءَ كهذه:
of the human race?
على الجنسِ البشريّ؟
and Stephen Hawking?
إيلون ماسك، بيل غيتس، وستيفن هوكنغ؟
has been around for a while.
هذه الفكرةُ موجودةٌ منذ زمنٍ بعيد.
in a subservient position,
من إبقاءِ الآلاتِ تحتَ سيطرتنا"
at strategic moments" --
"turning off the power" idea later on --
-قطع مصدر الطاقة عن الآلة-
feel greatly humbled."
إنّها مقولةُ آلان تورينغ، عامَ 1951
This is Alan Turing in 1951.
هو مؤسّسُ علومِ الحاسب
is the father of computer science
the father of AI as well.
more intelligent than your own species,
ممّا أنتَ عليه
اسماً مناسباً لها،
a few million years ago,
منذُ عدّةِ ملايينِ سنة،
to discuss whether it was a good idea,
ليُقدّموا لّنا الإجابة،
they conclude, no,
sadness in their eyes.
في أعينهم.
something smarter than your own species
لِنُحسَّ بأنَّ صُنعَ شيءٍ أذكى مِنّا
عن تطويرِ تقنيّات الذكاءِ الاصطناعي،
except stop doing AI,
the benefits that I mentioned
to keep doing AI.
في تطويرِ هذهِ التقنيّات.
أنْ نكونَ أكثرَ وضوحاً.
the problem a bit more.
إلى نتائجَ كارثيّة؟
من أن المغزى من تصميم آلة
that the purpose put into the machine
عامَ 1960،
one of the very early learning systems
better than its creator.
I touch to turn to gold,"
كل ما ألمسه ذهبًا"
that he put into the machine,
and his relatives turned to gold
و حتى أقرباؤه، جميعهم إلى ذهب.
بقضيّة الملك مايدس
"the King Midas problem"
which is not, in fact,
"the value alignment problem."
بقضيّة توافقِ الأهداف.
ليس الجزء الوحيد في المشكلة.
is not the only part of the problem.
ولوّ كانَ ببساطةِ جلبِ القهوة،
"Fetch the coffee,"
to fetch the coffee?
"سوف أمنع حصول هذا."
against interference
that I have been given."
of an objective that is, in fact,
of the human race --
للجنس البشري --
takeaway from this talk.
تذكُّرَها مِن هذه المحادثة.
تذكروا التالي:
the coffee if you're dead.
وأنتَ ميتْ."
Repeat it to yourself three times a day.
ردّدوها ثلاثَ مرّاتٍ يوميّاً.
البشرُ مِنه كحاسوب
with the objectives of the humans,
أوامرَ الطّاقَمْ.
is not superintelligent.
لم يَكُنْ (هال) خارقَ الذّكاء.
but eventually Dave outwits him
ولكِنّ (ديف) كانَ أذكى مِنه
قد لا نكونُ مَحظوظينَ على الدّوام.
بإعادةِ تعريفِ الذّكاءِ الاصطناعي
pursue objectives.
ومحاولتها تحقيقَ أهدافِها الشخصيّة.
of altruism, if you like,
of human objectives,
من أهدافِ البشر
touchy-feely, goody-goody values.
تلكَ المثاليّاتِ البعيدةَ عن الواقع.
that the human would prefer
قد يفضل الإنسان
its own existence.
حمايةُ حياتهِ الشخصيّة.
its existence whatsoever.
بهكذا أمورٍ مطلقاً.
مبدأُ التذلّلِ إنْ صحَّ التّعبير.
of humility, if you like.
important to make robots safe.
الروبوتاتِ آمنة.
لا يعلمَ
but it doesn't know what they are.
لكنه لا يعلم ماهيتها.
of single-minded pursuit
عمّا نريده.
by observation of human choices,
عبرَ مراقبةِ سلوكِنا
our lives to be like.
to this question of:
التي اقترحها (تيورنغ).
as Turing suggested.
أحمرُ كبيرٌ على ظهره.
right on the back.
هل سيسمحُ الروبوتُ لكَ بضغطِ هذا الزرّ؟
going to let you switch it off?
the coffee, I must fetch the coffee,
ويفكّر: "يجب أن أجلب القهوة بأيّ ثمن"
وأنا ميت"
has been listening to my talk,
هذه المحادثة،
"I must disable my 'off' switch,
"سأعطّلُ زرَّ إطفاءِ تشغيلي إذاً!"
people in Starbucks
seems to be inevitable,
a concrete, definite objective.
أقلَّ ثقةً بصحّةِ فهمهِ للهدف؟
is uncertain about the objective?
might switch me off,
"قد يقومُ البشرُ بإيقافِ تشغيلي"
إنْ فعلتُ شيئاً خاطئاً."
الذي قد أفعله"
شيءٍ خاطئ"
principles right there.
the incentive that the robot has
الذي سيمتلكهُ الروبوت
the underlying objective.
من فهمهِ للهدفِ من إطفاءه.
من خلالِ إطفاءِ الرّوبوت،
it should be pursuing,
مِن هذهِ التجربة
what it did wasn't right.
of Greek symbols,
باستعمالِ بعضِ الرّموز
is provably beneficial to the human.
سيكونُ حتماً مفيداً للإنسان.
with a machine that's designed in this way
سيكونُ حتماً أكثرَ فائدةً
but this is the first step
وهوَ الخطوةُ الأولى فقط
with human-compatible AI.
الذّكاءِ الاصطناعي المطابق للإنسان.
scratching your head over.
"و لكنني، كإنسانٍ أتصرّف بشكلٍ سيّء!"
you know, I behave badly.
إلى المطبخِ ويأخُذَ طعاماً منَ الثلّاجة"
and take stuff from the fridge.
أنْ تقلّدنا الروبوتاتُ بها.
you don't want the robot doing.
quite work that way.
بالتعلّمِ من مراقبتنا
is going to copy your behavior.
سيقومُ بتقليدِ تصرّفاتك.
and maybe help you resist them,
وربّما يساعدكَ في مقاومتها
for any person and for any possible life
الحياةِ التي سيفضّلُ الشّخص أن يعيشها
difficulties involved in doing this;
في تحقيق ذلك
is going to get solved very quickly.
في القريب العاجل.
كما ذكرتُ قبل قليل.
we behave badly.
doesn't have to copy the behavior.
بتقليدِ تصرّفاتنا السيّئة.
any objective of its own.
the desires of one person, the user,
the preferences of everybody.
أن يحترمَ ما يفضله الجميع.
amount of nastiness,
بسيطٍ عن الصواب
that your nastiness, for example,
كمسؤول جوازات سفر
and send your kids to school.
ودفعِ أقساطِ المدرسةِ لأطفالك.
it doesn't mean it's going to steal.
لكنّه لايعني بأنّه سيتعلّمُ السرقة.
send your kids to school.
على إرسال أطفالك للمدرسة.
محدودونَ في قدراتنا الحسابيّة.
he took an action that lost the game.
لوجدنا حركةً خسرَ بسببها.
through a model of human cognition
عبرَ نموذجٍ حاسوبيّ لعملِ الدّماغ البشريّ
limitations -- a very complicated model.
وهذا شيءٌ معقّدٌ للغاية.
that we can work on understanding.
إنَّ أصعبَ مشكلةٍ تواجهنا
from my point of view as an AI researcher,
trade off, weigh up the preferences
بين الكثير من الخيارات
moral philosophers have understood that,
جميعهم يفهمون هذا،
looking for collaboration.
when you get that wrong.
حينما لا تسير الأمور على ما يرام.
a conversation, for example,
in a few years' time.
خلالَ بضعِ سنوات.
to remind you about dinner tonight."
زوجتكَ قد اتصلت لتذكّركَ بعشائكما الليلة.
"ماذا! أيُّ عشاء!"
"What? What dinner?
في ذكرى زواجكما العشرين."
بالأمينِ العامِّ عندَ السابعة والنصف!"
with the secretary-general at 7:30.
my recommendation."
هذا مايحصلُ حينما تتجاهلُ نصائحي."
زوجتي بأنّي نسيتُ مناسبةً كهذه!"
I can't just tell him I'm too busy."
"قمتُ بتأجيلِ موعدِ انطلاقِ طائرتها."
for his plane to be delayed."
شركةِ الطّيران"
"بإمكانكِ فِعلُ أشياءَ كهذه!"
for lunch tomorrow."
يبدو إذاً بأنّهُ هناكَ خطأ طفيفًا
there's a slight mistake going on.
"أنت بخيرٍ مادامت زوجتك بخير."
بعدَ يومٍ مُتعِبٍ في العمل
after a hard day's work,
"هل كانَ يوماً شاقاً؟"
لتناولِ الغداء."
Could you make some dinner?"
هل بإمكانكِ تحضيرُ العشاء لي؟"
في حاجةٍ ملحّةٍ للطعامِ أكثرَ منكَ بكثير!"
who are in more urgent need than you."
اصنع طعامكَ بنفسك!"
to working on them.
ستقرأُ كلّ شيءٍ
they're going to read everything
هو قصصٌ عن أناسٍ يرتكبون أخطاءً
is human beings doing things
منْ تعلّمِ كلِّ هذا.
of data to learn from.
strong economic incentive
and the robot has to feed the kids,
لكنَّ على الروبوتَ أن يطعم أبناءكم،
and there's nothing in the fridge.
وسيرى القطة.
the human value function properly,
قِيَمَكُم الإنسانيّة جيّداً
the nutritional value of the cat.
تفوقُ قيمتها الغذائيّة.
for family dinner."
قطّة المنزلِ على العشاء"
of the domestic robot industry.
صناعة الروبوتات المنزلية.
to get this right
لإتمام الأمرِ دون أخطاء
superintelligent machines.
أيّ آلة خارقِة الذكاء.
the definition of AI
تغييرَ تعريفِ الذّكاءِ الاصطناعي
beneficial machines.
ذاتَ فائدةٍ مثبتةٍ علميّاً.
about what those objectives are,
من صحّةِ فهمها لهذهِ الأهداف،
that we really want.
أنْ تساعدنا فيهِ حقّاً.
we will learn to be better people.
مِنْ هذهِ التجاربِ كيفَ نصبحُ أناساً أفضل.
because I think they're setting up
seems intuitively really powerful.
تببدو للوهلة الأولى رهيبةً.
this idea that knowledge
and rewriting that programming?
وتعيد صياغة تلك البرمجة؟
it to learn more, as I said,
أنْ تتعلّمَ هذهِ الآلاتُ أكثر،
حينما تصبحُ أكثرَ دقّةً
as it becomes more correct,
to interpret it correctly.
that books are very biased
بعضَ الكُتُبِ متحيّزةٌ جدا
سوى عن ملوكٍ أو أميراتٍ
يقومون بأشياء جميلة.
عن أهدافنا في النهاية
just boil it down to one law,
هذا في قانون واحد،
في أيّ وقتٍ أن يُطفِئني"
a self-driving car
سيّارةً ذاتيّةَ القيادةِ
ذي الخمسة أعوامٍ
to be able to switch off the car
الإنسانِ لإطفائها ومدى عقلانيّتهِ
and sensible the person is.
تقبّلاً لإيقافِ تشغيلها.
to be switched off.
random or even malicious,
أو بدا مُؤذياً،
to be switched off.
هذهِ الأشياء لنا قريباً
figure this out for us.
That was amazing.
لقد كانت مدهشة.
ABOUT THE SPEAKER
Stuart Russell - AI expertStuart Russell wrote the standard text on AI; now he thinks deeply on AI's future -- and the future of us humans, too.
Why you should listen
Stuart Russell is a professor (and formerly chair) of Electrical Engineering and Computer Sciences at University of California at Berkeley. His book Artificial Intelligence: A Modern Approach (with Peter Norvig) is the standard text in AI; it has been translated into 13 languages and is used in more than 1,300 universities in 118 countries. His research covers a wide range of topics in artificial intelligence including machine learning, probabilistic reasoning, knowledge representation, planning, real-time decision making, multitarget tracking, computer vision, computational physiology, global seismic monitoring and philosophical foundations.
He also works for the United Nations, developing a new global seismic monitoring system for the nuclear-test-ban treaty. His current concerns include the threat of autonomous weapons and the long-term future of artificial intelligence and its relation to humanity.
Stuart Russell | Speaker | TED.com