Zeynep Tufekci: We're building a dystopia just to make people click on ads
زينب توفيكجي: نحن نخلق ديستوبيا فقط لنجعل الناس تضغط على الإعلانات
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread. Full bio
Double-click the English transcript below to play the video.
of artificial intelligence,
من الذكاء الاصطناعي،
of humanoid robots run amok.
تشبه الإنسان وتجري مسعورة تريد الأذى
something to consider,
for the 21st century.
للقرن الحادي والعشرين.
will do to us on its own,
من تلقاء نفسه،
will use artificial intelligence
الذكاءَ الاصطناعي
and our dignity in the near-term future
في المستقبل القريب
and selling our data and our attention
بياناتنا وانتباهنا
bolstering their business as well.
like artificial intelligence
بعد الإعلانات على الإنترنت.
of many areas of study and research.
من مجالات الدراسة والبحث.
a famous Hollywood philosopher,
هوليوودي شهير،
comes prodigious risk."
مخاطر غير عادية."
of our digital lives, online ads.
في حياتنا الرقمية، الإعلانات على الإنترنت.
of being followed on the web
على شبكة الويب
we searched or read.
قمنا بالبحث عنه أو قراءته
you around everywhere you go.
باللحاق بكم أينما ذهبتم.
they're still following you around.
لا يزالون يلحقون بكم.
of basic, cheap manipulation.
من التلاعب الرخيص.
"You know what? These things don't work."
"أتعلم ماذا؟ هذه الأشياء لا تعمل."
let's think of a physical world example.
من العالم المحسوس.
at supermarkets, near the cashier,
في المتاجر قرب الكاشيير،
at the eye level of kids?
whine at their parents
are about to sort of check out.
المشتريات للدفع.
in every supermarket.
are kind of limited,
so many things by the cashier. Right?
من الأشياء عند الكاشيير، صحيح؟
it's the same for everyone,
whiny little humans beside them.
صغار ملحّون إلى جانبهم.
we live with those limitations.
can be built at the scale of billions
على مستوى المليارات
to everyone's phone private screen,
الخاصة بأي أحد،
that artificial intelligence can do.
التي يستطيع الذكاء الاصطناعي أن يفعلها.
plane tickets to Vegas. Right?
طيران إلى "فيجاس"، حسناً؟
of some demographics to target
ببعض المناطق لتستهدفها
and what you can guess.
a high limit on their credit card,
في بطاقتهم الائتمانية،
that Facebook has on you:
"فيسبوك" عنك:
that you uploaded there.
and change your mind and delete it,
and analyzes them, too.
to match you with your offline data.
وبين بياناتك خارج الإنترنت.
a lot of data from data brokers.
من سماسرة البيانات.
from your financial records
ابتداءً من سجلاتك المالية
such data is routinely collected,
بيانات كهذه يتم جمعها بشكل روتيني،
these machine-learning algorithms --
تعلم الآلة هذه...
learning algorithms --
the characteristics of people
how to apply this to new people.
ذلك على الناس الجدد
is likely to buy a ticket to Vegas or not.
ذلك الشخص تذكرة إلى "فيجاس" أم لا.
an offer to buy tickets to Vegas.
تذكرة إلى "فيجاس".
how these complex algorithms work.
هذه الخوارزميات المعقدة.
how they're doing this categorization.
thousands of rows and columns,
how exactly it's operating
what I was thinking right now
a cross section of my brain.
that we don't truly understand.
if there's an enormous amount of data,
كم هائل من البيانات،
deep surveillance on all of us
عميقة علينا جميعاً
algorithms can work.
to collect all the data it can about you.
كل البيانات التي يستطيع جمعها عنك
that we do not understand
to sell Vegas tickets
and about to enter the manic phase.
وهم على وشك الدخول بمرحلة الجنون.
overspenders, compulsive gamblers.
في الإنفاق أو مقامرين مدمنين...
that's what they were picking up on.
أدنى فكرة أن هذا ما كانوا يقومون بتصنيفه.
to a bunch of computer scientists once
من علماء الحاسوب ذات مرة.
"That's why I couldn't publish it."
"لهذا السبب لم أستطع نشرها."
figure out the onset of mania
استشفاف بداية مس الجنون
before clinical symptoms,
الأعراض المرضية،
or what it was picking up on.
أو ما المعلومات التي كان يجمعها.
if he doesn't publish it,
يقم بنشر المنشور،
this kind of technology,
is just off the shelf.
من الموارد الموجودة ببساطة.
meaning to watch one video
بنيّة مشاهدة فيديو واحد
has this column on the right
that you might be interested in
and what people like you have watched,
والأشياء التي قام أناس مثلك بمشاهدتها،
what you're interested in,
ما أنت مهتم به،
and useful feature,
of then-candidate Donald Trump
للمرشح حينها "دونالد ترمب"
the movement supporting him.
so I was studying it, too.
لذا كنت أدرس ذلك أيضاً.
about one of his rallies,
عن واحدة من تلك المسيرات،
white supremacist videos
عن العنصريين البيض
or Bernie Sanders content,
أو "بيرني ساندرز"،
and autoplays conspiracy left,
عن اليساريين المتآمرين،
this is politics, but it's not.
بالسياسة، لكنه ليس كذلك.
figuring out human behavior.
وهي تستنتج السلوك الإنساني.
about vegetarianism on YouTube
على "يوتيوب".
and autoplayed a video about being vegan.
عن كون المرء نباتياَ.
hardcore enough for YouTube.
بما يكفي بالنسبة لـ"يوتيوب".
show them something more hardcore,
ما هو أكثر إثارة
going down that rabbit hole
في رحلة البحث والمشاهدة
the ethics of the store,
أخلاقيات المتجر،
معلومات عن الناس
anti-Semitic content,
بصراحة شديدة،
anti-Semitic content on their profile
بشكل صريح على ملفاتهم
may be susceptible to such messages,
سريعو التأثر برسائل كهذه،
like an implausible example,
do this on Facebook,
فعل ذلك على "فيسبوك"،
offered up suggestions
and very quickly they found,
من أجل "جوجل"، وقد وجدوا بسرعة،
spent about 30 dollars
social media manager disclosed
التواصل الخاص بـ"دونالد ترمب"
to demobilize people,
في "فيسبوك" لتسريح الناس من وظائفها،
من الأساس.
they targeted specifically,
in key cities like Philadelphia,
في مدن رئيسة مثل "فيلادلفيا"،
exactly what he said.
we want to see it see it.
أن يشاهدونها فحسب.
to turn these people out."
على تجنيد هؤلاء الناس."
arranges the posts
بترتيب المنشورات
or the pages you follow.
أو الصفحات التي تقوم بمتابعتها.
everything chronologically.
that the algorithm thinks will entice you
الخوارزميات أنها ستجذبك.
somebody is snubbing you on Facebook.
على "فيسبوك"
be showing your post to them.
منشوراتك لهم.
some of them and burying the others.
لبعضهم وبدفن ما تبقى.
can affect your emotions.
يمكن أن يؤثر على عواطفك.
on 61 million people in the US
في الولايات المتحدة.
"Today is election day,"
"اليوم هو يوم الانتخابات،"
the one with that tiny tweak
الذي يحتوي تلاعباً خفيفاً
"أنا قمت بالتصويت."
they repeated the same experiment.
US presidential election
في أمريكا لعام 2016
very easily infer what your politics are,
أن يستنتج آراءك السياسية،
disclosed them on the site.
can do that quite easily.
فعل ذلك بسهولة تامة.
of one candidate over the other?
ضد المرشح الآخر؟
seemingly innocuous --
لا يظهر أنه مؤذي...
if we're seeing the same information
المعلومات نفسها
the beginning stages of this.
أن تستنتج
personality traits,
use of addictive substances,
على المعارضين
are partially concealed.
to detect people's sexual orientation
على اكتشاف الميول الجنسية للناس
to be 100 percent right,
the temptation to use these technologies
الإغراء لاستخدام هذه التقنيات
some false positives,
a whole other layer of problems.
كاملة من المشاكل.
it has on its citizens.
عن مواطنيها.
face detection technology
تقنية التحقق من الوجوه
of surveillance authoritarianism
من المراقبة الاستبدادية
على الإعلانات.
Orwell's authoritarianism.
عنه "أورويل".
is using overt fear to terrorize us,
العلني ليقوم بإرهابنا،
لكننا سنكون على معرفة بالأمر،
are using these algorithms
هذه الخوارزميات
the troublemakers and the rebels,
المشاكل والمتمردين،
architectures at scale
weaknesses and vulnerabilities,
ومكامن هشاشتهم،
and neighbors are seeing,
will envelop us like a spider's web
as a persuasion architecture.
personal and social information flows,
السياسية والشخصية والاجتماعية،
because they provide us with great value.
تزودنا بفائدة كبيرة.
with friends and family around the world.
مع الأصدقاء والعائلة حول العالم.
social media is for social movements.
الاجتماعي في حركاتنا الاجتماعية.
these technologies can be used
you know, Facebook or Google
الشركات مثل "فيسبوك" و"جوجل"
or the world more polarized
well-intentioned statements
people in technology make that matter,
في عالم التكنولوجيا هي ما يهم،
and business models they're building.
of half a trillion dollars
تزن نصف ترليون دولار
as a persuasion architecture,
is of great concern.
digital technology operates.
الرقمية بكاملها.
technology is developed
يتم فيها تطوير التقنية
economic and otherwise,
المحفزات الاقتصادية وغيرها
created by the proprietary algorithms,
الخوارزميات الامتلاكية،
of machine learning's opacity,
that's being collected about us.
عنا بشكل عشوائي.
artificial intelligence
by our human values.
on what those terms mean.
ما تعنيه هذه المصطلحات.
depend on for so much operate,
this conversation anymore.
هذه المحادثة أكثر من ذلك.
ربحها بالإعلانات،
that we are the product that's being sold.
نحن المنتج الذي يتم بيعه.
authoritarian or demagogue.
من الاستبداديين أو الدهماويين.
that Hollywood paraphrase,
التي أعدت صياغتها،
and digital technology to blossom,
أن تزدهر،
this prodigious menace,
هذا التهديد غير العادي،
ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologistTechno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.
Why you should listen
We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.
Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.
Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.
Zeynep Tufekci | Speaker | TED.com