Zeynep Tufekci: We're building a dystopia just to make people click on ads
זיינפ טופקי: אנו מעודדים הקלקה על פרסומות - ויוצרים דיסטופיה
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread. Full bio
Double-click the English transcript below to play the video.
of artificial intelligence,
מפני תבונה המלאכותית,
של רובוטים דמויי-אדם שיוצאים משליטה.
of humanoid robots run amok.
something to consider,
של הדיסטופיה במאה ה-21.
for the 21st century.
תעולל לנו בעצמה,
will do to us on its own,
ינצלו את התבונה המלאכותית
will use artificial intelligence
ערמומיות ולא-צפויות.
בעתיד הקרוב
and our dignity in the near-term future
ומוקדי תשומת ליבנו
and selling our data and our attention
"עליבאבה", "טנסט".
bolstering their business as well.
הלהיט הבא, אחרי פרסומות מקוונות.
like artificial intelligence
בתחומי לימוד ומחקר רבים.
of many areas of study and research.
של פילוסוף הוליוודי ידוע,
a famous Hollywood philosopher,
סכנות עצומות."
comes prodigious risk."
of our digital lives, online ads.
מחיינו הדיגיטליים: פרסומות מקוונות.
of being followed on the web
שחיפשנו או קראנו.
we searched or read.
עוקבים אחרייך לכל מקום.
you around everywhere you go.
הם עדיין מסתובבים אחרייך.
they're still following you around.
בסיסית וזולה כזאת.
of basic, cheap manipulation.
"הדברים האלה לא עובדים."
"You know what? These things don't work."
אינן רק פרסומות.
הבה ניקח דוגמה מהעולם הממשי.
let's think of a physical world example.
שבקופות במרכול, ליד הקופות,
at supermarkets, near the cashier,
בגובה עיני הילדים?
at the eye level of kids?
whine at their parents
ליילל להוריהם
are about to sort of check out.
אבל היא איכשהו עובדת
in every supermarket.
הן מוגבלות למדי,
are kind of limited,
שאפשר למקם ליד הקופה, נכון?
so many things by the cashier. Right?
ממתקים ומסטיקים,
it's the same for everyone,
מייללים לצידם.
whiny little humans beside them.
אנו חיים עם המגבלות האלה.
we live with those limitations.
בהיקף של מיליארדים
can be built at the scale of billions
למסך הטלפון הפרטי,
to everyone's phone private screen,
שהתבונה המלאכותית מסוגלת לעשות.
that artificial intelligence can do.
כרטיסי טיסה לווגאס, בסדר?
plane tickets to Vegas. Right?
מיקוד לפי פילוח דמוגרפי
of some demographics to target
and what you can guess.
a high limit on their credit card,
שיש ל"פייסבוק" עליכם:
that Facebook has on you:
that you uploaded there.
שיניתם את דעתכם ומחקתם אותו,
and change your mind and delete it,
and analyzes them, too.
ביניכם לבין נתוניכם הבלתי-מקוונים.
to match you with your offline data.
מסחרני מידע.
a lot of data from data brokers.
החל מהרשומות הפיננסיות שלכם
from your financial records
מהיסטוריית הגלישה שלכם.
such data is routinely collected,
מושווים ונמכרים דרך שגרה,
חופרים בכל הנתונים הללו --
these machine-learning algorithms --
"אלגוריתמים של למידת מכונה" --
learning algorithms --
את המאפיינים של אנשים
the characteristics of people
לאנשים חדשים.
how to apply this to new people.
כמי שסביר שיקנה כרטיס לווגאס או לא.
is likely to buy a ticket to Vegas or not.
an offer to buy tickets to Vegas.
"הצעה לרכוש כרטיסים לווגאס?
איך האלגוריתמים המסובכים האלה עובדים.
how these complex algorithms work.
how they're doing this categorization.
אלפי שורות ועמודות,
thousands of rows and columns,
how exactly it's operating
what I was thinking right now
מה אני חושבת כרגע
של המוח שלי.
a cross section of my brain.
that we don't truly understand.
רק אם כמות הנתונים עצומה,
if there's an enormous amount of data,
מעקב מעמיק אחרי כולנו
deep surveillance on all of us
יוכלו לפעול כהלכה.
algorithms can work.
לאסוף עליכם נתונים רבים ככל שתוכל:
to collect all the data it can about you.
that we do not understand
to sell Vegas tickets
שעומדים לעבור למאניה.
and about to enter the manic phase.
overspenders, compulsive gamblers.
מהמרים כפייתיים.
ולא יהיה לכם מושג שכך היא החליטה.
that's what they were picking up on.
לקבוצת מדעני מחשבים
to a bunch of computer scientists once
"בגלל זה לא יכולתי לפרסם את זה."
"That's why I couldn't publish it."
לזהות את תחילת השלב המאני
figure out the onset of mania
עוד לפני התסמינים הרפואיים,
before clinical symptoms,
או לפי מה.
or what it was picking up on.
רק כי הוא לא פירסם את זה,
if he doesn't publish it,
שמפתחות טכנולוגיה כזאת,
this kind of technology,
is just off the shelf.
כדי לראות סרטון אחד
meaning to watch one video
יש בצד ימין עמודה
has this column on the right
עשוי לעניין אתכם
that you might be interested in
ומה שראו אנשים כמוכם,
and what people like you have watched,
מה שיעניין אתכם,
what you're interested in,
נחמדה ושימושית,
and useful feature,
of then-candidate Donald Trump
של המועמד דאז, דונלד טראמפ
את התנועה שתומכת בו.
the movement supporting him.
וחקרתי גם את זאת.
so I was studying it, too.
על אחת העצרות שלו,
about one of his rallies,
סרטוני עליונות לבנה
white supremacist videos
or Bernie Sanders content,
של הילרי קלינטון או ברני סנדרס,
מזימות שמאלניות,
and autoplays conspiracy left,
"ככה זה בפוליטיקה." אבל לא.
this is politics, but it's not.
שלומד התנהגות אנושית.
figuring out human behavior.
על צמחונות
about vegetarianism on YouTube
סרטון על טבעונות.
and autoplayed a video about being vegan.
לא מספיק קיצוני בשביל "יו-טיוב".
hardcore enough for YouTube.
show them something more hardcore,
תוך נפילה למאורת הארנב
going down that rabbit hole
על האתיקה בחנות,
the ethics of the store,
anti-Semitic content,
אינו כולל תוכן אנטישמי מפורש כזה,
anti-Semitic content on their profile
שהם יהיו פתוחים למסרים כאלה,
may be susceptible to such messages,
like an implausible example,
בלתי-סבירה,
do this on Facebook,
offered up suggestions
and very quickly they found,
והם גילו מהר מאד
spent about 30 dollars
social media manager disclosed
של דולנד טראמפ גילה
כדי להניא אנשים מלהצביע;
to demobilize people,
שלא להצביע כלל.
they targeted specifically,
בערים מרכזיות כמו פילדלפיה,
in key cities like Philadelphia,
את מה שהוא אמר.
exactly what he said.
we want to see it see it.
יראו זאת.
על יכולתה לשנות את דעותיהם."
to turn these people out."
arranges the posts
בעזרת אלגוריתמים
או את הדפים שאחריהם אתם עוקבים.
or the pages you follow.
everything chronologically.
שהאלגוריתם חושב שיפתה אתכם
that the algorithm thinks will entice you
מזלזל בכם.
somebody is snubbing you on Facebook.
לא יראה להם את הפוסט שלכם.
be showing your post to them.
וקובר את היתר.
some of them and burying the others.
עשוי להשפיע על רגשותיכם.
can affect your emotions.
על 61 מיליון בני-אדם בארה"ב
on 61 million people in the US
את "היום יום הבחירות,"
"Today is election day,"
the one with that tiny tweak
שהוצג פעם אחת בלבד,
באותן בחירות
כפי שרשימות המצביעים אישרו.
על הניסוי הזה.
they repeated the same experiment.
שהוצג רק פעם אחת,
US presidential election
להסיק מהן דעותיכם הפוליטיות,
very easily infer what your politics are,
disclosed them on the site.
מסוגלים לכך די בקלות.
can do that quite easily.
עם כוח כזה
לצדד בשני?
of one candidate over the other?
seemingly innocuous --
צופים באותו המידע
if we're seeing the same information
the beginning stages of this.
יודעים להסיק בקלות רבה
תכונות אישיות,
personality traits,
שימוש בחומרים ממכרים,
use of addictive substances,
are partially concealed.
לזהות נטיות מיניות
to detect people's sexual orientation
to be 100 percent right,
יעמדו בפיתוי לנצל טכנולוגיות אלה
the temptation to use these technologies
some false positives,
חדש לגמרי של בעיות .
a whole other layer of problems.
יכולה לעשות
שיש לה על אזרחיה.
it has on its citizens.
face detection technology
של עריצות מעקב
of surveillance authoritarianism
להקליק על פרסומות.
Orwell's authoritarianism.
כדי להשליט טרור,
is using overt fear to terrorize us,
אבל נדע מה קורה.
משתמשים באלגוריתמים האלה
are using these algorithms
the troublemakers and the rebels,
מי יהיו עושי הצרות והמורדים,
של שכנוע
architectures at scale
של כל אחד ואחת,
weaknesses and vulnerabilities,
and neighbors are seeing,
will envelop us like a spider's web
כמו קורי עכביש
שאנו לכודים בה.
בתור ארכיטקטורת שכנוע.
as a persuasion architecture.
קלים יותר להשפעת הפרסומות
הפוליטי, האישי והחברתי שלנו,
personal and social information flows,
כי יש בהן המון ערך עבורנו.
because they provide us with great value.
with friends and family around the world.
על קשר עם חברים וקרובים בכל העולם.
social media is for social movements.
של המדיה החברתית בתנועות החברתיות.
these technologies can be used
you know, Facebook or Google
את "פייסבוק" או "גוגל"
להגדיל את הקיטוב בארץ או בעולם
or the world more polarized
המלאות בכוונות טובות
well-intentioned statements
people in technology make that matter,
של אנשי הטכנולוגיה הן שמשנות,
שהם מקימים.
and business models they're building.
בשווי חצי טריליון דולר
of half a trillion dollars
as a persuasion architecture,
הוא מקור לדאגה רבה.
is of great concern.
הטכנולוגיות הדיגיטליות שלנו.
digital technology operates.
technology is developed
הכלכליים והאחרים,
economic and otherwise,
האלגוריתמים הקנייניים,
created by the proprietary algorithms,
שבעמימותה של למידת המכונה,
of machine learning's opacity,
של הנתונים שלנו.
that's being collected about us.
artificial intelligence
by our human values.
on what those terms mean.
מה פירוש התנאים הללו.
depend on for so much operate,
שאנו כה תלויים בהן,
את הדיון הזה.
this conversation anymore.
שהפרסומות מממנות,
שאנו המוצר שנמכר.
that we are the product that's being sold.
לעריץ או לדמגוג המרבה במחיר.
authoritarian or demagogue.
that Hollywood paraphrase,
הפוטנציאל העצום
and digital technology to blossom,
עם הסכנה העצומה הטמונה בהן
this prodigious menace,
ועכשיו.
ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologistTechno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.
Why you should listen
We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.
Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.
Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.
Zeynep Tufekci | Speaker | TED.com