Zeynep Tufekci: We're building a dystopia just to make people click on ads
Зейнеп Тюфекчи: Мы строим антиутопию лишь для того, чтобы люди кликали на рекламу
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread. Full bio
Double-click the English transcript below to play the video.
of artificial intelligence,
касательно искусственного интеллекта,
of humanoid robots run amok.
роботов, ставших неуправляемыми.
something to consider,
по поводу цифровой слежки
for the 21st century.
не подходит для XXI века.
will do to us on its own,
искусственный интеллект самостоятельно,
will use artificial intelligence
будут его использовать
and our dignity in the near-term future
уже в обозримом будущем,
and selling our data and our attention
и продажи наших сведений и интересов
bolstering their business as well.
способствовать укреплению их бизнеса.
like artificial intelligence
что искусственный интеллект —
of many areas of study and research.
многих сфер изучения и исследования.
a famous Hollywood philosopher,
знаменитого голливудского философа:
comes prodigious risk."
приходит огромный риск».
of our digital lives, online ads.
из наших цифровых жизней, онлайн-рекламу.
of being followed on the web
we searched or read.
что мы искали или прочли.
you around everywhere you go.
они следуют за вами повсюду.
they're still following you around.
они всё ещё преследуют вас.
of basic, cheap manipulation.
простой, дешёвой манипуляции.
"You know what? These things don't work."
«Знаете что? Эти штуки не работают».
let's think of a physical world example.
представим пример из реального мира.
at supermarkets, near the cashier,
в супермаркетах, около кассира,
at the eye level of kids?
лежат на зрительном уровне детей?
whine at their parents
упрашивая своих родителей,
are about to sort of check out.
in every supermarket.
в каждом супермаркете.
are kind of limited,
вроде как ограничены,
so many things by the cashier. Right?
разместить возле кассира, конечен. Верно?
it's the same for everyone,
их одинаково покупают все,
whiny little humans beside them.
маленьких хныкающих человечков.
we live with those limitations.
с такими ограничениями.
can be built at the scale of billions
выстроены в масштабе миллиардов,
оценивать, понимать
to everyone's phone private screen,
на телефон в частном порядке,
that artificial intelligence can do.
на что способен искусственный интеллект.
plane tickets to Vegas. Right?
на самолёт до Вегаса. Так?
of some demographics to target
о сборе демографических данных,
and what you can guess.
и ваших предположениях.
a high limit on their credit card,
по кредитной карте,
that Facebook has on you:
что хранит о вас Фейсбук:
that you uploaded there.
что были вами туда загружены.
and change your mind and delete it,
передумали и удалили,
and analyzes them, too.
to match you with your offline data.
с вашими данными офлайн.
a lot of data from data brokers.
информации от брокеров данных.
from your financial records
от ваших финансовых ведомостей
such data is routinely collected,
собирается в рутинном порядке,
these machine-learning algorithms --
эти машинно-обучаемые алгоритмы —
learning algorithms --
алгоритмами обучения —
the characteristics of people
how to apply this to new people.
как применить это к новым клиентам.
с новым для них человеком,
is likely to buy a ticket to Vegas or not.
приобретать билет до Вегаса или нет.
an offer to buy tickets to Vegas.
предложение купить билет до Вегаса.
how these complex algorithms work.
как работают эти комплексные алгоритмы.
how they're doing this categorization.
занимаются этой категоризацией.
thousands of rows and columns,
тысячи строк и столбцов,
how exactly it's operating
всё это работает.
what I was thinking right now
о чём я думаю в данный момент,
a cross section of my brain.
программированием,
that we don't truly understand.
мы не понимаем полностью.
if there's an enormous amount of data,
доступа к громадному объёму информации,
deep surveillance on all of us
слежке за каждым из нас,
algorithms can work.
алгоритмы действовали.
to collect all the data it can about you.
любую возможную информацию о вас.
к тому примеру с Вегасом.
that we do not understand
мы полностью не понимаем,
to sell Vegas tickets
что продать билет до Вегаса легче
and about to enter the manic phase.
вот-вот перейти в маниакальную фазу.
overspenders, compulsive gamblers.
транжирами, заядлыми игроками.
that's what they were picking up on.
что это то, ради чего вёлся сбор данных.
to a bunch of computer scientists once
специалистов в области информатики,
"That's why I couldn't publish it."
«Вот почему я не смог опубликовать это».
figure out the onset of mania
можно выявить формирование мании
before clinical symptoms,
до проявления клинических симптомов,
or what it was picking up on.
работало или на чём основывалось.
if he doesn't publish it,
проблема не будет решена,
this kind of technology,
is just off the shelf.
meaning to watch one video
собираясь посмотреть одно видео,
has this column on the right
эта колонка справа,
that you might be interested in
чем вы можете заинтересоваться
and what people like you have watched,
и что посмотрели люди, подобные вам,
what you're interested in,
то, что вас интересует,
and useful feature,
of then-candidate Donald Trump
тогда ещё кандидата Дональда Трампа
the movement supporting him.
so I was studying it, too.
поэтому изучала также и это.
about one of his rallies,
об одном из его собраний,
white supremacist videos
на тему превосходства белых людей
ещё более экстремальный
or Bernie Sanders content,
с Хилари Клинтон или Берни Сандерсом,
and autoplays conspiracy left,
видео на тему заговора левых,
this is politics, but it's not.
что это политика, но это не так.
figuring out human behavior.
человеческое поведение.
about vegetarianism on YouTube
ролик о вегетарианстве,
and autoplayed a video about being vegan.
видео о том, каково быть веганом.
hardcore enough for YouTube.
достаточно радикальны для YouTube.
как всё происходит.
show them something more hardcore,
показать им нечто более жёсткое,
останутся на сайте,
going down that rabbit hole
спускаясь в эту кроличью нору,
the ethics of the store,
против «коммерческой» этики,
anti-Semitic content,
антисемитский контент,
разделяющей ваши взгляды,
anti-Semitic content on their profile
антисемитского контента в профиле,
may be susceptible to such messages,
восприимчив к такого рода сообщениям,
like an implausible example,
как неправдоподобный пример,
do this on Facebook,
можете делать это в Facebook,
offered up suggestions
and very quickly they found,
и очень быстро они выяснили,
spent about 30 dollars
около 30 долларов
social media manager disclosed
из штаба Дональда Трампа раскрыл,
to demobilize people,
в Facebook для демобилизации людей,
не голосовать вовсе.
they targeted specifically,
они особенно нацелились,
in key cities like Philadelphia,
в ключевых городах типа Филадельфии,
exactly what he said.
именно то, что он сказал.
кампании контролируется,
we want to see it see it.
которые нам требуются.
to turn these people out."
вернуть этих людей на свою сторону».
arranges the posts
располагает посты,
or the pages you follow.
или странички, на которые вы подписаны.
everything chronologically.
that the algorithm thinks will entice you
по расчётам алгоритма, можно увлечь вас,
somebody is snubbing you on Facebook.
что кто-то игнорирует вас в Facebook.
be showing your post to them.
даже и не показывал им ваш пост.
some of them and burying the others.
некоторым из них и прячет другие.
can affect your emotions.
показа вам, может влиять на ваши эмоции.
на политическое поведение.
on 61 million people in the US
над 61 млн человек в США,
"Today is election day,"
«Сегодня день выборов»,
the one with that tiny tweak
с крошечным изменением,
на кнопку «Я проголосовал».
были единственной разницей,
340 000 избирателей
списками избирателей.
they repeated the same experiment.
тот же эксперимент.
показанный лишь раз,
US presidential election
президента США в 2016-м
very easily infer what your politics are,
вычислить ваши политические взгляды,
disclosed them on the site.
не раскрывали их на сайте.
can do that quite easily.
могут делать это очень легко.
of one candidate over the other?
больше сторонников одного кандидата?
seemingly innocuous --
казалось бы, безобидного —
if we're seeing the same information
одну и ту же информацию,
the beginning stages of this.
personality traits,
взгляды, личность,
use of addictive substances,
наркозависимость,
вычислить протестующих,
are partially concealed.
to detect people's sexual orientation
определить сексуальную ориентацию людей
в профиле знакомств.
to be 100 percent right,
будут на 100% верны,
the temptation to use these technologies
искушению использовать эти технологии
ложноположительные результаты,
some false positives,
a whole other layer of problems.
создадут целый ряд проблем.
it has on its citizens.
у него на собственных жителей.
face detection technology
технология опознавания лиц
of surveillance authoritarianism
авторитарного наблюдения,
кликать на рекламу.
Orwell's authoritarianism.
is using overt fear to terrorize us,
страх, чтобы терроризировать нас,
но мы будем знать об этом,
и будем сопротивляться.
are using these algorithms
используют эти алгоритмы,
the troublemakers and the rebels,
нарушителей порядка и бунтарей,
architectures at scale
архитектуру убеждения
людьми по одиночке,
weaknesses and vulnerabilities,
уникальные слабости и уязвимости,
and neighbors are seeing,
will envelop us like a spider's web
словно паучья сеть,
что мы уже в ней.
в полтриллиона долларов.
as a persuasion architecture.
как архитектура убеждения.
personal and social information flows,
личные и социально-информационные потоки,
because they provide us with great value.
потому что они очень ценны для нас.
with friends and family around the world.
на связи с друзьями и семьёй повсюду.
social media is for social movements.
для социальных движений.
these technologies can be used
могут быть использованы,
you know, Facebook or Google
скажем, Facebook или Google,
or the world more polarized
более поляризованными
well-intentioned statements
people in technology make that matter,
людей в области технологий,
and business models they're building.
которые они создают.
of half a trillion dollars
стоимостью в полтриллиона долларов,
as a persuasion architecture,
is of great concern.
поводом для большого беспокойства.
предложить простой способ,
digital technology operates.
наши цифровые технологии.
technology is developed
economic and otherwise,
экономические и иные,
и попытаться справиться
created by the proprietary algorithms,
образованным собственными алгоритмами,
of machine learning's opacity,
процесса машинного обучения,
that's being collected about us.
которые бессистемно собираются о нас.
artificial intelligence
искусственный интеллект,
в наших человеческих целях,
by our human values.
нашими человеческими ценностями.
on what those terms mean.
с тем, что значат эти термины.
depend on for so much operate,
мы так сильно зависим, функционируют,
this conversation anymore.
откладывать этот разговор.
финансируемых рекламой,
that we are the product that's being sold.
что продаваемый продукт — это мы.
authoritarian or demagogue.
предложившему наибольшую цену.
that Hollywood paraphrase,
голливудскому парафразу,
and digital technology to blossom,
и расцвета цифровых технологий,
this prodigious menace,
эту огромную угрозу
ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologistTechno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.
Why you should listen
We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.
Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.
Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.
Zeynep Tufekci | Speaker | TED.com