Zeynep Tufekci: We're building a dystopia just to make people click on ads
Зейнеп Тюфекчі: Ми будуємо антиутопію лише для того, щоб люди клікали на рекламу
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread. Full bio
Double-click the English transcript below to play the video.
of artificial intelligence,
щодо штучного інтелекту,
of humanoid robots run amok.
що вийшли з-під контролю.
something to consider,
можна взяти до уваги,
цифрового спостереження,
у списку бестселерів.
for the 21st century.
зображення антиутопії для XXI століття.
will do to us on its own,
will use artificial intelligence
цього зовсім не очікуємо.
and our dignity in the near-term future
під загрозу наші свободу та гідність,
наші дані та нашу увагу
and selling our data and our attention
bolstering their business as well.
їхній діяльності поштовх вперед.
like artificial intelligence
розвитку інтернет-реклами.
of many areas of study and research.
у багатьох дослідних сферах.
a famous Hollywood philosopher,
голлівудського філософа:
comes prodigious risk."
приходить і великий ризик".
of our digital lives, online ads.
цифрового життя — онлайн-рекламу.
of being followed on the web
того, що ми шукали або читали онлайн,
we searched or read.
онлайн пару черевиків,
you around everywhere you go.
за вами, куди б ви не пішли.
they're still following you around.
купуєте їх, вони все одно всюди.
of basic, cheap manipulation.
простої та дешевої маніпуляції.
думаємо: "Знаєте що? Це не працює".
"You know what? These things don't work."
let's think of a physical world example.
приклад з фізичного світу.
at supermarkets, near the cashier,
розкладені на рівні очей дитини?
at the eye level of kids?
whine at their parents
клянчили у батьків солодощі,
are about to sort of check out.
у кожному супермаркеті.
in every supermarket.
are kind of limited,
біля касира. Чи не так?
so many things by the cashier. Right?
it's the same for everyone,
whiny little humans beside them.
маленьких плаксивих чоловічків.
we live with those limitations.
можуть нараховувати мільярди,
can be built at the scale of billions
кожному на телефон,
to everyone's phone private screen,
that artificial intelligence can do.
на яку здатний штучний інтелект.
квитки на літак до Лас-Вегасу.
plane tickets to Vegas. Right?
of some demographics to target
and what you can guess.
a high limit on their credit card,
та машине навчання,
that Facebook has on you:
ви входили в систему,
that you uploaded there.
and change your mind and delete it,
а потім передумали і видалили запис,
and analyzes them, too.
to match you with your offline data.
й ваші оффлайн-дані.
a lot of data from data brokers.
у спеціальних брокерів.
— від фінансових звітів
from your financial records
вашої історії переглядів.
such data is routinely collected,
обробляють та продають
these machine-learning algorithms --
алгоритми машинного навчання —
learning algorithms --
the characteristics of people
характеристики осіб,
на базі зібраної інформації,
її до нових осіб.
how to apply this to new people.
з новим користувачем,
is likely to buy a ticket to Vegas or not.
того, купить він квиток чи ні.
an offer to buy tickets to Vegas.
пропозиція купити квиток до Лас-Вегасу.
how these complex algorithms work.
у складностях роботи цих алгоритмів.
how they're doing this categorization.
thousands of rows and columns,
тисяч рядків та колонок,
how exactly it's operating
what I was thinking right now
ви про те, що я зараз думаю,
перетин мого мозку.
a cross section of my brain.
that we don't truly understand.
який до кінця не розуміємо.
if there's an enormous amount of data,
великих об'ємів даних,
deep surveillance on all of us
постійне спостереження за нами,
algorithms can work.
to collect all the data it can about you.
будь-якій інформації про нас.
that we do not understand
роботи якої ми не розуміємо,
to sell Vegas tickets
з біполярним розладом,
легше змусити купити квитки до Лас-Вегасу?
and about to enter the manic phase.
overspenders, compulsive gamblers.
надлишкових витрат і азартних ігор.
that's what they were picking up on.
і гадки не мали, як вона до цього дійшла.
приклад декільком ІТ-спеціалістам,
to a bunch of computer scientists once
"That's why I couldn't publish it."
"Тому я й не зміг опублікуватися".
figure out the onset of mania
у соцмережах можна ідентифікувати
до появи його клінічних симптомів,
before clinical symptoms,
or what it was picking up on.
та на які саме речі реагувала система.
if he doesn't publish it,
доки його робота не буде опублікована,
this kind of technology,
is just off the shelf.
meaning to watch one video
що ви заходите на YouTube
has this column on the right
that you might be interested in
ви можете бути зацікавлені
and what people like you have watched,
або схожі на вас користувачі,
what you're interested in,
що саме це має вас зацікавити,
хотіли переглянути більше,
and useful feature,
та безпечною функцією,
of then-candidate Donald Trump
зустрічі у рамках
the movement supporting him.
які його підтримують.
so I was studying it, too.
about one of his rallies,
про одну з цих зустрічей,
декілька разів на YouTube.
white supremacist videos
— ще екстремальніше —
or Bernie Sanders content,
Гілларі Клінтон або Берні Сандерса,
and autoplays conspiracy left,
відео про теорії змови лівих,
this is politics, but it's not.
що справа у політиці.
що вираховує людську поведінку.
figuring out human behavior.
about vegetarianism on YouTube
ролик про вегетаріанство,
and autoplayed a video about being vegan.
про те, як стати веганом.
hardcore enough for YouTube.
переглянути якийсь треш.
можна змусити вважати,
щось радикальніше,
show them something more hardcore,
що вони залишаться на сайті,
going down that rabbit hole
рекламою від Google,
the ethics of the store,
anti-Semitic content,
антисемітською позицією
користуватися алгоритмами
зі схожими інтересами,
anti-Semitic content on their profile
та антисемітського контенту,
may be susceptible to such messages,
до такого типу повідомлень,
like an implausible example,
журналістською організацією ProPublica,
do this on Facebook,
offered up suggestions
and very quickly they found,
застосовано і для Google.
spent about 30 dollars
близько 30 доларів
social media manager disclosed
з питань соцмедіа підтвердив
to demobilize people,
відмовити людей від голосування,
they targeted specifically,
обирали певну аудиторію,
у великих містах, таких як Філадельфія.
in key cities like Philadelphia,
exactly what he said.
we want to see it see it.
кому ми хочемо їх показати.
to turn these people out."
вплив на явку виборців".
arranges the posts
Facebook також пропонує пости,
or the pages you follow.
сторінками, на які ви підписані.
у хронологічному порядку,
everything chronologically.
that the algorithm thinks will entice you
somebody is snubbing you on Facebook.
на Facebook вас ігнорує.
be showing your post to them.
показувати ваші пости цій людині.
одних і відкидає інших.
some of them and burying the others.
can affect your emotions.
може впливати на ваші емоції.
вашу політичну поведінку.
on 61 million people in the US
над 61 мільйоном американців,
"Today is election day,"
the one with that tiny tweak
і сказали "Я проголосував".
показаний лише один раз,
340,000 додаткових виборців
they repeated the same experiment.
US presidential election
президентських виборів 2016 року
very easily infer what your politics are,
ваші політичні вподобання,
виражали їх відкрито онлайн.
disclosed them on the site.
багато зусиль не забирають.
can do that quite easily.
платформа, маючи такі можливості,
активність на користь свого кандидата?
of one candidate over the other?
seemingly innocuous --
нейтральної, безпечної території —
слідкує за нами повсюди, —
бачимо таку ж інформацію,
if we're seeing the same information
the beginning stages of this.
вподобання, риси характеру,
personality traits,
use of addictive substances,
вживання наркотичних речовин,
ідентифікувати протестувальників,
are partially concealed.
to detect people's sexual orientation
сексуальну орієнтацію користувача,
основі ймовірних припущень,
to be 100 percent right,
the temptation to use these technologies
відсоток неправдивих результатів
технології значно зменшився, —
some false positives,
a whole other layer of problems.
it has on its citizens.
інформації про своїх громадян.
face detection technology
технологія розпізнавання обличчя
of surveillance authoritarianism
озброєного спостереженням,
Orwell's authoritarianism.
авторитарний устрій, як у Орвелла.
is using overt fear to terrorize us,
неприкритий страх для нашого залякування,
та ми будемо це усвідомлювати,
are using these algorithms
використовують ці алгоритми
до певних дій,
the troublemakers and the rebels,
незгодних та заколотників,
architectures at scale
механізмів переконання
weaknesses and vulnerabilities,
слабкостей та вразливих місць,
приватних девайсів,
and neighbors are seeing,
will envelop us like a spider's web
схопить нас, як павутина,
трильйона доларів.
досконалу систему переконань.
as a persuasion architecture.
не видозмінюється,
personal and social information flows,
приватні та соціальні потоки інформації
because they provide us with great value.
бо вони грають для нас важливу роль.
with friends and family around the world.
з друзями та рідними по всьому світу.
social media is for social movements.
соцмереж для суспільних рухів.
these technologies can be used
таких технологій
you know, Facebook or Google
керівники Facebook чи Google
or the world more polarized
well-intentioned statements
зроблених цими людьми,
people in technology make that matter,
не їхні заяви або наміри,
and business models they're building.
які вони будують.
of half a trillion dollars
вартістю півтрильйона доларів
архітектура переконання,
as a persuasion architecture,
is of great concern.
для серйозного хвилювання.
простий рецепт,
digital technology operates.
цифрових технологій.
technology is developed
economic and otherwise,
чи будь-які інші,
created by the proprietary algorithms,
породжується запатентованими алгоритмами,
що зумовлюються
of machine learning's opacity,
машинного навчання,
that's being collected about us.
що безладно збирається про нас.
наш технічний досвід,
artificial intelligence
здійснення наших людських цілей,
by our human values.
нашими людськими цінностями.
on what those terms mean.
погляди на значення цих речей.
необхідність осмислення
depend on for so much operate,
життєво важливих для нас систем,
this conversation anymore.
відкладати цей діалог.
спонсованих рекламою,
that we are the product that's being sold.
і є тим продуктом, що продається.
не стають об'єктом продажу
authoritarian or demagogue.
який заплатить найбільшу суму.
that Hollywood paraphrase,
голлівудського філософа,
and digital technology to blossom,
this prodigious menace,
бути готові до великої загрози,
ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologistTechno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.
Why you should listen
We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.
Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.
Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.
Zeynep Tufekci | Speaker | TED.com