Zeynep Tufekci: We're building a dystopia just to make people click on ads
제이넵 투펙치(Zeynep Tufekci): 광고를 팔기 위해 우리는 지옥을 만들고 있습니다
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread. Full bio
Double-click the English transcript below to play the video.
of artificial intelligence,
걱정을 할 때마다
of humanoid robots run amok.
로봇이 생각납니다.
something to consider,
이야기라 할 수 있습니다.
우려가 큽니다.
for the 21st century.
세상은 아닌 것은 사실입니다.
will do to us on its own,
어떤 일을 할 수 있을까가 아닌
어떻게 사용할 것인가입니다.
will use artificial intelligence
우리를 통제하고 조종하려 할 것입니다.
and our dignity in the near-term future
존엄성을 침해할 수 있지만
and selling our data and our attention
판매하는 회사들이 시스템을 개발하고 있습니다.
이바지를 하고 있습니다.
bolstering their business as well.
like artificial intelligence
뛰어넘는 분야입니다.
이해속도를 가속할 수도 있습니다.
of many areas of study and research.
a famous Hollywood philosopher,
철학자의 말을 조금 인용해 말씀드리면
comes prodigious risk."
천재적인 위험도를 수반한다."
of our digital lives, online ads.
인터넷 광고의 기본을 살펴보겠습니다.
매체라고 생각하는 듯합니다.
of being followed on the web
계속 따라다니는 현상을 발견합니다.
we searched or read.
광고에서 나온 광고가 원인입니다.
you around everywhere you go.
검색하든 내 주변을 어슬렁거립니다.
they're still following you around.
접착제처럼 붙어서 따라다닙니다.
of basic, cheap manipulation.
되어가고 있는 현실입니다.
"You know what? These things don't work."
"설마 이런 기술이 있을까" 합니다.
안 되는 것이 없죠.
존재하는 공간이 아닙니다.
let's think of a physical world example.
물리적 세상을 이해해야 합니다.
at supermarkets, near the cashier,
계산원 바로 옆을 생각해 보세요.
at the eye level of kids?
눈높이에 맞게 전시되어 있을 겁니다.
whine at their parents
조르라는 마케팅 방법의 하나죠.
are about to sort of check out.
조르면 다 사 주는 심리를 이용합니다.
그래도 꽤 효과적입니다.
in every supermarket.
껌과 사탕류를 전시해 놓고 있습니다.
are kind of limited,
제한적입니다.
so many things by the cashier. Right?
계산원 옆에 쌓아만 둘 겁니다.
it's the same for everyone,
다 똑같은 하나의 물건일 뿐입니다.
whiny little humans beside them.
한정될 뿐이기 때문입니다.
we live with those limitations.
불완전한 세상을 살고 있습니다.
can be built at the scale of billions
to everyone's phone private screen,
that artificial intelligence can do.
하나일 뿐입니다.
싶은 때가 있다고 하겠습니다.
plane tickets to Vegas. Right?
of some demographics to target
선정하셔야 했습니다.
and what you can guess.
낸 결과를 기초로 해서 말이죠.
35세 사이의 남성이거나
a high limit on their credit card,
사람들을 대상으로 하거나 말입니다.
목표로 할 수 있습니다.
that Facebook has on you:
자료의 양을 상상해 보십시오.
that you uploaded there.
and change your mind and delete it,
마음이 바뀌어 삭제한다 해도
and analyzes them, too.
보관하고 분석합니다.
to match you with your offline data.
오프라인의 여러분을 일치시킬 겁니다.
a lot of data from data brokers.
많은 정보를 사들이고 있습니다.
from your financial records
다양한 것이 포함됩니다.
such data is routinely collected,
일상적으로 수집되고 있습니다.
적용하고 있습니다.
these machine-learning algorithms --
기계 학습 알고리즘이 일어납니다.
learning algorithms --
부르는 이유가 여기에 있습니다.
분석하기 위해 학습하거나
the characteristics of people
구매한 사람들을 분석하는 거죠.
how to apply this to new people.
방법을 학습하게 됩니다.
새로운 사람에게 전달됐을 때
is likely to buy a ticket to Vegas or not.
가능성에 따라 분류가 됩니다.
an offer to buy tickets to Vegas.
비행기 표를 제안받았다고 해보죠.
how these complex algorithms work.
일을 하는가를 모른다는 것입니다.
how they're doing this categorization.
우리가 아는 것이 없습니다.
thousands of rows and columns,
이루어져 있습니다.
짜여 있을 수도 있겠죠.
데이터를 가지고 있어도
how exactly it's operating
정확한 이해가 불가능하다는 점과
what I was thinking right now
추측하시는 이상의 정보는 알 수 없습니다.
a cross section of my brain.
보신다 해도 말이죠.
불가능한 것과 같습니다.
that we don't truly understand.
지능을 생성하고 있습니다.
if there's an enormous amount of data,
있을 때만 사용 가능할 겁니다.
deep surveillance on all of us
일거수 일투족을 감시하게 됩니다.
algorithms can work.
사용하기 위해서입니다.
to collect all the data it can about you.
데이터를 최대한 많이 모으고 있습니다.
알고리즘의 효율은 높아집니다.
좀 더 발전시켜 보겠습니다.
that we do not understand
아직 조울증을 앓는 소비자들에게
to sell Vegas tickets
and about to enter the manic phase.
overspenders, compulsive gamblers.
충동구매를 할 가능성이 큽니다.
that's what they were picking up on.
그 구매이유를 알 수는 없습니다.
to a bunch of computer scientists once
전문가들에게 몇 번 보냈는데
"That's why I couldn't publish it."
출판을 할 수가 없다고 말하더군요.
되물어야 했습니다.
figure out the onset of mania
병리학적 증상 이전에
before clinical symptoms,
점을 밝히고자 노력했으며
or what it was picking up on.
무엇을 선택하는가에 대한 이유는 몰랐습니다.
if he doesn't publish it,
해결될 문제는 아닙니다.
this kind of technology,
is just off the shelf.
meaning to watch one video
유튜브에 들어갔다가
영상을 본 적이 있으신가요?
has this column on the right
that you might be interested in
and what people like you have watched,
보신 것 중에서 좋아하는 것을 선별해
what you're interested in,
and useful feature,
유용한 장치처럼 들립니다.
of then-candidate Donald Trump
도널드 트럼프 대통령을 지지하는
the movement supporting him.
so I was studying it, too.
연구 중이었습니다.
about one of his rallies,
논문을 쓰고 싶었습니다.
추천 영상이 올라오더군요.
white supremacist videos
영상이 자동재생되었고요.
엄청난 양으로 늘어나면서
or Bernie Sanders content,
버니 샌더스의 영상을 보신다면
and autoplays conspiracy left,
추천하고 남아있는 음모론을 틀어줄 겁니다.
this is politics, but it's not.
떠올리시겠지만, 그렇지 않습니다.
figuring out human behavior.
알고리듬의 이야기입니다.
about vegetarianism on YouTube
영상을 유튜브로 봤습니다.
and autoplayed a video about being vegan.
추천하고 자동 재생을 했습니다.
hardcore enough for YouTube.
철저한 채식주의자로 분석한 겁니다.
원리를 말하고 있을 뿐입니다.
더 자극적인 것을 보여줄 수 있다는
show them something more hardcore,
머무를 것이라고 분석합니다.
going down that rabbit hole
끝없는 영상의 나라로 들어가게 되고
광고를 노출하게 됩니다.
the ethics of the store,
신경 쓰지 않는 가운데
anti-Semitic content,
가진 사람들을 가려내고
광고를 실어 전파시킵니다.
퍼뜨릴 수도 있습니다.
사람들을 찾아내기 위해서죠.
anti-Semitic content on their profile
영상물이 없는 사람들이지만
may be susceptible to such messages,
그런 메시지에 취약하게 됩니다.
희생물로 사용하게 됩니다.
like an implausible example,
들릴 수도 있을텐데요.
do this on Facebook,
광고를 하신다는 것을 발견했습니다.
offered up suggestions
가능성 있는 제안을 하고 있습니다.
늘리는 방법 등을 제시하죠.
and very quickly they found,
바로 파악을 할 수 있었습니다.
spent about 30 dollars
약 30달러를 사용해서
social media manager disclosed
소셜미디어 매니저가 폭로했는데요.
to demobilize people,
게시판을 운영해 사람들을 묶어두고
they targeted specifically,
구체적으로 필라델피아와 같은
in key cities like Philadelphia,
목표로 삼아 활동했습니다.
exactly what he said.
진술을 그대로 읽어 보겠습니다.
we want to see it see it.
사람들만 볼 수 있도록 관리했습니다."
to turn these people out."
그녀의 능력에 엄청나게 영향을 미쳤습니다.
말해주지 않을 겁니다.
arranges the posts
게시판을 여러분의 친구가
or the pages you follow.
페이지를 알고리즘화해서 배열하고 있습니다.
everything chronologically.
보여주지 않습니다.
that the algorithm thinks will entice you
여러분을 더 오래 사이트에 머무르게
게시물의 순서를 정합니다.
somebody is snubbing you on Facebook.
거부하고 있다고 생각할 수도 있습니다.
be showing your post to them.
게시물을 보여주지 않을 수 있습니다.
some of them and burying the others.
나머지는 묻어 버립니다.
can affect your emotions.
여러분에게 영향을 줄 수 있습니다.
영향을 미칠 수 있습니다.
on 61 million people in the US
"Today is election day,"
라는 글을 보여 주었습니다.
the one with that tiny tweak
they repeated the same experiment.
실험을 했기 때문입니다.
투표를 만들었습니다.
US presidential election
very easily infer what your politics are,
정치관도 아주 쉽게 추론할 수 있습니다.
disclosed them on the site.
올린 적이 없는데도 말입니다.
can do that quite easily.
꽤 쉽게 수행합니다.
네트워크가 한 후보자를
of one candidate over the other?
만든다면 어떻게 될까요?
알 수가 있을까요?
seemingly innocuous --
주지 않는 한 사이트의
if we're seeing the same information
같은 내용의 정보를 보고 있는지
더는 알 수가 없게 되고
the beginning stages of this.
그 직전의 단계에 있습니다.
personality traits,
use of addictive substances,
알 수가 있습니다.
정체를 분별할 수 있는데
are partially concealed.
가린다 해도 알 수가 있습니다.
to detect people's sexual orientation
가지고도 사람들의 성적 취향을
to be 100 percent right,
the temptation to use these technologies
존재한다는 이유만으로 이 기술의
some false positives,
집단을 보지 못했습니다.
a whole other layer of problems.
문제들을 야기할 수 있어도 말입니다.
대한 엄청난 정보를 가지고
it has on its citizens.
face detection technology
이용하고 있습니다.
of surveillance authoritarianism
광고를 클릭하게 할려고
시스템을 만들고 있습니다.
Orwell's authoritarianism.
is using overt fear to terrorize us,
위해 부당한 위협을 사용하고 있다면
are using these algorithms
이런 알고리즘을 사용해
the troublemakers and the rebels,
예상한 뒤 정체를 파악할 수 있는
architectures at scale
구축하는 일이 가능해집니다.
weaknesses and vulnerabilities,
조정할 수도 있습니다.
이러한 시스템을 이용해
and neighbors are seeing,
현실을 우리는 모를 수도 있습니다.
will envelop us like a spider's web
거미줄처럼 우리을 묶어서
사실도 모르게 할 수 있습니다.
as a persuasion architecture.
작동을 하고 있기 때문입니다.
구분을 못 한다는 것입니다.
차이는 구분할 수 없습니다.
숨통을 열어주는 기능으로 작용해
personal and social information flows,
흐름을 구성하게 합니다.
생각하지 마시기 바랍니다.
because they provide us with great value.
그들이 엄청난 가치를 제공하기 때문입니다.
with friends and family around the world.
연락하기 위해서 페이스북을 사용하고 있습니다.
social media is for social movements.
중요한가에 대한 논문을 쓰기도 했습니다.
these technologies can be used
방법을 찾고자 이 소셜미디어의
you know, Facebook or Google
or the world more polarized
well-intentioned statements
그럴듯하게 말로 수식된
people in technology make that matter,
단순한 성명서나 의도 따위가 아닌
and business models they're building.
of half a trillion dollars
달하는 거대기업이지만
as a persuasion architecture,
is of great concern.
무엇을 할 수 있을까요?
전체 구조를 다시 짜야 하기 때문입니다.
digital technology operates.
technology is developed
economic and otherwise,
created by the proprietary algorithms,
투명성의 결여와
of machine learning's opacity,
구조적 도전이며
that's being collected about us.
대항하는 것입니다.
artificial intelligence
by our human values.
on what those terms mean.
쉽게 동의하지 못할 수 있습니다.
depend on for so much operate,
어떻게 일을 하는지 생각해 본다면
this conversation anymore.
피하려 하는지 이해할 수 없습니다.
할 수 없는 것들을 구분합니다.
운영되는 많은 플랫폼들은
that we are the product that's being sold.
상품이라는 말과 다르지 않습니다.
authoritarian or demagogue.
사람들에게 거래가 되지 않은 세상을 꿈꿉니다.
that Hollywood paraphrase,
바꿔서 인용하겠습니다.
and digital technology to blossom,
꽃 피기를 기대리지만
this prodigious menace,
위험에 맞서야 하고
ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologistTechno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.
Why you should listen
We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.
Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.
Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.
Zeynep Tufekci | Speaker | TED.com