Zeynep Tufekci: We're building a dystopia just to make people click on ads
Zeynep Tufekci: Disztópiát építünk, csak azért, hogy az emberek reklámokra kattintsanak
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread. Full bio
Double-click the English transcript below to play the video.
of artificial intelligence,
a mesterséges intelligencia miatt,
of humanoid robots run amok.
robotokra gondolnak.
something to consider,
idegeskedünk
for the 21st century.
will do to us on its own,
mit fog tenni magától,
will use artificial intelligence
mire fogják használni ezt,
and our dignity in the near-term future
veszélyezteti a közeljövőben,
and selling our data and our attention
és eladni adatainkat, érdeklődési körünket
bolstering their business as well.
már az ő üzleteiket is erősíti.
like artificial intelligence
az online reklámok után.
of many areas of study and research.
tanulmányait és kutatásait.
a famous Hollywood philosopher,
comes prodigious risk."
hatalmas kockázattal járnak”
of our digital lives, online ads.
alapvetését, az online hirdetéseket.
of being followed on the web
hogy olyan reklám követ minket a weben,
we searched or read.
témájához kötődik.
you around everywhere you go.
bármerre járunk.
they're still following you around.
és megvesszük.
of basic, cheap manipulation.
egyszerű, olcsó manipulációhoz.
"You know what? These things don't work."
„Eh, ez nem működik.”
let's think of a physical world example.
egy példát a fizikai világból.
at supermarkets, near the cashier,
a pénztár közelében
at the eye level of kids?
a gyerekek szemmagasságában?
whine at their parents
sírjanak a szüleiknek,
are about to sort of check out.
in every supermarket.
are kind of limited,
viszonylag korlátozott,
so many things by the cashier. Right?
a pénztárhoz rakni, ugye?
it's the same for everyone,
mindenkinek ugyanolyan,
whiny little humans beside them.
akik mellett kicsi síró alakok állnak.
we live with those limitations.
együtt élünk ezekkel a korlátokkal.
can be built at the scale of billions
milliárdos nagyságrendűek lehetnek,
kiismerhetnek egyéneket,
to everyone's phone private screen,
elküldhetők,
that artificial intelligence can do.
amire a mesterséges intelligencia képes.
plane tickets to Vegas. Right?
Las Vegasba. Jó?
of some demographics to target
és feltételezések alapján
and what you can guess.
a high limit on their credit card,
magas hitelkeret van a kártyájukon,
that Facebook has on you:
amit a Facebook őriz önökről:
begépeltek,
that you uploaded there.
and change your mind and delete it,
aztán meggondolják magukat, és törlik,
and analyzes them, too.
to match you with your offline data.
offline adataikkal.
a lot of data from data brokers.
adatkereskedőktől is.
from your financial records
a pénzügyi nyilvántartásuktól kezdve
such data is routinely collected,
rutinszerűen gyűjtik,
these machine-learning algorithms --
végigfutnak az adatokon –
learning algorithms --
the characteristics of people
how to apply this to new people.
hogyan alkalmazzák új emberekre.
is likely to buy a ticket to Vegas or not.
vesz-e jegyet Vegasba, vagy nem.
an offer to buy tickets to Vegas.
ez egy ajánlat Vegasba.
how these complex algorithms work.
ezek az összetett algoritmusok.
how they're doing this categorization.
thousands of rows and columns,
több ezernyi sor és oszlop,
a pontos működését,
how exactly it's operating
what I was thinking right now
mit gondolok éppen,
a cross section of my brain.
az agyam keresztmetszetét.
that we don't truly understand.
amit nem értünk teljesen.
if there's an enormous amount of data,
ha rengeteg adatunk van,
deep surveillance on all of us
megfigyeljenek mindannyiunkat,
algorithms can work.
a gépi tanulásos algoritmusok.
to collect all the data it can about you.
minden adatot rólunk, amit csak tud.
that we do not understand
to sell Vegas tickets
eladni azoknak,
and about to enter the manic phase.
éppen a mániákus szakaszba lép?
overspenders, compulsive gamblers.
kényszeres szerencsejátékosok.
that's what they were picking up on.
és mi még csak nem is sejtjük.
to a bunch of computer scientists once
mondtam el ezt a példát,
"That's why I couldn't publish it."
„Ezért nem tudom kiadni.”
figure out the onset of mania
megállapítható-e a mánia megjelenése
a klinikai tünetek megjelenése előtt,
before clinical symptoms,
or what it was picking up on.
vagy hogy milyen fogásra akadt.
if he doesn't publish it,
ha nem adja ki a szoftvert,
this kind of technology,
is just off the shelf.
meaning to watch one video
hogy csak egy videót néznek meg,
már a huszonhetediknél tartottak?
has this column on the right
a jobb oldali oszlopot,
that you might be interested in
mi érdekli a látogatót,
and what people like you have watched,
és a hozzánk hasonló látogatók megnézünk,
what you're interested in,
mi az, ami még érdekelhet minket,
and useful feature,
funkciónak hangzik,
of then-candidate Donald Trump
az akkor jelölt Donald Trump gyűlésein,
the movement supporting him.
az őt támogató mozgalmat.
so I was studying it, too.
ezért ezt is tanulmányoztam.
about one of his rallies,
az egyik gyűléséről,
videókat kezdett ajánlgatni
white supremacist videos
or Bernie Sanders content,
Bernie Sandersről nézünk tartalmakat,
and autoplays conspiracy left,
összeesküvés-elméleteket kezd lejátszani,
this is politics, but it's not.
de nem az.
figuring out human behavior.
ami kitalálja az emberi viselkedést.
about vegetarianism on YouTube
a vegetarianizmusról a Youtube-on,
and autoplayed a video about being vegan.
egy videót a vegán életmódról.
hardcore enough for YouTube.
elég kemények a Youtube-nak.
szabadalommal védett,
hogy azt gondolják:
show them something more hardcore,
maradnak az oldalon,
going down that rabbit hole
egyre mélyebbre merülve,
the ethics of the store,
a boltok etikája,
meg tudják találni
anti-Semitic content,
antiszemita tartalmakat tesznek fel,
anti-Semitic content on their profile
antiszemita tartalom a profilján,
may be susceptible to such messages,
hogy fogékonyak lehetnek ilyen üzenetekre,
like an implausible example,
do this on Facebook,
megtehető a Facebookon,
offered up suggestions
javaslatokat is tesz,
and very quickly they found,
és nagyon gyorsan rájöttek,
ugyanez vonatkozik.
spent about 30 dollars
social media manager disclosed
közösségimédia-menedzsere elmondta,
to demobilize people,
igyekeznek otthon tartani az embereket,
they targeted specifically,
állítottak be célcsoportokat,
in key cities like Philadelphia,
Philadelphiában élő afro-amerikaiakat,
exactly what he said.
mit mondott pontosan.
we want to see it see it.
erre célzottan kiválasztunk.
to turn these people out."
a szavazásból való kimaradásra."
arranges the posts
rendezi a bejegyzéseket,
or the pages you follow.
vagy az oldalakat, amiket követünk.
everything chronologically.
that the algorithm thinks will entice you
olyan sorrendbe rendezi,
von maga után.
somebody is snubbing you on Facebook.
mellőz minket a Facebookon.
be showing your post to them.
elrejti előle a bejegyzéseinket.
some of them and burying the others.
a többit eltemeti.
can affect your emotions.
befolyásolhatják az érzelmeinket.
on 61 million people in the US
"Today is election day,"
"Ma vannak a választások",
the one with that tiny tweak
hogy "Szavaztam".
az egyetlen eltérést,
they repeated the same experiment.
ugyanezt a kísérletet.
állampolgári üzenet
US presidential election
amerikai elnökválasztást
very easily infer what your politics are,
politikai vonzódásunkat,
disclosed them on the site.
nyilvánosság elé.
can do that quite easily.
ezzel a típusú hatalommal
of one candidate over the other?
egy másikkal szemben?
seemingly innocuous --
dologgal kezdtünk –
if we're seeing the same information
hogy ugyanazt az információt látjuk,
the beginning stages of this.
csak Facebook like-okból
personality traits,
vallási és politikai nézetei,
use of addictive substances,
boldogsága,
tüntetőket azonosítani
are partially concealed.
részben el van takarva.
to detect people's sexual orientation
szexuális orientációját behatárolni,
to be 100 percent right,
100 százalékosan pontosak,
the temptation to use these technologies
felhasználására irányuló kísértést,
some false positives,
a whole other layer of problems.
problémahegyeket hoz létre.
it has on its citizens.
saját állampolgárairól.
face detection technology
az arcfelismerés technológiáját,
of surveillance authoritarianism
infrastruktúráját építjük
hirdetésekre kattintsanak.
Orwell's authoritarianism.
is using overt fear to terrorize us,
félemlít meg minket,
de tisztában leszünk vele,
are using these algorithms
ezeket az algoritmusokat arra használják,
the troublemakers and the rebels,
a bajkeverőket és a lázadókat,
architectures at scale
széles körben alkalmazzák,
és sebezhetőségeik felhasználásával
weaknesses and vulnerabilities,
and neighbors are seeing,
és a szomszédaink,
will envelop us like a spider's web
mint egy pók hálója,
hogy benne vagyunk.
as a persuasion architecture.
meggyőzési technika.
a hirdetésekkel szemben,
personal and social information flows,
és társadalmi információnk áramlását,
because they provide us with great value.
mert értékesek számunkra.
with friends and family around the world.
barátaimmal és családommal.
social media is for social movements.
média társadalmi mozgalmainkhoz.
these technologies can be used
ezeket a technológiákat arra,
you know, Facebook or Google
a Facebookot vagy a Google-t irányítják,
megpróbálják
or the world more polarized
az országot vagy a világot,
well-intentioned statements
people in technology make that matter,
dolgozók kijelentései számítanak,
and business models they're building.
amiket építenek.
of half a trillion dollars
félbillió dolláros cég,
as a persuasion architecture,
is of great concern.
aggodalomra ad okot.
egyszerű receptet ajánlani,
digital technology operates.
egész működését.
technology is developed
economic and otherwise,
created by the proprietary algorithms,
átláthatóságának hiányával,
of machine learning's opacity,
szerkezeti kihívásaival,
that's being collected about us.
gyűjtött összes adattal.
artificial intelligence
intelligenciát építsünk,
by our human values.
on what those terms mean.
hogy mit jelentenek ezek a feltételek.
depend on for so much operate,
működésétől annyira függünk,
this conversation anymore.
ezt a megbeszélést.
that we are the product that's being sold.
hogy mi vagyunk az eladott termék.
authoritarian or demagogue.
önkényúrnak vagy demagógnak.
that Hollywood paraphrase,
és a digitális technológia virágzásának
and digital technology to blossom,
this prodigious menace,
az óriási fenyegetéssel,
ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologistTechno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.
Why you should listen
We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.
Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.
Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.
Zeynep Tufekci | Speaker | TED.com