Zeynep Tufekci: We're building a dystopia just to make people click on ads
Zeynep Tufekci: Stiamo costruendo una distopia, solo per far cliccare la gente sulle pubblicità
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread. Full bio
Double-click the English transcript below to play the video.
of artificial intelligence,
legate all'intelligenza artificiale,
of humanoid robots run amok.
di robot umanoidi usciti fuori controllo.
something to consider,
da considerare,
per il controllo digitale
for the 21st century.
da applicare al 21esimo secolo.
will do to us on its own,
possa fare di per sé,
will use artificial intelligence
potranno utilizzarla
and our dignity in the near-term future
e dignità nel futuro imminente
and selling our data and our attention
e rivendendo i nostri dati e attenzione
bolstering their business as well.
a rafforzare il loro business.
like artificial intelligence
che l'intelligenza artificiale
alla pubblicità online.
of many areas of study and research.
in molte aree di studio e di ricerca.
a famous Hollywood philosopher,
un famoso filosofo di Hollywood,
comes prodigious risk."
derivano grandi rischi"
of our digital lives, online ads.
delle nostre vite digitali, la pubblicità.
of being followed on the web
di essere inseguiti sul web
we searched or read.
che abbiamo cercato o letto.
you around everywhere you go.
dovunque andiate.
they're still following you around.
continueranno a seguirvi ancora.
of basic, cheap manipulation.
di manipolazione grossolana.
"You know what? These things don't work."
"Sai? Queste cose non funzionano."
non sono solo pubblicità.
let's think of a physical world example.
prendiamo un esempio del mondo fisico.
at supermarkets, near the cashier,
proprio vicino alle casse
at the eye level of kids?
ad altezza occhi di bambino?
whine at their parents
per farli piagnucolare
are about to sort of check out.
stanno per pagare alla cassa.
in every supermarket.
in tutti i supermarket.
are kind of limited,
sono un po' limitate,
so many things by the cashier. Right?
fino a un certo punto l'angolo della cassa.
it's the same for everyone,
sono uguali per tutti,
whiny little humans beside them.
piccoli bimbi frignanti accanto.
we live with those limitations.
viviamo con queste limitazioni.
can be built at the scale of billions
possono essere costruite
to everyone's phone private screen,
sugli schermi privati dei nostri telefoni,
that artificial intelligence can do.
che l'intelligenza artificiale può fare.
plane tickets to Vegas. Right?
voli verso Las Vegas, ok?
of some demographics to target
a un target demografico da colpire
and what you can guess.
e su alcune supposizioni.
a high limit on their credit card,
nelle carte di credito
that Facebook has on you:
che Facebook ha su di voi:
that you uploaded there.
and change your mind and delete it,
e poi ci ripensate e cancellate,
and analyzes them, too.
e analizza anche quello.
to match you with your offline data.
con i vostri dati offline.
a lot of data from data brokers.
da altri fornitori esterni.
from your financial records
come movimenti finanziari
che avete visitato.
such data is routinely collected,
vengono raccolti con regolarità,
these machine-learning algorithms --
gli algoritmi "machine learning"
learning algorithms --
algoritmi di "apprendimento"
the characteristics of people
le caratteristiche della gente
biglietti per Las Vegas
how to apply this to new people.
a nuove persone.
un nuovo soggetto
is likely to buy a ticket to Vegas or not.
o meno un biglietto per Las Vegas
an offer to buy tickets to Vegas.
un'offerta su un volo per Las Vegas.
how these complex algorithms work.
come funzionano questi algoritmi complessi
how they're doing this categorization.
come facciano questa categorizzazione.
thousands of rows and columns,
con migliaia di righe e colonne,
how exactly it's operating
come stia funzionando esattamente
what I was thinking right now
a cosa sto pensando ora
a cross section of my brain.
una sezione del mio cervello.
that we don't truly understand.
che non riusciamo a capire davvero.
if there's an enormous amount of data,
solo attraverso un'enorme quantità di dati,
deep surveillance on all of us
un controllo approfondito su tutti noi
algorithms can work.
di apprendimento
to collect all the data it can about you.
tutti i vostri dati.
l'esempio di Las Vegas.
that we do not understand
che non riusciamo a comprendere
to sell Vegas tickets
vendere biglietti per Las Vegas
and about to enter the manic phase.
di entrare nella fase maniacale.
overspenders, compulsive gamblers.
e a diventare scommettitori compulsivi.
that's what they were picking up on.
e nessuno potrebbe mai saperlo.
to a bunch of computer scientists once
a un gruppo di ingegneri, una volta
"That's why I couldn't publish it."
"ecco perché non posso pubblicarlo"
figure out the onset of mania
comprendere uno stato maniacale
before clinical symptoms,
prima dei sintomi clinici,
or what it was picking up on.
e cosa stesse pescando.
if he doesn't publish it,
se lui non pubblica il software,
this kind of technology,
questo tipo di tecnologia,
is just off the shelf.
meaning to watch one video
con l'idea di guardare un video
has this column on the right
sulla destra
that you might be interested in
possa interessarvi
and what people like you have watched,
e le persone simili a voi
what you're interested in,
che potrebbe interessarvi,
and useful feature,
innocua e utile
of then-candidate Donald Trump
dell'allora candidato Donald Trump
the movement supporting him.
il movimento che lo supportava.
so I was studying it, too.
così studiavo anche quello.
about one of his rallies,
su uno di quei raduni,
white supremacist videos
sui suprematisti bianchi
or Bernie Sanders content,
o di Bernie Sanders
and autoplays conspiracy left,
video cospirazionisti di sinistra,
this is politics, but it's not.
questa è politica. Ma non lo è.
figuring out human behavior.
che ha compreso la natura umana.
about vegetarianism on YouTube
sul vegetarianismo su YouTube
and autoplayed a video about being vegan.
sull'essere vegani.
hardcore enough for YouTube.
per YouTube
è proprietario
show them something more hardcore,
qualcosa di ancora più spinto,
con maggiore probabilità
going down that rabbit hole
scendendo giù nella tana del coniglio
the ethics of the store,
dei risvolti etici,
anti-Semitic content,
così espliciti,
per le pubblicità.
gruppi di utenti simili,
anti-Semitic content on their profile
contenuti antisemiti così espliciti
may be susceptible to such messages,
come sensibile a questo tipo di messaggi,
like an implausible example,
un esempio poco plausibile,
do this on Facebook,
su Facebook
offered up suggestions
ha dato suggerimenti
and very quickly they found,
e ha subito scoperto
spent about 30 dollars
ha speso circa 30 dollari
social media manager disclosed
ha rivelato che l'anno scorso
to demobilize people,
di Facebook per smobilitare la gente,
they targeted specifically,
hanno preso come target specifico
in key cities like Philadelphia,
in città chiave come Philadelphia
exactly what he said.
esattamente quello che ha detto.
nella campagna
we want to see it see it.
che noi vogliamo che veda, vedrà.
to turn these people out."
la capacità di spegnere queste persone."
arranges the posts
dispone i post
or the pages you follow.
pubblicano.
everything chronologically.
in ordine cronologico.
that the algorithm thinks will entice you
che vi inducano
somebody is snubbing you on Facebook.
vi stia ignorando su Facebook.
be showing your post to them.
i vostri post.
some of them and burying the others.
e seppellisce gli altri.
can affect your emotions.
può influenzare le vostre emozioni.
il comportamento politico.
durante le elezioni di metà mandato,
on 61 million people in the US
su 61 milioni di americani
"Today is election day,"
"Oggi è il giorno delle elezioni",
the one with that tiny tweak
quella con una piccola variazione
su "Ho votato".
dalle liste degli elettori.
they repeated the same experiment.
hanno ripetuto lo stesso esperimento.
una sola volta
US presidential election
le elezioni presidenziali negli USA
very easily infer what your politics are,
le vostre inclinazioni politiche
disclosed them on the site.
esposte esplicitamente.
can do that quite easily.
possono farlo facilmente.
con questo tipo di potere
of one candidate over the other?
di un candidato in favore dell'altro?
seemingly innocuous --
che sembrava innocuo -
if we're seeing the same information
se stiamo guardando le stesse informazioni
sta diventando impossibile,
the beginning stages of this.
di tutto questo.
possono facilmente dedurre
personality traits,
la personalità
use of addictive substances,
l'uso di sostanze che danno dipendenza
l'età e i sessi,
i manifestanti
are partially concealed.
sono parzialmente nascoste.
to detect people's sexual orientation
di capire l'orientamento sessuale
nei siti d'incontri.
deduzioni probabilistiche,
to be 100 percent right,
del 100 per cento
the temptation to use these technologies
alla tentazione di usare queste tecnologie
some false positives,
qualche falso positivo,
a whole other layer of problems.
serie di problemi.
it has on its citizens.
che possiede sui propri cittadini.
face detection technology
tecnologie di riconoscimento facciale
of surveillance authoritarianism
di controllo autoritario
Orwell's authoritarianism.
alla Orwell.
is using overt fear to terrorize us,
meccanismi del terrore per spaventarci,
are using these algorithms
usano questo algoritmi
the troublemakers and the rebels,
i piantagrane e i ribelli,
architectures at scale
della persuasione su larga scala
weaknesses and vulnerabilities,
e vulnerabilità individuali,
and neighbors are seeing,
e vicini stanno vedendo,
will envelop us like a spider's web
ci avvolgerà come tela di ragno
il mezzo trilione di dollari.
as a persuasion architecture.
come architettura persuasiva.
che vengono scatenati su di noi
alle pubblicità
personal and social information flows,
politica, personale e sociale
because they provide us with great value.
perché ci forniscono grande valore.
with friends and family around the world.
amici e familiari in tutto il mondo.
social media is for social movements.
i social media per i movimenti sociali.
these technologies can be used
possono essere utilizzate
you know, Facebook or Google
Facebook e Google
e deliberatamente tentando
or the world more polarized
più polarizzati
well-intentioned statements
di buone intenzioni
people in technology make that matter,
di costoro a fare differenza,
and business models they're building.
che costoro stanno costruendo.
of half a trillion dollars
da mezzo trilione di dollari
as a persuasion architecture,
come un'architettura persuasiva
is of great concern.
è fonte di grande preoccupazione.
Non posso offrire una ricetta semplice,
per intero
digital technology operates.
la tecnologia digitale.
technology is developed
viene sviluppata
economic and otherwise,
economici o di altro tipo,
created by the proprietary algorithms,
creata dagli algoritmi proprietari,
of machine learning's opacity,
dell'opacità del "machine learning",
that's being collected about us.
che vengono raccolti indiscriminatamente.
la nostra tecnologia,
artificial intelligence
un'intelligenza artificiale
negli obiettivi umani
by our human values.
dai nostri valori umani.
on what those terms mean.
sul significato di questi termini.
depend on for so much operate,
da cui dipendiamo così tanto,
this conversation anymore.
questa discussione.
il modo in cui funzioniamo
that we are the product that's being sold.
che noi siamo i prodotti da vendere.
authoritarian or demagogue.
autoritario o demagogo.
that Hollywood paraphrase,
a quella parafrasi di Hollywood,
and digital technology to blossom,
e della tecnologia digitale fiorisca,
this prodigious menace,
questa grande minaccia,
ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologistTechno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.
Why you should listen
We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.
Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.
Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.
Zeynep Tufekci | Speaker | TED.com