Zeynep Tufekci: Machine intelligence makes human morals more important
Zeynep Tufekci: L'intelligenza artificiale rende la moralità umana più importante
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread. Full bio
Double-click the English transcript below to play the video.
as a computer programmer
come programmatrice di computer
scrivendo software in una azienda,
came down to where I was,
mi venne a trovare dove stavo,
And why are we whispering?"
E perché sussurriamo?"
at the computer in the room.
nella stanza.
an affair with the receptionist.
con la segretaria alla reception.
if you're lying."
se stai mentendo."
the laugh's on me.
la risata era nei mei confronti.
emotional states and even lying
e pure la menzogna
are very interested.
sono molto interessati.
crazy about math and science.
pazzi per matematica e scienze
I'd learned about nuclear weapons,
ho imparato a conoscere le armi nucleari,
with the ethics of science.
dell'etica della scienza.
mia situazione familiare,
as soon as possible.
al più presto.
let me pick a technical field
scegliamo un settore tecnico
un lavoro
with any troublesome questions of ethics.
con qualche fastidiosa questione etica.
All the laughs are on me.
Tutti ridono di me.
are building platforms
costruicono piattaforme
people see every day.
di persone vedono ogni giorno.
that could decide who to run over.
che potrebbero decidere chi investire.
to make all sort of decisions,
per prendere ogni tipo di decisioni,
that have no single right answers,
che non hanno una sola risposta giusta,
should you be shown?"
dovrebbe essere mostrato?"
likely to reoffend?"
probabilmente recidivo?"
should be recommended to people?"
dovrebbe essere consigliato alla gente?"
computers for a while,
il computer da un po',
for such subjective decisions
per queste decisioni soggettive
for flying airplanes, building bridges,
per far volare gli aerei, costruire ponti,
Did the bridge sway and fall?
Vacillano e cadono i ponti?
fairly clear benchmarks,
su cui concordiamo,
per decidere
our software is getting more powerful,
il software sta diventando più potente,
transparent and more complex.
have made great strides.
notevoli passi avanti.
sulle carte di credito e bloccare lo spam
nelle diagnostica per immagini.
e nel GO
from a method called "machine learning."
dal metodo di "apprendimento automatico".
than traditional programming,
dalla tradizionale programmazione,
detailed, exact, painstaking instructions.
dettagliate, precise ed accurate.
and you feed it lots of data,
al sistema molti dati,
nella nostre vite digitali.
in our digital lives.
by churning through this data.
maneggiando quei dati.
under a single-answer logic.
con la logica di una sola risposta.
it's more probabilistic:
è piuttosto probabilistica:
what you're looking for."
quello che state cercando."
this method is really powerful.
questo metodo è veramente potente.
di Google lo ha chiamato
what the system learned.
cosa il sistema ha imparato.
instructions to a computer;
istruzioni ad un computer;
a puppy-machine-creature
un cucciolo-macchina
o controlliamo veramente
intelligence system gets things wrong.
di intelligenza artificiale lavorano male.
when it gets things right,
di quando lavorano bene,
when it's a subjective problem.
quando il problema è soggettivo.
per le assunzioni--
using machine-learning systems.
usando l'apprendimento automatico.
on previous employees' data
sui dati dei precedenti assunti
high performers in the company.
più performanti in azienda.
Una volta ho partecipato ad una conferenza
delle Risorse Umane e i manager aziendali,
human resources managers and executives,
che usavano questo sistema per assumere.
more objective, less biased,
assunzioni più oggettive, meno distorte,
and minorities a better shot
una migliore opportunità
dagli uomini sono distorte.
as a programmer,
come programmatrice,
come down to where I was
scendeva dove stavo
or really late in the afternoon,
o molto tardi nel pomeriggio,
let's go to lunch!"
andiamo a pranzo!"
Quindi andavo sempre.
had not confessed to their higher-ups
non aveva confessato ai livelli superiori
for a serious job was a teen girl
per un importante lavoro era adolescente
I just looked wrong
solo sembravo sbagliata,
genere e razza
it is more complicated, and here's why:
è più complicato, ed ecco perchè:
can infer all sorts of things about you
possono desumere qualsiasi cosa su di voi
disclosed those things.
quelle cose.
il vostro orientamento sessuale,
with high levels of accuracy.
con alto livello di accuratezza.
you haven't even disclosed.
non avete mai dichiarato.
such computational systems
un sistema di elaborazione
of clinical or postpartum depression
della depressione postpartum
the likelihood of depression
la probabilità della depressione
di un qualsiasi sintomo --
for early intervention. Great!
per anticipare un intervento. Ottimo!
managers conference,
delle risorse umane,
in a very large company,
in una grande azienda,
what if, unbeknownst to you,
che succederebbe se, alla tua insaputa,
with high future likelihood of depression?
con un'alta probabilità di depressione?
just maybe in the future, more likely.
magari forse in futuro, più probabilmente.
more likely to be pregnant
più probabilmente incinte
but aren't pregnant now?
ma che non lo sono ora?
because that's your workplace culture?"
questa è la vostra cultura aziendale?"
at gender breakdowns.
solo alle quote di genere.
not traditional coding,
non programmazione tradizionale,
labeled "higher risk of depression,"
etichettata "alto rischio di depressione",
what your system is selecting on,
il vostro sistema basi la selezione,
where to begin to look.
dove cominciare a guardare.
but you don't understand it.
ma non la capite.
isn't doing something shady?"
non sta facendo qualcosa losco?"
just stepped on 10 puppy tails.
schiacciato la coda a 10 cuccioli.
another word about this."
isn't my problem, go away, death stare.
mio problema. Va via, sguardo assassino.
may even be less biased
può anche essere meno influenzata
shutting out of the job market
chiusura dal mercato del lavoro
we want to build,
che vogliamo costruire,
to machines we don't totally understand?
a macchine che non comprendiamo del tutto?
on data generated by our actions,
con dati generati dalle nostre azioni,
reflecting our biases,
le nostre distorsioni o pregiudizi,
could be picking up on our biases
si portano dietro i nostri pregiudizi
neutral computation."
oggettive e neutrali."
to be shown job ads for high-paying jobs.
alle donne avvisi per lavori ben pagati.
suggesting criminal history,
alludenti a storie criminali,
and black-box algorithms
e gli algoritmi a scatola nera
but sometimes we don't know,
ma che altre volte non conosciamo,
alterare la vita.
was sentenced to six years in prison
è stato condannato a sei anni di prigione
in parole and sentencing decisions.
per prendere decisioni giudiziarie.
How is this score calculated?
come è stato calcolato il punteggio?
sul mercato
be challenged in open court.
il suo algoritmo in una corte pubblica.
nonprofit, audited that very algorithm
non-profit, ha verificato quell'algoritmo
erano influenzati
was dismal, barely better than chance,
niente più di una possibilità,
black defendants as future criminals
accusati neri come futuri criminali
picking up her godsister
nel prelevare la sua figlioccia
Florida,
with a friend of hers.
con un suo amico.
and a scooter on a porch
ed uno scooter in una veranda
una donna uscì fuori e disse,
a woman came out and said,
but they were arrested.
ma furono arrestati.
but she was also just 18.
ma era appena diventata diciottenne.
di crimini giovanili.
for shoplifting in Home Depot --
per furto di merce al Home Depot --
a similar petty crime.
un simile piccolo crimine.
armed robbery convictions.
condanne per rapina a mano armata
as high risk, and not him.
ad alto rischio, non lui.
that she had not reoffended.
che lei non era stata recidiva.
for her with her record.
lavoro, visti i precedenti.
prison term for a later crime.
a causa di un successivo crimine.
le scatole nere
this kind of unchecked power.
incontrollato potere.
but they don't solve all our problems.
ma da sole non risolvono tutti i problemi.
news feed algorithm --
per caricare le news--
and decides what to show you
e decide cosa mostrarvi
for engagement on the site:
attraervi al loro sito:
dopo l'uccisione di
teenager by a white police officer,
da parte di un poliziotto bianco,
unfiltered Twitter feed,
non filtrato da algoritmi,
keeps wanting to make you
vuole mantenervi
were talking about it.
parlavano di questo.
wasn't showing it to me.
che non me lo mostrava.
this was a widespread problem.
che è un problema diffuso.
wasn't algorithm-friendly.
facile per l'algoritmo.
to even fewer people,
ad ancora meno persone,
donate to charity, fine.
dona alla beneficenza, bene.
presa per noi
but difficult conversation
ma scabrosa
can also be wrong
possono sbagliare
a sistemi umani.
IBM's machine-intelligence system
la macchina intelligente di IBM
with human contestants on Jeopardy?
i contendenti umani a Jeopardy?
Watson was asked this question:
fu posta questa domanda a Watson:
a un eroe della II Guerra Mondiale,
for a World War II hero,
for a World War II battle."
a una sua battaglia."
answered "Toronto" --
rispose "Toronto" --
a second-grader wouldn't make.
neppure un alunno delle elementari.
error patterns of humans,
con l'approccio dell'errore umano,
and be prepared for.
e per i quali siamo preparati.
one is qualified for,
per il quale si è qualificati,
if it was because of stack overflow
se fosse causato da un errore software
fueled by a feedback loop
alimentata da un erroneo ciclo di calcolo
of value in 36 minutes.
di un trilione di dollari in 36 minuti.
what "error" means
cosa significhi "errore"
autonomous weapons.
but that's exactly my point.
ma questo è proprio il mio punto.
these difficult questions.
a queste difficili domande.
our responsibilities to machines.
le nostre responsabilità alle macchine.
a "Get out of ethics free" card.
un permesso di "uscire dall'etica" gratis.
calls this math-washing.
lo chiama "pulizia matematica".
scrutiny and investigation.
la diffidenza, verifica e indagine.
una responsabilità sugli algoritmi,
algorithmic accountability,
una comprensibile trasparenza.
che portare matematica ed elaborazione
that bringing math and computation
umani invade gli algoritmi.
invades the algorithms.
responsabilità morale del giudizio,
to our moral responsibility to judgment,
e dare in outsource
and outsource our responsibilities
a qualcun altro come fra umani.
ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologistTechno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.
Why you should listen
We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.
Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.
Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.
Zeynep Tufekci | Speaker | TED.com