Zeynep Tufekci: Machine intelligence makes human morals more important
Zeynep Tufekci: A Inteligência Artificial torna a moral humana mais importante
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread. Full bio
Double-click the English transcript below to play the video.
as a computer programmer
como programadora informática
came down to where I was,
And why are we whispering?"
Porque é que está a segredar?"
at the computer in the room.
para o computador na sala.
an affair with the receptionist.
um caso romântico com a rececionista.
if you're lying."
que você está a mentir."
the laugh's on me.
hoje riem-se de mim.
emotional states and even lying
estados emocionais e mesmo a mentira
are very interested.
estão muito interessados nesta tecnologia.
crazy about math and science.
louca por matemática e ciências.
I'd learned about nuclear weapons,
descobri as armas nucleares
with the ethics of science.
com a ética da ciência.
devido a circunstâncias familiares,
as soon as possible.
o mais cedo possível.
let me pick a technical field
"Bem, vou escolher uma área técnica
with any troublesome questions of ethics.
com essas questões incómodas da ética".
All the laughs are on me.
Riam-se todos de mim.
are building platforms
estão a construir plataformas
people see every day.
de pessoas veem todos os dias.
that could decide who to run over.
que podem decidir quem atropelar.
máquinas, armas,
seres humanos, em guerras.
to make all sort of decisions,
para tomar todo o tipo de decisões,
that have no single right answers,
que não têm uma resposta certa,
should you be shown?"
devemos mostrar?"
likely to reoffend?"
que reincidirá mais facilmente?""
should be recommended to people?"
deve ser recomendado?"
computers for a while,
os computadores há algum tempo,
for such subjective decisions
apoiar-nos na informática
for flying airplanes, building bridges,
apoiar-nos na informática
para construir pontes,
Did the bridge sway and fall?
Será que a ponte vai balançar e cair?
fairly clear benchmarks,
sobre referências bastante claras,
os complexos assuntos humanos.
our software is getting more powerful,
o software está cada vez mais poderoso,
transparent and more complex.
menos transparente e mais complexo.
have made great strides.
alcançaram grandes feitos.
e bloqueiam "spam".
tumores em imagens médicas.
from a method called "machine learning."
"aprendizagem de máquina."
than traditional programming,
é diferente da programação tradicional,
detailed, exact, painstaking instructions.
detalhadas, meticulosas e exatas.
and you feed it lots of data,
grandes quantidades de dados ao sistema,
in our digital lives.
na nossa vida digital.
by churning through this data.
analisando esses dados.
under a single-answer logic.
sob uma lógica de resposta única.
it's more probabilistic:
é mais probabilista:
what you're looking for."
está mais próximo do que procura."
this method is really powerful.
este método é muito poderoso.
do Google, chamou-lhe:
what the system learned.
o que o sistema aprendeu.
instructions to a computer;
a puppy-machine-creature
um filhote de máquina-criatura
intelligence system gets things wrong.
compreende mal as coisas.
when it gets things right,
quando as compreende bem,
when it's a subjective problem.
quando se trata de um problema subjetivo.
o que a máquina está a pensar.
um algoritmo de contratação
using machine-learning systems.
utilizando a aprendizagem de máquina.
on previous employees' data
com dados dos empregados anteriores
e contratar pessoas
high performers in the company.
da empresa.
human resources managers and executives,
de recursos humanos e executivos.
esses sistemas para contratar
more objective, less biased,
mais objetiva, menos tendenciosa,
and minorities a better shot
às mulheres e minorias,
de RH tendenciosos.
é tendenciosa.
as a programmer,
como programadora,
come down to where I was
às vezes vinha ter comigo,
or really late in the afternoon,
ou muito ao final da tarde,
let's go to lunch!"
"Zeynep, vamos almoçar!"
com aquele horário estranho.
— almoço grátis — aceitava sempre.
had not confessed to their higher-ups
não tinham informado os superiores
for a serious job was a teen girl
para um trabalho sério
mas tinha um aspeto não convencional
I just looked wrong
ao sexo e à etnia
it is more complicated, and here's why:
é mais complicado. E porquê?
can infer all sorts of things about you
todo o tipo de coisas sobre a pessoa
disclosed those things.
divulgado essas coisas.
a sua orientação sexual,
with high levels of accuracy.
com elevados níveis de precisão.
you haven't even disclosed.
divulgámos conscientemente.
such computational systems
esses sistemas informáticos,
of clinical or postpartum depression
de depressão clínica ou pós-parto
the likelihood of depression
a probabilidade de depressão
de quaisquer sintomas
for early intervention. Great!
para intervenção precoce. Ótimo!
no contexto da contratação.
managers conference,
de recursos humanos,
in a very large company,
de uma grande empresa e disse-lhe:
what if, unbeknownst to you,
with high future likelihood of depression?
com alto risco de futura depressão?
just maybe in the future, more likely.
mas talvez no futuro, seja mais provável.
more likely to be pregnant
com maior probabilidade de engravidar
but aren't pregnant now?
mas que não estão grávidas agora?
because that's your workplace culture?"
porque essa é a cultura da empresa?
olhando par a repartição por sexos.
at gender breakdowns.
not traditional coding,
e não codificação tradicional,
labeled "higher risk of depression,"
intitulada "maior risco de depressão",
what your system is selecting on,
o que é que o sistema está a selecionar,
where to begin to look.
por onde começar a procurar.
but you don't understand it.
mas não conseguimos entendê-la.
isn't doing something shady?"
não está a fazer algo sombrio?"
just stepped on 10 puppy tails.
como se eu a tivesse ofendido.
another word about this."
nem mais uma palavra sobre isso."
Foi claramente:
isn't my problem, go away, death stare.
Desapareça." Olhar de morte.
may even be less biased
podem ser menos tendenciosos
nalguns aspetos.
shutting out of the job market
do mercado de trabalho
com maior risco de depressão.
we want to build,
que queremos construir,
to machines we don't totally understand?
a tomada de decisões
on data generated by our actions,
com dados gerados pelas nossas ações,
reflecting our biases,
a refletir os nossos preconceitos.
could be picking up on our biases
a aprender os nossos preconceitos,
neutral computation."
a informática é neutra".
to be shown job ads for high-paying jobs.
com salários elevados
do que para mulheres.
suggesting criminal history,
sugerindo antecedentes criminais,
and black-box algorithms
e algoritmos de caixa-negra
but sometimes we don't know,
mas que por vezes nós não descobrimos,
capazes de mudar uma vida.
was sentenced to six years in prison
foi condenado a seis anos de prisão
in parole and sentencing decisions.
e as condenações.
How is this score calculated?
como era calculada a pontuação.
be challenged in open court.
questionado em tribunal aberto.
nonprofit, audited that very algorithm
de investigação sem fins lucrativos,
com os dados públicos que encontrou,
eram tendenciosos
was dismal, barely better than chance,
era pouco melhor que o acaso.
black defendants as future criminals
réus negros como futuros criminosos
picking up her godsister
para ir buscar a afilhada
de Broward, Flórida
with a friend of hers.
and a scooter on a porch
não amarradas, numa varanda
a woman came out and said,
apareceu uma mulher que disse:
but they were arrested.
mas acabaram por ser presas.
but she was also just 18.
mas ela só tinha 18 anos.
for shoplifting in Home Depot --
por furto no Home Depot
a similar petty crime.
um crime menor.
armed robbery convictions.
duas sentenças por assalto à mão armada.
as high risk, and not him.
como de alto risco, e não a ele.
that she had not reoffended.
que ela não tinha reincidido,
um emprego, devido ao cadastro.
for her with her record.
prison term for a later crime.
por um crime cometido mais tarde.
de auditar as nossas caixas-negras
this kind of unchecked power.
este poder sem controlo.
but they don't solve all our problems.
mas não solucionam todos os problemas.
news feed algorithm --
de notícias do Facebook,
and decides what to show you
e decide tudo o que vos mostram
que vocês seguem.
outra foto de um bebé?
mas incomodativa?
for engagement on the site:
para manter-vos ligado ao site:
em Ferguson, no Missouri,
teenager by a white police officer,
infligida por um polícia branco,
apareceram de todos o lados
unfiltered Twitter feed,
sem filtro de algoritmos,
insiste em voltar a incluir-nos
keeps wanting to make you
were talking about it.
wasn't showing it to me.
não me mostrava essa informação.
this was a widespread problem.
que era um problema generalizado.
wasn't algorithm-friendly.
não agradava ao algoritmo.
to even fewer people,
mostrá-la-ia a menos pessoas,
donate to charity, fine.
doar para a caridade. Tudo bem.
but difficult conversation
mas também difícil
can also be wrong
também podem cometer erros
IBM's machine-intelligence system
a máquina de IA da IBM
with human contestants on Jeopardy?
humanos no Jeopardy?
Watson was asked this question:
quando perguntaram ao Watson:
de um herói da II Guerra Mundial,
for a World War II hero,
for a World War II battle."
de uma batalha da II Guerra Mundial."
answered "Toronto" --
respondeu "Toronto"
também cometeu um erro
a second-grader wouldn't make.
que uma criança do 1.º ciclo não faria.
error patterns of humans,
nos padrões de erro dos seres humanos.
and be prepared for.
one is qualified for,
para o qual estamos qualificados,
if it was because of stack overflow
se fosse por causa de um erro
fueled by a feedback loop
provocado por uma auto alimentação
of value in 36 minutes.
em 36 minutos.
what "error" means
o que significa "erro"
autonomous weapons.
sempre alimentaram preconceitos.
comete erros.
but that's exactly my point.
these difficult questions.
destas perguntas difíceis.
our responsibilities to machines.
as nossas responsabilidades às máquinas.
a "Get out of ethics free" card.
um cartão "Liberte-se da ética".
calls this math-washing.
chama-lhe "lavagem de matemática".
scrutiny and investigation.
de análise e de investigação.
a responsabilidade dos algoritmos,
algorithmic accountability,
that bringing math and computation
que trazer a matemática e a informática
complicados e carregados de valores,
invades the algorithms.
dos assuntos humanos invade os algoritmos.
to our moral responsibility to judgment,
a responsabilidade moral do julgamento.
and outsource our responsibilities
e subcontratar a nossa responsabilidade
temos de nos agarrar afincadamente
ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologistTechno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.
Why you should listen
We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.
Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.
Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.
Zeynep Tufekci | Speaker | TED.com