Zeynep Tufekci: Machine intelligence makes human morals more important
Zeynep Tufekci: Maskinintelligens behöver mänsklig etik och moral
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread. Full bio
Double-click the English transcript below to play the video.
as a computer programmer
came down to where I was,
And why are we whispering?"
Och varför viskar vi?"
at the computer in the room.
an affair with the receptionist.
med receptionisten.
if you're lying."
the laugh's on me.
är det jag som är skämtet.
emotional states and even lying
are very interested.
är mycket intresserade.
crazy about math and science.
i matematik och vetenskap.
I'd learned about nuclear weapons,
fick jag vetskap om kärnvapen,
with the ethics of science.
över etiken i forskningen.
familjeomständigheter,
as soon as possible.
att börja arbeta tidigt.
let me pick a technical field
jag väljer ett tekniskt område
with any troublesome questions of ethics.
några svårlösta etiska frågor.
All the laughs are on me.
Skratta gärna åt mig.
are building platforms
people see every day.
för miljarder människor varje dag.
that could decide who to run over.
vem de ska köra över.
to make all sort of decisions,
för alla sorters beslut,
that have no single right answers,
som inte har ett entydigt korrekt svar,
should you be shown?"
likely to reoffend?"
should be recommended to people?"
ska rekommenderas till folk?"
computers for a while,
for such subjective decisions
för sådana subjektiva beslut
for flying airplanes, building bridges,
vi gör för flygplan, brokonstruktioner,
Did the bridge sway and fall?
Började bron självsvänga och rasa?
fairly clear benchmarks,
ganska tydliga ramverk,
krångliga mänskliga relationer.
our software is getting more powerful,
blir vår mjukvara kraftfullare,
transparent and more complex.
både mindre transparent och mer komplex.
have made great strides.
gjort enorma framsteg.
genom medicinsk bildteknik.
from a method called "machine learning."
en metod som kallas "maskininlärning."
than traditional programming,
från traditionell programmering,
detailed, exact, painstaking instructions.
exakta, noggranna instruktioner.
and you feed it lots of data,
matar systemet med en massa data,
in our digital lives.
by churning through this data.
bearbeta datamängderna.
under a single-answer logic.
något entydigt svar.
it's more probabilistic:
utan en sannolikhetsbedömning;
what you're looking for."
this method is really powerful.
what the system learned.
instructions to a computer;
att ge en dator instruktioner,
a puppy-machine-creature
intelligence system gets things wrong.
får saker och ting om bakfoten.
when it gets things right,
när de får till det rätt,
when it's a subjective problem.
när frågeställningen är subjektiv.
för anställning -
using machine-learning systems.
som används för att anställa människor.
on previous employees' data
av data över tidigare anställda
high performers in the company.
som redan är anställda i företaget.
human resources managers and executives,
more objective, less biased,
anställningsprocessen objektiv,
and minorities a better shot
en bättre chans
personalchefer.
anställningar är fördomsfulla.
as a programmer,
som programmerare,
come down to where I was
or really late in the afternoon,
eller mycket sent på eftermiddagen,
let's go to lunch!"
Jag följde alltid med.
had not confessed to their higher-ups
för de högre cheferna
for a serious job was a teen girl
var en tonårstjej
I just looked wrong
jag såg bara fel ut
ta hänsyn till kön och ras
it is more complicated, and here's why:
blir det mer komplicerat;
can infer all sorts of things about you
dra alla möjliga slutsatser om dig
disclosed those things.
om din sexuella läggning,
with high levels of accuracy.
you haven't even disclosed.
such computational systems
ett beräkningssystem
of clinical or postpartum depression
för klinisk- eller förlossningsdepression
the likelihood of depression
sannolikheten för depression
for early intervention. Great!
för behandling i ett tidigt stadium.
i ett anställningssammanhang.
managers conference,
in a very large company,
i ett mycket stort företag,
what if, unbeknownst to you,
with high future likelihood of depression?
att drabbas av depression?
just maybe in the future, more likely.
men kanske blir någon gång i framtiden.
more likely to be pregnant
som kan komma att bli gravida
but aren't pregnant now?
men som inte är gravida nu?
because that's your workplace culture?"
att det är en del av er företagskultur?"
at gender breakdowns.
utifrån könsfördelningen.
not traditional coding,
och inte traditionell kodning,
labeled "higher risk of depression,"
"högre risk för depression,"
what your system is selecting on,
where to begin to look.
but you don't understand it.
men du förstår inte det.
isn't doing something shady?"
att din svarta låda inte gör något skumt?"
just stepped on 10 puppy tails.
just trampat på hennes hund.
another word about this."
isn't my problem, go away, death stare.
är inte mitt problem, stick iväg.
may even be less biased
shutting out of the job market
från arbetsmarknaden
för psykisk ohälsa.
we want to build,
to machines we don't totally understand?
on data generated by our actions,
som genererats av våra aktiviteter,
reflecting our biases,
could be picking up on our biases
kan plocka upp fördomarna,
neutral computation."
neutrala beräkningar."
to be shown job ads for high-paying jobs.
annonser för välbetalda jobb än män.
suggesting criminal history,
som antyder kriminell bakgrund,
and black-box algorithms
och svarta lådor-algoritmer
but sometimes we don't know,
och ibland inte,
was sentenced to six years in prison
till sex års fängelse
in parole and sentencing decisions.
vid förelägganden och villkorliga straff.
How is this score calculated?
Hur beräknades straffsatsen?
be challenged in open court.
att få sin algoritm bedömd
nonprofit, audited that very algorithm
företaget Pro-Publica, jämförde den
de kunde hitta, och fann
was dismal, barely better than chance,
knappt bättre än slumpen,
black defendants as future criminals
svarta åtalade som presumtiva brottslingar
picking up her godsister
när hon skulle hämta sitt gudbarn
with a friend of hers.
and a scooter on a porch
och en sparkcykel på en veranda
a woman came out and said,
kom en kvinna ut och sade,
but they were arrested.
men blev anhållna.
but she was also just 18.
men hon var också bara arton år.
for shoplifting in Home Depot --
blivit anhållen för snatteri i Home Depot,
a similar petty crime.
ett ganska litet brott.
armed robbery convictions.
för två väpnade rån.
as high risk, and not him.
som en högre risk än honom.
that she had not reoffended.
att hon inte återfallit i brott.
for her with her record.
att få jobb med sin bakgrund.
återföll i brottslighet
prison term for a later crime.
ett åttaårigt fängelsestraff
våra svarta lådor
this kind of unchecked power.
sådan här okontrollerad makt.
but they don't solve all our problems.
men de löser inte alla våra problem.
news feed algorithm --
för vårt nyhetsflöde -
and decides what to show you
och bestämmer vad som ska visas för dig
for engagement on the site:
för att få engagemang:
teenager by a white police officer,
en afro-amerikansk tonåring,
unfiltered Twitter feed,
algoritmfria Twitter-flöde,
keeps wanting to make you
were talking about it.
pratade om händelsen.
inte visade det.
wasn't showing it to me.
att det är ett vanligt problem.
this was a widespread problem.
wasn't algorithm-friendly.
var inte algoritm-vänlig.
to even fewer people,
för ännu färre människor,
donate to charity, fine.
och skänk pengar för ett gott syfte.
but difficult conversation
den enda nyhetskällan.
can also be wrong
kan också göra fel
IBM's machine-intelligence system
IBMs intelligenta dator
with human contestants on Jeopardy?
med deltagarna i Jeopardy?
Watson was asked this question:
fick Watson följande fråga:
efter en hjälte i 2:a världskriget,
for a World War II hero,
for a World War II battle."
från ett slag i samma krig."
answered "Toronto" --
gjorde också fel
en lågstadieelev aldrig skulle göra.
a second-grader wouldn't make.
error patterns of humans,
mänskliga mönster,
and be prepared for.
och är förberedda för.
one is qualified for,
ett jobb man är kvalificerad för,
if it was because of stack overflow
berodde på minneshanteringen
fueled by a feedback loop
som förstärktes av en loop
of value in 36 minutes.
raderade en miljard dollar.
what "error" means
autonomous weapons.
gjort partiska antaganden.
but that's exactly my point.
och det är det här jag menar.
these difficult questions.
de här svåra frågeställningarna.
our responsibilities to machines.
a "Get out of ethics free" card.
ett frikort när det gäller etik.
calls this math-washing.
kallar det för matematik-tvätt.
scrutiny and investigation.
granska och kontrollera dem.
algorithmic accountability,
ansvarsfulla algoritmer,
matematik och maskinberäkningar
that bringing math and computation
mänskliga relationer
invades the algorithms.
påverkar algoritmerna.
använda maskinberäkningar
to our moral responsibility to judgment,
i beaktande i bedömningarna
and outsource our responsibilities
eller outsourca vårt ansvar
hålla ännu hårdare
ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologistTechno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.
Why you should listen
We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.
Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.
Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.
Zeynep Tufekci | Speaker | TED.com