Zeynep Tufekci: Machine intelligence makes human morals more important
Zeynep Tufekci: Machine-intelligentie maakt menselijke moraal belangrijker
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread. Full bio
Double-click the English transcript below to play the video.
as a computer programmer
als computerprogrammeur
van software voor een bedrijf,
came down to where I was,
naar me toe en fluisterde:
And why are we whispering?"
En waarom fluisteren we?"
at the computer in the room.
naar de computer in de kamer.
an affair with the receptionist.
een affaire met de receptioniste.
if you're lying."
the laugh's on me.
zou ik moeten worden uitgelachen.
emotional states and even lying
en zelfs liegen herkennen
van menselijke gezichten.
are very interested.
zijn zeer geïnteresseerd.
crazy about math and science.
die gek zijn op wiskunde en wetenschap.
I'd learned about nuclear weapons,
with the ethics of science.
over de ethiek van de wetenschap.
as soon as possible.
aan werk geraken.
let me pick a technical field
een technisch gebied uitkiezen
with any troublesome questions of ethics.
op eventuele lastige vragen over ethiek.
All the laughs are on me.
are building platforms
computerwetenschappers systemen
people see every day.
mensen controleren.
that could decide who to run over.
kunnen beslissen wie ze overrijden.
zouden kunnen doden.
to make all sort of decisions,
aan de hand van berekeningen,
that have no single right answers,
waar niet één enkel antwoord op is,
should you be shown?"
moet je te zien krijgen?"
likely to reoffend?"
meer kans om te recidiveren?"
should be recommended to people?"
moeten we aanbevelen?"
computers for a while,
computers gebruiken,
for such subjective decisions
subjectieve beslissingen
for flying airplanes, building bridges,
van vliegtuigen, het bouwen van bruggen
Did the bridge sway and fall?
Is de brug gaan zwaaien en ingestort?
fairly clear benchmarks,
normen voor afgesproken
om ons te leiden.
en normen hebben we niet
menselijke aangelegenheden.
our software is getting more powerful,
wordt onze software steeds krachtiger,
transparent and more complex.
minder transparant en complexer.
have made great strides.
grote vooruitgang geboekt.
bij medische beeldvorming.
met schaken en go verslaan.
from a method called "machine learning."
'machine learning' genaamd.
than traditional programming,
dan het traditionele programmeren,
detailed, exact, painstaking instructions.
exacte, nauwgezette instructies geeft.
and you feed it lots of data,
het systeem veel data voert,
in our digital lives.
in ons digitale leven.
by churning through this data.
door op deze gegeven te broeden.
under a single-answer logic.
met een één-antwoord logica.
it's more probabilistic:
het is meer probabilistisch:
what you're looking for."
this method is really powerful.
echt krachtig is.
AI-systemen noemde het:
what the system learned.
wat het systeem leerde.
instructions to a computer;
van instructies aan een computer
a puppy-machine-creature
van een puppy-machine-schepsel
intelligence system gets things wrong.
in de fout gaat, hebben we een probleem.
when it gets things right,
wanneer het goed werkt,
when it's a subjective problem.
bij een subjectief probleem.
voor aanwerving --
using machine-learning systems.
om mensen aan te nemen
on previous employees' data
met data van vroegere werknemers
high performers in the company.
presteerders in het bedrijf.
human resources managers and executives,
en leidinggevenden,
voor het inhuren gebruiken.
more objective, less biased,
bevooroordeeld zou maken
and minorities a better shot
betere kansen zouden geven
menselijke managers.
door mensen is bevooroordeeld.
as a programmer,
als programmeur
come down to where I was
soms naar me toe,
or really late in the afternoon,
of erg laat in de middag,
let's go to lunch!"
Ik ging altijd mee.
had not confessed to their higher-ups
hadden hun oversten niet verteld
voor een serieuze baan hadden ingehuurd
for a serious job was a teen girl
en sportschoenen droeg.
ik zag er alleen niet uit
I just looked wrong
voor geslacht of ras,
it is more complicated, and here's why:
ligt het ingewikkelder en wel hierom:
can infer all sorts of things about you
allerlei dingen over je afleiden
disclosed those things.
with high levels of accuracy.
nauwkeurigheid voorspellen.
die je nog niet eens hebt bekendgemaakt.
you haven't even disclosed.
such computational systems
computersystemen heeft ontwikkeld
of clinical or postpartum depression
of postpartumdepressie te voorspellen
the likelihood of depression
op depressie voorspellen
for early intervention. Great!
voor vroege interventie. Geweldig!
in het kader van aanwerven.
managers conference,
voor human-resourcesmanagers
in a very large company,
van een zeer groot bedrijf
what if, unbeknownst to you,
"Kijk, wat als zonder dat je het weet,
with high future likelihood of depression?
toekomstige kans op depressie uitwiedt?
just maybe in the future, more likely.
maar in de toekomst waarschijnlijk wel.
more likely to be pregnant
omdat ze kans hebben om zwanger te worden
but aren't pregnant now?
maar nu niet zwanger zijn?
because that's your workplace culture?"
omdat dat jullie werkplekcultuur is?"
naar analyses voor geslacht.
at gender breakdowns.
not traditional coding,
en geen traditioneel programmeren,
labeled "higher risk of depression,"
gelabeld 'groter risico op depressie',
what your system is selecting on,
waarop jouw systeem selecteert,
where to begin to look.
waar je moet gaan zoeken.
but you don't understand it.
maar je begrijpt het niet.
isn't doing something shady?"
geen rare dingen gaat doen?"
just stepped on 10 puppy tails.
op tien puppystaarten tegelijk trapte.
another word about this."
isn't my problem, go away, death stare.
is mijn probleem niet, ga weg, lege blik.
may even be less biased
kan misschien minder bevooroordeeld zijn
in sommige opzichten.
shutting out of the job market
uitsluiting uit de arbeidsmarkt
hoger risico op depressie.
we want to build,
samenleving dat we willen,
dat we dat hebben gedaan,
to machines we don't totally understand?
delegeerden naar machines
on data generated by our actions,
met data gegenereerd door onze acties,
reflecting our biases,
onze vooroordelen kunnen weerspiegelen,
could be picking up on our biases
vlekkeloos overnemen,
neutral computation."
neutrale berekeningen."
to be shown job ads for high-paying jobs.
te zien te krijgen.
suggesting criminal history,
and black-box algorithms
en zwarte-doosalgoritmen,
but sometimes we don't know,
maar soms ook niet,
diepgaand beïnvloeden.
was sentenced to six years in prison
veroordeeld tot zes jaar gevangenis
in parole and sentencing decisions.
worden steeds meer gebruikt
invrijheidstelling en straftoemeting.
How is this score calculated?
deze score berekend wordt.
be challenged in open court.
rechtszitting te laten betwisten.
nonprofit, audited that very algorithm
non-profit, testte dat algoritme
die ze konden vinden,
bevooroordeeld waren
was dismal, barely better than chance,
en nauwelijks beter dan het toeval was.
black defendants as future criminals
onterecht als toekomstige criminelen
picking up her godsister
om een meisje op te pikken
with a friend of hers.
and a scooter on a porch
een kinderfiets en een scooter.
a woman came out and said,
kwam een vrouw naar buiten en zei:
but they were arrested.
maar werden gearresteerd.
but she was also just 18.
maar ze was ook pas 18.
jeugdmisdrijven op haar naam.
for shoplifting in Home Depot --
voor winkeldiefstal in Home Depot --
a similar petty crime.
soortgelijke kleine criminaliteit.
armed robbery convictions.
voor gewapende overval.
as high risk, and not him.
als hoog risico en hem niet.
that she had not reoffended.
dat ze niet had gerecidiveerd.
for her with her record.
een baan met haar strafblad.
prison term for a later crime.
voor een latere misdaad.
onze zwarte dozen moeten controleren
this kind of unchecked power.
macht moeten geven.
but they don't solve all our problems.
maar ze lossen niet al onze problemen op.
news feed algorithm --
nieuwsfeed-algoritme --
and decides what to show you
en beslist wat jij te zien krijgt
en pagina's die je volgt.
voorgeschoteld krijgen?
maar moeilijk nieuwsbericht?
for engagement on the site:
voor betrokkenheid op de site:
of becommentarieert.
in Ferguson, Missouri,
teenager by a white police officer,
tiener door een blanke politieagent
was prominent aanwezig
unfiltered Twitter feed,
ongefilterde Twitter-feed,
keeps wanting to make you
want Facebook houdt je liever
were talking about it.
wasn't showing it to me.
this was a widespread problem.
een wijdverbreid probleem was.
wasn't algorithm-friendly.
was niet 'algoritmevriendelijk'.
te becommentariëren.
to even fewer people,
aan nog minder mensen,
Facebook's algoritme die week dit:
donate to charity, fine.
aan een goed doel, allemaal fijn.
algoritmevriendelijk.
but difficult conversation
can also be wrong
op menselijke systemen lijkt.
IBM's machine-intelligentie-systeem
IBM's machine-intelligence system
with human contestants on Jeopardy?
met de menselijke deelnemers?
Watson was asked this question:
naar een held uit WO II,
for a World War II hero,
for a World War II battle."
naar een slag uit WO II."
answered "Toronto" --
maakte ook een fout
a second-grader wouldn't make.
die een zevenjarige niet zou maken.
error patterns of humans,
in foutpatronen van mensen,
and be prepared for.
waarop we niet zijn voorbereid.
one is qualified for,
om een baan mis te lopen
if it was because of stack overflow
als het was vanwege een stack overflow
fueled by a feedback loop
aangewakkerd door een terugkoppeling
of value in 36 minutes.
in 36 minuten.
what "error" means
wat 'fout' betekent
autonomous weapons.
autonome wapens gaat.
in de oorlog...
but that's exactly my point.
maar dat is precies wat ik bedoel.
these difficult questions.
aan deze moeilijke vragen.
our responsibilities to machines.
niet uitbesteden aan machines.
a "Get out of ethics free" card.
niet vrij van de ethische vraagstukken.
calls this math-washing.
noemt dit 'wiskunde-wassen'.
scrutiny and investigation.
van achterdocht, controle en onderzoek.
algorithmic accountability,
voor algoritmische verantwoording,
that bringing math and computation
van wiskunde en berekening
menselijke aangelegenheden
invades the algorithms.
aangelegenheden in de algoritmen sluipt.
berekening gebruiken
om betere beslissingen te nemen.
to our moral responsibility to judgment,
blijft onze morele verantwoordelijkheid,
we algoritmen gebruiken,
and outsource our responsibilities
onze verantwoordelijkheden
steeds strakker moeten vasthouden
en menselijke ethiek.
ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologistTechno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.
Why you should listen
We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.
Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.
Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.
Zeynep Tufekci | Speaker | TED.com