Zeynep Tufekci: Machine intelligence makes human morals more important
Zeynep Tufekci: A gépi intelligenciától fontosabbá válnak az emberi erkölcsök
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread. Full bio
Double-click the English transcript below to play the video.
as a computer programmer
came down to where I was,
And why are we whispering?"
És miért suttogunk?"
at the computer in the room.
számítógépre mutatott.
an affair with the receptionist.
viszonya volt a recepcióssal.
if you're lying."
the laugh's on me.
engem kellene kinevetni.
rendszerek vannak,
emotional states and even lying
állapotot, sőt a hazugságot is
are very interested.
erősen érdeklődnek irántuk.
crazy about math and science.
a matekért és a tudományért.
I'd learned about nuclear weapons,
szereztem a nukleáris fegyverekről,
with the ethics of science.
a tudomány etikájáért.
as soon as possible.
let me pick a technical field
választok egy műszaki területet,
with any troublesome questions of ethics.
semmilyen zavaró etikai kérdéssel.
All the laughs are on me.
are building platforms
olyan felületeket építenek,
people see every day.
amit egymilliárd ember naponta lát.
that could decide who to run over.
amelyek eldönthetik, kit ütnek el.
embereket ölhetnek meg.
to make all sort of decisions,
mindenféle döntésre használjuk,
that have no single right answers,
amelyekre nincs egyetlen helyes válasz,
should you be shown?"
mutassuk meg neked?”,
likely to reoffend?"
hogy újból bűnözik?”,
should be recommended to people?"
ajánljuk az embereknek?”
computers for a while,
úgy kötni e szubjektív döntésekhez,
for such subjective decisions
for flying airplanes, building bridges,
közlekedéssel, a hídépítéssel,
Did the bridge sway and fall?
Kilengett és összedőlt a híd?
fairly clear benchmarks,
elég világos viszonyítási alapjaink,
vonatkozó döntésekhez
és viszonyítási pontjaink.
our software is getting more powerful,
szoftverünk egyre erősebb,
transparent and more complex.
és egyre bonyolultabb lesz.
have made great strides.
nagyot léptek előre.
daganatokat ismernek fel.
from a method called "machine learning."
módszerének köszönhető.
than traditional programming,
a hagyományos programozástól,
detailed, exact, painstaking instructions.
pontos, precíz utasításokat adunk.
and you feed it lots of data,
beletöltünk egy csomó adatot,
in our digital lives.
by churning through this data.
under a single-answer logic.
válasz logikáját követik.
it's more probabilistic:
szűrnek le, inkább valószínűséget:
what you're looking for."
this method is really powerful.
hogy a módszer valóban hatásos.
what the system learned.
mit tanult a rendszer.
instructions to a computer;
adunk egy számítógépnek,
a puppy-machine-creature
egy gép-kutyus-szerű lényt,
és nem tudunk irányítani.
intelligence system gets things wrong.
when it gets things right,
when it's a subjective problem.
ha szubjektív kérdésről van szó.
using machine-learning systems.
amely gépi tanulási rendszert használ.
on previous employees' data
adatain tanították be,
high performers in the company.
találjon és alkalmazzon.
human resources managers and executives,
és -vezetők gyűltek össze,
more objective, less biased,
pártatlanabbá teszi a felvételt,
and minorities a better shot
és a kisebbségeknek
as a programmer,
programozóként dolgoztam,
come down to where I was
or really late in the afternoon,
vagy nagyon késő délután,
let's go to lunch!"
Mindig vele mentem.
had not confessed to their higher-ups
be feletteseiknek,
for a serious job was a teen girl
felvett programozó egy tinilány,
I just looked wrong
független felvétel
it is more complicated, and here's why:
a helyzet ennél miért bonyolultabb,
can infer all sorts of things about you
ki tudnak következtetni rólunk
disclosed those things.
hoztuk nyilvánosságra őket.
nemi orientációnkat,
with high levels of accuracy.
pontossággal párosul.
you haven't even disclosed.
amelyeket nem is közöltünk.
such computational systems
rendszereket fejlesztett,
of clinical or postpartum depression
vagy a súlyos depresszió valószínűségét
the likelihood of depression
a depresszió valószínűségét
for early intervention. Great!
majd a korai beavatkozáshoz. Nagyszerű!
managers conference,
in a very large company,
magas rangú vezetőjéhez,
what if, unbeknownst to you,
„M van, ha az ön tudta nélkül
with high future likelihood of depression?
valószínűsége nagy?
just maybe in the future, more likely.
akik egy-két éven belül
more likely to be pregnant
de most nem terhesek?
but aren't pregnant now?
because that's your workplace culture?"
mert a munkahelyi kultúrába beleillenek?"
at gender breakdowns.
szerinti bontásból.
not traditional coding,
nem hagyományos kódolás,
labeled "higher risk of depression,"
what your system is selecting on,
mi alapján választ a rendszer,
where to begin to look.
but you don't understand it.
isn't doing something shady?"
csinál valami kétes dolgot?”
just stepped on 10 puppy tails.
volna a tanácselnököt.
another word about this."
többet egy szót sem”.
isn't my problem, go away, death stare.
az én problémám, lelépek, bután nézek.
may even be less biased
hogy kevésbé részrehajló,
shutting out of the job market
kizárja a munkaerőpiacról
we want to build,
to machines we don't totally understand?
a döntéshozatalt, amelyeket nem is értünk?
on data generated by our actions,
tetteinkből létrehozott adatokkal,
reflecting our biases,
tükrözik részrehajlásunkat,
could be picking up on our biases
neutral computation."
számítástechnikát gyakorlunk.”
nőknek kisebb valószínűséggel mutat
to be shown job ads for high-paying jobs.
hirdetéseket, mint férfiaknak.
suggesting criminal history,
előéletet sejtető reklámokat,
and black-box algorithms
és „fekete doboz” algoritmusokat
but sometimes we don't know,
de néha nem tudunk róluk,
megváltoztathatják az életet.
was sentenced to six years in prison
hat év börtönre ítéltek,
in parole and sentencing decisions.
gyakrabban használnak algoritmust.
How is this score calculated?
hogyan számítják a pontszámot.
be challenged in open court.
bíróság elé vigyék az algoritmusát.
nonprofit, audited that very algorithm
nyomozó szervezet auditálta az algoritmust
was dismal, barely better than chance,
pocséknak, alig jobbnak a véletlennél,
black defendants as future criminals
leendő bűnözőnek a fekete,
picking up her godsister
with a friend of hers.
az utcán a barátnőjével.
and a scooter on a porch
gyerekbiciklit és rollert láttak meg,
a woman came out and said,
kijött egy nő, s azt kiáltotta:
but they were arrested.
de letartóztatták őket.
but she was also just 18.
de csak 18 éves volt.
for shoplifting in Home Depot --
85 dollár értékű áruházi lopásért,
a similar petty crime.
armed robbery convictions.
ítélete fegyveres rablásért.
as high risk, and not him.
magas kockázatúnak, nem a férfit.
that she had not reoffended.
hogy a nő nem követett el új vétséget.
for her with her record.
a priusza miatt.
prison term for a later crime.
egy későbbi bűncselekmény miatt.
a fekete dobozainkat,
this kind of unchecked power.
korlátlan hatalmuk legyen.
but they don't solve all our problems.
de nem oldják meg minden gondunkat.
news feed algorithm --
hírválogató algoritmusát,
and decides what to show you
és eldönti, mit mutasson meg nekünk
for engagement on the site:
tevékenységre optimalizál:
Fergusonban,
teenager by a white police officer,
egy afroamerikai tinédzsert,
unfiltered Twitter feed,
keeps wanting to make you
azt akarja,
were talking about it.
beszélgetnek róla.
wasn't showing it to me.
nem mutatta meg nekem.
this was a widespread problem.
hogy ez egy elterjedt probléma.
wasn't algorithm-friendly.
szimpatikus az algoritmusnak.
to even fewer people,
mutatta egyre kevesebbeknek,
donate to charity, fine.
és adakozz; rendben.
but difficult conversation
az egyetlen csatorna.
can also be wrong
IBM's machine-intelligence system
az IBM gépi intelligencia rendszerére,
vagy semmit" kvíz versenyzőivel?
with human contestants on Jeopardy?
Watson was asked this question:
kérdést tették fel a Watsonnak:
for a World War II hero,
II. világháborús hősről nevezték el,
for a World War II battle."
világháborús csatáról.”
answered "Toronto" --
a second-grader wouldn't make.
egy másodikos gyerek sem.
error patterns of humans,
hasonlít az emberi hibamintákra,
and be prepared for.
nem vagyunk rá felkészülve.
one is qualified for,
amire megvan a képesítésünk,
if it was because of stack overflow
túlcsordult verem okozná.
fueled by a feedback loop
amit a tőzsdei „eladási” algoritmus
of value in 36 minutes.
tett semmivé 36 perc alatt.
what "error" means
mit jelent a „hiba”
autonomous weapons.
összefüggésben.
részrehajlók voltak.
but that's exactly my point.
these difficult questions.
e fogós kérdésektől.
our responsibilities to machines.
felelősségünket gépekbe.
a "Get out of ethics free" card.
ment föl az etikus gondolkodás alól.
calls this math-washing.
„math-washing”-nak nevezi ezt.
scrutiny and investigation.
és vizsgálnunk kell őket.
algorithmic accountability,
hogy az algoritmusok számon kérhetők,
átláthatók legyenek.
that bringing math and computation
és az informatika bevonása
viszonyokba
invades the algorithms.
komplexitása átitatja az algoritmust.
az informatikát,
to our moral responsibility to judgment,
nekünk kell viselnünk,
keretek között kell használnunk,
and outsource our responsibilities
az egymás iránti felelősségünkről,
kell ragaszkodnunk
ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologistTechno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.
Why you should listen
We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.
Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.
Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.
Zeynep Tufekci | Speaker | TED.com