Zeynep Tufekci: Machine intelligence makes human morals more important
Zeynep Tufekci: Sztuczna inteligencja podkreśla wagę ludzkiej moralności
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread. Full bio
Double-click the English transcript below to play the video.
as a computer programmer
na pierwszym roku studiów,
dla firmy tworzącej oprogramowania.
podszedł do mnie i wyszeptał:
came down to where I was,
And why are we whispering?"
at the computer in the room.
an affair with the receptionist.
więc odkrzyknęłam szeptem:
if you're lying."
the laugh's on me.
ale teraz można śmiać się ze mnie.
które potrafią ropoznawać
emotional states and even lying
na podstawie zdjęć twarzy.
wyrażają zainteresowanie.
are very interested.
uwielbiałam matematykę i naukę.
crazy about math and science.
przejęłam się kwestią etyki w nauce.
I'd learned about nuclear weapons,
with the ethics of science.
musiałam jak najszybciej zacząć pracować.
as soon as possible.
let me pick a technical field
w której łatwo znajdę pracę
with any troublesome questions of ethics.
o zawiłych kwestiach etycznych.
All the laughs are on me.
które kontrolują to,
are building platforms
people see every day.
mogące zdecydować, kogo przejechać.
that could decide who to run over.
która mogłaby być użyta w czasie wojny.
kwestie etyczne.
to make all sort of decisions,
do podejmowania różnych decyzji,
uzyskać odpowiedzi na pytania,
that have no single right answers,
otwarte i wartościujące.
powinna zobaczyć?
should you be shown?"
popełni kolejne przestępstwo?
likely to reoffend?"
zarekomendowane widowni?".
should be recommended to people?"
computers for a while,
ale to są kwestie innego rodzaju.
z tak subiektywnymi kwestiami,
for such subjective decisions
for flying airplanes, building bridges,
budowa mostów i wyprawy na Księżyc.
Did the bridge sway and fall?
fairly clear benchmarks,
i prawa natury, które wskazują drogę.
w pogmatwanych ludzkich sprawach.
our software is getting more powerful,
staje się coraz potężniejsze,
transparent and more complex.
przejrzyste i bardziej złożone.
skomplikowane algorytmy
have made great strides.
na kartach kredytowych,
from a method called "machine learning."
zawdzięczamy metodzie
than traditional programming,
od klasycznego programowania,
detailed, exact, painstaking instructions.
dokładną i szczegółową instrunkcję.
dużej ilości danych do systemu,
and you feed it lots of data,
takich jakie generujemy w sieci.
in our digital lives.
przedzierając się przez te dane.
by churning through this data.
under a single-answer logic.
jednoznacznych odpowiedzi.
tylko określają prawdopodobieństwo:
it's more probabilistic:
what you're looking for."
do tego czego szukasz".
this method is really powerful.
ma bardzo duży potencjał.
sztucznej inteligencji Google
"nieuzasadnioną skutecznością danych".
czego nauczył się system
what the system learned.
wydawania instrukcji komputerowi.
instructions to a computer;
mechanicznego szczeniaczka,
a puppy-machine-creature
i nie potrafimy kontrolować.
intelligence system gets things wrong.
gdy ta sztuczna inteligencja się myli.
również wtedy, gdy ma rację,
when it gets things right,
w przypadku subiektywnej kwestii.
when it's a subjective problem.
co ten system sobie myśli.
za rekrutację pracowników.
using machine-learning systems.
na metodzie samouczenia się maszyn.
on previous employees' data
pracowników danej firmy
jak obecni najwydajniejsi pracownicy.
high performers in the company.
na której obecne były także osoby
human resources managers and executives,
i dyrektorzy używający takich systemów.
more objective, less biased,
stanie się bardziej obiektywne,
i przedstawicielom mniejszości
and minorities a better shot
wobec tendencyjnych decyzji managerów.
zatrudnienia są stronnicze.
moja bezpośrednia przełożona
as a programmer,
come down to where I was
bardzo wcześnie rano
or really late in the afternoon,
i mówiła: "Chodźmy na lunch!".
let's go to lunch!"
więc zawsze się zgadzałam.
had not confessed to their higher-ups
nie przyznali się swoim szefom,
zatrudnili programistę-nastolatkę,
for a serious job was a teen girl
ale wyglądałam nie tak,
I just looked wrong
i nieodpowiedniej płci.
bez uwzględniania płci czy rasy.
to wszystko jest bardziej skomplikowane.
it is more complicated, and here's why:
wyciągnąć wiele wniosków
can infer all sorts of things about you
elektronicznej informacji,
disclosed those things.
orientacji seksualnej,
przekonań politycznych.
with high levels of accuracy.
you haven't even disclosed.
spraw, których nawet nie ujawniliście.
tego rodzaju, aby przewidywać
such computational systems
depresję kliniczną lub poporodową
of clinical or postpartum depression
z serwisów społecznościowych.
przewidzieć prawdopodobieństwo
the likelihood of depression
wystąpieniem jakichkolwiek objawów.
Nie ma objawów, jest przewidywanie.
for early intervention. Great!
że system posłuży wczesnemu leczeniu.
w kontekście zatrudniania.
do jednej wysokopostawionej managerki
managers conference,
in a very large company,
i powiedziałam:
what if, unbeknownst to you,
za twoimi plecami wyklucza osoby
with high future likelihood of depression?
zachorowania na depresję?
ale być może w przyszłości.
just maybe in the future, more likely.
które prawdopodobnie za rok lub dwa
more likely to be pregnant
but aren't pregnant now?
because that's your workplace culture?"
w waszej firmie?".
patrząc na zestawienia pracowników
at gender breakdowns.
te mogą się równoważyć.
not traditional coding,
a nie klasyczne programowanie,
"ciąża" lub "wysoki poziom agresji".
labeled "higher risk of depression,"
twój system dokonuje wyboru.
what your system is selecting on,
where to begin to look.
but you don't understand it.
ale nie rozumiesz jak działa.
żeby upewnić się,
isn't doing something shady?"
nie robi czegoś podejrzanego?"
nadepnęła na ogon szczeniaczkowi.
just stepped on 10 puppy tails.
"Ani słowa więcej".
another word about this."
isn't my problem, go away, death stare.
to nie jest mój problem, odejdź".
may even be less biased
stronnicze niż managerowie.
i niepostrzeżonego zamykania
shutting out of the job market
ryzykiem zachorowań na depresję.
nie wiedząc nawet o tym, że to robimy,
we want to build,
to machines we don't totally understand?
na danych opartych na ludzkich działaniach
on data generated by our actions,
reflecting our biases,
nasze własne uprzedzenia,
could be picking up on our biases
obiektywne i neutralne obliczenia.
neutral computation."
dobrze płatne oferty pracy.
to be shown job ads for high-paying jobs.
suggesting criminal history,
sugerującymi kryminalną przeszłość,
and black-box algorithms
i algorytmy typu czarnej skrzynki,
but sometimes we don't know,
na ludzkie życie.
więzienia za ucieczkę przed policją.
was sentenced to six years in prison
przy wydawaniu wyroków.
in parole and sentencing decisions.
jak ten wynik jest obliczany.
How is this score calculated?
be challenged in open court.
algorytmu podczas otwartej rozprawy.
nonprofit, audited that very algorithm
ProPublica, zweryfikowała ten algorytm
dostępnych danych i dowiodła,
były stronnicze,
was dismal, barely better than chance,
niewiele lepsza od losowej,
black defendants as future criminals
czarnoskórych oskarżonych
dwukrotnie częściej niż białych.
po odbiór chrześnicy ze szkoły.
picking up her godsister
i na jednym z ganków zauważyli
with a friend of hers.
and a scooter on a porch
na które bezmyślnie wskoczyli.
krzycząc: "To rowerek mojego dziecka!".
a woman came out and said,
ale zostali aresztowani.
but they were arrested.
ale miała tylko 18 lat.
but she was also just 18.
kilka młodzieńczych wykroczeń.
for shoplifting in Home Depot --
za kradzież towarów o wartości 85 dolarów,
a similar petty crime.
dwukrotnie skazany za napad z bronią.
armed robbery convictions.
ponownego popełnienia przestępstwa.
as high risk, and not him.
że kobieta nie popełniła więcej wykroczeń,
that she had not reoffended.
pracy z taką historią wykroczeń.
for her with her record.
odsiadywał ośmioletni wyrok
prison term for a later crime.
którego dopuścił się ponownie.
dokonywać rewizji czarnych skrzynek
this kind of unchecked power.
but they don't solve all our problems.
ale nie rozwiążą wszystkich problemów.
który nadaje wszystkiemu jakąś wagę
news feed algorithm --
and decides what to show you
co publikują wasi znajomi.
kolejne zdjęcie bobasa?
komentarze, udostępnienia, polubienia.
for engagement on the site:
wybuchł protest po śmierci
zabitego przez białego policjanta
teenager by a white police officer,
mój niefiltrowany profil na Tweeterze,
unfiltered Twitter feed,
co jest trudne,
keeps wanting to make you
żeby nas kontrolować
rozmawiali o tej sprawie.
were talking about it.
wasn't showing it to me.
bo Facebook mi tego nie pokazywał.
this was a widespread problem.
wasn't algorithm-friendly.
wysoko oceniona przez algorytm.
prawdopodobnie pokazywał
to even fewer people,
i dlatego jej nie widzieliśmy.
wypromował Ice Bucket Challenge.
ofiaruj pieniądze, super.
donate to charity, fine.
but difficult conversation
mogła zostać wyciszona,
can also be wrong
IBM's machine-intelligence system
system sztucznej inteligencji IBM,
with human contestants on Jeopardy?
konkursu wiedzy Jeopardy?
Watson was asked this question:
nosi nazwę bohatera
for a World War II hero,
podczas II wojny światowej".
for a World War II battle."
odpowiedziało poprawnie.
answered "Toronto" --
w kategorii dotyczącej miast w USA.
nawet drugoklasista.
a second-grader wouldn't make.
może zawieść w sposób,
error patterns of humans,
and be prepared for.
i na który nie będziemy gotowi.
one is qualified for,
na którą się zasługuje,
gdyby to się stało
if it was because of stack overflow
w jakimś podprogramie.
krach giełdy na Wall Street
fueled by a feedback loop
zwrotnym algorytmu "sprzedaży"
trylionów dolarów w 36 minut.
of value in 36 minutes.
what "error" means
co taka "pomyłka" oznaczałaby
autonomous weapons.
broni śmiercionośnej.
mediach, na wojnie... popełniają błędy.
but that's exactly my point.
these difficult questions.
odpowiedzialności na maszyny.
our responsibilities to machines.
a "Get out of ethics free" card.
nie zwalnia nas z myślenia etycznego.
nazywał to "matematycznym praniem mózgu".
calls this math-washing.
sceptycyzm wobec algorytmów
scrutiny and investigation.
oraz dokładność w ich badaniu.
algorithmic accountability,
algorytmiczną odpowiedzialność,
że wprowadzenie matematyki i obliczeń
that bringing math and computation
wartościowania ludzkich spraw
invades the algorithms.
to our moral responsibility to judgment,
i używać algorytmów w jej granicach,
and outsource our responsibilities
i odrzucenia tej odpowiedzialności.
trzymać się ludzkich wartości i etyki.
ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologistTechno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.
Why you should listen
We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.
Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.
Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.
Zeynep Tufekci | Speaker | TED.com