Zeynep Tufekci: Machine intelligence makes human morals more important
ზეინეპ ტუფეკჩი: მანქანური ინტელექტი, ადამიანურ მორალს უფრო მნიშვნელოვანს ხდის
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread. Full bio
Double-click the English transcript below to play the video.
as a computer programmer
პროგრამისტად დავიწყე.
პროგრამების წერას გულისხმობდა,
came down to where I was,
And why are we whispering?"
და რატომ ვჩურჩულებთ?"
at the computer in the room.
კომპიუტერზე მიმანიშნა.
an affair with the receptionist.
if you're lying."
რომ იტყუებით"
the laugh's on me.
მაგრამ ახლა მე ვარ დასაცინი.
გამოთვლითი სისტემები,
emotional states and even lying
სახის დამუშავებით,
და ტყუილის გამოცნობაც კი.
are very interested.
ძალიან დაინტერესებულები არიან.
crazy about math and science.
ვინც მათემატიკაზე და მეცნიერებაზე გიჟდება,
I'd learned about nuclear weapons,
ბირთვულ იარაღზე შევიტყვე
with the ethics of science.
სამეცნიერო ეთიკაზე.
as soon as possible.
let me pick a technical field
არჩევა გადავწყვიტე,
with any troublesome questions of ethics.
ეთიკურ კითხვებთან ჭიდილი.
All the laughs are on me.
are building platforms
ქმნიან პლატფორმებს,
people see every day.
მილიარდობით ადამიანი ყოველდღე.
that could decide who to run over.
რომლებიც წყვეტენ თუ ვის დაარტყან.
და იარაღებსაც კი ქმნიან,
შეუძლიათ ომში.
to make all sort of decisions,
გადაწყვეტილებების მისაღებად ვიყენებთ
that have no single right answers,
რომლებსაც არ აქვთ ერთი სწორი პასუხი,
და შეფასებისთვის.
should you be shown?"
რომელი სიახლე უნდა გაჩვენოთ"
likely to reoffend?"
რომ გაიმეოროს დანაშაული"
should be recommended to people?"
ან ფილმი უნდა შევთავაზოთ ხალხს?"
computers for a while,
ვიყენებთ კომპიუტერებს,
for such subjective decisions
ასეთ სუბიექტურ გადაწყვეტილებებს,
for flying airplanes, building bridges,
ხიდების აშენების,
Did the bridge sway and fall?
ხიდებიც არ ინგრევა.
fairly clear benchmarks,
our software is getting more powerful,
რომ ჩვენი პროგრამები სულ უფრო ძლევამოსილი
transparent and more complex.
და უფრო კომპლექსური ხდება
have made great strides.
დიდი მიღწევები ჰქონდათ.
სიმსივნის აღმოჩენა შეუძლიათ.
from a method called "machine learning."
ე.წ. "მანქანური სწავლებით" მიიღწევა.
than traditional programming,
განსხვავდება ტრადიციული პროგრამირებისგან,
detailed, exact, painstaking instructions.
და დეტალურ ინსტრუქციებს აძლევთ.
and you feed it lots of data,
ბევრ მონაცემს აწვდით,
ჩვენ ციფრულ ცხოვრებაში ვქმნით
in our digital lives.
by churning through this data.
გარჩევას სწავლობს.
under a single-answer logic.
ერთპასუხიანი ლოგიკით არ მუშაობენ.
it's more probabilistic:
პასუხი უფრო სავარაუდოა:
what you're looking for."
this method is really powerful.
რომ ეს მეთოდი მართლაც ეფექტურია.
სისტემების ხელმძღვანელმა მათ უწოდა:
what the system learned.
რა ისწავლა სისტემამ.
instructions to a computer;
ინსტრუქციების მიცემას არ ჰგავს.
a puppy-machine-creature
და ვერ ვაკონტროლებთ.
intelligence system gets things wrong.
რაღაც არასწორად ესმის.
when it gets things right,
როცა მას რაღაც სწორად ესმის,
when it's a subjective problem.
როცა პრობლემა სუბიექტურია.
using machine-learning systems.
მანქანური სწავლების გამოყენებით აჰყავს.
on previous employees' data
მონაცემებზეა გაწვრთნილი,
high performers in the company.
მქონე თანამშრომლების მსგავსი ხალხი.
human resources managers and executives,
და აღმასრულებლები ესწრებოდნენ,
more objective, less biased,
აყვანის პროცესს უფრო ობიექტურს გახდიდა
and minorities a better shot
ადამიანი მენეჯერების
მეტ შანსს მისცემდა.
ტენდენციურია.
as a programmer,
სადაც პროგრამისტი ვიყავი,
come down to where I was
or really late in the afternoon,
ან გვიან შუადღეს და მეტყოდა:
let's go to lunch!"
ამიტომ ამ უფასო ლანჩზე მივდიოდი.
had not confessed to their higher-ups
თავისი უფროსისთვის არ უთქვამს,
for a serious job was a teen girl
რომელიც სერიოზული სამუშაოსთის აიყვანა
და ბოტასებით დადიოდა სამსახურში.
უბრალოდ არასათანადოდ გამოვიყურებოდი
I just looked wrong
და რასის გარეშე სამსახურში აყვანა
it is more complicated, and here's why:
ეს უფრო რთულია და აი რატომ:
can infer all sorts of things about you
რამის ამოცნობა შეუძლიათ თქვენ შესახებ,
disclosed those things.
არსად განგითავსებიათ.
თქვენი სექსუალური ორიენტაცია,
with high levels of accuracy.
პროგნოზირების უნარი აქვთ.
you haven't even disclosed.
რაც თქვენ არ გაგიმხელიათ.
such computational systems
რომელმაც ასეთი გამოთვლითი სისტემა შექმნა.
of clinical or postpartum depression
მონაცემების მიხედვით
დეპრესიის ალბათობას პროგნოზირებს.
the likelihood of depression
თვეებით ადრე შეუძლია...
for early intervention. Great!
ინტერვენციისთვის გამოიყენებენ. მშვენიერია!
აყვანის კონტექსტში ჩავსვათ.
managers conference,
კონფერენციაზე,
in a very large company,
მაღალი დონის მენეჯერთან
what if, unbeknownst to you,
with high future likelihood of depression?
დეპრესიის დიდი ალბათობა აქვთ მომავალში.
just maybe in the future, more likely.
მომავალში კი ალბათობა დიდია.
more likely to be pregnant
რომელიც დიდი შანსია
but aren't pregnant now?
განმავლობაში დაფეხმძიმდეს?
because that's your workplace culture?"
რადგან ასეთია თქვენი სამუშაო გარემო?"
ჩაშლით ვერ მიხვდებით.
at gender breakdowns.
not traditional coding,
და არა ტრადიციული კოდირება,
labeled "higher risk of depression,"
"დეპრესიის მომატებული რისკი"
what your system is selecting on,
როს მიხედვით არჩევს სისტემა,
where to begin to look.
საიდან დაიწყოთ ამის გარკვევა.
but you don't understand it.
მაგრამ თქვენ ის არ გესმით.
ვკითხე მე,
isn't doing something shady?"
შავი ყუთი რამე საეჭვოს არ აკეთებს?"
just stepped on 10 puppy tails.
10 ლეკვს ერთად დავაბიჯე კუდზე.
another word about this."
isn't my problem, go away, death stare.
ჩემი პრობლემა არაა, მომშორდი, ცივი მზერით.
may even be less biased
ნაკლებად ტენდენციური,
shutting out of the job market
მომატებული რისკის მქონე ხალხის
we want to build,
to machines we don't totally understand?
ისეთ მანქანებს მივანდეთ,
მონაცემებზე, რომლებსაც ჩვენ ვქმნით.
on data generated by our actions,
reflecting our biases,
ჩვენს ტენდენციურობებს ასახავდეს
could be picking up on our biases
ჩვენს ტენდენციებს იზიარებდნენ,
neutral computation."
და ნეიტრალურ გამოთვლებს ვაწარმოებთ"
to be shown job ads for high-paying jobs.
მაღალანაზღაურებადი სამუშაოს რეკლამა ნახონ,
suggesting criminal history,
ამბავი ამოგიხტეთ
and black-box algorithms
და შავი ყუთის ალგორითმებმა,
but sometimes we don't know,
ზოგჯერ კი არც ვიცით,
მიგვიყვანოს.
was sentenced to six years in prison
in parole and sentencing decisions.
ალგორითმები მზარდად გამოიყენება.
How is this score calculated?
როგორ გამოითვალეს?
be challenged in open court.
მათი ალგორითმი ღია სასამართლოზე განეხილათ,
nonprofit, audited that very algorithm
ეს ალგორითმი შეამოწმა,
was dismal, barely better than chance,
შემთხვევითობაზე ოდნავ უკეთესი.
black defendants as future criminals
მომავალ კრიმინალებად
ვიდრე თეთრკანიანებს.
picking up her godsister
წამოსაყვანად აგვიანდებოდა,
with a friend of hers.
მის მეგობართან ერთად,
and a scooter on a porch
და სკუტერი შენიშნეს
a woman came out and said,
ქალი გამოვიდა და თქვა:
but they were arrested.
და წავიდნენ, მაგრამ ისინი მაინც დააკავეს.
but she was also just 18.
მაგრამ ის მხოლოდ 18 იყო.
წვრილმანი დანაშაული ჰქონდა.
for shoplifting in Home Depot --
გაქურდვისთვის დააკავეს
a similar petty crime.
საკმაოდ მსგავსი დანაშაული,
armed robbery convictions.
ყაჩაღობისთვისაც იყო გასამართლებული.
as high risk, and not him.
მქონედ ქალი შეაფასა და არა ის.
მას განმეორებითი დანაშაული არ ჩაუდენია.
that she had not reoffended.
for her with her record.
ასეთი წარსულის გამო.
prison term for a later crime.
ბოლო დანაშაულისთვის.
this kind of unchecked power.
ასეთი უკონტროლო ძალაუფლება.
but they don't solve all our problems.
მაგრამ ეს ყველა პრობლემას არ აგვარებს.
news feed algorithm --
მძლავრი ალგორითმი.
and decides what to show you
და წყვეტს რა უნდა გაჩვენოთ,
რომელის გამომწერიც ხართ.
კიდევ ერთი ბავშვის სურათი?
for engagement on the site:
ოპტიმიზაციას აკეთებს
თეთრკანიანი პოლიციელის მიერ
teenager by a white police officer,
აფრო-ამერიკელი თინეიჯერის მკვლელობას,
unfiltered Twitter feed,
ტვიტერზე ყველგან იყო,
ფეისბუკ მეგობრების გამო იყო ასე?
keeps wanting to make you
მუდმივად ცდილობს
were talking about it.
ვნახე რომ მეგობრები საუბრობენ ამაზე.
wasn't showing it to me.
this was a widespread problem.
რომ ეს გავრცელებული პრობლემაა.
wasn't algorithm-friendly.
ალგორითმისთვის არ იყო პრიორიტეტული.
to even fewer people,
donate to charity, fine.
და ვრიცხავთ შემოწირულობას. მშვენიერია.
ჩვენ მაგივრად მიიღო.
but difficult conversation
მნიშვნელოვანი დისკუსია,
can also be wrong
არადამახასიათებლად ცდებოდნენ.
IBM's machine-intelligence system
IBM-ის მანქანური ინტელექტის სისტემა,
with human contestants on Jeopardy?
მონაწილე ადამიანი გაანადგურა?
Watson was asked this question:
მეორე მსოფლიო ომის გმირის სახელობისაა,
for a World War II hero,
მეორე მსოფლიო ომის ბრძოლის სახელობის."
for a World War II battle."
answered "Toronto" --
ისეთი შეცდომა დაუშვა,
a second-grader wouldn't make.
მეორე კლასელი არ დაუშვებდა.
შეიძლება ისეთი შეცდომები დაუშვას,
error patterns of humans,
ხასიათში არ ჯდება.
and be prepared for.
და მოუმზადებლები აღმოვჩნდეთ.
one is qualified for,
შესაბამისი კადრი ვერ აღმოჩნდება,
if it was because of stack overflow
თუ ეს რომელიღაც ქვეპროგრამაში,
fueled by a feedback loop
რომელიც "უოლ სტრიტის"
უკუკავშირის ციკლით იყო გამოწევეული,
of value in 36 minutes.
დაკარგვა გამოიწვია 36 წუთში.
რას შეიძლება ნიშნავდეს "შეცდომა"
what "error" means
autonomous weapons.
ყოველთვის ტენდენციურები არიან.
but that's exactly my point.
მაგრამ სწორედ ამაშია საქმე.
these difficult questions.
our responsibilities to machines.
ჩვენს ვალდებულებებს მანქანებს.
a "Get out of ethics free" card.
პრობლემების თავიდან აცილების საშუალებას.
ამას მათემატიკურ-წმენდას ეძახის.
calls this math-washing.
scrutiny and investigation.
და კვლევის წახალისება გვჭირდება.
algorithmic accountability,
ჩვენ ალგორითმულ ანგარიშვალდებულებაში,
that bringing math and computation
რომ მათემატიკის და გამოთვლის შემოტანას,
ადამიანურ ურთიერთობებში
invades the algorithms.
იჭრება ალგორითმებში.
და უნდა გამოვიყენოთ გამოთვლა,
to our moral responsibility to judgment,
უნდა ავიღოთ გადაწყვეტილებებზე
and outsource our responsibilities
როგორც ადამიანიდან ადამიანზე
ადამიანურ ფასეულობებსა და ადამიანურ ეთიკას
ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologistTechno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.
Why you should listen
We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.
Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.
Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.
Zeynep Tufekci | Speaker | TED.com