ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.

Why you should listen

We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.

Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.

Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.

More profile about the speaker
Zeynep Tufekci | Speaker | TED.com
TEDSummit

Zeynep Tufekci: Machine intelligence makes human morals more important

ზეინეპ ტუფეკჩი: მანქანური ინტელექტი, ადამიანურ მორალს უფრო მნიშვნელოვანს ხდის

Filmed:
1,648,711 views

მანქანური ინტელექტი უკვე აწმყოა და ჩვენ უკვე ვიყენებთ მას სუბიექტური გადაწყვეტილებების მიღებისას, მაგრამ ის კომპლექსური გზა, რომლითაც ხელოვნური ინტელექტი უმჯობესდება, საგრძნობლად ართულებს მის გაგებას და მით უფრო კონტროლს. ამ გამოსვლაში ტექნო-სოციოლოგი ზეინეპ ტუფეკჩი ხსნის, თუ როგორ შეიძლება მოაზროვნე მანქანებმა ისეთი შეცდომები დაუშვან, რომელიც ადამიანებისთვის არაა დამახასიათებელი და შესაბამისად როგორი მოუმზადებლები შეიძლება აღმოვჩნდეთ ამ მოულოდნელობისთვის. "ჩვენ ვერ გადავაბარებთ მანქანას ჩვენს მოვალეობებს" ამბობს ის "ჩვენ კიდევ უფრო უნდა ჩავეჭიდოთ ადამიანურ ფასეულობებსა და ადამიანურ ეთიკას"
- Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread. Full bio

Double-click the English transcript below to play the video.

00:12
So, I started my first job
as a computer programmer
0
739
4122
ჩემი პირველი სამსახური
პროგრამისტად დავიწყე.
00:16
in my very first year of college --
1
4885
1956
ეს იყო კოლეჯის პირველ წელს,
00:18
basically, as a teenager.
2
6865
1507
როცა ფაქტიურად თინეიჯერი ვიყავი.
00:20
Soon after I started working,
3
8889
1732
მუშაობის დაწყებიდან მალევე,
00:22
writing software in a company,
4
10645
1610
რაც კომპანიისთვის
პროგრამების წერას გულისხმობდა,
00:24
a manager who worked at the company
came down to where I was,
5
12799
3635
კომპანიაში მომუშავე მენეჯერი მოვიდა ჩემთან
00:28
and he whispered to me,
6
16458
1268
და ჩამჩურჩულა:
00:30
"Can he tell if I'm lying?"
7
18229
2861
"შეუძლია მას მიხვდეს, ვიტყუები თუ არა?"
00:33
There was nobody else in the room.
8
21806
2077
ოთახში მეტი არავინ იყო.
00:37
"Can who tell if you're lying?
And why are we whispering?"
9
25032
4389
"ვის შეუძლია მიხვდეს?
და რატომ ვჩურჩულებთ?"
00:42
The manager pointed
at the computer in the room.
10
30266
3107
მენეჯერმა ოთახში მდგარ
კომპიუტერზე მიმანიშნა.
00:45
"Can he tell if I'm lying?"
11
33397
3096
"შეუძლია მიხვდეს, რომ ვიტყუები?"
00:49
Well, that manager was having
an affair with the receptionist.
12
37613
4362
ამ მენეჯერს მდივანთან რომანი ჰქონდა.
00:53
(Laughter)
13
41999
1112
(სიცილი)
00:55
And I was still a teenager.
14
43135
1766
მე ჯერ კიდევ თინეიჯერი ვიყავი
00:57
So I whisper-shouted back to him,
15
45447
2019
და ჩურჩულით დავუყვირე:
00:59
"Yes, the computer can tell
if you're lying."
16
47490
3624
"დიახ, კომპიუტერს შეუძლია მიხვდეს,
რომ იტყუებით"
01:03
(Laughter)
17
51138
1806
(სიცილი)
01:04
Well, I laughed, but actually,
the laugh's on me.
18
52968
2923
მე კი ვიცინე,
მაგრამ ახლა მე ვარ დასაცინი.
01:07
Nowadays, there are computational systems
19
55915
3268
დღესდღეობით არსებობს
გამოთვლითი სისტემები,
01:11
that can suss out
emotional states and even lying
20
59207
3548
რომლებსაც შეუძლიათ ადამიანის
სახის დამუშავებით,
ემოციური მდგომარეობის
და ტყუილის გამოცნობაც კი.
01:14
from processing human faces.
21
62779
2044
01:17
Advertisers and even governments
are very interested.
22
65248
4153
სარეკლამოები და მთავრობებიც კი,
ძალიან დაინტერესებულები არიან.
01:22
I had become a computer programmer
23
70319
1862
მე პროგრამისტი იმიტომ გავხდი,
01:24
because I was one of those kids
crazy about math and science.
24
72205
3113
რომ ერთ-ერთი იმ ბავშთაგანი ვიყავი,
ვინც მათემატიკაზე და მეცნიერებაზე გიჟდება,
01:27
But somewhere along the line
I'd learned about nuclear weapons,
25
75942
3108
მაგრამ რაღაც მომენტში
ბირთვულ იარაღზე შევიტყვე
01:31
and I'd gotten really concerned
with the ethics of science.
26
79074
2952
და სერიოზულად დავფიქრდი
სამეცნიერო ეთიკაზე.
01:34
I was troubled.
27
82050
1204
ამან შემაწუხა.
01:35
However, because of family circumstances,
28
83278
2641
თუმცა, ოჯახური გარემოებების გამო
01:37
I also needed to start working
as soon as possible.
29
85943
3298
სამსახურის დაწყება სასწრაფოდ მჭირდებოდა.
01:41
So I thought to myself, hey,
let me pick a technical field
30
89265
3299
ამიტომ ტექნიკური სფეროს
არჩევა გადავწყვიტე,
01:44
where I can get a job easily
31
92588
1796
სადაც სამსახურს უფრო ადვილად ვიშოვიდი
01:46
and where I don't have to deal
with any troublesome questions of ethics.
32
94408
4018
და სადაც არ მომიწევდა პრობლემურ
ეთიკურ კითხვებთან ჭიდილი.
01:51
So I picked computers.
33
99022
1529
შედეგად კომპიუტერები ავარჩიე.
01:52
(Laughter)
34
100575
1104
(სიცილი)
01:53
Well, ha, ha, ha!
All the laughs are on me.
35
101703
3410
ჰა ჰა ჰა.. მე ვარ დასაცინი.
01:57
Nowadays, computer scientists
are building platforms
36
105137
2754
დღესდღეობით, კოპიუტერული მეცნიერები
ქმნიან პლატფორმებს,
01:59
that control what a billion
people see every day.
37
107915
4209
რომლებიც აკონტროლებენ, თუ რას ნახულობს
მილიარდობით ადამიანი ყოველდღე.
02:05
They're developing cars
that could decide who to run over.
38
113052
3822
ისინი ქმნიან მანქანებს,
რომლებიც წყვეტენ თუ ვის დაარტყან.
02:09
They're even building machines, weapons,
39
117707
3213
ისინი ისეთ მანქანებს
და იარაღებსაც კი ქმნიან,
02:12
that might kill human beings in war.
40
120944
2285
რომლებსაც ადამიანების მოკვლა
შეუძლიათ ომში.
02:15
It's ethics all the way down.
41
123253
2771
აქ ყველგან ეთიკაა.
02:19
Machine intelligence is here.
42
127183
2058
მანქანური ინტელექტი აწმყოა.
02:21
We're now using computation
to make all sort of decisions,
43
129823
3474
ჩვენ ამჟამად კომპიუტერებს მთელი რიგი
გადაწყვეტილებების მისაღებად ვიყენებთ
02:25
but also new kinds of decisions.
44
133321
1886
და ასევე ახალი გადაწყვეტებისთვისაც.
02:27
We're asking questions to computation
that have no single right answers,
45
135231
5172
ჩვენ კომპიუტერებს ისეთ კითხვებს ვუსვამთ,
რომლებსაც არ აქვთ ერთი სწორი პასუხი,
02:32
that are subjective
46
140427
1202
რომლებიც სუბიექტურია
02:33
and open-ended and value-laden.
47
141653
2325
და ღიაა ინტერპრეტაციებისა
და შეფასებისთვის.
02:36
We're asking questions like,
48
144002
1758
მაგალთად ვუსვამთ კითხვებს:
02:37
"Who should the company hire?"
49
145784
1650
"ვინ უნდა იქირაოს კომპანიამ?"
02:40
"Which update from which friend
should you be shown?"
50
148096
2759
"რომელი მეგობრის,
რომელი სიახლე უნდა გაჩვენოთ"
02:42
"Which convict is more
likely to reoffend?"
51
150879
2266
"რომელმა ნასამართლევმა უფრო დიდი შანსია,
რომ გაიმეოროს დანაშაული"
02:45
"Which news item or movie
should be recommended to people?"
52
153514
3054
"რომელი სიახლე,
ან ფილმი უნდა შევთავაზოთ ხალხს?"
02:48
Look, yes, we've been using
computers for a while,
53
156592
3372
დიახ, ჩვენ დიდი ხანია
ვიყენებთ კომპიუტერებს,
02:51
but this is different.
54
159988
1517
მაგრამ ეს სხვა რამეა.
02:53
This is a historical twist,
55
161529
2067
ეს ისტორიული შემობრუნებაა,
02:55
because we cannot anchor computation
for such subjective decisions
56
163620
5337
რადგან ჩვენ ვერ დავაფუძნებთ კომპიუტერებზე
ასეთ სუბიექტურ გადაწყვეტილებებს,
03:00
the way we can anchor computation
for flying airplanes, building bridges,
57
168981
5420
როგორც ვაკეთებდით თვითმფრინავის მართვის,
ხიდების აშენების,
03:06
going to the moon.
58
174425
1259
და მთვარეზე გაფრენის შემთხვევაში.
03:08
Are airplanes safer?
Did the bridge sway and fall?
59
176449
3259
თვითმფინავები ხომ უფრო უსაფრთხოა?
ხიდებიც არ ინგრევა.
03:11
There, we have agreed-upon,
fairly clear benchmarks,
60
179732
4498
ამ შემთხვევებში მკაფიო წესებზე შევთანხმდით
03:16
and we have laws of nature to guide us.
61
184254
2239
და ბუნების კანონებით ვხემძღვანელობთ.
03:18
We have no such anchors and benchmarks
62
186517
3394
ჩვენ არ გვაქვს მსგავსი ნიშნულები და წესები
03:21
for decisions in messy human affairs.
63
189935
3963
ადამიანთა უწესრიგო ურთიერთობებში.
03:25
To make things more complicated,
our software is getting more powerful,
64
193922
4237
ამ ყველაფერს ის უფრო ამძიმებს,
რომ ჩვენი პროგრამები სულ უფრო ძლევამოსილი
03:30
but it's also getting less
transparent and more complex.
65
198183
3773
და ამავე დროს ნაკლებად გასაგები
და უფრო კომპლექსური ხდება
03:34
Recently, in the past decade,
66
202542
2040
ცოტა ხნის წინ, გასულ ათწლეულში,
03:36
complex algorithms
have made great strides.
67
204606
2729
კომპლექსურ ალგირითმებს
დიდი მიღწევები ჰქონდათ.
03:39
They can recognize human faces.
68
207359
1990
მათ ადამიანის სახეების ამოცნობა შეუძლიათ.
03:41
They can decipher handwriting.
69
209985
2055
ხელნაწერის გარჩევა შეუძლიათ,
03:44
They can detect credit card fraud
70
212436
2066
შეუძლიათ ყალბი საკრედიტო ბარათი ამოიცნონ
03:46
and block spam
71
214526
1189
და დაბლოკონ სპამი.
03:47
and they can translate between languages.
72
215739
2037
ასევე თარგმნონ სხვადასხვა ენებზე.
03:49
They can detect tumors in medical imaging.
73
217800
2574
მათ რენტგენის სურათზე
სიმსივნის აღმოჩენა შეუძლიათ.
03:52
They can beat humans in chess and Go.
74
220398
2205
ისინი ჭადრაკში ადამიანს ამარცხებენ.
03:55
Much of this progress comes
from a method called "machine learning."
75
223264
4504
ამ პროგრესის უმეტესობა
ე.წ. "მანქანური სწავლებით" მიიღწევა.
04:00
Machine learning is different
than traditional programming,
76
228175
3187
მანქანური სწავლება
განსხვავდება ტრადიციული პროგრამირებისგან,
04:03
where you give the computer
detailed, exact, painstaking instructions.
77
231386
3585
როცა კომპიუტერს ზუსტ
და დეტალურ ინსტრუქციებს აძლევთ.
04:07
It's more like you take the system
and you feed it lots of data,
78
235378
4182
ამ შემთხვევაში სისტემას
ბევრ მონაცემს აწვდით,
მათ შორის უსტრუქტურო მონაცემს.
04:11
including unstructured data,
79
239584
1656
ისეთი ტიპის მონაცემებს, რომლებსაც
ჩვენ ციფრულ ცხოვრებაში ვქმნით
04:13
like the kind we generate
in our digital lives.
80
241264
2278
04:15
And the system learns
by churning through this data.
81
243566
2730
და სისტემა ამ მონაცემების
გარჩევას სწავლობს.
04:18
And also, crucially,
82
246669
1526
ასევე, საკვანძოა,
04:20
these systems don't operate
under a single-answer logic.
83
248219
4380
რომ ეს სისტემები
ერთპასუხიანი ლოგიკით არ მუშაობენ.
04:24
They don't produce a simple answer;
it's more probabilistic:
84
252623
2959
ისინი მარტივ პასუხს არ იძლევიან;
პასუხი უფრო სავარაუდოა:
04:27
"This one is probably more like
what you're looking for."
85
255606
3483
"სავარაუდოდ ამას უფრო ეძებდით"
04:32
Now, the upside is:
this method is really powerful.
86
260023
3070
ამის დადებითი მხარე ისაა,
რომ ეს მეთოდი მართლაც ეფექტურია.
04:35
The head of Google's AI systems called it,
87
263117
2076
გუგლის ხელოვნური ინტელექტის
სისტემების ხელმძღვანელმა მათ უწოდა:
04:37
"the unreasonable effectiveness of data."
88
265217
2197
"მონაცემების ირაციონალური ეფექტურობა"
04:39
The downside is,
89
267791
1353
უარყოფითი მხარე კი,
04:41
we don't really understand
what the system learned.
90
269738
3071
რომ ჩვენ რეალურად არ ვიცით
რა ისწავლა სისტემამ.
04:44
In fact, that's its power.
91
272833
1587
პრინციპში, სწორედ ესაა მისი ძალა.
04:46
This is less like giving
instructions to a computer;
92
274946
3798
ეს კომპიუტერისთვის
ინსტრუქციების მიცემას არ ჰგავს.
04:51
it's more like training
a puppy-machine-creature
93
279200
4064
ეს უფრო ლეკვ-მანქანის წვრთნაა.
04:55
we don't really understand or control.
94
283288
2371
ჩვენ რეალურად არ გვესმის
და ვერ ვაკონტროლებთ.
04:58
So this is our problem.
95
286362
1551
ჩვენი პრობლემაც ესაა.
05:00
It's a problem when this artificial
intelligence system gets things wrong.
96
288427
4262
პრობლემაა, როცა ხელოვნურ ინტელექტს
რაღაც არასწორად ესმის.
05:04
It's also a problem
when it gets things right,
97
292713
3540
ასევე პრობლემაა,
როცა მას რაღაც სწორად ესმის,
05:08
because we don't even know which is which
when it's a subjective problem.
98
296277
3628
რადგან ჩვენ არც კი ვიცით რა, რა არის,
როცა პრობლემა სუბიექტურია.
05:11
We don't know what this thing is thinking.
99
299929
2339
ჩვენ არ ვიცით ეს მოწყობილობა რას ფიქრობს.
05:15
So, consider a hiring algorithm --
100
303493
3683
განვიხილოთ კადრების ალგორითმი.
05:20
a system used to hire people,
using machine-learning systems.
101
308123
4311
სისტემა, რომელსაც თანამშრომლები
მანქანური სწავლების გამოყენებით აჰყავს.
05:25
Such a system would have been trained
on previous employees' data
102
313052
3579
ასეთი სისტემა, არსებული თანამშეომლების
მონაცემებზეა გაწვრთნილი,
05:28
and instructed to find and hire
103
316655
2591
რომ იპოვოს და შეარჩიოს
05:31
people like the existing
high performers in the company.
104
319270
3038
არსებული მაღალი შედეგების
მქონე თანამშრომლების მსგავსი ხალხი.
05:34
Sounds good.
105
322814
1153
მშვენივრად ჟღერს.
05:35
I once attended a conference
106
323991
1999
ერთხელ კონფერენციას დავესწარი,
05:38
that brought together
human resources managers and executives,
107
326014
3125
რომელსაც კადრების მენეჯერები
და აღმასრულებლები ესწრებოდნენ,
მაღალი თანამდებობის ხალხი,
05:41
high-level people,
108
329163
1206
05:42
using such systems in hiring.
109
330393
1559
რომლებიც მსგავს სისტემებს იყენებდნენ.
05:43
They were super excited.
110
331976
1646
ისინი აღტაცებულები იყვნენ,
05:45
They thought that this would make hiring
more objective, less biased,
111
333646
4653
მათ წარმოედგინათ, რომ ეს თანამშრომლების
აყვანის პროცესს უფრო ობიექტურს გახდიდა
05:50
and give women
and minorities a better shot
112
338323
3000
და ქალებს და უმცირესობებს,
ადამიანი მენეჯერების
05:53
against biased human managers.
113
341347
2188
ტენდენციურობასთან შედარებით
მეტ შანსს მისცემდა.
05:55
And look -- human hiring is biased.
114
343559
2843
და მართლაც ადამიანების მიერ შერჩევა
ტენდენციურია.
05:59
I know.
115
347099
1185
ეს ვიცი.
06:00
I mean, in one of my early jobs
as a programmer,
116
348308
3005
ერთ-ერთ ჩემ პირველ სამსახურში
სადაც პროგრამისტი ვიყავი,
06:03
my immediate manager would sometimes
come down to where I was
117
351337
3868
ჩემი უფროსი ზოგჯერ მოვიდოდა ხოლმე,
06:07
really early in the morning
or really late in the afternoon,
118
355229
3753
ძალიან ადრე დილას,
ან გვიან შუადღეს და მეტყოდა:
06:11
and she'd say, "Zeynep,
let's go to lunch!"
119
359006
3062
"ზეინეპ, მოდი, ლანჩზე წავიდეთ!"
06:14
I'd be puzzled by the weird timing.
120
362724
2167
მე გაკვირვებული ვიყავი ხოლმე ასეთ დროს.
06:16
It's 4pm. Lunch?
121
364915
2129
4 საათია, ლანჩი?
06:19
I was broke, so free lunch. I always went.
122
367068
3094
საშუალება არ მქონდა,
ამიტომ ამ უფასო ლანჩზე მივდიოდი.
06:22
I later realized what was happening.
123
370618
2067
მოგვიანებით აღმოვაჩინე რაც ხდებოდა.
06:24
My immediate managers
had not confessed to their higher-ups
124
372709
4546
ჩემ უშუალო უფროსს
თავისი უფროსისთვის არ უთქვამს,
06:29
that the programmer they hired
for a serious job was a teen girl
125
377279
3113
რომ პროგრამისტი,
რომელიც სერიოზული სამუშაოსთის აიყვანა
06:32
who wore jeans and sneakers to work.
126
380416
3930
თინეიჯერი გოგო იყო, რომელიც ჯინსებით
და ბოტასებით დადიოდა სამსახურში.
მე კარგად ვმუშაობდი,
უბრალოდ არასათანადოდ გამოვიყურებოდი
06:37
I was doing a good job,
I just looked wrong
127
385174
2202
06:39
and was the wrong age and gender.
128
387400
1699
და შეუსაბამო ასაკის და სქესის ვიყავი.
06:41
So hiring in a gender- and race-blind way
129
389123
3346
ასე რომ, სქესის
და რასის გარეშე სამსახურში აყვანა
06:44
certainly sounds good to me.
130
392493
1865
ნამდვილად კარგად ჟღერს.
06:47
But with these systems,
it is more complicated, and here's why:
131
395031
3341
თუმცა, ამ სისტემებით
ეს უფრო რთულია და აი რატომ:
06:50
Currently, computational systems
can infer all sorts of things about you
132
398968
5791
დღესდღეობით გამოთვლით სისტემებს ბევრი
რამის ამოცნობა შეუძლიათ თქვენ შესახებ,
თქვენი ციფრული კვალის მიხედვით
06:56
from your digital crumbs,
133
404783
1872
06:58
even if you have not
disclosed those things.
134
406679
2333
მაშინაც კი, თუ ეს მონაცემები
არსად განგითავსებიათ.
07:01
They can infer your sexual orientation,
135
409506
2927
მათ შეუძლიათ ამოიცნონ
თქვენი სექსუალური ორიენტაცია,
07:04
your personality traits,
136
412994
1306
პიროვნული თვისებები,
07:06
your political leanings.
137
414859
1373
პოლიტიკური გემოვნება.
07:08
They have predictive power
with high levels of accuracy.
138
416830
3685
მათ მაღალი სიზუსტით
პროგნოზირების უნარი აქვთ.
07:13
Remember -- for things
you haven't even disclosed.
139
421362
2578
გახსოვდეთ... ისეთი რამეების,
რაც თქვენ არ გაგიმხელიათ.
07:15
This is inference.
140
423964
1591
ეს ვარაუდით ხდება.
07:17
I have a friend who developed
such computational systems
141
425579
3261
მე მყავს მეგობარი,
რომელმაც ასეთი გამოთვლითი სისტემა შექმნა.
07:20
to predict the likelihood
of clinical or postpartum depression
142
428864
3641
ეს სისტემა სოციალური ქსელების
მონაცემების მიხედვით
კლინიკური, ან პოსტნატალური
დეპრესიის ალბათობას პროგნოზირებს.
07:24
from social media data.
143
432529
1416
07:26
The results are impressive.
144
434676
1427
შედეგები შთამბეჭდავია.
07:28
Her system can predict
the likelihood of depression
145
436492
3357
მის სისტემას დეპრესიის პროგნოზირება
07:31
months before the onset of any symptoms --
146
439873
3903
ნაბისმიერი სიმპტომების გაჩენამდე,
თვეებით ადრე შეუძლია...
07:35
months before.
147
443800
1373
თვეებით ადრე.
07:37
No symptoms, there's prediction.
148
445197
2246
პროგნოზი უსიმპტომებოდ.
07:39
She hopes it will be used
for early intervention. Great!
149
447467
4812
ის იმედოვნებს, რომ ამას ადრეული
ინტერვენციისთვის გამოიყენებენ. მშვენიერია!
07:44
But now put this in the context of hiring.
150
452911
2040
ახლა ეს სამსახურში
აყვანის კონტექსტში ჩავსვათ.
07:48
So at this human resources
managers conference,
151
456027
3046
მაშ, ამ კადრების მენეჯერების
კონფერენციაზე,
07:51
I approached a high-level manager
in a very large company,
152
459097
4709
მე მივედი ერთი ძალიან დიდი კომპანიის
მაღალი დონის მენეჯერთან
07:55
and I said to her, "Look,
what if, unbeknownst to you,
153
463830
4578
და ვუთხარი: "იქნებ თქვენ არ იცით
08:00
your system is weeding out people
with high future likelihood of depression?
154
468432
6549
და სისტემა ისეთ ხალხს აგირჩევთ, რომელთაც
დეპრესიის დიდი ალბათობა აქვთ მომავალში.
08:07
They're not depressed now,
just maybe in the future, more likely.
155
475761
3376
ისინი ამჟამად არ არიან დეპრესიაში,
მომავალში კი ალბათობა დიდია.
08:11
What if it's weeding out women
more likely to be pregnant
156
479923
3406
ან იქნებ ისეთ ქალს აარჩევს,
რომელიც დიდი შანსია
08:15
in the next year or two
but aren't pregnant now?
157
483353
2586
შემდეგი ერთი ორი წლის
განმავლობაში დაფეხმძიმდეს?
08:18
What if it's hiring aggressive people
because that's your workplace culture?"
158
486844
5636
ან იქნებ აგრესიული ხალხი აგირჩიოთ,
რადგან ასეთია თქვენი სამუშაო გარემო?"
თქვენ ამას სქესების მიხედვით
ჩაშლით ვერ მიხვდებით.
08:25
You can't tell this by looking
at gender breakdowns.
159
493173
2691
ისინი შეიძლება დაბალანსებული იყოს.
08:27
Those may be balanced.
160
495888
1502
08:29
And since this is machine learning,
not traditional coding,
161
497414
3557
რადგან ეს მანქანური სწავლებაა
და არა ტრადიციული კოდირება,
08:32
there is no variable there
labeled "higher risk of depression,"
162
500995
4907
არ არსებობს ცვლადი სახელად:
"დეპრესიის მომატებული რისკი"
08:37
"higher risk of pregnancy,"
163
505926
1833
ან "დაფეხმძმების მომატებული რისკი"
08:39
"aggressive guy scale."
164
507783
1734
ან "აგრესიული მამაკაცის შკალა"
08:41
Not only do you not know
what your system is selecting on,
165
509995
3679
არა მხოლოდ ის არ იცით,
როს მიხედვით არჩევს სისტემა,
08:45
you don't even know
where to begin to look.
166
513698
2323
არამედ ისიც კი არ იცით,
საიდან დაიწყოთ ამის გარკვევა.
08:48
It's a black box.
167
516045
1246
შავი ყუთია.
08:49
It has predictive power,
but you don't understand it.
168
517315
2807
მას პროგნოზირების უნარი აქვს,
მაგრამ თქვენ ის არ გესმით.
08:52
"What safeguards," I asked, "do you have
169
520486
2369
"რა უსაფრთხოების საშუალებები გაქვთ"
ვკითხე მე,
08:54
to make sure that your black box
isn't doing something shady?"
170
522879
3673
"იმისთვის რომ დარწმუნდეთ, რომ თქვენი
შავი ყუთი რამე საეჭვოს არ აკეთებს?"
09:00
She looked at me as if I had
just stepped on 10 puppy tails.
171
528863
3878
მან ისე შემომხედა, თითქოს
10 ლეკვს ერთად დავაბიჯე კუდზე.
09:04
(Laughter)
172
532765
1248
(სიცილი)
09:06
She stared at me and she said,
173
534037
2041
შემომხედა და მითხრა:
09:08
"I don't want to hear
another word about this."
174
536556
4333
"ამაზე მეტის მოსმენას აღარ ვაპირებ"
09:13
And she turned around and walked away.
175
541458
2034
გატრიალდა და წავიდა.
09:16
Mind you -- she wasn't rude.
176
544064
1486
გაითვალისწინეთ, ის არ უხეშობდა.
09:17
It was clearly: what I don't know
isn't my problem, go away, death stare.
177
545574
6308
მისი პოზიცია იყო: რაც არ ვიცი,
ჩემი პრობლემა არაა, მომშორდი, ცივი მზერით.
09:23
(Laughter)
178
551906
1246
(სიცილი)
09:25
Look, such a system
may even be less biased
179
553862
3839
ესეთი სისტემა მართლაც შეიძლება იყოს
ნაკლებად ტენდენციური,
09:29
than human managers in some ways.
180
557725
2103
ვიდრე ადამიანი მენეჯერები გარკვეულწილად.
09:31
And it could make monetary sense.
181
559852
2146
და შეიძლება ეს ფინანსურადაც აზრიანი იყოს,
09:34
But it could also lead
182
562573
1650
მაგრამ ამან ასევე შეიძლება
09:36
to a steady but stealthy
shutting out of the job market
183
564247
4748
სამუშაო ბაზრიდან დეპრესიის
მომატებული რისკის მქონე ხალხის
09:41
of people with higher risk of depression.
184
569019
2293
მუდმივ და ფარულ განდევნას შეუწყოს ხელი.
09:43
Is this the kind of society
we want to build,
185
571753
2596
გვინდა კი, ასეთი საზოგადოების შენება,
09:46
without even knowing we've done this,
186
574373
2285
როცა არც კი ვიცით, რომ ამას ვაკეთებთ,
09:48
because we turned decision-making
to machines we don't totally understand?
187
576682
3964
რადგან გადაწყვეტულების მიღება,
ისეთ მანქანებს მივანდეთ,
რომლებიც არც კი გვესმის.
09:53
Another problem is this:
188
581265
1458
კიდევ ერთი პრობლემა ისაა,
რომ ეს სისტემები ხშირად იწვრთნებიან
მონაცემებზე, რომლებსაც ჩვენ ვქმნით.
09:55
these systems are often trained
on data generated by our actions,
189
583314
4452
09:59
human imprints.
190
587790
1816
ადამიანის კვალზე.
10:02
Well, they could just be
reflecting our biases,
191
590188
3808
ისინი შეიძლება
ჩვენს ტენდენციურობებს ასახავდეს
10:06
and these systems
could be picking up on our biases
192
594020
3593
და ეს სისტემებიც ჩეიძლება
ჩვენს ტენდენციებს იზიარებდნენ,
10:09
and amplifying them
193
597637
1313
აძლიერებდნენ მათ
10:10
and showing them back to us,
194
598974
1418
და უკან გვიბრუნებდნენ.
10:12
while we're telling ourselves,
195
600416
1462
ჩვენ კი ამ დროს თავს ვიტყუებთ:
10:13
"We're just doing objective,
neutral computation."
196
601902
3117
"ჩვენ მხოლოდ ობიექტურ
და ნეიტრალურ გამოთვლებს ვაწარმოებთ"
10:18
Researchers found that on Google,
197
606314
2677
მკვლევარებმა დაადგინეს, რომ გუგლში
10:22
women are less likely than men
to be shown job ads for high-paying jobs.
198
610134
5313
ქალებმა უფრო პატარა შანსია
მაღალანაზღაურებადი სამუშაოს რეკლამა ნახონ,
ვიდრე კაცებმა.
და აფრო-ამერიკული სახელების ძიებისას,
10:28
And searching for African-American names
199
616463
2530
10:31
is more likely to bring up ads
suggesting criminal history,
200
619017
4706
უფრო დიდი შანსია კრიმინალური ხასიათის
ამბავი ამოგიხტეთ
10:35
even when there is none.
201
623747
1567
მაშინაც კი როცა ის არ არსებობს.
10:38
Such hidden biases
and black-box algorithms
202
626693
3549
ასეთმა ფარულმა ტენდენციურობებმა
და შავი ყუთის ალგორითმებმა,
10:42
that researchers uncover sometimes
but sometimes we don't know,
203
630266
3973
რომლებსაც მკვლევარები ზოგჯერ აღმოაჩენენ,
ზოგჯერ კი არც ვიცით,
10:46
can have life-altering consequences.
204
634263
2661
შეიძლება დრამატულ შედეგებამდე
მიგვიყვანოს.
10:49
In Wisconsin, a defendant
was sentenced to six years in prison
205
637958
4159
უისკონსინში ბრალდებულს 6 წელი მიუსაჯეს
10:54
for evading the police.
206
642141
1355
პოლიციისგან გაქცევის გამო.
10:56
You may not know this,
207
644824
1186
თქვენ შეიძლება არ იცით,
10:58
but algorithms are increasingly used
in parole and sentencing decisions.
208
646034
3998
მაგრამ განაჩენის გამოტანისას,
ალგორითმები მზარდად გამოიყენება.
11:02
He wanted to know:
How is this score calculated?
209
650056
2955
მას უნდოდა გაეგო:
როგორ გამოითვალეს?
11:05
It's a commercial black box.
210
653795
1665
ეს კომერციული შავი ყუთია.
11:07
The company refused to have its algorithm
be challenged in open court.
211
655484
4205
კომპანიამ უარი განაცადა
მათი ალგორითმი ღია სასამართლოზე განეხილათ,
11:12
But ProPublica, an investigative
nonprofit, audited that very algorithm
212
660396
5532
მაგრამ არასამთავრობო "ProPublica"-მ
ეს ალგორითმი შეამოწმა,
11:17
with what public data they could find,
213
665952
2016
იმ გასაჯაროებული მონაცემებით რაც იპოვეს
11:19
and found that its outcomes were biased
214
667992
2316
და აღმჩნდა, რომ შედეგები ტენდენციური იყო
11:22
and its predictive power
was dismal, barely better than chance,
215
670332
3629
და პროგნოზირების უნარი საშინელი.
შემთხვევითობაზე ოდნავ უკეთესი.
11:25
and it was wrongly labeling
black defendants as future criminals
216
673985
4416
ის შავკანიან ბრალდებულებს,
მომავალ კრიმინალებად
11:30
at twice the rate of white defendants.
217
678425
3895
ორჯერ უფრო ხშირად აფასებდა
ვიდრე თეთრკანიანებს.
11:35
So, consider this case:
218
683891
1564
განვიხილოთ ასეთი შემთხვევა:
11:38
This woman was late
picking up her godsister
219
686103
3852
ამ ქალს ბროუარდის ოლქში, ფლორიდაში
სკოლიდან საკუთარი სულიერი დის
წამოსაყვანად აგვიანდებოდა,
11:41
from a school in Broward County, Florida,
220
689979
2075
11:44
running down the street
with a friend of hers.
221
692757
2356
როცა ქუჩაში მირბოდა
მის მეგობართან ერთად,
11:47
They spotted an unlocked kid's bike
and a scooter on a porch
222
695137
4099
მათ საბავშვო ველოსიპედი
და სკუტერი შენიშნეს
11:51
and foolishly jumped on it.
223
699260
1632
და სისულელით შეხტნენ მათზე.
11:52
As they were speeding off,
a woman came out and said,
224
700916
2599
იმ ადგილს რომ შორდებოდნენ,
ქალი გამოვიდა და თქვა:
11:55
"Hey! That's my kid's bike!"
225
703539
2205
"ეი! ეს ჩემი ბავშვის ველოსიპედია!"
11:57
They dropped it, they walked away,
but they were arrested.
226
705768
3294
მათ დატოვეს ველოსიპედი და სკუტერი
და წავიდნენ, მაგრამ ისინი მაინც დააკავეს.
12:01
She was wrong, she was foolish,
but she was also just 18.
227
709086
3637
ის შეცდა, სულელურად მოიქცა,
მაგრამ ის მხოლოდ 18 იყო.
12:04
She had a couple of juvenile misdemeanors.
228
712747
2544
მას რამდენიმე ახალგაზრდული
წვრილმანი დანაშაული ჰქონდა.
12:07
Meanwhile, that man had been arrested
for shoplifting in Home Depot --
229
715808
5185
ამ დროს, ეს კაცი მაღაზია "Home Depot "-ს
გაქურდვისთვის დააკავეს
12:13
85 dollars' worth of stuff,
a similar petty crime.
230
721017
2924
85 დოლარის ღირებულების საქონელი მოიპარა.
საკმაოდ მსგავსი დანაშაული,
12:16
But he had two prior
armed robbery convictions.
231
724766
4559
მაგრამ ის ადრე 2 შეიარაღებული
ყაჩაღობისთვისაც იყო გასამართლებული.
12:21
But the algorithm scored her
as high risk, and not him.
232
729955
3482
თუმცა, ალგორითმა უფრო მაღალი რისკის
მქონედ ქალი შეაფასა და არა ის.
2 წლის შემდეგ "ProPublica"-მ აღმოაჩინა რომ
მას განმეორებითი დანაშაული არ ჩაუდენია.
12:26
Two years later, ProPublica found
that she had not reoffended.
233
734746
3874
12:30
It was just hard to get a job
for her with her record.
234
738644
2550
სამუშაოს შოვნა კი გაუძნელდა,
ასეთი წარსულის გამო.
12:33
He, on the other hand, did reoffend
235
741218
2076
თავის მხრივ, იმ კაცმა დანაშაული გაიმეორა
12:35
and is now serving an eight-year
prison term for a later crime.
236
743318
3836
და ამჟამად 8 წლიან სასჯელს იხდის
ბოლო დანაშაულისთვის.
12:40
Clearly, we need to audit our black boxes
237
748088
3369
ცხადია, ჩვენი შავი ყუთები უნდა შევამოწმოთ
12:43
and not have them have
this kind of unchecked power.
238
751481
2615
და არ უნდა მივცეთ მათ,
ასეთი უკონტროლო ძალაუფლება.
12:46
(Applause)
239
754120
2879
(აპლოდისმენტები)
12:50
Audits are great and important,
but they don't solve all our problems.
240
758087
4242
შემოწმება და კონტროლი მნიშვნელოვანია,
მაგრამ ეს ყველა პრობლემას არ აგვარებს.
12:54
Take Facebook's powerful
news feed algorithm --
241
762353
2748
ავიღოთ ფეისბუკის სიახლეების
მძლავრი ალგორითმი.
12:57
you know, the one that ranks everything
and decides what to show you
242
765125
4843
აი ის, ყველაფერს რომ ახარისხებს
და წყვეტს რა უნდა გაჩვენოთ,
13:01
from all the friends and pages you follow.
243
769992
2284
ყველა მეგობრიდან და გვერდიდან,
რომელის გამომწერიც ხართ.
13:04
Should you be shown another baby picture?
244
772898
2275
უნდა გაჩვენოთ თუ არა,
კიდევ ერთი ბავშვის სურათი?
13:07
(Laughter)
245
775197
1196
(სიცილი)
13:08
A sullen note from an acquaintance?
246
776417
2596
ნაცნობის სევდიანი წერილი?
13:11
An important but difficult news item?
247
779449
1856
მნიშვნელოვანი, მაგრამ მძიმე სიახლე?
13:13
There's no right answer.
248
781329
1482
არ არსებობს სწორი პასუხი.
13:14
Facebook optimizes
for engagement on the site:
249
782835
2659
ფეისბუკი თქვენი ქმედებების
ოპტიმიზაციას აკეთებს
13:17
likes, shares, comments.
250
785518
1415
მოწონებები, გაზიარებები, კომენტარები.
13:20
In August of 2014,
251
788168
2696
2014 წლის აგვისტოში
13:22
protests broke out in Ferguson, Missouri,
252
790888
2662
ფერგიუსონში, მისური,
თეთრკანიანი პოლიციელის მიერ
13:25
after the killing of an African-American
teenager by a white police officer,
253
793574
4417
ბუნდოვან ვითარებაში
აფრო-ამერიკელი თინეიჯერის მკვლელობას,
პროტესტის ტალღა მოჰყვა.
13:30
under murky circumstances.
254
798015
1570
13:31
The news of the protests was all over
255
799974
2007
პროტესტის ამბები
13:34
my algorithmically
unfiltered Twitter feed,
256
802005
2685
ჩემ ალგორითმულად დაუფილტრავ
ტვიტერზე ყველგან იყო,
13:36
but nowhere on my Facebook.
257
804714
1950
მაგრამ ფეისბუკზე არსად ჩანდა.
შეიძლება ჩემი
ფეისბუკ მეგობრების გამო იყო ასე?
13:39
Was it my Facebook friends?
258
807182
1734
13:40
I disabled Facebook's algorithm,
259
808940
2032
გავთიშე ფეისბუკის ალგორითმი,
13:43
which is hard because Facebook
keeps wanting to make you
260
811472
2848
რაც რთულია, რადგან ფეისბუკი
მუდმივად ცდილობს
13:46
come under the algorithm's control,
261
814344
2036
ალგორითმის კონტროლის ქვეშ მოგაქციოთ.
13:48
and saw that my friends
were talking about it.
262
816404
2238
გათიშვის შემდეგ,
ვნახე რომ მეგობრები საუბრობენ ამაზე.
13:50
It's just that the algorithm
wasn't showing it to me.
263
818666
2509
უბრალოდ ალგორითმი არ მაჩვენებდა ამას.
13:53
I researched this and found
this was a widespread problem.
264
821199
3042
გამოვიკვლიე და აღმოვაჩინე,
რომ ეს გავრცელებული პრობლემაა.
13:56
The story of Ferguson
wasn't algorithm-friendly.
265
824265
3813
ფერგიუსონის თემა,
ალგორითმისთვის არ იყო პრიორიტეტული.
14:00
It's not "likable."
266
828102
1171
არ იყო "მოწონებადი"
14:01
Who's going to click on "like?"
267
829297
1552
ვინ დააჭერდა "მოწონებას"?
14:03
It's not even easy to comment on.
268
831500
2206
მასზე კომენტარიც კი რთულია.
14:05
Without likes and comments,
269
833730
1371
მოწონებებისა და კომენტარების გარეშე,
14:07
the algorithm was likely showing it
to even fewer people,
270
835125
3292
ალგორითმი უფრო ცოტა ადამიანს აჩვენებს მას,
14:10
so we didn't get to see this.
271
838441
1542
ამიტომაც ვერ ვნახულობდით მას.
14:12
Instead, that week,
272
840946
1228
სამაგიეროდ, იმ კვირას,
14:14
Facebook's algorithm highlighted this,
273
842198
2298
ფეისბუკის ალგორითმმა ეს გამოკვეთა:
14:16
which is the ALS Ice Bucket Challenge.
274
844520
2226
"ყინულიანი სათლის გამოწვევის" კამპანია.
14:18
Worthy cause; dump ice water,
donate to charity, fine.
275
846770
3742
ღირებული რამაა; ვისხამთ ყინულიან წყალს
და ვრიცხავთ შემოწირულობას. მშვენიერია.
14:22
But it was super algorithm-friendly.
276
850536
1904
ის ალგორითმისთვის ძალიან პრიორიტეტული იყო.
14:25
The machine made this decision for us.
277
853219
2613
მანქანამ ეს გადაწყვეტილება
ჩვენ მაგივრად მიიღო.
14:27
A very important
but difficult conversation
278
855856
3497
რთული, მაგრამ ძალიან
მნიშვნელოვანი დისკუსია,
14:31
might have been smothered,
279
859377
1555
შეიძლება არ შემდგარიყო,
14:32
had Facebook been the only channel.
280
860956
2696
ფეისბუკი ერთადერთი საშუალება რომ ყოფილიყო.
14:36
Now, finally, these systems
can also be wrong
281
864117
3797
და ბოლოს, ეს სისტემები შეიძლება
ადამიანებისთვის
არადამახასიათებლად ცდებოდნენ.
14:39
in ways that don't resemble human systems.
282
867938
2736
14:42
Do you guys remember Watson,
IBM's machine-intelligence system
283
870698
2922
გახსოვთ უოტსონი,
IBM-ის მანქანური ინტელექტის სისტემა,
14:45
that wiped the floor
with human contestants on Jeopardy?
284
873644
3128
რომელმაც ვიქტორინა "Jeopardy"-ში
მონაწილე ადამიანი გაანადგურა?
14:49
It was a great player.
285
877131
1428
ის დიდებული მოთამაშე იყო.
14:50
But then, for Final Jeopardy,
Watson was asked this question:
286
878583
3569
თუმცა, ფინალში უოტსონს ჰკითხეს:
"მისი უდიდესი აეროპორტი
მეორე მსოფლიო ომის გმირის სახელობისაა,
14:54
"Its largest airport is named
for a World War II hero,
287
882659
2932
მისი სიდიდით მეორე აეროპორტი
მეორე მსოფლიო ომის ბრძოლის სახელობის."
14:57
its second-largest
for a World War II battle."
288
885615
2252
14:59
(Hums Final Jeopardy music)
289
887891
1378
(Jeopardy-ს საფინალო მუსიკა)
15:01
Chicago.
290
889582
1182
ჩიკაგო.
15:02
The two humans got it right.
291
890788
1370
ორმა ადამიანმა სწორად უპასუხა.
15:04
Watson, on the other hand,
answered "Toronto" --
292
892697
4348
უოტსონმა უპასუხა: "ტორონტო"...
15:09
for a US city category!
293
897069
1818
აშშ-ს ქალაქების კატეგორიაში.
15:11
The impressive system also made an error
294
899596
2901
შთამბეჭდავმა სისტემამ
ისეთი შეცდომა დაუშვა,
15:14
that a human would never make,
a second-grader wouldn't make.
295
902521
3651
რომელსაც ადამიანი არასდროს დაუშვებდა.
მეორე კლასელი არ დაუშვებდა.
15:18
Our machine intelligence can fail
296
906823
3109
მანქანურმა ინტელექტმა
შეიძლება ისეთი შეცდომები დაუშვას,
15:21
in ways that don't fit
error patterns of humans,
297
909956
3100
რომლებიც ადამიანური შეცდომების
ხასიათში არ ჯდება.
15:25
in ways we won't expect
and be prepared for.
298
913080
2950
და რომლებსაც შეიძლება არ ველოდოთ
და მოუმზადებლები აღმოვჩნდეთ.
15:28
It'd be lousy not to get a job
one is qualified for,
299
916054
3638
სამწუხაროა, როცა სამუშაოზე
შესაბამისი კადრი ვერ აღმოჩნდება,
15:31
but it would triple suck
if it was because of stack overflow
300
919716
3727
მაგრამ ბევრად უარესია,
თუ ეს რომელიღაც ქვეპროგრამაში,
15:35
in some subroutine.
301
923467
1432
სტეკის გადავსების გამო მოხდა.
15:36
(Laughter)
302
924923
1579
(სიცილი)
15:38
In May of 2010,
303
926526
2786
2010 წლის მაისში,
15:41
a flash crash on Wall Street
fueled by a feedback loop
304
929336
4044
"უოლ სტრიტის" საფონდო ბირჟის ვარდნამ,
რომელიც "უოლ სტრიტის"
15:45
in Wall Street's "sell" algorithm
305
933404
3028
"გაყიდვის" ალგორითმის,
უკუკავშირის ციკლით იყო გამოწევეული,
15:48
wiped a trillion dollars
of value in 36 minutes.
306
936456
4184
ტრილიონი დოლარის ღირებულების
დაკარგვა გამოიწვია 36 წუთში.
წარმოსადგენადაც კი რთულია
რას შეიძლება ნიშნავდეს "შეცდომა"
15:53
I don't even want to think
what "error" means
307
941722
2187
15:55
in the context of lethal
autonomous weapons.
308
943933
3589
ავტომატური ლეტალური იარაღის შემთხვევაში.
16:01
So yes, humans have always made biases.
309
949894
3790
ასე რომ, დიახ ადამიანები
ყოველთვის ტენდენციურები არიან.
16:05
Decision makers and gatekeepers,
310
953708
2176
გადაწყვეტილების მიმღებები და დარაჯები,
16:07
in courts, in news, in war ...
311
955908
3493
სასამართლოებში, ახალ ამბებში, ომში...
16:11
they make mistakes;
but that's exactly my point.
312
959425
3038
ისინი შეცდომებს უშვებენ,
მაგრამ სწორედ ამაშია საქმე.
16:14
We cannot escape
these difficult questions.
313
962487
3521
ჩვენ გვერდს ვერ ავუვლით ამ რთულ კითხვებს.
16:18
We cannot outsource
our responsibilities to machines.
314
966596
3516
ჩვენ ვერ გადავაბარებთ
ჩვენს ვალდებულებებს მანქანებს.
16:22
(Applause)
315
970676
4208
(აპლოდისმენტები)
16:29
Artificial intelligence does not give us
a "Get out of ethics free" card.
316
977089
4447
ხელოვნური ინტელექტი ვერ მოგცვემს ეთიკური
პრობლემების თავიდან აცილების საშუალებას.
მონაცემების სპეციალისტი ფრედ ბენენსონი
ამას მათემატიკურ-წმენდას ეძახის.
16:34
Data scientist Fred Benenson
calls this math-washing.
317
982742
3381
16:38
We need the opposite.
318
986147
1389
ჩვენ ამის საპირისპირო გვჭირდება.
16:39
We need to cultivate algorithm suspicion,
scrutiny and investigation.
319
987560
5388
ჩვენ ალგორითმის მიმართ ეჭვის, შესწავლის
და კვლევის წახალისება გვჭირდება.
16:45
We need to make sure we have
algorithmic accountability,
320
993380
3198
უნდა დავრწმუნდეთ
ჩვენ ალგორითმულ ანგარიშვალდებულებაში,
16:48
auditing and meaningful transparency.
321
996602
2445
შემოწმებასა და გამჭვირვალობაში.
16:51
We need to accept
that bringing math and computation
322
999380
3234
ჩვენ უნდა გვესმოდეს,
რომ მათემატიკის და გამოთვლის შემოტანას,
16:54
to messy, value-laden human affairs
323
1002638
2970
უწესრიგო, ღირებულებებით სავსე
ადამიანურ ურთიერთობებში
16:57
does not bring objectivity;
324
1005632
2384
არ მოაქვს ობიექტურობა,
17:00
rather, the complexity of human affairs
invades the algorithms.
325
1008040
3633
არამედ ადამიანური ურთიერთობების სირთულე
იჭრება ალგორითმებში.
17:04
Yes, we can and we should use computation
326
1012148
3487
დიახ, ჩვენ შეგვიძლია
და უნდა გამოვიყენოთ გამოთვლა,
17:07
to help us make better decisions.
327
1015659
2014
უკეთესი გადაწყვეტულებების მისაღებად,
17:09
But we have to own up
to our moral responsibility to judgment,
328
1017697
5332
მაგრამ ასევე მორალური პასუხისმგებლობა
უნდა ავიღოთ გადაწყვეტილებებზე
17:15
and use algorithms within that framework,
329
1023053
2818
და ამ სქემაში გამოვიყენოთ ალგორითმები
17:17
not as a means to abdicate
and outsource our responsibilities
330
1025895
4935
და არა ერთმანეთზე,
როგორც ადამიანიდან ადამიანზე
17:22
to one another as human to human.
331
1030854
2454
პასუხისმგებლობების გადაბარების საშუალებად.
17:25
Machine intelligence is here.
332
1033807
2609
მანქანური ინტელექტი აწმყოა.
17:28
That means we must hold on ever tighter
333
1036440
3421
ეს ნიშნავს, რომ ჩვენ
კიდევ უფრო მეტად უნდა ჩავეჭიდოთ
ადამიანურ ფასეულობებსა და ადამიანურ ეთიკას
17:31
to human values and human ethics.
334
1039885
2147
17:34
Thank you.
335
1042056
1154
მადლობა.
17:35
(Applause)
336
1043234
5020
(აპლოდისმენტები)
Translated by Levan Lashauri
Reviewed by Mate Kobalia

▲Back to top

ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.

Why you should listen

We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.

Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.

Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.

More profile about the speaker
Zeynep Tufekci | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee