ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.

Why you should listen

We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.

Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.

Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.

More profile about the speaker
Zeynep Tufekci | Speaker | TED.com
TEDSummit

Zeynep Tufekci: Machine intelligence makes human morals more important

Зайнеп Туфекці: Штучний інтелект підсилює значення моральних норм

Filmed:
1,648,711 views

Штучний інтелект уже поряд, і ми використовуємо його для ухвалення суб'єктивних рішень. Але нам стає все важче розуміти і контролювати ШІ через його складний шлях зростання і розвитку. Техно-соціологиня Зайнеп Туфекці пояснює, як машини з інтелектом можуть робити помилки, не властиві людям, що їх ми навіть не сподіватимемося і до яких не будемо готові. Вона каже, що "не можна перекладати власну відповідальність на машини". "Ми мусимо ще сильніше триматися за людські цінності і мораль".
- Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread. Full bio

Double-click the English transcript below to play the video.

00:12
So, I startedпочався my first jobробота
as a computerкомп'ютер programmerпрограміст
0
739
4122
Отже, я почала працювати
програмісткою,
00:16
in my very first yearрік of collegeколедж --
1
4885
1956
коли навчалась на першому курсі коледжу
00:18
basicallyв основному, as a teenagerпідліток.
2
6865
1507
і була, по суті, ще тінейджеркою.
00:20
SoonНезабаром after I startedпочався workingпрацює,
3
8889
1732
Після того, як я почала працювати,
00:22
writingписати softwareпрограмне забезпечення in a companyкомпанія,
4
10645
1610
пишучи програмне забезпечення,
00:24
a managerменеджер who workedпрацював at the companyкомпанія
cameприйшов down to where I was,
5
12799
3635
менеджер, який теж там працював,
підійшов до мене
00:28
and he whisperedпрошепотів to me,
6
16458
1268
і прошепотів:
00:30
"Can he tell if I'm lyingлежачий?"
7
18229
2861
"Чи може він сказати, що я брешу?"
00:33
There was nobodyніхто elseінакше in the roomкімната.
8
21806
2077
У кабінеті крім нас нікого не було.
00:37
"Can who tell if you're lyingлежачий?
And why are we whisperingШепіт?"
9
25032
4389
"Хто може сказати, що ти брешеш?
І чому ми говоримо пошепки?"
00:42
The managerменеджер pointedвказаний
at the computerкомп'ютер in the roomкімната.
10
30266
3107
Менеджер показав пальцем
на комп'ютер.
00:45
"Can he tell if I'm lyingлежачий?"
11
33397
3096
"Чи може він сказати, що я брешу?"
00:49
Well, that managerменеджер was havingмаючи
an affairРоман with the receptionistпортьє.
12
37613
4362
Річ у тім, що в мого колеги був
роман із секретаркою.
00:53
(LaughterСміх)
13
41999
1112
(Сміх)
00:55
And I was still a teenagerпідліток.
14
43135
1766
А я все ще була тінейджеркою.
00:57
So I whisper-shoutedШепіт крикнув: back to him,
15
45447
2019
Тому голосно прошепотіла:
00:59
"Yes, the computerкомп'ютер can tell
if you're lyingлежачий."
16
47490
3624
"Так, комп'ютер може сказати,
що ти брешеш".
01:03
(LaughterСміх)
17
51138
1806
(Сміх)
01:04
Well, I laughedсміявся, but actuallyнасправді,
the laugh'sсміх on me.
18
52968
2923
Ну, я сміялась, але насправді
сміялась над собою.
01:07
NowadaysНа сьогоднішній день, there are computationalобчислювальна systemsсистеми
19
55915
3268
Сьогодні існують комп'ютерні системи,
01:11
that can sussСусс out
emotionalемоційний statesдержави and even lyingлежачий
20
59207
3548
які можуть розпізнати емоції
і навіть брехню,
01:14
from processingобробка humanлюдина facesобличчя.
21
62779
2044
опрацювавши обличчя людини.
01:17
AdvertisersРекламодавцям and even governmentsуряди
are very interestedзацікавлений.
22
65248
4153
Рекламодавці і навіть влада
в цьому дуже зацікавлені.
01:22
I had becomeстати a computerкомп'ютер programmerпрограміст
23
70319
1862
Я стала програмісткою,
01:24
because I was one of those kidsдіти
crazyбожевільний about mathматематика and scienceнаука.
24
72205
3113
тому, що була однією з тих дітей,
які шаленіли від точних наук.
01:27
But somewhereдесь alongразом the lineлінія
I'd learnedнавчився about nuclearядерний weaponsзброя,
25
75942
3108
Але десь у процесі я дізналась
про ядерну зброю,
01:31
and I'd gottenотримав really concernedзацікавлений
with the ethicsетика of scienceнаука.
26
79074
2952
і мене справді схвилювало
питання наукової етики.
01:34
I was troubledстурбований.
27
82050
1204
Я була стривожена.
01:35
HoweverОднак, because of familyсім'я circumstancesобставини,
28
83278
2641
Однак через сімейні обставини
01:37
I alsoтакож neededнеобхідний to startпочати workingпрацює
as soonскоро as possibleможливий.
29
85943
3298
мені також треба було
почати працювати якнайшвидше.
01:41
So I thought to myselfя сам, hey,
let me pickпідібрати a technicalтехнічний fieldполе
30
89265
3299
Тому я подумала: "Ей, обирай
технічну сферу,
01:44
where I can get a jobробота easilyлегко
31
92588
1796
де можна легко знайти роботу
01:46
and where I don't have to dealугода
with any troublesomeклопітно questionsпитання of ethicsетика.
32
94408
4018
і де не треба мати справу з
болісними етичними проблемами".
01:51
So I pickedпідібраний computersкомп'ютери.
33
99022
1529
Тому я обрала комп'ютери.
01:52
(LaughterСміх)
34
100575
1104
(Сміх)
01:53
Well, haХа, haХа, haХа!
All the laughsсміється are on me.
35
101703
3410
Ха-ха-ха!
Всі наді мною сміялися.
01:57
NowadaysНа сьогоднішній день, computerкомп'ютер scientistsвчені
are buildingбудівля platformsплатформи
36
105137
2754
Сьогодні програмісти будують платформи,
01:59
that controlКОНТРОЛЬ what a billionмільярд
people see everyкожен day.
37
107915
4209
які регулюють те, що мільйони людей
щодня бачать.
02:05
They're developingрозвивається carsавтомобілі
that could decideвирішувати who to runбіжи over.
38
113052
3822
Вони удосконалюють автомобілі,
які можуть вирішити, кого переїхати.
02:09
They're even buildingбудівля machinesмашини, weaponsзброя,
39
117707
3213
Вони навіть конструюють машини і зброю,
02:12
that mightможе killвбити humanлюдина beingsістоти in warвійна.
40
120944
2285
які можуть вбивати людей на війні.
02:15
It's ethicsетика all the way down.
41
123253
2771
Це все одно проблема моралі.
02:19
MachineМашина intelligenceрозвідка is here.
42
127183
2058
Це машинний інтелект.
02:21
We're now usingвикористовуючи computationобчислення
to make all sortсортувати of decisionsрішення,
43
129823
3474
Сьогодні ми використовуємо комп'ютеризацію,
щоб ухвалювати будь-які рішення,
02:25
but alsoтакож newновий kindsвидів of decisionsрішення.
44
133321
1886
а також для нових рішень.
02:27
We're askingзапитую questionsпитання to computationобчислення
that have no singleсингл right answersвідповіді,
45
135231
5172
Ми ставимо запитання машинам,
які не мають чітких правильних відповідей,
02:32
that are subjectiveсуб'єктивний
46
140427
1202
суб'єктивних,
02:33
and open-endedвідкритий and value-ladenзначення Ладена.
47
141653
2325
відкритих і заснованих
на ідеях цінностей.
02:36
We're askingзапитую questionsпитання like,
48
144002
1758
Ми ставимо запитання на кшталт:
02:37
"Who should the companyкомпанія hireнайняти?"
49
145784
1650
"Кого компанії варто найняти?"
02:40
"WhichЯкий updateоновлення from whichкотрий friendдруг
should you be shownпоказано?"
50
148096
2759
"Новини якого друга потрібно показати?"
02:42
"WhichЯкий convictзасуджений is more
likelyшвидше за все to reoffendreoffend?"
51
150879
2266
"Який злочинець може
знову порушити закон?"
02:45
"WhichЯкий newsновини itemпозиція or movieфільм
should be recommendedрекомендується to people?"
52
153514
3054
"Яку новину або фільм
слід рекомендувати людям?"
02:48
Look, yes, we'veми маємо been usingвикористовуючи
computersкомп'ютери for a while,
53
156592
3372
Так, ми постійно
використовували комп'ютери,
02:51
but this is differentінший.
54
159988
1517
але це інше.
02:53
This is a historicalісторичний twistтвіст,
55
161529
2067
Це історичний поворот,
02:55
because we cannotне можу anchorякоря computationобчислення
for suchтакий subjectiveсуб'єктивний decisionsрішення
56
163620
5337
адже не можна передати комп'ютерам
відповідальність за такі суб'єктивні рішення,
03:00
the way we can anchorякоря computationобчислення
for flyingлетять airplanesлітаки, buildingбудівля bridgesмости,
57
168981
5420
так як передаємо за управління літаками,
будування мостів,
03:06
going to the moonмісяць.
58
174425
1259
польоти на Місяць.
03:08
Are airplanesлітаки saferбезпечніше?
Did the bridgeміст swayколись and fallпадати?
59
176449
3259
Хіба літаки безпечніші?
Мости не хиталися і не падали?
03:11
There, we have agreed-uponузгоджені,
fairlyсправедливо clearясно benchmarksорієнтири,
60
179732
4498
У нас є загальноприйняті,
цілком зрозумілі критерії порівняння,
03:16
and we have lawsзакони of natureприрода to guideпутівник us.
61
184254
2239
і є закони природи, які нами керують.
03:18
We have no suchтакий anchorsякорі and benchmarksорієнтири
62
186517
3394
У нас немає таких підстав та критеріїв,
03:21
for decisionsрішення in messyбрудний humanлюдина affairsсправи.
63
189935
3963
щоб ухвалювати рішення стосовно
брудних людських справ.
03:25
To make things more complicatedускладнений,
our softwareпрограмне забезпечення is gettingотримувати more powerfulпотужний,
64
193922
4237
Програмне забезпечення стає потужнішим,
щоб зробити деякі речі складнішими,
03:30
but it's alsoтакож gettingотримувати lessменше
transparentпрозорий and more complexкомплекс.
65
198183
3773
але водночас стає прозорішим
і заплутанішим.
03:34
RecentlyНещодавно, in the pastминуле decadeдесятиліття,
66
202542
2040
За останніх десять років
03:36
complexкомплекс algorithmsалгоритми
have madeзроблений great stridesуспіхи.
67
204606
2729
заплутані алгоритми досягли
великого успіху.
03:39
They can recognizeрозпізнати humanлюдина facesобличчя.
68
207359
1990
Вони можуть розпізнавати обличчя людей.
03:41
They can decipherрозшифрувати handwritingрукописного вводу.
69
209985
2055
Можуть розшифрувати почерк.
03:44
They can detectвиявити creditкредит cardкарта fraudшахрайство
70
212436
2066
Можуть знайти кредитних шахраїв,
03:46
and blockблок spamспам
71
214526
1189
блокувати спам,
03:47
and they can translateперекласти betweenміж languagesмови.
72
215739
2037
перекладати з мови на мову.
03:49
They can detectвиявити tumorsпухлини in medicalмедичний imagingImaging.
73
217800
2574
Вони можуть виявити пухлини на рентгені.
03:52
They can beatбити humansлюди in chessшахи and Go.
74
220398
2205
Обіграти людей в шахи чи "Ґо".
03:55
Much of this progressпрогрес comesприходить
from a methodметод calledназивається "machineмашина learningнавчання."
75
223264
4504
Велика частина цього прогресу
прийшла з методу "машинного навчання".
04:00
MachineМашина learningнавчання is differentінший
than traditionalтрадиційний programmingпрограмування,
76
228175
3187
Машинне навчання відрізняється від
традиційного програмування,
04:03
where you give the computerкомп'ютер
detailedДетальний, exactточно, painstakingкопіткості instructionsвказівки.
77
231386
3585
коли ви даєте комп'ютеру детальні,
точні, досконалі інструкції.
04:07
It's more like you take the systemсистема
and you feedгодувати it lots of dataдані,
78
235378
4182
Це більше схоже на те, коли ви берете
систему і наповнюєте її інформацією,
04:11
includingв тому числі unstructuredНеструктуровані dataдані,
79
239584
1656
зокрема неструктурованою,
04:13
like the kindдоброзичливий we generateгенерувати
in our digitalцифровий livesживе.
80
241264
2278
схожою на ту, що ми генеруємо
у цифровому житті.
04:15
And the systemсистема learnsвчиться
by churningспінення throughчерез this dataдані.
81
243566
2730
І система вчиться на обробці
цієї інформації.
04:18
And alsoтакож, cruciallyвирішальною,
82
246669
1526
Також важливо,
04:20
these systemsсистеми don't operateпрацювати
underпід a single-answerсингл відповідь logicлогіка.
83
248219
4380
що системи не виконують завдання, пов'язані
із необхідністю знайти єдину відповідь.
04:24
They don't produceвиробляти a simpleпростий answerвідповісти;
it's more probabilisticімовірнісний:
84
252623
2959
Вони не дають просту відповідь,
виходячи з теорії імовірностей.
04:27
"This one is probablyймовірно more like
what you're looking for."
85
255606
3483
"Ось щось схоже на те,
що ви шукаєте".
04:32
Now, the upsideвгору is:
this methodметод is really powerfulпотужний.
86
260023
3070
Тепер позитивний аспект:
цей метод справді потужний.
04:35
The headголова of Google'sGoogle AIАЙ systemsсистеми calledназивається it,
87
263117
2076
Директор Google's AI systems називає його
04:37
"the unreasonableнеобгрунтовані effectivenessефективність of dataдані."
88
265217
2197
"ірраціональною ефективністю даних".
04:39
The downsideнедоліки is,
89
267791
1353
Мінусом є те,
04:41
we don't really understandзрозуміти
what the systemсистема learnedнавчився.
90
269738
3071
що ми насправді не розуміємо,
про що дізнається система.
04:44
In factфакт, that's its powerвлада.
91
272833
1587
Насправді, в цьому сила системи.
04:46
This is lessменше like givingдавати
instructionsвказівки to a computerкомп'ютер;
92
274946
3798
Це не схоже на ситуацію, коли
ми даємо комп'ютеру інструкції,
04:51
it's more like trainingтренування
a puppy-machine-creatureщеня машина істота
93
279200
4064
а, скоріше, на формування
маленької машинної істоти,
04:55
we don't really understandзрозуміти or controlКОНТРОЛЬ.
94
283288
2371
яку ми насправді не розуміємо і
не контролюємо.
04:58
So this is our problemпроблема.
95
286362
1551
Тому це наша проблема.
05:00
It's a problemпроблема when this artificialштучний
intelligenceрозвідка systemсистема getsотримує things wrongнеправильно.
96
288427
4262
Проблемно, коли система штучного
інтелекту засвоює інформацію неправильно.
05:04
It's alsoтакож a problemпроблема
when it getsотримує things right,
97
292713
3540
Також проблемно, коли вона засвоює
інформацію правильно,
05:08
because we don't even know whichкотрий is whichкотрий
when it's a subjectiveсуб'єктивний problemпроблема.
98
296277
3628
тому що ми не знаємо, хто є хто,
коли це суб'єктивна проблема.
05:11
We don't know what this thing is thinkingмислення.
99
299929
2339
Ми не знаємо, про що ця річ думає.
05:15
So, considerрозглянемо a hiringнаймання algorithmалгоритм --
100
303493
3683
Розглянемо алгоритм найму на роботу -
05:20
a systemсистема used to hireнайняти people,
usingвикористовуючи machine-learningМашинне навчання systemsсистеми.
101
308123
4311
система, яку застосовують для найму людей,
використовує системи машинного навчання.
05:25
SuchТакі a systemсистема would have been trainedнавчений
on previousПопередній employees'співробітників dataдані
102
313052
3579
Така система підготовлена
на даних попередніх працівників
05:28
and instructedдоручив to find and hireнайняти
103
316655
2591
і навчена шукати і наймати
05:31
people like the existingіснуючий
highвисокий performersВиконавці in the companyкомпанія.
104
319270
3038
людей, подібних до найкращих
працівників компанії.
05:34
SoundsЗвуки good.
105
322814
1153
Звучить добре.
05:35
I onceодин раз attendedбули присутні a conferenceконференція
106
323991
1999
Одного разу я відвідала конференцію,
05:38
that broughtприніс togetherразом
humanлюдина resourcesресурси managersменеджери and executivesкерівники,
107
326014
3125
яку проводили керівники відділів кадрів
та члени правління,
05:41
high-levelвисокий рівень people,
108
329163
1206
люди на високих посадах,
05:42
usingвикористовуючи suchтакий systemsсистеми in hiringнаймання.
109
330393
1559
які використовують такі системи.
05:43
They were superсупер excitedсхвильований.
110
331976
1646
Вони були в захопленні.
05:45
They thought that this would make hiringнаймання
more objectiveоб'єктивний, lessменше biasedупереджений,
111
333646
4653
Вони думали, що це зробить прийом на
роботу більш об'єктивним, менш упередженим,
05:50
and give womenжінки
and minoritiesменшини a better shotвистрілений
112
338323
3000
і дасть жінкам і представникам меншин
більше шансів,
05:53
againstпроти biasedупереджений humanлюдина managersменеджери.
113
341347
2188
ніж упереджені менеджери.
05:55
And look -- humanлюдина hiringнаймання is biasedупереджений.
114
343559
2843
Найм людей на роботу -
справа упереджена.
05:59
I know.
115
347099
1185
Я знаю.
06:00
I mean, in one of my earlyрано jobsробочі місця
as a programmerпрограміст,
116
348308
3005
На одній із перших компаній,
де я програмувала,
06:03
my immediateнегайний managerменеджер would sometimesіноді
come down to where I was
117
351337
3868
моя безпосередня керівничка
деколи підходила до мене
06:07
really earlyрано in the morningранок
or really lateпізно in the afternoonвдень,
118
355229
3753
рано-вранці або пізно ввечері,
06:11
and she'dвона буде say, "ZeynepZeynep,
let's go to lunchобід!"
119
359006
3062
і казала: "Зейнеп, ідемо обідати!"
06:14
I'd be puzzledспантеличені by the weirdдивний timingтерміни.
120
362724
2167
Я була здивована дивним вибором часу.
06:16
It's 4pmм.. LunchОбід?
121
364915
2129
16:00. Обід?
06:19
I was brokeзламався, so freeбезкоштовно lunchобід. I always wentпішов.
122
367068
3094
Ці сумнівні обіди мене ледь не розорили.
Але я завжди йшла.
06:22
I laterпізніше realizedусвідомлено what was happeningвідбувається.
123
370618
2067
Пізніше я усвідомила, що відбувалося.
06:24
My immediateнегайний managersменеджери
had not confessedзізналася to theirїх higher-upsначальство
124
372709
4546
Мої безпосередні начальники не могли
зізнатися вищому керівництву,
06:29
that the programmerпрограміст they hiredнайнятий
for a seriousсерйозно jobробота was a teenпідліток girlдівчина
125
377279
3113
що найняли для серйозної роботи
дівчинку-підлітка,
06:32
who woreносив jeansджинси and sneakersкросівки to work.
126
380416
3930
яка на роботу ходить у джинсах і кедах.
06:37
I was doing a good jobробота,
I just lookedподивився wrongнеправильно
127
385174
2202
Я добре працювала,
але виглядала неправильно
06:39
and was the wrongнеправильно ageвік and genderСтать.
128
387400
1699
і була неправильного віку і статі.
06:41
So hiringнаймання in a gender-Ґендер- and race-blindгонка сліпих way
129
389123
3346
Тому найм без врахування статі і раси
06:44
certainlyзвичайно soundsзвуки good to me.
130
392493
1865
безсумнівно мені підходив.
06:47
But with these systemsсистеми,
it is more complicatedускладнений, and here'sось тут why:
131
395031
3341
Але з такими системами цей процес
ще заплутаніший, і ось чому:
06:50
CurrentlyВ даний час, computationalобчислювальна systemsсистеми
can inferзробити висновок all sortsсортів of things about you
132
398968
5791
останнім часом комп'ютерні системи можуть
зробити будь-які висновки про вас,
06:56
from your digitalцифровий crumbsкрихти,
133
404783
1872
враховуючи цифрові дрібниці,
06:58
even if you have not
disclosedрозкрита those things.
134
406679
2333
навіть якщо ви про ці висновки
не підозрюєте.
07:01
They can inferзробити висновок your sexualсексуальний orientationорієнтація,
135
409506
2927
Вони можуть робити висновки про
сексуальну орієнтацію,
07:04
your personalityособистість traitsриси,
136
412994
1306
персональні якості,
07:06
your politicalполітичний leaningsсхильностями.
137
414859
1373
політичні погляди.
07:08
They have predictiveІнтелектуальне powerвлада
with highвисокий levelsрівні of accuracyточність.
138
416830
3685
Вони можуть передбачати
з високим рівнем точності.
07:13
RememberПам'ятайте -- for things
you haven'tні even disclosedрозкрита.
139
421362
2578
Пам'ятайте - речі, про які
ви навіть не підозрюєте.
07:15
This is inferenceвисновок.
140
423964
1591
Це припущення.
07:17
I have a friendдруг who developedрозроблений
suchтакий computationalобчислювальна systemsсистеми
141
425579
3261
У мене є подруга, яка удосконалює
такі системи,
07:20
to predictпередбачати the likelihoodймовірність
of clinicalклінічний or postpartumпісля пологів depressionдепресія
142
428864
3641
щоб передбачити ймовірність
клінічної чи післяпологової депресії,
07:24
from socialсоціальний mediaЗМІ dataдані.
143
432529
1416
аналізуючи соціальні мережі.
07:26
The resultsрезультати are impressiveвражаюче.
144
434676
1427
Результати вражаючі.
07:28
Her systemсистема can predictпередбачати
the likelihoodймовірність of depressionдепресія
145
436492
3357
ЇЇ система може передбачити
ймовірність депресії
07:31
monthsмісяці before the onsetнастання of any symptomsсимптоми --
146
439873
3903
за місяці перед проявом симптомів -
07:35
monthsмісяці before.
147
443800
1373
за місяці.
07:37
No symptomsсимптоми, there's predictionпередбачення.
148
445197
2246
Передбачення без симптомів.
07:39
She hopesнадії it will be used
for earlyрано interventionвтручання. Great!
149
447467
4812
Вона сподівається, що систему застосують
для втручання на ранній стадії. Чудово!
07:44
But now put this in the contextконтекст of hiringнаймання.
150
452911
2040
Розгляньте це в контексті найму на роботу.
07:48
So at this humanлюдина resourcesресурси
managersменеджери conferenceконференція,
151
456027
3046
На конференції керівників кадрових служб
07:51
I approachedпідійшов a high-levelвисокий рівень managerменеджер
in a very largeвеликий companyкомпанія,
152
459097
4709
я спілкувалася з топ-менеджеркою
дуже великої компанії
07:55
and I said to her, "Look,
what if, unbeknownstнепомітно to you,
153
463830
4578
і сказала їй: "А якщо без вашого відома
08:00
your systemсистема is weedingпрополка out people
with highвисокий futureмайбутнє likelihoodймовірність of depressionдепресія?
154
468432
6549
система видаляє людей з високою
ймовірністю появи депресії?
08:07
They're not depressedпригнічений now,
just maybe in the futureмайбутнє, more likelyшвидше за все.
155
475761
3376
Наразі вони не пригнічені, але можливо
стануть такими в майбутньому.
08:11
What if it's weedingпрополка out womenжінки
more likelyшвидше за все to be pregnantвагітна
156
479923
3406
Що як вона видаляє жінок, які,
можливо, завагітніють
08:15
in the nextдалі yearрік or two
but aren'tні pregnantвагітна now?
157
483353
2586
за кілька наступних років,
але не вагітні зараз?
08:18
What if it's hiringнаймання aggressiveагресивний people
because that's your workplaceробоче місце cultureкультура?"
158
486844
5636
Що як вона наймає на роботу агресивних
людей через корпоративну культуру?"
08:25
You can't tell this by looking
at genderСтать breakdownsполомок.
159
493173
2691
Ви не можете цього сказати, дивлячись на
гендерний баланс.
08:27
Those mayможе be balancedзбалансований.
160
495888
1502
Їх можна врівноважити.
08:29
And sinceз this is machineмашина learningнавчання,
not traditionalтрадиційний codingкодування,
161
497414
3557
І так як це машинне навчання,
а не традиційне програмування,
08:32
there is no variableЗмінна there
labeledпозначені "higherвище riskризик of depressionдепресія,"
162
500995
4907
немає змінних ярликів на кшталт:
"високий ризик депресії",
08:37
"higherвище riskризик of pregnancyВагітність,"
163
505926
1833
"високий ризик вагітності"
08:39
"aggressiveагресивний guy scaleмасштаб."
164
507783
1734
чи "шкала агресивності".
08:41
Not only do you not know
what your systemсистема is selectingвибравши on,
165
509995
3679
Ви не тільки не знаєте, що саме система
візьме до уваги,
08:45
you don't even know
where to beginпочати to look.
166
513698
2323
ви навіть не знаєте,
де це починати шукати.
08:48
It's a blackчорний boxкоробка.
167
516045
1246
Це чорна скринька.
08:49
It has predictiveІнтелектуальне powerвлада,
but you don't understandзрозуміти it.
168
517315
2807
Система має силу передбачення,
але ви її не розумієте.
08:52
"What safeguardsЗапобіжники," I askedзапитав, "do you have
169
520486
2369
Я запитала:
"Які запобіжні заходи у вас є,
08:54
to make sure that your blackчорний boxкоробка
isn't doing something shadyтіньові?"
170
522879
3673
щоб упевнитись, що ця чорна скринька
не робить нічого підозрілого?"
09:00
She lookedподивився at me as if I had
just steppedступив on 10 puppyцуценя tailsхвости.
171
528863
3878
Вона подивилась на мене так, ніби
я наступила щеняті на хвіст.
09:04
(LaughterСміх)
172
532765
1248
(Сміх)
09:06
She staredподивився at me and she said,
173
534037
2041
Пильно подивилася на мене і сказала:
09:08
"I don't want to hearпочуй
anotherінший wordслово about this."
174
536556
4333
"Я більше не хочу нічого про це чути".
09:13
And she turnedобернувся around and walkedпішов away.
175
541458
2034
А тоді повернулася і пішла геть.
09:16
MindРозум you -- she wasn'tне було rudeгрубий.
176
544064
1486
Зауважте - вона була вихована.
09:17
It was clearlyчітко: what I don't know
isn't my problemпроблема, go away, deathсмерть stareдивитися.
177
545574
6308
Було зрозуміло: те, чого я не знаю -
не моя проблема. Іди геть; вбивчий погляд.
09:23
(LaughterСміх)
178
551906
1246
(Сміх)
09:25
Look, suchтакий a systemсистема
mayможе even be lessменше biasedупереджений
179
553862
3839
Деколи такі системи можуть бути
менш упереджені,
09:29
than humanлюдина managersменеджери in some waysшляхи.
180
557725
2103
ніж керівники відділів кадрів.
09:31
And it could make monetaryВалютний senseсенс.
181
559852
2146
І це може бути матеріально виправдано.
09:34
But it could alsoтакож leadвести
182
562573
1650
Але також це може призвести
09:36
to a steadyстійкий but stealthyобережний
shuttingзавершення роботи out of the jobробота marketринок
183
564247
4748
до постійного і приховуваного виштовхування
з ринку праці
09:41
of people with higherвище riskризик of depressionдепресія.
184
569019
2293
людей з високим ризиком розвитку
депресії.
09:43
Is this the kindдоброзичливий of societyсуспільство
we want to buildбудувати,
185
571753
2596
Це таке суспільство,
яке ми хочемо будувати,
09:46
withoutбез even knowingзнаючи we'veми маємо doneзроблено this,
186
574373
2285
навіть не знаючи, що ми це зробили,
09:48
because we turnedобернувся decision-makingприйняття рішень
to machinesмашини we don't totallyповністю understandзрозуміти?
187
576682
3964
тому що ми доручили ухвалення рішень
машинам, яких повністю не розуміємо.
09:53
AnotherІнший problemпроблема is this:
188
581265
1458
Є й інша проблема:
09:55
these systemsсистеми are oftenчасто trainedнавчений
on dataдані generatedзгенерований by our actionsдії,
189
583314
4452
часто ці програми базуються на
інформації, пов'язаній з нашими діями,
09:59
humanлюдина imprintsвідбитки.
190
587790
1816
на людських враженнях.
10:02
Well, they could just be
reflectingщо відображає our biasesупередження,
191
590188
3808
Вони можуть відображати
наші упередження,
10:06
and these systemsсистеми
could be pickingзбір up on our biasesупередження
192
594020
3593
можуть їх засвоїти
10:09
and amplifyingпідсилюючи them
193
597637
1313
і підсилити
10:10
and showingпоказати them back to us,
194
598974
1418
і повернути їх проти нас,
10:12
while we're tellingкажучи ourselvesми самі,
195
600416
1462
тоді як ми кажемо:
10:13
"We're just doing objectiveоб'єктивний,
neutralнейтральний computationобчислення."
196
601902
3117
"Ми робимо об'єктивний,
нейтральний розрахунок".
10:18
ResearchersДослідники foundзнайдено that on GoogleGoogle,
197
606314
2677
Дослідники виявили, що в Google
10:22
womenжінки are lessменше likelyшвидше за все than menчоловіки
to be shownпоказано jobробота adsреклама for high-payingвисокооплачувану jobsробочі місця.
198
610134
5313
жінкам рідше пропонують оголошення
про високооплачувану роботу.
10:28
And searchingпошук for African-AmericanАфро-американський namesімена
199
616463
2530
І під час пошуку афро-американських імен
10:31
is more likelyшвидше за все to bringпринести up adsреклама
suggestingпропонуючи criminalкримінальний historyісторія,
200
619017
4706
частіше з'являються рекламні оголошення
про кримінальні історії,
10:35
even when there is noneніхто.
201
623747
1567
які навіть не стосуються пошуку.
10:38
SuchТакі hiddenприхований biasesупередження
and black-boxЧорний ящик algorithmsалгоритми
202
626693
3549
Такі приховані упередження
і алгоритми "чорної скриньки",
10:42
that researchersдослідники uncoverрозкрити sometimesіноді
but sometimesіноді we don't know,
203
630266
3973
що їх дослідники деколи виявляють,
а деколи ми про них навіть не знаємо,
10:46
can have life-alteringзмінити життя consequencesнаслідки.
204
634263
2661
можуть мати життєвоважливі наслідки.
10:49
In WisconsinВісконсін, a defendantвідповідач
was sentencedзасуджений to sixшість yearsроків in prisonв'язниця
205
637958
4159
У Вісконсині підсудний був засуджений
до шести років у в'язниці
10:54
for evadingухилення від the policeполіція.
206
642141
1355
за непокору поліції.
10:56
You mayможе not know this,
207
644824
1186
Можливо, ви цього не знаєте,
10:58
but algorithmsалгоритми are increasinglyвсе частіше used
in paroleумовно-дострокового звільнення and sentencingвинесення вироків decisionsрішення.
208
646034
3998
але алгоритми все частіше використовують
для визначення міри покарання.
11:02
He wanted to know:
How is this scoreоцінка calculatedрозраховується?
209
650056
2955
Він хотів знати,
як визначили цей показник.
11:05
It's a commercialкомерційний blackчорний boxкоробка.
210
653795
1665
Вигідна "чорна скринька".
11:07
The companyкомпанія refusedвідмовлено to have its algorithmалгоритм
be challengedвиклик in openВІДЧИНЕНО courtсуд.
211
655484
4205
Компанію, яка відмовилась від цього
алгоритму, викликали на судове засідання.
11:12
But ProPublicaProPublica, an investigativeслідчі
nonprofitнеприбуткова організація, auditedАудит that very algorithmалгоритм
212
660396
5532
Некомерційна слідча компанія ProPublica
перевірила той самий алгоритм
11:17
with what publicгромадськість dataдані they could find,
213
665952
2016
з публічними даними, які вони могли знайти,
11:19
and foundзнайдено that its outcomesнаслідки were biasedупереджений
214
667992
2316
і з'ясувала, що такі висновки
були необ'єктивні,
11:22
and its predictiveІнтелектуальне powerвлада
was dismalСумним, barelyледь better than chanceшанс,
215
670332
3629
а здатність передбачення була мізерна,
мало відрізнялася від випадковості
11:25
and it was wronglyпомилково labelingмаркування
blackчорний defendantsобвинувачені as futureмайбутнє criminalsзлочинців
216
673985
4416
і помилково маркувала чорношкірих
обвинувачуваних, як майбутніх злочинців,
11:30
at twiceдвічі the rateкурс of whiteбілий defendantsобвинувачені.
217
678425
3895
в двічі частіше, ніж білих
обвинувачуваних.
11:35
So, considerрозглянемо this caseсправа:
218
683891
1564
Розглянемо такий випадок:
11:38
This womanжінка was lateпізно
pickingзбір up her godsistergodsister
219
686103
3852
ця дівчина трохи запізно приїхала
забирати свою сестру
11:41
from a schoolшкола in BrowardBroward CountyПовіт, FloridaФлорида,
220
689979
2075
зі школи в окрузі Бровард, Флорида,
11:44
runningбіг down the streetвулиця
with a friendдруг of hersїї.
221
692757
2356
і бігла по вулиці
зі своїми друзями.
11:47
They spottedплямистий an unlockedрозблокована kid'sдитина bikeвелосипед
and a scooterскутер on a porchганок
222
695137
4099
Вони помітили неприщіпнутий на замок
дитячий велосипед і самокат на терасі
11:51
and foolishlyнерозумно jumpedстрибнув on it.
223
699260
1632
і здуру стрибнули на нього.
11:52
As they were speedingперевищення швидкості off,
a womanжінка cameприйшов out and said,
224
700916
2599
Коли вони втікали, вийшла жінка
і сказала:
11:55
"Hey! That's my kid'sдитина bikeвелосипед!"
225
703539
2205
"Ей! Це велосипед моєї дитини!"
11:57
They droppedвпав it, they walkedпішов away,
but they were arrestedарештований.
226
705768
3294
Вони кинули велосипед і втікли,
але їх арештували.
12:01
She was wrongнеправильно, she was foolishнерозумно,
but she was alsoтакож just 18.
227
709086
3637
Дівчина вчинила неправильно і нерозважливо,
але ж їй було всього 18.
12:04
She had a coupleпара of juvenileнеповнолітній misdemeanorsпроступки.
228
712747
2544
Вона скоїла декілька
незначних правопорушень.
12:07
MeanwhileТим часом, that man had been arrestedарештований
for shopliftingкрадіжки в магазинах in Home DepotДепо --
229
715808
5185
Тим часом цього чоловіка арештували за
крадіжку в магазині Home Depot -
12:13
85 dollars'доларів worthварто of stuffречі,
a similarподібний pettyдріб'язковий crimeзлочин.
230
721017
2924
він вкрав речей на 85 доларів,
такий же маленький злочин.
12:16
But he had two priorпопередньо
armedозброєні robberyпограбування convictionsпереконання.
231
724766
4559
Але до цього його двічі засудили
за збройні напади.
12:21
But the algorithmалгоритм scoredзабив her
as highвисокий riskризик, and not him.
232
729955
3482
Однак алгоритм визначив, що вона
небезпечніша за нього.
12:26
Two yearsроків laterпізніше, ProPublicaProPublica foundзнайдено
that she had not reoffendedreoffended.
233
734746
3874
Через два роки ProPublica з'ясувала,
що вона знову порушила закон.
12:30
It was just hardважко to get a jobробота
for her with her recordзапис.
234
738644
2550
І з такими даними їй було важко
отримати роботу.
12:33
He, on the other handрука, did reoffendreoffend
235
741218
2076
З іншого боку, той чоловік
знову порушив закон
12:35
and is now servingпорція an eight-yearвісім років
prisonв'язниця termтермін for a laterпізніше crimeзлочин.
236
743318
3836
і тепер відбуває восьмирічний термін
за останній злочин.
12:40
ClearlyЧітко, we need to auditАудит our blackчорний boxesкоробки
237
748088
3369
Нам треба перевірити ці "чорні скриньки"
12:43
and not have them have
this kindдоброзичливий of uncheckedнезареєстрований powerвлада.
238
751481
2615
і не наділяти їх такою
неперевіреною силою.
12:46
(ApplauseОплески)
239
754120
2879
(Оплески)
12:50
AuditsАудити are great and importantважливо,
but they don't solveвирішити all our problemsпроблеми.
240
758087
4242
Перевірки - це дуже важливо,
але вони не розв'язують всіх наших проблем.
12:54
Take Facebook'sFacebook powerfulпотужний
newsновини feedгодувати algorithmалгоритм --
241
762353
2748
Розглянемо потужний алгоритм
стрічки новин у Фейсбуці -
12:57
you know, the one that ranksряди everything
and decidesвирішує what to showпоказати you
242
765125
4843
той, що упорядковує все і вирішує,
що вам показати
13:01
from all the friendsдрузі and pagesсторінок you followслідуйте.
243
769992
2284
з усіх сторінок, на які ви підписані.
13:04
Should you be shownпоказано anotherінший babyдитина pictureкартина?
244
772898
2275
Розказати про ще одну "дитячу картину"?
13:07
(LaughterСміх)
245
775197
1196
(Сміх)
13:08
A sullenпохмурий noteПримітка from an acquaintanceЗнайомство?
246
776417
2596
Сумний пост знайомого?
13:11
An importantважливо but difficultважко newsновини itemпозиція?
247
779449
1856
Важлива, але неприємна новина?
13:13
There's no right answerвідповісти.
248
781329
1482
Немає правильної відповіді.
13:14
FacebookFacebook optimizesоптимізує
for engagementвзаємодія on the siteсайт:
249
782835
2659
Фейсбук враховує активність на сайті:
13:17
likesлюбить, sharesакції, commentsкоментарі.
250
785518
1415
лайки, репости, коментарі.
13:20
In AugustСер of 2014,
251
788168
2696
У серпні 2014
13:22
protestsпротести brokeзламався out in FergusonФергюсон, MissouriМіссурі,
252
790888
2662
почалися протести у місті Ферґюсон,
штат Міссуррі,
13:25
after the killingвбивство of an African-AmericanАфро-американський
teenagerпідліток by a whiteбілий policeполіція officerофіцер,
253
793574
4417
після того. як білий поліцейський вбив
афро-американського підлітка
13:30
underпід murkyтемною circumstancesобставини.
254
798015
1570
за незрозумілих обставин.
13:31
The newsновини of the protestsпротести was all over
255
799974
2007
Новини про ці протести заполонили
13:34
my algorithmicallyalgorithmically
unfilteredнефільтроване TwitterTwitter feedгодувати,
256
802005
2685
мою невідфільтровану стрічку
новин у Твіттері,
13:36
but nowhereніде on my FacebookFacebook.
257
804714
1950
але їх не було на моєму Фейсбуці.
13:39
Was it my FacebookFacebook friendsдрузі?
258
807182
1734
Справа у моїх друзях на Фейсбуці?
13:40
I disabledвимкнено Facebook'sFacebook algorithmалгоритм,
259
808940
2032
Алгоритм Фейсбука вибив мене з колії,
13:43
whichкотрий is hardважко because FacebookFacebook
keepsтримає wantingбажаючий to make you
260
811472
2848
він складний, тому що Фейсбук підтримує
бажання
13:46
come underпід the algorithm'sалгоритму controlКОНТРОЛЬ,
261
814344
2036
знаходитися під контролем алгоритму,
13:48
and saw that my friendsдрузі
were talkingговорити about it.
262
816404
2238
і бачити, що мої друзі говорили про це.
13:50
It's just that the algorithmалгоритм
wasn'tне було showingпоказати it to me.
263
818666
2509
Це саме те, що алгоритм не показав мені.
13:53
I researchedдосліджені this and foundзнайдено
this was a widespreadшироко поширений problemпроблема.
264
821199
3042
Я досліджувала цю проблему, і виявилось, що
вона досить поширена.
13:56
The storyісторія of FergusonФергюсон
wasn'tне було algorithm-friendlyалгоритм для роздруку.
265
824265
3813
Історія про Ферґюсон не подобалась
алгоритму.
14:00
It's not "likableсимпатичний."
266
828102
1171
Її не "лайкали".
14:01
Who'sХто в going to clickклацніть on "like?"
267
829297
1552
Хто вподобає такий запис?
14:03
It's not even easyлегко to commentкоментар on.
268
831500
2206
Її навіть непросто прокоментувати.
14:05
WithoutБез likesлюбить and commentsкоментарі,
269
833730
1371
Без вподобань і коментарів
14:07
the algorithmалгоритм was likelyшвидше за все showingпоказати it
to even fewerменше people,
270
835125
3292
алгоритм показував цей запис
жменьці людей,
14:10
so we didn't get to see this.
271
838441
1542
тому ми його не побачили.
14:12
InsteadЗамість цього, that weekтиждень,
272
840946
1228
Навпаки, того тижня
14:14
Facebook'sFacebook algorithmалгоритм highlightedвиділений this,
273
842198
2298
алгоритм Фейсбука виділяв те,
14:16
whichкотрий is the ALSALS IceЛід BucketВідро ChallengeВиклик.
274
844520
2226
що називають Ice Bucket Challenge.
14:18
WorthyГідний causeпричина; dumpзвалище iceлід waterвода,
donateпожертвувати to charityблагодійність, fine.
275
846770
3742
Суспільно значуща справа: обливаєш себе
холодною водою заради благодійності.
14:22
But it was superсупер algorithm-friendlyалгоритм для роздруку.
276
850536
1904
Але це дуже подобалось алгоритму.
14:25
The machineмашина madeзроблений this decisionрішення for us.
277
853219
2613
За нас це рішення прийняла машина.
14:27
A very importantважливо
but difficultважко conversationрозмова
278
855856
3497
Дуже важливе, але заплутане обговорення
14:31
mightможе have been smotheredзадушені,
279
859377
1555
могло бути придушене,
14:32
had FacebookFacebook been the only channelканал.
280
860956
2696
якби Фейсбук мав лише одну стрічку новин.
14:36
Now, finallyнарешті, these systemsсистеми
can alsoтакож be wrongнеправильно
281
864117
3797
Зрештою, ці системи
можуть помилятися
14:39
in waysшляхи that don't resembleнагадують humanлюдина systemsсистеми.
282
867938
2736
так, як цього не допустить
людський ресурс.
14:42
Do you guys rememberзгадаймо WatsonВотсон,
IBM'sIBM machine-intelligenceмашина розвідки systemсистема
283
870698
2922
Пам'ятаєте систему штучного
інтелекту Watson,
14:45
that wipedвитер the floorпідлога
with humanлюдина contestantsконкурсанти on JeopardyНебезпеці?
284
873644
3128
що витирала підлогу, змагаючись з
людьми на телегрі Jeopardy?
14:49
It was a great playerгравець.
285
877131
1428
Вона була чудовим гравцем.
14:50
But then, for FinalОстаточний JeopardyНебезпеці,
WatsonВотсон was askedзапитав this questionпитання:
286
878583
3569
Але у фіналі Watson запитали:
14:54
"Its largestнайбільший airportаеропорт is namedназваний
for a WorldСвіт WarВійна IIII heroгерой,
287
882659
2932
"Його найбільший аеропорт назвали
на честь героя Другої світової війни,
14:57
its second-largestдругий за величиною
for a WorldСвіт WarВійна IIII battleбитва."
288
885615
2252
а другий за розміром - на честь
битви Другої світової війни".
14:59
(HumsШуми частотою FinalОстаточний JeopardyНебезпеці musicмузика)
289
887891
1378
(Музика з фіналу Jeopardy)
15:01
ChicagoЧикаго.
290
889582
1182
Чикаго.
15:02
The two humansлюди got it right.
291
890788
1370
Дві людини відповіли правильно.
15:04
WatsonВотсон, on the other handрука,
answeredвідповів "TorontoТоронто" --
292
892697
4348
Натомість Watson відповів
"Торонто" -
15:09
for a US cityмісто categoryкатегорія!
293
897069
1818
і це в категорії міст США!
15:11
The impressiveвражаюче systemсистема alsoтакож madeзроблений an errorпомилка
294
899596
2901
Вражаючі системи також робили помилки,
15:14
that a humanлюдина would never make,
a second-graderдругий Грейдер wouldn'tне буде make.
295
902521
3651
яких людина ніколи не допустила б,
яких не зробив би навіть другокласник.
15:18
Our machineмашина intelligenceрозвідка can failневдача
296
906823
3109
Штучний інтелект може провалитися так,
15:21
in waysшляхи that don't fitпридатний
errorпомилка patternsвізерунки of humansлюди,
297
909956
3100
як люди зазвичай не помиляються,
15:25
in waysшляхи we won'tне буде expectчекати
and be preparedпідготований for.
298
913080
2950
так, як ми не будемо сподіватися
і не будемо до цього готові.
15:28
It'dЦе було б be lousyбожевільний not to get a jobробота
one is qualifiedкваліфіковані for,
299
916054
3638
Кепсько не отримати роботу,
до якої підходить твоя кваліфікація,
15:31
but it would tripleпотрійний suckсмоктати
if it was because of stackстек overflowпереповнення
300
919716
3727
але ще гірше не отримати її через
переповнення стека
15:35
in some subroutineПідпрограма.
301
923467
1432
в якійсь програмі.
15:36
(LaughterСміх)
302
924923
1579
(Сміх)
15:38
In MayТравень of 2010,
303
926526
2786
У травні 2010
15:41
a flashспалах crashкрах on WallСтіна StreetВулиця
fueledживиться by a feedbackзворотній зв'язок loopпетля
304
929336
4044
різкий обвал на Волл-Стріт, спричинений
циклом зворотнього зв'язку
15:45
in WallСтіна Street's-Стріт "sellпродати" algorithmалгоритм
305
933404
3028
в "торговому" алгоритмі,
15:48
wipedвитер a trillionтрильйон dollarsдолари
of valueвартість in 36 minutesхвилин.
306
936456
4184
знищив трильйон доларів
за 36 хвилин.
15:53
I don't even want to think
what "errorпомилка" meansзасоби
307
941722
2187
Я навіть не хочу думати,
що "помилка" означає
15:55
in the contextконтекст of lethalсмертельний
autonomousавтономний weaponsзброя.
308
943933
3589
в контексті атомної системи
летального озброєння.
16:01
So yes, humansлюди have always madeзроблений biasesупередження.
309
949894
3790
Так, люди завжди досить упереджені.
16:05
DecisionРішення makersвиробники and gatekeepersсторожі,
310
953708
2176
Ті, хто ухвалює рішення і цензори
16:07
in courtsсуди, in newsновини, in warвійна ...
311
955908
3493
в судах, у новинах, на війні...
16:11
they make mistakesпомилки;
but that's exactlyточно my pointточка.
312
959425
3038
вони помиляються;
але у цьому й річ.
16:14
We cannotне можу escapeВтеча
these difficultважко questionsпитання.
313
962487
3521
Ми не можемо уникнути цих
заплутаних питань.
16:18
We cannotне можу outsourceаутсорсинг
our responsibilitiesобов'язки to machinesмашини.
314
966596
3516
Ми не можемо перекладати відповідальність
на машини.
16:22
(ApplauseОплески)
315
970676
4208
(Оплески)
16:29
ArtificialШтучні intelligenceрозвідка does not give us
a "Get out of ethicsетика freeбезкоштовно" cardкарта.
316
977089
4447
Штучний інтелект не дає нам
картку "звільнення від моральних норм".
16:34
DataДані scientistвчений FredФред BenensonBenenson
callsдзвінки this math-washingMath пральна.
317
982742
3381
Фахівець з обробки даних Фред Бененсон
називає це математичною чисткою.
16:38
We need the oppositeнавпаки.
318
986147
1389
Нам треба щось протилежне.
16:39
We need to cultivateкультивувати algorithmалгоритм suspicionпідозри,
scrutinyScrutiny and investigationрозслідування.
319
987560
5388
Нам треба удосконалювати підозри,
вивчення і дослідження алгоритмів.
16:45
We need to make sure we have
algorithmicАлгоритмічні accountabilityпідзвітність,
320
993380
3198
Треба впевнитись, що у нас є
алгоритмічна звітність,
16:48
auditingАудит and meaningfulзначущий transparencyпрозорість.
321
996602
2445
перевірка і повноцінна прозорість.
16:51
We need to acceptприймати
that bringingприведення mathматематика and computationобчислення
322
999380
3234
Треба прийняти те, що залучення
комп'ютерів до безладних
16:54
to messyбрудний, value-ladenзначення Ладена humanлюдина affairsсправи
323
1002638
2970
людських справ, заснованих на цінностях,
16:57
does not bringпринести objectivityоб'єктивність;
324
1005632
2384
не гарантують об'єктивності;
17:00
ratherшвидше, the complexityскладність of humanлюдина affairsсправи
invadesвторгається the algorithmsалгоритми.
325
1008040
3633
алгоритмам, навпаки, передалася
заплутаність людських справ.
17:04
Yes, we can and we should use computationобчислення
326
1012148
3487
Так, нам можна і треба використовувати
комп'ютери,
17:07
to help us make better decisionsрішення.
327
1015659
2014
щоб ухвалювати кращі рішення.
17:09
But we have to ownвласний up
to our moralморальний responsibilityвідповідальність to judgmentсудження,
328
1017697
5332
Але ми маємо підкорятися моральній
відповідальності за вироки суду
17:15
and use algorithmsалгоритми withinв межах that frameworkрамки,
329
1023053
2818
і використовувати алгоритми
максимум як структуру,
17:17
not as a meansзасоби to abdicateвідректися від престолу
and outsourceаутсорсинг our responsibilitiesобов'язки
330
1025895
4935
а не як засіб відмовитися і перекласти
відповідальність
17:22
to one anotherінший as humanлюдина to humanлюдина.
331
1030854
2454
на когось ще, як людина на людину.
17:25
MachineМашина intelligenceрозвідка is here.
332
1033807
2609
Штучний інтелект тут.
17:28
That meansзасоби we mustповинен holdтримайся on ever tighterжорсткі
333
1036440
3421
І це означає, що ми мусимо триматись
ще сильніше
17:31
to humanлюдина valuesцінності and humanлюдина ethicsетика.
334
1039885
2147
за людські цінності і людську мораль.
17:34
Thank you.
335
1042056
1154
Дякую.
17:35
(ApplauseОплески)
336
1043234
5020
(Оплески)
Translated by Nataliia Levchuk
Reviewed by Hanna Leliv

▲Back to top

ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.

Why you should listen

We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.

Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.

Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.

More profile about the speaker
Zeynep Tufekci | Speaker | TED.com