ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.

Why you should listen

We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.

Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.

Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.

More profile about the speaker
Zeynep Tufekci | Speaker | TED.com
TEDSummit

Zeynep Tufekci: Machine intelligence makes human morals more important

Зейнеп Тюфекчи: Искусственный интеллект усиливает важность человеческой этики

Filmed:
1,648,711 views

Искусственный интеллект уже здесь, и мы уже используем его для принятия субъективных решений. Сложность системы ИИ продолжает увеличиваться, что делает его трудным для понимания и контроля. В этой предостерегающей лекции техно-социолог Зейнеп Тюфекчи объясняет, как умные машины могут совершать ошибки, не соответствующие человеческим, поэтому мы не ожидаем их и мы не готовы к ним. «Мы не можем передать свои обязанности машинам», — говорит она. «Мы должны крепче держаться человеческих ценностей и этики».
- Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread. Full bio

Double-click the English transcript below to play the video.

00:12
So, I startedначал my first jobработа
as a computerкомпьютер programmerпрограммист
0
739
4122
Я начала работать программистом
в первый год учёбы в колледже,
00:16
in my very first yearгод of collegeколледж --
1
4885
1956
00:18
basicallyв основном, as a teenagerподросток.
2
6865
1507
практически подростком.
Вскоре после того, как я начала работать —
00:20
SoonСкоро after I startedначал workingза работой,
3
8889
1732
00:22
writingписьмо softwareпрограммного обеспечения in a companyКомпания,
4
10645
1610
писать программное обеспечение,
00:24
a managerменеджер who workedработал at the companyКомпания
cameпришел down to where I was,
5
12799
3635
один из работающих в компании
менеджеров подошёл ко мне
00:28
and he whisperedшепнула to me,
6
16458
1268
и прошептал:
00:30
"Can he tell if I'm lyingлежащий?"
7
18229
2861
«Он понимает, когда я вру?»
00:33
There was nobodyникто elseеще in the roomкомната.
8
21806
2077
В комнате никого больше не было.
00:37
"Can who tell if you're lyingлежащий?
And why are we whisperingшепот?"
9
25032
4389
«Кто он? И почему ты шепчешь?»
00:42
The managerменеджер pointedзаостренный
at the computerкомпьютер in the roomкомната.
10
30266
3107
Менеджер указал на компьютер.
00:45
"Can he tell if I'm lyingлежащий?"
11
33397
3096
«Он может понять, когда я вру?»
00:49
Well, that managerменеджер was havingимеющий
an affairдело with the receptionistрегистратор.
12
37613
4362
Кстати, у этого менеджера
был роман с секретаршей.
00:53
(LaughterСмех)
13
41999
1112
(Смех)
00:55
And I was still a teenagerподросток.
14
43135
1766
А а была ещё подростком.
00:57
So I whisper-shoutedшептать-Кричал back to him,
15
45447
2019
Поэтому я шёпотом крикнула ему:
00:59
"Yes, the computerкомпьютер can tell
if you're lyingлежащий."
16
47490
3624
«Да, компьютер может понять,
когда вы лжёте».
01:03
(LaughterСмех)
17
51138
1806
(Смех)
01:04
Well, I laughedрассмеялся, but actuallyна самом деле,
the laugh'sсмех-х on me.
18
52968
2923
Я пошутила, но оказалось,
что это была не шутка.
01:07
NowadaysВ наше время, there are computationalвычислительный systemsсистемы
19
55915
3268
Теперь существуют вычислительные системы,
01:11
that can sussподозрительная личность out
emotionalэмоциональный statesсостояния and even lyingлежащий
20
59207
3548
которые могут определить ваше
эмоциональное состояние и даже ложь,
01:14
from processingобработка humanчеловек facesлица.
21
62779
2044
обрабатывая выражения человеческих лиц.
01:17
AdvertisersРекламодатели and even governmentsправительства
are very interestedзаинтересованный.
22
65248
4153
Рекламодатели и правительства
очень заинтересованы.
01:22
I had becomeстали a computerкомпьютер programmerпрограммист
23
70319
1862
Я стала программистом,
01:24
because I was one of those kidsДети
crazyпсих about mathматематический and scienceнаука.
24
72205
3113
потому что я была одержимым
математикой и наукой ребёнком.
01:27
But somewhereгде-то alongвдоль the lineлиния
I'd learnedнаучился about nuclearядерной weaponsоружие,
25
75942
3108
Но в какой-то момент я узнала
о существовании ядерного оружия
01:31
and I'd gottenполученный really concernedобеспокоенный
with the ethicsэтика of scienceнаука.
26
79074
2952
и всерьёз задумалась о научной этике.
01:34
I was troubledбеспокойный.
27
82050
1204
Меня это беспокоило.
01:35
HoweverОднако, because of familyсемья circumstancesобстоятельства,
28
83278
2641
Однако из-за семейных обстоятельств
01:37
I alsoтакже neededнеобходимый to startНачало workingза работой
as soonскоро as possibleвозможное.
29
85943
3298
мне пришлось начать
работать как можно скорее.
01:41
So I thought to myselfсебя, hey,
let me pickвыбирать a technicalтехнический fieldполе
30
89265
3299
Так что я подумала: «Эй, мне просто
надо выбрать техническую область,
01:44
where I can get a jobработа easilyбез труда
31
92588
1796
где я смогу легко получить работу,
01:46
and where I don't have to dealпо рукам
with any troublesomeхлопотный questionsвопросов of ethicsэтика.
32
94408
4018
и где мне не придётся иметь
дело со сложными этическими вопросами».
01:51
So I pickedвыбрал computersкомпьютеры.
33
99022
1529
Так что я выбрала компьютеры.
01:52
(LaughterСмех)
34
100575
1104
(Смех)
01:53
Well, haха, haха, haха!
All the laughsсмеется are on me.
35
101703
3410
Ха, ха, ха! Все смеются надо мной.
01:57
NowadaysВ наше время, computerкомпьютер scientistsученые
are buildingздание platformsплатформы
36
105137
2754
В наши дни компьютерные
учёные создают платформы,
01:59
that controlконтроль what a billionмиллиард
people see everyкаждый day.
37
107915
4209
которые контролируют то,
что миллиард человек видит каждый день.
02:05
They're developingразвивающийся carsлегковые автомобили
that could decideпринимать решение who to runбег over.
38
113052
3822
Они разрабатывают автомобили,
которые могли бы решить, кого задавить.
02:09
They're even buildingздание machinesмашины, weaponsоружие,
39
117707
3213
Они даже разрабатывают машины и оружие,
02:12
that mightмог бы killубийство humanчеловек beingsсущества in warвойна.
40
120944
2285
которые могут убивать людей на войне.
02:15
It's ethicsэтика all the way down.
41
123253
2771
Здесь вопросы этики повсюду.
02:19
MachineМашина intelligenceинтеллект is here.
42
127183
2058
Искусственный интеллект уже здесь.
02:21
We're now usingс помощью computationвычисление
to make all sortСортировать of decisionsрешения,
43
129823
3474
Мы уже используем вычислительную
технику для принятия каких угодно решений,
02:25
but alsoтакже newновый kindsвиды of decisionsрешения.
44
133321
1886
и даже для создания новых решений.
02:27
We're askingпросить questionsвопросов to computationвычисление
that have no singleОдин right answersответы,
45
135231
5172
Мы задаём компьютерам вопросы,
на которые нет единого правильного ответа:
02:32
that are subjectiveсубъективный
46
140427
1202
субъективные вопросы,
02:33
and open-endedнеокончательный and value-ladenзначение нагруженные.
47
141653
2325
открытые и вопросы оценочного характера.
02:36
We're askingпросить questionsвопросов like,
48
144002
1758
Мы задавали такие вопросы, как:
02:37
"Who should the companyКомпания hireНаем?"
49
145784
1650
«Кого стоит нанять в компанию?»
02:40
"WhichКоторый updateОбновить from whichкоторый friendдруг
should you be shownпоказанный?"
50
148096
2759
«Какое обновление и от какого
друга мы должны видеть?»
02:42
"WhichКоторый convictосужденный is more
likelyвероятно to reoffendрецидивистами?"
51
150879
2266
«Кто из осуждённых
скорее всего станет рецидивистом?»
02:45
"WhichКоторый newsНовости itemпункт or movieкино
should be recommendedрекомендуемые to people?"
52
153514
3054
«Какие новости или фильмы
рекомендовать людям?»
02:48
Look, yes, we'veмы в been usingс помощью
computersкомпьютеры for a while,
53
156592
3372
Да, мы используем компьютеры
уже продолжительное время,
02:51
but this is differentдругой.
54
159988
1517
но это совсем другое.
02:53
This is a historicalисторический twistтвист,
55
161529
2067
Это исторический поворот,
02:55
because we cannotне могу anchorякорь computationвычисление
for suchтакие subjectiveсубъективный decisionsрешения
56
163620
5337
потому что базис для вычисления
принятия субъективных решений,
03:00
the way we can anchorякорь computationвычисление
for flyingлетающий airplanesсамолеты, buildingздание bridgesмосты,
57
168981
5420
отличается от того, что используется для
сборки самолётов, строительства мостов
03:06
going to the moonЛуна.
58
174425
1259
или полётов на Луну.
03:08
Are airplanesсамолеты saferбезопаснее?
Did the bridgeмост swayраскачивание and fallпадать?
59
176449
3259
Самолёты стали безопаснее?
Мосты больше не падают?
03:11
There, we have agreed-uponсогласованные,
fairlyдовольно clearЧисто benchmarksтесты,
60
179732
4498
Здесь у нас есть
достаточно чёткие критерии
и законы природы,
на которые мы можем положиться.
03:16
and we have lawsзаконы of natureприрода to guideруководство us.
61
184254
2239
03:18
We have no suchтакие anchorsанкеры and benchmarksтесты
62
186517
3394
Но нет чётких критериев
03:21
for decisionsрешения in messyбеспорядочный humanчеловек affairsдела.
63
189935
3963
для принятия решений
в запутанных людских делах.
03:25
To make things more complicatedсложно,
our softwareпрограммного обеспечения is gettingполучение more powerfulмощный,
64
193922
4237
Ещё больше усложняет задачу
программное обеспечение,
03:30
but it's alsoтакже gettingполучение lessМеньше
transparentпрозрачный and more complexсложный.
65
198183
3773
становящееся менее прозрачным
и более сложным и мощным.
03:34
RecentlyВ последнее время, in the pastмимо decadeдесятилетие,
66
202542
2040
За последнее десятилетие
03:36
complexсложный algorithmsалгоритмы
have madeсделал great stridesуспехи.
67
204606
2729
развитие сложных алгоритмов
достигло больших успехов.
03:39
They can recognizeпризнать humanчеловек facesлица.
68
207359
1990
Они могут распознавать человеческие лица.
03:41
They can decipherдешифровать handwritingпочерк.
69
209985
2055
Они могут расшифровывать почерк.
Выявить мошенничество
с кредитными картами
03:44
They can detectобнаружить creditкредит cardкарта fraudмошенничество
70
212436
2066
03:46
and blockблок spamспам
71
214526
1189
или блокировать спам,
03:47
and they can translateпереведите betweenмежду languagesязыки.
72
215739
2037
они могут переводить с других языков.
03:49
They can detectобнаружить tumorsопухоли in medicalмедицинская imagingизображений.
73
217800
2574
Они могут выявлять опухоли
в рентгенографии.
03:52
They can beatбить humansлюди in chessшахматы and Go.
74
220398
2205
Они могут обыгрывать нас в шахматы и в Го.
03:55
Much of this progressпрогресс comesвыходит
from a methodметод calledназывается "machineмашина learningобучение."
75
223264
4504
Большáя часть этого прогресса достигнута
с помощью «машинного обучения».
04:00
MachineМашина learningобучение is differentдругой
than traditionalтрадиционный programmingпрограммирование,
76
228175
3187
Машинное обучение отличается
от традиционного программирования,
04:03
where you give the computerкомпьютер
detailedподробный, exactточный, painstakingкропотливый instructionsинструкции.
77
231386
3585
где вы даёте компьютеру подробные,
точные, чёткие инструкции.
04:07
It's more like you take the systemсистема
and you feedкорм it lots of dataданные,
78
235378
4182
Это больше похоже, как будто мы
скармливаем компьютеру много данных,
04:11
includingв том числе unstructuredнеструктурированных dataданные,
79
239584
1656
в том числе бессистемных данных,
04:13
like the kindсвоего рода we generateгенерировать
in our digitalцифровой livesжизни.
80
241264
2278
как те, что мы создаём
в нашей цифровой жизни.
04:15
And the systemсистема learnsузнает
by churningвспенивание throughчерез this dataданные.
81
243566
2730
И система сама учится
систематизировать эти данные.
04:18
And alsoтакже, cruciallyпринципиально,
82
246669
1526
Особенно важно то,
04:20
these systemsсистемы don't operateработать
underпод a single-answerодного ответа logicлогика.
83
248219
4380
что эти системы не работают
по логике поиска единого ответа.
04:24
They don't produceпроизводить a simpleпросто answerответ;
it's more probabilisticвероятностный:
84
252623
2959
Они не дают однозначного ответа,
они основаны на вероятности:
04:27
"This one is probablyвероятно more like
what you're looking for."
85
255606
3483
«Этот ответ, вероятно,
похож на то, что вы ищете».
04:32
Now, the upsideвверх is:
this methodметод is really powerfulмощный.
86
260023
3070
Плюс этого метода в том,
что он очень перспективный.
04:35
The headглава of Google'sGoogle-х AIискусственный интеллект systemsсистемы calledназывается it,
87
263117
2076
Глава систем ИИ Google назвал его
04:37
"the unreasonableнеобоснованный effectivenessэффективность of dataданные."
88
265217
2197
«нерационально высокая
эффективность данных».
04:39
The downsideнижняя сторона is,
89
267791
1353
Минус в том,
04:41
we don't really understandПонимаю
what the systemсистема learnedнаучился.
90
269738
3071
что мы не знаем,
что именно система выучила.
04:44
In factфакт, that's its powerмощность.
91
272833
1587
В этом мощь системы.
04:46
This is lessМеньше like givingдающий
instructionsинструкции to a computerкомпьютер;
92
274946
3798
Это не похоже на то,
как давать указания компьютеру;
04:51
it's more like trainingобучение
a puppy-machine-creatureщенок-машина существо
93
279200
4064
это больше похоже
на обучение машины-щенка,
04:55
we don't really understandПонимаю or controlконтроль.
94
283288
2371
которого мы не понимаем и не контролируем.
04:58
So this is our problemпроблема.
95
286362
1551
В этом наша проблема.
05:00
It's a problemпроблема when this artificialискусственный
intelligenceинтеллект systemсистема getsполучает things wrongнеправильно.
96
288427
4262
Плохо, когда система искусственного
интеллекта понимает что-то неправильно.
05:04
It's alsoтакже a problemпроблема
when it getsполучает things right,
97
292713
3540
И также плохо, когда система
понимает что-то правильно,
05:08
because we don't even know whichкоторый is whichкоторый
when it's a subjectiveсубъективный problemпроблема.
98
296277
3628
потому что мы не знаем, что есть что,
когда дело касается субъективой проблемы.
05:11
We don't know what this thing is thinkingмышление.
99
299929
2339
Мы не знаем, о чём эта штука думает.
05:15
So, considerрассматривать a hiringнаем algorithmалгоритм --
100
303493
3683
Рассмотрим алгоритм приёма на работу —
05:20
a systemсистема used to hireНаем people,
usingс помощью machine-learningмашинное обучение systemsсистемы.
101
308123
4311
система для найма людей
с использованием машинного обучения.
05:25
Suchтакие a systemсистема would have been trainedобученный
on previousпредыдущий employees'сотрудники dataданные
102
313052
3579
Такая система будет обучаться
по данным о предыдущих сотрудниках
05:28
and instructedпроинструктированы to find and hireНаем
103
316655
2591
и будет искать и нанимать людей,
05:31
people like the existingсуществующий
highвысокая performersисполнители in the companyКомпания.
104
319270
3038
похожих на нынешних самых эффективных
сотрудников компании.
05:34
SoundsЗвуки good.
105
322814
1153
Звучит хорошо.
05:35
I onceодин раз attendedучастие a conferenceконференция
106
323991
1999
Однажды я была на конференции
05:38
that broughtпривел togetherвместе
humanчеловек resourcesРесурсы managersменеджеры and executivesруководство,
107
326014
3125
для руководителей, менеджеров по персоналу
05:41
high-levelвысокий уровень people,
108
329163
1206
и топ-менеджеров,
05:42
usingс помощью suchтакие systemsсистемы in hiringнаем.
109
330393
1559
использующих такую систему найма.
05:43
They were superсупер excitedв восторге.
110
331976
1646
Все были очень воодушевлены.
05:45
They thought that this would make hiringнаем
more objectiveзадача, lessМеньше biasedпристрастный,
111
333646
4653
Они думали, что это сделает процесс
найма более объективным, менее предвзятым,
05:50
and give womenженщины
and minoritiesменьшинства a better shotвыстрел
112
338323
3000
даст женщинам и меньшинствам
больше шансов
05:53
againstпротив biasedпристрастный humanчеловек managersменеджеры.
113
341347
2188
в отличие от предвзято
настроенных менеджеров.
05:55
And look -- humanчеловек hiringнаем is biasedпристрастный.
114
343559
2843
Найм сотрудников построен на предвзятости.
05:59
I know.
115
347099
1185
Я знаю.
06:00
I mean, in one of my earlyрано jobsработы
as a programmerпрограммист,
116
348308
3005
На одной из моих первых работ
в качестве программиста
06:03
my immediateнемедленный managerменеджер would sometimesиногда
come down to where I was
117
351337
3868
моя непосредственная начальница
иногда подходила ко мне
06:07
really earlyрано in the morningутро
or really lateпоздно in the afternoonпосле полудня,
118
355229
3753
очень рано утром или очень поздно днём
06:11
and she'dсарай say, "ZeynepЗейнеп,
let's go to lunchобед!"
119
359006
3062
и говорила: «Зейнеп, пойдём обедать!»
06:14
I'd be puzzledнедоуменный by the weirdстранный timingсинхронизация.
120
362724
2167
Я была озадачена странным выбором времени.
06:16
It's 4pmвечера. LunchОбед?
121
364915
2129
Обед в 4 часа дня?
06:19
I was brokeсломал, so freeсвободно lunchобед. I always wentотправился.
122
367068
3094
Бесплатный ланч; денег у меня нет.
Я всегда ходила.
06:22
I laterпозже realizedпонял what was happeningпроисходит.
123
370618
2067
Позже я поняла, что происходит.
06:24
My immediateнемедленный managersменеджеры
had not confessedпризнался to theirих higher-upsНачальство
124
372709
4546
Мои непосредственные руководители
не признались вышестоящему руководству,
06:29
that the programmerпрограммист they hiredнаемный
for a seriousсерьезный jobработа was a teenподросток girlдевушка
125
377279
3113
что программист, которого они наняли
на серьёзный проект — девушка подросток,
06:32
who woreносил jeansджинсы and sneakersкроссовки to work.
126
380416
3930
которая ходит на работу
в джинсах и кроссовках.
Я хорошо выполняла работу,
я просто выглядела неподобающе,
06:37
I was doing a good jobработа,
I just lookedсмотрел wrongнеправильно
127
385174
2202
06:39
and was the wrongнеправильно ageвозраст and genderПол.
128
387400
1699
была неправильного возраста и пола.
06:41
So hiringнаем in a gender-Пол- and race-blindраса слепых way
129
389123
3346
Так что найм без учёта пола и расы,
06:44
certainlyбезусловно soundsзвуки good to me.
130
392493
1865
конечно, звучит для меня
как хорошая идея.
06:47
But with these systemsсистемы,
it is more complicatedсложно, and here'sвот why:
131
395031
3341
Но с этими системами
всё сложнее, и вот почему:
06:50
CurrentlyВ данный момент, computationalвычислительный systemsсистемы
can inferделать вывод all sortsвиды of things about you
132
398968
5791
Сейчас вычислительные системы
могут узнать всю информацию о вас
по крошкам, что вы оставляете
в цифровом виде,
06:56
from your digitalцифровой crumbsкрошки,
133
404783
1872
06:58
even if you have not
disclosedраскрытый those things.
134
406679
2333
даже если вы не разглашаете
такую информацию.
07:01
They can inferделать вывод your sexualполовой orientationориентация,
135
409506
2927
Они могут вычислить
вашу сексуальную ориентацию,
07:04
your personalityличность traitsчерты,
136
412994
1306
ваши черты характера,
07:06
your politicalполитическая leaningsнаклонности.
137
414859
1373
ваши политические пристрастия.
07:08
They have predictiveпрогностическое powerмощность
with highвысокая levelsуровни of accuracyточность.
138
416830
3685
Они могут составлять прогнозы
с высоким уровнем точности.
Помните, даже для информации,
которую вы даже не разглашаете.
07:13
RememberЗапомнить -- for things
you haven'tне even disclosedраскрытый.
139
421362
2578
07:15
This is inferenceвывод.
140
423964
1591
Это предположения.
07:17
I have a friendдруг who developedразвитая
suchтакие computationalвычислительный systemsсистемы
141
425579
3261
У меня есть подруга, которая
разрабатывает такие системы
07:20
to predictпрогнозировать the likelihoodвероятность
of clinicalклиническая or postpartumпослеродовой depressionдепрессия
142
428864
3641
для прогнозирования вероятности
клинической или послеродовой депрессии
07:24
from socialСоциальное mediaСМИ dataданные.
143
432529
1416
по данным из социальных сетей.
07:26
The resultsРезультаты are impressiveвпечатляющий.
144
434676
1427
Результаты впечатляют.
07:28
Her systemсистема can predictпрогнозировать
the likelihoodвероятность of depressionдепрессия
145
436492
3357
Её система может предсказать
вероятность депрессии
07:31
monthsмесяцы before the onsetначало of any symptomsсимптомы --
146
439873
3903
до появления каких-либо симптомов —
07:35
monthsмесяцы before.
147
443800
1373
за несколько месяцев.
07:37
No symptomsсимптомы, there's predictionпрогнозирование.
148
445197
2246
Симптомов нет, а прогноз есть.
07:39
She hopesнадеется it will be used
for earlyрано interventionвмешательство. Great!
149
447467
4812
Она надеется, что программа будет
использоваться для профилактики. Отлично!
07:44
But now put this in the contextконтекст of hiringнаем.
150
452911
2040
Теперь представьте это в контексте найма.
На той конференции
для управляющих персоналом
07:48
So at this humanчеловек resourcesРесурсы
managersменеджеры conferenceконференция,
151
456027
3046
07:51
I approachedподошел a high-levelвысокий уровень managerменеджер
in a very largeбольшой companyКомпания,
152
459097
4709
я подошла к менеджеру высокого уровня
в очень крупной компании,
07:55
and I said to her, "Look,
what if, unbeknownstневедомый to you,
153
463830
4578
и спросила её:
«Что, если система без вашего ведома,
08:00
your systemсистема is weedingпрополка out people
with highвысокая futureбудущее likelihoodвероятность of depressionдепрессия?
154
468432
6549
начнёт отсеивать людей
с высокой вероятностью будущей депрессии?
08:07
They're not depressedподавленный now,
just maybe in the futureбудущее, more likelyвероятно.
155
475761
3376
Сейчас у них нет депрессии,
но в будущем вероятность высока.
Что, если система начнёт отсеивать женщин,
чья вероятность забеременеть
08:11
What if it's weedingпрополка out womenженщины
more likelyвероятно to be pregnantбеременная
156
479923
3406
08:15
in the nextследующий yearгод or two
but aren'tне pregnantбеременная now?
157
483353
2586
через год или два выше,
но они не беременны сейчас?
08:18
What if it's hiringнаем aggressiveагрессивный people
because that's your workplaceрабочее место cultureкультура?"
158
486844
5636
Если начнёт нанимать агрессивных людей,
потому что это норма для вашей компании?
Этого не определить, глядя
на процентное соотношение полов.
08:25
You can't tell this by looking
at genderПол breakdownsсрывы.
159
493173
2691
08:27
Those mayмай be balancedсбалансированный.
160
495888
1502
Эти показатели могут быть в норме.
08:29
And sinceпоскольку this is machineмашина learningобучение,
not traditionalтрадиционный codingкодирование,
161
497414
3557
Так как это машинное обучение,
а не традиционное программирование,
08:32
there is no variableпеременная there
labeledмаркированный "higherвыше riskриск of depressionдепрессия,"
162
500995
4907
тут нет переменной
«более высокий риск депрессии»,
08:37
"higherвыше riskриск of pregnancyбеременность,"
163
505926
1833
«высокий риск беременности»,
08:39
"aggressiveагрессивный guy scaleмасштаб."
164
507783
1734
или «агрессивный парень».
08:41
Not only do you not know
what your systemсистема is selectingвыбирающий on,
165
509995
3679
Мало того, что вы не знаете,
как ваша система делает выводы,
08:45
you don't even know
where to beginначать to look.
166
513698
2323
вы даже не знаете, откуда что берётся.
08:48
It's a blackчерный boxкоробка.
167
516045
1246
Это чёрный ящик.
08:49
It has predictiveпрогностическое powerмощность,
but you don't understandПонимаю it.
168
517315
2807
Он может прогнозировать,
но мы не понимаем принцип его работы.
08:52
"What safeguardsзащитные меры," I askedспросил, "do you have
169
520486
2369
Я спросила:
«Какие у вас меры предосторожности,
08:54
to make sure that your blackчерный boxкоробка
isn't doing something shadyсомнительный?"
170
522879
3673
чтобы убедиться, что чёрный ящик
не делает ничего сомнительного?»
09:00
She lookedсмотрел at me as if I had
just steppedступенчатый on 10 puppyщенок tailsфрак.
171
528863
3878
Она посмотрела на меня, как будто я
только что отдавила хвосты 10 щенкам.
09:04
(LaughterСмех)
172
532765
1248
(Смех)
09:06
She staredсмотрел at me and she said,
173
534037
2041
Она посмотрела на меня и сказала:
09:08
"I don't want to hearзаслушивать
anotherдругой wordслово about this."
174
536556
4333
«Я не хочу слышать ни слова об этом».
09:13
And she turnedоказалось around and walkedходил away.
175
541458
2034
Она повернулась и пошла прочь.
Имейте в виду — она ​​не грубила мне.
09:16
MindРазум you -- she wasn'tне было rudeгрубый.
176
544064
1486
09:17
It was clearlyявно: what I don't know
isn't my problemпроблема, go away, deathсмерть stareглазеть.
177
545574
6308
Позиция очевидна: то, что я не знаю —
не моя проблема, отвяжись, стрелы из глаз.
09:23
(LaughterСмех)
178
551906
1246
(Смех)
09:25
Look, suchтакие a systemсистема
mayмай even be lessМеньше biasedпристрастный
179
553862
3839
Такая система
может быть менее предвзятой,
09:29
than humanчеловек managersменеджеры in some waysпути.
180
557725
2103
чем сами менеджеры в каком-то смысле.
09:31
And it could make monetaryденежный senseсмысл.
181
559852
2146
В этом может быть финансовая выгода.
09:34
But it could alsoтакже leadвести
182
562573
1650
Но это также может привести
09:36
to a steadyнеуклонный but stealthyскрытый
shuttingзакрытие out of the jobработа marketрынок
183
564247
4748
к неуклонному и скрытому
выдавливанию с рынка труда
09:41
of people with higherвыше riskриск of depressionдепрессия.
184
569019
2293
людей с более высоким
риском развития депрессии.
09:43
Is this the kindсвоего рода of societyобщество
we want to buildстроить,
185
571753
2596
Мы хотим построить такое общество,
09:46
withoutбез even knowingзнание we'veмы в doneсделанный this,
186
574373
2285
даже не осознавая, что мы делаем,
09:48
because we turnedоказалось decision-makingпринимать решение
to machinesмашины we don't totallyполностью understandПонимаю?
187
576682
3964
потому что отдали право принятия решений
машинам, которых до конца не понимаем?
09:53
AnotherДругая problemпроблема is this:
188
581265
1458
Следующая проблема:
09:55
these systemsсистемы are oftenдовольно часто trainedобученный
on dataданные generatedгенерироваться by our actionsдействия,
189
583314
4452
эти системы часто обучаются на данных,
произведённых нашими действиями —
09:59
humanчеловек imprintsотпечатки.
190
587790
1816
человеческим поведением.
10:02
Well, they could just be
reflectingотражающий our biasesуклоны,
191
590188
3808
Возможно, они просто
отражают наши предубеждения,
10:06
and these systemsсистемы
could be pickingсобирание up on our biasesуклоны
192
594020
3593
и эти системы могут
собирать наши пристрастия
10:09
and amplifyingусиливающий them
193
597637
1313
и усиливать их,
10:10
and showingпоказ them back to us,
194
598974
1418
показывая нам их вновь,
10:12
while we're tellingговоря ourselvesсами,
195
600416
1462
а мы говорим себе:
10:13
"We're just doing objectiveзадача,
neutralнейтральный computationвычисление."
196
601902
3117
«Мы просто проводим объективные,
непредвзятые вычисления».
10:18
ResearchersИсследователи foundнайденный that on GoogleGoogle,
197
606314
2677
Исследователи обнаружили что в Google
10:22
womenженщины are lessМеньше likelyвероятно than menлюди
to be shownпоказанный jobработа adsОбъявления for high-payingвысокооплачиваемая jobsработы.
198
610134
5313
женщины реже, чем мужчины, видят
объявления о высокооплачиваемой работе.
10:28
And searchingпоиск for African-AmericanАфроамериканец namesимена
199
616463
2530
Набирая в поисковике
афро-американские имена,
10:31
is more likelyвероятно to bringприносить up adsОбъявления
suggestingпредлагая criminalпреступник historyистория,
200
619017
4706
вероятность увидеть объявления
криминального характера будет выше,
10:35
even when there is noneникто.
201
623747
1567
даже там, где криминала нет.
10:38
Suchтакие hiddenскрытый biasesуклоны
and black-boxчерный ящик algorithmsалгоритмы
202
626693
3549
Скрытая необъективность
и алгоритмы чёрного ящика,
10:42
that researchersисследователи uncoverраскрывать sometimesиногда
but sometimesиногда we don't know,
203
630266
3973
которые исследователи
иногда выявляют, а иногда нет,
10:46
can have life-alteringизменяющая жизнь consequencesпоследствия.
204
634263
2661
могут иметь далеко идущие последствия.
10:49
In WisconsinВисконсин, a defendantответчик
was sentencedприговоренный to sixшесть yearsлет in prisonтюрьма
205
637958
4159
В Висконсине подсудимый был приговорён
к шести годам лишения свободы
10:54
for evadingуклоняясь the policeполиция.
206
642141
1355
за уклонение от полиции.
10:56
You mayмай not know this,
207
644824
1186
Может, вы не знаете,
10:58
but algorithmsалгоритмы are increasinglyвсе больше и больше used
in paroleчестное слово and sentencingвынесение приговора decisionsрешения.
208
646034
3998
но эти алгоритмы всё чаще используются
в вынесении приговоров.
11:02
He wanted to know:
How is this scoreГол calculatedвычисленный?
209
650056
2955
Он хотел узнать,
как всё это рассчитывается?
11:05
It's a commercialкоммерческая blackчерный boxкоробка.
210
653795
1665
Это коммерческий чёрный ящик.
11:07
The companyКомпания refusedотказалась to have its algorithmалгоритм
be challengedвызов in openоткрытый courtсуд.
211
655484
4205
Компания отказалась обсуждать
свой алгоритм на открытом заседании суда.
11:12
But ProPublicaProPublica, an investigativeследственный
nonprofitнекоммерческий, auditedаудит that very algorithmалгоритм
212
660396
5532
Но следственная некоммерческая организация
ProPublica проверила алгоритм,
11:17
with what publicобщественности dataданные they could find,
213
665952
2016
используя данные из Интернета,
11:19
and foundнайденный that its outcomesрезультаты were biasedпристрастный
214
667992
2316
и обнаружила,
что результаты необъективны,
11:22
and its predictiveпрогностическое powerмощность
was dismalгнетущий, barelyедва better than chanceшанс,
215
670332
3629
способность прогнозирования ужасная,
немного лучше, чем случайность.
11:25
and it was wronglyпревратно labelingмаркировка
blackчерный defendantsответчики as futureбудущее criminalsпреступники
216
673985
4416
Система классифицирует чернокожих
обвиняемых как будущих преступников
11:30
at twiceдважды the rateставка of whiteбелый defendantsответчики.
217
678425
3895
в два раза чаще, чем белых обвиняемых.
11:35
So, considerрассматривать this caseдело:
218
683891
1564
Рассмотрим следующий случай:
11:38
This womanженщина was lateпоздно
pickingсобирание up her godsistergodsister
219
686103
3852
Эта девушка опаздывала, чтобы забрать
свою крёстную сестру
11:41
from a schoolшкола in BrowardБровард Countyокруг, FloridaФлорида,
220
689979
2075
из школы в округе Броуард, штат Флорида.
11:44
runningБег down the streetулица
with a friendдруг of hersее.
221
692757
2356
Они с подругой бежали по улице.
11:47
They spottedпятнистый an unlockedразблокирована kid'sДети bikeвелосипед
and a scooterсамокат on a porchкрыльцо
222
695137
4099
Тут они заметили незапертые
велосипед и скутер на крыльце
11:51
and foolishlyглупо jumpedпрыгнули on it.
223
699260
1632
и по глупости взяли их.
11:52
As they were speedingпревышение скорости off,
a womanженщина cameпришел out and said,
224
700916
2599
Когда они отъезжали,
вышла женщина и крикнула:
11:55
"Hey! That's my kid'sДети bikeвелосипед!"
225
703539
2205
«Эй! Это велосипед моего ребёнка!»
11:57
They droppedупал it, they walkedходил away,
but they were arrestedарестованный.
226
705768
3294
Они его бросили и ушли,
но их арестовали.
12:01
She was wrongнеправильно, she was foolishглупый,
but she was alsoтакже just 18.
227
709086
3637
Она была не права, она сглупила,
но ей было всего 18 лет.
12:04
She had a coupleпара of juvenileювенильный misdemeanorsпроступки.
228
712747
2544
У неё была пара
малолетних правонарушений.
12:07
Meanwhileмежду тем, that man had been arrestedарестованный
for shopliftingворовство в магазинах in Home DepotДепо --
229
715808
5185
В то же время этот мужчина был
арестован за кражу в магазине Home Depot,
12:13
85 dollars'долларов worthстоимость of stuffматериал,
a similarаналогичный pettyмелкий crimeпреступление.
230
721017
2924
примерно на сумму 85 долларов —
такое же мелкое преступление.
12:16
But he had two priorпредшествующий
armedвооруженный robberyграбеж convictionsубеждения.
231
724766
4559
Но у него за спиной было
две судимости за вооружённый грабеж.
12:21
But the algorithmалгоритм scoredзабил her
as highвысокая riskриск, and not him.
232
729955
3482
Алгоритм посчитал,
что её показатель риска выше, чем его.
12:26
Two yearsлет laterпозже, ProPublicaProPublica foundнайденный
that she had not reoffendedreoffended.
233
734746
3874
Спустя пару лет ProPublica выяснили,
что она больше не совершала преступлений.
12:30
It was just hardжесткий to get a jobработа
for her with her recordзапись.
234
738644
2550
Но зато ей было сложно найти
работу, имея судимость.
12:33
He, on the other handрука, did reoffendрецидивистами
235
741218
2076
Тогда как этот мужчина стал рецидивистом,
12:35
and is now servingпорция an eight-yearвосемь лет
prisonтюрьма termсрок for a laterпозже crimeпреступление.
236
743318
3836
и в настоящее время отбывает восьмилетний
срок за своё последнее преступление.
12:40
Clearlyочевидно, we need to auditаудит our blackчерный boxesящики
237
748088
3369
Очевидно, мы должны проверять
наши чёрные ящики,
12:43
and not have them have
this kindсвоего рода of uncheckedнепроверенный powerмощность.
238
751481
2615
чтобы они не получили
бесконтрольную власть.
12:46
(ApplauseАплодисменты)
239
754120
2879
(Аплодисменты)
12:50
AuditsРевизии are great and importantважный,
but they don't solveрешать all our problemsпроблемы.
240
758087
4242
Проверка и контроль важны,
но они не решают всех проблем.
12:54
Take Facebook'sfacebook-х powerfulмощный
newsНовости feedкорм algorithmалгоритм --
241
762353
2748
Вспомните мощный алгоритм
ленты новостей на Facebook —
12:57
you know, the one that ranksряды everything
and decidesрешает what to showпоказать you
242
765125
4843
знаете, тот, который оценивает всё
и решает, что именно вам показывать
13:01
from all the friendsдрузья and pagesстраницы you followследовать.
243
769992
2284
от ваших друзей и до страниц,
на которые вы подписаны.
13:04
Should you be shownпоказанный anotherдругой babyдетка pictureкартина?
244
772898
2275
Показать вам ещё одну картинку младенца?
13:07
(LaughterСмех)
245
775197
1196
(Смех)
13:08
A sullenугрюмый noteзаметка from an acquaintanceзнакомство?
246
776417
2596
Грустный комментарий от знакомого?
13:11
An importantважный but difficultсложно newsНовости itemпункт?
247
779449
1856
Важную, но непростую новость?
13:13
There's no right answerответ.
248
781329
1482
Тут нет единого ответа.
13:14
Facebookfacebook optimizesОптимизирует
for engagementпомолвка on the siteсайт:
249
782835
2659
Facebook оптимизирует
вашу деятельность на сайте:
13:17
likesнравится, sharesакции, commentsКомментарии.
250
785518
1415
лайки, ссылки, комментарии.
13:20
In Augustавгустейший of 2014,
251
788168
2696
В августе 2014 года
13:22
protestsпротесты brokeсломал out in FergusonФергюсон, MissouriМиссури,
252
790888
2662
в Фергюсоне, штат Миссури
вспыхнули протесты
13:25
after the killingубийство of an African-AmericanАфроамериканец
teenagerподросток by a whiteбелый policeполиция officerсотрудник,
253
793574
4417
после того, как белый полицейский
убил афро-американского подростка
13:30
underпод murkyтемный circumstancesобстоятельства.
254
798015
1570
при невыясненных обстоятельствах.
13:31
The newsНовости of the protestsпротесты was all over
255
799974
2007
Новости о протестах заполонили
13:34
my algorithmicallyалгоритмически
unfilteredнеотфильтрованный Twitterщебет feedкорм,
256
802005
2685
мой алгоритмически
нефильтрованный Twitter,
13:36
but nowhereнигде on my Facebookfacebook.
257
804714
1950
но в моём Facebook их не было.
Может, это из-за моих друзей в Facebook?
13:39
Was it my Facebookfacebook friendsдрузья?
258
807182
1734
13:40
I disabledотключен Facebook'sfacebook-х algorithmалгоритм,
259
808940
2032
Я отключила алгоритм Facebook,
13:43
whichкоторый is hardжесткий because Facebookfacebook
keepsдержит wantingжелая to make you
260
811472
2848
что было сложно, так как Facebook хочет,
13:46
come underпод the algorithm'sалгоритма controlконтроль,
261
814344
2036
чтобы вы были под контролем алгоритма.
13:48
and saw that my friendsдрузья
were talkingговорящий about it.
262
816404
2238
Я увидела, что мои друзья
обсуждали эту тему.
13:50
It's just that the algorithmалгоритм
wasn'tне было showingпоказ it to me.
263
818666
2509
Просто алгоритм не показывал это мне.
Я изучила этот вопрос и выяснила,
что это распространённая проблема.
13:53
I researchedисследовал this and foundнайденный
this was a widespreadшироко распространен problemпроблема.
264
821199
3042
Новость про Фергюсон
была неудобна для алгоритма.
13:56
The storyистория of FergusonФергюсон
wasn'tне было algorithm-friendlyАлгоритм дружественный.
265
824265
3813
Эта новость не наберёт лайки.
14:00
It's not "likableприятный."
266
828102
1171
14:01
Who'sКто going to clickщелчок on "like?"
267
829297
1552
Кто будет лайкать это?
14:03
It's not even easyлегко to commentкомментарий on.
268
831500
2206
Это даже сложно комментировать.
14:05
WithoutБез likesнравится and commentsКомментарии,
269
833730
1371
Без лайков и комментариев
14:07
the algorithmалгоритм was likelyвероятно showingпоказ it
to even fewerменьше people,
270
835125
3292
алгоритм, вероятно, показывал
новость ещё меньшему кругу людей,
14:10
so we didn't get to see this.
271
838441
1542
поэтому мы не видели это.
Вместо этого на той же неделе
14:12
InsteadВместо, that weekнеделю,
272
840946
1228
14:14
Facebook'sfacebook-х algorithmалгоритм highlightedвыделены this,
273
842198
2298
алгоритм Facebook выделил это —
14:16
whichкоторый is the ALSALS Iceлед Bucketведро ChallengeВызов.
274
844520
2226
кампания «испытание ведром ледяной воды».
Важное дело: выливаем ведро со льдом,
жертвуем на благотворительность — супер.
14:18
Worthyдостойный causeпричина; dumpсвалка iceлед waterводы,
donateжертвовать to charityблаготворительная деятельность, fine.
275
846770
3742
14:22
But it was superсупер algorithm-friendlyАлгоритм дружественный.
276
850536
1904
Это было очень удобно для алгоритма.
14:25
The machineмашина madeсделал this decisionрешение for us.
277
853219
2613
Машина решила за нас.
14:27
A very importantважный
but difficultсложно conversationразговор
278
855856
3497
Очень важный, но трудный разговор,
14:31
mightмог бы have been smotheredзадушены,
279
859377
1555
возможно, был бы замят,
14:32
had Facebookfacebook been the only channelканал.
280
860956
2696
будь Facebook единственным каналом.
14:36
Now, finallyв конце концов, these systemsсистемы
can alsoтакже be wrongнеправильно
281
864117
3797
Наконец, эти системы могут делать ошибки,
14:39
in waysпути that don't resembleпоходить humanчеловек systemsсистемы.
282
867938
2736
которые не похожи на ошибки людей.
14:42
Do you guys rememberзапомнить WatsonУотсон,
IBM'sIBM, machine-intelligenceмашинно-разведка systemсистема
283
870698
2922
Помните Уотсона,
искусственный интеллект IBM,
14:45
that wipedстер the floorпол
with humanчеловек contestantsконкурсанты on Jeopardyподсудность?
284
873644
3128
который разгромил соперников-людей
на телевикторине Jeopardy?
14:49
It was a great playerигрок.
285
877131
1428
Он был отличным игроком.
14:50
But then, for Finalокончательный Jeopardyподсудность,
WatsonУотсон was askedспросил this questionвопрос:
286
878583
3569
Тогда, во время финала игры
Уотсону задали вопрос:
«Его крупнейший аэропорт назван
в честь героя Второй мировой войны,
14:54
"Its largestкрупнейший airportаэропорт is namedназванный
for a WorldМир Warвойна IIII heroгерой,
287
882659
2932
14:57
its second-largestВторой по величине
for a WorldМир Warвойна IIII battleбоевой."
288
885615
2252
а второй — в честь битвы
Второй мировой войны».
14:59
(Humsгудит Finalокончательный Jeopardyподсудность musicМузыка)
289
887891
1378
(Музыка Final Jeopardy)
15:01
ChicagoЧикаго.
290
889582
1182
Чикаго.
15:02
The two humansлюди got it right.
291
890788
1370
Два человека ответили правильно.
15:04
WatsonУотсон, on the other handрука,
answeredответил "TorontoТоронто" --
292
892697
4348
Уотсон ответил «Торонто» —
15:09
for a US cityгород categoryкатегория!
293
897069
1818
в категории городов США!
15:11
The impressiveвпечатляющий systemсистема alsoтакже madeсделал an errorошибка
294
899596
2901
Мощнейшая система сделала ошибку,
15:14
that a humanчеловек would never make,
a second-graderвторой грейдер wouldn'tне будет make.
295
902521
3651
которую человек никогда бы не сделал,
даже второклассник бы не ошибся.
15:18
Our machineмашина intelligenceинтеллект can failпотерпеть неудачу
296
906823
3109
Искусственный интеллект
может ошибиться там,
15:21
in waysпути that don't fitпоместиться
errorошибка patternsузоры of humansлюди,
297
909956
3100
где человек не допустит ошибку,
15:25
in waysпути we won'tне будет expectожидать
and be preparedподготовленный for.
298
913080
2950
там, где мы не ожидаем
ошибку и не готовы к ней.
15:28
It'dЭто было be lousyпаршивый not to get a jobработа
one is qualifiedквалифицированный for,
299
916054
3638
Жалко не получить работу тому,
кто для неё подходит,
15:31
but it would tripleтройной suckсосать
if it was because of stackстек overflowпереполнение
300
919716
3727
но ещё хуже, если это произошло
из-за переполнения стека
15:35
in some subroutineподпрограмма.
301
923467
1432
в какой-то подпрограмме.
15:36
(LaughterСмех)
302
924923
1579
(Смех)
15:38
In Mayмай of 2010,
303
926526
2786
В мае 2010 года
15:41
a flashвспышка crashавария on Wallстена Streetулица
fueledподпитывается by a feedbackОбратная связь loopпетля
304
929336
4044
произошёл обвал рынка Уолл-стрит
по вине метода передачи данных
15:45
in Wallстена Street'sстрит "sellпродавать" algorithmалгоритм
305
933404
3028
в алгоритме Уолл-стрит «сбыт»,
15:48
wipedстер a trillionтриллион dollarsдолларов
of valueстоимость in 36 minutesминут.
306
936456
4184
что снизило стоимость бумаг
на триллион долларов на 36 минут.
Даже подумать страшно, какие
последствия может иметь «ошибка»
15:53
I don't even want to think
what "errorошибка" meansозначает
307
941722
2187
15:55
in the contextконтекст of lethalлетальный
autonomousавтономный weaponsоружие.
308
943933
3589
в контексте автономного летального оружия.
16:01
So yes, humansлюди have always madeсделал biasesуклоны.
309
949894
3790
У людей всегда предвзятый взгляд на вещи.
16:05
DecisionРешение makersпроизводители and gatekeepersпривратники,
310
953708
2176
Лица, принимающие решения, и контролёры;
16:07
in courtsсуды, in newsНовости, in warвойна ...
311
955908
3493
в судах, в новостях, на войне ...
16:11
they make mistakesошибки;
but that's exactlyв точку my pointточка.
312
959425
3038
люди совершают ошибки —
именно это я и имею в виду.
16:14
We cannotне могу escapeпобег
these difficultсложно questionsвопросов.
313
962487
3521
Мы не можем избежать сложных вопросов.
16:18
We cannotне могу outsourceаутсорсинг
our responsibilitiesобязанности to machinesмашины.
314
966596
3516
Мы не можем переложить
свои обязанности на машины.
16:22
(ApplauseАплодисменты)
315
970676
4208
(Аплодисменты)
16:29
Artificialискусственный intelligenceинтеллект does not give us
a "Get out of ethicsэтика freeсвободно" cardкарта.
316
977089
4447
Искусственный интеллект не даёт нам
права переложить вопросы этики на машину.
16:34
DataДанные scientistученый FredФред BenensonBenenson
callsзвонки this math-washingматематика для мытья.
317
982742
3381
Эксперт по данным Фред Бененсон
называет это «математической чисткой».
16:38
We need the oppositeнапротив.
318
986147
1389
Нам нужно совсем другое.
16:39
We need to cultivateкультивировать algorithmалгоритм suspicionподозрение,
scrutinyисследование and investigationрасследование.
319
987560
5388
Нам необходимы пристальное внимание,
контроль и оценка алгоритмов.
16:45
We need to make sure we have
algorithmicалгоритмический accountabilityподотчетность,
320
993380
3198
У нас должна быть
алгоритмическая отчётность,
16:48
auditingаудит and meaningfulзначимым transparencyпрозрачность.
321
996602
2445
проверка и достаточная прозрачность.
16:51
We need to acceptпринимать
that bringingприведение mathматематический and computationвычисление
322
999380
3234
Мы должны признать, что, добавив
математику и вычисления
16:54
to messyбеспорядочный, value-ladenзначение нагруженные humanчеловек affairsдела
323
1002638
2970
к запутанным человеческим делам,
16:57
does not bringприносить objectivityобъективность;
324
1005632
2384
мы не получим объективности;
17:00
ratherскорее, the complexityсложность of humanчеловек affairsдела
invadesвторгается the algorithmsалгоритмы.
325
1008040
3633
скорее, сложность человеческих
отношений вторгнется в алгоритмы.
17:04
Yes, we can and we should use computationвычисление
326
1012148
3487
Да, мы можем, и мы должны
использовать вычисления
17:07
to help us make better decisionsрешения.
327
1015659
2014
для поиска лучших решений.
17:09
But we have to ownсвоя up
to our moralморальный responsibilityобязанность to judgmentсуждение,
328
1017697
5332
Мы также должны нести моральную
ответственность и принимать решения,
17:15
and use algorithmsалгоритмы withinв that frameworkфреймворк,
329
1023053
2818
успользуя алгоритмы в этих рамках,
17:17
not as a meansозначает to abdicateотрекаться
and outsourceаутсорсинг our responsibilitiesобязанности
330
1025895
4935
а не как средство отказа от обязательств,
чтобы передать наши обязанности
17:22
to one anotherдругой as humanчеловек to humanчеловек.
331
1030854
2454
друг другу, как один человек другому.
17:25
MachineМашина intelligenceинтеллект is here.
332
1033807
2609
Искусственный интеллект уже здесь.
17:28
That meansозначает we mustдолжен holdдержать on ever tighterтуже
333
1036440
3421
Это значит, что мы должны
ещё больше придерживаться
17:31
to humanчеловек valuesзначения and humanчеловек ethicsэтика.
334
1039885
2147
человеческих ценностей и этики.
17:34
Thank you.
335
1042056
1154
Спасибо.
17:35
(ApplauseАплодисменты)
336
1043234
5020
(Аплодисменты)
Translated by Olenka Rasskazova
Reviewed by Natalia Ost

▲Back to top

ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.

Why you should listen

We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.

Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.

Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.

More profile about the speaker
Zeynep Tufekci | Speaker | TED.com