ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.

Why you should listen

We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.

Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.

Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.

More profile about the speaker
Zeynep Tufekci | Speaker | TED.com
TEDSummit

Zeynep Tufekci: Machine intelligence makes human morals more important

Zeynep Tufekci: Sztuczna inteligencja podkreśla wagę ludzkiej moralności

Filmed:
1,648,711 views

Sztuczna inteligencja jest faktem, już z niej korzystamy, dokonując subiektywnych wyborów. Lecz skomplikowany sposób rozwoju sztucznej inteligencji sprawia, że trudno ją zrozumieć i kontrolować. W tej ostrzegawczej prelekcji techno-socjolog Zeynep Tufekci wyjaśnia, jak sztuczna inteligencja może zawieść w sposób nie przypominający ludzkich błędów, którego nie będziemy się spodziewać i na który nie będziemy przygotowani. "Nie możemy zrzucić naszej odpowiedzialności na maszyny. Musimy coraz mocniej trzymać się ludzkich wartości i etyki".
- Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread. Full bio

Double-click the English transcript below to play the video.

00:12
So, I startedRozpoczęty my first jobpraca
as a computerkomputer programmerprogramista
0
739
4122
Zaczęłam pracować jako programistka
na pierwszym roku studiów,
00:16
in my very first yearrok of collegeSzkoła Wyższa --
1
4885
1956
jeszcze jako nastolatka.
00:18
basicallygruntownie, as a teenagernastolatek.
2
6865
1507
Niedługo później zaczęłam pracować
dla firmy tworzącej oprogramowania.
00:20
SoonWkrótce after I startedRozpoczęty workingpracujący,
3
8889
1732
00:22
writingpisanie softwareoprogramowanie in a companyfirma,
4
10645
1610
Pewnego razu jeden z managerów
podszedł do mnie i wyszeptał:
00:24
a managermenedżer who workedpracował at the companyfirma
cameoprawa ołowiana witrażu down to where I was,
5
12799
3635
00:28
and he whisperedszepnął to me,
6
16458
1268
"Czy on wie kiedy kłamię?".
00:30
"Can he tell if I'm lyingkłamstwo?"
7
18229
2861
Byliśmy sami w pokoju.
00:33
There was nobodynikt elsejeszcze in the roompokój.
8
21806
2077
"Niby kto ma wiedzieć kiedy kłamiesz?
00:37
"Can who tell if you're lyingkłamstwo?
And why are we whisperingSzeptanie?"
9
25032
4389
I dlaczego szepczemy?"
00:42
The managermenedżer pointedspiczasty
at the computerkomputer in the roompokój.
10
30266
3107
Manager wskazał na komputer.
"Czy on wie kiedy kłamię?"
00:45
"Can he tell if I'm lyingkłamstwo?"
11
33397
3096
00:49
Well, that managermenedżer was havingmający
an affairromans with the receptionistrecepcjonistka.
12
37613
4362
Ten menadżer miał romans z recepcjonistką.
00:53
(LaughterŚmiech)
13
41999
1112
(Śmiech)
00:55
And I was still a teenagernastolatek.
14
43135
1766
Byłam nastolatką,
więc odkrzyknęłam szeptem:
00:57
So I whisper-shoutedWhisper krzyknął back to him,
15
45447
2019
"Tak, komputer wie kiedy kłamiesz!".
00:59
"Yes, the computerkomputer can tell
if you're lyingkłamstwo."
16
47490
3624
01:03
(LaughterŚmiech)
17
51138
1806
(Śmiech)
01:04
Well, I laughedzaśmiał się, but actuallytak właściwie,
the laugh'sśmiech w on me.
18
52968
2923
Wtedy się z tego śmiałam,
ale teraz można śmiać się ze mnie.
01:07
NowadaysW dzisiejszych czasach, there are computationalobliczeniowy systemssystemy
19
55915
3268
Obecnie istnieją programy,
które potrafią ropoznawać
01:11
that can susssuss out
emotionalemocjonalny statesstany and even lyingkłamstwo
20
59207
3548
stany emocjonalne i kłamstwo
na podstawie zdjęć twarzy.
01:14
from processingprzetwarzanie humanczłowiek facestwarze.
21
62779
2044
Spece od marketingu i organy rządowe
wyrażają zainteresowanie.
01:17
AdvertisersReklamodawców and even governmentsrządy
are very interestedzainteresowany.
22
65248
4153
Zostałam programistką, bo od dziecka
uwielbiałam matematykę i naukę.
01:22
I had becomestają się a computerkomputer programmerprogramista
23
70319
1862
01:24
because I was one of those kidsdzieciaki
crazyzwariowany about mathmatematyka and sciencenauka.
24
72205
3113
Dowiedziawszy się o broni jądrowej,
przejęłam się kwestią etyki w nauce.
01:27
But somewheregdzieś alongwzdłuż the linelinia
I'd learnednauczyli about nuclearjądrowy weaponsBronie,
25
75942
3108
01:31
and I'd gottenzdobyć really concernedzaniepokojony
with the ethicsEtyka of sciencenauka.
26
79074
2952
Byłam w kropce.
01:34
I was troubledzmartwiony.
27
82050
1204
01:35
HoweverJednak, because of familyrodzina circumstancesokoliczności,
28
83278
2641
Ze względu na sytuację rodzinną
musiałam jak najszybciej zacząć pracować.
01:37
I alsorównież neededpotrzebne to startpoczątek workingpracujący
as soonwkrótce as possiblemożliwy.
29
85943
3298
01:41
So I thought to myselfsiebie, hey,
let me pickwybierać a technicaltechniczny fieldpole
30
89265
3299
Pomyślałam, że wybiorę dziedzinę,
w której łatwo znajdę pracę
01:44
where I can get a jobpraca easilyz łatwością
31
92588
1796
01:46
and where I don't have to dealsprawa
with any troublesomekłopotliwe questionspytania of ethicsEtyka.
32
94408
4018
i nie będę musiała myśleć
o zawiłych kwestiach etycznych.
Wybrałam informatykę.
01:51
So I pickeddoborowy computerskomputery.
33
99022
1529
01:52
(LaughterŚmiech)
34
100575
1104
(Śmiech)
01:53
Well, haha, haha, haha!
All the laughsśmiech are on me.
35
101703
3410
Ha, ha, ha. Można się ze mnie nabijać.
Programiści tworzą platformy,
które kontrolują to,
01:57
NowadaysW dzisiejszych czasach, computerkomputer scientistsnaukowcy
are buildingbudynek platformsplatformy
36
105137
2754
01:59
that controlkontrola what a billionmiliard
people see everykażdy day.
37
107915
4209
co każdego dnia widzą miliardy ludzi.
Tworzą samochody,
mogące zdecydować, kogo przejechać.
02:05
They're developingrozwijanie carssamochody
that could decidedecydować się who to runbiegać over.
38
113052
3822
Tworzą nawet broń mechaniczną,
która mogłaby być użyta w czasie wojny.
02:09
They're even buildingbudynek machinesmaszyny, weaponsBronie,
39
117707
3213
02:12
that mightmoc killzabić humanczłowiek beingsIstoty in warwojna.
40
120944
2285
To są od początku do końca
kwestie etyczne.
02:15
It's ethicsEtyka all the way down.
41
123253
2771
Sztuczna inteligencja to rzeczywistość.
02:19
MachineMaszyny intelligenceinteligencja is here.
42
127183
2058
02:21
We're now usingza pomocą computationobliczenie
to make all sortsortować of decisionsdecyzje,
43
129823
3474
Korzystamy z obliczeń komputerowych
do podejmowania różnych decyzji,
również decyzji nowego rodzaju.
02:25
but alsorównież newNowy kindsrodzaje of decisionsdecyzje.
44
133321
1886
Próbujemy z pomocą komputerów,
uzyskać odpowiedzi na pytania,
02:27
We're askingpytając questionspytania to computationobliczenie
that have no singlepojedynczy right answersodpowiedzi,
45
135231
5172
na które nie ma jednej dobrej odpowiedzi,
które są subiektywne,
otwarte i wartościujące.
02:32
that are subjectivesubiektywny
46
140427
1202
02:33
and open-endedotwarty and value-ladenwartość z ładunkiem.
47
141653
2325
02:36
We're askingpytając questionspytania like,
48
144002
1758
Pytamy: "Kogo powinno się zatrudnić?
02:37
"Who should the companyfirma hirezatrudnić?"
49
145784
1650
Który i czyj post dana osoba
powinna zobaczyć?
02:40
"WhichCo updateaktualizacja from whichktóry friendprzyjaciel
should you be shownpokazane?"
50
148096
2759
Który skazaniec prawdopodobnie
popełni kolejne przestępstwo?
02:42
"WhichCo convictskazaniec is more
likelyprawdopodobne to reoffendpodczas ponownego?"
51
150879
2266
Jaka informacja lub film powinny być
zarekomendowane widowni?".
02:45
"WhichCo newsAktualności itempozycja or moviefilm
should be recommendedzalecane to people?"
52
153514
3054
02:48
Look, yes, we'vemamy been usingza pomocą
computerskomputery for a while,
53
156592
3372
Używamy komputerów od lat,
ale to są kwestie innego rodzaju.
02:51
but this is differentróżne.
54
159988
1517
To jest historyczna zmiana,
02:53
This is a historicalhistoryczny twistTwist,
55
161529
2067
bo nie możemy powiązać obliczeń
z tak subiektywnymi kwestiami,
02:55
because we cannotnie może anchorKotwica computationobliczenie
for suchtaki subjectivesubiektywny decisionsdecyzje
56
163620
5337
w taki sam sposób gdy w grę wchodzi
03:00
the way we can anchorKotwica computationobliczenie
for flyinglatający airplanessamoloty, buildingbudynek bridgesmosty,
57
168981
5420
latanie samolotami,
budowa mostów i wyprawy na Księżyc.
03:06
going to the moonksiężyc.
58
174425
1259
Czy samoloty są bezpieczniejsze?
03:08
Are airplanessamoloty saferbezpieczniejsze?
Did the bridgemost swaykołysać and fallspadek?
59
176449
3259
Czy mosty chwieją się i walą?
03:11
There, we have agreed-uponuzgodnionych,
fairlydość clearjasny benchmarkswskaźników,
60
179732
4498
Dla takich spraw mamy jasne standardy
i prawa natury, które wskazują drogę.
03:16
and we have lawsprawa of natureNatura to guideprzewodnik us.
61
184254
2239
03:18
We have no suchtaki anchorsKotwice and benchmarkswskaźników
62
186517
3394
Nie mamy takich standardów dla decyzji
w pogmatwanych ludzkich sprawach.
03:21
for decisionsdecyzje in messyniechlujny humanczłowiek affairssprawy.
63
189935
3963
03:25
To make things more complicatedskomplikowane,
our softwareoprogramowanie is gettinguzyskiwanie more powerfulpotężny,
64
193922
4237
Tymczasem, oprogramowanie
staje się coraz potężniejsze,
03:30
but it's alsorównież gettinguzyskiwanie lessmniej
transparentprzezroczysty and more complexzłożony.
65
198183
3773
ale również coraz mniej
przejrzyste i bardziej złożone.
W ciągu ostatnich dziesięcioleci
skomplikowane algorytmy
03:34
RecentlyNiedawno, in the pastprzeszłość decadedekada,
66
202542
2040
03:36
complexzłożony algorithmsalgorytmy
have madezrobiony great strideskrokami.
67
204606
2729
dokonały milowego kroku do przodu.
03:39
They can recognizerozpoznać humanczłowiek facestwarze.
68
207359
1990
Potrafią rozpoznawać twarze,
03:41
They can decipherrozszyfrować handwritingpisma ręcznego.
69
209985
2055
odczytywać odręczne pismo,
wykrywać kradzieże
na kartach kredytowych,
03:44
They can detectwykryć creditkredyt cardkarta fraudoszustwa
70
212436
2066
03:46
and blockblok spamspam
71
214526
1189
blokować spam, tłumaczyć teksty,
03:47
and they can translateTłumaczyć betweenpomiędzy languagesJęzyki.
72
215739
2037
wykryć guz w obrazowaniu medycznym
03:49
They can detectwykryć tumorsguzy in medicalmedyczny imagingImaging.
73
217800
2574
03:52
They can beatbić humansludzie in chessszachy and Go.
74
220398
2205
i pokonać człowieka w szachy.
03:55
Much of this progresspostęp comespochodzi
from a methodmetoda callednazywa "machinemaszyna learninguczenie się."
75
223264
4504
Większą część tego postępu
zawdzięczamy metodzie
zwanej "samouczeniem maszyn".
04:00
MachineMaszyny learninguczenie się is differentróżne
than traditionaltradycyjny programmingprogramowanie,
76
228175
3187
Samouczenie maszyn różni się
od klasycznego programowania,
04:03
where you give the computerkomputer
detailedszczegółowe, exactdokładny, painstakingSkrupulatność instructionsinstrukcje.
77
231386
3585
w którym wydaje się komputerowi
dokładną i szczegółową instrunkcję.
Polega bardziej na wprowadzaniu
dużej ilości danych do systemu,
04:07
It's more like you take the systemsystem
and you feedkarmić it lots of datadane,
78
235378
4182
również danych przypadkowych,
takich jakie generujemy w sieci.
04:11
includingwłącznie z unstructuredbez struktury datadane,
79
239584
1656
04:13
like the kinduprzejmy we generateGenerować
in our digitalcyfrowy liveszyje.
80
241264
2278
System uczy się,
przedzierając się przez te dane.
04:15
And the systemsystem learnsuczy się
by churningubijaniu throughprzez this datadane.
81
243566
2730
Najistotniejszy jest fakt, że te systemy
04:18
And alsorównież, cruciallyco najważniejsze,
82
246669
1526
04:20
these systemssystemy don't operatedziałać
underpod a single-answerSingle odpowiedź logiclogika.
83
248219
4380
nie pracują zgodnie z logiką
jednoznacznych odpowiedzi.
Nie dają prostej odpowiedzi,
tylko określają prawdopodobieństwo:
04:24
They don't produceprodukować a simpleprosty answerodpowiedź;
it's more probabilisticprobabilistyczne:
84
252623
2959
04:27
"This one is probablyprawdopodobnie more like
what you're looking for."
85
255606
3483
"To jest być może bardziej podobne,
do tego czego szukasz".
04:32
Now, the upsidedo góry is:
this methodmetoda is really powerfulpotężny.
86
260023
3070
Plusem jest to, że ta metoda
ma bardzo duży potencjał.
Szef systemów
sztucznej inteligencji Google
04:35
The headgłowa of Google'sFirmy Google AIAI systemssystemy callednazywa it,
87
263117
2076
nazwał tę metodę
"nieuzasadnioną skutecznością danych".
04:37
"the unreasonablenieuzasadnione effectivenessskuteczność of datadane."
88
265217
2197
04:39
The downsideminusem is,
89
267791
1353
Minusem jest to, że nie rozumiemy,
czego nauczył się system
04:41
we don't really understandzrozumieć
what the systemsystem learnednauczyli.
90
269738
3071
i to właśnie stanowi jego siłę.
04:44
In factfakt, that's its powermoc.
91
272833
1587
To nie przypomina
wydawania instrukcji komputerowi.
04:46
This is lessmniej like givingdający
instructionsinstrukcje to a computerkomputer;
92
274946
3798
Przypomina raczej trenowanie
mechanicznego szczeniaczka,
04:51
it's more like trainingtrening
a puppy-machine-creatureszczeniak maszyny istota
93
279200
4064
którego nie rozumiemy
i nie potrafimy kontrolować.
04:55
we don't really understandzrozumieć or controlkontrola.
94
283288
2371
04:58
So this is our problemproblem.
95
286362
1551
I to jest problem.
05:00
It's a problemproblem when this artificialsztuczny
intelligenceinteligencja systemsystem getsdostaje things wrongźle.
96
288427
4262
Problem pojawia się,
gdy ta sztuczna inteligencja się myli.
Problem pojawia się
również wtedy, gdy ma rację,
05:04
It's alsorównież a problemproblem
when it getsdostaje things right,
97
292713
3540
ponieważ nie umiemy tego rozróżnić
w przypadku subiektywnej kwestii.
05:08
because we don't even know whichktóry is whichktóry
when it's a subjectivesubiektywny problemproblem.
98
296277
3628
05:11
We don't know what this thing is thinkingmyślący.
99
299929
2339
Nie mamy pojęcia,
co ten system sobie myśli.
Rozważmy algorytm odpowiedzialny
za rekrutację pracowników.
05:15
So, considerrozważać a hiringwynajmowanie algorithmalgorytm --
100
303493
3683
05:20
a systemsystem used to hirezatrudnić people,
usingza pomocą machine-learningUczenie maszynowe systemssystemy.
101
308123
4311
Algorytm rekrutujący oparty
na metodzie samouczenia się maszyn.
05:25
SuchTakie a systemsystem would have been trainedprzeszkolony
on previouspoprzedni employees'pracowników datadane
102
313052
3579
Taki system byłby oparty na danych
pracowników danej firmy
05:28
and instructedinstrukcją to find and hirezatrudnić
103
316655
2591
i miałby zatrudniać ludzi o takim profilu
jak obecni najwydajniejsi pracownicy.
05:31
people like the existingistniejący
highwysoki performerswykonawców in the companyfirma.
104
319270
3038
Brzmi nieźle.
05:34
SoundsDźwięki good.
105
322814
1153
Byłam raz na konferencji,
na której obecne były także osoby
05:35
I oncepewnego razu attendedUczęszczał do a conferencekonferencja
106
323991
1999
05:38
that broughtprzyniósł togetherRazem
humanczłowiek resourceszasoby managersmenedżerowie and executiveskierownictwo,
107
326014
3125
zajmujące się rekrutacją, managerowie
i dyrektorzy używający takich systemów.
05:41
high-levelwysoki poziom people,
108
329163
1206
05:42
usingza pomocą suchtaki systemssystemy in hiringwynajmowanie.
109
330393
1559
Wszyscy byli zachwyceni.
05:43
They were superWspaniały excitedpodekscytowany.
110
331976
1646
05:45
They thought that this would make hiringwynajmowanie
more objectivecel, lessmniej biasedstronniczy,
111
333646
4653
Sądzili, że dzięki temu zatrudnianie
stanie się bardziej obiektywne,
mniej tendencyjne i gwarantujące kobietom
i przedstawicielom mniejszości
05:50
and give womenkobiety
and minoritiesmniejszości a better shotstrzał
112
338323
3000
większe szanse zatrudnienia
wobec tendencyjnych decyzji managerów.
05:53
againstprzeciwko biasedstronniczy humanczłowiek managersmenedżerowie.
113
341347
2188
05:55
And look -- humanczłowiek hiringwynajmowanie is biasedstronniczy.
114
343559
2843
Ludzkie decyzje dotyczące
zatrudnienia są stronnicze.
05:59
I know.
115
347099
1185
W jednej z moich pierwszych prac,
moja bezpośrednia przełożona
06:00
I mean, in one of my earlywcześnie jobsOferty pracy
as a programmerprogramista,
116
348308
3005
06:03
my immediatenatychmiastowy managermenedżer would sometimesczasami
come down to where I was
117
351337
3868
czasem przychodziła do mnie
bardzo wcześnie rano
06:07
really earlywcześnie in the morningranek
or really latepóźno in the afternoonpopołudnie,
118
355229
3753
lub bardzo późnym popołudniem
i mówiła: "Chodźmy na lunch!".
06:11
and she'dSzopa say, "ZeynepZeynep,
let's go to lunchlunch!"
119
359006
3062
Byłam zaskoczona dziwną porą,
06:14
I'd be puzzledzdziwienie by the weirddziwne timingwyczucie czasu.
120
362724
2167
06:16
It's 4pmPM. LunchObiad?
121
364915
2129
ale byłam też spłukana,
więc zawsze się zgadzałam.
06:19
I was brokezepsuł się, so freewolny lunchlunch. I always wentposzedł.
122
367068
3094
06:22
I laterpóźniej realizedrealizowany what was happeningwydarzenie.
123
370618
2067
Później zorientowałam się o co chodziło.
06:24
My immediatenatychmiastowy managersmenedżerowie
had not confessedprzyznał się to theirich higher-upswyej
124
372709
4546
Moi bezpośredni przełożeni
nie przyznali się swoim szefom,
że do poważnej roboty
zatrudnili programistę-nastolatkę,
06:29
that the programmerprogramista they hiredzatrudniony
for a seriouspoważny jobpraca was a teennastolatków girldziewczyna
125
377279
3113
06:32
who worenosił jeansdżinsy and sneakerstrampki to work.
126
380416
3930
noszącą jeansy i trampki do pracy.
Robiłam dobrą robotę,
ale wyglądałam nie tak,
06:37
I was doing a good jobpraca,
I just lookedspojrzał wrongźle
127
385174
2202
byłam w nieodpowiednim wieku
i nieodpowiedniej płci.
06:39
and was the wrongźle agewiek and genderpłeć.
128
387400
1699
06:41
So hiringwynajmowanie in a gender-płci- and race-blindwyścig w ciemno way
129
389123
3346
Popieram zatrudnianie
bez uwzględniania płci czy rasy.
06:44
certainlyna pewno soundsDźwięki good to me.
130
392493
1865
Ale w przypadku tych systemów
to wszystko jest bardziej skomplikowane.
06:47
But with these systemssystemy,
it is more complicatedskomplikowane, and here'soto jest why:
131
395031
3341
Obecnie, te systemy mogą
wyciągnąć wiele wniosków
06:50
CurrentlyObecnie, computationalobliczeniowy systemssystemy
can inferrozpoznać all sortssortuje of things about you
132
398968
5791
na podstawie strzępów
elektronicznej informacji,
06:56
from your digitalcyfrowy crumbsbułka tarta,
133
404783
1872
06:58
even if you have not
disclosedujawnione those things.
134
406679
2333
nawet jeśli te informacje nie są jawne.
Mogą wnioskować na temat
orientacji seksualnej,
07:01
They can inferrozpoznać your sexualseksualny orientationOrientacja,
135
409506
2927
07:04
your personalityosobowość traitscechy,
136
412994
1306
cech osobowości,
przekonań politycznych.
07:06
your politicalpolityczny leaningsskłonności.
137
414859
1373
07:08
They have predictivepredykcyjne powermoc
with highwysoki levelspoziomy of accuracyprecyzja.
138
416830
3685
Te przewidywania są niezwykle trafne.
07:13
RememberNależy pamiętać -- for things
you haven'tnie mam even disclosedujawnione.
139
421362
2578
Pamiętajcie - te przewidywania dotyczą
spraw, których nawet nie ujawniliście.
07:15
This is inferencewnioskowanie.
140
423964
1591
Moja przyjaciółka stworzyła system
tego rodzaju, aby przewidywać
07:17
I have a friendprzyjaciel who developedrozwinięty
suchtaki computationalobliczeniowy systemssystemy
141
425579
3261
prawdopodobieństwo zapadnięcia na
depresję kliniczną lub poporodową
07:20
to predictprzepowiadać, wywróżyć the likelihoodprawdopodobieństwo
of clinicalkliniczny or postpartumpo porodzie depressiondepresja
142
428864
3641
na podstawie danych zaczerpniętych
z serwisów społecznościowych.
07:24
from socialspołeczny mediagłoska bezdźwięczna datadane.
143
432529
1416
07:26
The resultswyniki are impressiveimponujący.
144
434676
1427
Wyniki są imponujące.
Jej system potrafi
przewidzieć prawdopodobieństwo
07:28
Her systemsystem can predictprzepowiadać, wywróżyć
the likelihoodprawdopodobieństwo of depressiondepresja
145
436492
3357
wystąpienia depresji miesiące przed
wystąpieniem jakichkolwiek objawów.
07:31
monthsmiesiące before the onsetPoczątek of any symptomsobjawy --
146
439873
3903
Miesiące przed.
Nie ma objawów, jest przewidywanie.
07:35
monthsmiesiące before.
147
443800
1373
07:37
No symptomsobjawy, there's predictionPrognoza.
148
445197
2246
07:39
She hopesnadzieje it will be used
for earlywcześnie interventioninterwencja. Great!
149
447467
4812
Moja przyjaciółka ma nadzieję,
że system posłuży wczesnemu leczeniu.
Wspaniale.
Ale spójrzmy na to
w kontekście zatrudniania.
07:44
But now put this in the contextkontekst of hiringwynajmowanie.
150
452911
2040
Na tamtej konferencji podeszłam
do jednej wysokopostawionej managerki
07:48
So at this humanczłowiek resourceszasoby
managersmenedżerowie conferencekonferencja,
151
456027
3046
07:51
I approachedzbliżył się a high-levelwysoki poziom managermenedżer
in a very largeduży companyfirma,
152
459097
4709
pracującej dla jednej z wielkich firm
i powiedziałam:
07:55
and I said to her, "Look,
what if, unbeknownstnie wiemy to you,
153
463830
4578
"Co jeśli twój system
za twoimi plecami wyklucza osoby
08:00
your systemsystem is weedingpielenie out people
with highwysoki futureprzyszłość likelihoodprawdopodobieństwo of depressiondepresja?
154
468432
6549
o większym prawdopodobieństwie
zachorowania na depresję?
Nie mają depresji teraz,
ale być może w przyszłości.
08:07
They're not depressedprzygnębiony now,
just maybe in the futureprzyszłość, more likelyprawdopodobne.
155
475761
3376
Co jeśli wyklucza kobiety,
które prawdopodobnie za rok lub dwa
08:11
What if it's weedingpielenie out womenkobiety
more likelyprawdopodobne to be pregnantw ciąży
156
479923
3406
08:15
in the nextNastępny yearrok or two
but aren'tnie są pregnantw ciąży now?
157
483353
2586
mogą być w ciąży, ale teraz nie są?
08:18
What if it's hiringwynajmowanie aggressiveagresywny people
because that's your workplaceMiejsce pracy culturekultura?"
158
486844
5636
Co jeśli zatrudnia osoby agresywne,
bo to odpowiada kulturze pracy
w waszej firmie?".
Nie można tego stwierdzić
patrząc na zestawienia pracowników
08:25
You can't tell this by looking
at genderpłeć breakdownsawarie.
159
493173
2691
pod względem płci;
te mogą się równoważyć.
08:27
Those maymoże be balancedzrównoważony.
160
495888
1502
08:29
And sinceod this is machinemaszyna learninguczenie się,
not traditionaltradycyjny codingkodowanie,
161
497414
3557
Ponieważ to jest uczenie maszynowe
a nie klasyczne programowanie,
nie ma zmiennych podpisanych: "depresja"
"ciąża" lub "wysoki poziom agresji".
08:32
there is no variableZmienna there
labeledoznaczone jako "higherwyższy riskryzyko of depressiondepresja,"
162
500995
4907
08:37
"higherwyższy riskryzyko of pregnancyCiąża,"
163
505926
1833
08:39
"aggressiveagresywny guy scaleskala."
164
507783
1734
Nie znasz kryteriów, na podstawie których
twój system dokonuje wyboru.
08:41
Not only do you not know
what your systemsystem is selectingwybierając on,
165
509995
3679
Nie wiesz nawet gdzie zacząć ich szukać.
08:45
you don't even know
where to beginzaczynać to look.
166
513698
2323
To jest technologia czarnej skrzynki.
08:48
It's a blackczarny boxpudełko.
167
516045
1246
08:49
It has predictivepredykcyjne powermoc,
but you don't understandzrozumieć it.
168
517315
2807
Potrafi przewidywać,
ale nie rozumiesz jak działa.
08:52
"What safeguardszabezpieczenia," I askedspytał, "do you have
169
520486
2369
"Jakie masz zabezpieczenia,
żeby upewnić się,
08:54
to make sure that your blackczarny boxpudełko
isn't doing something shadyShady?"
170
522879
3673
że twoja czarna skrzynka
nie robi czegoś podejrzanego?"
Spojrzała na mnie jakbym
nadepnęła na ogon szczeniaczkowi.
09:00
She lookedspojrzał at me as if I had
just steppedkrok po kroku on 10 puppyszczeniak tailsogony.
171
528863
3878
(Śmiech)
09:04
(LaughterŚmiech)
172
532765
1248
Popatrzyła na mnie i powiedziała:
"Ani słowa więcej".
09:06
She staredpatrzył at me and she said,
173
534037
2041
09:08
"I don't want to hearsłyszeć
anotherinne wordsłowo about this."
174
536556
4333
Odwróciła się i odeszła.
09:13
And she turnedobrócony around and walkedchodził away.
175
541458
2034
Uwaga - nie była niegrzeczna.
09:16
MindUmysł you -- she wasn'tnie było rudeniegrzeczny.
176
544064
1486
Ewidentnie chciała powiedzieć:
09:17
It was clearlywyraźnie: what I don't know
isn't my problemproblem, go away, deathśmierć staregapić się.
177
545574
6308
"Jeśli o czymś nie wiem,
to nie jest mój problem, odejdź".
Na odchodne rzuciła mordercze spojrzenie.
09:23
(LaughterŚmiech)
178
551906
1246
(Śmiech)
09:25
Look, suchtaki a systemsystem
maymoże even be lessmniej biasedstronniczy
179
553862
3839
Takie systemy mogą być mniej
stronnicze niż managerowie.
09:29
than humanczłowiek managersmenedżerowie in some wayssposoby.
180
557725
2103
Mogą być również opłacalne.
09:31
And it could make monetarypieniężnej sensesens.
181
559852
2146
09:34
But it could alsorównież leadprowadzić
182
562573
1650
Ale mogą też prowadzić do stopniowego
i niepostrzeżonego zamykania
09:36
to a steadystały but stealthyukradkiem
shuttingZamykanie out of the jobpraca marketrynek
183
564247
4748
rynku pracy dla osób z większym
ryzykiem zachorowań na depresję.
09:41
of people with higherwyższy riskryzyko of depressiondepresja.
184
569019
2293
Czy takie społeczeństwo chcemy budować,
nie wiedząc nawet o tym, że to robimy,
09:43
Is this the kinduprzejmy of societyspołeczeństwo
we want to buildbudować,
185
571753
2596
09:46
withoutbez even knowingporozumiewawczy we'vemamy doneGotowe this,
186
574373
2285
bo powierzamy proces decyzyjny systemom,
09:48
because we turnedobrócony decision-makingpodejmowanie decyzji
to machinesmaszyny we don't totallycałkowicie understandzrozumieć?
187
576682
3964
których do końca nie rozumiemy?
09:53
AnotherInnym problemproblem is this:
188
581265
1458
Kolejny problem: te systemy pracują
na danych opartych na ludzkich działaniach
09:55
these systemssystemy are oftenczęsto trainedprzeszkolony
on datadane generatedwygenerowany by our actionsdziałania,
189
583314
4452
09:59
humanczłowiek imprintsnadruki.
190
587790
1816
10:02
Well, they could just be
reflectingodzwierciedlając our biasesuprzedzenia,
191
590188
3808
Mogą po prostu odzwierciedlać
nasze własne uprzedzenia,
wzmacniać je i zwracać w postaci wyniku,
10:06
and these systemssystemy
could be pickingowocobranie up on our biasesuprzedzenia
192
594020
3593
10:09
and amplifyingwzmacniający them
193
597637
1313
który będziemy interpretować jako
obiektywne i neutralne obliczenia.
10:10
and showingseans them back to us,
194
598974
1418
10:12
while we're tellingwymowny ourselvesmy sami,
195
600416
1462
10:13
"We're just doing objectivecel,
neutralneutralny computationobliczenie."
196
601902
3117
Udowodniono, że wyszukiwarka Google
10:18
ResearchersNaukowcy founduznany that on GoogleGoogle,
197
606314
2677
rzadziej pokazuje kobietom
dobrze płatne oferty pracy.
10:22
womenkobiety are lessmniej likelyprawdopodobne than menmężczyźni
to be shownpokazane jobpraca adsreklamy for high-payingpłatnych jobsOferty pracy.
198
610134
5313
A wyszukiwanie afroamerykańskich nazwisk
10:28
And searchingbadawczy for African-AmericanAfro-amerykańskich namesnazwy
199
616463
2530
10:31
is more likelyprawdopodobne to bringprzynieść up adsreklamy
suggestingsugestia criminalkryminalista historyhistoria,
200
619017
4706
jest skorelowane z ogłoszeniami
sugerującymi kryminalną przeszłość,
10:35
even when there is noneŻaden.
201
623747
1567
nawet jeśli takowej nie ma.
10:38
SuchTakie hiddenukryty biasesuprzedzenia
and black-boxCzarna Skrzynka algorithmsalgorytmy
202
626693
3549
Tego typu ukryte uprzedzenia
i algorytmy typu czarnej skrzynki,
które czasem odkrywamy, a czasem nie,
10:42
that researchersnaukowcy uncoverodkryć sometimesczasami
but sometimesczasami we don't know,
203
630266
3973
mogą diametralnie wpływać
na ludzkie życie.
10:46
can have life-alteringżycie zmiany consequenceskonsekwencje.
204
634263
2661
Pewien pozwany został skazany na 6 lat
więzienia za ucieczkę przed policją.
10:49
In WisconsinWisconsin, a defendantpozwany
was sentencedskazany to sixsześć yearslat in prisonwięzienie
205
637958
4159
10:54
for evadinguchylanie się od the policePolicja.
206
642141
1355
Algorytmy są coraz częściej stosowane
przy wydawaniu wyroków.
10:56
You maymoże not know this,
207
644824
1186
10:58
but algorithmsalgorytmy are increasinglycoraz bardziej used
in paroleParole and sentencingskazanie decisionsdecyzje.
208
646034
3998
Mężczyzna chciał wiedzieć,
jak ten wynik jest obliczany.
11:02
He wanted to know:
How is this scorewynik calculatedobliczone?
209
650056
2955
Używano komercyjnej czarnej skrzynki.
11:05
It's a commercialReklama w telewizji blackczarny boxpudełko.
210
653795
1665
11:07
The companyfirma refusedodmówił to have its algorithmalgorytm
be challengedzakwestionowany in openotwarty courtSąd.
211
655484
4205
Firma, która ją sprzedaje,
sprzeciwiła się zweryfikowaniu
algorytmu podczas otwartej rozprawy.
11:12
But ProPublicaProPublica, an investigativeśledczych
nonprofitniedochodowy, auditedskontrolowanych that very algorithmalgorytm
212
660396
5532
Śledcza organizacja non-profit,
ProPublica, zweryfikowała ten algorytm
na podstawie publicznie
dostępnych danych i dowiodła,
11:17
with what publicpubliczny datadane they could find,
213
665952
2016
11:19
and founduznany that its outcomeswyniki were biasedstronniczy
214
667992
2316
że generowane przez niego wyniki
były stronnicze,
11:22
and its predictivepredykcyjne powermoc
was dismalponure, barelyledwo better than chanceszansa,
215
670332
3629
a jego moc przewidywania niewielka,
niewiele lepsza od losowej,
11:25
and it was wronglyniesłusznie labelingetykietowanie
blackczarny defendantsoskarżeni as futureprzyszłość criminalsprzestępców
216
673985
4416
a algorytm bezzasadnie wskazywał
czarnoskórych oskarżonych
jako możliwych przyszłych przestępców
dwukrotnie częściej niż białych.
11:30
at twicedwa razy the rateoceniać of whitebiały defendantsoskarżeni.
217
678425
3895
Kolejna sprawa: ta kobieta była spóźniona
po odbiór chrześnicy ze szkoły.
11:35
So, considerrozważać this casewalizka:
218
683891
1564
11:38
This womankobieta was latepóźno
pickingowocobranie up her godsistergodsister
219
686103
3852
11:41
from a schoolszkoła in BrowardBroward CountyHrabstwo, FloridaFlorida,
220
689979
2075
Biegła ulicą w towarzystwie przyjaciela
i na jednym z ganków zauważyli
11:44
runningbieganie down the streetulica
with a friendprzyjaciel of hersjej.
221
692757
2356
11:47
They spottedzauważony an unlockedodblokowany kid'sDzieci bikerower
and a scooterskuter on a porchganek
222
695137
4099
niezapięty rowerek dziecięcy i hulajnogę,
na które bezmyślnie wskoczyli.
11:51
and foolishlygłupio jumpedprzeskoczył on it.
223
699260
1632
Gdy odjeżdżali, z domu wybiegła kobieta
krzycząc: "To rowerek mojego dziecka!".
11:52
As they were speedingprzyspieszenie off,
a womankobieta cameoprawa ołowiana witrażu out and said,
224
700916
2599
11:55
"Hey! That's my kid'sDzieci bikerower!"
225
703539
2205
Zostawili rower i hulajnogę i odeszli,
ale zostali aresztowani.
11:57
They droppedporzucone it, they walkedchodził away,
but they were arrestedaresztowany.
226
705768
3294
Dziewczyna postąpiła głupio i źle,
ale miała tylko 18 lat.
12:01
She was wrongźle, she was foolishgłupi,
but she was alsorównież just 18.
227
709086
3637
Miała już na koncie
kilka młodzieńczych wykroczeń.
12:04
She had a couplepara of juvenilenieletni misdemeanorswykroczenia.
228
712747
2544
12:07
MeanwhileTymczasem, that man had been arrestedaresztowany
for shopliftingKradzież sklepowa in Home DepotDepot --
229
715808
5185
W tym samym czasie aresztowano mężczyznę
za kradzież towarów o wartości 85 dolarów,
12:13
85 dollars'dolary worthwartość of stuffrzeczy,
a similarpodobny pettydrobny crimeprzestępstwo.
230
721017
2924
równie niewielkie wykroczenie.
Ale on już wcześniej był
dwukrotnie skazany za napad z bronią.
12:16
But he had two priorwcześniejszy
armedzbrojnych robberyrozbój convictionswyroków skazujących.
231
724766
4559
Algorytm przypisał jej większe ryzyko
ponownego popełnienia przestępstwa.
12:21
But the algorithmalgorytm scoredstrzelił her
as highwysoki riskryzyko, and not him.
232
729955
3482
Dwa lata później, ProPublica odkryła,
że kobieta nie popełniła więcej wykroczeń,
12:26
Two yearslat laterpóźniej, ProPublicaProPublica founduznany
that she had not reoffendedreoffended.
233
734746
3874
miała tylko problemy ze znalezieniem
pracy z taką historią wykroczeń.
12:30
It was just hardciężko to get a jobpraca
for her with her recordrekord.
234
738644
2550
12:33
He, on the other handdłoń, did reoffendpodczas ponownego
235
741218
2076
Mężczyzna natomiast
odsiadywał ośmioletni wyrok
12:35
and is now servingporcja an eight-yearosiem lat
prisonwięzienie termsemestr for a laterpóźniej crimeprzestępstwo.
236
743318
3836
za przestępstwo,
którego dopuścił się ponownie.
Jest jasne, że musimy
dokonywać rewizji czarnych skrzynek
12:40
ClearlyWyraźnie, we need to auditAudyt our blackczarny boxespudła
237
748088
3369
12:43
and not have them have
this kinduprzejmy of uncheckedniezaznaczone powermoc.
238
751481
2615
i ograniczać ich niekontrolowaną władzę.
12:46
(ApplauseAplauz)
239
754120
2879
(Brawa)
12:50
AuditsAudyty are great and importantważny,
but they don't solverozwiązać all our problemsproblemy.
240
758087
4242
Rewizje są dobre i potrzebne,
ale nie rozwiążą wszystkich problemów.
Spójrzmy na algorytm Facebooka,
który nadaje wszystkiemu jakąś wagę
12:54
Take Facebook'sNa Facebooku powerfulpotężny
newsAktualności feedkarmić algorithmalgorytm --
241
762353
2748
12:57
you know, the one that ranksszeregi everything
and decidesdecyduje what to showpokazać you
242
765125
4843
i decyduje o tym, co powinniście zobaczyć
13:01
from all the friendsprzyjaciele and pagesstrony you followśledzić.
243
769992
2284
spośród tego wszystkiego,
co publikują wasi znajomi.
Czy trzeba zobaczyć
kolejne zdjęcie bobasa?
13:04
Should you be shownpokazane anotherinne babydziecko pictureobrazek?
244
772898
2275
13:07
(LaughterŚmiech)
245
775197
1196
(Śmiech)
13:08
A sullenponury noteUwaga from an acquaintanceznajomy?
246
776417
2596
Ponury post jednego ze znajomych?
Ważną i trudną informację?
13:11
An importantważny but difficulttrudny newsAktualności itempozycja?
247
779449
1856
Nie ma jednej dobrej odpowiedzi.
13:13
There's no right answerodpowiedź.
248
781329
1482
Facebook ocenia liczbę reakcji:
komentarze, udostępnienia, polubienia.
13:14
FacebookFacebook optimizesoptymalizuje
for engagementzaręczynowy on the siteteren:
249
782835
2659
13:17
likeslubi, sharesAkcje, commentskomentarze.
250
785518
1415
W sierpniu 2014 roku w Missouri
wybuchł protest po śmierci
13:20
In AugustSierpnia of 2014,
251
788168
2696
13:22
protestsprotesty brokezepsuł się out in FergusonFerguson, MissouriMissouri,
252
790888
2662
afroamerykańskiego nastolatka
zabitego przez białego policjanta
13:25
after the killingzabicie of an African-AmericanAfro-amerykańskich
teenagernastolatek by a whitebiały policePolicja officeroficer,
253
793574
4417
13:30
underpod murkyMroczne circumstancesokoliczności.
254
798015
1570
w niejasnych okolicznościach.
13:31
The newsAktualności of the protestsprotesty was all over
255
799974
2007
Wiadomości na ten temat zalały
mój niefiltrowany profil na Tweeterze,
13:34
my algorithmicallyalgorytmicznie
unfilteredniefiltrowane TwitterTwitter feedkarmić,
256
802005
2685
ale nie było ich na moim Facebooku.
13:36
but nowherenigdzie on my FacebookFacebook.
257
804714
1950
Czyżby moi znajomi o tym nie rozmawiali?
13:39
Was it my FacebookFacebook friendsprzyjaciele?
258
807182
1734
13:40
I disabledniepełnosprawny Facebook'sNa Facebooku algorithmalgorytm,
259
808940
2032
Zablokowałam algorytm Facebooka,
co jest trudne,
13:43
whichktóry is hardciężko because FacebookFacebook
keepstrzyma wantingbrakujący to make you
260
811472
2848
bo Facebook dąży do tego,
żeby nas kontrolować
13:46
come underpod the algorithm'salgorytm 's controlkontrola,
261
814344
2036
i zobaczyłam, że przyjaciele
rozmawiali o tej sprawie.
13:48
and saw that my friendsprzyjaciele
were talkingmówić about it.
262
816404
2238
13:50
It's just that the algorithmalgorytm
wasn'tnie było showingseans it to me.
263
818666
2509
Po prostu ja tego nie widziałam,
bo Facebook mi tego nie pokazywał.
13:53
I researchedzbadane this and founduznany
this was a widespreadrozpowszechniony problemproblem.
264
821199
3042
Okazało się, że to rozległy problem.
13:56
The storyfabuła of FergusonFerguson
wasn'tnie było algorithm-friendlyprzyjazne dla algorytmu.
265
824265
3813
Ta historia nie była
wysoko oceniona przez algorytm.
Niełatwo ją "polubić".
14:00
It's not "likablesympatyczny."
266
828102
1171
14:01
Who'sKto w going to clickKliknij on "like?"
267
829297
1552
14:03
It's not even easyłatwo to commentkomentarz on.
268
831500
2206
Nie jest nawet łatwo ją skomentować.
14:05
WithoutBez likeslubi and commentskomentarze,
269
833730
1371
Bez lajków i komentarzy algorytm
prawdopodobnie pokazywał
14:07
the algorithmalgorytm was likelyprawdopodobne showingseans it
to even fewermniej people,
270
835125
3292
tę informację coraz mniejszej ilości osób
i dlatego jej nie widzieliśmy.
14:10
so we didn't get to see this.
271
838441
1542
Równocześnie algorytm Facebooka
wypromował Ice Bucket Challenge.
14:12
InsteadZamiast tego, that weektydzień,
272
840946
1228
14:14
Facebook'sNa Facebooku algorithmalgorytm highlightedpodświetlony this,
273
842198
2298
14:16
whichktóry is the ALSALS IceLód BucketWiadro ChallengeWyzwanie.
274
844520
2226
Szlachetna sprawa: oblej się zimną wodą,
ofiaruj pieniądze, super.
14:18
WorthyGodne causeprzyczyna; dumpwysypisko icelód waterwoda,
donatedarować to charitydobroczynność, fine.
275
846770
3742
14:22
But it was superWspaniały algorithm-friendlyprzyjazne dla algorytmu.
276
850536
1904
To było wysoko ocenione przez algorytm.
14:25
The machinemaszyna madezrobiony this decisiondecyzja for us.
277
853219
2613
Maszyna podjęła za nas decyzję.
14:27
A very importantważny
but difficulttrudny conversationrozmowa
278
855856
3497
Bardzo ważna lecz trudna dyskusja
mogła zostać wyciszona,
14:31
mightmoc have been smotheredgłuchy,
279
859377
1555
gdyby Facebook był jedynym medium.
14:32
had FacebookFacebook been the only channelkanał.
280
860956
2696
Te systemy mogą się też mylić w sposób,
14:36
Now, finallywreszcie, these systemssystemy
can alsorównież be wrongźle
281
864117
3797
14:39
in wayssposoby that don't resembleprzypominają humanczłowiek systemssystemy.
282
867938
2736
który nie przypomina ludzkich błędów.
14:42
Do you guys rememberZapamiętaj WatsonWatson,
IBM'sFirmy IBM machine-intelligenceMaszyny inteligencji systemsystem
283
870698
2922
Pamiętacie Watsona,
system sztucznej inteligencji IBM,
14:45
that wipedotarła the floorpiętro
with humanczłowiek contestantszawodnicy on JeopardyZagrożona?
284
873644
3128
który zmiażdżył uczestników
konkursu wiedzy Jeopardy?
14:49
It was a great playergracz.
285
877131
1428
To był świetny gracz.
14:50
But then, for FinalKońcowe JeopardyZagrożona,
WatsonWatson was askedspytał this questionpytanie:
286
878583
3569
Ale w finałowym odcinku padło pytanie:
"Największe lotnisko tego miasta
nosi nazwę bohatera
14:54
"Its largestNajwiększa airportLotnisko is namedo imieniu
for a WorldŚwiat WarWojny IIII herobohater,
287
882659
2932
drugiej co do wielkości bitwy
podczas II wojny światowej".
14:57
its second-largestdrugim co do wielkości
for a WorldŚwiat WarWojny IIII battlebitwa."
288
885615
2252
14:59
(HumsHums FinalKońcowe JeopardyZagrożona musicmuzyka)
289
887891
1378
Chicago.
15:01
ChicagoChicago.
290
889582
1182
Dwóch uczestników-ludzi
odpowiedziało poprawnie.
15:02
The two humansludzie got it right.
291
890788
1370
15:04
WatsonWatson, on the other handdłoń,
answeredodpowiedział "TorontoToronto" --
292
892697
4348
Watson odpowiedział "Toronto"
w kategorii dotyczącej miast w USA.
15:09
for a US cityMiasto categoryKategoria!
293
897069
1818
Ten imponujący system zrobił błąd,
15:11
The impressiveimponujący systemsystem alsorównież madezrobiony an errorbłąd
294
899596
2901
którego żaden człowiek by nie popełnił,
nawet drugoklasista.
15:14
that a humanczłowiek would never make,
a second-graderdrugi równiarka wouldn'tnie make.
295
902521
3651
Sztuczna inteligencja
może zawieść w sposób,
15:18
Our machinemaszyna intelligenceinteligencja can failzawieść
296
906823
3109
który nie przypomina ludzkich pomyłek,
15:21
in wayssposoby that don't fitdopasowanie
errorbłąd patternswzorce of humansludzie,
297
909956
3100
15:25
in wayssposoby we won'tprzyzwyczajenie expectoczekiwać
and be preparedprzygotowany for.
298
913080
2950
którego się nie spodziewamy,
i na który nie będziemy gotowi.
15:28
It'dTo byłoby be lousyparszywy not to get a jobpraca
one is qualifiedkwalifikacje for,
299
916054
3638
Byłoby głupio nie dostać pracy,
na którą się zasługuje,
ale byłoby potrójnie beznadziejnie,
gdyby to się stało
15:31
but it would triplepotroić suckssać
if it was because of stackstos overflowprzepełnienie
300
919716
3727
z powodu nadmiaru danych
w jakimś podprogramie.
15:35
in some subroutinepodprogram.
301
923467
1432
15:36
(LaughterŚmiech)
302
924923
1579
(Śmiech)
15:38
In MayMoże of 2010,
303
926526
2786
W maju 2010 roku
krach giełdy na Wall Street
15:41
a flashLampa błyskowa crashwypadek on WallŚciana StreetUlica
fuelednapędzany by a feedbackinformacje zwrotne looppętla
304
929336
4044
wzmocniony sprzężeniem
zwrotnym algorytmu "sprzedaży"
15:45
in WallŚciana Street'sStreet "sellSprzedać" algorithmalgorytm
305
933404
3028
doprowadził do zniknięcia
trylionów dolarów w 36 minut.
15:48
wipedotarła a trillionkwintylion dollarsdolarów
of valuewartość in 36 minutesminuty.
306
936456
4184
15:53
I don't even want to think
what "errorbłąd" meansznaczy
307
941722
2187
Nie chcę nawet myśleć,
co taka "pomyłka" oznaczałaby
15:55
in the contextkontekst of lethalśmiertelny
autonomousautonomiczny weaponsBronie.
308
943933
3589
w przypadku automatycznej
broni śmiercionośnej.
16:01
So yes, humansludzie have always madezrobiony biasesuprzedzenia.
309
949894
3790
Tak, ludzie są stronniczy.
Ludzie podejmujący decyzje w sądach,
mediach, na wojnie... popełniają błędy.
16:05
DecisionDecyzja makerstwórcy and gatekeepersStrażnicy,
310
953708
2176
16:07
in courtssądy, in newsAktualności, in warwojna ...
311
955908
3493
16:11
they make mistakesbłędy;
but that's exactlydokładnie my pointpunkt.
312
959425
3038
Ale o tym właśnie mówię.
16:14
We cannotnie może escapeucieczka
these difficulttrudny questionspytania.
313
962487
3521
Nie możemy uciec od tych trudnych kwestii.
Nie możemy zrzucić naszej
odpowiedzialności na maszyny.
16:18
We cannotnie może outsourceoutsourcingu
our responsibilitiesobowiązki to machinesmaszyny.
314
966596
3516
16:22
(ApplauseAplauz)
315
970676
4208
(Brawa)
16:29
ArtificialSztuczne intelligenceinteligencja does not give us
a "Get out of ethicsEtyka freewolny" cardkarta.
316
977089
4447
Sztuczna inteligencja
nie zwalnia nas z myślenia etycznego.
Fred Benenson, specjalista od danych,
nazywał to "matematycznym praniem mózgu".
16:34
DataDanych scientistnaukowiec FredFred BenensonBenenson
callspołączenia this math-washingMatematyka mycie.
317
982742
3381
Potrzebujemy czegoś odwrotnego.
16:38
We need the oppositenaprzeciwko.
318
986147
1389
Musimy rozwijać w sobie
sceptycyzm wobec algorytmów
16:39
We need to cultivatepielęgnować algorithmalgorytm suspicionpodejrzenie,
scrutinykontroli and investigationdochodzenie.
319
987560
5388
i daleko posuniętą ostrożność
oraz dokładność w ich badaniu.
16:45
We need to make sure we have
algorithmicalgorytmicznych accountabilityodpowiedzialność,
320
993380
3198
Musimy mieć pewność, że mamy
algorytmiczną odpowiedzialność,
rewizję i sensowną przejrzystość.
16:48
auditinginspekcji and meaningfulznaczący transparencyprzezroczystość.
321
996602
2445
Musimy zaakceptować,
że wprowadzenie matematyki i obliczeń
16:51
We need to acceptzaakceptować
that bringingprzynoszący mathmatematyka and computationobliczenie
322
999380
3234
do zawikłanych i wymagających
wartościowania ludzkich spraw
16:54
to messyniechlujny, value-ladenwartość z ładunkiem humanczłowiek affairssprawy
323
1002638
2970
16:57
does not bringprzynieść objectivityobiektywność;
324
1005632
2384
nie wprowadza obiektywizacji.
17:00
ratherraczej, the complexityzłożoność of humanczłowiek affairssprawy
invadesatakuje the algorithmsalgorytmy.
325
1008040
3633
Przeciwnie: komplikacja ludzkich spraw
najedzie algorytmy.
17:04
Yes, we can and we should use computationobliczenie
326
1012148
3487
Można i trzeba korzystać z obliczeń,
aby móc podejmować lepsze decyzje.
17:07
to help us make better decisionsdecyzje.
327
1015659
2014
Ale trzeba uznać moralną odpowiedzialność
17:09
But we have to ownwłasny up
to our moralmorał responsibilityodpowiedzialność to judgmentosąd,
328
1017697
5332
za podejmowanie decyzji
i używać algorytmów w jej granicach,
17:15
and use algorithmsalgorytmy withinw ciągu that frameworkstruktura,
329
1023053
2818
17:17
not as a meansznaczy to abdicateabdykacji
and outsourceoutsourcingu our responsibilitiesobowiązki
330
1025895
4935
a nie jako środek do zrzeczenia się
i odrzucenia tej odpowiedzialności.
17:22
to one anotherinne as humanczłowiek to humanczłowiek.
331
1030854
2454
17:25
MachineMaszyny intelligenceinteligencja is here.
332
1033807
2609
Sztuczna inteligencja jest faktem.
17:28
That meansznaczy we mustmusi holdutrzymać on ever tightermocniej
333
1036440
3421
To oznacza, że tym mocniej musimy
trzymać się ludzkich wartości i etyki.
17:31
to humanczłowiek valueswartości and humanczłowiek ethicsEtyka.
334
1039885
2147
Dziękuję
17:34
Thank you.
335
1042056
1154
(Brawa)
17:35
(ApplauseAplauz)
336
1043234
5020
Translated by Anna Kowalczyk
Reviewed by Marta Rytwinska

▲Back to top

ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.

Why you should listen

We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.

Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.

Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.

More profile about the speaker
Zeynep Tufekci | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee