ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.

Why you should listen

We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.

Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.

Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.

More profile about the speaker
Zeynep Tufekci | Speaker | TED.com
TEDGlobal>NYC

Zeynep Tufekci: We're building a dystopia just to make people click on ads

Zeynep Tufekci: Disztópiát építünk, csak azért, hogy az emberek reklámokra kattintsanak

Filmed:
2,866,905 views

Mesterséges intelligenciával működő disztópiát építünk egyetlen kattintással – mondja ZeynepTufekci techno-szociológus. Szemünket felnyitó beszédében részletesen beszél arról, hogy ugyanazokat az algoritmusokat, amiket a Facebook, a Google és az Amazon reklámokra kattintásra használ, arra is alkalmazhatók, hogy rendszerezzék hozzáférésünket a politikai és társadalmi információkhoz. És még csak nem is a gépek jelentik az igazi kihívást. Meg kell értenünk, hogy a hatalom arra használhatja az mesterséges intelligenciát, hogy ellenőrizzen minket – és tudnunk kell, mit tehetünk ez ellen.
- Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread. Full bio

Double-click the English transcript below to play the video.

00:12
So when people voicehang fearsfélelmek
of artificialmesterséges intelligenceintelligencia,
0
760
3536
Amikor az emberek aggódnak
a mesterséges intelligencia miatt,
00:16
very oftengyakran, they invokehivatkozhat imagesképek
of humanoidhumanoid robotsrobotok runfuss amokAmok.
1
4320
3976
nagyon gyakran ámokfutó
robotokra gondolnak.
00:20
You know? TerminatorTerminátor?
2
8320
1240
Ugye? A Terminátor?
00:22
You know, that mightesetleg be
something to considerfontolgat,
3
10400
2336
Ez tényleg megfontolandó lehet,
00:24
but that's a distanttávoli threatfenyegetés.
4
12760
1856
de távoli fenyegetés.
00:26
Or, we fretfret about digitaldigitális surveillancefelügyelet
5
14640
3456
Vagy múltból szedett metaforákkal
idegeskedünk
00:30
with metaphorsmetaforák from the pastmúlt.
6
18120
1776
a digitális megfigyelés miatt.
00:31
"1984," GeorgeGeorge Orwell'sAz Orwell's "1984,"
7
19920
2656
1984. George Orwell 1984-e
00:34
it's hittingütő the bestsellerbestseller listslisták again.
8
22600
2280
újra bestseller.
00:37
It's a great bookkönyv,
9
25960
1416
Remek könyv,
00:39
but it's not the correcthelyes dystopiaDystopia
for the 21stutca centuryszázad.
10
27400
3880
de nem a 21. századról szóló disztópia.
Amitől sokkal jobban kell félnünk,
00:44
What we need to fearfélelem mosta legtöbb
11
32080
1416
00:45
is not what artificialmesterséges intelligenceintelligencia
will do to us on its ownsaját,
12
33520
4776
nem az, hogy a mesterséges intelligencia
mit fog tenni magától,
00:50
but how the people in powererő
will use artificialmesterséges intelligenceintelligencia
13
38320
4736
hanem hogy a hatalomban lévők
mire fogják használni ezt,
00:55
to controlellenőrzés us and to manipulatemanipulál us
14
43080
2816
hogy szokatlan, néha rejtett,
00:57
in novelregény, sometimesnéha hiddenrejtett,
15
45920
3136
kifinomult és váratlan módokon
01:01
subtleapró and unexpectedváratlan waysmódokon.
16
49080
3016
ellenőrizzenek és manipuláljanak minket.
01:04
Much of the technologytechnológia
17
52120
1856
A technológia nagy részét,
01:06
that threatensfenyeget our freedomszabadság
and our dignityméltóság in the near-termrövid távon futurejövő
18
54000
4336
ami szabadságunkat és méltóságunkat
veszélyezteti a közeljövőben,
01:10
is beinglény developedfejlett by companiesvállalatok
19
58360
1856
olyan cégek fejlesztik,
01:12
in the businessüzleti of capturingbefogó
and sellingeladási our dataadat and our attentionFigyelem
20
60240
4936
akiknek üzleti érdekében áll megszerezni
és eladni adatainkat, érdeklődési körünket
01:17
to advertisershirdetők and othersmások:
21
65200
2256
hirdetőknek és másoknak:
01:19
FacebookFacebook, GoogleGoogle, AmazonAmazon,
22
67480
3416
Facebook, Google, Amazon
01:22
AlibabaAlibaba, TencentTencent.
23
70920
1880
Alibaba, Tencent.
01:26
Now, artificialmesterséges intelligenceintelligencia has startedindult
bolsteringrávilágítson theirazok businessüzleti as well.
24
74040
5496
A mesterséges intelligencia
már az ő üzleteiket is erősíti.
01:31
And it maylehet seemlátszik
like artificialmesterséges intelligenceintelligencia
25
79560
2096
És úgy tűnhet, a mesterséges intelligencia
01:33
is just the nextkövetkező thing after onlineonline adshirdetések.
26
81680
2856
csak egy újabb lépés
az online reklámok után.
01:36
It's not.
27
84560
1216
De nem az.
01:37
It's a jumpugrás in categorykategória.
28
85800
2456
Kategóriaugrás.
01:40
It's a wholeegész differentkülönböző worldvilág,
29
88280
2576
Teljesen más világ,
01:42
and it has great potentiallehetséges.
30
90880
2616
és nagy lehetőségek vannak benne.
01:45
It could accelerategyorsul our understandingmegértés
of manysok areasnak of studytanulmány and researchkutatás.
31
93520
6920
Segíthet megérteni sok terület
tanulmányait és kutatásait.
01:53
But to paraphraseparafrázis
a famoushíres HollywoodHollywood philosopherfilozófus,
32
101120
3496
Egy híres hollywoodi filozófust idézve:
01:56
"With prodigiousCsilla potentiallehetséges
comesjön prodigiousCsilla riskkockázat."
33
104640
3640
„A hatalmas lehetőségek
hatalmas kockázattal járnak”
02:01
Now let's look at a basicalapvető facttény
of our digitaldigitális liveséletét, onlineonline adshirdetések.
34
109120
3936
Most nézzük meg digitális életünk
alapvetését, az online hirdetéseket.
02:05
Right? We kindkedves of dismissutasítsa el a them.
35
113080
2896
Észre sem vesszük őket, nem?
02:08
They seemlátszik crudenyers, ineffectivehatástalan.
36
116000
1976
Erőszakosnak, hatástalannak tűnnek.
02:10
We'veMost már all had the experiencetapasztalat
of beinglény followedmajd on the webháló
37
118000
4256
Mindegyikünk megtapasztalta már,
hogy olyan reklám követ minket a weben,
02:14
by an adhirdetés basedszékhelyű on something
we searchedkeresett or readolvas.
38
122280
2776
ami a kereséseink, olvasmányaink
témájához kötődik.
02:17
You know, you look up a pairpár of bootscsizma
39
125080
1856
Rákeresünk például egy pár csizmára,
02:18
and for a weekhét, those bootscsizma are followingkövetkező
you around everywheremindenhol you go.
40
126960
3376
ami aztán hetekig a nyomunkban jár,
bármerre járunk.
02:22
Even after you succumbtönkre and buyVásárol them,
they're still followingkövetkező you around.
41
130360
3656
Még azután is, hogy megadjuk magunkat,
és megvesszük.
02:26
We're kindkedves of inuredinured to that kindkedves
of basicalapvető, cheapolcsó manipulationmanipuláció.
42
134040
3016
Hozzászokhattunk már ehhez az
egyszerű, olcsó manipulációhoz.
02:29
We rolltekercs our eyesszemek and we think,
"You know what? These things don't work."
43
137080
3400
Forgatjuk a szemünk, és azt gondoljuk,
„Eh, ez nem működik.”
02:33
ExceptKivéve, onlineonline,
44
141720
2096
A digitális technológiák nemcsak reklámok,
02:35
the digitaldigitális technologiestechnológiák are not just adshirdetések.
45
143840
3600
eltekintve online felületüktől.
02:40
Now, to understandmegért that,
let's think of a physicalfizikai worldvilág examplepélda.
46
148240
3120
Ennek megértéséhez nézzünk
egy példát a fizikai világból.
02:43
You know how, at the checkoutPénztár countersszámlálók
at supermarketsáruházak, nearközel the cashierPénztár,
47
151840
4656
Tudják, hogy a szupermarketekben
a pénztár közelében
02:48
there's candycukorka and gumgumi
at the eyeszem levelszint of kidsgyerekek?
48
156520
3480
nyalókák és rágógumik vannak
a gyerekek szemmagasságában?
02:52
That's designedtervezett to make them
whinenyafog at theirazok parentsszülők
49
160800
3496
Ezt úgy tervezték, hogy
sírjanak a szüleiknek,
02:56
just as the parentsszülők
are about to sortfajta of checkjelölje be out.
50
164320
3080
amikor épp sorban állnak a fizetéshez.
03:00
Now, that's a persuasionmeggyőzés architectureépítészet.
51
168040
2640
Ez a meggyőzés architektúrája.
03:03
It's not niceszép, but it kindkedves of worksművek.
52
171160
3096
Nem szép, de láthatóan működik.
03:06
That's why you see it
in everyminden supermarketszupermarket.
53
174280
2040
Ezért látjuk ezt minden szupermarketben.
03:08
Now, in the physicalfizikai worldvilág,
54
176720
1696
Na most, a fizikai világban
03:10
suchilyen persuasionmeggyőzés architecturesarchitektúrák
are kindkedves of limitedkorlátozott,
55
178440
2496
ez az architektúra
viszonylag korlátozott,
03:12
because you can only put
so manysok things by the cashierPénztár. Right?
56
180960
4816
mert nem lehet mindent
a pénztárhoz rakni, ugye?
03:17
And the candycukorka and gumgumi,
it's the sameazonos for everyonemindenki,
57
185800
4296
A nyalóka meg a rágógumi
mindenkinek ugyanolyan,
03:22
even thoughbár it mostlytöbbnyire worksművek
58
190120
1456
bár általában jobban működik
03:23
only for people who have
whinysiránkozó little humansemberek besidemellett them.
59
191600
4040
azoknál az embereknél,
akik mellett kicsi síró alakok állnak.
03:29
In the physicalfizikai worldvilág,
we liveélő with those limitationskorlátozások.
60
197160
3920
A fizikai világban
együtt élünk ezekkel a korlátokkal.
03:34
In the digitaldigitális worldvilág, thoughbár,
61
202280
1936
A digitális világban viszont
03:36
persuasionmeggyőzés architecturesarchitektúrák
can be builtépült at the scaleskála of billionsmilliárdokat
62
204240
4320
a meggyőzési architektúrák
milliárdos nagyságrendűek lehetnek,
03:41
and they can targetcél, inferkövetkeztetni, understandmegért
63
209840
3856
és megcélozhatnak, felbecsülhetnek,
kiismerhetnek egyéneket,
03:45
and be deployedtelepített at individualsegyének
64
213720
2896
majd egyesével
03:48
one by one
65
216640
1216
bevethetők ellenük,
03:49
by figuringösszeadás out your weaknessesgyengeségek,
66
217880
2136
rátapintva gyengeségeikre,
03:52
and they can be sentküldött
to everyone'smindenki phonetelefon privatemagán screenképernyő,
67
220040
5616
és bárki privát telefon-képernyőjére
elküldhetők,
03:57
so it's not visiblelátható to us.
68
225680
2256
így a többiek nem látják.
03:59
And that's differentkülönböző.
69
227960
1256
És ettől más.
04:01
And that's just one of the basicalapvető things
that artificialmesterséges intelligenceintelligencia can do.
70
229240
3576
Ez csak egyetlen egyszerű dolog,
amire a mesterséges intelligencia képes.
04:04
Now, let's take an examplepélda.
71
232840
1336
Nézzünk egy példát.
04:06
Let's say you want to sellelad
planerepülőgép ticketsjegyek to VegasVegas. Right?
72
234200
2696
Mondjuk, repülőjegyeket akarunk eladni
Las Vegasba. Jó?
04:08
So in the oldrégi worldvilág, you could think
of some demographicsdemográfiai to targetcél
73
236920
3496
A régi világban tapasztalat
és feltételezések alapján
04:12
basedszékhelyű on experiencetapasztalat
and what you can guessTaláld ki.
74
240440
2520
némi demográfiai célt is tippelhetnénk.
04:15
You mightesetleg try to advertisehirdet to, oh,
75
243560
2816
Tegyük fel, hogy mondjuk,
04:18
menférfiak betweenközött the ageskorosztály of 25 and 35,
76
246400
2496
25 és 35 közötti férfiaknak hirdetjük meg,
04:20
or people who have
a highmagas limithatár on theirazok credithitel cardkártya,
77
248920
3936
vagy olyanoknak, akiknek
magas hitelkeret van a kártyájukon,
vagy nyugdíjas pároknak. Nem?
04:24
or retirednyugdíjas couplespárok. Right?
78
252880
1376
04:26
That's what you would do in the pastmúlt.
79
254280
1816
Ezt tennénk a múltban.
04:28
With bignagy dataadat and machinegép learningtanulás,
80
256120
2896
Nagy adatmennyiséggel és gépi tanulással
04:31
that's not how it worksművek anymoretöbbé.
81
259040
1524
ez többé már nem így működik.
04:33
So to imagineKépzeld el that,
82
261320
2176
Úgyhogy képzeljék el,
04:35
think of all the dataadat
that FacebookFacebook has on you:
83
263520
3856
gondoljanak az összes adatra,
amit a Facebook őriz önökről:
04:39
everyminden statusállapot updatefrissítés you ever typedgépelt,
84
267400
2536
minden állapotfrissítés, amit valaha
begépeltek,
04:41
everyminden MessengerMessenger conversationbeszélgetés,
85
269960
2016
minden Messenger-beszélgetés,
04:44
everyminden placehely you loggeda naplóba in from,
86
272000
1880
minden hely, ahonnan bejelentkeztek,
04:48
all your photographsfényképeket
that you uploadedfeltöltve there.
87
276400
3176
minden fotó, amit feltöltöttek oda.
04:51
If you startRajt typinggépelés something
and changeváltozás your mindelme and deletetöröl it,
88
279600
3776
Ha elkezdenek begépelni valamit,
aztán meggondolják magukat, és törlik,
04:55
FacebookFacebook keepstartja those
and analyzeselemzések them, too.
89
283400
3200
a Facebook azt is megtartja, és elemzi.
04:59
IncreasinglyEgyre inkább, it triespróbálkozás
to matchmérkőzés you with your offlinenem elérhető dataadat.
90
287160
3936
Sőt, megpróbálja összekötni önöket
offline adataikkal.
05:03
It alsois purchasesvásárlások
a lot of dataadat from dataadat brokersbrókerek.
91
291120
3176
Sok adatot vásárol
adatkereskedőktől is.
05:06
It could be everything
from your financialpénzügyi recordsfeljegyzések
92
294320
3416
Ez bármi lehet:
a pénzügyi nyilvántartásuktól kezdve
05:09
to a good chunknagy darab of your browsingböngészés historytörténelem.
93
297760
2120
a böngészési előzményeik jó részéig.
05:12
Right? In the US,
suchilyen dataadat is routinelyrutinszerűen collectedösszegyűjtött,
94
300360
5416
Értik? Az Államokban ezeket az adatokat
rutinszerűen gyűjtik,
05:17
collatedSzétválogatva and soldeladott.
95
305800
1960
elemzik és eladják.
05:20
In EuropeEurópa, they have tougherkeményebb rulesszabályok.
96
308320
2440
Európában ezt szigorúbban szabályozzák.
05:23
So what happensmegtörténik then is,
97
311680
2200
Így az történik, hogy amint
05:26
by churningkavargó throughkeresztül all that dataadat,
these machine-learninggép-tanulás algorithmsalgoritmusok --
98
314920
4016
ezek a gépi tanulásos algoritmusok
végigfutnak az adatokon –
05:30
that's why they're calledhívott
learningtanulás algorithmsalgoritmusok --
99
318960
2896
ezért hívjuk tanuló algoritmusoknak –,
05:33
they learntanul to understandmegért
the characteristicsjellemzők of people
100
321880
4096
megtanulják megérteni azok jellemzőit,
05:38
who purchasedvásárolt ticketsjegyek to VegasVegas before.
101
326000
2520
akik korábban jegyet vettek Las Vegasba.
05:41
When they learntanul this from existinglétező dataadat,
102
329760
3536
Amikor meglévő adatból tanulnak,
05:45
they alsois learntanul
how to applyalkalmaz this to newúj people.
103
333320
3816
megtanulják azt is,
hogyan alkalmazzák új emberekre.
05:49
So if they're presentedbemutatva with a newúj personszemély,
104
337160
3056
Így ha új személlyel találkoznak,
05:52
they can classifyosztályoz whetherakár that personszemély
is likelyvalószínűleg to buyVásárol a ticketjegy to VegasVegas or not.
105
340240
4640
be tudják sorolni hogy ő valószínűleg
vesz-e jegyet Vegasba, vagy nem.
05:57
Fine. You're thinkinggondolkodás,
an offerajánlat to buyVásárol ticketsjegyek to VegasVegas.
106
345720
5456
Rendben. Önök azt hiszik,
ez egy ajánlat Vegasba.
06:03
I can ignorefigyelmen kívül hagyni that.
107
351200
1456
Ezt figyelmen kívül hagyhatom.
06:04
But the problemprobléma isn't that.
108
352680
2216
A probléma azonban nem ez.
06:06
The problemprobléma is,
109
354920
1576
Hanem az, hogy többé
06:08
we no longerhosszabb really understandmegért
how these complexösszetett algorithmsalgoritmusok work.
110
356520
4136
nem igazán értjük, hogyan működnek
ezek az összetett algoritmusok.
06:12
We don't understandmegért
how they're doing this categorizationkategorizálás.
111
360680
3456
Nem értjük, hogyan csoportosítanak.
06:16
It's giantóriás matricesmátrixok,
thousandsTöbb ezer of rowssorok and columnsoszlopok,
112
364160
4416
Hatalmas mátrixok,
több ezernyi sor és oszlop,
06:20
maybe millionsTöbb millió of rowssorok and columnsoszlopok,
113
368600
1960
talán milliónyi sor vagy oszlop,
06:23
and not the programmersprogramozók
114
371320
2640
és sem a programozók,
06:26
and not anybodybárki who looksúgy néz ki, at it,
115
374760
1680
sem senki, aki ránéz,
06:29
even if you have all the dataadat,
116
377440
1496
nem érti már
a pontos működését,
06:30
understandsmegérti anymoretöbbé
how exactlypontosan it's operatingüzemeltetési
117
378960
4616
még akkor sem, ha megvan az összes adat,
06:35
any more than you'djobb lenne, ha know
what I was thinkinggondolkodás right now
118
383600
3776
mint ahogy azt sem tudnák,
mit gondolok éppen,
06:39
if you were shownLátható
a crosskereszt sectionszakasz of my brainagy.
119
387400
3960
még akkor sem, ha megmutatnám
az agyam keresztmetszetét.
06:44
It's like we're not programmingprogramozás anymoretöbbé,
120
392360
2576
Mintha többé nem programoznánk,
06:46
we're growingnövekvő intelligenceintelligencia
that we don't trulyvalóban understandmegért.
121
394960
4400
olyan intelligenciát fejlesztünk,
amit nem értünk teljesen.
06:52
And these things only work
if there's an enormoushatalmas amountösszeg of dataadat,
122
400520
3976
És mindezek csak akkor működnek,
ha rengeteg adatunk van,
06:56
so they alsois encourageösztönzése
deepmély surveillancefelügyelet on all of us
123
404520
5096
így arra is ösztönöznek, hogy alaposan
megfigyeljenek mindannyiunkat,
07:01
so that the machinegép learningtanulás
algorithmsalgoritmusok can work.
124
409640
2336
hogy működhessenek
a gépi tanulásos algoritmusok.
07:04
That's why FacebookFacebook wants
to collectgyűjt all the dataadat it can about you.
125
412000
3176
Ezért gyűjt össze a Facebook
minden adatot rólunk, amit csak tud.
07:07
The algorithmsalgoritmusok work better.
126
415200
1576
Az algoritmusok jobban működnek.
07:08
So let's pushnyom that VegasVegas examplepélda a bitbit.
127
416800
2696
Nézzük még kicsit a vegasi példát.
07:11
What if the systemrendszer
that we do not understandmegért
128
419520
3680
Mi van, ha a rendszer, amit nem értünk,
07:16
was pickingfeltörés up that it's easierkönnyebb
to sellelad VegasVegas ticketsjegyek
129
424200
5136
rájött, hogy egyszerűbb vegasi jegyeket
eladni azoknak,
07:21
to people who are bipolarkétpólusú
and about to enterbelép the manicmániás phasefázis.
130
429360
3760
akiknek bipoláris zavara
éppen a mániákus szakaszba lép?
07:25
SuchIlyen people tendhajlamosak to becomeválik
overspendersoverspenders, compulsivekényszeres gamblersszerencsejátékosok.
131
433640
4920
Ők gyakran lesznek túlköltekezők,
kényszeres szerencsejátékosok.
07:31
They could do this, and you'djobb lenne, ha have no cluenyom
that's what they were pickingfeltörés up on.
132
439280
4456
Kiválaszthatja őket ennek alapján,
és mi még csak nem is sejtjük.
07:35
I gaveadott this examplepélda
to a bunchcsokor of computerszámítógép scientiststudósok onceegyszer
133
443760
3616
Egyszer informatikusok körében
mondtam el ezt a példát,
07:39
and afterwardskésőbb, one of them camejött up to me.
134
447400
2056
utána egyikük odajött hozzám.
07:41
He was troubledzavaros and he said,
"That's why I couldn'tnem tudott publishközzétesz it."
135
449480
3520
Zavart volt, és azt mondta:
„Ezért nem tudom kiadni.”
07:45
I was like, "Couldn'tNem tudtam publishközzétesz what?"
136
453600
1715
Mondom: „Mit nem tud kiadni?”
07:47
He had triedmegpróbálta to see whetherakár you can indeedvalóban
figureábra out the onsetkialakulása of maniamánia
137
455800
5856
Olyan szoftvert írt, ami azt vizsgálja:
megállapítható-e a mánia megjelenése
közösségi médiás bejegyzésekből
a klinikai tünetek megjelenése előtt,
07:53
from socialtársadalmi mediamédia postshozzászólás
before clinicalklinikai symptomstünetek,
138
461680
3216
07:56
and it had workeddolgozott,
139
464920
1776
és kiderült, hogy igen,
07:58
and it had workeddolgozott very well,
140
466720
2056
a programja nagyon is jól működött,
08:00
and he had no ideaötlet how it workeddolgozott
or what it was pickingfeltörés up on.
141
468800
4880
ő pedig nem tudta, hogyan működik,
vagy hogy milyen fogásra akadt.
08:06
Now, the problemprobléma isn't solvedmegoldott
if he doesn't publishközzétesz it,
142
474840
4416
A probléma nem oldódik meg,
ha nem adja ki a szoftvert,
08:11
because there are alreadymár companiesvállalatok
143
479280
1896
mert már vannak cégek,
08:13
that are developingfejlesztés
this kindkedves of technologytechnológia,
144
481200
2536
akik fejlesztenek ilyen technológiát,
08:15
and a lot of the stuffdolog
is just off the shelfpolc.
145
483760
2800
és már sok minden elérhető.
08:19
This is not very difficultnehéz anymoretöbbé.
146
487240
2576
Ez ma már nem túl bonyolult.
08:21
Do you ever go on YouTubeYouTube-on
meaningjelentés to watch one videovideó-
147
489840
3456
Mentek-e már úgy a Youtube-ra,
hogy csak egy videót néznek meg,
08:25
and an houróra latera későbbiekben you've watchedfigyelte 27?
148
493320
2360
és egy óra múlva
már a huszonhetediknél tartottak?
08:28
You know how YouTubeYouTube-on
has this columnoszlop on the right
149
496760
2496
Ismerik-e a Youtube-on
a jobb oldali oszlopot,
08:31
that saysmondja, "Up nextkövetkező"
150
499280
2216
ahol ez áll: „Következő”,
08:33
and it autoplaysautoplays something?
151
501520
1816
és automatikusan lejátszik valamit?
08:35
It's an algorithmalgoritmus
152
503360
1216
Az egy algoritmus,
08:36
pickingfeltörés what it thinksazt hiszi
that you mightesetleg be interestedérdekelt in
153
504600
3616
ami kiválasztja, hogy feltehetően
mi érdekli a látogatót,
és nem biztos, hogy magunktól rátalálnánk.
08:40
and maybe not find on your ownsaját.
154
508240
1536
08:41
It's not a humanemberi editorszerkesztő.
155
509800
1256
Ezt nem ember szerkeszti.
08:43
It's what algorithmsalgoritmusok do.
156
511080
1416
Így működnek az algoritmusok.
08:44
It pickscsákány up on what you have watchedfigyelte
and what people like you have watchedfigyelte,
157
512520
4736
Annak alapján, amit mi
és a hozzánk hasonló látogatók megnézünk,
08:49
and infersvezeti le that that mustkell be
what you're interestedérdekelt in,
158
517280
4216
kiválasztja és kikövetkezteti,
mi az, ami még érdekelhet minket,
08:53
what you want more of,
159
521520
1255
miből szeretnénk még,
08:54
and just showsműsorok you more.
160
522799
1336
és ezekből többet mutat.
08:56
It soundshangok like a benignjóindulatú
and usefulhasznos featurefunkció,
161
524159
2201
Jószándékú és hasznos
funkciónak hangzik,
08:59
exceptkivéve when it isn't.
162
527280
1200
de nem mindig az.
09:01
So in 2016, I attendedrészt vett ralliesgyűlések
of then-candidateakkor-jelölt DonaldDonald TrumpTrump
163
529640
6960
2016-ban részt vettem
az akkor jelölt Donald Trump gyűlésein,
09:09
to studytanulmány as a scholartudós
the movementmozgalom supportingtámogatása him.
164
537840
3336
hogy kutatóként tanulmányozzam
az őt támogató mozgalmat.
09:13
I studytanulmány socialtársadalmi movementsmozgások,
so I was studyingtanul it, too.
165
541200
3456
Társadalmi mozgalmakat kutatok,
ezért ezt is tanulmányoztam.
09:16
And then I wanted to writeír something
about one of his ralliesgyűlések,
166
544680
3336
Aztán írni akartam valamit
az egyik gyűléséről,
09:20
so I watchedfigyelte it a fewkevés timesalkalommal on YouTubeYouTube-on.
167
548040
1960
ezért megnéztem párszor a Youtube-on.
A Youtube fehér felsőbbrendűségről szóló
videókat kezdett ajánlgatni
09:23
YouTubeYouTube-on startedindult recommendingajánló to me
168
551240
3096
09:26
and autoplayingAutoplaying to me
whitefehér supremacistfelsőbbrendűséget videosvideók
169
554360
4256
és automatikusan lejátszani nekem,
09:30
in increasingnövekvő ordersorrend of extremismszélsőségesség.
170
558640
2656
egyre szélsőségesebbeket.
09:33
If I watchedfigyelte one,
171
561320
1816
Ha megnéztem egyet,
09:35
it servedszolgált up one even more extremeszélső
172
563160
2976
még szélsőségesebbet kaptam,
09:38
and autoplayedautoplayed that one, too.
173
566160
1424
és azt is magától lejátszotta.
09:40
If you watch HillaryHillary ClintonClinton
or BernieBernie SandersSanders contenttartalom,
174
568320
4536
Ha Hillary Clintonról vagy
Bernie Sandersről nézünk tartalmakat,
09:44
YouTubeYouTube-on recommendsazt ajánlja
and autoplaysautoplays conspiracyösszeesküvés left,
175
572880
4696
a Youtube automatikusan
összeesküvés-elméleteket kezd lejátszani,
09:49
and it goesmegy downhilllesiklás from there.
176
577600
1760
innentől már csak lejjebb van.
09:52
Well, you mightesetleg be thinkinggondolkodás,
this is politicspolitika, but it's not.
177
580480
3056
Önök azt gondolhatják: ez politika,
de nem az.
09:55
This isn't about politicspolitika.
178
583560
1256
Ez nem a politikáról szól.
09:56
This is just the algorithmalgoritmus
figuringösszeadás out humanemberi behaviorviselkedés.
179
584840
3096
Ez csak egy algoritmus,
ami kitalálja az emberi viselkedést.
09:59
I onceegyszer watchedfigyelte a videovideó-
about vegetarianismvegetarianizmus on YouTubeYouTube-on
180
587960
4776
Egyszer megnéztem egy videót
a vegetarianizmusról a Youtube-on,
10:04
and YouTubeYouTube-on recommendedajánlott
and autoplayedautoplayed a videovideó- about beinglény veganvegán.
181
592760
4936
a Youtube ajánlott és el is indított
egy videót a vegán életmódról.
10:09
It's like you're never
hardcoreHardcore enoughelég for YouTubeYouTube-on.
182
597720
3016
Olyan, mintha sosem lennénk
elég kemények a Youtube-nak.
10:12
(LaughterNevetés)
183
600760
1576
(Nevetés)
10:14
So what's going on?
184
602360
1560
Szóval, mi folyik itt?
A Youtube algoritmusa
szabadalommal védett,
10:16
Now, YouTube'sYouTube algorithmalgoritmus is proprietaryvédett,
185
604520
3536
10:20
but here'sitt what I think is going on.
186
608080
2360
de elmondom, mit gondolok.
10:23
The algorithmalgoritmus has figuredmintás out
187
611360
2096
Az algoritmus rájött,
10:25
that if you can enticecsábít people
188
613480
3696
ha rá tudjuk venni az embereket,
hogy azt gondolják:
10:29
into thinkinggondolkodás that you can
showelőadás them something more hardcoreHardcore,
189
617200
3736
valami keményebbet tudunk nekik mutatni,
10:32
they're more likelyvalószínűleg to staymarad on the sitewebhely
190
620960
2416
akkor nagyobb valószínűséggel
maradnak az oldalon,
10:35
watchingnézni videovideó- after videovideó-
going down that rabbitnyúl holelyuk
191
623400
4416
és nézik egyik videót a másik után,
egyre mélyebbre merülve,
10:39
while GoogleGoogle servesszolgálja them adshirdetések.
192
627840
1680
míg a Google hirdetéseket mutat nekik.
10:43
Now, with nobodysenki mindinggondozása
the ethicsetikai of the storebolt,
193
631760
3120
Most, hogy senkit nem érdekel
a boltok etikája,
10:47
these sitesoldalak can profileProfil people
194
635720
4240
ezek az oldalak pontosan
meg tudják találni
10:53
who are JewZsidó hatersHaters,
195
641680
1920
a zsidógyűlölőket,
10:56
who think that JewsZsidók are parasitesparaziták
196
644360
2480
azokat, akik szerint a zsidók paraziták,
11:00
and who have suchilyen explicitkifejezett
anti-SemiticAntiszemita contenttartalom,
197
648320
4920
azokat, akik kifejezetten
antiszemita tartalmakat tesznek fel,
11:06
and let you targetcél them with adshirdetések.
198
654080
2000
és célzott reklámokat küld nekik.
11:09
They can alsois mobilizemozgósít algorithmsalgoritmusok
199
657200
3536
Arra is használhatják az algoritmusokat,
11:12
to find for you look-alikehasonmás audiencesközönség,
200
660760
3136
hogy megtalálják a hasonló közönséget,
11:15
people who do not have suchilyen explicitkifejezett
anti-SemiticAntiszemita contenttartalom on theirazok profileProfil
201
663920
5576
azokat, akiknek nincs ilyen határozott
antiszemita tartalom a profilján,
11:21
but who the algorithmalgoritmus detectsészleli
maylehet be susceptiblefogékony to suchilyen messagesüzenetek,
202
669520
6176
de az algoritmus felismeri,
hogy fogékonyak lehetnek ilyen üzenetekre,
11:27
and letslehetővé teszi, you targetcél them with adshirdetések, too.
203
675720
1920
és nekik is küldi a célzott hirdetéseket.
11:30
Now, this maylehet soundhang
like an implausiblevalószínűtlen examplepélda,
204
678680
2736
Ez valószínűtlen példának tűnhet,
11:33
but this is realigazi.
205
681440
1320
pedig valódi.
11:35
ProPublicaProPublica investigatedvizsgált this
206
683480
2136
A ProPublica nyomozott az ügyben,
11:37
and foundtalál that you can indeedvalóban
do this on FacebookFacebook,
207
685640
3616
és rájöttek, hogy ez tényleg
megtehető a Facebookon,
11:41
and FacebookFacebook helpfullysegítőkészen
offeredfelajánlott up suggestionsjavaslatok
208
689280
2416
a Facebook még segítőkészen
javaslatokat is tesz,
11:43
on how to broadenkiszélesítése that audienceközönség.
209
691720
1600
hogyan bővítsük ezt a közönséget.
11:46
BuzzFeedBuzzFeed triedmegpróbálta it for GoogleGoogle,
and very quicklygyorsan they foundtalál,
210
694720
3016
A BuzzFeed tesztelte a Google-t,
és nagyon gyorsan rájöttek,
11:49
yepJa, you can do it on GoogleGoogle, too.
211
697760
1736
hogy bizony rá is
ugyanez vonatkozik.
11:51
And it wasn'tnem volt even expensivedrága.
212
699520
1696
És még csak drága sem volt.
11:53
The ProPublicaProPublica reporterriporter
spentköltött about 30 dollarsdollár
213
701240
4416
A ProPublica riportere 30 dollárt költött
11:57
to targetcél this categorykategória.
214
705680
2240
ennek a kategóriának a bemérésére.
12:02
So last yearév, DonaldDonald Trump'sTrump
socialtársadalmi mediamédia managermenedzser disclosednyilvánosságra
215
710600
5296
Tavaly tehát Donald Trump
közösségimédia-menedzsere elmondta,
12:07
that they were usinghasználva FacebookFacebook darksötét postshozzászólás
to demobilizeleszerel people,
216
715920
5336
hogy úgynevezett "dark postokkal"
igyekeznek otthon tartani az embereket,
12:13
not to persuademeggyőzni them,
217
721280
1376
nem azért, hogy meggyőzzék őket,
12:14
but to convincemeggyőz them not to voteszavazás at all.
218
722680
2800
hanem hogy egyáltalán ne szavazzanak.
12:18
And to do that,
they targetedcélzott specificallykifejezetten,
219
726520
3576
És ehhez kifinomult módon
állítottak be célcsoportokat,
12:22
for examplepélda, African-AmericanAfro-amerikai menférfiak
in keykulcs citiesvárosok like PhiladelphiaPhiladelphia,
220
730120
3896
például kulcsvárosokban, például
Philadelphiában élő afro-amerikaiakat,
12:26
and I'm going to readolvas
exactlypontosan what he said.
221
734040
2456
és mindjárt felolvasom,
mit mondott pontosan.
12:28
I'm quotingidézve.
222
736520
1216
Idézem.
12:29
They were usinghasználva "nonpublicnem nyilvános postshozzászólás
223
737760
3016
"Nem nyilvános posztokat" használtak,
12:32
whoseakinek viewershipnézői the campaignkampány controlsellenőrzések
224
740800
2176
"ezek olvasóit a kampány szabályozta,
12:35
so that only the people
we want to see it see it.
225
743000
3776
hogy csak azok lássák, akiket
erre célzottan kiválasztunk.
12:38
We modeledmodellezett this.
226
746800
1216
Modelleztük ezt.
12:40
It will dramaticallydrámaian affectérint her abilityképesség
to turnfordulat these people out."
227
748040
4720
Drasztikusan befolyásolja az embereket
a szavazásból való kimaradásra."
12:45
What's in those darksötét postshozzászólás?
228
753720
2280
Mi volt ezekben a "sötét bejegyzésekben"?
12:48
We have no ideaötlet.
229
756480
1656
Ötletünk sincs.
12:50
FacebookFacebook won'tszokás tell us.
230
758160
1200
A Facebook nem árulja el.
12:52
So FacebookFacebook alsois algorithmicallyalgoritmikusan
arrangesintézkedik the postshozzászólás
231
760480
4376
A Facebook tehát algoritmus szerint
rendezi a bejegyzéseket,
12:56
that your friendsbarátok put on FacebookFacebook,
or the pagesoldalak you followkövesse.
232
764880
3736
amiket a barátaink kitesznek,
vagy az oldalakat, amiket követünk.
13:00
It doesn't showelőadás you
everything chronologicallyidőrendben.
233
768640
2216
Nem időrend szerint jeleníti meg ezeket.
13:02
It putshelyezi the ordersorrend in the way
that the algorithmalgoritmus thinksazt hiszi will enticecsábít you
234
770880
4816
Az algoritmus elgondolása szerint
olyan sorrendbe rendezi,
13:07
to staymarad on the sitewebhely longerhosszabb.
235
775720
1840
hogy minél több időt töltsünk ott.
Ez pedig rengeteg következményt
von maga után.
13:11
Now, so this has a lot of consequenceskövetkezményei.
236
779040
3376
13:14
You maylehet be thinkinggondolkodás
somebodyvalaki is snubbingsnubbing you on FacebookFacebook.
237
782440
3800
Azt gondolhatjuk, hogy valaki
mellőz minket a Facebookon.
13:18
The algorithmalgoritmus maylehet never
be showingkiállítás your postposta to them.
238
786800
3256
Pedig lehet, hogy az algoritmus
elrejti előle a bejegyzéseinket.
13:22
The algorithmalgoritmus is prioritizingprioritások
some of them and buryingtemetkezés the othersmások.
239
790080
5960
Az algoritmus egy részüket kiemeli,
a többit eltemeti.
13:29
ExperimentsKísérletek showelőadás
240
797320
1296
A kísérletek szerint
13:30
that what the algorithmalgoritmus pickscsákány to showelőadás you
can affectérint your emotionsérzelmek.
241
798640
4520
az algoritmus választásai
befolyásolhatják az érzelmeinket.
13:36
But that's not all.
242
804600
1200
De ez még nem minden.
13:38
It alsois affectsérint politicalpolitikai behaviorviselkedés.
243
806280
2360
A politikai viselkedést is befolyásolja.
13:41
So in 2010, in the midtermévközi electionsválasztások,
244
809360
4656
2010-ben a félidős választásokon
13:46
FacebookFacebook did an experimentkísérlet
on 61 millionmillió people in the US
245
814040
5896
a Facebook 61 millió amerikat tesztelt,
13:51
that was disclosednyilvánosságra after the facttény.
246
819960
1896
és ezt csak utólag mondták el.
13:53
So some people were shownLátható,
"TodayMa is electionválasztás day,"
247
821880
3416
Néhány embernek azt mutatták:
"Ma vannak a választások",
13:57
the simpleregyszerűbb one,
248
825320
1376
ez volt az egyszerűbb,
13:58
and some people were shownLátható
the one with that tinyapró tweakcsípés
249
826720
3896
másoknak bonyolultabbat,
14:02
with those little thumbnailsBélyegképek
250
830640
2096
azokkal a kis bélyegképekkel
14:04
of your friendsbarátok who clickedcsattant on "I votedszavazott."
251
832760
2840
a barátainkról, akik rákattintottak arra,
hogy "Szavaztam".
14:09
This simpleegyszerű tweakcsípés.
252
837000
1400
Ez egyszerű különbség.
14:11
OK? So the picturesképek were the only changeváltozás,
253
839520
4296
Értik? Csak a képek jelentették
az egyetlen eltérést,
14:15
and that postposta shownLátható just onceegyszer
254
843840
3256
és a bejegyzést csak egyszer mutatták,
14:19
turnedfordult out an additionalTovábbi 340,000 votersszavazók
255
847120
6056
ez a kutatás szerint
14:25
in that electionválasztás,
256
853200
1696
340 ezer plusz szavazót jelentett
14:26
accordingszerint to this researchkutatás
257
854920
1696
azon a választáson,
14:28
as confirmedmegerősített by the voterválasztói rollstekercs.
258
856640
2520
ezt a szavazólisták megerősítették.
14:32
A flukeFluke? No.
259
860920
1656
Mázli? Nem.
14:34
Because in 2012,
they repeatedmegismételt the sameazonos experimentkísérlet.
260
862600
5360
Mert 2012-ben megismételték
ugyanezt a kísérletet.
14:40
And that time,
261
868840
1736
Ekkor
14:42
that civicpolgári messageüzenet shownLátható just onceegyszer
262
870600
3296
ez az egyszer megjelenített
állampolgári üzenet
14:45
turnedfordult out an additionalTovábbi 270,000 votersszavazók.
263
873920
4440
270 ezer további szavazót hozott.
14:51
For referencereferencia, the 2016
US presidentialelnöki electionválasztás
264
879160
5216
Referenciaként, a 2016-os
amerikai elnökválasztást
14:56
was decidedhatározott by about 100,000 votesszavazat.
265
884400
3520
százezer szavazó döntötte el.
15:01
Now, FacebookFacebook can alsois
very easilykönnyen inferkövetkeztetni what your politicspolitika are,
266
889360
4736
A Facebook könnyedén kikövetkezteti
politikai vonzódásunkat,
15:06
even if you've never
disclosednyilvánosságra them on the sitewebhely.
267
894120
2256
akkor is, ha ezt soha nem tárjuk
nyilvánosság elé.
15:08
Right? These algorithmsalgoritmusok
can do that quiteegészen easilykönnyen.
268
896400
2520
Ezeknek az algoritmusoknak ez nem kihívás.
15:11
What if a platformemelvény with that kindkedves of powererő
269
899960
3896
Mi van, ha egy platform
ezzel a típusú hatalommal
15:15
decidesúgy határoz, to turnfordulat out supportersTámogatók
of one candidatejelölt over the other?
270
903880
5040
úgy dönt, hogy egy jelöltet támogat
egy másikkal szemben?
15:21
How would we even know about it?
271
909680
2440
Honnan fogunk egyáltalán tudni róla?
15:25
Now, we startedindult from someplacevalahol
seeminglylátszólag innocuousártalmatlan --
272
913560
4136
Valami látszólag ártalmatlan
dologgal kezdtünk –
15:29
onlineonline addshozzáteszi followingkövetkező us around --
273
917720
2216
minket követő online hirdetések –,
15:31
and we'vevoltunk landedleszállt someplacevalahol elsemás.
274
919960
1840
és máshová lyukadtunk ki.
15:35
As a publicnyilvános and as citizenspolgárok,
275
923480
2456
Közösségként és állampolgárokként
15:37
we no longerhosszabb know
if we're seeinglátás the sameazonos informationinformáció
276
925960
3416
többé nem tudjuk,
hogy ugyanazt az információt látjuk,
15:41
or what anybodybárki elsemás is seeinglátás,
277
929400
1480
vagy azt, amit bárki más lát,
15:43
and withoutnélkül a commonközös basisbázis of informationinformáció,
278
931680
2576
és közös információs alapok nélkül,
15:46
little by little,
279
934280
1616
lépésről lépésre
15:47
publicnyilvános debatevita is becomingegyre impossiblelehetetlen,
280
935920
3216
lehetetlenné válnak a nyilvános viták,
15:51
and we're just at
the beginningkezdet stagesszakaszában of this.
281
939160
2976
és ennek még csak az elején tartunk.
15:54
These algorithmsalgoritmusok can quiteegészen easilykönnyen inferkövetkeztetni
282
942160
3456
Ezek az algoritmusok
csak Facebook like-okból
15:57
things like your people'semberek ethnicityetnikum,
283
945640
3256
képesek kikövetkeztetni olyan jellemzőket,
16:00
religiousvallási and politicalpolitikai viewsnézetek,
personalityszemélyiség traitsvonások,
284
948920
2336
mint az emberek etnikuma,
vallási és politikai nézetei,
16:03
intelligenceintelligencia, happinessboldogság,
use of addictiveaddiktív substancesanyagok,
285
951280
3376
személyiségjegyei, intelligenciája,
boldogsága,
16:06
parentalszülői separationelválasztás, agekor and gendersnemben,
286
954680
3136
függőséget okozó szerek használata,
16:09
just from FacebookFacebook likeskedvel.
287
957840
1960
válása, életkora, neme.
Ezek az algoritmusok képesek
tüntetőket azonosítani
16:13
These algorithmsalgoritmusok can identifyazonosítani protesterstüntetők
288
961440
4056
16:17
even if theirazok facesarcok
are partiallyrészben concealedrejtett.
289
965520
2760
akkor is, ha az arcuk
részben el van takarva.
16:21
These algorithmsalgoritmusok maylehet be ableképes
to detectfelismerni people'semberek sexualszexuális orientationtájékozódás
290
969720
6616
Ezek az algoritmusok képesek emberek
szexuális orientációját behatárolni,
16:28
just from theirazok datingtárskereső profileProfil picturesképek.
291
976360
3200
csak randiprofiljuk fotójából.
16:33
Now, these are probabilisticvalószínűségi guessestalálgatások,
292
981560
2616
Persze, ezek valószínűségi találgatások,
16:36
so they're not going
to be 100 percentszázalék right,
293
984200
2896
ezért nem lesznek
100 százalékosan pontosak,
16:39
but I don't see the powerfulerős resistingellenáll
the temptationkísértés to use these technologiestechnológiák
294
987120
4896
de túl erősnek látom a technológia
felhasználására irányuló kísértést,
16:44
just because there are
some falsehamis positivespozitívumok,
295
992040
2176
és nem győz meg néhány hamis eredmény,
16:46
whichmelyik will of coursetanfolyam createteremt
a wholeegész other layerréteg of problemsproblémák.
296
994240
3256
ami persze teljesen új
problémahegyeket hoz létre.
16:49
ImagineKépzeld el what a stateállapot can do
297
997520
2936
Képzeljük el, mit kezdhet egy állam
16:52
with the immenseóriási amountösszeg of dataadat
it has on its citizenspolgárok.
298
1000480
3560
ezzel a rengeteg adattal
saját állampolgárairól.
16:56
ChinaKína is alreadymár usinghasználva
facearc detectionérzékelés technologytechnológia
299
1004680
4776
Kína már használja
az arcfelismerés technológiáját,
17:01
to identifyazonosítani and arrestletartóztatás people.
300
1009480
2880
hogy azonosítson és lecsukjon embereket.
17:05
And here'sitt the tragedytragédia:
301
1013280
2136
És itt a tragédia:
17:07
we're buildingépület this infrastructureinfrastruktúra
of surveillancefelügyelet authoritarianismtekintélyelvűség
302
1015440
5536
az önkényuralmi megfigyelés
infrastruktúráját építjük
17:13
merelycsupán to get people to clickkettyenés on adshirdetések.
303
1021000
2960
csak azért, hogy az emberek
hirdetésekre kattintsanak.
17:17
And this won'tszokás be
Orwell'sAz Orwell's authoritarianismtekintélyelvűség.
304
1025240
2576
És ez nem Orwell önkényuralma lesz.
17:19
This isn't "1984."
305
1027839
1897
Ez nem az "1984".
17:21
Now, if authoritarianismtekintélyelvűség
is usinghasználva overtnyílt fearfélelem to terrorizeterrorizálják us,
306
1029760
4576
Ha ez az önkényuralom nyílt fenyegetéssel
félemlít meg minket,
17:26
we'lljól all be scaredmegrémült, but we'lljól know it,
307
1034359
2897
mind rettegni fogunk,
de tisztában leszünk vele,
17:29
we'lljól hategyűlölet it and we'lljól resistellenáll it.
308
1037280
2200
gyűlölni fogjuk, és ellenállunk.
17:32
But if the people in powererő
are usinghasználva these algorithmsalgoritmusok
309
1040880
4416
De ha a hatalomban lévők
ezeket az algoritmusokat arra használják,
17:37
to quietlycsendesen watch us,
310
1045319
3377
hogy csendben megfigyeljenek,
17:40
to judgebíró us and to nudgeGallytörő us,
311
1048720
2080
hogy ítélkezzenek,
17:43
to predictmegjósolni and identifyazonosítani
the troublemakersbajkeverők and the rebelslázadók,
312
1051720
4176
hogy előre lássák és azonosítsák
a bajkeverőket és a lázadókat,
17:47
to deploytelepítése persuasionmeggyőzés
architecturesarchitektúrák at scaleskála
313
1055920
3896
hogy a meggyőzés szerkezetét
széles körben alkalmazzák,
17:51
and to manipulatemanipulál individualsegyének one by one
314
1059840
4136
hogy személyes, egyéni gyengeségeik
és sebezhetőségeik felhasználásával
17:56
usinghasználva theirazok personalszemélyes, individualEgyedi
weaknessesgyengeségek and vulnerabilitiesbiztonsági rések,
315
1064000
5440
egyenként manipuláljanak egyéneket,
18:02
and if they're doing it at scaleskála
316
1070720
2200
és ha ezt nagy léptékben végzik
18:06
throughkeresztül our privatemagán screensképernyők
317
1074080
1736
privát képernyőinken
18:07
so that we don't even know
318
1075840
1656
úgy, hogy még azt sem tudjuk,
18:09
what our fellowfickó citizenspolgárok
and neighborsszomszédok are seeinglátás,
319
1077520
2760
mit lát a többi állampolgár
és a szomszédaink,
18:13
that authoritarianismtekintélyelvűség
will envelopkeret us like a spider'spók webháló
320
1081560
4816
ez az önkényuralom behálóz minket,
mint egy pók hálója,
18:18
and we maylehet not even know we're in it.
321
1086400
2480
és talán észre sem vesszük majd,
hogy benne vagyunk.
18:22
So Facebook'sFacebook marketpiac capitalizationkis-és nagybetűk
322
1090440
2936
A Facebook piaci értéke
18:25
is approachingközeledik halffél a trillionbillió dollarsdollár.
323
1093400
3296
megközelíti a fél billió dollárt.
18:28
It's because it worksművek great
as a persuasionmeggyőzés architectureépítészet.
324
1096720
3120
Mert jól működik mint
meggyőzési technika.
18:33
But the structureszerkezet of that architectureépítészet
325
1101760
2816
De ennek az architektúrának a szerkezete
18:36
is the sameazonos whetherakár you're sellingeladási shoescipő
326
1104600
3216
ugyanaz akkor is, ha cipőket adunk el,
18:39
or whetherakár you're sellingeladási politicspolitika.
327
1107840
2496
és akkor is, ha politikát adunk el.
18:42
The algorithmsalgoritmusok do not know the differencekülönbség.
328
1110360
3120
Az algoritmusok nem tesznek különbséget.
18:46
The sameazonos algorithmsalgoritmusok setkészlet looselaza uponesetén us
329
1114240
3296
Ugyanazok az algoritmusok, amelyek
18:49
to make us more pliablehajlékony for adshirdetések
330
1117560
3176
befolyásolhatóbbá tesznek minket
a hirdetésekkel szemben,
18:52
are alsois organizingszervező our politicalpolitikai,
personalszemélyes and socialtársadalmi informationinformáció flowsfolyik,
331
1120760
6736
ugyanazok szervezik politikai személyes
és társadalmi információnk áramlását,
18:59
and that's what's got to changeváltozás.
332
1127520
1840
és ezen változtatnunk kell.
19:02
Now, don't get me wrongrossz,
333
1130240
2296
Kérem, ne értsenek félre,
19:04
we use digitaldigitális platformsállványok
because they providebiztosítani us with great valueérték.
334
1132560
3680
azért használjuk a digitális platformokat,
mert értékesek számunkra.
19:09
I use FacebookFacebook to keep in touchérintés
with friendsbarátok and familycsalád around the worldvilág.
335
1137120
3560
Facebookozom, hogy tartsam a kapcsolatot
barátaimmal és családommal.
19:14
I've writtenírott about how crucialalapvető
socialtársadalmi mediamédia is for socialtársadalmi movementsmozgások.
336
1142000
5776
Írtam arról, milyen fontos a közösségi
média társadalmi mozgalmainkhoz.
19:19
I have studiedtanult how
these technologiestechnológiák can be used
337
1147800
3016
Azt kutattam, hogyan használhatjuk
ezeket a technológiákat arra,
19:22
to circumventmegkerülni censorshipcenzúra around the worldvilág.
338
1150840
2480
hogy világszerte megkerüljük a cenzúrát.
19:27
But it's not that the people who runfuss,
you know, FacebookFacebook or GoogleGoogle
339
1155280
6416
De nem azért, hogy azok, akik
a Facebookot vagy a Google-t irányítják,
19:33
are maliciouslyártó szándékkal and deliberatelyszándékosan tryingmegpróbálja
340
1161720
2696
rosszindulatúan és szándékosan
megpróbálják
19:36
to make the countryország
or the worldvilág more polarizedpolarizált
341
1164440
4456
egyre jobban megosztani
az országot vagy a világot,
19:40
and encourageösztönzése extremismszélsőségesség.
342
1168920
1680
és ösztönözni a szélsőségeket.
19:43
I readolvas the manysok
well-intentionedjó szándékú statementsnyilatkozatok
343
1171440
3976
Olvastam a sok jó szándékú kijelentést
19:47
that these people put out.
344
1175440
3320
ezektől az emberektől.
19:51
But it's not the intentelszánt or the statementsnyilatkozatok
people in technologytechnológia make that matterügy,
345
1179600
6056
De nem a szándék, és nem a technológián
dolgozók kijelentései számítanak,
19:57
it's the structuresszerkezetek
and businessüzleti modelsmodellek they're buildingépület.
346
1185680
3560
hanem azok a szerkezetek, üzleti modellek,
amiket építenek.
20:02
And that's the coremag of the problemprobléma.
347
1190360
2096
És ez a probléma lényege.
20:04
EitherVagy FacebookFacebook is a giantóriás con
of halffél a trillionbillió dollarsdollár
348
1192480
4720
A Facebook vagy egy hatalmas,
félbillió dolláros cég,
20:10
and adshirdetések don't work on the sitewebhely,
349
1198200
1896
és nem működnek hirdetések a felületén,
20:12
it doesn't work
as a persuasionmeggyőzés architectureépítészet,
350
1200120
2696
nem meggyőzési architektúraként működik,
20:14
or its powererő of influencebefolyás
is of great concernvonatkozik.
351
1202840
4120
vagy pedig befolyásoló hatalma
aggodalomra ad okot.
20:20
It's eitherbármelyik one or the other.
352
1208560
1776
Vagy az egyik, vagy a másik.
20:22
It's similarhasonló for GoogleGoogle, too.
353
1210360
1600
Ugyanez igaz a Google-ra.
20:24
So what can we do?
354
1212880
2456
Mit tehetünk tehát?
20:27
This needsigények to changeváltozás.
355
1215360
1936
Ez nem maradhat így.
20:29
Now, I can't offerajánlat a simpleegyszerű reciperecept,
356
1217320
2576
Sajnos, nem tudok
egyszerű receptet ajánlani,
20:31
because we need to restructureátalakítása
357
1219920
2256
mert át kell alakítanunk
20:34
the wholeegész way our
digitaldigitális technologytechnológia operatesműködik.
358
1222200
3016
a digitális technológia
egész működését.
20:37
Everything from the way
technologytechnológia is developedfejlett
359
1225240
4096
A technológia fejlesztésétől kezdve addig,
20:41
to the way the incentivesösztönzők,
economicgazdasági and otherwisemásképp,
360
1229360
3856
ahol a gazdasági és egyéb ösztönzők
20:45
are builtépült into the systemrendszer.
361
1233240
2280
beépülnek a rendszerbe.
20:48
We have to facearc and try to dealüzlet with
362
1236480
3456
Szembe kell néznünk és foglalkoznunk kell
20:51
the lackhiány of transparencyátláthatóság
createdkészítette by the proprietaryvédett algorithmsalgoritmusok,
363
1239960
4656
a védett algoritmusok
átláthatóságának hiányával,
20:56
the structuralszerkezeti challengekihívás
of machinegép learning'stanulási opacityhomály,
364
1244640
3816
a gépi tanulás homályosságának
szerkezeti kihívásaival,
21:00
all this indiscriminateválogatás nélküli dataadat
that's beinglény collectedösszegyűjtött about us.
365
1248480
3400
a rólunk válogatás nélkül
gyűjtött összes adattal.
21:05
We have a bignagy taskfeladat in frontelülső of us.
366
1253000
2520
Nagy feladat áll előttünk.
21:08
We have to mobilizemozgósít our technologytechnológia,
367
1256160
2680
Mozgósítanunk kell a technológiánkat,
21:11
our creativitykreativitás
368
1259760
1576
kreativitásunkat,
21:13
and yes, our politicspolitika
369
1261360
1880
és igen, a politikánkat,
21:16
so that we can buildépít
artificialmesterséges intelligenceintelligencia
370
1264240
2656
hogy olyan mesterséges
intelligenciát építsünk,
21:18
that supportstámogatja a us in our humanemberi goalscélok
371
1266920
3120
ami támogatja emberi céljainkat,
21:22
but that is alsois constrainederőltetett
by our humanemberi valuesértékeket.
372
1270800
3920
de amit emberi értékeink korlátoznak is.
21:27
And I understandmegért this won'tszokás be easykönnyen.
373
1275600
2160
Értem én, hogy ez nem lesz egyszerű.
21:30
We mightesetleg not even easilykönnyen agreeegyetért
on what those termsfeltételek mean.
374
1278360
3600
Talán abban sem értünk teljesen egyet,
hogy mit jelentenek ezek a feltételek.
21:34
But if we take seriouslyKomolyan
375
1282920
2400
De ha komolyan vesszük,
21:38
how these systemsrendszerek that we
dependfügg on for so much operateműködik,
376
1286240
5976
hogy ezek a rendszerek, amelyek
működésétől annyira függünk,
21:44
I don't see how we can postponeelhalasztja
this conversationbeszélgetés anymoretöbbé.
377
1292240
4120
nem látom be, hogy elhalaszthatnánk
ezt a megbeszélést.
21:49
These structuresszerkezetek
378
1297200
2536
Ezek a szerkezetek
21:51
are organizingszervező how we functionfunkció
379
1299760
4096
megszervezik, hogyan működünk,
21:55
and they're controllingkontrolling
380
1303880
2296
és irányítják,
21:58
what we can and we cannotnem tud do.
381
1306200
2616
mit tehetünk, és mit nem.
22:00
And manysok of these ad-financedad-finanszírozott platformsállványok,
382
1308840
2456
Sok, reklámokkal finanszírozott platform
22:03
they boastdicsekszik that they're freeingyenes.
383
1311320
1576
büszkén hirdeti, hogy ingyenes.
22:04
In this contextkontextus, it meanseszközök
that we are the producttermék that's beinglény soldeladott.
384
1312920
4560
Ami ebben a környezetben azt jelenti,
hogy mi vagyunk az eladott termék.
22:10
We need a digitaldigitális economygazdaság
385
1318840
2736
Olyan digitális gazdaságra van szükségünk,
22:13
where our dataadat and our attentionFigyelem
386
1321600
3496
ahol az adataink és az érdeklődési körünk
22:17
is not for saleEladó to the highest-biddinglegmagasabb licit
authoritarianautoriter or demagoguedemagóg.
387
1325120
5080
nem eladó a legnagyobb ajánlatot tevő
önkényúrnak vagy demagógnak.
22:23
(ApplauseTaps)
388
1331160
3800
(Taps)
22:30
So to go back to
that HollywoodHollywood paraphraseparafrázis,
389
1338480
3256
Szóval, vissza a hollywoodi idézethez:
22:33
we do want the prodigiousCsilla potentiallehetséges
390
1341760
3736
a mesterséges intelligencia
és a digitális technológia virágzásának
22:37
of artificialmesterséges intelligenceintelligencia
and digitaldigitális technologytechnológia to blossomBlossom,
391
1345520
3200
hatalmas lehetőségei tényleg kellenek,
22:41
but for that, we mustkell facearc
this prodigiousCsilla menacefenyegetés,
392
1349400
4936
de ehhez szembe kell néznünk
az óriási fenyegetéssel,
22:46
open-eyednyitott szemmel and now.
393
1354360
1936
nyitott szemmel, és most azonnal.
22:48
Thank you.
394
1356320
1216
Köszönöm.
22:49
(ApplauseTaps)
395
1357560
4640
(Taps)
Translated by Bálint Laza
Reviewed by Andrea Vida

▲Back to top

ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.

Why you should listen

We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.

Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.

Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.

More profile about the speaker
Zeynep Tufekci | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee