ABOUT THE SPEAKER
Iyad Rahwan - Computational social scientist
Iyad Rahwan's work lies at the intersection of the computer and social sciences, with a focus on collective intelligence, large-scale cooperation and the social aspects of artificial intelligence.

Why you should listen

Iyad Rahwan is the AT&T Career Development Professor and an associate professor of media arts & sciences at the MIT Media Lab, where he leads the Scalable Cooperation group. A native of Aleppo, Syria, Rahwan holds a PhD. from the University of Melbourne, Australia and is an affiliate faculty at the MIT Institute of Data, Systems and Society (IDSS). He led the winning team in the US State Department's Tag Challenge, using social media to locate individuals in remote cities within 12 hours using only their mug shots. Recently he crowdsourced 30 million decisions from people worldwide about the ethics of AI systems. Rahwan's work appeared in major academic journals, including Science and PNAS, and features regularly in major media outlets, including the New York Times, The Economist and the Wall Street Journal.

(Photo: Victoriano Izquierdo)

More profile about the speaker
Iyad Rahwan | Speaker | TED.com
TEDxCambridge

Iyad Rahwan: What moral decisions should driverless cars make?

Iyad Rahwan: Kakve bi moralne odluke automobili bez vozača trebali donositi?

Filmed:
1,147,381 views

Treba li vaš automobil bez vozača usmrtiti vas, ako će tako spasiti pet pješaka? U ovim počecima socijalnih dilema automobila bez vozača, Iyad Rahwan istražuje kako će tehnologija propitivati našu moralnost i objašnjava svoj rad u prikupljanju podataka od pravih ljudi na temu etičkih kompromisa koje smo spremni (ili nismo spremni) napraviti.
- Computational social scientist
Iyad Rahwan's work lies at the intersection of the computer and social sciences, with a focus on collective intelligence, large-scale cooperation and the social aspects of artificial intelligence. Full bio

Double-click the English transcript below to play the video.

00:13
TodayDanas I'm going to talk
about technologytehnologija and societydruštvo.
0
1000
4080
Danas ću govoriti o tehnologiji i društvu.
00:19
The DepartmentOdjel of TransportPrijevoz
estimatedprocijenjen that last yeargodina
1
7040
3696
Odjel za transport je procijenio
da je prošle godine
00:22
35,000 people diedumro
from trafficpromet crashesruši in the US alonesam.
2
10760
4080
35,000 ljudi umrlo
u prometnim nesrećama samo u SAD-u.
00:28
WorldwideDiljem svijeta, 1.2 millionmilijuna people
dieumrijeti everysvaki yeargodina in trafficpromet accidentsnesreća.
3
16040
4800
Diljem svijeta, 1,2 milijuna ljudi umre
svake godine u prometnim nesrećama.
00:33
If there was a way we could eliminateeliminirati
90 percentposto of those accidentsnesreća,
4
21760
4096
Kad bi postojao način na koji bismo mogli
eliminirati 90 posto tih nesreća,
00:37
would you supportpodrška it?
5
25880
1200
biste li ga podržali?
00:39
Of coursenaravno you would.
6
27720
1296
Naravno da biste.
00:41
This is what driverlessSvjetlopropusni carautomobil technologytehnologija
promisesobećanja to achievepostići
7
29040
3655
Upravo ovo obećava postići
tehnologija automobila bez vozača
00:44
by eliminatingeliminirajući the mainglavni
sourceizvor of accidentsnesreća --
8
32720
2816
eliminirajući glavni uzrok nesreća --
00:47
humanljudski errorgreška.
9
35560
1200
ljudsku pogrešku.
00:49
Now pictureslika yourselfsami
in a driverlessSvjetlopropusni carautomobil in the yeargodina 2030,
10
37920
5416
Sada zamislite sebe u automobilu
bez vozača u 2030. godini,
00:55
sittingsjedenje back and watchinggledanje
this vintageberba TEDxCambridgeTEDxCambridge videovideo.
11
43360
3456
kako sjedite otraga i gledate ovaj
zastarjeli TEDxCambridge video.
00:58
(LaughterSmijeh)
12
46840
2000
(Smijeh)
01:01
All of a suddennaglo,
13
49520
1216
Odjednom,
01:02
the carautomobil experiencesiskustva mechanicalmehanički failureneuspjeh
and is unablenesposoban to stop.
14
50760
3280
automobilu se dogodio mehanički kvar
i ne može se zaustaviti.
01:07
If the carautomobil continuesnastavlja,
15
55360
1520
Ako automobil nastavi voziti,
01:09
it will crashsudar into a bunchmnogo
of pedestrianspješaci crossingprijelaz the streetulica,
16
57720
4120
sudarit će se s hrpom pješaka
koji prelaze ulicu,
01:15
but the carautomobil maysvibanj swerveskretanje,
17
63080
2135
ali automobil može i skrenuti,
01:17
hittingudaranje one bystanderpromatrač,
18
65239
1857
udarajući nekoga tko stoji sa strane,
01:19
killingubijanje them to saveuštedjeti the pedestrianspješaci.
19
67120
2080
usmrćujući ga kako bi spasio pješake.
01:22
What should the carautomobil do,
and who should decideodlučiti?
20
70040
2600
Što automobil treba učiniti
i tko o tome treba odlučiti?
01:25
What if insteadumjesto the carautomobil
could swerveskretanje into a wallzid,
21
73520
3536
Što ako bi, umjesto toga,
automobil mogao skrenuti u zid,
01:29
crashingpad sustava and killingubijanje you, the passengerputnika,
22
77080
3296
sudarajući se i ubijajući tebe, putnika,
01:32
in ordernarudžba to saveuštedjeti those pedestrianspješaci?
23
80400
2320
kako bi spasio te pješake?
01:35
This scenarioscenario is inspirednadahnut
by the trolleytrolejbus problemproblem,
24
83240
3080
Ovaj scenarij je inspiriran
problemom trolejbusa,
01:38
whichkoji was inventedizumio
by philosophersfilozofi a fewnekoliko decadesdesetljeća agoprije
25
86960
3776
kojeg su se dosjetili filozofi
prije nekoliko desetljeća,
01:42
to think about ethicsetika.
26
90760
1240
da bi promišljali o etici.
01:46
Now, the way we think
about this problemproblem matterspitanja.
27
94120
2496
Zato je važan način
na koji razmišljamo o ovom problemu.
01:48
We maysvibanj for exampleprimjer
not think about it at all.
28
96640
2616
Možemo, na primjer,
uopće ne razmišljati o njemu.
01:51
We maysvibanj say this scenarioscenario is unrealisticnerealno,
29
99280
3376
Možemo reći kako je taj scenarij nerealan,
01:54
incrediblynevjerojatno unlikelynevjerojatno, or just sillyglup.
30
102680
2320
iznimno nevjerojatan
ili jednostavno blesav.
01:57
But I think this criticismkritika
missespromaši the pointtočka
31
105760
2736
Ali, ja smatram da takva osuda
promašuje poantu
02:00
because it takes
the scenarioscenario too literallydoslovce.
32
108520
2160
jer shvaća taj scenarij previše doslovno.
02:03
Of coursenaravno no accidentnesreća
is going to look like this;
33
111920
2736
Naravno da nijedna nesreća
neće izgledati ovako;
02:06
no accidentnesreća has two or threetri optionsopcije
34
114680
3336
nijedna nesreća nema dvije ili tri opcije
02:10
where everybodysvi diesumire somehownekako.
35
118040
2000
u kojima svi nekako stradaju.
02:13
InsteadUmjesto toga, the carautomobil is going
to calculateizračunati something
36
121480
2576
Umjesto toga, automobil
će izračunati nešto
02:16
like the probabilityvjerojatnost of hittingudaranje
a certainsiguran groupskupina of people,
37
124080
4896
poput vjerojatnosti udaranja
u određenu skupinu ljudi,
02:21
if you swerveskretanje one directionsmjer
versusprotiv anotherjoš directionsmjer,
38
129000
3336
ako skrenete u jednom smjeru
naspram drugog smjera,
02:24
you mightmoć slightlymalo increasepovećati the riskrizik
to passengersputnika or other driversupravljački programi
39
132360
3456
mogli biste neznatno povećati rizik
za putnike ili druge vozače
02:27
versusprotiv pedestrianspješaci.
40
135840
1536
naspram pješaka.
02:29
It's going to be
a more complexkompleks calculationračunanje,
41
137400
2160
To će biti složenija kalkulacija,
02:32
but it's still going
to involveobuhvatiti trade-offskompromis,
42
140480
2520
ali će i dalje uključivati kompromise,
02:35
and trade-offskompromis oftenčesto requirezahtijevati ethicsetika.
43
143840
2880
a za kompromis je često potrebna
moralna prosudba.
02:39
We mightmoć say then,
"Well, let's not worrybrinuti about this.
44
147840
2736
Možemo onda reći
„Pa, nemojmo se brinuti oko toga.
02:42
Let's wait untildo technologytehnologija
is fullypotpuno readyspreman and 100 percentposto safesef."
45
150600
4640
Pričekajmo dok tehnologija ne bude
potpuno spremna i 100 posto sigurna.“
02:48
SupposePretpostavimo da that we can indeeddoista
eliminateeliminirati 90 percentposto of those accidentsnesreća,
46
156520
3680
Pretpostavimo da zaista možemo uspjeti
eliminirati 90 posto tih nesreća,
02:53
or even 99 percentposto in the nextSljedeći 10 yearsgodina.
47
161080
2840
ili čak 99 posto u idućih 10 godina.
02:56
What if eliminatingeliminirajući
the last one percentposto of accidentsnesreća
48
164920
3176
Što ako uklanjanje tog zadnjeg
postotka nesreća
03:00
requirestraži 50 more yearsgodina of researchistraživanje?
49
168120
3120
zahtijeva još dodatnih
50 godina istraživanja?
03:04
Should we not adoptposvojiti the technologytehnologija?
50
172400
1800
Zar ne trebamo usvojiti tehnologiju?
03:06
That's 60 millionmilijuna people
deadmrtav in carautomobil accidentsnesreća
51
174720
4776
To je 60 milijuna ljudi poginulih
u automobilskim nesrećama,
03:11
if we maintainodržavati the currentstruja ratestopa.
52
179520
1760
ako zadržimo trenutnu stopu.
03:14
So the pointtočka is,
53
182760
1216
Stoga poanta je da,
03:16
waitingčekanje for fullpuni safetysigurnosni is alsotakođer a choiceizbor,
54
184000
3616
čekanje potpune sigurnosti
je također izbor
03:19
and it alsotakođer involvesuključuje trade-offskompromis.
55
187640
2160
i isto uključuje kompromise.
03:23
People onlinena liniji on socialsocijalni mediamedia
have been comingdolazak up with all sortsvrste of waysnačine
56
191560
4336
Ljudi prisutni na društvenim mrežama
pronalaze svakakve načine
03:27
to not think about this problemproblem.
57
195920
2016
kako ne misliti o ovom problemu.
03:29
One personosoba suggestedpredložio
the carautomobil should just swerveskretanje somehownekako
58
197960
3216
Jedna je osoba predložila da
automobil samo skrene nekako
03:33
in betweenizmeđu the passengersputnika --
59
201200
2136
između putnika --
03:35
(LaughterSmijeh)
60
203360
1016
(Smijeh)
03:36
and the bystanderpromatrač.
61
204400
1256
i promatrača.
03:37
Of coursenaravno if that's what the carautomobil can do,
that's what the carautomobil should do.
62
205680
3360
Naravno, ako to automobil može učiniti,
onda to i treba učiniti.
03:41
We're interestedzainteresiran in scenariosscenariji
in whichkoji this is not possiblemoguće.
63
209920
2840
Nas zanimaju scenariji
u kojima ovo nije moguće.
03:45
And my personalosobni favoriteljubimac
was a suggestionprijedlog by a bloggerbloger
64
213280
5416
I moj osobni favorit bio je
prijedlog blogera
da u automobilu imamo
gumb za izbacivanje koji pritisnemo --
03:50
to have an ejectizbacivanje buttondugme in the carautomobil
that you presstisak --
65
218720
3016
(Smijeh)
03:53
(LaughterSmijeh)
66
221760
1216
netom prije no što se
automobil sam uništi.
03:55
just before the carautomobil self-destructsuništava samog sebe.
67
223000
1667
(Smijeh)
03:56
(LaughterSmijeh)
68
224691
1680
03:59
So if we acknowledgepriznati that carsautomobili
will have to make trade-offskompromis on the roadcesta,
69
227840
5200
Dakle, ako priznamo da će automobili
morati raditi kompromise na cesti,
04:06
how do we think about those trade-offskompromis,
70
234200
1880
kako ćemo razmišljati o tim kompromisima
04:09
and how do we decideodlučiti?
71
237320
1576
i kako ćemo donijeti odluku?
Pa, možda bismo trebali provesti anketu
da saznamo što društvo želi,
04:10
Well, maybe we should runtrčanje a surveypregled
to find out what societydruštvo wants,
72
238920
3136
04:14
because ultimatelyna kraju,
73
242080
1456
jer naposljetku,
04:15
regulationspropisi and the lawzakon
are a reflectionodraz of societaldruštvene valuesvrijednosti.
74
243560
3960
regulacije i zakon su odraz
društvenih vrijednosti.
04:20
So this is what we did.
75
248040
1240
Stoga smo učinili ovo.
04:21
With my collaboratorssuradnici,
76
249880
1616
S mojim suradnicima,
04:23
Jean-FranJean-FrançoisOIS BonnefonBonnefon and AzimAzim ShariffShariffa,
77
251520
2336
Jean-Françoisem Bonnefonom i
Azimom Shariffom,
04:25
we ranran a surveypregled
78
253880
1616
proveli smo istraživanje
04:27
in whichkoji we presentedpredstavili people
with these typesvrste of scenariosscenariji.
79
255520
2855
u kojem smo predstavili ljudima
ove vrste scenarija.
04:30
We gavedali them two optionsopcije
inspirednadahnut by two philosophersfilozofi:
80
258399
3777
Dali smo im dvije mogućnosti
inspirirane dvama filozofima:
04:34
JeremyJeremy BenthamBentham and ImmanuelEmanuel KantKant.
81
262200
2640
Jeremyem Benthamom i Immanuelom Kantom.
04:37
BenthamBentham sayskaže the carautomobil
should followslijediti utilitarianutilitaristički ethicsetika:
82
265600
3096
Bentham kaže da automobil
treba pratiti utilitarnu etiku:
04:40
it should take the actionakcijski
that will minimizeumanjiti totalukupno harmšteta --
83
268720
3416
treba poduzeti akciju koja će
minimalizirati totalnu štetu --
04:44
even if that actionakcijski will killubiti a bystanderpromatrač
84
272160
2816
čak i ako će ta akcija ubiti promatrača
04:47
and even if that actionakcijski
will killubiti the passengerputnika.
85
275000
2440
te čak i ako će ta akcija ubiti putnika.
04:50
ImmanuelEmanuel KantKant sayskaže the carautomobil
should followslijediti duty-boundobavezni principlesprincipi,
86
278120
4976
Immanuel Kant kaže da automobil
treba pratiti moralna načela,
04:55
like "ThouTi shaltNećeš not killubiti."
87
283120
1560
poput „Ne ubij.“
04:57
So you should not take an actionakcijski
that explicitlyeksplicitno harmsšteti a humanljudski beingbiće,
88
285480
4456
Zato ne bismo trebali poduzeti akciju
koja eksplicitno šteti ljudskom biću
i trebali bismo pustiti
da automobil ide svojim putem,
05:01
and you should let the carautomobil take its coursenaravno
89
289960
2456
05:04
even if that's going to harmšteta more people.
90
292440
1960
čak i ako će to ozlijediti više ljudi.
05:07
What do you think?
91
295640
1200
Što vi mislite?
05:09
BenthamBentham or KantKant?
92
297360
1520
Bentham ili Kant?
05:11
Here'sOvdje je what we foundpronađeno.
93
299760
1256
Evo što smo mi pronašli.
05:13
MostVećina people sidedjednostrani with BenthamBentham.
94
301040
1800
Većina ljudi je stala na stranu Benthama.
05:16
So it seemsčini se that people
want carsautomobili to be utilitarianutilitaristički,
95
304160
3776
Stoga se čini kako većina želi
da automobili budu korisni,
05:19
minimizeumanjiti totalukupno harmšteta,
96
307960
1416
da smanje totalnu štetu
05:21
and that's what we should all do.
97
309400
1576
i to bismo svi trebali činiti.
05:23
ProblemProblem solvedriješen.
98
311000
1200
Riješen problem.
05:25
But there is a little catchulov.
99
313240
1480
Ali, postoji mala kvaka.
05:27
When we askedpitao people
whetherda li they would purchasekupiti suchtakav carsautomobili,
100
315920
3736
Kad smo pitali ljude bi li kupili
takve automobile,
05:31
they said, "AbsolutelyApsolutno not."
101
319680
1616
odgovorili su: „ Apsolutno ne.“
05:33
(LaughterSmijeh)
102
321320
2296
(Smijeh)
05:35
They would like to buykupiti carsautomobili
that protectzaštititi them at all coststroškovi,
103
323640
3896
Oni bi htjeli kupiti automobile
koji njih štite pod svaku cijenu,
05:39
but they want everybodysvi elsedrugo
to buykupiti carsautomobili that minimizeumanjiti harmšteta.
104
327560
3616
ali žele da svi ostali kupe automobile
koji minimaliziraju štetu.
05:43
(LaughterSmijeh)
105
331200
2520
(Smijeh)
05:46
We'veMoramo seenvidio this problemproblem before.
106
334720
1856
Već prije smo se sreli s ovim problemom.
05:48
It's calledzvao a socialsocijalni dilemmadilema.
107
336600
1560
Zove se društvena dilema.
I da bismo razumjeli društvena dilemu,
05:51
And to understandrazumjeti the socialsocijalni dilemmadilema,
108
339160
1816
moramo se vratiti malo u prošlost.
05:53
we have to go a little bitbit
back in historypovijest.
109
341000
2040
05:56
In the 1800s,
110
344000
2576
U 1800-ima,
05:58
Englishengleski economistekonomista WilliamWilliam ForsterForster LloydLloyd
publishedObjavljeno a pamphletpamflet
111
346600
3736
engleski ekonomist William Forster Lloyd
objavio je pamflet
06:02
whichkoji describesopisuje the followingsljedeći scenarioscenario.
112
350360
2216
koji opisuje idući scenarij.
06:04
You have a groupskupina of farmerspoljoprivrednici --
113
352600
1656
Imate grupu farmera,
06:06
Englishengleski farmerspoljoprivrednici --
114
354280
1336
engleskih farmera,
06:07
who are sharingdijeljenje a commonzajednička landzemljište
for theirnjihov sheepovca to grazepasu.
115
355640
2680
koji dijele zajedničko zemljište
za ispašu njihovih ovaca.
06:11
Now, if eachsvaki farmerseljak
bringsdonosi a certainsiguran numberbroj of sheepovca --
116
359520
2576
Sada, ako svaki farmer dovodi
određeni broj ovaca --
06:14
let's say threetri sheepovca --
117
362120
1496
recimo tri ovce --
06:15
the landzemljište will be rejuvenatedpomlađuje,
118
363640
2096
zemljište će biti pomlađeno,
06:17
the farmerspoljoprivrednici are happysretan,
119
365760
1216
farmeri sretni,
06:19
the sheepovca are happysretan,
120
367000
1616
ovce sretne,
06:20
everything is good.
121
368640
1200
sve je dobro.
06:22
Now, if one farmerseljak bringsdonosi one extraekstra sheepovca,
122
370440
2520
Sada, ako jedan farmer dovede
jednu ovcu više,
06:25
that farmerseljak will do slightlymalo better,
and no one elsedrugo will be harmednauditi.
123
373800
4720
tom će farmeru ići malo bolje
i nitko drugi neće biti oštećen.
06:31
But if everysvaki farmerseljak madenapravljen
that individuallypojedinačno rationalracionalan decisionodluka,
124
379160
3640
Međutim, ako svaki farmer donese
tu individualno racionalnu odluku,
06:35
the landzemljište will be overrunprekoračenje,
and it will be depletediscrpljena
125
383840
2720
zemljište će postati pretrpano
i bit će istrošeno
06:39
to the detrimentšteta of all the farmerspoljoprivrednici,
126
387360
2176
na štetu svih farmera
06:41
and of coursenaravno,
to the detrimentšteta of the sheepovca.
127
389560
2120
i naravno, na štetu ovaca.
06:44
We see this problemproblem in manymnogi placesmjesta:
128
392720
3680
Možemo vidjeti ovaj problem
u raznim područjima:
06:49
in the difficultyteškoća of managingupravljanje overfishingpretjeran izlov ribe,
129
397080
3176
u poteškoćama u vođenju
pretjeranog ribolova
06:52
or in reducingsmanjivanje carbonugljen emissionsemisija
to mitigateublažavanje climateklima changepromijeniti.
130
400280
4560
ili u smanjenju emisija ugljika
za ublažavanje klimatskih promjena.
06:59
When it comesdolazi to the regulationregulacija
of driverlessSvjetlopropusni carsautomobili,
131
407160
2920
Kada je u pitanju regulacija
automobila bez vozača,
07:03
the commonzajednička landzemljište now
is basicallyu osnovi publicjavnost safetysigurnosni --
132
411080
4336
zajedničko je, zapravo, javna sigurnost --
07:07
that's the commonzajednička good --
133
415440
1240
to je opće dobro --
07:09
and the farmerspoljoprivrednici are the passengersputnika
134
417400
1976
a farmeri su putnici
07:11
or the carautomobil ownersvlasnici who are choosingOdabir
to ridevožnja in those carsautomobili.
135
419400
3600
ili vlasnici automobila koji odabiru
voziti se u tim automobilima.
07:16
And by makingizrađivanje the individuallypojedinačno
rationalracionalan choiceizbor
136
424960
2616
I odabirući individualno racionalni odabir
07:19
of prioritizingprioritizing theirnjihov ownvlastiti safetysigurnosni,
137
427600
2816
davanja prioriteta vlastitoj sigurnosti,
07:22
they maysvibanj collectivelykolektivno be
diminishingumanjujući the commonzajednička good,
138
430440
3136
oni bi kolektivno mogli
umanjiti opće dobro,
07:25
whichkoji is minimizingMinimiziranje totalukupno harmšteta.
139
433600
2200
koje je smanjene totalne štete.
07:30
It's calledzvao the tragedytragedija of the commonszajednička,
140
438320
2136
To se naziva tragedija zajedništva,
07:32
traditionallytradicionalno,
141
440480
1296
tradicionalno,
07:33
but I think in the casespis
of driverlessSvjetlopropusni carsautomobili,
142
441800
3096
ali ja mislim da u slučaju
automobila bez vozača,
07:36
the problemproblem maysvibanj be
a little bitbit more insidiouspodmukao
143
444920
2856
problem je možda malo više podmukao
07:39
because there is not necessarilyobavezno
an individualpojedinac humanljudski beingbiće
144
447800
3496
jer ne postoji nužno
individualno ljudsko biće
07:43
makingizrađivanje those decisionsodluke.
145
451320
1696
koje donosi te odluke.
07:45
So carautomobil manufacturersproizvođači
maysvibanj simplyjednostavno programprogram carsautomobili
146
453040
3296
Proizvođači automobila mogu jednostavno
programirati automobile
07:48
that will maximizebi se povećala safetysigurnosni
for theirnjihov clientsklijenti,
147
456360
2520
tako da maksimalno povećaju
sigurnost svojih klijenata
07:52
and those carsautomobili maysvibanj learnnaučiti
automaticallyautomatsko on theirnjihov ownvlastiti
148
460080
2976
te bi takvi automobili mogli
automatski samostalno naučiti
07:55
that doing so requirestraži slightlymalo
increasingpovećavajući riskrizik for pedestrianspješaci.
149
463080
3520
da to zahtijeva povećanje
rizika za pješake.
Da upotrijebim metaforu s ovcom,
07:59
So to use the sheepovca metaphormetafora,
150
467520
1416
08:00
it's like we now have electricelektrični sheepovca
that have a mindum of theirnjihov ownvlastiti.
151
468960
3616
to je kao da sada imamo
električnu ovcu s vlastitim umom.
08:04
(LaughterSmijeh)
152
472600
1456
(Smijeh)
08:06
And they maysvibanj go and grazepasu
even if the farmerseljak doesn't know it.
153
474080
3080
I one mogu otići i jesti bez da uopće
njihov farmer to zna.
08:10
So this is what we maysvibanj call
the tragedytragedija of the algorithmicalgoritamski commonszajednička,
154
478640
3976
Dakle, ovo bismo mogli nazvati
tragedijom zajedničkog algoritma
08:14
and if offersponude newnovi typesvrste of challengesizazovi.
155
482640
2360
te nam ona nudi nove vrste izazova.
08:22
TypicallyObično, traditionallytradicionalno,
156
490520
1896
Obično, tradicionalno,
08:24
we solveriješiti these typesvrste
of socialsocijalni dilemmasdileme usingkoristeći regulationregulacija,
157
492440
3336
ove vrste društvenih dilema
rješavamo koristeći propise,
08:27
so eitherili governmentsvlade
or communitieszajednice get togetherzajedno,
158
495800
2736
stoga se sastanu ili vlade ili zajednice
08:30
and they decideodlučiti collectivelykolektivno
what kindljubazan of outcomeishod they want
159
498560
3736
i kolektivno odluče kakav ishod žele
08:34
and what sortvrsta of constraintsograničenja
on individualpojedinac behaviorponašanje
160
502320
2656
i kakva ograničenja
individualnog ponašanja
08:37
they need to implementimplementirati.
161
505000
1200
trebaju provoditi.
08:39
And then usingkoristeći monitoringnadgledanje and enforcementovrha,
162
507600
2616
Te tada, koristeći praćenje i provedbu,
08:42
they can make sure
that the publicjavnost good is preservedočuvana.
163
510240
2559
mogu osigurati očuvanje javne sigurnosti.
08:45
So why don't we just,
164
513440
1575
Stoga, zašto mi ne bismo samo,
08:47
as regulatorsregulatori,
165
515039
1496
kao regulatori,
08:48
requirezahtijevati that all carsautomobili minimizeumanjiti harmšteta?
166
516559
2897
zahtijevali da svi automobili
potpuno smanje štetu?
08:51
After all, this is
what people say they want.
167
519480
2240
Uostalom, to je ono
što ljudi kažu da žele.
08:55
And more importantlyvažnije,
168
523200
1416
I još važnije,
08:56
I can be sure that as an individualpojedinac,
169
524640
3096
mogu biti siguran da kao pojedinac,
08:59
if I buykupiti a carautomobil that maysvibanj
sacrificežrtva me in a very rarerijedak casespis,
170
527760
3856
ukoliko kupim automobil koji bi me mogao
žrtvovati u vrlo rijetkom slučaju,
09:03
I'm not the only suckernaivčina doing that
171
531640
1656
nisam jedina naivčina čineći to
09:05
while everybodysvi elsedrugo
enjoysima na unconditionalbezuvjetno protectionzaštita.
172
533320
2680
dok svi ostali uživaju bezuvjetnu zaštitu.
09:09
In our surveypregled, we did askpitati people
whetherda li they would supportpodrška regulationregulacija
173
537120
3336
U našoj anketi, pitali smo ljude
bi li podržali propise
09:12
and here'sevo what we foundpronađeno.
174
540480
1200
i evo što smo saznali.
09:14
First of all, people
said no to regulationregulacija;
175
542360
3760
Prvo, ljudi su rekli ne propisima;
09:19
and seconddrugi, they said,
176
547280
1256
i drugo, rekli su:
09:20
"Well if you regulateregulirati carsautomobili to do this
and to minimizeumanjiti totalukupno harmšteta,
177
548560
3936
„Pa, ako regulirate automobile da to čine
i da potpuno smanje štetu,
09:24
I will not buykupiti those carsautomobili."
178
552520
1480
ja neću kupiti te automobile.“
09:27
So ironicallyironično,
179
555400
1376
Dakle, ironično,
09:28
by regulatingkojim se uređuje carsautomobili to minimizeumanjiti harmšteta,
180
556800
3496
regulirajući automobile u svrhu
potpunog smanjenja štete,
09:32
we maysvibanj actuallyzapravo endkraj up with more harmšteta
181
560320
1840
možemo zapravo završiti s više štete
09:35
because people maysvibanj not
optopt into the safersigurniji technologytehnologija
182
563040
3656
jer se možda ljudi neće odlučiti
za sigurniju tehnologiju,
09:38
even if it's much safersigurniji
than humanljudski driversupravljački programi.
183
566720
2080
čak i ako je puno sigurnija
od ljudskih vozača.
09:42
I don't have the finalkonačni
answerodgovor to this riddlezagonetka,
184
570360
3416
Nemam konačan odgovor na ovu zagonetku,
09:45
but I think as a startingpolazeći pointtočka,
185
573800
1576
ali mislim da, za početak,
09:47
we need societydruštvo to come togetherzajedno
186
575400
3296
trebamo društvo da se zajedno okupi
09:50
to decideodlučiti what trade-offskompromis
we are comfortableudobno with
187
578720
2760
kako bismo odlučili
s kojim kompromisima se slažemo
09:54
and to come up with waysnačine
in whichkoji we can enforceprimijeniti those trade-offskompromis.
188
582360
3480
i kako bismo osmislili
načine donošenja tih kompromisa.
09:58
As a startingpolazeći pointtočka,
my brilliantsjajan studentsstudenti,
189
586520
2536
Za početak, moji sjajni studenti,
10:01
EdmondEdmond AwadAwad and SohanMrki DsouzaDsouza,
190
589080
2456
Edmond Awad i Sohan Dsouza,
10:03
builtizgrađen the MoralMoralni MachineZa prodaju websiteweb stranica,
191
591560
1800
napravili su internetsku stranicu
Moral Machine,
10:06
whichkoji generatesgenerira randomslučajan scenariosscenariji at you --
192
594200
2680
koja vam postavlja nasumične događaje --
10:10
basicallyu osnovi a bunchmnogo
of randomslučajan dilemmasdileme in a sequenceslijed
193
598080
2456
obično gomilu nasumičnih dilema u nizu,
10:12
where you have to chooseizabrati what
the carautomobil should do in a givendan scenarioscenario.
194
600560
3920
gdje vi trebate odlučiti što bi automobil
trebao napraviti u određenoj situaciji.
10:17
And we varyvarirati the agesdobi and even
the speciesvrsta of the differentdrugačiji victimsžrtve.
195
605040
4600
U ponudi imamo žrtve raznih dobi i vrsta.
10:23
So fardaleko we'veimamo collectedprikupljeni
over fivepet millionmilijuna decisionsodluke
196
611040
3696
Dosad smo prikupili
više od pet milijuna odluka
10:26
by over one millionmilijuna people worldwideširom svijeta
197
614760
2200
od preko milijun ljudi diljem svijeta
10:30
from the websiteweb stranica.
198
618400
1200
putem te internetske stranice.
10:32
And this is helpingpomoć us
formoblik an earlyrano pictureslika
199
620360
2416
Ovo nam od početka pomaže u razumijevanju
10:34
of what trade-offskompromis
people are comfortableudobno with
200
622800
2616
s kakvim kompromisima se ljudi slažu
10:37
and what matterspitanja to them --
201
625440
1896
te što je njima važno --
10:39
even acrosspreko cultureskulture.
202
627360
1440
čak i u različitim kulturama.
10:42
But more importantlyvažnije,
203
630240
1496
No, važnije od toga,
10:43
doing this exercisevježba
is helpingpomoć people recognizeprepoznati
204
631760
3376
ljudima se time pomaže u shvaćanju
10:47
the difficultyteškoća of makingizrađivanje those choicesizbori
205
635160
2816
težine donošenja tih odluka
10:50
and that the regulatorsregulatori
are taskedčiji je zadatak with impossiblenemoguće choicesizbori.
206
638000
3800
te da su oni koji donose odluke
zaduženi za nemoguće izbore.
10:55
And maybe this will help us as a societydruštvo
understandrazumjeti the kindsvrste of trade-offskompromis
207
643360
3576
I možda će upravo ovo pomoći nama
kao društvu u razumijevanju kompromisa
10:58
that will be implementedprovoditi
ultimatelyna kraju in regulationregulacija.
208
646960
3056
koji će biti ostvareni u konačnici
pri donošenju propisa.
11:02
And indeeddoista, I was very happysretan to hearčuti
209
650040
1736
I zaista, bio sam sretan saznajući
11:03
that the first setset of regulationspropisi
210
651800
2016
da je prvi skup propisa
11:05
that camedošao from
the DepartmentOdjel of TransportPrijevoz --
211
653840
2136
iz Odjela za transport --
11:08
announcednajavio last weektjedan --
212
656000
1376
objavljen prošli tjedan --
11:09
includeduključen a 15-point-Pokažite checklistKontrolni popis
for all carmakersproizvođača automobila to providepružiti,
213
657400
6576
obuhvaćao kontrolni popis of 15 točaka
za sve proizvođače automobila
11:16
and numberbroj 14 was ethicaletički considerationobzir --
214
664000
3256
te da je broj 14 uzimao u obzir etiku --
11:19
how are you going to dealdogovor with that.
215
667280
1720
kako ćete se vi nositi s tim.
11:23
We alsotakođer have people
reflectodraziti on theirnjihov ownvlastiti decisionsodluke
216
671800
2656
Također, potičemo ljude da promišljaju
o vlastitim odlukama
11:26
by givingdavanje them summariesKratki sadržaji
of what they choseizabrati.
217
674480
3000
tako što im dajemo sažetak
njihovih odabira.
11:30
I'll give you one exampleprimjer --
218
678440
1656
Dat ću vam jedan primjer --
11:32
I'm just going to warnupozoriti you
that this is not your typicaltipičan exampleprimjer,
219
680120
3536
samo ću vas upozoriti
da ovo nije tipičan primjer,
11:35
your typicaltipičan userkorisnik.
220
683680
1376
tipičan korisnik.
11:37
This is the mostnajviše sacrificedžrtvovani and the mostnajviše
savedspremaju characterlik for this personosoba.
221
685080
3616
Ovo je najviše žrtvovan
i najviše spašen lik za ovu osobu.
11:40
(LaughterSmijeh)
222
688720
5200
(Smijeh)
11:46
Some of you maysvibanj agreesložiti with him,
223
694680
1896
Neki od vas bi se mogli složiti s njim,
11:48
or her, we don't know.
224
696600
1640
ili s njom, ne znamo.
11:52
But this personosoba alsotakođer seemsčini se to slightlymalo
preferradije passengersputnika over pedestrianspješaci
225
700480
6136
No također, čini se da ova osoba ipak malo
više preferira putnike nego pješake
11:58
in theirnjihov choicesizbori
226
706640
2096
u svojim odlukama
12:00
and is very happysretan to punishkazniti jaywalkingzebri.
227
708760
2816
te da vrlo rado kažnjava neoprezno
prelaženje ulice.
12:03
(LaughterSmijeh)
228
711600
3040
(Smijeh)
12:09
So let's wrapomotati up.
229
717320
1216
Dakle, zaključimo.
Započeli smo pitanjem --
nazovimo to moralnom dilemom --
12:10
We startedpočeo with the questionpitanje --
let's call it the ethicaletički dilemmadilema --
230
718559
3416
12:14
of what the carautomobil should do
in a specificspecifično scenarioscenario:
231
722000
3056
kako bi automobil trebao postupiti
u određenoj situaciji:
12:17
swerveskretanje or stayboravak?
232
725080
1200
skrenuti ili ostati?
12:19
But then we realizedshvatio
that the problemproblem was a differentdrugačiji one.
233
727240
2736
Ali onda smo shvatili da je problem
bio u nečem drugom.
12:22
It was the problemproblem of how to get
societydruštvo to agreesložiti on and enforceprimijeniti
234
730000
4536
U tome kako pridobiti društvo da donese
zajedničku odluku i provede
12:26
the trade-offskompromis they're comfortableudobno with.
235
734560
1936
kompromise s kojim se slaže.
12:28
It's a socialsocijalni dilemmadilema.
236
736520
1256
To je društvena dilema.
12:29
In the 1940s, IsaacIsaac AsimovAsimov
wrotenapisao his famouspoznat lawszakoni of roboticsRobotika --
237
737800
5016
1940., Isaac Asimov je napisao svoje
slavne zakone robotike --
12:34
the threetri lawszakoni of roboticsRobotika.
238
742840
1320
tri zakona robotike.
12:37
A robotrobot maysvibanj not harmšteta a humanljudski beingbiće,
239
745240
2456
Robot nikada ne smije
naškoditi ljudskom biću,
12:39
a robotrobot maysvibanj not disobeyne poslušaju a humanljudski beingbiće,
240
747720
2536
robot nikada ne smije
ne poslušati ljudsko biće
12:42
and a robotrobot maysvibanj not allowdopustiti
itselfsebe to come to harmšteta --
241
750280
3256
i robot nikada ne smije
dopustiti sebi štetu --
12:45
in this ordernarudžba of importancevažnost.
242
753560
1960
tim redoslijedom važnosti.
12:48
But after 40 yearsgodina or so
243
756360
2136
No, nakon otprilike 40 godina
12:50
and after so manymnogi storiespriče
pushingguranje these lawszakoni to the limitograničiti,
244
758520
3736
i nakon toliko slučajeva koji guraju
ove zakone do krajnjih granica,
12:54
AsimovAsimov introduceduvedena the zerothnulte lawzakon
245
762280
3696
Asimov je predstavio nulti zakon,
12:58
whichkoji takes precedenceprednost aboveiznad all,
246
766000
2256
koji ima prednost
spram svih ostalih zakona
13:00
and it's that a robotrobot
maysvibanj not harmšteta humanityčovječanstvo as a wholečitav.
247
768280
3280
i glasi da robot nikada ne smije
naškoditi čovječnosti u cijelosti.
13:04
I don't know what this meanssredstva
in the contextkontekst of driverlessSvjetlopropusni carsautomobili
248
772480
4376
Ne znam što ovo znači u kontekstu
automobila bez vozača
13:08
or any specificspecifično situationsituacija,
249
776880
2736
ili u bilo kojoj specifičnoj situaciji,
13:11
and I don't know how we can implementimplementirati it,
250
779640
2216
i ne znam kako bismo to mogli primijeniti,
13:13
but I think that by recognizingprepoznavanje
251
781880
1536
ali smatram da prepoznavanjem
13:15
that the regulationregulacija of driverlessSvjetlopropusni carsautomobili
is not only a technologicaltehnološki problemproblem
252
783440
6136
kako regulacija automobila bez vozača
nije samo problem tehnologije
13:21
but alsotakođer a societaldruštvene cooperationsuradnja problemproblem,
253
789600
3280
već i čitavog društva i njegove suradnje,
13:25
I hopenada that we can at leastnajmanje beginpočeti
to askpitati the right questionspitanja.
254
793800
2880
nadam se, možemo barem početi
postavljati prava pitanja.
13:29
Thank you.
255
797200
1216
Hvala vam.
13:30
(ApplausePljesak)
256
798440
2920
(Pljesak)
Translated by Senzos Osijek
Reviewed by Sanda Liker

▲Back to top

ABOUT THE SPEAKER
Iyad Rahwan - Computational social scientist
Iyad Rahwan's work lies at the intersection of the computer and social sciences, with a focus on collective intelligence, large-scale cooperation and the social aspects of artificial intelligence.

Why you should listen

Iyad Rahwan is the AT&T Career Development Professor and an associate professor of media arts & sciences at the MIT Media Lab, where he leads the Scalable Cooperation group. A native of Aleppo, Syria, Rahwan holds a PhD. from the University of Melbourne, Australia and is an affiliate faculty at the MIT Institute of Data, Systems and Society (IDSS). He led the winning team in the US State Department's Tag Challenge, using social media to locate individuals in remote cities within 12 hours using only their mug shots. Recently he crowdsourced 30 million decisions from people worldwide about the ethics of AI systems. Rahwan's work appeared in major academic journals, including Science and PNAS, and features regularly in major media outlets, including the New York Times, The Economist and the Wall Street Journal.

(Photo: Victoriano Izquierdo)

More profile about the speaker
Iyad Rahwan | Speaker | TED.com