ABOUT THE SPEAKER
Margaret Mitchell - AI research scientist
Margaret Mitchell is a senior research scientist in Google's Research & Machine Intelligence group, working on artificial intelligence.

Why you should listen

Margaret Mitchell's research involves vision-language and grounded language generation, focusing on how to evolve artificial intelligence towards positive goals. Her work combines computer vision, natural language processing, social media as well as many statistical methods and insights from cognitive science. Before Google, Mitchell was a founding member of Microsoft Research's "Cognition" group, focused on advancing artificial intelligence, and a researcher in Microsoft Research's Natural Language Processing group.

More profile about the speaker
Margaret Mitchell | Speaker | TED.com
TED@BCG Milan

Margaret Mitchell: How we can build AI to help humans, not hurt us

Margaret Mičel (Margaret Mitchell): Kako da napravimo veštačku inteligenciju tako da pomogne ljudima, a ne da nas povredi

Filmed:
1,154,210 views

Kao istraživač u Guglu, Margaret Mičel pomaže razvoju računara koji mogu da komuniciraju o tome šta vide i razumeju. Ona nam priča priču kojom upozorava na pukotine, „mrtve uglove“ i predrasude koje podsvesno ubacujemo u veštačku inteligenciju, i moli nas da razmislimo o tome šta će tehnologija koju danas stvaramo značiti za sutrašnjicu. „Sve što sada vidimo je trenutna slika u evoluciji veštačke inteligencije,“ kaže Mičel. „Ukoliko želimo da se veštačka inteligencija razvije tako da pomogne ljudima, onda moramo sada da definišemo ciljeve i strategije koje će omogućiti taj put.“
- AI research scientist
Margaret Mitchell is a senior research scientist in Google's Research & Machine Intelligence group, working on artificial intelligence. Full bio

Double-click the English transcript below to play the video.

00:13
I work on helpingпомажући computersрачунари
communicateкомуницирајте about the worldсвет around us.
0
1381
4015
Ja pomažem da računari
saopštavaju informacije o svetu oko nas.
00:17
There are a lot of waysначини to do this,
1
5754
1793
Postoji mnogo načina da se to uradi,
00:19
and I like to focusфокусирати on helpingпомажући computersрачунари
2
7571
2592
i ja volim da se fokusiram
na pomaganje da računari
00:22
to talk about what they see
and understandРазумем.
3
10187
2874
pričaju o tome šta vide i razumeju.
00:25
GivenS obzirom na a sceneсцена like this,
4
13514
1571
Na slici kao što je ova,
savremeni algoritmi
za prepoznavanje oblika
00:27
a modernмодеран computer-visionračunar-vizija algorithmalgoritam
5
15109
1905
00:29
can tell you that there's a womanжена
and there's a dogпас.
6
17038
3095
će videti da su tu žena i pas.
00:32
It can tell you that the womanжена is smilingнасмејан.
7
20157
2706
Prepoznaće da se žena smeje.
00:34
It mightМожда even be ableу могуцности to tell you
that the dogпас is incrediblyневероватно cutesladak.
8
22887
3873
Može čak proceniti
da je pas neverovatno sladak.
00:38
I work on this problemпроблем
9
26784
1349
Ja radim na ovom problemu
00:40
thinkingразмишљање about how humansљуди
understandРазумем and processпроцес the worldсвет.
10
28157
4212
razmišljajući kako ljudi
razumeju svet i razmišljaju o njemu.
00:45
The thoughtsмисли, memoriesсећања and storiesприче
11
33577
2952
Misli, sećanja i priče
00:48
that a sceneсцена like this
mightМожда evokeевоке for humansљуди.
12
36553
2818
koje slika kao što je ova
mogu izazvati kod ljudi.
00:51
All the interconnectionsинтерконекције
of relatedповезан situationsситуације.
13
39395
4285
Sve međuzavisnosti povezanih situacija.
00:55
Maybe you've seenвиђено
a dogпас like this one before,
14
43704
3126
Možda ste već videli psa kao što je ovaj,
00:58
or you've spentпотрошено time
runningтрчање on a beachплажа like this one,
15
46854
2969
ili ste provodili vreme
u trčanju na plaži kao što je ova,
01:01
and that furtherдаље evokespriziva thoughtsмисли
and memoriesсећања of a pastпрошлост vacationodmor,
16
49847
4778
a to dalje podstiče misli
i sećanja na odmor iz prošlosti,
01:06
pastпрошлост timesпута to the beachплажа,
17
54649
1920
vreme provedeno na plaži
01:08
timesпута spentпотрошено runningтрчање around
with other dogsпси.
18
56593
2603
i u trčanju sa drugim psima.
01:11
One of my guidingвођење principlesпринципе
is that by helpingпомажући computersрачунари to understandРазумем
19
59688
5207
Jedan od mojih vodećih principa
je da pomaganjem računarima da shvate
01:16
what it's like to have these experiencesискуства,
20
64919
2896
šta znači imati ovakva iskustva,
01:19
to understandРазумем what we shareОбјави
and believe and feel,
21
67839
5176
da shvate šta mi imamo zajedničko,
u šta verujemo i šta osećamo,
01:26
then we're in a great positionпозиција
to startпочетак evolvingеволуира computerрачунар technologyтехнологија
22
74094
4310
dolazimo do odlične pozicije za početak
razvoja računarske tehnologije
01:30
in a way that's complementaryкомплементарно
with our ownвластити experiencesискуства.
23
78428
4587
tako da dopunjava naša sopstvena iskustva.
01:35
So, diggingкопање more deeplyдубоко into this,
24
83539
3387
Ako uđemo malo dublje u temu,
01:38
a fewнеколико yearsгодине agoпре I beganпочела workingрад on helpingпомажући
computersрачунари to generateГенериши human-likeљудско биће као и storiesприче
25
86950
5905
pre par godina sam počela rad
na pomaganju računarima da stvaraju priče
01:44
from sequencessekvence of imagesслике.
26
92879
1666
na osnovu niza slika.
01:47
So, one day,
27
95427
1904
Jednog dana
01:49
I was workingрад with my computerрачунар to askпитати it
what it thought about a tripпутовање to AustraliaAustralija.
28
97355
4622
sam radila na računaru i pitala ga
šta misli o putovanju u Australiju.
01:54
It tookузела a look at the picturesслике,
and it saw a koalakoala.
29
102768
2920
Pogledao je slike i video je koalu.
01:58
It didn't know what the koalakoala was,
30
106236
1643
Nije znao šta je koala,
01:59
but it said it thought
it was an interesting-lookingzanimljivo-u potrazi creatureстворење.
31
107903
2999
ali je rekao da misli
da to biće izgleda zanimljivo.
02:04
Then I sharedдељени with it a sequenceниз of imagesслике
about a houseкућа burningгорење down.
32
112053
4004
Zatim sam sa njim podelila
niz slika kuća u plamenu.
02:09
It tookузела a look at the imagesслике and it said,
33
117704
3285
Pogledao je slike i rekao:
02:13
"This is an amazingНевероватно viewпоглед!
This is spectacularспектакуларно!"
34
121013
3500
„Ovo izgleda sjajno!
Ovo je spektakularno!“
02:17
It sentпослат chillsjeza down my spineкичма.
35
125450
2095
Niz kičmu su mi prošli žmarci.
02:20
It saw a horribleужасно, life-changingbitnog
and life-destroyinguništavanje život eventдогађај
36
128983
4572
Video je užasan događaj
koji menja i uništava živote ljudi
02:25
and thought it was something positiveпозитивно.
37
133579
2382
i mislio je da je to nešto pozitivno.
02:27
I realizedреализован that it recognizedпризнат
the contrastконтраст,
38
135985
3441
Shvatila sam da je prepoznao kontrast,
02:31
the redsCrveni, the yellowsћute,
39
139450
2699
crvene i žute boje,
02:34
and thought it was something
worthвреди remarkingkompliment on positivelyпозитивно.
40
142173
3078
i da je mislio da je to nešto
što treba označiti kao pozitivno.
02:37
And partдео of why it was doing this
41
145928
1615
Delimično je razlog tome
02:39
was because mostнајвише
of the imagesслике I had givenдато it
42
147577
2945
to što je većina slika koje sam mu davala
02:42
were positiveпозитивно imagesслике.
43
150546
1840
bila pozitivna.
02:44
That's because people
tendтенденција to shareОбјави positiveпозитивно imagesслике
44
152903
3658
To je zbog toga što su ljudi
skloni da dele pozitivne slike
02:48
when they talk about theirњихова experiencesискуства.
45
156585
2190
kada pričaju o svojim iskustvima.
02:51
When was the last time
you saw a selfieselfie at a funeralсахрана?
46
159267
2541
Kada ste poslednji put
videli selfi sa sahrane?
Shvatila sam da, dok sam radila
na unapređenju veštačke inteligencije
02:55
I realizedреализован that,
as I workedрадио је on improvingпобољшање AIAI
47
163434
3095
02:58
taskзадатак by taskзадатак, datasetgrupa podataka by datasetgrupa podataka,
48
166553
3714
zadatak po zadatak, bazu po bazu,
03:02
that I was creatingстварање massiveмасивни gapsпразнине,
49
170291
2897
da sam u stvari stvarala velike pukotine,
03:05
holesрупе and blindслеп spotsспотови
in what it could understandРазумем.
50
173212
3999
rupe i „mrtve uglove“
u onome što može da razume.
03:10
And while doing so,
51
178307
1334
Time sam sam ubacivala
različite pristrasnosti.
03:11
I was encodingkodiranje all kindsврсте of biasesпредрасуде.
52
179665
2483
03:15
BiasesDiskriminacije that reflectодразити a limitedограничен viewpointstanovišta,
53
183029
3318
Pristrasnosti koje odražavaju
ograničeno gledište,
03:18
limitedограничен to a singleједно datasetgrupa podataka --
54
186371
2261
ograničeno na samo jedan skup podataka -
03:21
biasesпредрасуде that can reflectодразити
humanљудско biasesпредрасуде foundнашао in the dataподаци,
55
189283
3858
pristrasnosti koje odražavaju
ljudske pristrasnosti pronađene u podacima
03:25
suchтаква as prejudicepredrasude and stereotypingstereotipima.
56
193165
3104
kao što su predrasude i stereotipi.
03:29
I thought back to the evolutionеволуција
of the technologyтехнологија
57
197554
3057
Razmislila sam o evoluciji tehnologije
03:32
that broughtдоведен me to where I was that day --
58
200635
2502
koja me je dovela tu
gde sam bila u tom trenutku -
03:35
how the first colorбоја imagesслике
59
203966
2233
kako su prve slike u boji
03:38
were calibratedkalibriran againstпротив
a whiteбео woman'sжена skinкожа,
60
206223
3048
bile podešene prema boji kože belih žena,
03:41
meaningзначење that colorбоја photographyфотографије
was biasedпристрасан againstпротив blackцрн facesлица.
61
209665
4145
što znači da je fotografija u boji
bila naklonjena protiv crnih lica.
03:46
And that sameисти biasсклоност, that sameисти blindслеп spotместо
62
214514
2925
Ta ista naklonjenost, isti „mrtav ugao“
03:49
continuedнаставио well into the '90s.
63
217463
1867
se nastavio duboko u '90-im godinama.
03:51
And the sameисти blindслеп spotместо
continuesнаставља even todayданас
64
219701
3154
Isti „mrtav ugao“ traje čak i danas
03:54
in how well we can recognizeпрепознати
differentразличит people'sљуди facesлица
65
222879
3698
u tome koliko dobro možemo
prepoznati lica različitih ljudi
u tehnologiji za prepoznavanje lica.
03:58
in facialtretman lica recognitionпризнање technologyтехнологија.
66
226601
2200
04:01
I thoughипак about the stateдржава of the artуметност
in researchистраживање todayданас,
67
229323
3143
Razmišljala sam o najnaprednijim
istraživanjima danas,
04:04
where we tendтенденција to limitограничење our thinkingразмишљање
to one datasetgrupa podataka and one problemпроблем.
68
232490
4514
gde pokušavamo da ograničimo
svoje razmišljanje
na jedan skup podataka i jedan problem.
04:09
And that in doing so, we were creatingстварање
more blindслеп spotsспотови and biasesпредрасуде
69
237688
4881
A čineći to, stvaramo
još više „mrtvih uglova“ i predrasuda
04:14
that the AIAI could furtherдаље amplifypotkrepiti taj.
70
242593
2277
koje veštačka inteligencija
može još više da pojača.
04:17
I realizedреализован then
that we had to think deeplyдубоко
71
245712
2079
Tada sam shvatila
da moramo da dobro razmislimo
04:19
about how the technologyтехнологија we work on todayданас
looksизглед in fiveпет yearsгодине, in 10 yearsгодине.
72
247815
5519
o tome kako će tehnologija
na kojoj danas radimo
da izgleda za pet ili 10 godina.
04:25
HumansLjudi evolveеволуирати slowlyполако,
with time to correctтачно for issuesпитања
73
253990
3142
Ljudi evoluiraju polako,
imaju vremena da isprave greške
04:29
in the interactionинтеракција of humansљуди
and theirњихова environmentЖивотна средина.
74
257156
3534
u interakciji sa ljudima i okruženjem.
04:33
In contrastконтраст, artificialвештачки intelligenceинтелигенција
is evolvingеволуира at an incrediblyневероватно fastбрзо rateстопа.
75
261276
5429
Za razliku od njih, veštačka inteligencija
se razvija neverovatnom brzinom.
04:39
And that meansзначи that it really mattersпитања
76
267013
1773
To znači da je zaista bitno
04:40
that we think about this
carefullyпажљиво right now --
77
268810
2317
da o ovome pažljivo razmislimo sada -
04:44
that we reflectодразити on our ownвластити blindслеп spotsспотови,
78
272180
3008
da razmislimo o svojim „mrtvim uglovima“,
04:47
our ownвластити biasesпредрасуде,
79
275212
2317
o sopstvenim predrasudama,
04:49
and think about how that's informingинформисање
the technologyтехнологија we're creatingстварање
80
277553
3857
i da razmislimo o tome kako to utiče
na tehnologiju koju stvaramo
04:53
and discussдискутовати what the technologyтехнологија of todayданас
will mean for tomorrowсутра.
81
281434
3902
i da razmotrimo šta će značiti
tehnologija današnjice za sutrašnjicu.
04:58
CEOsDirektori and scientistsнаучници have weighedsvoje mišljenje in
on what they think
82
286593
3191
Direktori i naučnici raspravljaju
o tome kakva će biti
05:01
the artificialвештачки intelligenceинтелигенција technologyтехнологија
of the futureбудућност will be.
83
289808
3325
veštačka inteligencija u budućnosti.
05:05
StephenStiven HawkingLov sa sokolom warnsupozorava that
84
293157
1618
Stiven Hoking upozorava da
05:06
"ArtificialVeštačka intelligenceинтелигенција
could endкрај mankindljudski rod."
85
294799
3007
„Veštačka inteligencija
može uništiti čovečanstvo.“
05:10
ElonElon MuskMošus warnsupozorava
that it's an existentialегзистенцијално riskризик
86
298307
2683
Ilon Mask upozorava
da je to rizik za preživljavanje
05:13
and one of the greatestнајвећи risksризике
that we faceлице as a civilizationцивилизација.
87
301014
3574
i jedan od najvećih rizika
sa kojima se susrećemo kao civilizacija.
05:17
BillBil GatesGates has madeмаде the pointтачка,
88
305665
1452
Bil Gejts je izneo stav:
05:19
"I don't understandРазумем
why people aren'tнису more concernedзабринути."
89
307141
3185
„Ne razumem zašto ljudi
nisu više zabrinuti.“
05:23
But these viewsвиевс --
90
311412
1318
Ali ova mišljenja
su deo priče.
05:25
they're partдео of the storyприча.
91
313618
1734
05:28
The mathматематика, the modelsмодели,
92
316079
2420
Matematika, modeli,
05:30
the basicосновно buildingзграде blocksблокови
of artificialвештачки intelligenceинтелигенција
93
318523
3070
osnovni sastavni delovi
veštačke inteligencije
05:33
are something that we call accessприступ
and all work with.
94
321617
3135
su nešto čemu svi možemo
da pristupimo i da radimo sa time.
05:36
We have open-sourceотвореног кода toolsалати
for machineмашина learningучење and intelligenceинтелигенција
95
324776
3785
Imamo alate otvorenog koda
za mašinsko učenje i inteligenciju
05:40
that we can contributeдопринети to.
96
328585
1734
kojima možemo da doprinesemo.
05:42
And beyondизван that,
we can shareОбјави our experienceискуство.
97
330919
3340
Osim toga, možemo da delimo naše iskustvo.
05:46
We can shareОбјави our experiencesискуства
with technologyтехнологија and how it concernsзабринутости us
98
334760
3468
Možemo da delimo naša iskustva
sa tehnologijom, kako nas brine
05:50
and how it excitesузбуђује us.
99
338252
1467
i kako nas uzbuđuje.
05:52
We can discussдискутовати what we love.
100
340251
1867
Možemo da razmatramo šta volimo.
05:55
We can communicateкомуницирајте with foresightpromišljenosti
101
343244
2031
Možemo da govorimo
05:57
about the aspectsаспекти of technologyтехнологија
that could be more beneficialblagotvorno
102
345299
4857
o budućim aspektima tehnologije
koji bi bili delotvorniji
06:02
or could be more problematicпроблематично over time.
103
350180
2600
ili problematičniji tokom vremena.
06:05
If we all focusфокусирати on openingотварање up
the discussionдискусија on AIAI
104
353799
4143
Ako se svi fokusiramo na otvaranje
diskusije o veštačkoj inteligenciji
06:09
with foresightpromišljenosti towardsка the futureбудућност,
105
357966
1809
sa pogledom na budućnost,
06:13
this will help createстворити a generalгенерално
conversationразговор and awarenessсвесност
106
361093
4270
to će pomoći kreiranju
uopštenih razgovora i svesti
06:17
about what AIAI is now,
107
365387
2513
o tome šta je veštačka inteligencija sada,
06:21
what it can becomeпостати
108
369212
2001
šta može da postane
06:23
and all the things that we need to do
109
371237
1785
i sve stvari koje treba da uradimo
06:25
in orderнаручи to enableомогућите that outcomeисход
that bestнајбоље suitsodgovara us.
110
373046
3753
da ostvarimo rezultat
koji bi nam najbolje služio.
06:29
We alreadyвећ see and know this
in the technologyтехнологија that we use todayданас.
111
377490
3674
Već vidimo i znamo to iz tehnologije
koju danas koristimo.
06:33
We use smartпаметан phonesтелефони
and digitalдигитални assistantsпомоћници and RoombasRoombas.
112
381767
3880
Koristimo pametne telefone,
digitalne pomoćnike i robotske usisivače.
06:38
Are they evilзло?
113
386457
1150
Da li su zli?
06:40
Maybe sometimesпонекад.
114
388268
1547
Možda ponekad.
06:42
Are they beneficialblagotvorno?
115
390664
1333
Da li su korisni?
06:45
Yes, they're that, too.
116
393005
1533
Jesu i to.
06:48
And they're not all the sameисти.
117
396236
1761
I nisu svi isti.
06:50
And there you alreadyвећ see
a lightсветло shiningсјајан on what the futureбудућност holdsдржи.
118
398489
3540
Već možemo da vidimo
da je budućnost svetla.
06:54
The futureбудућност continuesнаставља on
from what we buildизградити and createстворити right now.
119
402942
3619
Budućnost nastaje
iz onoga što kreiramo upravo sada.
06:59
We setкомплет into motionкретање that dominoDomino effectефекат
120
407165
2642
Mi pokrećemo taj domino efekat
07:01
that carvesuklesala out AI'sAI evolutionaryеволуционарни pathпут.
121
409831
2600
koji kreira evolucioni put
veštačke inteligencije.
07:05
In our time right now,
we shapeоблик the AIAI of tomorrowсутра.
122
413173
2871
U svom vremenu sada, mi oblikujemo
veštačku inteligenciju sutrašnjice.
07:08
TechnologyTehnologija that immersesimmerses us
in augmentedувећан realitiesреалности
123
416566
3699
Tehnologiju koja nas uvodi
u izmenjenu stvarnost
07:12
bringingдоносећи to life pastпрошлост worldsсветове.
124
420289
2566
oživljavajući prošlost.
07:15
TechnologyTehnologija that helpsпомаже people
to shareОбјави theirњихова experiencesискуства
125
423844
4312
Tehnologiju koja pomaže ljudima
da dele svoja iskustva
07:20
when they have difficultyтешкоћа communicatingкомуницирање.
126
428180
2262
kada imaju problem da komuniciraju.
07:23
TechnologyTehnologija builtизграђен on understandingразумевање
the streamingстреаминг visualвизуелно worldsсветове
127
431323
4532
Tehnologiju zasnovanu
na prenosu sadržaja vizuelnog sveta,
07:27
used as technologyтехнологија for self-drivingna putevima carsаутомобили.
128
435879
3079
korišćenu kao tehnologiju
za samovozeće automobile.
07:32
TechnologyTehnologija builtизграђен on understandingразумевање imagesслике
and generatingгенерисање languageЈезик,
129
440490
3413
Tehnologiju zasnovanu
na razumevanju slika i generisanju jezika,
07:35
evolvingеволуира into technologyтехнологија that helpsпомаже people
who are visuallyвизуелно impairedпоремећени
130
443927
4063
koja evoluira u tehnologiju
koja pomaže ljudima sa oštećenim vidom
07:40
be better ableу могуцности to accessприступ the visualвизуелно worldсвет.
131
448014
2800
da imaju bolji pristup vizuelnom svetu.
07:42
And we alsoтакође see how technologyтехнологија
can leadолово to problemsпроблеми.
132
450838
3261
Takođe vidimo kako tehnologija
može da dovede do problema.
07:46
We have technologyтехнологија todayданас
133
454885
1428
Danas imamo tehnologiju
07:48
that analyzesанализе physicalфизички
characteristicsкарактеристике we're bornрођен with --
134
456337
3835
koja analizira fizičke karakteristike
sa kojima smo rođeni -
07:52
suchтаква as the colorбоја of our skinкожа
or the look of our faceлице --
135
460196
3272
kao što je boja kože ili izgled lica -
07:55
in orderнаручи to determineодредити whetherда ли је or not
we mightМожда be criminalskriminalci or terroristsтерористи.
136
463492
3804
kako bi odredila da li smo možda
kriminalci ili teroristi.
07:59
We have technologyтехнологија
that crunchestrbuљnjaka throughкроз our dataподаци,
137
467688
2905
Imamo tehnologiju
koja pretražuje naše podatke,
08:02
even dataподаци relatingкоји се односи
to our genderпол or our raceтрка,
138
470617
2896
čak i podatke o našem polu ili rasi,
08:05
in orderнаручи to determineодредити whetherда ли је or not
we mightМожда get a loanзајам.
139
473537
2865
da bi odredila da li možemo
da dobijemo kredit.
08:09
All that we see now
140
477494
1579
Sve što sada vidimo
08:11
is a snapshotснимак in the evolutionеволуција
of artificialвештачки intelligenceинтелигенција.
141
479097
3617
je trenutna slika u evoluciji
veštačke inteligencije.
08:15
Because where we are right now,
142
483763
1778
Zato što je ovo gde smo sada
08:17
is withinу склопу a momentтренутак of that evolutionеволуција.
143
485565
2238
samo trenutak u toj evoluciji.
08:20
That meansзначи that what we do now
will affectутицати what happensсе дешава down the lineлине
144
488690
3802
To znači da će ono što sada radimo
uticati na to šta se dešava
08:24
and in the futureбудућност.
145
492516
1200
u budućnosti.
Ukoliko želimo da pomognemo
da se veštačka inteligencija razvije
08:26
If we want AIAI to evolveеволуирати
in a way that helpsпомаже humansљуди,
146
494063
3951
tako da pomogne ljudima,
08:30
then we need to defineдефинисати
the goalsциљеве and strategiesстратегије
147
498038
2801
onda moramo da definišemo
ciljeve i strategije
08:32
that enableомогућите that pathпут now.
148
500863
1733
koje će omogućiti taj put sada.
08:35
What I'd like to see is something
that fitsодговара well with humansљуди,
149
503680
3738
Ono što bih želela da vidim
je nešto što će se uklopiti sa ljudima,
08:39
with our cultureкултура and with the environmentЖивотна средина.
150
507442
2800
sa našom kulturom i okruženjem.
08:43
TechnologyTehnologija that aidsаидс and assistsasistencija
those of us with neurologicalнеуролошки conditionsуслови
151
511435
4484
Tehnologiju koja pomaže onima
sa neurološkim problemima
08:47
or other disabilitiessmetnjama u razvoju
152
515943
1721
ili drugim vidovima invaliditeta
08:49
in orderнаручи to make life
equallyподједнако challengingизазован for everyoneсви.
153
517688
3216
kako bi život bio podjednako
izazovan za svakoga.
08:54
TechnologyTehnologija that worksИзвођење радова
154
522097
1421
Tehnologiju koja radi
08:55
regardlessбез обзира of your demographicsдемографски подаци
or the colorбоја of your skinкожа.
155
523542
3933
bez obzira na poreklo ili boju kože.
09:00
And so todayданас, what I focusфокусирати on
is the technologyтехнологија for tomorrowсутра
156
528383
4742
Tako da ono na šta se danas fokusiram
je tehnologija sutrašnjice
09:05
and for 10 yearsгодине from now.
157
533149
1733
i 10 godina od danas.
09:08
AIAI can turnред out in manyмноги differentразличит waysначини.
158
536530
2634
Veštačka inteligencija
može da krene različitim putevima.
09:11
But in this caseслучај,
159
539688
1225
Ali u ovom slučaju,
09:12
it isn't a self-drivingna putevima carауто
withoutбез any destinationдестинацију.
160
540937
3328
to nije samovozeći automobil bez cilja.
09:16
This is the carауто that we are drivingвожња.
161
544884
2400
To je automobil koji mi vozimo.
09:19
We chooseизаберите when to speedбрзина up
and when to slowспор down.
162
547953
3595
Mi biramo kada da ubrzamo
i kada da usporimo.
09:23
We chooseизаберите if we need to make a turnред.
163
551572
2400
Mi biramo da li treba da skrenemo.
09:26
We chooseизаберите what the AIAI
of the futureбудућност will be.
164
554868
3000
Mi biramo šta će veštačka inteligencija
budućnosti zapravo biti.
09:31
There's a vastогромно playingиграње fieldпоље
165
559186
1337
Veliki je broj mogućnosti
09:32
of all the things that artificialвештачки
intelligenceинтелигенција can becomeпостати.
166
560547
2965
šta veštačka inteligencija može postati.
09:36
It will becomeпостати manyмноги things.
167
564064
1800
I postaće dosta toga.
09:39
And it's up to us now,
168
567694
1732
Sada je na nama
09:41
in orderнаручи to figureфигура out
what we need to put in placeместо
169
569450
3061
da smislimo šta treba da uradimo
09:44
to make sure the outcomesисходи
of artificialвештачки intelligenceинтелигенција
170
572535
3807
da bismo bili sigurni da rezultati
veštačke inteligencije
09:48
are the onesоне that will be
better for all of us.
171
576366
3066
budu oni koji su dobri za sve nas.
09:51
Thank you.
172
579456
1150
Hvala.
09:52
(ApplauseAplauz)
173
580630
2187
(Aplauz)
Translated by Marko Mijatovic
Reviewed by Ivana Krivokuća

▲Back to top

ABOUT THE SPEAKER
Margaret Mitchell - AI research scientist
Margaret Mitchell is a senior research scientist in Google's Research & Machine Intelligence group, working on artificial intelligence.

Why you should listen

Margaret Mitchell's research involves vision-language and grounded language generation, focusing on how to evolve artificial intelligence towards positive goals. Her work combines computer vision, natural language processing, social media as well as many statistical methods and insights from cognitive science. Before Google, Mitchell was a founding member of Microsoft Research's "Cognition" group, focused on advancing artificial intelligence, and a researcher in Microsoft Research's Natural Language Processing group.

More profile about the speaker
Margaret Mitchell | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee