ABOUT THE SPEAKER
Margaret Mitchell - AI research scientist
Margaret Mitchell is a senior research scientist in Google's Research & Machine Intelligence group, working on artificial intelligence.

Why you should listen

Margaret Mitchell's research involves vision-language and grounded language generation, focusing on how to evolve artificial intelligence towards positive goals. Her work combines computer vision, natural language processing, social media as well as many statistical methods and insights from cognitive science. Before Google, Mitchell was a founding member of Microsoft Research's "Cognition" group, focused on advancing artificial intelligence, and a researcher in Microsoft Research's Natural Language Processing group.

More profile about the speaker
Margaret Mitchell | Speaker | TED.com
TED@BCG Milan

Margaret Mitchell: How we can build AI to help humans, not hurt us

Margaret Mitchell: Come possiamo costruire IA che aiuti gli umani, che non li danneggi.

Filmed:
1,154,210 views

Come ricercatrice presso Google, Margaret Mitchell aiuta a sviluppare computer che possano comunicare quello che vedono e capiscono. Racconta una storia ammonitrice sulle lacune, punti ciechi e preconcetti che inconsciamente codifichiamo nell'IA, e ci chiede di esaminare quello che la tecnologia che creiamo oggi significherà un domani. "Tutto ciò che vediamo adesso è uno spaccato dell'evoluzione dell'intelligenza artificiale", dice Mitchell. "Se vogliamo che l'IA si evolva in modo da aiutare gli umani, allora dobbiamo definire gli obiettivi e le strategie che abilitino quel percorso adesso."
- AI research scientist
Margaret Mitchell is a senior research scientist in Google's Research & Machine Intelligence group, working on artificial intelligence. Full bio

Double-click the English transcript below to play the video.

00:13
I work on helpingporzione computerscomputer
communicatecomunicare about the worldmondo around us.
0
1381
4015
Il mio lavoro è aiutare i computer
a descrivere il mondo intorno a noi
00:17
There are a lot of waysmodi to do this,
1
5754
1793
Ci sono diversi modi per farlo,
00:19
and I like to focusmessa a fuoco on helpingporzione computerscomputer
2
7571
2592
mi concentro sull'aiutare i computer
00:22
to talk about what they see
and understandcapire.
3
10187
2874
a parlare di quello che vedono
e capiscono.
Prendendo una scena come questa,
00:25
GivenDato a scenescena like this,
4
13514
1571
un moderno algoritmo
di visione artificiale
00:27
a modernmoderno computer-visionvisione artificiale algorithmalgoritmo
5
15109
1905
00:29
can tell you that there's a womandonna
and there's a dogcane.
6
17038
3095
può dirvi che c'è una donna
e c'è un cane.
00:32
It can tell you that the womandonna is smilingsorridente.
7
20157
2706
Può dirvi che la donna sta sorridendo.
00:34
It mightpotrebbe even be ablecapace to tell you
that the dogcane is incrediblyincredibilmente cutecarina.
8
22887
3873
Potrebbe anche dirvi
che il cane è molto carino.
00:38
I work on this problemproblema
9
26784
1349
Lavoro su questo problema
00:40
thinkingpensiero about how humansgli esseri umani
understandcapire and processprocesso the worldmondo.
10
28157
4212
pensando al modo in cui gli umani
capiscono e processano il mondo.
00:45
The thoughtspensieri, memoriesricordi and storiesstorie
11
33577
2952
I pensieri, ricordi e storie
che una scena come questa
può suscitare negli umani.
00:48
that a scenescena like this
mightpotrebbe evokeevocare for humansgli esseri umani.
12
36553
2818
00:51
All the interconnectionsinterconnessioni
of relatedrelazionato situationssituazioni.
13
39395
4285
Tutte le interconnessioni
di situazioni correlate.
Forse avete visto
un cane come questo,
00:55
Maybe you've seenvisto
a dogcane like this one before,
14
43704
3126
00:58
or you've spentspeso time
runningin esecuzione on a beachspiaggia like this one,
15
46854
2969
o avete passato del tempo
a correre su una spiaggia come questa
01:01
and that furtherulteriore evokesevoca thoughtspensieri
and memoriesricordi of a pastpassato vacationVacanze,
16
49847
4778
e quindi evoca pensieri
e ricordi di una vacanza passata,
01:06
pastpassato timesvolte to the beachspiaggia,
17
54649
1920
tempi passati in spiaggia,
01:08
timesvolte spentspeso runningin esecuzione around
with other dogscani.
18
56593
2603
tempi passati a correre con altri cani.
01:11
One of my guidingguidare principlesi principi
is that by helpingporzione computerscomputer to understandcapire
19
59688
5207
Uno dei miei principi guida
è che aiutando i computer a capire
01:16
what it's like to have these experiencesesperienze,
20
64919
2896
com'è avere queste esperienze,
01:19
to understandcapire what we shareCondividere
and believe and feel,
21
67839
5176
a capire cosa condividiamo
e crediamo e sentiamo,
01:26
then we're in a great positionposizione
to startinizio evolvingin evoluzione computercomputer technologytecnologia
22
74094
4310
allora siamo in un'ottima posizione
per far evolvere la tecnologia informatica
01:30
in a way that's complementarycomplementare
with our ownproprio experiencesesperienze.
23
78428
4587
in modo complementare
con le nostre esperienze.
01:35
So, diggingscavando more deeplyprofondamente into this,
24
83539
3387
Quindi, andando più in profondità,
01:38
a fewpochi yearsanni agofa I beganiniziato workinglavoro on helpingporzione
computerscomputer to generatecreare human-likehuman-like storiesstorie
25
86950
5905
alcuni anni fa mi occupavo di
far generare ai computer storie verosimili
01:44
from sequencessequenze of imagesimmagini.
26
92879
1666
partendo da sequenze di immagini.
01:47
So, one day,
27
95427
1904
Così un giorno,
01:49
I was workinglavoro with my computercomputer to askChiedere it
what it thought about a tripviaggio to AustraliaAustralia.
28
97355
4622
lavoravo al computer chiedendogli
cosa pensasse di un viaggio in Australia.
01:54
It tookha preso a look at the picturesimmagini,
and it saw a koalaKoala.
29
102768
2920
Diede un'occhiata alle fotografie
e vide un koala.
01:58
It didn't know what the koalaKoala was,
30
106236
1643
Non sapeva cosa fosse un koala,
01:59
but it said it thought
it was an interesting-lookinginteressante aspetto creaturecreatura.
31
107903
2999
ma disse che era una creatura
dall'aspetto interessante.
02:04
Then I shareddiviso with it a sequencesequenza of imagesimmagini
about a housecasa burningardente down.
32
112053
4004
Poi condivisi una serie di immagini
di una casa che stava bruciando.
02:09
It tookha preso a look at the imagesimmagini and it said,
33
117704
3285
Diede un'occhiata alle immagini e disse:
02:13
"This is an amazingStupefacente viewvista!
This is spectacularspettacolare!"
34
121013
3500
"È una vista fantastica!
È spettacolare!"
02:17
It sentinviato chillsbrividi down my spinecolonna vertebrale.
35
125450
2095
Mi sono venuti i brividi.
02:20
It saw a horribleorribile, life-changingcambia la vita
and life-destroyingdistruzione di vita eventevento
36
128983
4572
Ha visto un evento orribile,
che cambia la vita, che la distrugge
02:25
and thought it was something positivepositivo.
37
133579
2382
e pensava che fosse qualcosa di positivo.
02:27
I realizedrealizzato that it recognizedriconosciuto
the contrastcontrasto,
38
135985
3441
Capii che riconosceva il contrasto,
02:31
the redsrossi, the yellowsgialli,
39
139450
2699
i rossi, i gialli,
02:34
and thought it was something
worthdi valore remarkingsottolineando on positivelypositivamente.
40
142173
3078
e pensava che fosse qualcosa
da commentare positivamente.
Un motivo per cui faceva così
02:37
And partparte of why it was doing this
41
145928
1615
02:39
was because mostmaggior parte
of the imagesimmagini I had givendato it
42
147577
2945
era perché la maggior parte
delle immagini che gli avevo dato
02:42
were positivepositivo imagesimmagini.
43
150546
1840
erano positive.
02:44
That's because people
tendtendere to shareCondividere positivepositivo imagesimmagini
44
152903
3658
Perché le persone tendono
a condividere immagini positive
02:48
when they talk about theirloro experiencesesperienze.
45
156585
2190
quando parlano
delle loro esperienze.
Quando mai avete visto
un selfie a un funerale?
02:51
When was the last time
you saw a selfieselfie at a funeralfunerale?
46
159267
2541
02:55
I realizedrealizzato that,
as I workedlavorato on improvingmiglioramento AIAI
47
163434
3095
Capii che lavorando
al miglioramento dell'IA
02:58
taskcompito by taskcompito, datasetDataSet by datasetDataSet,
48
166553
3714
compito dopo compito,
dataset dopo dataset,
03:02
that I was creatingla creazione di massivemassiccio gapslacune,
49
170291
2897
stavo creando enormi lacune,
03:05
holesfori and blindcieco spotsmacchie
in what it could understandcapire.
50
173212
3999
buchi e punti ciechi
in ciò che poteva capire.
03:10
And while doing so,
51
178307
1334
E nel fare ciò,
03:11
I was encodingcodifica all kindstipi of biasespregiudizi.
52
179665
2483
stavo codificando
tutti i tipi di preconcetti.
03:15
BiasesPregiudizi that reflectriflettere a limitedlimitato viewpointpunto di vista,
53
183029
3318
Preconcetti che riflettono
un punto di vista limitato,
03:18
limitedlimitato to a singlesingolo datasetDataSet --
54
186371
2261
limitato a un singolo dataset.
03:21
biasespregiudizi that can reflectriflettere
humanumano biasespregiudizi foundtrovato in the datadati,
55
189283
3858
Preconcetti che riflettono
quelli umani trovati nei dati,
03:25
suchcome as prejudiceSalve and stereotypinggli stereotipi.
56
193165
3104
come pregiudizi e stereotipi.
03:29
I thought back to the evolutionEvoluzione
of the technologytecnologia
57
197554
3057
Ho ripensato all'evoluzione
della tecnologia
03:32
that broughtportato me to where I was that day --
58
200635
2502
che mi ha portata dove ero quel giorno,
03:35
how the first colorcolore imagesimmagini
59
203966
2233
come le prime immagini a colori
03:38
were calibratedcalibrato againstcontro
a whitebianca woman'sfemminile skinpelle,
60
206223
3048
fossero state calibrate sulla
pelle di una donna bianca,
03:41
meaningsenso that colorcolore photographyfotografia
was biasedparziale againstcontro blacknero facesfacce.
61
209665
4145
quindi la fotografia a colori
penalizzava i volti neri.
03:46
And that samestesso biaspregiudizio, that samestesso blindcieco spotindividuare
62
214514
2925
E quello stesso pregiudizio,
quello stesso punto cieco
03:49
continuedcontinua well into the '90s.
63
217463
1867
persisteva negli anni '90.
03:51
And the samestesso blindcieco spotindividuare
continuescontinua even todayoggi
64
219701
3154
E lo stesso punto cieco
persiste anche oggi
03:54
in how well we can recognizericonoscere
differentdiverso people'spersone di facesfacce
65
222879
3698
nel modo in cui riconosciamo
volti di persone diverse
03:58
in facialtrattamento viso recognitionriconoscimento technologytecnologia.
66
226601
2200
nella tecnologia
del riconoscimento facciale.
04:01
I thoughanche se about the statestato of the artarte
in researchricerca todayoggi,
67
229323
3143
Ho pensato allo stato dell'arte
nella ricerca di oggi,
04:04
where we tendtendere to limitlimite our thinkingpensiero
to one datasetDataSet and one problemproblema.
68
232490
4514
tendiamo a limitare il nostro pensiero
a un dataset e un problema.
04:09
And that in doing so, we were creatingla creazione di
more blindcieco spotsmacchie and biasespregiudizi
69
237688
4881
E facendo ciò,
creiamo più punti ciechi e preconcetti
04:14
that the AIAI could furtherulteriore amplifyamplificare.
70
242593
2277
che l'IA potrebbe amplificare.
04:17
I realizedrealizzato then
that we had to think deeplyprofondamente
71
245712
2079
Ho capito quindi
che dovremmo pensare di più
04:19
about how the technologytecnologia we work on todayoggi
lookssembra in fivecinque yearsanni, in 10 yearsanni.
72
247815
5519
a come la tecnologia a cui lavoriamo oggi
sarà tra 5, 10 anni.
04:25
HumansEsseri umani evolveevolvere slowlylentamente,
with time to correctcorretta for issuesproblemi
73
253990
3142
Gli umani si evolvono lentamente
nel tempo, per correggere errori
04:29
in the interactioninterazione of humansgli esseri umani
and theirloro environmentambiente.
74
257156
3534
nell'interazione tra loro
e il loro ambiente.
04:33
In contrastcontrasto, artificialartificiale intelligenceintelligenza
is evolvingin evoluzione at an incrediblyincredibilmente fastveloce rateVota.
75
261276
5429
Mentre l'intelligenza artificiale
si evolve a ritmi velocissimi,
04:39
And that meanssi intende that it really mattersquestioni
76
267013
1773
quindi è molto importante
04:40
that we think about this
carefullyaccuratamente right now --
77
268810
2317
che ci ragioniamo attentamente adesso,
04:44
that we reflectriflettere on our ownproprio blindcieco spotsmacchie,
78
272180
3008
che riflettiamo sui nostri punti ciechi,
04:47
our ownproprio biasespregiudizi,
79
275212
2317
sui nostri preconcetti,
e pensiamo a come ciò modella
la tecnologia che stiamo creando
04:49
and think about how that's informinginformando
the technologytecnologia we're creatingla creazione di
80
277553
3857
04:53
and discussdiscutere what the technologytecnologia of todayoggi
will mean for tomorrowDomani.
81
281434
3902
e parliamo di cosa la tecnologia di oggi
rappresenterà un domani.
04:58
CEOsAmministratori delegati and scientistsscienziati have weighedpesato in
on what they think
82
286593
3191
Amministratori delegati e scienziati
hanno detto la loro
su ciò che sarà la tecnologia
dell'IA del futuro.
05:01
the artificialartificiale intelligenceintelligenza technologytecnologia
of the futurefuturo will be.
83
289808
3325
05:05
StephenStephen HawkingHawking warnsmette in guardia that
84
293157
1618
Stephen Hawking avverte che
05:06
"ArtificialArtificiale intelligenceintelligenza
could endfine mankindumanità."
85
294799
3007
"l'intelligenza artificiale
potrebbe porre fine all'umanità".
05:10
ElonElon MuskMuschio warnsmette in guardia
that it's an existentialesistenziale riskrischio
86
298307
2683
Elon Musk dice che
è un rischio esistenziale
05:13
and one of the greatestpiù grande risksrischi
that we faceviso as a civilizationciviltà.
87
301014
3574
e uno dei maggiori rischi
che affrontiamo in quanto civiltà.
05:17
BillBill GatesCancelli has madefatto the pointpunto,
88
305665
1452
Bill Gates ha affermato:
05:19
"I don't understandcapire
why people aren'tnon sono more concernedha riguardato."
89
307141
3185
"Non capisco perché le persone
non siano più preoccupate di così".
Ma questi punti di vista
05:23
But these viewsvisualizzazioni --
90
311412
1318
05:25
they're partparte of the storystoria.
91
313618
1734
fanno parte della storia.
05:28
The mathmatematica, the modelsModelli,
92
316079
2420
La matematica, i modelli,
05:30
the basicdi base buildingcostruzione blocksblocchi
of artificialartificiale intelligenceintelligenza
93
318523
3070
le fondamenta su cui si basa
l'intelligenza artificiale
05:33
are something that we call accessaccesso
and all work with.
94
321617
3135
sono cose a cui possiamo accedere
e con cui possiamo lavorare.
05:36
We have open-sourceopen-source toolsutensili
for machinemacchina learningapprendimento and intelligenceintelligenza
95
324776
3785
Abbiamo strumenti open-source
per il machine learning e IA
05:40
that we can contributecontribuire to.
96
328585
1734
ai quali possiamo contribuire.
05:42
And beyondal di là that,
we can shareCondividere our experienceEsperienza.
97
330919
3340
Inoltre possiamo condividere
la nostra esperienza.
Possiamo condividere la nostra esperienza
con la tecnologia, come ci riguarda
05:46
We can shareCondividere our experiencesesperienze
with technologytecnologia and how it concernspreoccupazioni us
98
334760
3468
05:50
and how it exciteseccita us.
99
338252
1467
e come ci affascina.
05:52
We can discussdiscutere what we love.
100
340251
1867
Possiamo discutere su ciò che amiamo.
05:55
We can communicatecomunicare with foresightlungimiranza
101
343244
2031
Possiamo prevedere
05:57
about the aspectsaspetti of technologytecnologia
that could be more beneficialbenefici
102
345299
4857
quali aspetti
possono essere più benefici
o più problematici col tempo.
06:02
or could be more problematicproblematico over time.
103
350180
2600
06:05
If we all focusmessa a fuoco on openingapertura up
the discussiondiscussione on AIAI
104
353799
4143
Se ci concentriamo
nell'apertura della discussione sull'IA
06:09
with foresightlungimiranza towardsin direzione the futurefuturo,
105
357966
1809
con lungimiranza verso il futuro,
06:13
this will help createcreare a generalgenerale
conversationconversazione and awarenessconsapevolezza
106
361093
4270
ci aiuterà a creare una conversazione
e consapevolezza generali
06:17
about what AIAI is now,
107
365387
2513
su ciò che è ora l'IA,
06:21
what it can becomediventare
108
369212
2001
su ciò che può diventare
06:23
and all the things that we need to do
109
371237
1785
e su ciò che dobbiamo ancora fare
06:25
in orderordine to enableabilitare that outcomerisultato
that bestmigliore suitssi adatta alle us.
110
373046
3753
per avere i migliori risultati possibili.
06:29
We alreadygià see and know this
in the technologytecnologia that we use todayoggi.
111
377490
3674
Vediamo e conosciamo già
la tecnologia che usiamo oggi.
06:33
We use smartinteligente phonestelefoni
and digitaldigitale assistantsassistenti and RoombasRomba.
112
381767
3880
Usiamo smartphone e
assistenti digitali e robot aspirapolvere.
06:38
Are they evilil male?
113
386457
1150
Sono malvagi?
06:40
Maybe sometimesa volte.
114
388268
1547
Forse a volte.
06:42
Are they beneficialbenefici?
115
390664
1333
Sono benefici?
06:45
Yes, they're that, too.
116
393005
1533
Sì, sono anche questo.
06:48
And they're not all the samestesso.
117
396236
1761
E non sono tutti uguali.
06:50
And there you alreadygià see
a lightleggero shiningsplendente on what the futurefuturo holdsdetiene.
118
398489
3540
E potete già vedere
un futuro brillante davanti a noi.
06:54
The futurefuturo continuescontinua on
from what we buildcostruire and createcreare right now.
119
402942
3619
Il futuro prosegue
da ciò che costruiamo e creiamo adesso.
06:59
We setimpostato into motionmovimento that dominoDomino effecteffetto
120
407165
2642
Mettiamo in moto quell'effetto domino
07:01
that carvesintaglia out AI'sDi AI evolutionaryevolutiva pathsentiero.
121
409831
2600
che costituisce
il percorso evolutivo dell'IA.
07:05
In our time right now,
we shapeforma the AIAI of tomorrowDomani.
122
413173
2871
Nel nostro tempo, ora,
plasmiamo l'IA di domani.
07:08
TechnologyTecnologia that immersessi immerge us
in augmentedaumentata realitiesrealtà
123
416566
3699
La tecnologia che ci immerge
nelle realtà aumentate
07:12
bringingportando to life pastpassato worldsmondi.
124
420289
2566
e porta in vita mondi remoti.
07:15
TechnologyTecnologia that helpsaiuta people
to shareCondividere theirloro experiencesesperienze
125
423844
4312
La tecnologia che aiuta la gente
a condividere le esperienze
07:20
when they have difficultydifficoltà communicatingcomunicare.
126
428180
2262
quando hanno difficoltà a comunicare.
07:23
TechnologyTecnologia builtcostruito on understandingcomprensione
the streamingstreaming visualvisivo worldsmondi
127
431323
4532
La tecnologia costruita
per capire i flussi di immagini
07:27
used as technologytecnologia for self-drivingSelf-Guida carsautomobili.
128
435879
3079
usata per le vetture autonome.
07:32
TechnologyTecnologia builtcostruito on understandingcomprensione imagesimmagini
and generatinggeneratrice languageLingua,
129
440490
3413
La tecnologia costruita per capire
le immagini e generare linguaggio,
07:35
evolvingin evoluzione into technologytecnologia that helpsaiuta people
who are visuallyvisivamente impairedalterata
130
443927
4063
si trasforma in tecnologia che aiuta
coloro che hanno la vista compromessa
07:40
be better ablecapace to accessaccesso the visualvisivo worldmondo.
131
448014
2800
ad avere accesso al mondo visivo.
07:42
And we alsoanche see how technologytecnologia
can leadcondurre to problemsi problemi.
132
450838
3261
E sappiamo anche come
la tecnologia possa portare problemi.
07:46
We have technologytecnologia todayoggi
133
454885
1428
Esiste la tecnologia
07:48
that analyzesanalisi physicalfisico
characteristicscaratteristiche we're bornNato with --
134
456337
3835
che analizza le caratteristiche fisiche
con cui siamo nati,
07:52
suchcome as the colorcolore of our skinpelle
or the look of our faceviso --
135
460196
3272
come il colore della pelle
o la nostra espressione,
07:55
in orderordine to determinedeterminare whetherse or not
we mightpotrebbe be criminalscriminali or terroriststerroristi.
136
463492
3804
per determinare se possiamo essere
o no criminali o terroristi.
07:59
We have technologytecnologia
that crunchesCrunches throughattraverso our datadati,
137
467688
2905
Esiste la tecnologia
che usa i nostri dati,
anche dati riguardanti
il nostro genere o la nostra etnia,
08:02
even datadati relatingrelativa
to our genderGenere or our racegara,
138
470617
2896
08:05
in orderordine to determinedeterminare whetherse or not
we mightpotrebbe get a loanprestito.
139
473537
2865
per determinare se possiamo
ottenere o meno un prestito.
08:09
All that we see now
140
477494
1579
Quello che vediamo ora
08:11
is a snapshotistantanea in the evolutionEvoluzione
of artificialartificiale intelligenceintelligenza.
141
479097
3617
è uno spaccato dell'evoluzione
dell'intelligenza artificiale.
08:15
Because where we are right now,
142
483763
1778
Perché noi ci troviamo ora
08:17
is withinentro a momentmomento of that evolutionEvoluzione.
143
485565
2238
a un passo da quell'evoluzione.
08:20
That meanssi intende that what we do now
will affectinfluenzare what happensaccade down the linelinea
144
488690
3802
Quello che facciamo ora influenzerà
ciò che accade lungo il cammino
08:24
and in the futurefuturo.
145
492516
1200
e nel futuro.
08:26
If we want AIAI to evolveevolvere
in a way that helpsaiuta humansgli esseri umani,
146
494063
3951
Se vogliamo che l'IA si evolva
per aiutare gli umani,
08:30
then we need to definedefinire
the goalsobiettivi and strategiesstrategie
147
498038
2801
allora dobbiamo definire
gli obiettivi e le strategie
08:32
that enableabilitare that pathsentiero now.
148
500863
1733
che abilitano quel percorso adesso.
08:35
What I'd like to see is something
that fitssi adatta well with humansgli esseri umani,
149
503680
3738
Ciò che vorrei vedere
è qualcosa che si adatti agli umani,
08:39
with our culturecultura and with the environmentambiente.
150
507442
2800
alla nostra cultura e all'ambiente.
08:43
TechnologyTecnologia that aidsAIDS and assistsassiste
those of us with neurologicalneurologico conditionscondizioni
151
511435
4484
Tecnologia che assista
la gente con problemi neurologici
08:47
or other disabilitiesdisabilità
152
515943
1721
o altre disabilità
08:49
in orderordine to make life
equallyugualmente challengingstimolante for everyonetutti.
153
517688
3216
per rendere le sfide della vita
uguali per tutti.
08:54
TechnologyTecnologia that workslavori
154
522097
1421
La tecnologia che lavori
08:55
regardlessindipendentemente of your demographicsdemografici
or the colorcolore of your skinpelle.
155
523542
3933
a prescindere dai vostri dati demografici
o dal colore della pelle.
09:00
And so todayoggi, what I focusmessa a fuoco on
is the technologytecnologia for tomorrowDomani
156
528383
4742
Oggi, quello su cui mi concentro
è la tecnologia per domani
09:05
and for 10 yearsanni from now.
157
533149
1733
e per i prossimi 10 anni.
09:08
AIAI can turnturno out in manymolti differentdiverso waysmodi.
158
536530
2634
L'IA può diventare molte cose.
09:11
But in this casecaso,
159
539688
1225
Ma in questo caso
09:12
it isn't a self-drivingSelf-Guida carauto
withoutsenza any destinationdestinazione.
160
540937
3328
non è una vettura automatica
senza destinazione.
09:16
This is the carauto that we are drivingguida.
161
544884
2400
Questa è una vettura
che guidiamo noi.
09:19
We choosescegliere when to speedvelocità up
and when to slowlento down.
162
547953
3595
Scegliamo noi quando accelerare
e quando rallentare.
09:23
We choosescegliere if we need to make a turnturno.
163
551572
2400
Scegliamo noi se svoltare.
09:26
We choosescegliere what the AIAI
of the futurefuturo will be.
164
554868
3000
Scegliamo noi
quale sarà l'IA del futuro.
09:31
There's a vastvasto playinggiocando fieldcampo
165
559186
1337
C'è una vasta scelta
09:32
of all the things that artificialartificiale
intelligenceintelligenza can becomediventare.
166
560547
2965
di tutto ciò che l'IA può diventare.
09:36
It will becomediventare manymolti things.
167
564064
1800
Diventerà molte cose.
09:39
And it's up to us now,
168
567694
1732
E dipende da noi adesso,
09:41
in orderordine to figurefigura out
what we need to put in placeposto
169
569450
3061
al fine di capire cosa
dobbiamo mettere in atto
09:44
to make sure the outcomesrisultati
of artificialartificiale intelligenceintelligenza
170
572535
3807
per assicurarci che gli esiti
dell'intelligenza artificiale
09:48
are the onesquelli that will be
better for all of us.
171
576366
3066
saranno i migliori per tutti noi.
09:51
Thank you.
172
579456
1150
Grazie
09:52
(ApplauseApplausi)
173
580630
2187
(Applausi)
Translated by Valeria Cossu
Reviewed by Gabriella Patricola

▲Back to top

ABOUT THE SPEAKER
Margaret Mitchell - AI research scientist
Margaret Mitchell is a senior research scientist in Google's Research & Machine Intelligence group, working on artificial intelligence.

Why you should listen

Margaret Mitchell's research involves vision-language and grounded language generation, focusing on how to evolve artificial intelligence towards positive goals. Her work combines computer vision, natural language processing, social media as well as many statistical methods and insights from cognitive science. Before Google, Mitchell was a founding member of Microsoft Research's "Cognition" group, focused on advancing artificial intelligence, and a researcher in Microsoft Research's Natural Language Processing group.

More profile about the speaker
Margaret Mitchell | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee