ABOUT THE SPEAKER
Margaret Mitchell - AI research scientist
Margaret Mitchell is a senior research scientist in Google's Research & Machine Intelligence group, working on artificial intelligence.

Why you should listen

Margaret Mitchell's research involves vision-language and grounded language generation, focusing on how to evolve artificial intelligence towards positive goals. Her work combines computer vision, natural language processing, social media as well as many statistical methods and insights from cognitive science. Before Google, Mitchell was a founding member of Microsoft Research's "Cognition" group, focused on advancing artificial intelligence, and a researcher in Microsoft Research's Natural Language Processing group.

More profile about the speaker
Margaret Mitchell | Speaker | TED.com
TED@BCG Milan

Margaret Mitchell: How we can build AI to help humans, not hurt us

Margaret Mitchell: Comment construire une IA qui aide l'humanité au lieu de la faire souffrir

Filmed:
1,154,210 views

Margaret Mitchell est scientifique à Google, elle aide à développer des ordinateurs capables de communiquer sur ce qu'ils voient et comprennent. Elle nous fait un récit édifiant des différences, des biais cognitifs et des préjugés transmis à l'IA de manière inconsciente. Margaret Mitchell nous demande d'imaginer à quoi ressemblera demain la technologie que nous inventons aujourd'hui. « Tout ce que nous voyons n'est qu'un aperçu de l'évolution de l'intelligence artificielle », nous dit Margaret Mitchell : « Si nous voulons une IA qui évolue d'une façon qui nous soit bénéfique, il nous faut définir des objectifs et des stratégies dans cette voie. »
- AI research scientist
Margaret Mitchell is a senior research scientist in Google's Research & Machine Intelligence group, working on artificial intelligence. Full bio

Double-click the English transcript below to play the video.

00:13
I work on helpingportion computersdes ordinateurs
communicatecommuniquer about the worldmonde around us.
0
1381
4015
J'aide les ordinateurs à communiquer
avec le monde qui nous entoure.
00:17
There are a lot of waysfaçons to do this,
1
5754
1793
Il y a plein de façons de le faire,
00:19
and I like to focusconcentrer on helpingportion computersdes ordinateurs
2
7571
2592
mais j'aime me consacrer
à aider les ordinateurs
00:22
to talk about what they see
and understandcomprendre.
3
10187
2874
à parler de ce qu'ils voient
et de ce qu'ils comprennent.
00:25
GivenCompte tenu de a scenescène like this,
4
13514
1571
Pour une scène comme celle-ci,
00:27
a modernmoderne computer-visionvision par ordinateur algorithmalgorithme de
5
15109
1905
un algorithme moderne de reconnaissance
00:29
can tell you that there's a womanfemme
and there's a dogchien.
6
17038
3095
peut vous dire qu'il y a
une femme et un chien.
00:32
It can tell you that the womanfemme is smilingsouriant.
7
20157
2706
Il peut vous dire
que la femme est souriante.
00:34
It mightpourrait even be ablecapable to tell you
that the dogchien is incrediblyincroyablement cutemignon.
8
22887
3873
Il pourrait même vous dire que le chien
est incroyablement mignon.
00:38
I work on this problemproblème
9
26784
1349
Je travaille sur ce problème
00:40
thinkingen pensant about how humanshumains
understandcomprendre and processprocessus the worldmonde.
10
28157
4212
en étudiant la façon dont les humains
comprennent et traitent le monde.
00:45
The thoughtspensées, memoriessouvenirs and storieshistoires
11
33577
2952
Les pensées, les souvenirs
et les histoires
00:48
that a scenescène like this
mightpourrait evokeévoquer for humanshumains.
12
36553
2818
qu'une scène comme celle-ci
pourrait évoquer pour un humain.
00:51
All the interconnectionsinterconnexions
of relateden relation situationssituations.
13
39395
4285
Toutes les interconnexions
avec les situations proches.
00:55
Maybe you've seenvu
a dogchien like this one before,
14
43704
3126
Peut-être avez-vous déjà vu
un chien semblable auparavant,
00:58
or you've spentdépensé time
runningfonctionnement on a beachplage like this one,
15
46854
2969
ou que vous avez beaucoup couru
sur une plage comme celle-ci
01:01
and that furtherplus loin evokesévoque thoughtspensées
and memoriessouvenirs of a pastpassé vacationvacances,
16
49847
4778
et cela évoque d'autres pensées
et des souvenirs de vacances passées,
01:06
pastpassé timesfois to the beachplage,
17
54649
1920
des moments passés à la plage,
01:08
timesfois spentdépensé runningfonctionnement around
with other dogschiens.
18
56593
2603
des moments passés à courir
avec d'autres chiens.
01:11
One of my guidingguidage principlesdes principes
is that by helpingportion computersdes ordinateurs to understandcomprendre
19
59688
5207
Un de mes principes est d'aider
les ordinateurs à comprendre
01:16
what it's like to have these experiencesexpériences,
20
64919
2896
à quoi ressemblent de telles expériences,
01:19
to understandcomprendre what we sharepartager
and believe and feel,
21
67839
5176
pour leur faire comprendre ce que
nous partageons, croyons et ressentons.
01:26
then we're in a great positionposition
to startdébut evolvingévoluant computerordinateur technologyLa technologie
22
74094
4310
C'est ainsi qu'on pourra commencer à faire
évoluer la technologie informatique
01:30
in a way that's complementarycomplémentaire
with our ownposséder experiencesexpériences.
23
78428
4587
pour qu'elle soit complémentaire
de nos propres expériences.
01:35
So, diggingcreusement more deeplyprofondément into this,
24
83539
3387
Donc, pour approfondir ce sujet,
01:38
a fewpeu yearsannées agodepuis I begana commencé workingtravail on helpingportion
computersdes ordinateurs to generateGénérer human-likehumain storieshistoires
25
86950
5905
ces dernières années, j'ai aidé
les ordinateurs à créer des histoires
01:44
from sequencesséquences of imagesimages.
26
92879
1666
à partir de séquences d'images.
01:47
So, one day,
27
95427
1904
Un jour,
01:49
I was workingtravail with my computerordinateur to askdemander it
what it thought about a tripvoyage to AustraliaAustralie.
28
97355
4622
j'étais sur mon PC et je lui ai demandé
son avis sur un voyage en Australie.
01:54
It tooka pris a look at the picturesdes photos,
and it saw a koalaKoala.
29
102768
2920
Il a regardé les images,
et il a vu un koala.
01:58
It didn't know what the koalaKoala was,
30
106236
1643
Il ne savait pas ce que c'était,
01:59
but it said it thought
it was an interesting-lookingaspect intéressant creaturecréature.
31
107903
2999
mais, selon lui, cette créature
avait l'air intéressante.
02:04
Then I sharedpartagé with it a sequenceséquence of imagesimages
about a housemaison burningbrûlant down.
32
112053
4004
Puis, j'ai partagé avec lui une séquence
d'images d'une maison qui brûlait.
02:09
It tooka pris a look at the imagesimages and it said,
33
117704
3285
Il a regardé les images et il a dit :
02:13
"This is an amazingincroyable viewvue!
This is spectacularspectaculaire!"
34
121013
3500
« C'est une vue incroyable !
C'est spectaculaire ! »
02:17
It sentenvoyé chillsfrissons down my spinecolonne vertébrale.
35
125450
2095
Et ça m'a donné des frissons.
02:20
It saw a horriblehorrible, life-changingchange la vie
and life-destroyingdestructrice de vie eventun événement
36
128983
4572
Il a vu un événement horrible, qui peut
bouleverser et détruire une vie,
02:25
and thought it was something positivepositif.
37
133579
2382
et il pensait que c'était
une chose positive.
02:27
I realizedréalisé that it recognizedreconnu
the contrastcontraste,
38
135985
3441
J'ai compris qu'il discernait
le contraste,
02:31
the redsReds, the yellowsjaunes,
39
139450
2699
les rouges, les jaunes,
02:34
and thought it was something
worthvaut remarkingremarquant on positivelypositivement.
40
142173
3078
et il trouvait, sans mauvaise pensée,
que ça méritait d'être vu.
02:37
And partpartie of why it was doing this
41
145928
1615
S'il disait ça, c'était en partie
02:39
was because mostles plus
of the imagesimages I had givendonné it
42
147577
2945
parce que la plupart des images
que je lui avais apportées
02:42
were positivepositif imagesimages.
43
150546
1840
étaient des images positives.
02:44
That's because people
tendtendre to sharepartager positivepositif imagesimages
44
152903
3658
C'est parce que les gens ont tendance
à partager des images positives
02:48
when they talk about theirleur experiencesexpériences.
45
156585
2190
quand ils parlent de leurs expériences.
02:51
When was the last time
you saw a selfieselfie at a funeralfunérailles?
46
159267
2541
Se prend-on en portrait avec
son portable à un enterrement ?
02:55
I realizedréalisé that,
as I workedtravaillé on improvingaméliorer AIAI
47
163434
3095
J'ai compris que, pendant
que j'améliorais l'IA,
02:58
tasktâche by tasktâche, datasetDataSet by datasetDataSet,
48
166553
3714
fonction par fonction, jeu de données
par jeu de données,
03:02
that I was creatingcréer massivemassif gapslacunes,
49
170291
2897
je créais des lacunes massives,
03:05
holesdes trous and blindaveugle spotsspots
in what it could understandcomprendre.
50
173212
3999
des trous et des biais cognitifs
dans ce que l'IA pouvait comprendre.
03:10
And while doing so,
51
178307
1334
Et, en faisant cela,
03:11
I was encodingencodage all kindssortes of biasesbiais.
52
179665
2483
je codais toute sorte de préjugés.
03:15
BiasesBiais that reflectréfléchir a limitedlimité viewpointpoint de vue,
53
183029
3318
Des préjugés qui reflètent
un point de vue limité,
03:18
limitedlimité to a singleunique datasetDataSet --
54
186371
2261
limité à un seul jeu de données.
03:21
biasesbiais that can reflectréfléchir
humanHumain biasesbiais founda trouvé in the dataLes données,
55
189283
3858
Des partis pris qui reflètent des biais
humains, retrouvés dans les données,
03:25
suchtel as prejudicepréjudice and stereotypingles stéréotypes.
56
193165
3104
comme les préjugés et les stéréotypes.
03:29
I thought back to the evolutionévolution
of the technologyLa technologie
57
197554
3057
Je repensais à l'évolution technologique
03:32
that broughtapporté me to where I was that day --
58
200635
2502
qui m'a amenée là
où j'en suis aujourd'hui.
03:35
how the first colorCouleur imagesimages
59
203966
2233
Que les premières images en couleur
03:38
were calibratedcalibré againstcontre
a whiteblanc woman'sfemme skinpeau,
60
206223
3048
ont été calibrées sur la peau
d'une femme blanche,
03:41
meaningsens that colorCouleur photographyla photographie
was biasedbiaisé againstcontre blacknoir facesvisages.
61
209665
4145
les photographies en couleur étaient
donc biaisées pour les visages noirs.
03:46
And that sameMême biasbiais, that sameMême blindaveugle spotplace
62
214514
2925
Et ces mêmes préjugés,
ces mêmes biais cognitifs
03:49
continueda continué well into the '90s.
63
217463
1867
se sont poursuivis dans les années 90.
03:51
And the sameMême blindaveugle spotplace
continuescontinue even todayaujourd'hui
64
219701
3154
Ces biais cognitifs sont
encore là aujourd'hui
03:54
in how well we can recognizereconnaître
differentdifférent people'sles gens facesvisages
65
222879
3698
dans notre façon de reconnaître
les visages de gens différents
03:58
in facialsoin du visage recognitionreconnaissance technologyLa technologie.
66
226601
2200
grâce à la reconnaissance faciale.
04:01
I thoughbien que about the stateEtat of the artart
in researchrecherche todayaujourd'hui,
67
229323
3143
J'ai réfléchi à l'état de l'art
de la recherche actuelle,
04:04
where we tendtendre to limitlimite our thinkingen pensant
to one datasetDataSet and one problemproblème.
68
232490
4514
qui a tendance à limiter la réflexion à un
seul jeu de données et à un seul problème.
04:09
And that in doing so, we were creatingcréer
more blindaveugle spotsspots and biasesbiais
69
237688
4881
Ce faisant, on a créé encore plus
de biais cognitifs et de préjugés
04:14
that the AIAI could furtherplus loin amplifyamplifier.
70
242593
2277
que l'IA pourrait encore amplifier.
04:17
I realizedréalisé then
that we had to think deeplyprofondément
71
245712
2079
J'ai alors compris qu'il fallait imaginer
04:19
about how the technologyLa technologie we work on todayaujourd'hui
looksregards in fivecinq yearsannées, in 10 yearsannées.
72
247815
5519
le devenir de la technologie actuelle
dans cinq ou dix ans.
04:25
HumansÊtres humains evolveévoluer slowlylentement,
with time to correctcorrect for issuesproblèmes
73
253990
3142
L'être humain évolue lentement,
il prend le temps de corriger
04:29
in the interactioninteraction of humanshumains
and theirleur environmentenvironnement.
74
257156
3534
ses interactions avec son environnement.
04:33
In contrastcontraste, artificialartificiel intelligenceintelligence
is evolvingévoluant at an incrediblyincroyablement fastvite ratetaux.
75
261276
5429
En revanche, l'intelligence artificielle
évolue à un rythme incroyablement rapide.
04:39
And that meansveux dire that it really mattersimporte
76
267013
1773
Par conséquent, c'est important
04:40
that we think about this
carefullysoigneusement right now --
77
268810
2317
de réfléchir soigneusement
à ça dès maintenant –
04:44
that we reflectréfléchir on our ownposséder blindaveugle spotsspots,
78
272180
3008
à nos propres biais cognitifs,
04:47
our ownposséder biasesbiais,
79
275212
2317
nos préjugés,
04:49
and think about how that's informingdélation
the technologyLa technologie we're creatingcréer
80
277553
3857
et comment ils influencent
la technologie en création –
04:53
and discussdiscuter what the technologyLa technologie of todayaujourd'hui
will mean for tomorrowdemain.
81
281434
3902
et de discuter du sens
de la technologie pour le futur.
04:58
CEOsChefs d’entreprise and scientistsscientifiques have weighedpesé in
on what they think
82
286593
3191
Des PDG et des scientifiques
se sont prononcés
05:01
the artificialartificiel intelligenceintelligence technologyLa technologie
of the futureavenir will be.
83
289808
3325
sur le futur de l'intelligence
artificielle de demain.
05:05
StephenStephen HawkingHawking warnsmet en garde that
84
293157
1618
Stephen Hawking nous alerte :
05:06
"ArtificialArtificiel intelligenceintelligence
could endfin mankindhumanité."
85
294799
3007
« L'intelligence artificielle pourrait
détruire l'humanité. »
05:10
ElonElon MuskMusc warnsmet en garde
that it's an existentialexistentiel riskrisque
86
298307
2683
Elon Musk nous dit que
c'est un risque existentiel,
05:13
and one of the greatestplus grand risksrisques
that we facevisage as a civilizationcivilisation.
87
301014
3574
un des plus grands que
notre civilisation devra affronter.
05:17
BillProjet de loi GatesGates has madefabriqué the pointpoint,
88
305665
1452
Bill Gates a fait remarquer :
05:19
"I don't understandcomprendre
why people aren'tne sont pas more concernedconcerné."
89
307141
3185
« Je ne sais pas pourquoi les gens
ne sont pas plus inquiets. »
05:23
But these viewsvues --
90
311412
1318
Mais ces points de vue
05:25
they're partpartie of the storyrécit.
91
313618
1734
font partie d'une histoire.
05:28
The mathmath, the modelsdes modèles,
92
316079
2420
Les maths, les modèles,
05:30
the basicde base buildingbâtiment blocksblocs
of artificialartificiel intelligenceintelligence
93
318523
3070
les bases même
de l'intelligence artificielle
05:33
are something that we call accessaccès
and all work with.
94
321617
3135
sont des choses que nous pouvons
tous aborder et améliorer.
05:36
We have open-sourceOpen source toolsoutils
for machinemachine learningapprentissage and intelligenceintelligence
95
324776
3785
Il existe des logiciels libres
pour l'apprentissage automatique
05:40
that we can contributecontribuer to.
96
328585
1734
auxquels chacun peut contribuer.
05:42
And beyondau-delà that,
we can sharepartager our experienceexpérience.
97
330919
3340
Et au-delà de ça, nous pouvons
partager notre expérience,
05:46
We can sharepartager our experiencesexpériences
with technologyLa technologie and how it concernspréoccupations us
98
334760
3468
nos expériences avec la technologie,
comment elle nous touche
05:50
and how it excitesexcite us.
99
338252
1467
et nous passionne.
05:52
We can discussdiscuter what we love.
100
340251
1867
On peut parler de nos passions.
05:55
We can communicatecommuniquer with foresightprospective
101
343244
2031
On peut parler de nos hypothèses
05:57
about the aspectsaspects of technologyLa technologie
that could be more beneficialbénéfique
102
345299
4857
sur les aspects de la technologie
qui pourraient devenir plus utiles
06:02
or could be more problematicproblématique over time.
103
350180
2600
ou bien poser plus de problèmes
au fil du temps.
06:05
If we all focusconcentrer on openingouverture up
the discussiondiscussion on AIAI
104
353799
4143
Si on se met tous à ouvrir
une discussion sur l'IA,
06:09
with foresightprospective towardsvers the futureavenir,
105
357966
1809
avec un horizon de long terme,
06:13
this will help createcréer a generalgénéral
conversationconversation and awarenessconscience
106
361093
4270
on contribuera à créer un débat
et une prise de conscience générale
06:17
about what AIAI is now,
107
365387
2513
sur ce qu'est l'IA aujourd'hui,
06:21
what it can becomedevenir
108
369212
2001
ce qu'elle peut devenir
06:23
and all the things that we need to do
109
371237
1785
et tout ce qu'on doit faire
06:25
in ordercommande to enableactiver that outcomerésultat
that bestmeilleur suitsconvient à us.
110
373046
3753
pour arriver à atteindre
le meilleur résultat pour nous.
06:29
We alreadydéjà see and know this
in the technologyLa technologie that we use todayaujourd'hui.
111
377490
3674
C'est déjà le cas avec la technologie
qu'on utilise aujourd'hui.
06:33
We use smartintelligent phonesTéléphones
and digitalnumérique assistantsassistants and RoombasRoomba.
112
381767
3880
On utilise des téléphones, des assistants
personnels et des robots aspirateurs.
06:38
Are they evilmal?
113
386457
1150
Sont-ils nuisibles ?
06:40
Maybe sometimesparfois.
114
388268
1547
Parfois, peut-être.
06:42
Are they beneficialbénéfique?
115
390664
1333
Sont-ils utiles ?
06:45
Yes, they're that, too.
116
393005
1533
Oui, ils le sont aussi.
06:48
And they're not all the sameMême.
117
396236
1761
Et ils ne sont pas tous pareils.
06:50
And there you alreadydéjà see
a lightlumière shiningbrillant on what the futureavenir holdstient.
118
398489
3540
Et c'est là qu'on voit déjà
une lueur positive dans le futur.
06:54
The futureavenir continuescontinue on
from what we buildconstruire and createcréer right now.
119
402942
3619
Le futur avance grâce à tout ce
qu'on construit aujourd'hui.
06:59
We setensemble into motionmouvement that dominoDomino effecteffet
120
407165
2642
On a mis en mouvement l'effet domino
07:01
that carvesCarves out AI'sAmnesty International evolutionaryévolutionniste pathchemin.
121
409831
2600
qui construit l'évolution de l'IA.
07:05
In our time right now,
we shapeforme the AIAI of tomorrowdemain.
122
413173
2871
C'est aujourd'hui qu'on façonne
l'IA de demain.
07:08
TechnologyTechnologie that immersesplonge us
in augmentedaugmenté realitiesréalités
123
416566
3699
Une technologie qui nous immerge
dans les réalités augmentées,
07:12
bringingapportant to life pastpassé worldsmondes.
124
420289
2566
ramenant à la vie des mondes passés.
07:15
TechnologyTechnologie that helpsaide people
to sharepartager theirleur experiencesexpériences
125
423844
4312
Une technologie qui aide les gens
à partager leurs expériences
07:20
when they have difficultydifficulté communicatingcommunicant.
126
428180
2262
quand ils ont du mal à communiquer.
07:23
TechnologyTechnologie builtconstruit on understandingcompréhension
the streamingdiffusion visualvisuel worldsmondes
127
431323
4532
Une technologie basée sur la compréhension
des univers visuels en flux continu,
07:27
used as technologyLa technologie for self-drivingSelf-driving carsdes voitures.
128
435879
3079
qui fait fonctionner
les véhicules autonomes.
07:32
TechnologyTechnologie builtconstruit on understandingcompréhension imagesimages
and generatinggénérateur languagela langue,
129
440490
3413
Une technologique d'analyse d'images
et de création de langages,
07:35
evolvingévoluant into technologyLa technologie that helpsaide people
who are visuallyvisuellement impairedaltéré
130
443927
4063
qui évolue en une technologie
pour aider les troubles de la vue,
07:40
be better ablecapable to accessaccès the visualvisuel worldmonde.
131
448014
2800
afin de pouvoir mieux
accéder au monde visuel.
07:42
And we alsoaussi see how technologyLa technologie
can leadconduire to problemsproblèmes.
132
450838
3261
On voit aussi comment
la technologie peut créer des problèmes.
07:46
We have technologyLa technologie todayaujourd'hui
133
454885
1428
On est maintenant
07:48
that analyzesanalyses physicalphysique
characteristicscaractéristiques we're bornnée with --
134
456337
3835
capables d’analyser les
caractéristiques physiques innées,
07:52
suchtel as the colorCouleur of our skinpeau
or the look of our facevisage --
135
460196
3272
comme la couleur de notre peau
ou l'apparence du visage,
07:55
in ordercommande to determinedéterminer whetherqu'il s'agisse or not
we mightpourrait be criminalscriminels or terroristsles terroristes.
136
463492
3804
pour déterminer nos probabilités
de devenir un criminel ou un terroriste.
07:59
We have technologyLa technologie
that crunchescroque throughpar our dataLes données,
137
467688
2905
On a des logiciels capables
de traiter toutes les données
08:02
even dataLes données relatingrelatif
to our genderle genre or our racecourse,
138
470617
2896
même celles concernant notre genre
ou notre couleur de peau,
08:05
in ordercommande to determinedéterminer whetherqu'il s'agisse or not
we mightpourrait get a loanprêt.
139
473537
2865
afin de déterminer si on peut
ou non contracter un crédit.
08:09
All that we see now
140
477494
1579
Tout ce qu'on voit
08:11
is a snapshotinstantané in the evolutionévolution
of artificialartificiel intelligenceintelligence.
141
479097
3617
n'est qu'un aperçu de l'évolution
de l'intelligence artificielle.
08:15
Because where we are right now,
142
483763
1778
Parce que nous sommes maintenant
08:17
is withindans a momentmoment of that evolutionévolution.
143
485565
2238
à un stade précis de cette évolution.
08:20
That meansveux dire that what we do now
will affectaffecter what happensarrive down the lineligne
144
488690
3802
C'est-à-dire que ce qu'on fait maintenant
aura des répercussions par la suite
08:24
and in the futureavenir.
145
492516
1200
et dans le futur.
08:26
If we want AIAI to evolveévoluer
in a way that helpsaide humanshumains,
146
494063
3951
Si on veut que l'IA évolue
pour aider l'humanité,
08:30
then we need to definedéfinir
the goalsbuts and strategiesstratégies
147
498038
2801
on doit définir des objectifs
et des stratégies
08:32
that enableactiver that pathchemin now.
148
500863
1733
pour tracer aujourd'hui cette voie.
08:35
What I'd like to see is something
that fitsconvient well with humanshumains,
149
503680
3738
Je voudrais voir une IA
qui cohabite avec nous, les humains,
08:39
with our cultureCulture and with the environmentenvironnement.
150
507442
2800
avec nos cultures et notre environnement.
08:43
TechnologyTechnologie that aidssida and assistsaide
those of us with neurologicalneurologique conditionsconditions
151
511435
4484
Une technologie qui vient en aide à ceux
qui ont des problèmes neurologiques
08:47
or other disabilitiesdéficience
152
515943
1721
ou tout autre handicap
08:49
in ordercommande to make life
equallyégalement challengingdifficile for everyonetoutes les personnes.
153
517688
3216
afin de garantir l'égalité des chances
dans la vie pour tous.
08:54
TechnologyTechnologie that workstravaux
154
522097
1421
Une technologie fonctionnant
08:55
regardlessindépendamment of your demographicsdémographie
or the colorCouleur of your skinpeau.
155
523542
3933
quel que soit votre statut démographique
ou votre couleur de peau.
09:00
And so todayaujourd'hui, what I focusconcentrer on
is the technologyLa technologie for tomorrowdemain
156
528383
4742
Aujourd'hui, je me focalise donc
sur la technologie de demain,
09:05
and for 10 yearsannées from now.
157
533149
1733
pour les dix ans à venir.
09:08
AIAI can turntour out in manybeaucoup differentdifférent waysfaçons.
158
536530
2634
L'IA peut devenir plein
de choses différentes.
09:11
But in this caseCas,
159
539688
1225
Mais dans ce cas,
09:12
it isn't a self-drivingSelf-driving carvoiture
withoutsans pour autant any destinationdestination.
160
540937
3328
ce ne sera pas un véhicule autonome
sans destination.
09:16
This is the carvoiture that we are drivingau volant.
161
544884
2400
Ce sera une voiture qu'on pilote.
09:19
We choosechoisir when to speedla vitesse up
and when to slowlent down.
162
547953
3595
On choisira quand accélérer
et quand ralentir.
09:23
We choosechoisir if we need to make a turntour.
163
551572
2400
On décidera de faire un virage ou non.
09:26
We choosechoisir what the AIAI
of the futureavenir will be.
164
554868
3000
On sélectionnera ce à quoi
ressemblera l'IA dans le futur.
09:31
There's a vastvaste playingen jouant fieldchamp
165
559186
1337
Il y a beaucoup de choses
09:32
of all the things that artificialartificiel
intelligenceintelligence can becomedevenir.
166
560547
2965
que l'intelligence artificielle
peut devenir.
09:36
It will becomedevenir manybeaucoup things.
167
564064
1800
Elle a un énorme potentiel.
09:39
And it's up to us now,
168
567694
1732
Et c'est à nous, aujourd'hui,
09:41
in ordercommande to figurefigure out
what we need to put in placeendroit
169
569450
3061
de trouver ce qu'on doit
mettre en place
09:44
to make sure the outcomesrésultats
of artificialartificiel intelligenceintelligence
170
572535
3807
pour s'assurer que les effets
de l'intelligence artificielle
09:48
are the onesceux that will be
better for all of us.
171
576366
3066
soient bénéfiques pour nous tous.
09:51
Thank you.
172
579456
1150
Merci.
09:52
(ApplauseApplaudissements)
173
580630
2187
(Applaudissements)
Translated by Benjamin Tchassama-Lacroix
Reviewed by Jules Daunay

▲Back to top

ABOUT THE SPEAKER
Margaret Mitchell - AI research scientist
Margaret Mitchell is a senior research scientist in Google's Research & Machine Intelligence group, working on artificial intelligence.

Why you should listen

Margaret Mitchell's research involves vision-language and grounded language generation, focusing on how to evolve artificial intelligence towards positive goals. Her work combines computer vision, natural language processing, social media as well as many statistical methods and insights from cognitive science. Before Google, Mitchell was a founding member of Microsoft Research's "Cognition" group, focused on advancing artificial intelligence, and a researcher in Microsoft Research's Natural Language Processing group.

More profile about the speaker
Margaret Mitchell | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee