ABOUT THE SPEAKER
Rodney Brooks - Roboticist
Rodney Brooks builds robots based on biological principles of movement and reasoning. The goal: a robot who can figure things out.

Why you should listen

Former MIT professor Rodney Brooks studies and engineers robot intelligence, looking for the holy grail of robotics: the AGI, or artificial general intelligence. For decades, we've been building robots to do highly specific tasks -- welding, riveting, delivering interoffice mail -- but what we all want, really, is a robot that can figure things out on its own, the way we humans do.

Brooks realized that a top-down approach -- just building the biggest brain possible and teaching it everything we could think of -- would never work. What would work is a robot who learns like we do, by trial and error, and with many separate parts that learn separate jobs. The thesis of his work which was captured in Fast, Cheap and Out of Control,went on to become the title of the great Errol Morris documentary.

A founder of iRobot, makers of the Roomba vacuum, Brooks is now founder and CTO of Rethink Robotics, whose mission is to apply advanced robotic intelligence to manufacturing and physical labor. Its first robots: the versatile two-armed Baxter and one-armed Sawyer. Brooks is the former director of CSAIL, MIT's Computers Science and Artificial Intelligence Laboratory.

 
More profile about the speaker
Rodney Brooks | Speaker | TED.com
TED2003

Rodney Brooks: Robots will invade our lives

Rodney Brooks dit que les robots vont envahir nos vies

Filmed:
689,918 views

Dans ce discours prophétique de 2003, le chercheur en robotique Rodney Brooks nous raconte comment les robots envahiront nos vies -- en commençant par les jouets puis les tâches ménagères ... et au delà.
- Roboticist
Rodney Brooks builds robots based on biological principles of movement and reasoning. The goal: a robot who can figure things out. Full bio

Double-click the English transcript below to play the video.

00:18
What I want to tell you about todayaujourd'hui is how I see robotsdes robots invadingenvahissant our livesvies
0
0
5000
Ce dont je veux vous parler aujourd'hui, c'est de la façon dont les robots envahissent nos vies
00:23
at multipleplusieurs levelsles niveaux, over multipleplusieurs timescaleséchelles de temps.
1
5000
3000
à plusieurs niveaux, et sur différentes échelles de temps.
00:26
And when I look out in the futureavenir, I can't imagineimaginer a worldmonde, 500 yearsannées from now,
2
8000
4000
Et quand j'imagine le futur, je ne peux imaginer un monde, dans 500 ans,
00:30
where we don't have robotsdes robots everywherepartout.
3
12000
2000
où les robots ne seraient pas omniprésents,
00:32
AssumingEn supposant que -- despitemalgré all the direterribles predictionsprédictions from manybeaucoup people about our futureavenir --
4
14000
5000
en supposant -- malgré toutes les prédictions pessimistes de beaucoup de gens sur notre avenir --
00:37
assumingen supposant we're still around, I can't imagineimaginer the worldmonde not beingétant populatedpeuplé with robotsdes robots.
5
19000
4000
en supposant que nous soyons toujours là, je n'imagine pas que le monde ne soit pas peuplé de robots.
00:41
And then the questionquestion is, well, if they're going to be here in 500 yearsannées,
6
23000
3000
Alors la question est, s'ils sont partout dans 500 ans,
00:44
are they going to be everywherepartout soonerplus tôt than that?
7
26000
2000
ne le seront-ils pas déjà avant?
00:46
Are they going to be around in 50 yearsannées?
8
28000
2000
Seront-ils là dans 50 ans?
00:48
Yeah, I think that's prettyjoli likelyprobable -- there's going to be lots of robotsdes robots everywherepartout.
9
30000
3000
Oui, je pense que c'est possible -- Il va y avoir beaucoup de robots autour de nous.
00:51
And in factfait I think that's going to be a lot soonerplus tôt than that.
10
33000
3000
Et en fait, je pense que ce sera même plus tôt que ça.
00:54
I think we're sortTrier of on the cuspcuspide of robotsdes robots becomingdevenir commoncommun,
11
36000
4000
Je pense que nous en sommes au point où les robots sont devenus communs,
00:58
and I think we're sortTrier of around 1978 or 1980 in personalpersonnel computerordinateur yearsannées,
12
40000
6000
et je pense que nous y sommes depuis les années 1978 ou 1980 soit depuis les ordinateurs personnels,
01:04
where the first fewpeu robotsdes robots are startingdépart to appearapparaître.
13
46000
3000
lorsque les premiers robots sont apparus.
01:07
ComputersOrdinateurs sortTrier of camevenu around throughpar gamesJeux and toysjouets.
14
49000
4000
D'une certaine manière, les ordinateurs sont apparus par le biais des jeux et des jouets.
01:11
And you know, the first computerordinateur mostles plus people had in the housemaison
15
53000
3000
Et comme vous le savez, le premier ordinateur que la plupart des gens avaient à la maison
01:14
maymai have been a computerordinateur to playjouer PongPong,
16
56000
2000
devait être un ordinateur pour jouer à Pong,
01:16
a little microprocessormicroprocesseur embeddedintégré,
17
58000
2000
un petit microprocesseur embarqué,
01:18
and then other gamesJeux that camevenu after that.
18
60000
3000
comme pour tous les jeux qui sont venus après ça.
01:21
And we're startingdépart to see that sameMême sortTrier of thing with robotsdes robots:
19
63000
3000
Et nous commençons à observer la même chose avec les robots:
01:24
LEGOLEGO MindstormsMindstorms, FurbiesFurbies -- who here -- did anyonen'importe qui here have a FurbyFurby?
20
66000
4000
LEHO Mindstorms, Furbies -- qui ici -- est-ce que quelqu'un a un Furby?
01:28
Yeah, there's 38 millionmillion of them soldvendu worldwideà l'échelle mondiale.
21
70000
3000
Oui, il s'en est vendu 38 millions à travers le monde.
01:31
They are prettyjoli commoncommun. And they're a little tinyminuscule robotrobot,
22
73000
2000
Ils sont très courants, en fait c'est un miniscule petit robot,
01:33
a simplesimple robotrobot with some sensorscapteurs,
23
75000
2000
un simple robot avec des capteurs.
01:35
a little bitbit of processingEn traitement actuationactionnement.
24
77000
2000
C'est une sorte de processus d'actionnement.
01:37
On the right there is anotherun autre robotrobot dollpoupée, who you could get a couplecouple of yearsannées agodepuis.
25
79000
3000
Sur la droite c'est un autre robot poupée, que vous pouviez vous procurer il y a quelques années.
01:40
And just as in the earlyde bonne heure daysjournées,
26
82000
2000
Et comme aux premiers jours,
01:42
when there was a lot of sortTrier of amateuramateur interactioninteraction over computersdes ordinateurs,
27
84000
5000
lorsqu'il il y avait de nombreuses sortes d'interactions d'amateurs sur les ordinateurs,
01:47
you can now get variousdivers hackingle piratage kitskits de, how-to-hackHow-to-hack bookslivres.
28
89000
4000
vous pouvez maintenant obtenir différents kits et livres pour les personnaliser.
01:51
And on the left there is a platformPlate-forme from EvolutionEvolution RoboticsRobotique,
29
93000
4000
Et sur la gauche, il y a une plateforme de Evolution Robotics,
01:55
where you put a PCPC on, and you programprogramme this thing with a GUIGUI
30
97000
3000
où vous déposez un PC, et vous programmez cette chose avec un GUI
01:58
to wanderse promener around your housemaison and do variousdivers stuffdes trucs.
31
100000
3000
pour qu'elle se déplace dans votre maison et réalise différentes tâches.
02:01
And then there's a higherplus haute priceprix pointpoint sortTrier of robotrobot toysjouets --
32
103000
3000
Puis il y a plus cher, un genre de robots jouets --
02:04
the SonySony AiboAIBO. And on the right there, is one that the NECNEC developeddéveloppé,
33
106000
4000
Le Aibo Sony. Et là sur la droite, en voilà un développé par NEC,
02:08
the PaPeRoPaPeRo, whichlequel I don't think they're going to releaseLibération.
34
110000
3000
le PaPeRo, mais je ne pense pas qu'ils vont le lancer sur le marché.
02:11
But neverthelessNéanmoins, those sortssortes of things are out there.
35
113000
3000
Mais néanmoins, ce genre d'objets existe.
02:14
And we'venous avons seenvu, over the last two or threeTrois yearsannées, lawn-mowingtonte de la pelouse robotsdes robots,
36
116000
4000
Et ces derniers 2 ou 3 ans, nous avons vu des robots tondeurs de gazon,
02:18
HusqvarnaHusqvarna on the bottombas, FriendlyAmicale RoboticsRobotique on topHaut there, an IsraeliIsraélien companycompagnie.
37
120000
6000
Husqvarna en bas, Friendly Robotics en haut, une entreprise Israëlienne.
02:24
And then in the last 12 monthsmois or so
38
126000
2000
Puis ces 12 derniers mois environ
02:26
we'venous avons startedcommencé to see a bunchbouquet of home-cleaningAccueil-nettoyage robotsdes robots appearapparaître.
39
128000
4000
nous avons vu apparaitre plusieurs robots de nettoyage domestique.
02:30
The topHaut left one is a very niceagréable home-cleaningAccueil-nettoyage robotrobot
40
132000
3000
En haut à gauche c'est un très joli robot de ménage d'intérieur
02:33
from a companycompagnie calledappelé DysonDyson, in the U.K. ExceptSauf it was so expensivecoûteux --
41
135000
4000
d'une entreprise appellé Dyson, au Royaume-Uni. Sauf qu'il était si cher --
02:37
3,500 dollarsdollars -- they didn't releaseLibération it.
42
139000
2000
3 500 dollars -- qu'ils ne l'ont pas lancé sur le marché.
02:39
But at the bottombas left, you see ElectroluxElectrolux, whichlequel is on salevente.
43
141000
3000
Mais en bas à gauche vous voyez Electrolux, qui est en vente.
02:42
AnotherUn autre one from KarcherKarcher.
44
144000
2000
Un autre de Karcher.
02:44
At the bottombas right is one that I builtconstruit in my lablaboratoire
45
146000
2000
En bas à droite c'en est un que j'ai construit dans mon labo
02:46
about 10 yearsannées agodepuis, and we finallyenfin turnedtourné that into a productproduit.
46
148000
3000
il y a 10 ans, et nous l'avons finalement produit.
02:49
And let me just showmontrer you that.
47
151000
2000
Et laissez moi juste vous montrer cela.
02:51
We're going to give this away I think, ChrisChris said, after the talk.
48
153000
4000
Nous allons le distribuer, je pense que Chris l'a dit, après la présentation.
02:55
This is a robotrobot that you can go out and buyacheter, and that will cleannettoyer up your floorsol.
49
157000
6000
Voici un robot que vous pouvez vous procurer vous-même, et il nettoiera vos sols.
03:05
And it startsdéparts off sortTrier of just going around in ever-increasingtoujours croissant circlescercles.
50
167000
5000
Et il commence par tourner en faisant des cercles de plus en plus larges.
03:10
If it hitsles coups something -- you people see that?
51
172000
4000
Si il heurte quelque chose -- vous voyez ça ?
03:14
Now it's doing wall-followingmur-suite, it's followingSuivant around my feetpieds
52
176000
3000
Maintenant il commence à suivre le mur, il fait le tour de mes pieds
03:17
to cleannettoyer up around me. Let's see, let's --
53
179000
4000
pour nettoyer. Voyons voir --
03:21
oh, who stolea volé my RiceRiz KrispiesKrispies? They stolea volé my RiceRiz KrispiesKrispies!
54
183000
5000
oh, qui a volé volé mes céréales ?. Ils ont volé mes céréales
03:26
(LaughterRires)
55
188000
6000
(Rires)
03:32
Don't worryinquiéter, relaxse détendre, no, relaxse détendre, it's a robotrobot, it's smartintelligent!
56
194000
3000
Pas d'inquiétude, détendez-vous, non, détendez-vous, il est intelligent.
03:35
(LaughterRires)
57
197000
3000
(Rires)
03:38
See, the three-year-oldtrois ans kidsdes gamins, they don't worryinquiéter about it.
58
200000
4000
Voyez, les enfants de 3 ans, ils ne préoccupent pas.
03:42
It's grown-upsadultes that get really upsetdérangé.
59
204000
2000
Ce sont les adultes qui se mettent en colère.
03:44
(LaughterRires)
60
206000
1000
(Rires)
03:45
We'llNous allons just put some crapmerde here.
61
207000
2000
On va juste mettre un peu de bordel ici.
03:47
(LaughterRires)
62
209000
4000
(Rires)
03:51
Okay.
63
213000
2000
D'accord.
03:53
(LaughterRires)
64
215000
4000
(Rires)
03:57
I don't know if you see -- so, I put a bunchbouquet of RiceRiz KrispiesKrispies there,
65
219000
3000
Je ne sais pas si vous voyez -- alors, je mets un peu de céréales ici,
04:00
I put some penniesquelques centimes, let's just shoottirer it at that, see if it cleansnettoie up.
66
222000
7000
Je mets des centimes, voyons s'il va nettoyer.
04:10
Yeah, OK. So --
67
232000
2000
Oui, d'accord. Alors --
04:12
we'llbien leavelaisser that for laterplus tard.
68
234000
4000
nous allons laisser ça pour plus tard.
04:16
(ApplauseApplaudissements)
69
238000
5000
(Applaudissements)
04:22
PartPartie of the tricktour was buildingbâtiment a better cleaningnettoyage mechanismmécanisme, actuallyréellement;
70
244000
4000
Le truc c'était en partie de construire un meilleur mécanisme de nettoyage en fait ;
04:26
the intelligenceintelligence on boardplanche was fairlyéquitablement simplesimple.
71
248000
4000
l'intelligence à l'intérieur était assez simple.
04:30
And that's truevrai with a lot of robotsdes robots.
72
252000
2000
Et c'est vrai pour de nombreux robots.
04:32
We'veNous avons all, I think, becomedevenir, sortTrier of computationalcalcul chauvinistschauvins,
73
254000
4000
Nous sommes tous devenus des programmateurs chauvins, je pense
04:36
and think that computationcalcul is everything,
74
258000
2000
et nous pensons que la programmation fait tout,
04:38
but the mechanicsmécanique still mattermatière.
75
260000
2000
mais la mécanique reste encore importante.
04:40
Here'sVoici anotherun autre robotrobot, the PackBotPackBot,
76
262000
3000
Voilà un autre robot, le PackBot,
04:43
that we'venous avons been buildingbâtiment for a bunchbouquet of yearsannées.
77
265000
2000
que nous avons construit il y a quelques années.
04:45
It's a militarymilitaire surveillancesurveillance robotrobot, to go in aheaddevant of troopstroupes --
78
267000
6000
C'est un robot de surveillance militaire, pour guider les troupes,
04:51
looking at cavescavernes, for instanceexemple.
79
273000
3000
regarder dans les grottes, par exemple.
04:54
But we had to make it fairlyéquitablement robustrobuste,
80
276000
2000
Mais nous devions le faire très résistant,
04:56
much more robustrobuste than the robotsdes robots we buildconstruire in our labslaboratoires.
81
278000
7000
beaucoup plus résistant que les robots que nous construisions dans nos labos.
05:03
(LaughterRires)
82
285000
3000
(Rires)
05:12
On boardplanche that robotrobot is a PCPC runningfonctionnement LinuxLinux.
83
294000
4000
A l'intérieur, ce robot est un PC sous Linux.
05:16
It can withstandrésister a 400G shockchoc. The robotrobot has locallocal intelligenceintelligence:
84
298000
6000
Il peut résister à un choc de 400G. Le robot bénéficie d'une intelligence locale:
05:22
it can flipflip itselfse over, can get itselfse into communicationla communication rangegamme,
85
304000
6000
il peut se retourner, il peut se mettre à portée de communication,
05:28
can go upstairsa l’étage by itselfse, etet ceteraPeter Cetera.
86
310000
3000
il peut monter des marches tout seul, et cetera.
05:38
Okay, so it's doing locallocal navigationnavigation there.
87
320000
4000
D'accord, alors il navigue localement.
05:42
A soldiersoldat givesdonne it a commandcommander to go upstairsa l’étage, and it does.
88
324000
6000
Un soldat lui donne l'ordre d'aller en haut, et il s'exécute.
05:49
That was not a controlledcontrôlé descentdescente.
89
331000
3000
Ce n'était pas une descente contrôlée.
05:52
(LaughterRires)
90
334000
2000
(Rires)
05:54
Now it's going to headtête off.
91
336000
2000
Maintenant, il va partir.
05:56
And the biggros breakthroughpercée for these robotsdes robots, really, was SeptemberSeptembre 11thth.
92
338000
5000
Et la grande perçée pour ces robots, s'est vraiment produite le 11 septembre.
06:01
We had the robotsdes robots down at the WorldMonde TradeCommerce CenterCentre lateen retard that eveningsoir.
93
343000
4000
Nous avions ces robots au pied du World Trade Center tard ce soir là.
06:06
Couldn'tNe pouvait pas do a lot in the mainprincipale rubbledécombres pilepile,
94
348000
2000
Ils ne pouvaient pas faire grand chose dans cette pile de gravats,
06:08
things were just too -- there was nothing left to do.
95
350000
3000
c'était trop pour eux -- il n'y avait plus rien à faire.
06:11
But we did go into all the surroundingalentours buildingsbâtiments that had been evacuatedévacué,
96
353000
5000
Mais nous avons pu aller dans tous les immeubles aux alentours qui avaient été évacués,
06:16
and searchedcherché for possiblepossible survivorssurvivants in the buildingsbâtiments
97
358000
3000
et chercher d'éventuels rescapés dans les immeubles
06:19
that were too dangerousdangereux to go into.
98
361000
2000
dont l'accès était trop dangereux.
06:21
Let's runcourir this videovidéo.
99
363000
2000
Regardons la vidéo.
06:23
ReporterReporter: ...battlefieldchamp de bataille companionscompagnons are helpingportion to reduceréduire the combatcombat risksrisques.
100
365000
3000
Journaliste: ...Nos compagnons sur le champs de bataille nous aident à réduire les risques au combat.
06:26
NickNick RobertsonRobertson has that storyrécit.
101
368000
3000
Nick Robertson connaît cette histoire.
06:31
RodneyRodney BrooksBrooks: Can we have anotherun autre one of these?
102
373000
2000
Rodney Brooks: Est-ce qu'on pourrait en avoir une autre?
06:38
Okay, good.
103
380000
2000
D'accord, entendu.
06:43
So, this is a corporalCaporal who had seenvu a robotrobot two weekssemaines previouslyprécédemment.
104
385000
3000
Alors, c'est un caporal qui avait vu un robot deux semaines auparavant.
06:48
He's sendingenvoi robotsdes robots into cavescavernes, looking at what's going on.
105
390000
4000
Il envoie des robots dans des grottes, pour voir ce qui se passe.
06:52
The robot'sdu robot beingétant totallytotalement autonomousautonome.
106
394000
2000
Le robot fait preuve de l'autonomie la plus totale.
06:54
The worstpire thing that's happenedarrivé in the caveCave so farloin
107
396000
4000
La pire chose qui est arrivée dans la grotte jusqu'ici
06:58
was one of the robotsdes robots fellest tombée down tenDix metersmètres.
108
400000
3000
était qu'un des robots a fait une chute de dix mètres.
07:08
So one yearan agodepuis, the US militarymilitaire didn't have these robotsdes robots.
109
410000
3000
Alors il y a un an, l'armée américaine n'avait pas ces robots.
07:11
Now they're on activeactif dutydevoir in AfghanistanAfghanistan everychaque day.
110
413000
2000
Aujourd'hui ils sont en service en Afghanistan tous les jours.
07:13
And that's one of the reasonsles raisons they say a robotrobot invasioninvasion is happeningévénement.
111
415000
3000
Et c'est l'une des raisons qui fait dire qu'une invasion de robots est en marche.
07:16
There's a seamer changechangement happeningévénement in how -- where technology'sla technologie going.
112
418000
4000
Il y a une transformation radicale de l'évolution de la technologie.
07:20
ThanksMerci.
113
422000
2000
Merci.
07:23
And over the nextprochain couplecouple of monthsmois,
114
425000
2000
Et au cours des tout prochains mois,
07:25
we're going to be sendingenvoi robotsdes robots in productionproduction
115
427000
3000
nous allons lancer la production de robots
07:28
down producingproduisant oilpétrole wellspuits to get that last fewpeu yearsannées of oilpétrole out of the groundsol.
116
430000
4000
qui descendront dans les puits de pétrole en exploitation pour en tirer les dernières années de pétrole.
07:32
Very hostilehostile environmentsenvironnements, 150˚ C, 10,000 PSILB/PO2.
117
434000
4000
Un environnement très hostile, 150 degrés, 10,000 PSI.
07:36
AutonomousAutonome robotsdes robots going down, doing this sortTrier of work.
118
438000
4000
Des robots autonomes qui descendent faire ce genre de boulot.
07:40
But robotsdes robots like this, they're a little harddifficile to programprogramme.
119
442000
3000
Mais de tels robots sont un peu difficiles à programmer.
07:43
How, in the futureavenir, are we going to programprogramme our robotsdes robots
120
445000
2000
Comment, dans le futur, allons-nous programmer nos robots
07:45
and make them easierPlus facile to use?
121
447000
2000
pour les rendre plus faciles d'usage?
07:47
And I want to actuallyréellement use a robotrobot here --
122
449000
3000
Et en fait je voudrais utiliser un robot ici --
07:50
a robotrobot namednommé ChrisChris -- standsupporter up. Yeah. Okay.
123
452000
5000
un robot nommé Chris -- debout. Oui. Bien.
07:57
Come over here. Now noticeremarquer, he thinkspense robotsdes robots have to be a bitbit stiffrigide.
124
459000
4000
Viens par ici. Maintenant regardez, il pense que les robots sont forcément un peu raide.
08:01
He sortTrier of does that. But I'm going to --
125
463000
3000
Il l'est en quelques sortes. Mais je vais --
08:04
ChrisChris AndersonAnderson: I'm just BritishBritannique. RBRB: Oh.
126
466000
2000
Chris Anderson: Je suis simplement Anglais. RB: Oh.
08:06
(LaughterRires)
127
468000
2000
(Rires)
08:08
(ApplauseApplaudissements)
128
470000
2000
(Applaudissements)
08:10
I'm going to showmontrer this robotrobot a tasktâche. It's a very complexcomplexe tasktâche.
129
472000
3000
Je vais montrer une tâche à ce robot. C'est une tâche très complexe.
08:13
Now noticeremarquer, he noddedhocha la tête there, he was givingdonnant me some indicationindication
130
475000
3000
Maintenant regardez, il a fait un signe de la tête, il me donnait des indications
08:16
he was understandingcompréhension the flowcouler of communicationla communication.
131
478000
3000
il comprenait le flot de la communication.
08:19
And if I'd said something completelycomplètement bizarrebizarre
132
481000
2000
Et si j'avais dit quelque chose de complétement bizarre
08:21
he would have lookedregardé askancedésapprobateur at me, and regulatedréglementé the conversationconversation.
133
483000
3000
il m'aurait regarder avec méfiance, et aurait régulé la conversation.
08:24
So now I broughtapporté this up in frontde face of him.
134
486000
3000
Alors maintenant, j'ai mis cela en face de lui.
08:27
I'd lookedregardé at his eyesles yeux, and I saw his eyesles yeux lookedregardé at this bottlebouteille topHaut.
135
489000
4000
J'ai regardé ses yeux, et j'ai vu ses yeux regarder en haut de cette bouteille.
08:31
And I'm doing this tasktâche here, and he's checkingvérification up.
136
493000
2000
Et je suis en train de réaliser cette tâche juste là, et il vérifie.
08:33
His eyesles yeux are going back and forthavant up to me, to see what I'm looking at --
137
495000
3000
Ses yeux font des aller-retour, m'épiant pour voir ce que je regarde,
08:36
so we'venous avons got sharedpartagé attentionattention.
138
498000
2000
donc nous partageons de l'attention.
08:38
And so I do this tasktâche, and he looksregards, and he looksregards to me
139
500000
3000
Et alors je réalise cette tâche, et il regarde, et il me regarde
08:41
to see what's happeningévénement nextprochain. And now I'll give him the bottlebouteille,
140
503000
4000
pour voir ce qui va se passer après. Et maintenant je vais lui donner la bouteille,
08:45
and we'llbien see if he can do the tasktâche. Can you do that?
141
507000
2000
et nous allons voir comment il exécute la tâche. Peux-tu faire ça?
08:47
(LaughterRires)
142
509000
3000
(Rires)
08:50
Okay. He's prettyjoli good. Yeah. Good, good, good.
143
512000
4000
D'accord. Il est plutôt bon. Oui. Bien, bien, bien.
08:54
I didn't showmontrer you how to do that.
144
516000
2000
Je ne t'ai pas montré comment faire ça.
08:56
Now see if you can put it back togetherensemble.
145
518000
2000
Maintenant regarde si tu peux tout mettre ensemble.
08:58
(LaughterRires)
146
520000
2000
(Rires)
09:00
And he thinkspense a robotrobot has to be really slowlent.
147
522000
1000
Et il pense qu'un robot doit obligatoirement être lent.
09:01
Good robotrobot, that's good.
148
523000
2000
Bon robot, c'est bien.
09:03
So we saw a bunchbouquet of things there.
149
525000
2000
Alors on a vu pas mal de choses ici.
09:06
We saw when we're interactinginteragir,
150
528000
3000
Nous avons vu que quand nous intéragissons,
09:09
we're tryingen essayant to showmontrer someoneQuelqu'un how to do something, we directdirect theirleur visualvisuel attentionattention.
151
531000
4000
nous essayons de montrer à quelqu'un comment faire quelque chose, nous dirigeons leur attention visuelle.
09:13
The other thing communicatescommunique theirleur internalinterne stateEtat to us,
152
535000
4000
L'autre chose nous communique son état interne,
09:17
whetherqu'il s'agisse he's understandingcompréhension or not, regulatesrégule a socialsocial interactioninteraction.
153
539000
3000
si il comprend ou non, il régule l'intéraction sociale.
09:20
There was sharedpartagé attentionattention looking at the sameMême sortTrier of thing,
154
542000
2000
Il y avait du partage d'attention lorsque l'on regardait le même genre de choses,
09:22
and recognizingreconnaissant sociallysocialement communicatedcommuniqué reinforcementrenfort at the endfin.
155
544000
4000
et à la fin la reconnaissance d'un renforcement socialement communiqué.
09:26
And we'venous avons been tryingen essayant to put that into our lablaboratoire robotsdes robots
156
548000
3000
Et nous avons essayé d'intégrer ça dans nos robots de laboratoire
09:29
because we think this is how you're going to want to interactinteragir with robotsdes robots in the futureavenir.
157
551000
4000
parce que nous pensons que c'est ainsi que nous voulons interagir avec les robots dans le futur.
09:33
I just want to showmontrer you one technicaltechnique diagramdiagramme here.
158
555000
2000
J'aimerais seulement vous montrer un diagramme technique.
09:35
The mostles plus importantimportant thing for buildingbâtiment a robotrobot that you can interactinteragir with sociallysocialement
159
557000
4000
Le plus important pour construire un robot avec lequel vous pouvez interagir socialement
09:39
is its visualvisuel attentionattention systemsystème.
160
561000
2000
est son système d'attention visuelle.
09:41
Because what it payspaie attentionattention to is what it's seeingvoyant
161
563000
3000
Parce qu'il prête attention à ce qu'il voit et
09:44
and interactinginteragir with, and what you're understandingcompréhension what it's doing.
162
566000
3000
à ce avec quoi il interagit, et à ce que vous comprenez qu'il fait.
09:47
So in the videosvidéos I'm about to showmontrer you,
163
569000
3000
Alors dans les vidéos que je suis sur le point de vous montrer,
09:50
you're going to see a visualvisuel attentionattention systemsystème on a robotrobot
164
572000
4000
vous allez voir un système d'attention visuelle sur un robot
09:54
whichlequel has -- it looksregards for skinpeau toneTon in HSVHSV spaceespace,
165
576000
4000
qui a -- il regarde les tons de couleur dans l'espace colorimétrique TSV,
09:58
so it workstravaux acrossà travers all humanHumain coloringsColoriages.
166
580000
4000
alors il passe en revue tout ça, vous savez, les colorants humains.
10:02
It looksregards for highlytrès saturatedsaturé colorscouleurs, from toysjouets.
167
584000
2000
Il recherche les couleurs à haute saturation, venant des jouets.
10:04
And it looksregards for things that movebouge toi around.
168
586000
2000
Et il recherche des choses qui bougent.
10:06
And it weightspoids those togetherensemble into an attentionattention windowfenêtre,
169
588000
3000
Et il pondère celles-ci ensemble dans une fenêtre d'attention,
10:09
and it looksregards for the highest-scoringplus haute cotation placeendroit --
170
591000
2000
et il recherche le meilleur arrangement --
10:11
the stuffdes trucs where the mostles plus interestingintéressant stuffdes trucs is happeningévénement --
171
593000
2000
l'endroit où les choses les plus intéressantes se produisent.
10:13
and that is what its eyesles yeux then seguesegue to.
172
595000
4000
Et c'est vers cet endroit que ses yeux se dirigent.
10:17
And it looksregards right at that.
173
599000
2000
Et il fixe cet endroit.
10:19
At the sameMême time, some top-downde haut en bas sortTrier of stuffdes trucs:
174
601000
3000
En même temps, un genre d'approche descendante :
10:22
mightpourrait decidedécider that it's lonelysolitaire and look for skinpeau toneTon,
175
604000
3000
il pourrait décider qu'il se sent seul et aller chercher une teinte de peau,
10:25
or mightpourrait decidedécider that it's boredennuyé and look for a toyjouet to playjouer with.
176
607000
3000
ou pourrait décider qu'il s'ennuie et partir à la recherche d'un jouet.
10:28
And so these weightspoids changechangement.
177
610000
2000
Et alors ces pondérations changent.
10:30
And over here on the right,
178
612000
2000
Et juste ici sur la droite,
10:32
this is what we call the StevenSteven SpielbergSpielberg memorialMémorial modulemodule.
179
614000
3000
c'est ce qu'on appelle le module à la mémoire de Steven Spielberg.
10:35
Did people see the moviefilm "AIAI"? (AudiencePublic: Yes.)
180
617000
2000
Est-ce que les gens ont vu le film A.I. Intelligence Artificielle? Public: Oui.
10:37
RBRB: Yeah, it was really badmal, but --
181
619000
2000
RB: Oui, c'était vraiment mauvais, mais --
10:39
rememberrappelles toi, especiallynotamment when HaleyHaley JoelJoel OsmentOsment, the little robotrobot,
182
621000
4000
souvenez vous, le moment où Haley Joel Osment, le petit robot,
10:43
lookedregardé at the bluebleu fairyFée for 2,000 yearsannées withoutsans pour autant takingprise his eyesles yeux off it?
183
625000
4000
regarda la fée bleue pendant 2,000 ans sans détourner son regard?
10:47
Well, this getsobtient riddébarrasser of that,
184
629000
2000
Et bien, on se débarasse de ça,
10:49
because this is a habituationaccoutumance GaussianGaussienne that getsobtient negativenégatif,
185
631000
4000
parce que c'est une accomodation Gaussienne qui devient négative,
10:53
and more and more intenseintense as it looksregards at one thing.
186
635000
3000
et de plus en plus intense quand il fixe quelque chose.
10:56
And it getsobtient boredennuyé, so it will then look away at something elseautre.
187
638000
3000
Et il s'ennuie, alors il ira regarder quelque chose d'autre.
10:59
So, onceune fois que you've got that -- and here'svoici a robotrobot, here'svoici KismetKismet,
188
641000
4000
Alors, une fois que vous avez compris ça -- et voici un robot, voici Kismet,
11:03
looking around for a toyjouet. You can tell what it's looking at.
189
645000
4000
à la recherche d'un jouet. Vous voyez ce qu'il regarde.
11:07
You can estimateestimation its gazeregard directiondirection from those eyeballsglobes oculaires coveringcouvrant its cameracaméra,
190
649000
5000
Vous pouvez deviner la direction de son regard grâce aux globes oculaires qui couvrent sa caméra,
11:12
and you can tell when it's actuallyréellement seeingvoyant the toyjouet.
191
654000
3000
et vous pouvez voir le moment exact où il repère vraiment le jouet.
11:15
And it's got a little bitbit of an emotionalémotif responseréponse here.
192
657000
2000
Et on remarque ici qu'il a une sorte de petite réaction émotionnelle.
11:17
(LaughterRires)
193
659000
1000
(Rires)
11:18
But it's still going to payPayer attentionattention
194
660000
2000
Mais il va pourtant continuer à faire attention
11:20
if something more significantimportant comesvient into its fieldchamp of viewvue --
195
662000
4000
si quelque chose de plus important entre dans son champs de vision --
11:24
suchtel as CynthiaCynthia BreazealBreazeal, the builderBuilder of this robotrobot, from the right.
196
666000
4000
comme par exemple Cynthia Breazeal, celle qui a construit ce robot -- par la droite.
11:28
It seesvoit her, payspaie attentionattention to her.
197
670000
5000
Il la voit, elle attire son attention.
11:33
KismetKismet has an underlyingsous-jacent, three-dimensionaltridimensionnel emotionalémotif spaceespace,
198
675000
4000
Kismet possède un espace émotionnel en trois dimensions sous-jacentes,
11:37
a vectorVector spaceespace, of where it is emotionallyémotionnellement.
199
679000
3000
un espace vectoriel, représentant son état émotionnel.
11:40
And at differentdifférent placesdes endroits in that spaceespace, it expressesexprime --
200
682000
5000
Et à différents points dans cet espace, il exprime --
11:46
can we have the volumele volume on here?
201
688000
2000
est-ce qu'on peut avoir du son par ici?
11:48
Can you hearentendre that now, out there? (AudiencePublic: Yeah.)
202
690000
2000
Est-ce que vous entendez ça, juste ici? Public: Oui.
11:50
KismetKismet: Do you really think so? Do you really think so?
203
692000
5000
Kismet: Etes-vous vraiment certain? Etes-vous vraiment certain?
11:57
Do you really think so?
204
699000
2000
Etes-vous vraiment certain?
12:00
RBRB: So it's expressingexprimer its emotionémotion throughpar its facevisage
205
702000
3000
RB: Donc il exprime son émotion avec son visage
12:03
and the prosodyprosodie in its voicevoix.
206
705000
2000
et la prosodie dans sa voix.
12:05
And when I was dealingtransaction with my robotrobot over here,
207
707000
4000
Et pendant que je m'occupais du robot ici,
12:09
ChrisChris, the robotrobot, was measuringmesure the prosodyprosodie in my voicevoix,
208
711000
3000
Chris, le robot, il était en train de mesurer la prosodie dans ma voix.
12:12
and so we have the robotrobot measuremesure prosodyprosodie for fourquatre basicde base messagesmessages
209
714000
5000
et donc nous avons un robot qui mesure la prosodie pour quatre messages de base
12:17
that mothersmères give theirleur childrenles enfants pre-linguisticallyprélinguistiques.
210
719000
4000
que les mères donnent de façon pre-linguistique à leurs enfants.
12:21
Here we'venous avons got naivenaïf subjectssujets praisingfaisant l’éloge the robotrobot:
211
723000
3000
Alors là nous avons de simples cobayes félicitant le robot,
12:26
VoiceVoix: NiceNice robotrobot.
212
728000
2000
Voix: Gentil robot.
12:29
You're suchtel a cutemignon little robotrobot.
213
731000
2000
Tu es vraiment un gentil petit robot.
12:31
(LaughterRires)
214
733000
2000
(Rires)
12:33
RBRB: And the robot'sdu robot reactingréagir appropriatelyde manière appropriée.
215
735000
2000
Et le robot réagit de façon appropriée.
12:35
VoiceVoix: ...very good, KismetKismet.
216
737000
4000
Voix: ...très bien, Kismet.
12:40
(LaughterRires)
217
742000
2000
(Rires)
12:42
VoiceVoix: Look at my smilesourire.
218
744000
2000
Voix: Regarde mon sourire.
12:46
RBRB: It smilesdes sourires. She imitatesimite the smilesourire. This happensarrive a lot.
219
748000
3000
RB: Il sourit. Elle imite le sourire. Cela se produit constamment.
12:49
These are naivenaïf subjectssujets.
220
751000
2000
Ceux-ci sont de simples sujets.
12:51
Here we askeda demandé them to get the robot'sdu robot attentionattention
221
753000
3000
Ici nous leur avons demandé d'attirer l'attention du robot
12:54
and indicateindiquer when they have the robot'sdu robot attentionattention.
222
756000
3000
et d'indiquer quand ils l'avaient captée.
12:57
VoiceVoix: Hey, KismetKismet, ahah, there it is.
223
759000
4000
Voix: Hey, Kismet, ah le voilà.
13:01
RBRB: So she realizesréalise she has the robot'sdu robot attentionattention.
224
763000
4000
RB: Alors elle se rend compte que l'attention du robot est portée sur elle.
13:08
VoiceVoix: KismetKismet, do you like the toyjouet? Oh.
225
770000
4000
Voix: Kismet, aimes-tu le jouet? Oh.
13:13
RBRB: Now, here they're askeda demandé to prohibitinterdire the robotrobot,
226
775000
2000
RB: Maintenant, voilà qu'on leur demande de prohiber le robot,
13:15
and this first womanfemme really pushespousse the robotrobot into an emotionalémotif cornercoin.
227
777000
4000
et cette première femme pousse vraiment le robot dans une impasse émotionnelle .
13:19
VoiceVoix: No. No. You're not to do that. No.
228
781000
5000
Voix: Non. Non. Tu ne dois pas faire ça. Non.
13:24
(LaughterRires)
229
786000
3000
(Rires)
13:27
Not appropriateapproprié. No. No.
230
789000
6000
Voix: Ce n'est pas approprié. Non. Non.
13:33
(LaughterRires)
231
795000
3000
(Rires)
13:36
RBRB: I'm going to leavelaisser it at that.
232
798000
2000
RB: Je vais en rester là.
13:38
We put that togetherensemble. Then we put in turntour takingprise.
233
800000
2000
On met ça en place. Et puis on met en place le tour de rôle.
13:40
When we talk to someoneQuelqu'un, we talk.
234
802000
3000
Quand nous parlons avec quelqu'un, nous parlons.
13:43
Then we sortTrier of raiseélever our eyebrowssourcils, movebouge toi our eyesles yeux,
235
805000
4000
Alors, on lève les sourcils, on bouge nos yeux,
13:47
give the other personla personne the ideaidée it's theirleur turntour to talk.
236
809000
3000
on donne à l'autre personne un signe pour lui dire que c'est à son tour de parler.
13:50
And then they talk, and then we passpasser the batonbâton back and forthavant betweenentre eachchaque other.
237
812000
4000
Et alors, elle se met à parler, et après on se passe le bâton.
13:54
So we put this in the robotrobot.
238
816000
2000
Alors on intègre ça dans le robot.
13:56
We got a bunchbouquet of naivenaïf subjectssujets in,
239
818000
2000
On a fait entrer quelques simples cobayes,
13:58
we didn't tell them anything about the robotrobot,
240
820000
2000
on ne leur a rien dit à propos du robot,
14:00
satsam them down in frontde face of the robotrobot and said, talk to the robotrobot.
241
822000
2000
on les a fait asseoir en face du robot et dit, parlez au robot.
14:02
Now what they didn't know was,
242
824000
2000
Alors maintenant, ce qu'ils ne savaient pas était,
14:04
the robotrobot wasn'tn'était pas understandingcompréhension a wordmot they said,
243
826000
2000
que le robot ne comprenait pas un mot de ce qu'ils disaient,
14:06
and that the robotrobot wasn'tn'était pas speakingParlant EnglishAnglais.
244
828000
3000
et que le robot ne parlait pas anglais.
14:09
It was just sayingen disant randomau hasard EnglishAnglais phonemesphonèmes.
245
831000
2000
Il ne disait que des phonèmes anglais de manière aléatoire.
14:11
And I want you to watch carefullysoigneusement, at the beginningdébut of this,
246
833000
2000
Et je veux que vous regardiez bien attentivement, au début,
14:13
where this personla personne, RitchieRitchie, who happenedarrivé to talk to the robotrobot for 25 minutesminutes --
247
835000
4000
le moment où cette personne, Ritchie, qui venait de parler pendant 25 minutes au robot --
14:17
(LaughterRires)
248
839000
2000
(Rires)
14:19
-- saysdit, "I want to showmontrer you something.
249
841000
2000
-- dit, "J'aimerais te montrer quelque chose.
14:21
I want to showmontrer you my watch."
250
843000
2000
J'aimerais te montrer ma montre".
14:23
And he bringsapporte the watch centercentre, into the robot'sdu robot fieldchamp of visionvision,
251
845000
5000
Et il amène la montre au centre, dans le champ de vision du robot,
14:28
pointspoints to it, givesdonne it a motionmouvement cuesignal,
252
850000
2000
il la montre au robot, lui donne un signal émotionnel,
14:30
and the robotrobot looksregards at the watch quiteassez successfullyavec succès.
253
852000
2000
et le robot regarde la montre assez efficacement.
14:32
We don't know whetherqu'il s'agisse he understoodcompris or not that the robotrobot --
254
854000
3000
Nous ne savons pas si il comprenait ou non que le robot --
14:36
NoticeAvis the turn-takingprendre.
255
858000
2000
Remarquez le passage de tour.
14:38
RitchieRitchie: OK, I want to showmontrer you something. OK, this is a watch
256
860000
3000
Ritchie: OK, je veux vous montrer quelque chose. OK, ceci est une montre
14:41
that my girlfriendpetite amie gavea donné me.
257
863000
3000
que ma petite amie ma donné.
14:44
RobotRobot: Oh, coolcool.
258
866000
2000
Robot: Oh, cool.
14:46
RitchieRitchie: Yeah, look, it's got a little bluebleu lightlumière in it too. I almostpresque lostperdu it this weekla semaine.
259
868000
4000
Ritchie: Oui, regarde, il y a aussi une petite lumière bleue. J'ai presque failli la perdre cette semaine.
14:51
(LaughterRires)
260
873000
4000
(Rires)
14:55
RBRB: So it's makingfabrication eyeœil contactcontact with him, followingSuivant his eyesles yeux.
261
877000
3000
RB: Il garde le contact visuel avec lui, suivant ses yeux.
14:58
RitchieRitchie: Can you do the sameMême thing? RobotRobot: Yeah, sure.
262
880000
2000
Ritchie: Peux-tu faire la même chose? Robot: Oui, bien sur.
15:00
RBRB: And they successfullyavec succès have that sortTrier of communicationla communication.
263
882000
2000
RB: Et ils réussient à avoir cette communication efficace.
15:02
And here'svoici anotherun autre aspectaspect of the sortssortes of things that ChrisChris and I were doing.
264
884000
4000
Et voici un autre aspect du type de choses que Chris et moi faisions.
15:06
This is anotherun autre robotrobot, CogCOG.
265
888000
2000
Voici un autre robot, Cog.
15:08
They first make eyeœil contactcontact, and then, when ChristieChristie looksregards over at this toyjouet,
266
890000
6000
Ils ont établi un premier contact visuel, et après, quand Christie regarde son jouet,
15:14
the robotrobot estimatesestimations her gazeregard directiondirection
267
896000
2000
le robot estime la direction de son regard
15:16
and looksregards at the sameMême thing that she's looking at.
268
898000
2000
et regarde la même chose qu'elle regarde.
15:18
(LaughterRires)
269
900000
1000
(Rires)
15:19
So we're going to see more and more of this sortTrier of robotrobot
270
901000
3000
Nous allons voir de plus en plus de ce genre de robot
15:22
over the nextprochain fewpeu yearsannées in labslaboratoires.
271
904000
2000
dans les laboratoires dans les années à venir.
15:24
But then the biggros questionsdes questions, two biggros questionsdes questions that people askdemander me are:
272
906000
5000
Mais alors, les grandes questions, deux grandes questions que les gens me posent sont:
15:29
if we make these robotsdes robots more and more human-likehumain,
273
911000
2000
si on rend ces robots de plus en plus humains,
15:31
will we acceptAcceptez them, will we -- will they need rightsdroits eventuallyfinalement?
274
913000
5000
allons-nous les accepter, allons-nous -- auront-ils besoin de droits en fin de compte?
15:36
And the other questionquestion people askdemander me is, will they want to take over?
275
918000
3000
Et l'autre question que les gens me posent est, vont-ils prendre le pouvoir?
15:39
(LaughterRires)
276
921000
1000
(Rires)
15:40
And on the first -- you know, this has been a very HollywoodHollywood themethème
277
922000
3000
Et au début -- vous savez, ça a été un grand thème à Hollywood
15:43
with lots of moviesfilms. You probablyProbablement recognizereconnaître these characterspersonnages here --
278
925000
3000
avec de nombreux films. Vous reconnaissez probablement ces personnages --
15:46
where in eachchaque of these casescas, the robotsdes robots want more respectle respect.
279
928000
4000
où dans chacun de ces cas, les robots veulent plus de respect.
15:50
Well, do you ever need to give robotsdes robots respectle respect?
280
932000
3000
Et bien, avez-vous jamais besoin de donner du respect aux robots?
15:54
They're just machinesmachines, after all.
281
936000
2000
Après tout, ce ne sont que des machines.
15:56
But I think, you know, we have to acceptAcceptez that we are just machinesmachines.
282
938000
4000
Mais je pense, vous savez, nous devons accepter le fait que nous ne sommes que des machines.
16:00
After all, that's certainlycertainement what modernmoderne molecularmoléculaire biologyla biologie saysdit about us.
283
942000
5000
Après tout, c'est surement ce que dit la biologie moléculaire à propos de nous.
16:05
You don't see a descriptionla description of how, you know,
284
947000
3000
Vous ne voyez pas de description de comment,
16:08
MoleculeMolécule A, you know, comesvient up and docksquais with this other moleculemolécule.
285
950000
4000
la molécule A vient par là et s'amarre avec cette autre molécule.
16:12
And it's movingen mouvement forwardvers l'avant, you know, propelledpropulsé by variousdivers chargesdes charges,
286
954000
3000
Et ça avance, propulsé par différentes charges,
16:15
and then the soulâme stepspas in and tweaksTweaks those moleculesmolécules so that they connectrelier.
287
957000
4000
et alors l'âme entre en jeu et vient tirer ces molécules pour qu'elles se connectent.
16:19
It's all mechanisticmécaniste. We are mechanismmécanisme.
288
961000
3000
Tout cela est mécanique, nous sommes des mécanismes.
16:22
If we are machinesmachines, then in principleprincipe at leastmoins,
289
964000
3000
Si nous sommes des machines, alors en principe du moins,
16:25
we should be ablecapable to buildconstruire machinesmachines out of other stuffdes trucs,
290
967000
4000
nous devrions être capable de construire des machines avec d'autres trucs,
16:29
whichlequel are just as alivevivant as we are.
291
971000
4000
qui sont au moins aussi vivant que nous le sommes.
16:33
But I think for us to admitadmettre that,
292
975000
2000
Mais je pense que pour que nous admettions cela,
16:35
we have to give up on our special-nessspécial-ness, in a certaincertain way.
293
977000
3000
nous devons abandonner notre caractère spécial, d'une certaine façon.
16:38
And we'venous avons had the retreatretraite from special-nessspécial-ness
294
980000
2000
Et nous avons à de nombreuses reprises perdu contact avec cette spécificité
16:40
underen dessous de the barragetir de barrage of sciencescience and technologyLa technologie manybeaucoup timesfois
295
982000
3000
sous les assauts de la science et de la technologie
16:43
over the last fewpeu hundredcent yearsannées, at leastmoins.
296
985000
2000
durant les cent dernières années, au moins.
16:45
500 yearsannées agodepuis we had to give up the ideaidée
297
987000
2000
Il y a 500 ans, nous avons dû abandonner l'idée
16:47
that we are the centercentre of the universeunivers
298
989000
3000
selon laquelle nous étions le centre de l'univers
16:50
when the earthTerre startedcommencé to go around the sunSoleil;
299
992000
2000
quand la terre commenca à tourner autour du soleil;
16:52
150 yearsannées agodepuis, with DarwinDarwin, we had to give up the ideaidée we were differentdifférent from animalsanimaux.
300
994000
5000
il y a 150 ans, avec Darwin, nous avons dû abandonner l'idée selon laquelle nous étions différents des animaux.
16:57
And to imagineimaginer -- you know, it's always harddifficile for us.
301
999000
3000
Et pour imaginer -- , c'est toujours difficile pour nous.
17:00
RecentlyRécemment we'venous avons been batteredbattu with the ideaidée that maybe
302
1002000
3000
Vous voyez, récemment nous avons été matraqué par l'idée que peut être
17:03
we didn't even have our ownposséder creationcréation eventun événement, here on earthTerre,
303
1005000
2000
nous n'avions même pas eu notre propre acte de création, ici sur Terre,
17:05
whichlequel people didn't like much. And then the humanHumain genomegénome said,
304
1007000
3000
ce que les gens n'aimaient pas beaucoup. Et puis le génome humain a dit,
17:08
maybe we only have 35,000 genesgènes. And that was really --
305
1010000
3000
peut-être n'avons-nous seulement que 35,000 gènes. Et ce fut vraiment --
17:11
people didn't like that, we'venous avons got more genesgènes than that.
306
1013000
3000
les gens n'aimaient pas ça, nous avons plus de gènes que ça.
17:14
We don't like to give up our special-nessspécial-ness, so, you know,
307
1016000
3000
Nous n'aimons pas abandonner notre spécificité, alors
17:17
havingayant the ideaidée that robotsdes robots could really have emotionsémotions,
308
1019000
2000
l'idée que les robots puissent ressentir des émotions,
17:19
or that robotsdes robots could be livingvivant creaturescréatures --
309
1021000
2000
ou que les robots puissent être des créatures vivantes --
17:21
I think is going to be harddifficile for us to acceptAcceptez.
310
1023000
2000
je pense que ça va être dur pour nous de l'accepter.
17:23
But we're going to come to acceptAcceptez it over the nextprochain 50 yearsannées or so.
311
1025000
4000
Mais nous finirons bien par l'accepter au cours des 50 prochaines années.
17:27
And the secondseconde questionquestion is, will the machinesmachines want to take over?
312
1029000
3000
Et la seconde question est, les machines veulent-elles prendre le pouvoir?
17:30
And here the standardla norme scenarioscénario is that we createcréer these things,
313
1032000
5000
Et pour cela, le scénario classique est que nous créons ces choses,
17:35
they growcroître, we nurturenourrir them, they learnapprendre a lot from us,
314
1037000
3000
elles se développent, on les élève, elles apprennent beaucoup grâce à nous,
17:38
and then they startdébut to decidedécider that we're prettyjoli boringennuyeuse, slowlent.
315
1040000
4000
et alors elles commencent à décider que nous sommes trop ennuyeux, lents.
17:42
They want to take over from us.
316
1044000
2000
Elles veulent nous prendre le pouvoir.
17:44
And for those of you that have teenagersadolescents, you know what that's like.
317
1046000
3000
Et pour ceux d'entre vous qui sont parents d'adolescents, vous savez ce que c'est.
17:47
(LaughterRires)
318
1049000
1000
(Rires)
17:48
But HollywoodHollywood extendss'étend it to the robotsdes robots.
319
1050000
3000
Mais Hollywood l'élargit aux robots.
17:51
And the questionquestion is, you know,
320
1053000
3000
Et la question est,
17:54
will someoneQuelqu'un accidentallyaccidentellement buildconstruire a robotrobot that takes over from us?
321
1056000
4000
quelqu'un va-t-il construire accidentellement un robot qui nous prendra le pouvoir?
17:58
And that's sortTrier of like this loneseul guy in the backyardarrière-cour,
322
1060000
3000
Et c'est un peu l'histoire du mec solidaire au fond de son jardin,
18:01
you know -- "I accidentallyaccidentellement builtconstruit a 747."
323
1063000
3000
et, "J'ai accidentellement construit un 747."
18:04
I don't think that's going to happense produire.
324
1066000
2000
Vous voyez, je ne pense que ça va se produire.
18:06
And I don't think --
325
1068000
2000
Et je ne pense pas --
18:08
(LaughterRires)
326
1070000
1000
(Rires)
18:09
-- I don't think we're going to deliberatelydélibérément buildconstruire robotsdes robots
327
1071000
3000
-- Je ne pense pas que nous allons construire sans faire exprès des robots
18:12
that we're uncomfortableinconfortable with.
328
1074000
2000
avec lesquels nous ne serions pas à l'aise.
18:14
We'llNous allons -- you know, they're not going to have a supersuper badmal robotrobot.
329
1076000
2000
Nous allons -- vous savez, on n'aura pas un robot très méchant.
18:16
Before that has to come to be a mildlydoucement badmal robotrobot,
330
1078000
3000
Avant ça, un robot moyennement méchant devra faire son apparition,
18:19
and before that a not so badmal robotrobot.
331
1081000
2000
et encore avant lui, un robot pas si méchant que ça.
18:21
(LaughterRires)
332
1083000
1000
(Rires)
18:22
And we're just not going to let it go that way.
333
1084000
2000
Et nous n'allons pas laisser les choses se passer de cette façon.
18:24
(LaughterRires)
334
1086000
1000
(Rires)
18:25
So, I think I'm going to leavelaisser it at that: the robotsdes robots are comingvenir,
335
1087000
6000
Alors, je pense que je vais conclure là dessus: les robots arrivent,
18:31
we don't have too much to worryinquiéter about, it's going to be a lot of funamusement,
336
1093000
3000
nous n'avons pas tellement d'inquiètudes à avoir, ça va être très marrant,
18:34
and I hopeespérer you all enjoyprendre plaisir the journeypériple over the nextprochain 50 yearsannées.
337
1096000
4000
et j'espère que vous allez tous apprécier le voyage pendant ces 50 prochaines années.
18:38
(ApplauseApplaudissements)
338
1100000
2000
(Applaudissements)
Translated by Timothée Parrique
Reviewed by Elisabeth Buffard

▲Back to top

ABOUT THE SPEAKER
Rodney Brooks - Roboticist
Rodney Brooks builds robots based on biological principles of movement and reasoning. The goal: a robot who can figure things out.

Why you should listen

Former MIT professor Rodney Brooks studies and engineers robot intelligence, looking for the holy grail of robotics: the AGI, or artificial general intelligence. For decades, we've been building robots to do highly specific tasks -- welding, riveting, delivering interoffice mail -- but what we all want, really, is a robot that can figure things out on its own, the way we humans do.

Brooks realized that a top-down approach -- just building the biggest brain possible and teaching it everything we could think of -- would never work. What would work is a robot who learns like we do, by trial and error, and with many separate parts that learn separate jobs. The thesis of his work which was captured in Fast, Cheap and Out of Control,went on to become the title of the great Errol Morris documentary.

A founder of iRobot, makers of the Roomba vacuum, Brooks is now founder and CTO of Rethink Robotics, whose mission is to apply advanced robotic intelligence to manufacturing and physical labor. Its first robots: the versatile two-armed Baxter and one-armed Sawyer. Brooks is the former director of CSAIL, MIT's Computers Science and Artificial Intelligence Laboratory.

 
More profile about the speaker
Rodney Brooks | Speaker | TED.com