ABOUT THE SPEAKER
Rodney Brooks - Roboticist
Rodney Brooks builds robots based on biological principles of movement and reasoning. The goal: a robot who can figure things out.

Why you should listen

Former MIT professor Rodney Brooks studies and engineers robot intelligence, looking for the holy grail of robotics: the AGI, or artificial general intelligence. For decades, we've been building robots to do highly specific tasks -- welding, riveting, delivering interoffice mail -- but what we all want, really, is a robot that can figure things out on its own, the way we humans do.

Brooks realized that a top-down approach -- just building the biggest brain possible and teaching it everything we could think of -- would never work. What would work is a robot who learns like we do, by trial and error, and with many separate parts that learn separate jobs. The thesis of his work which was captured in Fast, Cheap and Out of Control,went on to become the title of the great Errol Morris documentary.

A founder of iRobot, makers of the Roomba vacuum, Brooks is now founder and CTO of Rethink Robotics, whose mission is to apply advanced robotic intelligence to manufacturing and physical labor. Its first robots: the versatile two-armed Baxter and one-armed Sawyer. Brooks is the former director of CSAIL, MIT's Computers Science and Artificial Intelligence Laboratory.

 
More profile about the speaker
Rodney Brooks | Speaker | TED.com
TED2003

Rodney Brooks: Robots will invade our lives

Rodney Brooks zegt dat robots ons leven zullen binnendringen

Filmed:
689,918 views

In deze profetische talk uit 2003 vertelt roboticist Rodney Brooks over hoe robots zich in ons leven gaan innestelen -- te beginnen met speelgoed en huishoudapparaten... en wat te verwachten.
- Roboticist
Rodney Brooks builds robots based on biological principles of movement and reasoning. The goal: a robot who can figure things out. Full bio

Double-click the English transcript below to play the video.

00:18
What I want to tell you about todayvandaag is how I see robotsrobots invadinginvasie our liveslevens
0
0
5000
Ik wil het vandaag hebben over hoe robots ons leven
00:23
at multiplemeerdere levelslevels, over multiplemeerdere timescalestermijnen.
1
5000
3000
op meerdere niveaus, over meerdere tijdschalen binnendringen.
00:26
And when I look out in the futuretoekomst, I can't imaginestel je voor a worldwereld-, 500 yearsjaar from now,
2
8000
4000
Ik kan me de toekomstige wereld, 500 jaar na nu,
00:30
where we don't have robotsrobots everywhereoveral.
3
12000
2000
zonder robots niet voorstellen.
00:32
AssumingErvan uitgaande dat -- despiteondanks all the direDire predictionsvoorspellingen from manyveel people about our futuretoekomst --
4
14000
5000
Ervan uitgaande dat - ondanks alle sombere voorspellingen van veel mensen over onze toekomst -
00:37
assumingervan uitgaand we're still around, I can't imaginestel je voor the worldwereld- not beingwezen populatedbevolkte with robotsrobots.
5
19000
4000
we er nog steeds zullen zijn, kan ik me niet voorstellen dat de wereld niet zal worden bevolkt door robots.
00:41
And then the questionvraag is, well, if they're going to be here in 500 yearsjaar,
6
23000
3000
De vraag is of het niet
00:44
are they going to be everywhereoveral soonereerder than that?
7
26000
2000
sneller zal gaan gebeuren?
00:46
Are they going to be around in 50 yearsjaar?
8
28000
2000
Bijvoorbeeld binnen 50 jaar?
00:48
Yeah, I think that's prettymooi likelywaarschijnlijk -- there's going to be lots of robotsrobots everywhereoveral.
9
30000
3000
Ja, ik denk dat er overal heel veel robots gaan zijn.
00:51
And in factfeit I think that's going to be a lot soonereerder than that.
10
33000
3000
In feite zal het nog een stuk sneller gaan.
00:54
I think we're sortsoort of on the cuspcusp of robotsrobots becomingworden commongemeenschappelijk,
11
36000
4000
We staan op de vooravond van hun komst.
00:58
and I think we're sortsoort of around 1978 or 1980 in personalpersoonlijk computercomputer yearsjaar,
12
40000
6000
Je kan het vergelijken met 1978 of 1980 voor de pc.
01:04
where the first fewweinig robotsrobots are startingbeginnend to appearverschijnen.
13
46000
3000
De eerste robots beginnen te verschijnen.
01:07
ComputersComputers sortsoort of camekwam around throughdoor gamesspellen and toysspeelgoed.
14
49000
4000
De eerste computers verschenen onder de vorm van spellen en speelgoed.
01:11
And you know, the first computercomputer mostmeest people had in the househuis
15
53000
3000
De eerste computer die de meeste mensen in huis haalden,
01:14
maymei have been a computercomputer to playspelen PongPong,
16
56000
2000
was misschien wel een computer om Pong te spelen,
01:16
a little microprocessormicroprocessor embeddedingebed,
17
58000
2000
met een kleine ingebouwde microprocessor.
01:18
and then other gamesspellen that camekwam after that.
18
60000
3000
Daarna kwamen andere spellen.
01:21
And we're startingbeginnend to see that samedezelfde sortsoort of thing with robotsrobots:
19
63000
3000
Met robots gaat het net zo:
01:24
LEGOLEGO MindstormsMindstorms, FurbiesFurbies -- who here -- did anyoneiedereen here have a FurbyFurby?
20
66000
4000
LEGO Mindstorms, Furbies - die hier - heeft iemand hier een Furby?
01:28
Yeah, there's 38 millionmiljoen of them solduitverkocht worldwidewereldwijd.
21
70000
3000
Ja, er zijn er wereldwijd 38 miljoen van verkocht.
01:31
They are prettymooi commongemeenschappelijk. And they're a little tinyklein robotrobot,
22
73000
2000
Je ziet ze overal. Het zijn klein eenvoudige robotjes
01:33
a simpleeenvoudig robotrobot with some sensorssensors,
23
75000
2000
met wat sensoren en
01:35
a little bitbeetje of processingverwerken actuationbediening.
24
77000
2000
wat mogelijkheid tot activiteit.
01:37
On the right there is anothereen ander robotrobot dollpop, who you could get a couplepaar of yearsjaar agogeleden.
25
79000
3000
Rechts is een andere robotpop, die je een paar jaar geleden kon kopen.
01:40
And just as in the earlyvroeg daysdagen,
26
82000
2000
En net zoals vroeger met de computer
01:42
when there was a lot of sortsoort of amateuramateur interactionwisselwerking over computerscomputers,
27
84000
5000
toen er een heleboel amateurs actief waren,
01:47
you can now get variousdivers hackinghacking kitsKits, how-to-hackHow-to-aan-hack booksboeken.
28
89000
4000
kan je nu allerlei doe-het-zelfboeken en kits kopen.
01:51
And on the left there is a platformplatform from EvolutionEvolutie RoboticsRobotica,
29
93000
4000
Links is er een platform van Evolution Robotics,
01:55
where you put a PCPC on, and you programprogramma this thing with a GUIGUI
30
97000
3000
waar je een pc op zet en het ding programmeert met een GUI
01:58
to wanderdwalen around your househuis and do variousdivers stuffspul.
31
100000
3000
om door je huis te zwerven en allerlei dingen te doen.
02:01
And then there's a higherhoger priceprijs pointpunt sortsoort of robotrobot toysspeelgoed --
32
103000
3000
Dan is er ook nog robotspeelgoed in een hogere prijsklasse -
02:04
the SonySony AiboAIBO. And on the right there, is one that the NECNEC developedontwikkelde,
33
106000
4000
de Sony Aibo. Rechts is er een van NEC, de PaPeRo,
02:08
the PaPeRoPaPeRo, whichwelke I don't think they're going to releasevrijlating.
34
110000
3000
waarvan ik niet denk dat ze hem op de markt gaan brengen.
02:11
But neverthelessniettemin, those sortssoorten of things are out there.
35
113000
3000
Maar toch is dat soort dingen er al.
02:14
And we'vewij hebben seengezien, over the last two or threedrie yearsjaar, lawn-mowinggazon maaien robotsrobots,
36
116000
4000
De afgelopen twee of drie jaar hebben we grasmaairobots gezien,
02:18
HusqvarnaHusqvarna on the bottombodem, FriendlyVriendelijke RoboticsRobotica on toptop there, an IsraeliIsraëlische companybedrijf.
37
120000
6000
Onderaan Husqvarna, bovenaan Friendly Robotics van een Israëlisch bedrijf.
02:24
And then in the last 12 monthsmaanden or so
38
126000
2000
Het laatste jaar
02:26
we'vewij hebben startedbegonnen to see a bunchbos of home-cleaningHome-reiniging robotsrobots appearverschijnen.
39
128000
4000
zagen we een hoop stofzuigerrobots verschijnen.
02:30
The toptop left one is a very niceleuk home-cleaningHome-reiniging robotrobot
40
132000
3000
Linksboven zie je een zeer mooie stofzuigerrobot
02:33
from a companybedrijf calledriep DysonDyson, in the U.K. ExceptBehalve it was so expensiveduur --
41
135000
4000
van het bedrijf Dyson, in het Verenigd Koninkrijk. Maar hij was zo duur -
02:37
3,500 dollarsdollars -- they didn't releasevrijlating it.
42
139000
2000
3500 dollar – dat ze hem niet op de markt brachten.
02:39
But at the bottombodem left, you see ElectroluxElectrolux, whichwelke is on saleverkoop.
43
141000
3000
Linksonder zie je de Electrolux, die is te koop.
02:42
AnotherEen ander one from KarcherKarcher.
44
144000
2000
Een andere van Kärcher.
02:44
At the bottombodem right is one that I builtgebouwd in my lablaboratorium
45
146000
2000
Rechts onderaan is er een die ik bouwde in mijn lab
02:46
about 10 yearsjaar agogeleden, and we finallyTenslotte turnedgedraaid that into a productartikel.
46
148000
3000
ongeveer 10 jaar geleden en die nu marktklaar is.
02:49
And let me just showtonen you that.
47
151000
2000
Ik toon hem even.
02:51
We're going to give this away I think, ChrisChris said, after the talk.
48
153000
4000
We gaan deze na de talk weggeven zei Chris, denk ik.
02:55
This is a robotrobot that you can go out and buykopen, and that will cleanschoon up your floorverdieping.
49
157000
6000
Dit is een robot die je kunt kopen en die je vloer zal schoonmaken.
03:05
And it startsstarts off sortsoort of just going around in ever-increasingsteeds groter circlescirkels.
50
167000
5000
Hij begint rond te gaan in steeds grotere cirkels.
03:10
If it hitstreffers something -- you people see that?
51
172000
4000
Als hij iets raakt - zien jullie dat?
03:14
Now it's doing wall-followingmuur-volgende, it's followingvolgend around my feetvoeten
52
176000
3000
Nu gaat hij de hindernis volgen, rond mijn voeten rijden,
03:17
to cleanschoon up around me. Let's see, let's --
53
179000
4000
om me heen schoonmaken. Laten eens kijken, laten we -
03:21
oh, who stolestal my RiceRijst KrispiesKrispies? They stolestal my RiceRijst KrispiesKrispies!
54
183000
5000
oh, wie heeft mijn Rice Krispies gepikt? Ze hebben mijn Rice Krispies gestolen!
03:26
(LaughterGelach)
55
188000
6000
(Gelach)
03:32
Don't worryzorgen, relaxontspannen, no, relaxontspannen, it's a robotrobot, it's smartslim!
56
194000
3000
Maak je geen zorgen, kalm, het is een robot, hij is slim!
03:35
(LaughterGelach)
57
197000
3000
(Gelach)
03:38
See, the three-year-olddrie-jarige kidskinderen, they don't worryzorgen about it.
58
200000
4000
Driejarige kinderen malen daar niet om.
03:42
It's grown-upsvolwassenen that get really upsetboos.
59
204000
2000
Alleen de volwassenen.
03:44
(LaughterGelach)
60
206000
1000
(Gelach)
03:45
We'llWe zullen just put some craponzin here.
61
207000
2000
We gaan hier gewoon wat rommel rondstrooien.
03:47
(LaughterGelach)
62
209000
4000
(Gelach)
03:51
Okay.
63
213000
2000
Oké.
03:53
(LaughterGelach)
64
215000
4000
(Gelach)
03:57
I don't know if you see -- so, I put a bunchbos of RiceRijst KrispiesKrispies there,
65
219000
3000
Ik weet niet of je het ziet – ik liet daar wat Rice Krispies vallen,
04:00
I put some penniescenten, let's just shootschieten it at that, see if it cleansreinigt up.
66
222000
7000
Ook wat centen, laten we het eens proberen, kijken of hij opruimt.
04:10
Yeah, OK. So --
67
232000
2000
Ja, Oké. -
04:12
we'llgoed leavehet verlof that for laterlater.
68
234000
4000
Dat laten we voor later.
04:16
(ApplauseApplaus)
69
238000
5000
(Applaus)
04:22
PartDeel of the tricktruc was buildinggebouw a better cleaningschoonmaak mechanismmechanisme, actuallywerkelijk;
70
244000
4000
Een deel van de truc was eigenlijk het bouwen van een beter reinigingsmechanisme;
04:26
the intelligenceintelligentie- on boardboord was fairlytamelijk simpleeenvoudig.
71
248000
4000
de intelligentie aan boord was vrij simpel.
04:30
And that's truewaar with a lot of robotsrobots.
72
252000
2000
Dat is waar voor veel robots.
04:32
We'veWe hebben all, I think, becomeworden, sortsoort of computationalcomputational chauvinistschauvinisten,
73
254000
4000
We zijn allemaal, denk ik, een beetje ‘computerchauvinisten’ geworden
04:36
and think that computationberekening is everything,
74
258000
2000
en denken dat berekenen alles is,
04:38
but the mechanicsmechanica still matterer toe doen.
75
260000
2000
maar de mechaniek is nog steeds belangrijk.
04:40
Here'sHier is anothereen ander robotrobot, the PackBotPackBot,
76
262000
3000
Hier is nog een robot, de PackBot,
04:43
that we'vewij hebben been buildinggebouw for a bunchbos of yearsjaar.
77
265000
2000
die we al een tijdje maken.
04:45
It's a militaryleger surveillancetoezicht robotrobot, to go in aheadverder of troopstroepen --
78
267000
6000
Het is een militaire surveillancerobot om de troepen vooraf te gaan -
04:51
looking at cavesgrotten, for instanceaanleg.
79
273000
3000
rondkijken in grotten, bijvoorbeeld.
04:54
But we had to make it fairlytamelijk robustrobuust,
80
276000
2000
Maar we moesten hem vrij robuust maken,
04:56
much more robustrobuust than the robotsrobots we buildbouwen in our labslabs.
81
278000
7000
veel robuuster dan de robots die we in onze labs bouwen.
05:03
(LaughterGelach)
82
285000
3000
(Gelach)
05:12
On boardboord that robotrobot is a PCPC runninglopend LinuxLinux.
83
294000
4000
Aan boord van die robot zit een pc met Linux.
05:16
It can withstandweerstaan a 400G shockschok. The robotrobot has locallokaal intelligenceintelligentie-:
84
298000
6000
Hij is bestand tegen schokken van 400 g. De robot heeft ingebouwde intelligentie:
05:22
it can flipomdraaien itselfzelf over, can get itselfzelf into communicationcommunicatie rangereeks,
85
304000
6000
hij kan kopje over doen, zich binnen communicatiebereik brengen,
05:28
can go upstairsnaar boven by itselfzelf, etet ceteracetera.
86
310000
3000
zelf een trap oplopen, enzovoort.
05:38
Okay, so it's doing locallokaal navigationnavigatie there.
87
320000
4000
Daar is hij bezig met lokale navigatie.
05:42
A soldiersoldaat givesgeeft it a commandopdracht to go upstairsnaar boven, and it does.
88
324000
6000
Een soldaat geeft hem de opdracht om naar boven te gaan en hij doet het.
05:49
That was not a controlledgecontroleerde descentafkomst.
89
331000
3000
Dat was geen gecontroleerde afdaling.
05:52
(LaughterGelach)
90
334000
2000
(Gelach)
05:54
Now it's going to headhoofd off.
91
336000
2000
Daar gaat ie.
05:56
And the biggroot breakthroughdoorbraak for these robotsrobots, really, was SeptemberSeptember 11thth.
92
338000
5000
9/11 betekende de grote doorbraak voor deze robots.
06:01
We had the robotsrobots down at the WorldWereld TradeHandel CenterCenter latelaat that eveningavond.
93
343000
4000
We brachten die avond de robots naar het World Trade Center.
06:06
Couldn'tKon niet do a lot in the mainhoofd rubblepuin pilestapel,
94
348000
2000
Maar ze konden niet veel doen in die grote stapel puin
06:08
things were just too -- there was nothing left to do.
95
350000
3000
- er was niets meer te doen.
06:11
But we did go into all the surroundingnabijgelegen buildingsgebouwen that had been evacuatedgeëvacueerd,
96
353000
5000
Maar we zijn in alle geëvacueerde omliggende gebouwen
06:16
and searcheddoorzocht for possiblemogelijk survivorsoverlevenden in the buildingsgebouwen
97
358000
3000
gaan zoeken naar mogelijke overlevenden.
06:19
that were too dangerousgevaarlijk to go into.
98
361000
2000
Het was te gevaarlijk om erin te gaan.
06:21
Let's runrennen this videovideo-.
99
363000
2000
Laten we deze video eens bekijken.
06:23
ReporterVerslaggever: ...battlefieldslagveld companionsmetgezellen are helpinghelpen to reduceverminderen the combatgevecht risksrisico's.
100
365000
3000
Reporter: ... deze slagveldmetgezellen helpen de risico's te verminderen.
06:26
NickNick RobertsonRobertson has that storyverhaal.
101
368000
3000
Een reportage van Nick Robertson.
06:31
RodneyRodney BrooksBrooks: Can we have anothereen ander one of these?
102
373000
2000
Rodney Brooks: Kunnen we er nog eentje hebben?
06:38
Okay, good.
103
380000
2000
Oké, goed.
06:43
So, this is a corporalKorporaal who had seengezien a robotrobot two weeksweken previouslyeerder.
104
385000
3000
Dit is een korporaal die pas twee weken eerder een robot had gezien.
06:48
He's sendingBezig met verzenden robotsrobots into cavesgrotten, looking at what's going on.
105
390000
4000
Hij stuurt robots de grotten in om te kijken naar wat er gebeurt.
06:52
The robot'sde robot beingwezen totallyhelemaal autonomousautonoom.
106
394000
2000
De robot is volledig autonoom.
06:54
The worstslechtst thing that's happenedgebeurd in the cavegrot so farver
107
396000
4000
Het ergste wat er tot nu toe in de grot is gebeurd,
06:58
was one of the robotsrobots fellviel down tentien metersmeter.
108
400000
3000
was dat een van de robots een val van tien meter maakte.
07:08
So one yearjaar agogeleden, the US militaryleger didn't have these robotsrobots.
109
410000
3000
Vorig jaar beschikte het Amerikaanse leger nog niet over deze robots.
07:11
Now they're on activeactief dutyplicht in AfghanistanAfghanistan everyelk day.
110
413000
2000
Nu worden ze in Afghanistan dagelijks gebruikt.
07:13
And that's one of the reasonsredenen they say a robotrobot invasioninvasie is happeninggebeurtenis.
111
415000
3000
Daarom zeggen ze dat er een robotinvasie aan de gang is.
07:16
There's a seazee changeverandering happeninggebeurtenis in how -- where technology'sTechnology going.
112
418000
4000
De technologie is in volle ontwikkeling.
07:20
ThanksBedankt.
113
422000
2000
Bedankt.
07:23
And over the nextvolgende couplepaar of monthsmaanden,
114
425000
2000
Binnen enkele maanden
07:25
we're going to be sendingBezig met verzenden robotsrobots in productionproductie
115
427000
3000
gaan we robots naar beneden sturen
07:28
down producingproducerende oilolie- wellsWells to get that last fewweinig yearsjaar of oilolie- out of the groundgrond.
116
430000
4000
in de olieputten om die laatste paar jaar olie uit de grond te krijgen.
07:32
Very hostilevijandig environmentsomgevingen, 150˚ C, 10,000 PSIPSI.
117
434000
4000
Zeer vijandige omgevingen, 150 ˚C, 700 bar.
07:36
AutonomousAutonome robotsrobots going down, doing this sortsoort of work.
118
438000
4000
Autonome robots doen daar beneden dit soort werk.
07:40
But robotsrobots like this, they're a little hardhard to programprogramma.
119
442000
3000
Maar robots als deze zijn een beetje moeilijk om te programmeren.
07:43
How, in the futuretoekomst, are we going to programprogramma our robotsrobots
120
445000
2000
Hoe gaan we in de toekomst onze robots programmeren
07:45
and make them easiergemakkelijker to use?
121
447000
2000
om ze gemakkelijker te kunnen gebruiken?
07:47
And I want to actuallywerkelijk use a robotrobot here --
122
449000
3000
Ik wil hier eigenlijk gebruik maken van een robot -
07:50
a robotrobot namedgenaamd ChrisChris -- standstand up. Yeah. Okay.
123
452000
5000
een robot met de naam Chris – sta op. Yeah. Oké.
07:57
Come over here. Now noticekennisgeving, he thinksdenkt robotsrobots have to be a bitbeetje stiffstijf.
124
459000
4000
Kom eens hier. Merk op dat hij denkt dat robots een beetje stijf moeten zijn.
08:01
He sortsoort of does that. But I'm going to --
125
463000
3000
Hij doet dat een beetje. Maar ik ga -
08:04
ChrisChris AndersonAnderson: I'm just BritishBritse. RBRB: Oh.
126
466000
2000
Chris Anderson: Ik ben alleen maar Brits. RB: Oh.
08:06
(LaughterGelach)
127
468000
2000
(Gelach)
08:08
(ApplauseApplaus)
128
470000
2000
(Applaus)
08:10
I'm going to showtonen this robotrobot a tasktaak. It's a very complexcomplex tasktaak.
129
472000
3000
Ik ga deze robot een taak laten zien. Een erg complexe taak.
08:13
Now noticekennisgeving, he noddedknikte there, he was givinggeven me some indicationaanwijzing
130
475000
3000
Let nu op, hij knikte daar, hij gaf me een indicatie
08:16
he was understandingbegrip the flowstroom of communicationcommunicatie.
131
478000
3000
dat hij de communicatiestroom begreep.
08:19
And if I'd said something completelyhelemaal bizarreBizarre
132
481000
2000
Als ik iets heel bizar had gezegd
08:21
he would have lookedkeek askanceontwrichtend at me, and regulatedgereglementeerde the conversationgesprek.
133
483000
3000
zou hij me scheef hebben aangekeken en het gesprek in goede banen geleid.
08:24
So now I broughtbracht this up in frontvoorkant of him.
134
486000
3000
Ik plaatste dit voor hem.
08:27
I'd lookedkeek at his eyesogen, and I saw his eyesogen lookedkeek at this bottlefles toptop.
135
489000
4000
Ik keek naar zijn ogen en ik zag zijn ogen naar de flessenhals gaan.
08:31
And I'm doing this tasktaak here, and he's checkingcontroleren up.
136
493000
2000
Ik voer deze taak uit en hij volgt dat.
08:33
His eyesogen are going back and forthvoort up to me, to see what I'm looking at --
137
495000
3000
Zijn ogen volgen af en toe de mijne om te zien waar ik naar kijk -
08:36
so we'vewij hebben got sharedgedeelde attentionaandacht.
138
498000
2000
we hebben dus gedeelde aandacht.
08:38
And so I do this tasktaak, and he lookslooks, and he lookslooks to me
139
500000
3000
Ik voer deze taak uit, hij kijkt en kijkt ook naar mij
08:41
to see what's happeninggebeurtenis nextvolgende. And now I'll give him the bottlefles,
140
503000
4000
om te zien wat er gaat gebeuren. Nu geef ik hem de fles
08:45
and we'llgoed see if he can do the tasktaak. Can you do that?
141
507000
2000
en we zullen zien of hij de taak aankan. Kan je dat?
08:47
(LaughterGelach)
142
509000
3000
(Gelach)
08:50
Okay. He's prettymooi good. Yeah. Good, good, good.
143
512000
4000
Oké. Hij is best goed. Ja. Goed, goed, goed.
08:54
I didn't showtonen you how to do that.
144
516000
2000
Ik heb je niet laten zien hoe je dat moet doen.
08:56
Now see if you can put it back togethersamen.
145
518000
2000
Nu eens zien of je het weer in elkaar kan zetten.
08:58
(LaughterGelach)
146
520000
2000
(Gelach)
09:00
And he thinksdenkt a robotrobot has to be really slowlangzaam.
147
522000
1000
Hij denkt dat een robot echt traag moet zijn.
09:01
Good robotrobot, that's good.
148
523000
2000
Goede robot, dat is goed.
09:03
So we saw a bunchbos of things there.
149
525000
2000
We zagen daar een hoop dingen.
09:06
We saw when we're interactinginteractie,
150
528000
3000
We zagen dat als we interageren,
09:09
we're tryingproberen to showtonen someoneiemand how to do something, we directdirect theirhun visualzichtbaar attentionaandacht.
151
531000
4000
als we proberen iemand te tonen hoe iets gedaan wordt, we hun visuele aandacht geleiden.
09:13
The other thing communicatescommuniceert theirhun internalintern statestaat to us,
152
535000
4000
Het andere ding communiceert hun interne toestand naar ons en
09:17
whetherof he's understandingbegrip or not, regulatesregelt a socialsociaal interactionwisselwerking.
153
539000
3000
zorgt voor sociale interactie of hij het begrijpt of niet.
09:20
There was sharedgedeelde attentionaandacht looking at the samedezelfde sortsoort of thing,
154
542000
2000
Er was gedeelde aandacht voor hetzelfde soort dingen
09:22
and recognizingherkennen sociallymaatschappelijk communicatedgecommuniceerd reinforcementversterking at the endeinde.
155
544000
4000
en aan het eind herkennen van sociaal gecommuniceerde bekrachtiging.
09:26
And we'vewij hebben been tryingproberen to put that into our lablaboratorium robotsrobots
156
548000
3000
Dat hebben we proberen te verwezenlijken in ons labrobots
09:29
because we think this is how you're going to want to interactop elkaar inwerken with robotsrobots in the futuretoekomst.
157
551000
4000
omdat we denken dat dit is hoe je in de toekomst met robots gaat willen communiceren.
09:33
I just want to showtonen you one technicaltechnisch diagramdiagram here.
158
555000
2000
Ik toon jullie hier een technisch diagram.
09:35
The mostmeest importantbelangrijk thing for buildinggebouw a robotrobot that you can interactop elkaar inwerken with sociallymaatschappelijk
159
557000
4000
Het allerbelangrijkste voor het bouwen van een robot waarmee je sociaal kunt communiceren,
09:39
is its visualzichtbaar attentionaandacht systemsysteem.
160
561000
2000
is zijn visuele-aandachtsysteem.
09:41
Because what it payspays attentionaandacht to is what it's seeingziend
161
563000
3000
Want hij besteedt aandacht aan wat hij ziet
09:44
and interactinginteractie with, and what you're understandingbegrip what it's doing.
162
566000
3000
en waarmee hij interageert, en of jij begrijpt wat hij doet.
09:47
So in the videosvideos I'm about to showtonen you,
163
569000
3000
In de video’s die ik jullie ga tonen,
09:50
you're going to see a visualzichtbaar attentionaandacht systemsysteem on a robotrobot
164
572000
4000
ga je een visuele-aandachtsysteem zien bij een robot.
09:54
whichwelke has -- it lookslooks for skinhuid tonetoon in HSVHSV spaceruimte,
165
576000
4000
Hij let op huidskleur in de HSV-kleurruimte,
09:58
so it workswerken acrossaan de overkant all humanmenselijk coloringskleurstoffen.
166
580000
4000
hij werkt met alle menselijke huidskleuren.
10:02
It lookslooks for highlyzeer saturatedverzadigd colorskleuren, from toysspeelgoed.
167
584000
2000
Het zoekt naar zeer verzadigde kleuren, van speelgoed.
10:04
And it lookslooks for things that moveverhuizing around.
168
586000
2000
En hij let op dingen die bewegen.
10:06
And it weightsgewichten those togethersamen into an attentionaandacht windowvenster,
169
588000
3000
Hij weegt die af in een aandachtsvenster,
10:09
and it lookslooks for the highest-scoringhoogste scoren placeplaats --
170
591000
2000
en gaat naar de plaats met de hoogste score kijken -
10:11
the stuffspul where the mostmeest interestinginteressant stuffspul is happeninggebeurtenis --
171
593000
2000
waar de interessantste dingen gebeuren -
10:13
and that is what its eyesogen then seguesegue to.
172
595000
4000
en dat is wat zijn ogen dan gaan ‘segue-en’ (volgen).
10:17
And it lookslooks right at that.
173
599000
2000
Daar kijkt hij naar.
10:19
At the samedezelfde time, some top-downondersteboven sortsoort of stuffspul:
174
601000
3000
Op hetzelfde moment gebeuren er een aantal top-down dingen:
10:22
mightmacht decidebesluiten that it's lonelyeenzaam and look for skinhuid tonetoon,
175
604000
3000
hij zou kunnen besluiten dat hij eenzaam is en zoeken naar huidskleur,
10:25
or mightmacht decidebesluiten that it's boredverveeld and look for a toyspeelgoed- to playspelen with.
176
607000
3000
of hij kan beslissen dat hij zich verveelt en op zoek gaan naar een stuk speelgoed om mee te spelen.
10:28
And so these weightsgewichten changeverandering.
177
610000
2000
Dan krijgen andere zaken meer gewicht.
10:30
And over here on the right,
178
612000
2000
Hier aan de rechterkant
10:32
this is what we call the StevenSteven SpielbergSpielberg memorialgedenkteken modulemodule.
179
614000
3000
is wat wij de Steven-Spielberg-gedenktekenmodule noemen.
10:35
Did people see the moviefilm "AIAI"? (AudiencePubliek: Yes.)
180
617000
2000
Heeft iemand de film ‘AI’ gezien? (Publiek: Ja.)
10:37
RBRB: Yeah, it was really badslecht, but --
181
619000
2000
RB: Ja, hij was echt slecht, maar -
10:39
rememberonthouden, especiallyvooral when HaleyHaley JoelJoel OsmentOsment, the little robotrobot,
182
621000
4000
herinner je je dat Haley Joel Osment, de kleine robot,
10:43
lookedkeek at the blueblauw fairyfee for 2,000 yearsjaar withoutzonder takingnemen his eyesogen off it?
183
625000
4000
2000 jaren naar de blauwe fee keek zonder zijn ogen af te wenden?
10:47
Well, this getskrijgt ridbevrijden of that,
184
629000
2000
Met dit ontdoen we ons ervan
10:49
because this is a habituationgewenning GaussianGauss that getskrijgt negativenegatief,
185
631000
4000
want dit is een Gaussiaanse voor gewenning die negatief wordt
10:53
and more and more intenseintens as it lookslooks at one thing.
186
635000
3000
en wel des te meer als hij naar één ding blijft kijken.
10:56
And it getskrijgt boredverveeld, so it will then look away at something elseanders.
187
638000
3000
Hij raakt verveeld en zal dan wegkijken naar iets anders.
10:59
So, onceeen keer you've got that -- and here'shier is a robotrobot, here'shier is KismetKismet,
188
641000
4000
Nu je dat hebt gesnapt: hier is een robot, hier is Kismet
11:03
looking around for a toyspeelgoed-. You can tell what it's looking at.
189
645000
4000
op zoek naar een stuk speelgoed. Je kan zien waar hij naar kijkt.
11:07
You can estimateschatting its gazeblik directionrichting from those eyeballsoogbollen coveringbekleding its cameracamera,
190
649000
5000
Je kan zijn blikrichting raden door die oogballen op zijn camera
11:12
and you can tell when it's actuallywerkelijk seeingziend the toyspeelgoed-.
191
654000
3000
en je kan zien wanneer hij het speelgoed in de gaten heeft.
11:15
And it's got a little bitbeetje of an emotionalemotioneel responseantwoord here.
192
657000
2000
Hij toont hier wat emotie.
11:17
(LaughterGelach)
193
659000
1000
(Gelach)
11:18
But it's still going to paybetalen attentionaandacht
194
660000
2000
Maar hij blijft aandachtig
11:20
if something more significantsignificant comeskomt into its fieldveld- of viewuitzicht --
195
662000
4000
als er iets meer betekenisvol in zijn gezichtsveld komt -
11:24
suchzodanig as CynthiaCynthia BreazealBreazeal, the builderbouwer of this robotrobot, from the right.
196
666000
4000
zoals Cynthia Breazeal, de bouwer van deze robot, van rechts.
11:28
It seesziet her, payspays attentionaandacht to her.
197
670000
5000
Hij ziet haar, besteedt er aandacht aan.
11:33
KismetKismet has an underlyingonderliggende, three-dimensionaldriedimensionaal emotionalemotioneel spaceruimte,
198
675000
4000
Kismet heeft een onderliggende, driedimensionale emotionele ruimte,
11:37
a vectorvector spaceruimte, of where it is emotionallyemotioneel.
199
679000
3000
een vectorruimte, van waar hij zich emotioneel bevindt.
11:40
And at differentverschillend placesplaatsen in that spaceruimte, it expressesverwoordt --
200
682000
5000
Op verschillende plekken in die ruimte, drukt hij zich uit -
11:46
can we have the volumevolume on here?
201
688000
2000
kan het volume even wat hoger?
11:48
Can you hearhoren that now, out there? (AudiencePubliek: Yeah.)
202
690000
2000
Horen jullie het nu? (Publiek: Ja)
11:50
KismetKismet: Do you really think so? Do you really think so?
203
692000
5000
Kismet: Denk je dat echt? Denk je dat echt?
11:57
Do you really think so?
204
699000
2000
Denk je dat echt?
12:00
RBRB: So it's expressinguitdrukken its emotionemotie throughdoor its facegezicht
205
702000
3000
RB: Hij uit zijn emoties via zijn gezicht
12:03
and the prosodyProsodie in its voicestem.
206
705000
2000
en de intonatie in zijn stem.
12:05
And when I was dealingomgang with my robotrobot over here,
207
707000
4000
Toen ik bezig was met mijn robot hier, Chris,
12:09
ChrisChris, the robotrobot, was measuringmeten the prosodyProsodie in my voicestem,
208
711000
3000
mat hij de intonatie van mijn stem.
12:12
and so we have the robotrobot measuremaatregel prosodyProsodie for fourvier basicbasis- messagesberichten
209
714000
5000
Daarom laten we de robot de intonatie meten voor vier elementaire boodschappen
12:17
that mothersmoeders give theirhun childrenkinderen pre-linguisticallypre-linguistically.
210
719000
4000
die moeders hun kinderen pre-linguïstisch meedelen.
12:21
Here we'vewij hebben got naivenaief subjectsvakken praisingprees the robotrobot:
211
723000
3000
Hier laten we onvoorbereide proefpersonen de robot prijzen:
12:26
VoiceStem: NiceMooi robotrobot.
212
728000
2000
Stem: Leuke robot.
12:29
You're suchzodanig a cuteschattig little robotrobot.
213
731000
2000
Je bent zo'n schattige kleine robot.
12:31
(LaughterGelach)
214
733000
2000
(Gelach)
12:33
RBRB: And the robot'sde robot reactingreageren appropriatelyop gepaste wijze.
215
735000
2000
RB: En de robot reageert adequaat.
12:35
VoiceStem: ...very good, KismetKismet.
216
737000
4000
Stem: ... heel goed, Kismet.
12:40
(LaughterGelach)
217
742000
2000
(Gelach)
12:42
VoiceStem: Look at my smileglimlach.
218
744000
2000
Stem: Kijk eens naar mijn glimlach.
12:46
RBRB: It smilesglimlacht. She imitatesimiteert the smileglimlach. This happensgebeurt a lot.
219
748000
3000
RB: Hij glimlacht. Hij imiteert de glimlach. Dit gebeurt vaak.
12:49
These are naivenaief subjectsvakken.
220
751000
2000
Dit zijn onvoorbereide proefpersonen.
12:51
Here we askedgevraagd them to get the robot'sde robot attentionaandacht
221
753000
3000
Hier hebben we hun gevraagd om de aandacht van de robot te trekken
12:54
and indicateaangeven when they have the robot'sde robot attentionaandacht.
222
756000
3000
en aan te geven wanneer ze zijn aandacht hebben.
12:57
VoiceStem: Hey, KismetKismet, ahAh, there it is.
223
759000
4000
Stem: Hey, Kismet, ah, daar is ie.
13:01
RBRB: So she realizesrealiseert she has the robot'sde robot attentionaandacht.
224
763000
4000
RB: Ze beseft dat ze de aandacht van de robot heeft.
13:08
VoiceStem: KismetKismet, do you like the toyspeelgoed-? Oh.
225
770000
4000
Stem: Kismet, vind je het speeltje leuk? Oh.
13:13
RBRB: Now, here they're askedgevraagd to prohibitverbieden the robotrobot,
226
775000
2000
RB: Hier zijn ze gevraagd om de robot iets te verbieden,
13:15
and this first womanvrouw really pushesduwt the robotrobot into an emotionalemotioneel cornerhoek.
227
777000
4000
en de eerste vrouw duwt de robot echt in een emotionele hoek.
13:19
VoiceStem: No. No. You're not to do that. No.
228
781000
5000
Stem: Nee, nee, dat mag niet. Nee.
13:24
(LaughterGelach)
229
786000
3000
(Gelach)
13:27
Not appropriategeschikt. No. No.
230
789000
6000
Mag niet. Nee, nee
13:33
(LaughterGelach)
231
795000
3000
(Gelach)
13:36
RBRB: I'm going to leavehet verlof it at that.
232
798000
2000
RB: Hier ga ik het bij laten.
13:38
We put that togethersamen. Then we put in turnbeurt takingnemen.
233
800000
2000
Dat zetten we in elkaar. Dan voegen we beurtelings werken toe.
13:40
When we talk to someoneiemand, we talk.
234
802000
3000
Wanneer we met iemand praten, praten we,
13:43
Then we sortsoort of raiseverhogen our eyebrowswenkbrauwen, moveverhuizing our eyesogen,
235
805000
4000
dan trekken we onze wenkbrauwen op, bewegen onze ogen
13:47
give the other personpersoon the ideaidee it's theirhun turnbeurt to talk.
236
809000
3000
om de ander aan te geven dat het zijn beurt is om te praten.
13:50
And then they talk, and then we passslagen voor the batonwapenstok back and forthvoort betweentussen eachelk other.
237
812000
4000
Dan gaan zij praten en dan geven we het stokje heen en weer aan elkaar door.
13:54
So we put this in the robotrobot.
238
816000
2000
Daarom hebben we dit in de robot ondergebracht.
13:56
We got a bunchbos of naivenaief subjectsvakken in,
239
818000
2000
We brachten er een stel onvoorbereide proefpersonen bij,
13:58
we didn't tell them anything about the robotrobot,
240
820000
2000
vertelden hen niets over de robot,
14:00
satza them down in frontvoorkant of the robotrobot and said, talk to the robotrobot.
241
822000
2000
zetten ze voor de robot en zeiden: “Praat met de robot.”
14:02
Now what they didn't know was,
242
824000
2000
Wat zij niet wisten was dat
14:04
the robotrobot wasn'twas niet understandingbegrip a wordwoord they said,
243
826000
2000
de robot geen woord snapte van wat ze zeiden
14:06
and that the robotrobot wasn'twas niet speakingsprekend EnglishEngels.
244
828000
3000
en dat de robot geen Engels sprak.
14:09
It was just sayinggezegde randomwillekeurig EnglishEngels phonemesfonemen.
245
831000
2000
Hij produceerde alleen maar wat willekeurige Engelse fonemen.
14:11
And I want you to watch carefullyvoorzichtig, at the beginningbegin of this,
246
833000
2000
Let vooral in het begin goed op
14:13
where this personpersoon, RitchieRitchie, who happenedgebeurd to talk to the robotrobot for 25 minutesnotulen --
247
835000
4000
als deze persoon, Ritchie, die 25 minuten lang met de robot sprak -
14:17
(LaughterGelach)
248
839000
2000
(Gelach)
14:19
-- sayszegt, "I want to showtonen you something.
249
841000
2000
- zegt: "Ik wil je iets laten zien.
14:21
I want to showtonen you my watch."
250
843000
2000
Ik wil je mijn horloge tonen.”
14:23
And he bringsbrengt the watch centercentrum, into the robot'sde robot fieldveld- of visionvisie,
251
845000
5000
Hij brengt zijn horloge midden in het gezichtsveld van de robot,
14:28
pointspoints to it, givesgeeft it a motionbeweging cuekeu,
252
850000
2000
wijst ernaar, geeft hem een bewegingsaanwijzing
14:30
and the robotrobot lookslooks at the watch quiteheel successfullymet succes.
253
852000
2000
en de robot slaagt erin naar het horloge te kijken.
14:32
We don't know whetherof he understoodbegrijpelijk or not that the robotrobot --
254
854000
3000
We weten niet of hij wel of niet begreep, dat de robot -
14:36
NoticeAankondiging the turn-takingbocht nemen.
255
858000
2000
Let op het beurtelings reageren.
14:38
RitchieRitchie: OK, I want to showtonen you something. OK, this is a watch
256
860000
3000
Ritchie: Ik wil je iets laten zien. Dit is een horloge
14:41
that my girlfriendvriendin gavegaf me.
257
863000
3000
dat ik kreeg van mijn vriendin.
14:44
RobotRobot: Oh, coolkoel.
258
866000
2000
Robot: Oh, cool.
14:46
RitchieRitchie: Yeah, look, it's got a little blueblauw lightlicht in it too. I almostbijna lostde weg kwijt it this weekweek.
259
868000
4000
Ritchie: Ja, kijk, er zit ook een blauw lichtje in. Ik verloor het deze week bijna.
14:51
(LaughterGelach)
260
873000
4000
(Gelach)
14:55
RBRB: So it's makingmaking eyeoog contactcontact with him, followingvolgend his eyesogen.
261
877000
3000
RB: Hij maakt oogcontact met hem, volgt zijn ogen.
14:58
RitchieRitchie: Can you do the samedezelfde thing? RobotRobot: Yeah, sure.
262
880000
2000
Ritchie: Kan je dat ook? Robot: Ja, zeker.
15:00
RBRB: And they successfullymet succes have that sortsoort of communicationcommunicatie.
263
882000
2000
RB: Ze slagen er dus in een bepaald soort communicatie tot stand te brengen.
15:02
And here'shier is anothereen ander aspectaspect of the sortssoorten of things that ChrisChris and I were doing.
264
884000
4000
Hier is een ander aspect van de dingen die Chris en ik deden.
15:06
This is anothereen ander robotrobot, CogKogge.
265
888000
2000
Dit is een andere robot, Cog.
15:08
They first make eyeoog contactcontact, and then, when ChristieChristie lookslooks over at this toyspeelgoed-,
266
890000
6000
Ze maken eerst oogcontact en dan, als Christie naar dit speeltje kijkt,
15:14
the robotrobot estimatesramingen her gazeblik directionrichting
267
896000
2000
raadt de robot haar blikrichting
15:16
and lookslooks at the samedezelfde thing that she's looking at.
268
898000
2000
en kijkt naar hetzelfde ding waar zij naar kijkt.
15:18
(LaughterGelach)
269
900000
1000
(Gelach)
15:19
So we're going to see more and more of this sortsoort of robotrobot
270
901000
3000
We gaan dit soort robot de komende jaren
15:22
over the nextvolgende fewweinig yearsjaar in labslabs.
271
904000
2000
in laboratoria meer en meer te zien krijgen.
15:24
But then the biggroot questionsvragen, two biggroot questionsvragen that people askvragen me are:
272
906000
5000
Maar dan de grote vragen, de twee grote vragen die mensen mij stellen, zijn:
15:29
if we make these robotsrobots more and more human-likemensachtige,
273
911000
2000
“Als we deze robots meer en meer mensachtig gaan maken,
15:31
will we acceptaccepteren them, will we -- will they need rightsrechten eventuallytenslotte?
274
913000
5000
zullen we ze dan accepteren, zullen ze dan uiteindelijk rechten moeten hebben?”
15:36
And the other questionvraag people askvragen me is, will they want to take over?
275
918000
3000
De andere vraag die mensen mij stellen is: “Zullen ze de zaak willen overnemen?”
15:39
(LaughterGelach)
276
921000
1000
(Gelach)
15:40
And on the first -- you know, this has been a very HollywoodHollywood themethema
277
922000
3000
Op de eerste – ja dat is een echt Hollywoodthema
15:43
with lots of moviesfilms. You probablywaarschijnlijk recognizeherken these characterstekens here --
278
925000
3000
met een hoop films. Je herkent waarschijnlijk deze personages -
15:46
where in eachelk of these casesgevallen, the robotsrobots want more respecteerbied.
279
928000
4000
waar in elk van deze gevallen, de robots meer respect willen.
15:50
Well, do you ever need to give robotsrobots respecteerbied?
280
932000
3000
Zal je robots ooit moeten respecteren?
15:54
They're just machinesmachines, after all.
281
936000
2000
Het zijn per slot van rekening toch alleen maar machines.
15:56
But I think, you know, we have to acceptaccepteren that we are just machinesmachines.
282
938000
4000
Maar ik denk, dat we moeten accepteren dat wij ook slechts machines zijn.
16:00
After all, that's certainlyzeker what modernmodern molecularmoleculair biologybiologie sayszegt about us.
283
942000
5000
Dat is immers wat de moderne moleculaire biologie over ons zegt.
16:05
You don't see a descriptionBeschrijving of how, you know,
284
947000
3000
Je zal geen beschrijving vinden van hoe
16:08
MoleculeMolecuul A, you know, comeskomt up and docksdokken with this other moleculemolecuul.
285
950000
4000
molecule A zich, aangedreven door tegengestelde ladingen,
16:12
And it's movingin beweging forwardvooruit, you know, propelledPropelled by variousdivers chargeskosten,
286
954000
3000
beweegt naar molecule B om zich dan,
16:15
and then the soulziel stepsstappen in and tweakstweaks those moleculesmoleculen so that they connectaansluiten.
287
957000
4000
door de bemoeienis van een ‘ziel’, eraan te binden.
16:19
It's all mechanisticmechanistisch. We are mechanismmechanisme.
288
961000
3000
Het is allemaal mechanistisch. We zijn een mechanisme.
16:22
If we are machinesmachines, then in principlebeginsel at leastminst,
289
964000
3000
Als we machines zijn, dan zijn we, in principe althans,
16:25
we should be ablein staat to buildbouwen machinesmachines out of other stuffspul,
290
967000
4000
in staat om machines te bouwen met behulp van andere dingen.
16:29
whichwelke are just as alivelevend as we are.
291
971000
4000
Machines die net zo levend zijn als wij.
16:33
But I think for us to admittoegeven that,
292
975000
2000
Maar ik denk dat om dat toe te geven,
16:35
we have to give up on our special-nessSpecial-heid, in a certainzeker way.
293
977000
3000
we onze uniciteit moeten opgeven.
16:38
And we'vewij hebben had the retreatretraite from special-nessSpecial-heid
294
980000
2000
We hebben onze uniciteit, op zijn minst
16:40
underonder the barragebarrage of sciencewetenschap and technologytechnologie manyveel timestijden
295
982000
3000
in de afgelopen paar honderd jaar, al vaak moeten opgeven
16:43
over the last fewweinig hundredhonderd yearsjaar, at leastminst.
296
985000
2000
onder het spervuur van wetenschap en technologie.
16:45
500 yearsjaar agogeleden we had to give up the ideaidee
297
987000
2000
500 jaar geleden moesten we het idee opgeven
16:47
that we are the centercentrum of the universeuniversum
298
989000
3000
dat wij het middelpunt van het universum waren
16:50
when the earthaarde startedbegonnen to go around the sunzon;
299
992000
2000
toen de aarde rond de zon begon te draaien.
16:52
150 yearsjaar agogeleden, with DarwinDarwin, we had to give up the ideaidee we were differentverschillend from animalsdieren.
300
994000
5000
150 jaar geleden moesten we met Darwin het idee opgeven dat we iets anders waren dan dieren.
16:57
And to imaginestel je voor -- you know, it's always hardhard for us.
301
999000
3000
Voor ons moeilijk verteerbaar.
17:00
RecentlyOnlangs we'vewij hebben been batteredgehavend with the ideaidee that maybe
302
1002000
3000
Onlangs werden we om de oren geslagen met het idee dat we misschien
17:03
we didn't even have our owneigen creationschepping eventevenement, here on earthaarde,
303
1005000
2000
op aarde niet eens onze speciale schepping hadden.
17:05
whichwelke people didn't like much. And then the humanmenselijk genomegenoom said,
304
1007000
3000
Mensen houden daar niet van. Dan vertelde het menselijk genoom ons
17:08
maybe we only have 35,000 genesgenen. And that was really --
305
1010000
3000
dat we misschien maar 35 duizend genen hadden. Daar
17:11
people didn't like that, we'vewij hebben got more genesgenen than that.
306
1013000
3000
houden mensen ook niet van, we willen meer genen dan dat.
17:14
We don't like to give up our special-nessSpecial-heid, so, you know,
307
1016000
3000
We houden er niet van onze uniciteit op te geven.
17:17
havingmet the ideaidee that robotsrobots could really have emotionsemoties,
308
1019000
2000
Het idee dat robots echt emoties zouden kunnen hebben
17:19
or that robotsrobots could be livingleven creaturesschepsels --
309
1021000
2000
of dat robots levende wezens kunnen worden -
17:21
I think is going to be hardhard for us to acceptaccepteren.
310
1023000
2000
ik denk dat we dat moeilijk zullen kunnen slikken.
17:23
But we're going to come to acceptaccepteren it over the nextvolgende 50 yearsjaar or so.
311
1025000
4000
Maar we gaan het in de komende 50 jaar of zo moeten accepteren.
17:27
And the secondtweede questionvraag is, will the machinesmachines want to take over?
312
1029000
3000
En de tweede vraag: “Zullen de machines de zaak willen overnemen?”
17:30
And here the standardstandaard- scenarioscenario is that we createcreëren these things,
313
1032000
5000
Het standaard scenario is dat we deze dingen gaan maken,
17:35
they growgroeien, we nurturekoesteren them, they learnleren a lot from us,
314
1037000
3000
ze groeien, we voeden ze, ze leren heel veel van ons
17:38
and then they startbegin to decidebesluiten that we're prettymooi boringsaai, slowlangzaam.
315
1040000
4000
en dan gaan ze vinden dat we maar erg saai en traag zijn.
17:42
They want to take over from us.
316
1044000
2000
Ze zullen het willen overnemen van ons.
17:44
And for those of you that have teenagerstieners, you know what that's like.
317
1046000
3000
Ouders met tieners kennen dat.
17:47
(LaughterGelach)
318
1049000
1000
(Gelach)
17:48
But HollywoodHollywood extendsstrekt it to the robotsrobots.
319
1050000
3000
Maar Hollywood breidt dat uit naar robots.
17:51
And the questionvraag is, you know,
320
1053000
3000
De vraag is of
17:54
will someoneiemand accidentallyper ongeluk buildbouwen a robotrobot that takes over from us?
321
1056000
4000
iemand per ongeluk een robot bouwt die het overneemt van ons?
17:58
And that's sortsoort of like this loneeenzaam guy in the backyardachtererf,
322
1060000
3000
Dat is zoiets als die eenling in zijn achtertuin
18:01
you know -- "I accidentallyper ongeluk builtgebouwd a 747."
323
1063000
3000
die zegt: "Ik heb per ongeluk een 747 gebouwd."
18:04
I don't think that's going to happengebeuren.
324
1066000
2000
Ik denk niet dat dat gaat gebeuren.
18:06
And I don't think --
325
1068000
2000
Ik denk niet dat -
18:08
(LaughterGelach)
326
1070000
1000
(Gelach)
18:09
-- I don't think we're going to deliberatelymet opzet buildbouwen robotsrobots
327
1071000
3000
- ik denk niet dat we bewust robots gaan bouwen
18:12
that we're uncomfortableongemakkelijk with.
328
1074000
2000
waar we ons ongemakkelijk bij gaan voelen.
18:14
We'llWe zullen -- you know, they're not going to have a supersuper badslecht robotrobot.
329
1076000
2000
We gaan geen superslechte robot maken.
18:16
Before that has to come to be a mildlymild badslecht robotrobot,
330
1078000
3000
Daarvoor moet je eerst een robot maken die een beetje slecht is
18:19
and before that a not so badslecht robotrobot.
331
1081000
2000
en daarvóór een niet zo slechte robot.
18:21
(LaughterGelach)
332
1083000
1000
(Gelach)
18:22
And we're just not going to let it go that way.
333
1084000
2000
Zoiets gaan we gewoon niet laten gebeuren.
18:24
(LaughterGelach)
334
1086000
1000
(Gelach)
18:25
So, I think I'm going to leavehet verlof it at that: the robotsrobots are comingkomt eraan,
335
1087000
6000
Ik denk dat ik het hierbij ga laten: de robots komen.
18:31
we don't have too much to worryzorgen about, it's going to be a lot of funpret,
336
1093000
3000
We hoeven ons daar niet te veel zorgen over te maken, het gaat heel leuk zijn
18:34
and I hopehoop you all enjoygenieten the journeyreis over the nextvolgende 50 yearsjaar.
337
1096000
4000
en ik hoop dat jullie er de volgende 50 jaar nog veel plezier aan zullen beleven.
18:38
(ApplauseApplaus)
338
1100000
2000
(Applaus)
Translated by Rik Delaet
Reviewed by Christel Foncke

▲Back to top

ABOUT THE SPEAKER
Rodney Brooks - Roboticist
Rodney Brooks builds robots based on biological principles of movement and reasoning. The goal: a robot who can figure things out.

Why you should listen

Former MIT professor Rodney Brooks studies and engineers robot intelligence, looking for the holy grail of robotics: the AGI, or artificial general intelligence. For decades, we've been building robots to do highly specific tasks -- welding, riveting, delivering interoffice mail -- but what we all want, really, is a robot that can figure things out on its own, the way we humans do.

Brooks realized that a top-down approach -- just building the biggest brain possible and teaching it everything we could think of -- would never work. What would work is a robot who learns like we do, by trial and error, and with many separate parts that learn separate jobs. The thesis of his work which was captured in Fast, Cheap and Out of Control,went on to become the title of the great Errol Morris documentary.

A founder of iRobot, makers of the Roomba vacuum, Brooks is now founder and CTO of Rethink Robotics, whose mission is to apply advanced robotic intelligence to manufacturing and physical labor. Its first robots: the versatile two-armed Baxter and one-armed Sawyer. Brooks is the former director of CSAIL, MIT's Computers Science and Artificial Intelligence Laboratory.

 
More profile about the speaker
Rodney Brooks | Speaker | TED.com