ABOUT THE SPEAKER
Rodney Brooks - Roboticist
Rodney Brooks builds robots based on biological principles of movement and reasoning. The goal: a robot who can figure things out.

Why you should listen

Former MIT professor Rodney Brooks studies and engineers robot intelligence, looking for the holy grail of robotics: the AGI, or artificial general intelligence. For decades, we've been building robots to do highly specific tasks -- welding, riveting, delivering interoffice mail -- but what we all want, really, is a robot that can figure things out on its own, the way we humans do.

Brooks realized that a top-down approach -- just building the biggest brain possible and teaching it everything we could think of -- would never work. What would work is a robot who learns like we do, by trial and error, and with many separate parts that learn separate jobs. The thesis of his work which was captured in Fast, Cheap and Out of Control,went on to become the title of the great Errol Morris documentary.

A founder of iRobot, makers of the Roomba vacuum, Brooks is now founder and CTO of Rethink Robotics, whose mission is to apply advanced robotic intelligence to manufacturing and physical labor. Its first robots: the versatile two-armed Baxter and one-armed Sawyer. Brooks is the former director of CSAIL, MIT's Computers Science and Artificial Intelligence Laboratory.

 
More profile about the speaker
Rodney Brooks | Speaker | TED.com
TED2003

Rodney Brooks: Robots will invade our lives

Rodney Brooks spune că roboții ne vor invada viețile

Filmed:
689,918 views

În acest discurs profetic din 2003, roboticianul Rodney Brooks discută despre cum îşi vor găsi roboții loc în viața noastră - începând cu jucării și ajungând la activitățile din gospodările... și nu numai.
- Roboticist
Rodney Brooks builds robots based on biological principles of movement and reasoning. The goal: a robot who can figure things out. Full bio

Double-click the English transcript below to play the video.

00:18
What I want to tell you about todayastăzi is how I see robotsroboți invadinginvadarea our livesvieți
0
0
5000
Vreau să vă povestesc astăzi este despre cum văd eu că roboții ne invadează viața
00:23
at multiplemultiplu levelsniveluri, over multiplemultiplu timescalesintervalul de timp.
1
5000
3000
la niveluri multiple, la diverse intervale de timp.
00:26
And when I look out in the futureviitor, I can't imagineimagina a worldlume, 500 yearsani from now,
2
8000
4000
Și când mă uit în viitor, îmi imaginez o lume, 500 de ani de acum înainte,
00:30
where we don't have robotsroboți everywherepretutindeni.
3
12000
2000
unde nu avem roboți peste tot,
00:32
AssumingPresupunând că -- despitein ciuda all the direDire predictionsPredictii from manymulți people about our futureviitor --
4
14000
5000
asumând că - în ciuda tuturor previziunilor sumbre a multor oameni asupra viitorului -
00:37
assumingpresupunând we're still around, I can't imagineimagina the worldlume not beingfiind populatedpopulata with robotsroboți.
5
19000
4000
asumând că încă existăm, nu îmi pot imagina lumea fără a fi populată de roboți.
00:41
And then the questionîntrebare is, well, if they're going to be here in 500 yearsani,
6
23000
3000
Iar întrebarea este, defapt, dacă vor mai fi aici și peste 500 de ani,
00:44
are they going to be everywherepretutindeni soonermai curând than that?
7
26000
2000
nu vor fi peste tot mai repede de atât?
00:46
Are they going to be around in 50 yearsani?
8
28000
2000
Vor fi deja peste tot în aproximativ 50 de ani?
00:48
Yeah, I think that's prettyfrumos likelyprobabil -- there's going to be lots of robotsroboți everywherepretutindeni.
9
30000
3000
Da, eu cred că este destul de posibil -- vor fi mulți roboți peste tot.
00:51
And in factfapt I think that's going to be a lot soonermai curând than that.
10
33000
3000
Și defapt eu cred că asta se va întâmpla și mai repede.
00:54
I think we're sortfel of on the cuspvârf of robotsroboți becomingdevenire commoncomun,
11
36000
4000
Cred că suntem pe punctul de a avea roboții peste tot,
00:58
and I think we're sortfel of around 1978 or 1980 in personalpersonal computercomputer yearsani,
12
40000
6000
și cred că suntem undeva prin 1978 sau 1980 în anii computerului personal,
01:04
where the first fewpuțini robotsroboți are startingpornire to appearapărea.
13
46000
3000
când primii roboți încep să apară.
01:07
ComputersCalculatoare sortfel of camea venit around throughprin gamesjocuri and toysjucarii.
14
49000
4000
Computerele au cam apărut prin jocuri și jucării.
01:11
And you know, the first computercomputer mostcel mai people had in the housecasă
15
53000
3000
Și știți voi, primul computer pe care oamenii l-au avut în casă
01:14
mayMai have been a computercomputer to playa juca PongPong,
16
56000
2000
s-ar putea să fi fost un computer cu care să te joci Pong,
01:16
a little microprocessormicroprocesor embeddedîncorporat,
17
58000
2000
und mic microprocesor integrat,
01:18
and then other gamesjocuri that camea venit after that.
18
60000
3000
și toate celelalte jocuri care au apărut după aceea.
01:21
And we're startingpornire to see that samela fel sortfel of thing with robotsroboți:
19
63000
3000
Și începem să vedem același lucru și cu roboții:
01:24
LEGOLEGO MindstormsMindstorms, FurbiesFurby -- who here -- did anyoneoricine here have a FurbyFurby?
20
66000
4000
LEGO Mindstorms, Furbies -- cine de aici -- a avut un Furby?
01:28
Yeah, there's 38 millionmilion of them soldvândut worldwidela nivel mondial.
21
70000
3000
Da, s-au vândut 38 de milioane în lumea întreagă.
01:31
They are prettyfrumos commoncomun. And they're a little tinyminuscul robotrobot,
22
73000
2000
Sunt destul de des întâlniţi, și sunt un roboțel mic,
01:33
a simplesimplu robotrobot with some sensorssenzori,
23
75000
2000
un simplu robot cu senzori.
01:35
a little bitpic of processingprelucrare actuationAcționarea comutatorului.
24
77000
2000
Este doar un proces de punere în mișcare.
01:37
On the right there is anothero alta robotrobot dollpapusa, who you could get a couplecuplu of yearsani agoîn urmă.
25
79000
3000
În dreapta acolo este o altă păpușă robot, pe care o puteai cumpăra acum câțiva ani.
01:40
And just as in the earlydin timp dayszi,
26
82000
2000
Și la fel ca și în vremurile de demult,
01:42
when there was a lot of sortfel of amateuramator interactioninteracţiune over computerscalculatoare,
27
84000
5000
când exista un fel de interacțiune de amator cu computerele,
01:47
you can now get variousvariat hackingtocat kitskituri, how-to-hackCum la spre hack bookscărți.
28
89000
4000
poţi obţine diferite kit-uri de hacking, cărţi despre hacking.
01:51
And on the left there is a platformplatformă from EvolutionEvoluţia RoboticsRobotica,
29
93000
4000
Și în stânga este o platformă de la Evoluția Roboticii,
01:55
where you put a PCPC-UL on, and you programprogram this thing with a GUIGUI
30
97000
3000
unde folosești un PC, și programezi acest lucru cu un GUI
01:58
to wanderumbla around your housecasă and do variousvariat stuffchestie.
31
100000
3000
pentru a se plimba prin casa ta și a face diverse lucruri.
02:01
And then there's a highersuperior pricePreț pointpunct sortfel of robotrobot toysjucarii --
32
103000
3000
Și după care mai sunt cele la preț mare, un fel de roboți jucărie...
02:04
the SonySony AiboAibo. And on the right there, is one that the NECNEC developeddezvoltat,
33
106000
4000
Sony Aibo. Și în partea dreaptă acolo, este cel pe care l-a dezvoltat NEC ,
02:08
the PaPeRoPaPeRo, whichcare I don't think they're going to releaseeliberare.
34
110000
3000
PaPeRo, pe care nu cred că îl vor lansa.
02:11
But neverthelesscu toate acestea, those sortsfelul of things are out there.
35
113000
3000
Dar cu toate acestea, astfel de lucruri există.
02:14
And we'vene-am seenvăzut, over the last two or threeTrei yearsani, lawn-mowingcosit gazon robotsroboți,
36
116000
4000
Și am văzut, în ultimii doi sau trei ani, roboți care ară.
02:18
HusqvarnaHusqvarna on the bottomfund, FriendlyPrietenos RoboticsRobotica on toptop there, an IsraeliIsraelian companycompanie.
37
120000
6000
Husqvarna se află jos, Friendly Robotics sus acolo, o companie israeliană.
02:24
And then in the last 12 monthsluni or so
38
126000
2000
Iar în ultimele 12 luni sau așa
02:26
we'vene-am starteda început to see a bunchbuchet of home-cleaningCasa de curăţare robotsroboți appearapărea.
39
128000
4000
am observat apariția unei mulțimi de roboți care curăță.
02:30
The toptop left one is a very nicefrumos home-cleaningCasa de curăţare robotrobot
40
132000
3000
În stânga sus este un robot foarte frumos care curăță
02:33
from a companycompanie calleddenumit DysonDyson, in the U.K. ExceptCu excepţia it was so expensivescump --
41
135000
4000
de la o companie pe nume Dyson, din Marea Britanie. Cu excepția că a fost atât de scump...
02:37
3,500 dollarsdolari -- they didn't releaseeliberare it.
42
139000
2000
3,500 dolari -- încât nu l-au lansat.
02:39
But at the bottomfund left, you see ElectroluxElectrolux, whichcare is on salevânzare.
43
141000
3000
Dar în stânga jos vedeți de la Electrolux, care este de vânzare.
02:42
AnotherUn alt one from KarcherKARCHER.
44
144000
2000
Încă unul de la Karcher.
02:44
At the bottomfund right is one that I builtconstruit in my lablaborator
45
146000
2000
În dreapta jos este acela care l-am construit în laboratorul meu
02:46
about 10 yearsani agoîn urmă, and we finallyin sfarsit turnedîntoarse that into a productprodus.
46
148000
3000
acum 10 ani, și într-un final l-am transformat în produs.
02:49
And let me just showspectacol you that.
47
151000
2000
Și stați să vă arăt.
02:51
We're going to give this away I think, ChrisChris said, after the talk.
48
153000
4000
Îl vom da pe acesta, cred că Chris a spus asta, după discuție.
02:55
This is a robotrobot that you can go out and buya cumpara, and that will cleancurat up your floorpodea.
49
157000
6000
Acesta este un robot pe care poți să te duci să îl cumperi, care îți va curăța podeaua.
03:05
And it startsîncepe off sortfel of just going around in ever-increasingtot mai mare circlescerc.
50
167000
5000
Și când începe să funcționeze, merge în cercuri tot mai mari.
03:10
If it hitshit-uri something -- you people see that?
51
172000
4000
Dacă cumva se lovește de ceva -- ați văzut?
03:14
Now it's doing wall-followingperete-în urma, it's followingca urmare a around my feetpicioare
52
176000
3000
Acum merge de-alungul peretelui, merge în jurul picioarelor mele
03:17
to cleancurat up around me. Let's see, let's --
53
179000
4000
să curețe ce e în jurul meu. Hai să vedem, hai să...
03:21
oh, who stolefurat my RiceOrez KrispiesKrispies? They stolefurat my RiceOrez KrispiesKrispies!
54
183000
5000
oh, cine mi-a furat Rice Krispies-urile mele? Mi-au furat Rice Krispies-urile mele.
03:26
(LaughterRâs)
55
188000
6000
(Râsete)
03:32
Don't worryface griji, relaxRelaxaţi-vă, no, relaxRelaxaţi-vă, it's a robotrobot, it's smartinteligent!
56
194000
3000
Nu vă faceți griji, relaxați-vă, serios, relaxați-vă, e un robot, e inteligent.
03:35
(LaughterRâs)
57
197000
3000
(Râsete)
03:38
See, the three-year-oldîn vârstă de trei ani kidscopii, they don't worryface griji about it.
58
200000
4000
Vedeți, copiii de 3 ani, lor nu le pasă.
03:42
It's grown-upsadulti that get really upsetderanjat.
59
204000
2000
Adulții sunt cei care chiar se supără.
03:44
(LaughterRâs)
60
206000
1000
(Râsete)
03:45
We'llVom just put some craprahat here.
61
207000
2000
Vom pune aici niște gunoi.
03:47
(LaughterRâs)
62
209000
4000
(Râsete)
03:51
Okay.
63
213000
2000
Ok.
03:53
(LaughterRâs)
64
215000
4000
(Râsete)
03:57
I don't know if you see -- so, I put a bunchbuchet of RiceOrez KrispiesKrispies there,
65
219000
3000
Nu știu dacă vedeți - deci, am pus niște Rice Krispies aici,
04:00
I put some penniesPenny, let's just shoottrage it at that, see if it cleanscurăță up.
66
222000
7000
am pus niște monezi, să vedem dacă va curăța totul.
04:10
Yeah, OK. So --
67
232000
2000
Da. Ok, deci...
04:12
we'llbine leavepărăsi that for latermai tarziu.
68
234000
4000
O să lăsăm asta pentru mai târziu.
04:16
(ApplauseAplauze)
69
238000
5000
(Aplauze)
04:22
PartParte of the tricktruc was buildingclădire a better cleaningcurățenie mechanismmecanism, actuallyde fapt;
70
244000
4000
O parte din truc a fost să fie construit un mecanism care să curețe mai bine, defapt;
04:26
the intelligenceinteligență on boardbord was fairlydestul de simplesimplu.
71
248000
4000
inteligența de pe bord a fost destul de simplă.
04:30
And that's trueAdevărat with a lot of robotsroboți.
72
252000
2000
Și asta este adevărat legat de mulți roboți.
04:32
We'veNe-am all, I think, becomedeveni, sortfel of computationalcomputațională chauvinistsşoviniştii,
73
254000
4000
Eu cred că toți am devenit un fel de șoviniști computaționali,
04:36
and think that computationcalcul is everything,
74
258000
2000
și credem că totul este în computație,
04:38
but the mechanicsmecanica still mattermaterie.
75
260000
2000
dar mecanica își are totuși rostul.
04:40
Here'sAici este anothero alta robotrobot, the PackBotPackBot,
76
262000
3000
Aici este un alt robot, PackBot,
04:43
that we'vene-am been buildingclădire for a bunchbuchet of yearsani.
77
265000
2000
pe care l-am construit în vreo câțiva ani.
04:45
It's a militarymilitar surveillancesupraveghere robotrobot, to go in aheadînainte of troopstrupele --
78
267000
6000
Este un robot de supraveghere militară, care merge înaintea trupelor,
04:51
looking at cavespeșteri, for instanceinstanță.
79
273000
3000
care se uită la peșteri, de exemplu.
04:54
But we had to make it fairlydestul de robustrobust,
80
276000
2000
Dar a trebuit să îl facem destul de robust,
04:56
much more robustrobust than the robotsroboți we buildconstrui in our labslaboratoare.
81
278000
7000
mult mai robust decât roboții pe care i-am construit în laboratoarele noastre.
05:03
(LaughterRâs)
82
285000
3000
(Râsete)
05:12
On boardbord that robotrobot is a PCPC-UL runningalergare LinuxLinux.
83
294000
4000
În sistemul acelui robot rulează un PC Linux.
05:16
It can withstandrezista a 400G shockşoc. The robotrobot has locallocal intelligenceinteligență:
84
298000
6000
Poate face față la un șoc de 400G. Robotul are inteligență locală:
05:22
it can flipflip- itselfîn sine over, can get itselfîn sine into communicationcomunicare rangegamă,
85
304000
6000
se poate da peste cap, poate determina raza de comunicare,
05:28
can go upstairsla etaj by itselfîn sine, etet ceteracetera.
86
310000
3000
poate urca singur scările, etc.
05:38
Okay, so it's doing locallocal navigationnavigare there.
87
320000
4000
Ok, acolo face navigație locală.
05:42
A soldiersoldat gives it a commandcomanda to go upstairsla etaj, and it does.
88
324000
6000
Un soldat îi dă o comandă să meargă sus pe scări, și chiar face asta.
05:49
That was not a controlleddirijat descentcoborâre.
89
331000
3000
Aceea nu a fost o coborâre controlată.
05:52
(LaughterRâs)
90
334000
2000
(Râsete)
05:54
Now it's going to headcap off.
91
336000
2000
Acum va merge mai departe.
05:56
And the bigmare breakthroughdescoperire for these robotsroboți, really, was SeptemberSeptembrie 11thlea.
92
338000
5000
Și marea lansare a acestor roboți a fost, defapt, pe 11 Septembrie.
06:01
We had the robotsroboți down at the WorldLumea TradeComerciale CenterCentrul latetârziu that eveningseară.
93
343000
4000
Am avut acești roboți jos la World Trade Center târziu în acea seară.
06:06
Couldn'tNu a putut do a lot in the mainprincipal rubblemoloz pilemorman,
94
348000
2000
Nu au putut face prea mult în grămezile mari de moloz,
06:08
things were just too -- there was nothing left to do.
95
350000
3000
lucrurile au fost prea... nu prea a rămas nimic de făcut.
06:11
But we did go into all the surroundingînconjurător buildingsclădiri that had been evacuatedevacuat,
96
353000
5000
Dar am mers în clădirile din apropiere care au fost evacuate,
06:16
and searchedcautat for possibleposibil survivorssupraviețuitori in the buildingsclădiri
97
358000
3000
și am căutat posibili supraviețuitori în clădiri
06:19
that were too dangerouspericulos to go into.
98
361000
2000
în care era prea periculos să intrăm.
06:21
Let's runalerga this videovideo.
99
363000
2000
Să rulăm acest video.
06:23
ReporterReporter: ...battlefieldcâmp de luptă companionstovarăşi are helpingajutor to reducereduce the combatluptă risksriscuri.
100
365000
3000
Reporter: ... trupele de apărare ajută la reducererea riscurilor de atac.
06:26
NickNick RobertsonRobertson has that storypoveste.
101
368000
3000
Nick Robertson are povestea aceea.
06:31
RodneyRodney BrooksBrooks: Can we have anothero alta one of these?
102
373000
2000
Rodney Brooks: Mai putem avea încă unul din aceștia?
06:38
Okay, good.
103
380000
2000
Ok, bine.
06:43
So, this is a corporalCaporalul who had seenvăzut a robotrobot two weekssăptămâni previouslyîn prealabil.
104
385000
3000
Acesta este un caporal care văzuse un robot cu două săptămâni înainte.
06:48
He's sendingtrimitere robotsroboți into cavespeșteri, looking at what's going on.
105
390000
4000
El trimite roboți în peșteri, să observe ce se întâmplă.
06:52
The robot'srobot beingfiind totallyintru totul autonomousautonom.
106
394000
2000
Robotul este în totalitate autonom.
06:54
The worstcel mai rău thing that's happeneds-a întâmplat in the cavePestera so fardeparte
107
396000
4000
Cel mai groaznic lucru care s-a petrecut până acum în peșteră
06:58
was one of the robotsroboți fellcăzut down tenzece metersmetri.
108
400000
3000
este că unul dintre roboți a căzut zece metri.
07:08
So one yearan agoîn urmă, the US militarymilitar didn't have these robotsroboți.
109
410000
3000
Așa că în urmă cu un an, trupele militare americane nu aveau acești roboți.
07:11
Now they're on activeactiv dutydatorie in AfghanistanAfganistan everyfiecare day.
110
413000
2000
Acum sunt activi la datorie în Afghanistan în fiecare zi.
07:13
And that's one of the reasonsmotive they say a robotrobot invasioninvazie is happeninglucru.
111
415000
3000
Și acela este unul dintre motivele pentru care ei spun că o invazie de roboți se întâmplă.
07:16
There's a seamare changeSchimbare happeninglucru in how -- where technology'stehnologia going.
112
418000
4000
Acum are loc o schimbare... direcția în care merge tehnologia.
07:20
Thanksmulţumesc.
113
422000
2000
Mulțumesc.
07:23
And over the nextUrmător → couplecuplu of monthsluni,
114
425000
2000
În următoarele luni,
07:25
we're going to be sendingtrimitere robotsroboți in productionproducere
115
427000
3000
vom trimite roboți în producție
07:28
down producingproducând oilulei wellsWells to get that last fewpuțini yearsani of oilulei out of the groundsol.
116
430000
4000
să producă sonde de petrol, pentru a extrage acei ultimi ani de petrol din pământ.
07:32
Very hostileostil environmentsmedii, 150˚ C, 10,000 PSIPSI.
117
434000
4000
Medii foarte ostile, 150 centigrade, 10.000 PSI.
07:36
AutonomousAutonome robotsroboți going down, doing this sortfel of work.
118
438000
4000
Roboții autonomi merg în adâncuri, efectuând astfel de lucruri.
07:40
But robotsroboți like this, they're a little hardgreu to programprogram.
119
442000
3000
Dar roboți ca aceștia, sunt puțin mai greu de programat.
07:43
How, in the futureviitor, are we going to programprogram our robotsroboți
120
445000
2000
Cum vom programa în viitor roboții
07:45
and make them easierMai uşor to use?
121
447000
2000
și îi vom face mai ușor de utilizat?
07:47
And I want to actuallyde fapt use a robotrobot here --
122
449000
3000
Și chiar vreau aici să folosesc un robot...
07:50
a robotrobot namednumit ChrisChris -- standstand up. Yeah. Okay.
123
452000
5000
un robot pe nume Chris - ridica-te. Da. Ok.
07:57
Come over here. Now noticeînștiințare, he thinkscrede robotsroboți have to be a bitpic stiffrigid.
124
459000
4000
Vin-o aici. Acum observați, roboții trebuie să fie puțin rigizi.
08:01
He sortfel of does that. But I'm going to --
125
463000
3000
El este oarecum asa. Dar voi...
08:04
ChrisChris AndersonAnderson: I'm just BritishBritanic. RBRB: Oh.
126
466000
2000
Chris Anderson: Sunt britanic doar. RB: Oh.
08:06
(LaughterRâs)
127
468000
2000
(Râsete)
08:08
(ApplauseAplauze)
128
470000
2000
(Aplauze)
08:10
I'm going to showspectacol this robotrobot a tasksarcină. It's a very complexcomplex tasksarcină.
129
472000
3000
Îi voi arăta acestui robot un lucru. Un lucru foarte complex.
08:13
Now noticeînștiințare, he noddeddat din cap there, he was givingoferindu- me some indicationindicaţie
130
475000
3000
Acum observați, a dat din cap, mi-a dat niște indicații
08:16
he was understandingînţelegere the flowcurgere of communicationcomunicare.
131
478000
3000
el a înțeles cursul comunicării.
08:19
And if I'd said something completelycomplet bizarrebizar
132
481000
2000
Și dacă aș fi spus ceva complet bizar
08:21
he would have lookedprivit askancecu neîncredere at me, and regulatedreglementate the conversationconversaţie.
133
483000
3000
s-ar fi uitat la mine bănuitor, și ar fi condus discuția.
08:24
So now I broughtadus this up in frontfață of him.
134
486000
3000
Așa că i-am adus asta în fața sa.
08:27
I'd lookedprivit at his eyesochi, and I saw his eyesochi lookedprivit at this bottlesticla toptop.
135
489000
4000
M-am uitat în ochii lui, și am observat că ochii lui s-au îndreptat către această gură de sticlă.
08:31
And I'm doing this tasksarcină here, and he's checkingcontrol up.
136
493000
2000
Și voi face lucrul următor, și el mă urmărește.
08:33
His eyesochi are going back and forthmai departe up to me, to see what I'm looking at --
137
495000
3000
Ochii săi se rotesc, la mine să vadă la ce mă uit,
08:36
so we'vene-am got sharedimpartit attentionAtenţie.
138
498000
2000
așadar avem o atenție împărțită.
08:38
And so I do this tasksarcină, and he looksarată, and he looksarată to me
139
500000
3000
Și în timp ce fac lucrul acesta, și el privește, și se uită la mine
08:41
to see what's happeninglucru nextUrmător →. And now I'll give him the bottlesticla,
140
503000
4000
să vadă ce se va întâmpla după aceea. Acum îi voi da sticla,
08:45
and we'llbine see if he can do the tasksarcină. Can you do that?
141
507000
2000
și vom vedea dacă va putea face lucrul acela. Poți face asta?
08:47
(LaughterRâs)
142
509000
3000
(Râsete)
08:50
Okay. He's prettyfrumos good. Yeah. Good, good, good.
143
512000
4000
Ok. Se pricepe. Da. Bine, bine, bine.
08:54
I didn't showspectacol you how to do that.
144
516000
2000
Nu ți-am arătat cum se face lucrul acela.
08:56
Now see if you can put it back togetherîmpreună.
145
518000
2000
Acum vezi dacă poți să le pui toate laolaltă.
08:58
(LaughterRâs)
146
520000
2000
(Râsete)
09:00
And he thinkscrede a robotrobot has to be really slowîncet.
147
522000
1000
Și el crede că un robot trebuie să fie foarte încet.
09:01
Good robotrobot, that's good.
148
523000
2000
Bun robot, este bine.
09:03
So we saw a bunchbuchet of things there.
149
525000
2000
Așadar putem face o gramadă de lucruri.
09:06
We saw when we're interactinginteracționând,
150
528000
3000
Observăm că atunci când interacționăm,
09:09
we're tryingîncercat to showspectacol someonecineva how to do something, we directdirect theiral lor visualvizual attentionAtenţie.
151
531000
4000
încercăm să arătăm cuiva cum să facă un lucru, direcționăm atenția lor vizuală.
09:13
The other thing communicatescomunică theiral lor internalintern statestat to us,
152
535000
4000
Celălalt lucru ne comunică starea sa interioară,
09:17
whetherdacă he's understandingînţelegere or not, regulatesreglementează a socialsocial interactioninteracţiune.
153
539000
3000
dacă înțelege sau nu, coordonează o interacțiune socială.
09:20
There was sharedimpartit attentionAtenţie looking at the samela fel sortfel of thing,
154
542000
2000
A fost atenție împărțită către același gen de lucru,
09:22
and recognizingrecunoscând sociallysocialmente communicatedcomunicate reinforcementarmare at the endSfârşit.
155
544000
4000
iar la sfârșit recunoaşterea comunicării sociale aprofundate.
09:26
And we'vene-am been tryingîncercat to put that into our lablaborator robotsroboți
156
548000
3000
Și încercăm să implementăm aceasta în laboratoarele noastre
09:29
because we think this is how you're going to want to interactinteracționa with robotsroboți in the futureviitor.
157
551000
4000
deoarece credem că așa vom vrea să interacționăm cu roboții în viitor.
09:33
I just want to showspectacol you one technicaltehnic diagramdiagramă here.
158
555000
2000
Vreau doar să vă arăt o diagramă tehnică aici.
09:35
The mostcel mai importantimportant thing for buildingclădire a robotrobot that you can interactinteracționa with sociallysocialmente
159
557000
4000
Cel mai important lucru în a construi un robot cu care poți interacționa social
09:39
is its visualvizual attentionAtenţie systemsistem.
160
561000
2000
este sistemul său vizual de atenție.
09:41
Because what it paysplătește attentionAtenţie to is what it's seeingvedere
161
563000
3000
Deoarece la ce acordă atenție este către ce se uită
09:44
and interactinginteracționând with, and what you're understandingînţelegere what it's doing.
162
566000
3000
și cu care interacționează, și ce înțelegi tu că face.
09:47
So in the videosVideoclipuri I'm about to showspectacol you,
163
569000
3000
Așadar în filmulețele pe care vi le voi prezenta,
09:50
you're going to see a visualvizual attentionAtenţie systemsistem on a robotrobot
164
572000
4000
veți vedea un sistem de atenție vizuală de la un robot
09:54
whichcare has -- it looksarată for skinpiele toneton in HSVHSV spacespaţiu,
165
576000
4000
care are... se uită după nuanța pielii în spațiul HSV,
09:58
so it workslucrări acrosspeste all humanuman coloringscoloranţi.
166
580000
4000
și deci are de-aface cu, știți voi, toate culorile omenești.
10:02
It looksarată for highlyextrem de saturatedsaturate colorscolorate, from toysjucarii.
167
584000
2000
Se uită după culori intens saturate, de la jucării.
10:04
And it looksarată for things that movemișcare around.
168
586000
2000
Și se uită după lucruri care se mișcă.
10:06
And it weightsgreutăţi those togetherîmpreună into an attentionAtenţie windowfereastră,
169
588000
3000
Și le cântărește pe acelea într-o fereastră de atenție,
10:09
and it looksarată for the highest-scoringcele mai bine placeloc --
170
591000
2000
și se uită după punctul cu cele mai multe scoruri...
10:11
the stuffchestie where the mostcel mai interestinginteresant stuffchestie is happeninglucru --
171
593000
2000
lucrurile unde se întâmplă cele mai interesante lucruri.
10:13
and that is what its eyesochi then segueSegue to.
172
595000
4000
Și astea sunt după ce se uită ochii săi.
10:17
And it looksarată right at that.
173
599000
2000
Și se uită direct la acel lucru.
10:19
At the samela fel time, some top-downde sus în jos sortfel of stuffchestie:
174
601000
3000
În același timp, un fel de mișcare de jos în sus:
10:22
mightar putea decidea decide that it's lonelysinguratic and look for skinpiele toneton,
175
604000
3000
poate decide că se simte singur și se uită după nuanța pielii,
10:25
or mightar putea decidea decide that it's boredplictisit and look for a toyjucărie to playa juca with.
176
607000
3000
sau poate decide că este plictisit și se va uita după o jucărie cu care să se joace.
10:28
And so these weightsgreutăţi changeSchimbare.
177
610000
2000
Așa asta cântărește o schimbare.
10:30
And over here on the right,
178
612000
2000
Și aici în partea dreaptă,
10:32
this is what we call the StevenSteven SpielbergSpielberg memorialmemorial modulemodul.
179
614000
3000
este ceea ce numim modului memorial Steven Spielberg.
10:35
Did people see the moviefilm "AIAI"? (AudiencePublicul: Yes.)
180
617000
2000
Au văzut cumva oamenii filmul AI? Publicul: Da.
10:37
RBRB: Yeah, it was really badrău, but --
181
619000
2000
RB: Mda, a fost chiar rău, dar...
10:39
remembertine minte, especiallyin mod deosebit when HaleyHaley JoelJoel OsmentOsment, the little robotrobot,
182
621000
4000
tineți minte, chiar când Haley Joel Osment, robotul cel mic,
10:43
lookedprivit at the bluealbastru fairyZana for 2,000 yearsani withoutfără takingluare his eyesochi off it?
183
625000
4000
s-a uitat pentru 2.000 de ani la zâna cea albastră fără ca să își ia ochii de pe ea?
10:47
Well, this getsdevine ridscăpa of that,
184
629000
2000
Păi, acest lucru se debarasează de acesta,
10:49
because this is a habituationacomodare GaussianGaussiană that getsdevine negativenegativ,
185
631000
4000
deoarece este un obișnuiță gaussiană care devine negativă,
10:53
and more and more intenseintens as it looksarată at one thing.
186
635000
3000
și din ce în ce mai intensă deoarece privește la un singur lucru.
10:56
And it getsdevine boredplictisit, so it will then look away at something elsealtfel.
187
638000
3000
Și se plictisește, și se va uita după aceea la altceva.
10:59
So, onceo singura data you've got that -- and here'saici e a robotrobot, here'saici e KismetKismet,
188
641000
4000
Așa că, odată ce ai acel lucru... și aici e un robot, aici e Kismet,
11:03
looking around for a toyjucărie. You can tell what it's looking at.
189
645000
4000
uitându-se după o jucărie. Poți spune după ce se uită.
11:07
You can estimateestima its gazeprivirea directiondirecţie from those eyeballsglobii oculari coveringcare acoperă its cameraaparat foto,
190
649000
5000
Poți estima direcția privirii din acei ochi care acoperă obiectivul său,
11:12
and you can tell when it's actuallyde fapt seeingvedere the toyjucărie.
191
654000
3000
și poți spune când anume privește la jucărie.
11:15
And it's got a little bitpic of an emotionalemoţional responseraspuns here.
192
657000
2000
Și are și un pic de reacție emoțională aici.
11:17
(LaughterRâs)
193
659000
1000
(Râsete)
11:18
But it's still going to paya plati attentionAtenţie
194
660000
2000
Dar va fi atent în continuare
11:20
if something more significantsemnificativ comesvine into its fieldcamp of viewvedere --
195
662000
4000
dacă cumva ceva mai important intră în câmpul său vizual
11:24
suchastfel de as CynthiaCynthia BreazealBreazeal, the builderconstructor of this robotrobot, from the right.
196
666000
4000
cum ar fi Cynthia Breazeal, constructorul acestui robot... din dreapta.
11:28
It seesvede her, paysplătește attentionAtenţie to her.
197
670000
5000
O vede, îi atent la ea.
11:33
KismetKismet has an underlyingcare stau la baza, three-dimensionaltri-dimensională emotionalemoţional spacespaţiu,
198
675000
4000
Kismet are un spațiu emoțional tridimensional implementat,
11:37
a vectorvector spacespaţiu, of where it is emotionallyemoțional.
199
679000
3000
un spațiu vectorial,care arată unde se situează emoțional.
11:40
And at differentdiferit placeslocuri in that spacespaţiu, it expressesîși exprimă --
200
682000
5000
Și în locuri diferite din acel spațiu exprimă...
11:46
can we have the volumevolum on here?
201
688000
2000
putem avea volumul aici?
11:48
Can you hearauzi that now, out there? (AudiencePublicul: Yeah.)
202
690000
2000
Mă auziți acum, acolo? Public: Da.
11:50
KismetKismet: Do you really think so? Do you really think so?
203
692000
5000
Kismet: Chiar credeți? Chiar credeți?
11:57
Do you really think so?
204
699000
2000
Chiar credeți?
12:00
RBRB: So it's expressingexprimând its emotionemoţie throughprin its facefață
205
702000
3000
RB: Își exprimă emoția prin figura sa
12:03
and the prosodyProzodie in its voicevoce.
206
705000
2000
și prozodia în vocea sa.
12:05
And when I was dealingcare se ocupă with my robotrobot over here,
207
707000
4000
Și când aveam de-aface cu robotul meu aici,
12:09
ChrisChris, the robotrobot, was measuringmăsurare the prosodyProzodie in my voicevoce,
208
711000
3000
Chris, robotul, îmi măsura prozodia din vocea mea,
12:12
and so we have the robotrobot measuremăsura prosodyProzodie for fourpatru basicde bază messagesmesaje
209
714000
5000
și așa avem măsurătoarea prozodiei de către robot pentru patru mesaje de bază
12:17
that mothersmame give theiral lor childrencopii pre-linguisticallypre-linguistically.
210
719000
4000
pe care mamele le dau copiilor lor pre-linguistic.
12:21
Here we'vene-am got naivenaiv subjectssubiecți praisinglăudând the robotrobot:
211
723000
3000
Aici avem niște subiecți naivi lăudând robotul,
12:26
VoiceVoce: Nicedrăguţ robotrobot.
212
728000
2000
Voce: Bun robot.
12:29
You're suchastfel de a cutedrăguţ little robotrobot.
213
731000
2000
Ești așa un robot mic și scump.
12:31
(LaughterRâs)
214
733000
2000
(Râsete)
12:33
RBRB: And the robot'srobot reactingreacționând appropriatelyîn mod corespunzător.
215
735000
2000
Și robotul reacționează aproximativ.
12:35
VoiceVoce: ...very good, KismetKismet.
216
737000
4000
Voce: ...foarte bine, Kismet.
12:40
(LaughterRâs)
217
742000
2000
(Râsete)
12:42
VoiceVoce: Look at my smilezâmbet.
218
744000
2000
Voce: Uite-te la zâmbetul meu.
12:46
RBRB: It smileszâmbete. She imitatesimită the smilezâmbet. This happensse întâmplă a lot.
219
748000
3000
RB: Zâmbește. Ea imită zămbetul. Asta se întâmplă des.
12:49
These are naivenaiv subjectssubiecți.
220
751000
2000
Aceștia sunt subiecți nativi.
12:51
Here we askedîntrebă them to get the robot'srobot attentionAtenţie
221
753000
3000
Aici i-am rugat să atragă atenția robotului
12:54
and indicateindica when they have the robot'srobot attentionAtenţie.
222
756000
3000
și să indice când au captat atenția robotului.
12:57
VoiceVoce: Hey, KismetKismet, ahAh, there it is.
223
759000
4000
Voce: Hei, Kismet, a, uite-o.
13:01
RBRB: So she realizesîși dă seama she has the robot'srobot attentionAtenţie.
224
763000
4000
RB: Ea realizează că a captat atenția robotului.
13:08
VoiceVoce: KismetKismet, do you like the toyjucărie? Oh.
225
770000
4000
Voce: Kismet, chiar îți place jucăria? Oh.
13:13
RBRB: Now, here they're askedîntrebă to prohibitsă interzică the robotrobot,
226
775000
2000
RB: Acum, sunt rugați să îi interzică robotului ceva,
13:15
and this first womanfemeie really pushesîmpinge the robotrobot into an emotionalemoţional cornercolţ.
227
777000
4000
și prima femeie chiar îl pune pe robot într-o situație emoționantă.
13:19
VoiceVoce: No. No. You're not to do that. No.
228
781000
5000
Voce: Nu. Nu. Nu ai voie. Nu.
13:24
(LaughterRâs)
229
786000
3000
(Râsete)
13:27
Not appropriateadecvat. No. No.
230
789000
6000
Voce: Nu e frumos. Nu. Nu.
13:33
(LaughterRâs)
231
795000
3000
(Râsete)
13:36
RBRB: I'm going to leavepărăsi it at that.
232
798000
2000
RB: O voi lăsa aici.
13:38
We put that togetherîmpreună. Then we put in turnviraj takingluare.
233
800000
2000
Am pus asta laolaltă. Și după aceea l-am făcut să vorbească.
13:40
When we talk to someonecineva, we talk.
234
802000
3000
Când discutăm cu cineva, vorbim.
13:43
Then we sortfel of raisea ridica our eyebrowssprancene, movemișcare our eyesochi,
235
805000
4000
După care ne ridicăm cumva sprâncenele, ne mișcăm ochii,
13:47
give the other personpersoană the ideaidee it's theiral lor turnviraj to talk.
236
809000
3000
dăm impresia celeilalte persoane că este rândul lor să vorbească.
13:50
And then they talk, and then we passtrece the batonbaston back and forthmai departe betweenîntre eachfiecare other.
237
812000
4000
După care ei vorbesc, și după care pasăm mingea unul la altul.
13:54
So we put this in the robotrobot.
238
816000
2000
Și așa am implementat asta și în robot.
13:56
We got a bunchbuchet of naivenaiv subjectssubiecți in,
239
818000
2000
Avem câțiva subiecți naivi aici,
13:58
we didn't tell them anything about the robotrobot,
240
820000
2000
nu le-am spus nimic despre robot,
14:00
satSAT them down in frontfață of the robotrobot and said, talk to the robotrobot.
241
822000
2000
i-am așezat în fața robotului și le-am spus să discute cu robotul.
14:02
Now what they didn't know was,
242
824000
2000
Și ce nu au știut este că,
14:04
the robotrobot wasn'tnu a fost understandingînţelegere a wordcuvânt they said,
243
826000
2000
robotul nu înțelegea un cuvânt din ce spuneau ei,
14:06
and that the robotrobot wasn'tnu a fost speakingvorbitor EnglishEngleză.
244
828000
3000
și că robotul nu vorbea engleza.
14:09
It was just sayingzicală randomîntâmplător EnglishEngleză phonemesfoneme.
245
831000
2000
Doar rostea niște foneme aleatorii în engleză.
14:11
And I want you to watch carefullycu grija, at the beginningînceput of this,
246
833000
2000
Și vreau ca voi să vă uitați atenți, la început,
14:13
where this personpersoană, RitchieRitchie, who happeneds-a întâmplat to talk to the robotrobot for 25 minutesminute --
247
835000
4000
unde această persoană, Ritchie, care a vorbit cu robotul pentru 25 de minute...
14:17
(LaughterRâs)
248
839000
2000
(Râsete)
14:19
-- saysspune, "I want to showspectacol you something.
249
841000
2000
spune, "Vreau să îți arăt ceva
14:21
I want to showspectacol you my watch."
250
843000
2000
vreau să îți arăt ceasul meu."
14:23
And he bringsaduce the watch centercentru, into the robot'srobot fieldcamp of visionviziune,
251
845000
5000
Și aduce ceasul în zona de vedere a robotului,
14:28
pointspuncte to it, gives it a motionmişcare cuetac,
252
850000
2000
arată către el, îi dă un ton de emoție,
14:30
and the robotrobot looksarată at the watch quitedestul de successfullycu succes.
253
852000
2000
iar robotul se uită la ceas chiar cu succes.
14:32
We don't know whetherdacă he understoodînțeles or not that the robotrobot --
254
854000
3000
Nu știm dacă el a înteles sau nu că robotul...
14:36
NoticeNotificare the turn-takingrândul său de-a lua.
255
858000
2000
Observați schimbul de roluri.
14:38
RitchieRitchie: OK, I want to showspectacol you something. OK, this is a watch
256
860000
3000
Ritchie: Ok, vreau să îți arăt ceva. Ok, acesta este un ceas
14:41
that my girlfriendiubita gavea dat me.
257
863000
3000
pe care mi l-a dat prietena mea.
14:44
RobotRobotul: Oh, coolmisto.
258
866000
2000
Robot: Oh, super.
14:46
RitchieRitchie: Yeah, look, it's got a little bluealbastru lightușoară in it too. I almostaproape lostpierdut it this weeksăptămână.
259
868000
4000
Ritchie: Da, uite-te, are o lumină mică albastră înăuntru. Aproape că l-am pierdut săptămâna asta.
14:51
(LaughterRâs)
260
873000
4000
(Râsete)
14:55
RBRB: So it's makingluare eyeochi contacta lua legatura with him, followingca urmare a his eyesochi.
261
877000
3000
RB: Deci are un contact vizual cu el, urmărindu-i ochii.
14:58
RitchieRitchie: Can you do the samela fel thing? RobotRobotul: Yeah, sure.
262
880000
2000
Ritchie: Poți face același lucru? Robot: Da, cum să nu.
15:00
RBRB: And they successfullycu succes have that sortfel of communicationcomunicare.
263
882000
2000
RB: Și au acest mod de comunicare cu succes.
15:02
And here'saici e anothero alta aspectaspect of the sortsfelul of things that ChrisChris and I were doing.
264
884000
4000
Și mai există un aspect legat de genul de lucruri pe care eu și Chris le făceam.
15:06
This is anothero alta robotrobot, CogCog.
265
888000
2000
Acesta este un alt robot, Cog.
15:08
They first make eyeochi contacta lua legatura, and then, when ChristieChristie looksarată over at this toyjucărie,
266
890000
6000
Prima dată se privesc, după care, în timp ce Christie se uită la jucăria lui,
15:14
the robotrobot estimatesestimări her gazeprivirea directiondirecţie
267
896000
2000
robotul estimează direcția în care se uită
15:16
and looksarată at the samela fel thing that she's looking at.
268
898000
2000
și se uită la același lucrul la care se uită și ea.
15:18
(LaughterRâs)
269
900000
1000
(Râsete)
15:19
So we're going to see more and more of this sortfel of robotrobot
270
901000
3000
Deci urmează să vedem tot mai mult acest gen de robot
15:22
over the nextUrmător → fewpuțini yearsani in labslaboratoare.
271
904000
2000
în următorii ani în laboratoare.
15:24
But then the bigmare questionsîntrebări, two bigmare questionsîntrebări that people askcere me are:
272
906000
5000
Dar după aceea marile întrebări, cele două mari întrebări pe care oamenii mi le pun:
15:29
if we make these robotsroboți more and more human-likehuman-like,
273
911000
2000
dacă facem acești roboți tot mai mult asemănători cu oamenii,
15:31
will we acceptAccept them, will we -- will they need rightsdrepturile eventuallyîn cele din urmă?
274
913000
5000
îi vom accepta cumva, oare... nu vor avea nevoie eventual de drepturi?
15:36
And the other questionîntrebare people askcere me is, will they want to take over?
275
918000
3000
Iar cealaltă întrebare pe care mi-o pun oamenii este - vor vrea să fie la putere?
15:39
(LaughterRâs)
276
921000
1000
(Râsete)
15:40
And on the first -- you know, this has been a very HollywoodHollywood themetemă
277
922000
3000
Iar la prima -- știți voi, asta a fost o temă la Hollywood
15:43
with lots of moviesfilme. You probablyprobabil recognizerecunoaşte these characterscaractere here --
278
925000
3000
în multe filme. Probabil recunoașteți aceste personaje aici...
15:46
where in eachfiecare of these casescazuri, the robotsroboți want more respectrespect.
279
928000
4000
unde în fiecare din aceste cazuri, roboții vor mai mult respect.
15:50
Well, do you ever need to give robotsroboți respectrespect?
280
932000
3000
Păi, a fost cazul să respectaţi roboți vreodată?
15:54
They're just machinesmaşini, after all.
281
936000
2000
Până la urmă sunt niște mașini.
15:56
But I think, you know, we have to acceptAccept that we are just machinesmaşini.
282
938000
4000
Dar cred că, știți voi, trebuie să acceptăm că noi suntem doar mașini.
16:00
After all, that's certainlycu siguranță what modernmodern molecularmolecular biologybiologie saysspune about us.
283
942000
5000
Cu toate acestea, acesta este cu siguranță lucrul pe care ni-l spune biologia moleculară despre noi.
16:05
You don't see a descriptionDescriere of how, you know,
284
947000
3000
Nu poți vedea o descriere despre, știți voi,
16:08
MoleculeMoleculă A, you know, comesvine up and docksdocuri with this other moleculemoleculă.
285
950000
4000
Molecula A, vine și se unește cu cealaltă moleculă.
16:12
And it's movingin miscare forwardredirecţiona, you know, propelledpropulsate by variousvariat chargestaxe,
286
954000
3000
Și se mișcă înainte coordonată de diverse energii
16:15
and then the soulsuflet stepspași in and tweakstweaks those moleculesmolecule so that they connectconectați.
287
957000
4000
după care sufletul* vine în scenă și adaptează acele molecule pentru ca ele să se conecteze.
16:19
It's all mechanisticmecanic. We are mechanismmecanism.
288
961000
3000
Totul este mecanic, noi suntem un mecanism.
16:22
If we are machinesmaşini, then in principleprincipiu at leastcel mai puţin,
289
964000
3000
Dacă suntem mașini, atunci măcar în principiu,
16:25
we should be ablecapabil to buildconstrui machinesmaşini out of other stuffchestie,
290
967000
4000
ar trebui să putem construi mașini din alte lucruri,
16:29
whichcare are just as aliveîn viaţă as we are.
291
971000
4000
care sunt la fel de în viață cum suntem și noi.
16:33
But I think for us to admitadmite that,
292
975000
2000
Dar cred că pentru ca noi să recunoaștem asta,
16:35
we have to give up on our special-nessspeciale-ness, in a certainanumit way.
293
977000
3000
trebuie să renunțăm la felul nostru special, într-un anume fel.
16:38
And we'vene-am had the retreatretragere from special-nessspeciale-ness
294
980000
2000
Și ne-am complăcut în statutul nostru special
16:40
undersub the barragebaraj of scienceştiinţă and technologytehnologie manymulți timesori
295
982000
3000
sub acoperirea științei și tehnologiei de multe ori
16:43
over the last fewpuțini hundredsută yearsani, at leastcel mai puţin.
296
985000
2000
în ultimele secole, cel puțin.
16:45
500 yearsani agoîn urmă we had to give up the ideaidee
297
987000
2000
Acum 500 de ani a trebuit să renunțăm la ideea
16:47
that we are the centercentru of the universeunivers
298
989000
3000
că suntem centrul universului
16:50
when the earthPământ starteda început to go around the sunsoare;
299
992000
2000
atunci când soarele a început să se rotească în jurul pământului;
16:52
150 yearsani agoîn urmă, with DarwinDarwin, we had to give up the ideaidee we were differentdiferit from animalsanimale.
300
994000
5000
acum 150 de ani, cu Darwin, a trebuit să renunțăm la ideea că suntem diferiți de animale.
16:57
And to imagineimagina -- you know, it's always hardgreu for us.
301
999000
3000
Și ca să ne imaginăm... este întotdeauna greu pentru noi.
17:00
RecentlyRecent we'vene-am been batteredponosita with the ideaidee that maybe
302
1002000
3000
Știți voi, am fost recent copleșiți de ideea că poate
17:03
we didn't even have our ownpropriu creationcreare eventeveniment, here on earthPământ,
303
1005000
2000
nici măcar nu am fi avut momenul nostru de creație, aici pe pământ,
17:05
whichcare people didn't like much. And then the humanuman genomegenomului said,
304
1007000
3000
pe care oamenii nu l-au prea plăcut. Iar atunci genomul uman a spus,
17:08
maybe we only have 35,000 genesgene. And that was really --
305
1010000
3000
poate avem doar 35.000 de gene. Iar asta a fost chiar...
17:11
people didn't like that, we'vene-am got more genesgene than that.
306
1013000
3000
oamenilor chiar nu le-a plăcut, avem mai multe gene de atâta.
17:14
We don't like to give up our special-nessspeciale-ness, so, you know,
307
1016000
3000
Nu ne place să renunțăm la felul nostru de a fi speciali, deci, știți voi,
17:17
havingavând the ideaidee that robotsroboți could really have emotionsemoții,
308
1019000
2000
ideea că roboții ar putea într-adevăr să aibă emoții,
17:19
or that robotsroboți could be livingviaţă creaturescreaturi --
309
1021000
2000
sau că roboții ar putea fi creaturi în viață...
17:21
I think is going to be hardgreu for us to acceptAccept.
310
1023000
2000
Cred că va fi greu să acceptăm asta.
17:23
But we're going to come to acceptAccept it over the nextUrmător → 50 yearsani or so.
311
1025000
4000
Dar vom ajunge să acceptăm asta în următorii 50 de ani.
17:27
And the secondal doilea questionîntrebare is, will the machinesmaşini want to take over?
312
1029000
3000
Iar cea de-a doua întrebare este, vor veni la putere mașinile?
17:30
And here the standardstandard scenarioscenariu is that we createcrea these things,
313
1032000
5000
Iar aici este scenariul standard cum că noi creăm lucrurile,
17:35
they growcrește, we nurturehrăni them, they learnînvăța a lot from us,
314
1037000
3000
ele cresc, noi le alimentăm, ele învață mult de la noi,
17:38
and then they startstart to decidea decide that we're prettyfrumos boringplictisitor, slowîncet.
315
1040000
4000
după care ele încep să decidă că suntem destul de plictisitori, înceți.
17:42
They want to take over from us.
316
1044000
2000
Vor să vină peste noi la putere.
17:44
And for those of you that have teenagersadolescenți, you know what that's like.
317
1046000
3000
Și pentru aceia dintre voi care aveți copii tineri, știți cum e să fie așa.
17:47
(LaughterRâs)
318
1049000
1000
(Râsete)
17:48
But HollywoodHollywood extendsextinde it to the robotsroboți.
319
1050000
3000
Dar Hollywood extinde ideea cu roboții.
17:51
And the questionîntrebare is, you know,
320
1053000
3000
Iar întrebarea este, știți voi,
17:54
will someonecineva accidentallyaccidental buildconstrui a robotrobot that takes over from us?
321
1056000
4000
va construi cumva cineva accidental un robot care va veni peste noi la putere?
17:58
And that's sortfel of like this lonesinguratic guy in the backyardcurte,
322
1060000
3000
Iar acela este ca acest tip singuratic din curtea din spate,
18:01
you know -- "I accidentallyaccidental builtconstruit a 747."
323
1063000
3000
și, știți voi, "Am construit accidental un 747."
18:04
I don't think that's going to happenîntâmpla.
324
1066000
2000
Știți voi, eu nu știam ce se va întâmpla defapt.
18:06
And I don't think --
325
1068000
2000
Și nu cred...
18:08
(LaughterRâs)
326
1070000
1000
(Râsete)
18:09
-- I don't think we're going to deliberatelyintenționat buildconstrui robotsroboți
327
1071000
3000
...nu cred că vom construi deliberat roboți
18:12
that we're uncomfortableincomod with.
328
1074000
2000
cu care nu suntem de acord.
18:14
We'llVom -- you know, they're not going to have a supersuper badrău robotrobot.
329
1076000
2000
Păi, știți voi, ei nu vor avea un robot foarte rău.
18:16
Before that has to come to be a mildlyblând badrău robotrobot,
330
1078000
3000
Înaintea lui trebuie să existe un robot rău mediu,
18:19
and before that a not so badrău robotrobot.
331
1081000
2000
iar înainte de acela un robot nu chiar așa de rău.
18:21
(LaughterRâs)
332
1083000
1000
(Râsete)
18:22
And we're just not going to let it go that way.
333
1084000
2000
Și chiar nu o vom lăsa lucrurile să meargă în direcţia aia.
18:24
(LaughterRâs)
334
1086000
1000
(Râsete)
18:25
So, I think I'm going to leavepărăsi it at that: the robotsroboți are comingvenire,
335
1087000
6000
Deci,cred că voi încheia aici: roboții vin,
18:31
we don't have too much to worryface griji about, it's going to be a lot of fundistracţie,
336
1093000
3000
nu trebuie să ne facem prea multe griji, va fi mare distracție ,
18:34
and I hopesperanţă you all enjoyse bucura the journeycălătorie over the nextUrmător → 50 yearsani.
337
1096000
4000
și sper că și voi vă veți bucura de călătoria din următorii 50 de ani.
18:38
(ApplauseAplauze)
338
1100000
2000
(Aplauze)
Translated by Laura Morar
Reviewed by Maria Tancu

▲Back to top

ABOUT THE SPEAKER
Rodney Brooks - Roboticist
Rodney Brooks builds robots based on biological principles of movement and reasoning. The goal: a robot who can figure things out.

Why you should listen

Former MIT professor Rodney Brooks studies and engineers robot intelligence, looking for the holy grail of robotics: the AGI, or artificial general intelligence. For decades, we've been building robots to do highly specific tasks -- welding, riveting, delivering interoffice mail -- but what we all want, really, is a robot that can figure things out on its own, the way we humans do.

Brooks realized that a top-down approach -- just building the biggest brain possible and teaching it everything we could think of -- would never work. What would work is a robot who learns like we do, by trial and error, and with many separate parts that learn separate jobs. The thesis of his work which was captured in Fast, Cheap and Out of Control,went on to become the title of the great Errol Morris documentary.

A founder of iRobot, makers of the Roomba vacuum, Brooks is now founder and CTO of Rethink Robotics, whose mission is to apply advanced robotic intelligence to manufacturing and physical labor. Its first robots: the versatile two-armed Baxter and one-armed Sawyer. Brooks is the former director of CSAIL, MIT's Computers Science and Artificial Intelligence Laboratory.

 
More profile about the speaker
Rodney Brooks | Speaker | TED.com