ABOUT THE SPEAKER
Rodney Brooks - Roboticist
Rodney Brooks builds robots based on biological principles of movement and reasoning. The goal: a robot who can figure things out.

Why you should listen

Former MIT professor Rodney Brooks studies and engineers robot intelligence, looking for the holy grail of robotics: the AGI, or artificial general intelligence. For decades, we've been building robots to do highly specific tasks -- welding, riveting, delivering interoffice mail -- but what we all want, really, is a robot that can figure things out on its own, the way we humans do.

Brooks realized that a top-down approach -- just building the biggest brain possible and teaching it everything we could think of -- would never work. What would work is a robot who learns like we do, by trial and error, and with many separate parts that learn separate jobs. The thesis of his work which was captured in Fast, Cheap and Out of Control,went on to become the title of the great Errol Morris documentary.

A founder of iRobot, makers of the Roomba vacuum, Brooks is now founder and CTO of Rethink Robotics, whose mission is to apply advanced robotic intelligence to manufacturing and physical labor. Its first robots: the versatile two-armed Baxter and one-armed Sawyer. Brooks is the former director of CSAIL, MIT's Computers Science and Artificial Intelligence Laboratory.

 
More profile about the speaker
Rodney Brooks | Speaker | TED.com
TED2003

Rodney Brooks: Robots will invade our lives

Rodney Brooks o tym jak roboty opanują nasze życie

Filmed:
689,918 views

W swojej proroczej przemowie z 2003 roku, robotyk Rodney Brooks mówi o tym jak roboty znajdą się w naszym życiu... Poczynając od zabawek, przez przejęcie obowiązków domowych, a nawet więcej.
- Roboticist
Rodney Brooks builds robots based on biological principles of movement and reasoning. The goal: a robot who can figure things out. Full bio

Double-click the English transcript below to play the video.

00:18
What I want to tell you about todaydzisiaj is how I see robotsroboty invadinginwazji our liveszyje
0
0
5000
Chcę wam dziś opowiedzieć o tym w jaki sposób roboty opanują nasze życie
00:23
at multiplewielokrotność levelspoziomy, over multiplewielokrotność timescalesramy czasowe.
1
5000
3000
na wielu poziomach i w wielu skalach czasowych.
00:26
And when I look out in the futureprzyszłość, I can't imaginewyobrażać sobie a worldświat, 500 yearslat from now,
2
8000
4000
Kiedy myślę o przyszłości nie mogę sobie wyobrazić świata za 500 lat,
00:30
where we don't have robotsroboty everywherewszędzie.
3
12000
2000
w którym roboty nie byłyby wszędzie,
00:32
AssumingZakładając, że -- despitepomimo all the diretragiczne predictionsprognozy from manywiele people about our futureprzyszłość --
4
14000
5000
zakładając... wbrew wszystkim złowieszczym prognozom...
00:37
assumingzarozumiały we're still around, I can't imaginewyobrażać sobie the worldświat not beingistota populatedzaludniony with robotsroboty.
5
19000
4000
że wciąż tu będziemy, nie wyobrażam sobie świata niezapełnionego przez roboty.
00:41
And then the questionpytanie is, well, if they're going to be here in 500 yearslat,
6
23000
3000
Pytaniem jest: jeśli będą tu za 500 lat,
00:44
are they going to be everywherewszędzie soonerwcześniej than that?
7
26000
2000
czy będą też wszędzie znacznie wcześniej?
00:46
Are they going to be around in 50 yearslat?
8
28000
2000
Czy może za 50 lat?
00:48
Yeah, I think that's prettyładny likelyprawdopodobne -- there's going to be lots of robotsroboty everywherewszędzie.
9
30000
3000
Myślę, że to całkiem możliwe... wszędzie będzie pełno robotów.
00:51
And in factfakt I think that's going to be a lot soonerwcześniej than that.
10
33000
3000
Właściwie, sądzę że wydarzy się to znacznie wcześniej.
00:54
I think we're sortsortować of on the cuspszpic of robotsroboty becomingtwarzowy commonpospolity,
11
36000
4000
Myślę, że już niedługo roboty staną się powszechne,
00:58
and I think we're sortsortować of around 1978 or 1980 in personalosobisty computerkomputer yearslat,
12
40000
6000
pewnie jesteśmy w odpowiedniku roku 1978 czy 1980 dla pecetów,
01:04
where the first fewkilka robotsroboty are startingstartowy to appearzjawić się.
13
46000
3000
właśnie zaczynają się pojawiać pierwsze roboty.
01:07
ComputersKomputery sortsortować of cameoprawa ołowiana witrażu around throughprzez gamesGry and toyszabawki.
14
49000
4000
Komputery przybyły wraz z grami i zabawkami.
01:11
And you know, the first computerkomputer mostwiększość people had in the housedom
15
53000
3000
Pierwszym komputerem, który większość osób miało w domu
01:14
maymoże have been a computerkomputer to playgrać PongPong,
16
56000
2000
mógł być ten używany do gry w Pong,
01:16
a little microprocessormikroprocesor embeddedosadzone,
17
58000
2000
z małym mikroprocesorem,
01:18
and then other gamesGry that cameoprawa ołowiana witrażu after that.
18
60000
3000
potem pojawiły się inne gry.
01:21
And we're startingstartowy to see that samepodobnie sortsortować of thing with robotsroboty:
19
63000
3000
Zaczynamy zauważać to samo dla robotów:
01:24
LEGOLEGO MindstormsMindstorms, FurbiesFurbies -- who here -- did anyonektokolwiek here have a FurbyFurby?
20
66000
4000
LEGO Mindstorm, Furby... Czy ktoś z was ma Furbiego?
01:28
Yeah, there's 38 millionmilion of them soldsprzedany worldwidena calym swiecie.
21
70000
3000
Tak myślałem, na świecie jest ich 38 milionów.
01:31
They are prettyładny commonpospolity. And they're a little tinymalutki robotrobot,
22
73000
2000
Są całkiem popularne, to takie małe roboty,
01:33
a simpleprosty robotrobot with some sensorsczujniki,
23
75000
2000
proste roboty z kilkoma sensorami.
01:35
a little bitkawałek of processingprzetwarzanie actuationuruchomienie.
24
77000
2000
Tak wygląda jego działanie.
01:37
On the right there is anotherinne robotrobot dolllalka, who you could get a couplepara of yearslat agotemu.
25
79000
3000
Po prawej widać robota lalkę, można było ją dostać kilka lat temu.
01:40
And just as in the earlywcześnie daysdni,
26
82000
2000
Tak jak wcześniej,
01:42
when there was a lot of sortsortować of amateuramator interactioninterakcja over computerskomputery,
27
84000
5000
kiedy to mnóstwo amatorów zajmowało się komputerami,
01:47
you can now get variousróżnorodny hackinghakerstwo kitsZestawy, how-to-hackJak wobec siekać booksksiążki.
28
89000
4000
teraz można dostać zestawy do ich składania i książki do ich hakowania.
01:51
And on the left there is a platformPlatforma from EvolutionEwolucja RoboticsRobotyka,
29
93000
4000
Z lewej strony jest platforma z Evolution Robotics,
01:55
where you put a PCPC on, and you programprogram this thing with a GUIGUI
30
97000
3000
którą można podłączyć robota do komputera i zaprogramować go w interfejsie graficznym
01:58
to wanderWander around your housedom and do variousróżnorodny stuffrzeczy.
31
100000
3000
tak, żeby krążył po domu zgodnie z twoim życzeniem.
02:01
And then there's a higherwyższy pricecena pointpunkt sortsortować of robotrobot toyszabawki --
32
103000
3000
Są też produkty z górnej półki, takie jak robot-zabawka
02:04
the SonySony AiboAibo. And on the right there, is one that the NECNEC developedrozwinięty,
33
106000
4000
Sony Aibo. Z prawej strony jest robot firmy NEC,
02:08
the PaPeRoPaPeRo, whichktóry I don't think they're going to releasewydanie.
34
110000
3000
nazwany PaPeRo, choć nie sądzę że trafi do sprzedaży.
02:11
But neverthelessNiemniej jednak, those sortssortuje of things are out there.
35
113000
3000
Niemniej, w laboratoriach powstają właśnie takie projekty.
02:14
And we'vemamy seenwidziany, over the last two or threetrzy yearslat, lawn-mowingkoszenie trawników robotsroboty,
36
116000
4000
Jakieś dwa, trzy lata temu zaczęły powstawać roboty-kosiarki,
02:18
HusqvarnaHusqvarna on the bottomDolny, FriendlyPrzyjazny dla RoboticsRobotyka on topTop there, an IsraeliIzraelski companyfirma.
37
120000
6000
na dole od Husqvarna, na górze z izraelskiej firmy Friendly Robotics.
02:24
And then in the last 12 monthsmiesiące or so
38
126000
2000
W ciągu ostatnich 12 miesięcy
02:26
we'vemamy startedRozpoczęty to see a bunchwiązka of home-cleaningsprzątanie domu robotsroboty appearzjawić się.
39
128000
4000
zaczęły się pojawiać roboty pomagające w czyszczeniu domu.
02:30
The topTop left one is a very nicemiły home-cleaningsprzątanie domu robotrobot
40
132000
3000
Na górze po lewej jest bardzo fajny robot odkurzający
02:33
from a companyfirma callednazywa DysonDyson, in the U.K. ExceptZ wyjątkiem it was so expensivedrogi --
41
135000
4000
od firmy Dyson z Wielkiej Brytanii. Poza tym, że był bardzo drogi -
02:37
3,500 dollarsdolarów -- they didn't releasewydanie it.
42
139000
2000
3500 dolarów, nie wypuścili go do sprzedaży.
02:39
But at the bottomDolny left, you see ElectroluxElectrolux, whichktóry is on salesprzedaż.
43
141000
3000
Na dole po lewej mamy Electrolux, który jest dostępny.
02:42
AnotherInnym one from KarcherKarcher.
44
144000
2000
Inny jest od firmy Karcher.
02:44
At the bottomDolny right is one that I builtwybudowany in my lablaboratorium
45
146000
2000
Na dole po prawej jest jeden, który zbudowałem w moim laboratorium
02:46
about 10 yearslat agotemu, and we finallywreszcie turnedobrócony that into a productprodukt.
46
148000
3000
około 10 lat temu, ale dopiero teraz powstał z tego gotowy produkt.
02:49
And let me just showpokazać you that.
47
151000
2000
Pozwólcie, że wam pokażę.
02:51
We're going to give this away I think, ChrisChris said, after the talk.
48
153000
4000
Po pokazie będzie się można dokładniej przyjrzeć.
02:55
This is a robotrobot that you can go out and buykupować, and that will cleanczysty up your floorpiętro.
49
157000
6000
Ten robot jest już dostępny w sprzedaży a jego zasadniczym zadaniem jest odkurzanie podłogi.
03:05
And it startszaczyna się off sortsortować of just going around in ever-increasingciągle wzrasta circleskółka.
50
167000
5000
Zaczyna w wyznaczonym punkcie zataczając coraz większe okręgi.
03:10
If it hitstrafienia something -- you people see that?
51
172000
4000
jeśli w coś uderzy - spójrzcie
03:14
Now it's doing wall-followingściany po, it's followingnastępujący around my feetstopy
52
176000
3000
podąża wzdłuż przeszkody, w tym przypadku moich stóp,
03:17
to cleanczysty up around me. Let's see, let's --
53
179000
4000
żeby posprzątać dookoła mnie. Spójrzmy na to,
03:21
oh, who stoleUkradłem my RiceRyż KrispiesKrispies? They stoleUkradłem my RiceRyż KrispiesKrispies!
54
183000
5000
hej, kto ukradł moje Rice Krispies? Ukradli moje Rice Krispies.
03:26
(LaughterŚmiech)
55
188000
6000
(śmiech)
03:32
Don't worrymartwić się, relaxzrelaksować się, no, relaxzrelaksować się, it's a robotrobot, it's smartmądry!
56
194000
3000
Nie martwcie się, ten robot jest całkiem bystry.
03:35
(LaughterŚmiech)
57
197000
3000
(śmiech)
03:38
See, the three-year-oldtrzyletni kidsdzieciaki, they don't worrymartwić się about it.
58
200000
4000
Widzicie, trzy letnie dzieci się tym nie martwią.
03:42
It's grown-upsdorośli that get really upsetzdenerwowany.
59
204000
2000
Jedynie dorośli się złoszczą.
03:44
(LaughterŚmiech)
60
206000
1000
(śmiech)
03:45
We'llMy będziemy just put some crapbzdury here.
61
207000
2000
Rozrzucimy tutaj trochę tych śmieci.
03:47
(LaughterŚmiech)
62
209000
4000
(śmiech)
03:51
Okay.
63
213000
2000
Ok.
03:53
(LaughterŚmiech)
64
215000
4000
(śmiech)
03:57
I don't know if you see -- so, I put a bunchwiązka of RiceRyż KrispiesKrispies there,
65
219000
3000
Nie wiem czy widzicie, więc położę trochę Rice Krispies tutaj,
04:00
I put some penniesgroszy, let's just shootstrzelać it at that, see if it cleansczyści up.
66
222000
7000
położę też kilka miedziaków, sprawdźmy czy robot sobie z tym poradzi.
04:10
Yeah, OK. So --
67
232000
2000
taak, ok, więc
04:12
we'lldobrze leavepozostawiać that for laterpóźniej.
68
234000
4000
zostawimy to na później.
04:16
(ApplauseAplauz)
69
238000
5000
(brawa)
04:22
PartCzęść of the tricksztuczka was buildingbudynek a better cleaningczyszczenie mechanismmechanizm, actuallytak właściwie;
70
244000
4000
Ważnym zagadnieniem było zbudowanie dobrego mechanizmu czyszczącego;
04:26
the intelligenceinteligencja on boardtablica was fairlydość simpleprosty.
71
248000
4000
program robota jest dość prosty.
04:30
And that's trueprawdziwe with a lot of robotsroboty.
72
252000
2000
I dotyczy to wielu robotów.
04:32
We'veMamy all, I think, becomestają się, sortsortować of computationalobliczeniowy chauvinistsszowinistów,
73
254000
4000
Myślę, że wszyscy staliśmy się nieco komputerowymi szowinistami
04:36
and think that computationobliczenie is everything,
74
258000
2000
i myślimy, że obliczenia i algorytmy wszystko załatwią,
04:38
but the mechanicsmechanika still mattermateria.
75
260000
2000
ale tak naprawdę mechanika jest też bardzo ważna.
04:40
Here'sTutaj jest anotherinne robotrobot, the PackBotPackBot,
76
262000
3000
Tutaj jest inny robot, PackBot,
04:43
that we'vemamy been buildingbudynek for a bunchwiązka of yearslat.
77
265000
2000
który budowaliśmy od wielu lat.
04:45
It's a militarywojskowy surveillanceinwigilacja robotrobot, to go in aheadprzed siebie of troopswojsko --
78
267000
6000
Ten robot służy do rekonesansu wojskowego, podąża przed piechotą,
04:51
looking at cavesjaskinie, for instanceinstancja.
79
273000
3000
zagląda na przykład do jaskiń.
04:54
But we had to make it fairlydość robustkrzepki,
80
276000
2000
Musieliśmy go zbudować tak, aby był bardzo wytrzymały,
04:56
much more robustkrzepki than the robotsroboty we buildbudować in our labslaboratoria.
81
278000
7000
zdecydowanie bardziej, niż roboty, które zwykle tworzymy w laboratorium.
05:03
(LaughterŚmiech)
82
285000
3000
(śmiech)
05:12
On boardtablica that robotrobot is a PCPC runningbieganie LinuxLinux.
83
294000
4000
Robot jest wyposażony w komputer z Linuksem.
05:16
It can withstandwytrzymać a 400G shockzaszokować. The robotrobot has locallokalny intelligenceinteligencja:
84
298000
6000
Może wytrzymać przeciążenie 400G. Robot ma pewną inteligencję:
05:22
it can fliptrzepnięcie itselfsamo over, can get itselfsamo into communicationkomunikacja rangezasięg,
85
304000
6000
może odwrócić się do góry nogami, poszukać miejsca z dobrym zasięgiem,
05:28
can go upstairsna piętrze by itselfsamo, etet ceteracetera.
86
310000
3000
może wjeżdżać po schodach i tak dalej.
05:38
Okay, so it's doing locallokalny navigationNawigacja there.
87
320000
4000
Ok, potrafi się orientować w terenie.
05:42
A soldierżołnierz givesdaje it a commanddowództwo to go upstairsna piętrze, and it does.
88
324000
6000
Żołnierz wydaje komendę wjechania po schodach a robot ją wykonuje.
05:49
That was not a controlledkontrolowane descentzjazd.
89
331000
3000
To nie było kontrolowane zejście.
05:52
(LaughterŚmiech)
90
334000
2000
(śmiech)
05:54
Now it's going to headgłowa off.
91
336000
2000
Teraz się obróci.
05:56
And the bigduży breakthroughprzełom for these robotsroboty, really, was SeptemberWrześnia 11thth.
92
338000
5000
Momentem przełomowym dla tych robotów był 11 września.
06:01
We had the robotsroboty down at the WorldŚwiat TradeHandlu CenterCentrum latepóźno that eveningwieczór.
93
343000
4000
Roboty pracowały przy World Trade Center już wieczorem w dniu ataku.
06:06
Couldn'tNie mogłem do a lot in the mainGłówny rubblegruz pilestos,
94
348000
2000
Nie mogły zrobić wiele w głównym gruzowisku,
06:08
things were just too -- there was nothing left to do.
95
350000
3000
rzeczy były zbyt -- nie było tam wiele do zrobienia.
06:11
But we did go into all the surroundingotaczający buildingsBudynki that had been evacuatedewakuowany,
96
353000
5000
Ale weszły do otaczających budynków, z których wcześniej ewakuowano ludzi,
06:16
and searchedprzeszukany for possiblemożliwy survivorsktórzy przeżyli in the buildingsBudynki
97
358000
3000
i szukały ocalałych w budynkach
06:19
that were too dangerousniebezpieczny to go into.
98
361000
2000
do których było zbyt niebezpiecznie wejść ratownikom.
06:21
Let's runbiegać this videowideo.
99
363000
2000
Włączmy wideo.
06:23
ReporterReporter: ...battlefieldpole bitwy companionstowarzysze are helpingporcja jedzenia to reducezmniejszyć the combatwalka risksryzyko.
100
365000
3000
Reporter: mechaniczni towarzysze żołnierzy pomagają zmniejszyć ryzyko walki.
06:26
NickNick RobertsonRobertson has that storyfabuła.
101
368000
3000
Nick Robertson przy mikrofonie.
06:31
RodneyRodney BrooksBrooks: Can we have anotherinne one of these?
102
373000
2000
Rodney Brooks: możemy pokazać jeszcze jednego w akcji?
06:38
Okay, good.
103
380000
2000
Ok, dziękuję.
06:43
So, this is a corporalKapral who had seenwidziany a robotrobot two weekstygodnie previouslypoprzednio.
104
385000
3000
Sierżant zapoznaje się z robotami od dwóch tygodni.
06:48
He's sendingwysyłanie robotsroboty into cavesjaskinie, looking at what's going on.
105
390000
4000
Teraz wysyła roboty na rekonesans do jaskiń.
06:52
The robot'srobota beingistota totallycałkowicie autonomousautonomiczny.
106
394000
2000
Roboty są całkowicie autonomiczne.
06:54
The worstnajgorszy thing that's happenedstało się in the caveJaskinia so fardaleko
107
396000
4000
Najgorsza rzecz, jaka do tej pory im się przydarzyła w jaskiniach
06:58
was one of the robotsroboty fellspadł down tendziesięć metersmetrów.
108
400000
3000
to upadek robotów z 10 metrów.
07:08
So one yearrok agotemu, the US militarywojskowy didn't have these robotsroboty.
109
410000
3000
Rok temu, armia amerykańska nie miała takiego sprzętu.
07:11
Now they're on activeaktywny dutyobowiązek in AfghanistanAfganistan everykażdy day.
110
413000
2000
Dziś roboty są powszechnie stosowane w Afganistanie.
07:13
And that's one of the reasonspowody they say a robotrobot invasioninwazja is happeningwydarzenie.
111
415000
3000
Właśnie to jest jedną z przyczyn, dla której mówimy o inwazji robotów.
07:16
There's a seamorze changezmiana happeningwydarzenie in how -- where technology'stechnologii going.
112
418000
4000
Zachodzą właśnie ogromne zmiany - technologia staje się jeszcze bardziej praktyczna.
07:20
ThanksDzięki.
113
422000
2000
Dziękuję.
07:23
And over the nextNastępny couplepara of monthsmiesiące,
114
425000
2000
Za kilka miesięcy,
07:25
we're going to be sendingwysyłanie robotsroboty in productionprodukcja
115
427000
3000
będziemy wysyłać roboty do wspomagania wydobycia ropy
07:28
down producingprodukujący oilolej wellsstudnie to get that last fewkilka yearslat of oilolej out of the groundziemia.
116
430000
4000
z podziemnych i podwodnych szybów wiertniczych, dopóki oczywiście nie skończy się ropa.
07:32
Very hostilewrogi environmentsśrodowiska, 150˚ C, 10,000 PSIPSI.
117
434000
4000
Panuje tam bardzo wrogie środowisko, 150 stopni Celsjusza, 10'000 PSI
07:36
AutonomousAutonomiczne robotsroboty going down, doing this sortsortować of work.
118
438000
4000
Mimo to autonomiczne roboty mogą tam zejść i wykonywać niezbędne prace.
07:40
But robotsroboty like this, they're a little hardciężko to programprogram.
119
442000
3000
Ale takie roboty są naprawdę trudne do zaprogramowania.
07:43
How, in the futureprzyszłość, are we going to programprogram our robotsroboty
120
445000
2000
Jak w przyszłości będziemy programować nasze roboty
07:45
and make them easierłatwiejsze to use?
121
447000
2000
i czynić je łatwiejszymi w użyciu?
07:47
And I want to actuallytak właściwie use a robotrobot here --
122
449000
3000
Chciałbym tu użyć robota -
07:50
a robotrobot namedo imieniu ChrisChris -- standstoisko up. Yeah. Okay.
123
452000
5000
robot Chris - wstań, tak, ok.
07:57
Come over here. Now noticeogłoszenie, he thinksmyśli robotsroboty have to be a bitkawałek stiffsztywny.
124
459000
4000
Podejdź do mnie. Zauważcie, że wydaje mu się, że roboty powinny być trochę sztywne.
08:01
He sortsortować of does that. But I'm going to --
125
463000
3000
On to imituje, ale ja --
08:04
ChrisChris AndersonAnderson: I'm just BritishBrytyjskie. RBRB: Oh.
126
466000
2000
Chris Anderson: Jestem tylko Brytyjczykiem.
08:06
(LaughterŚmiech)
127
468000
2000
(smiech)
08:08
(ApplauseAplauz)
128
470000
2000
(brawa)
08:10
I'm going to showpokazać this robotrobot a taskzadanie. It's a very complexzłożony taskzadanie.
129
472000
3000
Pokażę temu robotowi zadanie do wykonania. Jest bardzo skomplikowane.
08:13
Now noticeogłoszenie, he noddedskinął głową there, he was givingdający me some indicationwskazanie
130
475000
3000
Zwróćcie uwagę, zamrugał do mnie, dał mi znak, że
08:16
he was understandingzrozumienie the flowpływ of communicationkomunikacja.
131
478000
3000
rozumie to co mu przekazuję.
08:19
And if I'd said something completelycałkowicie bizarredziwaczne
132
481000
2000
Jeśli mówiłbym coś zupełnie od rzeczy
08:21
he would have lookedspojrzał askancekrzywo at me, and regulatedregulowanym the conversationrozmowa.
133
483000
3000
spojrzałby na mnie pytająco i poprosił o wyjaśnienie.
08:24
So now I broughtprzyniósł this up in frontz przodu of him.
134
486000
3000
Teraz, umieściłem ten przedmiot przed nim.
08:27
I'd lookedspojrzał at his eyesoczy, and I saw his eyesoczy lookedspojrzał at this bottlebutelka topTop.
135
489000
4000
Spojrzałem w jego oczy i zobaczyłem, że jego oczy patrzą na górę butelki.
08:31
And I'm doing this taskzadanie here, and he's checkingkontrola up.
136
493000
2000
Wykonuję tutaj pewną czynność a on się przygląda.
08:33
His eyesoczy are going back and forthnaprzód up to me, to see what I'm looking at --
137
495000
3000
Jego oczy podążają w górę i w dół patrząc na to co robię i na to gdzie patrzę,
08:36
so we'vemamy got sharedudostępniony attentionUwaga.
138
498000
2000
nasza uwaga jest skupiona na tym samym.
08:38
And so I do this taskzadanie, and he lookswygląda, and he lookswygląda to me
139
500000
3000
Robię tą czynność, a on to obserwuje, patrzy też na mnie,
08:41
to see what's happeningwydarzenie nextNastępny. And now I'll give him the bottlebutelka,
140
503000
4000
żeby zobaczyć co będzie dalej. Teraz dam mu butelkę,
08:45
and we'lldobrze see if he can do the taskzadanie. Can you do that?
141
507000
2000
i zobaczymy czy poradzi sobie z zadaniem. Mógłbyś to powtórzyć?
08:47
(LaughterŚmiech)
142
509000
3000
(śmiech)
08:50
Okay. He's prettyładny good. Yeah. Good, good, good.
143
512000
4000
Ok. Całkiem dobrze, tak, dobrze, dobrze, dobrze.
08:54
I didn't showpokazać you how to do that.
144
516000
2000
Nie pokazałem ci jak to robić.
08:56
Now see if you can put it back togetherRazem.
145
518000
2000
Teraz spójrzmy czy potrafi złożyć te elementy.
08:58
(LaughterŚmiech)
146
520000
2000
(śmiech)
09:00
And he thinksmyśli a robotrobot has to be really slowpowolny.
147
522000
1000
Ciągle mu się wydaje, że robot musi być bardzo wolny.
09:01
Good robotrobot, that's good.
148
523000
2000
Dobry robot, bardzo dobrze.
09:03
So we saw a bunchwiązka of things there.
149
525000
2000
Zobaczyliśmy tu kilka ciekawych rzeczy.
09:06
We saw when we're interactinginterakcja,
150
528000
3000
Zobaczyliśmy, że gdy próbujemy współpracować,
09:09
we're tryingpróbować to showpokazać someonektoś how to do something, we directbezpośredni theirich visualwizualny attentionUwaga.
151
531000
4000
gdy próbujemy pokazać komuś jak coś należy zrobić, skupiamy jego uwagę wzrokową.
09:13
The other thing communicateskomunikuje się theirich internalwewnętrzny statestan to us,
152
535000
4000
Druga strona komunikuje nam swój stan wewnętrzny,
09:17
whetherczy he's understandingzrozumienie or not, regulatesreguluje a socialspołeczny interactioninterakcja.
153
539000
3000
i reguluje wzajemną komunikację, w zależności od tego czy rozumie otrzymywany przekaz.
09:20
There was sharedudostępniony attentionUwaga looking at the samepodobnie sortsortować of thing,
154
542000
2000
Nasza uwaga była skupiona na tym samym zadaniu,
09:22
and recognizingrozpoznawanie sociallyspołecznie communicatedkomunikowane reinforcementzbrojenie at the endkoniec.
155
544000
4000
i rozpoznawaniu wzajemnych przekazów.
09:26
And we'vemamy been tryingpróbować to put that into our lablaboratorium robotsroboty
156
548000
3000
Staramy się przenieść tą wiedzę do naszego laboratorium robotów,
09:29
because we think this is how you're going to want to interactoddziaływać with robotsroboty in the futureprzyszłość.
157
551000
4000
ponieważ uważamy, że właśnie tak powinna wyglądać w przyszłości nasza interakcja z robotami.
09:33
I just want to showpokazać you one technicaltechniczny diagramdiagram here.
158
555000
2000
Chciałbym pokazać wam tutaj jeden schemat techniczny.
09:35
The mostwiększość importantważny thing for buildingbudynek a robotrobot that you can interactoddziaływać with sociallyspołecznie
159
557000
4000
Kluczową sprawą w budowaniu robota, który może kooperować z ludźmi
09:39
is its visualwizualny attentionUwaga systemsystem.
160
561000
2000
jest system wizualnej atencji.
09:41
Because what it payspłaci attentionUwaga to is what it's seeingwidzenie
161
563000
3000
Robot skupia uwagę na tym co widzi,
09:44
and interactinginterakcja with, and what you're understandingzrozumienie what it's doing.
162
566000
3000
z czym dokonuje interakcji oraz z tym co mu pokazujesz.
09:47
So in the videosfilmy wideo I'm about to showpokazać you,
163
569000
3000
Zaraz wam pokażę krótkie filmy,
09:50
you're going to see a visualwizualny attentionUwaga systemsystem on a robotrobot
164
572000
4000
obrazujące system wizualnej atencji robota,
09:54
whichktóry has -- it lookswygląda for skinskóra toneton in HSVHSV spaceprzestrzeń,
165
576000
4000
który wyszukuje odcienie skóry w całej palecie barw,
09:58
so it worksPrace acrossprzez all humanczłowiek coloringsbarwników.
166
580000
4000
tak więc rozpoznaje wszystkie typy i kolory ludzkiej skóry.
10:02
It lookswygląda for highlywysoko saturatednasycony colorszabarwienie, from toyszabawki.
167
584000
2000
Szuka wysoko nasyconych kolorów, na przykład zabawek.
10:04
And it lookswygląda for things that moveruszaj się around.
168
586000
2000
Rozgląda się też za rzeczami, które się poruszają.
10:06
And it weightswagi those togetherRazem into an attentionUwaga windowokno,
169
588000
3000
Wszystkie te obserwacje są zbierane i przesyłane do procesora,
10:09
and it lookswygląda for the highest-scoringnajwięcej bramek placemiejsce --
170
591000
2000
który ocenia, co jest aktualnie warte uwagi robota -
10:11
the stuffrzeczy where the mostwiększość interestingciekawy stuffrzeczy is happeningwydarzenie --
171
593000
2000
miejsce, gdzie dzieją się najciekawsze rzeczy.
10:13
and that is what its eyesoczy then seguesegue to.
172
595000
4000
I za tym obiektem podąża wzrok robota.
10:17
And it lookswygląda right at that.
173
599000
2000
Na nim koncentruje swoją uwagę.
10:19
At the samepodobnie time, some top-downz góry na dół sortsortować of stuffrzeczy:
174
601000
3000
W tym samym czasie robot
10:22
mightmoc decidedecydować się that it's lonelysamotny and look for skinskóra toneton,
175
604000
3000
może zdecydować, że jest samotny i zaczyna szukać odcieni skóry,
10:25
or mightmoc decidedecydować się that it's boredznudzony and look for a toyzabawka to playgrać with.
176
607000
3000
albo może zdecydować, że jest znudzony i rozejrzeć się za zabawką.
10:28
And so these weightswagi changezmiana.
177
610000
2000
Nie jest więc monotematyczny.
10:30
And over here on the right,
178
612000
2000
O tutaj, z prawej strony,
10:32
this is what we call the StevenSteven SpielbergSpielberg memorialmemoriał modulemoduł.
179
614000
3000
mamy element, który nazywamy modułem Stevena Spilberga.
10:35
Did people see the moviefilm "AIAI"? (AudiencePubliczność: Yes.)
180
617000
2000
Oglądaliście film AI:Sztuczna Inteligencja? Widownia: tak.
10:37
RBRB: Yeah, it was really badzły, but --
181
619000
2000
Cóż, był naprawdę kiepski, ale -
10:39
rememberZapamiętaj, especiallyszczególnie when HaleyHaley JoelJoel OsmentOsment, the little robotrobot,
182
621000
4000
pamiętacie jeszcze, gdy Haley Joel Osment, mały robot,
10:43
lookedspojrzał at the blueniebieski fairywróżka for 2,000 yearslat withoutbez takingnabierający his eyesoczy off it?
183
625000
4000
patrzył na błękitną wróżkę przez 2000 lat bez odrywania od niej wzroku?
10:47
Well, this getsdostaje ridpozbyć się of that,
184
629000
2000
Ten moduł zapobiega takim błędom,
10:49
because this is a habituationprzyzwyczajenia GaussianGaussa that getsdostaje negativenegatywny,
185
631000
4000
ponieważ wdrożone algorytmy powodują nużenie się robota,
10:53
and more and more intenseintensywny as it lookswygląda at one thing.
186
635000
3000
gdy coraz bardziej i bardziej patrzy się na jedną rzecz.
10:56
And it getsdostaje boredznudzony, so it will then look away at something elsejeszcze.
187
638000
3000
W końcu zupełnie się znudzi i spojrzy na coś innego.
10:59
So, oncepewnego razu you've got that -- and here'soto jest a robotrobot, here'soto jest KismetKismet,
188
641000
4000
To był bardzo przydatny element, zastosowaliśmy np. w naszym robocie Kismet.
11:03
looking around for a toyzabawka. You can tell what it's looking at.
189
645000
4000
Kismet teraz rozgląda się za zabawką. Można zaobserwować na co się patrzy.
11:07
You can estimateoszacowanie its gazewzrok directionkierunek from those eyeballsgałki oczne coveringkrycia its cameraaparat fotograficzny,
190
649000
5000
Na podstawie ruchu kamer w kształcie oczu możemy zaobserwować na czym skupia uwagę,
11:12
and you can tell when it's actuallytak właściwie seeingwidzenie the toyzabawka.
191
654000
3000
można dokładnie powiedzieć, kiedy widzi zabawkę.
11:15
And it's got a little bitkawałek of an emotionalemocjonalny responseodpowiedź here.
192
657000
2000
Umieściliśmy w nim moduł reakcji emocjonalnych.
11:17
(LaughterŚmiech)
193
659000
1000
(śmiech)
11:18
But it's still going to payzapłacić attentionUwaga
194
660000
2000
Robot cały czas zwraca uwagę
11:20
if something more significantznaczący comespochodzi into its fieldpole of viewwidok --
195
662000
4000
czy w polu widzenia nie pojawiło się nic ciekawszego,
11:24
suchtaki as CynthiaCynthia BreazealCB, the builderKonstruktor of this robotrobot, from the right.
196
666000
4000
na przykład Cynthia Breazeal, twórczyni tego robota.
11:28
It seeswidzi her, payspłaci attentionUwaga to her.
197
670000
5000
Widzi ją i skupia na niej uwagę.
11:33
KismetKismet has an underlyingpoważniejszych, three-dimensionaltrójwymiarowy emotionalemocjonalny spaceprzestrzeń,
198
675000
4000
Kismet bazuje na trójwymiarowej przestrzeni emocjonalnej,
11:37
a vectorwektor spaceprzestrzeń, of where it is emotionallyemocjonalnie.
199
679000
3000
przestrzeń jest opisana wektorami emocji.
11:40
And at differentróżne placesmiejsca in that spaceprzestrzeń, it expresseswyraża --
200
682000
5000
Wyraża swoje emocje w zależności od aktualnego miejsca w tej przestrzeni -
11:46
can we have the volumeTom on here?
201
688000
2000
możemy prosić o podgłośnienie?
11:48
Can you hearsłyszeć that now, out there? (AudiencePubliczność: Yeah.)
202
690000
2000
Słyszycie to teraz? Widownia: Tak.
11:50
KismetKismet: Do you really think so? Do you really think so?
203
692000
5000
Kismet: Czy naprawdę tak myślisz? Czy naprawdę tak myślisz?
11:57
Do you really think so?
204
699000
2000
Czy naprawdę tak myślisz?
12:00
RBRB: So it's expressingwyrażający its emotionemocja throughprzez its facetwarz
205
702000
3000
RB: Wyraża swoje emocje za pomocą twarzy
12:03
and the prosodyProsody in its voicegłos.
206
705000
2000
i brzmienia swojego głosu.
12:05
And when I was dealingpostępowanie with my robotrobot over here,
207
707000
4000
Kiedy komunikowałem się tu z moim robotem,
12:09
ChrisChris, the robotrobot, was measuringzmierzenie the prosodyProsody in my voicegłos,
208
711000
3000
Chrisem, robot mierzył barwę mojego głosu,
12:12
and so we have the robotrobot measurezmierzyć prosodyProsody for fourcztery basicpodstawowy messageswiadomości
209
714000
5000
i mógł z niej odczytać cztery podstawowe informacje,
12:17
that mothersmatki give theirich childrendzieci pre-linguisticallypre-linguistically.
210
719000
4000
podobnie jak to czynią dzieci od matek, gdy jeszcze nie rozumieją sensu słów i nie umieją mówić.
12:21
Here we'vemamy got naivenaiwny subjectstematy praisingchwaląc the robotrobot:
211
723000
3000
Tutaj mamy naiwny obiekt chwalący robota,
12:26
VoiceGłos: NiceŁadne robotrobot.
212
728000
2000
Głos: Dobry robot.
12:29
You're suchtaki a cuteładny little robotrobot.
213
731000
2000
Jesteś takim milutkim małym robocikiem.
12:31
(LaughterŚmiech)
214
733000
2000
(śmiech)
12:33
RBRB: And the robot'srobota reactingreagować appropriatelyodpowiednio.
215
735000
2000
Robot odpowiednio na to reaguje.
12:35
VoiceGłos: ...very good, KismetKismet.
216
737000
4000
Głos: ... bardzo dobrze, Kismet.
12:40
(LaughterŚmiech)
217
742000
2000
(śmiech)
12:42
VoiceGłos: Look at my smileuśmiech.
218
744000
2000
Głos: Spójrz na mój uśmiech.
12:46
RBRB: It smilesuśmiecha się. She imitatesimituje the smileuśmiech. This happensdzieje się a lot.
219
748000
3000
RB: Uśmiechnął się do jej sztucznego uśmiechu. To się często zdarza.
12:49
These are naivenaiwny subjectstematy.
220
751000
2000
To ciągle bardzo naiwne przedmioty.
12:51
Here we askedspytał them to get the robot'srobota attentionUwaga
221
753000
3000
Osoba spróbuje zwrócić uwagę robota
12:54
and indicatewskazać when they have the robot'srobota attentionUwaga.
222
756000
3000
i sygnalizuje, kiedy udało jej się zwrócić jego uwagę.
12:57
VoiceGłos: Hey, KismetKismet, ahah, there it is.
223
759000
4000
Głos: Hej, Kismet, ah, tutaj jesteś.
13:01
RBRB: So she realizesuświadamia sobie she has the robot'srobota attentionUwaga.
224
763000
4000
TB: Zobaczyła, że przyciągnęła uwagę robota.
13:08
VoiceGłos: KismetKismet, do you like the toyzabawka? Oh.
225
770000
4000
Głos: Kismet, lubisz zabawkę? Oh.
13:13
RBRB: Now, here they're askedspytał to prohibitzakazać the robotrobot,
226
775000
2000
RB: Teraz osoba zabroni czegoś robotowi,
13:15
and this first womankobieta really pushespopycha the robotrobot into an emotionalemocjonalny cornerkąt.
227
777000
4000
ta kobieta naprawdę zagna go do emocjonalnego kąta.
13:19
VoiceGłos: No. No. You're not to do that. No.
228
781000
5000
Głos: Nie. Nie. Nie rób tego. Nie.
13:24
(LaughterŚmiech)
229
786000
3000
(śmiech)
13:27
Not appropriatewłaściwy. No. No.
230
789000
6000
Głos: Nie wolno. Nie. Nie.
13:33
(LaughterŚmiech)
231
795000
3000
(śmiech)
13:36
RBRB: I'm going to leavepozostawiać it at that.
232
798000
2000
RB: Przejdźmy dalej.
13:38
We put that togetherRazem. Then we put in turnskręcać takingnabierający.
233
800000
2000
Zbierzmy te obserwacje.
13:40
When we talk to someonektoś, we talk.
234
802000
3000
Kiedy rozmawiamy z kimś, najpierw mówimy.
13:43
Then we sortsortować of raisepodnieść our eyebrowsbrwi, moveruszaj się our eyesoczy,
235
805000
4000
Potem poruszamy lekko brwiami i oczami,
13:47
give the other personosoba the ideapomysł it's theirich turnskręcać to talk.
236
809000
3000
dając drugiej osobie znak, że teraz jego kolej do mówienia.
13:50
And then they talk, and then we passprzechodzić the batonpałeczka back and forthnaprzód betweenpomiędzy eachkażdy other.
237
812000
4000
Kiedy drugi skończy mówić daje znać pierwszemu i cykl się powtarza.
13:54
So we put this in the robotrobot.
238
816000
2000
Zaprogramowaliśmy tą funkcję w robocie.
13:56
We got a bunchwiązka of naivenaiwny subjectstematy in,
239
818000
2000
Zaprosiliśmy do doświadczenia kilka osób,
13:58
we didn't tell them anything about the robotrobot,
240
820000
2000
nie mówiliśmy im nic o działaniu robota,
14:00
satsob them down in frontz przodu of the robotrobot and said, talk to the robotrobot.
241
822000
2000
posadziliśmy ich naprzeciwko robota i poprosiliśmy, żeby rozmawiali z robotem.
14:02
Now what they didn't know was,
242
824000
2000
Nie powiedzieliśmy im,
14:04
the robotrobot wasn'tnie było understandingzrozumienie a wordsłowo they said,
243
826000
2000
że robot nie rozumie ani słowa z tego co mówią,
14:06
and that the robotrobot wasn'tnie było speakingmówienie EnglishAngielski.
244
828000
3000
oraz, że robot nie mówi po angielsku.
14:09
It was just sayingpowiedzenie randomlosowy EnglishAngielski phonemesfonemów.
245
831000
2000
Wypowiada tylko przypadkowe angielskie fonemy.
14:11
And I want you to watch carefullyostrożnie, at the beginningpoczątek of this,
246
833000
2000
Chciałbym, żebyście spojrzeli uważnie na początek filmu,
14:13
where this personosoba, RitchieRitchie, who happenedstało się to talk to the robotrobot for 25 minutesminuty --
247
835000
4000
gdzie osoba, Ritchie, który rozmawiał z robotem przez 25 minut --
14:17
(LaughterŚmiech)
248
839000
2000
(śmiech)
14:19
-- saysmówi, "I want to showpokazać you something.
249
841000
2000
- powiedział "Chcę ci coś pokazać.
14:21
I want to showpokazać you my watch."
250
843000
2000
Chcę ci pokazać mój zegarek"
14:23
And he bringsprzynosi the watch centercentrum, into the robot'srobota fieldpole of visionwizja,
251
845000
5000
Wtedy umieścił zegarek w centrum widzenia robota,
14:28
pointszwrotnica to it, givesdaje it a motionruch cuereplika,
252
850000
2000
tuż naprzeciwko niego i wykazał zaangażowanie emocjonalne.
14:30
and the robotrobot lookswygląda at the watch quitecałkiem successfullyz powodzeniem.
253
852000
2000
Robot poprawnie zwrócił uwagę na zegarek.
14:32
We don't know whetherczy he understoodzrozumiany or not that the robotrobot --
254
854000
3000
Nie wiemy czy zrozumiał czy nie, że robot...
14:36
NoticePowiadomienia the turn-takingkolej w piersiach.
255
858000
2000
Zwróćcie uwagę na naprzemienność dialogu.
14:38
RitchieRitchie: OK, I want to showpokazać you something. OK, this is a watch
256
860000
3000
Ritchie: Ok, chciałbym ci coś pokazać, ok, to jest zegarek,
14:41
that my girlfrienddziewczyna gavedał me.
257
863000
3000
który dostałem od dziewczyny.
14:44
RobotRobot: Oh, coolchłodny.
258
866000
2000
Robot. Oh, cool.
14:46
RitchieRitchie: Yeah, look, it's got a little blueniebieski lightlekki in it too. I almostprawie lostStracony it this weektydzień.
259
868000
4000
Ritchie: Dokładnie tak, spójrz, ma wbudowane małe niebieskie światło. Prawie go zgubiłem w tym tygodniu.
14:51
(LaughterŚmiech)
260
873000
4000
(śmiech)
14:55
RBRB: So it's makingzrobienie eyeoko contactkontakt with him, followingnastępujący his eyesoczy.
261
877000
3000
RB: Robot nawiązuje z nim kontakt wzrokowy, podąża za jego wzrokiem.
14:58
RitchieRitchie: Can you do the samepodobnie thing? RobotRobot: Yeah, sure.
262
880000
2000
Ritchie: Możesz to powtórzyć? Robot: Tak, oczywiście.
15:00
RBRB: And they successfullyz powodzeniem have that sortsortować of communicationkomunikacja.
263
882000
2000
RB: Udało im się skutecznie komunikować.
15:02
And here'soto jest anotherinne aspectaspekt of the sortssortuje of things that ChrisChris and I were doing.
264
884000
4000
Tutaj mamy inny przykład rzeczy, którymi zajmujemy się z Chrisem.
15:06
This is anotherinne robotrobot, CogCOG.
265
888000
2000
To jest następny robot, Cog.
15:08
They first make eyeoko contactkontakt, and then, when ChristieChristie lookswygląda over at this toyzabawka,
266
890000
6000
Na początku nawiązuje kontakt wzrokowy, a później, gdy Christie spogląda na zabawkę,
15:14
the robotrobot estimatesszacunki her gazewzrok directionkierunek
267
896000
2000
robot oblicza w którym miejscu skupia się jej wzrok
15:16
and lookswygląda at the samepodobnie thing that she's looking at.
268
898000
2000
i patrzy się w to samo miejsce.
15:18
(LaughterŚmiech)
269
900000
1000
(śmiech)
15:19
So we're going to see more and more of this sortsortować of robotrobot
270
901000
3000
W ciągu najbliższych lat powinniśmy się spodziewać coraz więcej
15:22
over the nextNastępny fewkilka yearslat in labslaboratoria.
271
904000
2000
takich robotów konstruowanych w laboratoriach.
15:24
But then the bigduży questionspytania, two bigduży questionspytania that people askzapytać me are:
272
906000
5000
Nasuwają się ważne pytania, ludzie zadają mi dwa istotne pytania:
15:29
if we make these robotsroboty more and more human-likepodobne do ludzi,
273
911000
2000
jeśli będziemy robić roboty coraz bardziej ludzkimi,
15:31
will we acceptzaakceptować them, will we -- will they need rightsprawa eventuallyostatecznie?
274
913000
5000
czy zaakceptujemy je, czy będą potrzebowały ochrony prawnej?
15:36
And the other questionpytanie people askzapytać me is, will they want to take over?
275
918000
3000
Pytają mnie też, co jeśli będą chciały przejąć kontrolę?
15:39
(LaughterŚmiech)
276
921000
1000
(śmiech)
15:40
And on the first -- you know, this has been a very HollywoodHollywood thememotyw
277
922000
3000
Pierwsza kwestia często przewija się w filmach Hollywoodzkich.
15:43
with lots of movieskino. You probablyprawdopodobnie recognizerozpoznać these characterspostacie here --
278
925000
3000
Prawdopodobnie rozpoznajecie te postacie -
15:46
where in eachkażdy of these casesprzypadki, the robotsroboty want more respectPoszanowanie.
279
928000
4000
w każdym z tych przypadków, roboty chciały więcej szacunku.
15:50
Well, do you ever need to give robotsroboty respectPoszanowanie?
280
932000
3000
Ale czy naprawdę musimy kiedyś dać robotom szacunek?
15:54
They're just machinesmaszyny, after all.
281
936000
2000
W końcu są tylko maszynami.
15:56
But I think, you know, we have to acceptzaakceptować that we are just machinesmaszyny.
282
938000
4000
Myślę, że najpierw sami musimy zrozumieć i uznać, że jesteśmy maszynami.
16:00
After all, that's certainlyna pewno what modernnowoczesny molecularmolekularny biologybiologia saysmówi about us.
283
942000
5000
W końcu, tak nas definiuje współczesna biologia molekularna.
16:05
You don't see a descriptionopis of how, you know,
284
947000
3000
Nie znajdziecie w niej takiego opisu;
16:08
MoleculeCząsteczka A, you know, comespochodzi up and docksstacje dokujące with this other moleculecząsteczka.
285
950000
4000
Molekuła A zbliża się i dokuje do drugiej molekuły;
16:12
And it's movingw ruchu forwardNaprzód, you know, propellednapędzane by variousróżnorodny chargesopłaty,
286
954000
3000
Następnie poruszają się dalej napędzane różnymi ładunkami,
16:15
and then the souldusza stepskroki in and tweaksszczypie those moleculesCząsteczki so that they connectpołączyć.
287
957000
4000
a wtedy odzywa się ludzka dusza i ściąga molekuły do siebie pozwalając im się złączyć.
16:19
It's all mechanisticmechanistyczne. We are mechanismmechanizm.
288
961000
3000
To wszystko jest mechaniczne, jesteśmy mechanizmami.
16:22
If we are machinesmaszyny, then in principlezasada at leastnajmniej,
289
964000
3000
Jeśli jesteśmy maszynami, to przynajmniej, co do zasady,
16:25
we should be ablezdolny to buildbudować machinesmaszyny out of other stuffrzeczy,
290
967000
4000
powinniśmy móc budować maszyny z innych rzeczy,
16:29
whichktóry are just as aliveżywy as we are.
291
971000
4000
które są tak samo ożywione jak i my.
16:33
But I think for us to admitprzyznać that,
292
975000
2000
Myślę, że przyszedł czas, żeby znowu przyznać,
16:35
we have to give up on our special-nessOferta Specjalna ness, in a certainpewny way.
293
977000
3000
że nie jesteśmy już tak bardzo wyjątkowi jak sądziliśmy.
16:38
And we'vemamy had the retreatrekolekcje from special-nessOferta Specjalna ness
294
980000
2000
Pod naporem nauki i technologii
16:40
underpod the barrageBarrage of sciencenauka and technologytechnologia manywiele timesczasy
295
982000
3000
już kilka razy wycofywaliśmy się z naszej wyjątkowości,
16:43
over the last fewkilka hundredsto yearslat, at leastnajmniej.
296
985000
2000
na przestrzeni przynajmniej kilkuset lat.
16:45
500 yearslat agotemu we had to give up the ideapomysł
297
987000
2000
500 lat temu musieliśmy porzucić koncept,
16:47
that we are the centercentrum of the universewszechświat
298
989000
3000
że jesteśmy w środku wszechświata,
16:50
when the earthZiemia startedRozpoczęty to go around the sunsłońce;
299
992000
2000
kiedy to Ziemia zaczęła krążyć dookoła Słońca;
16:52
150 yearslat agotemu, with DarwinDarwin, we had to give up the ideapomysł we were differentróżne from animalszwierzęta.
300
994000
5000
150 lat temu, Darwin uświadomił nam, że nie jesteśmy szczególnie różni od zwierząt.
16:57
And to imaginewyobrażać sobie -- you know, it's always hardciężko for us.
301
999000
3000
To zawsze było dla nas bardzo trudne.
17:00
RecentlyNiedawno we'vemamy been batteredpoobijany with the ideapomysł that maybe
302
1002000
3000
Ostatnio jesteśmy bombardowani tezą, że, być może
17:03
we didn't even have our ownwłasny creationkreacja eventzdarzenie, here on earthZiemia,
303
1005000
2000
życie nie powstało tutaj, na Ziemi,
17:05
whichktóry people didn't like much. And then the humanczłowiek genomegenom said,
304
1007000
3000
co nieszczególnie podoba się ludziom. Ludzki genom zawiera
17:08
maybe we only have 35,000 genesgeny. And that was really --
305
1010000
3000
zaledwie 35 000 genów. To się naprawdę nie spodobało ludziom,
17:11
people didn't like that, we'vemamy got more genesgeny than that.
306
1013000
3000
sądzili, że powinniśmy mieć ich więcej.
17:14
We don't like to give up our special-nessOferta Specjalna ness, so, you know,
307
1016000
3000
Nie lubimy dzielić się naszą wyjątkowością, więc wiecie,
17:17
havingmający the ideapomysł that robotsroboty could really have emotionsemocje,
308
1019000
2000
idea, że roboty naprawdę mogą mieć emocje,
17:19
or that robotsroboty could be livingżycie creaturesstworzenia --
309
1021000
2000
albo że mogą być żywymi istotami
17:21
I think is going to be hardciężko for us to acceptzaakceptować.
310
1023000
2000
byłaby dla nas bardzo ciężka do zaakceptowania.
17:23
But we're going to come to acceptzaakceptować it over the nextNastępny 50 yearslat or so.
311
1025000
4000
Ale zaakceptujemy ją w ciągu następnych 50 lat.
17:27
And the seconddruga questionpytanie is, will the machinesmaszyny want to take over?
312
1029000
3000
Drugie pytanie brzmiało: czy maszyny chcą przejąć kontrolę?
17:30
And here the standardstandard scenarioscenariusz is that we createStwórz these things,
313
1032000
5000
Standardowy scenariusz wygląda tak, że tworzymy te obiekty,
17:35
they growrosnąć, we nurturewychowanie them, they learnuczyć się a lot from us,
314
1037000
3000
one rosną i uczą się od nas,
17:38
and then they startpoczątek to decidedecydować się that we're prettyładny boringnudny, slowpowolny.
315
1040000
4000
aż w pewnym momencie dochodzą do wniosku, że jesteśmy dosyć nudni i powolni.
17:42
They want to take over from us.
316
1044000
2000
Chcą przejąć od nas władzę.
17:44
And for those of you that have teenagersnastolatkowie, you know what that's like.
317
1046000
3000
Ci z was, którzy mają nastoletnie dzieci, wiedzą o czym mówię.
17:47
(LaughterŚmiech)
318
1049000
1000
(śmiech)
17:48
But HollywoodHollywood extendsrozszerza się it to the robotsroboty.
319
1050000
3000
Ale Hollywood rozszerza to na roboty.
17:51
And the questionpytanie is, you know,
320
1053000
3000
Pytanie brzmi, wiecie,
17:54
will someonektoś accidentallyprzypadkowo buildbudować a robotrobot that takes over from us?
321
1056000
4000
czy ktoś przypadkowo zbuduje robota, który przejmie kontrolę?
17:58
And that's sortsortować of like this lonesamotny guy in the backyardpodwórko,
322
1060000
3000
Od razu nasuwa nam się ma myśl majsterkujący odludek,
18:01
you know -- "I accidentallyprzypadkowo builtwybudowany a 747."
323
1063000
3000
który mówi "Przypadkowo zbudowałem Boeinga 747".
18:04
I don't think that's going to happenzdarzyć.
324
1066000
2000
Nie sądzę, że to nastąpi.
18:06
And I don't think --
325
1068000
2000
Nie sądzę też--
18:08
(LaughterŚmiech)
326
1070000
1000
(śmiech)
18:09
-- I don't think we're going to deliberatelycelowo buildbudować robotsroboty
327
1071000
3000
-- że umyślnie zbudujemy roboty,
18:12
that we're uncomfortableniewygodny with.
328
1074000
2000
z którymi byłoby nam niewygodnie.
18:14
We'llMy będziemy -- you know, they're not going to have a superWspaniały badzły robotrobot.
329
1076000
2000
Wiecie, nie będziemy mieli super szkodliwego robota.
18:16
Before that has to come to be a mildlyłagodnie badzły robotrobot,
330
1078000
3000
Najpierw pojawi się, wiecie, łagodnie szkodliwy robot,
18:19
and before that a not so badzły robotrobot.
331
1081000
2000
a jeszcze wcześniej nie taki szkodliwy robot.
18:21
(LaughterŚmiech)
332
1083000
1000
(śmiech)
18:22
And we're just not going to let it go that way.
333
1084000
2000
I po prostu nie pozwolimy, żeby to się rozwinęło.
18:24
(LaughterŚmiech)
334
1086000
1000
(śmiech)
18:25
So, I think I'm going to leavepozostawiać it at that: the robotsroboty are comingprzyjście,
335
1087000
6000
Poprzestańmy na tym: roboty będą pojawiać się coraz częściej,
18:31
we don't have too much to worrymartwić się about, it's going to be a lot of funzabawa,
336
1093000
3000
nie mamy się za bardzo czym martwić, będzie niezwykle ciekawie,
18:34
and I hopenadzieja you all enjoycieszyć się the journeypodróż over the nextNastępny 50 yearslat.
337
1096000
4000
i mam nadzieję, że spodoba wam się podróż przez następne 50 lat.
18:38
(ApplauseAplauz)
338
1100000
2000
(brawa)
Translated by Michał Scheffs
Reviewed by Monika Sulima

▲Back to top

ABOUT THE SPEAKER
Rodney Brooks - Roboticist
Rodney Brooks builds robots based on biological principles of movement and reasoning. The goal: a robot who can figure things out.

Why you should listen

Former MIT professor Rodney Brooks studies and engineers robot intelligence, looking for the holy grail of robotics: the AGI, or artificial general intelligence. For decades, we've been building robots to do highly specific tasks -- welding, riveting, delivering interoffice mail -- but what we all want, really, is a robot that can figure things out on its own, the way we humans do.

Brooks realized that a top-down approach -- just building the biggest brain possible and teaching it everything we could think of -- would never work. What would work is a robot who learns like we do, by trial and error, and with many separate parts that learn separate jobs. The thesis of his work which was captured in Fast, Cheap and Out of Control,went on to become the title of the great Errol Morris documentary.

A founder of iRobot, makers of the Roomba vacuum, Brooks is now founder and CTO of Rethink Robotics, whose mission is to apply advanced robotic intelligence to manufacturing and physical labor. Its first robots: the versatile two-armed Baxter and one-armed Sawyer. Brooks is the former director of CSAIL, MIT's Computers Science and Artificial Intelligence Laboratory.

 
More profile about the speaker
Rodney Brooks | Speaker | TED.com