ABOUT THE SPEAKER
Nick Bostrom - Philosopher
Nick Bostrom asks big questions: What should we do, as individuals and as a species, to optimize our long-term prospects? Will humanity’s technological advancements ultimately destroy us?

Why you should listen

Philosopher Nick Bostrom envisioned a future full of human enhancement, nanotechnology and machine intelligence long before they became mainstream concerns. From his famous simulation argument -- which identified some striking implications of rejecting the Matrix-like idea that humans are living in a computer simulation -- to his work on existential risk, Bostrom approaches both the inevitable and the speculative using the tools of philosophy, probability theory, and scientific analysis.

Since 2005, Bostrom has led the Future of Humanity Institute, a research group of mathematicians, philosophers and scientists at Oxford University tasked with investigating the big picture for the human condition and its future. He has been referred to as one of the most important thinkers of our age.

Nick was honored as one of Foreign Policy's 2015 Global Thinkers .

His recent book Superintelligence advances the ominous idea that “the first ultraintelligent machine is the last invention that man need ever make.”

More profile about the speaker
Nick Bostrom | Speaker | TED.com
TED2015

Nick Bostrom: What happens when our computers get smarter than we are?

Nick Bostrom: Co się stanie, jeśli komputery przewyższą nas inteligencją?

Filmed:
4,632,705 views

Sztuczna inteligencja rozwija się w bardzo szybkim tempie - naukowcy uważają, że w tym stuleciu komputery mogą dorównać inteligencją ludziom. Nick Bostrom twierdzi, że wkrótce maszyny nas wyprzedzą. „Sztuczna inteligencja to ostatni wynalazek, jakiego dokona człowiek”. Bostrom - filozof i technolog - każe nam się zastanowić nad światem rządzonym przez myślące maszyny. Czy maszyny będą chronić ludzkość i nasze wartości? Czy będą miały własne wartości?
- Philosopher
Nick Bostrom asks big questions: What should we do, as individuals and as a species, to optimize our long-term prospects? Will humanity’s technological advancements ultimately destroy us? Full bio

Double-click the English transcript below to play the video.

00:12
I work with a bunchwiązka of mathematiciansmatematycy,
philosophersfilozofowie and computerkomputer scientistsnaukowcy,
0
570
4207
Pracuję z matematykami,
filozofami i informatykami.
00:16
and we sitsiedzieć around and think about
the futureprzyszłość of machinemaszyna intelligenceinteligencja,
1
4777
5209
Rozmyślamy między innymi
o przyszłości sztucznej inteligencji.
00:21
amongpośród other things.
2
9986
2044
00:24
Some people think that some of these
things are sortsortować of sciencenauka fiction-yfikcja-y,
3
12030
4725
Niektórzy twierdzą, że te sprawy
podchodzą pod science-fiction,
00:28
fardaleko out there, crazyzwariowany.
4
16755
3101
są wydumane, szalone.
00:31
But I like to say,
5
19856
1470
Ale wtedy mówię:
00:33
okay, let's look at the modernnowoczesny
humanczłowiek conditionstan.
6
21326
3604
"Spójrzmy na dzisiejszy
stan ludzkości".
00:36
(LaughterŚmiech)
7
24930
1692
(Śmiech)
00:38
This is the normalnormalna way for things to be.
8
26622
2402
Tak się prezentuje dzisiaj.
00:41
But if we think about it,
9
29024
2285
Jeśli się nad tym zastanowić,
00:43
we are actuallytak właściwie recentlyostatnio arrivedprzybył
guestsgoście on this planetplaneta,
10
31309
3293
dopiero niedawno ludzie
00:46
the humanczłowiek speciesgatunki.
11
34602
2082
zagościli na tej planecie.
00:48
Think about if EarthZiemia
was createdstworzony one yearrok agotemu,
12
36684
4746
Gdyby Ziemia powstała rok temu,
00:53
the humanczłowiek speciesgatunki, then,
would be 10 minutesminuty oldstary.
13
41430
3548
rodzaj ludzki istniałby od 10 minut.
00:56
The industrialprzemysłowy eraera startedRozpoczęty
two secondstowary drugiej jakości agotemu.
14
44978
3168
Rewolucja przemysłowa
rozpoczęła się 2 sekundy temu.
01:01
AnotherInnym way to look at this is to think of
worldświat GDPPKB over the last 10,000 yearslat,
15
49276
5225
Można też spojrzeć na przyrost PKB
z ostatnich 10 tysięcy lat.
01:06
I've actuallytak właściwie takenwzięty the troublekłopot
to plotwątek this for you in a graphwykres.
16
54501
3029
Zadałem sobie trud
narysowania tego wykresu.
01:09
It lookswygląda like this.
17
57530
1774
Wygląda tak.
01:11
(LaughterŚmiech)
18
59304
1363
(Śmiech)
01:12
It's a curiousciekawy shapekształt
for a normalnormalna conditionstan.
19
60667
2151
Nie jest to typowy kształt.
01:14
I sure wouldn'tnie want to sitsiedzieć on it.
20
62818
1698
Nie chciałbym na nim usiąść.
01:16
(LaughterŚmiech)
21
64516
2551
(Śmiech)
01:19
Let's askzapytać ourselvesmy sami, what is the causeprzyczyna
of this currentobecny anomalyAnomalia?
22
67067
4774
Zastanówmy się, co powoduje tę anomalię.
01:23
Some people would say it's technologytechnologia.
23
71841
2552
Niektórzy mówią, że technologia.
01:26
Now it's trueprawdziwe, technologytechnologia has accumulatednagromadzony
throughprzez humanczłowiek historyhistoria,
24
74393
4668
To prawda, tempo rozwoju technologii
wciąż przyspiesza,
01:31
and right now, technologytechnologia
advanceszaliczki extremelyniezwykle rapidlyszybko --
25
79061
4652
a teraz rozwój jest szalenie gwałtowny.
01:35
that is the proximateBliższe causeprzyczyna,
26
83713
1565
Jest to bezpośrednia przyczyna,
01:37
that's why we are currentlyobecnie
so very productiveproduktywny.
27
85278
2565
dla której obecnie
jesteśmy tak produktywni.
01:40
But I like to think back furtherdalej
to the ultimateostateczny causeprzyczyna.
28
88473
3661
Chciałbym jednak sięgnąć do źródła.
01:45
Look at these two highlywysoko
distinguishedwybitny gentlemenpanowie:
29
93114
3766
Spójrzcie na tych dwóch
dystyngowanych jegomości.
01:48
We have KanziKanzi --
30
96880
1600
Jeden z nich to Kanzi,
01:50
he's masteredopanował 200 lexicalLeksykalne
tokenstokeny, an incredibleniesamowite featwyczyn.
31
98480
4643
opanował 200 jednostek leksykalnych,
niezwykłe osiągnięcie.
01:55
And EdEd WittenWitten unleashedUnleashed the seconddruga
superstringsuperstrun revolutionrewolucja.
32
103123
3694
A drugi to Ed Witten, który zapoczątkował
drugą rewolucję superstrun.
01:58
If we look underpod the hoodkaptur,
this is what we find:
33
106817
2324
Jeśli zajrzymy pod maskę,
oto co znajdziemy.
02:01
basicallygruntownie the samepodobnie thing.
34
109141
1570
Prawie to samo.
02:02
One is a little largerwiększy,
35
110711
1813
Jeden jest nieco większy,
02:04
it maybe alsorównież has a fewkilka trickswydziwianie
in the exactdokładny way it's wiredprzewodowy.
36
112524
2758
może bardziej pomysłowo skonstruowany.
02:07
These invisibleniewidzialny differencesróżnice cannotnie może
be too complicatedskomplikowane, howeverjednak,
37
115282
3812
Te niewidoczne różnice
nie mogą być jednak zbyt skomplikowane,
02:11
because there have only
been 250,000 generationspokolenia
38
119094
4285
gdyż od wspólnego przodka
dzieli nas tylko 250 tysięcy pokoleń.
02:15
sinceod our last commonpospolity ancestorprzodek.
39
123379
1732
02:17
We know that complicatedskomplikowane mechanismsmechanizmy
take a long time to evolveewoluować.
40
125111
3849
Wiemy, że skomplikowane mechanizmy
potrzebują dużo czasu na ewolucję.
02:22
So a bunchwiązka of relativelystosunkowo minormniejszy changeszmiany
41
130000
2499
Istnieją więc stosunkowo
niewielkie różnice
02:24
take us from KanziKanzi to WittenWitten,
42
132499
3067
między Kanzim a Wittenem,
02:27
from broken-offrozbite-off treedrzewo branchesoddziały
to intercontinentalIntercontinental ballisticbalistyczny missilesrakiety.
43
135566
4543
między odłamanymi gałęziami,,
a pociskami międzykontynentalnymi.
02:32
So this then seemswydaje się prettyładny obviousoczywisty
that everything we'vemamy achievedosiągnięty,
44
140839
3935
Jest jasne, że wszystko, co osiągnęliśmy,
02:36
and everything we careopieka about,
45
144774
1378
i wszystko, co dla nas ważne,
02:38
dependszależy cruciallyco najważniejsze on some relativelystosunkowo minormniejszy
changeszmiany that madezrobiony the humanczłowiek mindumysł.
46
146152
5228
opiera się na niewielkich zmianach,
dzięki którym powstał umysł ludzki.
02:44
And the corollarynastępstwem, of coursekurs,
is that any furtherdalej changeszmiany
47
152650
3662
Wszelkie dalsze zmiany, które mogą zmienić
02:48
that could significantlyznacząco changezmiana
the substratesubstrat of thinkingmyślący
48
156312
3477
podłoże naszego rozumowania,
02:51
could have potentiallypotencjalnie
enormousogromny consequenceskonsekwencje.
49
159789
3202
mogą nieść ogromne konsekwencje.
02:56
Some of my colleagueskoledzy
think we're on the vergeskraj
50
164321
2905
Niektórzy z moich kolegów sądzą,
że znajdujemy się u progu
02:59
of something that could causeprzyczyna
a profoundgłęboki changezmiana in that substratesubstrat,
51
167226
3908
takiej ogromnej zmiany,
03:03
and that is machinemaszyna superintelligencesuperintelligence.
52
171134
3213
a jest nią sztuczna superinteligencja.
03:06
ArtificialSztuczne intelligenceinteligencja used to be
about puttingwprowadzenie commandspolecenia in a boxpudełko.
53
174347
4739
Sztuczna inteligencja polegała
na wprowadzaniu komend do pudełka.
03:11
You would have humanczłowiek programmersprogramistów
54
179086
1665
Potrzeba było programisty,
03:12
that would painstakinglystarannie
handcraftrzemiosło knowledgewiedza, umiejętności itemsprzedmiotów.
55
180751
3135
który mozolnie ją kształtował.
03:15
You buildbudować up these expertekspert systemssystemy,
56
183886
2086
Można było stworzyć zaawansowany system
03:17
and they were kinduprzejmy of usefulprzydatny
for some purposescele,
57
185972
2324
przydatny do pewnych celów,
03:20
but they were very brittlekruchy,
you couldn'tnie mógł scaleskala them.
58
188296
2681
ale też kruchy,
niedający się przeskalować.
03:22
BasicallyW zasadzie, you got out only
what you put in.
59
190977
3433
Otrzymywaliśmy tylko to,
co sami wprowadziliśmy.
03:26
But sinceod then,
60
194410
997
Ale od tamtej pory
03:27
a paradigmparadygmat shiftprzesunięcie has takenwzięty placemiejsce
in the fieldpole of artificialsztuczny intelligenceinteligencja.
61
195407
3467
na polu sztucznej inteligencji
zaszła zmiana paradygmatu.
03:30
TodayDzisiaj, the actionczynność is really
around machinemaszyna learninguczenie się.
62
198874
2770
Dzisiaj skupiamy się na uczeniu maszyn.
03:34
So ratherraczej than handcraftingrzemieślnicze knowledgewiedza, umiejętności
representationsreprezentacje and featurescechy,
63
202394
5387
Zamiast ręcznie budować wiedzę i cechy,
03:40
we createStwórz algorithmsalgorytmy that learnuczyć się,
oftenczęsto from rawsurowy perceptualpercepcyjny datadane.
64
208511
5554
tworzymy algorytmy, które się uczą,
często na podstawie szczątkowych danych.
03:46
BasicallyW zasadzie the samepodobnie thing
that the humanczłowiek infantDziecko does.
65
214065
4998
Praktycznie w taki sam sposób,
w jaki robią to niemowlaki.
03:51
The resultwynik is A.I. that is not
limitedograniczony to one domaindomena --
66
219063
4207
W rezultacie sztuczna inteligencja
nie ogranicza się do jednej dziedziny.
03:55
the samepodobnie systemsystem can learnuczyć się to translateTłumaczyć
betweenpomiędzy any pairspary of languagesJęzyki,
67
223270
4631
Ten sam system może nauczyć się
tłumaczyć dowolną parę języków
03:59
or learnuczyć się to playgrać any computerkomputer gamegra
on the AtariAtari consolekonsoli.
68
227901
5437
albo grać w gry na konsoli Atari.
04:05
Now of coursekurs,
69
233338
1779
Oczywiście, sztuczna inteligencja
04:07
A.I. is still nowherenigdzie nearBlisko havingmający
the samepodobnie powerfulpotężny, cross-domainmiędzy domenami
70
235117
3999
nie jest tak wszechstronna
04:11
abilityzdolność to learnuczyć się and planplan
as a humanczłowiek beingistota has.
71
239116
3219
w nauce i planowaniu, co człowiek.
04:14
The cortexkora still has some
algorithmicalgorytmicznych trickswydziwianie
72
242335
2126
Kora mózgowa ma pewne
algorytmiczne sztuczki,
04:16
that we don't yetjeszcze know
how to matchmecz in machinesmaszyny.
73
244461
2355
których nie potrafimy
zaimplementować maszynom.
04:19
So the questionpytanie is,
74
247886
1899
Pytanie brzmi:
04:21
how fardaleko are we from beingistota ablezdolny
to matchmecz those trickswydziwianie?
75
249785
3500
"Kiedy będziemy mogli to zrobić?".
04:26
A couplepara of yearslat agotemu,
76
254245
1083
Kilka lat temu
04:27
we did a surveyAnkieta of some of the world'srecyrodycyjstwo diecystwo recyrodycyjstwo diecystwo recy sektorcy
leadingprowadzący A.I. expertseksperci,
77
255328
2888
przeprowadziliśmy ankietę
wśród światowych ekspertów od SI.
04:30
to see what they think,
and one of the questionspytania we askedspytał was,
78
258216
3224
Jedno z zadanych pytań brzmiało:
04:33
"By whichktóry yearrok do you think
there is a 50 percentprocent probabilityprawdopodobieństwo
79
261440
3353
"W którym roku będziemy mieć 50% szans
04:36
that we will have achievedosiągnięty
human-levelczłowieka poziom machinemaszyna intelligenceinteligencja?"
80
264793
3482
na stworzenie inteligencji
na poziomie ludzkim?".
04:40
We definedokreślone human-levelczłowieka poziom here
as the abilityzdolność to performwykonać
81
268785
4183
Poziom ten zdefiniowaliśmy
jako umiejętność wykonywania
04:44
almostprawie any jobpraca at leastnajmniej as well
as an adultdorosły humanczłowiek,
82
272968
2871
niemal każdej pracy tak dobrze,
jak dorosły człowiek,
04:47
so realreal human-levelczłowieka poziom, not just
withinw ciągu some limitedograniczony domaindomena.
83
275839
4005
a więc chodziło o rzeczywisty poziom,
a nie wąską specjalizację.
04:51
And the medianmediana answerodpowiedź was 2040 or 2050,
84
279844
3650
Średnia odpowiedzi przypadała
na rok 2040 albo 2050,
04:55
dependingw zależności on preciselydokładnie whichktóry
groupGrupa of expertseksperci we askedspytał.
85
283494
2806
w zależności od grupy ekspertów.
04:58
Now, it could happenzdarzyć much,
much laterpóźniej, or soonerwcześniej,
86
286300
4039
Może się to zdarzyć dużo później
albo dużo wcześniej.
05:02
the truthprawda is nobodynikt really knowswie.
87
290339
1940
Nikt tego tak naprawdę nie wie.
05:05
What we do know is that the ultimateostateczny
limitlimit to informationInformacja processingprzetwarzanie
88
293259
4412
Wiemy, że granica przetwarzania informacji
u maszyn leży o wiele dalej
05:09
in a machinemaszyna substratesubstrat lieskłamstwa fardaleko outsidena zewnątrz
the limitsograniczenia in biologicalbiologiczny tissuetkanka.
89
297671
4871
niż w przypadku istot żywych.
05:15
This comespochodzi down to physicsfizyka.
90
303241
2378
Wszystko sprowadza się do fizyki.
05:17
A biologicalbiologiczny neuronneuron firespożary, maybe,
at 200 hertzHertz, 200 timesczasy a seconddruga.
91
305619
4718
Neuron wysyła impuls z częstotliwością
200 herców, 200 razy na sekundę.
05:22
But even a present-daydzień dzisiejszy transistortranzystor
operatesdziała at the GigahertzGhz.
92
310337
3594
Dzisiejsze tranzystory
operują w gigahercach.
05:25
NeuronsNeurony propagatepropagowanie slowlypowoli in axonsaksony,
100 metersmetrów perza seconddruga, topsKoszulki i bluzy.
93
313931
5297
Informacja podróżuje przez akson powoli,
najwyżej 100 metrów na sekundę.
05:31
But in computerskomputery, signalssygnały can travelpodróżować
at the speedprędkość of lightlekki.
94
319228
3111
W komputerach sygnał może
poruszać się z prędkością światła.
05:35
There are alsorównież sizerozmiar limitationsograniczenia,
95
323079
1869
Istnieją też limity wielkości.
05:36
like a humanczłowiek brainmózg has
to fitdopasowanie insidewewnątrz a craniumczaszki,
96
324948
3027
Ludzki mózg musi zmieścić się w czaszce,
05:39
but a computerkomputer can be the sizerozmiar
of a warehousemagazyn or largerwiększy.
97
327975
4761
komputer może być jak hala fabryczna
albo jeszcze większy.
05:44
So the potentialpotencjał for superintelligencesuperintelligence
lieskłamstwa dormantuśpione in mattermateria,
98
332736
5599
Potencjał superinteligencji
jest więc uśpiony
05:50
much like the powermoc of the atomatom
laykłaść dormantuśpione throughoutpoprzez humanczłowiek historyhistoria,
99
338335
5712
tak jak moc atomu,
która była uśpiona od początku ludzkości,
05:56
patientlycierpliwie waitingczekanie there untilaż do 1945.
100
344047
4405
cierpliwie czekając
na przebudzenie w 1945 roku.
06:00
In this centurystulecie,
101
348452
1248
W tym stuleciu
06:01
scientistsnaukowcy maymoże learnuczyć się to awakenobudzić
the powermoc of artificialsztuczny intelligenceinteligencja.
102
349700
4118
naukowcom może uda się
wybudzić sztuczną inteligencję.
06:05
And I think we mightmoc then see
an intelligenceinteligencja explosioneksplozja.
103
353818
4008
Myślę, że możemy doświadczyć
eksplozji tej inteligencji.
06:10
Now mostwiększość people, when they think
about what is smartmądry and what is dumbgłupi,
104
358406
3957
Większość osób myśląc o tym,
co jest mądre, a co głupie,
06:14
I think have in mindumysł a pictureobrazek
roughlyw przybliżeniu like this.
105
362363
3023
wyobraża sobie taki obrazek.
06:17
So at one endkoniec we have the villagewioska idiotidiota,
106
365386
2598
Po jednej stronie mamy wioskowego głupka,
06:19
and then fardaleko over at the other sidebok
107
367984
2483
a po drugiej stronie
06:22
we have EdEd WittenWitten, or AlbertAlbert EinsteinEinstein,
or whoeverktokolwiek your favoriteulubiony guruguru is.
108
370467
4756
Eda Wittena, Alberta Einsteina
albo jakiegoś innego guru.
06:27
But I think that from the pointpunkt of viewwidok
of artificialsztuczny intelligenceinteligencja,
109
375223
3834
Z punktu widzenia sztucznej inteligencji
06:31
the trueprawdziwe pictureobrazek is actuallytak właściwie
probablyprawdopodobnie more like this:
110
379057
3681
obrazek powinien wyglądać raczej tak.
06:35
AIAI startszaczyna się out at this pointpunkt here,
at zerozero intelligenceinteligencja,
111
383258
3378
Sztuczna inteligencja startuje od zera.
06:38
and then, after manywiele, manywiele
yearslat of really hardciężko work,
112
386636
3011
Po wielu latach ciężkiej pracy
06:41
maybe eventuallyostatecznie we get to
mouse-levelpoziom myszy artificialsztuczny intelligenceinteligencja,
113
389647
3844
może osiągnie poziom myszy
06:45
something that can navigatenawigować
clutteredbałagan environmentsśrodowiska
114
393491
2430
i będzie potrafiła sama omijać przeszkody,
06:47
as well as a mousemysz can.
115
395921
1987
tak jak mysz.
06:49
And then, after manywiele, manywiele more yearslat
of really hardciężko work, lots of investmentinwestycja,
116
397908
4313
Znów po wielu latach ciężkiej pracy,
przy dużych nakładach finansowych,
06:54
maybe eventuallyostatecznie we get to
chimpanzee-levelszympans-poziom artificialsztuczny intelligenceinteligencja.
117
402221
4639
może osiągnie poziom szympansów.
06:58
And then, after even more yearslat
of really, really hardciężko work,
118
406860
3210
A po jeszcze dłuższym czasie
wypełnionym ciężką pracą,
07:02
we get to villagewioska idiotidiota
artificialsztuczny intelligenceinteligencja.
119
410070
2913
osiągnie poziom wioskowego głupka.
07:04
And a fewkilka momentschwile laterpóźniej,
we are beyondpoza EdEd WittenWitten.
120
412983
3272
Chwilę później wyprzedzi Eda Wittena.
07:08
The trainpociąg doesn't stop
at HumanvilleW: humanville StationStacja.
121
416255
2970
Pociąg nie zatrzyma się
na stacji Ludzko Zdrój.
07:11
It's likelyprawdopodobne, ratherraczej, to swooshpociągnięcie pędzla right by.
122
419225
3022
Przemknie przez nią na pełnym biegu.
07:14
Now this has profoundgłęboki implicationsimplikacje,
123
422247
1984
Będzie to niosło głębokie konsekwencje,
07:16
particularlyszczególnie when it comespochodzi
to questionspytania of powermoc.
124
424231
3862
zwłaszcza jeśli chodzi o władzę.
07:20
For exampleprzykład, chimpanzeesszympansy are strongsilny --
125
428093
1899
Na przykład, szympansy są silne.
07:21
poundfunt for poundfunt, a chimpanzeeszympans is about
twicedwa razy as strongsilny as a fitdopasowanie humanczłowiek malemęski.
126
429992
5222
Szympans jest dwa razy silniejszy
od wysportowanego mężczyzny.
07:27
And yetjeszcze, the fatelos of KanziKanzi
and his palskumple dependszależy a lot more
127
435214
4614
Mimo to na los Kanziego i jemu podobnych
07:31
on what we humansludzie do than on
what the chimpanzeesszympansy do themselvessami.
128
439828
4140
mamy większy wpływ niż inne szympansy.
07:37
OnceRaz there is superintelligencesuperintelligence,
129
445228
2314
Kiedy pojawi się superinteligencja,
07:39
the fatelos of humanityludzkość maymoże dependzależeć
on what the superintelligencesuperintelligence does.
130
447542
3839
los ludzkości może
stać się od niej zależny.
07:44
Think about it:
131
452451
1057
Pomyślcie.
07:45
MachineMaszyny intelligenceinteligencja is the last inventionwynalazek
that humanityludzkość will ever need to make.
132
453508
5044
Sztuczna inteligencja to ostatni
wynalazek, jakiego dokona człowiek.
07:50
MachinesMaszyny will then be better
at inventingWynalezienie than we are,
133
458552
2973
Maszyny będą lepszymi wynalazcami niż my
07:53
and they'lloni to zrobią be doing so
on digitalcyfrowy timescalesramy czasowe.
134
461525
2540
i będą operować na poziomie cyfrowym.
07:56
What this meansznaczy is basicallygruntownie
a telescopingTeleskopowej of the futureprzyszłość.
135
464065
4901
Oznacza to gwałtowny skok rozwoju.
08:00
Think of all the crazyzwariowany technologiestechnologie
that you could have imaginedwyobrażałem sobie
136
468966
3558
Pomyślcie o tych wszystkich
szalonych pomysłach,
08:04
maybe humansludzie could have developedrozwinięty
in the fullnessPełnia of time:
137
472524
2798
które ludzkość mogłaby
zrealizować w przyszłości.
08:07
curesleczy for agingstarzenie się, spaceprzestrzeń colonizationkolonizacja,
138
475322
3258
Powstrzymanie starzenia,
kolonizacja kosmosu,
08:10
self-replicatingsamoreplikujące nanobotsNanobots or uploadingprzesyłanie
of mindsumysły into computerskomputery,
139
478580
3731
samoreplikujące się nanoroboty,
podłączenie naszych umysłów do komputera.
08:14
all kindsrodzaje of sciencenauka fiction-yfikcja-y stuffrzeczy
140
482311
2159
Wszystkie pomysły rodem z science-fiction,
08:16
that's neverthelessNiemniej jednak consistentzgodny
with the lawsprawa of physicsfizyka.
141
484470
2737
które nie przeczą prawom fizyki,
08:19
All of this superintelligencesuperintelligence could
developrozwijać, and possiblymożliwie quitecałkiem rapidlyszybko.
142
487207
4212
mogłyby zaistnieć dzięki superinteligencji
i to dość gwałtownie.
08:24
Now, a superintelligencesuperintelligence with suchtaki
technologicaltechniczny maturitydojrzałość
143
492449
3558
Tak technologicznie
rozwinięta superinteligencja
08:28
would be extremelyniezwykle powerfulpotężny,
144
496007
2179
miałaby ogromną moc
08:30
and at leastnajmniej in some scenariosscenariusze,
it would be ablezdolny to get what it wants.
145
498186
4546
i według niektórych scenariuszy,
byłaby w stanie osiągnąć własne cele.
08:34
We would then have a futureprzyszłość that would
be shapedw kształcie by the preferencesPreferencje of this A.I.
146
502732
5661
Nasza przyszłość byłaby kształtowana
według uznania sztucznej inteligencji.
08:41
Now a good questionpytanie is,
what are those preferencesPreferencje?
147
509855
3749
Warto się zastanowić,
jakie miałaby ona preferencje.
08:46
Here it getsdostaje trickiertrudniejsze.
148
514244
1769
Tu tkwi pewna pułapka.
08:48
To make any headwayHeadway with this,
149
516013
1435
Żeby posunąć się dalej,
08:49
we mustmusi first of all
avoiduniknąć anthropomorphizingantropomorfizacji.
150
517448
3276
musimy uniknąć antropomorfizacji.
08:53
And this is ironicironiczny because
everykażdy newspaperGazeta articleartykuł
151
521934
3301
Jak na ironię,
bo każdy artykuł w gazetach,
08:57
about the futureprzyszłość of A.I.
has a pictureobrazek of this:
152
525235
3855
odnoszący się do przyszłości SI.
zawiera ten obrazek.
09:02
So I think what we need to do is
to conceivewyobrazić sobie of the issuekwestia more abstractlyabstrakcyjny,
153
530280
4134
Myślę, że powinniśmy podejść
do tematu bardziej abstrakcyjnie,
09:06
not in termswarunki of vividżywy HollywoodHollywood scenariosscenariusze.
154
534414
2790
nie kierując się scenariuszami
hollywoodzkich filmów.
09:09
We need to think of intelligenceinteligencja
as an optimizationOptymalizacja processproces,
155
537204
3617
Inteligencję należy rozumieć
jako proces optymalizacyjny,
09:12
a processproces that steerswołów the futureprzyszłość
into a particularszczególny setzestaw of configurationskonfiguracje.
156
540821
5649
który kształtuje przyszłość
według konkretnych ustaleń.
09:18
A superintelligencesuperintelligence is
a really strongsilny optimizationOptymalizacja processproces.
157
546470
3511
Superinteligencja jest procesem
mocno optymalizacyjnym.
09:21
It's extremelyniezwykle good at usingza pomocą
availabledostępny meansznaczy to achieveosiągać a statestan
158
549981
4117
Jest bardzo dobra w używaniu
odpowiednich środków,
09:26
in whichktóry its goalcel is realizedrealizowany.
159
554098
1909
żeby osiągnąć cel.
09:28
This meansznaczy that there is no necessaryniezbędny
conenctionpodłączeń betweenpomiędzy
160
556447
2672
Oznacza to, że niekoniecznie
musi istnieć związek
09:31
beingistota highlywysoko intelligentinteligentny in this sensesens,
161
559119
2734
między wysoką inteligencją,
09:33
and havingmający an objectivecel that we humansludzie
would find worthwhilewart or meaningfulznaczący.
162
561853
4662
a posiadaniem celu, który ludzkość
uznałaby za warty zachodu lub znaczący.
09:39
SupposeZałóżmy, że we give an A.I. the goalcel
to make humansludzie smileuśmiech.
163
567321
3794
Załóżmy, że daliśmy sztucznej inteligencji
zadanie wywołania u nas uśmiechu.
09:43
When the A.I. is weaksłaby, it performswykonuje usefulprzydatny
or amusingzabawne actionsdziałania
164
571115
2982
Słaba sztuczna inteligencja
wykonywałaby czynności,
09:46
that causeprzyczyna its userużytkownik to smileuśmiech.
165
574097
2517
które rozbawiłyby użytkownika.
09:48
When the A.I. becomesstaje się superintelligentsuperintelligent,
166
576614
2417
Superinteligencja zdałaby sobie sprawę,
09:51
it realizesuświadamia sobie that there is a more
effectiveefektywny way to achieveosiągać this goalcel:
167
579031
3523
że można osiągnąć cel
w bardziej efektywny sposób:
09:54
take controlkontrola of the worldświat
168
582554
1922
przejąć kontrolę nad światem,
09:56
and stickkij electrodeselektrody into the facialwytryski na twarz
musclesmięśnie of humansludzie
169
584476
3162
wszczepić ludziom elektrody,
mające sprawić,
09:59
to causeprzyczyna constantstały, beamingrozpromieniony grinsUśmiecha się.
170
587638
2941
że na naszych twarzach
na stałe zagości promienny uśmiech.
10:02
AnotherInnym exampleprzykład,
171
590579
1035
Inny przykład.
10:03
supposeprzypuszczać we give A.I. the goalcel to solverozwiązać
a difficulttrudny mathematicalmatematyczny problemproblem.
172
591614
3383
Załóżmy, że kazaliśmy komputerowi
rozwiązać trudne zadanie matematyczne.
10:06
When the A.I. becomesstaje się superintelligentsuperintelligent,
173
594997
1937
Superinteligencja doszłaby do wniosku,
10:08
it realizesuświadamia sobie that the mostwiększość effectiveefektywny way
to get the solutionrozwiązanie to this problemproblem
174
596934
4171
że najefektywniej będzie
10:13
is by transformingtransformatorowy the planetplaneta
into a giantogromny computerkomputer,
175
601105
2930
przekształcić planetę w ogromny komputer,
10:16
so as to increasezwiększać its thinkingmyślący capacityPojemność.
176
604035
2246
żeby przyspieszyć procesy myślowe.
10:18
And noticeogłoszenie that this givesdaje the A.I.s
an instrumentalMuzyka instrumentalna reasonpowód
177
606281
2764
To może dać superinteligencji pretekst
10:21
to do things to us that we
mightmoc not approvezatwierdzać of.
178
609045
2516
do robienia rzeczy,
których my byśmy nie popierali.
10:23
HumanCzłowieka beingsIstoty in this modelModel are threatszagrożenia,
179
611561
1935
Ludzie w tym modelu stają się przeszkodą
10:25
we could preventzapobiec the mathematicalmatematyczny
problemproblem from beingistota solvedrozwiązany.
180
613496
2921
dla rozwiązania zadania.
10:29
Of coursekurs, perceivablyw sposób zauważalny things won'tprzyzwyczajenie
go wrongźle in these particularszczególny wayssposoby;
181
617207
3494
Oczywiście możliwe, że sprawy
nie potoczą się w ten sposób.
10:32
these are cartoonrysunek examplesprzykłady.
182
620701
1753
To przerysowane przykłady.
10:34
But the generalgenerał pointpunkt here is importantważny:
183
622454
1939
Ale najważniejsze jest,
10:36
if you createStwórz a really powerfulpotężny
optimizationOptymalizacja processproces
184
624393
2873
że jeśli tworzysz potężny
proces optymalizacyjny
10:39
to maximizezmaksymalizować for objectivecel x,
185
627266
2234
do zmaksymalizowania realizacji celu X,
10:41
you better make sure
that your definitiondefinicja of x
186
629500
2276
lepiej upewnij się, czy definicja X
10:43
incorporateszawiera everything you careopieka about.
187
631776
2469
zawiera wszystko, na czym ci zależy.
10:46
This is a lessonlekcja that's alsorównież taughtnauczony
in manywiele a mythmit.
188
634835
4384
Tego uczy nas wiele mitów.
10:51
KingKról MidasMidas wishesżyczenia that everything
he touchesdotyka be turnedobrócony into goldzłoto.
189
639219
5298
Król Midas chciał, by wszystko,
czego dotknie, zamieniało się w złoto.
10:56
He touchesdotyka his daughtercórka,
she turnsskręca into goldzłoto.
190
644517
2861
Dotknął córki, a ona zmieniła się w złoto.
10:59
He touchesdotyka his foodjedzenie, it turnsskręca into goldzłoto.
191
647378
2553
Dotknął jedzenia,
a ono zmieniło się w złoto.
11:01
This could becomestają się practicallypraktycznie relevantistotnych,
192
649931
2589
To nie tylko metafora chciwości,
11:04
not just as a metaphormetafora for greedchciwość,
193
652520
2070
ale też tego, co może się stać,
11:06
but as an illustrationilustracja of what happensdzieje się
194
654590
1895
jeśli stworzymy proces optymalizacyjny
11:08
if you createStwórz a powerfulpotężny
optimizationOptymalizacja processproces
195
656485
2837
i damy mu błędnie określone
11:11
and give it misconceivedchybiona
or poorlysłabo specifiedokreślony goalscele.
196
659322
4789
lub słabo sprecyzowane cele.
11:16
Now you mightmoc say, if a computerkomputer startszaczyna się
stickingklejący electrodeselektrody into people'sludzie facestwarze,
197
664111
5189
Możecie powiedzieć, że jeśli komputer
zacznie nam wszczepiać elektrody,
11:21
we'dpoślubić just shutzamknąć it off.
198
669300
2265
wtedy go wyłączymy.
11:24
A, this is not necessarilykoniecznie so easyłatwo to do
if we'vemamy growndorosły dependentzależny on the systemsystem --
199
672555
5340
Po pierwsze, to może być trudne,
jeśli będziemy zależni od tego systemu.
11:29
like, where is the off switchprzełącznik
to the InternetInternet?
200
677895
2732
Jak wyłączyć internet?
11:32
B, why haven'tnie mam the chimpanzeesszympansy
flickedśmigały the off switchprzełącznik to humanityludzkość,
201
680627
5120
Po drugie, czemu szympansy
lub Neandertalczycy
11:37
or the NeanderthalsNeandertalczycy?
202
685747
1551
nas nie wyłączyli?
11:39
They certainlyna pewno had reasonspowody.
203
687298
2666
Mieli powody.
11:41
We have an off switchprzełącznik,
for exampleprzykład, right here.
204
689964
2795
Mamy swój wyłącznik, na przykład tutaj.
11:44
(ChokingZadławienie)
205
692759
1554
(Charczenie)
11:46
The reasonpowód is that we are
an intelligentinteligentny adversaryprzeciwnik;
206
694313
2925
Otóż jesteśmy inteligentnym przeciwnikiem.
11:49
we can anticipateprzewidywać threatszagrożenia
and planplan around them.
207
697238
2728
Potrafimy przewidzieć zagrożenie
i zaplanować obronę.
11:51
But so could a superintelligentsuperintelligent agentagenta,
208
699966
2504
To samo mogłaby zrobić superinteligencja
11:54
and it would be much better
at that than we are.
209
702470
3254
i byłaby w tym znacznie od nas lepsza.
11:57
The pointpunkt is, we should not be confidentpewni
that we have this underpod controlkontrola here.
210
705724
7187
Chodzi o to, żebyśmy nie byli pewni,
że wszystko mamy pod kontrolą.
12:04
And we could try to make our jobpraca
a little bitkawałek easierłatwiejsze by, say,
211
712911
3447
Można by spróbować ułatwić sobie zadanie,
12:08
puttingwprowadzenie the A.I. in a boxpudełko,
212
716358
1590
umieszczając SI w pudełku,
12:09
like a securebezpieczne softwareoprogramowanie environmentśrodowisko,
213
717948
1796
w jakiejś odosobnionej przestrzeni,
12:11
a virtualwirtualny realityrzeczywistość simulationsymulacja
from whichktóry it cannotnie może escapeucieczka.
214
719744
3022
w wirtualnej rzeczywistości,
z której nie będzie w stanie uciec.
12:14
But how confidentpewni can we be that
the A.I. couldn'tnie mógł find a bugpluskwa.
215
722766
4146
Na ile możemy być pewni, że komputer
nie znajdzie błędu w programie?
12:18
GivenBiorąc pod uwagę that merelyjedynie humanczłowiek hackersHakerzy
find bugsbłędy all the time,
216
726912
3169
Skoro hakerzy
ciągle znajdują jakieś błędy,
12:22
I'd say, probablyprawdopodobnie not very confidentpewni.
217
730081
3036
jest to niemal pewne.
12:26
So we disconnectodłączyć the ethernetsieci Ethernet cablekabel
to createStwórz an airpowietrze gapszczelina,
218
734237
4548
Moglibyśmy odłączyć ethernet,
żeby odizolować komputer,
12:30
but again, like merelyjedynie humanczłowiek hackersHakerzy
219
738785
2668
ale hakerzy potrafią poradzić sobie
i z tym problemem,
12:33
routinelyrutynowo transgressłamią airpowietrze gapsluki
usingza pomocą socialspołeczny engineeringInżynieria.
220
741453
3381
wykorzystując inżynierię społeczną.
12:36
Right now, as I speakmówić,
221
744834
1259
W tej właśnie chwili
12:38
I'm sure there is some employeepracownik
out there somewheregdzieś
222
746093
2389
gdzieś jakiś pracownik
12:40
who has been talkedrozmawialiśmy into handingprzekazanie out
her accountkonto detailsdetale
223
748482
3346
przekazuje swoje dane logowania komuś
12:43
by somebodyktoś claimingroszczenie to be
from the I.T. departmentdepartament.
224
751828
2746
podającemu się za informatyka.
12:46
More creativetwórczy scenariosscenariusze are alsorównież possiblemożliwy,
225
754574
2127
Możliwe są bardziej kreatywne scenariusze.
12:48
like if you're the A.I.,
226
756701
1315
Sztuczna inteligencja
12:50
you can imaginewyobrażać sobie wigglingwiggling electrodeselektrody
around in your internalwewnętrzny circuitryzespół obwodów elektrycznych
227
758016
3532
może pokombinować przy elektrodach
w swoim obwodzie,
12:53
to createStwórz radioradio wavesfale that you
can use to communicatekomunikować się.
228
761548
3462
żeby powstały fale radiowe
potrzebne do komunikacji.
12:57
Or maybe you could pretendstwarzać pozory to malfunctionusterka,
229
765010
2424
Albo może udawać awarię,
12:59
and then when the programmersprogramistów openotwarty
you up to see what wentposzedł wrongźle with you,
230
767434
3497
a kiedy programiści zajrzą do środka,
żeby sprawdzić kod źródłowy
13:02
they look at the sourceźródło codekod -- BamBAM! --
231
770931
1936
- bum! -
13:04
the manipulationmanipulacja can take placemiejsce.
232
772867
2447
może dojść do manipulacji.
13:07
Or it could outputwydajność the blueprintPlan wytworzenia
to a really niftyładne technologytechnologia,
233
775314
3430
Może też zaprojektować
bardzo zmyślną technologię,
13:10
and when we implementwprowadzić w życie it,
234
778744
1398
a kiedy ją zaimplementujemy
13:12
it has some surreptitiouskryptoreklamy sidebok effectefekt
that the A.I. had plannedzaplanowany.
235
780142
4397
okaże się, że ma jakiś ukryte działanie,
zaplanowane przez komputer.
13:16
The pointpunkt here is that we should
not be confidentpewni in our abilityzdolność
236
784539
3463
Chodzi o to, żebyśmy nie byli pewni,
że będziemy potrafili
13:20
to keep a superintelligentsuperintelligent geniedżin
lockedzablokowany up in its bottlebutelka foreverna zawsze.
237
788002
3808
trzymać superinteligentnego dżina
zamkniętego w lampie na zawsze.
13:23
SoonerPrędzej or laterpóźniej, it will out.
238
791810
2254
Prędzej czy później się z niej wydostanie.
13:27
I believe that the answerodpowiedź here
is to figurepostać out
239
795034
3103
Sęk w tym, żeby zaprojektować
superinteligentny komputer,
13:30
how to createStwórz superintelligentsuperintelligent A.I.
suchtaki that even if -- when -- it escapesucieka,
240
798137
5024
który jeśli, czy może kiedy, ucieknie,
13:35
it is still safebezpieczny because it is
fundamentallyzasadniczo on our sidebok
241
803161
3277
będzie niegroźny,
bo będzie po naszej stronie,
13:38
because it sharesAkcje our valueswartości.
242
806438
1899
wyznając nasze wartości.
13:40
I see no way around
this difficulttrudny problemproblem.
243
808337
3210
Nie widzę innego sposobu
na ominięcie tego problemu.
13:44
Now, I'm actuallytak właściwie fairlydość optimisticoptymistyczny
that this problemproblem can be solvedrozwiązany.
244
812557
3834
Dość optymistycznie podchodzę
do kwestii rozwiązania tego problemu.
13:48
We wouldn'tnie have to writepisać down
a long listlista of everything we careopieka about,
245
816391
3903
Nie musimy tworzyć długiej listy
wszystkiego, co dla nas ważne,
13:52
or worsegorzej yetjeszcze, spellzaklęcie it out
in some computerkomputer languagejęzyk
246
820294
3643
ani co gorsza, przekładać jej
na jakiś język programowania,
13:55
like C++ or PythonPython,
247
823937
1454
jak C++ czy Python,
13:57
that would be a taskzadanie beyondpoza hopelessbeznadziejny.
248
825391
2767
co byłoby beznadziejnym zadaniem.
14:00
InsteadZamiast tego, we would createStwórz an A.I.
that usesużywa its intelligenceinteligencja
249
828158
4297
Trzeba stworzyć komputer,
który użyje swojej inteligencji
14:04
to learnuczyć się what we valuewartość,
250
832455
2771
żeby nauczyć się naszych wartości,
14:07
and its motivationmotywacja systemsystem is constructedzbudowana
in suchtaki a way that it is motivatedmotywację
251
835226
5280
a jego system motywacyjny
skonstruowany byłby w taki sposób,
14:12
to pursuekontynuować our valueswartości or to performwykonać actionsdziałania
that it predictsprzewiduje we would approvezatwierdzać of.
252
840506
5232
że dążyłby do naszych wartości i wykonywał
pochwalane przez nas czynności.
14:17
We would thusa zatem leveragewpływ
its intelligenceinteligencja as much as possiblemożliwy
253
845738
3414
W ten sposób
wykorzystalibyśmy jego inteligencję
14:21
to solverozwiązać the problemproblem of value-loadingzaładunek wartości.
254
849152
2745
do rozwiązania problemu wartości.
14:24
This can happenzdarzyć,
255
852727
1512
Można to zrobić,
14:26
and the outcomewynik could be
very good for humanityludzkość.
256
854239
3596
a owoce tej pracy
byłyby dobre dla ludzkości.
14:29
But it doesn't happenzdarzyć automaticallyautomatycznie.
257
857835
3957
Ale to nie stanie się automatycznie.
14:33
The initialInicjał conditionswarunki
for the intelligenceinteligencja explosioneksplozja
258
861792
2998
Możliwe, że trzeba będzie
14:36
mightmoc need to be setzestaw up
in just the right way
259
864790
2863
precyzyjnie określić
startowe warunki eksplozji inteligencji,
14:39
if we are to have a controlledkontrolowane detonationdetonacji.
260
867653
3530
jeśli chcemy dokonać
kontrolowanej detonacji.
14:43
The valueswartości that the A.I. has
need to matchmecz oursnasz,
261
871183
2618
Sztuczna inteligencja
musi wyznawać nasze wartości
14:45
not just in the familiarznajomy contextkontekst,
262
873801
1760
nie tylko w znanych sytuacjach,
14:47
like where we can easilyz łatwością checkczek
how the A.I. behaveszachowuje się,
263
875561
2438
które możemy przewidzieć,
14:49
but alsorównież in all novelpowieść contextsKonteksty
that the A.I. mightmoc encounterspotkanie
264
877999
3234
ale też w nowych kontekstach,
na które może się natknąć
14:53
in the indefinitenieokreślony futureprzyszłość.
265
881233
1557
w niezdefiniowanej przyszłości.
14:54
And there are alsorównież some esotericezoteryczne issuesproblemy
that would need to be solvedrozwiązany, sortedposortowane out:
266
882790
4737
Musimy też rozwikłać
pewne ezoteryczne kwestie.
14:59
the exactdokładny detailsdetale of its decisiondecyzja theoryteoria,
267
887527
2089
Szczegóły teorii decyzji, jak sobie radzić
15:01
how to dealsprawa with logicallogiczny
uncertaintyniepewność and so forthnaprzód.
268
889616
2864
z niepewnością logiczną i tak dalej.
15:05
So the technicaltechniczny problemsproblemy that need
to be solvedrozwiązany to make this work
269
893330
3102
Techniczne problemy,
stojące przed tym zadaniem
15:08
look quitecałkiem difficulttrudny --
270
896432
1113
wydają się trudne.
15:09
not as difficulttrudny as makingzrobienie
a superintelligentsuperintelligent A.I.,
271
897545
3380
Nie aż tak trudne, jak stworzenie
sztucznej superinteligencji,
15:12
but fairlydość difficulttrudny.
272
900925
2868
ale dość trudne.
15:15
Here is the worrymartwić się:
273
903793
1695
Tu tkwi problem.
15:17
MakingDokonywanie superintelligentsuperintelligent A.I.
is a really hardciężko challengewyzwanie.
274
905488
4684
Stworzenie superinteligentnego komputera
jest trudnym wyzwaniem.
15:22
MakingDokonywanie superintelligentsuperintelligent A.I. that is safebezpieczny
275
910172
2548
Stworzenie bezpiecznego
superinteligentnego komputera
15:24
involvesobejmuje some additionaldodatkowe
challengewyzwanie on topTop of that.
276
912720
2416
jest jeszcze trudniejsze.
15:28
The riskryzyko is that if somebodyktoś figuresfigury out
how to crackpęknięcie the first challengewyzwanie
277
916216
3487
Ryzyko polega na tym, że komuś
uda się sprostać pierwszemu wyzwaniu
15:31
withoutbez alsorównież havingmający crackedpęknięty
the additionaldodatkowe challengewyzwanie
278
919703
3001
z pominięciem zapewnienia
15:34
of ensuringzapewnienie perfectidealny safetybezpieczeństwo.
279
922704
1901
całkowitego bezpieczeństwa.
15:37
So I think that we should
work out a solutionrozwiązanie
280
925375
3331
Uważam, że najpierw należy
15:40
to the controlkontrola problemproblem in advancepostęp,
281
928706
2822
rozwiązać problem kontroli,
15:43
so that we have it availabledostępny
by the time it is neededpotrzebne.
282
931528
2660
aby mieć w razie czego pod ręką antidotum.
15:46
Now it mightmoc be that we cannotnie może solverozwiązać
the entireCały controlkontrola problemproblem in advancepostęp
283
934768
3507
Może się okazać, że nie da się
rozwiązać zawczasu całego problemu,
15:50
because maybe some elementselementy
can only be put in placemiejsce
284
938275
3024
bo niektóre jego elementy można stworzyć,
15:53
oncepewnego razu you know the detailsdetale of the
architecturearchitektura where it will be implementedwdrożony.
285
941299
3997
wyłącznie znając szczegóły architektury,
która zostanie zaimplementowana.
15:57
But the more of the controlkontrola problemproblem
that we solverozwiązać in advancepostęp,
286
945296
3380
Ale im większą część
tego problemu rozwiążemy,
16:00
the better the oddsszansa that the transitionprzejście
to the machinemaszyna intelligenceinteligencja eraera
287
948676
4090
tym większe mamy szanse na wkroczenie
w epokę inteligentnych maszyn
16:04
will go well.
288
952766
1540
zgodnie z naszym planem.
16:06
This to me lookswygląda like a thing
that is well worthwartość doing
289
954306
4644
Dla mnie jest to gra warta świeczki
16:10
and I can imaginewyobrażać sobie that if
things turnskręcać out okay,
290
958950
3332
i, jeśli wszystko pójdzie dobrze,
16:14
that people a millionmilion yearslat from now
look back at this centurystulecie
291
962282
4658
ludzie za milion lat
spojrzą na nasze stulecie
16:18
and it mightmoc well be that they say that
the one thing we did that really matteredliczyło się
292
966940
4002
i powiedzą, że jest to jedyna ważna rzecz,
16:22
was to get this thing right.
293
970942
1567
która nam się udała.
16:24
Thank you.
294
972509
1689
Dziękuję.
16:26
(ApplauseAplauz)
295
974198
2813
(Brawa)
Translated by Robert Filipowski
Reviewed by Małgorzata Ciborska

▲Back to top

ABOUT THE SPEAKER
Nick Bostrom - Philosopher
Nick Bostrom asks big questions: What should we do, as individuals and as a species, to optimize our long-term prospects? Will humanity’s technological advancements ultimately destroy us?

Why you should listen

Philosopher Nick Bostrom envisioned a future full of human enhancement, nanotechnology and machine intelligence long before they became mainstream concerns. From his famous simulation argument -- which identified some striking implications of rejecting the Matrix-like idea that humans are living in a computer simulation -- to his work on existential risk, Bostrom approaches both the inevitable and the speculative using the tools of philosophy, probability theory, and scientific analysis.

Since 2005, Bostrom has led the Future of Humanity Institute, a research group of mathematicians, philosophers and scientists at Oxford University tasked with investigating the big picture for the human condition and its future. He has been referred to as one of the most important thinkers of our age.

Nick was honored as one of Foreign Policy's 2015 Global Thinkers .

His recent book Superintelligence advances the ominous idea that “the first ultraintelligent machine is the last invention that man need ever make.”

More profile about the speaker
Nick Bostrom | Speaker | TED.com