ABOUT THE SPEAKER
Nick Bostrom - Philosopher
Nick Bostrom asks big questions: What should we do, as individuals and as a species, to optimize our long-term prospects? Will humanity’s technological advancements ultimately destroy us?

Why you should listen

Philosopher Nick Bostrom envisioned a future full of human enhancement, nanotechnology and machine intelligence long before they became mainstream concerns. From his famous simulation argument -- which identified some striking implications of rejecting the Matrix-like idea that humans are living in a computer simulation -- to his work on existential risk, Bostrom approaches both the inevitable and the speculative using the tools of philosophy, probability theory, and scientific analysis.

Since 2005, Bostrom has led the Future of Humanity Institute, a research group of mathematicians, philosophers and scientists at Oxford University tasked with investigating the big picture for the human condition and its future. He has been referred to as one of the most important thinkers of our age.

Nick was honored as one of Foreign Policy's 2015 Global Thinkers .

His recent book Superintelligence advances the ominous idea that “the first ultraintelligent machine is the last invention that man need ever make.”

More profile about the speaker
Nick Bostrom | Speaker | TED.com
TEDGlobal 2005

Nick Bostrom: A philosophical quest for our biggest problems

Nick Bostrom mówi o naszych największych problemach

Filmed:
967,767 views

Oksfordzki filozof i transhumanista Nick Bostrom analizuje przyszłość rodzaju ludzkiego i zastanawia się, czy fundamentalne przekształcenie ludzkiej natury może rozwiązać nasze najbardziej palące problemy.
- Philosopher
Nick Bostrom asks big questions: What should we do, as individuals and as a species, to optimize our long-term prospects? Will humanity’s technological advancements ultimately destroy us? Full bio

Double-click the English transcript below to play the video.

00:24
I want to talk todaydzisiaj about --
0
0
3000
Opowiem dzisiaj o trzech największych,
00:27
I've been askedspytał to take the long viewwidok, and I'm going to tell you what
1
3000
6000
w moim mniemaniu, problemach ludzkości,
00:33
I think are the threetrzy biggestnajwiększy problemsproblemy for humanityludzkość
2
9000
4000
w długoterminowej perspektywie,
00:37
from this long pointpunkt of viewwidok.
3
13000
3000
o której przyjęcie mnie tu poproszono.
00:40
Some of these have alreadyjuż been touchedwzruszony uponna by other speakersgłośniki,
4
16000
3000
Część z nich poruszali inni prelegenci,
00:43
whichktóry is encouragingzachęcający.
5
19000
2000
co nastraja zachęcająco,
00:45
It seemswydaje się that there's not just one personosoba
6
21000
2000
bo nie tylko ja uważam te problemy za istotne.
00:47
who thinksmyśli that these problemsproblemy are importantważny.
7
23000
2000
bo nie tylko ja uważam te problemy za istotne.
00:49
The first is -- deathśmierć is a bigduży problemproblem.
8
25000
4000
Pierwszym z nich jest śmierć - to duży problem.
00:53
If you look at the statisticsStatystyka,
9
29000
3000
Jeśli spojrzeć na statystyki,
00:56
the oddsszansa are not very favorablekorzystny to us.
10
32000
2000
jesteśmy na straconej pozycji.
00:58
So fardaleko, mostwiększość people who have livedPerscyativestwo recyrodycyjcystwo recyrodycyjcystwo recyrodycyj have alsorównież diedzmarły.
11
34000
4000
Jak dotąd, większość tych, którzy żyli - umiera.
01:02
RoughlyMniej więcej 90 percentprocent of everybodywszyscy who has been aliveżywy has diedzmarły by now.
12
38000
4000
Zmarło 90% kiedykolwiek żyjących ludzi.
01:06
So the annualroczny deathśmierć rateoceniać addsdodaje up to 150,000 --
13
42000
6000
Zatem roczna śmiertelność wynosi około 150 tysięcy,
01:12
sorry, the dailycodziennie deathśmierć rateoceniać -- 150,000 people perza day,
14
48000
3000
nie, przepraszam, to dzienna śmiertelność.
01:15
whichktóry is a hugeolbrzymi numbernumer by any standardstandard.
15
51000
3000
Jakby nie liczyć, to ogromna liczba.
01:18
The annualroczny deathśmierć rateoceniać, then, becomesstaje się 56 millionmilion.
16
54000
5000
Roczna śmiertelność w skali globalnej to 56 milionów.
01:23
If we just look at the singlepojedynczy, biggestnajwiększy causeprzyczyna of deathśmierć -- agingstarzenie się --
17
59000
5000
Najczęstsza przyczyna śmierci, starzenie się,
01:29
it accountskonta for roughlyw przybliżeniu two-thirdsdwie trzecie of all humanczłowiek people who dieumierać.
18
65000
5000
odpowiada za około 2/3 wszystkich zgonów,
01:34
That addsdodaje up to an annualroczny deathśmierć tollmyto
19
70000
3000
co w skali roku wynosi więcej
01:37
of greaterwiększy than the populationpopulacja of CanadaKanada.
20
73000
2000
niż ilość mieszkańców Kanady.
01:39
SometimesCzasami, we don't see a problemproblem
21
75000
2000
Czasem nie widać problemu,
01:41
because eitherzarówno it's too familiarznajomy or it's too bigduży.
22
77000
4000
bo jest zbyt powszechny, dobrze znany
01:45
Can't see it because it's too bigduży.
23
81000
2000
albo zbyt wielki.
01:47
I think deathśmierć mightmoc be bothobie too familiarznajomy and too bigduży
24
83000
3000
Myślę, że śmierć jest zbyt powszechna,
01:50
for mostwiększość people to see it as a problemproblem.
25
86000
3000
by większość z nas widziała w niej problem.
01:53
OnceRaz you think about it, you see this is not statisticalstatystyczny pointszwrotnica;
26
89000
2000
Ale kiedy o niej myślimy,
01:55
these are -- let's see, how fardaleko have I talkedrozmawialiśmy?
27
91000
2000
przestaje być statystyką.
01:57
I've talkedrozmawialiśmy for threetrzy minutesminuty.
28
93000
3000
Mówię już od trzech minut,
02:00
So that would be, roughlyw przybliżeniu, 324 people have diedzmarły sinceod I've begunzaczął speakingmówienie.
29
96000
7000
a zatem od początku wykładu zmarło ok. 324 ludzi,
02:07
People like -- it's roughlyw przybliżeniu the populationpopulacja in this roompokój has just diedzmarły.
30
103000
4000
czyli mniej więcej tyle, ile jest w tej sali.
02:12
Now, the humanczłowiek costkoszt of that is obviousoczywisty,
31
108000
2000
Koszty śmierci są wielkie.
02:14
oncepewnego razu you startpoczątek to think about it -- the sufferingcierpienie, the lossutrata --
32
110000
3000
Proszę pomyśleć - cierpienie, strata bliskich
02:17
it's alsorównież, economicallyekonomicznie, enormouslyogromnie wastefulrozrzutny.
33
113000
3000
i ogromne marnotrawstwo w sensie ekonomicznym.
02:20
I just look at the informationInformacja, and knowledgewiedza, umiejętności, and experiencedoświadczenie
34
116000
3000
Tracimy tyle informacji, wiedzy i doświadczenia
02:23
that is lostStracony duez powodu to naturalnaturalny causesprzyczyny of deathśmierć in generalgenerał,
35
119000
3000
w wyniku śmierci z przyczyn naturalnych,
02:26
and agingstarzenie się, in particularszczególny.
36
122000
2000
głównie śmierci ze starości.
02:28
SupposeZałóżmy, że we approximatedprzybliżony one personosoba with one bookksiążka?
37
124000
3000
Przyrównajmy jedną osobę do jednej książki.
02:31
Now, of coursekurs, this is an underestimationniedocenianie.
38
127000
2000
To uproszczenie,
02:33
A person'sosoby lifetimeżycie of learninguczenie się and experiencedoświadczenie
39
129000
6000
bo doświadczenie i wiedza zbierane przez całe życie
02:39
is a lot more than you could put into a singlepojedynczy bookksiążka.
40
135000
2000
przerastają objętość książki.
02:41
But let's supposeprzypuszczać we did this.
41
137000
2000
Ale załóżmy, człowiek=książka.
02:44
52 millionmilion people dieumierać of naturalnaturalny causesprzyczyny eachkażdy yearrok
42
140000
5000
Corocznie z przyczyn naturalnych umiera 25 mln osób,
02:49
correspondsodpowiada, then, to 52 millionmilion volumeskłęby destroyedzniszczony.
43
145000
4000
co odpowiadałoby utracie 52 milionów książek.
02:53
LibraryBiblioteka of CongressKongres holdstrzyma 18 millionmilion volumeskłęby.
44
149000
3000
Biblioteka Kongresu mieści 18 milionów.
02:57
We are upsetzdenerwowany about the burningpalenie of the LibraryBiblioteka of AlexandriaAleksandria.
45
153000
3000
Wzburza nas spalenie Biblioteki Aleksandryjskiej.
03:00
It's one of the great culturalkulturalny tragediestragedie
46
156000
2000
To jedna z tragedii kultury,
03:02
that we rememberZapamiętaj, even todaydzisiaj.
47
158000
3000
które do dziś wspominamy.
03:06
But this is the equivalentrównowartość of threetrzy LibrariesBiblioteki of CongressKongres --
48
162000
2000
Ale tu tracimy corocznie
03:08
burntspalony down, foreverna zawsze lostStracony -- eachkażdy yearrok.
49
164000
3000
zawartość trzech bibliotek Kongresu.
03:11
So that's the first bigduży problemproblem.
50
167000
2000
To pierwszy wielki problem.
03:13
And I wishżyczenie GodspeedGodspeed to AubreyAubrey dede GreySzary,
51
169000
3000
I życzę pomyślności Aubrey'owi de Grey
03:16
and other people like him,
52
172000
2000
i innym jemu podobnym.
03:18
to try to do something about this as soonwkrótce as possiblemożliwy.
53
174000
3000
Niech jak najszybciej coś z tym zrobią.
03:22
ExistentialEgzystencjalne riskryzyko -- the seconddruga bigduży problemproblem.
54
178000
3000
Drugi problem to zagrożenie egzystencji.
03:25
ExistentialEgzystencjalne riskryzyko is a threatzagrożenie to humanczłowiek survivalprzetrwanie, or to the long-termdługoterminowy potentialpotencjał of our speciesgatunki.
55
181000
7000
Zagrożenie przetrwania lub przyszłego rozwoju gatunku.
03:32
Now, why do I say that this is a bigduży problemproblem?
56
188000
2000
Czy to wielki problem?
03:34
Well, let's first look at the probabilityprawdopodobieństwo --
57
190000
4000
Spójrzmy najpierw na jego prawdopodobieństwo,
03:38
and this is very, very difficulttrudny to estimateoszacowanie --
58
194000
3000
które trudno oszacować, ale co zaskakujące,
03:41
but there have been only fourcztery studiesstudia on this in recentniedawny yearslat,
59
197000
3000
istnieją tylko 4 nowe opracowania naukowe
03:44
whichktóry is surprisingzaskakujący.
60
200000
2000
tego tematu.
03:46
You would think that it would be of some interestzainteresowanie
61
202000
3000
To dziwne, że badania tego problemu
03:49
to try to find out more about this givendany that the stakespula are so bigduży,
62
205000
4000
cieszą się tak nikłym zainteresowaniem, zważywszy na to,
03:53
but it's a very neglectedzaniedbany areapowierzchnia.
63
209000
2000
że stawka jest ogromna.
03:55
But there have been fourcztery studiesstudia --
64
211000
2000
Są jednak 4 opracowania.
03:57
one by JohnJohn LesleyLesley, wrotenapisał a bookksiążka on this.
65
213000
2000
Jedno, książka Johna Lesleya,
03:59
He estimatedszacowany a probabilityprawdopodobieństwo that we will failzawieść
66
215000
2000
szacuje prawdopodobieństwo
04:01
to surviveprzetrwać the currentobecny centurystulecie: 50 percentprocent.
67
217000
3000
zagłady ludzkiej w obecnym stuleciu na 50%.
04:04
SimilarlyPodobnie, the AstronomerAstronom RoyalRoyal, whomkogo we heardsłyszał speakmówić yesterdaywczoraj,
68
220000
5000
Królewski Astronom, którego słuchaliśmy wcześniej,
04:09
alsorównież has a 50 percentprocent probabilityprawdopodobieństwo estimateoszacowanie.
69
225000
3000
ocenia to prawdopodobieństwo tak samo.
04:12
AnotherInnym authorautor doesn't give any numericalliczbowy estimateoszacowanie,
70
228000
3000
Kolejny autor nie podaje liczb, ale twierdzi,
04:15
but saysmówi the probabilityprawdopodobieństwo is significantznaczący that it will failzawieść.
71
231000
3000
że prawdopodobieństwo zagłady jest znaczne.
04:18
I wrotenapisał a long paperpapier on this.
72
234000
3000
Sam napisałem o tym długi artykuł.
04:21
I said assigningprzypisywanie a lessmniej than 20 percentprocent probabilityprawdopodobieństwo would be a mistakebłąd
73
237000
4000
Twierdzę, że prawdopodobieństwo to przynajmniej 20%,
04:25
in lightlekki of the currentobecny evidencedowód we have.
74
241000
3000
w świetle obecnych dowodów.
04:28
Now, the exactdokładny figuresfigury here,
75
244000
2000
Rzecz jasna, takie wyliczenia
04:30
we should take with a bigduży grainziarno of saltSól,
76
246000
2000
trzeba przyjąć z dystansem,
04:32
but there seemswydaje się to be a consensuszgoda that the riskryzyko is substantialznaczny.
77
248000
3000
ale chyba zgadzamy się, że ryzyko jest znaczne.
04:35
EverybodyKażdy who has lookedspojrzał at this and studiedbadane it agreeszgadza się.
78
251000
3000
Każdy, kto się tym zajmuje, jest tego zdania.
04:38
Now, if we think about what just reducingredukcja
79
254000
2000
Pomyślcie - zmniejszenie
04:40
the probabilityprawdopodobieństwo of humanczłowiek extinctionwygaśnięcie by just one percentageodsetek pointpunkt --
80
256000
5000
tego ryzyka o zaledwie jeden punkt procentowy
04:45
not very much -- so that's equivalentrównowartość to 60 millionmilion liveszyje savedzapisane,
81
261000
5000
równałoby się ocaleniu 60 milionów istnień,
04:50
if we just countliczyć the currentlyobecnie livingżycie people, the currentobecny generationgeneracja.
82
266000
4000
licząc tylko ludzi żyjących obecnie.
04:54
Now one percentprocent of sixsześć billionmiliard people is equivalentrównowartość to 60 millionmilion.
83
270000
4000
Jeden procent z 6 miliardów to 60 milionów.
04:58
So that's a largeduży numbernumer.
84
274000
2000
To ogromna liczba.
05:00
If we were to take into accountkonto futureprzyszłość generationspokolenia
85
276000
3000
A biorąc pod uwagę pokolenia,
05:03
that will never come into existenceistnienie if we blowcios ourselvesmy sami up,
86
279000
5000
których nie będzie, jeśli my wysadzimy się w powietrze,
05:08
then the figurepostać becomesstaje się astronomicalastronomiczny.
87
284000
3000
otrzymujemy liczbę astronomiczna.
05:11
If we could eventuallyostatecznie colonizeskolonizować a chunkkawałek of the universewszechświat --
88
287000
3000
Może uda się skolonizować kawałek kosmosu,
05:14
the VirgoVirgo superclustersupergromada --
89
290000
2000
Supergromadę w Pannie,
05:16
maybe it will take us 100 millionmilion yearslat to get there,
90
292000
2000
choćby trwało to 100 mln lat,
05:18
but if we go extinctwyginąć we never will.
91
294000
3000
ale jeśli wyginiemy, nigdy tego nie dokonamy.
05:21
Then, even a one percentageodsetek pointpunkt reductionzmniejszenie
92
297000
3000
Zatem tylko jednoprocentowa redukcja
05:24
in the extinctionwygaśnięcie riskryzyko could be equivalentrównowartość
93
300000
4000
prawdopodobieństwa naszej zagłady,
05:28
to this astronomicalastronomiczny numbernumer -- 10 to the powermoc of 32.
94
304000
3000
to oszałamiająca liczba, 10 do potęgi 32.
05:31
So if you take into accountkonto futureprzyszłość generationspokolenia as much as our ownwłasny,
95
307000
4000
Uwzględniając także przyszłe pokolenia, widzimy,
05:35
everykażdy other moralmorał imperativetryb rozkazujący of philanthropicfilantropijny costkoszt just becomesstaje się irrelevantbez znaczenia.
96
311000
5000
że to najwyższy imperatyw moralny dotyczący kosztów ludzkich.
05:40
The only thing you should focusskupiać on
97
316000
2000
Zostaje jeden cel,
05:42
would be to reducezmniejszyć existentialegzystencjalny riskryzyko
98
318000
2000
bo nawet najmniejsza
05:44
because even the tiniestnajmniejszy decreasezmniejszać in existentialegzystencjalny riskryzyko
99
320000
4000
redukcja prawdopodobieństwa zagłady
05:48
would just overwhelmzasypać any other benefitzasiłek you could hopenadzieja to achieveosiągać.
100
324000
4000
przewyższa wszystkie inne możliwe korzyści.
05:52
And even if you just look at the currentobecny people,
101
328000
2000
Nawet jeśli zapomnimy
05:54
and ignoreignorować the potentialpotencjał that would be lostStracony if we wentposzedł extinctwyginąć,
102
330000
5000
o stracie potencjału przyszłych pokoleń, uniknięcie zagłady
05:59
it should still have a highwysoki prioritypriorytet.
103
335000
2000
to wciąż wysoki priorytet.
06:01
Now, let me spendwydać the restodpoczynek of my time on the thirdtrzeci bigduży problemproblem,
104
337000
5000
Resztę wykładu poświęcę trzeciemu problemowi,
06:06
because it's more subtlesubtelny and perhapsmoże difficulttrudny to graspchwycić.
105
342000
5000
bo jest bardziej subtelny i może trudniejszy do zrozumienia.
06:12
Think about some time in your life --
106
348000
4000
Przypomnijcie sobie jakąś chwilę...
06:16
some people mightmoc never have experienceddoświadczony it -- but some people,
107
352000
3000
Niektórzy może tego nie doświadczyli,
06:19
there are just those momentschwile that you have experienceddoświadczony
108
355000
3000
ale bywają w życiu chwile, kiedy czujemy,
06:22
where life was fantasticfantastyczny.
109
358000
2000
że jest ono wspaniałe.
06:24
It mightmoc have been at the momentza chwilę of some great, creativetwórczy inspirationInspiracja
110
360000
7000
Na przykład moment wielkiej twórczej inspiracji,
06:31
you mightmoc have had when you just enteredweszła this flowpływ stageetap.
111
367000
2000
kiedy czuliście "flow"
06:33
Or when you understoodzrozumiany something you had never doneGotowe before.
112
369000
2000
albo nagle uzyskaliście wgląd
06:35
Or perhapsmoże in the ecstasyekstaza of romanticromantyczny love.
113
371000
4000
albo byliście w uniesieniu miłosnym.
06:39
Or an aestheticestetyczny experiencedoświadczenie -- a sunsetzachód słońca or a great piecekawałek of artsztuka.
114
375000
5000
Może przeżycie estetyczne - zachód słońca, dzieło sztuki.
06:44
EveryKażdy oncepewnego razu in a while we have these momentschwile,
115
380000
2000
W takich chwilach
06:46
and we realizerealizować just how good life can be when it's at its bestNajlepiej.
116
382000
4000
czujemy, jak wspaniałe może być życie.
06:50
And you wondercud, why can't it be like that all the time?
117
386000
5000
I zastanawiamy się, dlaczego nie może być tak cały czas?
06:55
You just want to clingprzylgnąć ontona this.
118
391000
2000
Chciałoby się, by ta chwila trwała.
06:57
And then, of coursekurs, it driftsdryfy back into ordinaryzwykły life and the memorypamięć fadesznika.
119
393000
4000
Potem wraca normalność i o tym zapominamy.
07:01
And it's really difficulttrudny to recallodwołanie, in a normalnormalna framerama of mindumysł,
120
397000
4000
W nastroju "codzienności" trudno przypomnieć sobie,
07:05
just how good life can be at its bestNajlepiej.
121
401000
3000
jak wspaniałe może być życie,
07:08
Or how badzły it can be at its worstnajgorszy.
122
404000
3000
lub jak podłe, w chwilach najgorszych.
07:11
The thirdtrzeci bigduży problemproblem is that life isn't usuallyzazwyczaj
123
407000
3000
Trzeci problem polega na tym, że życie
07:14
as wonderfulwspaniale as it could be.
124
410000
2000
nie zawsze jest tak cudowne.
07:16
I think that's a bigduży, bigduży problemproblem.
125
412000
4000
Uważam, że to naprawdę poważny problem.
07:20
It's easyłatwo to say what we don't want.
126
416000
2000
Wiemy, czego nie chcemy.
07:23
Here are a numbernumer of things that we don't want --
127
419000
3000
Oto kilka przykładów niechcianych spraw:
07:26
illnesschoroba, involuntarymimowolny deathśmierć, unnecessaryniepotrzebne sufferingcierpienie, crueltyokrucieństwo,
128
422000
3000
choroba, śmierć, niepotrzebne cierpienie, okrucieństwo,
07:29
stuntedskarłowaciały growthwzrost, memorypamięć lossutrata, ignoranceignorancja, absencebrak of creativitykreatywność.
129
425000
5000
ograniczenia, utrata pamięci, niewiedza, twórcza niemoc.
07:35
SupposeZałóżmy, że we fixednaprawiony these things -- we did something about all of these.
130
431000
3000
A gdyby udało się to wszystko naprawić?
07:38
We were very successfuludany.
131
434000
2000
Osiągnęlibyśmy sukces,
07:40
We got ridpozbyć się of all of these things.
132
436000
2000
pozbyli się tych okropieństw.
07:42
We mightmoc endkoniec up with something like this,
133
438000
3000
Możliwe, że wyszłoby nam coś takiego.
07:45
whichktóry is -- I mean, it's a heckdo cholery of a lot better than that.
134
441000
4000
To oczywiście lepsze, niż to co mamy teraz,
07:49
But is this really the bestNajlepiej we can dreamśnić of?
135
445000
5000
ale czy to naprawdę życie naszych marzeń?
07:54
Is this the bestNajlepiej we can do?
136
450000
2000
Nie da się zrobić nic lepiej?
07:56
Or is it possiblemożliwy to find something a little bitkawałek more inspiringinspirujący to work towardsw kierunku?
137
452000
6000
Czy możemy obrać sobie bardziej inspirujący cel?
08:02
And if we think about this,
138
458000
2000
Gdy się nad tym zastanowić,
08:04
I think it's very clearjasny that there are wayssposoby
139
460000
4000
okazuje się jasne, że zmieniać świat na lepsze
08:08
in whichktóry we could changezmiana things, not just by eliminatingeliminowanie negativesnegatywy,
140
464000
3000
można nie tylko eliminując to co złe,
08:11
but addingdodawanie positivespozytywy.
141
467000
2000
ale też dodając coś dobrego.
08:13
On my wishżyczenie listlista, at leastnajmniej, would be:
142
469000
2000
Ja na przykład życzyłbym sobie
08:15
much longerdłużej, healthierzdrowiej liveszyje, greaterwiększy subjectivesubiektywny well-beingdobre samopoczucie,
143
471000
5000
dłuższego, zdrowszego życia, lepszego samopoczucia,
08:20
enhancedulepszony cognitivepoznawczy capacitieszdolności, more knowledgewiedza, umiejętności and understandingzrozumienie,
144
476000
5000
lepszych zdolności poznawczych, więcej wiedzy i zrozumienia
08:25
unlimitedNieograniczony opportunityokazja for personalosobisty growthwzrost
145
481000
2000
nieograniczonego rozwoju
08:27
beyondpoza our currentobecny biologicalbiologiczny limitsograniczenia, better relationshipsrelacje,
146
483000
4000
poza ograniczenia biologiczne, lepszych relacji
08:31
an unboundedbezgraniczny potentialpotencjał for spiritualduchowy, moralmorał
147
487000
2000
i wzrostu duchowego, moralnego
08:33
and intellectualintelektualny developmentrozwój.
148
489000
2000
i intelektualnego, bez granic.
08:35
If we want to achieveosiągać this, what, in the worldświat, would have to changezmiana?
149
491000
8000
Co w świecie trzeba zmienić, żeby to osiągnąć?
08:43
And this is the answerodpowiedź -- we would have to changezmiana.
150
499000
5000
Musielibyśmy zmienić siebie samych.
08:48
Not just the worldświat around us, but we, ourselvesmy sami.
151
504000
3000
Nie tylko świat wokół nas, ale nas samych.
08:51
Not just the way we think about the worldświat, but the way we are -- our very biologybiologia.
152
507000
4000
Nie tylko nasz obraz świata, ale biologiczne uwarunkowania.
08:55
HumanCzłowieka natureNatura would have to changezmiana.
153
511000
2000
Zmienić ludzką naturę.
08:57
Now, when we think about changingwymiana pieniędzy humanczłowiek natureNatura,
154
513000
2000
Zmiana natury ludzkiej kojarzy się po pierwsze
08:59
the first thing that comespochodzi to mindumysł
155
515000
2000
Zmiana natury ludzkiej kojarzy się po pierwsze
09:01
are these humanczłowiek modificationmodyfikacja technologiestechnologie --
156
517000
4000
z technologiami modyfikacji człowieka:
09:05
growthwzrost hormonehormon therapyterapia, cosmetickosmetyk surgeryChirurgia,
157
521000
2000
terapia hormonalna,
09:07
stimulantsużywki like RitalinRitalin, AdderallAdderall, anti-depressantsantydepresyjne,
158
523000
3000
operacje plastyczne, stymulanty, antydepresanty,
09:10
anabolicanaboliczny steroidssteroidy, artificialsztuczny heartskiery.
159
526000
2000
sztuczne serca, sterydy.
09:12
It's a prettyładny patheticżałosne listlista.
160
528000
3000
Lista jest dość żałosna.
09:15
They do great things for a fewkilka people
161
531000
2000
Pomagają tylko, kiedy chodzi o określone schorzenie.
09:17
who sufferponieść from some specifickonkretny conditionstan,
162
533000
2000
Pomagają tylko, kiedy chodzi o określone schorzenie.
09:19
but for mostwiększość people, they don't really transformprzekształcać
163
535000
5000
Ale dla większości z nas technologie te nie zmieniają
09:24
what it is to be humanczłowiek.
164
540000
2000
istoty człowieczeństwa.
09:26
And they alsorównież all seemwydać się a little bitkawałek --
165
542000
2000
Przy tym wydają się one nieco...
09:28
mostwiększość people have this instinctinstynkt that, well, sure,
166
544000
3000
Wydaje się, że owszem, antydepresanty są dobre
09:31
there needswymagania to be anti-depressantsantydepresyjne for the really depressedprzygnębiony people.
167
547000
2000
dla chorych na depresję.
09:33
But there's a kinduprzejmy of queasinessmdłości
168
549000
2000
Ale niepokoi nas poczucie,
09:35
that these are unnaturalnienaturalny in some way.
169
551000
3000
że taka terapia jest jakby nienaturalna.
09:38
It's worthwartość recallingprzypominający that there are a lot of other
170
554000
2000
Używamy wielu innych ulepszaczy i modyfikacji.
09:40
modificationmodyfikacja technologiestechnologie and enhancementwzmocnienie technologiestechnologie that we use.
171
556000
3000
Używamy wielu innych ulepszaczy i modyfikacji.
09:43
We have skinskóra enhancementsulepszenia, clothingodzież.
172
559000
4000
Na przykład ulepszenia skóry, ubrania.
09:47
As fardaleko as I can see, all of you are usersużytkowników of this
173
563000
4000
Jak widać, wszyscy korzystacie z tej technologii,
09:51
enhancementwzmocnienie technologytechnologia in this roompokój, so that's a great thing.
174
567000
5000
a zatem to dobra rzecz.
09:56
MoodNastrój modifiersmodyfikatory have been used from time immemorialodwieczny --
175
572000
3000
Poprawiacze nastroju są z nami od zawsze:
09:59
caffeinekofeina, alcoholalkohol, nicotinenikotyna, immuneodporny systemsystem enhancementwzmocnienie,
176
575000
5000
kofeina, alkohol, nikotyna, wzmacniacze odporności
10:04
visionwizja enhancementwzmocnienie, anestheticsznieczulenia --
177
580000
2000
czy wzroku, środki przeciwbólowe.
10:06
we take that very much for grantedZgoda,
178
582000
2000
Wszystko to uznajemy za oczywiste,
10:08
but just think about how great progresspostęp that is --
179
584000
4000
ale zastanówmy się, jak wielki nastąpił postęp.
10:12
like, havingmający an operationoperacja before anestheticsznieczulenia was not funzabawa.
180
588000
4000
Operacja przez anestezją nie była przyjemna.
10:16
ContraceptivesŚrodki antykoncepcyjne, cosmeticskosmetyki and brainmózg reprogrammingprzeprogramowanie techniquestechniki --
181
592000
6000
Antykoncepcja, kosmetyki, programowanie mózgu w szkole...
10:22
that soundsDźwięki ominouszłowieszczy,
182
598000
2000
Brzmi to złowrogo.
10:24
but the distinctionróżnica betweenpomiędzy what is a technologytechnologia --
183
600000
4000
Ale różnica między technologią, której archetypem
10:28
a gadgeturządzenie would be the archetypearchetyp --
184
604000
2000
byłby "gadżet",
10:30
and other wayssposoby of changingwymiana pieniędzy and rewritingprzepisanie humanczłowiek natureNatura is quitecałkiem subtlesubtelny.
185
606000
4000
a innymi sposobami zmiany natury ludzkiej jest płynna.
10:34
So if you think about what it meansznaczy to learnuczyć się arithmeticarytmetyka or to learnuczyć się to readczytać,
186
610000
4000
Kiedy uczymy się liczyć czy czytać,
10:38
you're actuallytak właściwie, literallydosłownie rewritingprzepisanie your ownwłasny brainmózg.
187
614000
3000
w zasadzie przeprogramowujemy mózg.
10:41
You're changingwymiana pieniędzy the microstructuremikrostruktura of your brainmózg as you go alongwzdłuż.
188
617000
3000
Zmieniamy mikro-strukturę mózgu.
10:45
So in a broadszeroki sensesens, we don't need to think about technologytechnologia
189
621000
3000
Więc technologia w ogólnym ujęciu,
10:48
as only little gadgetsgadżety, like these things here,
190
624000
2000
to nie tylko gadżety,
10:50
but even institutionsinstytucje and techniquestechniki,
191
626000
4000
ale także instytucje, techniki, metody psychologiczne, itd.
10:54
psychologicalpsychologiczny methodsmetody and so forthnaprzód.
192
630000
2000
ale także instytucje, techniki, metody psychologiczne, itd.
10:56
FormsFormularze of organizationorganizacja can have a profoundgłęboki impactwpływ on humanczłowiek natureNatura.
193
632000
5000
Organizacja może głęboko wpływać na ludzką naturę.
11:01
Looking aheadprzed siebie, there is a rangezasięg of technologiestechnologie
194
637000
2000
Jest szereg technologii,
11:03
that are almostprawie certainpewny to be developedrozwinięty soonerwcześniej or laterpóźniej.
195
639000
3000
które na pewno kiedyś zostaną wprowadzone.
11:06
We are very ignorantnieświadomy about what the time scaleskala for these things are,
196
642000
4000
Nie wiemy, kiedy dokładnie ich postęp nastąpi,
11:10
but they all are consistentzgodny with everything we know
197
646000
2000
ale żadna z nich nie łamie
11:12
about physicalfizyczny lawsprawa, lawsprawa of chemistrychemia, etcitp.
198
648000
4000
żadnych praw fizyki, chemii itd.
11:16
It's possiblemożliwy to assumezałożyć,
199
652000
2000
Więc można założyć, że jeśli katastrofa nie nastąpi,
11:18
settingoprawa asidena bok a possibilitymożliwość of catastrophekatastrofa,
200
654000
3000
Więc można założyć, że jeśli katastrofa nie nastąpi,
11:21
that soonerwcześniej or laterpóźniej we will developrozwijać all of these.
201
657000
3000
w końcu wszystkie te technologie powstaną.
11:24
And even just a couplepara of these would be enoughdość
202
660000
3000
Tak naprawdę tylko kilka z nich wystarczyłoby,
11:27
to transformprzekształcać the humanczłowiek conditionstan.
203
663000
2000
żeby zmienić kondycję ludzką.
11:29
So let's look at some of the dimensionswymiary of humanczłowiek natureNatura
204
665000
5000
Spójrzmy zatem na te obszary natury ludzkiej,
11:34
that seemwydać się to leavepozostawiać roompokój for improvementpoprawa.
205
670000
3000
gdzie istnieje możliwość poprawy.
11:37
HealthZdrowie spanprzęsło is a bigduży and urgentpilne thing,
206
673000
2000
Długość życia to palący problem,
11:39
because if you're not aliveżywy,
207
675000
2000
bo jeśli nie żyjesz,
11:41
then all the other things will be to little availwykorzystać.
208
677000
3000
reszta technologi nie zda się na nic.
11:44
IntellectualIntelektualnej capacityPojemność -- let's take that boxpudełko,
209
680000
2000
Możliwości intelektualne,
11:46
whichktóry fallsspada into a lot of differentróżne sub-categoriespodkategorie:
210
682000
5000
wśród których wyróżniamy wiele różnych kategorii:
11:51
memorypamięć, concentrationstężenie, mentalpsychiczny energyenergia, intelligenceinteligencja, empathyempatia.
211
687000
3000
pamięć, uwaga, inteligencja, empatia, żywotność umysłu.
11:54
These are really great things.
212
690000
2000
To naprawdę wspaniałe rzeczy.
11:56
PartCzęść of the reasonpowód why we valuewartość these traitscechy
213
692000
2000
Cenimy je także dlatego,
11:58
is that they make us better at competingkonkurowanie with other people --
214
694000
4000
że dają nam przewagę w konkurowaniu z innymi,
12:02
they're positionalpozycyjny goodsdobra.
215
698000
2000
to tak zwane dobra pozycjonalne.
12:04
But partczęść of the reasonpowód --
216
700000
2000
Ale w pewnej mierze,
12:06
and that's the reasonpowód why we have ethicaletyczny groundziemia for pursuingdążenie these --
217
702000
4000
co daje etyczne przesłanki, by ich pragnąć,
12:10
is that they're alsorównież intrinsicallywewnętrznie valuablecenny.
218
706000
3000
są one dobrem samym w sobie.
12:13
It's just better to be ablezdolny to understandzrozumieć more of the worldświat around you
219
709000
4000
Lepiej jest móc pojąć jak najwięcej ze świata
12:17
and the people that you are communicatingprzyległy with,
220
713000
2000
i ludzi, z którymi mamy kontakt,
12:19
and to rememberZapamiętaj what you have learnednauczyli.
221
715000
4000
jak i zapamiętać to, czego się nauczyliśmy.
12:23
ModalitiesSposoby and specialspecjalny facultieswydziały.
222
719000
2000
Zmysły i specjalne zdolności.
12:25
Now, the humanczłowiek mindumysł is not a singlepojedynczy unitaryjednolity informationInformacja processoredytor,
223
721000
5000
Umysł ludzki to nie jednolity przetwarzacz informacji.
12:30
but it has a lot of differentróżne, specialspecjalny, evolvedewoluował modulesmoduły
224
726000
4000
Jest w nim wiele różnych modułów, przystosowanych
12:34
that do specifickonkretny things for us.
225
730000
2000
do konkretnych zadań.
12:36
If you think about what we normallynormalnie take as givingdający life a lot of its meaningznaczenie --
226
732000
4000
Sprawy w większości odpowiedzialne za sens życia,
12:40
musicmuzyka, humorhumor, eroticismerotyczność, spiritualityduchowość, aestheticsestetyka,
227
736000
4000
muzyka, humor, erotyka, duchowość, estetyka,
12:44
nurturingpielęgnowanie and caringopiekuńczy, troskliwy, gossipplotka, chattingna czacie with people --
228
740000
5000
wychowywanie, opieka, plotki, rozmowa...
12:49
all of these, very likelyprawdopodobne, are enabledwłączony by a specialspecjalny circuitryzespół obwodów elektrycznych
229
745000
4000
Możliwe, że umożliwiają je obwody mózgowe,
12:53
that we humansludzie have,
230
749000
2000
które posiadają ludzie,
12:55
but that you could have anotherinne intelligentinteligentny life formformularz that lacksbrakuje these.
231
751000
3000
ale inne inteligentne istoty mogłyby ich nie mieć.
12:58
We're just luckySzczęściarz that we have the requisitewymagany neuralnerwowy machinerymaszyneria
232
754000
3000
To fart, że mamy neurologiczną maszynerię,
13:01
to processproces musicmuzyka and to appreciatedoceniać it and enjoycieszyć się it.
233
757000
4000
wymaganą, by docenić muzykę i się nią cieszyć.
13:05
All of these would enablewłączyć, in principlezasada -- be amenableodpowiedzialny to enhancementwzmocnienie.
234
761000
3000
Takie moduły mogą w zasadzie być ulepszone.
13:08
Some people have a better musicalmusical abilityzdolność
235
764000
2000
Są ludzie z wybitnymi zdolnościami muzycznymi.
13:10
and abilityzdolność to appreciatedoceniać musicmuzyka than othersinni have.
236
766000
2000
Są ludzie z wybitnymi zdolnościami muzycznymi.
13:12
It's alsorównież interestingciekawy to think about what other things are --
237
768000
3000
Ciekawe jest również, że inne rzeczy...
13:15
so if these all enabledwłączony great valueswartości,
238
771000
3000
Ewolucja dała nam umiejętność docenienia
13:19
why should we think that evolutionewolucja has happenedstało się to providezapewniać us
239
775000
3000
pewnych wartości, ale dlaczego zakładać,
13:22
with all the modalitiesmodalności we would need to engageangażować
240
778000
3000
że we wszechświecie nie ma wartości
13:25
with other valueswartości that there mightmoc be?
241
781000
2000
nam niedostępnych?
13:27
ImagineWyobraź sobie a speciesgatunki
242
783000
2000
Wyobraźmy sobie gatunek,
13:29
that just didn't have this neuralnerwowy machinerymaszyneria for processingprzetwarzanie musicmuzyka.
243
785000
4000
któremu brak układów odpowiedzialnych za rozumienie muzyki.
13:33
And they would just staregapić się at us with bafflementzaskoczenie
244
789000
3000
Patrzyliby z osłupieniem na ludzi,
13:36
when we spendwydać time listeningsłuchający to a beautifulpiękny performancewydajność,
245
792000
4000
którzy zachwycają się grą na instrumentach,
13:40
like the one we just heardsłyszał -- because of people makingzrobienie stupidgłupi movementsruchy,
246
796000
2000
bo to tylko "dziwne ruchy".
13:42
and they would be really irritatedpoirytowany and wouldn'tnie see what we were up to.
247
798000
3000
Wkurzaliby się, nie wiedząc, o co nam chodzi.
13:45
But maybe they have anotherinne facultyWydział, something elsejeszcze
248
801000
3000
Ale możliwe, że mieliby jakiś zmysł,
13:48
that would seemwydać się equallyna równi irrationalirracjonalny to us,
249
804000
3000
nam wydający się nieracjonalnym.
13:51
but they actuallytak właściwie tapkran into some great possiblemożliwy valuewartość there.
250
807000
3000
Mogliby doświadczyć czegoś bardzo wartościowego,
13:54
But we are just literallydosłownie deafgłuchy to that kinduprzejmy of valuewartość.
251
810000
4000
na co my pozostawalibyśmy głusi.
13:58
So we could think of addingdodawanie on differentróżne,
252
814000
2000
Więc moglibyśmy dodać sobie
14:00
newNowy sensorysensoryczny capacitieszdolności and mentalpsychiczny facultieswydziały.
253
816000
4000
nowe zmysły i zdolności umysłowe.
14:04
BodilyCiała functionalityfunkcjonalność and morphologymorfologia and affectiveafektywny self-controlsamokontrola.
254
820000
5000
Funkcje i morfologia ciała, kontrola emocji.
14:09
GreaterWiększa subjectivesubiektywny well-beingdobre samopoczucie.
255
825000
2000
Lepsze samopoczucie.
14:11
Be ablezdolny to switchprzełącznik betweenpomiędzy relaxationrelaks and activityczynność --
256
827000
3000
Łatwe przechodzenie od aktywności do spoczynku,
14:14
beingistota ablezdolny to go slowpowolny when you need to do that, and to speedprędkość up.
257
830000
4000
zwalnianie lub przyśpieszanie, zależnie od potrzeb.
14:18
AbleStanie to switchprzełącznik back and forthnaprzód more easilyz łatwością
258
834000
2000
Takie szybkie przełączanie
14:20
would be a neatschludny thing to be ablezdolny to do --
259
836000
2000
byłoby naprawdę świetne.
14:22
easierłatwiejsze to achieveosiągać the flowpływ statestan,
260
838000
2000
Łatwiej osiągnąć "flow",
14:24
when you're totallycałkowicie immersedzanurzony in something you are doing.
261
840000
4000
kiedy jest się absolutnie zatopionym w swoich zajęciach.
14:28
ConscientiousnessSumienność and sympathywspółczucie.
262
844000
2000
Sumienność, współczucie.
14:30
The abilityzdolność to -- it's anotherinne interestingciekawy applicationpodanie
263
846000
3000
Kolejne interesujące zastosowanie,
14:33
that would have largeduży socialspołeczny ramificationrozgałęzienie, perhapsmoże.
264
849000
3000
z ogromnym wpływem na problemy społeczne.
14:36
If you could actuallytak właściwie choosewybierać to preservezachować your romanticromantyczny attachmentszałączniki to one personosoba,
265
852000
6000
Gdyby można utrzymać miłość do innej osoby
14:42
undiminishednieumniejszony throughprzez time,
266
858000
2000
niezmienną przez lata,
14:44
so that wouldn'tnie have to -- love would never have to fadeblaknąć if you didn't want it to.
267
860000
3000
miłość nie znikałaby wbrew naszej woli.
14:49
That's probablyprawdopodobnie not all that difficulttrudny.
268
865000
3000
Prawdopodobnie nie byłoby to trudne.
14:52
It mightmoc just be a simpleprosty hormonehormon or something that could do this.
269
868000
3000
Być może to kwestia jednego hormonu.
14:57
It's been doneGotowe in volesnornicy.
270
873000
2000
Osiągnięto to u norników.
15:01
You can engineerinżynier a prairiepreria voleszlem to becomestają się monogamousmonogamiczny
271
877000
3000
Potrafimy z poligamicznego nornika preriowego
15:04
when it's naturallynaturalnie polygamouspoligamiczny.
272
880000
2000
uczynić monogamistę.
15:06
It's just a singlepojedynczy genegen.
273
882000
2000
To kwestia jednego genu.
15:08
MightMoże be more complicatedskomplikowane in humansludzie, but perhapsmoże not that much.
274
884000
2000
Może u ludzi będzie podobnie.
15:10
This is the last pictureobrazek that I want to --
275
886000
2000
To ostatni slajd,
15:13
now we'vemamy got to use the laserlaser pointerwskaźnik.
276
889000
2000
będę używał wskaźnika.
15:16
A possiblemożliwy modetryb of beingistota here would be a way of life --
277
892000
3000
Sposób przeżywania, to sposób życia,
15:19
a way of beingistota, experiencingdoświadczanie, thinkingmyślący, seeingwidzenie,
278
895000
4000
doświadczania, myślenia, widzenia,
15:23
interactinginterakcja with the worldświat.
279
899000
2000
interakcje ze światem.
15:25
Down here in this little cornerkąt, here, we have the little sub-spacepodprzestrzeń
280
901000
5000
W tym rogu jest mały podzbiór,
15:30
of this largerwiększy spaceprzestrzeń that is accessibledostępny to humanczłowiek beingsIstoty --
281
906000
4000
część zbioru sposobów przeżywania dostępna istotom
15:34
beingsIstoty with our biologicalbiologiczny capacitieszdolności.
282
910000
3000
o naszych biologicznych możliwościach.
15:37
It's a partczęść of the spaceprzestrzeń that's accessibledostępny to animalszwierzęta;
283
913000
3000
Wycinek przestrzeni dostępnej zwierzętom,
15:40
sinceod we are animalszwierzęta, we are a subsetpodzbiór of that.
284
916000
3000
jako zwierzęta, jesteśmy jej podzbiorem.
15:43
And then you can imaginewyobrażać sobie some enhancementsulepszenia of humanczłowiek capacitieszdolności.
285
919000
4000
Ale wyobraźmy sobie ulepszenia naszych zdolności.
15:47
There would be differentróżne modestryby of beingistota you could experiencedoświadczenie
286
923000
3000
Gdybyśmy dożywali 200 lat, pojawiłyby się
15:50
if you were ablezdolny to stayzostać aliveżywy for, say, 200 yearslat.
287
926000
3000
nowe sposoby przeżywania życia.
15:53
Then you could liverelacja na żywo sortssortuje of liveszyje and accumulategromadzić wisdomsmądrości
288
929000
4000
Żylibyśmy, zbieralibyśmy wiedzę w sposób
15:57
that are just not possiblemożliwy for humansludzie as we currentlyobecnie are.
289
933000
3000
obecnie jest dla nas niedostępny.
16:00
So then, you moveruszaj się off to this largerwiększy spherekula of "humanczłowiek +,"
290
936000
4000
Przeszlibyśmy w obszar "człowiek plus",
16:04
and you could continueKontyntynuj that processproces and eventuallyostatecznie
291
940000
3000
a proces ten można by kontynuować,
16:07
explorebadać a lot of this largerwiększy spaceprzestrzeń of possiblemożliwy modestryby of beingistota.
292
943000
4000
poszerzając dostępne sposoby przeżywania.
16:11
Now, why is that a good thing to do?
293
947000
2000
Ale czy to coś dobrego?
16:13
Well, we know alreadyjuż that in this little humanczłowiek circleokrąg there,
294
949000
4000
Jak wiemy, nawet w tym małym podzbiorze ludzkim
16:17
there are these enormouslyogromnie wonderfulwspaniale and worthwhilewart modestryby of beingistota --
295
953000
4000
jest tyle wspaniałych, wartościowych sposobów przeżywania.
16:21
humanczłowiek life at its bestNajlepiej is wonderfulwspaniale.
296
957000
3000
Życie ludzkie w swej najlepszej formie jest cudowne.
16:24
We have no reasonpowód to believe that withinw ciągu this much, much largerwiększy spaceprzestrzeń
297
960000
5000
Ale nie ma powodów, by zakładać, że na większym obszarze
16:29
there would not alsorównież be extremelyniezwykle worthwhilewart modestryby of beingistota,
298
965000
4000
nie znaleźlibyśmy czegoś jeszcze wartościowszego,
16:33
perhapsmoże oneste that would be way beyondpoza our wildestnajdziksze abilityzdolność
299
969000
6000
czego jeszcze nie jesteśmy nawet w stanie
16:39
even to imaginewyobrażać sobie or dreamśnić about.
300
975000
2000
objąć wyobraźnią.
16:41
And so, to fixnaprawić this thirdtrzeci problemproblem,
301
977000
2000
By rozwiązać trzeci problem,
16:43
I think we need -- slowlypowoli, carefullyostrożnie, with ethicaletyczny wisdommądrość and constraintprzymus --
302
979000
6000
uważam, że musimy powoli, rozważnie i moralnie
16:49
developrozwijać the meansznaczy that enablewłączyć us to go out in this largerwiększy spaceprzestrzeń and explorebadać it
303
985000
5000
rozwijać środki, które pozwolą wyruszyć w większy obszar
16:54
and find the great valueswartości that mightmoc hideukryć there.
304
990000
2000
i odnaleźć tam wielkie wartości.
16:56
ThanksDzięki.
305
992000
2000
Dziękuję.
Translated by Bartlomiej Chomanski
Reviewed by Krystian Aparta

▲Back to top

ABOUT THE SPEAKER
Nick Bostrom - Philosopher
Nick Bostrom asks big questions: What should we do, as individuals and as a species, to optimize our long-term prospects? Will humanity’s technological advancements ultimately destroy us?

Why you should listen

Philosopher Nick Bostrom envisioned a future full of human enhancement, nanotechnology and machine intelligence long before they became mainstream concerns. From his famous simulation argument -- which identified some striking implications of rejecting the Matrix-like idea that humans are living in a computer simulation -- to his work on existential risk, Bostrom approaches both the inevitable and the speculative using the tools of philosophy, probability theory, and scientific analysis.

Since 2005, Bostrom has led the Future of Humanity Institute, a research group of mathematicians, philosophers and scientists at Oxford University tasked with investigating the big picture for the human condition and its future. He has been referred to as one of the most important thinkers of our age.

Nick was honored as one of Foreign Policy's 2015 Global Thinkers .

His recent book Superintelligence advances the ominous idea that “the first ultraintelligent machine is the last invention that man need ever make.”

More profile about the speaker
Nick Bostrom | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee