ABOUT THE SPEAKER
Ray Kurzweil - Inventor, futurist
Ray Kurzweil is an engineer who has radically advanced the fields of speech, text and audio technology. He's revered for his dizzying -- yet convincing -- writing on the advance of technology, the limits of biology and the future of the human species.

Why you should listen

Inventor, entrepreneur, visionary, Ray Kurzweil's accomplishments read as a startling series of firsts -- a litany of technological breakthroughs we've come to take for granted. Kurzweil invented the first optical character recognition (OCR) software for transforming the written word into data, the first print-to-speech software for the blind, the first text-to-speech synthesizer, and the first music synthesizer capable of recreating the grand piano and other orchestral instruments, and the first commercially marketed large-vocabulary speech recognition.

Yet his impact as a futurist and philosopher is no less significant. In his best-selling books, which include How to Create a Mind, The Age of Spiritual Machines, The Singularity Is Near: When Humans Transcend Biology, Kurzweil depicts in detail a portrait of the human condition over the next few decades, as accelerating technologies forever blur the line between human and machine.

In 2009, he unveiled Singularity University, an institution that aims to "assemble, educate and inspire leaders who strive to understand and facilitate the development of exponentially advancing technologies." He is a Director of Engineering at Google, where he heads up a team developing machine intelligence and natural language comprehension.

More profile about the speaker
Ray Kurzweil | Speaker | TED.com
TED2014

Ray Kurzweil: Get ready for hybrid thinking

Ray Kurzweil: Przygotujcie się na myślenie hybrydowe

Filmed:
3,548,296 views

Dwieście milionów lat temu ssaki wykształciły nową strukturę mózgu - neokorteks. Ta tkanka rozmiaru znaczka pocztowego (zawinięta dokoła mózgu wielkości orzecha) okazała się kluczowa dla ludzkości. Futurysta Ray Kurzweil sugeruje, żeby przygotować się na kolejny wielki skok możliwości naszego mózgu, ponieważ odblokowaliśmy siłę chmury obliczeniowej.
- Inventor, futurist
Ray Kurzweil is an engineer who has radically advanced the fields of speech, text and audio technology. He's revered for his dizzying -- yet convincing -- writing on the advance of technology, the limits of biology and the future of the human species. Full bio

Double-click the English transcript below to play the video.

00:12
Let me tell you a storyfabuła.
0
988
2316
Opowiem wam historię,
która ma miejsce 200 milionów lat temu.
00:15
It goesidzie back 200 millionmilion yearslat.
1
3304
1799
00:17
It's a storyfabuła of the neocortexneocortex,
2
5103
1984
To opowieść o neokorteksie,
00:19
whichktóry meansznaczy "newNowy rindskórka."
3
7087
1974
co znaczy "kora nowa".
00:21
So in these earlywcześnie mammalsssaki,
4
9061
2431
U wczesnych ssaków,
00:23
because only mammalsssaki have a neocortexneocortex,
5
11492
2055
bo tylko one mają korę nową,
00:25
rodent-likeGryzonia jak creaturesstworzenia.
6
13547
1664
u stworzeń podobnych do szczurów,
00:27
It was the sizerozmiar of a postageZnaczki stampznaczek and just as thincienki,
7
15211
3579
miała rozmiar i grubość
znaczka pocztowego
i pokrywała ich mózgi
wielkości orzecha włoskiego.
00:30
and was a thincienki coveringkrycia around
8
18790
1439
00:32
theirich walnut-sizedwielkości orzecha włoskiego brainmózg,
9
20229
2264
00:34
but it was capablezdolny of a newNowy typerodzaj of thinkingmyślący.
10
22493
3701
Ale była zdolna
do nowego sposobu myślenia.
00:38
RatherRaczej than the fixednaprawiony behaviorszachowania
11
26194
1567
Zamiast podążać za gotowymi wzorcami
00:39
that non-mammalianssaków animalszwierzęta have,
12
27761
1992
jak u zwierząt niższych,
00:41
it could inventwymyślać newNowy behaviorszachowania.
13
29753
2692
mogła tworzyć nowe wzorce.
00:44
So a mousemysz is escapingucieczki a predatordrapieżnik,
14
32445
2553
Mysz ucieka przed drapieżnikiem,
droga jest zablokowana,
00:46
its pathścieżka is blockedzablokowany,
15
34998
1540
więc próbuje znaleźć nowe rozwiązanie.
00:48
it'llbędzie try to inventwymyślać a newNowy solutionrozwiązanie.
16
36538
2129
00:50
That maymoże work, it maymoże not,
17
38667
1266
Może zadziałać lub nie.
00:51
but if it does, it will rememberZapamiętaj that
18
39933
1910
Jeśli się uda, zostanie zapamiętane
00:53
and have a newNowy behaviorzachowanie,
19
41843
1292
jako nowy wzór zachowania,
00:55
and that can actuallytak właściwie spreadrozpiętość virallywirusowo
20
43135
1457
który rozprzestrzeni się jak wirus
00:56
throughprzez the restodpoczynek of the communityspołeczność.
21
44592
2195
w reszcie społeczności.
Inna mysz, patrząc na to,
mogłaby powiedzieć -
00:58
AnotherInnym mousemysz watchingoglądanie this could say,
22
46787
1609
01:00
"Hey, that was prettyładny cleversprytny, going around that rockskała,"
23
48396
2704
"Jakie to sprytne ominąć ten kamień"
01:03
and it could adoptprzyjąć a newNowy behaviorzachowanie as well.
24
51100
3725
i sama przyjęłaby nowy wzór zachowania.
01:06
Non-mammalianInnych niż ssaki animalszwierzęta
25
54825
1717
Żadne zwierzęta
poza ssakami tego nie potrafią.
01:08
couldn'tnie mógł do any of those things.
26
56542
1713
01:10
They had fixednaprawiony behaviorszachowania.
27
58255
1215
Mają ustalone zachowania.
01:11
Now they could learnuczyć się a newNowy behaviorzachowanie
28
59470
1331
Mogą się nauczyć nowego zachowania,
01:12
but not in the coursekurs of one lifetimeżycie.
29
60801
2576
ale nie w ciągu jednego pokolenia.
01:15
In the coursekurs of maybe a thousandtysiąc lifetimesokresy istnienia,
30
63377
1767
Być może w ciągu tysięcy pokoleń
01:17
it could evolveewoluować a newNowy fixednaprawiony behaviorzachowanie.
31
65144
3330
może wyewoluować u nich
nowe ustalone zachowanie.
01:20
That was perfectlydoskonale okay 200 millionmilion yearslat agotemu.
32
68474
3377
200 mln lat temu to zupełnie wystarczało.
01:23
The environmentśrodowisko changedzmienione very slowlypowoli.
33
71851
1981
Środowisko zmieniało się powoli.
01:25
It could take 10,000 yearslat for there to be
34
73832
1554
Mogło to trwać 10 tysięcy lat,
01:27
a significantznaczący environmentalśrodowiskowy changezmiana,
35
75386
2092
by w środowisku nastąpiła znacząca zmiana
01:29
and duringpodczas that periodokres of time
36
77478
1382
i w tym czasie mógł powstać
nowy wzór zachowania.
01:30
it would evolveewoluować a newNowy behaviorzachowanie.
37
78860
2929
01:33
Now that wentposzedł alongwzdłuż fine,
38
81789
1521
Szło to sprawnie do pewnego momentu.
01:35
but then something happenedstało się.
39
83310
1704
01:37
Sixty-fiveSześćdziesiąt pięć millionmilion yearslat agotemu,
40
85014
2246
65 milionów lat temu
01:39
there was a suddennagły, violentgwałtowny
changezmiana to the environmentśrodowisko.
41
87260
2615
zaszła gwałtowna zmiana w środowisku.
01:41
We call it the CretaceousKredy extinctionwygaśnięcie eventzdarzenie.
42
89875
3505
Było to wymieranie kredowe.
01:45
That's when the dinosaursdinozaury wentposzedł extinctwyginąć,
43
93380
2293
Wtedy wyginęły dinozaury
01:47
that's when 75 percentprocent of the
44
95673
3449
i wymarło 75% gatunków zwierząt i roślin.
01:51
animalzwierzę and plantroślina speciesgatunki wentposzedł extinctwyginąć,
45
99122
2746
Wtedy ssaki przejęły tę niszę ekologiczną.
01:53
and that's when mammalsssaki
46
101868
1745
01:55
overtookwyprzedził theirich ecologicalekologiczny nicheniszy,
47
103613
2152
01:57
and to anthropomorphizeanthropomorphize, biologicalbiologiczny evolutionewolucja said,
48
105765
3654
Antropomorfizując, ewolucja stwierdziła -
"Neokorteks to niezła rzecz"
02:01
"HmmHmm, this neocortexneocortex is prettyładny good stuffrzeczy,"
49
109419
2025
02:03
and it beganrozpoczął się to growrosnąć it.
50
111444
1793
i zaczęła go ulepszać.
02:05
And mammalsssaki got biggerwiększy,
51
113237
1342
Ssaki stały się większe,
02:06
theirich brainsmózg got biggerwiększy at an even fasterszybciej pacetempo,
52
114579
2915
ich mózgi powiększały się szybciej,
02:09
and the neocortexneocortex got biggerwiększy even fasterszybciej than that
53
117494
3807
a kora nowa jeszcze szybciej,
02:13
and developedrozwinięty these distinctivecharakterystyczny ridgesgrzbiety and foldsfałdy
54
121301
2929
tworząc typowe dla siebie fałdy,
02:16
basicallygruntownie to increasezwiększać its surfacepowierzchnia areapowierzchnia.
55
124230
2881
by zwiększyć swoją powierzchnię.
02:19
If you tookwziął the humanczłowiek neocortexneocortex
56
127111
1819
Gdyby rozprostować ludzką korę nową,
02:20
and stretchedrozciągnięty it out,
57
128930
1301
02:22
it's about the sizerozmiar of a tablestół napkinserwetka,
58
130231
1713
miałaby rozmiar serwetki
02:23
and it's still a thincienki structureStruktura.
59
131944
1306
i byłaby tak samo cienka.
02:25
It's about the thicknessgrubość of a tablestół napkinserwetka.
60
133250
1980
02:27
But it has so manywiele convolutionssploty and ridgesgrzbiety
61
135230
2497
Natomiast ma tak wiele zwojów i fałd,
02:29
it's now 80 percentprocent of our brainmózg,
62
137727
3075
że obecnie stanowi 80% naszego mózgu.
02:32
and that's where we do our thinkingmyślący,
63
140802
2461
Tam właśnie odbywa się proces myślenia
i przekształcanie instynktów
w coś wyższego.
02:35
and it's the great sublimatorSublimator.
64
143263
1761
Wciąż mamy starą część mózgu,
02:37
We still have that oldstary brainmózg
65
145024
1114
02:38
that provideszapewnia our basicpodstawowy drivesdyski and motivationsmotywacje,
66
146138
2764
która odpowiada za podstawowe instynkty,
02:40
but I maymoże have a drivenapęd for conquestpodbój,
67
148902
2716
lecz mój instynkt podboju
02:43
and that'llto zrobi be sublimatedsublimowane by the neocortexneocortex
68
151618
2715
może być przesublimowany przez korę nową
02:46
into writingpisanie a poemwiersz or inventingWynalezienie an appaplikacja
69
154333
2909
w napisanie wiersza,
wynalezienie aplikacji
02:49
or givingdający a TEDTED Talk,
70
157242
1509
lub wystąpienie na TED.
02:50
and it's really the neocortexneocortex that's where
71
158751
3622
Wszystko odbywa się w korze nowej.
02:54
the actionczynność is.
72
162373
1968
50 lat temu napisałem artykuł
02:56
FiftyPięćdziesięciu yearslat agotemu, I wrotenapisał a paperpapier
73
164341
1717
na temat mojego postrzegania pracy mózgu.
02:58
describingopisujące how I thought the brainmózg workedpracował,
74
166058
1918
02:59
and I describedopisane it as a seriesseria of modulesmoduły.
75
167976
3199
Opisałem ją jako szereg modułów,
03:03
EachKażdy modulemoduł could do things with a patternwzór.
76
171175
2128
każdy moduł działa według wzorców,
03:05
It could learnuczyć się a patternwzór. It could rememberZapamiętaj a patternwzór.
77
173303
2746
może nauczyć się wzorca,
zapamiętać go i wdrożyć.
03:08
It could implementwprowadzić w życie a patternwzór.
78
176049
1407
03:09
And these modulesmoduły were organizedzorganizowany in hierarchiesHierarchie,
79
177456
2679
Moduły są ułożone w hierarchii,
03:12
and we createdstworzony that hierarchyhierarchia with our ownwłasny thinkingmyślący.
80
180135
2954
którą tworzymy własnymi myślami.
03:15
And there was actuallytak właściwie very little to go on
81
183089
3333
Niewiele się działo
w tym temacie 50 lat temu.
03:18
50 yearslat agotemu.
82
186422
1562
W rezultacie spotkałem się
z prezydentem Johnsonem.
03:19
It led me to meetspotykać się PresidentPrezydent JohnsonJohnson.
83
187984
2115
03:22
I've been thinkingmyślący about this for 50 yearslat,
84
190099
2173
Myślałem o tym przez 50 lat
03:24
and a yearrok and a halfpół agotemu I cameoprawa ołowiana witrażu out with the bookksiążka
85
192272
2828
i półtora roku temu opublikowałem książkę
"How to create a mind".
03:27
"How To CreateTworzenie A MindUmysł,"
86
195100
1265
03:28
whichktóry has the samepodobnie thesisPraca dyplomowa,
87
196365
1613
Zawiera tę samą tezę,
03:29
but now there's a plethoramultum of evidencedowód.
88
197978
2812
lecz tym razem jest poparta masą dowodów.
Ilość danych naukowych
dotyczących mózgu
03:32
The amountilość of datadane we're gettinguzyskiwanie about the brainmózg
89
200790
1814
03:34
from neuroscienceneuronauka is doublingpodwojenie everykażdy yearrok.
90
202604
2203
dzięki neurologii podwaja się co roku.
03:36
SpatialPrzestrzenne resolutionrozkład of brainscanningbrainscanning of all typestypy
91
204807
2654
Rozdzielczość skanów mózgu
03:39
is doublingpodwojenie everykażdy yearrok.
92
207461
2285
podwaja się co roku.
Można teraz zajrzeć w żywy mózg
03:41
We can now see insidewewnątrz a livingżycie brainmózg
93
209746
1717
03:43
and see individualindywidualny interneuralinterneural connectionsznajomości
94
211463
2870
i zobaczyć poszczególne
połączenia neuronów
03:46
connectingzłączony in realreal time, firingwypalania in realreal time.
95
214333
2703
i ich działanie w czasie rzeczywistym.
03:49
We can see your brainmózg createStwórz your thoughtsmyśli.
96
217036
2419
Można zobaczyć, jak mózg tworzy myśli
03:51
We can see your thoughtsmyśli createStwórz your brainmózg,
97
219455
1575
i jak myśli tworzą mózg,
03:53
whichktóry is really keyklawisz to how it worksPrace.
98
221030
1999
co jest kluczem do jego działania.
03:55
So let me describeopisać brieflykrótko how it worksPrace.
99
223029
2219
Wyjaśnię pokrótce jak to działa.
03:57
I've actuallytak właściwie countedpoliczone these modulesmoduły.
100
225248
2275
Policzyłem te moduły,
jest ich około 300 milionów
03:59
We have about 300 millionmilion of them,
101
227523
2046
04:01
and we createStwórz them in these hierarchiesHierarchie.
102
229569
2229
i są ułożone hierarchicznie.
04:03
I'll give you a simpleprosty exampleprzykład.
103
231798
2082
Podam prosty przykład.
04:05
I've got a bunchwiązka of modulesmoduły
104
233880
2805
Mam zestaw modułów,
04:08
that can recognizerozpoznać the crossbarUrządzenie miksujące to a capitalkapitał A,
105
236685
3403
który umie rozpoznać
poprzeczną linię dużej litery A,
04:12
and that's all they careopieka about.
106
240088
1914
tylko tym się zajmują.
04:14
A beautifulpiękny songpiosenka can playgrać,
107
242002
1578
Może grać piosenka,
przechodzić piękna dziewczyna,
04:15
a prettyładny girldziewczyna could walkspacerować by,
108
243580
1434
04:17
they don't careopieka, but they see
a crossbarUrządzenie miksujące to a capitalkapitał A,
109
245014
2846
nie zwrócą uwagi, ale gdy zobaczą
linię poprzeczną litery A,
04:19
they get very excitedpodekscytowany and they say "crossbarUrządzenie miksujące,"
110
247860
3021
zareagują i stwierdzą: "linia poprzeczna"
04:22
and they put out a highwysoki probabilityprawdopodobieństwo
111
250881
2112
i wygenerują wysoki potencjał
04:24
on theirich outputwydajność axonAxon.
112
252993
1634
na aksonach wyjściowych.
Prowadzi to na kolejny poziom,
04:26
That goesidzie to the nextNastępny levelpoziom,
113
254627
1333
04:27
and these layerswarstwy are organizedzorganizowany in conceptualkonceptualistyczny levelspoziomy.
114
255960
2750
gdzie warstwy ułożone są
w poziomy pojęciowe.
04:30
EachKażdy is more abstractabstrakcyjny than the nextNastępny one,
115
258710
1856
Każdy jest coraz bardziej abstrakcyjny,
04:32
so the nextNastępny one mightmoc say "capitalkapitał A."
116
260566
2418
więc kolejny może powie "duże A".
04:34
That goesidzie up to a higherwyższy
levelpoziom that mightmoc say "AppleApple."
117
262984
2891
Jeszcze wyższy może powie "Apple".
04:37
InformationInformacje flowsprzepływy down alsorównież.
118
265875
2167
Informacja idzie też w dół.
04:40
If the applejabłko recognizeraparat rozpoznawania has seenwidziany A-P-P-LA-P-P-L,
119
268042
2936
Jeśli struktura rozpoznająca
widzi A-P-P-L,
04:42
it'llbędzie think to itselfsamo, "HmmHmm, I
think an E is probablyprawdopodobnie likelyprawdopodobne,"
120
270978
3219
może odgadnąć literę E,
04:46
and it'llbędzie sendwysłać a signalsygnał down to all the E recognizersAparaty rozpoznawania
121
274197
2564
i wysłać sygnał
04:48
sayingpowiedzenie, "Be on the lookoutLookout for an E,
122
276761
1619
do struktur na dole,
04:50
I think one mightmoc be comingprzyjście."
123
278380
1556
aby wypatrywały litery E.
04:51
The E recognizersAparaty rozpoznawania will lowerniższy theirich thresholdpróg
124
279936
2843
Obniżą one swój próg,
04:54
and they see some sloppyniechlujstwa
thing, could be an E.
125
282779
1945
aby łatwiej rozpoznać E.
04:56
OrdinarilyZwykle you wouldn'tnie think so,
126
284724
1490
Zwykle tak nie robią,
04:58
but we're expectingprzy nadziei an E, it's good enoughdość,
127
286214
2009
ale oczekują E,
05:00
and yeah, I've seenwidziany an E, and then applejabłko saysmówi,
128
288223
1817
więc widzą E i tworzą "Apple".
05:02
"Yeah, I've seenwidziany an AppleApple."
129
290040
1728
05:03
Go up anotherinne fivepięć levelspoziomy,
130
291768
1746
Idźmy wyżej o pięć poziomów
05:05
and you're now at a prettyładny highwysoki levelpoziom
131
293514
1353
i będziemy dość wysoko w tej hierarchii,
05:06
of this hierarchyhierarchia,
132
294867
1569
05:08
and stretchrozciągać down into the differentróżne sensesrozsądek,
133
296436
2353
na poziomie obejmującym różne zmysły.
05:10
and you maymoże have a modulemoduł
that seeswidzi a certainpewny fabrictkanina,
134
298789
2655
Moduły mogą rozpoznawać
określoną tkaninę,
05:13
hearssłyszy a certainpewny voicegłos qualityjakość,
smellspachnie a certainpewny perfumeZapachy dla kobiet,
135
301444
2844
słyszeć cechę głosu,
czuć określone perfumy.
05:16
and will say, "My wifeżona has enteredweszła the roompokój."
136
304288
2513
Może powiedzą: "Moja żona
weszła do pokoju".
05:18
Go up anotherinne 10 levelspoziomy, and now you're at
137
306801
1895
Wznieśmy się o kolejne 10 poziomów
i będziemy już bardzo wysoko,
05:20
a very highwysoki levelpoziom.
138
308696
1160
05:21
You're probablyprawdopodobnie in the frontalczołowy cortexkora,
139
309856
1937
możliwe że w korze czołowej,
05:23
and you'llTy będziesz have modulesmoduły that say, "That was ironicironiczny.
140
311793
3767
gdzie są moduły mówiące:
"To była ironia.
05:27
That's funnyzabawny. She's prettyładny."
141
315560
2370
To zabawne. Ona jest ładna".
05:29
You mightmoc think that those are more sophisticatedwyrafinowany,
142
317930
2105
Mogą wydać się bardziej wyrafinowane,
05:32
but actuallytak właściwie what's more complicatedskomplikowane
143
320035
1506
ale bardziej złożona
jest też hierarchia pod nimi.
05:33
is the hierarchyhierarchia beneathpod them.
144
321541
2669
05:36
There was a 16-year-old-roczny girldziewczyna, she had brainmózg surgeryChirurgia,
145
324210
2620
Pewna 16-latka miała operację mózgu.
05:38
and she was consciousprzytomny because the surgeonsChirurdzy
146
326830
2051
Była przytomna,
bo chirurdzy chcieli z nią rozmawiać.
05:40
wanted to talk to her.
147
328881
1537
05:42
You can do that because there's no painból receptorsreceptory
148
330418
1822
To możliwe, bo w mózgu
nie ma receptorów bólu.
05:44
in the brainmózg.
149
332240
1038
05:45
And wheneverkiedy tylko they stimulatedstymulowane particularszczególny,
150
333278
1800
Za każdym razem, gdy pobudzali
określone punkty jej kory nowej,
05:47
very smallmały pointszwrotnica on her neocortexneocortex,
151
335078
2463
05:49
shownpokazane here in redczerwony, she would laughśmiech.
152
337541
2665
zaznaczone tu na czerwono, śmiała się.
05:52
So at first they thought they were triggeringWyzwalanie
153
340206
1440
Najpierw myśleli, że wyzwalają
05:53
some kinduprzejmy of laughśmiech reflexReflex,
154
341646
1720
jakiś odruch śmiechu,
05:55
but no, they quicklyszybko realizedrealizowany they had founduznany
155
343366
2519
ale szybko zrozumieli, że odkryli
05:57
the pointszwrotnica in her neocortexneocortex that detectwykryć humorhumor,
156
345885
3044
punkty wykrywające humor.
06:00
and she just founduznany everything hilariouswesoły
157
348929
1969
Gdy pobudzano ten obszar,
06:02
wheneverkiedy tylko they stimulatedstymulowane these pointszwrotnica.
158
350898
2437
wszystko wydawało jej się prześmieszne.
06:05
"You guys are so funnyzabawny just standingna stojąco around,"
159
353335
1925
Jej typowy komentarz to:
06:07
was the typicaltypowy commentkomentarz,
160
355260
1738
"Ale jesteście śmieszni wszyscy wokoło".
06:08
and they weren'tnie były funnyzabawny,
161
356998
2302
A oni nie byli śmieszni,
06:11
not while doing surgeryChirurgia.
162
359300
3247
nie podczas zabiegu.
06:14
So how are we doing todaydzisiaj?
163
362547
4830
Jak wygląda to dzisiaj?
06:19
Well, computerskomputery are actuallytak właściwie beginningpoczątek to mastermistrz
164
367377
3054
Komputery opanowują ludzki język
06:22
humanczłowiek languagejęzyk with techniquestechniki
165
370431
2001
dzięki metodom podobnym
w działaniu do kory nowej.
06:24
that are similarpodobny to the neocortexneocortex.
166
372432
2867
06:27
I actuallytak właściwie describedopisane the algorithmalgorytm,
167
375299
1514
Opisałem algorytm
podobny do tak zwanego
06:28
whichktóry is similarpodobny to something callednazywa
168
376813
2054
hierarchicznego ukrytego modelu Markowa.
06:30
a hierarchicalhierarchiczne hiddenukryty MarkovMarkov modelModel,
169
378867
2233
06:33
something I've workedpracował on sinceod the '90s.
170
381100
3241
Pracuję nad nim od lat 90.
06:36
"JeopardyZagrożona" is a very broadszeroki naturalnaturalny languagejęzyk gamegra,
171
384341
3238
"Jeopardy!" to naturalna gra językowa
06:39
and WatsonWatson got a higherwyższy scorewynik
172
387579
1892
i Watson osiągnął wyższy wynik
06:41
than the bestNajlepiej two playersgracze combinedłączny.
173
389471
2000
niż dwóch najlepszych graczy razem.
06:43
It got this queryzapytanie correctpoprawny:
174
391471
2499
Poradził sobie z tym zadaniem:
06:45
"A long, tiresomemęczące speechprzemówienie
175
393970
2085
"Długa, nużąca przemowa
06:48
delivereddostarczone by a frothypianką piepie toppingPolewa,"
176
396055
2152
wygłoszona przez piankową polewę ciasta"
06:50
and it quicklyszybko respondedodpowiedział,
"What is a meringuebeza harangueprzemawiać?"
177
398207
2796
i odpowiedział:
"Czym jest bezowa tyrada?"
06:53
And JenningsJennings and the other guy didn't get that.
178
401003
2635
Jennings i ten drugi nie chwycili tego.
06:55
It's a prettyładny sophisticatedwyrafinowany exampleprzykład of
179
403638
1926
To wyszukany przykład tego,
06:57
computerskomputery actuallytak właściwie understandingzrozumienie humanczłowiek languagejęzyk,
180
405564
1914
jak komputer rozumie ludzki język.
06:59
and it actuallytak właściwie got its knowledgewiedza, umiejętności by readingczytanie
181
407478
1652
Cała jego wiedza pochodzi
07:01
WikipediaWikipedia and severalkilka other encyclopediasEncyklopedie.
182
409130
3785
z czytania Wikipedii i innych encyklopedii.
07:04
FivePięć to 10 yearslat from now,
183
412915
2133
Za 5 lub 10 lat
07:07
searchszukanie enginessilniki will actuallytak właściwie be basedna podstawie on
184
415048
2184
wyszukiwarki nie będą oparte
07:09
not just looking for combinationskombinacje of wordssłowa and linksspinki do mankietów
185
417232
2794
tylko na szukaniu kombinacji słów i linków,
07:12
but actuallytak właściwie understandingzrozumienie,
186
420026
1914
lecz na czytaniu ze zrozumieniem
07:13
readingczytanie for understandingzrozumienie the billionsmiliardy of pagesstrony
187
421940
2411
miliardów stron w sieci i książkach.
07:16
on the websieć and in booksksiążki.
188
424351
2733
07:19
So you'llTy będziesz be walkingpieszy alongwzdłuż, and GoogleGoogle will popmuzyka pop up
189
427084
2616
Będziesz na spacerze,
Google poda ci wiadomość:
07:21
and say, "You know, MaryMary, you expressedwyrażone concerndotyczyć
190
429700
3081
"Mary, martwiłaś się niedawno,
07:24
to me a monthmiesiąc agotemu that your glutathioneGlutation supplementdodatek
191
432781
3019
że twój suplement glutationu
07:27
wasn'tnie było gettinguzyskiwanie pastprzeszłość the blood-brainkrew mózg barrierbariera.
192
435800
2231
nie pokonuje bariery krew-mózg.
07:30
Well, newNowy researchBadania just cameoprawa ołowiana witrażu out 13 secondstowary drugiej jakości agotemu
193
438031
2593
Nowe badania, które ukazały się
13 sekund temu
07:32
that showsprzedstawia a wholecały newNowy approachpodejście to that
194
440624
1711
pokazują nowe sposoby
przyswajania glutationu.
07:34
and a newNowy way to take glutathioneGlutation.
195
442335
1993
07:36
Let me summarizepodsumować it for you."
196
444328
2562
"Pozwól, że ci to streszczę".
Za 20 lat będziemy mieć nanoboty,
07:38
TwentyDwudziestu yearslat from now, we'lldobrze have nanobotsNanobots,
197
446890
3684
bo kolejny trend
07:42
because anotherinne exponentialwykładniczy trendtendencja
198
450574
1627
07:44
is the shrinkingkurczący się of technologytechnologia.
199
452201
1615
to miniaturyzacja technologii.
07:45
They'llBędą go into our brainmózg
200
453816
2370
Wejdą do naszego mózgu
07:48
throughprzez the capillariesnaczynia włosowate
201
456186
1703
przez naczynia włosowate
i połączą nasz neokorteks
07:49
and basicallygruntownie connectpołączyć our neocortexneocortex
202
457889
2477
07:52
to a syntheticsyntetyczny neocortexneocortex in the cloudChmura
203
460366
3185
z syntetycznym neokorteksem w chmurze,
powiększając nasz neokorteks.
07:55
providingże an extensionrozbudowa of our neocortexneocortex.
204
463551
3591
Dzisiaj mamy komputer w telefonie,
07:59
Now todaydzisiaj, I mean,
205
467142
1578
08:00
you have a computerkomputer in your phonetelefon,
206
468720
1530
ale jeśli potrzebujesz
10 000 komputerów tylko na chwilę
08:02
but if you need 10,000 computerskomputery for a fewkilka secondstowary drugiej jakości
207
470250
2754
do złożonego wyszukiwania,
08:05
to do a complexzłożony searchszukanie,
208
473004
1495
08:06
you can accessdostęp that for a seconddruga or two in the cloudChmura.
209
474499
3396
masz do nich dostęp w chmurze.
08:09
In the 2030s, if you need some extradodatkowy neocortexneocortex,
210
477895
3095
Po 2030 jeśli będziesz potrzebać
dodatkowy neokorteks,
możesz połączyć się z nim
wprost ze swojego mózgu.
08:12
you'llTy będziesz be ablezdolny to connectpołączyć to that in the cloudChmura
211
480990
2273
08:15
directlybezpośrednio from your brainmózg.
212
483263
1648
08:16
So I'm walkingpieszy alongwzdłuż and I say,
213
484911
1543
Więc idę sobie i mówię:
"To Chris Anderson.
08:18
"Oh, there's ChrisChris AndersonAnderson.
214
486454
1363
08:19
He's comingprzyjście my way.
215
487817
1525
Idzie w moją stronę.
Co by tu bystrego powiedzieć?".
08:21
I'd better think of something cleversprytny to say.
216
489342
2335
08:23
I've got threetrzy secondstowary drugiej jakości.
217
491677
1524
Mam trzy sekundy.
300 milionów modułów
w moim neokorteksie nic nie wymyśli.
08:25
My 300 millionmilion modulesmoduły in my neocortexneocortex
218
493201
3097
08:28
isn't going to cutciąć it.
219
496298
1240
08:29
I need a billionmiliard more."
220
497538
1246
Potrzebuję miliard więcej.
08:30
I'll be ablezdolny to accessdostęp that in the cloudChmura.
221
498784
3323
Połączę się z chmurą.
08:34
And our thinkingmyślący, then, will be a hybridhybrydowy
222
502107
2812
Nasze myśli będą hybrydą
biologicznego i niebiologicznego myślenia.
08:36
of biologicalbiologiczny and non-biological-biologiczne thinkingmyślący,
223
504919
3522
Część niebiologiczna,
08:40
but the non-biological-biologiczne portionczęść
224
508441
1898
08:42
is subjectPrzedmiot to my lawprawo of acceleratingprzyspieszenie returnszwraca.
225
510339
2682
zgodnie z moim prawem
przyspieszonych zwrotów,
będzie rosła wykładniczo.
08:45
It will growrosnąć exponentiallywykładniczo.
226
513021
2239
08:47
And rememberZapamiętaj what happensdzieje się
227
515260
2016
Co się stało, kiedy ostatnio
nasz neokorteks powiększył się?
08:49
the last time we expandedrozszerzony our neocortexneocortex?
228
517276
2645
08:51
That was two millionmilion yearslat agotemu
229
519921
1426
To było 2 miliony lat temu,
wtedy staliśmy się humanoidami
08:53
when we becamestał się humanoidsludzików
230
521347
1236
08:54
and developedrozwinięty these largeduży foreheadsczołach.
231
522583
1594
i rozwinęliśmy duże czoła.
08:56
Other primatesnaczelne ssaki have a slantedskośne browcienie do powiek.
232
524177
2583
Inne naczelne mają
wydatne wały nadoczodołowe.
08:58
They don't have the frontalczołowy cortexkora.
233
526760
1745
Nie mają płata czołowego.
09:00
But the frontalczołowy cortexkora is not
really qualitativelyjakościowo differentróżne.
234
528505
3685
Sam płat czołowy
nie stanowi jakościowej różnicy.
To poszerzenie kory nowej.
09:04
It's a quantitativeilościowy expansionekspansja of neocortexneocortex,
235
532190
2743
Za to ta dodatkowa ilość myślenia
09:06
but that additionaldodatkowe quantityilość of thinkingmyślący
236
534933
2703
09:09
was the enablingwłączanie factorczynnik for us to take
237
537636
1779
pozwoliła nam
na skok jakościowy i powstanie języka,
09:11
a qualitativejakościowych leapskok and inventwymyślać languagejęzyk
238
539415
3346
sztuki, nauki, technologii
09:14
and artsztuka and sciencenauka and technologytechnologia
239
542761
1967
09:16
and TEDTED conferenceskonferencje.
240
544728
1454
i konferencji TED.
Żaden inny gatunek tego nie osiągnął.
09:18
No other speciesgatunki has doneGotowe that.
241
546182
2131
W ciągu kolejnych dziesięcioleci
09:20
And so, over the nextNastępny fewkilka decadesdziesiątki lat,
242
548313
2075
09:22
we're going to do it again.
243
550388
1760
znów to zrobimy.
Znowu powiększymy korę nową,
09:24
We're going to again expandrozszerzać our neocortexneocortex,
244
552148
2274
ale tym razem nie będziemy ograniczeni
09:26
only this time we won'tprzyzwyczajenie be limitedograniczony
245
554422
1756
09:28
by a fixednaprawiony architecturearchitektura of enclosurezałącznik.
246
556178
4280
przestrzenią fizyczną.
09:32
It'llBędzie to be expandedrozszerzony withoutbez limitlimit.
247
560458
3304
Poszerzymy ją bezgranicznie.
Dodatkowa ilość pozwoli
09:35
That additionaldodatkowe quantityilość will again
248
563762
2243
09:38
be the enablingwłączanie factorczynnik for anotherinne qualitativejakościowych leapskok
249
566005
3005
na jakościowy skok
w rozwoju kultury i technologii.
09:41
in culturekultura and technologytechnologia.
250
569010
1635
09:42
Thank you very much.
251
570645
2054
Dziękuję bardzo.
(Brawa)
09:44
(ApplauseAplauz)
252
572699
3086
Translated by Maciej Mackiewicz
Reviewed by Marcin Doszko

▲Back to top

ABOUT THE SPEAKER
Ray Kurzweil - Inventor, futurist
Ray Kurzweil is an engineer who has radically advanced the fields of speech, text and audio technology. He's revered for his dizzying -- yet convincing -- writing on the advance of technology, the limits of biology and the future of the human species.

Why you should listen

Inventor, entrepreneur, visionary, Ray Kurzweil's accomplishments read as a startling series of firsts -- a litany of technological breakthroughs we've come to take for granted. Kurzweil invented the first optical character recognition (OCR) software for transforming the written word into data, the first print-to-speech software for the blind, the first text-to-speech synthesizer, and the first music synthesizer capable of recreating the grand piano and other orchestral instruments, and the first commercially marketed large-vocabulary speech recognition.

Yet his impact as a futurist and philosopher is no less significant. In his best-selling books, which include How to Create a Mind, The Age of Spiritual Machines, The Singularity Is Near: When Humans Transcend Biology, Kurzweil depicts in detail a portrait of the human condition over the next few decades, as accelerating technologies forever blur the line between human and machine.

In 2009, he unveiled Singularity University, an institution that aims to "assemble, educate and inspire leaders who strive to understand and facilitate the development of exponentially advancing technologies." He is a Director of Engineering at Google, where he heads up a team developing machine intelligence and natural language comprehension.

More profile about the speaker
Ray Kurzweil | Speaker | TED.com