ABOUT THE SPEAKER
Marvin Minsky - AI pioneer
Marvin Minsky is one of the great pioneers of artificial intelligence -- and using computing metaphors to understand the human mind. His contributions to mathematics, robotics and computational linguistics are legendary and far-reaching.

Why you should listen

Marvin Minsky is the superstar-elder of artificial intelligence, one of the most productive and important cognitive scientists of the century, and the leading proponent of the Society of Mind theory. Articulated in his 1985 book of the same name, Minsky's theory says intelligence is not born of any single mechanism, but from the interaction of many independent agents. The book's sequel,The Emotion Machine (2006), says similar activity also accounts for feelings, goals, emotions and conscious thoughts.

Minsky also pioneered advances in mathematics, computational linguistics, optics, robotics and telepresence. He built SNARC, the first neural network simulator, some of the first visual scanners, and the first LOGO "turtle." From his headquarters at MIT's Media Lab and the AI Lab (which he helped found), he continues to work on, as he says, "imparting to machines the human capacity for commonsense reasoning."

More profile about the speaker
Marvin Minsky | Speaker | TED.com
TED2003

Marvin Minsky: Health and the human mind

Marvin Minsky o zdrowiu i ludzkim umyśle

Filmed:
606,909 views

Słuchajcie uważnie - łobuzerski, eklektyczny, czarująco zaimprowizowany wykład Marvina Minsky'ego o zdrowiu, przeludnieniu i ludzkim umyśle iskrzy się od subtelnych żarcików i mądrości, a doprawiony jest szczyptą nie do końca niepoważnych porad.
- AI pioneer
Marvin Minsky is one of the great pioneers of artificial intelligence -- and using computing metaphors to understand the human mind. His contributions to mathematics, robotics and computational linguistics are legendary and far-reaching. Full bio

Double-click the English transcript below to play the video.

00:18
If you askzapytać people about what partczęść of psychologyPsychologia do they think is hardciężko,
0
0
6000
Jeśli zapytać ludzi, co w psychologii jest ich zdaniem trudne,
00:24
and you say, "Well, what about thinkingmyślący and emotionsemocje?"
1
6000
3000
jeśli porównać myślenie i emocje,
00:27
MostWiększość people will say, "EmotionsEmocje are terriblyniemożliwie hardciężko.
2
9000
3000
większość powie: "Emocje są strasznie trudne.
00:30
They're incrediblyniewiarygodnie complexzłożony. They can't -- I have no ideapomysł of how they work.
3
12000
6000
Są niezmiernie złożone - nie mam pojęcia, jak działają.
00:36
But thinkingmyślący is really very straightforwardbezpośredni:
4
18000
2000
A myślenie jest naprawdę proste:
00:38
it's just sortsortować of some kinduprzejmy of logicallogiczny reasoningrozumowanie, or something.
5
20000
4000
to takie jakby logiczne rozumowanie, czy coś w tym rodzaju.
00:42
But that's not the hardciężko partczęść."
6
24000
3000
Ale to nie to jest trudne".
00:45
So here'soto jest a listlista of problemsproblemy that come up.
7
27000
2000
I tu pojawia się szereg problemów.
00:47
One nicemiły problemproblem is, what do we do about healthzdrowie?
8
29000
3000
Na przykład - co robimy dla zdrowia?
00:50
The other day, I was readingczytanie something, and the personosoba said
9
32000
4000
Parę dni temu czytałem coś, gdzie autor stwierdził,
00:54
probablyprawdopodobnie the largestNajwiększa singlepojedynczy causeprzyczyna of diseasechoroba is handshakingUzgadnianie in the WestWest.
10
36000
6000
że prawdopodobnie najważniejszym źródłem chorób na Zachodzie jest uścisk dłoni.
01:00
And there was a little studybadanie about people who don't handshakeuścisk dłoni,
11
42000
4000
Zrobiono nieduże badanie o ludziach, którzy nie podają ręki,
01:04
and comparingporównywanie them with oneste who do handshakeuścisk dłoni.
12
46000
3000
porównując ich z tymi, którzy podają,
01:07
And I haven'tnie mam the foggiestzielonego ideapomysł of where you find the oneste that don't handshakeuścisk dłoni,
13
49000
5000
choć nie mam bladego pojęcia, gdzie można znaleźć tych, co nie podają,
01:12
because they mustmusi be hidingUkrywanie.
14
54000
3000
bo chyba muszą się ukrywać.
01:15
And the people who avoiduniknąć that
15
57000
4000
Ludzie, którzy tego unikają,
01:19
have 30 percentprocent lessmniej infectiouszakaźnych diseasechoroba or something.
16
61000
4000
zapadają na choroby zakaźne około 30% rzadziej.
01:23
Or maybe it was 31 and a quarterjedna czwarta percentprocent.
17
65000
3000
A może to było 31 i jedna czwarta procenta.
01:26
So if you really want to solverozwiązać the problemproblem of epidemicsepidemie and so forthnaprzód,
18
68000
4000
Więc jeśli naprawdę chcemy rozwiązać problem epidemii,
01:30
let's startpoczątek with that. And sinceod I got that ideapomysł,
19
72000
4000
zacznijmy od tego. Odkąd wpadłem na ten pomysł,
01:34
I've had to shakepotrząsnąć hundredssetki of handsręce.
20
76000
4000
musiałem uścisnąć setki dłoni.
01:38
And I think the only way to avoiduniknąć it
21
80000
5000
Chyba jedynym sposobem, by tego uniknąć,
01:43
is to have some horribleokropny visiblewidoczny diseasechoroba,
22
85000
2000
jest zapaść na okropną, dobrze widoczną chorobę,
01:45
and then you don't have to explainwyjaśniać.
23
87000
3000
i wtedy nie trzeba się tłumaczyć.
01:48
EducationEdukacja: how do we improveulepszać educationEdukacja?
24
90000
4000
Edukacja: jak poprawić edukację?
01:52
Well, the singlepojedynczy bestNajlepiej way is to get them to understandzrozumieć
25
94000
4000
Najlepszym sposobem jest sprawić, by ludzie zrozumieli,
01:56
that what they're beingistota told is a wholecały lot of nonsensenonsens.
26
98000
3000
że to, co im się wmawia, to wielki stek bzdur.
01:59
And then, of coursekurs, you have to do something
27
101000
2000
I wtedy, oczywiście, trzeba coś zrobić,
02:01
about how to moderateumiarkowany that, so that anybodyktoś can -- so they'lloni to zrobią listen to you.
28
103000
5000
by kontrolować te bzdury i by każdy zaczął słuchać ciebie.
02:06
PollutionZanieczyszczenia, energyenergia shortageniedobór, environmentalśrodowiskowy diversityróżnorodność, povertyubóstwo.
29
108000
4000
Zanieczyszczenie, niedobór energii, bioróżnorodność, bieda...
02:10
How do we make stablestabilny societiesspołeczeństwa? LongevityDługowieczność.
30
112000
4000
Jak stworzyć stabilne społeczeństwo? Długowieczność.
02:14
Okay, there're lots of problemsproblemy to worrymartwić się about.
31
116000
3000
Mamy więc sporo problemów na głowie.
02:17
AnywayW każdym razie, the questionpytanie I think people should talk about --
32
119000
2000
Pytanie, o którym moim zdaniem powinno się rozmawiać,
02:19
and it's absolutelyabsolutnie tabootabu -- is, how manywiele people should there be?
33
121000
5000
jednak to temat tabu - "Ilu powinno być ludzi na świecie?"
02:24
And I think it should be about 100 millionmilion or maybe 500 millionmilion.
34
126000
7000
Myślę, że około 100 milionów, albo może 500 milionów.
02:31
And then noticeogłoszenie that a great manywiele of these problemsproblemy disappearznikać.
35
133000
5000
Wtedy większość takich problemów zniknie.
02:36
If you had 100 millionmilion people
36
138000
2000
Gdyby żyło tu 100 milionów ludzi,
02:38
properlyprawidłowo spreadrozpiętość out, then if there's some garbageŚmieci,
37
140000
6000
odpowiednio rozproszonych, śmieci wyrzucało by się,
02:44
you throwrzucać it away, preferablyraczej where you can't see it, and it will rotRot.
38
146000
7000
najlepiej gdzieś, gdzie ich nie widać, i by sobie gniły.
02:51
Or you throwrzucać it into the oceanocean and some fishryba will benefitzasiłek from it.
39
153000
5000
Albo można wrzucić je do oceanu i jakieś ryby skorzystają.
02:56
The problemproblem is, how manywiele people should there be?
40
158000
2000
Ale problemem jest, ilu ludzi powinno żyć?
02:58
And it's a sortsortować of choicewybór we have to make.
41
160000
3000
To wybór, którego musimy dokonać.
03:01
MostWiększość people are about 60 inchescale highwysoki or more,
42
163000
3000
Większość ludzi ma 150 cm wzrostu lub więcej,
03:04
and there's these cubesześcian lawsprawa. So if you make them this bigduży,
43
166000
4000
więc jeśli zmieni się ich rozmiar do takiego...
03:08
by usingza pomocą nanotechnologynanotechnologia, I supposeprzypuszczać --
44
170000
3000
Za pomocą nanotechnologii, jak sądzę...
03:11
(LaughterŚmiech)
45
173000
1000
(Śmiech)
03:12
-- then you could have a thousandtysiąc timesczasy as manywiele.
46
174000
2000
...możemy ich mieć tysiąc razy więcej.
03:14
That would solverozwiązać the problemproblem, but I don't see anybodyktoś
47
176000
2000
To by rozwiązało problem, ale nie słyszałem,
03:16
doing any researchBadania on makingzrobienie people smallermniejszy.
48
178000
3000
żeby ktoś prowadził badania nad zmniejszaniem ludzi.
03:19
Now, it's nicemiły to reducezmniejszyć the populationpopulacja, but a lot of people want to have childrendzieci.
49
181000
5000
Bardzo fajnie jest ograniczyć populację, ale wielu ludzi chce mieć dzieci.
03:24
And there's one solutionrozwiązanie that's probablyprawdopodobnie only a fewkilka yearslat off.
50
186000
3000
I jest tylko jedno rozwiązanie, które możemy wkrótce osiągnąć.
03:27
You know you have 46 chromosomeschromosomy. If you're luckySzczęściarz, you've got 23
51
189000
5000
Mamy 46 chromosomów. Jeśli masz szczęście, dostajesz po 23
03:32
from eachkażdy parentrodzic. SometimesCzasami you get an extradodatkowy one or dropupuszczać one out,
52
194000
6000
od każdego z rodziców, czasami jeden mniej lub więcej,
03:38
but -- so you can skippominąć the grandparentdziadkowie and great-grandparentpradziadków stageetap
53
200000
4000
ale można przeskoczyć etap dziadków i pradziadków
03:42
and go right to the great-great-grandparentwielki pradziadków. And you have 46 people
54
204000
5000
i zabrać się od razu do prapradziadków. Mamy więc 46 osób,
03:47
and you give them a scannerskaner, or whatevercokolwiek you need,
55
209000
3000
dajemy im skaner, czy co tam trzeba,
03:50
and they look at theirich chromosomeschromosomy and eachkażdy of them saysmówi
56
212000
4000
a oni patrzą na swoje chromosomy i każdy mówi
03:54
whichktóry one he likeslubi bestNajlepiej, or she -- no reasonpowód to have just two sexespłci
57
216000
5000
który mu lub jej się podoba, nawet nie ma powodu ograniczać się do 2 płci.
03:59
any more, even. So eachkażdy childdziecko has 46 parentsrodzice,
58
221000
5000
Każde dziecko ma więc 46 rodziców.
04:04
and I supposeprzypuszczać you could let eachkażdy groupGrupa of 46 parentsrodzice have 15 childrendzieci.
59
226000
6000
Załóżmy, że pozwolimy każdej grupie 46 rodziców mieć 15 dzieci,
04:10
Wouldn'tNie that be enoughdość? And then the childrendzieci
60
232000
2000
czy to nie wystarczy?
04:12
would get plentydużo of supportwsparcie, and nurturingpielęgnowanie, and mentoringdoradztwo,
61
234000
4000
Dzieci dostawałyby mnóstwo wsparcia, wychowania i opieki,
04:16
and the worldświat populationpopulacja would declineupadek very rapidlyszybko
62
238000
2000
a światowa populacja zmniejszałaby się bardzo szybko
04:18
and everybodywszyscy would be totallycałkowicie happyszczęśliwy.
63
240000
3000
i wszyscy byliby całkowicie zadowoleni.
04:21
TimesharingTimesharing is a little furtherdalej off in the futureprzyszłość.
64
243000
3000
Dzielenie się czasem to kwestia nieco odleglejszej przyszłości.
04:24
And there's this great novelpowieść that ArthurArthur ClarkeClarke wrotenapisał twicedwa razy,
65
246000
3000
Jest taka świetna powieść, którą Arthur Clarke napisał dwukrotnie,
04:27
callednazywa "AgainstPrzeciwko the FallUpadek of Night" and "The CityMiasto and the StarsGwiazdy."
66
249000
4000
pod tytułem "Przeciw nadejściu nocy" oraz "Miasto i gwiazdy".
04:31
They're bothobie wonderfulwspaniale and largelyw dużej mierze the samepodobnie,
67
253000
3000
Obie są wspaniałe i prawie takie same,
04:34
exceptz wyjątkiem that computerskomputery happenedstało się in betweenpomiędzy.
68
256000
2000
poza tym, że w międzyczasie wynaleziono komputery.
04:36
And ArthurArthur was looking at this oldstary bookksiążka, and he said, "Well, that was wrongźle.
69
258000
5000
Arthur spojrzał na starszą książkę i uznał, że czegoś jej brak.
04:41
The futureprzyszłość mustmusi have some computerskomputery."
70
263000
2000
W przyszłości muszą znaleźć się komputery.
04:43
So in the seconddruga versionwersja of it, there are 100 billionmiliard
71
265000
5000
Więc w drugiej wersji jest 100 miliardów,
04:48
or 1,000 billionmiliard people on EarthZiemia, but they're all storedzapisane on hardciężko disksdyski or floppiesdyskietki,
72
270000
8000
czy 1000 miliardów ludzi na Ziemi, ale wszyscy są zarchiwizowani na dyskach, dyskietkach,
04:56
or whatevercokolwiek they have in the futureprzyszłość.
73
278000
2000
czy co tam mają w przyszłości.
04:58
And you let a fewkilka millionmilion of them out at a time.
74
280000
4000
I wypuszcza się tylko po kilka milionów ludzi naraz.
05:02
A personosoba comespochodzi out, they liverelacja na żywo for a thousandtysiąc yearslat
75
284000
4000
Osoba wychodzi, żyje przez tysiąc lat,
05:06
doing whatevercokolwiek they do, and then, when it's time to go back
76
288000
6000
robiąc co tam ma do zrobienia, a potem czas wracać,
05:12
for a billionmiliard yearslat -- or a millionmilion, I forgetzapomnieć, the numbersliczby don't mattermateria --
77
294000
4000
na miliard lat, albo milion, zapomniałem, liczby nie są tu ważne.
05:16
but there really aren'tnie są very manywiele people on EarthZiemia at a time.
78
298000
4000
Ale dzięki temu na Ziemi nie ma naraz zbyt wielu ludzi.
05:20
And you get to think about yourselfsiebie and your memorieswspomnienia,
79
302000
2000
Możesz przemyśleć siebie i swoje wspomnienia,
05:22
and before you go back into suspensionzawieszenie, you editedytować your memorieswspomnienia
80
304000
5000
a zanim cię znów zawieszą, możesz przeredagować wspomnienia,
05:27
and you changezmiana your personalityosobowość and so forthnaprzód.
81
309000
3000
zmienić osobowość i tak dalej.
05:30
The plotwątek of the bookksiążka is that there's not enoughdość diversityróżnorodność,
82
312000
6000
Myślą przewodnią książki jest to, że za mało tam różnorodności
05:36
so that the people who designedzaprojektowany the cityMiasto
83
318000
3000
i ludzie, którzy zaprojektowali miasto
05:39
make sure that everykażdy now and then an entirelycałkowicie newNowy personosoba is createdstworzony.
84
321000
4000
dbają o to, by co jakiś czas tworzona była zupełnie nowa osoba.
05:43
And in the novelpowieść, a particularszczególny one namedo imieniu AlvinAlvin is createdstworzony. And he saysmówi,
85
325000
6000
Powstaje szczególny osobnik, nazwany Alvinem.
05:49
maybe this isn't the bestNajlepiej way, and wreckswraki the wholecały systemsystem.
86
331000
4000
Uznaje, że nie jest to najlepszy system i go rozsadza.
05:53
I don't think the solutionsrozwiązania that I proposedproponowane
87
335000
2000
Nie sądzę, by rozwiązania, które zaproponowałem,
05:55
are good enoughdość or smartmądry enoughdość.
88
337000
3000
były dostatecznie dobre, czy mądre.
05:58
I think the bigduży problemproblem is that we're not smartmądry enoughdość
89
340000
4000
Myślę, że poważnym problemem jest to, że nie jesteśmy dość mądrzy,
06:02
to understandzrozumieć whichktóry of the problemsproblemy we're facingokładzina are good enoughdość.
90
344000
4000
by pojąć, które z naszych problemów są dostatecznie ważkie.
06:06
ThereforeW związku z tym, we have to buildbudować superWspaniały intelligentinteligentny machinesmaszyny like HALHAL.
91
348000
4000
Dlatego musimy zbudować superinteligentne maszyny, jak HAL.
06:10
As you rememberZapamiętaj, at some pointpunkt in the bookksiążka for "2001,"
92
352000
5000
Jak pamiętacie, w pewnym momencie książkowej wersji "Odysei 2001",
06:15
HALHAL realizesuświadamia sobie that the universewszechświat is too bigduży, and grandwielki, and profoundgłęboki
93
357000
5000
HAL zdaje sobie sprawę, że wszechświat jest zbyt duży, wspaniały i głęboki
06:20
for those really stupidgłupi astronautsastronauci. If you contrastkontrast HAL'sHAL jest behaviorzachowanie
94
362000
4000
dla tych głupków, astronautów. Jeśli przeciwstawić zachowanie HAL-a
06:24
with the trivialityTrywialność of the people on the spaceshipstatek kosmiczny,
95
366000
4000
trywialności ludzi na statku kosmicznym,
06:28
you can see what's writtenpisemny betweenpomiędzy the lineskwestia.
96
370000
3000
widać, co się kryje między wierszami.
06:31
Well, what are we going to do about that? We could get smartermądrzejszy.
97
373000
3000
Co zamierzamy z tym zrobić? Moglibyśmy zmądrzeć.
06:34
I think that we're prettyładny smartmądry, as comparedporównywane to chimpanzeesszympansy,
98
376000
5000
Myślę, że jesteśmy dość mądrzy, w porównaniu z szympansami,
06:39
but we're not smartmądry enoughdość to dealsprawa with the colossalkolosalne problemsproblemy that we facetwarz,
99
381000
6000
ale nie dość mądrzy, by uporać się z naszymi kolosalnymi problemami,
06:45
eitherzarówno in abstractabstrakcyjny mathematicsmatematyka
100
387000
2000
czy to w abstrakcyjnej matematyce,
06:47
or in figuringzastanawianie się out economiesgospodarki, or balancingrównoważenia the worldświat around.
101
389000
5000
czy w rozważaniach ekonomicznych, czy w poszukiwaniu równowagi w świecie.
06:52
So one thing we can do is liverelacja na żywo longerdłużej.
102
394000
3000
Możemy też żyć dłużej.
06:55
And nobodynikt knowswie how hardciężko that is,
103
397000
2000
Nikt nie wie, jakie to trudne,
06:57
but we'lldobrze probablyprawdopodobnie find out in a fewkilka yearslat.
104
399000
3000
ale pewnie dowiemy się za kilka lat.
07:00
You see, there's two forksWidły in the roadDroga. We know that people liverelacja na żywo
105
402000
3000
Są dwie drogi. Wiemy, że ludzie żyją
07:03
twicedwa razy as long as chimpanzeesszympansy almostprawie,
106
405000
4000
prawie dwa razy dłużej niż szympansy,
07:07
and nobodynikt liveszyje more than 120 yearslat,
107
409000
4000
i nikt nie żyje dłużej niż 120 lat,
07:11
for reasonspowody that aren'tnie są very well understoodzrozumiany.
108
413000
3000
z powodów, których za dobrze nie rozumiemy.
07:14
But lots of people now liverelacja na żywo to 90 or 100,
109
416000
3000
Ale wielu ludzi żyje dziś 90 lub 100 lat,
07:17
unlesschyba że they shakepotrząsnąć handsręce too much or something like that.
110
419000
4000
o ile nie podają zbyt często ręki, czy coś...
07:21
And so maybe if we livedPerscyativestwo recyrodycyjcystwo recyrodycyjcystwo recyrodycyj 200 yearslat, we could accumulategromadzić enoughdość skillsumiejętności
111
423000
5000
Jeśli żylibyśmy 200 lat, moglibyśmy nagromadzić wystarczająco umiejętności
07:26
and knowledgewiedza, umiejętności to solverozwiązać some problemsproblemy.
112
428000
5000
i wiedzy, by rozwiązać niektóre problemy.
07:31
So that's one way of going about it.
113
433000
2000
To jedna możliwość.
07:33
And as I said, we don't know how hardciężko that is. It mightmoc be --
114
435000
3000
I jak mówiłem, nie wiemy, jakie to trudne.
07:36
after all, mostwiększość other mammalsssaki liverelacja na żywo halfpół as long as the chimpanzeeszympans,
115
438000
6000
W końcu większość innych ssaków żyje o połowę krócej niż szympansy,
07:42
so we're sortsortować of threetrzy and a halfpół or fourcztery timesczasy, have fourcztery timesczasy
116
444000
3000
a my żyjemy jakieś 3½ lub 4 razy dłużej,
07:45
the longevitydługowieczność of mostwiększość mammalsssaki. And in the casewalizka of the primatesnaczelne ssaki,
117
447000
6000
niż większość ssaków. Jeśli chodzi o naczelne,
07:51
we have almostprawie the samepodobnie genesgeny. We only differróżnić się from chimpanzeesszympansy,
118
453000
4000
mamy prawie te same geny. Różnimy się od szympansów,
07:55
in the presentteraźniejszość statestan of knowledgewiedza, umiejętności, whichktóry is absoluteabsolutny hogwashBzdury,
119
457000
6000
przy obecnym stanie wiedzy, a to i tak kompletne brednie,
08:01
maybe by just a fewkilka hundredsto genesgeny.
120
463000
2000
może tylko o kilkaset genów.
08:03
What I think is that the genegen countersLiczniki don't know what they're doing yetjeszcze.
121
465000
3000
Ale genowi rachmistrze wciąż raczej nie wiedzą za dobrze, co robią.
08:06
And whatevercokolwiek you do, don't readczytać anything about geneticsgenetyka
122
468000
3000
Cokolwiek robicie, nie czytajcie nic o genetyce,
08:09
that's publishedopublikowany withinw ciągu your lifetimeżycie, or something.
123
471000
3000
co opublikowano za waszego życia.
08:12
(LaughterŚmiech)
124
474000
3000
(Śmiech)
08:15
The stuffrzeczy has a very shortkrótki half-lifeokres półtrwania, samepodobnie with brainmózg sciencenauka.
125
477000
4000
To ma bardzo krótki okres półrozpadu, tak samo jak w naukach o mózgu.
08:19
And so it mightmoc be that if we just fixnaprawić fourcztery or fivepięć genesgeny,
126
481000
6000
Może jeśli naprawimy cztery czy pięć genów,
08:25
we can liverelacja na żywo 200 yearslat.
127
487000
2000
będziemy mogli żyć 200 lat.
08:27
Or it mightmoc be that it's just 30 or 40,
128
489000
3000
A może tylko 30 lub 40,
08:30
and I doubtwątpić that it's severalkilka hundredsto.
129
492000
2000
ale wątpię, by miało to być kilkaset.
08:32
So this is something that people will be discussingdyskutować
130
494000
4000
O tym właśnie ludzie będą dyskutować,
08:36
and lots of ethicistsetyków -- you know, an ethicistetyk is somebodyktoś
131
498000
3000
także etycy. Wiecie, etyk to ktoś,
08:39
who seeswidzi something wrongźle with whatevercokolwiek you have in mindumysł.
132
501000
3000
kto widzi coś złego we wszystkim, o czym myślisz.
08:42
(LaughterŚmiech)
133
504000
3000
(Śmiech)
08:45
And it's very hardciężko to find an ethicistetyk who considersjest zdania any changezmiana
134
507000
4000
Bardzo trudno znaleźć etyka, który uważałby jakiekolwiek zmiany
08:49
worthwartość makingzrobienie, because he saysmówi, what about the consequenceskonsekwencje?
135
511000
4000
za warte dokonania, bo zaraz zapyta o ich konsekwencje.
08:53
And, of coursekurs, we're not responsibleodpowiedzialny for the consequenceskonsekwencje
136
515000
3000
Ale oczywiście, nie jesteśmy odpowiedzialni za konsekwencje tego,
08:56
of what we're doing now, are we? Like all this complaintskargi about clonesklonów.
137
518000
6000
co robimy teraz, prawda? Na przykład to całe narzekanie na klonowanie.
09:02
And yetjeszcze two randomlosowy people will mateMate and have this childdziecko,
138
524000
3000
A jednak dwoje przypadkowych ludzi łączy się w parę, ma dziecko,
09:05
and bothobie of them have some prettyładny rottenzgniłe genesgeny,
139
527000
4000
a oboje mają dość kiepskie geny,
09:09
and the childdziecko is likelyprawdopodobne to come out to be averageśredni.
140
531000
4000
więc dziecko ma duże szanse wyjść przeciętne.
09:13
WhichCo, by chimpanzeeszympans standardsstandardy, is very good indeedw rzeczy samej.
141
535000
6000
Co jak na standardy szympansie, jest bardzo dobrym wynikiem.
09:19
If we do have longevitydługowieczność, then we'lldobrze have to facetwarz the populationpopulacja growthwzrost
142
541000
3000
Długowieczność nie usunie problemu przeludnienia.
09:22
problemproblem anywaytak czy inaczej. Because if people liverelacja na żywo 200 or 1,000 yearslat,
143
544000
4000
Bo jeśli ludzie będą żyć 200 lub 1000 lat,
09:26
then we can't let them have a childdziecko more than about oncepewnego razu everykażdy 200 or 1,000 yearslat.
144
548000
6000
nie można im pozwolić na posiadanie dziecka częściej niż raz na 200 lub 1000 lat.
09:32
And so there won'tprzyzwyczajenie be any workforcesiła robocza.
145
554000
3000
Więc nie będzie siły roboczej.
09:35
And one of the things LaurieLaurie GarrettGarrett pointedspiczasty out, and othersinni have,
146
557000
4000
A jedną ze spraw, na które zwróciła uwagę Laurie Garrett,
09:39
is that a societyspołeczeństwo that doesn't have people
147
561000
5000
jest to, że społeczeństwo, które nie ma obywateli w wieku produkcyjnym
09:44
of workingpracujący agewiek is in realreal troublekłopot. And things are going to get worsegorzej,
148
566000
3000
jest w prawdziwych tarapatach. A będzie coraz gorzej,
09:47
because there's nobodynikt to educatekształcić the childrendzieci or to feedkarmić the oldstary.
149
569000
6000
bo nie ma nikogo, kto by uczył dzieci, albo karmił starców.
09:53
And when I'm talkingmówić about a long lifetimeżycie, of coursekurs,
150
575000
2000
Kiedy mówię o długim życiu,
09:55
I don't want somebodyktoś who'skto jest 200 yearslat oldstary to be like our imageobraz
151
577000
6000
to oczywiście nie chcę, by osoba w wieku 200 lat wyglądała jak nasza wizja
10:01
of what a 200-year-old-roczny is -- whichktóry is deadnie żyje, actuallytak właściwie.
152
583000
4000
tego, czym jest wiek 200 lat - czyli bycie trupem.
10:05
You know, there's about 400 differentróżne partsCzęści of the brainmózg
153
587000
2000
Istnieje około 400 różnych części mózgu,
10:07
whichktóry seemwydać się to have differentróżne functionsFunkcje.
154
589000
2000
które wydają się mieć różne funkcje.
10:09
NobodyNikt nie knowswie how mostwiększość of them work in detailSzczegół,
155
591000
3000
Nikt nie wie, jak większość z nich dokładnie działa,
10:12
but we do know that there're lots of differentróżne things in there.
156
594000
4000
ale wiemy, że jest tam mnóstwo różnych rzeczy,
10:16
And they don't always work togetherRazem. I like Freud'sFreud theoryteoria
157
598000
2000
które nie zawsze współpracują.
10:18
that mostwiększość of them are cancellingAnulowanie eachkażdy other out.
158
600000
4000
Lubię teorię Freuda mówiącą, że większość z nich wyklucza się nawzajem.
10:22
And so if you think of yourselfsiebie as a sortsortować of cityMiasto
159
604000
4000
Jeśli myślisz o sobie jako o mieście,
10:26
with a hundredsto resourceszasoby, then, when you're afraidprzestraszony, for exampleprzykład,
160
608000
6000
w którym są setki zasobów, kiedy się obawiasz, możesz
10:32
you maymoże discardodrzucać your long-rangedaleki zasięg goalscele, but you maymoże think deeplygłęboko
161
614000
4000
porzucić swoje długoterminowe cele, ale możesz też zastanowić się
10:36
and focusskupiać on exactlydokładnie how to achieveosiągać that particularszczególny goalcel.
162
618000
4000
i skupić na tym, jak dokładnie osiągnąć ten konkretny cel.
10:40
You throwrzucać everything elsejeszcze away. You becomestają się a monomaniacmonomaniac --
163
622000
3000
Wszystko inne odrzucasz. Stajesz się monomaniakiem,
10:43
all you careopieka about is not steppingwzmocnienie out on that platformPlatforma.
164
625000
4000
obchodzi cię tylko, by nie wypaść z tego pociągu.
10:47
And when you're hungrygłodny, foodjedzenie becomesstaje się more attractiveatrakcyjny, and so forthnaprzód.
165
629000
4000
Kiedy jesteś głodny, jedzenie staje się atrakcyjniejsze, itd.
10:51
So I see emotionsemocje as highlywysoko evolvedewoluował subsetspodzbiory of your capabilityzdolność.
166
633000
6000
Dlatego emocje to dla mnie wyspecjalizowane moduły naszych możliwości.
10:57
EmotionEmocje is not something addedw dodatku to thought. An emotionalemocjonalny statestan
167
639000
4000
Emocje nie są czymś dodawanym do myśli. Stan emocjonalny
11:01
is what you get when you removeusunąć 100 or 200
168
643000
4000
to coś, co zostaje, gdy usuniesz 100 lub 200 zasobów,
11:05
of your normallynormalnie availabledostępny resourceszasoby.
169
647000
3000
do których normalnie masz dostęp.
11:08
So thinkingmyślący of emotionsemocje as the oppositenaprzeciwko of -- as something
170
650000
3000
Myślenie o emocjach jako o czymś przeciwnym
11:11
lessmniej than thinkingmyślący is immenselyniezmiernie productiveproduktywny. And I hopenadzieja,
171
653000
4000
lub mniej ważnym od myślenia jest ogromnie produktywne. Mam nadzieję,
11:15
in the nextNastępny fewkilka yearslat, to showpokazać that this will leadprowadzić to smartmądry machinesmaszyny.
172
657000
4000
że w najbliższych latach to doprowadzi do mądrych maszyn.
11:19
And I guessodgadnąć I better skippominąć all the restodpoczynek of this, whichktóry are some detailsdetale
173
661000
3000
Chyba najlepiej, jeśli pominę całą resztę, bo to szczegóły tego,
11:22
on how we mightmoc make those smartmądry machinesmaszyny and --
174
664000
5000
jak można by zrobić te mądre maszyny.
11:27
(LaughterŚmiech)
175
669000
5000
(Śmiech)
11:32
-- and the mainGłówny ideapomysł is in factfakt that the corerdzeń of a really smartmądry machinemaszyna
176
674000
5000
Kluczowa jest idea, że rdzeniem naprawdę mądrej maszyny
11:37
is one that recognizesrozpoznaje that a certainpewny kinduprzejmy of problemproblem is facingokładzina you.
177
679000
5000
jest to, że rozpoznaje ona, że stajesz przed pewnym problemem.
11:42
This is a problemproblem of suchtaki and suchtaki a typerodzaj,
178
684000
3000
Jest to problem konkretnego rodzaju
11:45
and thereforew związku z tym there's a certainpewny way or wayssposoby of thinkingmyślący
179
687000
5000
i dlatego istnieje pewien sposób myślenia
11:50
that are good for that problemproblem.
180
692000
2000
odpowiedni dla tego problemu.
11:52
So I think the futureprzyszłość, mainGłówny problemproblem of psychologyPsychologia is to classifyklasyfikować
181
694000
4000
Dlatego w przyszłości głównym problemem psychologii będzie klasyfikacja
11:56
typestypy of predicamentspredicaments, typestypy of situationssytuacje, typestypy of obstaclesprzeszkody
182
698000
4000
typów kłopotów, sytuacji, przeszkód,
12:00
and alsorównież to classifyklasyfikować availabledostępny and possiblemożliwy wayssposoby to think and pairpara them up.
183
702000
6000
oraz dostępnych i możliwych sposobów myślenia, a potem ich dopasowanie.
12:06
So you see, it's almostprawie like a PavlovianPawłowa --
184
708000
3000
Czyli to prawie jak u Pawłowa...
12:09
we lostStracony the first hundredsto yearslat of psychologyPsychologia
185
711000
2000
Straciliśmy pierwsze 100 lat psychologii
12:11
by really trivialtrywialny theoriesteorie, where you say,
186
713000
3000
na trywialne teorie mówiące o tym,
12:14
how do people learnuczyć się how to reactreagować to a situationsytuacja? What I'm sayingpowiedzenie is,
187
716000
6000
jak ludzie uczą się i reagują w różnych sytuacjach.
12:20
after we go throughprzez a lot of levelspoziomy, includingwłącznie z designingprojektowanie
188
722000
5000
Chodzi mi o to, że przeszliśmy wiele poziomów, w tym projektowanie
12:25
a hugeolbrzymi, messyniechlujny systemsystem with thousandstysiące of portsporty,
189
727000
3000
wielkich niechlujnych systemów, złożonych z tysięcy części,
12:28
we'lldobrze endkoniec up again with the centralcentralny problemproblem of psychologyPsychologia.
190
730000
4000
a wracamy do centralnego problemu psychologii.
12:32
SayingMówiąc:, not what are the situationssytuacje,
191
734000
3000
Rozważając nie sytuacje,
12:35
but what are the kindsrodzaje of problemsproblemy
192
737000
2000
ale rodzaje problemów
12:37
and what are the kindsrodzaje of strategiesstrategie, how do you learnuczyć się them,
193
739000
3000
i rodzaje strategii, oraz jak się ich uczyć,
12:40
how do you connectpołączyć them up, how does a really creativetwórczy personosoba
194
742000
3000
jak je łączyć, jak naprawdę kreatywny człowiek
12:43
inventwymyślać a newNowy way of thinkingmyślący out of the availabledostępny resourceszasoby and so forthnaprzód.
195
745000
5000
tworzy nowy sposób myślenia na podstawie dostępnych zasobów.
12:48
So, I think in the nextNastępny 20 yearslat,
196
750000
2000
Jeśli w ciągu następnych 20 lat
12:50
if we can get ridpozbyć się of all of the traditionaltradycyjny approachesawanse to artificialsztuczny intelligenceinteligencja,
197
752000
5000
uda nam się wyzbyć tradycyjnego podejścia do sztucznej inteligencji,
12:55
like neuralnerwowy netssieci and geneticgenetyczny algorithmsalgorytmy
198
757000
2000
w rodzaju sieci neuronowych, algorytmów genetycznych
12:57
and rule-basedoparte na regułach systemssystemy, and just turnskręcać our sightsosobliwości miasta a little bitkawałek higherwyższy to say,
199
759000
6000
i systemów reguł decyzyjnych, a sięgniemy wzrokiem nieco dalej,
13:03
can we make a systemsystem that can use all those things
200
765000
2000
czy stworzymy system, który to wykorzysta
13:05
for the right kinduprzejmy of problemproblem? Some problemsproblemy are good for neuralnerwowy netssieci;
201
767000
4000
do odpowiednich problemów? Z niektórymi radzą sobie sieci neuronowe,
13:09
we know that othersinni, neuralnerwowy netssieci are hopelessbeznadziejny on them.
202
771000
3000
wobec innych są bezradne.
13:12
GeneticGenetyczne algorithmsalgorytmy are great for certainpewny things;
203
774000
3000
Algorytmy genetyczne mają swoje zastosowania;
13:15
I suspectposądzać I know what they're badzły at, and I won'tprzyzwyczajenie tell you.
204
777000
4000
chyba wiem, w czym są kiepskie i wam tego nie powiem.
13:19
(LaughterŚmiech)
205
781000
1000
(Śmiech)
13:20
Thank you.
206
782000
2000
Dziękuję.
13:22
(ApplauseAplauz)
207
784000
6000
(Brawa)
Translated by Joanna Stefanska
Reviewed by Krystian Aparta

▲Back to top

ABOUT THE SPEAKER
Marvin Minsky - AI pioneer
Marvin Minsky is one of the great pioneers of artificial intelligence -- and using computing metaphors to understand the human mind. His contributions to mathematics, robotics and computational linguistics are legendary and far-reaching.

Why you should listen

Marvin Minsky is the superstar-elder of artificial intelligence, one of the most productive and important cognitive scientists of the century, and the leading proponent of the Society of Mind theory. Articulated in his 1985 book of the same name, Minsky's theory says intelligence is not born of any single mechanism, but from the interaction of many independent agents. The book's sequel,The Emotion Machine (2006), says similar activity also accounts for feelings, goals, emotions and conscious thoughts.

Minsky also pioneered advances in mathematics, computational linguistics, optics, robotics and telepresence. He built SNARC, the first neural network simulator, some of the first visual scanners, and the first LOGO "turtle." From his headquarters at MIT's Media Lab and the AI Lab (which he helped found), he continues to work on, as he says, "imparting to machines the human capacity for commonsense reasoning."

More profile about the speaker
Marvin Minsky | Speaker | TED.com