ABOUT THE SPEAKER
Marvin Minsky - AI pioneer
Marvin Minsky is one of the great pioneers of artificial intelligence -- and using computing metaphors to understand the human mind. His contributions to mathematics, robotics and computational linguistics are legendary and far-reaching.

Why you should listen

Marvin Minsky is the superstar-elder of artificial intelligence, one of the most productive and important cognitive scientists of the century, and the leading proponent of the Society of Mind theory. Articulated in his 1985 book of the same name, Minsky's theory says intelligence is not born of any single mechanism, but from the interaction of many independent agents. The book's sequel,The Emotion Machine (2006), says similar activity also accounts for feelings, goals, emotions and conscious thoughts.

Minsky also pioneered advances in mathematics, computational linguistics, optics, robotics and telepresence. He built SNARC, the first neural network simulator, some of the first visual scanners, and the first LOGO "turtle." From his headquarters at MIT's Media Lab and the AI Lab (which he helped found), he continues to work on, as he says, "imparting to machines the human capacity for commonsense reasoning."

More profile about the speaker
Marvin Minsky | Speaker | TED.com
TED2003

Marvin Minsky: Health and the human mind

Marvin Minsky o zdravlju i ljudskom umu

Filmed:
606,909 views

Poslušajte pozorno -- zaigran, eklektičan i šarmantno neobavezan govor Marvina Minskog o zdravlju, prenapučenosti i ljudskome umu pun je suptilnosti, mudrosti i tek tračka “ On se šali?” savjeta
- AI pioneer
Marvin Minsky is one of the great pioneers of artificial intelligence -- and using computing metaphors to understand the human mind. His contributions to mathematics, robotics and computational linguistics are legendary and far-reaching. Full bio

Double-click the English transcript below to play the video.

00:18
If you askpitati people about what partdio of psychologyPsihologija do they think is hardteško,
0
0
6000
Ako ljude upitate koji dio psihologije smatraju teškim,
00:24
and you say, "Well, what about thinkingmišljenje and emotionsemocije?"
1
6000
3000
ako pitate: “ A što je s mislima i emocijama?”
00:27
MostVećina people will say, "EmotionsEmocije are terriblyužasno hardteško.
2
9000
3000
većina će ljudi reći: “ Osjećaji su jako teški.
00:30
They're incrediblynevjerojatno complexkompleks. They can't -- I have no ideaideja of how they work.
3
12000
6000
Upravo nevjerojatno složeni. Oni se ne mogu -- nemam pojma na koji način oni djeluju.
00:36
But thinkingmišljenje is really very straightforwardiskren:
4
18000
2000
Ali razmišljanje je vrlo pravocrtno:
00:38
it's just sortvrsta of some kindljubazan of logicallogičan reasoningrasuđivanje, or something.
5
20000
4000
to je tek jedan način logičkog razmatranja, ili slično.
00:42
But that's not the hardteško partdio."
6
24000
3000
To nije težak dio.”
00:45
So here'sevo a listpopis of problemsproblemi that come up.
7
27000
2000
Dakle, evo popisa problema koji se pojavljuju.
00:47
One nicelijepo problemproblem is, what do we do about healthzdravlje?
8
29000
3000
Jedan zgodan problem jest: što učiniti po pitanju zdravlja?
00:50
The other day, I was readingčitanje something, and the personosoba said
9
32000
4000
Neki dan sam čitao nešto gdje je osoba rekla da je
00:54
probablyvjerojatno the largestnajveći singlesingl causeuzrok of diseasebolest is handshakingdogovaranje in the WestZapad.
10
36000
6000
vjerojatno najveći pojedinačni razlog bolesti na Zapadu rukovanje.
01:00
And there was a little studystudija about people who don't handshakestisak ruke,
11
42000
4000
Prisutno je bilo i malo istraživanje o ljudima koji se ne rukuju
01:04
and comparinguspoređivanje them with onesone who do handshakestisak ruke.
12
46000
3000
naspram onih koji se rukuju.
01:07
And I haven'tnisu the foggiestpojma ideaideja of where you find the onesone that don't handshakestisak ruke,
13
49000
5000
Ne slutim ni izdaleka gdje su pronašli one koji se ne rukuju,
01:12
because they mustmora be hidingskrivanje.
14
54000
3000
jer ti se ljudi zacijelo kriju negdje.
01:15
And the people who avoidIzbjegavajte that
15
57000
4000
Dakle, ljudi koji izbjegavaju rukovanje
01:19
have 30 percentposto lessmanje infectiouszarazne diseasebolest or something.
16
61000
4000
imaju 30 posto manje zaraznih bolesti ili slično.
01:23
Or maybe it was 31 and a quarterčetvrtina percentposto.
17
65000
3000
Ili je možda to bilo 31 i četvrtina postotka.
01:26
So if you really want to solveriješiti the problemproblem of epidemicsepidemije and so forthdalje,
18
68000
4000
Dakle ako doista želite riješiti problem epidemija i drugih stvari,
01:30
let's startpočetak with that. And sinceod I got that ideaideja,
19
72000
4000
počnimo s time. Otkad sam došao na tu ideju
01:34
I've had to shaketresti hundredsstotine of handsruke.
20
76000
4000
morao sam se rukovati sa stotinu ljudi.
01:38
And I think the only way to avoidIzbjegavajte it
21
80000
5000
I mislim da je jedini način da se rukovanje izbjegne
01:43
is to have some horribleužasno visiblevidljiv diseasebolest,
22
85000
2000
imati nekakvu groznu vidljivu bolest,
01:45
and then you don't have to explainobjasniti.
23
87000
3000
tada ne morate ništa objašnjavati.
01:48
EducationObrazovanje: how do we improvepoboljšati educationobrazovanje?
24
90000
4000
Obrazovanje: kako da unaprijedimo obrazovanje?
01:52
Well, the singlesingl bestnajbolje way is to get them to understandrazumjeti
25
94000
4000
Pa, najbolji način bio bi učiniti da ljudi shvate
01:56
that what they're beingbiće told is a wholečitav lot of nonsensebesmislica.
26
98000
3000
da je ono što im se priča jedna velika hrpa besmislica.
01:59
And then, of coursenaravno, you have to do something
27
101000
2000
A tada, naravno, morate učiniti nešto
02:01
about how to moderateumjeren that, so that anybodyiko can -- so they'lloni će listen to you.
28
103000
5000
kako biste to ograničili kako bi vas bilo tko -- kako bi vas slušali.
02:06
PollutionOnečišćenja, energyenergija shortagenestašica, environmentalekološki diversityraznovrsnost, povertysiromaštvo.
29
108000
4000
Zagađenje planeta, manjak energije, različitost u okolišu, siromaštvo.
02:10
How do we make stablestabilan societiesdruštva? LongevityDugovječnost.
30
112000
4000
Kako da društva učinimo stabilnima? Dug život.
02:14
Okay, there'retu si lots of problemsproblemi to worrybrinuti about.
31
116000
3000
U redu, postoji mnoštvo problema oko kojih bi trebali brinuti.
02:17
AnywayU svakom slučaju, the questionpitanje I think people should talk about --
32
119000
2000
U svakom slučaju, pitanje o kojemu mislim da bi ljudi trebali govoriti --
02:19
and it's absolutelyapsolutno tabootabu -- is, how manymnogi people should there be?
33
121000
5000
a potpuni je tabu -- jest, koliko bi ljudi uopće trebalo postojati?
02:24
And I think it should be about 100 millionmilijuna or maybe 500 millionmilijuna.
34
126000
7000
Ja smatram da bi nas trebalo biti oko 100 ili 500 milijuna.
02:31
And then noticeobavijest that a great manymnogi of these problemsproblemi disappearnestati.
35
133000
5000
I tada bismo primjetili kako većina ovih problema nestaje.
02:36
If you had 100 millionmilijuna people
36
138000
2000
Ako imate 100 milijuna ljudi
02:38
properlypropisno spreadširenje out, then if there's some garbagesmeće,
37
140000
6000
koji su dobro raspoređeni, ako postoji nekakvo smeće,
02:44
you throwbacanje it away, preferablyponajprije where you can't see it, and it will rottrulež.
38
146000
7000
bacite ga, po mogućnosti gdje ga ne možete vidjeti, i ono će istrunuti.
02:51
Or you throwbacanje it into the oceanokean and some fishriba will benefitkorist from it.
39
153000
5000
Ili ga bacite u ocean i dobro će doći nekoj ribi.
02:56
The problemproblem is, how manymnogi people should there be?
40
158000
2000
Problem je u tome, koliko bi ljudi trebalo biti na svijetu?
02:58
And it's a sortvrsta of choiceizbor we have to make.
41
160000
3000
A to je neka vrsta izbora kojeg moramo napraviti.
03:01
MostVećina people are about 60 inchesinča highvisok or more,
42
163000
3000
Većina ljudi visoka je oko 60 inča ( 152.4 cm) ili više,
03:04
and there's these cubekocka lawszakoni. So if you make them this bigvelika,
43
166000
4000
a postoje takozvani kubični zakoni. Tako da ako ih napravite ovako velikima
03:08
by usingkoristeći nanotechnologynanotehnologija, I supposepretpostaviti --
44
170000
3000
koristeći nanotehnologiju, pretpostavljam --
03:11
(LaughterSmijeh)
45
173000
1000
(Smijeh)
03:12
-- then you could have a thousandtisuću timesputa as manymnogi.
46
174000
2000
-- tada ih možete imati tisuću puta više.
03:14
That would solveriješiti the problemproblem, but I don't see anybodyiko
47
176000
2000
To bi riješilo problem, ali nisam primjetio da se itko
03:16
doing any researchistraživanje on makingizrađivanje people smallermanji.
48
178000
3000
bavi pitanjem smanjivanja ljudi.
03:19
Now, it's nicelijepo to reducesmanjiti the populationpopulacija, but a lot of people want to have childrendjeca.
49
181000
5000
Zgodno bi bilo smanjiti stanovništvo, međutim mnogi ljudi žele imati djecu.
03:24
And there's one solutionriješenje that's probablyvjerojatno only a fewnekoliko yearsgodina off.
50
186000
3000
Postoji jedno rješenje koje bi moglo naići za nekoliko godina.
03:27
You know you have 46 chromosomeskromosomi. If you're luckysretan, you've got 23
51
189000
5000
Znate da posjedujete 46 kromosoma. Ako ste imali sreće, imate po 23
03:32
from eachsvaki parentroditelj. SometimesPonekad you get an extraekstra one or droppad one out,
52
194000
6000
od svakog roditelja. Ponekad dobijete jedan viška ili ispustite jedan,
03:38
but -- so you can skippreskočiti the grandparentDjed i baka and great-grandparentpradjeda ili prabake stagefaza
53
200000
4000
ali -- tako da možete preskočiti faze praroditelja i šukunbaka i šukundjedova
03:42
and go right to the great-great-grandparentveliki veliki djed. And you have 46 people
54
204000
5000
te prijeći na još stariju generaciju. I zatim imate 46 ljudi
03:47
and you give them a scannerskener, or whateveršto god you need,
55
209000
3000
i date ima skener, ili što god vam je potrebno,
03:50
and they look at theirnjihov chromosomeskromosomi and eachsvaki of them sayskaže
56
212000
4000
oni potom mogu gledati svoje kromosome te svaki od njih može odlučiti
03:54
whichkoji one he likessviđa bestnajbolje, or she -- no reasonrazlog to have just two sexesspola
57
216000
5000
koji im se sviđa najviše, on ili ona -- nema više čak ni razloga za postojanjem
03:59
any more, even. So eachsvaki childdijete has 46 parentsroditelji,
58
221000
5000
samo dva spola. Tako da svako dijete ima 46 roditelja,
04:04
and I supposepretpostaviti you could let eachsvaki groupskupina of 46 parentsroditelji have 15 childrendjeca.
59
226000
6000
i pretpostavljam da možete dopustiti da svaka grupa od 46 roditelja ima po 15 djece.
04:10
Wouldn'tNe bi that be enoughdovoljno? And then the childrendjeca
60
232000
2000
Ne bi li to bilo dovoljno? I tada bi djeca
04:12
would get plentymnogo of supportpodrška, and nurturingnjegovanje, and mentoringmentorstvo,
61
234000
4000
dobivala dovoljno potpore, njegovanja i mentorstva,
04:16
and the worldsvijet populationpopulacija would declineodbiti very rapidlybrzo
62
238000
2000
dok bi stanovništvo svijeta vrlo brzo opalo
04:18
and everybodysvi would be totallypotpuno happysretan.
63
240000
3000
te bi svi bili potpuno sretni.
04:21
TimesharingTimesharing is a little furtherunaprijediti off in the futurebudućnost.
64
243000
3000
Dijeljenje vremena međutim nalazi se malo dalje u budućnosti.
04:24
And there's this great novelroman that ArthurArthur ClarkeClarke wrotenapisao twicedvaput,
65
246000
3000
Postoji jedan odličan roman koji je Arthur Clarke napisao dva puta,
04:27
calledzvao "AgainstProtiv the FallJesen of Night" and "The CityGrad and the StarsZvijezde."
66
249000
4000
zove se “ Ka spuštanju noći” te “ Grad i zvijezde.”
04:31
They're bothoba wonderfulpredivan and largelyu velikoj mjeri the sameisti,
67
253000
3000
Oba su divna i većinom ista,
04:34
exceptosim that computersračunala happeneddogodilo in betweenizmeđu.
68
256000
2000
osim što su se u međuvremenu pojavila računala.
04:36
And ArthurArthur was looking at this oldstar bookrezervirati, and he said, "Well, that was wrongpogrešno.
69
258000
5000
I Arthur je pogledao ovu stariju knjigu i rekao: “Pa, ovo je pogrešno.
04:41
The futurebudućnost mustmora have some computersračunala."
70
263000
2000
U budućnosti moraju postojati neka računala. “
04:43
So in the seconddrugi versionverzija of it, there are 100 billionmilijardi
71
265000
5000
Tako da u drugoj verziji knjige postoji oko 100 ili
04:48
or 1,000 billionmilijardi people on EarthZemlja, but they're all storedpohranjene on hardteško disksdiskovi or floppiesdisketa,
72
270000
8000
1.000 milijardi ljudi na Zemlji, međutim svi su pohranjeni na hard diskovima ili flopijima
04:56
or whateveršto god they have in the futurebudućnost.
73
278000
2000
ili štogod oni imaju u budućnosti.
04:58
And you let a fewnekoliko millionmilijuna of them out at a time.
74
280000
4000
I pušta se samo nekoliko milijuna ljudi van.
05:02
A personosoba comesdolazi out, they liveživjeti for a thousandtisuću yearsgodina
75
284000
4000
Osoba izađe, živi tisuću godina
05:06
doing whateveršto god they do, and then, when it's time to go back
76
288000
6000
radeći što god inače osobe rade, i tada je vrijeme da se vrati natrag
05:12
for a billionmilijardi yearsgodina -- or a millionmilijuna, I forgetzaboraviti, the numbersbrojevi don't matterstvar --
77
294000
4000
na milijardu godina -- ili milijun, zaboravio sam, brojke nisu važne --
05:16
but there really aren'tnisu very manymnogi people on EarthZemlja at a time.
78
298000
4000
ali nema previše ljudi na Zemlji istovremeno.
05:20
And you get to think about yourselfsami and your memoriessjećanja,
79
302000
2000
Ljudi počnu razmišljati o sebi i svojim uspomenama,
05:22
and before you go back into suspensionsuspenzija, you editUredi your memoriessjećanja
80
304000
5000
i prije nego se vrate na pohranu, mogu urediti svoje uspomene
05:27
and you changepromijeniti your personalityosoba and so forthdalje.
81
309000
3000
i promijeniti svoju osobnost i tako dalje.
05:30
The plotzemljište of the bookrezervirati is that there's not enoughdovoljno diversityraznovrsnost,
82
312000
6000
Radnja knjige vrti se oko toga da ne postoji dovoljno različitosti,
05:36
so that the people who designedkonstruiran the cityGrad
83
318000
3000
tako da se ljudi koji su stvorili grad
05:39
make sure that everysvaki now and then an entirelypotpuno newnovi personosoba is createdstvorio.
84
321000
4000
pobrinu da se svako toliko stvori posve nova osoba.
05:43
And in the novelroman, a particularposebno one namedpod nazivom AlvinAlvin is createdstvorio. And he sayskaže,
85
325000
6000
U romanu je stvoren pojedinac Alvin, koji pomisli da to
05:49
maybe this isn't the bestnajbolje way, and wrecksolupine the wholečitav systemsistem.
86
331000
4000
možda i nije najbolji način te uništi cijeli taj sustav.
05:53
I don't think the solutionsrješenja that I proposedzaprosio
87
335000
2000
Ne mislim da su rješenja koja sam predložio
05:55
are good enoughdovoljno or smartpametan enoughdovoljno.
88
337000
3000
dovoljno dobra ili pametna.
05:58
I think the bigvelika problemproblem is that we're not smartpametan enoughdovoljno
89
340000
4000
Mislim da je velik problem u tome što nismo dovoljno pametni
06:02
to understandrazumjeti whichkoji of the problemsproblemi we're facingokrenut are good enoughdovoljno.
90
344000
4000
da shvatimo koji su od problema s kojima se suočavamo dovoljno dobri.
06:06
ThereforeStoga, we have to buildizgraditi supersuper intelligentinteligentan machinesstrojevi like HALHAL.
91
348000
4000
Zbog toga moramo sagraditi super inteligentne strojeve poput HAL-a.
06:10
As you rememberzapamtiti, at some pointtočka in the bookrezervirati for "2001,"
92
352000
5000
Kao što se sjećate, u jednom trenutku u knjizi “2001”,
06:15
HALHAL realizesshvaća that the universesvemir is too bigvelika, and grandveličanstven, and profounddubok
93
357000
5000
HAL uviđa da je svemir prevelik i veličanstven i produhovljen
06:20
for those really stupidglup astronautsastronauti. If you contrastkontrast HAL'sHAL je behaviorponašanje
94
362000
4000
za te glupe astronaute. Ako usporedite HAL-ovo ponašanje
06:24
with the trivialitysitnica of the people on the spaceshipsvemirski brod,
95
366000
4000
s trivijalnošću ljudi na svemirskom brodu,
06:28
you can see what's writtennapisan betweenizmeđu the lineslinije.
96
370000
3000
možete vidjeti što je napisano između redova.
06:31
Well, what are we going to do about that? We could get smarterpametnije.
97
373000
3000
Što ćemo učiniti u vezi toga? Možemo postati pametniji.
06:34
I think that we're prettyprilično smartpametan, as comparedu odnosu to chimpanzeesčimpanze,
98
376000
5000
Mislim da smo poprilično pametni u usporedbi s čimpanzama,
06:39
but we're not smartpametan enoughdovoljno to dealdogovor with the colossalKolosalni problemsproblemi that we facelice,
99
381000
6000
ali nismo dovoljno pametni kako bismo se nosili s ogromnim problemima s kojim se suočavamo,
06:45
eitherili in abstractsažetak mathematicsmatematika
100
387000
2000
bilo to u apstraktnoj matematici
06:47
or in figuringfiguring out economiesekonomija, or balancingbalansiranje the worldsvijet around.
101
389000
5000
ili shvaćanju ekonomije ili u održavanju svijeta u ravnoteži.
06:52
So one thing we can do is liveživjeti longerviše.
102
394000
3000
Jedna od stvari koje možemo učiniti jest da živimo duže.
06:55
And nobodynitko knowszna how hardteško that is,
103
397000
2000
Nitko ne zna koliko je to teško,
06:57
but we'lldobro probablyvjerojatno find out in a fewnekoliko yearsgodina.
104
399000
3000
ali vjerojatno ćemo doznati za nekoliko godina.
07:00
You see, there's two forksvilice in the roadcesta. We know that people liveživjeti
105
402000
3000
Kao što vidite, postoje dvije prepreke na putu. Znamo da ljudi žive
07:03
twicedvaput as long as chimpanzeesčimpanze almostskoro,
106
405000
4000
gotovo dvostruko duže od čimpanzi,
07:07
and nobodynitko livesživot more than 120 yearsgodina,
107
409000
4000
a nitko ne živi duže od 120 godina
07:11
for reasonsrazlozi that aren'tnisu very well understoodrazumjeti.
108
413000
3000
zbog razloga koji nisu posve shvaćeni.
07:14
But lots of people now liveživjeti to 90 or 100,
109
416000
3000
Ali mnogo ljudi danas živi 90 ili 100 godina,
07:17
unlessosim ako they shaketresti handsruke too much or something like that.
110
419000
4000
osim ako se ne rukuju previše ili tako nešto.
07:21
And so maybe if we livedživjeli 200 yearsgodina, we could accumulateakumulirati enoughdovoljno skillsvještine
111
423000
5000
Tako da ako bismo živjeli 200 godina , mogli bismo skupiti dovoljno vještina
07:26
and knowledgeznanje to solveriješiti some problemsproblemi.
112
428000
5000
i znanja kako bismo riješili neke probleme.
07:31
So that's one way of going about it.
113
433000
2000
To je dakle jedan način kako tome pristupiti.
07:33
And as I said, we don't know how hardteško that is. It mightmoć be --
114
435000
3000
I kao što sam rekao, ne znamo koliko je to teško. Moguće je --
07:36
after all, mostnajviše other mammalssisavci liveživjeti halfpola as long as the chimpanzeečimpanza,
115
438000
6000
na kraju krajeva, većina drugih sisavaca živi dvostruko kraće od čimpanzi,
07:42
so we're sortvrsta of threetri and a halfpola or fourčetiri timesputa, have fourčetiri timesputa
116
444000
3000
tako da mi živimo tri i pol ili četiri puta duže, imamo četiri puta
07:45
the longevitydugovječnost of mostnajviše mammalssisavci. And in the casespis of the primatesprimati,
117
447000
6000
duži životni vijek od većine sisavaca. A u slučaju primata,
07:51
we have almostskoro the sameisti genesgeni. We only differrazlikuju from chimpanzeesčimpanze,
118
453000
4000
imamo gotovo iste gene. Razlikujemo se od čimpanza ,
07:55
in the presentpredstaviti statedržava of knowledgeznanje, whichkoji is absoluteapsolutan hogwashglupost,
119
457000
6000
po trenutnom saznanju, što je potpuna HOGWASH,
08:01
maybe by just a fewnekoliko hundredstotina genesgeni.
120
463000
2000
možda samo po nekoliko stotina gena.
08:03
What I think is that the genegen countersbrojila don't know what they're doing yetjoš.
121
465000
3000
Ono što ja mislim jest da brojači gena još uvijek ne znaju što rade.
08:06
And whateveršto god you do, don't readčitati anything about geneticsgenetika
122
468000
3000
I štogod učinili, nemojte nikada čitati bilo što o genetici
08:09
that's publishedObjavljeno withinunutar your lifetimedoživotno, or something.
123
471000
3000
što je izdano tijekom vašeg života ili slično.
08:12
(LaughterSmijeh)
124
474000
3000
(Smijeh)
08:15
The stuffstvari has a very shortkratak half-lifeHalf-Life, sameisti with brainmozak scienceznanost.
125
477000
4000
Sve to ima vrlo kratak poluživot, isto je sa znanošću mozga.
08:19
And so it mightmoć be that if we just fixpopraviti fourčetiri or fivepet genesgeni,
126
481000
6000
Tako da je moguće da ako promijenimo samo četiri ili pet gena,
08:25
we can liveživjeti 200 yearsgodina.
127
487000
2000
mogli bismo živjeti 200 godina.
08:27
Or it mightmoć be that it's just 30 or 40,
128
489000
3000
Ili je moguće da je stvar u 30 ili 40 gena,
08:30
and I doubtsumnjati that it's severalnekoliko hundredstotina.
129
492000
2000
a sumnjam da se radi o nekoliko stotina.
08:32
So this is something that people will be discussingraspravlja
130
494000
4000
To je nešto o čemu će raspravljati ljudi
08:36
and lots of ethicistsetičare -- you know, an ethicistetičar is somebodyneko
131
498000
3000
i puno etičara -- znate, etičar je osoba
08:39
who seesvidi something wrongpogrešno with whateveršto god you have in mindum.
132
501000
3000
koja vidi nešto pogrešno u svemu što vam padne na pamet.
08:42
(LaughterSmijeh)
133
504000
3000
(Smijeh)
08:45
And it's very hardteško to find an ethicistetičar who considerssmatra any changepromijeniti
134
507000
4000
Vrlo je teško pronaći etičara koji smatra da je vrijedno učiniti bilo kakvu promjenu,
08:49
worthvrijedan makingizrađivanje, because he sayskaže, what about the consequencesposljedice?
135
511000
4000
zato što će reći: “A što je s posljedicama?”
08:53
And, of coursenaravno, we're not responsibleodgovoran for the consequencesposljedice
136
515000
3000
A naravno, nismo odgovorni za posljedice
08:56
of what we're doing now, are we? Like all this complaintPrigovor about clonesklonovi.
137
518000
6000
onoga što sada činimo? Svi ovo prigovori oko kloniranja na primjer.
09:02
And yetjoš two randomslučajan people will matemat u šahu and have this childdijete,
138
524000
3000
A ipak, dvoje nasumičnih ljudi spojit će se i imati dijete,
09:05
and bothoba of them have some prettyprilično rottenpokvareni genesgeni,
139
527000
4000
i oboje imaju poprilično loše gene
09:09
and the childdijete is likelyVjerojatno to come out to be averageprosječan.
140
531000
4000
i dijete će vrlo vjerojatno ispasti prosječno.
09:13
WhichKoji, by chimpanzeečimpanza standardsstandardi, is very good indeeddoista.
141
535000
6000
Što je po standardima čimpanzi, zapravo vrlo dobro.
09:19
If we do have longevitydugovječnost, then we'lldobro have to facelice the populationpopulacija growthrast
142
541000
3000
Ako posjedujemo dug životni vijek svejedno ćemo se morati suočiti
09:22
problemproblem anywayu svakom slučaju. Because if people liveživjeti 200 or 1,000 yearsgodina,
143
544000
4000
s rastom stanovništva. Ako ljudi žive 200 ili 1.000 godina,
09:26
then we can't let them have a childdijete more than about oncejednom everysvaki 200 or 1,000 yearsgodina.
144
548000
6000
ne možemo im dopustiti da imaju dijete više od jednom svakih 200 ili 1.000 godina.
09:32
And so there won'tnavika be any workforceradna snaga.
145
554000
3000
Tako da neće biti dovoljno radne snage.
09:35
And one of the things LaurieLaurie GarrettGarrett pointedšiljast out, and othersdrugi have,
146
557000
4000
Jedna od stvari koje su Laurie Garret i drugi ljudi istaknuli
09:39
is that a societydruštvo that doesn't have people
147
561000
5000
jest da je društvo bez ljudi
09:44
of workingrad agedob is in realstvaran troublenevolja. And things are going to get worsegore,
148
566000
3000
u radnoj dobi u pravoj nevolji. A stvari će se pogoršavati
09:47
because there's nobodynitko to educateobrazovati the childrendjeca or to feedstočna hrana the oldstar.
149
569000
6000
jer neće biti koga da obrazuje djecu ili nahrani stare.
09:53
And when I'm talkingkoji govori about a long lifetimedoživotno, of coursenaravno,
150
575000
2000
I kada govorim o dugom životnom vijeku,
09:55
I don't want somebodyneko who'stko je 200 yearsgodina oldstar to be like our imageslika
151
577000
6000
ne želim da netko tko je 200 godina star bude poput naše vizije
10:01
of what a 200-year-old-godinu star is -- whichkoji is deadmrtav, actuallyzapravo.
152
583000
4000
200-godišnjaka -- što je mrtav, zapravo.
10:05
You know, there's about 400 differentdrugačiji partsdijelovi of the brainmozak
153
587000
2000
Znate, postoji oko 400 različitih dijelova mozga
10:07
whichkoji seemčiniti se to have differentdrugačiji functionsfunkcije.
154
589000
2000
koji svi imaju drugačije funkcije.
10:09
NobodyNitko ne knowszna how mostnajviše of them work in detaildetalj,
155
591000
3000
Nitko ne zna u pojedinost kako većina njih radi,
10:12
but we do know that there'retu si lots of differentdrugačiji things in there.
156
594000
4000
ali znamo da postoji mnoštvo različitih stvari u mozgu.
10:16
And they don't always work togetherzajedno. I like Freud'sFreud theoryteorija
157
598000
2000
A one ne rade uvijek zajedno. Sviđa mi se Freudova teorija
10:18
that mostnajviše of them are cancellingOtkazivanje eachsvaki other out.
158
600000
4000
da se one međusobno isključuju.
10:22
And so if you think of yourselfsami as a sortvrsta of cityGrad
159
604000
4000
Tako da ako razmišljate o sebi kao o gradu
10:26
with a hundredstotina resourcesresursi, then, when you're afraiduplašen, for exampleprimjer,
160
608000
6000
sa stotinu izvora, tada ako ste uplašeni na primjer,
10:32
you maysvibanj discardodbaciti your long-rangedalekometni goalsciljevi, but you maysvibanj think deeplyduboko
161
614000
4000
moguće je da ćete odbaciti svoje dugoročne ciljeve, ali ćete razmišljati duboko
10:36
and focusfokus on exactlytočno how to achievepostići that particularposebno goalcilj.
162
618000
4000
i usredotočiti se na to kako postići jedan određeni cilj.
10:40
You throwbacanje everything elsedrugo away. You becomepostati a monomaniacmonoman --
163
622000
3000
Sve ostalo ćete odbaciti. Postajete monomanijak --
10:43
all you carebriga about is not steppingkoračni out on that platformplatforma.
164
625000
4000
sve o čemu se brinete jest da riješite taj određeni problem.
10:47
And when you're hungrygladan, foodhrana becomespostaje more attractiveatraktivan, and so forthdalje.
165
629000
4000
Također, kada ste gladni hrana postaje privlačnija, itd.
10:51
So I see emotionsemocije as highlyvisoko evolvedrazvio subsetspodskupina of your capabilitysposobnost.
166
633000
6000
Tako da ja vidim osjećaje kao visoko razvijene podvrste vaših sposobnosti.
10:57
EmotionEmocija is not something addeddodano to thought. An emotionalemotivan statedržava
167
639000
4000
Osjećaj nije nešto što je nadodano na misao. Osjećajno stanje
11:01
is what you get when you removeukloniti 100 or 200
168
643000
4000
jest ono što dobijete kada uklonite 100 ili 200
11:05
of your normallynormalno availabledostupno resourcesresursi.
169
647000
3000
vaših uobičajenih izvora.
11:08
So thinkingmišljenje of emotionsemocije as the oppositesuprotan of -- as something
170
650000
3000
Razmišljati o osjećajima kao o suprotnosti -- kao o nečemu
11:11
lessmanje than thinkingmišljenje is immenselyneizmjerno productiveproduktivan. And I hopenada,
171
653000
4000
manjem od razmišljanja je neizmjerno korisno. Nadam se
11:15
in the nextSljedeći fewnekoliko yearsgodina, to showpokazati that this will leaddovesti to smartpametan machinesstrojevi.
172
657000
4000
da će ovo za nekoliko godina dovesti do pametnih strojeva.
11:19
And I guessnagađati I better skippreskočiti all the restodmor of this, whichkoji are some detailsdetalji
173
661000
3000
I pretpostavljam da je bolje da preskočim ostatak ovoga, što su neki detalji
11:22
on how we mightmoć make those smartpametan machinesstrojevi and --
174
664000
5000
o tome kako da sagradimo te pametne strojeve --
11:27
(LaughterSmijeh)
175
669000
5000
(Smijeh)
11:32
-- and the mainglavni ideaideja is in factčinjenica that the coresrž of a really smartpametan machinemašina
176
674000
5000
-- i glavna ideja jest da je srž doista pametnog stroja
11:37
is one that recognizesprepoznaje that a certainsiguran kindljubazan of problemproblem is facingokrenut you.
177
679000
5000
u tome da može prepoznati određenu vrstu problema s kojim se suočavamo.
11:42
This is a problemproblem of suchtakav and suchtakav a typetip,
178
684000
3000
Ovo je problem te i te vrste,
11:45
and thereforestoga there's a certainsiguran way or waysnačine of thinkingmišljenje
179
687000
5000
tako da postoji određeni način ili načini razmišljanja
11:50
that are good for that problemproblem.
180
692000
2000
koji su pogodni za ovakav problem.
11:52
So I think the futurebudućnost, mainglavni problemproblem of psychologyPsihologija is to classifyrazvrstati
181
694000
4000
Tako da mislim da će u budućnosti glavni problem u psihologiji biti svrstati
11:56
typesvrste of predicamentspredicaments, typesvrste of situationssituacije, typesvrste of obstaclesprepreke
182
698000
4000
vrste preduvjeta, vrste situacija i prepreka
12:00
and alsotakođer to classifyrazvrstati availabledostupno and possiblemoguće waysnačine to think and pairpar them up.
183
702000
6000
te također razvrstati dostupne i moguće načine razmišljanja te ih spariti.
12:06
So you see, it's almostskoro like a PavlovianPavlovian --
184
708000
3000
To je gotovo poput uvjetovanja --
12:09
we lostizgubljen the first hundredstotina yearsgodina of psychologyPsihologija
185
711000
2000
izgubili smo prvih stotinu godina psihologije
12:11
by really trivialtrivijalno theoriesteorije, where you say,
186
713000
3000
na vrlo trivijalne teorije gdje se raspravlja o tome
12:14
how do people learnnaučiti how to reactreagirati to a situationsituacija? What I'm sayingizreka is,
187
716000
6000
kako ljudi reagiraju na određene situacije. Ono što govorim jest da
12:20
after we go throughkroz a lot of levelsrazina, includinguključujući designingprojektiranje
188
722000
5000
nakon što prođemo kroz mnoštvo razina, uključujući stvaranje
12:25
a hugeogroman, messyu neredu systemsistem with thousandstisuća of portsluka,
189
727000
3000
ogromnog neurednog sustava s tisuću ulaza,
12:28
we'lldobro endkraj up again with the centralsredišnji problemproblem of psychologyPsihologija.
190
730000
4000
opet ćemo se naći pred središnjim problemom psihologije.
12:32
SayingIzreka, not what are the situationssituacije,
191
734000
3000
Govoriti ne o tome kakve su situacije
12:35
but what are the kindsvrste of problemsproblemi
192
737000
2000
već kakvi su problemi
12:37
and what are the kindsvrste of strategiesstrategije, how do you learnnaučiti them,
193
739000
3000
i strategije, kako ih naučiti,
12:40
how do you connectSpojiti them up, how does a really creativekreativan personosoba
194
742000
3000
kako ih povezivati, kako doista kreativna osoba
12:43
inventizumiti a newnovi way of thinkingmišljenje out of the availabledostupno resourcesresursi and so forthdalje.
195
745000
5000
može izmisliti nov način razmišljanja iz već dostupnih izvora i tako dalje.
12:48
So, I think in the nextSljedeći 20 yearsgodina,
196
750000
2000
Mislim da se u idućih 20 godina
12:50
if we can get ridosloboditi of all of the traditionaltradicionalan approachespristupi to artificialUmjetna intelligenceinteligencija,
197
752000
5000
možemo riješiti svih tradicionalnih pristupa umjetnoj inteligenciji
12:55
like neuralživčani netsmreže and geneticgenetski algorithmsalgoritmi
198
757000
2000
kao što su neuralne mreže i genetski algoritmi
12:57
and rule-basedna temelju pravila systemssustavi, and just turnskretanje our sightsznamenitosti a little bitbit higherviši to say,
199
759000
6000
i sustavi upravljani pravilima te samo postaviti naš pogled malo više
13:03
can we make a systemsistem that can use all those things
200
765000
2000
kako bismo uvidjeli možemo li razviti sustav koji može koristiti sve te stvari
13:05
for the right kindljubazan of problemproblem? Some problemsproblemi are good for neuralživčani netsmreže;
201
767000
4000
za pravu vrstu problema. Neki problemi su dobri za neuralne mreže;
13:09
we know that othersdrugi, neuralživčani netsmreže are hopelessbeznadan on them.
202
771000
3000
znamo da su neuralne mreže beskorisne za neke druge.
13:12
GeneticGenetski algorithmsalgoritmi are great for certainsiguran things;
203
774000
3000
Genetski algoritmi su odlični za određene stvari;
13:15
I suspectsumnjiv I know what they're badloše at, and I won'tnavika tell you.
204
777000
4000
pretpostavljam da znam za što su loši, ali vam neću reći.
13:19
(LaughterSmijeh)
205
781000
1000
(Smijeh)
13:20
Thank you.
206
782000
2000
Hvala.
13:22
(ApplausePljesak)
207
784000
6000
(Pljesak)
Translated by Senzos Osijek
Reviewed by Tilen Pigac - EFZG

▲Back to top

ABOUT THE SPEAKER
Marvin Minsky - AI pioneer
Marvin Minsky is one of the great pioneers of artificial intelligence -- and using computing metaphors to understand the human mind. His contributions to mathematics, robotics and computational linguistics are legendary and far-reaching.

Why you should listen

Marvin Minsky is the superstar-elder of artificial intelligence, one of the most productive and important cognitive scientists of the century, and the leading proponent of the Society of Mind theory. Articulated in his 1985 book of the same name, Minsky's theory says intelligence is not born of any single mechanism, but from the interaction of many independent agents. The book's sequel,The Emotion Machine (2006), says similar activity also accounts for feelings, goals, emotions and conscious thoughts.

Minsky also pioneered advances in mathematics, computational linguistics, optics, robotics and telepresence. He built SNARC, the first neural network simulator, some of the first visual scanners, and the first LOGO "turtle." From his headquarters at MIT's Media Lab and the AI Lab (which he helped found), he continues to work on, as he says, "imparting to machines the human capacity for commonsense reasoning."

More profile about the speaker
Marvin Minsky | Speaker | TED.com