ABOUT THE SPEAKER
Marvin Minsky - AI pioneer
Marvin Minsky is one of the great pioneers of artificial intelligence -- and using computing metaphors to understand the human mind. His contributions to mathematics, robotics and computational linguistics are legendary and far-reaching.

Why you should listen

Marvin Minsky is the superstar-elder of artificial intelligence, one of the most productive and important cognitive scientists of the century, and the leading proponent of the Society of Mind theory. Articulated in his 1985 book of the same name, Minsky's theory says intelligence is not born of any single mechanism, but from the interaction of many independent agents. The book's sequel,The Emotion Machine (2006), says similar activity also accounts for feelings, goals, emotions and conscious thoughts.

Minsky also pioneered advances in mathematics, computational linguistics, optics, robotics and telepresence. He built SNARC, the first neural network simulator, some of the first visual scanners, and the first LOGO "turtle." From his headquarters at MIT's Media Lab and the AI Lab (which he helped found), he continues to work on, as he says, "imparting to machines the human capacity for commonsense reasoning."

More profile about the speaker
Marvin Minsky | Speaker | TED.com
TED2003

Marvin Minsky: Health and the human mind

Marvin Minsky despre sănătate şi mintea umană

Filmed:
606,909 views

Ascultaţi cu atenţie - discursul extraordinar, eclectic, şarmant, improvizat al lui Marvin Minsky despre sănătate, suprapopulare şi mintea umană este încărcat de subtilităţi: umor, înţelepciune şi doar o urmă de sfat, glumește? șiret.
- AI pioneer
Marvin Minsky is one of the great pioneers of artificial intelligence -- and using computing metaphors to understand the human mind. His contributions to mathematics, robotics and computational linguistics are legendary and far-reaching. Full bio

Double-click the English transcript below to play the video.

00:18
If you askcere people about what partparte of psychologyPsihologie do they think is hardgreu,
0
0
6000
Dacă întrebaţi oamenii ce parte a psihologiei o consideră dificilă
00:24
and you say, "Well, what about thinkinggândire and emotionsemoții?"
1
6000
3000
și le daţi de ales, spre exemplu, între gândire şi emoţie,
00:27
MostCele mai multe people will say, "EmotionsEmoţiile are terriblyteribil hardgreu.
2
9000
3000
majoritatea vor spune "Emoţiile sunt extrem de dificile.
00:30
They're incrediblyincredibil complexcomplex. They can't -- I have no ideaidee of how they work.
3
12000
6000
Sunt incredibil de complexe, nu pot...habar n-am cum funcţionează.
00:36
But thinkinggândire is really very straightforwardsimplu:
4
18000
2000
Dar a gândi e o chestiune de-a dreptul clară:
00:38
it's just sortfel of some kinddrăguț of logicallogic reasoningraţionament, or something.
5
20000
4000
e vorba de raționamnet logic sau așa ceva.
00:42
But that's not the hardgreu partparte."
6
24000
3000
Dar asta nu e partea dificilă."
00:45
So here'saici e a listlistă of problemsProbleme that come up.
7
27000
2000
Aşa că iată o listă de probleme care apar.
00:47
One nicefrumos problemproblemă is, what do we do about healthsănătate?
8
29000
3000
O problemă drăguţă este: ce facem în privinţa sănătăţii?
00:50
The other day, I was readingcitind something, and the personpersoană said
9
32000
4000
Zilele trecute citeam ceva, iar autorul spunea
00:54
probablyprobabil the largestcea mai mare singlesingur causecauza of diseaseboală is handshakinghandshaking in the WestWest.
10
36000
6000
că probabil singura cea mai răspândită cauză pentru boală în Vest este strângerea de mână.
01:00
And there was a little studystudiu about people who don't handshakestrângere de mână,
11
42000
4000
Şi era un mic studiu despre oamenii care nu dau mâna,
01:04
and comparingcompararea them with onescele who do handshakestrângere de mână.
12
46000
3000
comparaţi cu cei care dau mâna,
01:07
And I haven'tnu au the foggiestfoggiest ideaidee of where you find the onescele that don't handshakestrângere de mână,
13
49000
5000
şi n-am nici cea mai vagă idee unde îi găseşti pe cei ce nu dau mâna,
01:12
because they musttrebuie sa be hidingAscunderea.
14
54000
3000
pentru că probabil se ascund.
01:15
And the people who avoidevita that
15
57000
4000
Iar persoanele care evită asta
01:19
have 30 percentla sută lessMai puțin infectiousinfecţioase diseaseboală or something.
16
61000
4000
au cu 30 la sută mai puţine boli infecţioase sau ceva de genul ăsta.
01:23
Or maybe it was 31 and a quartersfert percentla sută.
17
65000
3000
Sau poate că era 31.25%.
01:26
So if you really want to solverezolva the problemproblemă of epidemicsepidemii and so forthmai departe,
18
68000
4000
Aşa că dacă vrem cu adevărat să rezolvăm problema epidemiilor şi aşa mai departe,
01:30
let's startstart with that. And sincede cand I got that ideaidee,
19
72000
4000
hai să începem cu asta. Şi de când mi-a venit această idee,
01:34
I've had to shakescutura hundredssute of handsmâini.
20
76000
4000
a trebuit să strâng sute de mâini.
01:38
And I think the only way to avoidevita it
21
80000
5000
Şi cred că singura cale de a evita asta
01:43
is to have some horribleoribil visiblevizibil diseaseboală,
22
85000
2000
e să ai o boală vizibilă îngrozitoare,
01:45
and then you don't have to explainexplica.
23
87000
3000
şi atunci nu trebuie să mai dai explicaţii.
01:48
EducationEducaţie: how do we improveîmbunătăţi educationeducaţie?
24
90000
4000
Educaţia: cum putem îmbunătăţi educaţia?
01:52
Well, the singlesingur bestCel mai bun way is to get them to understanda intelege
25
94000
4000
Ei bine, cea mai bună cale este de a-i face să înţeleagă
01:56
that what they're beingfiind told is a wholeîntreg lot of nonsenseProstii.
26
98000
3000
că ceea ce li se spune e de fapt o grămadă de prostii.
01:59
And then, of coursecurs, you have to do something
27
101000
2000
şi apoi, bineînţeles, trebuie să faci ceva
02:01
about how to moderatemoderat that, so that anybodycineva can -- so they'llei vor listen to you.
28
103000
5000
despre cum se accesează asta pentru ca oricine să poată asculta.
02:06
PollutionPoluarea, energyenergie shortagepula, environmentalde mediu diversitydiversitate, povertysărăcie.
29
108000
4000
Poluarea, criza de energie, diversitatea mediului, sărăcia --
02:10
How do we make stablegrajd societiessocietățile? LongevityLongevitatea.
30
112000
4000
cum putem creea societăţi stabile? Longevitate.
02:14
Okay, there'reacolo sunt lots of problemsProbleme to worryface griji about.
31
116000
3000
Ok, sunt multe probleme de care să ne îngrijorăm.
02:17
AnywayOricum, the questionîntrebare I think people should talk about --
32
119000
2000
Oricum, întrebarea despre care cred că ar trebui să discute oamenii --
02:19
and it's absolutelyabsolut tabootabu -- is, how manymulți people should there be?
33
121000
5000
şi e un tabu absolut - este: câţi oameni ar trebui să fie?
02:24
And I think it should be about 100 millionmilion or maybe 500 millionmilion.
34
126000
7000
Iar eu cred că ar trebui să fie 100 de milioane sau poate 500 de milioane.
02:31
And then noticeînștiințare that a great manymulți of these problemsProbleme disappeardispărea.
35
133000
5000
Şi apoi observaţi cum multe din aceste probleme dispar.
02:36
If you had 100 millionmilion people
36
138000
2000
Dacă ar fi 100 de milioane de oameni
02:38
properlycum se cuvine spreadrăspândire out, then if there's some garbagegunoi,
37
140000
6000
răspândiți adecvat, atunci, dacă e ceva gunoi,
02:44
you throwarunca it away, preferablypreferabil where you can't see it, and it will rotputregai.
38
146000
7000
îl arunci, preferabil undeva unde nu îl poţi vedea, şi se va descompune.
02:51
Or you throwarunca it into the oceanocean and some fishpeşte will benefitbeneficiu from it.
39
153000
5000
Sau îl arunci în ocean şi niște peşti vor beneficia de el.
02:56
The problemproblemă is, how manymulți people should there be?
40
158000
2000
Problema este, câţi oameni ar trebui să fie?
02:58
And it's a sortfel of choicealegere we have to make.
41
160000
3000
Şi e un fel de alegere pe care trebuie să o facem.
03:01
MostCele mai multe people are about 60 inchesinch highînalt or more,
42
163000
3000
Majoritatea oamenilor au cam 60 de inchi (1.5m) sau mai mult,
03:04
and there's these cubecub lawslegii. So if you make them this bigmare,
43
166000
4000
și e această pierdere la cub. Deci dacă îi faci atât de mici --
03:08
by usingutilizând nanotechnologynanotehnologie, I supposepresupune --
44
170000
3000
cu ajutorul nanotehnologiei, presupun --
03:11
(LaughterRâs)
45
173000
1000
(Râsete)
03:12
-- then you could have a thousandmie timesori as manymulți.
46
174000
2000
- atunci ai putea avea de mii de ori mai mulţi.
03:14
That would solverezolva the problemproblemă, but I don't see anybodycineva
47
176000
2000
Asta ar putea rezolva problema, dar nu văd pe nimeni
03:16
doing any researchcercetare on makingluare people smallermai mic.
48
178000
3000
care să facă cercetare despre cum poţi face oamenii mai mici.
03:19
Now, it's nicefrumos to reducereduce the populationpopulație, but a lot of people want to have childrencopii.
49
181000
5000
Acum, ar fi frumos să reduci populaţia, dar mulţi oameni îşi doresc copii.
03:24
And there's one solutionsoluţie that's probablyprobabil only a fewpuțini yearsani off.
50
186000
3000
Şi e o soluţie care e probabil cam la câțiva ani distanță.
03:27
You know you have 46 chromosomescromozomi. If you're luckynorocos, you've got 23
51
189000
5000
Ştii că ai 46 de cromozomi. Dacă eşti norocos, ai 23
03:32
from eachfiecare parentmamă. SometimesUneori you get an extrasuplimentar one or dropcădere brusca one out,
52
194000
6000
de la fiecare părinte; uneori ai unul în plus sau în minus,
03:38
but -- so you can skipocolire the grandparentbunic and great-grandparentmare-bunic stageetapă
53
200000
4000
-- deci poţi sări stadiile de bunic sau străbunic
03:42
and go right to the great-great-grandparentmare-mare-bunic. And you have 46 people
54
204000
5000
şi trece direct la stră-stră-străbunic. Şi ai 46 de oameni
03:47
and you give them a scannerscaner, or whateverindiferent de you need,
55
209000
3000
şi le dai un scaner sau orice e nevoie,
03:50
and they look at theiral lor chromosomescromozomi and eachfiecare of them saysspune
56
212000
4000
şi se uită la cromozomii lor şi fiecare spune
03:54
whichcare one he likesîi place bestCel mai bun, or she -- no reasonmotiv to have just two sexessexe
57
216000
5000
care îi place cel mai mult lui sau ei -- nici măcar nu trebuie
03:59
any more, even. So eachfiecare childcopil has 46 parentspărinţi,
58
221000
5000
să avem doar două sexe. Deci fiecare copil are 46 de părinți,
04:04
and I supposepresupune you could let eachfiecare groupgrup of 46 parentspărinţi have 15 childrencopii.
59
226000
6000
și presupun că ai putea să lași fiecare grup de 46 de părinți să aibă 15 copii --
04:10
Wouldn'tNu s-ar that be enoughdestul? And then the childrencopii
60
232000
2000
n-ar fi suficient așa? Și apoi copiii
04:12
would get plentymulțime of supporta sustine, and nurturingcultivarea, and mentoringmentorat,
61
234000
4000
ar primi foarte mult ajutor și educație și îndrumare
04:16
and the worldlume populationpopulație would declinedeclin very rapidlyrapid
62
238000
2000
și populația globului ar scădea foarte rapid
04:18
and everybodytoata lumea would be totallyintru totul happyfericit.
63
240000
3000
și toată lumea ar fi foarte fericită.
04:21
TimesharingÎmpărţire a timpului is a little furthermai departe off in the futureviitor.
64
243000
3000
Time-sharing e un pic mai departe în viitor.
04:24
And there's this great novelroman that ArthurArthur ClarkeClarke wrotea scris twicede două ori,
65
246000
3000
Și e povestirea asta grozavă pe care Arthur Clarke a scris-o de două ori,
04:27
calleddenumit "AgainstÎmpotriva the FallToamna of Night" and "The CityCity and the StarsStele."
66
249000
4000
se cheamă "Înainte de căderea nopții" și "Orașul și stelele".
04:31
They're bothambii wonderfulminunat and largelyîn mare măsură the samela fel,
67
253000
3000
Amândouă sunt minunate și foarte asemănătoare,
04:34
exceptcu exceptia that computerscalculatoare happeneds-a întâmplat in betweenîntre.
68
256000
2000
cu excepția faptului ca între ele apar computerele.
04:36
And ArthurArthur was looking at this oldvechi bookcarte, and he said, "Well, that was wronggresit.
69
258000
5000
Și Arthur s-a uitat la cartea asta veche și a zis, ei bine, asta e greșit.
04:41
The futureviitor musttrebuie sa have some computerscalculatoare."
70
263000
2000
Viitorul trebuie să aibă niște computere.
04:43
So in the secondal doilea versionversiune of it, there are 100 billionmiliard
71
265000
5000
Așa că în versiunea a doua, sunt 100 de miliarde,
04:48
or 1,000 billionmiliard people on EarthPământ, but they're all storedstocate on hardgreu disksdiscuri or floppiesdischete,
72
270000
8000
sau 1000 de miliarde de oameni pe Pământ, dar sunt toți depozitați pe hard discuri sau dischete,
04:56
or whateverindiferent de they have in the futureviitor.
73
278000
2000
sau ce au ei acolo în viitor.
04:58
And you let a fewpuțini millionmilion of them out at a time.
74
280000
4000
Și lași afară câteva milioane din ei o dată.
05:02
A personpersoană comesvine out, they livetrăi for a thousandmie yearsani
75
284000
4000
O persoană iese afară, trăiește 1000 de ani
05:06
doing whateverindiferent de they do, and then, when it's time to go back
76
288000
6000
făcând orice fac ei, și apoi, când e timpul să meargă înapoi
05:12
for a billionmiliard yearsani -- or a millionmilion, I forgeta uita, the numbersnumerele don't mattermaterie --
77
294000
4000
pentru un miliard de ani -- sau un milion, am uitat, numerele nu contează --
05:16
but there really aren'tnu sunt very manymulți people on EarthPământ at a time.
78
298000
4000
dar nu sunt mulți oameni pe pământ în același timp.
05:20
And you get to think about yourselftu and your memoriesamintiri,
79
302000
2000
Și apuci să te gândești la tine și la amintirile tale,
05:22
and before you go back into suspensionsuspensie, you editEditați | × your memoriesamintiri
80
304000
5000
și înainte să te duci înapoi în suspensie îți editezi amintirile
05:27
and you changeSchimbare your personalitypersonalitate and so forthmai departe.
81
309000
3000
și îți schimbi personalitatea și așa mai departe.
05:30
The plotintrigă of the bookcarte is that there's not enoughdestul diversitydiversitate,
82
312000
6000
Complotul constă în faptul că nu e destulă diversitate,
05:36
so that the people who designedproiectat the cityoraș
83
318000
3000
așa că oamenii care au făcut designul orașului
05:39
make sure that everyfiecare now and then an entirelyîn întregime newnou personpersoană is createdcreată.
84
321000
4000
se asigură că din când în când e creată o persoană nouă.
05:43
And in the novelroman, a particularspecial one namednumit AlvinAlvin is createdcreată. And he saysspune,
85
325000
6000
Și în povestire, unul specific e creat, numit Alvin. Și el zice,
05:49
maybe this isn't the bestCel mai bun way, and wrecksepave the wholeîntreg systemsistem.
86
331000
4000
poate că nu e ăsta cel mai bun mod, și strică tot sistemul.
05:53
I don't think the solutionssoluţii that I proposedpropus
87
335000
2000
Nu cred că soluțiile pe care le propun
05:55
are good enoughdestul or smartinteligent enoughdestul.
88
337000
3000
sunt suficient de bune sau suficient de inteligente.
05:58
I think the bigmare problemproblemă is that we're not smartinteligent enoughdestul
89
340000
4000
Cred că marea problemă e că nu suntem suficient de inteligenți
06:02
to understanda intelege whichcare of the problemsProbleme we're facingcu care se confruntă are good enoughdestul.
90
344000
4000
ca să înțelegem care dintre problemele de care ne lovim sunt destul de bune.
06:06
ThereforePrin urmare, we have to buildconstrui supersuper intelligentinteligent machinesmaşini like HALHAL.
91
348000
4000
De aceea, trebuie să construim mașini super inteligente ca HAL.
06:10
As you remembertine minte, at some pointpunct in the bookcarte for "2001,"
92
352000
5000
Dacă vă amintiți, la un moment dat în cartea pentru 2001,
06:15
HALHAL realizesîși dă seama that the universeunivers is too bigmare, and grandmare, and profoundprofund
93
357000
5000
HAL realizează că universul e prea mare și măreț și profund
06:20
for those really stupidprost astronautsastronauti. If you contrastcontrast HAL'sHAL pe behaviorcomportament
94
362000
4000
pentru astronauții ăia proști. Dacă compari comportamentul lui HAL
06:24
with the trivialitytrivialitatea of the people on the spaceshipnava spatiala,
95
366000
4000
cu josnicia oamenilor de pe navă,
06:28
you can see what's writtenscris betweenîntre the lineslinii.
96
370000
3000
poți vedea ce e scris printre rânduri.
06:31
Well, what are we going to do about that? We could get smartermai inteligent.
97
373000
3000
Ei bine, ce putem face în legătură cu asta? Putem să devenim mai deștepți.
06:34
I think that we're prettyfrumos smartinteligent, as comparedcomparativ to chimpanzeescimpanzei,
98
376000
5000
Cred că suntem destul de deștepți, comparat cu cimpanzeii,
06:39
but we're not smartinteligent enoughdestul to dealafacere with the colossalcolosal problemsProbleme that we facefață,
99
381000
6000
dar nu suntem suficient de deștepți ca să rezolvăm problemele colosale de care ne lovim,
06:45
eitherfie in abstractabstract mathematicsmatematică
100
387000
2000
fie în matematica teoretică
06:47
or in figuringimaginind out economieseconomii, or balancingechilibrare the worldlume around.
101
389000
5000
fie în înțelegerea economiilor sau echilibrarea lumii din jur,
06:52
So one thing we can do is livetrăi longermai lung.
102
394000
3000
Deci un lucru pe care îl putem face e să trăim mai mult.
06:55
And nobodynimeni knowsștie how hardgreu that is,
103
397000
2000
Și nimeni nu știe cât e de greu,
06:57
but we'llbine probablyprobabil find out in a fewpuțini yearsani.
104
399000
3000
dar probabil că vom afla în câțiva ani.
07:00
You see, there's two forksfurci in the roaddrum. We know that people livetrăi
105
402000
3000
Vedeți, sunt două răscruci pe drum. Știm că oamenii trăiesc
07:03
twicede două ori as long as chimpanzeescimpanzei almostaproape,
106
405000
4000
de două ori mai mult decât companzeii, aproape,
07:07
and nobodynimeni livesvieți more than 120 yearsani,
107
409000
4000
și nimeni nu trăiește mai mult de 120 de ani,
07:11
for reasonsmotive that aren'tnu sunt very well understoodînțeles.
108
413000
3000
din motive care nu sunt foarte bine înțelese.
07:14
But lots of people now livetrăi to 90 or 100,
109
416000
3000
Dar mulți oameni trăiesc acum până la 90 sau 100,
07:17
unlessdacă nu they shakescutura handsmâini too much or something like that.
110
419000
4000
dacă nu strâng prea multe mâini sau ceva de genul ăsta.
07:21
And so maybe if we livedtrăit 200 yearsani, we could accumulateacumula enoughdestul skillsaptitudini
111
423000
5000
Și poate dacă am trăi 200 de ani, am putea să acumulăm destule abilități
07:26
and knowledgecunoştinţe to solverezolva some problemsProbleme.
112
428000
5000
și cunoștințe ca să rezolvăm niște probleme.
07:31
So that's one way of going about it.
113
433000
2000
Deci ăsta e un mod de a face asta.
07:33
And as I said, we don't know how hardgreu that is. It mightar putea be --
114
435000
3000
Și după cum am spus, nu știm cât e de greu. S-ar putea --
07:36
after all, mostcel mai other mammalsmamifere livetrăi halfjumătate as long as the chimpanzeecimpanzeu,
115
438000
6000
la urma urmei, cele mai multe mamifere trăiesc jumătate cât cimpanzeii,
07:42
so we're sortfel of threeTrei and a halfjumătate or fourpatru timesori, have fourpatru timesori
116
444000
3000
deci noi avem de 3½ sau de 4 ori -- avem de 4 ori
07:45
the longevitylongevitate of mostcel mai mammalsmamifere. And in the casecaz of the primatesprimate,
117
447000
6000
longevitatea majorității mamiferelor. Și în cazul primatelor,
07:51
we have almostaproape the samela fel genesgene. We only differdiferi from chimpanzeescimpanzei,
118
453000
4000
avem aproape aceleași gene. Ne deosebim de cimpanzei
07:55
in the presentprezent statestat of knowledgecunoştinţe, whichcare is absoluteabsolut hogwashlături,
119
457000
6000
după cunoștințele pe care le avem acum -- care sunt de aruncat la gunoi --
08:01
maybe by just a fewpuțini hundredsută genesgene.
120
463000
2000
poate doar prin câteva sute de gene.
08:03
What I think is that the genegenă counterscontoare don't know what they're doing yetinca.
121
465000
3000
Ce cred e că numărătorii de gene încă nu știu ce fac.
08:06
And whateverindiferent de you do, don't readcitit anything about geneticsgenetică
122
468000
3000
Și orice faceți, nu citiți despre genetică nimic
08:09
that's publishedpublicat withinîn your lifetimedurata de viață, or something.
123
471000
3000
din ce a fost publicat în timpul vieții voastre, sau pe-acolo.
08:12
(LaughterRâs)
124
474000
3000
(Râsete)
08:15
The stuffchestie has a very shortmic de statura half-lifeHalf-Life, samela fel with braincreier scienceştiinţă.
125
477000
4000
Chestiile astea au o perioadă foarte scurtă, la fel ca știința creierului.
08:19
And so it mightar putea be that if we just fixrepara fourpatru or fivecinci genesgene,
126
481000
6000
Și s-ar putea că dacă reparăm doar 4 sau 5 gene,
08:25
we can livetrăi 200 yearsani.
127
487000
2000
să putem trăi 200 de ani.
08:27
Or it mightar putea be that it's just 30 or 40,
128
489000
3000
Sau s-ar putea să fie doar 30 sau 40,
08:30
and I doubtîndoială that it's severalmai mulți hundredsută.
129
492000
2000
și mă îndoiesc că sunt câteva sute.
08:32
So this is something that people will be discussingdiscutarea
130
494000
4000
Deci asta e ceva ce oamenii vor discuta
08:36
and lots of ethicistsjurişti -- you know, an ethicistfrom web Etician is somebodycineva
131
498000
3000
și mulți specialiști în etică -- știți, un pecialist în etică e cineva
08:39
who seesvede something wronggresit with whateverindiferent de you have in mindminte.
132
501000
3000
care vede ceva greșit cu orice ai tu în minte.
08:42
(LaughterRâs)
133
504000
3000
(Râsete)
08:45
And it's very hardgreu to find an ethicistfrom web Etician who considersconsideră any changeSchimbare
134
507000
4000
Și e greu să găsești un specialist în etică care să considere că merită
08:49
worthin valoare de makingluare, because he saysspune, what about the consequencesconsecințe?
135
511000
4000
făcută orice schimbare, pentru că, spune el, care sunt consecințele?
08:53
And, of coursecurs, we're not responsibleresponsabil for the consequencesconsecințe
136
515000
3000
Și bineînțeles, nu suntem responsabili pentru consecințele
08:56
of what we're doing now, are we? Like all this complaintplângere about clonesclonele.
137
518000
6000
la ceea ce facem acum, nu-i așa? Ca toate obiecțiile despre clone.
09:02
And yetinca two randomîntâmplător people will matemate and have this childcopil,
138
524000
3000
Și totuși doi oameni la întâmplare se vor împerechea și vor avea un copil,
09:05
and bothambii of them have some prettyfrumos rottenputred genesgene,
139
527000
4000
și amândoi au căteva gene de proastă calitate,
09:09
and the childcopil is likelyprobabil to come out to be averagein medie.
140
531000
4000
și copilul probabil va ieși mediu.
09:13
WhichCare, by chimpanzeecimpanzeu standardsstandarde, is very good indeedintr-adevar.
141
535000
6000
Ceea ce după starndardele cimpanzeilor este de fapt foarte bine.
09:19
If we do have longevitylongevitate, then we'llbine have to facefață the populationpopulație growthcreştere
142
541000
3000
Dacă avem longevitate, va trebui să rezolvăm creșterea populației
09:22
problemproblemă anywayoricum. Because if people livetrăi 200 or 1,000 yearsani,
143
544000
4000
oricum. Pentru că dacă oamenii trăiesc 200 sau 1000 de ani,
09:26
then we can't let them have a childcopil more than about onceo singura data everyfiecare 200 or 1,000 yearsani.
144
548000
6000
atunci nu putem să-i lăsăm să aibă mai mult de un copil la fiecare 200 sau 1000 de ani
09:32
And so there won'tnu va be any workforceforta de munca.
145
554000
3000
Și atunci nu va avea cine să muncească.
09:35
And one of the things LaurieLaurie GarrettGarrett pointedascuţit out, and othersalții have,
146
557000
4000
Și unul din lucrurile subliniate de Laurie Garrett, și de alții,
09:39
is that a societysocietate that doesn't have people
147
561000
5000
e că o societate care nu are oameni
09:44
of workinglucru agevârstă is in realreal troublebucluc. And things are going to get worsemai rau,
148
566000
3000
la vârstă aptă de muncă e în mare pericol. Și lucrurile vor deveni și mai rele,
09:47
because there's nobodynimeni to educateeduca the childrencopii or to feeda hrani the oldvechi.
149
569000
6000
pentru că nu e nimeni să educe copiii sau să-i hrănească pe bătrâni.
09:53
And when I'm talkingvorbind about a long lifetimedurata de viață, of coursecurs,
150
575000
2000
Și când vorbesc despre o viață lungă, bineînțeles,
09:55
I don't want somebodycineva who'scine 200 yearsani oldvechi to be like our imageimagine
151
577000
6000
nu vreau ca cineva de 200 de ani să fie după imaginea noastră
10:01
of what a 200-year-old-de ani is -- whichcare is deadmort, actuallyde fapt.
152
583000
4000
a cuiva de 200 de ani -- care este mort, de fapt.
10:05
You know, there's about 400 differentdiferit partspărți of the braincreier
153
587000
2000
Știți, sunt cam 400 de părți diferite în creier
10:07
whichcare seempărea to have differentdiferit functionsfuncții.
154
589000
2000
care par să aibă funcții diferite.
10:09
NobodyNimeni nu knowsștie how mostcel mai of them work in detaildetaliu,
155
591000
3000
Nimeni nu știe în amănunt cum funcționează ele,
10:12
but we do know that there'reacolo sunt lots of differentdiferit things in there.
156
594000
4000
dar știm că sunt o mulțime de lucruri diferite acolo.
10:16
And they don't always work togetherîmpreună. I like Freud'sLui Freud theoryteorie
157
598000
2000
Și nu întotdeauna lucrează împreună. Îmi place teoria lui Freud
10:18
that mostcel mai of them are cancellinganularea eachfiecare other out.
158
600000
4000
că majoritatea se anulează reciproc.
10:22
And so if you think of yourselftu as a sortfel of cityoraș
159
604000
4000
Și dacă te gândești la tine însuți ca un fel de oraș
10:26
with a hundredsută resourcesresurse, then, when you're afraidsperiat, for exampleexemplu,
160
608000
6000
cu o sută de resurse, atunci, când ți-e frică, de exemplu,
10:32
you mayMai discardrenunța your long-rangeraza lunga goalsgoluri, but you mayMai think deeplyprofund
161
614000
4000
ai putea să renunți la scopurile tale de lungă durată, dar s-ar putea să gândești adânc
10:36
and focusconcentra on exactlyexact how to achieveobține that particularspecial goalpoartă.
162
618000
4000
și să te concentrezi cum să atingi exact acel obiectiv preferat.
10:40
You throwarunca everything elsealtfel away. You becomedeveni a monomaniacmonomaniac --
163
622000
3000
Dai orice altceva la o parte. Devii maniac --
10:43
all you careîngrijire about is not steppingpas cu pas out on that platformplatformă.
164
625000
4000
îți pasă numai să nu calci în afara acelei platforme.
10:47
And when you're hungryflămând, foodalimente becomesdevine more attractiveatractiv, and so forthmai departe.
165
629000
4000
Și când ți-e foame, mâncarea devine mai atrăgătoare, și așa mai departe.
10:51
So I see emotionsemoții as highlyextrem de evolvedevoluat subsetssubseturi of your capabilitycapacitate.
166
633000
6000
Deci văd emoțiile ca sub-seturi foarte dezvoltate ale capabilității tale.
10:57
EmotionEmoţie is not something addedadăugat to thought. An emotionalemoţional statestat
167
639000
4000
Emoția nu e ceva adăugat gândului. O stare emoțională
11:01
is what you get when you removeelimina 100 or 200
168
643000
4000
este ce obții când elimini 100 sau 200
11:05
of your normallyîn mod normal availabledisponibil resourcesresurse.
169
647000
3000
din resursele tale obișnuite.
11:08
So thinkinggândire of emotionsemoții as the oppositeopus of -- as something
170
650000
3000
Deci gândindu-ne la emoții ca la opusul ... ca la ceva
11:11
lessMai puțin than thinkinggândire is immenselyimens productiveproductiv. And I hopesperanţă,
171
653000
4000
mai puțin decât gândirea este foarte productiv. Și sper,
11:15
in the nextUrmător → fewpuțini yearsani, to showspectacol that this will leadconduce to smartinteligent machinesmaşini.
172
657000
4000
ca în următorii câțiva ani, să arăt că asta va duce la mașini inteligente.
11:19
And I guessghici I better skipocolire all the restodihnă of this, whichcare are some detailsDetalii
173
661000
3000
Și cred că mai bine sar peste restul, care sunt câteva detalii
11:22
on how we mightar putea make those smartinteligent machinesmaşini and --
174
664000
5000
despre cum am putea să facem acele mașini inteligente și --
11:27
(LaughterRâs)
175
669000
5000
(Râsete)
11:32
-- and the mainprincipal ideaidee is in factfapt that the coremiez of a really smartinteligent machinemaşină
176
674000
5000
și ideea principală e de fapt că în esență o mașină cu adevărat deșteaptă
11:37
is one that recognizesrecunoaşte that a certainanumit kinddrăguț of problemproblemă is facingcu care se confruntă you.
177
679000
5000
e una care recunoaște genul de problemă cu care te confrunți.
11:42
This is a problemproblemă of suchastfel de and suchastfel de a typetip,
178
684000
3000
Asta e o problemă de tipul ăsta,
11:45
and thereforeprin urmare there's a certainanumit way or waysmoduri of thinkinggândire
179
687000
5000
și de aceea este un anume mod sau moduri de gândire
11:50
that are good for that problemproblemă.
180
692000
2000
care sunt bune pentru acea problemă.
11:52
So I think the futureviitor, mainprincipal problemproblemă of psychologyPsihologie is to classifyclasifica
181
694000
4000
Deci cred că principala viitoare problemă a psihologiei este să clasifice
11:56
typestipuri of predicamentsPredictii, typestipuri of situationssituații, typestipuri of obstaclesobstacole
182
698000
4000
tipuri de necazuri, tipuri de situații, tipuri de obstacole,
12:00
and alsode asemenea to classifyclasifica availabledisponibil and possibleposibil waysmoduri to think and pairpereche them up.
183
702000
6000
și de asemenea să clasifice posibile moduri de a le gândi și pune împreună.
12:06
So you see, it's almostaproape like a PavlovianPavlovian --
184
708000
3000
Deci vedeți, e aproape pavlovian --
12:09
we lostpierdut the first hundredsută yearsani of psychologyPsihologie
185
711000
2000
am pierdut prima sută de ani în psihologie
12:11
by really trivialbanal theoriesteorii, where you say,
186
713000
3000
cu teorii triviale unde spui,
12:14
how do people learnînvăța how to reactreacţiona to a situationsituatie? What I'm sayingzicală is,
187
716000
6000
cum învață oamenii să reacționeze la o situație? Ce spun eu e,
12:20
after we go throughprin a lot of levelsniveluri, includinginclusiv designingproiect
188
722000
5000
după ce trecem prin multe etape, incluzând designul
12:25
a hugeimens, messymurdar systemsistem with thousandsmii of portsporturi,
189
727000
3000
unui sistem imens și confuz cu mii de părți,
12:28
we'llbine endSfârşit up again with the centralcentral problemproblemă of psychologyPsihologie.
190
730000
4000
vom sfârși din nou cu problema centrală a psihologiei.
12:32
SayingZicând:, not what are the situationssituații,
191
734000
3000
Spunând, nu care sunt situațiile,
12:35
but what are the kindstipuri of problemsProbleme
192
737000
2000
dar care sunt tipurile de probleme
12:37
and what are the kindstipuri of strategiesstrategii, how do you learnînvăța them,
193
739000
3000
și care sunt tipurile de strategii, cum le învățăm,
12:40
how do you connectconectați them up, how does a really creativecreator personpersoană
194
742000
3000
cum le conectăm, cum inventează o persoană cu adevărat creativă
12:43
inventinventa a newnou way of thinkinggândire out of the availabledisponibil resourcesresurse and so forthmai departe.
195
745000
5000
un nou mod de gândire despre resursele existente și așa mai departe.
12:48
So, I think in the nextUrmător → 20 yearsani,
196
750000
2000
Deci cred că în următorii 20 de ani,
12:50
if we can get ridscăpa of all of the traditionaltradiţional approachesabordari to artificialartificial intelligenceinteligență,
197
752000
5000
dacă renunțăm la toate abordările tradiționale față de inteligența artificială,
12:55
like neuralneural netsplase and geneticgenetic algorithmsalgoritmi
198
757000
2000
ca rețele neurale și algoritmi genetici
12:57
and rule-basedpe bază de reguli systemssisteme, and just turnviraj our sightsObiective a little bitpic highersuperior to say,
199
759000
6000
și sisteme pe grupe de reguli și privim puțin mai sus să spunem,
13:03
can we make a systemsistem that can use all those things
200
765000
2000
putem să facem un sistem care să folosescă toate lucrurile alea
13:05
for the right kinddrăguț of problemproblemă? Some problemsProbleme are good for neuralneural netsplase;
201
767000
4000
pentru tipul corect de problemă? Unele probleme sunt bune pentru rețele neurale;
13:09
we know that othersalții, neuralneural netsplase are hopelessfara speranta on them.
202
771000
3000
știm că pentru altele, rețelele neurale nu folosesc la nimic.
13:12
GeneticGenetice algorithmsalgoritmi are great for certainanumit things;
203
774000
3000
Algoritmii genetici sunt grozavi pentru anumite lucruri;
13:15
I suspectsuspect I know what they're badrău at, and I won'tnu va tell you.
204
777000
4000
Bănuiesc că știu la ce nu sunt buni și n-o să vă spun.
13:19
(LaughterRâs)
205
781000
1000
(Râsete)
13:20
Thank you.
206
782000
2000
Muțumesc.
13:22
(ApplauseAplauze)
207
784000
6000
(Aplauze)
Translated by Magda Marcu
Reviewed by Ariana Bleau Lugo

▲Back to top

ABOUT THE SPEAKER
Marvin Minsky - AI pioneer
Marvin Minsky is one of the great pioneers of artificial intelligence -- and using computing metaphors to understand the human mind. His contributions to mathematics, robotics and computational linguistics are legendary and far-reaching.

Why you should listen

Marvin Minsky is the superstar-elder of artificial intelligence, one of the most productive and important cognitive scientists of the century, and the leading proponent of the Society of Mind theory. Articulated in his 1985 book of the same name, Minsky's theory says intelligence is not born of any single mechanism, but from the interaction of many independent agents. The book's sequel,The Emotion Machine (2006), says similar activity also accounts for feelings, goals, emotions and conscious thoughts.

Minsky also pioneered advances in mathematics, computational linguistics, optics, robotics and telepresence. He built SNARC, the first neural network simulator, some of the first visual scanners, and the first LOGO "turtle." From his headquarters at MIT's Media Lab and the AI Lab (which he helped found), he continues to work on, as he says, "imparting to machines the human capacity for commonsense reasoning."

More profile about the speaker
Marvin Minsky | Speaker | TED.com