ABOUT THE SPEAKER
Bruce Bueno de Mesquita - Political scientist
A consultant to the CIA and the Department of Defense, Bruce Bueno de Mesquita has built an intricate computer model that can predict the outcomes of international conflicts with bewildering accuracy.

Why you should listen

Every motive has a number, says Bruce Bueno de Mesquita. A specialist in foreign policy, international relations and state building, he is also a leading -- if controversial -- scholar of rational choice theory, which says math underlies the nation-scale consequences of individuals acting for personal benefit. He created forecasting technology that has, time and again, exceeded the accuracy of old-school analysis, even with thorny quarrels charged by obscure contenders, and often against odds. (One example: He called the second Intifada two years in advance.)

Bueno de Mesquita's company, Mesquita & Roundell, sells his system's predictions and analysis to influential government and private institutions that need heads-ups on policy. He teaches at NYU and is a senior fellow at the Hoover Institution.

More profile about the speaker
Bruce Bueno de Mesquita | Speaker | TED.com
TED2009

Bruce Bueno de Mesquita: A prediction for the future of Iran

Bruce Bueno de Mesquita prezice viitorul Iranului

Filmed:
1,045,301 views

Bruce Bueno de Mesquita foloseşte analiza matematică pentru a prezice( de foarte multe ori corect) evenimente umane atât de răvăşitoare precum războaie, schimbări ale puterii politice, Intifada...După o expunere rapidă a modului în care procedează, el ne oferă trei predicţii asupra viitorului Iranului.
- Political scientist
A consultant to the CIA and the Department of Defense, Bruce Bueno de Mesquita has built an intricate computer model that can predict the outcomes of international conflicts with bewildering accuracy. Full bio

Double-click the English transcript below to play the video.

00:18
What I'm going to try to do is explainexplica to you
0
0
3000
Ceea ce voi încerca să fac este să vă explic
00:21
quicklyrepede how to predictprezice,
1
3000
2000
repede, cum se fac previziuni,
00:23
and illustrateilustra it with some predictionsPredictii
2
5000
2000
şi vă voi ilustra cu nişte previziuni
00:25
about what IranIran is going to do in the nextUrmător → couplecuplu of yearsani.
3
7000
5000
cu privire la ceea ce va face Iranul în următorii câţiva ani.
00:30
In orderOrdin to predictprezice effectivelyîn mod eficient,
4
12000
3000
Pentru a face o previziune utilă,
00:33
we need to use scienceştiinţă.
5
15000
3000
trebuie să ne folosim de ştiinţă.
00:36
And the reasonmotiv that we need to use scienceştiinţă
6
18000
3000
Şi motivul pentru care trebuie să folosim ştiinţa
00:39
is because then we can reproducereproduce what we're doing;
7
21000
2000
este fiindcă atunci putem reproduce ceea ce facem,
00:41
it's not just wisdomînţelepciune or guessworkpresupunerile.
8
23000
3000
nu este doar înţelepciune sau supoziţii.
00:44
And if we can predictprezice,
9
26000
3000
Şi dacă putem prezice,
00:47
then we can engineeringiner the futureviitor.
10
29000
2000
atunci putem construi viitorul.
00:49
So if you are concernedîngrijorat to influenceinfluență energyenergie policypolitică,
11
31000
4000
Deci dacă eşti interesat să influenţezi politica energetică,
00:53
or you are concernedîngrijorat to influenceinfluență nationalnaţional securitySecuritate policypolitică,
12
35000
5000
sau eşti interesat să modifici politica de securitate naţională,
00:58
or healthsănătate policypolitică, or educationeducaţie,
13
40000
3000
sau politica de sănătate, sau educaţie,
01:01
scienceştiinţă -- and a particularspecial branchramură of scienceştiinţă -- is a way to do it,
14
43000
4000
ştiinţa, mai exact o anumită ramură a ştiinţei este o calea de urmat,
01:05
not the way we'vene-am been doing it,
15
47000
2000
nu cum am făcut noi până acum,
01:07
whichcare is seat-of-the-pantsSeat-of-the-Pants wisdomînţelepciune.
16
49000
2000
adică bazându-ne pe bun-simţ.
01:09
Now before I get into how to do it
17
51000
2000
Acum înainte de a intra în detalii cu privire la cum facem aceasta
01:11
let me give you a little truthadevăr in advertisingreclamă,
18
53000
3000
lăsaţi-mă să vă împărtăşesc un mic adevăr legat de publicitate,
01:14
because I'm not engagedangajat in the businessAfaceri of magicmagie.
19
56000
3000
pentru că nu implicat în afacerile cu farmece,
01:17
There are lots of thing that the approachabordare I take can predictprezice,
20
59000
4000
sunt multe lucruri pe care prin abordarea mea pot fi prezise,
01:21
and there are some that it can't.
21
63000
2000
dar sunt şi unele care nu pot.
01:23
It can predictprezice complexcomplex negotiationsnegocieri
22
65000
3000
Pot prezice rezultatul unor negocieri complexe,
01:26
or situationssituații involvingimplicând coercionconstrângere --
23
68000
3000
sau al situaţiilor ce implică constrângere,
01:29
that is in essenceesență everything that has to do with politicspolitică,
24
71000
4000
adică în esenţă cam tot ce ţine de politică,
01:33
much of what has to do with businessAfaceri,
25
75000
2000
dintre care multe au legătură cu afacerile,
01:35
but sorry, if you're looking to speculatespecula in the stockstoc marketpiaţă,
26
77000
6000
dar imi pare rău, dacă urmăreaţi să speculaţi bursa de valori,
01:41
I don't predictprezice stockstoc marketspiețe -- OK,
27
83000
2000
nu prezic evoluţia burselor -- OK,
01:43
it's not going up any time really sooncurând.
28
85000
3000
nu va creşte prea curând.
01:46
But I'm not engagedangajat in doing that.
29
88000
3000
Dar nu sunt implicat în acest lucru.
01:49
I'm not engagedangajat in predictingprezicerea randomîntâmplător numbernumăr generatorsgeneratoare.
30
91000
3000
Nu nu sunt implicat în prezicerea generatoarelor de numere aleatoare,
01:52
I actuallyde fapt get phonetelefon callsapeluri from people
31
94000
2000
chiar primesc telefoane de la oameni
01:54
who want to know what lotteryloterie numbersnumerele are going to wina castiga.
32
96000
3000
care vor să ştie ce numere vor ieşi câştigătoare la loterie.
01:57
I don't have a cluecheie.
33
99000
3000
Habar n-am!
02:00
I engageangaja in the use of gamejoc theoryteorie, gamejoc theoryteorie is a branchramură of mathematicsmatematică
34
102000
4000
Sunt implicat în folosirea teoriei jocurilor, teoria jocurilor este o ramură a matematicii
02:04
and that meansmijloace, sorry, that even in the studystudiu of politicspolitică,
35
106000
4000
şi aceasta înseamnă, scuze, că chiar şi în studiul politicii,
02:08
mathmatematica has come into the pictureimagine.
36
110000
3000
matematica a intrat pe scenă.
02:11
We can no longermai lung pretendpretinde that we just speculatespecula about politicspolitică,
37
113000
4000
Nu mai putem pretinde că facem numai speculaţii cu privire la politică,
02:15
we need to look at this in a rigorousriguros way.
38
117000
3000
trebuie să privim această problemă într-un mod riguros.
02:18
Now, what is gamejoc theoryteorie about?
39
120000
3000
Acum, cu ce se ocupă teoria jocurilor?
02:21
It assumespresupune that people are looking out for what's good for them.
40
123000
5000
Presupune că oamenii îşi urmăresc propriul interes.
02:26
That doesn't seempărea terriblyteribil shockingşocant --
41
128000
2000
Ceea ce nu pare extraordinar de şocant--
02:28
althoughcu toate ca it's controversialcontroversat for a lot of people --
42
130000
2000
deşi este un fapt controversat pentru mulţi--
02:30
that we are self-interestedauto-interesate.
43
132000
4000
că ne urmărim interesul.
02:34
In orderOrdin to look out for what's bestCel mai bun for them
44
136000
2000
Pentru a putea să facă ceea ce este mai bine pentru ei,
02:36
or what they think is bestCel mai bun for them,
45
138000
2000
sau ce cred ei că e mai bine pentru ei,
02:38
people have valuesvalorile -- they identifyidentifica what they want, and what they don't want.
46
140000
4000
oamenii au valori -- identifică ce îşi doresc şi ce nu îşi doresc.
02:42
And they have beliefscredințe about what other people want,
47
144000
3000
Şi au păreri cu privire la ce îşi doresc alţi oameni,
02:45
and what other people don't want, how much powerputere other people have,
48
147000
3000
şi ce nu îşi doresc alţi oameni, la câtă putere au alţi oameni,
02:48
how much those people could get in the way of whateverindiferent de it is that you want.
49
150000
4000
în ce măsură acei oameni ar putea sta în calea a ceea ce îţi doreşti.
02:52
And they facefață limitationslimitări, constraintsconstrângeri,
50
154000
4000
Şi sunt confruntaţi cu limitări, constrângeri,
02:56
they mayMai be weakslab, they mayMai be locatedsituat in the wronggresit partparte of the worldlume,
51
158000
3000
pot fi slabi, se pot afla în partea nepotrivită a lumii,
02:59
they mayMai be EinsteinEinstein, stuckblocat away farmingagricultură
52
161000
3000
pot fi Einstein, arând câmpul
03:02
someplaceintr-un loc in a ruralrural villagesat in IndiaIndia not beingfiind noticeda observat,
53
164000
4000
undeva într-un sat din India nefiind remarcaţi,
03:06
as was the casecaz for RamanujanDenisa for a long time,
54
168000
3000
cum a fost cazul lui Ramanujan pentru mult timp,
03:09
a great mathematicianmatematician but nobodynimeni noticeda observat.
55
171000
3000
un mare matematician dar pe care nimeni nu-l remarcase.
03:12
Now who is rationalraţional?
56
174000
2000
Acum, cine e raţional?
03:14
A lot of people are worriedîngrijorat about what is rationalityrațiune about?
57
176000
3000
Mulţi oameni sunt preocupaţi de ce înseamnă raţionalitatea.
03:17
You know, what if people are rationalraţional?
58
179000
2000
Oamenii sunt raţionali.
03:19
MotherMama TheresaTereza, she was rationalraţional.
59
181000
3000
Maica Theresa era raţională.
03:22
TerroristsTeroriştii, they're rationalraţional.
60
184000
4000
Teroriştii, sunt raţionali.
03:26
Prettyfrumos much everybodytoata lumea is rationalraţional.
61
188000
3000
Cam toată lumea e raţională.
03:29
I think there are only two exceptionsexcepţii that I'm awareconștient of --
62
191000
3000
Cred că sunt numai două excepţii de care ştiu eu --
03:32
two-year-oldsdouă copii de ani, they are not rationalraţional,
63
194000
2000
copiii de 2 ani, ei nu sunt raţionali,
03:34
they have very fickleversatil preferencesPreferinţe,
64
196000
3000
ei au preferinţe foarte schimbătoare,
03:37
they switchintrerupator what they think all the time,
65
199000
2000
tot timpul schimbă la ce se gândesc,
03:39
and schizophrenicsschizofrenici are probablyprobabil not rationalraţional,
66
201000
3000
şi schizofrenicii sunt probabil iraţionali,
03:42
but prettyfrumos much everybodytoata lumea elsealtfel is rationalraţional.
67
204000
2000
dar în mare cam toţi ceilalţi sunt raţionali.
03:44
That is, they are just tryingîncercat to do
68
206000
2000
Adică, pur şi simplu încearcă să facă
03:46
what they think is in theiral lor ownpropriu bestCel mai bun interestinteres.
69
208000
5000
ceea ce cred că este în interesul lor.
03:51
Now in orderOrdin to work out what people are going to do
70
213000
2000
Deci, pentru a determina ceea ce vor face oamenii
03:53
to pursueurmări theiral lor interestsinterese,
71
215000
2000
pentru a-şi urmări interesul,
03:55
we have to think about who has influenceinfluență in the worldlume.
72
217000
2000
trebuie să ne gândim la cine are influenţă în lume.
03:57
If you're tryingîncercat to influenceinfluență corporationscorporații to changeSchimbare theiral lor behaviorcomportament,
73
219000
5000
Dacă încerci să influenţezi corporaţiile să-şi schimbe comportamentul,
04:02
with regardprivință to producingproducând pollutantspoluanţi,
74
224000
3000
în ceea ce priveşte emisiile de substanţe poluante,
04:05
one approachabordare, the commoncomun approachabordare,
75
227000
2000
o abordare, abordarea comună,
04:07
is to exhortîndemnăm them to be better,
76
229000
2000
este să le îndemni să fie mai bune,
04:09
to explainexplica to them what damagedeteriora they're doing to the planetplanetă.
77
231000
3000
să le explici ce rău fac planetei.
04:12
And manymulți of you mayMai have noticeda observat that doesn't have
78
234000
2000
Şi mulţi dintre voi poate aţi observat că asta nu are
04:14
as bigmare an effectefect, as perhapspoate you would like it to have.
79
236000
4000
un efect prea mare, cum probabil v-ar plăcea să aibă,
04:18
But if you showspectacol them that it's in theiral lor interestinteres,
80
240000
3000
dar dacă le arătaţi că este în beneficiul lor
04:21
then they're responsivesensibil.
81
243000
2000
atunci sunt receptive.
04:23
So, we have to work out who influencesinfluențe problemsProbleme.
82
245000
3000
Deci, trebuie să descoperim cine are influenţează problemele.
04:26
If we're looking at IranIran, the presidentpreședinte of the UnitedMarea StatesStatele
83
248000
2000
Dacă ne-am uita la Iran, preşedintele Statelor Unite
04:28
we would like to think, mayMai have some influenceinfluență --
84
250000
3000
ne-ar plăcea să credem că ar putea avea ceva influenţă --
04:31
certainlycu siguranță the presidentpreședinte in IranIran has some influenceinfluență --
85
253000
4000
cu siguranţă preşedintele din Iran are influenţă --
04:35
but we make a mistakegreşeală if we just paya plati attentionAtenţie
86
257000
3000
dar facem o mare greşeală dacă ne îndreptăm atenţia
04:38
to the personpersoană at the toptop of the powerputere ladderscară
87
260000
3000
numai asupra persoanelor din vârful ierarhiei
04:41
because that personpersoană doesn't know much about IranIran,
88
263000
3000
pentru că acea persoană nu ştie prea multe despre Iran,
04:44
or about energyenergie policypolitică,
89
266000
2000
sau despre politica energetică,
04:46
or about healthsănătate careîngrijire,
90
268000
2000
sau despre sănătate,
04:48
or about any particularspecial policypolitică.
91
270000
2000
sau despre orice altă politică.
04:50
That personpersoană surroundsînconjoară himselfse or herselfse with advisersconsilieri.
92
272000
5000
Acea persoană se înconjoară cu consilieri.
04:55
If we're talkingvorbind about nationalnaţional securitySecuritate problemsProbleme,
93
277000
2000
Dacă vorbim de probleme de siguranţă naţională,
04:57
maybe it's the SecretarySecretar of StateStat,
94
279000
2000
poate că este secretarul de stat,
04:59
maybe it's the SecretarySecretar of DefenseApărare,
95
281000
2000
poate că este secretarul pe probleme de apărare,
05:01
the DirectorDirectorul of NationalNaţionale IntelligenceInteligenta,
96
283000
2000
directorul serviciului de informaţii,
05:03
maybe the ambassadorAmbasadorul to the UnitedMarea NationsNaţiunilor, or somebodycineva elsealtfel
97
285000
2000
poate ambasadorul la Naţiunile Unite, sau altcineva
05:05
who they think is going to know more about the particularspecial problemproblemă.
98
287000
4000
despre care cred că va şti mai multe într-un anumit domeniu.
05:09
But let's facefață it, the SecretarySecretar of StateStat doesn't know much about IranIran.
99
291000
3000
Dar să fim realişti. secretarul de stat nu ştie prea multe despre Iran.
05:12
The secretarysecretar of defenseapărare doesn't know much about IranIran.
100
294000
3000
Secretarul pe probleme de apărare nu ştie multe despre Iran.
05:15
EachFiecare of those people in turnviraj
101
297000
3000
Fiecare dintre aceşti oameni, la rândul lui,
05:18
has advisersconsilieri who adviserecomanda them,
102
300000
2000
are consilieri care îl sfătuiesc,
05:20
so they can adviserecomanda the presidentpreședinte.
103
302000
3000
astfel încât să îl poată sfătui pe preşedinte.
05:23
There are lots of people shapingmodelarea decisionsdeciziile
104
305000
3000
Sunt mulţi oameni care conturează deciziile
05:26
and so if we want to predictprezice correctlycorect
105
308000
2000
astfel încât pentru o predicţie corectă
05:28
we have to paya plati attentionAtenţie to everybodytoata lumea
106
310000
3000
trebuie să fim atenţi la toţi
05:31
who is tryingîncercat to shapeformă the outcomerezultat,
107
313000
2000
cei care încearcă să modeleze rezultatul,
05:33
not just the people at the pinnaclebelvedere
108
315000
3000
nu numai la cei din vârful
05:36
of the decision-makingluarea deciziilor pyramidpiramidă.
109
318000
4000
piramidei decizionale.
05:40
UnfortunatelyDin păcate, a lot of timesori we don't do that.
110
322000
2000
Din păcate, în multe situaţii nu facem asta.
05:42
There's a good reasonmotiv that we don't do that,
111
324000
2000
Există un motiv întemeiat pentru care nu facem asta,
05:44
and there's a good reasonmotiv that usingutilizând gamejoc theoryteorie and computerscalculatoare,
112
326000
3000
şi există un motiv bun pentru care utilizând teoria jocurilor şi computerele
05:47
we can overcomea depasi the limitationlimitarea
113
329000
3000
putem depăşi limitările
05:50
of just looking at a fewpuțini people.
114
332000
2000
în a urmări numai câţiva oameni.
05:52
ImagineImaginaţi-vă a problemproblemă with just fivecinci decision-makersfactorii de decizie.
115
334000
4000
Imaginaţi-vă o problemă cu numai cinci decidenţi.
05:56
ImagineImaginaţi-vă for exampleexemplu
116
338000
2000
Imaginaţi-vă spre exemplu
05:58
that SallySally over here,
117
340000
2000
că Sally de aici,
06:00
wants to know what HarryHarry, and JaneJane,
118
342000
3000
vrea să ştie ce gândesc Harry şi Jane
06:03
and GeorgeGeorge and FrankFrank are thinkinggândire,
119
345000
3000
şi George şi Frank
06:06
and sendstrimite messagesmesaje to those people.
120
348000
2000
şi trimite mesaje acestor oameni.
06:08
Sally'sSally pe givingoferindu- her opinionopinie to them,
121
350000
2000
Sally le împărtăşeşte părerile ei,
06:10
and they're givingoferindu- theiral lor opinionopinie to SallySally.
122
352000
3000
şi ei îi împărtăşesc lui Sally, opiniile lor.
06:13
But SallySally alsode asemenea wants to know
123
355000
2000
Dar Sally vrea să ştie şi
06:15
what HarryHarry is sayingzicală to these threeTrei,
124
357000
3000
ce le zice Harry celorlaţi trei,
06:18
and what they're sayingzicală to HarryHarry.
125
360000
2000
şi ce îi spun ei lui Harry.
06:20
And HarryHarry wants to know
126
362000
2000
Şi Harry vrea să ştie
06:22
what eachfiecare of those people are sayingzicală to eachfiecare other, and so on,
127
364000
3000
ce îşi spun toţi ceilalţi oameni între ei, şi aşa mai departe,
06:25
and SallySally would like to know what HarryHarry thinkscrede those people are sayingzicală.
128
367000
3000
şi lui Sally i-ar plăcea să afle ce crede Harry că spun ceilalţi oameni.
06:28
That's a complicatedcomplicat problemproblemă; that's a lot to know.
129
370000
3000
Este o problemă complicată, sunt multe de ştiut.
06:31
With fivecinci decision-makersfactorii de decizie
130
373000
3000
Cu cinci decidenţi
06:34
there are a lot of linkageslegăturile --
131
376000
2000
sunt multe legături --
06:36
120, as a mattermaterie of factfapt,
132
378000
2000
120 de fapt
06:38
if you remembertine minte your factorialsfactoriali.
133
380000
2000
dacă mai tineţi minte matematica combinatorică.
06:40
FiveCinci factorialfactorialul is 120.
134
382000
2000
5 factorial este egal cu 120.
06:42
Now you mayMai be surpriseduimit to know
135
384000
2000
Veţi fi surprinşi să aflaţi
06:44
that smartinteligent people can keep 120 things straightdrept
136
386000
3000
că oamenii deştepţi pot reţine 120 de lucruri, fără să le încurce,
06:47
in theiral lor headcap.
137
389000
2000
mintal.
06:49
SupposeSă presupunem că we doubledubla the numbernumăr of influencersinfluenţă
138
391000
2000
Să presupunem că dublă numărul de decidenţi
06:51
from fivecinci to 10.
139
393000
2000
de la 5 la 10.
06:53
Does that mean we'vene-am doubleddublat the numbernumăr of piecesbucăți of informationinformație
140
395000
4000
Asta înseamnă că am dublat numărul informaţiilor
06:57
we need to know, from 120 to 240?
141
399000
2000
pe care trebuie să le aflăm de la 120 la 240?
06:59
No. How about 10 timesori?
142
401000
2000
Nu, l-am crescut de 10 ori?
07:01
To 1,200? No.
143
403000
3000
La 1200? Nu.
07:04
We'veNe-am increaseda crescut it to 3.6 millionmilion.
144
406000
3000
L-am crescut la 3,6 milioane.
07:07
NobodyNimeni nu can keep that straightdrept in theiral lor headcap.
145
409000
2000
Nimeni nu poate reţine atâtea lucruri fără să le amestece.
07:09
But computerscalculatoare,
146
411000
3000
Dar computerele,
07:12
they can. They don't need coffeecafea breakspauze,
147
414000
3000
ele pot. Nu au nevoie de pauze de cafea,
07:15
they don't need vacationsvacante,
148
417000
3000
nu au nevoie de vacanţe,
07:18
they don't need to go to sleepdormi at night,
149
420000
2000
nu trebuie să doarmă noaptea,
07:20
they don't askcere for raisesridică eitherfie.
150
422000
3000
şi nici nu cer măriri de salariu.
07:23
They can keep this informationinformație straightdrept
151
425000
2000
Pot stoca aceste informaţii
07:25
and that meansmijloace that we can processproces the informationinformație.
152
427000
3000
şi asta înseamnă că noi putem procesa aceste informaţii.
07:28
So I'm going to talk to you about how to processproces it,
153
430000
2000
Deci vă voi vorbi în continuare despre se procesează acestea,
07:30
and I'm going to give you some examplesexemple out of IranIran,
154
432000
3000
şi vă voi da nişte exemple legate de Iran,
07:33
and you're going to be wonderingîntrebându-,
155
435000
2000
şi vă veţi întreba,
07:35
"Why should we listen to this guy?
156
437000
2000
"De ce l-am asculta pe tipul ăsta?
07:37
Why should we believe what he's sayingzicală?"
157
439000
3000
De ce am crede ceea ce zice?"
07:40
So I'm going to showspectacol you a factoidfactoid.
158
442000
4000
Vă voi arăta ceva ce este presupus adevărat.
07:44
This is an assessmentevaluare by the CentralCentrală IntelligenceInteligenta AgencyAgenţia
159
446000
3000
Aceasta este o evaluare a CIA
07:47
of the percentageprocent of time
160
449000
2000
a procentului de cazuri în care
07:49
that the modelmodel I'm talkingvorbind about
161
451000
2000
modelul despre care vă vorbesc
07:51
is right in predictingprezicerea things whosea caror outcomerezultat is not yetinca knowncunoscut,
162
453000
3000
este corect în a prezice lucruri, a căror finalitate nu este cunoscută încă,
07:54
when the expertsexperți who providedprevăzut the datadate inputsintrări
163
456000
4000
în momentul în care experţii care furnizau datele de intrare
07:58
got it wronggresit.
164
460000
2000
s-au înşelat.
08:00
That's not my claimRevendicare, that's a CIACIA claimRevendicare -- you can readcitit it,
165
462000
3000
Nu pretind eu asta, este ceea ce pretinde CIA-ul -- puteţi citi acest raport,
08:03
it was declassifieddeclasificate a while agoîn urmă. You can readcitit it in a volumevolum editededitat by
166
465000
3000
a fost desecretizat de ceva vreme. Îl puteţi citi într-un volum editat de
08:06
H. BradfordBradford WesterfieldWesterfield, YaleYale UniversityUniversitatea PressComunicat de presă.
167
468000
3000
H. Bradford Westerfield, Yale University Press.
08:09
So, what do we need to know
168
471000
2000
Deci, ce trebuie să ştim
08:11
in orderOrdin to predictprezice?
169
473000
2000
pentru a face o previziune?
08:13
You mayMai be surpriseduimit to find out we don't need to know very much.
170
475000
3000
Veţi fi surprinşi să aflaţi că nu trebuie să ştim prea multe.
08:16
We do need to know who has a stakemiză
171
478000
3000
Trebuie să ştim cu adevărat cine are un interes
08:19
in tryingîncercat to shapeformă the outcomerezultat of a decisiondecizie.
172
481000
5000
în a încerca să modeleze rezultatul unei decizii.
08:24
We need to know what they say they want,
173
486000
3000
Trebuie să ştim ceea ce pretind că vor,
08:27
not what they want in theiral lor heartinimă of heartsinimă,
174
489000
3000
nu ceea ce vor cu adevărat,
08:30
not what they think they can get,
175
492000
2000
nu ceea ce cred că pot obţine,
08:32
but what they say they want, because that is a strategicallystrategic chosenales positionpoziţie,
176
494000
3000
dar ceea ce spun că vor, pentru că aceasta este o poziţie strategică aleasă,
08:35
and we can work backwardsînapoi from that
177
497000
2000
şi putem face o analiză înapoi, plecând de la acest lucru,
08:37
to drawa desena inferencesconcluzii about importantimportant featurescaracteristici of theiral lor decision-makingluarea deciziilor.
178
499000
4000
pentru a face deducţii cu privire la caracteristicile importante ale procesului lor decizional.
08:41
We need to know how focusedconcentrat they are
179
503000
2000
Trebuie să ştim cât sunt de concentraţi
08:43
on the problemproblemă at handmână.
180
505000
2000
pe problemele la îndemână.
08:45
That is, how willingdispus are they to dropcădere brusca what they're doing when the issueproblema comesvine up,
181
507000
3000
Adică, cât sunt de dispuşi să renunţe la ceea ce fac la un moment dat când se pune problema
08:48
and attendparticipa la to it insteadin schimb of something elsealtfel that's on theiral lor platefarfurie --
182
510000
4000
şi să se ocupe de rezolvarea acesteia în loc de altele aflate în ordinea de zi --
08:52
how bigmare a dealafacere is it to them?
183
514000
2000
cât de importantă este pentru ei o afacere?
08:54
And how much cloutpalmă could they bringaduce to bearurs
184
516000
3000
Şi câtă influenţă ar putea să aducă la masă
08:57
if they chosea ales to engageangaja on the issueproblema?
185
519000
5000
dacă ar decide să se implice în această problemă.
09:02
If we know those things
186
524000
2000
Dacă ştim aceste lucruri
09:04
we can predictprezice theiral lor behaviorcomportament by assumingpresupunând that everybodytoata lumea
187
526000
3000
le putem prezice comportamentul presupunând că tuturor
09:07
caresgriji about two things on any decisiondecizie.
188
529000
5000
le pasă de două lucruri în luarea oricărei decizii.
09:12
They careîngrijire about the outcomerezultat. They'dS-ar like an outcomerezultat as closeînchide to
189
534000
2000
Le pasă de rezultat. Şi-ar dori un rezultat cât mai apropiat
09:14
what they are interestedinteresat in as possibleposibil.
190
536000
3000
de ceea ce îi interesează, pe cât posibil.
09:17
They're careeristscareerists, they alsode asemenea careîngrijire about gettingobtinerea creditcredit --
191
539000
3000
Sunt carierişti, preocupaţi de asemenea de a căpăta credibilitate --
09:20
there's egoego-ul involvementimplicare,
192
542000
2000
este implicarea ego-ului,
09:22
they want to be seenvăzut as importantimportant in shapingmodelarea the outcomerezultat,
193
544000
4000
vor să fie văzuţi ca având un rol important în modelarea rezultatului,
09:26
or as importantimportant, if it's theiral lor druthersDruthers, to blockbloc an outcomerezultat.
194
548000
5000
sau importanţi, dacă asta este ceea ce preferă, în a bloca un rezultat.
09:31
And so we have to figurefigura out how they balanceechilibru those two things.
195
553000
3000
Şi deci trebuie să ne dăm seama cum echilibrează cele două lucruri.
09:34
DifferentDiferite people tradecomerț off
196
556000
2000
Unii oameni fac un compromis
09:36
betweenîntre standingpermanent by theiral lor outcomerezultat,
197
558000
3000
între a-şi susţine rezultatul,
09:39
faithfullycu stima holdingdeținere to it, going down in a blazeincendiul of gloryglorie,
198
561000
3000
cu îndârjire, căzând acoperiţi de glorie,
09:42
or givingoferindu- it up, puttingpunând theiral lor fingerdeget in the windvânt,
199
564000
3000
sau a renunţa la el, a se orienta după cum bate vântul,
09:45
and doing whateverindiferent de they think is going to be a winningcâștigător positionpoziţie.
200
567000
3000
şi adoptând acea decizie pe care ei o cred câştigătoare
09:48
MostCele mai multe people fallcădea in betweenîntre, and if we can work out where they fallcădea
201
570000
3000
Cei mai mulţi oameni adoptă însă calea de mijloc şi dacă ne putem da seama de orientarea lor,
09:51
we can work out how to negotiatea negocia with them
202
573000
2000
ne putem da seama cum să negociem cu ei
09:53
to changeSchimbare theiral lor behaviorcomportament.
203
575000
2000
şi să le schimbăm comportamentul.
09:55
So with just that little bitpic of inputintrare
204
577000
3000
Deci cu aceste puţine informaţii iniţiale
09:58
we can work out what the choicesalegeri are that people have,
205
580000
3000
putem determina ce alegeri au oamenii,
10:01
what the chancesșansele are that they're willingdispus to take,
206
583000
3000
care este riscul pe care sunt dispuşi să şi-l asume,
10:04
what they're after, what they valuevaloare, what they want,
207
586000
3000
ce urmăresc, ce preţuiesc, ce vor,
10:07
and what they believe about other people.
208
589000
3000
şi ce cred despre alţi oameni.
10:10
You mightar putea noticeînștiințare what we don't need to know:
209
592000
4000
Puteţi observa ce nu e nevoie să ştim,
10:14
there's no historyistorie in here.
210
596000
2000
nu este implicată istoria aici.
10:16
How they got to where they are
211
598000
2000
Cum au ajuns unde sunt
10:18
mayMai be importantimportant in shapingmodelarea the inputintrare informationinformație,
212
600000
2000
poate fi important în a modela informaţiile de intrare,
10:20
but onceo singura data we know where they are
213
602000
2000
dar o dată ce ştim punctul în care se află
10:22
we're worriedîngrijorat about where they're going to be headedintitulat in the futureviitor.
214
604000
3000
sunt preocupaţi de ceea ce vor decide să facă pe viitor.
10:25
How they got there turnstransformă out not to be terriblyteribil criticalcritic in predictingprezicerea.
215
607000
4000
Cum au ajuns până acolo nu este extrem de important pentru predicţie.
10:29
I remindreaminti you of that 90 percentla sută accuracyprecizie raterată.
216
611000
4000
Vă reamintesc de acurateţea de 90% a modelului.
10:33
So where are we going to get this informationinformație?
217
615000
2000
Deci de unde vom face rost de aceste informaţii?
10:35
We can get this informationinformație
218
617000
3000
Putem lua aceste informaţii
10:38
from the InternetInternet, from The EconomistEconomist,
219
620000
3000
de pe Internat, din The Economist,
10:41
The FinancialFinanciare TimesOri, The NewNoi YorkYork TimesOri,
220
623000
3000
The Financial Times, The New York Times,
10:44
U.S. NewsStiri and WorldLumea ReportRaport, lots of sourcessurse like that,
221
626000
3000
U.S. News sau World Report, multe surse de genul acesta,
10:47
or we can get it from askingcer expertsexperți
222
629000
2000
sau putem întreba experţi
10:49
who spendpetrece theiral lor livesvieți studyingstudiu placeslocuri and problemsProbleme,
223
631000
3000
care îşi petrec viaţa studiind locuri şi probleme,
10:52
because those expertsexperți know this informationinformație.
224
634000
3000
deoarece acei experţi cunosc aceste informaţii.
10:55
If they don't know, who are the people tryingîncercat to influenceinfluență the decisiondecizie,
225
637000
3000
Dacă nu ştiu, cine sunt acei oameni care încearcă să influenţeze decizia,
10:58
how much cloutpalmă do they have,
226
640000
2000
cât de multe cunosc,
11:00
how much they careîngrijire about this issueproblema, and what do they say they want,
227
642000
3000
cât de mult le pasă de acea problemă şi ce afirmă că vor,
11:03
are they expertsexperți? That's what it meansmijloace to be an expertexpert,
228
645000
3000
sunt experţi? Asta înseamnă să fii expert,
11:06
that's the basicde bază stuffchestie an expertexpert needsare nevoie to know.
229
648000
4000
astea sunt lucrurile de bază pe care un expert trebuie să le cunoască.
11:10
AlrightBine, letspermite turnviraj to IranIran.
230
652000
2000
În regulă, să ne întoarcem la Iran.
11:12
Let me make threeTrei importantimportant predictionsPredictii --
231
654000
3000
Să facem trei predicţii importante --
11:15
you can checkVerifica this out, time will tell.
232
657000
3000
puteţi să verificaţi, timpul va confirma.
11:18
What is IranIran going to do about its nuclearnuclear weaponsarme programprogram?
233
660000
8000
Ce va face Iranul cu privire la programul armelor nucleare?
11:26
How secureSecure is the theocraticteocratic regimeregim in IranIran?
234
668000
3000
Cât de sigur este regimul teocratic în Iran?
11:29
What's its futureviitor?
235
671000
2000
Care este viitorul acestuia?
11:31
And everybody'stoată lumea e bestCel mai bun friendprieten,
236
673000
3000
Şi cel mai bun prieten al tuturor,
11:34
AhmadinejadAhmadinejad. How are things going for him?
237
676000
3000
Ahmadi-Nejad. Cum îi merge?
11:37
How are things going to be workinglucru out for him in the nextUrmător → yearan or two?
238
679000
6000
Ce se va întâmpla cu el în următorii un an sau doi?
11:43
You take a look at this, this is not basedbazat on statisticsstatistici.
239
685000
3000
Uitaţi-vă la acest grafic, nu este bazat pe statistici.
11:46
I want to be very clearclar here. I'm not projectingproiectând some pasttrecut datadate into the futureviitor.
240
688000
5000
Vreau să fie foarte clar. Nu proiectez nişte date din trecut, în viitor.
11:51
I've takenluate inputsintrări on positionspozițiile and so forthmai departe,
241
693000
3000
Am luat date de intrare cu privire la poziţii şi aşa mai departe,
11:54
runalerga it throughprin a computercomputer modelmodel
242
696000
2000
le-am rulat printr-un model computerizat
11:56
that had simulatedsimulat the dynamicsdinamică of interactioninteracţiune,
243
698000
3000
care a simulat dinamica interacţiunilor,
11:59
and these are the simulatedsimulat dynamicsdinamică,
244
701000
2000
iar acestea sunt rezultatele situlării,
12:01
the predictionsPredictii about the pathcale of policypolitică.
245
703000
3000
predicţiile cu privire la evoluţia politicilor.
12:04
So you can see here on the verticalvertical axisaxă,
246
706000
3000
Deci puteţi vedea aici, pe axa verticală,
12:07
I haven'tnu au shownafișate it all the way down to zerozero,
247
709000
2000
nu am reprezentat-o până la 0,
12:09
there are lots of other optionsOpțiuni, but here I'm just showingarătând you the predictionprezicere,
248
711000
3000
sunt multe alte posibilităţi, dar aici vă arăt numai predicţia,
12:12
so I've narrowedîngustat the scalescară.
249
714000
2000
aşa că am restrâns scara,
12:14
Up at the toptop of the axisaxă, "BuildConstrui the BombBomba."
250
716000
3000
în partea superioară a axei, "Construirea unei bombe".
12:17
At 130, we startstart somewhereundeva abovede mai sus 130,
251
719000
4000
La 130, începem de undeva mai sus de 130,
12:21
betweenîntre buildingclădire a bombbombă, and makingluare enoughdestul weapons-gradearme-grad fuelcombustibil
252
723000
3000
între a construi o bombă şi a produce suficient combustibil nuclear
12:24
so that you could buildconstrui a bombbombă.
253
726000
2000
pentru a se putea construi o bombă.
12:26
That's where, accordingin conformitate to my analysesanalize,
254
728000
3000
În acest punct, potrivit analizei mele,
12:29
the IraniansIranienii were at the beginningînceput of this yearan.
255
731000
3000
se situa Iranul la începutul acestui an.
12:32
And then the modelmodel makesmărci predictionsPredictii down the roaddrum.
256
734000
3000
Apoi, conform modelului se poate observa o scădere,
12:35
At 115 they would only producelegume şi fructe enoughdestul weaponsarme gradecalitate fuelcombustibil
257
737000
4000
la 115 - vor produce suficient combustibil nuclear
12:39
to showspectacol that they know how, but they wouldn'tnu ar fi buildconstrui a weaponarmă:
258
741000
2000
pentru a arăta că pot face asta, dar nu vor construi o bombă,
12:41
they would buildconstrui a researchcercetare quantitycantitatea.
259
743000
2000
vor produce în scop de cercetare.
12:43
It would achieveobține some nationalnaţional pridemândria,
260
745000
2000
Asta le-ar aduce mândrie naţională,
12:45
but not go aheadînainte and buildconstrui a weaponarmă.
261
747000
3000
dar nu s-ar apuca să construiască o armă.
12:48
And down at 100 they would buildconstrui civiliancivil nuclearnuclear energyenergie,
262
750000
2000
Şi jos la 100 ar produce energie nucleară pentru civili,
12:50
whichcare is what they say is theiral lor objectiveobiectiv.
263
752000
4000
ceea ce ei susţin că ar fi obiectivul lor.
12:54
The yellowgalben linelinia showsspectacole us the mostcel mai likelyprobabil pathcale.
264
756000
3000
Linia galbenă ne arată scenariul cel mai probabil.
12:57
The yellowgalben linelinia includesinclude an analysisanaliză
265
759000
1000
Linia galbenă include o analiză
12:58
of 87 decisiondecizie makersfactorii de decizie in IranIran,
266
760000
3000
a 87 de decidenţi din Iran,
13:01
and a vastvast numbernumăr of outsidein afara influencersinfluenţă
267
763000
3000
şi număr vast de persoane influente din străinătate
13:04
tryingîncercat to pressurepresiune IranIran into changingschimbare its behaviorcomportament,
268
766000
3000
care încearcă să preseze Iranul pentru a-şi schimba comportamentul,
13:07
variousvariat playersjucători in the UnitedMarea StatesStatele, and EgyptEgipt,
269
769000
3000
diverşi jucători din Statele Unite şi Egipt,
13:10
and SaudiArabia Saudită ArabiaArabia, and RussiaRusia, EuropeanEuropene UnionUniunea,
270
772000
2000
şi Arabia Saudită şi Rusia, Uniunea Europeană,
13:12
JapanJaponia, so on and so forthmai departe.
271
774000
2000
Japonia şi aşa mai departe.
13:14
The whitealb linelinia reproducesreproduce the analysisanaliză
272
776000
4000
Linia albă reproduce analiza
13:18
if the internationalinternaţional environmentmediu inconjurator
273
780000
2000
în situaţia în care mediul internaţional
13:20
just left IranIran to make its ownpropriu internalintern decisionsdeciziile,
274
782000
3000
ar lăsa Iranul să ia propriile decizii pe plan intern,
13:23
undersub its ownpropriu domesticintern politicalpolitic pressurespresiunile.
275
785000
2000
sub propriile presiuni politice interne --
13:25
That's not going to be happeninglucru,
276
787000
2000
ceea ce nu se va întâmpla --
13:27
but you can see that the linelinia comesvine down fastermai repede
277
789000
4000
dar puteţi vedea că linia coboară mai brusc
13:31
if they're not put undersub internationalinternaţional pressurepresiune,
278
793000
3000
dacă nu sunt supuşi presiunii internaţionale,
13:34
if they're allowedpermis to pursueurmări theiral lor ownpropriu devicesdispozitive.
279
796000
2000
dacă sunt lăsaţi să-şi urmărească propriile mecanisme.
13:36
But in any eventeveniment, by the endSfârşit of this yearan,
280
798000
3000
Dar în orice caz, până la sfârşitul acestui an,
13:39
beginningînceput of nextUrmător → yearan, we get to a stablegrajd equilibriumechilibru outcomerezultat.
281
801000
3000
începutul anului următor, vom ajunge la un echilibru stabil.
13:42
And that equilibriumechilibru is not what the UnitedMarea StatesStatele would like,
282
804000
4000
Iar echilibrul nu este ceea ce şi-ar fi dorit Statele Unite,
13:46
but it's probablyprobabil an equilibriumechilibru that the UnitedMarea StatesStatele can livetrăi with,
283
808000
3000
dar este un echilibru cu care Statele Unite se pot împăca,
13:49
and that a lot of othersalții can livetrăi with.
284
811000
2000
şi cu care mulţi alţii se vor împăca.
13:51
And that is that IranIran will achieveobține that nationalistnaţionalist pridemândria
285
813000
4000
Şi asta este că Iranul va obţine mândria naţionalistă
13:55
by makingluare enoughdestul weapons-gradearme-grad fuelcombustibil, throughprin researchcercetare,
286
817000
4000
producând suficient combustibil nuclear, pentru cercetare,
13:59
so that they could showspectacol that they know how to make weapons-gradearme-grad fuelcombustibil,
287
821000
4000
pentru a arăta că pot produce combustibil nuclear,
14:03
but not enoughdestul to actuallyde fapt buildconstrui a bombbombă.
288
825000
5000
dar insuficient pentru a construi în realitate o bombă.
14:08
How is this happeninglucru?
289
830000
2000
Cum se va întâmpla asta?
14:10
Over here you can see this is the distributiondistribuire
290
832000
4000
Aici puteţi observa distribuţia
14:14
of powerputere in favorfavoare of civiliancivil nuclearnuclear energyenergie todayastăzi,
291
836000
5000
puterii în favoarea energiei nuclear în scop civil, în prezent,
14:19
this is what that powerputere blockbloc is predicteda prezis to be like
292
841000
3000
aşa se prezice că va arăta blocul de putere
14:22
by the latetârziu partspărți of 2010, earlydin timp partspărți of 2011.
293
844000
6000
spre sfârşitul anului 2010, începutul anului 2011.
14:28
Just about nobodynimeni supportssprijină researchcercetare on weapons-gradearme-grad fuelcombustibil todayastăzi,
294
850000
4000
Aproape nimeni nu susţine cercetarea cu privire la combustibilul nuclear în prezent,
14:32
but by 2011 that getsdevine to be a bigmare blockbloc,
295
854000
3000
dar până în 2011 acesta va ajunge să fie un grup considerabil,
14:35
and you put these two togetherîmpreună, that's the controllingcontrolul influenceinfluență in IranIran.
296
857000
4000
şi corelândd cele două lucruri, aceata este influenţa determinantă în Iran.
14:39
Out here todayastăzi, there are a bunchbuchet of people --
297
861000
3000
Există în acest moment un grup de oameni --
14:42
AhmadinejadAhmadinejad for exampleexemplu --
298
864000
2000
Ahmadinejad spre exemplu --
14:44
who would like not only to buildconstrui a bombbombă,
299
866000
2000
cărora le-ar plăcea nu numai să construiască o bombă,
14:46
but testTest a bombbombă.
300
868000
2000
dar să testeze o bombă.
14:48
That powerputere disappearsdispare completelycomplet;
301
870000
2000
Această putere va dispărea complet,
14:50
nobodynimeni supportssprijină that by 2011.
302
872000
3000
nimeni nu va mai susţine asta în 2011.
14:53
These guys are all shrinkingscădere,
303
875000
2000
Aceşti oameni devin tot mai slabi,
14:55
the powerputere is all driftingderivă out here,
304
877000
3000
Toată puterea se mută aici
14:58
so the outcomerezultat is going to be the weapons-gradearme-grad fuelcombustibil.
305
880000
3000
astfel încât rezultatul va fi combustibilul nuclear.
15:01
Who are the winnerscâştigătorii and who are the losersînvinşi in IranIran?
306
883000
3000
Cine sunt câştigătorii şi care sunt perdanţii în Iran?
15:04
Take a look at these guys, they're growingcreştere in powerputere,
307
886000
3000
Uitaţi-vă la aceşti oameni, puterea lor creşte,
15:07
and by the way, this was doneTerminat a while agoîn urmă
308
889000
3000
şi apropopo, acest model a fost făcut acum ceva vreme
15:10
before the currentactual economiceconomic crisiscriză,
309
892000
2000
înainte de criza economica
15:12
and that's probablyprobabil going to get steepermai abruptă.
310
894000
2000
care probabil va înrăutăţi situaţia.
15:14
These folksoameni buni are the moneyedcu bani interestsinterese in IranIran,
311
896000
2000
Aceşti oameni sunt deţinătorii puterii economice în Iran,
15:16
the bankersbancheri, the oilulei people, the bazaariesbazaaries.
312
898000
4000
bancheri, moguli ai petrolului, comercianţi,
15:20
They are growingcreştere in politicalpolitic cloutpalmă,
313
902000
3000
cresc în influenţă politică,
15:23
as the mullahsmolahilor are isolatingizolarea themselvesînșiși --
314
905000
3000
pe măsură ce mulahii se izolează --
15:26
with the exceptionexcepție of one groupgrup of mullahsmolahilor,
315
908000
2000
cu excepţia unui singur grup de mulahi,
15:28
who are not well knowncunoscut to AmericansAmericanii.
316
910000
2000
care sunt foarte cunoscuţi americanilor.
15:30
That's this linelinia here, growingcreştere in powerputere,
317
912000
2000
Este această linie de aici, crescând în influenţă,
15:32
these are what the IraniansIranienii call the quietistsquietists.
318
914000
4000
sunt ceea ce iranienii numesc Liniştitori.
15:36
These are the AyatollahsAyatollahi, mostlyMai ales basedbazat in QomQom,
319
918000
3000
Aceştia sunt Ayatolahii, în special localizaţi în Qom,
15:39
who have great cloutpalmă in the religiousreligios communitycomunitate,
320
921000
4000
care au o mare influenţă în comunitatea religioasă,
15:43
have been quietLiniște on politicspolitică and are going to be gettingobtinerea loudermai tare,
321
925000
3000
au fost discreti in politica dar se vor face auziţi,
15:46
because they see IranIran going in an unhealthynesănătos directiondirecţie,
322
928000
2000
pentru că văd Iranul îndreptându-se într-o direcţie nesănătoasă,
15:48
a directiondirecţie contrarycontrar
323
930000
2000
o direcţie contrară
15:50
to what KhomeiniKhomeini had in mindminte.
324
932000
4000
celei la care se gândeau Khomeini.
15:54
Here is MrDomnul. AhmadinejadAhmadinejad.
325
936000
2000
Aici este Dl. Ahmadinejad.
15:56
Two things to noticeînștiințare: he's gettingobtinerea weakermai slab,
326
938000
3000
Două lucruri de observat, devine mai slab,
15:59
and while he getsdevine a lot of attentionAtenţie in the UnitedMarea StatesStatele,
327
941000
2000
şi în ciuda faptului că primeşte multă atenţie din partea Statelor Unite,
16:01
he is not a majormajor playerjucător in IranIran.
328
943000
2000
nu este un jucător important în Iran,
16:03
He is on the way down.
329
945000
2000
se prăbuşeşte.
16:05
OK, so I'd like you to take a little away from this.
330
947000
4000
OK, deci mi-ar plăcea să rămâneţi cu ceva.
16:09
Everything is not predictablepredictibil: the stockstoc marketpiaţă
331
951000
2000
Nu toate lucrurile sunt predictibile, bursa de valori
16:11
is, at leastcel mai puţin for me, not predictablepredictibil,
332
953000
3000
este, cel puţin pentru mine, impredictibilă,
16:14
but mostcel mai complicatedcomplicat negotiationsnegocieri are predictablepredictibil.
333
956000
5000
dar cele mai complexe negocieri pot fi prezise.
16:19
Again, whetherdacă we're talkingvorbind healthsănătate policypolitică, educationeducaţie,
334
961000
4000
Din nou, vorbind despree politica de sănătate, educaţie,
16:23
environmentmediu inconjurator, energyenergie,
335
965000
3000
mediu, energie,
16:26
litigationlitigiu, mergersfuziuni,
336
968000
2000
procese, fuziuni,
16:28
all of these are complicatedcomplicat problemsProbleme
337
970000
2000
toate acestea sunt probleme complicate
16:30
that are predictablepredictibil,
338
972000
2000
care pentru care se poate face o predicţie,
16:32
that this sortfel of technologytehnologie can be appliedaplicat to.
339
974000
4000
pentru care poate fi aplicat acest model.
16:36
And the reasonmotiv that beingfiind ablecapabil to predictprezice those things is importantimportant,
340
978000
5000
Motivul pentru care este important că putem prezice aceste lucruri,
16:41
is not just because you mightar putea runalerga a hedgegard viu fundfond and make moneybani off of it,
341
983000
3000
nu este pentru a putea dezvolta un fond de investiţii şi să faci bani din asta,
16:44
but because if you can predictprezice what people will do,
342
986000
3000
ci că putem prezice ce vor face oamenii,
16:47
you can engineeringiner what they will do.
343
989000
3000
putem proiecta ce vor face.
16:50
And if you engineeringiner what they do you can changeSchimbare the worldlume,
344
992000
2000
Iar dacă descoperim ce vor face, putem schimba lumea
16:52
you can get a better resultrezultat.
345
994000
2000
putem obţine un rezultat mai bune.
16:54
I would like to leavepărăsi you with one thought, whichcare is
346
996000
3000
As vrea să vă las cu o problemă de gândire, care reprezintă
16:57
for me, the dominantdominant themetemă of this gatheringadunare,
347
999000
5000
pentru mine, tema principală a acestei întâlniri,
17:02
and is the dominantdominant themetemă of this way of thinkinggândire about the worldlume.
348
1004000
3000
şi tema dominantă a acestui mod de a privi lumea.
17:05
When people say to you,
349
1007000
3000
Când cineva vă spune,
17:08
"That's impossibleimposibil,"
350
1010000
2000
"Asta este imposibil,"
17:10
you say back to them,
351
1012000
2000
să-i răspundeţi
17:12
"When you say 'That's"Asta e impossibleimposibil,'
352
1014000
2000
"Când spuneţi "
17:14
you're confusedconfuz with,
353
1016000
2000
faceţi confuzie cu
17:16
'I don't know how to do it.'"
354
1018000
3000
17:19
Thank you.
355
1021000
2000
Mulţumesc.
17:21
(ApplauseAplauze)
356
1023000
4000
(Aplauze)
17:25
ChrisChris AndersonAnderson: One questionîntrebare for you.
357
1027000
2000
Chris Anderson: O întrebare pentru dumneavoastră.
17:27
That was fascinatingfascinant.
358
1029000
3000
A fost fascinant.
17:30
I love that you put it out there.
359
1032000
3000
Mă bucur că aţi făcut-o publică.
17:33
I got very nervousagitat halfwayla jumătatea distanței throughprin the talk thoughdeşi,
360
1035000
2000
Am devenit foarte neliniştit pe la mijlocul discuţiei însă,
17:35
just panickingpanica whetherdacă you'dte-ai includedinclus in your modelmodel, the possibilityposibilitate that
361
1037000
3000
gândindu-mă cu teamă dacă veţi include în model, posibilitatea ca
17:38
puttingpunând this predictionprezicere out there mightar putea changeSchimbare the resultrezultat.
362
1040000
4000
publicarea acestei predicţii ar putea schimba rezultatul.
17:42
We'veNe-am got 800 people in TehranTeheran who watch TEDTalksTEDTalks.
363
1044000
3000
Avem 800 de persoane în Teheran care urmăresc discuţiile TED.
17:45
BruceBruce BuenoBueno dede MesquitaMesquita: I've thought about that,
364
1047000
2000
Bruce Bueno de Mesquita: M-am gândit la asta,
17:47
and sincede cand I've doneTerminat a lot of work for the intelligenceinteligență communitycomunitate,
365
1049000
4000
de vreme ce am lucrat multă vreme pentru comunitatea de informaţii,
17:51
they'vele-au alsode asemenea ponderedmeditat that.
366
1053000
2000
şi ei au luat asta în considerare.
17:53
It would be a good thing if
367
1055000
3000
Ar fi un lucru bun dacă
17:56
people paidplătit more attentionAtenţie, tooka luat seriouslySerios,
368
1058000
3000
oamenii ar fi mai atenţi, ar lua în serios,
17:59
and engagedangajat in the samela fel sortsfelul of calculationscalcule,
369
1061000
2000
şi s-ar implica în acelaşi tip de calcule,
18:01
because it would changeSchimbare things. But it would changeSchimbare things in two beneficialbenefice waysmoduri.
370
1063000
4000
pentru că asta ar schimba anumite lucruri. Dar ar schimba lucrurile în două moduri pozitive.
18:05
It would hastengrăbi how quicklyrepede people arriveajunge at an agreementacord,
371
1067000
6000
Ar scurta timpul în care oamenii ajung la o înţelegere,
18:11
and so it would saveSalvați everybodytoata lumea a lot of griefdurerea and time.
372
1073000
3000
şi asta ar scuti pe toată lumea de multă suferinţă şi pierdere de timp.
18:14
And, it would arriveajunge at an agreementacord that everybodytoata lumea was happyfericit with,
373
1076000
4000
Şi ar ajunge la o înţelegere cu care toată lumea este mulţumită,
18:18
withoutfără havingavând to manipulatemanipula them so much --
374
1080000
3000
fără a fi nevoie să manipulăm atât de mult --
18:21
whichcare is basicallype scurt what I do, I manipulatemanipula them.
375
1083000
3000
adică ceea ce fac, eu de fapt, îi manipulez.
18:24
So it would be a good thing.
376
1086000
2000
Deci ar fi un lucru bun.
18:26
CACA: So you're kinddrăguț of tryingîncercat to say, "People of IranIran, this is your destinydestin, letspermite go there."
377
1088000
4000
CA: Deci încerci de fapt să spui, "Oameni din Iran, acesta este destinul vostru, hai să ajungem acolo."
18:30
BBMBBM: Well, people of IranIran, this is what manymulți of you are going to evolveevolua to want,
378
1092000
6000
BBM: De fapt, oameni din Iran, asta este ceea ce multi dintre voi vor ajunge să îşi dorească
18:36
and we could get there a lot soonermai curând,
379
1098000
2000
şi am putea ajunge la acest rezultat mult mai curând,
18:38
and you would suffersuferi a lot lessMai puțin troublebucluc from economiceconomic sanctionssancţiuni,
380
1100000
3000
şi aţi suferi mult mai puţin din cauza sancţiunilor economice,
18:41
and we would suffersuferi a lot lessMai puțin fearfrică of the use of militarymilitar forceforta on our endSfârşit,
381
1103000
6000
iar noi am avea mai puţină teamă că va fi folosită forţa militară din partea voastră,
18:47
and the worldlume would be a better placeloc.
382
1109000
2000
iar lumea ar fi un loc mai bun.
18:49
CACA: Here'sAici este hopingîn speranța they hearauzi it that way. Thank you very much BruceBruce.
383
1111000
3000
CA: Sper să fie percepută în acest mod. Mulţumesc foarte mult Bruce.
18:52
BBMBBM: Thank you.
384
1114000
2000
BBM: Mulţumesc.
18:54
(ApplauseAplauze)
385
1116000
5000
(Aplauze)
Translated by Cristina Târşoagă
Reviewed by Lucian BIBO

▲Back to top

ABOUT THE SPEAKER
Bruce Bueno de Mesquita - Political scientist
A consultant to the CIA and the Department of Defense, Bruce Bueno de Mesquita has built an intricate computer model that can predict the outcomes of international conflicts with bewildering accuracy.

Why you should listen

Every motive has a number, says Bruce Bueno de Mesquita. A specialist in foreign policy, international relations and state building, he is also a leading -- if controversial -- scholar of rational choice theory, which says math underlies the nation-scale consequences of individuals acting for personal benefit. He created forecasting technology that has, time and again, exceeded the accuracy of old-school analysis, even with thorny quarrels charged by obscure contenders, and often against odds. (One example: He called the second Intifada two years in advance.)

Bueno de Mesquita's company, Mesquita & Roundell, sells his system's predictions and analysis to influential government and private institutions that need heads-ups on policy. He teaches at NYU and is a senior fellow at the Hoover Institution.

More profile about the speaker
Bruce Bueno de Mesquita | Speaker | TED.com