ABOUT THE SPEAKER
Sam Harris - Neuroscientist, philosopher
Sam Harris's work focuses on how our growing understanding of ourselves and the world is changing our sense of how we should live.

Why you should listen

Sam Harris is the author of five New York Times bestsellers. His books include The End of FaithLetter to a Christian Nation, The Moral Landscape, Free Will, Lying, Waking Up and Islam and the Future of Tolerance (with Maajid Nawaz). The End of Faith won the 2005 PEN Award for Nonfiction. Harris's writing and public lectures cover a wide range of topics -- neuroscience, moral philosophy, religion, spirituality, violence, human reasoning -- but generally focus on how a growing understanding of ourselves and the world is changing our sense of how we should live.

Harris's work has been published in more than 20 languages and has been discussed in the New York Times, Time, Scientific American, Nature, Newsweek, Rolling Stone and many other journals. He has written for the New York Times, the Los Angeles Times, The Economist, The Times (London), the Boston Globe, The Atlantic, The Annals of Neurology and elsewhere. Harris also regularly hosts a popular podcast.

Harris received a degree in philosophy from Stanford University and a Ph.D. in neuroscience from UCLA.

More profile about the speaker
Sam Harris | Speaker | TED.com
TEDSummit

Sam Harris: Can we build AI without losing control over it?

Sam Harris: Podem desenvolupar una IA sense perdre'n el control?

Filmed:
5,024,015 views

Us fa por la IA superintel·ligent? "Us n'hauria de fer" és el que diu el neurocientífic i filòsof Sam Harris, i no només de forma teòrica. Estem en camí de construir màquines suprahumanes, diu en Harris, però en canvi encara no hem pensat en els problemes associats a crear quelcom que podria tractar-nos de la mateixa manera que nosaltres tractem a les formigues.
- Neuroscientist, philosopher
Sam Harris's work focuses on how our growing understanding of ourselves and the world is changing our sense of how we should live. Full bio

Double-click the English transcript below to play the video.

00:13
I'm going to talk
about a failurefracàs of intuitionintuïció
0
1000
2216
Tot seguit parlaré
sobre una manca d'intuïció
00:15
that manymolts of us sufferpateix from.
1
3240
1600
que molts de nosaltres patim.
00:17
It's really a failurefracàs
to detectdetectar a certaincert kindamable of dangerperill.
2
5480
3040
És una dificultat per detectar
un tipus de perill específic.
00:21
I'm going to describedescriure a scenarioescenari
3
9360
1736
Imagineu-vos el següent escenari,
00:23
that I think is bothtots dos terrifyingaterrador
4
11120
3256
que jo crec que és esgarrifós
00:26
and likelyprobablement to occures produeixen,
5
14400
1760
i alhora ben probable.
00:28
and that's not a good combinationcombinació,
6
16840
1656
Això no és pas una bona combinació
00:30
as it turnsgirs out.
7
18520
1536
pel que sembla.
00:32
And yetencara rathermés aviat than be scaredespantat,
mostla majoria of you will feel
8
20080
2456
I enlloc d'espantar-vos,
molts creureu
00:34
that what I'm talkingparlar about
is kindamable of coolguai.
9
22560
2080
que allò del que parlo
és divertit.
00:37
I'm going to describedescriure
how the gainsguanys we make
10
25200
2976
M'agradaria explicar
que els avenços que fem
00:40
in artificialartificial intelligenceintel·ligència
11
28200
1776
en intel·ligència artificial
00:42
could ultimatelyen definitiva destroydestruir us.
12
30000
1776
poden acabar destruint-nos.
00:43
And in factfet, I think it's very difficultdifícil
to see how they won'tno ho farà destroydestruir us
13
31800
3456
I de fet, crec que és ben difícil
no veure com no ens poden destruir
00:47
or inspireinspirar us to destroydestruir ourselvesnosaltres mateixos.
14
35280
1680
o fer que ens autodestruïm.
00:49
And yetencara if you're anything like me,
15
37400
1856
Tot i així, si penseu com jo,
00:51
you'llho faràs find that it's fundiversió
to think about these things.
16
39280
2656
veureu que és distret
pensar en aquestes coses.
00:53
And that responseresposta is partpart of the problemproblema.
17
41960
3376
I aquesta és la resposta
que és part del problema.
00:57
OK? That responseresposta should worrypreocupació you.
18
45360
1720
És la que hauria d'amoïnar-vos.
00:59
And if I were to convinceconvencer you in this talk
19
47920
2656
I si us hagués de convèncer
amb aquesta xerrada
01:02
that we were likelyprobablement
to sufferpateix a globalglobal faminefam,
20
50600
3416
de que és ben possible
que arribem a patir una fam mundial,
01:06
eithertampoc because of climateclima changecanviar
or some other catastrophecatàstrofe,
21
54040
3056
ja sigui pel canvi climàtic
o per qualsevol altra catàstrofe,
01:09
and that your grandchildrennéts,
or theirels seus grandchildrennéts,
22
57120
3416
i que els vostres néts,
o els seus néts,
01:12
are very likelyprobablement to liveen directe like this,
23
60560
1800
probablement viuran així,
01:15
you wouldn'tno ho faria think,
24
63200
1200
no pensaríeu:
01:17
"InterestingInteressant.
25
65440
1336
"Interessant.
01:18
I like this TEDTED Talk."
26
66800
1200
M'agrada aquesta xerrada TED."
01:21
FamineFam isn't fundiversió.
27
69200
1520
La fam no és divertida.
01:23
DeathMort by scienceciència fictionficció,
on the other hand, is fundiversió,
28
71800
3376
La mort en la ciència ficció,
en canvi, sí que ho és,
01:27
and one of the things that worriespreocupacions me mostla majoria
about the developmentdesenvolupament of AIAI at this pointpunt
29
75200
3976
i el que més em preocupa
sobre el progrés de la IA ara mateix
01:31
is that we seemsembla unableincapaç to marshalMariscal
an appropriateapropiat emotionalemocional responseresposta
30
79200
4096
és que no sembla que siguem capaços
de respondre com cal a nivell emocional
01:35
to the dangersperills that liementir aheadendavant.
31
83320
1816
als perills que ens esperen.
01:37
I am unableincapaç to marshalMariscal this responseresposta,
and I'm givingdonant this talk.
32
85160
3200
No sóc capaç de respondre-hi
i ara em trobo donant aquesta xerrada.
01:42
It's as thoughperò we standestand before two doorsportes.
33
90120
2696
És com si ens trobéssim
davant dues portes.
01:44
BehindDarrere doorporta numbernúmero one,
34
92840
1256
Rera la porta número u,
01:46
we stop makingelaboració progressprogrés, progressar
in buildingedifici intelligentintel · ligent machinesmàquines.
35
94120
3296
deixem de progressar
i de construir màquines intel·ligents.
01:49
Our computerordinador hardwaremaquinari and softwareprogramari
just stopss'atura gettingaconseguint better for some reasonraó.
36
97440
4016
El nostre maquinari i programari
deixa de millorar per alguna raó.
01:53
Now take a momentmoment
to considerconsidereu why this mightpotser happenpassar.
37
101480
3000
Penseu durant uns instants
per què podria passar això.
01:57
I mean, givendonat how valuablevaluós
intelligenceintel·ligència and automationAutomatització are,
38
105080
3656
Vull dir, ja que la intel·ligència
i la automatització són tan valuoses,
02:00
we will continuecontinueu to improvemillorar our technologytecnologia
if we are at all ablecapaç to.
39
108760
3520
seguirem millorant la tecnologia
sempre que siguem sent capaços.
02:05
What could stop us from doing this?
40
113200
1667
Què podria impedir-nos-ho?
02:07
A full-scalegran escala nuclearnuclear warguerra?
41
115800
1800
Potser una guerra nuclear mundial?
02:11
A globalglobal pandemicpandèmia?
42
119000
1560
O una gran epidèmia?
02:14
An asteroidasteroide impactimpacte?
43
122320
1320
L'impacte d'un asteroide?
02:17
JustinJustin BieberBieber becomingconvertint-se
presidentpresident of the UnitedRegne StatesUnits?
44
125640
2576
Justin Bieber com
president dels Estats Units?
02:20
(LaughterRiure)
45
128240
2280
(Riures)
02:24
The pointpunt is, something would have to
destroydestruir civilizationcivilització as we know it.
46
132760
3920
Alguna cosa hauria de destruir
la civilització tal i com la coneixem.
02:29
You have to imagineimaginar
how baddolent it would have to be
47
137360
4296
Imagineu-vos com de greu hauria de ser
02:33
to preventprevenir us from makingelaboració
improvementsmillores in our technologytecnologia
48
141680
3336
per impedir-nos seguir
millorant la tecnologia
02:37
permanentlypermanentment,
49
145040
1216
de forma permanent,
02:38
generationgeneració after generationgeneració.
50
146280
2016
generació rera generació.
02:40
AlmostGairebé by definitiondefinició,
this is the worstel pitjor thing
51
148320
2136
Quasi per definició,
es tracta del pitjor
02:42
that's ever happenedsucceït in humanhumà historyhistòria.
52
150480
2016
que podria arribar a patir la humanitat.
02:44
So the only alternativealternativa,
53
152520
1296
Però l'única alternativa,
02:45
and this is what liesmentides
behinddarrere doorporta numbernúmero two,
54
153840
2336
que es troba darrera la porta número dos,
02:48
is that we continuecontinueu
to improvemillorar our intelligentintel · ligent machinesmàquines
55
156200
3136
és seguir millorant
la intel·ligència de les màquines
02:51
yearcurs after yearcurs after yearcurs.
56
159360
1600
any rere any.
02:53
At a certaincert pointpunt, we will buildconstruir
machinesmàquines that are smartermés intel·ligent than we are,
57
161720
3640
En algun moment, construirem màquines
més intel·ligents que nosaltres,
02:58
and onceun cop we have machinesmàquines
that are smartermés intel·ligent than we are,
58
166080
2616
i un cop les màquines ens superin,
03:00
they will begincomençar to improvemillorar themselvesells mateixos.
59
168720
1976
es milloraran a elles mateixes.
03:02
And then we riskrisc what
the mathematicianmatemàtic IJIJ Good calledanomenat
60
170720
2736
I el que el matemàtic
IJ Good anomenava com
03:05
an "intelligenceintel·ligència explosionexplosió,"
61
173480
1776
"l'explosió de la intel·ligència",
03:07
that the processprocés could get away from us.
62
175280
2000
pot succeir fent que les màquines
ens superin amb escreix.
03:10
Now, this is oftensovint caricaturedRegne Unit,
as I have here,
63
178120
2816
Aquest fet sovint es representa
com jo ho he fet aquí,
03:12
as a fearpor that armiesexèrcits of maliciousdelictiu robotsrobots
64
180960
3216
imaginant que exèrcits de robots malèvols
03:16
will attackatac us.
65
184200
1256
ens ataquen.
03:17
But that isn't the mostla majoria likelyprobablement scenarioescenari.
66
185480
2696
Però aquest no és l'escenari més probable.
03:20
It's not that our machinesmàquines
will becomeconvertir-se en spontaneouslyespontàniament malevolentmalèfic.
67
188200
4856
No crec que les màquines
de cop i volta es tornin malèfiques.
03:25
The concerninquietud is really
that we will buildconstruir machinesmàquines
68
193080
2616
Em preocupa més que arribem
a construir màquines
03:27
that are so much
more competentcompetent than we are
69
195720
2056
que són molt més
competents que nosaltres
03:29
that the slightestmenor divergencedivergència
betweenentre theirels seus goalsmetes and our ownpropi
70
197800
3776
i que la més subtil de les divergències
entre els seus objectius i els nostres
03:33
could destroydestruir us.
71
201600
1200
puguin arribar a destruir-nos.
03:35
Just think about how we relaterelacionar-se to antsFormigues.
72
203960
2080
Penseu només en com
tractem a les formigues.
03:38
We don't hateodi them.
73
206600
1656
No les odiem pas.
03:40
We don't go out of our way to harmdanyar them.
74
208280
2056
No sortim del camí per fer-les-hi mal.
03:42
In factfet, sometimesde vegades
we take painsdolors not to harmdanyar them.
75
210360
2376
Fins i tot patim mals de cap
per no esclafar-les
03:44
We steppas over them on the sidewalkvorera.
76
212760
2016
i les saltem quan caminem per la vorera.
03:46
But wheneversempre que sigui theirels seus presencepresència
77
214800
2136
Però quan la seva presència
03:48
seriouslyde debò conflictsconflictes with one of our goalsmetes,
78
216960
2496
entra en conflicte
amb els nostres objectius,
03:51
let's say when constructingconstrucció
a buildingedifici like this one,
79
219480
2477
per exemple si volem construir un edifici,
03:53
we annihilateaniquilar them withoutsense a qualmqualm.
80
221981
1960
les exterminem sense cap prejudici.
03:56
The concerninquietud is that we will
one day buildconstruir machinesmàquines
81
224480
2936
El que em preocupa és que un dia
construirem màquines
03:59
that, whetherja sigui they're consciousconscient or not,
82
227440
2736
que tant si són conscients
com si no ho són,
04:02
could treattractar us with similarsimilar disregardmenyspreu.
83
230200
2000
podrien arribar a menysprear-nos així.
04:05
Now, I suspectsospitós this seemssembla
far-fetchedllunyà to manymolts of you.
84
233760
2760
Crec que això queda molt lluny
per molts de vosaltres.
04:09
I betaposta there are those of you who doubtdubte
that superintelligentsuperintelligent AIAI is possiblepossible,
85
237360
6336
Inclús crec que molts de vosaltres dubteu
que la superintel·ligència sigui possible,
04:15
much lessmenys inevitableinevitable.
86
243720
1656
i menys encara inevitable.
04:17
But then you musthaver de find something wrongmal
with one of the followingsegüent assumptionssupòsits.
87
245400
3620
Però en aquest cas heu de trobar quelcom
erroni en una d'aquestes suposicions:
04:21
And there are only threetres of them.
88
249044
1572
I només n'hi ha tres:
04:23
IntelligenceIntel·ligència is a mattermatèria of informationinformació
processingprocessament in physicalfísic systemssistemes.
89
251800
4719
La intel·ligència consisteix en processar
informació en sistemes físics.
04:29
ActuallyEn realitat, this is a little bitpoc more
than an assumptionsuposició.
90
257320
2615
De fet, això és quelcom
més que una suposició.
04:31
We have alreadyja builtconstruït
narrowestreta intelligenceintel·ligència into our machinesmàquines,
91
259959
3457
Ja hem incorporat petites intel·ligències
en les nostres màquines,
04:35
and manymolts of these machinesmàquines performrealitzar
92
263440
2016
i moltes d'elles tenen
un rendiment superior
04:37
at a levelnivell of superhumansobrehumana
intelligenceintel·ligència alreadyja.
93
265480
2640
a un nivell d'intel·ligència suprahumana.
04:40
And we know that meremera mattermatèria
94
268840
2576
I ja sabem que la mera matèria
04:43
can give risepujar to what is calledanomenat
"generalgeneral intelligenceintel·ligència,"
95
271440
2616
pot donar lloc
a la "intel·ligència general",
04:46
an abilityhabilitat to think flexiblyflexible
acrossa través de multiplemúltiple domainsdominis,
96
274080
3656
és a dir l'habilitat de pensar
amb flexibilitat en diversos camps.
04:49
because our brainscervells have managedgestionat it. Right?
97
277760
3136
Al cap i a la fi els nostres cervells
ho han aconseguit, cert?
04:52
I mean, there's just atomsàtoms in here,
98
280920
3936
És a dir, només hi ha àtoms aquí,
04:56
and as long as we continuecontinueu
to buildconstruir systemssistemes of atomsàtoms
99
284880
4496
i sempre i quan seguim construint
sistemes a base d'àtoms
05:01
that displaymostrar more and more
intelligentintel · ligent behaviorcomportament,
100
289400
2696
que es comporten de forma
cada cop més intel·ligent,
05:04
we will eventuallyeventualment,
unlessa menys que we are interruptedinterromput,
101
292120
2536
en algun moment, si res no ho impedeix,
05:06
we will eventuallyeventualment
buildconstruir generalgeneral intelligenceintel·ligència
102
294680
3376
en algun moment construirem
intel·ligència artificial
05:10
into our machinesmàquines.
103
298080
1296
en les nostres màquines.
05:11
It's crucialcrucial to realizeadonar-se
that the ratetaxa of progressprogrés, progressar doesn't mattermatèria,
104
299400
3656
És de vital importància adonar-se'n
que el ritme de progrés no importa,
05:15
because any progressprogrés, progressar
is enoughsuficient to get us into the endfinal zonezona.
105
303080
3176
perquè qualsevol progrés ens acabarà
portant a l'altre extrem.
05:18
We don't need Moore'sMoore lawLlei to continuecontinueu.
We don't need exponentialexponencial progressprogrés, progressar.
106
306280
3776
No ens cal la llei de Moore per continuar.
No ens cal un progrés exponencial.
05:22
We just need to keep going.
107
310080
1600
Només ens cal seguir avançant.
05:25
The secondsegon assumptionsuposició
is that we will keep going.
108
313480
2920
La segona suposició
és que seguirem avançant.
05:29
We will continuecontinueu to improvemillorar
our intelligentintel · ligent machinesmàquines.
109
317000
2760
Seguirem millorant
les màquines intel·ligents.
05:33
And givendonat the valuevalor of intelligenceintel·ligència --
110
321000
4376
I donat el valor que té la intel·ligència,
05:37
I mean, intelligenceintel·ligència is eithertampoc
the sourcefont of everything we valuevalor
111
325400
3536
és a dir, ja que la intel·ligència
és la font de tot el que valorem
05:40
or we need it to safeguardsalvaguarda
everything we valuevalor.
112
328960
2776
i la necessitem per salvaguardar
tot el que ens importa.
05:43
It is our mostla majoria valuablevaluós resourcerecurs.
113
331760
2256
És el recurs més valuós de que disposem.
05:46
So we want to do this.
114
334040
1536
Així doncs, volem que avanci.
05:47
We have problemsproblemes
that we desperatelydesesperadament need to solveresoldre.
115
335600
3336
Tenim problemes que
hem de solucionar desesperadament.
05:50
We want to curecura diseasesmalalties
like Alzheimer'sAlzheimer and cancercàncer.
116
338960
3200
Volem guarir malalties
com l'Alzheimer i el càncer.
05:54
We want to understandentendre economiceconòmic systemssistemes.
We want to improvemillorar our climateclima scienceciència.
117
342960
3936
Volem entendre sistemes econòmics.
Volem millorar la ciència del clima.
05:58
So we will do this, if we can.
118
346920
2256
Així doncs ho farem si podem.
06:01
The traintren is alreadyja out of the stationestació,
and there's no brakefre to pulltirar.
119
349200
3286
El tren ja ha sortit de l'estació
i no hi ha manera de que pari.
06:05
FinallyFinalment, we don't standestand
on a peakpic of intelligenceintel·ligència,
120
353880
5456
I per últim, no ens trobem
al cim de la nostra intel·ligència,
06:11
or anywhereon sigui neara prop it, likelyprobablement.
121
359360
1800
o en qualsevol punt que s'hi acosti.
06:13
And this really is the crucialcrucial insightperspicàcia.
122
361640
1896
I això és la clau de la qüestió.
06:15
This is what makesfa
our situationsituació so precariousprecària,
123
363560
2416
És el que fa que la nostra
situació sigui tan precària,
06:18
and this is what makesfa our intuitionsintuïcions
about riskrisc so unreliableuna plaça de pàrquing.
124
366000
4040
i és el que fa que les nostres intuïcions
sobre aquest risc siguin tan poc fiables.
06:23
Now, just considerconsidereu the smartestmés intel·ligent personpersona
who has ever livedvivia.
125
371120
2720
Penseu en la persona
més intel·ligent que mai ha viscut.
06:26
On almostgairebé everyone'stothom shortlistllista here
is JohnJohn vonVon NeumannNeumann.
126
374640
3416
Molts de vosaltres haureu considerat
a en John von Neumann.
06:30
I mean, the impressionimpressió that vonVon NeumannNeumann
madefet on the people around him,
127
378080
3336
La impressió que va causar
en von Neumann al seu voltant,
06:33
and this includedinclòs the greatestel més gran
mathematiciansmatemàtics and physicistsfísics of his time,
128
381440
4056
i això inclou als més grans matemàtics
i físics de la seva època,
06:37
is fairlyamb força well-documenteddocumentada.
129
385520
1936
està ben documentada.
06:39
If only halfla meitat the storieshistòries
about him are halfla meitat trueveritat,
130
387480
3776
Si només la meitat de
les històries sobre ell són certes,
06:43
there's no questionpregunta
131
391280
1216
no hi ha cap dubte
06:44
he's one of the smartestmés intel·ligent people
who has ever livedvivia.
132
392520
2456
que és una de les persones més brillants.
06:47
So considerconsidereu the spectrumespectre of intelligenceintel·ligència.
133
395000
2520
Considerem l'espectre d'intel·ligència.
06:50
Here we have JohnJohn vonVon NeumannNeumann.
134
398320
1429
Tenim en John von Neumann.
06:53
And then we have you and me.
135
401560
1334
I aquí estem nosaltres.
06:56
And then we have a chickenpollastre.
136
404120
1296
I aquí un pollastre.
06:57
(LaughterRiure)
137
405440
1936
(Riures)
06:59
Sorry, a chickenpollastre.
138
407400
1216
Perdó, un pollastre.
07:00
(LaughterRiure)
139
408640
1256
(Riures)
07:01
There's no reasonraó for me to make this talk
more depressingdepriment than it needsnecessitats to be.
140
409920
3736
No hi ha cap necessitat de fer aquesta
xerrada més depriment del que pot ser.
07:05
(LaughterRiure)
141
413680
1600
(Riures)
07:08
It seemssembla overwhelminglyabrumadorament likelyprobablement, howevermalgrat això,
that the spectrumespectre of intelligenceintel·ligència
142
416339
3477
Sembla que està ben clar
que l'espectre de la intel·ligència
07:11
extendss'estén much furthermés lluny
than we currentlyactualment conceiveconcebre,
143
419840
3120
s'estén molt més enllà
del que considerem actualment,
07:15
and if we buildconstruir machinesmàquines
that are more intelligentintel · ligent than we are,
144
423880
3216
i si construïm màquines que
són més intel·ligents que nosaltres,
07:19
they will very likelyprobablement
exploreexplora this spectrumespectre
145
427120
2296
molt probablement exploraran
aquest espectre
07:21
in waysmaneres that we can't imagineimaginar,
146
429440
1856
de maneres que no podem imaginar,
07:23
and exceedexcedir us in waysmaneres
that we can't imagineimaginar.
147
431320
2520
i ens superaran de maneres
que tampoc podem imaginar.
07:27
And it's importantimportant to recognizereconèixer that
this is trueveritat by virtuevirtut of speedvelocitat alonesol.
148
435000
4336
I hem de reconèixer que això és així
només en base a la velocitat.
07:31
Right? So imagineimaginar if we just builtconstruït
a superintelligentsuperintelligent AIAI
149
439360
5056
D'acord? Doncs imagineu que
hem construit una IA superintel·ligent
07:36
that was no smartermés intel·ligent
than your averagemitjana teamequip of researchersinvestigadors
150
444440
3456
que no és més brillant que
la majoria d'equips de recerca
07:39
at StanfordStanford or MITMIT.
151
447920
2296
de Stanford o del MIT.
07:42
Well, electronicelectrònic circuitscircuits
functionfunció about a millionmilions timestemps fastermés ràpid
152
450240
2976
Els circuits electrònics són
un milió de vegades més ràpids
07:45
than biochemicalbioquímic onesuns,
153
453240
1256
que les ones bioquímiques,
07:46
so this machinemàquina should think
about a millionmilions timestemps fastermés ràpid
154
454520
3136
així, aquesta màquina pensaria
un milió de cops més depressa
07:49
than the mindsments that builtconstruït it.
155
457680
1816
que les ments que l'han dissenyat.
07:51
So you setconjunt it runningcorrent for a weeksetmana,
156
459520
1656
Si la deixem encesa una setmana
07:53
and it will performrealitzar 20,000 yearsanys
of human-levelnivell d'humans intellectualintel · lectual work,
157
461200
4560
haurà complert 20.000 anys de
feina intel·lectual a nivell humà,
07:58
weeksetmana after weeksetmana after weeksetmana.
158
466400
1960
setmana rere setmana rere setmana.
08:01
How could we even understandentendre,
much lessmenys constrainrestringir,
159
469640
3096
Com podem arribar a comprendre,
i menys encara limitar,
08:04
a mindment makingelaboració this sortordenar of progressprogrés, progressar?
160
472760
2280
una ment que progressa així?
08:08
The other thing that's worryingpreocupant, franklyfrancament,
161
476840
2136
L'altra cosa que em preocupa,
sent honestos,
08:11
is that, imagineimaginar the bestmillor casecas scenarioescenari.
162
479000
4976
es que... imagineu-vos
el millor escenari possible.
08:16
So imagineimaginar we hitcolpejar upondamunt a designdisseny
of superintelligentsuperintelligent AIAI
163
484000
4176
Imagineu que tombem amb un disseny
de IA superintel·ligent
08:20
that has no safetyseguretat concernspreocupacions.
164
488200
1376
sense problemes de seguretat.
08:21
We have the perfectperfecte designdisseny
the first time around.
165
489600
3256
És el primer cop que
aconseguim el disseny perfecte.
08:24
It's as thoughperò we'vetenim been handedlliurat an oracleoracle
166
492880
2216
És com si ens hagués arribat un oracle
08:27
that behaveses comporta exactlyexactament as intendeddestinat.
167
495120
2016
que es comporta tal i com preteníem.
08:29
Well, this machinemàquina would be
the perfectperfecte labor-savingestalvi de treball devicedispositiu.
168
497160
3720
Doncs bé, aquesta màquina seria
l'eina perfecta per reduir-nos feina.
Podria dissenyar màquines
que podrien construir màquines
08:33
It can designdisseny the machinemàquina
that can buildconstruir the machinemàquina
169
501680
2429
08:36
that can do any physicalfísic work,
170
504133
1763
per fer qualsevol feina física,
08:37
poweredalimentat by sunlightllum del sol,
171
505920
1456
alimentades per energia solar,
08:39
more or lessmenys for the costcost
of rawcrua materialsmaterials.
172
507400
2696
i més o menys pel que
costa la matèria prima.
08:42
So we're talkingparlar about
the endfinal of humanhumà drudgerymonotonia.
173
510120
3256
Estem parlant de la fi
de les feines feixugues.
08:45
We're alsotambé talkingparlar about the endfinal
of mostla majoria intellectualintel · lectual work.
174
513400
2800
També seria la fi de la majoria
de feines intel·lectuals.
08:49
So what would apessimis like ourselvesnosaltres mateixos
do in this circumstancecircumstància?
175
517200
3056
Què farien uns simis com nosaltres
en aquestes circumstàncies?
08:52
Well, we'dnosaltres ho faria be freegratuït to playjugar FrisbeeFrisbee
and give eachcadascun other massagesmassatges.
176
520280
4080
Tindríem temps per jugar al disc volador
i de fer-nos massatges els uns als altres.
08:57
AddAfegir some LSDLSD and some
questionableqüestionable wardrobearmari choicesopcions,
177
525840
2856
Afegiu una mica de LSD
i un vestuari de gust qüestionable
09:00
and the wholetot worldmón
could be like BurningCrema Man.
178
528720
2176
i el món sencer podria
ser com el Burning Man.
09:02
(LaughterRiure)
179
530920
1640
(Riures)
09:06
Now, that mightpotser soundso prettybonic good,
180
534320
2000
Tot això pot sonar força atractiu,
09:09
but askpreguntar yourselftu mateix what would happenpassar
181
537280
2376
però penseu que passaria
09:11
undersota our currentactual economiceconòmic
and politicalpolític orderordre?
182
539680
2736
si succeís sota
l'ordre econòmic i polític actual?
09:14
It seemssembla likelyprobablement that we would witnesstestimoni
183
542440
2416
És ben probable que experimentéssim
09:16
a levelnivell of wealthriquesa inequalitydesigualtat
and unemploymentl'atur
184
544880
4136
una desigualtat econòmica
i un nivell d'atur
09:21
that we have never seenvist before.
185
549040
1496
que mai havíem experimentat.
09:22
AbsentAbsents a willingnessvoluntat
to immediatelyimmediatament put this newnou wealthriquesa
186
550560
2616
I si no hi ha la voluntat
de posar tota aquesta riquesa
09:25
to the serviceservei of all humanityhumanitat,
187
553200
1480
al servei de la humanitat,
09:27
a fewpocs trillionairestrillionaires could graceGràcia
the coverscobertes of our businessnegocis magazinesrevistes
188
555640
3616
uns quants bilionaris arribarien
a les portades de les revistes
09:31
while the restdescans of the worldmón
would be freegratuït to starvefam.
189
559280
2440
mentre la resta
ens moriríem de gana.
09:34
And what would the RussiansRussos
or the ChineseXinès do
190
562320
2296
I què farien els russos o els xinesos
09:36
if they heardescoltat that some companyempresa
in SiliconSilici ValleyVall
191
564640
2616
si sapiguessin que
una empresa de Silicon Valley
09:39
was about to deploydesplegar a superintelligentsuperintelligent AIAI?
192
567280
2736
estigués a punt d'aconseguir
una IA superintel·ligent?
09:42
This machinemàquina would be capablecapaç
of wagingemprendre warguerra,
193
570040
2856
Aquesta màquina estaria
preparada per entrar en guerra,
09:44
whetherja sigui terrestrialterrestres or cyberCyber,
194
572920
2216
ja sigui per terra o cibernètica,
09:47
with unprecedentedsense precedents powerpoder.
195
575160
1680
amb un poder sense precedents.
09:50
This is a winner-take-allguanyador prendre tot scenarioescenari.
196
578120
1856
I aquí el guanyador s'ho emporta tot.
09:52
To be sixsis monthsmesos aheadendavant
of the competitioncompetició here
197
580000
3136
Aquí, trobar-se sis mesos
al capdavant de la competició
09:55
is to be 500,000 yearsanys aheadendavant,
198
583160
2776
vol dir trobar-se
500.000 anys al davant
09:57
at a minimummínim.
199
585960
1496
com a mínim.
09:59
So it seemssembla that even meremera rumorsrumors
of this kindamable of breakthroughavenç
200
587480
4736
Només que hi hagi un rumor
sobre algun descobriment d'aquest tipus
10:04
could causecausa our speciesespècie to go berserkBerserk.
201
592240
2376
pot fer que la nostra espècie embogeixi.
10:06
Now, one of the mostla majoria frighteningaterridor things,
202
594640
2896
Ara bé, una de les coses més paoroses,
10:09
in my viewveure, at this momentmoment,
203
597560
2776
segons el meu punt de vista, ara per ara,
10:12
are the kindstipus of things
that AIAI researchersinvestigadors say
204
600360
4296
són el tipus de coses
que els investigadors en IA diuen
10:16
when they want to be reassuringtranquil·litzador.
205
604680
1560
quan volen tranquil·litzar-nos.
10:19
And the mostla majoria commoncomú reasonraó
we're told not to worrypreocupació is time.
206
607000
3456
I la principal raó que ens donen
per no preocupar-no és el temps.
10:22
This is all a long way off,
don't you know.
207
610480
2056
"Això encara està lluny,
no ho sabíeu?"
10:24
This is probablyProbablement 50 or 100 yearsanys away.
208
612560
2440
"Probablement encara queden
uns 50 o 100 anys."
10:27
One researcherinvestigador has said,
209
615720
1256
Un investigador va dir:
10:29
"WorryingPreocupar-se about AIAI safetyseguretat
210
617000
1576
"Preocuparse per una IA insegura
10:30
is like worryingpreocupant
about overpopulationsobrepoblació on MarsMart."
211
618600
2280
és com preocupar-se per la
sobre-població a Mart."
10:34
This is the SiliconSilici ValleyVall versionversió
212
622116
1620
Això és la versió
de Silicon Valley
10:35
of "don't worrypreocupació your
prettybonic little headcap about it."
213
623760
2376
de "no et preocupis, nena!"
10:38
(LaughterRiure)
214
626160
1336
(Riures)
10:39
No one seemssembla to noticeavís
215
627520
1896
Ningú sembla adonar-se'n
10:41
that referencingreferències the time horizonhoritzó
216
629440
2616
que basar-se en un horitzó cronològic
10:44
is a totaltotal nonno sequitursequitur.
217
632080
2576
és un 'non sequitur' absolut.
10:46
If intelligenceintel·ligència is just a mattermatèria
of informationinformació processingprocessament,
218
634680
3256
Si la intel·ligència consisteix
simplement en processar informació,
10:49
and we continuecontinueu to improvemillorar our machinesmàquines,
219
637960
2656
i seguim perfeccionant les màquines,
10:52
we will produceproduir
some formforma of superintelligencesuperintelligence.
220
640640
2880
acabarem per generar alguna
forma de superintel·ligència.
10:56
And we have no ideaidea
how long it will take us
221
644320
3656
I no tenim ni idea de quant
de temps ens portarà
11:00
to createcrear the conditionscondicions
to do that safelyamb seguretat.
222
648000
2400
crear les condicions
per fer-ho de forma segura.
11:04
Let me say that again.
223
652200
1296
Deixeu-me que ho repeteixi.
11:05
We have no ideaidea how long it will take us
224
653520
3816
No tenim ni idea de quant
de temps ens portarà
11:09
to createcrear the conditionscondicions
to do that safelyamb seguretat.
225
657360
2240
crear les condicions per
fer-ho de forma segura.
11:12
And if you haven'tno ho han fet noticednotat,
50 yearsanys is not what it used to be.
226
660920
3456
I per si no us n'heu adonat,
50 anys no són el que eren abans.
11:16
This is 50 yearsanys in monthsmesos.
227
664400
2456
Això són 50 anys en mesos.
11:18
This is how long we'vetenim had the iPhoneiPhone.
228
666880
1840
Això són els mesos
que hem tingut l'iPhone.
11:21
This is how long "The SimpsonsSimpsons"
has been on televisiontelevisió.
229
669440
2600
Això són els mesos que
"Els Simpsons" han estat en pantalla.
11:24
FiftyCinquanta yearsanys is not that much time
230
672680
2376
Cinquanta anys no és gaire temps
11:27
to meettrobar-se one of the greatestel més gran challengesdesafiaments
our speciesespècie will ever facecara.
231
675080
3160
per assolir un dels grans reptes
de la nostra espècie.
11:31
OnceVegada again, we seemsembla to be failingfallant
to have an appropriateapropiat emotionalemocional responseresposta
232
679640
4016
Torno a dir, sembla que no estem
reaccionant com cal a nivell emocional
11:35
to what we have everycada reasonraó
to believe is comingarribant.
233
683680
2696
envers allò que cada cop n'estem
més segurs que arribarà.
11:38
The computerordinador scientistcientífic StuartStuart RussellRussell
has a niceagradable analogyanalogia here.
234
686400
3976
El científic informàtic Stuart Russell
fa una bonica analogia.
11:42
He said, imagineimaginar that we receivedrebut
a messagemissatge from an alienestranger civilizationcivilització,
235
690400
4896
Va dir que imaginéssim que havíem rebut
un missatge d'una civilització alienígena,
11:47
whichquin readllegir:
236
695320
1696
que deia:
11:49
"People of EarthTerra,
237
697040
1536
"Gent de la Terra,
11:50
we will arrivearribar on your planetplaneta in 50 yearsanys.
238
698600
2360
arribarem al vostre planeta
d'aquí 50 anys.
11:53
Get readyllest."
239
701800
1576
Prepareu-vos."
11:55
And now we're just countingcomptant down
the monthsmesos untilfins a the mothershipnau nodrissa landsterres?
240
703400
4256
I llavors comencem a comptar
els mesos que queden abans que arribin.
11:59
We would feel a little
more urgencyurgència than we do.
241
707680
3000
Segurament sentiríem
una mica més de pressió que ara.
Una altra raó que donen
per no preocupar-nos
12:04
AnotherUn altre reasonraó we're told not to worrypreocupació
242
712680
1856
12:06
is that these machinesmàquines
can't help but shareCompartir our valuesvalors
243
714560
3016
és que les màquines només podran
compartir els nostres valors
12:09
because they will be literallyliteralment
extensionsextensions of ourselvesnosaltres mateixos.
244
717600
2616
perquè seran literalment
extensions de nosaltres.
12:12
They'llQue be graftedempeltat ontosobre our brainscervells,
245
720240
1816
Seran uns empelts
en els nostres cervells,
12:14
and we'll essentiallyfonamentalment
becomeconvertir-se en theirels seus limbiclímbica systemssistemes.
246
722080
2360
i esdevindrem els seus sistemes límbics.
12:17
Now take a momentmoment to considerconsidereu
247
725120
1416
Considereu per un moment
12:18
that the safestmés segura
and only prudentprudents pathCamí forwardendavant,
248
726560
3176
que la forma més segura
i més prudent de seguir avançant,
12:21
recommendedrecomanat,
249
729760
1336
la forma més recomanada,
12:23
is to implantimplant this technologytecnologia
directlydirectament into our brainscervells.
250
731120
2800
és implantar-los en els nostres
cervells directament.
12:26
Now, this maypot in factfet be the safestmés segura
and only prudentprudents pathCamí forwardendavant,
251
734600
3376
És possible que sigui l'única manera
segura i prudent de continuar,
12:30
but usuallygeneralment one'sun safetyseguretat concernspreocupacions
about a technologytecnologia
252
738000
3056
tot i que normalment si una tecnologia
ens preocupa una micona
12:33
have to be prettybonic much workedtreballat out
before you stickenganxat it insidedins your headcap.
253
741080
3656
primer cal que estigui lliure d'errors
si després ens la volem enganxar al cap.
12:36
(LaughterRiure)
254
744760
2016
(Riures)
12:38
The deepermés profund problemproblema is that
buildingedifici superintelligentsuperintelligent AIAI on its ownpropi
255
746800
5336
El problema de fons és que desenvolupar
una IA superintel·ligent per si mateixa
12:44
seemssembla likelyprobablement to be easiermés fàcil
256
752160
1736
sembla ser més fàcil
12:45
than buildingedifici superintelligentsuperintelligent AIAI
257
753920
1856
que construir una IA superintel·ligent
12:47
and havingtenint the completedcompletat neuroscienceneurociència
258
755800
1776
i tenir alhora la neurociència llesta
12:49
that allowspermet us to seamlesslysense problemes
integrateintegrar our mindsments with it.
259
757600
2680
per permetre'ns connectar-hi
la ment sense interrupcions.
12:52
And givendonat that the companiesempreses
and governmentsgoverns doing this work
260
760800
3176
I donat que les empreses i els governs
que estan fent aquesta feina
12:56
are likelyprobablement to perceivepercebre themselvesells mateixos
as beingser in a racecarrera againsten contra all othersaltres,
261
764000
3656
és probable que es considerin
en una cursa contra la resta,
12:59
givendonat that to winguanyar this racecarrera
is to winguanyar the worldmón,
262
767680
3256
i donat que guanyar la cursa
és guanyar el món,
13:02
providedsempre you don't destroydestruir it
in the nextPròxim momentmoment,
263
770960
2456
sempre i quan no
se'l destrueixi tot seguit,
13:05
then it seemssembla likelyprobablement
that whateverel que sigui is easiermés fàcil to do
264
773440
2616
aleshores és probable que allò
que sembli més fàcil de fer
13:08
will get donefet first.
265
776080
1200
sigui el que primer es faci.
13:10
Now, unfortunatelyper desgràcia,
I don't have a solutionsolució to this problemproblema,
266
778560
2856
Malauradament, no tinc cap
solució a aquest problema,
13:13
aparta part from recommendingrecomanar
that more of us think about it.
267
781440
2616
apart de recomanar que
tots hauríem de pensar-hi més.
13:16
I think we need something
like a ManhattanManhattan ProjectProjecte
268
784080
2376
Crec que necessitem
una mena de projecte Manhattan
13:18
on the topictema of artificialartificial intelligenceintel·ligència.
269
786480
2016
però per la intel·ligència artificial.
13:20
Not to buildconstruir it, because I think
we'll inevitablyinevitablement do that,
270
788520
2736
No per desenvolupar-la,
ja que és inevitable,
13:23
but to understandentendre
how to avoidevitar an armsarmes racecarrera
271
791280
3336
sinó per comprendre com podem
evitar una cursa armementística
13:26
and to buildconstruir it in a way
that is alignedalineat with our interestsinteressos.
272
794640
3496
i per desenvolupar-la de manera
que vagi de la mà dels nostres interessos.
13:30
When you're talkingparlar
about superintelligentsuperintelligent AIAI
273
798160
2136
Quan parlem d'una IA superintel·ligent
13:32
that can make changescanvis to itselfella mateixa,
274
800320
2256
que es pot canviar a si mateixa,
13:34
it seemssembla that we only have one chanceoportunitat
to get the initialinicial conditionscondicions right,
275
802600
4616
sembla que només tenim una oportunitat
per crear les bones condicions inicials,
13:39
and even then we will need to absorbabsorbeix
276
807240
2056
però inclús així haurem d'absorbir
13:41
the economiceconòmic and politicalpolític
consequencesconseqüències of gettingaconseguint them right.
277
809320
3040
les conseqüències econòmiques i polítiques
d'haver-les establert correctament.
13:45
But the momentmoment we admitadmitir
278
813760
2056
Però en el moment que admetem
13:47
that informationinformació processingprocessament
is the sourcefont of intelligenceintel·ligència,
279
815840
4000
que el processat d'informació
és l'origen de la intel·ligència,
13:52
that some appropriateapropiat computationalcomputacional systemsistema
is what the basisbase of intelligenceintel·ligència is,
280
820720
4800
que un sistema de computació apropiat
és la base de tota intel·ligència,
13:58
and we admitadmitir that we will improvemillorar
these systemssistemes continuouslycontínuament,
281
826360
3760
i que seguirem millorant
aquests sistemes indefinidament,
14:03
and we admitadmitir that the horizonhoritzó
of cognitioncognició very likelyprobablement farlluny exceedssupera
282
831280
4456
i admetem que l'horitzó de la cognició
molt probablement excedeix
14:07
what we currentlyactualment know,
283
835760
1200
el que sabem fins ara,
14:10
then we have to admitadmitir
284
838120
1216
aleshores podrem admetre
14:11
that we are in the processprocés
of buildingedifici some sortordenar of god.
285
839360
2640
que estem en un procés
de crear una mena de déu.
14:15
Now would be a good time
286
843400
1576
Ara és el moment
14:17
to make sure it's a god we can liveen directe with.
287
845000
1953
d'assegurar-nos que és un déu
amb qui podem viure.
14:20
Thank you very much.
288
848120
1536
Moltes gràcies.
14:21
(ApplauseAplaudiments)
289
849680
5093
(Aplaudiments)
Traduït per Marcos Morales Pallarés

▲Back to top

ABOUT THE SPEAKER
Sam Harris - Neuroscientist, philosopher
Sam Harris's work focuses on how our growing understanding of ourselves and the world is changing our sense of how we should live.

Why you should listen

Sam Harris is the author of five New York Times bestsellers. His books include The End of FaithLetter to a Christian Nation, The Moral Landscape, Free Will, Lying, Waking Up and Islam and the Future of Tolerance (with Maajid Nawaz). The End of Faith won the 2005 PEN Award for Nonfiction. Harris's writing and public lectures cover a wide range of topics -- neuroscience, moral philosophy, religion, spirituality, violence, human reasoning -- but generally focus on how a growing understanding of ourselves and the world is changing our sense of how we should live.

Harris's work has been published in more than 20 languages and has been discussed in the New York Times, Time, Scientific American, Nature, Newsweek, Rolling Stone and many other journals. He has written for the New York Times, the Los Angeles Times, The Economist, The Times (London), the Boston Globe, The Atlantic, The Annals of Neurology and elsewhere. Harris also regularly hosts a popular podcast.

Harris received a degree in philosophy from Stanford University and a Ph.D. in neuroscience from UCLA.

More profile about the speaker
Sam Harris | Speaker | TED.com