ABOUT THE SPEAKER
Sam Harris - Neuroscientist, philosopher
Sam Harris's work focuses on how our growing understanding of ourselves and the world is changing our sense of how we should live.

Why you should listen

Sam Harris is the author of five New York Times bestsellers. His books include The End of FaithLetter to a Christian Nation, The Moral Landscape, Free Will, Lying, Waking Up and Islam and the Future of Tolerance (with Maajid Nawaz). The End of Faith won the 2005 PEN Award for Nonfiction. Harris's writing and public lectures cover a wide range of topics -- neuroscience, moral philosophy, religion, spirituality, violence, human reasoning -- but generally focus on how a growing understanding of ourselves and the world is changing our sense of how we should live.

Harris's work has been published in more than 20 languages and has been discussed in the New York Times, Time, Scientific American, Nature, Newsweek, Rolling Stone and many other journals. He has written for the New York Times, the Los Angeles Times, The Economist, The Times (London), the Boston Globe, The Atlantic, The Annals of Neurology and elsewhere. Harris also regularly hosts a popular podcast.

Harris received a degree in philosophy from Stanford University and a Ph.D. in neuroscience from UCLA.

More profile about the speaker
Sam Harris | Speaker | TED.com
TEDSummit

Sam Harris: Can we build AI without losing control over it?

Sam Harris: Kan vi utveckla artificiell intelligens utan att tappa kontrollen över den?

Filmed:
5,024,015 views

Rädd för superintelligent AI? Det borde du vara, säger neuroforskaren och filosofen Sam Harris, och inte bara på ett teoretiskt plan. Vi kommer att bygga supermänskliga maskiner, säger Harris, men vi har ännu inte börjat brottas med de problem som följer med skapandet av någonting som kan komma att behandla oss på samma sätt som vi behandlar myror.
- Neuroscientist, philosopher
Sam Harris's work focuses on how our growing understanding of ourselves and the world is changing our sense of how we should live. Full bio

Double-click the English transcript below to play the video.

00:13
I'm going to talk
about a failurefel of intuitionintuition
0
1000
2216
Jag ska prata om en intuitionsbrist
00:15
that manymånga of us sufferlida from.
1
3240
1600
som många av oss lider av.
00:17
It's really a failurefel
to detectupptäcka, detektera a certainvissa kindsnäll of dangerfara.
2
5480
3040
Det är ett misslyckande att
upptäcka en viss typ av fara.
00:21
I'm going to describebeskriva a scenarioscenario
3
9360
1736
Jag ska beskriva ett scenario
00:23
that I think is bothbåde terrifyingskrämmande
4
11120
3256
som jag tycker är både skrämmande
00:26
and likelytroligt to occurinträffa,
5
14400
1760
och förmodligen kommer att ske,
00:28
and that's not a good combinationkombination,
6
16840
1656
och det är en dålig kombination,
00:30
as it turnsvarv out.
7
18520
1536
som det visar sig.
00:32
And yetän rathersnarare than be scaredrädd,
mostmest of you will feel
8
20080
2456
Istället för att bli rädda,
kommer många tycka
00:34
that what I'm talkingtalande about
is kindsnäll of coolHäftigt.
9
22560
2080
att det jag pratar om är ganska häftigt.
00:37
I'm going to describebeskriva
how the gainsvinster we make
10
25200
2976
Jag ska beskriva hur de framsteg vi gör
00:40
in artificialartificiell intelligenceintelligens
11
28200
1776
inom artificiell intelligens
00:42
could ultimatelyi sista hand destroyförstöra us.
12
30000
1776
till slut kan förgöra oss.
00:43
And in factfaktum, I think it's very difficultsvår
to see how they won'tvana destroyförstöra us
13
31800
3456
Faktum är, jag tror det är svårt
att se att de inte gör det
00:47
or inspireinspirera us to destroyförstöra ourselvesoss själva.
14
35280
1680
eller får oss att förgöra oss själva.
00:49
And yetän if you're anything like me,
15
37400
1856
Och om du tänker det minsta likt mig,
00:51
you'lldu kommer find that it's funroligt
to think about these things.
16
39280
2656
tycker du att det här är
spännande att tänka på.
00:53
And that responsesvar is partdel of the problemproblem.
17
41960
3376
Den inställningen är en del av problemet.
00:57
OK? That responsesvar should worryoroa you.
18
45360
1720
OK? Den inställningen borde oroa dig.
00:59
And if I were to convinceövertyga you in this talk
19
47920
2656
Om jag i det här föredraget
skulle övertyga dig om
01:02
that we were likelytroligt
to sufferlida a globalglobal faminesvält,
20
50600
3416
att vi kan drabbas av en
global svältkatastrof,
01:06
eitherantingen because of climateklimat changeByta
or some other catastrophekatastrof,
21
54040
3056
på grund av klimatförändringar
eller någon annan katastrof,
01:09
and that your grandchildrenbarnbarn,
or theirderas grandchildrenbarnbarn,
22
57120
3416
och att dina barnbarn,
eller deras barnbarn,
01:12
are very likelytroligt to liveleva like this,
23
60560
1800
sannolikt skulle leva så här,
01:15
you wouldn'tskulle inte think,
24
63200
1200
då skulle du inte tänka,
01:17
"InterestingIntressant.
25
65440
1336
"Intressant.
01:18
I like this TEDTED Talk."
26
66800
1200
Jag gillar föredraget."
01:21
FamineSvält isn't funroligt.
27
69200
1520
Svält är inte roligt.
01:23
DeathDöd by sciencevetenskap fictionfiktion,
on the other handhand, is funroligt,
28
71800
3376
Död i science fiction,
å andra sidan, är roligt,
01:27
and one of the things that worriesbekymmer me mostmest
about the developmentutveckling of AIAI at this pointpunkt
29
75200
3976
och en av de saker som för närvarande
oroar mig mest i utvecklingen av AI
01:31
is that we seemverka unableoförmögen to marshalmarskalk
an appropriatelämplig emotionalemotionell responsesvar
30
79200
4096
är att vi tycks oförmögna att förespråka
ett passande emotionellt gensvar
01:35
to the dangersfaror that lielögn aheadett huvud.
31
83320
1816
inför de risker som ligger framför oss.
01:37
I am unableoförmögen to marshalmarskalk this responsesvar,
and I'm givingger this talk.
32
85160
3200
Jag kan inte förespråka ett gensvar,
och jag håller det här talet.
01:42
It's as thoughdock we standstå before two doorsdörrar.
33
90120
2696
Det är som att vi står framför två dörrar.
01:44
BehindBakom doordörr numbersiffra one,
34
92840
1256
Väljer vi dörr ett,
01:46
we stop makingtillverkning progressframsteg
in buildingbyggnad intelligentintelligent machinesmaskiner.
35
94120
3296
slutar vi göra framsteg i utvecklandet
av intelligenta maskiner.
01:49
Our computerdator hardwarehårdvara and softwareprogramvara
just stopsstopp getting better for some reasonanledning.
36
97440
4016
Av någon anledning blir vår
hård- och mjukvara inte bättre.
01:53
Now take a momentögonblick
to consideröverväga why this mightmakt happenhända.
37
101480
3000
Fundera lite på varför
det skulle kunna hända.
01:57
I mean, givengiven how valuablevärdefulla
intelligenceintelligens and automationAutomation are,
38
105080
3656
Jag menar, givet värdet av
intelligens och automation,
02:00
we will continueFortsätta to improveförbättra our technologyteknologi
if we are at all ablestånd to.
39
108760
3520
kommer vi fortsätta utveckla
tekniken, om vi kan.
02:05
What could stop us from doing this?
40
113200
1667
Vad skulle kunna stoppa oss?
02:07
A full-scalefullskalig nuclearkärn warkrig?
41
115800
1800
Ett fullskaligt kärnvapenkrig?
02:11
A globalglobal pandemicpandemi?
42
119000
1560
En global pandemi?
02:14
An asteroidasteroid impactinverkan?
43
122320
1320
Ett asteroidnedslag?
02:17
JustinJustin BieberBieber becomingpassande
presidentpresident of the UnitedUnited StatesStaterna?
44
125640
2576
Justin Bieber blir USAs president?
02:20
(LaughterSkratt)
45
128240
2280
(Skratt)
02:24
The pointpunkt is, something would have to
destroyförstöra civilizationcivilisation as we know it.
46
132760
3920
Poängen är att, något måste förgöra
civilisationen så som vi känner den.
02:29
You have to imaginetänka
how baddålig it would have to be
47
137360
4296
Ni måste föreställa er
hur illa det måste vara
02:33
to preventförhindra us from makingtillverkning
improvementsförbättringar in our technologyteknologi
48
141680
3336
för att hindra oss att göra
framsteg inom tekniken
02:37
permanentlypermanent,
49
145040
1216
permanent,
02:38
generationgeneration after generationgeneration.
50
146280
2016
generation efter generation.
02:40
AlmostNästan by definitiondefinition,
this is the worstvärst thing
51
148320
2136
Nästan per definition, är detta det värsta
02:42
that's ever happenedhände in humanmänsklig historyhistoria.
52
150480
2016
som någonsin inträffat genom historien.
02:44
So the only alternativealternativ,
53
152520
1296
Så det enda alternativet,
02:45
and this is what lieslögner
behindBakom doordörr numbersiffra two,
54
153840
2336
är det som finns bakom den andra dörren,
02:48
is that we continueFortsätta
to improveförbättra our intelligentintelligent machinesmaskiner
55
156200
3136
att vi fortsätter att utveckla
våra intelligenta maskiner
02:51
yearår after yearår after yearår.
56
159360
1600
år efter år efter år.
02:53
At a certainvissa pointpunkt, we will buildbygga
machinesmaskiner that are smartersmartare than we are,
57
161720
3640
Vid en viss punkt, kommer vi att bygga
maskiner som är smartare än vi,
02:58
and onceen gång we have machinesmaskiner
that are smartersmartare than we are,
58
166080
2616
och när vi väl har dessa smarta maskiner,
03:00
they will beginBörja to improveförbättra themselvessig själva.
59
168720
1976
kommer de att förbättra sig själva.
03:02
And then we riskrisk what
the mathematicianmatematiker IJIJ Good calledkallad
60
170720
2736
Då riskerar vi
det matematikern IJ Good kallade,
03:05
an "intelligenceintelligens explosionexplosion,"
61
173480
1776
en "intelligensexplosion",
03:07
that the processbearbeta could get away from us.
62
175280
2000
dvs att processen går oss ur händerna.
03:10
Now, this is oftenofta caricaturedkarikerade,
as I have here,
63
178120
2816
Detta skojas ofta bort, som här,
03:12
as a fearrädsla that armiesarméer of maliciousskadliga robotsrobotar
64
180960
3216
som en rädsla för att en
armé av ondsinta robotar
kommer att attackera oss.
03:16
will attackge sig på us.
65
184200
1256
03:17
But that isn't the mostmest likelytroligt scenarioscenario.
66
185480
2696
Men det är inte det troligaste scenariot.
03:20
It's not that our machinesmaskiner
will becomebli spontaneouslyspontant malevolentillvilliga.
67
188200
4856
Våra maskiner kommer inte
att bli spontant illvilliga.
03:25
The concernoro is really
that we will buildbygga machinesmaskiner
68
193080
2616
Bekymret är att vi kommer
att bygga maskiner
03:27
that are so much
more competentbehörig than we are
69
195720
2056
som är så mycket mer kompetenta än vi
03:29
that the slightestminsta divergencedivergens
betweenmellan theirderas goalsmål and our ownegen
70
197800
3776
att den minsta lilla skillnad
mellan deras mål och våra
03:33
could destroyförstöra us.
71
201600
1200
skulle kunna förgöra oss.
03:35
Just think about how we relaterelatera to antsmyror.
72
203960
2080
Tänk bara på vår inställning till myror.
03:38
We don't hatehata them.
73
206600
1656
Vi hatar inte dem.
03:40
We don't go out of our way to harmskada them.
74
208280
2056
Vi skadar inte dem medvetet.
03:42
In factfaktum, sometimesibland
we take painsmöda not to harmskada them.
75
210360
2376
Ibland anstränger vi oss
för att inte skada dem.
03:44
We stepsteg over them on the sidewalktrottoar.
76
212760
2016
Vi kliver över dem på trottoaren.
03:46
But whenevernärhelst theirderas presencenärvaro
77
214800
2136
Men så fort deras närvaro
03:48
seriouslyallvarligt conflictskonflikter with one of our goalsmål,
78
216960
2496
kommer i allvarlig konflikt med våra mål,
03:51
let's say when constructingkonstruera
a buildingbyggnad like this one,
79
219480
2477
som till exempel vid husbyggnationer,
03:53
we annihilateförinta them withoututan a qualmoro.
80
221981
1960
förintar vi dem utan pardon.
03:56
The concernoro is that we will
one day buildbygga machinesmaskiner
81
224480
2936
Bekymret är att vi en dag
kommer att bygga maskiner
03:59
that, whetherhuruvida they're consciousmedveten or not,
82
227440
2736
som, oavsett om de är medvetna eller ej,
04:02
could treatbehandla us with similarliknande disregardbortse från.
83
230200
2000
skulle kunna behandla oss
med samma förakt.
04:05
Now, I suspectmisstänka this seemsverkar
far-fetchedlångsökt to manymånga of you.
84
233760
2760
Jag misstänker att det verkar
långsökt för många av er.
04:09
I betslå vad there are those of you who doubttvivel
that superintelligentsuperintelligenta AIAI is possiblemöjlig,
85
237360
6336
Jag slår vad om att en del av er tvivlar
på att superintelligent AI är möjlig,
04:15
much lessmindre inevitableoundviklig.
86
243720
1656
än mindre nödvändig.
04:17
But then you mustmåste find something wrongfel
with one of the followingföljande assumptionsantaganden.
87
245400
3620
Men då måste ni finna felen med
några av följande antaganden.
04:21
And there are only threetre of them.
88
249044
1572
Det finns bara tre.
04:23
IntelligenceIntelligens is a mattermateria of informationinformation
processingbearbetning in physicalfysisk systemssystem.
89
251800
4719
Intelligens handlar om processandet
av information i fysiska system.
04:29
ActuallyFaktiskt, this is a little bitbit more
than an assumptionantagande.
90
257320
2615
Det är egentligen mer
än bara ett antagande.
04:31
We have alreadyredan builtbyggd
narrowsmal intelligenceintelligens into our machinesmaskiner,
91
259959
3457
Vi använder redan maskininlärning
i många maskiner,
04:35
and manymånga of these machinesmaskiner performutföra
92
263440
2016
och många av dessa maskiner presterar
04:37
at a levelnivå of superhumanövermänsklig
intelligenceintelligens alreadyredan.
93
265480
2640
redan på nivåer långt över
mänsklig intelligens.
04:40
And we know that mereren mattermateria
94
268840
2576
Och vi vet att materia
04:43
can give risestiga to what is calledkallad
"generalallmän intelligenceintelligens,"
95
271440
2616
kan skapa det som
kallas "generell intelligens"
04:46
an abilityförmåga to think flexiblyflexibelt
acrosstvärs över multipleflera olika domainsdomäner,
96
274080
3656
en förmåga att tänka flexibelt
över flera dimensioner,
04:49
because our brainshjärnor have managedförvaltade it. Right?
97
277760
3136
eftersom våra hjärnor
har klarat det. Eller hur?
04:52
I mean, there's just atomsatomer in here,
98
280920
3936
Jag menar, det är ju bara atomer här inne,
04:56
and as long as we continueFortsätta
to buildbygga systemssystem of atomsatomer
99
284880
4496
och så länge vi fortsätter att
bygga system av atomer
05:01
that displayvisa more and more
intelligentintelligent behaviorbeteende,
100
289400
2696
som uppvisar mer och mer intelligens,
05:04
we will eventuallyså småningom,
unlesssåvida inte we are interruptedavbruten,
101
292120
2536
kommer vi till slut,
om vi inte blir avbrutna,
05:06
we will eventuallyså småningom
buildbygga generalallmän intelligenceintelligens
102
294680
3376
ha byggt in generell intelligens
05:10
into our machinesmaskiner.
103
298080
1296
i våra maskiner.
05:11
It's crucialavgörande to realizeinse
that the rateBetygsätta of progressframsteg doesn't mattermateria,
104
299400
3656
Det är viktigt att inse att
utvecklingstakten inte spelar någon roll,
05:15
because any progressframsteg
is enoughtillräckligt to get us into the endslutet zonezon.
105
303080
3176
eftersom minsta framsteg
räcker för att nå slutstationen.
05:18
We don't need Moore'sMoores lawlag to continueFortsätta.
We don't need exponentialexponentiell progressframsteg.
106
306280
3776
Vi behöver inte Moores lag. Utvecklingen
behöver inte vara exponentiell.
05:22
We just need to keep going.
107
310080
1600
Vi behöver bara fortsätta framåt.
05:25
The secondandra assumptionantagande
is that we will keep going.
108
313480
2920
Det andra antagandet är
att vi kommer fortsätta.
05:29
We will continueFortsätta to improveförbättra
our intelligentintelligent machinesmaskiner.
109
317000
2760
Vi fortsätter utvecklingen
av de intelligenta maskinerna.
05:33
And givengiven the valuevärde of intelligenceintelligens --
110
321000
4376
Och givet värdet på intelligens -
05:37
I mean, intelligenceintelligens is eitherantingen
the sourcekälla of everything we valuevärde
111
325400
3536
jag menar, intelligens är antingen
summan av allt vi sätter värde på
05:40
or we need it to safeguardskyddsåtgärder
everything we valuevärde.
112
328960
2776
eller som vi behöver för att
skydda det vi värdesätter.
05:43
It is our mostmest valuablevärdefulla resourceresurs.
113
331760
2256
Det är vår värdefullaste resurs.
05:46
So we want to do this.
114
334040
1536
Så vi vill göra det här.
05:47
We have problemsproblem
that we desperatelydesperat need to solvelösa.
115
335600
3336
Vi har problem som vi desperat måste lösa.
05:50
We want to curebota diseasessjukdomar
like Alzheimer'sAlzheimers and cancercancer.
116
338960
3200
Vi vill bota sjukdomar som
Alzheimers och cancer.
05:54
We want to understandförstå economicekonomisk systemssystem.
We want to improveförbättra our climateklimat sciencevetenskap.
117
342960
3936
Vi vill förstå de ekonomiska systemen.
Vi vill utveckla klimatforskningen.
05:58
So we will do this, if we can.
118
346920
2256
Så vi kommer att göra det, om vi kan.
06:01
The traintåg is alreadyredan out of the stationstation,
and there's no brakebroms to pulldra.
119
349200
3286
Tåget har redan lämnat stationen,
och det finns ingen broms.
06:05
FinallySlutligen, we don't standstå
on a peaktopp of intelligenceintelligens,
120
353880
5456
Slutligen, vi har inte
nått intelligensens topp,
06:11
or anywherevar som helst nearnära it, likelytroligt.
121
359360
1800
vi är troligen inte ens i närheten.
06:13
And this really is the crucialavgörande insightinsikt.
122
361640
1896
Det är den riktigt kritiska insikten.
06:15
This is what makesgör
our situationsituation so precariousotrygga,
123
363560
2416
Det är det här som gör
vår situation så vansklig,
06:18
and this is what makesgör our intuitionsintuitioner
about riskrisk so unreliableopålitliga.
124
366000
4040
och det gör också våra
riskantaganden så opålitliga.
06:23
Now, just consideröverväga the smartestsmartaste personperson
who has ever livedlevde.
125
371120
2720
Fundera på den smartaste person
som någonsin levt.
06:26
On almostnästan everyone'sallas shortlistKortlistan here
is JohnJohn vonvon NeumannNeumann.
126
374640
3416
En som finns på nästan allas lista
är John von Neumann.
06:30
I mean, the impressionintryck that vonvon NeumannNeumann
madegjord on the people around him,
127
378080
3336
Jag menar, de intryck som Neumann
gjorde på folk runt honom,
06:33
and this includedinkluderad the greateststörst
mathematiciansmatematiker and physicistsfysiker of his time,
128
381440
4056
inkluderat de främsta matematikerna
och fysikerna under hans levnad,
06:37
is fairlyganska well-documentedväldokumenterade.
129
385520
1936
är ganska väldokumenterade.
06:39
If only halfhalv the storiesberättelser
about him are halfhalv truesann,
130
387480
3776
Om bara hälften av berättelserna
om honom är halvsanna,
06:43
there's no questionfråga
131
391280
1216
råder det ingen tvekan om
06:44
he's one of the smartestsmartaste people
who has ever livedlevde.
132
392520
2456
att han är en av de smartaste någonsin.
06:47
So consideröverväga the spectrumspektrum of intelligenceintelligens.
133
395000
2520
Så fundera på vidden av intelligens.
06:50
Here we have JohnJohn vonvon NeumannNeumann.
134
398320
1429
Här har vi John von Neumann.
06:53
And then we have you and me.
135
401560
1334
Så har vi dig och mig.
06:56
And then we have a chickenkyckling.
136
404120
1296
Så har vi kycklingar.
06:57
(LaughterSkratt)
137
405440
1936
(Skratt)
06:59
Sorry, a chickenkyckling.
138
407400
1216
Ursäkta, en kyckling.
07:00
(LaughterSkratt)
139
408640
1256
(Skratt)
07:01
There's no reasonanledning for me to make this talk
more depressingdeprimerande than it needsbehov to be.
140
409920
3736
Det finns inga skäl att göra föredraget
mer deprimerande än det redan är.
07:05
(LaughterSkratt)
141
413680
1600
(Skratt)
07:08
It seemsverkar overwhelminglyöverväldigande likelytroligt, howeverdock,
that the spectrumspektrum of intelligenceintelligens
142
416339
3477
Det verkar dock mycket troligt,
att spektrat av intelligens,
07:11
extendssträcker much furtherytterligare
than we currentlyför närvarande conceivebli gravid,
143
419840
3120
sträcker sig mycket längre
än vi kan föreställa oss idag,
07:15
and if we buildbygga machinesmaskiner
that are more intelligentintelligent than we are,
144
423880
3216
och om vi bygger maskiner
som är intelligentare än vi,
07:19
they will very likelytroligt
exploreutforska this spectrumspektrum
145
427120
2296
kommer de troligtvis
utforska detta spektrum
07:21
in wayssätt that we can't imaginetänka,
146
429440
1856
på sätt som vi inte kan föreställa oss,
07:23
and exceedöverstiga us in wayssätt
that we can't imaginetänka.
147
431320
2520
och överträffa oss på
sätt som vi inte kan förstå.
07:27
And it's importantViktig to recognizeerkänna that
this is truesann by virtuedygd of speedfart aloneensam.
148
435000
4336
Det är viktigt att se att det här är sant
genom hastigheten det sker med.
07:31
Right? So imaginetänka if we just builtbyggd
a superintelligentsuperintelligenta AIAI
149
439360
5056
Ok? Föreställ er att vi
byggt en superintelligent AI
07:36
that was no smartersmartare
than your averagegenomsnitt teamteam of researchersforskare
150
444440
3456
som inte är smartare än din
genomsnittliga forskargrupp
07:39
at StanfordStanford or MITMIT.
151
447920
2296
på Stanford eller MIT.
07:42
Well, electronicelektronisk circuitskretsar
functionfungera about a millionmiljon timesgånger fastersnabbare
152
450240
2976
Elektroniska kretsar är ungefär
en miljon gånger snabbare
än biokemiska,
07:45
than biochemicalbiokemisk onesettor,
153
453240
1256
07:46
so this machinemaskin should think
about a millionmiljon timesgånger fastersnabbare
154
454520
3136
så maskinen skulle tänka ungefär
en miljon gånger snabbare
07:49
than the mindssinnen that builtbyggd it.
155
457680
1816
än hjärnorna som byggt den.
07:51
So you setuppsättning it runninglöpning for a weekvecka,
156
459520
1656
Ni låter den köra i en vecka,
07:53
and it will performutföra 20,000 yearsår
of human-levelmänskliga-nivå intellectualintellektuell work,
157
461200
4560
och den kommer att processa
20 000 år av mänskligt tänkande,
07:58
weekvecka after weekvecka after weekvecka.
158
466400
1960
vecka ut och vecka in.
08:01
How could we even understandförstå,
much lessmindre constrainbegränsa,
159
469640
3096
Hur kan vi ens förstå, än mindre begränsa
08:04
a mindsinne makingtillverkning this sortsortera of progressframsteg?
160
472760
2280
en kraft som gör sådana framsteg?
08:08
The other thing that's worryingoroande, franklyuppriktigt sagt,
161
476840
2136
Det andra som är uppriktigt oroande,
08:11
is that, imaginetänka the bestbäst casefall scenarioscenario.
162
479000
4976
är, föreställ dig ett bästa scenario.
08:16
So imaginetänka we hitträffa upon a designdesign
of superintelligentsuperintelligenta AIAI
163
484000
4176
Föreställ dig att vi designar
en superintelligent AI
08:20
that has no safetysäkerhet concernsoro.
164
488200
1376
utan säkerhetsproblem.
08:21
We have the perfectperfekt designdesign
the first time around.
165
489600
3256
Vi har den perfekta designen från början.
08:24
It's as thoughdock we'vevi har been handedräckte an oracleorakel
166
492880
2216
Det är som att vi skulle få ett orakel
08:27
that behavesbeter sig exactlyexakt as intendedavsedd.
167
495120
2016
som beter sig exakt som vi avsett.
08:29
Well, this machinemaskin would be
the perfectperfekt labor-savingarbetsbesparande deviceanordning.
168
497160
3720
Den här maskinen skulle vara
den perfekta "jobbspararen".
08:33
It can designdesign the machinemaskin
that can buildbygga the machinemaskin
169
501680
2429
Den kan designa maskinen
som kan bygga maskinen
08:36
that can do any physicalfysisk work,
170
504133
1763
som kan utföra allt fysiskt arbete,
08:37
powereddriven by sunlightsolljus,
171
505920
1456
och drivs av solenergi,
08:39
more or lessmindre for the costkosta
of raw materialsmaterial.
172
507400
2696
mer eller mindre till
kostnaden för råmaterialet.
08:42
So we're talkingtalande about
the endslutet of humanmänsklig drudgeryslit.
173
510120
3256
Då pratar vi om slutet
av mänsklighetens slit.
08:45
We're alsoockså talkingtalande about the endslutet
of mostmest intellectualintellektuell work.
174
513400
2800
Och även om slutet för mycket
av intellektuellt arbete.
08:49
So what would apesapor like ourselvesoss själva
do in this circumstanceomständighet?
175
517200
3056
Så vad ska apor som vi göra
under sådana omständigheter?
08:52
Well, we'dvI hADE be freefri to playspela FrisbeeFrisbee
and give eachvarje other massagesMassage.
176
520280
4080
Ja, vi får tid över att kasta frisbee
och ge varandra massage.
08:57
AddLägg till some LSDLSD and some
questionabletveksamt wardrobegarderob choicesval,
177
525840
2856
Lägg till lite LSD och några
underliga klädesplagg,
09:00
and the wholehela worldvärld
could be like BurningBränning Man.
178
528720
2176
och hela världen kan bli som Burning Man.
09:02
(LaughterSkratt)
179
530920
1640
(Skratt)
09:06
Now, that mightmakt soundljud prettySöt good,
180
534320
2000
Ok, det kan låta ganska trevligt,
09:09
but askfråga yourselfsjälv what would happenhända
181
537280
2376
men ställ dig frågan vad som skulle ske
09:11
underunder our currentnuvarande economicekonomisk
and politicalpolitisk orderbeställa?
182
539680
2736
under våra nuvarande
ekonomiska och politiska system?
09:14
It seemsverkar likelytroligt that we would witnessbevittna
183
542440
2416
Det verkar troligt att vi skulle bevittna
09:16
a levelnivå of wealthrikedom inequalityolikhet
and unemploymentarbetslöshet
184
544880
4136
enorma skillnader i välfärd
och tillgång till arbete
09:21
that we have never seensett before.
185
549040
1496
som vi aldrig tidigare upplevt.
09:22
AbsentFrånvarande a willingnessviljan
to immediatelyomedelbart put this newny wealthrikedom
186
550560
2616
Saknas en vilja att
låta detta nya välstånd
09:25
to the serviceservice of all humanitymänskligheten,
187
553200
1480
tjäna hela mänskligheten,
09:27
a few trillionairestrillionaires could graceGrace
the coversomslag of our businessföretag magazinestidningar
188
555640
3616
kommer några triljonärer att pryda
omslagen på våra affärstidningar
09:31
while the restresten of the worldvärld
would be freefri to starvesvälta.
189
559280
2440
medan resten av världen kan få svälta.
09:34
And what would the RussiansRyssarna
or the ChineseKinesiska do
190
562320
2296
Vad skulle ryssarna eller kineserna göra
09:36
if they heardhört that some companyföretag
in SiliconKisel ValleyDalen
191
564640
2616
om de hörde att ett
företag i Silicon Valley
09:39
was about to deploydistribuera a superintelligentsuperintelligenta AIAI?
192
567280
2736
höll på att sjösätta en
superintelligent AI?
09:42
This machinemaskin would be capablekapabel
of wagingföra warkrig,
193
570040
2856
Den maskinen skulle vara
kapabel att föra krig,
09:44
whetherhuruvida terrestrialterrestrial or cyberCyber,
194
572920
2216
antingen på land eller i cyberrymden,
09:47
with unprecedentedutan motstycke powerkraft.
195
575160
1680
med aldrig tidigare skådad kraft.
09:50
This is a winner-take-allvinnaren-tar-allt scenarioscenario.
196
578120
1856
Det är ett vinnaren-tar-allt scenario.
09:52
To be sixsex monthsmånader aheadett huvud
of the competitionkonkurrens here
197
580000
3136
Att ligga sex månader före i den tävlingen
09:55
is to be 500,000 yearsår aheadett huvud,
198
583160
2776
är att vara 500 000 år före,
09:57
at a minimumminimum.
199
585960
1496
minst.
09:59
So it seemsverkar that even mereren rumorsrykten
of this kindsnäll of breakthroughgenombrott
200
587480
4736
Det ser ut som att blott rykten
kring denna typ av genombrott
10:04
could causeorsak our speciesarter to go berserkBerserk.
201
592240
2376
kan leda till att vår art går bärsärk.
10:06
Now, one of the mostmest frighteningskrämmande things,
202
594640
2896
En av de mest skrämmande sakerna,
10:09
in my viewse, at this momentögonblick,
203
597560
2776
enligt min mening, i dag,
10:12
are the kindsslag of things
that AIAI researchersforskare say
204
600360
4296
är det som forskare inom AI säger
10:16
when they want to be reassuringbetryggande.
205
604680
1560
när de vill lugna oss.
10:19
And the mostmest commonallmänning reasonanledning
we're told not to worryoroa is time.
206
607000
3456
Det vanligaste argumentet för att
vi inte ska oroa oss handlar om tid.
10:22
This is all a long way off,
don't you know.
207
610480
2056
Det här ligger långt fram, vet du väl.
10:24
This is probablyförmodligen 50 or 100 yearsår away.
208
612560
2440
Det här är säkert 50 eller 100 år bort.
10:27
One researcherforskare has said,
209
615720
1256
En forskare har sagt,
10:29
"WorryingOroande about AIAI safetysäkerhet
210
617000
1576
"Att oroa sig för AI-säkerhet är
10:30
is like worryingoroande
about overpopulationöverbefolkning on MarsFördärvar."
211
618600
2280
som att oroa sig för
ett överbefolkat Mars."
10:34
This is the SiliconKisel ValleyDalen versionversion
212
622116
1620
Det är Silicon Valley-versionen av
10:35
of "don't worryoroa your
prettySöt little headhuvud about it."
213
623760
2376
"oroa inte ditt söta lilla huvud."
10:38
(LaughterSkratt)
214
626160
1336
(Skratt)
10:39
No one seemsverkar to noticelägga märke till
215
627520
1896
Ingen verkar uppmärksamma att,
10:41
that referencingreferenser the time horizonhorisont
216
629440
2616
att referera till tidsaspekten
10:44
is a totaltotal nonicke sequitursequitur.
217
632080
2576
är ett "Goddag yxskaft"-svar.
10:46
If intelligenceintelligens is just a mattermateria
of informationinformation processingbearbetning,
218
634680
3256
Om intelligens bara handlar
om att processa information,
10:49
and we continueFortsätta to improveförbättra our machinesmaskiner,
219
637960
2656
och vi fortsätter att
utveckla våra maskiner,
10:52
we will produceproducera
some formform of superintelligencesuperintelligens.
220
640640
2880
kommer vi till slut skapa
någon form av superintelligens.
10:56
And we have no ideaaning
how long it will take us
221
644320
3656
Vi har ingen aning om
hur lång tid det kommer att ta
11:00
to createskapa the conditionsbetingelser
to do that safelysäkert.
222
648000
2400
att skapa villkoren för
att göra det riskfritt.
11:04
Let me say that again.
223
652200
1296
Jag tar det en gång till.
11:05
We have no ideaaning how long it will take us
224
653520
3816
Vi vet inte hur lång tid det kommer att ta
11:09
to createskapa the conditionsbetingelser
to do that safelysäkert.
225
657360
2240
för att skapa de säkra villkoren.
11:12
And if you haven'thar inte noticedlade märke till,
50 yearsår is not what it used to be.
226
660920
3456
Du har kanske inte noterat det,
men 50 år är inte vad det brukade vara.
11:16
This is 50 yearsår in monthsmånader.
227
664400
2456
Det här är 50 år i månader.
11:18
This is how long we'vevi har had the iPhoneiPhone.
228
666880
1840
Så här länge har vi haft iPhone.
11:21
This is how long "The SimpsonsSimpsons"
has been on televisiontv.
229
669440
2600
Så här länge har "Simpsons" visats på TV.
11:24
FiftyFemtio yearsår is not that much time
230
672680
2376
50 år är inte så lång tid
11:27
to meetträffa one of the greateststörst challengesutmaningar
our speciesarter will ever faceansikte.
231
675080
3160
att möta den största utmaningen
mänskligheten någonsin skådat.
11:31
OnceEn gång again, we seemverka to be failingbrist
to have an appropriatelämplig emotionalemotionell responsesvar
232
679640
4016
Än en gång, vi verkar inte kunna uppbåda
ett passande emetionellt gensvar
11:35
to what we have everyvarje reasonanledning
to believe is comingkommande.
233
683680
2696
för den framtid vi har all
anledning att tro kommer.
11:38
The computerdator scientistforskare StuartStuart RussellRussell
has a nicetrevlig analogyanalogi here.
234
686400
3976
Datorforskaren Stuart Russell
drar en intressant parallell.
11:42
He said, imaginetänka that we receivedmottagen
a messagemeddelande from an alienutomjording civilizationcivilisation,
235
690400
4896
Han sade, föreställ er att vi fick ett
meddelande från en främmande civilisation,
11:47
whichsom readläsa:
236
695320
1696
som sade:
11:49
"People of EarthJorden,
237
697040
1536
"Människor på Jorden,
11:50
we will arriveanlända on your planetplanet in 50 yearsår.
238
698600
2360
vi kommer att landa
på er planet om 50 år.
11:53
Get readyredo."
239
701800
1576
Gör er redo."
11:55
And now we're just countingräkning down
the monthsmånader untilfram tills the mothershipMothership landslandar?
240
703400
4256
Och nu räknar vi bara ner månaderna
tills moderskeppet landar?
11:59
We would feel a little
more urgencybrådskande than we do.
241
707680
3000
Vi borde förstå att det
brådskar mer än vad vi gör.
12:04
AnotherEn annan reasonanledning we're told not to worryoroa
242
712680
1856
Vi hör att vi inte behöver oroa oss
12:06
is that these machinesmaskiner
can't help but sharedela med sig our valuesvärden
243
714560
3016
för maskinerna kommer
att dela våra värderingar
12:09
because they will be literallybokstavligen
extensionstillägg of ourselvesoss själva.
244
717600
2616
eftersom de kommer att
vara en förlängning av oss.
12:12
They'llDe kommer be graftedympade ontotill our brainshjärnor,
245
720240
1816
De kommer att ympas in i våra hjärnor,
12:14
and we'llväl essentiallyväsentligen
becomebli theirderas limbiclimbiska systemssystem.
246
722080
2360
och vi kommer att vara
deras limbiska system.
12:17
Now take a momentögonblick to consideröverväga
247
725120
1416
Reflektera nu över
12:18
that the safestsäkraste
and only prudentförsiktiga pathväg forwardfram-,
248
726560
3176
att den tryggaste och
förståndigaste vägen framåt,
12:21
recommendedRekommenderat,
249
729760
1336
som förespråkas,
12:23
is to implantimplantatet this technologyteknologi
directlydirekt into our brainshjärnor.
250
731120
2800
är att operera in tekniken
direkt i våra hjärnor.
12:26
Now, this mayMaj in factfaktum be the safestsäkraste
and only prudentförsiktiga pathväg forwardfram-,
251
734600
3376
Det kanske är den tryggaste
och smartaste vägen att ta,
12:30
but usuallyvanligtvis one'ssIN safetysäkerhet concernsoro
about a technologyteknologi
252
738000
3056
men vanligtvis måste
säkerhetsriskerna med en teknik
12:33
have to be prettySöt much workedarbetade out
before you stickpinne it insideinuti your headhuvud.
253
741080
3656
vara ordentligt utredda innan
man stoppar in den i hjärnan.
12:36
(LaughterSkratt)
254
744760
2016
(Skratt)
12:38
The deeperdjupare problemproblem is that
buildingbyggnad superintelligentsuperintelligenta AIAI on its ownegen
255
746800
5336
Det djupare problemet är att
utveckla en fristående superintelligent AI
12:44
seemsverkar likelytroligt to be easierlättare
256
752160
1736
förmodligen är enklare
12:45
than buildingbyggnad superintelligentsuperintelligenta AIAI
257
753920
1856
än att utveckla superintelligent AI
12:47
and havinghar the completedavslutad neuroscienceneuroscience
258
755800
1776
och ha koll på neurovetenskapen
12:49
that allowstillåter us to seamlesslysömlöst
integrateintegrera our mindssinnen with it.
259
757600
2680
som låter oss sömlöst
integrera våra sinnen med den.
12:52
And givengiven that the companiesföretag
and governmentsregeringar doing this work
260
760800
3176
Givet att företag och
stater som står för vetenskapen
12:56
are likelytroligt to perceiveuppfattar themselvessig själva
as beingvarelse in a racelopp againstmot all othersandra,
261
764000
3656
sannolikt kommer att uppfatta sig
vara i kamp med alla andra,
12:59
givengiven that to winvinna this racelopp
is to winvinna the worldvärld,
262
767680
3256
givet att genom att vinna kapplöpningen
vinner man världen,
13:02
providedförsedd you don't destroyförstöra it
in the nextNästa momentögonblick,
263
770960
2456
förutsatt att de inte
förstör den i nästa steg,
13:05
then it seemsverkar likelytroligt
that whatevervad som helst is easierlättare to do
264
773440
2616
då verkar det troligt att
allt som är enklare att göra
13:08
will get doneGjort first.
265
776080
1200
kommer att göras först.
13:10
Now, unfortunatelytyvärr,
I don't have a solutionlösning to this problemproblem,
266
778560
2856
Tyvärr har jag ingen lösning
på det här problemet,
13:13
apartisär from recommendingrekommendera
that more of us think about it.
267
781440
2616
mer än att fler av oss
måste fundera på det.
Jag tror vi behöver ett Manhattan-projekt
13:16
I think we need something
like a ManhattanManhattan ProjectProjektet
268
784080
2376
13:18
on the topicämne of artificialartificiell intelligenceintelligens.
269
786480
2016
på temat artificiell intelligens.
13:20
Not to buildbygga it, because I think
we'llväl inevitablyoundvikligen do that,
270
788520
2736
Inte för att bygga den,
det tror jag oundvikligen vi gör,
13:23
but to understandförstå
how to avoidundvika an armsvapen racelopp
271
791280
3336
men för att förstå hur vi ska
undvika en kapprustning
13:26
and to buildbygga it in a way
that is alignedjusterad with our interestsintressen.
272
794640
3496
och för att utveckla den i linje
med våra egna intressen.
13:30
When you're talkingtalande
about superintelligentsuperintelligenta AIAI
273
798160
2136
När man pratar om superintelligent AI
13:32
that can make changesförändringar to itselfsig,
274
800320
2256
som kan förändra sig själv,
13:34
it seemsverkar that we only have one chancechans
to get the initialförsta conditionsbetingelser right,
275
802600
4616
verkar det som att vi bara har
en chans att få det rätt från början,
13:39
and even then we will need to absorbabsorbera
276
807240
2056
och även då måste vi sätta oss in i
13:41
the economicekonomisk and politicalpolitisk
consequenceskonsekvenser of getting them right.
277
809320
3040
och lösa de ekonomiska och
politiska konsekvenserna.
13:45
But the momentögonblick we admiterkänna
278
813760
2056
Men i den stund vi tillstår
13:47
that informationinformation processingbearbetning
is the sourcekälla of intelligenceintelligens,
279
815840
4000
att informationsbearbetning
är källan till intelligens,
13:52
that some appropriatelämplig computationalberäknings systemsystemet
is what the basisgrund of intelligenceintelligens is,
280
820720
4800
att något datorstyrt beräkningsprogram
är basen för intelligens,
13:58
and we admiterkänna that we will improveförbättra
these systemssystem continuouslykontinuerligt,
281
826360
3760
och att vi kommer att förbättra
dessa system kontinuerligt,
14:03
and we admiterkänna that the horizonhorisont
of cognitionkognition very likelytroligt farlångt exceedsöverstiger
282
831280
4456
och vi erkänner att
kognitionshorisonten vida överstiger
14:07
what we currentlyför närvarande know,
283
835760
1200
vad vi vet idag,
14:10
then we have to admiterkänna
284
838120
1216
då måste vi också erkänna
14:11
that we are in the processbearbeta
of buildingbyggnad some sortsortera of god.
285
839360
2640
att vi är i färd med att
skapa någon form av gud.
14:15
Now would be a good time
286
843400
1576
Nu borde vara ett bra tillfälle att
14:17
to make sure it's a god we can liveleva with.
287
845000
1953
se till att det är en gud vi vill ha.
14:20
Thank you very much.
288
848120
1536
Tack så mycket.
14:21
(ApplauseApplåder)
289
849680
5093
(Applåder)
Translated by Anette Smedberg
Reviewed by Lisbeth Pekkari

▲Back to top

ABOUT THE SPEAKER
Sam Harris - Neuroscientist, philosopher
Sam Harris's work focuses on how our growing understanding of ourselves and the world is changing our sense of how we should live.

Why you should listen

Sam Harris is the author of five New York Times bestsellers. His books include The End of FaithLetter to a Christian Nation, The Moral Landscape, Free Will, Lying, Waking Up and Islam and the Future of Tolerance (with Maajid Nawaz). The End of Faith won the 2005 PEN Award for Nonfiction. Harris's writing and public lectures cover a wide range of topics -- neuroscience, moral philosophy, religion, spirituality, violence, human reasoning -- but generally focus on how a growing understanding of ourselves and the world is changing our sense of how we should live.

Harris's work has been published in more than 20 languages and has been discussed in the New York Times, Time, Scientific American, Nature, Newsweek, Rolling Stone and many other journals. He has written for the New York Times, the Los Angeles Times, The Economist, The Times (London), the Boston Globe, The Atlantic, The Annals of Neurology and elsewhere. Harris also regularly hosts a popular podcast.

Harris received a degree in philosophy from Stanford University and a Ph.D. in neuroscience from UCLA.

More profile about the speaker
Sam Harris | Speaker | TED.com