ABOUT THE SPEAKER
Grady Booch - Scientist, philosopher
IBM's Grady Booch is shaping the future of cognitive computing by building intelligent systems that can reason and learn.

Why you should listen

When he was 13, Grady Booch saw 2001: A Space Odyssey in the theaters for the first time. Ever since, he's been trying to build Hal (albeit one without the homicidal tendencies). A scientist, storyteller and philosopher, Booch is Chief Scientist for Software Engineering as well as Chief Scientist for Watson/M at IBM Research, where he leads IBM's research and development for embodied cognition. Having originated the term and the practice of object-oriented design, he is best known for his work in advancing the fields of software engineering and software architecture.

A co-author of the Unified Modeling Language (UML), a founding member of the Agile Allianc, and a founding member of the Hillside Group, Booch has published six books and several hundred technical articles, including an ongoing column for IEEE Software. He's also a trustee for the Computer History Museum, an IBM Fellow, an ACM Fellow and IEEE Fellow. He has been awarded the Lovelace Medal and has given the Turing Lecture for the BCS, and was recently named an IEEE Computer Pioneer.

Booch is currently deeply involved in the development of cognitive systems and is also developing a major trans-media documentary for public broadcast on the intersection of computing and the human experience.

More profile about the speaker
Grady Booch | Speaker | TED.com
TED@IBM

Grady Booch: Don't fear superintelligent AI

Grady Booch: Keine Angst vor superintelligenter KI

Filmed:
2,866,438 views

Neue Technologie bringt neue Ängste hervor, sagt Wissenschaftler und Philosoph Grady Booch. Aber wir brauchen keine Angst vor einer allmächtigen, gefühllosen KI zu haben. Booch nimmt uns unsere schlimmsten (Sci-fi induzierten) Ängste vor superintelligenten Computern, indem er erklärt, wie wir sie lehren, und nicht programmieren werden, unsere Werte zu teilen. Anstatt uns um eine unwahrscheinliche existenzielle Bedrohung zu sorgen, drängt er uns zu bedenken, wie künstliche Intelligenz das menschliche Leben verbessern wird.
- Scientist, philosopher
IBM's Grady Booch is shaping the future of cognitive computing by building intelligent systems that can reason and learn. Full bio

Double-click the English transcript below to play the video.

00:12
When I was a kidKind,
I was the quintessentialQuintessenz nerdNerd.
0
760
3840
Als Kind war ich der typische Nerd.
00:17
I think some of you were, too.
1
5320
2176
Ich glaube, das waren
manche von Ihnen auch.
00:19
(LaughterLachen)
2
7520
1216
(Gelächter)
00:20
And you, sirHerr, who laughedlachte the loudestlauteste,
you probablywahrscheinlich still are.
3
8760
3216
Sie, der am lautesten gelacht hat,
Sie sind es wohl immer noch.
00:24
(LaughterLachen)
4
12000
2256
(Gelächter)
Ich wuchs in einer Kleinstadt in
den staubigen Ebenen Nordtexas' auf,
00:26
I grewwuchs up in a smallklein townStadt
in the dustystaubige plainsEbenen of northNorden TexasTexas,
5
14280
3496
00:29
the sonSohn of a sheriffSheriff
who was the sonSohn of a pastorPastor.
6
17800
3336
der Sohn eines Sheriffs,
der der Sohn eines Pastors war.
00:33
GettingImmer into troubleÄrger was not an optionMöglichkeit.
7
21160
1920
Ich durfte keinen Ärger machen.
00:36
And so I startedhat angefangen readingLesen
calculusKalkül booksBücher for funSpaß.
8
24040
3256
Ich fing aus Vergnügen an,
Mathebücher zu lesen.
00:39
(LaughterLachen)
9
27320
1536
(Gelächter)
00:40
You did, too.
10
28880
1696
Das haben Sie auch gemacht.
00:42
That led me to buildingGebäude a laserLaser-
and a computerComputer and modelModell- rocketsRaketen,
11
30600
3736
Das führte mich dazu, einen Laser und
einen Computer und Modellraketen zu bauen
00:46
and that led me to makingHerstellung
rocketRakete fuelTreibstoff in my bedroomSchlafzimmer.
12
34360
3000
und Raketenbrennstoff
in meinem Schlafzimmer herzustellen.
00:49
Now, in scientificwissenschaftlich termsBegriffe,
13
37960
3656
In wissenschaftlicher Terminologie
00:53
we call this a very badschlecht ideaIdee.
14
41640
3256
nennen wir das eine sehr schlechte Idee.
00:56
(LaughterLachen)
15
44920
1216
(Gelächter)
00:58
Around that samegleich time,
16
46160
2176
Um die Zeit herum
01:00
StanleyStanley Kubrick'sKubricks "2001: A SpaceRaum OdysseyOdyssee"
camekam to the theatersTheater,
17
48360
3216
kam Stanley Kubricks "2001:
Odyssee im Weltraum" in die Kinos
01:03
and my life was foreverfür immer changedgeändert.
18
51600
2200
und mein Leben hatte sich
für immer verändert.
01:06
I lovedliebte everything about that movieFilm,
19
54280
2056
Ich liebte alles in diesem Film,
01:08
especiallyinsbesondere the HALHAL 9000.
20
56360
2536
besonders den HAL 9000.
HAL war ein empfindungsfähiger Computer,
01:10
Now, HALHAL was a sentientempfindungsfähig computerComputer
21
58920
2056
01:13
designedentworfen to guideführen the DiscoveryEntdeckung spacecraftRaumfahrzeug
22
61000
2456
dazu entworfen, das Raumschiff Discovery
01:15
from the EarthErde to JupiterJupiter.
23
63480
2536
von der Erde zum Jupiter zu leiten.
01:18
HALHAL was alsoebenfalls a flawedfehlerhaft characterCharakter,
24
66040
2056
HAL war auch ein fehlerhafter Charakter,
01:20
for in the endEnde he chosewählte
to valueWert the missionMission over humanMensch life.
25
68120
4280
da er am Ende beschloss, die Mission
über menschliches Leben zu setzen.
01:24
Now, HALHAL was a fictionalfiktive characterCharakter,
26
72840
2096
HAL war ein fiktiver Charakter,
01:26
but nonethelessdennoch he speaksspricht to our fearsÄngste,
27
74960
2656
aber nichtsdestotrotz
spricht er unsere Ängste an,
01:29
our fearsÄngste of beingSein subjugatedunterjocht
28
77640
2096
unsere Ängste vor der Unterwerfung
01:31
by some unfeelinggefühllos, artificialkünstlich intelligenceIntelligenz
29
79760
3016
durch irgendeine nicht fühlende
künstliche Intelligenz,
01:34
who is indifferentgleichgültig to our humanityMenschheit.
30
82800
1960
der unsere Menschlichkeit
gleichgültig ist.
01:37
I believe that sucheine solche fearsÄngste are unfoundedunbegründet.
31
85880
2576
Ich glaube, dass solche Ängste
unbegründet sind.
01:40
IndeedIn der Tat, we standStand at a remarkablebemerkenswert time
32
88480
2696
Wir befinden uns wirklich
in einer bemerkenswerten Zeit
01:43
in humanMensch historyGeschichte,
33
91200
1536
in der Geschichte der
Menschheit, in der wir,
01:44
where, drivenGefahren by refusalVerweigerung der to acceptakzeptieren
the limitsGrenzen of our bodiesKörper and our mindsKöpfe,
34
92760
4976
getrieben durch die Weigerung die Grenzen
von Körper und Geist zu akzeptieren,
01:49
we are buildingGebäude machinesMaschinen
35
97760
1696
Maschinen bauen,
01:51
of exquisiteexquisite, beautifulschön
complexityKomplexität and graceGnade
36
99480
3616
von exquisiter, wunderschöner
Komplexität und Grazie,
die die menschliche
Erfahrung erweitern werden,
01:55
that will extenderweitern the humanMensch experienceErfahrung
37
103120
2056
01:57
in waysWege beyonddarüber hinaus our imaginingsich vorzustellen.
38
105200
1680
weit über unsere Vorstellung hinaus.
01:59
After a careerKarriere that led me
from the AirLuft ForceKraft AcademyAkademie
39
107720
2576
Nach einer Karriere
bei der Luftwaffen-Akademie
02:02
to SpaceRaum CommandBefehl to now,
40
110320
1936
bin ich jetzt beim Weltraumkommando,
02:04
I becamewurde a systemsSysteme engineerIngenieur,
41
112280
1696
als Systemingenieur.
Und kürzlich wurde ich in ein
technisches Problem einbezogen,
02:06
and recentlyvor kurzem I was drawngezeichnet
into an engineeringIngenieurwesen problemProblem
42
114000
2736
02:08
associateddamit verbundenen with NASA'sDer NASA missionMission to MarsMars.
43
116760
2576
das mit der NASA-Mission
zum Mars zu tun hat.
02:11
Now, in spacePlatz flightsFlüge to the MoonMond,
44
119360
2496
In Raumflügen zum Mond
02:13
we can relyverlassen uponauf
missionMission controlsteuern in HoustonHouston
45
121880
3136
können wir uns auf die Einsatzleitstelle
in Houston verlassen,
02:17
to watch over all aspectsAspekte of a flightFlug.
46
125040
1976
die über alle Aspekte des Fluges wacht.
02:19
HoweverJedoch, MarsMars is 200 timesmal furtherdes Weiteren away,
47
127040
3536
Allerdings ist der Mars 200-mal weiter weg
02:22
and as a resultErgebnis it takes
on averagedurchschnittlich 13 minutesProtokoll
48
130600
3216
und daher dauert es
im Durchschnitt 13 Minuten,
02:25
for a signalSignal to travelReise
from the EarthErde to MarsMars.
49
133840
3136
bis ein Signal von der Erde
zum Mars gelangt.
02:29
If there's troubleÄrger,
there's not enoughgenug time.
50
137000
3400
Wenn es ein Problem gibt,
bleibt nicht genügend Zeit.
02:32
And so a reasonablevernünftig engineeringIngenieurwesen solutionLösung
51
140840
2496
Und so mussten wir, für eine
sinnvolle technische Lösung,
02:35
callsAnrufe for us to put missionMission controlsteuern
52
143360
2576
die Einsatzleitstelle im
Orion-Raumschiffes platzieren.
02:37
insideinnen the wallsWände of the OrionOrion spacecraftRaumfahrzeug.
53
145960
3016
02:41
AnotherEin weiterer fascinatingfaszinierend ideaIdee
in the missionMission profileProfil
54
149000
2896
Eine andere faszinierende Idee,
im Profil der Mission,
02:43
placessetzt humanoidHumanoid robotsRoboter
on the surfaceOberfläche of MarsMars
55
151920
2896
setzt humanoide Roboter
auf die Marsoberfläche,
02:46
before the humansMenschen themselvessich arriveankommen,
56
154840
1856
bevor die Menschen selbst ankommen,
02:48
first to buildbauen facilitiesAnlagen
57
156720
1656
um zunächst Gebäude zu bauen,
und später als kollaborative Mitglieder
im Wissenschaftsteam zu dienen.
02:50
and laterspäter to servedienen as collaborativekollaborativ
membersMitglieder of the scienceWissenschaft teamMannschaft.
58
158400
3360
Als ich dies aus der technischen
Perspektive betrachtete,
02:55
Now, as I lookedsah at this
from an engineeringIngenieurwesen perspectivePerspektive,
59
163400
2736
02:58
it becamewurde very clearklar to me
that what I needederforderlich to architectArchitekt
60
166160
3176
wurde mir sehr klar, dass das,
was ich bauen musste,
03:01
was a smartsmart, collaborativekollaborativ,
61
169360
2176
eine schlaue, kollaborative,
03:03
sociallysozial intelligentintelligent
artificialkünstlich intelligenceIntelligenz.
62
171560
2376
sozial intelligente
künstliche Intelligenz war.
03:05
In other wordsWörter, I needederforderlich to buildbauen
something very much like a HALHAL
63
173960
4296
Anders gesagt, ich musste etwas
ganz Ähnliches wie HAL bauen,
03:10
but withoutohne the homicidalmörderische tendenciesTendenzen.
64
178280
2416
ohne die mörderischen Neigungen.
03:12
(LaughterLachen)
65
180720
1360
(Gelächter)
03:14
Let's pausePause for a momentMoment.
66
182920
1816
Lassen Sie uns kurz anhalten.
03:16
Is it really possiblemöglich to buildbauen
an artificialkünstlich intelligenceIntelligenz like that?
67
184760
3896
Ist es wirklich möglich, eine solche
künstliche Intelligenz zu bauen?
03:20
ActuallyTatsächlich, it is.
68
188680
1456
Nun, das ist es.
03:22
In manyviele waysWege,
69
190160
1256
In vieler Hinsicht
03:23
this is a hardhart engineeringIngenieurwesen problemProblem
70
191440
1976
ist dies ein rein technisches Problem
03:25
with elementsElemente of AIAI,
71
193440
1456
mit KI-Anteilen,
03:26
not some wetnass hairHaar ballBall of an AIAI problemProblem
that needsBedürfnisse to be engineeredentwickelt.
72
194920
4696
kein vages KI-Problem,
das technisch gelöst werden muss.
03:31
To paraphraseParaphrase AlanAlan TuringTuring,
73
199640
2656
Um es mit Alan Turing zu sagen:
03:34
I'm not interestedinteressiert
in buildingGebäude a sentientempfindungsfähig machineMaschine.
74
202320
2376
Ich will keine empfindungsfähige
Maschine bauen.
03:36
I'm not buildingGebäude a HALHAL.
75
204720
1576
Ich baue keinen HAL.
03:38
All I'm after is a simpleeinfach brainGehirn,
76
206320
2416
Alles was ich will,
ist ein simples Gehirn,
03:40
something that offersbietet an
the illusionIllusion of intelligenceIntelligenz.
77
208760
3120
etwas, das die Illusion
von Intelligenz bietet.
03:45
The artKunst and the scienceWissenschaft of computingComputer
have come a long way
78
213000
3136
Kunst und Lehre der Informatik
sind weit gekommen,
seit HAL auf der Leinwand erschien,
03:48
sinceschon seit HALHAL was onscreenauf dem Bildschirm,
79
216160
1496
03:49
and I'd imaginevorstellen if his inventorErfinder
DrDr. ChandraChandra were here todayheute,
80
217680
3216
und ich glaube, wenn sein Erfinder,
Dr. Chandra, heute hier wäre,
03:52
he'der würde have a wholeganze lot of questionsFragen for us.
81
220920
2336
hätte er viele Fragen an uns.
03:55
Is it really possiblemöglich for us
82
223280
2096
Ist es uns wirklich möglich
03:57
to take a systemSystem of millionsMillionen
uponauf millionsMillionen of devicesGeräte,
83
225400
4016
ein System von abermillionen
Geräten zu nehmen,
ihre Datenströme zu lesen,
04:01
to readlesen in theirihr dataDaten streamsStröme,
84
229440
1456
ihre Fehler vorher zu sagen
und vorher zu handeln?
04:02
to predictvorhersagen theirihr failuresAusfälle
and actHandlung in advanceVoraus?
85
230920
2256
04:05
Yes.
86
233200
1216
Ja.
Können wir Systeme bauen,
die mit Menschen natürlich sprechen?
04:06
Can we buildbauen systemsSysteme that converseConverse
with humansMenschen in naturalnatürlich languageSprache?
87
234440
3176
Ja.
04:09
Yes.
88
237640
1216
Können wir Systeme bauen, die
Gegenstände und Emotionen erkennen,
04:10
Can we buildbauen systemsSysteme
that recognizeerkenne objectsObjekte, identifyidentifizieren emotionsEmotionen,
89
238880
2976
04:13
emoteEmote themselvessich,
playspielen gamesSpiele and even readlesen lipsLippen?
90
241880
3376
sich ausdrücken, Spiele spielen
und sogar Lippen lesen?
04:17
Yes.
91
245280
1216
Ja.
Können wir ein System bauen,
das Ziele setzt,
04:18
Can we buildbauen a systemSystem that setssetzt goalsTore,
92
246520
2136
04:20
that carriesträgt out plansPläne againstgegen those goalsTore
and learnslernt alongeine lange the way?
93
248680
3616
das Pläne für diese Ziele ausführt
und auf dem Weg dahin lernt?
04:24
Yes.
94
252320
1216
Ja.
Können wir Systeme bauen, die eine
Naive Theorie [Theory of mind] haben?
04:25
Can we buildbauen systemsSysteme
that have a theoryTheorie of mindVerstand?
95
253560
3336
04:28
This we are learningLernen to do.
96
256920
1496
Das lernen wir gerade.
04:30
Can we buildbauen systemsSysteme that have
an ethicalethisch and moralMoral- foundationStiftung?
97
258440
3480
Können wir Systeme mit ethischen
und moralischen Grundlagen bauen?
04:34
This we mustsollen learnlernen how to do.
98
262480
2040
Das müssen wir noch lernen.
So lassen Sie uns für
einen Moment akzeptieren,
04:37
So let's acceptakzeptieren for a momentMoment
99
265360
1376
04:38
that it's possiblemöglich to buildbauen
sucheine solche an artificialkünstlich intelligenceIntelligenz
100
266760
2896
dass eine solche KI möglich ist,
04:41
for this kindArt of missionMission and othersAndere.
101
269680
2136
für solche und andere Aufgaben.
04:43
The nextNächster questionFrage
you mustsollen askFragen yourselfdich selber is,
102
271840
2536
Die nächste Frage,
die Sie sich stellen müssen, ist:
04:46
should we fearAngst it?
103
274400
1456
Sollten wir sie fürchten?
04:47
Now, everyjeden newneu technologyTechnologie
104
275880
1976
Jede neue Technologie
04:49
bringsbringt with it
some measuremessen of trepidationAngst.
105
277880
2896
bringt eine gewisse Angst mit sich.
04:52
When we first saw carsAutos,
106
280800
1696
Als wir die ersten Autos sahen,
04:54
people lamentedBeklagte that we would see
the destructionZerstörung of the familyFamilie.
107
282520
4016
beklagten manche, dass wir
die Zerstörung der Familie sehen würden.
04:58
When we first saw telephonesTelefone come in,
108
286560
2696
Als die ersten Telefone aufkamen,
waren Leute besorgt, dies würde
alle höflichen Gespräche zerstören.
05:01
people were worriedbesorgt it would destroyzerstören
all civilbürgerlich conversationKonversation.
109
289280
2896
05:04
At a pointPunkt in time we saw
the writtengeschrieben wordWort becomewerden pervasivedurchdringend,
110
292200
3936
Irgendwann setzte sich das
geschriebene Wort durch,
05:08
people thought we would loseverlieren
our abilityFähigkeit to memorizesich einprägen.
111
296160
2496
und man fürchtete um das Auswendiglernen.
05:10
These things are all truewahr to a degreeGrad,
112
298680
2056
Das ist alles in gewisser Hinsicht wahr,
05:12
but it's alsoebenfalls the caseFall
that these technologiesTechnologien
113
300760
2416
aber es ist auch wahr,
dass diese Technologien
05:15
broughtgebracht to us things
that extendedverlängert the humanMensch experienceErfahrung
114
303200
3376
uns Dinge gebracht haben, die unsere
menschliche Erfahrung ganz wesentlich
05:18
in some profoundtiefsinnig waysWege.
115
306600
1880
erweitert haben.
05:21
So let's take this a little furtherdes Weiteren.
116
309840
2280
Lassen Sie uns noch
einen Schritt weiter gehen.
05:25
I do not fearAngst the creationSchaffung
of an AIAI like this,
117
313120
4736
Ich fürchte die Erschaffung
einer solchen KI nicht,
05:29
because it will eventuallyschließlich
embodyverkörpern some of our valuesWerte.
118
317880
3816
da sie schließlich manche
unserer Werte verkörpern wird.
05:33
ConsiderPrüfen this: buildingGebäude a cognitivekognitiv systemSystem
is fundamentallygrundlegend differentanders
119
321720
3496
Bedenken Sie: Ein kognitives System
zu bauen ist grundsätzlich anders
05:37
than buildingGebäude a traditionaltraditionell
software-intensiveSoftware-intensiven systemSystem of the pastVergangenheit.
120
325240
3296
als ein traditionelles software-
intensives System der Vergangenheit.
05:40
We don't programProgramm them. We teachlehren them.
121
328560
2456
Wir programmieren sie nicht.
Wir lehren sie.
05:43
In orderAuftrag to teachlehren a systemSystem
how to recognizeerkenne flowersBlumen,
122
331040
2656
Um einem System beizubringen,
eine Blume zu erkennen,
05:45
I showShow it thousandsTausende of flowersBlumen
of the kindsArten I like.
123
333720
3016
zeige ich ihm tausende
meiner Lieblingsblumen.
Um einem System ein Spiel beizubringen --
05:48
In orderAuftrag to teachlehren a systemSystem
how to playspielen a gameSpiel --
124
336760
2256
05:51
Well, I would. You would, too.
125
339040
1960
Ich würde. Sie würden auch.
05:54
I like flowersBlumen. Come on.
126
342600
2040
Ich mag Blumen. Wirklich.
05:57
To teachlehren a systemSystem
how to playspielen a gameSpiel like Go,
127
345440
2856
Um einem System
ein Spiel wie Go beizubringen,
würde ich es tausende
Go-Spiele spielen lassen,
06:00
I'd have it playspielen thousandsTausende of gamesSpiele of Go,
128
348320
2056
06:02
but in the processverarbeiten I alsoebenfalls teachlehren it
129
350400
1656
aber dann bringe ich ihm auch bei,
06:04
how to discernerkennen
a good gameSpiel from a badschlecht gameSpiel.
130
352080
2416
zu erkennen, ob ein Spiel
gut oder schlecht ist.
06:06
If I want to createerstellen an artificiallykünstlich
intelligentintelligent legallegal assistantAssistentin,
131
354520
3696
Wenn ich einen KI-Rechtsassistenten baue,
werde ich ihm Gesetze beibringen,
06:10
I will teachlehren it some corpusKorpus of lawRecht
132
358240
1776
06:12
but at the samegleich time I am fusingFusing with it
133
360040
2856
gleichzeitig füge ich ein Verständnis
06:14
the senseSinn of mercyBarmherzigkeit and justiceGerechtigkeit
that is partTeil of that lawRecht.
134
362920
2880
für Gnade und Gerechtigkeit hinzu,
was Teil des Rechts ist.
06:18
In scientificwissenschaftlich termsBegriffe,
this is what we call groundBoden truthWahrheit,
135
366560
2976
In der Wissenschaft nennen
wir das Grundwahrheit.
06:21
and here'shier ist the importantwichtig pointPunkt:
136
369560
2016
Das ist wichtig:
Wenn wir diese Maschinen bauen,
06:23
in producingproduzierend these machinesMaschinen,
137
371600
1456
06:25
we are thereforedeswegen teachingLehren them
a senseSinn of our valuesWerte.
138
373080
3416
werden wir ihnen unsere Werte beibringen.
06:28
To that endEnde, I trustVertrauen
an artificialkünstlich intelligenceIntelligenz
139
376520
3136
Und insofern vertraue ich
künstlicher Intelligenz genauso,
06:31
the samegleich, if not more,
as a humanMensch who is well-trainedgut ausgebildete.
140
379680
3640
oder gar mehr, als einem
gut ausgebildeten Menschen.
06:36
But, you maykann askFragen,
141
384080
1216
Aber, werden Sie fragen,
06:37
what about rogueSchurke agentsAgenten,
142
385320
2616
was ist mit Schurken,
06:39
some well-fundedkapitalkräftige
nongovernmentnichtstaatlichen organizationOrganisation?
143
387960
3336
einer gut finanzierten,
nichtstaatlichen Organisation?
06:43
I do not fearAngst an artificialkünstlich intelligenceIntelligenz
in the handHand of a loneeinsame wolfWolf.
144
391320
3816
Ich habe keine Angst vor einer KI
in der Hand eines Einzelgängers.
06:47
ClearlyKlar, we cannotnicht können protectschützen ourselvesuns selbst
againstgegen all randomzufällig actshandelt of violenceGewalt,
145
395160
4536
Wir können uns nicht vor jeder
willkürlichen Gewalttat schützen,
06:51
but the realityWirklichkeit is sucheine solche a systemSystem
146
399720
2136
aber die Realität ist,
dass solch ein System
06:53
requireserfordert substantialwesentlich trainingAusbildung
and subtlesubtil trainingAusbildung
147
401880
3096
ausgiebiges und raffiniertes
Training braucht,
was weit über die Möglichkeiten
eines Einzelnen hinaus geht.
06:57
farweit beyonddarüber hinaus the resourcesRessourcen of an individualPerson.
148
405000
2296
06:59
And furthermoreAußerdem,
149
407320
1216
Außerdem ist es schwieriger
07:00
it's farweit more than just injectingInjektion
an internetInternet virusVirus to the worldWelt,
150
408560
3256
als einen Internet-Virus
in die Welt zu injizieren,
07:03
where you pushdrücken a buttonTaste,
all of a suddenplötzlich it's in a millionMillion placessetzt
151
411840
3096
wo man einen Knopf drückt,
und plötzlich ist es überall
07:06
and laptopsLaptops startAnfang blowingweht up
all over the placeOrt.
152
414960
2456
und Laptops fangen überall an,
zu explodieren.
07:09
Now, these kindsArten of substancesStoffe
are much largergrößer,
153
417440
2816
Diese Materie ist viel schwieriger,
07:12
and we'llGut certainlybestimmt see them comingKommen.
154
420280
1715
und wir werden es sicher kommen sehen.
07:14
Do I fearAngst that sucheine solche
an artificialkünstlich intelligenceIntelligenz
155
422520
3056
Ob ich fürchte, dass eine solche KI
07:17
mightMacht threatenbedrohen all of humanityMenschheit?
156
425600
1960
die ganze Menschheit bedrohen könnte?
07:20
If you look at moviesFilme
sucheine solche as "The MatrixMatrix," "MetropolisMetropole,"
157
428280
4376
Wenn man sich Filme ansieht,
wie "Matrix", "Metropolis",
07:24
"The TerminatorTerminator,"
showszeigt an sucheine solche as "WestworldWestworld,"
158
432680
3176
"Terminator", oder Serien wie "Westworld",
07:27
they all speaksprechen of this kindArt of fearAngst.
159
435880
2136
sprechen die alle von dieser Angst.
07:30
IndeedIn der Tat, in the bookBuch "SuperintelligenceSuperintelligenz"
by the philosopherPhilosoph NickNick BostromBostrom,
160
438040
4296
In dem Buch "Superintelligenz"
des Philosophen Nick Bostrom,
07:34
he picksTipps up on this themeThema
161
442360
1536
nimmt er dieses Thema auf,
07:35
and observesbeobachtet that a superintelligenceSuperintelligenz
mightMacht not only be dangerousgefährlich,
162
443920
4016
und merkt an, dass eine Superintelligenz
nicht nur gefährlich wäre,
07:39
it could representvertreten an existentialexistenziell threatBedrohung
to all of humanityMenschheit.
163
447960
3856
sie könnte eine existenzielle Bedrohung
für die ganze Menschheit sein.
07:43
DrDr. Bostrom'sDie Bostrom basicBasic argumentStreit
164
451840
2216
Dr. Bostroms Hauptargument ist,
07:46
is that sucheine solche systemsSysteme will eventuallyschließlich
165
454080
2736
dass solche Systeme schlussendlich
07:48
have sucheine solche an insatiableunersättlich
thirstDurst for informationInformation
166
456840
3256
einen unstillbaren
Informationshunger haben,
07:52
that they will perhapsvielleicht learnlernen how to learnlernen
167
460120
2896
dass sie vielleicht
lernen werden, zu lernen,
07:55
and eventuallyschließlich discoverentdecken
that they maykann have goalsTore
168
463040
2616
und schließlich entdecken,
dass sie Ziele haben,
07:57
that are contraryGegenteil to humanMensch needsBedürfnisse.
169
465680
2296
die den menschlichen
Bedürfnissen widersprechen.
08:00
DrDr. BostromBostrom has a numberNummer of followersAnhänger.
170
468000
1856
Dr. Bostrom hat viele Anhänger.
08:01
He is supportedunterstützt by people
sucheine solche as ElonElon MuskMoschus and StephenStephen HawkingHawking.
171
469880
4320
Er wird von Leuten wie Elon Musk
und Stephen Hawking unterstützt.
08:06
With all duefällig respectdie Achtung
172
474880
2400
Bei allem Respekt
08:10
to these brilliantGenial mindsKöpfe,
173
478160
2016
vor diesen brillanten Köpfen,
08:12
I believe that they
are fundamentallygrundlegend wrongfalsch.
174
480200
2256
ich glaube, dass sie sich gewaltig irren.
08:14
Now, there are a lot of piecesStücke
of DrDr. Bostrom'sDie Bostrom argumentStreit to unpackEntpacken,
175
482480
3176
Viele Argumente von Dr. Bostrom
kann man widerlegen.
08:17
and I don't have time to unpackEntpacken them all,
176
485680
2136
Ich habe keine Zeit,
sie alle zu widerlegen.
08:19
but very brieflykurz, considerErwägen this:
177
487840
2696
Bedenken sie nur kurz dies:
08:22
superSuper knowingzu wissen is very differentanders
than superSuper doing.
178
490560
3736
Super-Wissen ist etwas
ganz anderes als Super-Tun.
HAL war erst dann
eine Bedrohung für die Mannschaft,
08:26
HALHAL was a threatBedrohung to the DiscoveryEntdeckung crewCrew
179
494320
1896
08:28
only insofarsoweit as HALHAL commandedbefohlen
all aspectsAspekte of the DiscoveryEntdeckung.
180
496240
4416
als HAL alle Aspekte
der Discovery befehligte.
08:32
So it would have to be
with a superintelligenceSuperintelligenz.
181
500680
2496
Das müsste bei einer
Superintelligenz der Fall sein.
Sie müsste die Gewalt über
unsere ganze Welt haben.
08:35
It would have to have dominionHerrschaft
over all of our worldWelt.
182
503200
2496
08:37
This is the stuffSachen of SkynetSkynet
from the movieFilm "The TerminatorTerminator"
183
505720
2816
Das ist wie das Skynet
aus dem Film "Terminator",
08:40
in whichwelche we had a superintelligenceSuperintelligenz
184
508560
1856
in dem eine Superintelligenz
08:42
that commandedbefohlen humanMensch will,
185
510440
1376
den menschlichen Willen beherrschte
08:43
that directedgerichtet everyjeden deviceGerät
that was in everyjeden cornerEcke of the worldWelt.
186
511840
3856
und jedes Gerät in
jedem Winkel der Welt steuerte.
08:47
PracticallyPraktisch speakingApropos,
187
515720
1456
Praktisch gesehen
08:49
it ain'tist nicht gonna happengeschehen.
188
517200
2096
wird das nicht passieren.
08:51
We are not buildingGebäude AIsAIs
that controlsteuern the weatherWetter,
189
519320
3056
Wir bauen keine KIs,
die das Wetter kontrollieren,
08:54
that directdirekt the tidesGezeiten,
190
522400
1336
die die Gezeiten steuern,
08:55
that commandBefehl us
capriciouslaunisch, chaoticchaotisch humansMenschen.
191
523760
3376
die uns kapriziöse, chaotische
Menschen befehligt.
08:59
And furthermoreAußerdem, if sucheine solche
an artificialkünstlich intelligenceIntelligenz existedexistierte,
192
527160
3896
Und außerdem: Wenn eine
solche KI existieren würde,
09:03
it would have to competekonkurrieren
with humanMensch economiesVolkswirtschaften,
193
531080
2936
müsste sie mit menschlichen
Wirtschaftssystemen konkurrieren,
09:06
and therebydamit competekonkurrieren for resourcesRessourcen with us.
194
534040
2520
und somit mit uns um
Ressourcen konkurrieren.
09:09
And in the endEnde --
195
537200
1216
Schlussendlich --
verraten Sie das Siri nicht --
09:10
don't tell SiriSiri this --
196
538440
1240
können wir sie immer ausstecken.
09:12
we can always unplugziehen Sie den Netzstecker them.
197
540440
1376
09:13
(LaughterLachen)
198
541840
2120
(Gelächter)
09:17
We are on an incredibleunglaublich journeyReise
199
545360
2456
Wir sind auf einer unglaublichen Reise
09:19
of coevolutionKoevolution with our machinesMaschinen.
200
547840
2496
der Co-Evolution mit unseren Maschinen.
09:22
The humansMenschen we are todayheute
201
550360
2496
Die Menschen, die wir heute sind,
09:24
are not the humansMenschen we will be then.
202
552880
2536
sind nicht die Menschen,
die wir dann sein werden.
09:27
To worrySorge now about the riseerhebt euch
of a superintelligenceSuperintelligenz
203
555440
3136
Die aktuelle Sorge vor der
Machtergreifung einer Superintelligenz
09:30
is in manyviele waysWege a dangerousgefährlich distractionAblenkung
204
558600
3056
ist in vieler Hinsicht eine
gefährliche Ablenkung,
09:33
because the riseerhebt euch of computingComputer itselfselbst
205
561680
2336
weil die Zunahme
der Rechenleistung an sich,
09:36
bringsbringt to us a numberNummer
of humanMensch and societalgesellschaftlichen issuesProbleme
206
564040
3016
eine Reihe von menschlichen
und sozialen Fragen aufwirft,
09:39
to whichwelche we mustsollen now attendbesuchen.
207
567080
1640
denen wir uns jetzt zuwenden müssen.
09:41
How shallsoll I bestBeste organizeorganisieren societyGesellschaft
208
569360
2816
Wie organisieren wir
die Gesellschaft am besten,
09:44
when the need for humanMensch laborArbeit diminishesvermindert?
209
572200
2336
wenn der Bedarf an
menschlicher Arbeit abnimmt?
09:46
How can I bringbringen understandingVerstehen
and educationBildung throughoutwährend the globeGlobus
210
574560
3816
Wie können wir weltweit
Verständigung und Bildung bereitstellen,
und dabei unsere
Unterschiedlichkeit achten?
09:50
and still respectdie Achtung our differencesUnterschiede?
211
578400
1776
09:52
How mightMacht I extenderweitern and enhanceverbessern humanMensch life
throughdurch cognitivekognitiv healthcareGesundheitswesen?
212
580200
4256
Wie das menschliches Leben durch
ein kognitives Gesundheitswesen erweitern?
09:56
How mightMacht I use computingComputer
213
584480
2856
Wie können wir Rechenleistung nutzen,
09:59
to help take us to the starsSterne?
214
587360
1760
um uns zu den Sternen zu bringen?
10:01
And that's the excitingaufregend thing.
215
589760
2040
Und das ist der aufregende Teil.
10:04
The opportunitiesChancen to use computingComputer
216
592400
2336
Die Chancen, diese
Rechenleistung zu nutzen,
10:06
to advanceVoraus the humanMensch experienceErfahrung
217
594760
1536
um menschliche Erfahrung zu erweitern,
10:08
are withininnerhalb our reacherreichen,
218
596320
1416
sind heute gegeben,
10:09
here and now,
219
597760
1856
hier und jetzt,
10:11
and we are just beginningAnfang.
220
599640
1680
und wir fangen gerade erst an.
10:14
Thank you very much.
221
602280
1216
Herzlichen Dank!
10:15
(ApplauseApplaus)
222
603520
4286
(Beifall)
Translated by Christian Kuhna
Reviewed by P Hakenberg

▲Back to top

ABOUT THE SPEAKER
Grady Booch - Scientist, philosopher
IBM's Grady Booch is shaping the future of cognitive computing by building intelligent systems that can reason and learn.

Why you should listen

When he was 13, Grady Booch saw 2001: A Space Odyssey in the theaters for the first time. Ever since, he's been trying to build Hal (albeit one without the homicidal tendencies). A scientist, storyteller and philosopher, Booch is Chief Scientist for Software Engineering as well as Chief Scientist for Watson/M at IBM Research, where he leads IBM's research and development for embodied cognition. Having originated the term and the practice of object-oriented design, he is best known for his work in advancing the fields of software engineering and software architecture.

A co-author of the Unified Modeling Language (UML), a founding member of the Agile Allianc, and a founding member of the Hillside Group, Booch has published six books and several hundred technical articles, including an ongoing column for IEEE Software. He's also a trustee for the Computer History Museum, an IBM Fellow, an ACM Fellow and IEEE Fellow. He has been awarded the Lovelace Medal and has given the Turing Lecture for the BCS, and was recently named an IEEE Computer Pioneer.

Booch is currently deeply involved in the development of cognitive systems and is also developing a major trans-media documentary for public broadcast on the intersection of computing and the human experience.

More profile about the speaker
Grady Booch | Speaker | TED.com