TEDxYouth@Sydney
Oscar Schwartz: Can a computer write poetry?
Oscar Schwartz: Un ordinateur peut-il écrire de la poésie ?
Filmed:
Readability: 4.3
875,724 views
Si vous lisiez un poème qui vous émeut pour découvrir ensuite qu'il a été écrit par un ordinateur, l'expérience prendrait-elle un autre sens ? Penseriez-vous que l'ordinateur s'est exprimé et a été créatif ou bien que vous êtes tombé dans un piège grossier ? Dans cette conférence, l'écrivain Oscar Schwartz examine la raison de notre réaction si forte à l'idée d'un ordinateur qui écrit de la poésie -- et comment cette réaction nous aide à comprendre la signification de l'humanité.
Oscar Schwartz - Writer and poet
Oscar Schwartz's research and writing concerns the influence of digital technology on culture and human interaction. Full bio
Oscar Schwartz's research and writing concerns the influence of digital technology on culture and human interaction. Full bio
Double-click the English transcript below to play the video.
00:12
I have a question.
0
881
1230
J'ai une question :
un ordinateur peut-il
écrire de la poésie ?
écrire de la poésie ?
00:15
Can a computer write poetry?
1
3422
1943
00:18
This is a provocative question.
2
6959
2077
C'est une question provocatrice.
00:21
You think about it for a minute,
3
9715
1718
Vous y réfléchissez un instant
00:23
and you suddenly have a bunch
of other questions like:
of other questions like:
4
11457
2590
et vous avez soudainement
beaucoup d'autres questions :
beaucoup d'autres questions :
00:26
What is a computer?
5
14769
1381
Qu'est-ce qu'un ordinateur ?
00:28
What is poetry?
6
16710
1575
Qu'est-ce que la poésie ?
00:30
What is creativity?
7
18707
1689
Qu'est-ce que la créativité ?
Mais ce sont des questions
00:33
But these are questions
8
21650
1172
00:34
that people spend their entire
lifetime trying to answer,
lifetime trying to answer,
9
22846
3070
auxquelles on réfléchit
pendant toute une vie,
pendant toute une vie,
00:37
not in a single TED Talk.
10
25940
2224
pas juste pendant une conférence TED.
00:40
So we're going to have to try
a different approach.
a different approach.
11
28188
2445
Nous allons essayer une autre approche.
00:42
So up here, we have two poems.
12
30657
2143
Là-haut, nous avons deux poèmes.
00:45
One of them is written by a human,
13
33839
2276
Un est écrit par un humain
00:48
and the other one's written by a computer.
14
36139
2102
et l'autre par un ordinateur.
00:50
I'm going to ask you to tell me
which one's which.
which one's which.
15
38754
2410
Je vous demanderai
de déterminer lequel est quoi.
de déterminer lequel est quoi.
00:53
Have a go:
16
41858
1156
Allons-y :
00:55
Poem 1: Little Fly / Thy summer's play, /
My thoughtless hand / Has brush'd away.
My thoughtless hand / Has brush'd away.
17
43038
4056
Poème 1 : Petite mouche / Ton jeu d'été, /
Mes mains irréfléchies / Ont écarté.
Mes mains irréfléchies / Ont écarté.
Ne suis-je pas/ Une mouche comme toi ?/
L'art n'est-il pas/ Un homme comme moi ?
L'art n'est-il pas/ Un homme comme moi ?
00:59
Am I not / A fly like thee? /
Or art not thou / A man like me?
Or art not thou / A man like me?
18
47118
3394
Poème 2 : Nous ressentons / Activiste
durant le matin / De votre vie /
durant le matin / De votre vie /
01:02
Poem 2: We can feel / Activist
through your life's / morning /
through your life's / morning /
19
50536
3299
S'arrête pour voir, le pape que je hais
le/ non toute la nuit pour commencer une/
le/ non toute la nuit pour commencer une/
01:05
Pauses to see, pope I hate the / Non
all the night to start a / great otherwise (...)
all the night to start a / great otherwise (...)
20
53859
4247
géniale sinon (...)
01:10
Alright, time's up.
21
58130
1359
Temps écoulé.
01:11
Hands up if you think Poem 1
was written by a human.
was written by a human.
22
59513
4096
Levez la main si vous pensez
que le premier était écrit par un humain.
que le premier était écrit par un humain.
01:17
OK, most of you.
23
65547
1490
La plupart d'entre vous.
01:19
Hands up if you think Poem 2
was written by a human.
was written by a human.
24
67061
3023
Et ceux qui pensent que le second
était écrit par un humain ?
était écrit par un humain ?
01:23
Very brave of you,
25
71172
1190
Courageux de votre part,
01:24
because the first one was written
by the human poet William Blake.
by the human poet William Blake.
26
72855
4285
car le premier a été écrit
par le poète humain William Blake.
par le poète humain William Blake.
01:29
The second one was written by an algorithm
27
77784
2949
Le second a été écrit par un algorithme
01:32
that took all the language
from my Facebook feed on one day
from my Facebook feed on one day
28
80757
3692
qui a pris tous les mots de mon fil
d'actualités Facebook d'une journée
d'actualités Facebook d'une journée
01:36
and then regenerated it algorithmically,
29
84473
2763
et l'a régénéré algorithmiquement
01:39
according to methods that I'll describe
a little bit later on.
a little bit later on.
30
87260
3590
selon des méthodes que
je décrirai un peu plus tard.
je décrirai un peu plus tard.
01:43
So let's try another test.
31
91218
2404
Essayons un autre test.
01:46
Again, you haven't got ages to read this,
32
94398
2093
Vous n'avez pas
beaucoup de temps pour lire,
beaucoup de temps pour lire,
01:48
so just trust your gut.
33
96515
1612
faites confiance
à votre instinct.
à votre instinct.
01:50
Poem 1: A lion roars and a dog barks.
It is interesting / and fascinating
It is interesting / and fascinating
34
98151
4045
Poème 1 : Un lion rugit et un chien aboie.
C'est intéressant / et fascinant
C'est intéressant / et fascinant
01:54
that a bird will fly and not / roar
or bark. Enthralling stories about animals
or bark. Enthralling stories about animals
35
102220
4303
qu'un oiseau s'envole et ne /
rugisse ou n'aboie pas.
rugisse ou n'aboie pas.
De passionnantes histoires d'animaux
01:58
are in my dreams and I will sing them all
if I / am not exhausted or weary.
if I / am not exhausted or weary.
36
106547
4060
sont dans mes rêves
et je les chanterai toutes si je /
et je les chanterai toutes si je /
ne suis pas épuisé ou fatigué.
02:02
Poem 2: Oh! kangaroos, sequins, chocolate
sodas! / You are really beautiful!
sodas! / You are really beautiful!
37
110631
3985
Poème 2 : Oh ! Kangourous, sequins,
chocolat, sodas ! / Vous êtes très beaux !
chocolat, sodas ! / Vous êtes très beaux !
02:06
Pearls, / harmonicas, jujubes, aspirins!
All / the stuff they've always talked about (...)
All / the stuff they've always talked about (...)
38
114640
4358
Perles, / harmonicas, jujubes, aspirines !
Toutes / ces choses dont j'ai parlé (...)
Toutes / ces choses dont j'ai parlé (...)
02:11
Alright, time's up.
39
119022
1158
Temps écoulé.
02:12
So if you think the first poem
was written by a human,
was written by a human,
40
120204
3137
Levez votre main si vous pensez
que le premier poème
que le premier poème
02:15
put your hand up.
41
123365
1215
était écrit par un humain.
02:17
OK.
42
125687
1154
D'accord.
02:18
And if you think the second poem
was written by a human,
was written by a human,
43
126865
2675
Levez votre main si vous pensez
que le second poème
que le second poème
02:21
put your hand up.
44
129564
1155
était écrit par un humain.
02:23
We have, more or less, a 50/50 split here.
45
131779
3810
Nous avons ici du 50-50.
02:28
It was much harder.
46
136157
1436
C'était plus difficile.
02:29
The answer is,
47
137617
1712
La réponse est :
02:31
the first poem was generated
by an algorithm called Racter,
by an algorithm called Racter,
48
139353
3483
le premier poème a été généré
par un algorithme du nom de Racter
par un algorithme du nom de Racter
02:34
that was created back in the 1970s,
49
142860
3002
qui a été créé dans les années 70
02:37
and the second poem was written
by a guy called Frank O'Hara,
by a guy called Frank O'Hara,
50
145886
3189
et le second poème a été écrit
par Frank O'Hara,
par Frank O'Hara,
02:41
who happens to be
one of my favorite human poets.
one of my favorite human poets.
51
149099
2668
qui s'avère être mon poète humain préféré.
02:44
(Laughter)
52
152631
3058
(Rires)
02:48
So what we've just done now
is a Turing test for poetry.
is a Turing test for poetry.
53
156046
3228
Nous venons de faire
un test de Turing pour la poésie.
un test de Turing pour la poésie.
02:52
The Turing test was first proposed
by this guy, Alan Turing, in 1950,
by this guy, Alan Turing, in 1950,
54
160018
4547
Le test de Turing a été mis en place
par Alan Turing en 1950
par Alan Turing en 1950
02:56
in order to answer the question,
55
164589
1564
afin de répondre à la question :
02:58
can computers think?
56
166177
1637
les ordinateurs
peuvent-ils penser ?
peuvent-ils penser ?
03:00
Alan Turing believed that if
a computer was able
a computer was able
57
168245
2770
Alan Turing croyait
que si un ordinateur pouvait
que si un ordinateur pouvait
03:03
to have a to have a text-based
conversation with a human,
conversation with a human,
58
171039
3078
avoir une conversation textuelle
avec un humain
avec un humain
03:06
with such proficiency
such that the human couldn't tell
such that the human couldn't tell
59
174141
2770
avec une telle compétence
que l'humain ne puisse dire
que l'humain ne puisse dire
03:08
whether they are talking
to a computer or a human,
to a computer or a human,
60
176935
2966
s'il parlait à un ordinateur
ou à un humain,
ou à un humain,
03:11
then the computer can be said
to have intelligence.
to have intelligence.
61
179925
2856
alors on pourrait dire
que l'ordinateur a de l'intelligence.
que l'ordinateur a de l'intelligence.
03:15
So in 2013, my friend
Benjamin Laird and I,
Benjamin Laird and I,
62
183270
3295
En 2013, mon ami, Benjamin Laird, et moi
03:18
we created a Turing test
for poetry online.
for poetry online.
63
186589
2988
avons créé en ligne
un test de Turing pour la poésie.
un test de Turing pour la poésie.
03:21
It's called bot or not,
64
189601
1277
Cela s'appelle « bot or not »
03:22
and you can go and play it for yourselves.
65
190902
2044
et vous pouvez y jouer.
03:24
But basically, it's the game
we just played.
we just played.
66
192970
2251
C'est le jeu auquel nous venons de jouer.
03:27
You're presented with a poem,
67
195245
1528
On vous montre un poème,
vous ne savez pas s'il a été écrit
par un humain ou un ordinateur
par un humain ou un ordinateur
03:28
you don't know whether it was written
by a human or a computer
by a human or a computer
68
196797
3028
03:31
and you have to guess.
69
199849
1166
et vous devez deviner.
03:33
So thousands and thousands
of people have taken this test online,
of people have taken this test online,
70
201039
3191
Des milliers et des milliers de personnes
ont fait ce test en ligne
ont fait ce test en ligne
03:36
so we have results.
71
204254
1449
et nous en avons
les résultats.
les résultats.
03:37
And what are the results?
72
205727
1428
Quels sont les résultats ?
03:39
Well, Turing said that if a computer
could fool a human
could fool a human
73
207704
2879
Turing a dit que si un ordinateur
pouvait tromper un humain,
pouvait tromper un humain,
03:42
30 percent of the time
that it was a human,
that it was a human,
74
210607
3019
30% du temps et lui faire croire
qu'il était un humain,
qu'il était un humain,
03:45
then it passes the Turing test
for intelligence.
for intelligence.
75
213650
2397
alors il passait le test de Turing
pour l'intelligence.
pour l'intelligence.
03:48
We have poems on the bot or not database
76
216625
2438
Nous avons dans la base de données
des poèmes
des poèmes
03:51
that have fooled 65 percent
of human readers into thinking
of human readers into thinking
77
219087
2979
qui ont trompé 65% des lecteurs humains
qui ont cru que le poème
venait d'un humain.
venait d'un humain.
03:54
it was written by a human.
78
222090
1395
03:55
So, I think we have an answer
to our question.
to our question.
79
223959
2817
Je pense que nous avons une réponse
à notre question.
à notre question.
03:59
According to the logic of the Turing test,
80
227546
2348
D'après la logique
du test de Turing :
du test de Turing :
04:01
can a computer write poetry?
81
229918
1928
un ordinateur peut-il
écrire de la poésie ?
écrire de la poésie ?
04:03
Well, yes, absolutely it can.
82
231870
2351
Absolument.
04:07
But if you're feeling
a little bit uncomfortable
a little bit uncomfortable
83
235782
2346
Mais si la réponse
vous rend mal à l'aise,
vous rend mal à l'aise,
04:10
with this answer, that's OK.
84
238152
1927
c'est normal.
04:12
If you're having a bunch
of gut reactions to it,
of gut reactions to it,
85
240103
2316
Si vous avez des réactions instinctives,
04:14
that's also OK because
this isn't the end of the story.
this isn't the end of the story.
86
242443
3205
c'est aussi normal
car ce n'est pas la fin de l'histoire.
car ce n'est pas la fin de l'histoire.
04:18
Let's play our third and final test.
87
246594
2324
Faisons notre 3ème et dernier test.
04:22
Again, you're going to have to read
88
250000
1750
Vous allez à nouveau devoir lire
04:23
and tell me which you think is human.
89
251774
1909
et deviner l'origine du poème.
04:25
Poem 1: Reg flags the reason
for pretty flags. / And ribbons.
for pretty flags. / And ribbons.
90
253707
3718
Poème 1 : Drapeaux rouges la raison
pour de beaux drapeaux. / Et rubans.
pour de beaux drapeaux. / Et rubans.
04:29
Ribbons of flags / And wearing material /
Reasons for wearing material. (...)
Reasons for wearing material. (...)
91
257449
4321
Rubans de drapeaux / Et matière portable /
Des raisons de porter une matière. (...)
Des raisons de porter une matière. (...)
04:33
Poem 2: A wounded deer leaps
highest, / I've heard the daffodil
highest, / I've heard the daffodil
92
261794
3918
Poème 2 : Un cerf blessé saute plus haut,/
J'ai entendu la jonquille
J'ai entendu la jonquille
04:37
I've heard the flag to-day /
I've heard the hunter tell; /
I've heard the hunter tell; /
93
265736
3446
J'ai entendu le drapeau ce-jour /
J'ai entendu dire le chasseur ; /
J'ai entendu dire le chasseur ; /
Ce n'est rien que l'extase de la mort, /
Puis le frein est presque rompu. (...)
Puis le frein est presque rompu. (...)
04:41
'Tis but the ecstasy of death, /
And then the brake is almost done (...)
And then the brake is almost done (...)
94
269206
3702
04:44
OK, time is up.
95
272932
1599
Temps écoulé.
04:46
So hands up if you think Poem 1
was written by a human.
was written by a human.
96
274555
3837
Levez la main si vous pensez que
le premier est d'un humain.
le premier est d'un humain.
04:51
Hands up if you think Poem 2
was written by a human.
was written by a human.
97
279973
3038
Levez la main si vous pensez que
le second est d'un humain.
le second est d'un humain.
04:55
Whoa, that's a lot more people.
98
283035
2331
Il y a beaucoup plus de personnes.
04:58
So you'd be surprised to find that Poem 1
99
286327
2968
Vous serez surpris d'apprendre
que le premier poème
que le premier poème
05:01
was written by the very
human poet Gertrude Stein.
human poet Gertrude Stein.
100
289319
3993
a été écrit par la poètesse humaine
Gertrude Stein.
Gertrude Stein.
05:06
And Poem 2 was generated
by an algorithm called RKCP.
by an algorithm called RKCP.
101
294100
5038
Et le second poème a été généré
par l'algorithme RKCP.
par l'algorithme RKCP.
05:11
Now before we go on, let me describe
very quickly and simply,
very quickly and simply,
102
299162
3319
Avant de continuer,
je vais décrire rapidement et simplement
je vais décrire rapidement et simplement
05:14
how RKCP works.
103
302505
1781
le fonctionnement de RKCP.
05:16
So RKCP is an algorithm
designed by Ray Kurzweil,
designed by Ray Kurzweil,
104
304873
3850
RKCP est un algorithme
créé par Ray Kurzweil,
créé par Ray Kurzweil,
05:20
who's a director of engineering at Google
105
308747
2222
qui est directeur de l'ingénierie
chez Google
chez Google
05:22
and a firm believer
in artificial intelligence.
in artificial intelligence.
106
310993
2360
et un fervent croyant
en l'intelligence artificielle.
en l'intelligence artificielle.
05:25
So, you give RKCP a source text,
107
313822
3991
Vous donnez un texte source à RKCP,
05:29
it analyzes the source text in order
to find out how it uses language,
to find out how it uses language,
108
317837
4469
il analyse le texte source afin
de comprendre l'utilisation du langage,
de comprendre l'utilisation du langage,
05:34
and then it regenerates language
109
322330
1948
ensuite il régénère un langage
05:36
that emulates that first text.
110
324302
2528
qui imite ce premier texte.
05:38
So in the poem we just saw before,
111
326854
2113
Le poème que nous venons de voir,
05:40
Poem 2, the one that you all
thought was human,
thought was human,
112
328991
2625
le second, qui était, selon vous,
écrit par un humain,
écrit par un humain,
05:43
it was fed a bunch of poems
113
331640
1550
a été nourri par
un lot de poèmes
un lot de poèmes
05:45
by a poet called Emily Dickinson
114
333214
2035
de la poètesse Emily Dickinson.
05:47
it looked at the way she used language,
115
335273
2189
Il a analysé son utilisation du langage,
05:49
learned the model,
116
337486
1165
a appris le modèle,
05:50
and then it regenerated a model
according to that same structure.
according to that same structure.
117
338675
4258
puis généré un modèle
suivant la même structure.
suivant la même structure.
05:56
But the important thing to know about RKCP
118
344732
2178
Ce qu'il est important de savoir
sur RKCP
sur RKCP
05:58
is that it doesn't know the meaning
of the words it's using.
of the words it's using.
119
346934
2838
est qu'il ne connaît pas
le sens des mots qu'il emploie.
le sens des mots qu'il emploie.
06:02
The language is just raw material,
120
350359
2276
La langue est une matière première,
06:04
it could be Chinese,
it could be in Swedish,
it could be in Swedish,
121
352659
2160
cela pourrait être du chinois, du suédois,
06:06
it could be the collected language
from your Facebook feed for one day.
from your Facebook feed for one day.
122
354843
4179
ou encore les mots collectés sur
votre fil d'actualités Facebook du jour.
votre fil d'actualités Facebook du jour.
06:11
It's just raw material.
123
359046
1652
C'est une matière première.
06:13
And nevertheless, it's able
to create a poem
to create a poem
124
361380
2697
Et pourtant, il est capable
de créer un poème
de créer un poème
06:16
that seems more human
than Gertrude Stein's poem,
than Gertrude Stein's poem,
125
364101
3327
qui semble plus humain
que celui de Gertrude Stein,
que celui de Gertrude Stein,
06:19
and Gertrude Stein is a human.
126
367452
2153
et Gertude Stein est humaine.
06:22
So what we've done here is,
more or less, a reverse Turing test.
more or less, a reverse Turing test.
127
370846
4072
Ce que nous avons fait est plus ou moins
un test de Turing inversé.
un test de Turing inversé.
06:27
So Gertrude Stein, who's a human,
is able to write a poem
is able to write a poem
128
375940
5179
Gertrude Stein, qui est humaine,
est capable d'écrire un poème
est capable d'écrire un poème
06:33
that fools a majority
of human judges into thinking
of human judges into thinking
129
381143
3738
qui fait croire à la majorité
des juges humains
des juges humains
06:36
that it was written by a computer.
130
384905
1826
qu'il a été écrit par un ordinateur.
06:39
Therefore, according to the logic
of the reverse Turing test,
of the reverse Turing test,
131
387176
4141
Ainsi, selon la logique inverse
du test de Turing,
du test de Turing,
06:43
Gertrude Stein is a computer.
132
391341
1916
Gertrude Stein est un ordinateur.
06:45
(Laughter)
133
393281
1462
(Rires)
06:47
Feeling confused?
134
395358
1294
Vous êtes perdus ?
06:49
I think that's fair enough.
135
397193
1515
Je pense que c'est normal.
06:51
So far we've had humans
that write like humans,
that write like humans,
136
399546
4116
Jusqu'ici nous avons eu
des humains écrivant comme des humains,
des humains écrivant comme des humains,
06:55
we have computers that write
like computers,
like computers,
137
403686
3111
des ordinateurs écrivant
comme des ordinateurs,
comme des ordinateurs,
06:58
we have computers that write like humans,
138
406821
3055
des ordinateurs écrivant
comme des humains,
comme des humains,
07:01
but we also have,
perhaps most confusingly,
perhaps most confusingly,
139
409900
3632
mais nous avons aussi,
et c'est le plus déroutant,
et c'est le plus déroutant,
07:05
humans that write like computers.
140
413556
2375
des humains écrivant
comme des ordinateurs.
comme des ordinateurs.
07:08
So what do we take from all of this?
141
416938
1766
Que tirons-nous de cela ?
07:11
Do we take that William Blake
is somehow more of a human
is somehow more of a human
142
419611
3157
Que William Blake est,
d'une façon, plus humain
d'une façon, plus humain
07:14
than Gertrude Stein?
143
422792
1249
que Gertrude Stein ?
07:16
Or that Gertrude Stein is more
of a computer than William Blake?
of a computer than William Blake?
144
424065
3046
Ou que Gertrude Stein est
plus ordinateur que William Blake ?
plus ordinateur que William Blake ?
07:19
(Laughter)
145
427135
1552
(Rires)
07:20
These are questions
I've been asking myself
I've been asking myself
146
428711
2323
Ce sont les questions que je me pose
07:23
for around two years now,
147
431058
1465
depuis environ deux ans,
07:24
and I don't have any answers.
148
432547
2309
et je n'ai aucune réponse.
07:26
But what I do have are a bunch of insights
149
434880
2330
Mais j'ai eu différents aperçus
07:29
about our relationship with technology.
150
437234
2534
de notre relation
à la technologie.
à la technologie.
07:32
So my first insight is that,
for some reason,
for some reason,
151
440999
3609
La première chose est que,
pour une raison quelconque,
pour une raison quelconque,
07:36
we associate poetry with being human.
152
444632
3111
nous associons à la poésie
au fait d'être humain.
au fait d'être humain.
07:40
So that when we ask,
"Can a computer write poetry?"
"Can a computer write poetry?"
153
448197
3715
Donc quand nous demandons
si un ordinateur peut écrire de la poésie,
si un ordinateur peut écrire de la poésie,
07:43
we're also asking,
154
451936
1193
nous demandons également
07:45
"What does it mean to be human
155
453153
1798
la signification
du fait d'être humain
du fait d'être humain
07:46
and how do we put boundaries
around this category?
around this category?
156
454975
3172
et comment délimiter cette catégorie.
07:50
How do we say who or what
can be part of this category?"
can be part of this category?"
157
458171
3658
Comment dire qui ou quoi
fait partie de cette catégorie ?
fait partie de cette catégorie ?
07:54
This is an essentially
philosophical question, I believe,
philosophical question, I believe,
158
462376
3351
C'est une question
essentiellement philosophique
essentiellement philosophique
07:57
and it can't be answered
with a yes or no test,
with a yes or no test,
159
465751
2229
qui n'admet pas une réponse
grâce à un test binaire,
grâce à un test binaire,
08:00
like the Turing test.
160
468004
1327
comme le test de Turing.
08:01
I also believe that Alan Turing
understood this,
understood this,
161
469805
3045
Je pense qu'Alan Turing comprenait cela
08:04
and that when he devised
his test back in 1950,
his test back in 1950,
162
472874
3305
quand il a conçu son test
en 1950,
en 1950,
08:08
he was doing it
as a philosophical provocation.
as a philosophical provocation.
163
476203
2802
c'était une provocation philosophique.
08:13
So my second insight is that,
when we take the Turing test for poetry,
when we take the Turing test for poetry,
164
481124
5541
La seconde chose est que, en passant
le test de Turing pour la poésie,
le test de Turing pour la poésie,
08:18
we're not really testing
the capacity of the computers
the capacity of the computers
165
486689
3460
nous ne testons pas la capacité
des ordinateurs,
des ordinateurs,
08:22
because poetry-generating algorithms,
166
490173
2893
les algorithmes générant de la poésie
08:25
they're pretty simple and have existed,
more or less, since the 1950s.
more or less, since the 1950s.
167
493090
4563
sont simples et existent
depuis les années 50.
depuis les années 50.
08:31
What we are doing with the Turing
test for poetry, rather,
test for poetry, rather,
168
499055
3118
Ce que nous faisons est plutôt
08:34
is collecting opinions about what
constitutes humanness.
constitutes humanness.
169
502197
4615
de collecter des opinions
sur la signification de l'humanité.
sur la signification de l'humanité.
08:40
So, what I've figured out,
170
508313
2729
J'ai découvert que,
08:43
we've seen this when earlier today,
171
511066
2972
nous l'avons vu plus tôt,
08:46
we say that William Blake
is more of a human
is more of a human
172
514062
2478
nous disions que William Blake
est plus humain
est plus humain
08:48
than Gertrude Stein.
173
516564
1565
que Gertrude Stein.
08:50
Of course, this doesn't mean
that William Blake
that William Blake
174
518153
2462
Bien sûr, cela ne veut pas dire
que William Blake
que William Blake
08:52
was actually more human
175
520639
1828
est vraiment plus humain
08:54
or that Gertrude Stein
was more of a computer.
was more of a computer.
176
522491
2327
ou que Gertrude Stein
est plus un ordinateur.
est plus un ordinateur.
08:57
It simply means that the category
of the human is unstable.
of the human is unstable.
177
525533
4714
Cela signifie que la catégorie
de l'humain est instable.
de l'humain est instable.
09:03
This has led me to understand
178
531450
2074
Cela m'a permis de comprendre
09:05
that the human is not a cold, hard fact.
179
533548
2763
que l'humanité n'est pas
une vérité rigide.
une vérité rigide.
09:08
Rather, it is something
that's constructed with our opinions
that's constructed with our opinions
180
536832
3132
Mais est plutôt quelque chose
qui se construit avec nos opinions
qui se construit avec nos opinions
09:11
and something that changes over time.
181
539988
2855
et qui évolue dans le temps.
09:16
So my final insight is that
the computer, more or less,
the computer, more or less,
182
544671
4479
Finalement, je pense qu'un ordinateur
fonctionne plus ou moins
fonctionne plus ou moins
09:21
works like a mirror
that reflects any idea of a human
that reflects any idea of a human
183
549174
4006
comme un miroir qui reflète
l'idée de l'humain
l'idée de l'humain
09:25
that we show it.
184
553204
1375
que nous lui montrons.
09:26
We show it Emily Dickinson,
185
554958
1884
Nous lui montrons
Emily Dickinson,
Emily Dickinson,
09:28
it gives Emily Dickinson back to us.
186
556866
2321
il nous rend Emily Dickinson.
09:31
We show it William Blake,
187
559768
1834
Nous lui montrons William Blake,
09:33
that's what it reflects back to us.
188
561626
2285
il nous le reflète en retour.
09:35
We show it Gertrude Stein,
189
563935
1839
Nous lui montrons Gertrude Stein,
09:37
what we get back is Gertrude Stein.
190
565798
2470
nous récupérons Gertrude Stein.
09:41
More than any other bit of technology,
191
569083
2368
Plus que toute technologie,
09:43
the computer is a mirror that reflects
any idea of the human we teach it.
any idea of the human we teach it.
192
571475
5165
l'ordinateur est un miroir
qui reflète l'idée de l'humanité
que nous lui inculquons.
que nous lui inculquons.
09:50
So I'm sure a lot of you have been hearing
193
578061
2287
Nombre d'entre vous ont
dû récemment entendre
dû récemment entendre
09:52
a lot about artificial
intelligence recently.
intelligence recently.
194
580372
2862
parler énormément
d'intelligence artificielle.
d'intelligence artificielle.
09:56
And much of the conversation is,
195
584694
2830
Et le cœur de la conversation est :
10:00
can we build it?
196
588292
1189
pouvons-nous la créer ?
10:02
Can we build an intelligent computer?
197
590383
3135
Pouvons-nous créer
un ordinateur intelligent ?
un ordinateur intelligent ?
10:05
Can we build a creative computer?
198
593542
2763
Pouvons-nous créer
un ordinateur créatif ?
un ordinateur créatif ?
10:08
What we seem to be asking over and over
199
596329
2113
Ce que nous demandons
sans cesse est :
sans cesse est :
10:10
is can we build a human-like computer?
200
598466
2724
pouvons-nous créer
un ordinateur ressemblant à un humain ?
un ordinateur ressemblant à un humain ?
10:13
But what we've seen just now
201
601961
1556
Nous venons de voir
10:15
is that the human
is not a scientific fact,
is not a scientific fact,
202
603541
3088
que l'humanité
n'est pas un fait scientifique,
n'est pas un fait scientifique,
10:18
that it's an ever-shifting,
concatenating idea
concatenating idea
203
606653
3530
que c'est une concaténation d'idées
qui change
qui change
10:22
and one that changes over time.
204
610207
2531
et évolue perpétuellement avec le temps.
10:24
So that when we begin
to grapple with the ideas
to grapple with the ideas
205
612762
3152
Quand nous commençons
à débattre de l'idée
à débattre de l'idée
10:27
of artificial intelligence in the future,
206
615938
2386
d'une intelligence artificielle
dans le futur,
dans le futur,
10:30
we shouldn't only be asking ourselves,
207
618348
1905
nous ne devrions pas juste
nous demander
nous demander
10:32
"Can we build it?"
208
620277
1368
si nous pouvons la créer
10:33
But we should also be asking ourselves,
209
621669
1894
mais nous devrions nous demander
10:35
"What idea of the human
do we want to have reflected back to us?"
do we want to have reflected back to us?"
210
623587
3713
quelle idée de l'humain
nous voulons refléter.
nous voulons refléter.
10:39
This is an essentially philosophical idea,
211
627820
2693
C'est une idée
essentiellement philosophique,
essentiellement philosophique,
10:42
and it's one that can't be answered
with software alone,
with software alone,
212
630537
2997
qui ne peut trouver de réponse
avec juste un logiciel
avec juste un logiciel
10:45
but I think requires a moment
of species-wide, existential reflection.
of species-wide, existential reflection.
213
633558
4977
mais qui requiert un moment de réflexion
existentielle de notre part à tous.
existentielle de notre part à tous.
10:51
Thank you.
214
639040
1153
Merci.
10:52
(Applause)
215
640217
2695
(Applaudissements)
ABOUT THE SPEAKER
Oscar Schwartz - Writer and poetOscar Schwartz's research and writing concerns the influence of digital technology on culture and human interaction.
Why you should listen
Oscar Schwartz is an Australian writer and poet undertaking a PhD that asks whether a computer can write poetry. His research led to the development of a Turing test for poetry, which is available on a website he cofounded called bot or not.
Oscar Schwartz | Speaker | TED.com