TEDxYouth@Sydney
Oscar Schwartz: Can a computer write poetry?
오스카 슈워츠(Oscar Schwartz): 컴퓨터가 시를 쓸 수 있을까요?
Filmed:
Readability: 4.3
875,724 views
여러분이 시 한 편을 읽고 감동 받았는데, 그 시를 컴퓨터가 썼다면 여러분이 느낀 감동은 달라질까요? 여러분은 컴퓨터가 자신을 표현하고 창의력을 발휘했다고 생각할까요? 아니면 저급한 농간에 놀아났다고 생각할까요? 이 강연에서 오스카 슈워츠는 컴퓨터가 시를 쓰는 것에 우리가 강하게 반발하는지, 그리고 이런 반응이 인간이라는 것이 무슨 뜻인지 이해하게 해주는지 알려 줍니다.
시 테스트 #1
시 1
Little Fly
Thy summer’s play,
My thoughtless hand
Has bush’d away.
Am not I
A fly like thee?
Or art not thou
A man like me?
시 2
We can feel
Activist through your life’s
Morning
Pauses to see, pope I hate the
Non all the night to start a
great otherwise
I’ll snake swirling
Vastness guess
Totally mental hamsters if I
Know I put on a year a crucial
Absolutely.
시 테스트 #2
시 1
A lion roars and a dog barks. It is interesting
and fascinating that a bird will fly and not
roar or bark. Enthralling stories about animals
are in my dreams and I will sing them all if I
am not exhausted and weary.
시 2
Oh! kangaroos, sequins, chocolate sodas!
You really are beautiful! Pearls,
harmonicas, jujubes, aspirins! All
the stuff they’ve always talked about
still makes a poem a surprise!
These things are with us every day
even on beachheads and biers. They
do have meaning. They’re strong as rocks.
시 테스트 #3
시 1
Red flags the reason for pretty flags.
And ribbons.
Ribbons of flags
And wearing material
Reason for wearing material.
Give pleasure.
Can you give me the regions.
The regions and the land.
The regions and wheels.
All wheels are perfect.
Enthusiasm.
시 2
A wounded deer leaps highest,
I’ve heard the daffodil
I’ve heard the flag to-day
I’ve heard the hunter tell;
‘Tis but the ecstasy of death,
And then the brake is almost done,
And sunrise grows so near
sunrise grows so near
That we can touch the despair and
frenzied hope of all the ages.
Oscar Schwartz - Writer and poet
Oscar Schwartz's research and writing concerns the influence of digital technology on culture and human interaction. Full bio
Oscar Schwartz's research and writing concerns the influence of digital technology on culture and human interaction. Full bio
Double-click the English transcript below to play the video.
여러분께 묻고 싶습니다.
00:12
I have a question.
0
881
1230
00:15
Can a computer write poetry?
1
3422
1943
컴퓨터가 시를 쓸 수 있을까요?
00:18
This is a provocative question.
2
6959
2077
도발적인 질문이지만
00:21
You think about it for a minute,
3
9715
1718
잠시 생각해 보신다면
다른 의문이 갑자기 떠오를 것입니다.
00:23
and you suddenly have a bunch
of other questions like:
of other questions like:
4
11457
2590
00:26
What is a computer?
5
14769
1381
컴퓨터가 뭘까?
00:28
What is poetry?
6
16710
1575
시는 또 뭐지?
00:30
What is creativity?
7
18707
1689
창의성은 뭘까?
00:33
But these are questions
8
21650
1172
하지만 이런 질문들은
00:34
that people spend their entire
lifetime trying to answer,
lifetime trying to answer,
9
22846
3070
인류가 평생을 바쳐 답을
찾아가는 질문들이지
찾아가는 질문들이지
00:37
not in a single TED Talk.
10
25940
2224
단순히 TED 강연 한 번으로
답할 수 있는게 아닙니다.
답할 수 있는게 아닙니다.
00:40
So we're going to have to try
a different approach.
a different approach.
11
28188
2445
그래서, 우리는 다른 방법으로
접근해 보려합니다.
접근해 보려합니다.
00:42
So up here, we have two poems.
12
30657
2143
여기, 시가 두 편 있습니다.
00:45
One of them is written by a human,
13
33839
2276
하나는 사람이 썼고
00:48
and the other one's written by a computer.
14
36139
2102
다른 하나는 컴퓨터가 썼습니다.
00:50
I'm going to ask you to tell me
which one's which.
which one's which.
15
38754
2410
두 시를 보고 각각 누가
지었는지 알아내 보세요.
지었는지 알아내 보세요.
00:53
Have a go:
16
41858
1156
시작합니다!
00:55
Poem 1: Little Fly / Thy summer's play, /
My thoughtless hand / Has brush'd away.
My thoughtless hand / Has brush'd away.
17
43038
4056
시 1: 작은 파리야 / 너의 여름날 놀이를 /
내 부주의한 손이 / 쓸어 버렸구나.
내 부주의한 손이 / 쓸어 버렸구나.
00:59
Am I not / A fly like thee? /
Or art not thou / A man like me?
Or art not thou / A man like me?
18
47118
3394
나는 너와 같은 파리가 아니냐?
아니면 너는 / 나와 같은 사람이 아니냐?
아니면 너는 / 나와 같은 사람이 아니냐?
01:02
Poem 2: We can feel / Activist
through your life's / morning /
through your life's / morning /
19
50536
3299
시 2 : 우리는 느낄 수 있네 /
네 삶의 아침을 통한 행동가를
네 삶의 아침을 통한 행동가를
01:05
Pauses to see, pope I hate the / Non
all the night to start a / great otherwise (...)
all the night to start a / great otherwise (...)
20
53859
4247
잠시 멈춰서 보시오, 교황이여.
나는 싫어하네/모든 아무 밤도 시작하는/위대한 (...)
나는 싫어하네/모든 아무 밤도 시작하는/위대한 (...)
좋아요, 시간이 다 되었습니다.
01:10
Alright, time's up.
21
58130
1359
01:11
Hands up if you think Poem 1
was written by a human.
was written by a human.
22
59513
4096
1번 시가 사람이 쓴 시라고
생각하신다면 손을 들어보세요.
생각하신다면 손을 들어보세요.
01:17
OK, most of you.
23
65547
1490
좋아요, 대부분이 손을 드셨네요.
01:19
Hands up if you think Poem 2
was written by a human.
was written by a human.
24
67061
3023
그러면 2번을 사람이 썼다고
생각하시는 분 손 들어보세요.
생각하시는 분 손 들어보세요.
01:23
Very brave of you,
25
71172
1190
대담하신 분들이네요.
01:24
because the first one was written
by the human poet William Blake.
by the human poet William Blake.
26
72855
4285
첫 번째 시는 시인
윌리엄 블레이크의 시입니다.
윌리엄 블레이크의 시입니다.
01:29
The second one was written by an algorithm
27
77784
2949
두 번째 시는 알고리즘이 썼습니다.
01:32
that took all the language
from my Facebook feed on one day
from my Facebook feed on one day
28
80757
3692
제 페이스북 피드에 있는 모든 글자들을
01:36
and then regenerated it algorithmically,
29
84473
2763
알고리즘을 통해 재배열하는
방법이 이용됐죠.
방법이 이용됐죠.
01:39
according to methods that I'll describe
a little bit later on.
a little bit later on.
30
87260
3590
그 방법에 대해서는 조금 있다가
설명해 드리도록 하겠습니다.
설명해 드리도록 하겠습니다.
01:43
So let's try another test.
31
91218
2404
그럼, 다른 문제를 내 보겠습니다.
01:46
Again, you haven't got ages to read this,
32
94398
2093
이번에도, 시들을 전부 다
읽어 볼 시간은 없습니다.
읽어 볼 시간은 없습니다.
01:48
so just trust your gut.
33
96515
1612
그냥 여러분들의 직감을
믿으시면 됩니다.
믿으시면 됩니다.
01:50
Poem 1: A lion roars and a dog barks.
It is interesting / and fascinating
It is interesting / and fascinating
34
98151
4045
시 1 : 사자는 포효하고 개는 짖네.
흥미롭고 매력적인 것은
흥미롭고 매력적인 것은
01:54
that a bird will fly and not / roar
or bark. Enthralling stories about animals
or bark. Enthralling stories about animals
35
102220
4303
새는 포효하거나 짖지 않고 나는 것이네.
동물들의 놀라운 이야기는
동물들의 놀라운 이야기는
01:58
are in my dreams and I will sing them all
if I / am not exhausted or weary.
if I / am not exhausted or weary.
36
106547
4060
내 꿈 속에 나오고 나는 그들을 노래하네
내가 지치거나 피곤하지 않다면.
내가 지치거나 피곤하지 않다면.
02:02
Poem 2: Oh! kangaroos, sequins, chocolate
sodas! / You are really beautiful!
sodas! / You are really beautiful!
37
110631
3985
시 2 : 오! 캥거루, 세퀸장식, 초콜릿 소다!
/ 너는 참 아름답구나!
/ 너는 참 아름답구나!
02:06
Pearls, / harmonicas, jujubes, aspirins!
All / the stuff they've always talked about (...)
All / the stuff they've always talked about (...)
38
114640
4358
진주/ 하모니카, 대추, 아스피린!
모두/ 사람들이 말하는 것이네. (...)
모두/ 사람들이 말하는 것이네. (...)
좋아요 시간이 다 되었네요.
02:11
Alright, time's up.
39
119022
1158
02:12
So if you think the first poem
was written by a human,
was written by a human,
40
120204
3137
첫 번째 시가 사람이
쓴 시라고 생각하신다면
쓴 시라고 생각하신다면
02:15
put your hand up.
41
123365
1215
손을 들어주세요.
02:17
OK.
42
125687
1154
좋습니다.
02:18
And if you think the second poem
was written by a human,
was written by a human,
43
126865
2675
그럼 두 번째 시가 사람이
쓴 시라고 생각하시는 분
쓴 시라고 생각하시는 분
02:21
put your hand up.
44
129564
1155
손을 들어주세요.
02:23
We have, more or less, a 50/50 split here.
45
131779
3810
절반 정도로 나뉘었네요.
02:28
It was much harder.
46
136157
1436
이번 건 좀 더 어러우셨을겁니다.
02:29
The answer is,
47
137617
1712
답을 알려드리죠.
02:31
the first poem was generated
by an algorithm called Racter,
by an algorithm called Racter,
48
139353
3483
첫 번째 시는 랙터라고 불리는
알고리즘에 의해 지어졌습니다.
알고리즘에 의해 지어졌습니다.
02:34
that was created back in the 1970s,
49
142860
3002
1970년대에 만들어진 알고리즘이죠.
02:37
and the second poem was written
by a guy called Frank O'Hara,
by a guy called Frank O'Hara,
50
145886
3189
두 번째 시는 프랭크 오하라라는
사람이 지었습니다.
사람이 지었습니다.
02:41
who happens to be
one of my favorite human poets.
one of my favorite human poets.
51
149099
2668
제가 가장 좋아하는
'인간' 시인 중 한 명이죠.
'인간' 시인 중 한 명이죠.
02:44
(Laughter)
52
152631
3058
(웃음)
02:48
So what we've just done now
is a Turing test for poetry.
is a Turing test for poetry.
53
156046
3228
지금까지 우리는 시에 대한
'튜링 테스트'를 해 보았습니다.
'튜링 테스트'를 해 보았습니다.
02:52
The Turing test was first proposed
by this guy, Alan Turing, in 1950,
by this guy, Alan Turing, in 1950,
54
160018
4547
'튜링 테스트'는 1950년에
앨런 튜링이라는사람에 의해
앨런 튜링이라는사람에 의해
02:56
in order to answer the question,
55
164589
1564
아래의 질문에 답하려고 제안되었습니다.
02:58
can computers think?
56
166177
1637
'컴퓨터가 생각을 할 수 있는가?'
03:00
Alan Turing believed that if
a computer was able
a computer was able
57
168245
2770
앨런 튜링은 만약 컴퓨터가 사람과
텍스트를 기반으로 대화를 할 때
텍스트를 기반으로 대화를 할 때
03:03
to have a to have a text-based
conversation with a human,
conversation with a human,
58
171039
3078
상대방이 자신이 인간과 대화하고 있는지
03:06
with such proficiency
such that the human couldn't tell
such that the human couldn't tell
59
174141
2770
아니면 컴퓨터와 대화하고 있는지를
알아내지 못할 정도의
알아내지 못할 정도의
03:08
whether they are talking
to a computer or a human,
to a computer or a human,
60
176935
2966
언어 구사력을 가질 수 있다면
03:11
then the computer can be said
to have intelligence.
to have intelligence.
61
179925
2856
컴퓨터는 지능을 가질 수
있다고 믿었습니다.
있다고 믿었습니다.
03:15
So in 2013, my friend
Benjamin Laird and I,
Benjamin Laird and I,
62
183270
3295
그래서 2013년,
저와 제 친구 벤자민 럴드는
저와 제 친구 벤자민 럴드는
03:18
we created a Turing test
for poetry online.
for poetry online.
63
186589
2988
시에 대한 '온라인 튜링 테스트 ' 를
만들었습니다.
만들었습니다.
03:21
It's called bot or not,
64
189601
1277
이름은 bot or not 이고
여러분 혼자 해 볼 수도 있습니다.
03:22
and you can go and play it for yourselves.
65
190902
2044
03:24
But basically, it's the game
we just played.
we just played.
66
192970
2251
하지만, 기본적으로, 그것은 우리가
조금 전 한 게임과 같습니다.
조금 전 한 게임과 같습니다.
03:27
You're presented with a poem,
67
195245
1528
여러분은 시를 보게 될 것이고
03:28
you don't know whether it was written
by a human or a computer
by a human or a computer
68
196797
3028
그 시를 사람이 지었는지,
컴퓨터가 지었는지 모릅니다.
컴퓨터가 지었는지 모릅니다.
그걸 추측해야만 하죠.
03:31
and you have to guess.
69
199849
1166
수많은 사람들이 테스트에
참가하였습니다.
참가하였습니다.
03:33
So thousands and thousands
of people have taken this test online,
of people have taken this test online,
70
201039
3191
03:36
so we have results.
71
204254
1449
테스트 결과가 나왔죠.
03:37
And what are the results?
72
205727
1428
결과는 어땠을까요?
03:39
Well, Turing said that if a computer
could fool a human
could fool a human
73
207704
2879
글쎄요, 튜링은 만약
컴퓨터가 30% 확률로
컴퓨터가 30% 확률로
03:42
30 percent of the time
that it was a human,
that it was a human,
74
210607
3019
자신이 사람인 것처럼
상대방을 속일 수 있다면
상대방을 속일 수 있다면
03:45
then it passes the Turing test
for intelligence.
for intelligence.
75
213650
2397
그 컴퓨터는 지능에 대한 튜링테스트를
통과한 것이라고 말했습니다.
통과한 것이라고 말했습니다.
03:48
We have poems on the bot or not database
76
216625
2438
'bot or not' 프로그램
데이터 베이스에는
데이터 베이스에는
03:51
that have fooled 65 percent
of human readers into thinking
of human readers into thinking
77
219087
2979
65% 정도의 확룰로 사람들을 속인
03:54
it was written by a human.
78
222090
1395
시들이 존재합니다.
03:55
So, I think we have an answer
to our question.
to our question.
79
223959
2817
자, 질문에 대한 답이 나온 것 같군요.
03:59
According to the logic of the Turing test,
80
227546
2348
'튜링 테스트'의 논리에 따르면
04:01
can a computer write poetry?
81
229918
1928
컴퓨터는 시를 쓸 수 있을까요?
04:03
Well, yes, absolutely it can.
82
231870
2351
네, 물론 쓸 수 있습니다.
04:07
But if you're feeling
a little bit uncomfortable
a little bit uncomfortable
83
235782
2346
하지만 이 대답이 기분이 좀 나쁘시다면
04:10
with this answer, that's OK.
84
238152
1927
괜찮습니다, 그럴 수 있어요.
04:12
If you're having a bunch
of gut reactions to it,
of gut reactions to it,
85
240103
2316
만약 본능적으로 수많은
반응들이 나온다면
반응들이 나온다면
그것도 괜찮습니다.
왜냐하면 이게 끝이 아니기 때문이죠.
왜냐하면 이게 끝이 아니기 때문이죠.
04:14
that's also OK because
this isn't the end of the story.
this isn't the end of the story.
86
242443
3205
04:18
Let's play our third and final test.
87
246594
2324
그럼 마자막 테스트를 해 봅시다.
04:22
Again, you're going to have to read
88
250000
1750
다시 한번, 시를 읽으시고
어떤 것이 사람이 쓴
시인지 말해 주세요.
시인지 말해 주세요.
04:23
and tell me which you think is human.
89
251774
1909
04:25
Poem 1: Reg flags the reason
for pretty flags. / And ribbons.
for pretty flags. / And ribbons.
90
253707
3718
시 1 : 레그 깃발은 예쁜 깃발.
/ 그리고 리본들.
/ 그리고 리본들.
04:29
Ribbons of flags / And wearing material /
Reasons for wearing material. (...)
Reasons for wearing material. (...)
91
257449
4321
깃발의 리본들/ 착용하는 물건/
착용하는 물건들인 이유. (...)
착용하는 물건들인 이유. (...)
04:33
Poem 2: A wounded deer leaps
highest, / I've heard the daffodil
highest, / I've heard the daffodil
92
261794
3918
시 2 : 다친 사슴이 가장 높이 뛴다,
/ 수선화의 소리가 들린다.
/ 수선화의 소리가 들린다.
04:37
I've heard the flag to-day /
I've heard the hunter tell; /
I've heard the hunter tell; /
93
265736
3446
지금까지 깃발의 소리를 듣는다
/ 나는 사냥꾼이 말하는 소리를 듣는다.
/ 나는 사냥꾼이 말하는 소리를 듣는다.
04:41
'Tis but the ecstasy of death, /
And then the brake is almost done (...)
And then the brake is almost done (...)
94
269206
3702
이것은 죽음의 황홀함,
/ 그리고 나면 거의 끝난다.
/ 그리고 나면 거의 끝난다.
좋아요 시간이 다 되었네요.
04:44
OK, time is up.
95
272932
1599
04:46
So hands up if you think Poem 1
was written by a human.
was written by a human.
96
274555
3837
1번 시가 사람이 썼다고
생각하시면 손을 들어보세요.
생각하시면 손을 들어보세요.
04:51
Hands up if you think Poem 2
was written by a human.
was written by a human.
97
279973
3038
그럼 두 번째 시라고
생각하시면 손 들어주세요.
생각하시면 손 들어주세요.
04:55
Whoa, that's a lot more people.
98
283035
2331
오, 손을 많이 드셨네요
04:58
So you'd be surprised to find that Poem 1
99
286327
2968
그럼 여러분들은 첫 번째 시가
05:01
was written by the very
human poet Gertrude Stein.
human poet Gertrude Stein.
100
289319
3993
사람 시인인 거트루드 슈타인이
썼다는 걸 알면 놀라시겠네요.
썼다는 걸 알면 놀라시겠네요.
05:06
And Poem 2 was generated
by an algorithm called RKCP.
by an algorithm called RKCP.
101
294100
5038
그리고 두 번째 시는 RKCP라고 불리는
알고리즘이 썼습니다.
알고리즘이 썼습니다.
05:11
Now before we go on, let me describe
very quickly and simply,
very quickly and simply,
102
299162
3319
자 그럼 이야기를 이어가기 전에,
제가 짧고 단순하게
제가 짧고 단순하게
05:14
how RKCP works.
103
302505
1781
어떻게 RKCP가 작동하는지
알려드리겠습니다.
알려드리겠습니다.
05:16
So RKCP is an algorithm
designed by Ray Kurzweil,
designed by Ray Kurzweil,
104
304873
3850
RKCP는 레이 커즈와일이
고안한 알고리즘입니다.
고안한 알고리즘입니다.
그는 구글에서
엔지니어 이사를 맡고 있고
엔지니어 이사를 맡고 있고
05:20
who's a director of engineering at Google
105
308747
2222
인공 지능에 대한
확고한 믿음을 가지고 있죠.
확고한 믿음을 가지고 있죠.
05:22
and a firm believer
in artificial intelligence.
in artificial intelligence.
106
310993
2360
05:25
So, you give RKCP a source text,
107
313822
3991
RKCP에 원시 텍스트가 투입되면
05:29
it analyzes the source text in order
to find out how it uses language,
to find out how it uses language,
108
317837
4469
RKCP는 그것을 분석해
어떤 형식으로 쓰여졌는지 알아낸 후
어떤 형식으로 쓰여졌는지 알아낸 후
05:34
and then it regenerates language
109
322330
1948
원시 텍스트을 모방하여
05:36
that emulates that first text.
110
324302
2528
새 문장을 만들어 냅니다.
05:38
So in the poem we just saw before,
111
326854
2113
우리가 전에 보았던 시들도
모두 그렇게 만들어졌습니다.
모두 그렇게 만들어졌습니다.
05:40
Poem 2, the one that you all
thought was human,
thought was human,
112
328991
2625
여러분들이 모두 사람이
쓴 것이라고 생각했던 두 번째 시 또한
쓴 것이라고 생각했던 두 번째 시 또한
05:43
it was fed a bunch of poems
113
331640
1550
시인 에밀이 디킨슨의 수많은 시들이
05:45
by a poet called Emily Dickinson
114
333214
2035
투입되었습니다.
05:47
it looked at the way she used language,
115
335273
2189
RKCP는 그녀의 문체를 알아냈고
05:49
learned the model,
116
337486
1165
그 문체를 학습하여
05:50
and then it regenerated a model
according to that same structure.
according to that same structure.
117
338675
4258
같은 형식의 문체를 이용해
시를 재생산했습니다.
시를 재생산했습니다.
05:56
But the important thing to know about RKCP
118
344732
2178
하지만 RKCP에 대해
알아야 할 중요한 것은
알아야 할 중요한 것은
05:58
is that it doesn't know the meaning
of the words it's using.
of the words it's using.
119
346934
2838
RKCP는 시에 사용되는 어휘들의
뜻을 모른다는 것입니다.
뜻을 모른다는 것입니다.
06:02
The language is just raw material,
120
350359
2276
언어는 단지 원자재일 뿐입니다.
06:04
it could be Chinese,
it could be in Swedish,
it could be in Swedish,
121
352659
2160
중국어가 될 수도,
스웨덴어가 될 수도,
스웨덴어가 될 수도,
06:06
it could be the collected language
from your Facebook feed for one day.
from your Facebook feed for one day.
122
354843
4179
여러분의 페이스북 피드에서
수집된 언어일 수도 있습니다.
수집된 언어일 수도 있습니다.
06:11
It's just raw material.
123
359046
1652
그건 단지 원자재일 뿐이죠.
06:13
And nevertheless, it's able
to create a poem
to create a poem
124
361380
2697
그럼에도 불구하고, RKCP는 사람인
거트루드 슈타인의 시보다도
거트루드 슈타인의 시보다도
06:16
that seems more human
than Gertrude Stein's poem,
than Gertrude Stein's poem,
125
364101
3327
사람이 쓴 것 같은
06:19
and Gertrude Stein is a human.
126
367452
2153
시를 창조해 낼 수 있습니다.
06:22
So what we've done here is,
more or less, a reverse Turing test.
more or less, a reverse Turing test.
127
370846
4072
우리는 지금까지 '튜링테스트'를
역으로 생각해 보았습니다.
역으로 생각해 보았습니다.
06:27
So Gertrude Stein, who's a human,
is able to write a poem
is able to write a poem
128
375940
5179
그러니까, 사람인 거트루드 슈타인은
06:33
that fools a majority
of human judges into thinking
of human judges into thinking
129
381143
3738
자신의 시를 컴퓨터가 썼다고 믿게
06:36
that it was written by a computer.
130
384905
1826
대다수의 사람을 속인 겁니다.
06:39
Therefore, according to the logic
of the reverse Turing test,
of the reverse Turing test,
131
387176
4141
그러므로, '튜링테스트'를 역으로
생각해 본 결과는,
생각해 본 결과는,
06:43
Gertrude Stein is a computer.
132
391341
1916
거트루드 슈타인이 컴퓨터라는 거네요.
06:45
(Laughter)
133
393281
1462
(웃음)
06:47
Feeling confused?
134
395358
1294
혼란스러우신가요?
06:49
I think that's fair enough.
135
397193
1515
이 정도면 충분한 것 같습니다.
06:51
So far we've had humans
that write like humans,
that write like humans,
136
399546
4116
지금까지 우리는
사람처럼 글을 쓰는 사람도
사람처럼 글을 쓰는 사람도
06:55
we have computers that write
like computers,
like computers,
137
403686
3111
컴퓨터처럼 글을 쓰는 컴퓨터도
06:58
we have computers that write like humans,
138
406821
3055
사람처럼 글을 쓰는 컴퓨터도
07:01
but we also have,
perhaps most confusingly,
perhaps most confusingly,
139
409900
3632
심지어 아마 가장 혼란스러우시겠지만
07:05
humans that write like computers.
140
413556
2375
컴퓨터처럼 글을 쓰는
사람도 보았습니다.
사람도 보았습니다.
07:08
So what do we take from all of this?
141
416938
1766
그래서 우리가 이것들부터
얻을 수 있는게 도대체 뭘까요?
얻을 수 있는게 도대체 뭘까요?
07:11
Do we take that William Blake
is somehow more of a human
is somehow more of a human
142
419611
3157
윌리엄 블레이크가 거트루드 슈타인보다
07:14
than Gertrude Stein?
143
422792
1249
더 인간답다고 해야 하나요?
07:16
Or that Gertrude Stein is more
of a computer than William Blake?
of a computer than William Blake?
144
424065
3046
아니면, 거트루드 슈타인이
윌리엄 블레이크보다 더 컴퓨터답다고요?
윌리엄 블레이크보다 더 컴퓨터답다고요?
07:19
(Laughter)
145
427135
1552
(웃음)
07:20
These are questions
I've been asking myself
I've been asking myself
146
428711
2323
이 질문들은 거의 2년 동안
제가 제 자신에게
제가 제 자신에게
07:23
for around two years now,
147
431058
1465
묻고 있는 질문입니다.
07:24
and I don't have any answers.
148
432547
2309
그리고 저는 답을 얻지 못했습니다.
07:26
But what I do have are a bunch of insights
149
434880
2330
하지만 제가 한 질문들은
인간과 기술간의
인간과 기술간의
07:29
about our relationship with technology.
150
437234
2534
관계에 대한 큰 통찰들입니다.
07:32
So my first insight is that,
for some reason,
for some reason,
151
440999
3609
제 첫 번째 통찰은, 어떤 이유에선지
07:36
we associate poetry with being human.
152
444632
3111
우리는 시를 '인간이라는 것'과
연관시킨다는 것입니다.
연관시킨다는 것입니다.
07:40
So that when we ask,
"Can a computer write poetry?"
"Can a computer write poetry?"
153
448197
3715
우리가 '컴퓨터가 시를 쓸 수 있을까?'
라고 질문하는 것은
라고 질문하는 것은
07:43
we're also asking,
154
451936
1193
다음 질문들과 같습니다.
07:45
"What does it mean to be human
155
453153
1798
'인간이라는 것'은 무엇인가?'
07:46
and how do we put boundaries
around this category?
around this category?
156
454975
3172
'인간이라는 범주에
어떤 경계를 세워야 하는가?'
어떤 경계를 세워야 하는가?'
07:50
How do we say who or what
can be part of this category?"
can be part of this category?"
157
458171
3658
어떻게 '누구 또는 무엇'이
이 범주에 속한다고 말할 수 있는가? '
이 범주에 속한다고 말할 수 있는가? '
07:54
This is an essentially
philosophical question, I believe,
philosophical question, I believe,
158
462376
3351
이건 본질적으로 철학적 질문이라고
저는 믿습니다.
저는 믿습니다.
07:57
and it can't be answered
with a yes or no test,
with a yes or no test,
159
465751
2229
그리고 이 질문들은 '튜링 테스트' 처럼
'예' 또는 '아니요' 테스트를 통해
'예' 또는 '아니요' 테스트를 통해
08:00
like the Turing test.
160
468004
1327
답해질 수 있는 것이 아닙니다.
08:01
I also believe that Alan Turing
understood this,
understood this,
161
469805
3045
저는 또한 앨런 튜링이
이것을 이해했었으며
이것을 이해했었으며
08:04
and that when he devised
his test back in 1950,
his test back in 1950,
162
472874
3305
1950년, 그가 '철학적 도발'로써
이 테스트를 고안했고,
이 테스트를 고안했고,
08:08
he was doing it
as a philosophical provocation.
as a philosophical provocation.
163
476203
2802
실행했다고 믿습니다.
08:13
So my second insight is that,
when we take the Turing test for poetry,
when we take the Turing test for poetry,
164
481124
5541
제 두번째 통찰에 대해 설명하자면,
우리는 시에 대해 튜링테스트를 할 때
우리는 시에 대해 튜링테스트를 할 때
08:18
we're not really testing
the capacity of the computers
the capacity of the computers
165
486689
3460
컴퓨터의 역량을 시험하고
있는 것이 아닙니다.
있는 것이 아닙니다.
08:22
because poetry-generating algorithms,
166
490173
2893
왜냐하면 시 - 생산 알고리즘들은
08:25
they're pretty simple and have existed,
more or less, since the 1950s.
more or less, since the 1950s.
167
493090
4563
매우 간단하고,
1950년대 정도부터 존재했으니까요.
1950년대 정도부터 존재했으니까요.
08:31
What we are doing with the Turing
test for poetry, rather,
test for poetry, rather,
168
499055
3118
우리가 '튜링 테스트'를 통해
정말로 하고 있는 것은
정말로 하고 있는 것은
08:34
is collecting opinions about what
constitutes humanness.
constitutes humanness.
169
502197
4615
'무엇이 인간성을 구성하는가'에 대한
의견을 모으는 것입니다.
의견을 모으는 것입니다.
08:40
So, what I've figured out,
170
508313
2729
제가 알아낸 것은
08:43
we've seen this when earlier today,
171
511066
2972
우리가 좀 전에 알아낸 것과 같습니다.
08:46
we say that William Blake
is more of a human
is more of a human
172
514062
2478
우리는 윌리엄 블레이크가
거트루드 슈타인보다
거트루드 슈타인보다
08:48
than Gertrude Stein.
173
516564
1565
더 인간답다고 말했었습니다.
08:50
Of course, this doesn't mean
that William Blake
that William Blake
174
518153
2462
물론, 이건 정말로 윌리엄 블레이크가
08:52
was actually more human
175
520639
1828
더 인간답다는 의미는 아닙니다.
08:54
or that Gertrude Stein
was more of a computer.
was more of a computer.
176
522491
2327
또는, 거트루드 슈타인이
더 컴퓨터답다는 의미도 아닙니다.
더 컴퓨터답다는 의미도 아닙니다.
08:57
It simply means that the category
of the human is unstable.
of the human is unstable.
177
525533
4714
이건 단순히 '인간'이라는
범주가 불안정하다는 뜻입니다.
범주가 불안정하다는 뜻입니다.
09:03
This has led me to understand
178
531450
2074
이것은 제가 '인간이라는 것' 이
09:05
that the human is not a cold, hard fact.
179
533548
2763
차갑고, 딱딱한 사실이 아닌
09:08
Rather, it is something
that's constructed with our opinions
that's constructed with our opinions
180
536832
3132
우리의 의견들로 구성되어 있으며,
시간이 지남에 따라
시간이 지남에 따라
09:11
and something that changes over time.
181
539988
2855
변하는 것이라는 것을
이해하게 해 주었습니다.
이해하게 해 주었습니다.
09:16
So my final insight is that
the computer, more or less,
the computer, more or less,
182
544671
4479
제 마지막 통찰은 '컴퓨터'라는 것이
우리가 보여주는 인간의 생각을
반영하는 '거울' 처럼
반영하는 '거울' 처럼
09:21
works like a mirror
that reflects any idea of a human
that reflects any idea of a human
183
549174
4006
09:25
that we show it.
184
553204
1375
작동한다는 것입니다.
09:26
We show it Emily Dickinson,
185
554958
1884
우리가 에밀리 디킨슨을 보여주면
09:28
it gives Emily Dickinson back to us.
186
556866
2321
그것은 우리에게
에밀리 디킨슨을 돌려줍니다.
에밀리 디킨슨을 돌려줍니다.
09:31
We show it William Blake,
187
559768
1834
우리가 윌리엄 블레이크를 보여주면
09:33
that's what it reflects back to us.
188
561626
2285
그것은 우리에게
윌리엄 블레이크를 반영해 줍니다.
윌리엄 블레이크를 반영해 줍니다.
09:35
We show it Gertrude Stein,
189
563935
1839
우리가 거트루드 슈타인을 보여주면
09:37
what we get back is Gertrude Stein.
190
565798
2470
우리는 거트루드 슈타인을
다시 받습니다.
다시 받습니다.
09:41
More than any other bit of technology,
191
569083
2368
어떠한 다른 기술보다도
09:43
the computer is a mirror that reflects
any idea of the human we teach it.
any idea of the human we teach it.
192
571475
5165
컴퓨터는 우리가 가르치는
인간의 생각을 반영하는 거울입니다.
인간의 생각을 반영하는 거울입니다.
09:50
So I'm sure a lot of you have been hearing
193
578061
2287
여러분은 아마도 최근 들어
09:52
a lot about artificial
intelligence recently.
intelligence recently.
194
580372
2862
인공지능에 대한 많은
이야기를 들었을 겁니다.
이야기를 들었을 겁니다.
09:56
And much of the conversation is,
195
584694
2830
그리고 대부분 대화의 주제는
10:00
can we build it?
196
588292
1189
우리가 만들 수 있을까?
10:02
Can we build an intelligent computer?
197
590383
3135
우리가 지능적인 컴퓨터를
만들 수 있을까?
만들 수 있을까?
10:05
Can we build a creative computer?
198
593542
2763
우리가 창조적인 컴퓨터를
만들 수 있을까?
만들 수 있을까?
10:08
What we seem to be asking over and over
199
596329
2113
우리는 끝없이 인간 같은 컴퓨터를
만들 수 있을까?'
만들 수 있을까?'
10:10
is can we build a human-like computer?
200
598466
2724
라고 질문하는 것처럼 보입니다.
10:13
But what we've seen just now
201
601961
1556
하지만 우리는 방금
10:15
is that the human
is not a scientific fact,
is not a scientific fact,
202
603541
3088
'인간이라는 것'이 과학적 사실이 아닌
10:18
that it's an ever-shifting,
concatenating idea
concatenating idea
203
606653
3530
영원히 가변적인,
시간이 지남에 따라 변해가는
시간이 지남에 따라 변해가는
10:22
and one that changes over time.
204
610207
2531
사슬과 같은 생각이라는
사실을 보았습니다.
사실을 보았습니다.
10:24
So that when we begin
to grapple with the ideas
to grapple with the ideas
205
612762
3152
그러므로 미래에
우리가 인공지능에 대해
우리가 인공지능에 대해
10:27
of artificial intelligence in the future,
206
615938
2386
고심하기 시작할 때
10:30
we shouldn't only be asking ourselves,
207
618348
1905
우리는 단지 우리자신에게
'우리가 만들 수 있을까?'
'우리가 만들 수 있을까?'
10:32
"Can we build it?"
208
620277
1368
라고 질문해서는 안됩니다.
10:33
But we should also be asking ourselves,
209
621669
1894
우리는 자신에게
이 질문을 해야 합니다.
이 질문을 해야 합니다.
10:35
"What idea of the human
do we want to have reflected back to us?"
do we want to have reflected back to us?"
210
623587
3713
'우리는 컴퓨터가 인간의 어떤 생각을
반영해 나타내기를 원하는가? '
반영해 나타내기를 원하는가? '
10:39
This is an essentially philosophical idea,
211
627820
2693
이것은 본질적으로 철학적 생각이며
10:42
and it's one that can't be answered
with software alone,
with software alone,
212
630537
2997
소프트웨어 만으로는
답할 수 없는 질문입니다.
답할 수 없는 질문입니다.
10:45
but I think requires a moment
of species-wide, existential reflection.
of species-wide, existential reflection.
213
633558
4977
저는 '인간'이라는 종의 존재적 반영의
순간이 필요하다고 믿습니다.
순간이 필요하다고 믿습니다.
10:51
Thank you.
214
639040
1153
감사합니다.
10:52
(Applause)
215
640217
2695
(박수)
ABOUT THE SPEAKER
Oscar Schwartz - Writer and poetOscar Schwartz's research and writing concerns the influence of digital technology on culture and human interaction.
Why you should listen
Oscar Schwartz is an Australian writer and poet undertaking a PhD that asks whether a computer can write poetry. His research led to the development of a Turing test for poetry, which is available on a website he cofounded called bot or not.
Oscar Schwartz | Speaker | TED.com