TED@BCG Mumbai
Sougwen Chung: Why I draw with robots
スグウェン・チャン: 私がロボットを使って描く理由
Filmed:
Readability: 4.4
160,983 views
人間とロボットが一緒に芸術作品を作ると、何が起こるでしょう?この圧倒的なトークで、芸術家スグウェン・チャンはどうやって自分のスタイルを機械に「教えた」かを見せてくれます。そして、ロボットも間違うという予期せぬ発見をした後の協働の結果を教えてくれます。「人間と機械システムが持つ美しさの一部は、両者に共通する誤りやすさにあるのかもしれない」と彼女は言います。
Sougwen Chung - Artist, researcher
Sougwen 愫君 Chung is an artist and researcher whose work explores the dynamics between humans and systems. Full bio
Sougwen 愫君 Chung is an artist and researcher whose work explores the dynamics between humans and systems. Full bio
Double-click the English transcript below to play the video.
00:12
Many of us here use technology
in our day-to-day.
in our day-to-day.
0
937
3165
私たちの多くが日々の生活で
テクノロジーを利用しています
テクノロジーを利用しています
00:16
And some of us rely
on technology to do our jobs.
on technology to do our jobs.
1
4126
3247
なかには仕事をする上で
テクノロジーに頼り切っている人もいます
テクノロジーに頼り切っている人もいます
00:19
For a while, I thought of machines
and the technologies that drive them
and the technologies that drive them
2
7397
3950
長い間 私は機械や
それを動かすテクノロジーを
それを動かすテクノロジーを
00:23
as perfect tools that could make my work
more efficient and more productive.
more efficient and more productive.
3
11371
4505
作業の効率をあげ 生産性を高める
最高のツールとして捉えていました
最高のツールとして捉えていました
00:28
But with the rise of automation
across so many different industries,
across so many different industries,
4
16403
3254
でも 多岐に渡る産業で
自動化が進むにつれて
自動化が進むにつれて
00:31
it led me to wonder:
5
19681
1372
こう思うようになりました
00:33
If machines are starting
to be able to do the work
to be able to do the work
6
21077
2341
これまで人によって行われてきた仕事を
00:35
traditionally done by humans,
7
23442
1667
機械ができるようになってきたら
00:37
what will become of the human hand?
8
25133
2333
人間の技能は
どうなってしまうのでしょうか?
どうなってしまうのでしょうか?
00:40
How does our desire for perfection,
precision and automation
precision and automation
9
28133
4093
完璧さ 緻密さ 自動化を求める
私たちの願望は
私たちの願望は
00:44
affect our ability to be creative?
10
32250
1922
創造性にどう影響するのでしょうか?
00:46
In my work as an artist and researcher,
I explore AI and robotics
I explore AI and robotics
11
34553
4087
芸術家で研究者である 私の仕事は
AIとロボット工学を研究して
AIとロボット工学を研究して
00:50
to develop new processes
for human creativity.
for human creativity.
12
38664
3005
人間の創造性を高める
新たなプロセスを生み出すことです
新たなプロセスを生み出すことです
00:54
For the past few years,
13
42077
1286
ここ数年は
00:55
I've made work alongside machines,
data and emerging technologies.
data and emerging technologies.
14
43387
4376
機械やデータ 新しいテクノロジーを
使って制作しています
使って制作しています
01:00
It's part of a lifelong fascination
15
48143
1861
これは 個人とシステムの力学と
01:02
about the dynamics
of individuals and systems
of individuals and systems
16
50028
2735
その中に含まれる
あらゆる乱雑さに対する
あらゆる乱雑さに対する
01:04
and all the messiness that that entails.
17
52787
2381
生涯を通じた
私の関心の一部です
私の関心の一部です
01:07
It's how I'm exploring questions about
where AI ends and we begin
where AI ends and we begin
18
55192
4808
AIと人間の境界はどこにあるかという
課題を追究する方法であり
課題を追究する方法であり
01:12
and where I'm developing processes
19
60024
1642
未来における
01:13
that investigate potential
sensory mixes of the future.
sensory mixes of the future.
20
61690
3326
感覚の組み合わせ方の可能性を
探る方法を開発する場でもあります
探る方法を開発する場でもあります
01:17
I think it's where philosophy
and technology intersect.
and technology intersect.
21
65675
2857
哲学とテクノロジーが
交差する場だと思います
交差する場だと思います
01:20
Doing this work
has taught me a few things.
has taught me a few things.
22
68992
2239
この仕事から学んだことがあります
01:23
It's taught me how embracing imperfection
23
71642
2824
不完全さを受け入れると
私たち自身について
私たち自身について
01:26
can actually teach us
something about ourselves.
something about ourselves.
24
74490
2489
分かることがあるということ
01:29
It's taught me that exploring art
25
77428
2336
芸術を研究することで
01:31
can actually help shape
the technology that shapes us.
the technology that shapes us.
26
79788
2931
私たちを形作るテクノロジーの
生成を促しうるということ
生成を促しうるということ
01:35
And it's taught me
that combining AI and robotics
that combining AI and robotics
27
83148
3261
AIとロボット工学を
既存の創造性の形―
既存の創造性の形―
01:38
with traditional forms of creativity --
visual arts in my case --
visual arts in my case --
28
86433
3532
私の場合 視覚芸術と
結びつけることで
結びつけることで
01:41
can help us think a little bit more deeply
29
89989
2302
人間とは何か 機械とは何かを
01:44
about what is human
and what is the machine.
and what is the machine.
30
92315
2897
より深く考える手助けになること
01:47
And it's led me to the realization
31
95942
1707
そして 研究を通して気づいたのは
01:49
that collaboration is the key
to creating the space for both
to creating the space for both
32
97673
3055
機械と人間が進歩するとき
両者のための空間を作るには
両者のための空間を作るには
01:52
as we move forward.
33
100752
1267
協働が大切だという点です
01:54
It all started with a simple
experiment with machines,
experiment with machines,
34
102387
2746
すべての始まりは簡単な実験で
使った機械は
使った機械は
01:57
called "Drawing Operations
Unit: Generation 1."
Unit: Generation 1."
35
105157
2826
「Drawing Operations Unit: Generation 1
(描画操作ユニット 第1世代)」
(描画操作ユニット 第1世代)」
02:00
I call the machine "D.O.U.G." for short.
36
108434
2516
略して「D.O.U.G.」でした
02:02
Before I built D.O.U.G,
37
110974
1326
D.O.U.G.の製作前は
02:04
I didn't know anything
about building robots.
about building robots.
38
112324
2365
ロボットの作り方など
全く知りませんでした
全く知りませんでした
02:07
I took some open-source
robotic arm designs,
robotic arm designs,
39
115220
2897
オープンソースのロボットアームの
設計を採用し
設計を採用し
02:10
I hacked together a system
where the robot would match my gestures
where the robot would match my gestures
40
118141
3341
リアルタイムで
私の動きに追従する
私の動きに追従する
02:13
and follow [them] in real time.
41
121506
1639
システムを組み上げました
02:15
The premise was simple:
42
123169
1448
前提はシンプルでした
02:16
I would lead, and it would follow.
43
124641
2200
私がすることを 機械がまねる
02:19
I would draw a line,
and it would mimic my line.
and it would mimic my line.
44
127403
2936
私が線を描けば
線をまねて描きます
線をまねて描きます
02:22
So back in 2015, there we were,
drawing for the first time,
drawing for the first time,
45
130363
3698
2015年 ニューヨークで
少人数の観客を前に
少人数の観客を前に
02:26
in front of a small audience
in New York City.
in New York City.
46
134085
2619
初めて描いたときの映像です
02:28
The process was pretty sparse --
47
136728
2555
まばらなパフォーマンスで
02:31
no lights, no sounds,
nothing to hide behind.
nothing to hide behind.
48
139307
3487
照明も音楽もなく 観客の目を
遮るものもありませんでした
遮るものもありませんでした
02:35
Just my palms sweating
and the robot's new servos heating up.
and the robot's new servos heating up.
49
143241
3395
私の手は汗だくになり
ロボットのサーボモーターは過熱しました
ロボットのサーボモーターは過熱しました
02:38
(Laughs) Clearly, we were
not built for this.
not built for this.
50
146950
2441
(笑)あきらかに
私たち向きの状況ではありません
私たち向きの状況ではありません
02:41
But something interesting happened,
something I didn't anticipate.
something I didn't anticipate.
51
149820
3233
ところが 予期せぬ
興味深いことが起こったのです
興味深いことが起こったのです
02:45
See, D.O.U.G., in its primitive form,
wasn't tracking my line perfectly.
wasn't tracking my line perfectly.
52
153077
4802
初期のD.O.U.G.を見てください
私の描いた線を完璧にはまねていません
私の描いた線を完璧にはまねていません
02:49
While in the simulation
that happened onscreen
that happened onscreen
53
157903
2333
スクリーン上の
シミュレーションでは
シミュレーションでは
02:52
it was pixel-perfect,
54
160260
1357
1ピクセルの狂いもなかったのに
02:53
in physical reality,
it was a different story.
it was a different story.
55
161641
2531
現実世界だと
そうはいかなかったのです
そうはいかなかったのです
02:56
It would slip and slide
and punctuate and falter,
and punctuate and falter,
56
164196
2817
滑ったり ずれたり
途切れたり ぶれたりしたので
途切れたり ぶれたりしたので
02:59
and I would be forced to respond.
57
167037
2068
私が対応しなくては
なりませんでした
なりませんでした
03:01
There was nothing pristine about it.
58
169525
1778
そこに本来の姿はありませんでした
03:03
And yet, somehow, the mistakes
made the work more interesting.
made the work more interesting.
59
171327
3238
それでも なぜか誤りによって
興味深い作品になりました
興味深い作品になりました
03:06
The machine was interpreting
my line but not perfectly.
my line but not perfectly.
60
174589
2754
機械は私の描線を解釈していましたが
完ぺきではなく
完ぺきではなく
03:09
And I was forced to respond.
61
177367
1372
私が対処を強いられました
03:10
We were adapting
to each other in real time.
to each other in real time.
62
178763
2709
お互いリアルタイムで
順応していたのです
順応していたのです
03:13
And seeing this taught me a few things.
63
181496
1937
これを見て
分かったことがあります
分かったことがあります
03:15
It showed me that our mistakes
actually made the work more interesting.
actually made the work more interesting.
64
183457
4880
誤りが作品を
よりおもしろいものにするのです
よりおもしろいものにするのです
03:20
And I realized that, you know,
through the imperfection of the machine,
through the imperfection of the machine,
65
188663
4249
ロボットの不完全さを通して
両者の不完全さは
両者の不完全さは
03:24
our imperfections became
what was beautiful about the interaction.
what was beautiful about the interaction.
66
192936
3705
相互作用から生まれる
美しさへと変化するのです
美しさへと変化するのです
03:29
And I was excited,
because it led me to the realization
because it led me to the realization
67
197650
3087
人間と機械システムが持つ
美しさの一部は
美しさの一部は
03:32
that maybe part of the beauty
of human and machine systems
of human and machine systems
68
200761
3650
両者に共通する誤りやすさに
あるのかもしれないと気づいて
あるのかもしれないと気づいて
03:36
is their shared inherent fallibility.
69
204435
2738
私の胸は高鳴りました
03:39
For the second generation of D.O.U.G.,
70
207197
1820
D.O.U.G.の第2世代では
03:41
I knew I wanted to explore this idea.
71
209041
2307
このアイデアを
掘り下げたいと思いました
掘り下げたいと思いました
03:43
But instead of an accident produced
by pushing a robotic arm to its limits,
by pushing a robotic arm to its limits,
72
211372
4418
ただ ロボットアームを限界まで
追い込んで生じる偶発性ではなく
追い込んで生じる偶発性ではなく
03:47
I wanted to design a system
that would respond to my drawings
that would respond to my drawings
73
215814
2897
私の描線に予測不能な反応をするシステムを
03:50
in ways that I didn't expect.
74
218735
1833
設計しようと思いました
03:52
So, I used a visual algorithm
to extract visual information
to extract visual information
75
220592
3849
そこで過去数十年の
私のデジタルとアナログ両方の絵から
私のデジタルとアナログ両方の絵から
03:56
from decades of my digital
and analog drawings.
and analog drawings.
76
224465
2978
視覚情報を抽出するために
視覚アルゴリズムを利用しました
視覚アルゴリズムを利用しました
03:59
I trained a neural net on these drawings
77
227467
2055
その絵を
ニューラルネットワークに学習させ
ニューラルネットワークに学習させ
04:01
in order to generate
recurring patterns in the work
recurring patterns in the work
78
229546
2865
作品に繰り返し表れるパターンを生成し
04:04
that were then fed through custom software
back into the machine.
back into the machine.
79
232435
3476
専用のソフトウェアで
ロボットに入力するのです
ロボットに入力するのです
04:07
I painstakingly collected
as many of my drawings as I could find --
as many of my drawings as I could find --
80
235935
4386
絵は 探せる限り
徹底的に集めました
徹底的に集めました
04:12
finished works, unfinished experiments
and random sketches --
and random sketches --
81
240345
4215
完成した作品 未完成の試作
雑多なスケッチもです
雑多なスケッチもです
04:16
and tagged them for the AI system.
82
244584
1999
そして AIシステムのために
タグ付けしました
タグ付けしました
04:18
And since I'm an artist,
I've been making work for over 20 years.
I've been making work for over 20 years.
83
246607
3684
私は芸術家ですから
20年以上創作をしています
20年以上創作をしています
04:22
Collecting that many drawings took months,
84
250315
2024
そこまで集めるのに
何か月もかけて
何か月もかけて
04:24
it was a whole thing.
85
252363
1389
全体像が見えました
04:25
And here's the thing
about training AI systems:
about training AI systems:
86
253776
2595
AIシステムに学習させるのは
04:28
it's actually a lot of hard work.
87
256395
2200
とても手間がかかります
04:31
A lot of work goes on behind the scenes.
88
259022
2191
見えない部分で多くの作業が進みます
04:33
But in doing the work,
I realized a little bit more
I realized a little bit more
89
261237
2681
しかしこの作業を進めるなかで
04:35
about how the architecture
of an AI is constructed.
of an AI is constructed.
90
263942
3421
AIが どのように
構築されているかが分かりました
構築されているかが分かりました
04:39
And I realized it's not just made
of models and classifiers
of models and classifiers
91
267387
2947
単にニューラルネットワーク用の
モデルや識別器から
モデルや識別器から
04:42
for the neural network.
92
270358
1322
できている訳ではなく
04:43
But it's a fundamentally
malleable and shapable system,
malleable and shapable system,
93
271704
3532
順応性があり形成可能で
04:47
one in which the human hand
is always present.
is always present.
94
275260
3111
常に人の手が入っている
システムなのです
システムなのです
04:50
It's far from the omnipotent AI
we've been told to believe in.
we've been told to believe in.
95
278395
4000
私たちが全能と信じさせられてきた
AIとはかけ離れています
AIとはかけ離れています
04:54
So I collected these drawings
for the neural net.
for the neural net.
96
282419
2515
だからニューラルネットのために
絵を集めました
絵を集めました
04:56
And we realized something
that wasn't previously possible.
that wasn't previously possible.
97
284958
3929
そして それ以前なら
不可能だったことを認識したのです
不可能だったことを認識したのです
05:00
My robot D.O.U.G. became
a real-time interactive reflection
a real-time interactive reflection
98
288911
4091
私のロボットD.O.U.G. は
私の人生で手掛けた作品をリアルタイムで
私の人生で手掛けた作品をリアルタイムで
05:05
of the work I'd done
through the course of my life.
through the course of my life.
99
293026
2627
インタラクティブに反映するようになりました
05:07
The data was personal,
but the results were powerful.
but the results were powerful.
100
295677
3865
データは個人的なものでも
結果はとても力強く
結果はとても力強く
05:11
And I got really excited,
101
299566
1484
私はとてもワクワクしました
05:13
because I started thinking maybe
machines don't need to be just tools,
machines don't need to be just tools,
102
301074
4582
なぜなら機械は
単なる道具である必要はなく
単なる道具である必要はなく
05:17
but they can function
as nonhuman collaborators.
as nonhuman collaborators.
103
305680
3420
人ではない協力者として
機能すると考え始めたからです
機能すると考え始めたからです
05:21
And even more than that,
104
309537
1547
またそれ以上に
05:23
I thought maybe
the future of human creativity
the future of human creativity
105
311108
2429
創造性の未来は
何を作ったかではなく
何を作ったかではなく
05:25
isn't in what it makes
106
313561
1524
新しい制作方法を探って
05:27
but how it comes together
to explore new ways of making.
to explore new ways of making.
107
315109
3436
どのように協働したかにあるのでは
と思ったのです
と思ったのです
05:31
So if D.O.U.G._1 was the muscle,
108
319101
2190
だから D.O.U.G._1 を筋肉
05:33
and D.O.U.G._2 was the brain,
109
321315
1762
D.O.U.G._2 を頭脳とすると
05:35
then I like to think
of D.O.U.G._3 as the family.
of D.O.U.G._3 as the family.
110
323101
2928
D.O.U.G._3 は家族と思いたいのです
05:38
I knew I wanted to explore this idea
of human-nonhuman collaboration at scale.
of human-nonhuman collaboration at scale.
111
326482
4793
人とモノとの大規模な協働というアイデアを
詳しく探りたくなっていました
詳しく探りたくなっていました
05:43
So over the past few months,
112
331299
1373
ここ数ヶ月は
05:44
I worked with my team
to develop 20 custom robots
to develop 20 custom robots
113
332696
3135
共同体として私と作業できる
20台のロボットの開発に
20台のロボットの開発に
05:47
that could work with me as a collective.
114
335855
1960
チームと共に取り組みました
05:49
They would work as a group,
115
337839
1293
そのロボットは集団で作業し
05:51
and together, we would collaborate
with all of New York City.
with all of New York City.
116
339156
2889
私たちと共に ニューヨーク全体と
協働するものでした
協働するものでした
05:54
I was really inspired
by Stanford researcher Fei-Fei Li,
by Stanford researcher Fei-Fei Li,
117
342069
2944
スタンフォードの研究者
フェイフェイ・リーの言葉に触発されました
フェイフェイ・リーの言葉に触発されました
05:57
who said, "if we want to teach
machines how to think,
machines how to think,
118
345037
2515
「機械に考え方を教えたければ
05:59
we need to first teach them how to see."
119
347576
1984
まず見方を教える必要がある」
06:01
It made me think of the past decade
of my life in New York,
of my life in New York,
120
349584
2785
その言葉に従い 過去十年の
ニューヨークでの生活を再考し
ニューヨークでの生活を再考し
06:04
and how I'd been all watched over by these
surveillance cameras around the city.
surveillance cameras around the city.
121
352393
3993
街中にある監視カメラに
どう見られていたかを考えてみました
どう見られていたかを考えてみました
06:08
And I thought it would be
really interesting
really interesting
122
356410
2056
そして ロボットに
見方を教えるために
見方を教えるために
06:10
if I could use them
to teach my robots to see.
to teach my robots to see.
123
358490
2405
それらの映像を使えたら
面白そうだと思いました
面白そうだと思いました
06:12
So with this project,
124
360919
1888
そこでこのプロジェクトでは
06:14
I thought about the gaze of the machine,
125
362831
1967
機械からの視線について考察し
06:16
and I began to think about vision
as multidimensional,
as multidimensional,
126
364822
3226
視覚を 様々な方向から来る
どこか別の場所から見た光景として
どこか別の場所から見た光景として
06:20
as views from somewhere.
127
368072
1600
考え始めました
06:22
We collected video
128
370151
1834
私たちはインターネットで
06:24
from publicly available
camera feeds on the internet
camera feeds on the internet
129
372009
3063
一般公開されている
ライブカメラ映像を集めました
ライブカメラ映像を集めました
06:27
of people walking on the sidewalks,
130
375096
1690
歩道を歩く人々や
06:28
cars and taxis on the road,
131
376810
1712
車道を行き交う車やタクシーなど
06:30
all kinds of urban movement.
132
378546
1817
都会のあらゆる運動です
06:33
We trained a vision algorithm
on those feeds
on those feeds
133
381188
2603
この映像をもとに
オプティカルフローと呼ばれる
オプティカルフローと呼ばれる
06:35
based on a technique
called "optical flow,"
called "optical flow,"
134
383815
2286
技術を応用して
視覚アルゴリズムに学習させ
視覚アルゴリズムに学習させ
06:38
to analyze the collective density,
135
386125
1977
全体の密度や
06:40
direction, dwell and velocity states
of urban movement.
of urban movement.
136
388126
3637
方向 静止 速度の状態といった
都会の動きを分析しました
都会の動きを分析しました
06:44
Our system extracted those states
from the feeds as positional data
from the feeds as positional data
137
392178
4269
このシステムは それらの状態を
映像から位置データとして抽出し
映像から位置データとして抽出し
06:48
and became pads for my
robotic units to draw on.
robotic units to draw on.
138
396471
3373
ロボットが描くための
スケッチブックになりました
スケッチブックになりました
06:51
Instead of a collaboration of one-to-one,
139
399868
2534
1対1の協働ではなく
06:54
we made a collaboration of many-to-many.
140
402426
3024
複数対複数の協働です
06:57
By combining the vision of human
and machine in the city,
and machine in the city,
141
405474
3587
人間の視覚と
都市の機械を組み合わせることで
都市の機械を組み合わせることで
07:01
we reimagined what
a landscape painting could be.
a landscape painting could be.
142
409085
2794
私たちは風景画の可能性を
イメージし直しました
イメージし直しました
07:03
Throughout all of my
experiments with D.O.U.G.,
experiments with D.O.U.G.,
143
411903
2218
D.O.U.G.を使った
どの実験をとっても
どの実験をとっても
07:06
no two performances
have ever been the same.
have ever been the same.
144
414145
2717
同じ作品にはなりません
07:08
And through collaboration,
145
416886
1382
そして協働を通して
07:10
we create something that neither of us
could have done alone:
could have done alone:
146
418292
2864
人間かロボット 片方だけでは
できないものを作ります
できないものを作ります
07:13
we explore the boundaries
of our creativity,
of our creativity,
147
421180
2611
人間とモノが並行して作業し
07:15
human and nonhuman working in parallel.
148
423815
2892
私たちの創造性の限界を
研究しているのです
研究しているのです
07:19
I think this is just the beginning.
149
427823
2334
これは始まりに過ぎないと
私は思います
私は思います
07:22
This year, I've launched Scilicet,
150
430569
2183
今年 私はScilicetを立ち上げました
07:24
my new lab exploring human
and interhuman collaboration.
and interhuman collaboration.
151
432776
4245
人間や人々の協働作業を探る
新しい研究所です
新しい研究所です
07:29
We're really interested
in the feedback loop
in the feedback loop
152
437339
2120
個人と人工物と生態系の
07:31
between individual, artificial
and ecological systems.
and ecological systems.
153
439483
4230
フィードバックループに
関心を持っています
関心を持っています
07:36
We're connecting human and machine output
154
444276
2269
私たちは 人や機械からの出力を
07:38
to biometrics and other kinds
of environmental data.
of environmental data.
155
446569
2984
生体測定や その他の環境データと
結びつけようとしています
結びつけようとしています
07:41
We're inviting anyone who's interested
in the future of work, systems
in the future of work, systems
156
449577
4079
仕事やシステム 人々の協働の
未来に関心がある方なら
未来に関心がある方なら
07:45
and interhuman collaboration
157
453680
1595
一緒に研究するために
07:47
to explore with us.
158
455299
1550
誰でも招いています
07:48
We know it's not just technologists
that have to do this work
that have to do this work
159
456873
3405
この仕事を任された
技術者だけでなく
技術者だけでなく
07:52
and that we all have a role to play.
160
460302
2103
全員に役割があるのです
07:54
We believe that by teaching machines
161
462429
2243
これまで伝統的に人の手で行われてきた
07:56
how to do the work
traditionally done by humans,
traditionally done by humans,
162
464696
2730
仕事の仕方を機械に教えることで
07:59
we can explore and evolve our criteria
163
467450
2953
人の手によって可能とされることの
08:02
of what's made possible by the human hand.
164
470427
2443
基準を研究し進化させられると
信じています
信じています
08:04
And part of that journey
is embracing the imperfections
is embracing the imperfections
165
472894
3493
そして その旅の一部は
人間と機械の双方の
人間と機械の双方の
08:08
and recognizing the fallibility
of both human and machine,
of both human and machine,
166
476411
3690
不完全性を容認し
誤りやすさを認識することであり
誤りやすさを認識することであり
08:12
in order to expand the potential of both.
167
480125
2405
それにより双方の可能性を
広げようとするものです
広げようとするものです
08:14
Today, I'm still in pursuit
of finding the beauty
of finding the beauty
168
482919
2301
現在 私は人間とモノが持つ
創造性の素晴らしさを
創造性の素晴らしさを
08:17
in human and nonhuman creativity.
169
485244
2276
見つけ出そうとしている
只中にいます
只中にいます
08:19
In the future, I have no idea
what that will look like,
what that will look like,
170
487865
2829
それが将来 どんなものになるか
想像もつきませんが
想像もつきませんが
08:23
but I'm pretty curious to find out.
171
491627
2024
それを見出すことに
とても関心があるのです
とても関心があるのです
08:25
Thank you.
172
493675
1151
ありがとう
08:26
(Applause)
173
494850
1884
(拍手)
ABOUT THE SPEAKER
Sougwen Chung - Artist, researcherSougwen 愫君 Chung is an artist and researcher whose work explores the dynamics between humans and systems.
Why you should listen
Sougwen Chung's work explores the mark-made-by-hand and the mark-made-by-machine as an approach to understanding the dynamics of humans and systems. Chung is a former research fellow at MIT’s Media Lab and a pioneer in the field of human-machine collaboration. In 2019, she was selected as the Woman of the Year in Monaco for achievement in the Arts & Sciences.
In 2018 she was an inaugural E.A.T. Artist in Resident in partnership with New Museum and Bell Labs, and was awarded a commission for her project Omnia per Omnia. In 2016, Chung received Japan Media Art’s Excellence Award in for her project, Drawing Operations. She is a former research fellow at MIT’s Media Lab. She has been awarded Artist in Residence positions at Google, Eyebeam, Japan Media Arts and Pier 9 Autodesk. Her speculative critical practice spans performance, installation and drawings which have been featured in numerous exhibitions at museums and galleries around the world.
Sougwen Chung | Speaker | TED.com