ABOUT THE SPEAKER
Sougwen Chung - Artist, researcher
Sougwen 愫君 Chung is an artist and researcher whose work explores the dynamics between humans and systems.

Why you should listen
Sougwen Chung's work explores the mark-made-by-hand and the mark-made-by-machine as an approach to understanding the dynamics of humans and systems. Chung is a former research fellow at MIT’s Media Lab and a pioneer in the field of human-machine collaboration. In 2019, she was selected as the Woman of the Year in Monaco for achievement in the Arts & Sciences.
 
In 2018 she was an inaugural E.A.T. Artist in Resident in partnership with New Museum and Bell Labs, and was awarded a commission for her project Omnia per Omnia. In 2016, Chung received Japan Media Art’s Excellence Award in for her project, Drawing Operations. She is a former research fellow at MIT’s Media Lab. She has been awarded Artist in Residence positions at Google, Eyebeam, Japan Media Arts and Pier 9 Autodesk. Her speculative critical practice spans performance, installation and drawings which have been featured in numerous exhibitions at museums and galleries around the world.
More profile about the speaker
Sougwen Chung | Speaker | TED.com
TED@BCG Mumbai

Sougwen Chung: Why I draw with robots

スグウェン・チャン: 私がロボットを使って描く理由

Filmed:
160,983 views

人間とロボットが一緒に芸術作品を作ると、何が起こるでしょう?この圧倒的なトークで、芸術家スグウェン・チャンはどうやって自分のスタイルを機械に「教えた」かを見せてくれます。そして、ロボットも間違うという予期せぬ発見をした後の協働の結果を教えてくれます。「人間と機械システムが持つ美しさの一部は、両者に共通する誤りやすさにあるのかもしれない」と彼女は言います。
- Artist, researcher
Sougwen 愫君 Chung is an artist and researcher whose work explores the dynamics between humans and systems. Full bio

Double-click the English transcript below to play the video.

00:12
Manyたくさんの of us here use technology技術
in our day-to-day日々.
0
937
3165
私たちの多くが日々の生活で
テクノロジーを利用しています
00:16
And some of us rely頼りにする
on technology技術 to do our jobsジョブ.
1
4126
3247
なかには仕事をする上で
テクノロジーに頼り切っている人もいます
00:19
For a while, I thought of machines機械
and the technologiesテクノロジー that driveドライブ them
2
7397
3950
長い間 私は機械や
それを動かすテクノロジーを
00:23
as perfect完璧な toolsツール that could make my work
more efficient効率的な and more productive生産的な.
3
11371
4505
作業の効率をあげ 生産性を高める
最高のツールとして捉えていました
00:28
But with the rise上昇 of automationオートメーション
across横断する so manyたくさんの different異なる industries産業,
4
16403
3254
でも 多岐に渡る産業で
自動化が進むにつれて
00:31
it led me to wonderワンダー:
5
19681
1372
こう思うようになりました
00:33
If machines機械 are starting起動
to be ableできる to do the work
6
21077
2341
これまで人によって行われてきた仕事を
00:35
traditionally伝統的に done完了 by humans人間,
7
23442
1667
機械ができるようになってきたら
00:37
what will become〜になる of the human人間 handハンド?
8
25133
2333
人間の技能は
どうなってしまうのでしょうか?
00:40
How does our desire慾望 for perfection完璧,
precision精度 and automationオートメーション
9
28133
4093
完璧さ 緻密さ 自動化を求める
私たちの願望は
00:44
affect影響を与える our ability能力 to be creative創造的な?
10
32250
1922
創造性にどう影響するのでしょうか?
00:46
In my work as an artistアーティスト and researcher研究者,
I explore探検する AIAI and roboticsロボット工学
11
34553
4087
芸術家で研究者である 私の仕事は
AIとロボット工学を研究して
00:50
to develop開発する new新しい processesプロセス
for human人間 creativity創造性.
12
38664
3005
人間の創造性を高める
新たなプロセスを生み出すことです
00:54
For the past過去 few少数 years,
13
42077
1286
ここ数年は
00:55
I've made work alongside一緒に machines機械,
dataデータ and emerging新興 technologiesテクノロジー.
14
43387
4376
機械やデータ 新しいテクノロジーを
使って制作しています
01:00
It's part of a lifelong生涯 fascination魅力
15
48143
1861
これは 個人とシステムの力学と
01:02
about the dynamicsダイナミクス
of individuals個人 and systemsシステム
16
50028
2735
その中に含まれる
あらゆる乱雑さに対する
01:04
and all the messiness厄介 that that entails必然的に.
17
52787
2381
生涯を通じた
私の関心の一部です
01:07
It's how I'm exploring探検する questions質問 about
where AIAI ends終わり and we beginベギン
18
55192
4808
AIと人間の境界はどこにあるかという
課題を追究する方法であり
01:12
and where I'm developing現像 processesプロセス
19
60024
1642
未来における
01:13
that investigate調査する potential潜在的な
sensory感覚 mixesミックス of the future未来.
20
61690
3326
感覚の組み合わせ方の可能性を
探る方法を開発する場でもあります
01:17
I think it's where philosophy哲学
and technology技術 intersect交わる.
21
65675
2857
哲学とテクノロジーが
交差する場だと思います
01:20
Doing this work
has taught教えた me a few少数 things.
22
68992
2239
この仕事から学んだことがあります
01:23
It's taught教えた me how embracing抱きしめる imperfection不完全
23
71642
2824
不完全さを受け入れると
私たち自身について
01:26
can actually実際に teach教える us
something about ourselves自分自身.
24
74490
2489
分かることがあるということ
01:29
It's taught教えた me that exploring探検する artアート
25
77428
2336
芸術を研究することで
01:31
can actually実際に help shape形状
the technology技術 that shapes us.
26
79788
2931
私たちを形作るテクノロジーの
生成を促しうるということ
01:35
And it's taught教えた me
that combining結合する AIAI and roboticsロボット工学
27
83148
3261
AIとロボット工学を
既存の創造性の形―
01:38
with traditional伝統的な formsフォーム of creativity創造性 --
visualビジュアル arts芸術 in my case場合 --
28
86433
3532
私の場合 視覚芸術と
結びつけることで
01:41
can help us think a little bitビット more deeply深く
29
89989
2302
人間とは何か 機械とは何かを
01:44
about what is human人間
and what is the machine機械.
30
92315
2897
より深く考える手助けになること
01:47
And it's led me to the realization実現
31
95942
1707
そして 研究を通して気づいたのは
01:49
that collaborationコラボレーション is the keyキー
to creating作成 the spaceスペース for bothどちらも
32
97673
3055
機械と人間が進歩するとき
両者のための空間を作るには
01:52
as we move動く forward前進.
33
100752
1267
協働が大切だという点です
01:54
It all started開始した with a simple単純
experiment実験 with machines機械,
34
102387
2746
すべての始まりは簡単な実験で
使った機械は
01:57
calledと呼ばれる "Drawingお絵かき Operationsオペレーション
Unit単位: Generation世代 1."
35
105157
2826
「Drawing Operations Unit: Generation 1
(描画操作ユニット 第1世代)」
02:00
I call the machine機械 "D.O.U.G." for shortショート.
36
108434
2516
略して「D.O.U.G.」でした
02:02
Before I built建てられた D.O.U.G,
37
110974
1326
D.O.U.G.の製作前は
02:04
I didn't know anything
about building建物 robotsロボット.
38
112324
2365
ロボットの作り方など
全く知りませんでした
02:07
I took取った some open-sourceオープンソース
roboticロボット arm designsデザイン,
39
115220
2897
オープンソースのロボットアームの
設計を採用し
02:10
I hackedハッキングされた together一緒に a systemシステム
where the robotロボット would match一致 my gesturesジェスチャー
40
118141
3341
リアルタイムで
私の動きに追従する
02:13
and followフォローする [them] in realリアル time.
41
121506
1639
システムを組み上げました
02:15
The premise前提 was simple単純:
42
123169
1448
前提はシンプルでした
02:16
I would lead, and it would followフォローする.
43
124641
2200
私がすることを 機械がまねる
02:19
I would drawドロー a lineライン,
and it would mimic模倣する my lineライン.
44
127403
2936
私が線を描けば
線をまねて描きます
02:22
So back in 2015, there we were,
drawingお絵かき for the first time,
45
130363
3698
2015年 ニューヨークで
少人数の観客を前に
02:26
in frontフロント of a small小さい audience聴衆
in New新しい Yorkヨーク Cityシティ.
46
134085
2619
初めて描いたときの映像です
02:28
The processプロセス was prettyかなり sparse --
47
136728
2555
まばらなパフォーマンスで
02:31
no lightsライト, no sounds,
nothing to hide隠す behind後ろに.
48
139307
3487
照明も音楽もなく 観客の目を
遮るものもありませんでした
02:35
Just my palms手のひら sweating発汗
and the robot'sロボットの new新しい servosサーボ heating加熱 up.
49
143241
3395
私の手は汗だくになり
ロボットのサーボモーターは過熱しました
02:38
(Laughs笑う) Clearly明らかに, we were
not built建てられた for this.
50
146950
2441
(笑)あきらかに
私たち向きの状況ではありません
02:41
But something interesting面白い happened起こった,
something I didn't anticipate予期する.
51
149820
3233
ところが 予期せぬ
興味深いことが起こったのです
02:45
See, D.O.U.G., in its primitiveプリミティブ form,
wasn'tなかった tracking追跡 my lineライン perfectly完全に.
52
153077
4802
初期のD.O.U.G.を見てください
私の描いた線を完璧にはまねていません
02:49
While in the simulationシミュレーション
that happened起こった onscreen画面上で
53
157903
2333
スクリーン上の
シミュレーションでは
02:52
it was pixel-perfectピクセルパーフェクト,
54
160260
1357
1ピクセルの狂いもなかったのに
02:53
in physical物理的 reality現実,
it was a different異なる storyストーリー.
55
161641
2531
現実世界だと
そうはいかなかったのです
02:56
It would slipスリップ and slide滑り台
and punctuate句読点 and falterつまずく,
56
164196
2817
滑ったり ずれたり
途切れたり ぶれたりしたので
02:59
and I would be forced強制された to respond応答する.
57
167037
2068
私が対応しなくては
なりませんでした
03:01
There was nothing pristine原始的 about it.
58
169525
1778
そこに本来の姿はありませんでした
03:03
And yetまだ, somehow何とか, the mistakes間違い
made the work more interesting面白い.
59
171327
3238
それでも なぜか誤りによって
興味深い作品になりました
03:06
The machine機械 was interpreting解釈する
my lineライン but not perfectly完全に.
60
174589
2754
機械は私の描線を解釈していましたが
完ぺきではなく
03:09
And I was forced強制された to respond応答する.
61
177367
1372
私が対処を強いられました
03:10
We were adapting適応する
to each other in realリアル time.
62
178763
2709
お互いリアルタイムで
順応していたのです
03:13
And seeing見る this taught教えた me a few少数 things.
63
181496
1937
これを見て
分かったことがあります
03:15
It showed示した me that our mistakes間違い
actually実際に made the work more interesting面白い.
64
183457
4880
誤りが作品を
よりおもしろいものにするのです
03:20
And I realized実現した that, you know,
throughを通して the imperfection不完全 of the machine機械,
65
188663
4249
ロボットの不完全さを通して
両者の不完全さは
03:24
our imperfections不完全 becameなりました
what was beautiful綺麗な about the interactionインタラクション.
66
192936
3705
相互作用から生まれる
美しさへと変化するのです
03:29
And I was excited興奮した,
because it led me to the realization実現
67
197650
3087
人間と機械システムが持つ
美しさの一部は
03:32
that maybe part of the beauty美しさ
of human人間 and machine機械 systemsシステム
68
200761
3650
両者に共通する誤りやすさに
あるのかもしれないと気づいて
03:36
is their彼らの shared共有 inherent固有の fallibility虚偽性.
69
204435
2738
私の胸は高鳴りました
03:39
For the second二番 generation世代 of D.O.U.G.,
70
207197
1820
D.O.U.G.の第2世代では
03:41
I knew知っていた I wanted to explore探検する this ideaアイディア.
71
209041
2307
このアイデアを
掘り下げたいと思いました
03:43
But instead代わりに of an accident事故 produced生産された
by pushing押して a roboticロボット arm to its limits限界,
72
211372
4418
ただ ロボットアームを限界まで
追い込んで生じる偶発性ではなく
03:47
I wanted to design設計 a systemシステム
that would respond応答する to my drawings図面
73
215814
2897
私の描線に予測不能な反応をするシステムを
03:50
in ways方法 that I didn't expect期待する.
74
218735
1833
設計しようと思いました
03:52
So, I used a visualビジュアル algorithmアルゴリズム
to extractエキス visualビジュアル information情報
75
220592
3849
そこで過去数十年の
私のデジタルとアナログ両方の絵から
03:56
from decades数十年 of my digitalデジタル
and analogアナログ drawings図面.
76
224465
2978
視覚情報を抽出するために
視覚アルゴリズムを利用しました
03:59
I trained訓練された a neuralニューラル netネット on these drawings図面
77
227467
2055
その絵を
ニューラルネットワークに学習させ
04:01
in order注文 to generate生成する
recurring繰り返す patternsパターン in the work
78
229546
2865
作品に繰り返し表れるパターンを生成し
04:04
that were then fed給餌した throughを通して customカスタム softwareソフトウェア
back into the machine機械.
79
232435
3476
専用のソフトウェアで
ロボットに入力するのです
04:07
I painstakingly苦労して collected集めました
as manyたくさんの of my drawings図面 as I could find --
80
235935
4386
絵は 探せる限り
徹底的に集めました
04:12
finished完成した works作品, unfinished未完成の experiments実験
and randomランダム sketchesスケッチ --
81
240345
4215
完成した作品 未完成の試作
雑多なスケッチもです
04:16
and taggedタグ付き them for the AIAI systemシステム.
82
244584
1999
そして AIシステムのために
タグ付けしました
04:18
And since以来 I'm an artistアーティスト,
I've been making作る work for over 20 years.
83
246607
3684
私は芸術家ですから
20年以上創作をしています
04:22
Collecting収集 that manyたくさんの drawings図面 took取った months数ヶ月,
84
250315
2024
そこまで集めるのに
何か月もかけて
04:24
it was a whole全体 thing.
85
252363
1389
全体像が見えました
04:25
And here'sここにいる the thing
about trainingトレーニング AIAI systemsシステム:
86
253776
2595
AIシステムに学習させるのは
04:28
it's actually実際に a lot of hardハード work.
87
256395
2200
とても手間がかかります
04:31
A lot of work goes行く on behind後ろに the scenesシーン.
88
259022
2191
見えない部分で多くの作業が進みます
04:33
But in doing the work,
I realized実現した a little bitビット more
89
261237
2681
しかしこの作業を進めるなかで
04:35
about how the architecture建築
of an AIAI is constructed建設された.
90
263942
3421
AIが どのように
構築されているかが分かりました
04:39
And I realized実現した it's not just made
of modelsモデル and classifiers分類子
91
267387
2947
単にニューラルネットワーク用の
モデルや識別器から
04:42
for the neuralニューラル networkネットワーク.
92
270358
1322
できている訳ではなく
04:43
But it's a fundamentally根本的に
malleable可鍛性の and shapableシャプラブル systemシステム,
93
271704
3532
順応性があり形成可能で
04:47
one in whichどの the human人間 handハンド
is always presentプレゼント.
94
275260
3111
常に人の手が入っている
システムなのです
04:50
It's far遠い from the omnipotent全能 AIAI
we've私たちは been told to believe in.
95
278395
4000
私たちが全能と信じさせられてきた
AIとはかけ離れています
04:54
So I collected集めました these drawings図面
for the neuralニューラル netネット.
96
282419
2515
だからニューラルネットのために
絵を集めました
04:56
And we realized実現した something
that wasn'tなかった previously前に possible可能.
97
284958
3929
そして それ以前なら
不可能だったことを認識したのです
05:00
My robotロボット D.O.U.G. becameなりました
a real-timeリアルタイム interactiveインタラクティブ reflection反射
98
288911
4091
私のロボットD.O.U.G. は
私の人生で手掛けた作品をリアルタイムで
05:05
of the work I'd done完了
throughを通して the courseコース of my life.
99
293026
2627
インタラクティブに反映するようになりました
05:07
The dataデータ was personal個人的,
but the results結果 were powerful強力な.
100
295677
3865
データは個人的なものでも
結果はとても力強く
05:11
And I got really excited興奮した,
101
299566
1484
私はとてもワクワクしました
05:13
because I started開始した thinking考え maybe
machines機械 don't need to be just toolsツール,
102
301074
4582
なぜなら機械は
単なる道具である必要はなく
05:17
but they can function関数
as nonhuman人間ではない collaborators協力者.
103
305680
3420
人ではない協力者として
機能すると考え始めたからです
05:21
And even more than that,
104
309537
1547
またそれ以上に
05:23
I thought maybe
the future未来 of human人間 creativity創造性
105
311108
2429
創造性の未来は
何を作ったかではなく
05:25
isn't in what it makes作る
106
313561
1524
新しい制作方法を探って
05:27
but how it comes来る together一緒に
to explore探検する new新しい ways方法 of making作る.
107
315109
3436
どのように協働したかにあるのでは
と思ったのです
05:31
So if D.O.U.G._1 was the muscle,
108
319101
2190
だから D.O.U.G._1 を筋肉
05:33
and D.O.U.G._2 was the brain,
109
321315
1762
D.O.U.G._2 を頭脳とすると
05:35
then I like to think
of D.O.U.G._3 as the family家族.
110
323101
2928
D.O.U.G._3 は家族と思いたいのです
05:38
I knew知っていた I wanted to explore探検する this ideaアイディア
of human-nonhuman人間非人間 collaborationコラボレーション at scale規模.
111
326482
4793
人とモノとの大規模な協働というアイデアを
詳しく探りたくなっていました
05:43
So over the past過去 few少数 months数ヶ月,
112
331299
1373
ここ数ヶ月は
05:44
I worked働いた with my teamチーム
to develop開発する 20 customカスタム robotsロボット
113
332696
3135
共同体として私と作業できる
20台のロボットの開発に
05:47
that could work with me as a collective集団.
114
335855
1960
チームと共に取り組みました
05:49
They would work as a groupグループ,
115
337839
1293
そのロボットは集団で作業し
05:51
and together一緒に, we would collaborate協力する
with all of New新しい Yorkヨーク Cityシティ.
116
339156
2889
私たちと共に ニューヨーク全体と
協働するものでした
05:54
I was really inspiredインスピレーションを受けた
by Stanfordスタンフォード researcher研究者 Fei-FeiFei-Fei Li,
117
342069
2944
スタンフォードの研究者
フェイフェイ・リーの言葉に触発されました
05:57
who said, "if we want to teach教える
machines機械 how to think,
118
345037
2515
「機械に考え方を教えたければ
05:59
we need to first teach教える them how to see."
119
347576
1984
まず見方を教える必要がある」
06:01
It made me think of the past過去 decade10年
of my life in New新しい Yorkヨーク,
120
349584
2785
その言葉に従い 過去十年の
ニューヨークでの生活を再考し
06:04
and how I'd been all watched見た over by these
surveillance監視 camerasカメラ around the cityシティ.
121
352393
3993
街中にある監視カメラに
どう見られていたかを考えてみました
06:08
And I thought it would be
really interesting面白い
122
356410
2056
そして ロボットに
見方を教えるために
06:10
if I could use them
to teach教える my robotsロボット to see.
123
358490
2405
それらの映像を使えたら
面白そうだと思いました
06:12
So with this projectプロジェクト,
124
360919
1888
そこでこのプロジェクトでは
06:14
I thought about the gaze視線 of the machine機械,
125
362831
1967
機械からの視線について考察し
06:16
and I began始まった to think about visionビジョン
as multidimensional多次元,
126
364822
3226
視覚を 様々な方向から来る
どこか別の場所から見た光景として
06:20
as views再生回数 from somewhereどこかで.
127
368072
1600
考え始めました
06:22
We collected集めました videoビデオ
128
370151
1834
私たちはインターネットで
06:24
from publicly公然と available利用可能な
cameraカメラ feedsフィード on the internetインターネット
129
372009
3063
一般公開されている
ライブカメラ映像を集めました
06:27
of people walking歩く on the sidewalks歩道,
130
375096
1690
歩道を歩く人々や
06:28
cars and taxisタクシー on the road道路,
131
376810
1712
車道を行き交う車やタクシーなど
06:30
all kinds種類 of urban都市 movement移動.
132
378546
1817
都会のあらゆる運動です
06:33
We trained訓練された a visionビジョン algorithmアルゴリズム
on those feedsフィード
133
381188
2603
この映像をもとに
オプティカルフローと呼ばれる
06:35
basedベース on a technique技術
calledと呼ばれる "optical光学的 flowフロー,"
134
383815
2286
技術を応用して
視覚アルゴリズムに学習させ
06:38
to analyze分析する the collective集団 density密度,
135
386125
1977
全体の密度や
06:40
direction方向, dwell住む and velocity速度 states
of urban都市 movement移動.
136
388126
3637
方向 静止 速度の状態といった
都会の動きを分析しました
06:44
Our systemシステム extracted抽出された those states
from the feedsフィード as positional定位置 dataデータ
137
392178
4269
このシステムは それらの状態を
映像から位置データとして抽出し
06:48
and becameなりました padsパッド for my
roboticロボット units単位 to drawドロー on.
138
396471
3373
ロボットが描くための
スケッチブックになりました
06:51
Instead代わりに of a collaborationコラボレーション of one-to-one1対1,
139
399868
2534
1対1の協働ではなく
06:54
we made a collaborationコラボレーション of many-to-many多対多.
140
402426
3024
複数対複数の協働です
06:57
By combining結合する the visionビジョン of human人間
and machine機械 in the cityシティ,
141
405474
3587
人間の視覚と
都市の機械を組み合わせることで
07:01
we reimagined再考した what
a landscape風景 paintingペインティング could be.
142
409085
2794
私たちは風景画の可能性を
イメージし直しました
07:03
Throughout全面的に all of my
experiments実験 with D.O.U.G.,
143
411903
2218
D.O.U.G.を使った
どの実験をとっても
07:06
no two performances公演
have ever been the same同じ.
144
414145
2717
同じ作品にはなりません
07:08
And throughを通して collaborationコラボレーション,
145
416886
1382
そして協働を通して
07:10
we create作成する something that neitherどちらも of us
could have done完了 alone単独で:
146
418292
2864
人間かロボット 片方だけでは
できないものを作ります
07:13
we explore探検する the boundaries境界
of our creativity創造性,
147
421180
2611
人間とモノが並行して作業し
07:15
human人間 and nonhuman人間ではない workingワーキング in parallel平行.
148
423815
2892
私たちの創造性の限界を
研究しているのです
07:19
I think this is just the beginning始まり.
149
427823
2334
これは始まりに過ぎないと
私は思います
07:22
This year, I've launched打ち上げ Scilicetシリエツェ,
150
430569
2183
今年 私はScilicetを立ち上げました
07:24
my new新しい lab研究室 exploring探検する human人間
and interhumanInterhuman collaborationコラボレーション.
151
432776
4245
人間や人々の協働作業を探る
新しい研究所です
07:29
We're really interested興味がある
in the feedbackフィードバック loopループ
152
437339
2120
個人と人工物と生態系の
07:31
betweenの間に individual個人, artificial人工的な
and ecological生態学的 systemsシステム.
153
439483
4230
フィードバックループに
関心を持っています
07:36
We're connecting接続する human人間 and machine機械 output出力
154
444276
2269
私たちは 人や機械からの出力を
07:38
to biometricsバイオメトリクス and other kinds種類
of environmental環境 dataデータ.
155
446569
2984
生体測定や その他の環境データと
結びつけようとしています
07:41
We're inviting招待する anyone誰でも who'sだれの interested興味がある
in the future未来 of work, systemsシステム
156
449577
4079
仕事やシステム 人々の協働の
未来に関心がある方なら
07:45
and interhumanInterhuman collaborationコラボレーション
157
453680
1595
一緒に研究するために
07:47
to explore探検する with us.
158
455299
1550
誰でも招いています
07:48
We know it's not just technologists技術者
that have to do this work
159
456873
3405
この仕事を任された
技術者だけでなく
07:52
and that we all have a role役割 to play遊びます.
160
460302
2103
全員に役割があるのです
07:54
We believe that by teaching教える machines機械
161
462429
2243
これまで伝統的に人の手で行われてきた
07:56
how to do the work
traditionally伝統的に done完了 by humans人間,
162
464696
2730
仕事の仕方を機械に教えることで
07:59
we can explore探検する and evolve進化する our criteria基準
163
467450
2953
人の手によって可能とされることの
08:02
of what's made possible可能 by the human人間 handハンド.
164
470427
2443
基準を研究し進化させられると
信じています
08:04
And part of that journey
is embracing抱きしめる the imperfections不完全
165
472894
3493
そして その旅の一部は
人間と機械の双方の
08:08
and recognizing認識 the fallibility虚偽性
of bothどちらも human人間 and machine機械,
166
476411
3690
不完全性を容認し
誤りやすさを認識することであり
08:12
in order注文 to expand拡大する the potential潜在的な of bothどちらも.
167
480125
2405
それにより双方の可能性を
広げようとするものです
08:14
Today今日, I'm still in pursuit追求
of finding所見 the beauty美しさ
168
482919
2301
現在 私は人間とモノが持つ
創造性の素晴らしさを
08:17
in human人間 and nonhuman人間ではない creativity創造性.
169
485244
2276
見つけ出そうとしている
只中にいます
08:19
In the future未来, I have no ideaアイディア
what that will look like,
170
487865
2829
それが将来 どんなものになるか
想像もつきませんが
08:23
but I'm prettyかなり curious好奇心 to find out.
171
491627
2024
それを見出すことに
とても関心があるのです
08:25
Thank you.
172
493675
1151
ありがとう
08:26
(Applause拍手)
173
494850
1884
(拍手)
Translated by Hiroshi Uchiyama
Reviewed by Kazunori Akashi

▲Back to top

ABOUT THE SPEAKER
Sougwen Chung - Artist, researcher
Sougwen 愫君 Chung is an artist and researcher whose work explores the dynamics between humans and systems.

Why you should listen
Sougwen Chung's work explores the mark-made-by-hand and the mark-made-by-machine as an approach to understanding the dynamics of humans and systems. Chung is a former research fellow at MIT’s Media Lab and a pioneer in the field of human-machine collaboration. In 2019, she was selected as the Woman of the Year in Monaco for achievement in the Arts & Sciences.
 
In 2018 she was an inaugural E.A.T. Artist in Resident in partnership with New Museum and Bell Labs, and was awarded a commission for her project Omnia per Omnia. In 2016, Chung received Japan Media Art’s Excellence Award in for her project, Drawing Operations. She is a former research fellow at MIT’s Media Lab. She has been awarded Artist in Residence positions at Google, Eyebeam, Japan Media Arts and Pier 9 Autodesk. Her speculative critical practice spans performance, installation and drawings which have been featured in numerous exhibitions at museums and galleries around the world.
More profile about the speaker
Sougwen Chung | Speaker | TED.com