ABOUT THE SPEAKER
Raphael Arar - Designer, researcher
IBM's Raphael Arar creates art and designs experiences that examine the complexities of our increasingly technocentric lives.

Why you should listen

While his artwork raises questions about our relationship with modernity and technology, Raphael Arar’s design work revolves around answering those questions in human-centered ways. 

Currently a designer and researcher at IBM Research, Arar has been exploring ways to translate aspects of emotional intelligence into machine-readable format. Through this, he is passionately tackling ethical platforms of artificial intelligence. Inc. Magazine says he "epitomizes the style and multi-disciplinary skill set of the modern designer," and in 2017, he was listed as one of Forbes's "30 under 30 in Enterprise Technology."

More profile about the speaker
Raphael Arar | Speaker | TED.com
TED@IBM

Raphael Arar: How we can teach computers to make sense of our emotions

રાફેલ અરાર: આપણી લાગણીઓને સમજવા માટે આપણે કમ્પ્યુટરને કેવી રીતે શીખવી શકીએ.

Filmed:
1,255,602 views

અમે એ.આઇ. કેવી રીતે બનાવી શકીએ કે લોકો ખરેખર સંપર્કમાં આવવા માંગે છે? રાફેલ અરાર સૂચવે છે કે આપણે કળા બનાવીને પ્રારંભ કરીએ છીએ. તે અરસપરસ પ્રોજેક્ટ્સ વહેંચે છે જે એઆઈને નોસ્ટાલ્જિયા, અંતર્જ્ andાન અને વાતચીત જેવા જટિલ વિચારોની શોધ કરવામાં મદદ કરે છે - બધા આપણી ભાવિ તકનીકને તેટલું માનવ બનાવવાની ધ્યેય તરફ કામ કરે છે જેટલું તે કૃત્રિમ છે.
- Designer, researcher
IBM's Raphael Arar creates art and designs experiences that examine the complexities of our increasingly technocentric lives. Full bio

Double-click the English transcript below to play the video.

00:13
I consider myself one part artist
and one part designer.
0
1760
4680
હું મારી જાતને એક ભાગ કલાકાર માનું છું
અને એક ભાગ ડિઝાઇનર
00:18
And I work at an artificial
intelligence research lab.
1
6480
3160
અને હું કૃત્રિમ પર કામ કરું છું
ગુપ્તચર સંશોધન પ્રયોગશાળા.
00:22
We're trying to create technology
2
10720
1696
અમે તકનીકી બનાવવાનો
પ્રયાસ કરીએ છીએ
00:24
that you'll want to interact with
in the far future.
3
12440
3296
જેની સાથે તમે ક્રિયાપ્રતિક્રિયા
કરવા માંગતા હોય તો દૂરના ભવિષ્યમાં
00:27
Not just six months from now,
but try years and decades from now.
4
15760
4640
હવેથી માત્ર છ મહિના જ નહીં,
પરંતુ હવેથી વર્ષો અને દાયકાઓનો પ્રયાસ કરો.
00:33
And we're taking a moonshot
5
21120
1616
અને અમે મેનુ કરી શુટ રહ્યા છીએ
00:34
that we'll want to be
interacting with computers
6
22760
2456
આપણે કમ્પ્યુટર્સ સાથે વાતચીત
કરવા માંગીએ છીએ
00:37
in deeply emotional ways.
7
25240
2120
વધુ રીતે ભાવનાત્મક .
00:40
So in order to do that,
8
28280
1456
તેથી તે કરવા માટે,
00:41
the technology has to be
just as much human as it is artificial.
9
29760
4480
તકનીકી હોવી જોઈએ
તેટલું માનવ જેટલું કૃત્રિમ છે.
00:46
It has to get you.
10
34920
2256
તે તમને મેળવવાનું છે.
00:49
You know, like that inside joke
that'll have you and your best friend
11
37200
3336
તમે જાણો છો, તે અંદરની મજાકની જેમ
તે તમારી અને તમારો શ્રેષ્ઠ મિત્ર હશે
00:52
on the floor, cracking up.
12
40560
1936
ફ્લોર પર, ક્રેકીંગ.
00:54
Or that look of disappointment
that you can just smell from miles away.
13
42520
4560
અથવા નિરાશાનો તે દેખાવ કે તમે
માત્ર માઇલ દૂરથી સુગંધ મેળવી શકો છો.
01:00
I view art as the gateway to help us
bridge this gap between human and machine:
14
48560
6040
હું કલાને મારી સહાય માટેના પ્રવેશદ્વાર
તરીકે જોઉં છું માનવ વચ્ચે આ પુલ
01:07
to figure out what it means
to get each other
15
55280
3136
તેનો અર્થ શું છે તે આકૃતિ
દરેક વિચારે
01:10
so that we can train AI to get us.
16
58440
2760
જેથી આપણે અમને માટે એઆઈને તાલીમ આપી શકીએ
01:13
See, to me, art is a way
to put tangible experiences
17
61920
3816
જુઓ, મારા માટે, કલા એક માર્ગ છે.
01:17
to intangible ideas,
feelings and emotions.
18
65760
3240
અમૂર્ત વિચારો માટે,
લાગણીઓ.
01:21
And I think it's one
of the most human things about us.
19
69800
2600
મને લાગે છે કે તે અમારા વિશે
સૌથી માનવીય વસ્તુઓ છે.
01:25
See, we're a complicated
and complex bunch.
20
73480
2936
જુઓ, અમે એક જટિલ છીએ
અને જટિલ ટોળું.
01:28
We have what feels like
an infinite range of emotions,
21
76440
3136
આપણી પાસે જેવું લાગે છે
લાગણીઓની અનંત શ્રેણી,
01:31
and to top it off, we're all different.
22
79600
2496
અને તેને ટોચ પર બોલવા માટે,
આપણે બધા જુદા છીએ.
01:34
We have different family backgrounds,
23
82120
2296
આપણી પાસે જુદી જુદી કુટુંબની પૃષ્ઠભૂમિ છે,
01:36
different experiences
and different psychologies.
24
84440
3080
વિવિધ અનુભવો
અને વિવિધ મનોવિજ્ઞાનિક છે .
01:40
And this is what makes life
really interesting.
25
88240
2720
અને આ જ ખરેખર રસપ્રદ જીવન બનાવે છે
01:43
But this is also what makes
working on intelligent technology
26
91440
3496
પરંતુ આ તે બનાવે છે
બુદ્ધિશાળી ટેકનોલોજી પર કામ કરે છે
01:46
extremely difficult.
27
94960
1600
ખૂબ જ મુશ્કેલ.
01:49
And right now, AI research, well,
28
97640
3456
અને હમણાં, એઆઈ સંશોધન, સારું
01:53
it's a bit lopsided on the tech side.
29
101120
2016
તે ટેકનોલોજી બાજુ પર થોડું ધ્યાન છે.
01:55
And that makes a lot of sense.
30
103160
2136
અને તે અર્થમાં ઘણી વધારે સમજણ છે.
01:57
See, for every
qualitative thing about us --
31
105320
2456
જુઓ, દરેક માટે ગુણાત્મક વસ્તુ છે
01:59
you know, those parts of us that are
emotional, dynamic and subjective --
32
107800
4456
તમે જાણો છો તે એક US નો ભાગ છે
તે ભાવનાત્મક, ગતિશીલ અને
02:04
we have to convert it
to a quantitative metric:
33
112280
3136
તેને હવે રૂપાંતરિત કરવાની રીત
તેથી આ માત્રાત્મક રીત છે .
02:07
something that can be represented
with facts, figures and computer code.
34
115440
4360
કંઈક કે જે નકલ કરી શકાય છે
હકીકતો, આંકડા અને સાથે
02:13
The issue is, there are
many qualitative things
35
121000
3376
મુદ્દો છે, ત્યાં
ઘણી ગુણાત્મક વસ્તુઓ છે.
02:16
that we just can't put our finger on.
36
124400
1960
કે આપણે ફક્ત આંગળી મૂકી શકીએ નહીં.
02:20
So, think about hearing
your favorite song for the first time.
37
128400
3200
તેથી, સુનાવણી વિશે વિચારો
પ્રથમ વખત તમારું પ્રિય ગીત.
02:25
What were you doing?
38
133200
1200
તમે શું કરી રહ્યા હતા?
02:28
How did you feel?
39
136000
1200
તમને કેવું લાગ્યું?
02:30
Did you get goosebumps?
40
138720
1360
તમને મુશ્કેલીઓ મળી?
02:33
Or did you get fired up?
41
141240
1640
અથવા તમે એ તરફ ગયા?
02:36
Hard to describe, right?
42
144400
1200
મુશ્કેલીકેવા
માટેઅધિકારછે.
02:38
See, parts of us feel so simple,
43
146800
2096
જુઓ, આપણા ભાગો ખૂબ સરળ લાગે છે,
02:40
but under the surface,
there's really a ton of complexity.
44
148920
3656
પરંતુ સપાટી હેઠળ,
ખરેખર એક ટન જટિલતા છે.
02:44
And translating
that complexity to machines
45
152600
2936
અને અનુવાદ
મશીનો માટે જટિલતા
02:47
is what makes them modern-day moonshots.
46
155560
2856
તે છે જે તેમને આધુનિક દિવસ બનાવે છે.
02:50
And I'm not convinced that we can
answer these deeper questions
47
158440
4176
અને મને ખાતરી નથી કે આપણે કરી શકીએ
આ પ્રશ્નોના જવાબ આપો
02:54
with just ones and zeros alone.
48
162640
1480
માત્ર રાશિઓ અને એકલા શૂન્ય સાથે
02:57
So, in the lab, I've been creating art
49
165120
1936
તેથી, લેબમાં, હું કલા બનાવી રહ્યો છું
02:59
as a way to help me
design better experiences
50
167080
2456
મને મદદ કરવાની રીત તરીકે વધુ
સારા અનુભવો ડિઝાઇન કરો
03:01
for bleeding-edge technology.
51
169560
2096
રક્તસ્રાવ એજ ટેકનોલોજી માટે
03:03
And it's been serving as a catalyst
52
171680
1736
અને તે એક તરીકે સેવા આપી રહ્યો છે
03:05
to beef up the more human ways
that computers can relate to us.
53
173440
3840
વધુ માનવ માટે
જે કમ્પ્યુટરથી સંબંધિત હોઈ શકે છે
03:10
Through art, we're tacking
some of the hardest questions,
54
178000
2696
કલા દ્વારા, છે અમને કેટલાક
પ્રશ્નો જાણવા મળા છે
03:12
like what does it really mean to feel?
55
180720
2360
જેમ કે અનુભવવાનો ખરેખર અર્થ શું છે?
03:16
Or how do we engage and know
how to be present with each other?
56
184120
4080
અથવા આપણે કેવી રીતે જાણી
શકીએ છીએ કેવી રીતે દરેક સાથે હાજર છે.
03:20
And how does intuition
affect the way that we interact?
57
188800
4000
અને રીતે કરે છે આપણે
જે રીતે સંપર્ક કરીએ છીએ તેની અસર કરે છે?
03:26
So, take for example human emotion.
58
194440
2056
તેથી, ઉદાહરણ તરીકે માનવ લાગણી લો.
03:28
Right now, computers can make sense
of our most basic ones,
59
196520
3256
હમણાં, કમ્પ્યુટર્સ અર્થમાં કરી શકે
છે અમારા સૌથી મૂળભૂત લોકોમાંથી
03:31
like joy, sadness,
anger, fear and disgust,
60
199800
3696
આનંદ, ઉદાસી, ક્રોધ, ભય અને
અણગમો,તે રૂપાંતર કરીને ગણિતની લાક્ષણિકતાઓ.
03:35
by converting those
characteristics to math.
61
203520
3000
તે રૂપાંતર કરીને ગણિતની લાક્ષણિકતાઓ
03:39
But what about the more complex emotions?
62
207400
2536
તમે જાણો છો, તે ભાવનાઓ
03:41
You know, those emotions
63
209960
1216
તમે જાણો છો, તે ભાવનાઓ
03:43
that we have a hard time
describing to each other?
64
211200
2376
કે અમારી પાસે મુશ્કેલ સમય છે
દરેક અન્ય વર્ણન?
03:45
Like nostalgia.
65
213600
1440
ગમગીની જેવી.
03:47
So, to explore this, I created
a piece of art, an experience,
66
215640
3936
આની શોધખોળ કરવા માટે મેં બનાવ્યું
કલાનો એક ભાગ અનુભવ
03:51
that asked people to share a memory,
67
219600
2096
જેણે લોકોને મેમરી શેર કરવાનું કહ્યું,
03:53
and I teamed up with some data scientists
68
221720
2136
મેં કેટલાક વેજ્ઞાનિક સાથે મળીને કામ કર્યું
03:55
to figure out how to take
an emotion that's so highly subjective
69
223880
3576
કેવી રીતે લેવું તે આકૃતિ એક લાગણી
કે ખૂબ જ વ્યક્તિલક્ષી
03:59
and convert it into something
mathematically precise.
70
227480
3200
અને તેને કંઈક રૂપાંતરિત કરો ગાણિતિક સચોટ
04:03
So, we created what we call
a nostalgia score
71
231840
2136
તેથી, અમે જેને કહીશું તે બનાવ્યું છે .
04:06
and it's the heart of this installation.
72
234000
2216
અને તે આ ઇન્સ્ટોલેશનનું હૃદય છે.
04:08
To do that, the installation
asks you to share a story,
73
236240
3056
તે કરવા માટે, ઇન્સ્ટોલેશન એક
વાર્તા શેર કરવા માટે પૂછે છે,
04:11
the computer then analyzes it
for its simpler emotions,
74
239320
3256
કમ્પ્યુટર પછી તેનું વિશ્લેષણ કરે છે
તેની સરળ લાગણીઓ માટે,
04:14
it checks for your tendency
to use past-tense wording
75
242600
2656
તે તમારી વૃત્તિ માટે તપાસે છે તકાળ
ના શબ્દોનો ઉપયોગકરીએ
04:17
and also looks for words
that we tend to associate with nostalgia,
76
245280
3336
અને શબ્દો પણ જુએ છે કે
આપણે નોસ્ટાલ્જિયા સાથે સંકળાયેલા છીએ
04:20
like "home," "childhood" and "the past."
77
248640
3040
"ઘર," "બાળપણ" અને "ભૂતકાળ" જેવા
04:24
It then creates a nostalgia score
78
252760
2056
તે પછી નોસ્ટાલ્જિયા સ્કોર બનાવે છે
04:26
to indicate how nostalgic your story is.
79
254840
2736
તે પછી નોસ્ટાલ્જિયા સ્કોર બનાવે છે
04:29
And that score is the driving force
behind these light-based sculptures
80
257600
4136
અને તે સ્કોર ડ્રાઇવિંગ ફોર્સ છે
આ પ્રકાશ આધારિત પાછળ
04:33
that serve as physical embodiments
of your contribution.
81
261760
3896
જે ભૌતિક મૂર્ત સ્વરૂપ તરીકે
સેવા આપે છે તમારા યોગદાનનો.
04:37
And the higher the score,
the rosier the hue.
82
265680
3216
અને ઉચ્ચ સ્કોર છે.
04:40
You know, like looking at the world
through rose-colored glasses.
83
268920
3936
તમે જાણો છો, વિશ્વને જોવાની
જેમ ગુલાબ-રંગીન ચશ્મા દ્વારા.
04:44
So, when you see your score
84
272880
2616
તેથી, જ્યારે તમે તમારો સ્કોર જુઓ.
04:47
and the physical representation of it,
85
275520
2656
અને તેનું શારીરિક રજૂઆત.
04:50
sometimes you'd agree
and sometimes you wouldn't.
86
278200
2936
ક્યારેક તમે સંમત થશો અને
ક્યારેક તમે નહીં કરો.
04:53
It's as if it really understood
how that experience made you feel.
87
281160
3480
તે જાણે કે તે ખરેખર સમજી ગયું છે
કે અનુભવ તમને કેવી લાગણી બનાવે છે
04:57
But other times it gets tripped up
88
285400
2216
પરંતુ અન્ય સમયે તે છૂટા થઈ જાય છે
04:59
and has you thinking
it doesn't understand you at all.
89
287640
2560
અને તમે વિચારી રહ્યા છો તે
તમને બિલકુલ સમજી શકતો નથી
05:02
But the piece really serves to show
90
290680
1896
પરંતુ ભાગ ખરેખર બતાવવા માટે સેવા આપે છે
05:04
that if we have a hard time explaining
the emotions that we have to each other,
91
292600
4056
કે જો આપણને સમજાવવામાં
મુશ્કેલ સમય હોય લાગણીઓ છે કે અમે હોય છે
05:08
how can we teach a computer
to make sense of them?
92
296680
2360
આપણે કમ્પ્યુટરકેવીરીતેશીખવી શકીએ તેમને સમજવા માટે
05:12
So, even the more objective parts
about being human are hard to describe.
93
300360
3576
તેથી, વધુ ઉદ્દેશ ભાગો માનવ
હોવા વિશે મુશ્કેલ છે
05:15
Like, conversation.
94
303960
1240
ગમે છે, વાતચીત કરે છે
05:17
Have you ever really tried
to break down the steps?
95
305880
2736
તમે ક્યારેય પ્રયાસ કર્યો છે?
પગથિયા તોડવા માટે?
05:20
So think about sitting
with your friend at a coffee shop
96
308640
2656
તો બેસવાનો વિચાર કરો પર તમારા મિત્ર સાથે
05:23
and just having small talk.
97
311320
1320
અને થોડી નાની વાતો કરી
05:25
How do you know when to take a turn?
98
313160
1720
વળાંક ક્યારે લેવો કેવી
રીતે જાણો છો?
05:27
How do you know when to shift topics?
99
315440
1840
તમે કેવી રીતે જાણો છો
05:29
And how do you even know
what topics to discuss?
100
317960
2720
અને તમે પણ કેવી રીતે જાણો છો
કયા વિષયો પર ચર્ચા કરવા?
05:33
See, most of us
don't really think about it,
101
321560
2096
જુઓ, આપણા મોટા
ભાગના તેના વિશે વિચારશો નહીં
05:35
because it's almost second nature.
102
323680
1656
કારણ કે તે લગભગ બીજા પ્રકૃતિ છે.
05:37
And when we get to know someone,
we learn more about what makes them tick,
103
325360
3496
અને જ્યારે આપણે કોઈને
ઓળખીએ છીએ, આપણે શું વિશે વધુ શીખીશું
05:40
and then we learn
what topics we can discuss.
104
328880
2376
આપણે શીખીશું આપણે કયા
વિષયો પર ચર્ચા કરી શકીએ છીએ
05:43
But when it comes to teaching
AI systems how to interact with people,
105
331280
3656
જ્યારે ભણવાની વાત આવે એઆઈ સિસ્ટમ્સ,
લોકો સાથે કેવી રીતે વાતચીત કરવી,
05:46
we have to teach them
step by step what to do.
106
334960
2856
આપણે તેમને શીખવવું પડશેપગલું દ્વારા પગલું
05:49
And right now, it feels clunky.
107
337840
3496
અને અત્યારે, તે અદભૂત લાગે છે.
05:53
If you've ever tried to talk
with Alexa, Siri or Google Assistant,
108
341360
4136
ક્યારેય પ્રયાસ કર્યોછે અથવા
ગૂગલ સહાયક સાથે
05:57
you can tell that it or they
can still sound cold.
109
345520
4200
તમે કહી શકો કે તે અથવા તેઓ
હજુ પણ ઠંડા અવાજ કરી શકો છો.
06:02
And have you ever gotten annoyed
110
350440
1656
અને તમે ક્યારેય નારાજ થયા છો?
06:04
when they didn't understand
what you were saying
111
352120
2256
જ્યારે તેઓ સમજી શક્યા નહીં
તમે શું કહેતા હતા.
06:06
and you had to rephrase what you wanted
20 times just to play a song?
112
354400
3840
અને તમારે જે જોઈએ તે ફરીથી
લખવું પડ્યું 20 વાર માત્ર ગીત વગાડવા માટે?
06:11
Alright, to the credit of the designers,
realistic communication is really hard.
113
359440
4896
ઠીક છે, ડિઝાઇનરોની ક્રેડિટ
માટે, વાસ્તવિક વાતચીત છે
06:16
And there's a whole branch of sociology,
114
364360
2136
અને સમાજશાસ્ત્રની આખી શાખા છે
06:18
called conversation analysis,
115
366520
1936
વાતચીત વિશ્લેષણ કહેવાય છે,
06:20
that tries to make blueprints
for different types of conversation.
116
368480
3136
તે બ્લુપ્રિન્ટ્સ બનાવવાનો પ્રયત્ન
કરે છે વિવિધ વિવિઘ માટે.
06:23
Types like customer service
or counseling, teaching and others.
117
371640
4080
ગ્રાહક સેવા જેવા પ્રકારો
અથવા પરામર્શ, શિક્ષણ અને અન્ય
06:28
I've been collaborating
with a conversation analyst at the lab
118
376880
2936
હું સહયોગ કરું છું લેબ પર
વાતચીત વિશ્લેષક સાથે
06:31
to try to help our AI systems
hold more human-sounding conversations.
119
379840
4696
અમારી એઆઈ સિસ્ટમોને
મદદ કરવાનો પ્રયાસ કરવો.
06:36
This way, when you have an interaction
with a chatbot on your phone
120
384560
3176
આ રીતે,જ્યારે તમારી
ક્રિયાપ્રતિક્રિયા હોય તમારા ફોન સાથે.
06:39
or a voice-based system in the car,
121
387760
1856
અથવા કારમાં વોઈસ આધારિત સિસ્ટમ
06:41
it sounds a little more human
and less cold and disjointed.
122
389640
3320
તે થોડી વધુ માનવ લાગે છે અને
ઓછી ઠંડી અને નિરાશ.
06:46
So I created a piece of art
123
394360
1336
તેથી મેં કલાનો એક ભાગબનાવ્યો
06:47
that tries to highlight
the robotic, clunky interaction
124
395720
2816
જે રોબોટિક પ્રકાશિત કરવાનો પ્રયાસ કરે છે .
06:50
to help us understand, as designers,
125
398560
1976
ડિઝાઇનર્સ તરીકે, અમને
સમજવામાં સહાય કરે.
06:52
why it doesn't sound human yet
and, well, what we can do about it.
126
400560
4576
તે હજી સુધી માનવ કેમ નથી
આપણે શું કરી શકીએ
06:57
The piece is called Bot to Bot
127
405160
1456
ટુકડાને બોટટુબોટકહેવામાંઆવે છે
06:58
and it puts one conversational
system against another
128
406640
2936
અને તે એક વાતચીત મૂકે છે બીજા સામે સિસ્ટમ
07:01
and then exposes it to the general public.
129
409600
2536
પછી તેને સામાન્ય લોકો સમક્ષ જાહેર કરે છે
07:04
And what ends up happening
is that you get something
130
412160
2496
અને શું થાય છે અંત કે તમને કંઈક મળે છે
07:06
that tries to mimic human conversation,
131
414680
1896
જે વાતચીતની નકલ કરવાનો પ્રયાસ કરે છે
07:08
but falls short.
132
416600
1896
પરંતુ ટૂંકા પડે છે
07:10
Sometimes it works and sometimes
it gets into these, well,
133
418520
2736
ક્યારેક તે કામ કરે છે અને ક્યારેક
તે આમાં જાય છે, સારું,
07:13
loops of misunderstanding.
134
421280
1536
ગેરસમજની આંટીઓ.
07:14
So even though the machine-to-machine
conversation can make sense,
135
422840
3096
તો પણ મશીન-થી-મશીન વાતચીતનો અર્થ થાય છે,
07:17
grammatically and colloquially,
136
425960
2016
વ્યાકરણ અને બોલચાલથી,
07:20
it can still end up
feeling cold and robotic.
137
428000
3216
તે હજી પણ સમાપ્ત થઈ શકે છે
ઠંડી અને રોબોટિક લાગણી
07:23
And despite checking all the boxes,
the dialogue lacks soul
138
431240
4016
તમામ તપાસ્યા છતાં સંવાદમાં અભાવ છે.
07:27
and those one-off quirks
that make each of us who we are.
139
435280
3136
અને તે એકમાત્ર આપણે બનાવીએ
કે આપણે કોણ છીએ.
07:30
So while it might be grammatically correct
140
438440
2056
તેથી જ્યારે તે વ્યાકરણરૂપે યોગ્ય હોઈ શકે
07:32
and uses all the right
hashtags and emojis,
141
440520
2656
અને બધા અધિકારનો ઉપયોગ કરે
છે હેશટેગ્સ અને ઇમોજીસ
07:35
it can end up sounding mechanical
and, well, a little creepy.
142
443200
4136
તે મેકેનિકલ અવાજને સમાપ્ત કરી
શકે છે અને, સારું, થોડું વિલક્ષણ.
07:39
And we call this the uncanny valley.
143
447360
2336
અને આપણે આને અસ્વસ્થ ખીણ કહીએ છીએ.
07:41
You know, that creepiness factor of tech
144
449720
1936
તમે જાણો છો, ટેકનો તે વિલક્ષણ પરિબળ
07:43
where it's close to human
but just slightly off.
145
451680
2856
માનવની નજીક છે પરંતુ માત્ર થોડી બંધ.
07:46
And the piece will start being
146
454560
1456
અને ભાગ હોવા શરૂ થશે
07:48
one way that we test
for the humanness of a conversation
147
456040
3216
આપણે ચકાસીએ છીએ એકરીત વાતચીતની માનવતા માટે
07:51
and the parts that get
lost in translation.
148
459280
2160
અને જે મળે છે ભાષાંતર દરમિયાન ગુમાવ્યું
07:54
So there are other things
that get lost in translation, too,
149
462560
2856
તો બીજી વસ્તુઓ પણ છે
અનુવાદમાં પણ ખોવાઈ જાય છે,
07:57
like human intuition.
150
465440
1616
માનવ અંતર્જ્ઞાન જેવી.
07:59
Right now, computers
are gaining more autonomy.
151
467080
2776
હમણાં, કમ્પ્યુટર વધુ સ્વાયત્તતા
મેળવી રહ્યા છે.
08:01
They can take care of things for us,
152
469880
1736
તેઓ અમારા માટેવસ્તુની
સંભાળ રાખી છે,
08:03
like change the temperature
of our houses based on our preferences
153
471640
3176
જેમ કે તાપમાનમાં ફેરફાર
અમારી પસંદગીઓ પર આધારિત અમારા ઘરો
08:06
and even help us drive on the freeway.
154
474840
2160
અને વાહન ચલાવવામાં પણ અમારી સહાય કરો.
08:09
But there are things
that you and I do in person
155
477560
2496
પરંતુ વસ્તુઓ છે કે તમે અને
હું રૂબરૂમાં કરીશું
08:12
that are really difficult
to translate to AI.
156
480080
2760
તે ખરેખર મુશ્કેલ છે એઆઈ
માં ભાષાંતર કરવા માટે
08:15
So think about the last time
that you saw an old classmate or coworker.
157
483440
4360
તમે કોઈ જુના સહાધ્યાયી
અથવા સહકાર્યકરો જોયા છે.
08:21
Did you give them a hug
or go in for a handshake?
158
489080
2480
તમે તેમને આલિંગન આપ્યું?
અથવા હેન્ડશેક માટે જાઓ છો?
08:24
You probably didn't think twice
159
492800
1496
તમે કદાચ બે વાર વિચાર્યું નહીં.
08:26
because you've had so many
built up experiences
160
494320
2336
કારણ કે તમારી પાસે ઘણા બધા
હતા બિલ્ટ અનુભવો
08:28
that had you do one or the other.
161
496680
2000
કે તમે એક અથવા બીજા કરી હતી.
08:31
And as an artist, I feel
that access to one's intuition,
162
499440
3456
અને એક કલાકાર તરીકે, હું અનુભવું છું
08:34
your unconscious knowing,
163
502920
1416
તમારા બેભાનને જાણીને.
08:36
is what helps us create amazing things.
164
504360
3056
તે છે જે અમને આકર્ષક
વસ્તુઓ બનાવવામાં મદદ કરે છે
08:39
Big ideas, from that abstract,
nonlinear place in our consciousness
165
507440
4056
મોટા વિચારો, તે અમૂર્તમાંથી,
અમારી ચેતનામાં લાઇનર સ્થાન
08:43
that is the culmination
of all of our experiences.
166
511520
2960
અમારા બધા અનુભવો છે.
08:47
And if we want computers to relate to us
and help amplify our creative abilities,
167
515840
4656
કમ્પ્યુટર્સ સાથે સંબંધ અને
વિસ્તૃત કરવામાં સહાય કરો
08:52
I feel that we'll need to start thinking
about how to make computers be intuitive.
168
520520
3896
આપણે વિચારવું પડશે
કમ્પ્યુટર કેવી રીતે બનાવવું
08:56
So I wanted to explore
how something like human intuition
169
524440
3096
તેથી હું શોધખોળ કરવા માંગતો હતો
08:59
could be directly translated
to artificial intelligence.
170
527560
3456
સીધી ભાષાંતર કરી શકાય છે
કૃત્રિમ બુદ્ધિ માટે
09:03
And I created a piece
that explores computer-based intuition
171
531040
3216
અને મેં એક ટુકડો બનાવ્યો
જે કમ્પ્યુટર આધારિત જ્ઞાન
09:06
in a physical space.
172
534280
1320
ભૌતિક જગ્યામાં
09:08
The piece is called Wayfinding,
173
536480
1696
અને તે એક સાંકેતિકહોકાયંત્ર થયેલ .
09:10
and it's set up as a symbolic compass
that has four kinetic sculptures.
174
538200
3936
તે એક સાંકેતિક હોકાયંત્ર તરીકે થયેલ છે
09:14
Each one represents a direction,
175
542160
2056
દરેક એક દિશા રજૂ કરે છે
09:16
north, east, south and west.
176
544240
2120
ઉત્તર, પૂર્વ, દક્ષિણ અને પશ્ચિમ
09:19
And there are sensors set up
on the top of each sculpture
177
547080
2696
અને ત્યાં સેન્સર ગોઠવાયા છે દરેક ટોચ પર
09:21
that capture how far away
you are from them.
178
549800
2256
કે કેપ્ચર કરે છે કે તમે તેમના તરફથી છો.
09:24
And the data that gets collected
179
552080
1816
અને ડેટા જે એકત્રિત થાય છે.
09:25
ends up changing the way
that sculptures move
180
553920
2136
માર્ગ બદલીને અંત થાય છે કે શિલ્પો ખસે છે.
09:28
and the direction of the compass.
181
556080
2040
અને હોકાયંત્રની દિશા.
09:31
The thing is, the piece doesn't work
like the automatic door sensor
182
559360
3656
વસ્તુ એ છે કે,સ્વચાલિત દરવાજા સેન્સરની જેમ
09:35
that just opens
when you walk in front of it.
183
563040
2656
તે હમણાં જ ખુલેછે જ્યારેતમે તેની સામે ચાલો
09:37
See, your contribution is only a part
of its collection of lived experiences.
184
565720
5056
જુઓ, તમારું યોગદાન માત્ર
એક ભાગ છે તેના જીવંત સંગ્રહનો
09:42
And all of those experiences
affect the way that it moves.
185
570800
4056
અને તે બધા અનુભવો તે ખસે છે
કે જે રીતે અસર કરે છે
09:46
So when you walk in front of it,
186
574880
1736
તેથી જ્યારે તમે તેની સામે ચાલો,
09:48
it starts to use all of the data
187
576640
1976
તે બધા ડેટાનો ઉપયોગ કરવાનું શરૂ કરે છે
09:50
that it's captured
throughout its exhibition history --
188
578640
2616
કે તે કબજે છે તેના સમગ્ર
પ્રદર્શન ઇતિહાસમાં -
09:53
or its intuition --
189
581280
1816
અથવા તેની પ્રેરણા.
09:55
to mechanically respond to you
based on what it's learned from others.
190
583120
3560
યાંત્રિક રીતે તમને જવાબ આપવા
માટે તે અન્ય લોકો પાસેથી શીખ્યા
09:59
And what ends up happening
is that as participants
191
587480
2536
અને શું થાય છે અંત તે સહભાગીઓ તરીકે છે.
10:02
we start to learn the level
of detail that we need
192
590040
2816
અમે સ્તર શીખવા માટે કે જે આપણને જોઈએ છે.
10:04
in order to manage expectations
193
592880
2016
અપેક્ષાઓ મેનેજ કરવા માટે.
10:06
from both humans and machines.
194
594920
2776
મનુષ્ય અને મશીનો બંનેમાંથી.
10:09
We can almost see our intuition
being played out on the computer,
195
597720
3616
આપણે જોઈ શકીએ છીએ કમ્પ્યુટર
પર રમી રહ્યું છે,
10:13
picturing all of that data
being processed in our mind's eye.
196
601360
3600
તે બધા ડેટાને દર્શાવતો આપણા
મનની આંખમાં પ્રક્રિયા થઈ રહી છે.
10:17
My hope is that this type of art
197
605560
1656
મારી આશા એ છે કે આ પ્રકારની કલા.
10:19
will help us think differently
about intuition
198
607240
2416
અમને અલગ વિચારવામાં મદદ કરશે .
10:21
and how to apply that to AI in the future.
199
609680
2280
અને તેને ભવિષ્યમાં એઆઇ
પર કેવી રીતે લાગુ કરવું.
10:24
So these are just a few examples
of how I'm using art to feed into my work
200
612480
3936
તેથી આ ઉદાહરણો છે હું કેવી
રીતે ખવડાવવા માટે કલાનો ઉપયોગ કરું છું
10:28
as a designer and researcher
of artificial intelligence.
201
616440
3096
ડિઝાઇનર અને સંશોધનકાર
તરીકે કૃત્રિમ બુદ્ધિ.
10:31
And I see it as a crucial way
to move innovation forward.
202
619560
3496
અને હું તેને નિર્ણાયક માર્ગ તરીકે
જોઉં છું નવીનતાને આગળ વધારવા માટે
10:35
Because right now, there are
a lot of extremes when it comes to AI.
203
623080
4376
જ્યારે તે AI ની વાત આવે
ત્યારે ઘણી બધી સમસીમાઓ છે.
10:39
Popular movies show it
as this destructive force
204
627480
2816
લોકપ્રિય મૂવીઝ તે બતાવે છે
આ વિનાશક બળ તરીકે
10:42
while commercials
are showing it as a savior
205
630320
3056
જ્યારે કમર્શિયલ તેને તારણહાર
તરીકે બતાવી રહ્યા છે
10:45
to solve some of the world's
most complex problems.
206
633400
2936
વિશ્વના કેટલાક હલ કરવા માટે
સૌથી જટિલ સમસ્યાઓ.
10:48
But regardless of where you stand,
207
636360
2536
પણ તમે ક્યાં ઉભા છો તેની અનુલક્ષીને,
10:50
it's hard to deny
that we're living in a world
208
638920
2176
તેનોઇનકારકરવોમુશ્કેલછે
આપણે દુનિયામાંજીવીએછીએ
10:53
that's becoming more
and more digital by the second.
209
641120
2576
તે વધુ બની રહ્યું છે અને
બીજા દ્વારા વધુ ડિજિટલ.
10:55
Our lives revolve around our devices,
smart appliances and more.
210
643720
4600
અમારું જીવન અમારા ઉપકરણોની આસપાસ ફરે છે,
સ્માર્ટ ઉપકરણો અને વગેરે .
11:01
And I don't think
this will let up any time soon.
211
649400
2320
અને મને નથી લાગતું આ
ટૂંક સમયમાં કોઈપણસમયે ચાલશે
11:04
So, I'm trying to embed
more humanness from the start.
212
652400
3736
તેથી, શરૂઆતથી હું પ્રયાસ કરી રહ્યો છું
11:08
And I have a hunch that bringing art
into an AI research process
213
656160
5136
અને મારી પાસે કૂતરો છે જે કળા લાવશે
એઆઈ સંશોધન પ્રક્રિયામાં
11:13
is a way to do just that.
214
661320
1896
તે કરવા માટેનો એક માર્ગ છે.
11:15
Thank you.
215
663240
1216
આભાર
11:16
(Applause)
216
664480
2280
(તાળીઓ).
Translated by Dhaval Tank
Reviewed by Darshil Patel

▲Back to top

ABOUT THE SPEAKER
Raphael Arar - Designer, researcher
IBM's Raphael Arar creates art and designs experiences that examine the complexities of our increasingly technocentric lives.

Why you should listen

While his artwork raises questions about our relationship with modernity and technology, Raphael Arar’s design work revolves around answering those questions in human-centered ways. 

Currently a designer and researcher at IBM Research, Arar has been exploring ways to translate aspects of emotional intelligence into machine-readable format. Through this, he is passionately tackling ethical platforms of artificial intelligence. Inc. Magazine says he "epitomizes the style and multi-disciplinary skill set of the modern designer," and in 2017, he was listed as one of Forbes's "30 under 30 in Enterprise Technology."

More profile about the speaker
Raphael Arar | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee