English-Video.net comment policy

The comment field is common to all languages

Let's write in your language and use "Google Translate" together

Please refer to informative community guidelines on TED.com

TEDIndia 2009

Pranav Mistry: The thrilling potential of SixthSense technology

༄༅། །དབང་པོ་ཨང་དྲུག་པའི་ལག་རྩལ་གྱི་ངོ་མཚར་ལྐོག་ནུས། པྲཱནབ་མིསིཐྲི་ནས།

Filmed
Views 16,209,805

TEDIndia ནང་པྲཱནབ་མིསིཐྲི་ཡིས་དངོས་གཟུཊ་དང་གཞི་གྲངས་འཇིག་རྟེན་འབྲེལ་རེས་ཐུབ་པའི་ཡོ་བྱད་འགའ་དཔེ་སྟོན་བྱས་ཡོད། འདིའི་ནང་ཁོའི་དབང་པོ་ཨང་དྲུག་པའི་སྒྲིག་ཆས་ལ་ཟབ་དཔྱད་དང་འདི་བཞིན་དུས་རབས་ལས་འདས་པའི་ཤོག་བུའི་རྩིས་འཁོར་སོཊ་ཚུད་ཡོད། ལྡིངས་ཆའི་ཐོག་གི་དྲི་ལན་ནང་མིསིཐྲི་ཡི་ཤོད་སྲོལ་ལྟར་ཁོས་དབང་པོ་ཨང་དྲུག་པའི་རྒྱབ་ཁོངས་ཀྱི་མཉེན་ཆས་ཁུངས་འགྲོལ་བྱེད་ནས་འབྱུང་སྲིད་པ་ཡོངས་རྣམ་པ་ཀུན་ཏུ་ཁྱབ་པར་མཆིས་སོ། །

- Director of research, Samsung Research America
As an MIT grad student, Pranav Mistry invented SixthSense, a wearable device that enables new interactions between the real world and the world of data. Full bio

We grew up
ང་ཚོ་ནི་མཐའ་འཁོར་གྱི་དངོས་པོ་དང་
00:15
interacting with the physical objects around us.
འབྲེལ་རེས་ཡོད་པའི་ཁོར་ཡུག་ཅིག་ནང་གནས་ཡོད།
00:17
There are an enormous number of them
དངོས་པོ་མང་པོ་ཞིག
00:20
that we use every day.
ང་ཚོས་རྒྱུན་དུ་བེད་སྤྱོད་གཏང་དགོས་པ་ཞིག་ཡིན།
00:22
Unlike most of our computing devices,
རྩིས་འཁོར་མཉེན་ཆས་མང་པོ་ཞིག་དང་བསྡུར་བ་ཡིན་ན་་་
00:24
these objects are much more fun to use.
དངོས་གཟུཊ་འདི་ཚོས་སྤྲོ་བ་མང་བ་ཞིག་སྟེར་ཐུབ།
00:27
When you talk about objects,
ང་ཚོས་དངོས་པོ་གླེང་བ་ཙམ་གྱིས་་་
00:30
one other thing automatically comes attached to that thing,
འདི་དང་འབྲེལ་བའི་བྱ་བ་གཞན་ཞིག་དྲན་སྲིད་དེ་་་
00:33
and that is gestures:
ལག་བརྡ་སྟེ་་་
00:36
how we manipulate these objects,
ང་ཚོས་དངོས་པོ་འདི་ཚོ་བེད་སྤྱོད་ཇི་ལྟར་གཏང་ཚུལ་ལ་གོ།
00:38
how we use these objects in everyday life.
ང་ཚོས་ནམ་རྒྱུན་གྱི་འཚོ་བའི་ནང་དངོས་པོ་འདི་ཚོ་བེད་སྤྱོད་ཇི་ལྟར་བྱེད་ཀྱི་ཡོད་དམ།
00:40
We use gestures not only to interact with these objects,
ང་ཚོས་ལག་བརྡ་འདྲ་མིན་སྣ་ཚོགས་ཀྱིས་དངོས་པོ་སྤྱོད་ཀྱི་ཡོད་པ་མ་ཟད།
00:43
but we also use them to interact with each other.
དེས་མི་གཞན་དང་འབྲེལ་གཏུག་བྱེད་ཀྱི་ཡོད།
00:46
A gesture of "Namaste!", maybe, to respect someone,
ཐལ་མོའི་ཕྱག་རྒྱ་ནི་གཞན་ལ་གུས་བཀུར་ཞུས་པ་མཚོན་པ་དང་་་
00:48
or maybe --
དེ་མིན་ན་ད་དུང་་་
00:51
in India I don't need to teach a kid that this means
རྒྱ་གར་ལ་ཡིན་ན་བསླབ་མི་དགོས་པར་བྱི་པ་ཚང་མས་ཤེས་གསལ་ལ་འདི་ནི་་་་
00:52
"four runs" in cricket.
པང་གྲུག་ནང་གི་ ༼ ༤ ༽ ཡི་དོན་ཡིན།
00:54
It comes as a part of our everyday learning.
འདི་ནི་ང་ཚོའི་འཚོ་བའི་རྒྱུན་ཤེས་ཤིག་ཡིན།
00:56
So, I am very interested,
བྱས་ཙང་དུས་དང་པོ་ནས་ང་རང་འདིར་དབྱིངས་འཕར་ཚར་སོང་།
00:59
from the beginning, that how --
ངས་ཤེས་འདོད་པ་ནི་་་
01:01
how our knowledge
རྒྱུན་སྤྱོད་དངོས་རྫས་དང་
01:03
about everyday objects and gestures,
ལག་བརྡའི་ཐོག་ང་ཚོའི་ངོས་འཛིན་དེ་དང་་་
01:05
and how we use these objects,
དེ་མིན་ད་དུང་ང་ཚོས་ཇི་ལྟར་བྱེད་ནས་དངོས་པོ་འདི་ཚོ་བཀོལ་སྤྱོད་བྱེད་དེ་་་
01:07
can be leveraged to our interactions with the digital world.
ང་ཚོ་རང་ཉིད་དང་ཨང་ཀིའི་འཇིག་རྟེན་བར་འབྲེལ་བ་འཛུཊ་པ།
01:09
Rather than using a keyboard and mouse,
མཐེབ་གཞོང་དང་ཙི་གུ་མེད་ན་་་
01:12
why can I not use my computer
ངས་རྩིས་འཁོར་སྤྱད་མི་ཐུབ་ཨེ་ཡིན།
01:15
in the same way that I interact in the physical world?
རྩིས་འཁོར་དང་འབྲེལ་རེས་ཐུབ་པ་ལྟར་དངོས་གཟུཊ་འཇིག་རྟེན་དང་འབྲེལ་བ་འགྲུབ་མི་ཐུབ་པ་ཅི་ཡིན།
01:18
So, I started this exploration around eight years back,
དེར་རྟེན་ངའི་ཞིབ་འཇུག་ལོ་བརྒྱད་ཀྱི་སྔོན་ནས་འགོ་བཙུཊ་ཡོད་དེ་་་
01:21
and it literally started with a mouse on my desk.
ངའི་ཅོག་སྟེངས་ཀྱི་ཙི་གུ་ནས་འགོ་བཙུཊ་པ་ལས་་་
01:24
Rather than using it for my computer,
རྩིས་འཁོར་གྱི་བརྙན་ཡོལ་སྒང་འདི་བེད་སྤྱོད་བྱས་མེད།
01:27
I actually opened it.
ངས་ཙི་གུ་དེ་ཁ་ཕྱེ་པ་ཡིན།
01:30
Most of you might be aware that, in those days,
ཁྱེད་རྣམ་པས་མཁྱེན་གསལ་ལྟར་དུས་རབས་དེའི་་་
01:33
the mouse used to come with a ball inside,
ཙི་གུའི་ནང་སྤོ་ལོ་ཞིག་ཡོད་པ་མ་ཟད་་་
01:35
and there were two rollers
འགྲིལ་འཁོར་གཉིས་ཡོད།
01:37
that actually guide the computer where the ball is moving,
བྱས་ཙང་ཙི་གུ་ལ་འགུལ་བ་ཐེབས་དུས།
01:39
and, accordingly, where the mouse is moving.
འགྲིལ་འཁོར་གྱིས་འགྲིལ་བའི་ཁ་ཕྱོཊ་རྩིས་འཁོར་ལ་ཁ་གསལ་བྱ་ཐུབ།
01:42
So, I was interested in these two rollers,
ང་འགྲིལ་འཁོར་ལ་དབྱིངས་བཞུཊ་མོད་་་
01:44
and I actually wanted more, so I borrowed another mouse from a friend --
འོན་ཏེ་དེ་ལས་མང་བ་ཞིག་དགོས་འདུག་པས་གྲོགས་པའི་ཕྱོཊ་ནས་གཡས་པ་ཡིན།
01:47
never returned to him --
ད་དུང་ཡང་ཕར་སྤྲད་རྒྱུ་མ་བྱུང་།
01:50
and I now had four rollers.
འདི་འདྲ་ཡིན་ན་འགྲིལ་འཁོར་བཞི་ཡོད་པ་དང་་་
01:52
Interestingly, what I did with these rollers is,
ད་འདི་ཚོ་བེད་སྤྱོད་ཇི་ལྟར་གཏང་དགོས་རེད་ཅེ་ན་་་
01:54
basically, I took them off of these mouses
སྤྱིར་བཏང་བྱས་ན་ངས་འདི་ཚོ་ཙི་གུ་ནས་མར་བཏོན་ནས་་་
01:57
and then put them in one line.
ཐིག་གཅིག་སྒང་ལ་བཞག་གི་ཡོད།
02:00
It had some strings and pulleys and some springs.
འདི་གར་ཡོད་པ་ནི་སྐུད་པ་རེ་ཞིག་དང་འདྲེད་ཐག་དང་ལྡེམ་ལྕཊ་བཅས་ཡིན།
02:02
What I got is basically a gesture interface device
ངས་ལག་བརྡ་མྱུལ་ཞིབ་ཐུབ་པའི་མཐུད་ཁའི་སྒྲིག་ཆས་ཤིག་བཟོས་པ་ཡིན།
02:05
that actually acts as a motion-sensing device
བྱ་འགུལ་མྱུལ་ཞིབ་སྒྲིག་ཆས་ཤིག་དང་འདྲ་པོ་ཡོད།
02:08
made for two dollars.
མ་གནས་ལ་ཨ་སྒོར་གཉིས་ལས་མི་དགོས།
02:12
So, here, whatever movement I do in my physical world
དེར་རྟེན་ད་ལྟ་ངས་དངོས་གཟུཊ་འཇིག་རྟེན་ནང་གང་ཞིག་བྱས་ཀྱང་་་
02:14
is actually replicated inside the digital world
ཨང་ཀིའི་འཇིག་རྟེན་ནང་འདི་བཞིན་འཆར་ཡོང་གི་རེད།
02:17
just using this small device that I made, around eight years back,
ངས་ལོ་བརྒྱད་ཀྱི་སྔོན་ནས་བཟོས་པའི་ཡོ་བྱད་ཆུང་ངུ་དེ་བེད་སྤྱད་ན་འགྲིག
02:20
in 2000.
དེ་ནི་ ༢༠༠༠ ལོ་ལ་ཡིན།
02:23
Because I was interested in integrating these two worlds,
ང་ནི་དངོས་གཟུཊ་དང་ཨང་ཀིའི་འཇིག་རྟེན་སྒྲིག་སྦྱོར་བྱ་རྒྱུར་མོས་པ་ཡོད།
02:25
I thought of sticky notes.
ངས་སྦྱར་ཤོག་དྲན་པ་དང་་་
02:27
I thought, "Why can I not connect
དེ་འདྲ་ཞིག་བསམས་བྱུང་སྟེ་་་
02:29
the normal interface of a physical sticky note
དངོས་གཟུཊ་སྦྱར་ཤོག་གི་མཐུད་ཁ་དང་་་
02:32
to the digital world?"
ཨང་ཀིའི་སྦྱར་ཤོག་ཕན་ཚུན་སྒྲིག་སྦྱོར་མ་བྱས་པ་ཅི་ཡིན།
02:34
A message written on a sticky note to my mom
སྦྱར་ཤོག་ཐོག་མ་ཡུམ་ལ་བཞག་པའི་བརྡ་ཞིག
02:36
on paper
ཤོག་བུའི་ཐོག
02:38
can come to an SMS,
འཕྲིན་ཐུང་གིས་བརྒྱུད་བསྐུར་བྱ་ཐུབ།
02:39
or maybe a meeting reminder
དེ་མིན་ཤོག་བུའི་ཐོག་བྲིས་པའི་ཚོཊ་འདུའི་བརྡ་ཐོ་ནི་་་
02:41
automatically syncs with my digital calendar --
རང་འགུལ་ངང་ངའི་ཨང་ཀིའི་ལས་ཐོ་དང་གོམ་མཉམ་དུ་གྲུབ་པ།
02:43
a to-do list that automatically syncs with you.
འགྲུབ་རྒྱུའི་ལས་དོན་རང་འགུལ་ངང་རྩིས་འཁོར་ནང་གོམ་མཉམ་བྱེད་ཀྱི་ཡོད།
02:45
But you can also search in the digital world,
འོན་ཏེ་ཁྱོད་ཀྱིས་ཨང་ཀིའི་ཁོར་ཡུག་ནང་ཞིབ་འཚོལ་ཡང་བྱ་ཐུབ།
02:48
or maybe you can write a query, saying,
ཡང་འོ་ན་ཁྱོད་ཀྱིས་དྲི་བ་ཡང་བཀོད་ཆོག་སྟེ་་་
02:51
"What is Dr. Smith's address?"
དཔེར་ན། མཁས་དབང་སིམིསི་ལཊ་ཀྱི་གནས་ཡུལ་གང་ཡིན་ཞེས་པ་ལྟར།
02:53
and this small system actually prints it out --
དེ་རྗེས་མ་ལག་ཆུང་ངུ་འདིས་གནས་ཡུལ་ལྕཊ་པར་བརྒྱབ་ཀྱི་ཡོད།
02:55
so it actually acts like a paper input-output system,
འདི་ནི་ཤོག་བུས་བཟོས་པའི་ནང་འཇུག་ཕྱིར་འདོན་མ་ལག་ཅིག་དང་མཚུངས།
02:57
just made out of paper.
ཤོག་བུ་ཁོ་ནས་བཟོ་ཐུབ་ཀྱི་རེད།
02:59
In another exploration,
ཞིབ་འཇུག་གཞན་ཞིག་ནི་་་
03:05
I thought of making a pen that can draw in three dimensions.
རྩ་༣་གྱི་ནུས་འབྲས་གདོན་ཐུབ་པའི་སྨྱུ་གུ་ཞིག་སྤྱད་རྒྱུར་ཡིད་ལ་འཆར།
03:07
So, I implemented this pen
དེར་རྟེན་སྨྱུ་གུ་འདི་ཇུས་བཀོད་པ་ཡིན།
03:10
that can help designers and architects
འདིས་ཇུས་འགོད་མཁན་དང་ཨར་སྐྲུན་མཁན་གྱིས་་་
03:12
not only think in three dimensions,
རྩ་གསུམ་བར་ཁམས་གྱིས་བསམ་བློ་གཏང་ཐུབ་པ་མ་ཟད་་་
03:14
but they can actually draw
རྩ་༣་གྱི་རི་མོའང་བྲིས་ཐུབ་པར་ཕན་ཁ་ཆེ།
03:16
so that it's more intuitive to use that way.
འདི་འདྲ་སྤྱད་ན་ཚོར་ཤེས་དེ་བས་ཐད་ཀར་བྱུང་སྲིད།
03:18
Then I thought, "Why not make a Google Map,
ཡང་ངའི་སེམས་ལ་དངོས་གཟུཊ་འཇིག་རྟེན་གྱི་་་
03:20
but in the physical world?"
དགོས་དགུའི་ས་བཀྲ་ཞིག་མ་བསྐྲུན་པ་ཅི་ཡིན་བསམས་བྱུང་།
03:22
Rather than typing a keyword to find something,
གནད་ཚིག་གཏག་ནས་ཅ་ལག་འཚོལ་མི་དགོས་པར་་་
03:24
I put my objects on top of it.
ཅ་ལག་འདི་ས་བཀྲའི་སྒང་ལ་བཞག་ན་འགྲིག
03:27
If I put a boarding pass, it will show me where the flight gate is.
གལ་སྲིད་ངས་གནམ་གྲུའི་ཞུཊ་འཛིན་ས་བཀྲའི་སྒང་ལ་བཞག་ན་དེས་འཛུལ་སྒོའི་གནས་ས་མངོན་ཐུབ།
03:29
A coffee cup will show where you can find more coffee,
ཚིག་ཇའི་དཀར་ཡོལ་ཞིག་བཞག་ན་ཚིག་ཇ་ཁང་ཞིག་གི་གནས་ས་མངོན་པའམ་་་
03:32
or where you can trash the cup.
ཡང་འོ་ན་གད་སྙིཊ་བླུཊ་ས་ཞིག་གསལ་ནུས།
03:35
So, these were some of the earlier explorations I did because
འདི་ཚོ་ནི་སྔོན་དུས་ངས་བྱས་པའི་ཚོད་ལྟ་ཡིན།
03:37
the goal was to connect these two worlds seamlessly.
ངའི་དམིགས་ཡུལ་ནི་འཇིག་རྟེན་འདི་གཉིས་ཟུང་འབྲེལ་དམ་པོར་བྱ་རྒྱུ་དེ་ཡིན།
03:40
Among all these experiments,
ཚོད་ལྟ་འདི་ཚོའི་ནང་་་་
03:44
there was one thing in common:
མཉམ་མཐུན་གྱི་གནད་ཅིག་ཡོད་དེ་་་
03:46
I was trying to bring a part of the physical world to the digital world.
ངས་དངོས་གཟུཊ་ལྡན་པའི་ཅ་ལག་ཨང་ཀིའི་ཁོར་ཡུག་ནང་དུ་དྲངས་ཀྱི་ཡོད།
03:48
I was taking some part of the objects,
ངས་དངོས་པོའམ་་་
03:52
or any of the intuitiveness of real life,
འཚོ་བའི་ནང་ཐད་ཚོར་ཚུལ་གྱི་ཅ་ལག་་་
03:55
and bringing them to the digital world,
ཨང་ཀིའི་འཇིག་རྟེན་ནང་དྲངས་ཀྱི་ཡོད།
03:58
because the goal was to make our computing interfaces more intuitive.
དམིགས་ས་ནི་རྩིས་འཁོར་གྱི་མཐུད་ཁ་དེ་བས་མི་གཤིས་ཅན་དུ་འགྱུར་ཆེད་ཡིན།
04:01
But then I realized that we humans
ཡིན་ནའང་རྗེས་སུ་ཤེས་རྟོཊ་བྱུང་བ་ནི་་་
04:04
are not actually interested in computing.
མི་རྣམས་རྩིས་འཁོར་ལ་དབྱིངས་མེད་ལ།
04:06
What we are interested in is information.
ཁོང་ཚོའི་དབྱིངས་བཞུཊ་ས་ནི་ཆ་འཕྲིན་རེད།
04:09
We want to know about things.
ང་ཚོས་དེ་ལས་མང་བའི་གནས་ཚུལ་ཤེས་པར་འདོད།
04:12
We want to know about dynamic things going around.
དེ་ལས་མང་བའི་ཉེ་འཁོར་གྱི་འགུལ་རྣམ་རྟོཊ་པར་སྙམ།
04:14
So I thought, around last year -- in the beginning of the last year --
བྱས་ཙང་ཕལ་ཆེར་ན་ནིང་ལོའི་ལོ་འགོའི་མཚམས་སུ་་་
04:16
I started thinking, "Why can I not take this approach in the reverse way?"
ངའི་སེམས་ལ་ཞིབ་འཇུག་གྱི་ཁ་ཕྱོཊ་མ་བསྒྱུར་བ་ཅི་ཡིན་བསམས་བྱུང་སྟེ་་་
04:21
Maybe, "How about I take my digital world
ཡང་མིན་ན་ཨང་ཀིའི་འཇིག་རྟེན་གྱི་གྲངས་ཀའི་ཆ་འཕྲིན་་་་
04:24
and paint the physical world with that digital information?"
དངོས་གཟུཊ་འཇིག་རྟེན་ནང་བཀོད་རིས་བྱ་བ།
04:27
Because pixels are actually, right now, confined in these rectangular devices
བརྙན་རིས་འདི་ཚོ་ཚང་མ་སྒྲིག་ཆས་གྲུ་བཞི་མ་འདི་ཚོའི་ནང་བཏུམས་བཞག་ནས་་་
04:32
that fit in our pockets.
སྦ་ཁུག་ནང་བླུཊ་བཞག་གི་ཡོད།
04:36
Why can I not remove this confine
ད་འོ་ན་ངས་གཟུཊ་དབྱིབས་འདི་འདྲ་ཞིག་གཏོར་ནས་་་
04:38
and take that to my everyday objects, everyday life
ཆ་འཕྲིན་རྣམས་ནམ་རྒྱུན་འཚོ་བའི་ནང་བཅུག་ན་གང་ཡོད།
04:41
so that I don't need to learn the new language
འདི་འདྲ་ཡིན་ན་ངས་བརྙན་རྒྱུ་དང་་་
04:44
for interacting with those pixels?
འབྲེལ་བ་བྱ་ཆེད་ཀྱི་སྐད་གསར་ཞིག་སྦྱང་མི་དགོས།
04:46
So, in order to realize this dream,
རྨི་འདུན་འདི་གྲུབ་ཆེད་་་
04:50
I actually thought of putting a big-size projector on my head.
ངས་ངོ་མ་བརྙན་སྟོན་འཕྲུལ་འཁོར་མགོ་སྟེང་ལ་གཞག་དགོས་བསམས།
04:52
I think that's why this is called a head-mounted projector, isn't it?
འདི་ནི་མགོ་སྟེཊ་བརྙན་སྟོན་འཕྲུལ་འཁོར་གྱི་དོན་སྙིང་ཡིན་གྱི་རེད།
04:55
I took it very literally,
ངས་ཡི་གེའི་ནང་དོན་ལྟར་གཅིག་བཟོས་པ་ཡིན།
04:58
and took my bike helmet,
ངས་རྐང་འཁོར་གྱི་རྨོག་དེ་ཏོག་ཙམ་བཅད་ནས་་་
05:00
put a little cut over there so that the projector actually fits nicely.
བརྙན་སྟོན་འཕྲུལ་འཁོར་ནང་དུ་བླུཊ་ཐུག་པར་བྱས།
05:02
So now, what I can do --
འདི་འདྲ་ཡིན་ན་ངའི་འཇིག་རྟེན་དངོས་ནང་་་
05:05
I can augment the world around me with this digital information.
ཨང་ཀིའི་བརྡ་འཕྲིན་གྱིས་སྐོར་ནས་སྡོད་ཐུབ།
05:07
But later,
འོན་ཀྱང་ཕྱིས་སུ་ངའི་བསམ་པར་་་
05:11
I realized that I actually wanted to interact with those digital pixels, also.
རྩིས་འཁོར་བརྙན་རྒྱུ་འདི་ཚོ་དང་འབྲེལ་གཏུག་བྱེད་དགོས་རེད་སྙམ།
05:13
So I put a small camera over there,
བྱས་ཙང་ངས་བརྙན་ལེན་འཕྲུལ་འཁོར་ཆུང་ཆུང་ཞིག་བསྒར་ནས་་་
05:16
that acts as a digital eye.
ཨང་ཀིའི་མིག་ཞིག་ཏུ་བརྩིས་པར་ཆ་བཞག
05:18
Later, we moved to a much better,
འདི་རྗེས་ང་ཚོས་མུ་མཐུད་ནས་དེ་ལས་ལེཊ་པའི་་་
05:20
consumer-oriented pendant version of that,
སྤྱོད་མཁན་ལ་དམིགས་པའི་སྐེ་འདོཊ་ཅན་ཏེ་་་
05:22
that many of you now know as the SixthSense device.
མི་མང་ཆེས་མཁྱེན་གསལ་གྱི་༼དབང་པོ་ཨང་དྲུག་པའི་སྒྲིག་ཆས༽སོ། །
05:24
But the most interesting thing about this particular technology
ལག་རྩལ་འདིའི་ཆེས་སྤྲོ་བའི་གནད་ཀ་ཞིག་ནི་་་
05:27
is that you can carry your digital world with you
ཁྱོད་ཀྱིས་ཨང་ཀིའི་འཇིག་རྟེན་འཁྱེར་ནས་འགྲོ་ཆོག
05:30
wherever you go.
ས་ཆ་གང་དུ་ཡིན་ཡང་འགྲིག་གི།
05:34
You can start using any surface, any wall around you,
ངོས་ཅི་འདྲ་ཞིག་དང་གྱང་ཇི་འདྲ་ཞིག་ཡིན་ནའང་་་
05:36
as an interface.
མཐུད་ངོས་སུ་བརྩིས་ཆོག
05:39
The camera is actually tracking all your gestures.
བརྙན་ལེན་འཕྲུལ་འཁོར་འདིས་ག་དུས་ཡིན་ཡང་རང་གི་བྱ་འགུལ་ལ་མྱུལ་ཞིབ་བྱེད་ཀྱི་ཡོད།
05:41
Whatever you're doing with your hands,
ལག་པས་ག་རེ་བྱེད་ཀྱིན་ཡོད་ཀྱང་་་
05:44
it's understanding that gesture.
ཁོས་ཚང་མ་རྟོགས་སྲིད།
05:46
And, actually, if you see, there are some color markers
ད་དུང་ཁྲ་སྨྱུག་དེ་ཚོར་གཟིཊ་དང་་་
05:48
that in the beginning version we are using with it.
དེ་ཚོ་ནི་ང་ཚོས་སྔོན་དུས་སུ་བཀོལ་སྤྱོད་བྱས་ཀྱི་ཡོད།
05:50
You can start painting on any wall.
གྱང་གང་འདྲ་ཞིག་ཡིན་ཡང་དེའི་ཐོག་ལ་རིས་མོ་འབྲི་ཐུབ།
05:53
You stop by a wall, and start painting on that wall.
གྱང་མདུན་དུ་ལང་ནས་རི་མོ་འབྲི་ཆོག
05:55
But we are not only tracking one finger, here.
ང་ཚོས་མཛུབ་མོ་རྐང་གཅིག་ལ་མྱུལ་ཞིབ་བྱེད་ཐུབ་པ་མ་ཟད་་་
05:58
We are giving you the freedom of using all of both of your hands,
ཁྱོད་ཀྱིས་ལག་པ་གཉིས་ཀས་འགུལ་བ་ལའང་དཔྱད་ནུས།
06:00
so you can actually use both of your hands to zoom into or zoom out
དེར་རྟེན་ལག་གཉིས་ཀྱི་སོར་མོས་བཙིར་འཐེན་བྱེད་ནས་་་
06:04
of a map just by pinching all present.
ཆེ་གཏོང་དང་ཆུང་གཏོང་བྱ་ཐུབ།
06:07
The camera is actually doing --
བརྙན་ལེན་འཕྲུལ་འཁོར་གྱིས་་་
06:09
just, getting all the images --
བརྙན་པར་ཚང་མ་འདུ་གསོག་བྱེད་ཀྱི་ཡོད་པ་དང་་་
06:12
is doing the edge recognition and also the color recognition
མུ་མཚམས་ངོས་འཛིན་དང་ཁ་མདོག་ངོས་འཛིན་ཡང་བྱེད་ཀྱི་ཡོད།
06:13
and so many other small algorithms are going on inside.
བྱ་རིམ་ཆུང་ངུ་མང་པོ་ཞིག་འདིའི་ནང་འཁོར་སྐྱོད་བྱེད་བཞིན་ཡོད།
06:16
So, technically, it's a little bit complex,
ལག་རྩལ་ཐོག་རྙོག་འཛིང་ཏོག་ཙམ་ཡིན་མོད།
06:19
but it gives you an output which is more intuitive to use, in some sense.
འོན་ཀྱང་མི་རྣམས་ཀྱི་རང་བཞིན་ངང་སྤྱད་ཐུབ།
06:21
But I'm more excited that you can actually take it outside.
དེ་བས་དགའ་ཚོར་སྐྱེས་དགོས་པ་ཞིག་ནི་འདི་ཕྱི་ལོག་ལ་ཁྱེར་ཆོག
06:24
Rather than getting your camera out of your pocket,
སྦ་ཁུག་ནང་ནས་པར་ཆས་གཏོན་མི་དགོས་པར་་་
06:27
you can just do the gesture of taking a photo
པར་རྒྱག་པའི་ལག་བརྡ་ཞིག་བྱུང་ན་་་
06:30
and it takes a photo for you.
འདིས་རང་ལ་པར་ཞིག་ལེན་ཐུབ།
06:33
(Applause)
( ཐལ་མོའི་རྡེབ་སྒྲ )
06:35
Thank you.
ཐུགས་ཆེ་གནང་།
06:39
And later I can find a wall, anywhere,
པར་བརྒྱབ་ཚར་རྗེས་ངས་གྱང་ཞིག་གང་བྱུང་དུ་བཙལ་ནས་་་
06:41
and start browsing those photos
པར་འདི་ཚོ་ལ་ལྟ་བར་བྱས།
06:43
or maybe, "OK, I want to modify this photo a little bit
དེ་མིན་ད་དུང་སྒྱུར་བཅོས་ཅུང་ཟད་གཏང་ནས་་་
06:45
and send it as an email to a friend."
གློག་འཕྲིན་བརྒྱུད་དེ་གྲོཊ་པོ་ཚོར་བསྐུར་འདོད།
06:47
So, we are looking for an era where
ང་ཚོས་རེ་འདོད་བྱེད་པ་ནི་རྩིས་བགྲང་དང་་་
06:49
computing will actually merge with the physical world.
དངོས་གཟུཊ་འཇིག་རྟེན་མཉམ་བསྲེས་ཀྱི་དུས་རབས་ཤིག་ཡིན།
06:52
And, of course, if you don't have any surface,
གལ་སྲིད་ཁྱོད་ལ་ངོས་ལེབ་མེད་ན་་་
06:55
you can start using your palm for simple operations.
ལག་མཐིལ་གྱིས་ཀྱང་བྱེད་ནུས་སྟབས་བདེ་དག་ཐག་གཅོད་བྱ་ཐུབ།
06:58
Here, I'm dialing a phone number just using my hand.
ངས་འདི་གར་ལག་པ་ཁོ་ནས་ཁ་པར་བརྒྱག་ཆོག
07:01
The camera is actually not only understanding your hand movements,
བརྙན་ལེན་འཕྲུལ་འཁོར་གྱིས་ལག་པའི་བྱ་འགུལ་ཤེས་ཐུབ་པ་མ་ཟད་་་
07:07
but, interestingly,
ད་དུང་་་
07:10
is also able to understand what objects you are holding in your hand.
རང་གི་ལག་པར་གང་ཞིག་ཉར་ཡོད་པ་ཧ་གོ་ཡི་ཡོད།
07:11
What we're doing here is actually --
ང་ཚོས་ད་ལྟ་བྱེད་བཞིན་པ་ནི་་་
07:14
for example, in this case,
དཔེ་ཞིག་བཞག་ན་འདི་གར་་་
07:17
the book cover is matched
དེབ་འདིའི་ཁ་ཤོག་དང་་་
07:19
with so many thousands, or maybe millions of books online,
སྐུད་ཐོག་གི་དེབ་ཁྲི་ཚོ་མང་པོའི་ཁ་ཤོག་དང་གཤིབ་བསྡུར་བྱེད་བཞིན་་་
07:21
and checking out which book it is.
དེབ་འདི་ནི་ག་འདི་ཡིན་པར་འཚོལ་ཞིབ་བྱེད་ཀྱིན་ཡོད།
07:24
Once it has that information,
གྲངས་གཞི་བཙལ་ཐུབ་མ་ཐག
07:26
it finds out more reviews about that,
དེས་དེབ་འདིར་བཞག་པའི་དཔྱད་བརྗོད་མཐོང་ཐུབ།
07:27
or maybe New York Times has a sound overview on that,
ཡང་མིན་ན་ནེའུ་ཡོག་དུས་ཐོག་ཚཊ་པར་ནང་སྒྲ་བཅས་གསལ་བཤད་ཅིག་ཡོད་ན་་་
07:29
so you can actually hear, on a physical book,
རང་གིས་དངོས་གཟུཊ་དེབ་ནང་ནས་་་
07:32
a review as sound.
སྒྲ་བཅས་གྱི་དཔྱད་བརྗོད་ཉན་ཐུབ།
07:34
("famous talk at Harvard University ...")
(ཧབོརྡ་སློབ་ཆེན་གྱི་འཆད་ཁྲིད་གྲགས་ཅན་་་)
07:36
This was Obama's visit last week to MIT.
འདི་ནི་སྲིད་འཛིན་ཨོཔཱམ་གཟའ་འཁོར་སྔོན་དེར་MITལ་གསུང་བཤད་གནང་བ་དེ་རེད།
07:38
("... and particularly I want to thank two outstanding MIT ...")
(་་་ངས་ཆེད་མངཊ་ཐུཊ་རྗེ་ཆེ་ཞུ་དགོས་པ་ནི་MITཡི་ཕུལ་བྱུང་གི་་་)
07:42
So, I was seeing the live [video] of his talk, outside, on just a newspaper.
ངས་ཚཊ་པར་ཐོག་ཁོང་གི་གསུང་བཤད་ཀྱི་སྐབས་ཐོག་བརྙན་ཕབ་མཐོང་ཐུབ།
07:46
Your newspaper will show you live weather information
རང་གི་ཚཊ་པར་གྱིས་འགུལ་རྣམ་ཅན་གྱི་གནམ་གཤིས་སྔོན་བརྡ་སྟོན་ཐུབ།
07:51
rather than having it updated -- like, you have to check your computer
གྲངས་གཞི་གསར་བརྗེ་བྱ་མི་དགོས། དེ་སྔོན་ཡིན་ན་་་
07:54
in order to do that, right?
རྩིས་འཁོར་བཀོལ་ན་མ་གཏོཊ་བཙལ་ཁག་པོ་རེད། འདི་འདྲ་ཨེ་རེད།
07:57
(Applause)
( ཐལ་མོའི་རྡེབ་སྒྲ )
07:59
When I'm going back, I can just use my boarding pass
ང་རྒྱ་གར་དུ་ལོག་སྐབས་གནམ་གྲུའི་ཞུཊ་འཛིན་གདོན་པ་ཙམ་གྱིས་་་
08:04
to check how much my flight has been delayed,
རང་ཉིད་ཀྱི་འཕུར་ཐེངས་འདི་དུས་འགྱངས་བྱེད་ཡོད་མེད་ཤེས་ཐུབ།
08:07
because at that particular time,
དུས་ཚོད་འདི་འདྲ་ཞིག་ལ་་་
08:09
I'm not feeling like opening my iPhone,
ངས་ཀུ་ཤུའི་ཁ་པར་ཕྱེ་བར་མ་འདོད་ལ་་་
08:11
and checking out a particular icon.
བྱེད་ནུས་ཀྱི་རྟཊ་རིས་ག་གེ་མོ་ཞིག་ལའང་མནན་བདམས་བྱས་པ་འདོད།
08:13
And I think this technology will not only change the way --
ལག་རྩལ་འདིས་ཐབས་ལམ་བསྒྱུར་ཐུབ་པ་དང་་་
08:15
yes. (Laughter)
ངོ་མ་ཡ་་་( དགོད་སྒྲ )
08:18
It will change the way we interact with people, also,
འདི་བཞིན་ང་ཚོའི་མི་དང་འབྲེལ་གཏུག་གི་ཐབས་ལམ་ཡང་བསྒྱུར་ནུས།
08:20
not only the physical world.
འདི་ནི་དངོས་གཟུཊ་ཀྱི་འཇིག་རྟེན་གཅིག་བུའི་ནང་མིན།
08:22
The fun part is, I'm going to the Boston metro,
ངས་པོསིཏོན་གྱི་ས་འོག་ལྕཊ་ལམ་ནང་སྣང་བ་སྐྱིད་པོའི་ངང་་་
08:24
and playing a pong game inside the train
ཐེབས་པད་བརྩེས་པ་ཡིན།
08:27
on the ground, right?
སའི་ངོས་ལ། གང་འདྲ་འདུག་གམ།
08:30
(Laughter)
( དགོད་སྒྲ )
08:32
And I think the imagination is the only limit
ལག་རྩལ་འདིའི་རིཊ་དང་དངོས་གཟུཊ་ཀྱི་འཚོ་བ་བསྲེས་ན་་་
08:33
of what you can think of
བསམ་པའི་བཀོད་ཤུཊ་ནི་ང་ཅག་ཚོད་འཛིན་ཐུབ་པའི་་་
08:35
when this kind of technology merges with real life.
ནུས་སྟོབས་ཉག་གཅིག་ཡིན་པར་ང་རང་ལ་ཡིད་ཆེས་ཡོད།
08:37
But many of you argue, actually, that
འོན་ཏེ་མི་མང་པོས་ཟེར་དོགས་ཁ་པོ་ནི་་་
08:39
all of our work is not only about physical objects.
ངའི་ལས་ཀ་དེ་དངོས་གཟུཊ་ཅ་དངོས་དང་འབྲེལ་བ་དེ་ཙམ་མེད་་་
08:41
We actually do lots of accounting and paper editing
ངའི་ལས་ཀ་ནི་རྩིས་བཤེར་དང་རྩོམ་སྒྲིག་སོཊ་ལྟ་བུ་ཡིན།
08:44
and all those kinds of things; what about that?
འདི་ཚོའི་ཐོག་རང་གིས་ཐག་གཅོད་ཅི་ཞིག་བྱ་རྒྱུ་ཡིན།
08:47
And many of you are excited about the next generation tablet computers
མི་མང་པོ་ཞིག་རབས་གསར་པའི་ངོས་ལེབ་རྩིས་འཁོར་་་
08:49
to come out in the market.
ཁྲོམ་རར་སྤེལ་བར་རེ་སྒུག་ནས་ཡོད།
08:53
So, rather than waiting for that,
ད་སྒུག་སྡོད་པ་ལས་་་
08:55
I actually made my own, just using a piece of paper.
དོན་དངོས་ཐོག་ངས་ཤོག་བུ་ལྷེབ་གཅིག་གིས་རང་ཉིད་ཀྱི་གཅིག་བཟོས་པ་ཡིན།
08:57
So, what I did here is remove the camera --
ངས་བརྙན་ལེན་འཕྲུལ་འཁོར་ཏེ་་་
09:00
All the webcam cameras have a microphone inside the camera.
སྤྱིར་དྲ་རྒྱའི་བརྙན་ལེན་འཕྲུལ་འཁོར་ཡོངས་ལ་སྒྲ་དུང་བཅས་པས་་་
09:02
I removed the microphone from that,
ངས་སྒྲ་དུང་འདིའི་ནང་ནས་མར་བཏོན་ནས་་་
09:06
and then just pinched that --
ཧ་ལམ་་་
09:09
like I just made a clip out of the microphone --
སྟེམ་ཚུལ་སྒྲ་དུང་ཞིག་བཟོས་པ་དང་་་
09:11
and clipped that to a piece of paper, any paper that you found around.
ཤོག་བུ་སྤྱིར་བཏང་ཞིག་ལ་སྟེམ་ལྕཊ་བརྒྱབ།
09:14
So now the sound of the touch
ངས་ཤོག་བུར་རེག་ཐུག་བྱས་ཚེ་་་
09:18
is getting me when exactly I'm touching the paper.
རེག་པའི་སྒྲ་འདིས་རྩིས་འཁོར་ལ་བརྡ་གཏང་སྲིད།
09:21
But the camera is actually tracking where my fingers are moving.
དོན་དངོས་ཐོག་བརྙན་ལེན་འཕྲུལ་འཁོར་གྱིས་ངའི་མཛུབ་མོའི་འགུལ་སྐྱོད་ལ་རྗེས་ཉུལ་བྱེད་ཀྱིན་ཡོད།
09:24
You can of course watch movies.
འདི་མིན་གློག་བརྙན་ཡང་བལྟ་ཆོག
09:28
("Good afternoon. My name is Russell ...
( དགོང་དྲོ་བདེ་ལེཊ། ངའི་མིང་ལ་རུསེལ་ཟེར་གྱི་ཡོད་་་)
09:31
and I am a Wilderness Explorer in Tribe 54.")
(་་་ང་ནི་རུ་ཚོཊ་ ༥༤ ཡི་ས་རྒོད་མྱུལ་དཔྱད་པ་ཞིག་ཡིན། )
09:34
And you can of course play games.
འདི་བཞིན་རྩེད་མོ་བརྩེ་ཆོག་སྟེ་་་
09:37
(Car engine)
( རླངས་འཁོར་སྒུལ་འཁོར་གྱི་སྐད་སྒྲ )
09:40
Here, the camera is actually understanding how you're holding the paper
བརྙན་ལེན་འཕྲུལ་འཁོར་གྱིས་རང་གི་ཤོག་བུའི་འཛིན་ཕྱོཊ་ཤེས་ཐུབ་པས་་་
09:43
and playing a car-racing game.
ད་ལྟ་གཞི་ནས་འགྲན་འཁོར་གྱི་རྩེད་མོར་རོལ་ནུས།
09:46
(Applause)
( ཐལ་མོའི་རྡེབ་སྒྲ )
09:48
Many of you already must have thought, OK, you can browse.
ཡང་མི་མང་ཤས་ཤིག་གིས་བཤར་ལྟ་བྱ་རྒྱུ་ཡིད་ལ་འཁོར།
09:52
Yeah. Of course you can browse to any websites
ད་ག་རེད། དྲ་ཚིཊ་ཅི་ཞིག་ཡིན་རུང་བཤར་ལྟ་བྱེད་ཐུབ་པ་ཏན་ཏན་རེད།
09:54
or you can do all sorts of computing on a piece of paper
དེ་བས་ད་དུང་ཤོག་བུའི་སྒང་རྩིས་མི་འདྲ་རྒྱག་པ།
09:57
wherever you need it.
དགོས་མཁོ་ཡོད་པའི་ས་ཆ་གང་འདྲ་ཞིག་ལ་ཡིན་ཡང་།
10:00
So, more interestingly,
དེ་ལས་དགའ་འོས་པ་ཞིག་ནི་་་
10:01
I'm interested in how we can take that in a more dynamic way.
ངས་བྱེད་ནུས་འདི་དེ་བས་འགུལ་རྣམ་རང་བཞིན་ལྡན་པ་ཞིག་ཏུ་བཟོ་འདོད།
10:04
When I come back to my desk I can just pinch that information
ཅོག་ཙེའི་འགྲམ་ལ་ལོག་ནས་ཆ་འཕྲིན་ཞིག་ཟིན་ཏེ་་་
10:07
back to my desktop
ངའི་རྩིས་འཁོར་གྱི་བརྙན་ཡོལ་སྒང་ལ་བཞག་པས་་་
10:10
so I can use my full-size computer.
ངས་ད་གཟོད་རང་ཉིད་ཀྱི་ཅོག་ངོས་རྩིས་འཁོར་བེད་སྤྱོད་བྱེད་ཐུབ།
10:12
(Applause)
( ཐལ་མོའི་རྡེབ་སྒྲ )
10:15
And why only computers? We can just play with papers.
རྩིས་འཁོར་ཡིན་གཅིག་དགོས་སམ། ཤོག་བུའང་གནག་པོ་ཡོད་རེད།
10:17
Paper world is interesting to play with.
ཤོག་བུའི་འཇིག་རྟེན་ནི་ཆོབ་ཚ་པོ་ཡོད་དེ་་་
10:20
Here, I'm taking a part of a document
ངས་ཡིག་ཆ་འདིའི་ཆ་ཤས་ཤིག་་་
10:23
and putting over here a second part from a second place --
ས་འདིར་བཞག་ནས་ཆ་ཤས་གཉིས་པར་བརྩིས་ཏེ་་་
10:25
and I'm actually modifying the information
འདི་གར་ཡོད་པའི་ཆ་འཕྲིན་་་
10:29
that I have over there.
བསྐྱར་བཅོས་བྱེད་བཞིན་ཡོད།
10:32
Yeah. And I say, "OK, this looks nice,
འོ་ཡ་་་དེ་རྗེས་ངས་ཡག་པོ་བྱུང་་་
10:34
let me print it out, that thing."
ང་རང་ལ་ལྕཊ་པར་བརྒྱབ་པ་ཞིག་དགོས་ཞེས་བཤད།
10:37
So I now have a print-out of that thing, and now --
འདི་ན་པར་ཐེབས་ཡིག་ཆ་ཞིག་བྱུང་།
10:39
the workflow is more intuitive the way we used to do it
ལས་ཀའི་བྱ་རིམ་འདི་ནི་ང་ཚོས་སྤྱད་པའི་ཐབས་ཚུལ་ལས་དེ་བས་མི་གཤིས་དང་མཐུན་པ་ཞིག་གོ །
10:41
maybe 20 years back,
ལོ་ཉི་ཤུའི་སྔོན་གྱི་ལས་སྟངས་དང་འདྲ་པོ་ཡོད་པ་ལས་་་
10:44
rather than now switching between these two worlds.
ད་ལྟ་ནང་བཞིན་འཇིག་རྟེན་གཉིས་ནང་བརྗེ་རེས་མི་དགོས།
10:47
So, as a last thought,
མཐའ་མར་་་
10:50
I think that integrating information to everyday objects
ངའི་སེམས་ནང་ཆ་འཕྲིན་དང་གཟུང་ཡུལ་ཀུན་ཟླ་སྒྲིལ་བྱས་ན་་་
10:53
will not only help us to get rid of the digital divide,
ཨང་ཀིའི་ཧང་ཟོམ་བསལ་ཐུབ་པ་མ་ཟད་་་
10:56
the gap between these two worlds,
འཇིག་རྟེན་འདི་གཉིས་བར་གྱི་སྲུབས་ཀའང་བསུབ་ནུས་པ་དང་་་
11:01
but will also help us, in some way,
ད་དུང་ང་ཚོའི་མི་གཤིས་་་
11:03
to stay human,
བོར་བརླག་མ་སོང་བར་་་
11:05
to be more connected to our physical world.
དངོས་གཟུཊ་འཇིག་རྟེན་བར་གྱི་འབྲེལ་བ་ནི་དེ་བས་དམ་དུ་འགྲོ་རྒྱུར་རོཊ་རམ་བྱ་ཐུབ།
11:07
And it will actually help us not end up being machines
མཐའ་མར་ང་ཚོ་ནི་འཕྲུལ་འཁོར་མདུན་དུ་བསྡད་པའི་་་
11:13
sitting in front of other machines.
འཕྲུལ་འཁོར་གཞན་ཞིག་ཏུ་མི་འགྱུར་བར་རོཊ་གདེག་ཀྱང་ཐུབ་བོ། །
11:16
That's all. Thank you.
འདི་ག་རང་ཡིན། ཐུགས་ཆེ་གནང་།
11:18
(Applause)
( ཐལ་མོའི་རྡེབ་སྒྲ )
11:21
Thank you.
ཐུགས་ཆེ།
11:35
(Applause)
( ཐལ་མོའི་རྡེབ་སྒྲ )
11:36
Chris Anderson: So, Pranav,
ཁརིསི་ཨནྡེརསོན་ན་རེ། ཡ་་་པྲཱནབ་་་
11:39
first of all, you're a genius.
དང་པོ། རང་ངོ་མ་ལྷན་སྐྱེས་ཀྱི་རིག་པ་ཅན་ཞིག་རེད་འདུག
11:40
This is incredible, really.
གསར་གཏོད་འདི་ངོ་མ་བསམ་ཡུལ་ལས་འདས་པ་ཞིག་འདུག
11:43
What are you doing with this? Is there a company being planned?
ད་རང་གང་འདྲ་བྱ་རྩིས་ཡོད། མཐུན་གཉེར་ཁང་ཞིག་འཛུཊ་འདོད་དམ།
11:46
Or is this research forever, or what?
ཡང་མིན་ན་མུ་མཐུད་ཞིབ་འཇུག་བྱེད་པའམ་འདི་མིན་གྱི་འཆར་གཞི་གཞན་ཡོད་དམ།
11:49
Pranav Mistry: So, there are lots of companies --
པྲཱནབ་མིསིཐྲི་ན་རེ། མཐུན་གཉེར་མང་པོ་ཞིག་་་
11:51
actually sponsor companies of Media Lab --
Medi L b ཡི་རྒྱབ་སྐྱོར་པ་ཡིན།
11:53
interested in taking this ahead in one or another way.
ཁོ་ཚོ་ནི་ཐབས་ཤེས་གཞན་ཞིག་སྤྱད་ནས་མུ་མཐུད་ཞིབ་འཇུག་བྱེད་པར་མོས་པ་ཆེན་པོ་ལྡན།
11:54
Companies like mobile phone operators
དཔེར་ན་འགུལ་འཕྲིན་གཉེར་སྐྱོང་མཐུན་གཉེར་དང་་་
11:57
want to take this in a different way than the NGOs in India,
རྒྱ་གར་གྱི་གཞུང་མིན་ལས་ཁུངས་ཀྱི་སྤྱོད་སྟངས་ནི་མི་འདྲའོ། །
11:59
[who] are thinking, "Why can we only have 'Sixth Sense'?
ལས་ཁུངས་འདི་ཚོས་བྱས་ན་དབང་པོ་ཨང་དྲུག་པ་ལས་མེད་པ་ཅི་ཡིན་་་
12:02
We should have a 'Fifth Sense' for missing-sense people
ང་ཚོས་ད་དུང་དབང་པོ་སྐྱོན་ཅན་རྣམས་ལ་དབང་པོ་ཨང་ལྔ་པ་མཁོ་འདོན་བྱ་དགོས།
12:05
who cannot speak.
དཔེར་ན་སྨྲ་བཤད་ཀྱི་དབང་པོ་ཉམས་པ་ཅན་གྱིས་་་
12:07
This technology can be used for them to speak out in a different way
ལག་རྩལ་འདིར་རྟེན་ནས་ཐབས་ཚུལ་གཞན་ཞིག་ནས་སྐད་ཆ་ཤོད་ཐུབ།
12:08
with maybe a speaker system."
རྒྱང་བསྒྲག་ཅིག་སྒྲིག་སྦྱོར་བྱེད་ན་འགྲིག
12:11
CA: What are your own plans? Are you staying at MIT,
C : རང་གི་འཆར་གཞི་གང་ཡིན། MITལ་སྡོད་དམ་་་
12:12
or are you going to do something with this?
ཡང་མིན་ན་ལས་གཞི་འདིའི་ནང་ཞུཊ་ཀྱི་ཡིན།
12:15
PM: I'm trying to make this more available to people
PM: ངས་ད་ལྟ་ལག་རྩལ་འདི་ཁྱབ་དེ་བས་ཆེ་བའི་ངང་བེད་སྤྱོད་བྱེད་པར་འབད་པ་བྱེད་ཀྱིན་ཡོད་པ་ནི་་་
12:16
so that anyone can develop their own SixthSense device,
ཚང་མས་རང་ཉིད་ཀྱི་༼ དབང་པོ་ཨང་དྲུག་པ ༽ཡི་སྒྲིག་ཆས་གསར་བཟོ་ཐུབ་པིའ་ཆེད་དུ་ཡིན།
12:18
because the hardware is actually not that hard to manufacture
མཁྲེཊ་ཆས་ནི་དོན་དངོས་ཐོག་བཟོ་ཁག་པོ་མེད།
12:21
or hard to make your own.
སོ་སོས་བཟོས་ཀྱང་ལས་སླ་པོ་རེད།
12:26
We will provide all the open source software for them,
ང་ཚོས་ཁོང་ཚོར་རྒྱ་གྲོལ་ཁུངས་ཨང་མཉེན་ཆས་ (ཁུངས་གྲོལ་མཉེན་ཆས) མཁོ་འདོན་བྱ་རྒྱུ་ཡིན།
12:28
maybe starting next month.
ཕལ་ཆེར་ཟླ་བ་རྗེས་མར་གྲུབ་སྲིད།
12:30
CA: Open source? Wow.
C : ཁུངས་ཨང་རྒྱ་དགྲོལ་བྱ་རྒྱུ་ཡིན་ནམ། ཨ་ཙི།
12:32
(Applause)
( ཐལ་མོའི་རྡེབ་སྒྲ )
12:34
CA: Are you going to come back to India with some of this, at some point?
C : རང་རྒྱ་གར་ལ་ལོག་རྗེས་འཆར་གཞི་འདི་ཚོ་སྤེལ་གྱི་ཡིན་ནམ།
12:39
PM: Yeah. Yes, yes, of course.
PM: ཡིན་ཡིན་་་ཏན་ཏན་ཡིན།
12:42
CA: What are your plans? MIT?
C : རང་གི་འཆར་གཞི་གང་ཡིན། MITལ་ཡིན་ནམ།
12:44
India? How are you going to split your time going forward?
ཡང་མིན་ན་རྒྱ་གར་ལ་ཡིན། མ་འོངས་ལ་དུས་ཚོད་ཇི་ལྟར་བགོ་བསྒྲིག་གམ།
12:46
PM: There is a lot of energy here. Lots of learning.
PM: འདི་གར་ནུས་སྟོབས་འབོར་ཆེན་ཞིག་གནས་པ་དང་སློབ་སྦྱོང་བྱ་ཡུལ་ཡང་མང་པོ་ཞིག་ཡོད།
12:48
All of this work that you have seen is all about
རང་གིས་མཐོང་བ་ཚང་མ་ང་རང་གིས་་་
12:51
my learning in India.
རྒྱ་གར་ལ་བསྡད་དུས་སྦྱངས་པ་ཤ་སྟག་ཡིན།
12:53
And now, if you see, it's more about the cost-effectiveness:
མ་གནས་ཕན་འབྲས་ཕྱོཊ་ནས་བལྟས་ན་་་
12:55
this system costs you $300
མ་ལག་འདི་ནི་ཨ་སྒོར་ ༣༠༠ ལས་མི་དགོས།
12:58
compared to the $20,000 surface tables, or anything like that.
ཨ་སྒོར་ཁྲི་ ༢ ཀྱི་ཅོག་ངོས་རྩིས་འཁོར་དང་གཤིབ་བསྡུར་བྱེད་ན།
13:00
Or maybe even the $2 mouse gesture system
ཡང་ན་ཨ་སྒོར་ ༢ ཀྱི་ཙི་གུའི་ལག་བརྡའི་མ་ལག་ནི་་་
13:03
at that time was costing around $5,000?
དེ་སྔོན་སྤྱིར་བཏང་ཨ་སྒོར་ ༥༠༠༠ ཙམ་ཡིན་གྱི་རེད།
13:06
So, we actually -- I showed that, at a conference, to
ཡུན་རིང་མ་སོང་གོང་ངས་ཅ་ལག་འདི་་་
13:09
President Abdul Kalam, at that time,
རྒྱ་གར་གྱི་སྲིད་འཛིན་ལ་བསྟན་པ་ཡིན།
13:13
and then he said, "OK, we should use this in Bhabha Atomic Research Centre
ཁོང་གིས་ང་ཚོས་མ་རྡུལ་ཞིབ་འཇུག་ཁང་ནང་་་
13:15
for some use of that."
ལག་རྩལ་འདིར་རྟེན་ནས་ཞིབ་འཇུག་འགའ་ཞིག་གྲུབ་དགོས་གསུངས།
13:18
So I'm excited about how I can bring the technology to the masses
ང་རང་ནི་ལག་རྩལ་འདི་ཚོ་མང་ཚོཊ་ཁྲོད་ཁྱབ་གདལ་གཏང་རྒྱུར་རེ་དད་ཆེ་བ་ལས་་་
13:20
rather than just keeping that technology in the lab environment.
ཚོད་ལྟ་ཁང་ནང་ཉར་འཇོག་བྱེད་པར་མ་འདོད།
13:23
(Applause)
( ཐལ་མོའི་རྡེབ་སྒྲ )
13:26
CA: Based on the people we've seen at TED,
C : ང་ཚོས་ TED ནང་ཕྲད་ཟིན་པའི་མི་མང་པོ་ཞིག་ལ་གཞིཊ་ན་་་
13:30
I would say you're truly one of the two or three
ངས་ཟེར་ཆོག་ཆོག་ནི་རང་ངོ་མ་འཛམ་གླིང་འདིའི་་་
13:33
best inventors in the world right now.
གསར་གཏོད་པ་རྩེར་སོན་གཉིས་གསུམ་ཙམ་གྱི་ནང་གི་གཅིག་རེད་འདུག
13:34
It's an honor to have you at TED.
ཁྱོད་རང་འདི་གར་གདན་དྲངས་ཐུབ་པར་ TED ཡི་གཟི་བརྗིད་ཡིན།
13:36
Thank you so much.
ངོ་མ་བཀའ་དྲིན་ཆེའོ། །
13:38
That's fantastic.
དངོས་གནས་ངོ་མཚར་ཡ་མེད་རེད་འདུག
13:40
(Applause)
( ཐལ་མོའི་རྡེབ་སྒྲ )
13:41

▲Back to top

About the speaker:

Pranav Mistry - Director of research, Samsung Research America
As an MIT grad student, Pranav Mistry invented SixthSense, a wearable device that enables new interactions between the real world and the world of data.

Why you should listen

When Pranav Mistry was a PhD student in the Fluid Interfaces Group at MIT's Media Lab, he worked with lab director Pattie Maes to create some of the most entertaining and thought-provoking interfaces the world had ever seen. And not just computer interfaces, mind you -- these are ways to help the digital and the actual worlds interface. Imagine: intelligent sticky notes, Quickies, that can be searched and can send reminders; a pen that draws in 3D; and TaPuMa, a tangible public map that can act as Google of physical world. And of course the legendary SixthSense, which is now open sourced

Before his studies at MIT, he worked with Microsoft as a UX researcher; he's a graduate of IIT. Now, as director of research at Samsung Research America, Mistry heads the Think Tank Team, an interdisciplinary group of researchers that hunts for new ways to mix digital informational with real-world interactions. As an example, Mistry launched the company's smartwatch, the Galaxy Gear, in 2013.

More profile about the speaker
Pranav Mistry | Speaker | TED.com