Max Tegmark: How to get empowered, not overpowered, by AI
Max Tegmark: Yapay zekâya boyun eğmek değil, onunla güçlenmek
Max Tegmark is driven by curiosity, both about how our universe works and about how we can use the science and technology we discover to help humanity flourish rather than flounder. Full bio
Double-click the English transcript below to play the video.
of cosmic history,
ardından
have begun gazing out into the cosmos
uzayı teleskoplarla
is vastly grander
imperceptibly small perturbation
bir evrende ufacık ve belli belirsiz
something inspiring,
bir şey keşfettik;
we're developing has the potential
hayatın ilerlemesine
hiç olmadığı kadar fazla olduğunu
but for billions of years,
milyarlarca senedir
much of this amazing cosmos.
bu müthiş evrenin birçok yerinde...
olarak düşünüyorum
anything during its lifetime.
öğrenmekten aciz.
because we can learn,
tahayyül ediyorum çünkü öğrenebiliyoruz
new software into our brains,
ile kıyaslanabilir,
its software but also its hardware
tasarlayan "Yaşam 3.0"
has already made us "Life 2.1,"
"Yaşam 2.1" yapmıştır
pacemakers and cochlear implants.
ve biyonik kulaklarımız ile.
at our relationship with technology, OK?
daha yakından bakalım mı?
was both successful and inspiring,
hem başarılı hem de ilham verici olması
use technology wisely,
akıllıca kullandığımızda
that our ancestors could only dream of.
şeyleri başarabildiğimizi gösteriyor.
more powerful than rocket engines,
bir şey ile çalıştırılan,
aren't just three astronauts
journey into the future
that just as with rocketry,
olduğu gibi
our technology powerful.
yeterli olmadığını ifade ediyor.
if we're going to be really ambitious,
azimli olup olmayacağımızı,
for artificial intelligence:
önemli üç konudan da bahsedelim:
and the destination.
basit bir şekilde,
to accomplish complex goals,
gelme yeteneğimiz olarak tanımlıyorum
biological and artificial intelligence.
yapay zekâyı dâhil etmek istiyorum.
the silly carbon-chauvinism idea
etten kemikten isen zeki olabilirsin'
çürütmek istiyorum.
if you're made of meat.
of AI has grown recently.
inanılmaz derecede arttı.
robotlar yürüyemiyordu.
sahte yüzler oluşturup
saying stuff that you never said.
söylüyormuş gibi taklit edebiliyor.
took 3,000 years of human Go games
yapay zekâsı 3000 yıllık Go oyunlarını
player by just playing against itself.
oynayarak dünyanın en iyi oyuncusu oldu.
wasn't that it crushed human gamers,
oyuncuları yenmesi değil
geliştirilmesine adamış
handcrafting game-playing software.
not just in Go but even at chess,
sadece Go'da değil
satrançta bile yendi.
really begs the question:
ilerleme gerçekten şu soruyu ortaya atıyor
landscape of tasks,
olarak düşünmenizi istiyorum;
how hard it is for AI to do each task
aynı seviyede yapmanın yapay zekâ için
what AI can do today.
bugün yapabildiklerini gösteriyor.
as AI improves,
deniz seviyesi yükseliyor
going on here in the task landscape.
bir tür küresel ısınma gerçekleşiyor.
is to avoid careers at the waterfront --
kariyerlerden kaçınmamız --
automated and disrupted.
dağıtılacak.
bigger question as well.
bir soru var.
to flood everything,
sular altında mı bırakacak,
eşit bir seviyeye gelerek.
of artificial general intelligence --
of AI research since its inception.
ve ulaşılması neredeyse imkânsız hedefi.
that humans can do better than machines,"
daha iyi yapabileceği işler olacak"
that we'll never get AGI.
ulaşamayacağımızı söylüyorlar.
to have some human jobs
and purpose with our jobs,
maaş alabilir ya da amaç edinebilirler
transform life as we know it
alışageldiğimiz hayatı değiştirecek
the most intelligent.
yapay zekânın ilerleme süreci
mainly not by humans but by AI,
yapay zekâ tarafından yönlendirilecek
could be way faster
insana özgü araştırma ve geliştirme
and development timescale of years,
çok daha hızlı gelişebilir.
of an intelligence explosion
zekâ patlaması ihtimali yükseliyor,
intelligence far behind,
as superintelligence.
like Rodney Brooks,
Rodney Brooks gibi,
for hundreds of years.
gerçekleşmeyeceğini düşünüyor.
founder Demis Hassabis,
kurucusu Demis Hassabis gibi,
it happen much sooner.
olması için çalışıyorlar.
that most AI researchers
yapay zekâ araştırmacılarının çoğunluğu
get AGI within decades,
birkaç on yıl içerisinde ortaya çıkacak
-- peki ya sonra?
ve daha ucuza yapabiliyorsa?
and cheaper than us?
that can do everything we can do
yapabilen makineler geliştirelim
that makes all humans obsolete,
işe yaramaz bir yığına dönüştürüyorsa
embarrassingly lame.
saçma olur.
in the spirit of TED.
TED'i örnek alarak.
high-tech future
teknolojili bir gelecek hayal edip
of our rocket metaphor: the steering.
bölümüne getiriyor: yönlendirme.
yönlendirelim ki
rather than flounder?
yardım etsin, bocalamasından ziyade?
faydalı teknoloji kullanımını
beneficial technology use,
for the future of life to exist
yaşamın geleceğinin var olması
ilham verici olması.
is better than the Stone Age.
daha iyi olması teknoloji sayesinde.
a really inspiring high-tech future ...
bir gelecek yaratabileceğimize inanıyorum,
power of our technology
with which we manage it.
bilgeliği arasında.
a change of strategy
değişmesi gerekiyor
has been learning from mistakes.
hatalardan ders çıkarıyor.
screwed up a bunch of times --
birkaç kere çuvalladık --
ve hava yastığını icat ettik
the seat belt and the airbag,
like nuclear weapons and AGI,
nükleer silah ve GYZ gibi
is a lousy strategy,
kötü bir strateji,
rather than reactive;
çok daha iyi;
right the first time
doğru yapmak...
the only time we'll get.
sometimes people tell me,
insanlar bana diyor ki
call safety engineering.
olarak adlandırdığımız şey.
the Apollo 11 mission,
fırlatmadan önce,
everything that could go wrong
üstüne koyup
bir yere fırlattığında
on top of explosive fuel tanks
sistematik olarak düşündüler.
where no one could help them.
the safety engineering
I think we should take with AGI.
kullanmamız gereken strateji.
to make sure it goes right.
gidebilecekleri düşün.
we've organized conferences,
en iyi, yapay zekâ araştırmacılarını
YZ'yi faydalı tutmak için ihtiyacımız olan
AI researchers and other thinkers
we need to keep AI beneficial.
konferanslar düzenledik.
was in Asilomar, California last year
Asilomar, Kaliforniya'daydı
bir liste yapıldı,
ve üst düzey endüstri liderleri
by over 1,000 AI researchers
about three of these principles.
bahsetmek istiyorum.
and lethal autonomous weapons.
ölümcül özerk silahları bırakmalıyız.
can be used for new ways of helping people
yardım etmek ya da zarar vermek için
are much more likely to be used
öldürmek için yeni yollar bulmak yerine
than for new ways of killing people,
ve yeni tedaviler için kullanılır,
and chemists pushed hard --
yasaklanması için çok direndiler
and chemical weapons.
and ban lethal autonomous weapons.
silahları kınayıp yasaklamak istiyor.
AI-fueled income inequality.
maaş ayrımcılığını azaltmak.
the economic pie dramatically with AI
zekâ ile önemli ölçüde büyütebiliyorsak
how to divide this pie
daha iyi olması için
çözemiyorsak
if your computer has ever crashed.
bilgisayarınız bir kere bile çöktüyse.
this principle
araştırmalarına
in AI safety research,
hoşunuza gider
of even more decisions and infrastructure,
ve altyapı sorumluluğu verdikçe
today's buggy and hackable computers
bilgisayarları nasıl gerçekten güvenilir
that we can really trust,
çözmemiz lazım
arızalı çalışıp bize zarar verir
can malfunction and harm us,
has to include work on AI value alignment,
YZ değer sırası çalışmasını içermesi lazım
saçma Hollywood filmlerindeki
from AGI isn't malice,
that just aren't aligned with ours.
olmayan hedeflere ulaşması...
the West African black rhino extinct,
gergedanının neslini tükettiğimizde
of evil rhinoceros haters, did we?
için yapmadık, değil mi?
we were smarter than them
için yaptık
ourselves in the position of those rhinos
o gergedanlarla aynı duruma
to make machines understand our goals,
anlamasını, benimsemesini ve sürdürmesini
of our rocket metaphor: the destination.
üçüncü bölümüne getiriyor: istikâmet.
çözmeye çalışıyoruz
that almost nobody talks about --
bile konuşulmayan
on short-term AI challenges.
yapay zekâ işlerine şartlanmışız.
geliştirmeye çalışıyor
are we hoping for if we succeed?
başarmayı umuyoruz?
görüş anketi yaptık
want us to build superintelligence:
çok daha akıllı olan yapay zekâ
than us in all ways.
görmeme şaşırdım.
was that we should be ambitious
yardım etmemiz
about who or what should be in charge.
konusunda pek aynı fikirde olamadık.
who want it to be just machines.
sorumlu olmasını istediklerini görünce.
about what the role of humans should be,
en basit seviyede bile
at possible futures
muhtemel geleceklere
to steer toward, alright?
metaphorical journey into the future.
mecazi yolculuğundan bahsediyorum.
of my AI colleagues like
bir seçenek, esir edilmiş bir tanrı gibi
and keep it under human control,
ve onu kontrol eden için
technology and wealth
insan denetiminin
and absolute power corrupts absolutely,
mutlaka bozar.
we humans just aren't smart enough,
daha doğrusu bilgili olmadıklarından
moral qualms you might have
the superintelligence could outsmart us,
zekâsıyla yenip zincirlerini kırıp
endişe edebilirsiniz.
who are fine with AI taking over
ve insanın neslinin tükenmesine
are our worthy descendants,
kıymetli kuşağımız olduğunu hissedelim,
have adopted our best values
en iyi değerlerimizi benimseyip
tricking us into anthropomorphizing them?
insanlaştırmak için kandırmadıklarını?
who don't want human extinction
insanların da
of those two high-tech options,
beğenmediyseniz
that low-tech is suicide
intihar olduğunu
beyond today's technology,
çok ilerisine gitmezsek
is going to go extinct,
değil
we're going to get taken out
çözebileceği
that better technology could have solved.
bizi yok etmesi.
our cake and eating it ...
bize iyi davranan
are aligned with ours?
has called "friendly AI,"
yapay zekâ ''dediği ana fikir
it could be awesome.
mükemmel olur.
experiences like disease, poverty,
ve başka işkenceler gibi kötü tecrübeleri
the freedom to choose
pozitif tecrübeleri
of positive experiences --
the masters of our own destiny.
yaparak.
is complicated,
expect AGI within decades,
GYZ'yi birkaç on yıl içinde bekliyor
into this unprepared,
the biggest mistake in human history --
en büyük hatası olur --
global dictatorship
acımasız diktatörlük,
surveillance and suffering,
insan neslinin tükenmesine
where everybody's better off:
müthiş bir geleceğe varabiliriz:
and free to live out their dreams.
ve hayallerini gerçekleştirmekte özgür.
that's politically right or left?
bir gelecek istiyorsunuz?
with strict moral rules,
muhafazakâr mı
hedonistik
forests and lakes,
istersiniz
some of those atoms with the computers,
bu atomların birkaçını
build all of these societies
bu toplumları geliştirip
to choose which one they want to live in
seçme özgürlüğünü verebiliriz
be limited by our intelligence,
sadece fizik kurallarıyla
for this would be astronomical --
about our future,
kayıtsız kalırız,
olacağına körü körüne inanıp
is guaranteed to be beneficial,
as a mantra over and over and over again
kendi eskimemize doğru yönelirken,
towards our own obsolescence.
tekrarlayabiliriz.
to steer our technology
iyice düşünerek
the age of amazement,
için buradayız
in becoming not overpowered
ona boyun eğmek değil
ABOUT THE SPEAKER
Max Tegmark - Scientist, authorMax Tegmark is driven by curiosity, both about how our universe works and about how we can use the science and technology we discover to help humanity flourish rather than flounder.
Why you should listen
Max Tegmark is an MIT professor who loves thinking about life's big questions. He's written two popular books, Our Mathematical Universe: My Quest for the Ultimate Nature of Reality and the recently published Life 3.0: Being Human in the Age of Artificial Intelligence, as well as more than 200 nerdy technical papers on topics from cosmology to AI.
He writes: "In my spare time, I'm president of the Future of Life Institute, which aims to ensure that we develop not only technology but also the wisdom required to use it beneficially."
Max Tegmark | Speaker | TED.com