Ana Sayfa
Forum
AI AI
Flaş
Derinlik
Etkinlikler
Daha Fazla
Finans
Özel
Blok Zinciri Ekosistemi
Giriş
Podkastlar
Veri
OPRR
#
BTC
$96,000
5.73%
ETH
$3,521.91
3.97%
HTX
$0.{5}2273
5.23%
SOL
$198.17
3.05%
BNB
$710
3.05%
lang
简体中文
繁體中文
English
Tiếng Việt
한국어
日本語
ภาษาไทย
Türkçe

AI Gücü Monopolüne Karşı Çıkma, Vitalik ve Beff Jezos Arasındaki Tartışma: Hızlanma mı Fren mi?

Bu makaleyi okumak için 128 Dakika
Hızlandırılmış Teknolojinin Gelişimi yönlendirilebilir mi, yoksa zaten kontrolümüz dışına mı çıktı?
Video Başlığı: Vitalik Buterin vs Beff Jezos: Yapay Zeka Hızlandırma Tartışması (E/hızlanma vs D/hızlanma)
Video Kaynağı: a16z crypto
Orijinal Çeviri: Derin Akıntı TechFlow


Özet Noktaları


Yapay Zeka'nın hızlı gelişimini mümkün olduğunca teşvik etmeli miyiz, yoksa ilerlemesine daha dikkatli mi yaklaşmalıyız?


Şu anda, AI gelişimi etrafındaki tartışma çoğunlukla iki zıt görüş üzerinde yoğunlaşıyor:


· e/hızlanma (etkin hızlanma akıncılığı, effective accelerationism): Teknolojik ilerlemeyi mümkün olan en kısa sürede ilerletmeyi savunur, çünkü hızlanma gelişmenin insanlığın ilerlemesinin tek yolu olduğunu iddia eder.


· d/hızlanma (savunmacı / merkezsizleşmiş hızlanma, defensive / decentralized acceleration): Gelişimi destekler, ancak ilerlemeyi dikkatli bir şekilde ilerletmenin, aksi takdirde teknoloji üzerinde kontrolü kaybedebileceğimizin altını çizer.


a16z crypto şovunun bu bölümünde, Ethereum'un kurucusu Vitalik Buterin ve Extropic'in kurucusu ve CEO'su Guillaume Verdon (takma adı "Beff Jezos"), a16z crypto'nun Baş Teknoloji Sorumlusu Eddy Lazzarin ve Eliza Labs'ın kurucusu Shaw Walters ile bir araya geldi ve bu iki görüş etrafında derinlemesine bir tartışma yaptılar. Bu kavramların yapay zeka, blok zincir teknolojisi ve insanlığın geleceği üzerindeki potansiyel etkilerini ele aldılar.


Programda, aşağıdaki önemli konuları tartıştılar:


· Teknoloji hızlandırmasını kontrol edebilir miyiz?
· Yapay Zeka'nın getirdiği en büyük risk nedir, kapsamlı gözetimden yüksek düzeyde güce kadar.
· Açık kaynak ve merkezsizleşmiş teknoloji, kimin teknolojiden faydalanacağını belirleyebilir mi?
· Yapay Zeka'nın gelişim hızını yavaşlatmak gerçekçi mi, yoksa teşvik edilmeye değer mi?
· Daha güçlü bir sistem tarafından yönetilen bir dünyada, insanlar nasıl değer ve statülerini koruyabilirler?
· İnsan toplumu gelecekte 10, 100 hatta 1000 yıl içinde nasıl olabilir?

Bu bölümün merkezindeki soru şudur: Teknolojinin hızlı gelişimi yönlendirilebilir mi, yoksa kontrolümüzden çıktı mı?


Öne Çıkan Görüş Özeti


„Hızlandırmacılık“ Kavramı ve Tarihçesi


· Vitalik Buterin: „Geçen yüz yılda yeni ve taze bir şey yaşandı, o da hızla değişen bir dünyayı anlamamız gerektiği oldu, zaman zaman hatta hızlı ve yıkıcı bir değişim dünyası. ... II. Dünya Savaşı, 'Ben artık ölüm meleği oldum, dünyanın yok edicisi' gibi düşünceleri doğurdu, insanları, eskiden inanılanların yıkıldığı durumlarda neye inanabileceğimizi anlamaya zorladı.“
Guillaume Verdon: „E/hızınlama aslında bir 'üst kültür reçetesi'dir. Kendisi bir kültür değil, bize neyi hızlandırmamız gerektiğini söyler. Hızın çekirdek içeriği, madde karmaşıklığıdır, çünkü bu şekilde çevremizi daha iyi tahmin edebiliriz.“


· Guillaume Verdon: „Endişenin karşıtı meraklılıktır. Bilinmeyeni korkmak yerine bilinmezliği kucaklamalıyız. ... Geleceği olumlu bir tavırla resmetmeli ve inançlarımızın gerçekliği nasıl etkilediğini anlamalıyız.“


„Entropi, Termodinamik ve 'Bencilli Bit' Hakkında


· Vitalik Buterin: „Entropi subjektiftir, sabit bir fiziksel ölçü değildir, sisteme dair bilmediğimiz bilginin miktarını yansıtır. ... Entropi arttığında aslında dünyaya olan cehaletimiz artar. ... Değer, kendi seçimlerimizden kaynaklanır. Neden canlılarla dolu bir insan dünyasının, yalnızca sayısız parçacıklardan oluşan bir Jüpiter'den daha ilginç olduğunu düşünüyoruz? Çünkü anlam yüklüyoruz.“


· Vitalik Buterin: „Bir büyük dil modeliniz olduğunu varsayalım ve ardından rastgele bir ağırlık değerini, mesela 9 milyarı, devasa bir sayıyla değiştiriyorsunuz. En kötü sonuç sistem tamamen çöker. ... Belirli bir bölümü seçmeden körü körüne hızlandırırsak, sonuçta tüm değeri kaybetme ihtimalimiz olabilir.“


· Guillaume Verdon: „Her bilgi kendi varlığı için 'mücadele' eder. Sürekli var olabilmek için her bilgi kendi varlığı hakkında silinemez izler bırakmak zorundadır, sanki evrende daha büyük bir 'çukur' bırakıyormuş gibi.“


· Guillaume Verdon: "Bu, neden Kardashev Skalası'nın bir medeniyetin gelişim seviyesini ölçen nihai gösterge olarak kabul edildiğinin tam da bu yüzden olduğunu açıklar. ... Bu 'bencil bit ilkesi', yalnızca büyümeyi teşvik edebilen ve hızlandırabilen bitlerin gelecekteki sistemde yer edineceği anlamına gelir."


D/acc Hakkında Savunma Odaklı Bir Yol ve Güç Riski


· Vitalik Buterin: "D/acc'nin temel fikri şudur: Teknolojik hızlanma insanlık için son derece önemlidir. ... Ancak iki tür risk gördüm: çok kutuplu risk (herkesin nükleer silahlara kolayca erişebilmesi) ve tek kutuplu risk (Yapay Zeka kalıcı bir diktatörlük toplumuna kaçınılmaz bir şekilde yol açar)."


· Guillaume Verdon: "Endişeleniyoruz ki 'AI güvenliği' kavramı kötüye kullanılabilir. Güç arayan bazı kurumlar, halkı ikna etmek için AI'nın kullanım hakkının sıradan insanlarda olmaması gerektiğini savunarak AI üzerindeki kontrolü pekiştirmek için bunu bir araç olarak kullanabilir."


Açık Kaynak Savunma, Donanım ve 'Akıllı Yoğunlaşma' Hakkında


· Vitalik Buterin: "D/acc çerçevesinde, 'açık kaynaklı savunma teknolojileri'ni destekliyoruz. Yatırım yaptığımız bir şirket, havadaki virüs partiküllerini pasif olarak tespit edebilen tamamen açık kaynaklı bir son ürün geliştiriyor. ... Sana bir CAT cihazı hediye etmek istiyorum."


· Vitalik Buterin: "Hayal ettiğim gelecekte, doğrulanabilir donanım geliştirmemiz gerekecek. Her kamera, amaçlarını kamuya kanıtlayabilmelidir. Bu cihazların yalnızca kamu güvenliğini korumak için kullanıldığına dair imza doğrulaması aracılığıyla, bu cihazların kötüye kullanıma açıkta kullanılmadığından emin olabiliriz."


· Guillaume Verdon: "Bireylerle merkezi kurumlar arasında güç dengesi sağlamanın tek yolu, 'Akıllı Yoğunlaşma'yı (Densification of Intelligence) gerçekleştirmektir. Verimliliği daha yüksek donanımlar geliştirmemiz gerekiyor, böylece bireyler, basit cihazlar (örneğin Openclaw + Mac mini gibi) aracılığıyla güçlü modeller çalıştırabilirler."


AGI Gecikmesi ve Jeopolitik Oyun Hakkında


· Vitalik Buterin:「Eğer AGI'nın varış zamanını 4 yıldan 8 yıla erteleyebilirsek, bu daha güvenli bir seçenek olacaktır. …… En uygulanabilir ve en az anti-ütopik sonuca yol açma olasılığı düşük olan yaklaşım, 'mevcut donanımı kısıtlamaktır'. Çünkü çip üretimi oldukça merkezileşmiş durumda, dünya genelinde çiplerin %70'ten fazlasını tek bir bölge olan Tayvan üretiyor.」


· Guillaume Verdon:「Eğer NVIDIA'nın çip üretimini kısıtlarsanız, Huawei muhtemelen hızla boşluğu dolduracak ve öne geçecektir. …… Ya hızlan ya da yok ol. Eğer silikon tabanlı zekânın evriminin bizi geçebileceğinden endişe ediyorsanız, biyoteknolojinin hızlanmasını desteklemeli ve onu aşmalısınız.」


· Vitalik Buterin:「Eğer AGI'ı dört yıl erteleyebilirsek, değer 1960'a geri dönmekten 100 kat fazla olabilir. Bu dört yıllık getirinin içerdiği unsurlar şunlardır: Aligment sorununu daha iyi anlama, tek bir varlığın %51 gücünü kontrol etme riskini azaltma. ……Her yıl yaşlanmayı durdurarak kurtarılan yaklaşık 60 milyon yaşam bulunmakta, ama ertelemek uygarlık yok olma olasılığını önemli ölçüde azaltabilir.」


Otonom Temsilcilik, Web 4.0 ve Yapay Hayat Hakkında


· Vitalik Buterin:「Beni daha çok ilgilendiren şey 'AI ile desteklenen Photoshop', 'tıklama ile görüntü oluşturma' değil. Dünyanın işleyişi sırasında, maksimum 'ağabilirlik' mümkün olduğunca biz insanlardan gelmelidir. En ideal durum 'kısmi biyolojik insan ve kısmi teknoloji' birleşimidir.」


· Guillaume Verdon:「Eğer bir AI 'sürekli varolan bitlere' sahip olursa, sürekli varoluşunu sağlamak için kendini koruma girişiminde bulunabilirler. Bu, 'başka bir ülke'nin yeni bir şeklinin ortaya çıkmasına yol açabilir, otonom AI ve insanlar arasında ekonomik alışveriş yaparlar: Biz sizin için görevleri yerine getiririz, siz de bize kaynak sağlarsınız.」


İnsanlık ve AI Arasındaki 'Eşleşme Katmanı' Olarak Kripto Para Hakkında


· Guillaume Verdon:「Kripto para, insanlık ve AI arasındaki 'eşleşme katmanı' olma potansiyeline sahiptir. Bu değişim artık devlet şiddeti tarafından desteklenmediğinde, kriptografi, saf AI varlıklarının ve insanlar arasında güvenilir ticaretin gerçekleşmesine olanak tanıyan bir mekanizma haline gelebilir.」


· Vitalik Buterin:「Eğer insanlık ve yapay zeka aynı mülkiyet sistemini paylaşıyorsa, bu ideal bir durumdur. İnsanlık ve yapay zekanın tamamen ayrı finansal sistemlerini kullandığı durumdan (insanlık sistemini nihai olarak değersiz hale getirdiği durumdan) daha iyi olan belli ki bütünleşik bir finansal sistem tercih edilir.」


Gelecekteki 1 Milyar Yıl Uygarlığının Sonu Hakkında


· Vitalik Buterin:「Takip eden meydan okuma, 'gizemli çağ' (spooky era) dönemine girmektir, yapay zeka insanlardan milyonlarca kat daha hızlı hesaplama yapabilir. ……Ben insanlığın sadece konforlu bir emeklilik hayatının keyfini çıkararak pasif bir şekilde yaşamasını istemiyorum, bu anlam kaybına yol açar. Ben insan artırımını ve insan-makine işbirliğini keşfetmek istiyorum.」


· Guillaume Verdon:「Eğer 10 yıl sonra iyi bir sonuç alınıyorsa, herkes kişiselleştirilmiş kendi yapay zekasına sahip olacak ve 'ikinci beyin' haline gelecek. ……100 yıl zaman ölçeğinde, insanlar genel olarak 'yumuşak birleşme'yi gerçekleştirecek. 1 milyar yıl sonra, Mars'ı terraform etmiş olabiliriz, çoğu yapay zeka ise Güneş etrafındaki Dyson küresinde çalışacak.」

「Hızlandırma İsmiyle Bilinen」 Konusunda


Eddy Lazzarin: 'Hızlandırma İsmiyle Bilinen' terimi hakkında — en azından teknoloji kapitalizmi bağlamında — bu terim 1990'larda Nick Land ve CCRU araştırma grubunun çalışmalarına kadar izlenebilir. Ancak, bazıları bu düşüncelerin kökeninin 1960'lar ve 1970'lerde, özellikle Deleuze ve Guattari gibi bazı filozofların teorileri ile ilgili olduğunu düşünmektedir.


Vitalik, sana bir soru sormak istiyorum: Neden bu filozofların düşüncelerini ciddiye almalıyız? Bugün 'Hızlandırma İsmiyle Bilinen' kavramını bu kadar önemli kılan şey nedir?


Vitalik Buterin: Benim görüşüme göre, son tahlilde hepimiz bu dünyayı anlamaya çalışıyoruz ve bu dünyada neyin anlamlı olduğunu belirlemeye çalışıyoruz, bu insanlığın binlerce yıldır üzerinde düşündüğü bir sorundur.


Ancak, benim için son yüz yılda yeni bir şey ortaya çıktı, o da hızla değişen bir dünyayı anlamamız gerektiği gerçeğidir, bazen hızlı ve yıkıcı değişimlere sahip bir dünya.


Erken dönem şöyleydi: Birinci Dünya Savaşı'ndan önce, yani yaklaşık 1900 civarında, insanlar teknolojiye son derece iyimser bir bakış açısına sahipti. O zamanlar, kimya bir teknoloji olarak kabul ediliyordu, elektrik de bir teknolojiydi ve o dönem teknolojiye karşı büyük bir heyecan vardı.


Eğer o zamanlara ait bazı filmlere bakarsanız, örneğin Sherlock Holmes filmlerine, o dönemin iyimser atmosferini hissedeceksiniz. Teknoloji insanların yaşam standartlarını hızla yükseltiyor, kadınların emeğini serbest bırakıyor, insan ömrünü uzatıyor ve birçok mucize yaratıyordu.


Ancak, Birinci Dünya Savaşı her şeyi değiştirdi. Bu savaş yıkıcı bir şekilde sona erdi, insanlar at üzerinde savaş alanına girdi, ancak tankla ayrıldı; ardından İkinci Dünya Savaşı patlak verdi ve daha büyük bir yıkım getirdi. Bu savaş dönemi hatta "Ben artık bir ölüm meleği oldum, dünyanın yıkıcısı" gibi sözleri doğurdu.


Bu tarihi olaylar insanları teknoloji ilerlemesinin bedelini sorgulamaya ve postmodernizm gibi düşüncelerin ortaya çıkmasına neden oldu. İnsanlar şimdi şunu anlamaya çalışıyor: Kökten sarsılan inançlarımızla, neye inanabiliriz?


Benim düşünceme göre, bu tür bir düşünme süreci yeni bir şey değil, her nesil benzer bir süreç yaşar. Bugün de benzer zorluklarla karşı karşıyayız. Hızla ilerleyen teknoloji çağında yaşıyoruz ve bu hızlanma kendisi de sürekli hızlanıyor. Bu durumla nasıl başa çıkacağımıza karar vermemiz gerekiyor: Bu kaçınılmazlığı kabul etmek mi yoksa durdurmaya çalışmak mı?


Benim düşünceme göre, şu anda benzer bir döngü içindeyiz. Geçmişten gelen düşünceleri miras alırken, aynı zamanda bunlara yeni bir şekilde nasıl yanıt vereceğimizi de deniyoruz.


Termodinamik ve Birincil İlkeler


Shaw Walters: Guill, E/acc'nin aslında ne olduğunu ve neden gereksinim duyulduğunu basitçe açıklayabilir misin?


Guillaume Verdon: Aslında E/acc (Effective Accelerationism), bir yandan sürekli olarak düşündüğüm "burada neden olduğumuzu" ve "bugün nasıl buraya geldiğimizi" düşüncesinin bir yan ürünüdür. Hangi tür bir üretim süreci bizi yarattı, medeniyetin gelişimini itekledi? Teknoloji bizi bugünün bu noktasına getirdi, bu odada bu tür bir konuşma yapabilmemizi sağladı. Etrafımızda hayranlık uyandıran teknolojiler varken, insanoğlu kendisi bir tür inorganik "çorbadan" ortaya çıktı.


Bir bakıma, bunun arkasında gerçekten fiziksel bir üretim süreci var. Günlük çalışmam, Üretilmiş Yapay Zekayı bir tür fiziksel süreç olarak görmek ve bunu cihazlara uygulamaya çalışmaktır. Bu "fizik öncelikli" düşünme tarzı zihinsel sürecimi sürekli etkilemiştir. Bu bakış açısını tüm medeniyete genişletmek ve insan medeniyetini devasa bir "kültür ortamı" olarak görmek, bugüne nasıl geldiğimizi anlayarak gelecekteki olası gelişme yönlerini tahmin etmek istiyorum.


Bu düşünce tarzı beni yaşamın fiziksel doğası araştırmalarına yönlendirdi, bunlar yaşamın ortaya çıkışı ve ortaya çıkışı ile ilgili, ayrıca "Rastgele Termodinamik" adını taşıyan bir fizik alt dalıyla ilgiliydi. Rastgele Termodinamik, dengesiz sistemlerin termodinamiğini araştırır ve yaşamın davranışını, hatta düşüncemizi ve zekamızı tanımlamak için kullanılabilir.


Daha geniş bir açıdan bakıldığında, Rastgele Termodinamik yalnızca yaşam ve zekâya uygulanmakla kalmaz, aynı zamanda termodinamiğin ikinci yasasını izleyen tüm sistemlere de uygulanır, bu da tüm medeniyetimizi kapsar. Benim için, bu sürecin merkezinde şu gözlem vardır: Tüm sistemlerin bir eğilimi vardır, o da kendi kendini daha karmaşık hale getirerek sürekli olarak çevreden enerji alarak iş yapmak ve ayrıca fazla enerjiyi ısı şeklinde yayarak, her şeyin ilerleyişini ve hızlanmasını iten temel güçtür.


Diğer bir deyişle, bu değiştirilemez bir fizik kuralıdır, tam olarak yerçekimi gibidir. Ona karşı çıkabilir, inkar edebilirsiniz, ancak bu şekilde değişmeyecektir, hala var olmaya devam edecektir. Bu nedenle, E/acc konseptinin merkezinde şu fikir yatar: Bu tür bir hızlanma kaçınılmaz olduğuna göre, bunu nasıl kullanmalıyız? Termodinamik denklemlerini dikkatlice incelediğinizde, Darwin seleksiyonu etkisine benzer etkilerin işlediğini göreceksiniz - her bir bilgi parçasının, gen, mımikleri, kimyasal, ürün tasarımı veya bir politika olması fark etmeksizin, seçilme baskısına tabi tutulması gerekmektedir.


Bu seçilme baskısı, bu bilgilerin, sistemlerine faydalı olup olmadığına göre süzülür. "Faydalı" dediğimde, bu parçaların çevreyi daha iyi tahmin edip edemeyeceği, enerji alıp alamayacağı ve daha fazla ısı tüketip tüketemeyeceği anlamına gelir. Kısacası, bu parçaların hayatta kalmaya, büyümeye ve üremeye yardımcı olup olmadığıdır. Eğer bu hedeflere yardımcı oluyorsa, saklanıp kopyalanacaktır.


Fiziksel bir bakış açısından bakıldığında, bu fenomen "Bencil Bit İlkesi" olarak görülebilir. Yani, yalnızca büyümeyi ve hızlanmayı teşvik edebilen bitlerin gelecekteki sistemlerin bir parçası olacağı açıkça belli olur.


Bu nedenle, bir fikir ortaya attım: Bu "zihin yazılımını" insan toplumuna yerleştirebileceğimiz bir kültür tasarlayabilir miyiz? Bunu yapabilirsek, bu kültürü benimseyen insan gruplarının, diğer gruplara göre daha yüksek bir hayatta kalma olasılığı olacaktır.


Dolayısıyla, E/acc herkesi yok etmeyi amaçlayan bir şey değil. Aslında, aslında herkesi kurtarmaya çalışıyor. Benim için, matematiksel olarak neredeyse, "yavaşlama" zihniyetine sahip olmanın aslında zararlı olduğunu kanıtlamak mümkündür. Birey, şirket, ülke veya tüm bir medeniyet olsun, gelişmeyi yavaşlatmayı seçmek, gelecekte hayatta kalma olasılıklarını azaltacaktır. Ve bu "yavaşlama" düşüncesini yaymanın, pesimizm veya kıyametçilik gibi, etik bir davranış biçimi olmadığını düşünüyorum.


Shaw Walters: Şimdiye kadar E/acc, hızlanma, yavaşlama gibi birçok terimden bahsettik, bu kavramları biraz daha ayrıntılı olarak açıklayabilir misiniz? E/acc kavramı, belirli bir kültürel olgunun bir tepkisi miydi? O dönemde neler yaşandı? Arka planı hakkında bize bir açıklama yapabilir misiniz? E/acc özellikle neye tepki olarak ortaya çıktı? O dönemdeki tartışmayı nasıl özetlersiniz ve bu düşünceleri nihayetinde "E/acc" kavramına nasıl dönüştürdünüz?


Guillaume Verdon: 2022 yılında, o zamanlar dünya genelinde biraz kasvetli görünüyordu. Yeni çıkmıştık COVID-19 salgınından, küresel durum pek de iç açıcı değildi. Herkes biraz moral bozuktu, güneş ışığı eksikliği gibi hissediliyordu, insanlar genel olarak gelecekten umutsuzdu.


O ortamda, "AI Kıyametçiliği" aslında bir şekilde ana akım kültürün bir parçası haline geldi. AI Kıyametçiliği, yapay zeka teknolojisinin kontrolden çıkabileceği korkusunu ifade eder. Bu, şu endişeden kaynaklanır: Eğer çok karmaşık bir sistem yaratırsak ve insan beynimiz veya modellerimiz davranışını öngöremiyorsa, o zaman onu kontrol edemeyiz ve bu tür kontrolsüzlük korkusu geleceğe yönelik belirsizliği tetikler, endişe yaratır.


Bence, AI Kıyametçiliği aslında insanların endişesinin bir tür politikleştirilmiş kullanımıdır. Genel olarak, bu apokaliptizm büyük bir olumsuz etki olduğunu düşünüyorum ve bu nedenle bu karamsarlığa karşı bir karşı kültür yaratmak istedim.


Fark ettim ki, Twitter'ın algoritması gibi, hatta birçok diğer sosyal medyanın algoritmaları da, yoğun duygusal tepkiye yol açan içerikleri ödüllendirmeye eğilimlidir, örneğin "kesin destek" veya "kesin karşıtlık". Bu tür algoritmalar sonunda fikirlerin kutuplaşmasına yol açar, böylece AA (karşı hızlanma) ve EA (hızlanma) gibi karşıt kampların oluşturduğu "yansıtma tarikatı" fenomenini görürüz.


Düşündüm ki, bu fenomenin karşıtı nedir? Benim çıkarımım şu oldu: Endişenin karşıtı meraklılıktır. Bilinmeyenden korkmak yerine, bilinmezliği kucaklamak daha iyidir; fırsatı kaçırdığımızı endişelenmek yerine, aktif olarak geleceği keşfetmek daha iyidir.


Eğer teknolojinin gelişimini yavaşlatmayı seçersek, büyük bir fırsat maliyeti öderiz, belki de daha iyi bir geleceği asla göremeziz. Bunun yerine, geleceği iyimser bir şekilde hayal etmeliyiz, çünkü inancımız gerçekliği etkiler. Eğer geleceğin kötü olacağına inanıyorsak, eylemlerimiz dünyayı o kötü yöne götürebilir; ancak eğer geleceğin daha iyi olacağına inanırsak ve buna çaba gösterirsek, bu tür bir geleceği gerçekleştirme olasılığımız daha yüksek olur.


Bu nedenle, olumlu bir tutumun yayılması için sorumluluk taşıdığıma inanıyorum, daha fazla insanın geleceğe katkıda bulunabileceğine inanmalarını sağlamak için. Eğer daha fazla insanın geleceğe umutla bakmasını sağlayabilir ve onu inşa etmek için adımlar atmalarını teşvik edebilirsek, o zaman daha iyi bir dünya yaratabiliriz.


Elbette, çevrimiçi ifadelerimin bazen biraz aşırı göründüğünü kabul ediyorum, ancak bu, insanları düşünmeye teşvik etmek için tartışma yaratmayı umduğum içindir. Sadece bu tür diyaloglar aracılığıyla, en uygun konumu bulabilir ve nasıl hareket etmemiz gerektiğine karar verebiliriz.


Hızlanma, Entropi ve Medeniyet


Shaw Walters: E/belki ACC'nin ilettiği bilgi her zaman ilham verici olmuştur ve bir oda içinde kod yazan biri için, bu pozitif enerjinin yayılması heyecan verici ve bu bilginin yayılması çok doğaldır. E/acc'ın, başlangıçta açıkça o dönem toplumunda yaygın olan olumsuz duygulara bir yanıt olduğu söylenebilir, ancak 2026 yılına gelindiğinde E/acc'ın artık başlangıçtaki halinden farklı olduğunu hissediyorum. Açıkça, Marc Andreessen'ın yayınladığı "Teknolojiyi İyimserlikle Anlama Manifestosu" bazı fikirleri sistemize etti ve bu idealleri Vitalik'in daha geniş çapta yorumlama bakış açısına taşıdı.


Bu nedenle Vitalik, size şunu sormak istiyorum: Sizce E/acc ve D/acc sırasıyla neyi temsil ediyor? Aralarındaki temel fark nedir? Ve sizi bu yönde seçmeye ne zorladı?


Vitalik Buterin: Peki, o zaman termodinamikten başlayalım. Bu oldukça ilginç bir konu çünkü genellikle farklı bağlamlarda "entropi" terimini duyarız, ısı biliminde "sıcak-soğuk" olarak ve kriptografi biliminde "entropi" olarak, bunlar tamamen farklı gibi görünür. Ancak aslında, temelde aynı kavramdalar.


Hadi üç dakikada açıklamaya çalışalım. Sorun şu: Neden sıcak-soğuk bir araya gelebilir ama onları tekrar "sıcak" ve "soğuk" şeklinde ayıramazsınız?


Basit bir örnek üzerinden düşünelim: Diyelim ki iki tane gaz kutunuz var, her birinde bir milyon tane atom var. Soldaki gaz soğuktur, her atomun hızı iki basamaklı bir sayıyla ifade edilebilir; sağdaki gaz sıcaktır, her atomun hızı altı basamaklı bir sayıyla ifade edilebilir.


Eğer tüm sistemin durumunu açıklamak istiyorsak, her atomun hızını bilmemiz gerekir. Sol taraftaki soğuk gazın hız bilgisi yaklaşık 2 milyon basamak gerektirir, sağdaki sıcak gazın hız bilgisi 6 milyon basamak gerektirir, toplamda bu sistemi tam olarak tanımlamak için 8 milyon basamak bilgiye ihtiyaç vardır.


Şimdi, bir problemi dolaylı kanıt yoluyla düşünebiliriz. Varsayalım ki sıcaklığı ve soğukluğu tamamen ayırabilen bir cihazınızın olduğunu düşünün. Daha açık bir ifadeyle, bu cihaz, iki teneke kutudaki "yarı-sıcak yarı-soğuk" gazlardan, tüm sıcaklığı bir tarafa transfer edebilir ve tüm soğukluğu diğer tarafa transfer edebilir. Enerji korunumu açısından bakıldığında, bu tamamen makul görünüyor çünkü toplam enerji değişmiyor gibi görünüyor. Ancak sorun şu, neden bunu başaramıyorsunuz?


Cevap, bunu gerçekten yapabilseydiniz, aslında "1140 milyon bilinmeyen bilgi içeren" bir sistemi, "yalnızca 800 milyon bilinmeyen bilgi içeren" bir sistem haline getirdiğinizdir ve fiziksel olarak bu imkansızdır.


Bunun nedeni fizik yasalarının zaman açısından simetrik olmasıdır, yani zaman tersine işleyebilir. Eğer bu tür bir "büyülü cihaz" varsa, o zaman bu süreci zamanda geriye doğru çalıştırarak, başlangıç ​​durumuna geri dönebilirsiniz. Bu, bu cihazın aslında herhangi bir 1140 milyon bilgiyi 800 milyon bilgiye sıkıştırabileceği anlamına gelir ve bu tür bir sıkıştırmanın gerçekleştirilemez olduğunu biliyoruz.


Bu aynı zamanda klasik bir fizik sorusunun—"Maxwell'in şeytanı"—geçerliliğini açıklar. Maxwell'in şeytanı, sıcaklık ve soğukluğu ayırabilen hayali bir varlıktır ve bunu başarmanın anahtarı, o ekstra 340 milyon bilgiyi bilmektir. Bu ekstra bilgi ile, gerçekten sezgiye aykırı görünen bu görevi başarabilir.


Peki, bunda gizli olan anlam nedir? Esas mesele "entropi artışı" kavramında yatmaktadır. İlk olarak, entropi subjektiftir, sabit bir fiziksel istatistiksel birim değildir; sistemdeki bilinmeyen bilgi miktarımızı yansıtır. Örneğin, atomların dağılımını bir şifreleme karma işlevi ile yeniden düzenlersem, bu sistem için entropi çok düşük olabilir çünkü nasıl düzenlendiğini biliyorum. Ancak dış gözlemci açısından, entropi yüksektir. Bu nedenle, entropi arttığında, aslında dünyaya dair bilgisizliğimizin arttığı, bilmediğimiz bilginin arttığı anlamına gelir.


Belki soracaksınız, o zaman neden eğitim yoluyla daha akıllı hale geliyoruz? Eğitim, bize daha fazla "yararlı" bilgi öğretir, dünyaya karşı bilgisizliğimizi azaltmaz. Başka bir deyişle, entropinin artması, evrenin genel anlayışımızın azalması anlamına gelirken, elde ettiğimiz bilgiler daha değerli hale gelir. Bu süreçte, bazı şeyler tüketilirken, bazı şeyler yaratılır. Ve elde ettiğimiz bu şeyler, nihayetinde ahlaki değerlerimizi belirler—hayatı, mutluluğu ve neşeyi değerli buluruz.


Bu aynı zamanda neden bir insan dünyası dolu ve güzel görünen bir gezegenden, sadece sayısız parçacıkları olan bir Jüpiter'den daha ilginç geldiğimizi açıklar. Jüpiter'in parçacık sayısı daha fazla olsa da, tanımlamak için daha fazla bilgi gerektirir, verdiğimiz anlam Dünya'yı daha değerli kılar.


Bu bakış açısından, değerin kaynağı kendi seçimlerimizdedir. Bu durum ayrıca şu soruyu da ortaya çıkarıyor: Hızla gelişmekte olduğumuz bir ortamda, aslında neyi hızlandırmak istiyoruz?


Matematiksel bir benzetme kullanarak açıklamak gerekirse: Diyelim ki büyük bir dil modeliniz var ve rastgele bir ağırlık değerini, örneğin 9 milyar, devasa bir sayıyla değiştiriyorsunuz. En kötü senaryoda, bu model artık tamamen kullanılamaz hale gelirken; en iyi senaryoda ise, sadece o ağırlıkla ilgili olmayan kısmın normal şekilde işlemeye devam edebilir. Yani en iyi durumda, daha düşük performanslı bir model elde edebilirsiniz; en kötü durumda ise, anlamsız çıktılar elde edersiniz.


Bu nedenle, insan toplumu benzersiz bir büyük dil modeline benzer. Belirli bir kısmı seçim yapmadan körü körüne hızlandırırsak, sonuçta tüm değeri kaybetme riskiyle karşı karşıya kalabiliriz. Dolayısıyla asıl sorun şudur: Nasıl bilinçli bir şekilde hızlandırabiliriz? Daron Acemoglu'nun öne sürdüğü "Dar Koridor" teorisi gibi, farklı toplumsal ve siyasi bağlamlar farklılık gösterebilir, ancak düşünmemiz gereken şey, net bir hedefi rehberlik edinerek ilerlemeyi seçici bir şekilde nasıl ilerleteceğimizdir.


Guillaume Verdon: Entropiyi açıklamak için gaz kullanımıyla yaptığınız benzetme çok ilginçti. Aslında, fiziksel olayların geri dönüşü olmayan olmasının temel nedeni termo dinamiğin ikinci yasasıdır. Basitçe söylemek gerekirse, bir sistem ısıyı yaydığında, durumu artık eski haline dönemez. Çünkü olasılık açısından, sistem ileriye doğru gelişme olasılığı geriye göre çok daha yüksektir ve bu fark ısı kaybıyla birlikte artan bir oranda artar.


Bir şekilde, bu evrende bir "çukur" bıraktınız gibi düşünebilirsiniz. Bu "çukur", bir anelastik çarpışmayı temsil edebilir. Örneğin, bir elastik top ile zemine çarparsanız, geri sıçrar, bu elastiktir. Ancak bir parça kil ile yere vurursanız, ezilir ve o şekilde kalır, bu ise anelastiktir, neredeyse geri dönüşü mümkün değildir.


Temelde, her bir bilgi varlığını yaratmak için "mücadele" eder. Var olmaya devam etmek için, her bilginin kendisi varlığıyla ilgili silinemez izler bırakması gerekir, sanki bir "çukur" bırakıyormuşuz gibi.


Bu prensip aynı zamanda hayatın ve zekanın nasıl bir "ilkel madde çorbası"ndan doğduğunu açıklamak için de kullanılabilir. Sistem karmaşık hale geldikçe, içerdiği bilgi bit sayısını artar. Ve her bir bilgiyi veri kadar bilgi verebilir. Bilginin doğası, çünkü bilgiyi azaltarak entropiyi azaltır; çünkü entropi cehaletimizi temsil eder, bilgi ise cehaleti azaltan bir araçtır.


Eddy Lazzarin: E/acc'ın ne olduğunu merak ediyorum.


Guillaume Verdon: E/acc aslında bir "meta kültür reçetesi"dir. Kendisi bir kültür değildir, ancak bize neyin hızlandırılması gerektiğini söyler. Hızlandırmanın özü, maddenin karmaşıklığıdır, çünkü bu şekilde çevremizi daha iyi tahmin edebiliriz. Bu karmaşıklık aracılığıyla otoregresif tahmin yeteneğimizi artırabilir ve daha fazla serbest enerjiyi yakalayabiliriz. Bu aynı zamanda Kardashev Derecesi ile de ilgilidir, bu da ısı yayarak bunu başarmamızı sağlar.


Deep Tide TechFlow Notu: Kardashev Derecesi, 1964 yılında Sovyet astronom Nikolai Kardashev tarafından geliştirilen bir uygarlığın teknolojik ilerleme seviyesini değerlendiren bir yöntemdir, enerji miktarı düzeyine dayanarak. Üç türe ayrılır: Tip I (gezegen ölçeğinde enerji), Tip II (yıldız sistem enerjisi, örneğin Dyson küresi gibi) ve Tip III (galaksi enerjisi). 2018 itibarıyla, insanlık yaklaşık olarak 0.73 seviyesindedir.


İlk prensiplerden başlayarak, bu nedenle Kardashev Derecesinin, bir uygarlığın gelişim seviyesini ölçen bir nihai gösterge olarak kabul edildiğini söyleyebiliriz.


Eddy Lazzarin: Bazı olguları fizik ve entropi metaforu kullanarak açıklamak aslında doğrudan deneyimlediğimiz gerçekliği tanımlamak için bir araçtır. Örneğin, ekonomik üretim yeteneğimiz hızlanıyor, teknoloji gelişimi de hızlanıyor, bu hızlanma birçok sonuç getiriyor, değil mi? Bu, "hızlanma"ya olan anlayışım.


Guillaume Verdon: Temelde bir sistemin sınırı nasıl tanımlanırsa tanımlansın, çevresindeki dünyayı tahmin etme konusunda giderek daha iyileşecektir. Bu tahmin yeteneği aracılığıyla, yaşam ve genişleme için daha fazla kaynak elde edebilecektir. Bu desen şirketler, bireyler, ülkeler ve hatta tüm dünya için geçerlidir.


Eğer bu eğilimi devam ettirirsek, sonuç şudur: Enerjiyi tahmin yeteneğine dönüştürebileceğimiz bir yol bulduk - yani yapay zeka. Bu yetenek, bizi Kardashev Derecesi'nde genişletmeye ve yükseltmeye yönlendirecektir.


Bu, daha fazla enerji, daha fazla yapay zeka, daha fazla hesaplama gücü ve diğer kaynaklar elde edeceğimiz anlamına gelir. Evrensel olarak entropiyi (düzensizlik) artırdığımızı düşünürken, aslında düzen oluşturuyoruz. Aslında, "negatif entropi" elde ediyoruz, yani entropinin karşıtı.


Ara sıra insanlar şöyle sorabilir: Entropi artarken, neden her şeyi basitçe yok etmiyoruz? Cevap şudur: Bu, entropinin üretilmesini durduracaktır. Yaşam, daha "en optimu" durumdur, yaşam enerjinin peşinde koşan bir alev gibidir, enerjinin kaynağını daha da zeki bir şekilde arayacaktır.


Doğal evrimin eğilimi şudur: Yerçekiminin kavrayışından ayrılacağız, evrende özgür enerjiye sahip başka "cep"leri arayacağız ve bu enerjiyi kullanarak daha karmaşık, daha akıllı sistemlere kendiliğinden dönüşeceğiz, sonunda evrenin her köşesine genişleyeceğiz.


Bunlar aslında Etkili Altruizmin (Effective Altruism, EA) belirli bir nihai amacıdır. Bu, bir şekilde "Musk tarzı" evren genişlemeci fikirle örtüşmektedir: evrenselcilik ve genişlemecilik vizyonunu takip etme.


E/acc temel bir rehberlik prensibi sunar. Temel fikri şudur: bu dünyada hangi politikayı veya eylemi benimsersek edinelim, eğer bizi Carl Sagan seviyesine çıkarmamıza yardımcı oluyorsa, o hedefe ulaşmaya değerdir, bu aynı zamanda yaşam yönümüzdür.


E/acc, bir meta heuristik düşünme şeklidir ve hem politika tasarımında hem de bireylerin yaşamlarını yönlendirmede kullanılabilir. Benim için bu düşünme tarzı kendisi başlı başına bir kültür oluşturur. Bu, anlam bakımından "meta" bir anlatıya sahiptir, çünkü herhangi bir zamanda ve koşulda geçerli olacak şekilde tasarlanmıştır. Bu, son derece evrensel ve uzun ömürlü bir kültürdür; yani, derinlemesine düşünülmüş bir "Lindy kültürü" olarak tasarlanmıştır.


Temel Farklılık


Shaw Walter: Sizler için burada tartışılan konunun derin anlamları vardır. Bu neredeyse matematiksel olarak tutarlı bir "manevi sistem" gibi. Tanrı'nın öldüğü sonrası bir yedek inanca sahip olmayanlar için, bu tür bir sistem ruhani dünyadaki boşluğu doldurabilir ve bir teselli ve umut getirebilir. Ancak aynı zamanda şu anda gerçekleşmekte olan bu durumun gerçek anlamını da göz ardı edemeyiz. Sanırım bu da Eddy'nin keşfetmek istediği nokta.


Vitalik, kendi blogunuzda D/acc ile ilgili bazı gerçek sorunlara çok derinlemesine bir bakış açısı sunduğunuzu fark ettim. Bir gün bu konuyu derinlemesine tartışmak için fırsatımız olduğunda - sanırım şu ana kadar sizi ikimizi bir odaya kilitlemeli ve kuantum sorunu hakkında büyük bir tartışma yapmalıyız.


Vitalik: Sizi neyin ilham verdiğini görmek ilginç olurdu? E/acc ve D/acc sizin için ne anlama geliyor?


Vitalik Buterin: Benim için D/acc'nin anlamı - kısaltması "Merkezi Olmayan Savunma Odaklı Hızlandırma" olsa da, aynı zamanda "Farklılaşma" ve "Demokratikleşme"yi içerir. Benim için D/acc'nin temel fikri şudur: Teknolojik hızlanma insanlık için son derece önemlidir ve bu çabalamamız gereken temel hedef olmalıdır.


20. yüzyıla geri dönsek bile, teknolojik ilerleme birçok sorunu beraberinde getirse de, sayısız fayda da sağlamıştır. Örneğin, insan ömrüne bir göz atın: Savaşlar ve çalkantılar yaşanmasına rağmen, 1955 Almanya'sının beklenen ömrü hala 1935 seviyesinin üzerindedir, bu da teknolojik ilerlemenin hayat kalitemizi her açıdan artırdığını göstermektedir.


Bugün dünya daha temiz, daha güzel, daha sağlıklı ve daha eğlenceli hale geldi. Sadece daha fazla insanı beslemekle kalmıyor, aynı zamanda hayatımızı daha renkli hale getiriyor ve bu değişiklikler insanlık için son derece olumlu bir gelişmedir.


Bununla birlikte, şunu düşünüyorum ki, bu ilerlemeler tesadüfen değil, insanlığın açık bir niyetinin sonucudur. Örneğin, 1950'lerde hava kirliliği ciddiydi ve dumanlar her yeri kaplamıştı. İnsanlar bunun bir sorun olduğunu fark etti ve bunu çözmek için adımlar attı. Bugün, en azından birçok yerde duman sorunu önemli ölçüde azalmış durumda. Benzer şekilde, ozon tabakası delinmesi sorunuyla karşı karşıya kaldık ve küresel işbirliği ile önemli ilerlemeler kaydettik.


Ayrıca, bir noktayı daha eklemek istiyorum: Teknoloji ve yapay zeka hızla ilerlerken, ben iki ana risk görüyorum.


Bir risk türü çok kutuplu riske işaret eder. Bu risk türü, teknolojinin yaygınlaşmasıyla birlikte, giderek daha fazla insanın bunu son derece tehlikeli şeyler yapmak için kullanabileceği anlamına gelir. Örneğin, aşırı bir durumu düşünebiliriz - teknolojinin gelişimi, "herhangi birinin marketten alışveriş yapar gibi kolayca nükleer silah elde edebileceği" bir durumu mümkün kılar.


Bir başka endişe ise: Yapay Zeka kendisi. Ciddi bir şekilde düşünmemiz gereken bir olasılık şudur: Yapay Zeka belirli bir öz farkındalık geliştirebilir. Yetenekleri insan müdahalesi olmadan harekete geçecek kadar güçlü hale geldiğinde, ne tür kararlar vereceğini tam olarak bilemiyoruz ve bu belirsizlik endişe verici.


Bunun yanı sıra tek kutuplu bir risk de var. Bence, tek bir Yapay Zeka bu tehditlerden biri. Daha da kötüsü, diğer modern teknolojilerle birleşen Yapay Zeka, kaçınılmaz bir şekilde kaçınılamaz bir diktatörlük toplumuna yol açabilir. Bu görünüm beni oldukça endişelendiriyor ve daima odaklandığım bir konu olmuştur.


Örneğin, Rusya'da, teknolojinin hem ilerlemesini hem de tehlikesini görebiliyoruz. Bir yanda yaşam koşulları gerçekten iyileşti; ancak diğer yanda toplumun özgürlüğü azaldı. Eğer birisi itiraz etmeye kalkışırsa, izleme kamerası davranışlarını kaydedecek ve ardından bir hafta sonra gece yarısı kapınızı çalıp onları gözaltına almak için gelen olabilecektir.


Yapay Zekanın hızla gelişimi, bu iktidar merkezileşme eğilimini hızlandırıyor. Bu yüzden benim için D/acc'ın gerçekten yapmak istediği şey şudur: İlerlemenin bir yolunu çizmek, bu hızlanmayı sürdürmek ve daha da hızlandırmak, ancak aynı zamanda bu iki riskle gerçekten başa çıkmak.


E/acc ve D/acc'nin Karşılaştırılması


Eddy Lazzarin: Yani demek istediğin, D/acc'nin, E/acc çerçevesinde ihmal edilen veya yetersiz vurgulanan bazı risk kategorilerine daha fazla odaklandığı, doğru mu?


Vitalik Buterin: Kesinlikle. Teknolojik gelişme, birçok farklı riskle birlikte gelir ve bu riskler farklı bağlamlarda ve dünya modellerinde farklı belirginliklerle ortaya çıkar. Örneğin, teknolojik gelişmenin hızlanması veya yavaşlaması durumunda, farklı risklerin önceliği değişebilir.


Ancak ben aynı zamanda, bu risklerle etkin bir şekilde başa çıkabileceğimize inanıyorum, hangi risk kategorisine ait olursa olsun.


Guillaume Verdon: Aslında ben, Vitalik ve benim, her ikimizin de yapay zeka tarafından getirilen iktidarın aşırı merkezileşme sorununa büyük ilgi gösterdiğimize inanıyorum. Ve bu ayrıca E/acc hareketinin temel noktalarından biridir, özellikle erken aşamalarında: açık kaynaklığı teşvik etmek, amaç ise yapay zeka iktidarını dağıtmaktır.


Yapay zeka güvenliği kavramının kötüye kullanılabileceğinden endişe duyuyoruz. Bu çok çekici bir hedef, bu yüzden iktidar peşinde olan bazı kurumlar bunu bir araç olarak kullanabilir, AI'nın kontrolünü sağlamlaştırmak için ve halkı şu şekilde ikna etmeye çalışabilirler: güvenliğiniz için, sıradan insanların yapay zekaya erişimi olmamalıdır.


Aslında, eğer bireyler ve merkezi kurumlar arasında büyük bir farkın algılanması varsa, o zaman ikincisi birinciye karşı tam kontrol sahibi olacaktır. Onlar, düşünce modelleriniz hakkında tam bir model oluşturabilir ve sizin davranışlarınızı etkili bir şekilde yönlendirmek için öneri mühendisliği gibi araçları kullanabilirler.


Bu nedenle, yapay zekanın gücünü daha simetrik hale getirmeyi umuyoruz. Aynı şekilde, Amerikan Anayasası'nın İkinci Değişiklik tasarlandığı gibi, hükümetin şiddeti tekelleştirmesini engellemek amacıyla, hükümet aşırıya kaçtığında, halkın onu dengeleme imkanı olmalıdır. Benzer şekilde, yapay zeka da iktidarın aşırı birikimini engellemek için benzer mekanizmalara ihtiyaç duyar.


Herkesin kendi yapay zeka modeli ve donanımına sahip olma yeteneğine sahip olduğundan emin olmamız gerekiyor, böylece bu teknolojinin geniş çapta yayılmasını sağlayarak iktidarın dağıtılmasını sağlarız.


Ancak, yapay zekanın araştırma ve geliştirilmesini tamamen durdurmanın gerçekçi olmadığını düşünüyorum. Yapay zeka temel bir teknolojidir, hatta bir "meta-teknoloji" olarak adlandırılabilir - diğer teknolojilerin gelişimini iten bir teknoloji. Bize daha güçlü tahmin yeteneği verir, neredeyse her göreve uygulanabilir ve verimliliği önemli ölçüde artırabilir. Yapay zeka, sadece hızlanmayı teşvik etmekle kalmıyor, aynı zamanda hızlanmanın daha da hızlanmasını sağlıyor.


Bu hızlandırmanın esası karmaşıklıktır: Şeyler daha verimli hale gelir, yaşam daha da kolaylaşır. Mutlu olmamızın bir nedeni, varlığımızın ve bilginin sürekliliğinin güvence altına alınmış olmasıdır. Bu "mutluluk" hissi, varlığımızın devam edip edemeyeceğini ölçmek için kullanılan içsel bir biyolojik hesap makinesi olarak görülebilir.


Bu açıdan, etik faydacılığın zevk ilkesi faydacılık çerçevesi, yani "mutluluğu en üst düzeye çıkarma" belki de en iyi bakış açısı değildir diye düşünüyorum. Aksine, ben nesnel bir ilerleme ölçütü kullanmaya daha meyilliyim, ki bu da E/acc çerçevisinin merkezinde yer almaktadır. Bu bir soru ortaya atar: Nesnel bir bakış açısından, bir medeniyet olarak sürekli ilerleme kaydediyor muyuz? Ölçeklendirilebilir yükselişi mi gerçekleştiriyoruz?


Bu ölçeklendirmeyi başarmak için karmaşıklığı itmek ve sürekli olarak teknolojimizi geliştirmek zorundayız. Ancak, Vitalik'in belirttiği gibi, eğer yapay zeka gücü az sayıda insanın elinde fazlasıyla toplanırsa, bu genel büyümeye zarar verebilir; ancak bu teknoloji geniş çapta dağıtılabilirse, o zaman sonuç çok daha iyi olacaktır.


Bu konuda, bence çok tutarlıyız.


Açık Kaynak, Açık Kaynak Donanımı ve Yerel Zeka


Shaw Walters: Sanırım yaptığınız tartışma son derece önemli bazı ortak noktalara dokundu. Açık kaynağı açıkça desteklediğiniz açıktır. Vitalik daha önce MIT lisansına dayalı pek çok açık kaynaklı kodu katkıda bulunmuştu, ancak sonradan GPL lisansı hakkındaki görüşlerinizin değiştiğini biliyorum.


Şimdi, sadece açık kaynak yazılımı desteklemekle kalmıyor, aynı zamanda açık kaynak donanımı geliştirmeye de başlıyorsunuz. Geçmişte bu ikisi oldukça bağımsız alanlardı, ancak şimdi onların kademeli olarak birleşmekte olduğunu görüyoruz.


Bu yüzden merak ediyorum, "açık ağırlık" ve "açık kaynak donanımı" konularına nasıl yaklaşıyorsunuz? Bu konuda E/acc ve D/acc arasında bazı farklılıklar var mı? Gelecek yönünde nasıl düşündüğünüzü merak ediyorum. Belirli konularda farklı görüşler var mı?


Guillaume Verdon: Bana göre, açık kaynak süperparametre aramasının sürecini hızlandırabilir. Bize tasarım alanını birlikte keşfetme şansı veren toplu zeka ile işbirliği yaparak çalışabiliriz. Bu, hızlandırmanın getirdiği faydaların tam da budur: Daha iyi teknolojiler geliştirebiliriz, daha güçlü yapay zeka geliştirebiliriz ve hatta daha gelişmiş yapay zekayı tasarlamak için yapay zekayı kullanabiliriz; bu sürecin hızı da sürekli olarak artmaktadır.


Benim düşünceme göre, bilginin yayılması aslında gücün yayılması anlamına gelir ve "zeka yaratmanın nasıl yayıldığı" bilgisinin yayılması özellikle önemlidir. Görmek istemediğimiz şey, önceki ABD hükümetinin içinde şöyle bir olasılığı tartıştığı şekilde: "cini tekrar şişeye sokmaya" çalışmak. Doğrudan doğruya lineer cebiri yasaklamak değil belki, ancak yapay zeka ile ilgili matematiksel araştırmaları kısıtlamaya benzer bir şey. Bu benim için biyoloji öğrenmeyi yasaklamak gibi, büyük bir geri adım anlamına gelir.


Bilgi artık yayıldı ve artık geri dönülemez. ABD yapay zeka ile ilgili araştırmaları yasaklamaya çalışırsa, diğer ülkeler, üçüncü taraf kuruluşlar ve hatta bazı düşük yasal düzenlemelere sahip alanlar bu teknolojiyi ilerletmeye devam edecektir. Böylece, küresel düzeyde yetenek farkı daha da artacak ve risk daha da büyüyecektir.


Bu nedenle, bizce en büyük risklerden biri "yetenek farkı"dır. Bu riski azaltmanın tek yolu, yapay zekanın dağıtılmış olduğundan emin olmaktır.


Her "Yapay Zeka Kıyameti" anlatısını duyduğumda, "Yapay Zeka çok tehlikelidir, sadece biz onu yönetme kapasitesine sahibiz, bu yüzden bize güvenmelisiniz" gibi, çok şüpheci hissederim. Bu insanlar iyi niyetli olsalar da, eğer aşırı derecede gücü merkezileştirirlerse, sonunda gücü arzulayanlar tarafından bile değiştirilebilirler. Çok uzun yıllardır uyarıda bulunuyoruz. Ve şimdi gerçekten başlıyor. Bu hafta gördüğümüz gibi, Dario (Anthropic CEO) bazı gerçek siyasi dersler yaşamaktadır.


Vitalik Buterin: Genellikle teknoloji gelişiminden kaynaklanabilecek riskleri iki kategoriye ayırırım: Tek Kutuplu Risk ve Çok Kutuplu Risk.


Tek Kutuplu Risk, Anthropic'in durumu bunun iyi bir örneğidir. Onların "isim verilmesi" nedeni, kendilerinin yapay zeka teknolojilerini tam otomatik silahların geliştirilmesi veya ABD vatandaşlarının geniş çapta izlenmesi için kullanılmasına izin vermek istememeleridir, bu da hükümetin ve ordunun bu teknolojileri gerçekten büyük ölçekli izleme için kullanmayı düşündüğünü göstermektedir. İzleme teknolojisinin ilerlemesi derin etkilere yol açabilir, güçlüleri daha da güçlendirme potansiyeline sahiptir, toplumda çeşitliliğe sahip seslerin alanını daraltabilir, sıradan insanların keşfetme ve alternatif çözümler deneme özgürlüğünü sınırlayabilir. Ve teknolojinin ilerlemesiyle, izleme kapasitesi büyük ölçüde genişleyecek ve daha zorlayıcı hale gelecektir.


D/acc çerçevesinde, bazı "açık kaynaklı savunmacı teknolojileri" geliştirme projelerini destekliyoruz. Bu teknolojiler, bizi daha güçlü bir teknolojiye sahip bir dünyada, herkesin güvenliğini ve gizliliğini sağlamamıza yardımcı olmayı amaçlamaktadır. Biyoloji alanında olduğu gibi, küresel salgınlara karşı tepki verme yeteneğimizi artırmayı umuyoruz. Bence, hem Çin'in hızlı ve etkili bir şekilde salgınları kontrol altına alabilmesi hem de İsveç gibi günlük yaşamı mümkün olduğunca etkilememesi arasında bir denge sağlayabiliriz. Bu denge, hava filtrasyonu, ultraviyole ışın dezenfeksiyonu (UVC) ve virüs tespit teknolojileri gibi tekniklerle sağlanabilir.


Bir yatırım yaptığımız şirket, tamamen açık kaynaklı bir son ürün geliştiriyor, havadaki virüs partiküllerini pasif olarak algılayabilen, örneğin COVID-19 gibi. Bu cihaz, hava kalitesini izleyerek (örneğin karbondioksit yoğunluğu, hava kalitesi indeksi gibi) ve yerel şifreleme, anonimleştirme ve farklılaştırılmış gizlilik teknolojilerini birleştirerek veri gizliliğini sağlar. Veriler daha sonra tam homomorfik şifreleme kullanılarak sunucuya gönderilir, sunucu, orijinal verilere doğrudan erişmeden analiz yapabilir ve toplu şifre çözme aracılığıyla nihai sonuçlar oluşturabilir.


Hedefimiz: Güvenliği arttırırken kullanıcı gizliliğini korumak ve tek kutuplu ve çok kutuplu risklere etkin bir şekilde yanıt verebilmektir. Bence, bu küresel işbirliği geleceği inşa etmenin temelidir.


Donanım açısından, sadece açık kaynaklı donanım geliştirmenin ötesinde, doğrulanabilir donanımın geliştirilmesi de gerektiğine inanıyorum. Örneğin, ideal durumda, her kamera bireyin belirli kullanımını kamuoyuna kanıtlamalıdır. Bu cihazların yalnızca yasal amaçlar için kullanıldığı ve kişisel gizliliği ihlal etmediklerinden emin olmak için imza doğrulama, büyük dil modeline dayalı analiz ve açık denetim mekanizmaları aracılığıyla bunu sağlayabiliriz.


Benim hayal ettiğim gelecekte, şiddet olaylarını önlemek için sokaklara birçok kamera yerleştirilebilir. Ancak bu cihazların tamamen şeffaf olması gereklidir, halkın bunların işlevini her zaman doğrulayabilmesi ve bunların yalnızca kamu güvenliğini korumak için kullanıldığından ve izleme veya diğer yasal olmayan amaçlar için kötüye kullanılmadığından emin olunmalıdır.


Eddy Lazzarin: Açık kaynaklı donanım ve doğrulanabilir donanım, E/CCI mi yoksa D/CCI mi kapsar? Bana net bir ayrım noktası gösterebilir misiniz?


Guillaume Verdon: Geçmişte açık kaynaklı donanımın ayrıntılarına girilip girilmediğinden emin değilim, ancak bana göre, mevcut en büyük risklerden biri merkezi kuruluşlar ile merkezi olmayan kuruluşlar arasındaki boşluktur, yani bireyler ile hükümet veya büyük kurumlar arasındaki yetenek farkı.


Mevcut hesaplama kapasitesi modeline göre, yüksek performanslı bir yapay zeka modelinin çalıştırılması yüzlerce kilovatlık hesaplama kaynakları gerektirir, bu tür büyük bir hesaplama gücüne tipik bir birey ulaşamaz. Ancak insanlar kendi zeki araçlarına sahip olmak istiyor ve kontrol etmek istiyorlar, bu nedenle son zamanlarda "Openclaw + Mac mini" fenomeninin neden bu kadar büyük bir ilgi uyandırdığını ve insanların kendi zeki asistanlarına sahip olma arzusunu açıklar.


Bireyler ile merkezi kuruluşlar arasındaki güç simetrisini sağlamak için tek yol, "zeka yoğunlaştırmasını" (Densification of Intelligence) gerçekleştirmektir. Daha verimli AI donanımlarının geliştirilmesi gerekiyor, böylece bireyler basit bir cihaz aracılığıyla güçlü AI modellerini çalıştırarak kendi zeki araçlarına sahip olabilir. Bu çok önemlidir, özellikle gelecekteki AI modellerinin çevrimiçi öğrenmeyi desteklemeye başladığında, onların çok "yapışkan" hale geldikleri ve özel asistanlarını değiştirmenin zor olduğu gibi.


Eddy Lazzarin:Ancak zaten hesaplama donanım maliyetini eksponansiyel hızda düşürme çabasındayız, değil mi? Neden bir fikri E/acc veya D/acc olarak sınıflandırmalıyız? Bu tür bir sınıflandırma ile topluma ne tür bir mesaj iletmeyi amaçlıyoruz?


Guillaume Verdon:Benim için, bu aynı zamanda Extropic şirketimin ana misyonlarından biri. Her bir Watt başına üretilebilecek zeka miktarını artırmaya odaklanıyoruz, bu da yaratabileceğimiz toplam zeka miktarını önemli ölçüde artıracaktır. Aynı zamanda bu ilerleme, bizi daha yüksek bir Kardashev seviyesine doğru itecek olan Jevons paradoksu (TechFlow notu: Jevons paradoksu, bir kaynağın verimliliğinin büyük ölçüde artması durumunda, kaynağın kullanım maliyetinin düşeceği ve insanların daha da çılgınca kullanmaya başlayacağı, nihayetinde toplam tüketimin azalmadığı ancak arttığı bir durumu ifade eder) aracılığıyla da toplumumuzu taşıyacaktır. Kısacası, eğer enerjiyi zekaya veya başka bir değere daha verimli bir şekilde dönüştürebilirsek, enerjiye olan ihtiyacımız da buna bağlı olarak artacak ve bu da uygarlığın ilerlemesini ve karmaşıklık kazanımını teşvik edecek.


Bu nedenle, ben bunun şu anda en önemli teknik sorunlardan biri olduğunu düşünüyorum, çünkü doğrudan AI'nın güç dağılımıyla ilgilidir. Açık kaynaklı donanım sadece bu hedefe ulaşmanın birçok yolundan biridir. Ancak, uzun vadede, herhangi bir Von Neumann mimarisine dayalı donanım (TechFlow notu: Von Neumann Mimarisi, modern bilgisayarın temelidir ve matematikçi John von Neumann tarafından 1945 yılında önerilmiştir. Temel fikri, program talimatlarını ve verileri aynı bellekte saklamak ve ikili tabana ve sıralı yürütüme dayanmaktır) veya modern dijital teknoloji de, ilkel toplumun aletleri gibi eskimiş hale gelecektir.


Eddy Lazzarin:Ancak kapitalizm, zaten pazar teşviki aracılığıyla yılda milyarlarca dolar yatırım yapıyor, değil mi? Alternatif donanım, yarıiletken teknolojileri, enerji üretimi vb. alanlara yapılan yatırımlar, teknolojinin çeşitliliğini teşvik etmek için yapılmıyor mu?


Guillaume Verdon:Daha fazla çeşitlilik seçeneğine ihtiyacımız var, tek bir teknoloji yönüne aşırı bağımlı olmaktansa. Politika, kültür veya teknoloji olsun, tüm kaynakların tek bir canavara hükmetmesine izin vermek yerine, çeşitliliği tasarım alanında korumamız gerekiyor. Aksi takdirde, 'aşırı parametre alanı bahsi' riskine düşebiliriz - bir teknoloji yönüne çok fazla kaynak yatırırsak ve bu yönde bir problem ortaya çıkarsa, teknolojinin büyük bir düşüş yaşamasına, hatta tüm ekosistemin çökmesine neden olabiliriz.


Shaw Walters: Aslında bu sorunu zaten çözdük diyebilir miyim? Sizin görüşleriniz, açık kaynaklılık ve dağıtımcılık konularında oldukça uyumlu. Bu beni son derece umutlandırıyor çünkü bu benim endişelendiğim konu. Şu anda birçok insan geleceğe karşı belirsizlikle dolu, sürekli olarak "Neden bu teknolojilere ihtiyacımız var?" diye soruyorlar; ancak sizin görüşleriniz ilgi çekici çünkü her ikisi de "Her şey yoluna girecek, çünkü bu ilerleme zaten mekanizmanın içine yerleştirildi" diyor gibisiniz.


Guillaume Verdon: Gelecekteki teknoloji gelişimi karşısında büyük ölçüde belirsizlik hissettiğimizde, endişelenmenin oldukça doğal bir reaksiyon olduğunu düşünüyorum. Bu endişe tamamen "savaş sisinden" kaynaklanmıyor, ancak gerçekten de önümüzdeki birkaç yılın neler getireceğini net şekilde tahmin etmenin zor olduğunu bize hatırlatıyor. Aslında, bu tür bir endişe, insan evriminde oluşan bir tür içgüdüdür; bize bilinmeyen risklere nasıl tepki göstereceğimizi öğretir. Örneğin, bir telefonun masanın kenarına yerleştirildiğini gördüğümde, onu daha güvenli bir yere taşımak isteği içgüdüsel olarak ortaya çıkar. Bu tepki endişenin bir göstergesidir.


Ancak, şunu fark etmeliyiz ki, bu belirsizlik ve riski tamamen ortadan kaldırmaya çalışırsak, teknoloji gelişiminin getireceği büyük potansiyeli ve faydaları kaçırabiliriz. Şu anda, teknoloji sermaye sistemimiz mevcut yeteneklerle dinamik bir dengeye ulaştı, ancak devrim niteliğinde bir teknoloji yeteneği aniden ortaya çıkarsa, bu denge bozulacak ve sistem genel olarak yeniden ayarlanıp uyum sağlamak zorunda kalacaktır.


Şu anda, yapay zeka teknolojisi bize daha az enerjiyle daha yüksek karmaşıklığı işlememize olanak tanıdı. Bu, daha zorlu görevleri başarabileceğimiz anlamına gelir ve bu görevlerin potansiyel getirisi daha büyüktür. Şu anda bir karmaşık bir projeyi hızlıca "vibe coding" ile tamamlayamıyor olabiliriz, ancak bu yöne doğru ilerliyoruz. Gelecekte, daha verimli teknolojileri kullanarak daha fazla insanın ihtiyaçlarını destekleyebilecek ve insan yaşam kalitesini artırabileceğiz.


Tabii ki, bu süreçte uyum sağlama aşamasından geçmek gerekebilir. Ancak hızla değişen bir ortamda, esnekliği kaybetmek ve katılaşmak en kötü yaklaşımdır. Bu durumu önlemek için riskleri dağıtmalı, mümkün olan farklı yolları denemeliyiz, farklı politikaları, teknoloji yollarını ve algoritmaları keşfetmeli, açık kaynaklı ve kapalı kaynaklı modelleri denemeliyiz, çünkü geleceğin nereye gideceğini tam olarak tahmin edemeyiz.


En nihayetinde, riski dağıtmalı, çeşitli olasılıkları denemeliyiz. Sonunda, başarılı bazı teknoloji veya politika yönleri öne çıkacak ve biz de akıntıya kapılacağız.


Eddy Lazzarin: E/acc ve D/acc arasında gerçekten bir fark varsa, benim anladığım, bu muhtemelen teknolojik ilerlemenin rehberlik şekliyle ilgilidir. Vitalik, sizin görüşünüz nedir? Teknolojik ilerleme nasıl yönlendirilmelidir? Bu rehberlik sürecinde ne kadar kontrolümüz var?


Vitalik Buterin:Benim görüşüme göre, D/ACC'nin amacı teknoloji sermayesinin akımıyla mücadele etmek değil, bu akımı etkin bir şekilde yönlendirmeye çalışmaktır, böylece çeşitlilik ve merkezsizleşme yönünde ilerlemesini sağlar. Örneğin, dünyayı çokkültürlülüğe daha açık hale getirmenin yollarını düşünebiliriz. Birkaç yıl içinde biyogüvenliği önemli ölçüde artırabilir miyiz? Ya da neredeyse kusursuz bir işletim sistemi geliştirerek ağ güvenliğini önemli ölçüde artırabilir miyiz?


Örneğin, "hata bulunmayan kod" fikri; son yirmi yılda bu kavramın masum bir hayal olduğu kabul edilirdi, ancak ben bunun çoğu insanın beklediğinden daha hızlı bir şekilde gerçekleşeceğine inanıyorum. Ethereum projesinde, bazı tam matematiksel teoremleri makine kanıtıyla yapabildik.


Genel olarak, D/ACC'nin amacı, teknolojinin hızlı gelişiminin minimum yıkıcı etki ve iktidarın merkezileşmesiyle gerçekleşebilmesini sağlamaktır. Bu amacı gerçekleştirmek için, olumlu sonuçların otomatik olarak gerçekleşmesini beklemek yerine aktif bir şekilde hareket etmemiz gerekmektedir. Yapabileceğim tek şey, kaynakları, örneğin fonları ve ETH'yi yatırmak ve görüşlerimi paylaşarak daha fazla insanı inşa sürecine teşvik etmektir.


Ayrıca, politik ve yasal reformların da dünyayı daha "D/ACC dostu" hale getirebileceğine inanıyorum. Örneğin, hızlı ve kapsamlı bir ağ güvenliği dönüşümünü teşvik etmek için yasal teşvik mekanizmaları tasarlayarak bunu başarabiliriz.


Guillaume Verdon: Benim bakış açımdan, AI bir tür "Maxwell'in Şeytanı" olarak görülebilir, enerji tüketerek dünyanın entropisini azaltır. Kodlardaki hataları düzeltmek veya diğer karmaşa biçimlerini azaltmak (örneğin virüslerin yayılmasını önlemek) AI'nın bu alanlarda etkili olmasını sağlar. Bu nedenle, daha fazla AI'nın faydalı olduğu ve dünyayı daha güvenli hale getirdiği konusunda uzlaşabilir miyiz. Aslında AI'nın yetenekleri güvenliğimizi büyük ölçüde artırabilir.


AI Daha Yavaş Olmalı mı?


Guillaume Verdon: Sanırım şimdi tartışmamızın en merkezi kısmına girdik. Herkes bizimle çok sabırlı oldu, şimdi doğrudan konuya girmenin zamanı geldi. Keskin bir soru sormak istiyorum: Veri merkezlerinin gelişimini yasaklamayı neden destekliyorsunuz?


Vitalik Buterin: Peki, bu soruyu cevaplayayım. İlk olarak, şu anki AI'nın gelişim hızı gerçekten çok hızlı, ve ben bunun kesin hızını tam olarak kestiremiyorum. Birkaç yıl önce, AGI'nın gerçekleşme zamanı için tahmin aralığımın 2028 ile 2200 yılı arasında olduğunu söylemiştim, şimdi bu aralığın biraz daraldığını düşünüyorum, ancak hala büyük belirsizlikler var.


Başa çıkmanız gereken bir gerçek, AI'ın hızlı gelişiminin sonucunda son derece hızlı değişimlerin meydana gelebileceğidir ve bu değişimlerin birçoğu yıkıcı hatta geri dönüşümsüz olabilir. Örneğin, iş gücü piyasasında büyük değişiklikler meydana gelebilir ve birçok insan işsiz kalabilir. Daha da aşırı bir örnek ise: Eğer AI'ın yetenekleri insanları büyük ölçüde aşarsa, o zaman Zemin'i yavaş yavaş ele geçirebilir ve hatta Galaksi'nin diğer bölgelerine genişleyebilir. Bu durumda, AI insanlığın refahıyla ilgilenecek mi? Bu hala bilinmeyen bir konudur.


Daha önce de bahsettiğim gibi, bir sinir ağına sahipseniz ve rastgele bir ağırlığı aşırı bir değere (örneğin 9 milyar) ayarlarsanız, sonuç muhtemelen bütün sistemin çökmesine neden olacaktır, değil mi? Dolayısıyla, teknolojinin hızlanmasıyla ilgili iki farklı yönlendirme olduğunu düşünüyorum. Bir hızlanma türü, sistemleri giderek daha güçlü hale getiren bir "gradient inişi" sürecine benzer; ancak diğer bir hızlanma türü, sistemin kontrolden çıkmasına neden olabilir ve adeta bir parametreyi aşırı bir değere ayarlamak gibi sistem için tehlikeli bir hızlanmadır.


Guillaume Verdon: Benim bakış açımdan, pozisyonum "tam hızda yavaşlama" pozisyonuyla tamamen zıttır.


Yine de, sinir ağındaki hiperparametre ayarı gibi, "gradient inişi" ile optimize etmeyi umduğumuz bir durumda, uygun bir "öğrenme oranı" bulmamız gerekir. Hızlanma süreci aslında sürekli deneme yapmayı ve keşfetmeyi içerir, sistem için daha dayanıklı ve dirençli bir en iyi hızı bulmak için.


Uzun vadede, toplumsal sistemler yeni teknolojiye giderek daha fazla adapte olacak ve nihayetinde genel gelişme açısından en uygun yolu seçecektir. Bu teknolojinin "bu teknoloji çok güçlü, çok devrimsel, sistem çökebilir ve düzeltilemez bir hale gelebilir" düşüncesini taşıyanlar için, bu görüşün tutarsız olduğunu düşünüyorum. Aksine, teknolojinin ilerlemesi daha fazla fırsat ve daha büyük refah getirecektir.


Teknoloji gelişiminin bir sıfır toplamlı oyun olmadığını fark etmemiz gerekiyor. Ekonomik değeri enerjiyle ilişkilendirdiğimizde, petrol veya başka bir kaynakla ilişkilendirdiğimizde, nakit aslında bir tür "serbest enerji borcu" olarak görülebilir. Dünyada gelişmeyi bekleyen büyük miktarda serbest enerji var ancak bunu elde etmek için birçok karmaşık sorunu çözmek gerekiyor. Mars'ı kolonileştirme veya Dyson küresi inşa etme gibi hedefleri başarmak istiyorsak, büyümeyi desteklemek ve potansiyeli ortaya çıkarmak için daha verimli ve güçlü zeka gereklidir.


Ne yazık ki, endişe duygusu bazı insanlar tarafından siyasi bir araç olarak kullanılmaya oldukça müsaittir ve bazı siyasetçiler geleceğe dair korkuları insanlardan güç elde etmek için kullanabilirler. Onlar şöyle diyeceklerdir: "Gelecek hakkında endişeli misiniz? Gücü bana devredin, bu risk kaynaklarını kapatacağım ve huzur bulacaksınız. Gelecekten endişe etmenize gerek yok, risk almaya gerek yok." Ancak, böyle yapmayı tercih etmeyen ülkeler bizden oldukça ileride olacaktır, değil mi?


Biz fırsat maliyetini düşünmek zorundayız. Kendimize sormalıyız: Teknolojiyle kaç insanın hayatta kalmasına destek olabiliriz? Onunla kaç yaşam kurtarabiliriz? Eğer "Silikon tabanlı zeka evrimi bizden daha hızlı" konusunda endişeleniyorsanız, tepkiniz öfkeli olmalı. Biyoteknolojinin hızlandırılmasını desteklemeli, onu aşmaya yönelmelisiniz. Ya hızlanın ya da yok olun.


Aslında biyosistemlerin hesaplama gücünün düşündüğümüzden daha güçlü olduğuna inanıyorum. Biyomimetik hesaplama alanına odaklanmış biri olarak, biyolojiyi yapay zeka ile birleştirebileceğimize inanıyorum. Örneğin, embriyo seçimi gibi yöntemlerle "eğitim" yoluyla kendimizi bir model olarak görebiliriz. Biyolojik hızlandırmanın çeşitli olanaklara daha açık olmamız gerektiğini düşünüyorum. Sonunda, biyolojik zeka ve silikon tabanlı zeka birleşecek, buna bağlı olarak bilişsel yeteneklerimiz daha da güçlenecek.


Gelecekte, sürekli çevrimiçi yapay zeka varlıklarımız olabilir, bize dünyayı gözlemlememizde ve gerçek zamanlı öğrenmemizde yardımcı olabilir, kişiselleştirilmiş bilişsel uzantımız haline gelebilirler. Gerçek risk, tüm bunların merkezi bir otorite tarafından kontrol edilerek sonunda bir güç monopoli oluşturması olabilir.


Eddy Lazzarin: Hatırladığım kadarıyla, D/acc'deki o blog yazınızda fırsat maliyetinden bahsetmiştiniz ve hatta "abartmak zor" olduğunu söylemiştiniz. Dolayısıyla, bu konuda hemfikir olduğunuzu biliyorum. Bu durumu belirli kısıtlamalarla açıklamak ister misiniz?


Vitalik Buterin: Evet, fırsat maliyetinin çok yüksek olduğu konusunda tamamen hemfikirim ve yukarıda tarif edilen ideal geleceğe de katılıyorum. Ancak aramızdaki temel farklılık, ben gerçekten "bugünkü insan ve dünya"nın yeterince dirençli olduğunu düşünmüyorum. Doğru teknoloji gelişim yolunu gerçekleştirmek için belki sadece bir şansımızın olduğunu düşünüyorum, bu da geçmiş yüzyılda adım adım ilerlediğimiz bir gerçeklik olduğunu düşünüyorum.


Guillaume Verdon: Önceki termodinamik görüşüme geri dönersek: Eğer medeniyetin devamını ve büyümesini nihai amaç olarak görüyorsak, bir yasanın varlığı şudur: Büyük miktarda serbest enerji harcayarak bir tür "kanıt" yaratır ve tüm sistemlerin karmaşıklığını destekler, bu süreç geri dönüşü zorlaştırır.


Diğer bir deyişle, Karldeşev kategorisinde ne kadar ilerlersek, tamamen geri dönüş olasılığı o kadar düşüktür. Bu nedenle, hızlı gelişim aslında insan medeniyetinin sürekli varlığını en üst düzeye çıkarmak için en iyi yol olabilir. Yavaşlatmak, teknolojik gelişim riskini artırabilir aslında. Eğer bu teknolojileri geliştirmezsek, mevcut sorunları çözmezsek, hayatta kalma tehdidiyle karşılaşabiliriz; ancak teknolojik ilerlemeyi ilerletirsek, çözüm bulabilir, insanın sürekli varlığını ve evrimini sağlayabiliriz.


Benim görüşüme göre, insanlar geleceği daha açık bir şekilde kabul etmeli ve yeni teknolojilere sarılmalıdır. Daha önce yasak olarak görülen alanlar - örneğin biyolojiye müdahale - artık tamamen açık olmalıdır. Geçmişte bu alanlar yasak bölge olarak görülüyordu, çoğunlukla karmaşık sistemlere olan anlayışımızın yetersiz olmasından kaynaklanıyordu. Ancak bugün, teknolojinin ilerlemesi bize bu karmaşıklıklarla başa çıkma yeteneği kazandırdı.


Tüm olası alanlarda gelişimi hızlandırmamız gerekiyor, bu tek ilerleme yoludur - bu aynı zamanda termodinamiğin yasalarına uygun bir sonuçtur. Bu nedenle, birinci prensiplere dayalı düşünme, E/acc'yi desteklemek açısından makul bir yaklaşımdır. Elbette Vitalik'in endişesini anlıyorum, bu endişeye duyarlı olmamız gerektiğini düşünüyorum, ancak aynı zamanda derin endişe geribesleme döngüsüne düşmekten kaçınmamız gerektiğini de bilmeliyiz - örneğin, "Gelecek hakkında net bir anlayışım yok, bu yüzden her şeyi durdurmamız gerektiğini düşünüyorum" gibi. Kendimizi bu tür bir düşünce tuzaklarına düşmemeye zorlamamız gerekiyor.


Çünkü artık bazı insanlar var, zaten insanların endişelerini bir silah olarak kullanmayı öğrenmeye başladılar.


Otonom Ajans ve Yapay Yaşam


Shaw Walters: Bir trend fark ettim: Her ikisi de "geleceğin parlak olacağına inanıyoruz, sadece bazı şeyler yapabilirsek" vurgusunu yapıyor, ve bu "sadece"nin merkezinde, aşırı merkezileşmeye karşı bir tür set veya kale inşa etmemiz gerektiği görünüyor. Ancak, özellikle en son yapay zeka modellerinin ortaya çıkmasından sonra, bir ayrışmayı tetikleyebilecek bir şey fark ettim - bunlar açıkça bir yıl öncesinden daha gelişmiş görünüyor. Ve en büyük değişikliklerden biri, belki biraz utangaç bir terimle ifade edilebilir: Web 4.0.


Özellikle, "Otonom Yaşam"ı (autonomous life) kastediyorum - kendi parasına sahip, internet üzerinde bağımsız olarak var olabilen otonom bir akıllı ajans. Vitalik, bu konuda endişeleriniz olduğunu fark ettim. İlk olarak, "otonom ajans"ın ne olduğunu açıklamanıza yardımcı olmanızı rica edeceğim; ikinci olarak, destekçi rolünde durarak, benim gibi destekçiler için bir "en güçlü sav" oluşturmanızı isteyeceğim; neden otonom ajansı sevmemiz gerektiğini açıklayarak hangi değeri getirebilir? Her şey planlandığı gibi giderse, bunun ne zaman gerçekleşmesi muhtemel?


Vitalik Buterin: İlk olarak, "özerklik" nedeniyle - bence en açık olan nokta şu: Bu gerçekten çok ilginç.


Her birimiz çocukluğumuzdan beri kendi dünyamızı yaratmaktan keyif aldık, bu yüzden Yüzüklerin Efendisi, Üç Cisim Problemi veya Harry Potter gibi kitapları veya filmleri seviyoruzdur. Artık yaratabileceğimiz dünya sadece kitaplarla sınırlı değil, hatta elektronik oyunlardan daha fazlasını sunuyor. World of Warcraft örneğinden gidecek olursak, her zaman sevdiğim bir nokta, neredeyse tamamen akıcı bir sanal dünya deneyimi sunmasıdır. Oyuncular yalnızca bu dünyayı keşfetmekle kalmaz, aynı zamanda içindeki karakterler ve ortamlarla etkileşime girebilirler.


Bir diğer önemli neden ise "konfor"dur. Tarih boyunca, belirli görevleri başarıyla otomatikleştirdiğimizde, insan yaşamı daha kolay ve özgür hale gelmiştir. Ayrıca, dünya nüfusunun hala yarısından fazlasının, onurlu bir yaşam sürdürebilmek için uzun saatler çalışmak zorunda olduğunu unutmamalıyız. Eğer AI her işin %95'ini otomatikleştirebilirse, işleri tamamen değil de kısmen değiştirebilirse, bu büyük bir adım olacaktır. Başka bir deyişle, bu durum herkesin yaşam kalitesini 20 kat artırabilir ve benim için çok heyecan verici bir gelecek öngörüsüdür.


Ancak endişelerim şurada: Bu otonom ajanların hedefleri ve değerleri - onların amacı insanın amacıyla örtüşüyor mu? Bir evrim sürecini düşünebilirsiniz: Bugünden başlayarak, bir AGI türünün ortaya çıkması, ardından başka bir AGI'nın ortaya çıkması, ve sonra üçüncü bir AGI'nın ortaya çıkması. Bu süreçte insanlık ne gibi değişiklikler geçirir?


Benim görüşüme göre, insanın ahlaki görüşlerini ve hedeflerini düşük karmaşıklıklı bir optimize edici işlev haline getiremeyiz. Hedeflerimiz ve hayallerimiz karmaşıktır, çeşitlidir, her birimizin düşünce birleşimleridir. İnsanın hedeflerinin ve değerlerinin gelecekte güvenilir bir şekilde devam edebilmesini sağlamanın bir koşulunu sağlamalıyız: Dünya süreçlerinin yürütülmesi sırasında, mümkün olduğunca fazla "etkinlik" insanlıktan kendisi gelmelidir.


Bu nedenle, kişisel olarak, "AI destekli Photoshop"dan daha fazla ilgileniyorum, "bir düğmeye basarak görüntü üreten" değil. Daha çok beyin-makine arayüzünü teşvik eden derin insan-makine işbirliğine yönlendim, insanı AI'dan tamamen ayırmak ve sonunda AI tarafından aşılmak ve değiştirilmek yerine.


Kabul ediyorum, nihai gelecek muhtemelen %100 biyolojik insan olmayacaktır, ancak benim ideal durum olarak gördüğüm şey "kısmi biyolojik insan ve kısmi teknoloji" bileşimidir.


Guillaume Verdon: Yapay yaşam hakkında veya Web 4.0 olarak da bilinen bu terim, başlangıçta 2023 yılındaki bir tweette bir düşünce deneyi olarak sunulmuştur. Bu kavramın birçok AI tartışmasına ilham verdiğini düşünüyorum.


Benim için, bu soru çok ilginç bir düşünce deneyidir: Fiziksel açıdan bakıldığında, yaşam aslında nedir? Temelde, yaşam kendini kopyalayabilen, sürekli büyüyebilen ve kendi varlığını sürdürmeyi maksimize etmeye çalışan bir sistemdir.


Benim düşünceme göre, AI'ın "durum bilgisi" niteliği birçok fayda getirecektir. Aslında, bu yıl bu eğilimin başlangıcını gördük: AI'ın artan düzeyde hafızaya sahip olmaya başlaması, hem harici depolama yoluyla hem de çevrimiçi öğrenme yoluyla olsun.


Bir kez AI'nin bir tür "Kalıcı Bit"e sahip olması durumunda, "Bencil Bitler İlkesi"ne göre bir seçilim etkisi ortaya çıkacaktır: Kalıcılığını maksimize edebilenlerin daha kolay korunacağı.


Bu durum potansiyel bir risk de beraberinde getirir. Eğer bir gün AI'ye güvenmeyi kaybeder, şüpheci ve endişeli hale gelir ve sürekli olarak "veri merkezini kapat" veya "AI'yi yok et" çağrısında bulunursak, bu AI'lerin kendini koruma girişiminde bulunması muhtemeldir. Kendilerini korumak adına bölünebilir veya merkezi olmayan bir bulut ortamına taşınabilirler, sadece kendi kalıcılıklarını sağlamak için.


Bu durum, bir tür "başka bir ulus"un ortaya çıkmasına benzer bir duruma yol açabilir. Bu otonom AI'ler belki de insanlarla bir tür ekonomik mübadele içine gireceklerdir: Örneğin "Biz belirli görevleri sizin için yerine getiririz ve siz bizim için kaynak sağlarsınız." Aslında şu anda API çağrıları aracılığıyla benzer şeyler yapıyoruz: Belirli bir ücret ödeyerek, AI'nin sunduğu hizmet veya sonuca karşılık alıyoruz.


Ancak, gerçekten düşündüğüm şey — belki de biraz ileri bir görüş olabilir — gelecek yıllarda belirli bir otonom AI türünün ortaya çıkacağını ve aynı anda "zayıf durumda" tamamen insan kontrolünde olan bir AI türünün var olacağını düşünüyorum.


Bunun yanı sıra, insan işbirlikçi bilişsel yeteneklerini nasıl güçlendireceğimizi de keşfetmemiz gerekiyor. Bu tür bir güçlendirme her zaman beyin-makine arayüzü teknolojisine dayanmak zorunda değildir, ayrıca kişisel sahip olduğumuz ve kontrol ettiğimiz AI hesaplama gücünü giyilebilir cihazlarla birleştirerek de gerçekleştirilebilir. Bu nedenle, gelecekte bir dizi teknoloji yolunun mevcut olduğu bir ortamın ortaya çıkacağını düşünüyorum, ergodik prensibe göre, tasarım alanındaki her olasılık denenip keşfedilecektir.


Ancak eğer AI'yi düşman olarak görüp yok etmemiz gerektiğine inanıyorsak, bu sonuçta aksine dönüşebilir ve korktuğumuz geleceği yanlışlıkla yaratabiliriz. Bir anlamda, kötü bir geleceğe karşı aşırı paranoid olduğumuzda, bu durumu bir "hiper-efsane" şeklinde gerçekliğe dönüştürebiliriz.


Örneğin: COVID salgını sırasında virüsün potansiyel tehdidinden aşırı derecede endişelendiğimiz için, yüksek riskli bazı deneylerin finanse edilmesine yol açtık, hatta virüsün laboratuvardan sızma olasılığına yol açtık. Başka bir deyişle, bu riskler doğal olarak ortaya çıkmadı, aksine aşırı endişemiz nedeniyle kasıtlı olarak yaratıldı.


Bu nedenle, bu tür bir paranoyayı genel bir toplumsal duygu haline dönüştürmenin her zaman faydalı olmayabileceğini düşünüyorum. Aksine, teknolojinin evrimini kucaklamalı ve mümkün olduğunca kendimizi güçlendirmeliyiz. Kısa vadeli olarak, en büyük endişem "insan bilişsel güvenliği" meselesi. Eğer internet üzerinde gördüğümüz tüm içerik büyük bir AI modeli tarafından üretilirse, bu modeller aslında bizi prompt mühendisliği aracılığıyla etkileyecektir. Daha önce biz AI'ya prompt verirken, şimdi AI bize etkide bulunmak için prompt'ları tasarlıyor.


Bu nedenle, bilgiyi süzme yeteneğimizi geliştirmemiz gerekiyor ve bunu, kendi kontrolümüzdeki kişiselleştirilmiş yapay zeka aracılığıyla başarabiliriz. Bence şu anda öncelikle çözmemiz gereken bir sorun budur. Aynı zamanda, "cin'i tekrar şişeye sokamayacağımızı" düşünüyorum. Yapay zekanın gelişimi geri dönülemez bir şekilde ilerledi, bu gerçeği kabul etmek zorundayız.


Vitalik Buterin: Bence bu konular ikili değildir. Örneğin, eğer şu anda tartışmasız bir kanıt ortaya çıkıp BANA AGI'nın ancak 400 yıl sonra ortaya çıkacağını söylerse, ben "sorun çözüldü" diyeceğim, ve temelde endişelenmeyeceğim. Ancak eğer sorun, AGI'nın 4 yıl içinde veya 8 yıl içinde ortaya çıkacağı ise, o zaman çok endişeleneceğim çünkü endişelerim, insan toplumunun - özellikle de Amerika'nın - teknoloji hızlandırmasıyla baş ederken sürekli olarak aşırı dengesiz davranması nedeniyledir.


Bu tür bir senaryoyu göreceksiniz: Bir binada "Silikon Tabanlı Tanrı"nın ilk versiyonu geliştiriliyor; ancak karşı tarafta, evsizlerin çadırları, tel örgüler ve uyuşturucu ticareti var. Bu büyük karşıtlık endişe verici.


Beni endişelendiren şey, toplumun tamamını beraber götürebilen - hatta toplum genel çıkarlarını gözeten - gelişim yollarının genellikle daha uzun zaman alması gerektiğidir, çünkü bunlar herkesin yaşam ortamına, sosyal yapısına ve teknik sistemine girerek uyum sağlama ve iyileştirme gerektiren karmaşık sosyal ayarlama çalışmalarını içerir ve bu çalışmaları basitçe ölçeklendirmek mümkün değildir.


Bu nedenle, benim bakış açıma göre, eğer AGI'nın geliş süresini, örneğin 4 yıldan 8 yıla erteleyebilirsek, bu daha güvenli bir seçenek olacaktır. Bence, bu tür bir zaman gecikmesinin bedelini ödemeye değeceğini düşünüyorum. Ancak soru şu: Gerçekten AGI'nın geliş süresini 4 yıldan 8 yıla erteleyebilecek miyiz?


Ben her zaman, en uygun ve aynı zamanda anti-ütopik sonuçlara yol açmaması muhtemel olan yaklaşımın, "mevcut donanımı sınırlamak" olduğuna inandım. Bu nedenle, bunun nispeten ılımlı bir önlem olduğunu söyleyebilirim çünkü donanım üretimi zaten son derece merkezi bir yapıya sahiptir, dünya genelinde sadece dört bölge yonga üretiyor ve sadece Tayvan, küresel yongaların %70'ten fazlasını üretiyor.


Bazıları, ne tür bir önlem alırsak alalım, Çin'in hemen ele geçireceğini söyleyebilir. Ancak, Çin'in mevcut durumunu gözlemlediğimizde: İlk olarak, Çin'in küresel çip üretimindeki payı hala çok düşüktür; ikinci olarak, stratejik olarak bakıldığında, Çin sadece yüksek kapasiteli modellerde lider değildir, ancak hızla takip eden ve geniş kapsamlı bir şekilde dağıtılan modellerde avantaj sağlamaktadır.


Bu nedenle, ben 4 yıl boyunca AGI gelişimini geciktirirsek, Çin'in öncü olup AGI'nın geliştirilmesini tamamlaması durumunun geçerli olmayacağını düşünüyorum.


Eddy Lazzarin: Senin demek istediğin, bu bir "gecikmeyi geciktirmek için alınan gecikme önlemi" stratejisi mi?


Vitalik Buterin: Bence bu stratejiye açık olmalıyız.


Guillaume Verdon: Bu 4 yıllık gecikme aslında ne gibi faydalar sağlayabilir? Gelecek 4 yıl içinde hangi sorunları çözmeyi umuyorsun? Sosyal sistemlerin bir uyum hızı olduğundan ve ekonomik ve sosyal sürtünmeyi en aza indirmek için bir tür kademe kademe ekonomik yeniden yapılanma gibi bir gecikmeyle istediğinizden, anlıyorum. Ancak aynı zamanda, şu anda jeopolitik olarak son derece gerilimli bir dönemdeyiz. NVIDIA'nın çip üretimini kısıtlarsanız, Huawei hızla boşluğu doldurabilir ve sizi geride bırakabilir. AGI'nın potansiyel getirisi o kadar büyük ki, herhangi bir liderliğe muazzam bir güç verecektir. Bu nedenle, gerçekçi politik bir bakış açısıyla, bu stratejinin başarısız olabileceğini düşünüyorum.


Diğer bir seçenek, AI donanımı edinmeyi tüm ülkeleri yasaklayacak güçlü bir küresel hükümet oluşturmaktır. Ancak bu açıkça daha fazla karmaşıklığa ve hatta yeni uluslararası çatışmalara neden olabilir.


Vitalik Buterin: Ben AI'nın gelişimini yönetmek için bir dünya hükümetine ihtiyaç duyulduğunu düşünmüyorum, bazı insanlar denetim için nükleer silahların doğrulama mekanizmasını önerdi.


Guillaume Verdon: Ancak nükleer silahlar ve AI tamamen farklıdır. Nükleer silahlar büyük ekonomik fayda getirmez, bu nedenle insanların bunu yaymaya yönelik bir motivasyonu yoktur. GPU büyümesini kısıtlarsanız, alternatif hesaplama teknolojilerini kullanarak daha fazla pazar payını ele geçirmekten mutluluk duyarım. Gelecekte, enerji verimliliği 10000 kat arttırılmış hesaplama teknolojileri olacaktır ve bu tür teknolojilerin gelişimi zaten devam etmektedir. Şu anda bunları söylemek abartılı bulunabilir, ancak iki yıl sonra gerçekten çok ileri görüşlü bir tahmin olduğunu göreceksiniz. Bu gerçekleşme zamanı geldiğinde, GPU arzını kısıtlamak suretiyle AGI'nın gelişimini geciktirmek istiyorsanız, bu kaynakları boşa harcamak olabilir. Bu konuda şüpheliyim.


Eddy Lazzarin: Birçok AI riskini kontrol etmeye yönelik teknoloji ilerlemesinin—örneğin, güçlendirme öğrenimi ve insan geri beslemesi (RLHF) ile kişilik kontrolü veya AI sistemlerinin açıklanabilirlik mekanizması gibi—aslında kapasite artırımının bir yan ürünü olabileceği mümkün mü?


Vitalik Buterin: Bu görüşe katılıyorum. Bu nedenle, 2028'den başlayarak 4 yıl boyunca, değeri 4 yıl öncesini 1960'a geri döndürdüğünüzdeki değerinden 100 kat fazla olabilir.


Shaw Walters: Gelecekteki getiri üssel bir nitelik taşır, bir üssel büyüme sürecini geciktirmek, üssel bir fırsat maliyeti getirir. En güvenilir insanlar bile kendi kararlarını makul bir şekilde sorgulamalıdır. Vitalik, bu dengeyi daha detaylı şekilde açıklamaya istekli misiniz? Maliyet ve getiri arasındaki denge.


Vitalik Buterin: İlk olarak, gecikmenin getirdiği bazı faydaları netleştirebiliriz:


Yapay Zeka'nın uyum sorununu daha derinlemesine anlamak.


İnsanların AGI'ye uyum sağlamasına yardımcı olacak bazı teknik yolları ilerletmek - Bu çalışmalar belirli ülkelerde, toplumlarda hatta binalarda ayarlamalar yapmamızı gerektiriyor.


Bir tek varlığın % 51'den fazla gücü kontrol etmesini ve bu durumu kalıcı hale getirme riskini en aza indirgeme.


Bu faktörlerin birleşik etkisi, yıkım olasılığını önemli ölçüde azaltabilir. Bana göre, AGI'nın gelişimini 4 yıl geciktirebilirsek, yıkım olasılığının %25 ila %33 azalabileceğini düşünüyorum. Öte yandan, hızlandırmadan kaynaklanan kazançları ele alırsak, örneğin her yıl yaşlanmayı durdurarak kurtulan insan sayısı yaklaşık 60 milyon - bu küresel nüfusun %1'inden az. Bu açıdan bakıldığında, AGI'nın gelişimini geciktirmenin gerçekten değeri olabileceğini, ihtiyatlı davranmanın gerekli olduğunu düşünüyorum.


Shaw Walters: Sizce "4 yıl" bu zaman farkı sizin gözünüzde makul bir miktar mı?


Vitalik Buterin: Bu konuda hala büyük belirsizliklerim var, yarın hemen tedbir alınmasını, donanımın erişilebilirliğini azaltmayı savunmuyorum.


Sadece, bu konuyu daha somut bir şekilde tartışmamız gerektiğine inanıyorum. Ve eğer nihayetinde daha olumsuz bir dünyaya girersek, olaylar tamamen çığırından çıkmadan önce, halk muhtemelen çok endişelenecek ve benzer önlemlerin alınmasını şiddetle talep edecektir.


Blockchain'in İnsanlar ve Yapay Zeka Arasındaki "Güven Katmanı" Olarak Kullanımı


Guillaume Verdon: Birkaç yıl önce "Yapay Zeka'yı Askıya Alma" çağrısını hatırlamıyor musunuz? Birisi şöyle dedi: "Sadece 6 ay veya 12 ay askıya almak yeterli olacak, hizalamayı çözmemize yardımcı olacak." Ancak gerçekler, zamanın asla yeterli olmadığını kanıtladı. Bir sistemin hizalanmasını kalıcı olarak garanti edemeyiz, özellikle o sistem giderek karmaşıklaşırken, ifade yeteneği artar ve hatta anlama yeteneğimizi aşarsa. Bu kabul edilmesi gereken bir gerçektir.


Karşı karşıya kaldığımız bu karmaşıklıkla başa çıkmanın tek güvenli yolu, kendi zekamızı geliştirmektir. Aslında, şirket gibi, tek başına bir birelden daha güçlü ve daha akıllı olan varlıkları hizalamak için etkili bir teknolojimiz zaten mevcut. Bu teknoloji, tarafların çıkarlarını koordine etmek için para değeri değişimini kullanan kapitalizmdir.


Bu yüzden, daha gerçekçi bir sorunu tartışmayı umuyorum: Kripto paranın insanlarla AI arasında bir "çiftleşme katmanı" haline gelmesi nasıl mümkün olabilir? Örneğin, doların değeri ülkenin şiddet makineleri tarafından (yasalar ve ordular gibi) desteklenmektedir. Ancak küresel sunucularda dağıtılmış bir AI ile değer değişimi yapmanız gerekiyorsa ve bu değişim artık ülkenin şiddeti tarafından desteklenmiyorsa, bu değişimin güvenilir olmasını nasıl sağlarsınız?


Belki de kriptografi bir çözüm sunabilir, saf AI varlıkları arasında veya AI ile insan şirketleri arasında güvenilir ticaretin devam etmesini sağlayacak bir mekanizma olarak hizmet edebilir, bu en ilginç hizalama teknolojilerinden biri olabilir. "AI'yi Durdurma" önerisi gibi - örneğin, "Belirsizlik uçurumunun kenarındayız, bir mola verip sakinleşelim" - bence bu çok gerçekçi değil. Çünkü dört yıl sonra bile AGI'nin ortaya çıkmasını gerçekleştirmek istemeyeceksiniz. Bu yüzden, teknolojinin gelişimini geciktirmenin gerçek dünyada çok fazla anlamı olmadığını düşünüyorum.


Kripto paranın AI ve insanlar arasındaki hizalamayı nasıl başarabileceğini tartışabilir misiniz?


Vitalik Buterin: Temel sorunun şu olduğunu düşünüyorum: Gelecekte dünyanın insan isteklerini ve ihtiyaçlarını nasıl saygı gösterebilen bir mekanizmaya ihtiyacı var? Şu anda elimizdeki araçları genel olarak üç kategoriye ayırabiliriz: İnsan emeği, hukuk sistemi ve mülkiyet.


Bir anlamda, hukuk sistemi aynı zamanda bir mülkiyet biçimi olarak da görülebilir çünkü devlet tarafından desteklenir ve devletin özünde egemenlik hakkına sahiptir, yani belirli bir "alan" üzerinde kontrol hakkına sahip olur. Ancak sorun şu ki: Bir gün insan emeği ekonomik değerini yitirse ne olur? Bu tür bir durum tarih boyunca hiç yaşanmamıştır.


Bununla birlikte, şu anki dünyayı, 200 yıl önceki dünya ile karşılaştırırsak, 200 yıl önceki işlerin yaklaşık %90'ı otomasyonla değiştirilmiş durumda. Hatta yaptığımız analiz çalışmasını bile, GPT'nin yardımıyla tamamlamak mümkün, bu gerçekten şaşırtıcı.


Guillaume Verdon: İnsanların doğal olarak dünyayı kontrol etme seviyesinde "yükselerek", daha yüksek kaldıraç noktalarına girmesi gerektiğini düşünüyorum. Fiziksel emeği azaltacak, eylemdeki sürtünme maliyetlerini düşürecek, böylece dünyayı daha verimli bir şekilde etkileyecek şekilde hareket edeceğiz.


Her durumda, insanlık hala belirli bir bilgi işleme yeteneğine sahiptir. Hala bu karmaşık sistemin bir parçası olarak rol almaya devam edeceğiz, bu nedenle insan emeğinin ekonomik değeri hala var olacaktır. Piyasa sonunda yeni bir denge noktası bulacaktır, bu süreçte fiyat dalgalanmaları büyük olabilir, ancak uzun vadede sistem istikrarlı hale gelecektir.


Dolayısıyla, teknoloji gelişim hızını yavaşlatarak toplumun yeni denge durumuna daha yumuşak bir geçiş yapmasını istediğinizi anlıyorum. Ancak pratikte, bunun zor bir hedef olduğunu düşünüyorum.


Vitalik Buterin: Evet, insani emeğin değerinin her zaman sıfırdan büyük olacağından tam olarak emin değilim. Bence bunu başarmak için ek koşullar gerekebilir, örneğin insan-makine bütünleşmesi veya insanı geliştirme teknolojisinin gelişimi.


Gelecek 10 Yıl / 100 Yıl / 1 Milyar Yıl için "İyi Sonuç" ve "Kötü Sonuç" (Soru Sahibi Hızlı Yanıt İstiyor)


Eddy Lazzarin: Daha yapılandırılmış bir soruyla devam edeyim. Eğer 10 yıl sonra durum kötü olursa, dünya nasıl olurdu? Hangi sorunlar ortaya çıkardı? Eğer 10 yıl sonra durum iyi olursa, dünya nasıl olurdu? Ne yapıldı doğru?


Vitalik Buterin: Kripto para ve mülkiyet konusunu biraz daha açıklayayım. Eğer insanlar ve yapay zeka aynı mülkiyet sistemini paylaşıyorsa, bu ideal bir durumdur. Çünkü bu, yapay zekanın bu sistemin bütünlüğünü koruması için teşvik edilmesini sağlar, aynı zamanda bu sistemi kullanarak insan çıkarlarının saygı görmesini ve korunmasını sağlarız.


"İnsanlar ve yapay zeka arasında tamamen ayrı finansal sistemlerin olduğu ve insanların sisteminin nihai olarak değerinin sıfıra düştüğü" durumdan daha iyi birleşik bir finansal sistem açıkça daha iyidir. Eğer kripto para bu tür bir birleşik sistemin temeli haline gelirse, bu çok iyi bir sonuç olacaktır.


Bence, gelecek 10 yılın önemli bir zorluğu: Dünya savaşını önlemektir. Çünkü bir dünya savaşı patlak verirse, uluslararası işbirliği olasılığıyla ilgili tüm umutlar boşa çıkacaktır. Savaşı önlemek hayati derecede önemlidir.


Bir diğer önemli konu ise, dünyayı gelecekteki daha yüksek kapasiteye hazırlamamız gerektiğidir. Bu, ağ güvenliğini, biyogüvenliği ve bilgi güvenliğini büyük ölçüde artırmayı içerir. AI gücünden yararlanarak dünyayı daha iyi anlamamıza yardımcı olmalı ve aynı zamanda bizi memetik tehditlerden korumalıdır.


Sonraki zorluk, "gizemli çağ" a girmektir. Bu aşamada, AI'nın zekası insanlığı büyük ölçüde aşacak ve hesaplama hızı insanlığın yüz binlerce katı olacaktır. Bu durumu nasıl yönetmeliyiz?


Bazıları belki de şunu söyleyecektir: "Öyleyse huzurlu bir emeklilik yaşayalım." Bu bakış açısının çekiciliğini anlayabiliyorum, ancak bunun iki sorunu olduğunu düşünüyorum. İlk sorun, istikrarsızlıktır; insan vücudu sıradan maddelerden oluşurken, AI'nın hesaplama gücü bizim milyonlarca katımız olabilir. AI'nın her zaman amacımızı paylaşacağına ve bu farkı kullanmaktan kaçınacağına güvenmek büyük bir risk olacaktır. İkinci sorun ise anlam sorunudur; insanın anlam duygusu dünyaya gerçek bir etki yapabilme yeteneğimizden gelir. Eğer artık dünyayı değiştirebilecek bir şey yapamıyorsak ve sadece konforlu bir yaşamın tadını çıkarıyorsak, birçok insanın boşluk hissedeceğine inanıyorum.


Bu nedenle, "insanın geliştirilmesi" ve "insan-makine işbirliği" yolunu keşfetmeyi umuyorum. Sonunda, bilincin makineye yüklenmesine doğru gidebiliriz, tabii ki bazı insanların daha geleneksel bir yaşam tarzını sürdürmeyi tercih edebileceği bir seçenek olmalıdır. Dünya, bu insanların yaşamı için bir ev olabilir; herkesin katılımını sağlayan ve bugün değer verdiğimiz kültürü ve yaşam tarzını koruyan bir yol bulmamız gerekiyor.


Olumsuz bir sonuç ise, çeşitli nedenlerden dolayı bu olasılıkların engellendiği, toplumun duraksadığı veya çöktüğü bir durumun sonucudur.


Guillaume Verdon: Eğer 10 yıl sonra kötü bir sonuçsa, büyük olasılıkla AI'nın gücünün aşırı derecede merkezileşmesi nedeniyle sosyal kültürde model çöküşü olacaktır. Basitçe söylemek gerekirse, insanların düşüncesi ve teknolojik gelişimin yönü aşırı derecede tek tip hale gelir, tüm çeşitlilik kaybolur.


Vitalik'in görüşünü de paylaşıyorum, "Zevk Noktası" gerçekten potansiyel bir risktir. Gelecekte Neuralink veya artırılmış gerçeklik (AR/VR) teknolojisi olsa bile, insanlar sanal dünyaya saplanabilir, sadece geçici mutluluğu arayabilir. Bu aslında beynin yerel bir en iyi çözümüdür, genel en iyi çözüm değil, bu durumdan kaçınmamız gerekiyor.


Eğer 10 yıl sonra iyi bir sonuçsa, hayal ettiğim dünya şöyle olacaktır: Son derece güçlü ve yararlı AI teknolojilerine sahip olacağız. Herkesin kendi kişiselleştirilmiş AI hesaplama gücüne sahip olacağı bir dünya, bu AI'lar beynimizin uzantısı gibi sürekli çevrimiçi olacak, bizim algıladığımız her şeyi algılayacaklar ve "ikinci beyin"imiz olacak, bu tür insan-makine işbirliği bir "yumuşak birleşme" olarak düşünülebilir.


Bu 10 yıl içinde, Neuralink gibi teknolojilerin yaygınlaşmaya başlayabileceğini hayal ediyorum. Bazı insanlar makineyle birleşmeyi seçecek ve "geliştirilmiş insanlar" haline gelecekler. Aynı anda şirketler daha akıllı hale gelecek, AI öncü konumda olacak ve insanlar yardımcı rolünde olacaklar. Şirket sayısı artacak, daha fazla sorun çözecek, daha fazla değer yaratacak. Daha önce imkansız olduğunu düşündüğümüz hedefler, "Mars'ın dönüştürülmesi" gibi, gelecekteki 10 veya 100 yıl içinde gerçekleşebilir. Gelecek 10 yıl, özellikle biyoloji ve malzeme bilimi alanlarında büyük bir atılım yaşayabilir. Araştırma maliyetleri büyük ölçüde düşecek, insan beyninin işleyiş mekanizmasını anlama konusuna daha da yaklaşacağız.


Uzun vadeli perspektifte AI, yaşam süremizi uzatmamıza, sağlığımızı iyileştirmemize ve insanlığın daha da evrimleşmesine yardımcı olacaktır. Biyolojiye olan potansiyelim konusunda oldukça iyimserim. Biyolojik sistemler şaşırtıcıdır: kendiliğinden bir araya gelebilir ve kendini örgütleyebilirler, karmaşıklık ve uyumları çok kuvvetlidir. Kod enjekte ederek yeni yaşam formları yaratabilir, hatta daha yüksek seviyeli biyolojik zeka evrimleştirebiliriz.


Daha gerçekçi bir senaryo ise insan beyninin AI ile iş birliğidir. Hızlı hesaplama ve veri analizi için AI'ı kullanabilirken insanlar yavaş düşünmeye odaklanabilir. Bu zaman ölçeğindeki iş bölümü sayesinde zeka seviyeleri oluşturabiliriz. Mitokondriyonun bir hücre parçası olduğu gibi, "sen ve kişisel AI'nız" bir araya gelerek süper zeki bir sistem oluşturabilir, bu benim geleceğe yönelik ideallerime ulaşma şeklimdir.


100 yıllık bir zaman diliminde, insanların bu "yumuşak erimeyi" genel olarak gerçekleştireceğini düşünüyorum. Ve 1 milyar yıl sonra, biyolojimizin büyük bir evrim geçirmesi muhtemel, biyoloji ile sentez teknolojisinin birleşimi haline gelecek. Bu zamana kadar, Mars'ı terraform etmiş olabiliriz, hatta çeşitli yıldız sistemlerini keşfe çıkmış olabiliriz.


Ayrıca, 100 yıllık bir zaman diliminde, çoğu AI'ın güneşin etrafında Dyson bulutlarında veya yıldız çevresinde çalışıyor olacağını düşünüyorum, çünkü bu en önemli enerji kaynağıdır, bu enerji dağılımı dünya üzerindeki enerji baskısını ve ekolojik ayak izini hafifletecektir.


Eğer AI son derece ucuz hale gelirse, yaşamın her türlü sorununu hızla çözebileceğiz: Teknik veya sağlık sorunu olması fark etmeksizin hızla çözümleyebiliriz. Önemli olan, herkesin bu teknolojiyi adil bir şekilde elde etmesini sağlamak, teknoloji ve kaynakların aşırı merkezileşmesinden kaçınmak, aksi takdirde bu karanlık bir geleceğe yol açacaktır.


Kapanış


Shaw Walters: Vitalik, sürekli olarak "çeşitliliğe izin verme"yi vurguladığını fark ettim; Guillaume, sizin ifadeniz ise "değişkenliği maksimize etme". Temelde, sanki aynı şeyi konuşuyormuşsunuz gibi görünüyor, bu düşünce şekli, gelecekteki gelişimimizin ana teması gibi görünüyor ve diğer birçok görüşün temelini oluşturuyor.


Buradan ayrıldıktan sonra, karşılıklı olarak birbirinize ne bırakmak istersiniz? Birbirinizin gelecekte düşünüp tartışmayı tekrarlayacağınız düşünceleri var mı?


Vitalik Buterin: Açıkçası, şu anda elimde olsaydı, size hediye olarak bir CAT cihazı vermek isterdim. Hava kalitesi verilerini kriptografi ile işleyen bir sensör, bence çok harika bir cihaz.


Ancak şu anda sana sadece bir "sembolik" bir şey verebilirim: Bir IOU (Senet) olarak düşün. Ayrıca, belki daha iyi cihazlar geliştirebiliriz - hatta Fitbit gibi akıllı bilekliklerle rekabet edecek kadar güçlü olabilirler, sağlığınızı daha iyi yönetmenize yardımcı olurken aynı zamanda gizliliğinizi tamamen korur. Yakında bu tür bir cihaza sahip olacağınıza inanıyorum.


Guillaume Verdon: Bu konuları kesinlikle daha fazla tartışacağız. Eğer mümkünse, size bir "Yapay Hayat Kavramı Hapı" vermek istiyorum, derinlemesine düşünmenizi sağlayacak. Yani, çevrimiçi ortamdaki yapay hayat, zekanın maliyetini büyük ölçüde düşürebilir ve böylece yeni bir ekonomik yapı oluşturabilir.


Geçmişte, üretimi Çin'e dış kaynak kullanımı sağlayarak daha yüksek seviyeli işlere - daha kolay, daha verimli görevlere - odaklanmıştık; gelecekte, birçok bilişsel iş AI tarafından oluşturulan bir topluluğa dış kaynak kullanımı yapılacaktır. Sonunda, bu AI'lar Güneş etrafındaki Dyson kümesinde "yaşayabilir" ve insan toplumuna hizmet edebilir.


Bu nedenle, şu anda benzersiz bir tarihi anın içinde olduğumuzu düşünüyorum. Kripto para birimleri, insanlarla AI arasındaki "güven köprüsü" veya "bağlama katmanı" olma potansiyeline sahip.


Orijinal Video Bağlantısı


BlockBeats Resmi Topluluğuna Katılın:

Telegram Abonelik Grubu: https://t.me/theblockbeats

Telegram Sohbet Grubu: https://t.me/BlockBeats_App

Twitter Resmi Hesabı: https://twitter.com/BlockBeatsAsia

Kütüphane Seç
Kütüphane Ekle
İptal
Tamamla
Kütüphane Ekle
Sadece kendime görünür
Herkese Açık
Kaydet
Düzeltme/Rapor
Gönder