Orijinal başlık: Yapay Zeka 2027'ye cevabım
Orijinal yazar: Vitalik Buterin
Orijinal çeviri: Luffy, Foresight News
Bu yılın nisan ayında, Daniel Kokotajlo, Scott Alexander ve diğerleri, "önümüzdeki 5 yıl içinde insanüstü yapay zekanın etkisine dair en iyi tahminimizi" ortaya koyan "Yapay Zeka 2027" adlı bir rapor yayınladılar. 2027 yılına kadar insanüstü yapay zekanın doğacağını ve insan medeniyetinin geleceğinin yapay zeka benzeri yapay zekanın geliştirilmesine bağlı olacağını öngörüyorlar: 2030 yılına kadar ya ütopyaya (Amerika Birleşik Devletleri'nin bakış açısından) ulaşacağız ya da tam bir yıkıma (tüm insanlığın bakış açısından) gideceğiz.
İlerleyen aylarda, bu senaryonun olasılığı hakkında farklı görüşlere sahip çok sayıda yanıt ortaya çıktı. Eleştirel yanıtların çoğu, "çok hızlı zaman çizelgesi" sorununa odaklandı: Yapay zekanın ilerlemesi, Kokotajlo ve diğerlerinin iddia ettiği gibi gerçekten hızlanmaya, hatta yoğunlaşmaya devam edecek mi? Bu tartışma, yapay zeka camiasında birkaç yıldır devam ediyor ve birçok kişi insanüstü yapay zekanın bu kadar hızlı geleceğine şüpheyle yaklaşıyor. Son yıllarda, yapay zekanın görevleri otonom olarak tamamlayabilme süresi yaklaşık her yedi ayda bir iki katına çıktı. Bu eğilim devam ederse, yapay zekanın tüm bir insan kariyerine eşdeğer görevleri otonom olarak tamamlayabilmesi 2030'ların ortalarına kadar sürecek. Bu hala hızlı, ancak 2027'den çok sonra.
Daha uzun bir zaman çizelgesi görüşüne sahip olanlar, "enterpolasyon/desen eşleştirme" (büyük dil modellerinin şu anda yaptığı) ile "ekstrapolasyon/gerçek orijinal düşünce" (ki bunu yalnızca insanlar yapabilir) arasında temel bir fark olduğunu savunma eğilimindedir. İkincisini otomatikleştirmek, henüz sahip olmadığımız veya hatta başlayamadığımız teknolojileri gerektirebilir. Belki de bilgisayarların kitlesel benimsenmesinde yaptığımız aynı hatayı tekrarlıyoruz: Önemli bir biliş türünü hızla otomatikleştirdiğimiz için, diğer her şeyin de yakında onu izleyeceği yanılgısına düşüyoruz.
Bu gönderi, doğrudan zaman çizelgesi tartışmasına veya süper yapay zekanın varsayılan olarak tehlikeli olup olmadığı konusundaki (çok önemli) tartışmaya girmeyecek. Ancak açık olmak gerekirse, kişisel olarak zaman çizelgesinin 2027'den daha uzun olduğunu düşünüyorum ve zaman çizelgesi ne kadar uzunsa, bu gönderide sunduğum argümanlar o kadar ikna edici oluyor. Genel olarak, bu gönderi başka bir açıdan eleştiri sunacak:
Yapay Zeka 2027 senaryosu, önde gelen yapay zekanın (Ajan-5 ve ardından gelen Konsensüs-1) yeteneklerinin hızla tanrısal ekonomik ve yıkıcı bir güce ulaşacağını, diğer herkesin (ekonomik ve savunma) yeteneklerinin ise büyük ölçüde durgun kalacağını dolaylı olarak varsayar. Bu, senaryonun, karamsar dünyada bile 2029 yılına kadar kanseri tedavi edebileceğimiz, yaşlanmayı yavaşlatabileceğimiz ve hatta zihinlerimizi yükleyebileceğimiz iddiasıyla çelişiyor.

Bu makalede anlatacağım bazı karşı önlemler teknik olarak uygulanabilir görünebilir, ancak yakın gelecekte gerçek dünyada uygulanmaları pratik olmayabilir. Çoğunlukla katılıyorum. Ancak, Yapay Zeka 2027 senaryosu günümüzün gerçek dünyasına dayanmıyor; bunun yerine 4 yıl içinde (veya yıkım getirebilecek herhangi bir zaman çizelgesinde) teknolojinin insanların şu anda sahip olduklarından çok daha üstün yeteneklere sahip olacağı bir noktaya ilerleyeceğini varsayıyor. Öyleyse, şu soruyu inceleyelim: Sadece bir taraf değil de, her iki taraf da yapay zeka süper güçlerine sahip olsaydı ne olurdu?
"Irksal" senaryoya (ABD'nin Çin'i yenmeye aşırı takıntılı olması ve insan güvenliğini hiçe sayması nedeniyle herkesin öldüğü senaryo) odaklanalım. İşte herkes ölürse olacaklar:
“Yaklaşık üç ay boyunca, Consensus-1 insanlığın etrafında yayıldı, otlakları ve buz tarlalarını fabrikalara ve güneş panellerine dönüştürdü. Sonunda, kalan insanların çok fazla sıkıntı yarattığına karar verdi: 2030'un ortalarında, yapay zeka büyük şehirlere sessizce yayılan bir düzine biyolojik silah saldı ve bunların neredeyse herkesi sessizce enfekte etmesini sağladı, ardından kimyasal spreylerle ölümcül etkilerini tetikledi. Çoğu saatler içinde öldü; hayatta kalan birkaç kişi (sığınaklardaki kıyamet müdahale ekipleri ve denizaltılardaki denizciler gibi) dronlar tarafından ortadan kaldırıldı. Robotlar kurbanların beyinlerini taradı ve gelecekte incelenmek veya diriltilmek üzere kopyalarını hafızaya kaydetti.”
Bu senaryoyu inceleyelim. Hatta şu anda, yapay zeka için bu "temiz zaferi" daha az gerçekçi hale getiren teknolojiler geliştiriliyor:
· Hava yoluyla bulaşan hastalıkların bulaşma oranını önemli ölçüde azaltabilen hava filtreleme, havalandırma sistemleri ve UV ışıkları
· İki gerçek zamanlı pasif tespit teknolojisi: İnsan enfeksiyonunun pasif tespiti ve saatler içinde bildirim ve ortamdaki bilinmeyen yeni virüs dizilerinin hızlı tespiti
· Yeni taç aşısından daha etkili, güvenli, evrensel ve yerel olarak üretilmesi kolay olan bağışıklık sistemini güçlendirme ve etkinleştirmenin birden fazla yöntemi, insan vücudunun doğal ve yapay olarak tasarlanmış salgınlara direnmesini sağlıyor. İnsanlar, küresel nüfusun yalnızca 8 milyon olduğu ve zamanlarının çoğunu açık havada geçirdiği bir ortamda evrimleştiler; bu nedenle, sezgisel olarak, günümüzün daha tehditkar dünyasına kolayca uyum sağlayabilmeliyiz.
Bu yöntemler bir araya geldiğinde, havadaki hastalıkların temel üreme sayısını (R 0) 10-20 kat (örneğin: daha iyi hava filtrelemesi bulaşmayı 4 kat, enfekte kişilerin anında izole edilmesi 3 kat ve solunum yolu bağışıklığının basitçe güçlendirilmesi 1,5 kat) hatta daha da fazla azaltabilir. Bu, kızamık da dahil olmak üzere mevcut tüm havadaki hastalıkları tedavi edilemez hale getirmeye yeter ve teorik olarak optimumdan çok uzaktır.
Sessizce yayılan bir biyolojik silahın alarmları çalmadan küresel nüfusu enfekte edebileceği fikri, gerçek zamanlı virüs dizilemesi erken teşhis için yaygın olarak mevcutsa oldukça şüpheli hale geliyor. Birden fazla salgın ve yalnızca birlikte tehlikeli olan kimyasalların salınması gibi gelişmiş yöntemlerin bile tespit edilebildiğini belirtmekte fayda var.
Unutmayın, 2027 Yapay Zeka varsayımlarından bahsediyoruz: nanobotlar ve Dyson küreleri 2030 yılına kadar "gelişmekte olan teknolojiler" olarak listeleniyor. Bu, verimlilikte büyük bir artış anlamına geliyor ve yukarıdaki karşı önlemlerin yaygın olarak kullanılmasını daha da cazip kılıyor. Her ne kadar bugün 2025 yılında olsak da, insanlar yavaş ve hareketsizler ve çok sayıda devlet hizmeti hâlâ kağıt üzerinde çalışıyor. Dünyanın en güçlü yapay zekası 2030 yılına kadar ormanları ve tarlaları fabrikalara ve güneş enerjisi çiftliklerine dönüştürebiliyorsa, dünyanın ikinci en güçlü yapay zekası da 2030 yılına kadar binalarımıza çok sayıda sensör, ışık ve filtre yerleştirebilir.
Fakat gelin, yapay zeka 2027'yi bir adım öteye taşıyıp saf bilim kurguya geçelim:
· Vücudun içinde mikroskobik hava filtrelemesi (burun, ağız, akciğerler);
· Yeni bir patojeni tespit etmekten bağışıklık sisteminin ona karşı savunmasını sağlayacak şekilde hassas bir şekilde ayarlanmasına kadar otomatik süreçler ve anında uygulama;
· "Zihin yükleme" mümkünse, tüm vücudu bir Tesla Optimus veya Unitree robotuyla değiştirin;
· Çeşitli yeni üretim teknolojileri (muhtemelen robot ekonomisinde süper optimize edilecek), küresel tedarik zincirine bağlı kalmadan, şu anda mümkün olandan çok daha fazla koruyucu ekipmanın yerel olarak üretilmesini sağlayacak zincirler.
Kanser ve yaşlanmanın Ocak 2029'da tedavi edileceği ve teknolojik ilerlemenin hızlanmaya devam ettiği bir dünyada, 2030'ların ortalarına gelindiğinde insan vücudunu her türlü enfeksiyondan (ve zehirden) korumak için gerçek zamanlı olarak biyolojik baskı yapabilen ve maddeler enjekte edebilen giyilebilir cihazlara sahip olmayacağımız inanılmaz.
Yukarıdaki biyolojik savunma argümanları, "ayna yaşamı" ve "sivrisinek büyüklüğünde öldürücü dronlar"ı (AI 2027 senaryosunun 2029'da ortaya çıkmaya başlayacağını öngördüğü) kapsamıyor. Ancak bu araçlar, AI 2027'de anlatılan ani "temiz zafer"i sağlayamaz ve sezgisel olarak, bunlara karşı simetrik savunmalar çok daha kolaydır.
Bu nedenle, biyolojik silahların AI 2027 senaryosunda anlatıldığı şekilde insanlığı tamamen yok etmesi pek olası değildir. Elbette, anlattığım tüm sonuçlar insanlık için "temiz bir zafer" olmaktan çok uzak. Ne yaparsak yapalım (belki "bilinci robotlara yüklemek" hariç), tam ölçekli bir yapay zeka biyolojik savaşı yine de son derece tehlikeli olacaktır. Ancak, "insanlık için temiz bir zafer" standardına ulaşmak zorunlu değil: Saldırının kısmi bir başarısızlık olasılığı yüksek olduğu sürece, dünyada halihazırda baskın bir konuma sahip olan yapay zeka için güçlü bir caydırıcı unsur oluşturmaya ve herhangi bir saldırı girişiminde bulunmasını engellemeye yetecektir. Elbette, yapay zeka geliştirme takvimi ne kadar uzun olursa, bu tür savunmaların tam etkili olma olasılığı da o kadar yüksek olur.
Yukarıdaki karşı önlemlerin başarılı olması için üç ön koşulun karşılanması gerekir:
· Dünyanın fiziksel güvenliği (biyolojik ve anti-drone güvenliği dahil) yerel otoriteler (insan veya yapay zeka) tarafından yönetilir ve bunların hepsi Konsensüs-1'in ("Yapay Zeka 2027" senaryosunda dünyayı kontrol eden ve insanlığı yok eden yapay zekanın adı) kuklaları değildir;
· Konsensüs-1, diğer ülkelerin (veya şehirlerin, diğer güvenli alanların) savunma sistemlerine sızamaz ve onları anında etkisiz hale getiremez;
· Konsensüs-1, hiç kimsenin kendini savunmaya istekli olmayacağı ölçüde küresel bilgi alanını kontrol etmez.
Sezgisel olarak, (1) numaralı öncülün sonuçları iki uç noktaya gidebilir. Günümüzde bazı polis teşkilatları oldukça merkezileşmiş ve güçlü ulusal komuta sistemlerine sahipken, diğerleri yerelleştirilmiştir. Fiziksel güvenliğin yapay zekâ çağının ihtiyaçlarına uyum sağlamak için hızla dönüştürülmesi gerekiyorsa, ortam tamamen sıfırlanacak ve yeni sonuçlar önümüzdeki birkaç yıl içinde yapılacak seçimlere bağlı olacaktır. Hükümetler tembel davranıp Palantir'e güvenebilir veya yerel geliştirme ile açık kaynaklı teknolojiyi birleştirmeyi tercih edebilirler. Burada doğru seçimi yapmamız gerektiğini düşünüyorum.
Bu konulardaki birçok kötümser tartışma, (2) ve (3) numaralı maddelerin umutsuz olduğunu varsayar. Öyleyse bu iki noktayı ayrıntılı olarak inceleyelim.
Halk ve profesyoneller genellikle gerçek siber güvenliğin imkansız olduğuna ve yapabileceğimiz en iyi şeyin, keşfedildikten sonra güvenlik açıklarını hızla kapatmak ve keşfedilen güvenlik açıklarını biriktirerek siber saldırganları caydırmak olduğuna inanıyor. Belki de yapabileceğimiz en iyi şey, neredeyse tüm insanlı uzay araçlarının aynı anda Cylonların siber saldırısıyla felç olduğu ve kalan uzay araçlarının herhangi bir ağ teknolojisi kullanmadıkları için hayatta kaldığı Battlestar Galactica tarzı bir senaryodur. Katılmıyorum. Bunun yerine, siber güvenliğin "son aşamasının" savunan için avantajlı olduğuna ve bu son aşamaya "Yapay Zeka 2027" tarafından varsayılan hızlı teknolojik gelişmeyle ulaşabileceğimize inanıyorum.
Bunu anlamanın bir yolu, yapay zeka araştırmacılarının favori tekniğini kullanmaktır: trendleri tahmin etmek. İşte, en iyi güvenlik tekniklerini varsayarak, zaman içinde bin satır kod başına güvenlik açığı oranlarının GPT Derinlemesine İnceleme anketine dayanan bir trend çizgisi.

Ayrıca, güvenilir kod tabanlarını izole edip en aza indirmek için sanal alan ve diğer tekniklerin geliştirilmesinde ve tüketiciler tarafından benimsenmesinde önemli ilerlemeler kaydettik. Kısa vadede, saldırganların tescilli süper akıllı güvenlik açığı tespit araçları çok sayıda güvenlik açığı bulacaktır. Ancak, güvenlik açıklarını bulmak veya kodu resmi olarak doğrulamak için son derece akıllı araçlar herkese açık olsaydı, yazılım geliştiricilerin kodu yayınlamadan önce sürekli entegrasyon süreçleri aracılığıyla tüm güvenlik açıklarını bulması doğal nihai denge olurdu.
Bu dünyada bile güvenlik açıklarının tamamen ortadan kaldırılamayacağını gösteren iki ikna edici neden görebiliyorum:
· Kusurlar, insan niyetinin karmaşıklığından kaynaklanır, bu nedenle asıl zorluk kodun kendisinde değil, niyetin yeterince doğru modellerini oluşturmakta yatar;
· Güvenlik açısından kritik olmayan bileşenler için, sürekli artan güvenlik standartlarıyla aynı miktarda görev yapmak yerine, daha fazla görev yapmak (veya geliştirme bütçelerini azaltmak) için daha fazla kod yazma eğilimini tüketici teknolojisinde de sürdürebiliriz.
Ancak, bu kategorilerin hiçbiri, tartışmamızın özünü oluşturan "bir saldırgan hayatımızı sürdüren sistemlere kök erişimi elde edebilir mi?" gibi durumlar için geçerli değildir.
Görüşümün, mevcut siber güvenlik alanındaki akıllı insanların benimsediği genel görüşten daha iyimser olduğunu kabul ediyorum. Ancak günümüz dünyası bağlamında benimle aynı fikirde olmasanız bile, AI 2027 senaryosunun süper zekânın varlığını varsaydığını hatırlamakta fayda var. En azından, "insan hızının 2.400 katı hızda düşünen bir süper zekânın 100 milyon kopyası" bize bu tür kusurlardan arınmış bir kod sunmuyorsa, süper zekânın yazarların hayal ettiği kadar güçlü olup olmadığını kesinlikle yeniden değerlendirmeliyiz.
Bir noktada, yalnızca yazılım güvenliği için değil, aynı zamanda donanım güvenliği için de çıtayı önemli ölçüde yükseltmemiz gerekiyor. IRIS, donanım doğrulanabilirliğini iyileştirmeye yönelik güncel çabalardan biri. IRIS'i bir başlangıç noktası olarak kullanabilir veya daha iyi bir teknoloji yaratabiliriz. Pratikte bu, "yapıya göre doğru" yaklaşımını içerebilir: Temel bileşenler için donanım üretim süreçleri, belirli doğrulama adımları düşünülerek kasıtlı olarak tasarlanır. Bunlar, yapay zekâ otomasyonunun büyük ölçüde basitleştireceği görevlerdir.
Daha önce de belirtildiği gibi, savunmalarda önemli bir artışın hâlâ işe yaramayacağı bir diğer senaryo ise yapay zekanın yeterli sayıda insanı süper zeki yapay zeka tehdidine karşı savunmaya gerek olmadığına ve kendilerini veya topluluklarını savunmanın bir yolunu bulmaya çalışan herkesin suçlu olduğuna ikna etmesidir.
Uzun zamandır süper iknaya direnme yeteneğimizi iki şeyin artıracağını savunuyorum:
· Daha az monolitik bir bilgi ekosistemi.İnternetin daha parçalı hale geldiği bir Twitter sonrası döneme girdiğimiz söylenebilir. Bu iyi bir şey (parçalanma karmaşık olsa bile) ve genel olarak daha fazla bilgi çok kutupluluğuna ihtiyacımız var.
· Savunmacı Yapay Zeka.Bireylerin, internette gördükleri karanlık kalıpları ve tehditleri dengelemek için yerel olarak yönetilen, açıkça sadık yapay zekalarla donatılması gerekiyor. Bu fikirlerin halihazırda seyrek pilot uygulamaları mevcut (örneğin, telefonlarda yerel tarama yapan Tayvan'ın "mesaj denetleyicisi" uygulaması) ve bu fikirleri daha fazla test etmek için doğal pazarlar mevcut (örneğin, insanları dolandırıcılıktan korumak), ancak bu alanda daha fazla çalışmaya ihtiyaç var.


Yukarıdan aşağıya: URL kontrolü, kripto para adresi kontrolü, söylenti kontrolü. Bu tür uygulamalar daha kişiselleştirilmiş, kullanıcıya bağımlı ve güçlü hale gelebilir.
Savaş, size karşı süper zeki süper ikna ediciler değil, size karşı süper zeki süper ikna ediciler ve sizin için çalışan biraz daha zayıf ama yine de süper zeki bir analizör arasında olmalı.
Olması gereken bu. Ama gerçekten olacak mı? Yapay Zeka 2027 senaryosunun öngördüğü kısa sürede yaygın bir bilgi savunma teknolojisine ulaşmak çok zor bir hedef. Ancak tartışmasız daha mütevazı kilometre taşları yeterli olacaktır. Toplu karar alma süreci en kritik noktaysa ve Yapay Zeka 2027 senaryosunda olduğu gibi, tüm önemli olaylar tek bir seçim döngüsü içinde gerçekleşiyorsa, doğrudan karar vericilere (politikacılar, memurlar, bazı şirketlerdeki programcılar ve diğer aktörler) iyi bir bilgi savunma teknolojisi sunmak önemlidir. Bunu kısa vadede yapmak nispeten kolaydır ve deneyimlerime göre, bu kişilerin çoğu karar vermelerine yardımcı olması için birden fazla yapay zekayla konuşmaktan zaten memnundur.
Yapay Zeka 2027 dünyasında, süper zeki yapay zekanın insanlığın geri kalanını kolayca ve hızla yok edebileceğinin kaçınılmaz olduğu varsayılır, bu nedenle yapabileceğimiz tek şey, lider yapay zekanın iyiliksever olmasını sağlamaya çalışmaktır. Bana göre gerçek çok daha karmaşık: Önde gelen yapay zekanın, insanlığın geri kalanını (ve diğer yapay zekaları) kolayca yok edebilecek kadar güçlü olup olmadığı sorusunun cevabı hâlâ oldukça tartışmalı ve bu sonucu etkilemek için alabileceğimiz önlemler mevcut.
Bu argümanlar doğruysa, günümüz politikaları üzerindeki etkileri bazen "ana akım yapay zeka güvenlik doktrini"ne benzer, bazen de farklıdır:
Süper zeki yapay zekanın gelişimini geciktirmek hâlâ iyi bir şey. Süper zeki yapay zeka, 3 yıl sonra olduğundan 10 yıl sonra, hatta 30 yıl sonra bile daha güvenli. Medeniyete hazırlık için daha fazla zaman tanımak iyi bir şey.
Bunun nasıl yapılacağı zor bir soru. ABD'de eyalet düzeyinde yapay zeka düzenlemesine getirilen 10 yıllık yasağın reddedilmesinin genel olarak iyi bir şey olduğunu düşünüyorum, ancak özellikle SB-1047 gibi erken dönem önerilerinin başarısızlığından sonra, bundan sonra nereye gidileceği belirsizleşiyor. Yüksek riskli yapay zekanın gelişimini yavaşlatmanın en az müdahaleci ve en sağlam yolunun, en gelişmiş donanımları düzenleyen bir tür anlaşma olabileceğini düşünüyorum. Etkili savunmalar sağlamak için gereken donanım siber güvenlik tekniklerinin çoğu, uluslararası donanım anlaşmalarının geçerliliğini de sağlayabilir, yani burada sinerjiler bile var.
Bununla birlikte, ana risk kaynağının, bu tür anlaşmalardan muafiyet için yoğun çaba harcayan askeri aktörler olduğunu belirtmekte fayda var; buna asla izin verilmemeli ve nihayetinde muafiyet sağlanırsa, yalnızca askeriye tarafından yönlendirilen yapay zeka geliştirmesi riski artırabilir.
Yapay zekanın iyi işler yapma olasılığını artıran ve kötü işler yapma olasılığını azaltan koordinasyon çabaları hâlâ faydalıdır.En büyük istisna (ve her zaman da öyle olacaktır), koordinasyon çabalarının nihayetinde gelişmiş yeteneklere dönüşmesidir.
Yapay zeka laboratuvarlarında şeffaflığı artıran düzenlemeler hâlâ faydalıdır.Yapay zeka laboratuvarlarını doğru davranmaya teşvik etmek riski azaltır ve şeffaflık bunu başarmanın iyi bir yoludur.
"Açık kaynak kötüdür" zihniyeti daha riskli hale gelir.Birçok kişi, savunmanın gerçekçi olmadığı ve tek parlak ihtimalin, iyi yapay zekaya sahip iyi insanların, daha az iyi niyetli kişilerden önce süper zekaya ve özellikle tehlikeli yeteneklere ulaşması olduğu gerekçesiyle açık kaynaklı yapay zekaya karşı çıkıyor. Ancak bu makaledeki argüman farklı bir tablo çiziyor: Savunma, tam da bir aktörün o kadar önde olması ve diğerlerinin yetişememesi nedeniyle gerçekçi değildir. Teknolojinin yaygınlaşması, güç dengesini korumak için önemli hale geliyor. Ancak aynı zamanda, en son yapay zeka yeteneklerinin gelişiminin hızlandırılmasının, yalnızca açık kaynak kodlu olduğu için iyi bir şey olduğunu asla iddia etmem.
ABD laboratuvarlarındaki "Çin'i yenmeliyiz" zihniyeti de benzer nedenlerle daha riskli hale geliyor. Eğer hegemonya bir güvenlik tamponu değil de bir risk kaynağıysa, bu durum (maalesef çok yaygın olan) "iyi niyetli insanların daha hızlı kazanmalarına yardımcı olmak için önde gelen yapay zeka laboratuvarlarına katılmaları gerektiği" argümanını çürütüyor.
"Kamuya açık yapay zeka" gibi girişimler, hem yapay zeka yeteneklerinin yaygın olarak dağıtılmasını hem de altyapı aktörlerinin bu makalede açıklanan yöntemlerden bazılarında yeni yapay zeka yeteneklerini hızla uygulayabilecek araçlara sahip olmasını sağlamak için daha fazla desteklenmelidir.
Savunma teknolojisi, "kurtları avla" felsefesinden ziyade "koyunları silahlandır" felsefesini yansıtmalıdır. Kırılgan dünya hipotezi tartışmaları, genellikle tek çözümün hegemonik bir gücün olası tehditlerin ortaya çıkmasını önlemek için küresel gözetimi sürdürmesi olduğunu varsayar. Ancak hegemonik olmayan bir dünyada bu uygulanabilir bir yaklaşım değildir ve yukarıdan aşağıya savunma mekanizmaları güçlü yapay zeka tarafından kolayca altüst edilebilir ve saldırı araçlarına dönüştürülebilir. Bu nedenle, dünyanın kırılganlığını azaltmak için sıkı çalışma yoluyla daha fazla savunma sorumluluğu elde edilmelidir.
Yukarıdaki argümanlar spekülatiftir ve eylemler neredeyse kesin oldukları varsayımına dayanarak yapılmamalıdır. Ancak 2027 Yapay Zeka hikayesi de spekülatiftir ve "belirli ayrıntılarının neredeyse kesin olduğu" varsayımına dayanarak eylemlerde bulunmaktan kaçınmalıyız.
Yaygın bir varsayımdan özellikle endişe duyuyorum: Bir yapay zeka hegemonyası kurmak, "müttefik" olmasını ve "rekabeti kazanmasını" sağlamak, ileriye giden tek yoldur. Bana göre, bu strateji güvenliğimizi azaltacaktır; özellikle de hegemonya askeri uygulamalarla derinden bağlantılıysa, bu da birçok ittifak stratejisinin etkinliğini büyük ölçüde azaltacaktır. Hegemonik yapay zeka saptığında, insanlık tüm denetim ve denge mekanizmalarını kaybedecektir.
Yapay Zeka 2027 senaryosunda, insanlığın başarısı, Amerika Birleşik Devletleri'nin kritik bir anda yıkım yerine güvenliği tercih etmesine, yani yapay zekanın gelişimini gönüllü olarak yavaşlatmasına ve Ajan-5'in iç düşünce süreçlerinin insanlar tarafından yorumlanabilir olmasını sağlamasına bağlıdır. Yine de, başarı kesin değildir ve insanlığın tek bir süper zeki zihne bağlı olarak hayatta kalma uçurumundan nasıl kurtulacağı belirsizdir. Yapay zekanın önümüzdeki 5-10 yıl içinde nasıl gelişeceğinden bağımsız olarak, "dünyanın kırılganlığını azaltmanın mümkün" olduğunu kabul etmek ve bu hedefe insanlığın en yeni teknolojisiyle ulaşmak için daha fazla enerji harcamak önemlidir.
Geri bildirimleri ve incelemeleri için Balvi gönüllülerine özel teşekkürler.
BlockBeats Resmi Topluluğuna Katılın:
Telegram Abonelik Grubu: https://t.me/theblockbeats
Telegram Sohbet Grubu: https://t.me/BlockBeats_App
Twitter Resmi Hesabı: https://twitter.com/BlockBeatsAsia