2016 yılında Sam Altman, Wyoming'de yeraltında bir sığınak inşa etti. 1,200 metrekarelik, üç katlı yapı, 500 kilogram altın, 5,000 potasyum iyodür tableti, 5 ton dondurulmuş gıda, 100,000 mermi. O yıl, OpenAI henüz birinci yılını doldurmuştu.
On yıl sonra, dünyanın en güçlü yapay zeka şirketinin lideri, ardışık iki hafta sonu saldırıya uğradı, önce molotof kokteyli, ardından ateşli silah. Kendisi blogunda, "Anlatının gücünü ciddi şekilde hafife aldığını" söyledi. Başkalarının anlatımını mı yoksa kendi anlatımını mı kastetti?
10 Nisan sabahı saat 03:40'ta, San Francisco Chesnat Street. 20 yaşındaki bir adam, Daniel Moreno-Gama, bir molotof kokteyliyi Sam Altman'ın apartmanının metal kapısına fırlattı. Alev kapıya yaklaştı, ardından adam kaçtı. Yaklaşık bir saat sonra, aynı kişi, OpenAI San Francisco ofisinin yakınında ortaya çıktı ve yangın tehdidini sürdürdü, ardından gözaltına alındı. Suçlamalar arasında kasten öldürmeye teşebbüs ve kundaklama bulunmaktadır.

Sam Altman'ın San Francisco ikameti ve kundaklama şüphelisinin güvenlik kamerası görüntüsü
İki gün sonra, 12 Nisan sabahı saat 01:40'ta, bir Honda otomobil, Altman'ın Rus Dağları'ndaki diğer konutunun yanında durdu. Araçtaki yolcu, konuta bir el ateş etti. Güvenlik kamerası plakayı kaydetti, polis daha sonra iki kişiyi yakaladı: Amanda Tom (25 yaşında) ve Muhamad Tarik Hussein (23 yaşında). Aramada üç silah bulundu, ikisi yanlışlıkla ateş etme suçlamasıyla karşı karşıya.
Bir hafta sonunda, iki saldırı.
İlk olayın zanlısı Daniel Moreno-Gama bir yapay zeka karamsarıydı. Kendisi sosyal medyada "Dune" kitabındaki insan-makine çatışma temasını alıntılayan, AI hizalamasının başarısızlığının bir varoluşsal risk oluşturduğunu savunan, teknoloji liderlerini "üstün insanlık" için "tüm insanlığın kaderini riske atan" şeklinde eleştiren yazılar yazdı.
On yıl içinde, OpenAI'nın AI anlatısının standart bir parçası haline gelen şey, sürekli olarak AGI'nın "varoluşsal" tehdidini ne kadar gerçek olduğunu vurgulamaktı. Hükümetin düzenlemeyi ciddiye almasını sağlamak, yatırımcıların bu bahsin ne kadar büyük olduğunu anlamasını sağlamak ve sektörün bu yarışı kaçırmamaları gerektiğini fark etmelerini sağlamak için. Bu argüman setinin bir amacı vardı, OpenAI'ı üç konuda aynı anda kurulu kılmak: en tehlikeli önde gelen, en sorumlu biz ve bu nedenle fonlar bize verilmeli.
Ancak "Bu insanlık tarihindeki en tehlikeli teknoloji" ifadesi, yayımlandıktan sonra sadece teknoloji ve yatırımcılar arasında durmayacak. Aşağıya doğru yayılacak ve bazı insanlar için kelimenin tam anlamıyla bir eylem emri haline gelecek. Moreno-Gama, paylaşımında, "Üssel ilerleme artı hizalama hatası, hayatta kalma riskine eşittir" yazmıştı. Bu argüman çerçevesinin ilk kaynağı, AI güvenliği araştırmalarının ana akım literatürüdür ve çoğu OpenAI tarafından finanse edilmiş veya desteklenmektedir.

Daniel Moreno-Gama Sosyal Medya Hesabı
İlk saldırıdan sonra, Ötman blogunda bir yazı paylaştı. Bir çocukla olan bir fotoğrafını paylaştı ve bu fotoğrafın bir sonraki kişinin ailesine molotof kokteyli atmasını engellemesini umduğunu söyledi. Karşıtların "yasal ve ahlaki duruşunu" kabul etti ve "hem kelimenin hem de mecazın anlamında daha az patlayıcı" bir kamu tartışması çağrısında bulundu.
Ayrıca bir New Yorker derinlemesine habere cevap verdi. Saldırıdan birkaç gün önce yayınlanan bu makale, onun AI'nın en yüksek otoritesi olarak inandırıcılığını sorguladı. Ötman, "Halkın anlatısının ve söylemin gücünü ciddi şekilde yanlış değerlendirdim" diye yazdı.
İki gün sonra, ikameti bir kez daha ateşe verildi.
Bu izlemenin başlangıç noktası, çoğu insanın fark ettiğinden bir yıl önce.
2024 yılının 4 Aralık'ında, New York. UnitedHealthcare CEO'su Brian Thompson, Hilton Oteli önünde vuruldu. Şüpheli Luigi Mangione, Ivy League mezunu, sağlık sigortası endüstrisini eleştiren el yazması bir açıklama bıraktı. Bu olay, sosyal medyada olağandışı bir tepkiye neden oldu: birçok sıradan kullanıcı, katili halka açık olarak destekledi ve onu bir tür isyankar sembolü haline getirdi.
O an, bazı kapılar açıldı.
Thompson olayından sonra, yönetici güvenliği meselesi "çalışan hakları"ndan "hayatta kalma ihtiyacı"na dönüştü. Fortune dergisinin alıntıladığı araştırma verilerine göre, 2023'ten bu yana, büyük şirket yöneticilerine yönelik şiddet suçları saldırılarında% 225'lik bir artış yaşandı. S&P 500 şirketleri arasında, 2025 yılında yönetici güvenliği harcamalarını raporlayanların oranı %33.8 iken, bu rakam 2020'de %23.3'tü. Güvenlik hizmeti sağlayan şirketlerin ortanca maliyeti 130.000 dolar olup, yıllık %20 artış göstermiş ve son beş yılda iki katına çıkmıştır.
Yapay Zeka endüstrisi, bu eğilimin en yeni ve en göze çarpan alıcısıdır. 2024 yılında, teknoloji devlerinin CEO'larının güvenlik harcamalarının toplamı 45 milyon doları aşmıştır. Zuckerberg'in payı 27 milyon doları aşarak, Apple, Google ve diğer dört CEO'nun toplamından daha fazladır. NVIDIA'nın CEO'su Jensen Huang'un 2025 yılındaki payı 3.5 milyon dolar olup, %59 artmıştır. Google'ın CEO'su Sundar Pichai'nin payı 8.27 milyon dolar olup, %22 artmıştır.
Yapay Zeka endüstrisi, olmayan bazı ender endüstrilerde bulunan bir şeye sahiptir: Teknolojinin medeniyeti yok edebileceğine inanan bile endüstrinin kendisidir. Pew Araştırma Merkezi, 2025 yılında küresel olarak 28,333 katılımcıyı araştırmış, yalnızca %16'sı yapay zeka gelişiminden heyecan duyduğunu belirtirken, %34'ü endişelendiğini ifade etmiştir. Daha da ilginç olan bulgu şudur: Eğitim düzeyi ve gelir arttıkça, yapay zekanın kontrolsüz bir şekilde ilerlemesine yönelik endişeler de o denli artmaktadır. En çok bilgiye sahip olanlar, ondan en çok korkanlardır.
Geçtiğimiz günlerde, Indianapolis Belediye Meclisi üyesi Ron Gibson'ın evine gece yarısı silahlı saldırganlar tarafından 13 el ateş açılmış, 8 yaşındaki oğlu silah sesleriyle uyanmıştır. Kapının önünde "Veri merkezi inşa edilmesine izin verilmez." yazılı bir not bırakılmıştır. FBI olaya müdahale etmiştir. George Washington Üniversitesi'nin aşırılıkçılık araştırma projesi araştırmacısı Jordyn Abrams, veri merkezlerinin teknoloji karşıtı, hükümet karşıtı aşırılıkçıların saldırı hedefi haline geldiğini belirtmektedir.

Ron Gibson Silahlı Saldırı Sahnesi
Bu korku endüstri içinde sır değil, sadece yüksek sesle dile getirilmiyor.
Antman, Wyoming'de o kaleyi 2016 yılında inşa etti. O yıl, OpenAI henüz yeni kurulmuş ve yapay zekanın insanlığı nasıl mutlu edeceğini tüm dünyaya anlatmaktaydı. Bu iki olay aynı anda gerçekleşti; sahnede yapay zekanın insanlık için en büyük fırsat olduğuna dair konuşurken, gizlice bir milis gücüne yetecek kadar silah ve mühimmat biriktiriyordu.
Bu, rasyonel bir çift taraflı bir bahistir: Açıkça yapay zekanın başarılı olacağına bahse girilirken, gizlice yapay zekanın kontrol dışı kalacağına hazırlanılmaktadır.
27 Şubat 2022 tarihinde, OpenAI ve ABD Savunma Bakanlığı arasında bir sözleşme imzalanmıştır, bu sözleşme Pentagon'un ChatGPT'yi gizli savunma ağına yerleştirmesine olanak tanımıştır ve kapsamı "herhangi yasal bir amaç" olarak belirlenmiştir. Aynı gün, Antman, AI'nin askeri kullanımına yönelik sınırlamaları kabul ettiğini açıklamıştır. Bundan sonra, ChatGPT'nin günlük indirme miktarı %295 artmış, bir yıldız değerlendirme ise 24 saat içinde %775 artmıştır. QuitGPT boykot hareketine katılan kişi sayısının 1.5 milyonu aştığı iddia edilmektedir.
21 Mart'ta yaklaşık 200 protestocu, San Francisco'da Anthropic, OpenAI ve xAI'ı kapsayan bir yürüyüş düzenledi ve üç CEO'dan önde gelen AI gelişimini durdurmayı taahhüt etmelerini talep etti. Aynı zamanda, Londra'da bugüne kadar görülen en büyük anti-AI yürüyüşü gerçekleşti.
Ötoman'ın Wyoming Bunker'ı ve işe aldığı güvenlik görevlisi, dışarıdan gelen tehdit ile kendi inşa etmekte olduğu şeyden gelen tehdit olmak üzere iki farklı riskle karşı karşıya. Ötoman bu iki riski de ciddiye alırken, açık bir şekilde sadece birini kabul etmektedir.
İlk saldırının gerçekleştiği haftada, *The New Yorker* dergisi Ötoman hakkında derinlemesine bir makale yayımladı. Gazeteciler Ronan Farrow ve Andrew Marantz, 100'den fazla içeriden bilgi sahibiyle görüşerek ana iddiayı iki kelimeyle özetledi: güvenilmezlik. Haberde, bir eski OpenAI Yönetim Kurulu üyesinin ifadesine yer verilerek Ötoman'ın "antisosyal kişilik" olduğu ve "gerçeğe bağlı olmadığı" iddia edildi. Birçok eski meslektaşı, AI güvenliği konusundaki tutumunu sürekli değiştirdiğini ve gerekli olduğunda güç yapılarını yeniden tanımladığını belirtti.
Ötoman, bir blog yazısında verdiği yanıtta, "çatışmadan kaçınma" eğilimine sahip olduğunu kabul etti. Ötoman, "AI'nın varoluşsal bir tehdit olduğu" kamusal anlatısını oluşturarak, bu anlatıyı finansal kaynak sağlama ve düzenlemelerde kullanılan bir araç olarak inşa etti. Sonuç olarak, bu araç elinden çıkıp dönerek, kapısına çarptı.
BlockBeats Resmi Topluluğuna Katılın:
Telegram Abonelik Grubu: https://t.me/theblockbeats
Telegram Sohbet Grubu: https://t.me/BlockBeats_App
Twitter Resmi Hesabı: https://twitter.com/BlockBeatsAsia