Ana Sayfa
Forum
AI AI
Flaş
Derinlik
Etkinlikler
Daha Fazla
Finans
Özel
Blok Zinciri Ekosistemi
Giriş
Podkastlar
Veri
OPRR
#
BTC
$96,000
5.73%
ETH
$3,521.91
3.97%
HTX
$0.{5}2273
5.23%
SOL
$198.17
3.05%
BNB
$710
3.05%
lang
简体中文
繁體中文
English
Tiếng Việt
한국어
日本語
ภาษาไทย
Türkçe

Bittensor ekosistemi jetonu SN3'ün değeri Mart ayında 5 kat artarak yükseldi. Bu ani artışın arkasında ne yatıyor?

Bu makaleyi okumak için 25 Dakika
金희철이 무엇을 말했나요? 아무 말도 안 했나요? 분산 AI 트레이닝이 가능한가요?
Orjinal Başlık: "Elon Musk'a Atıf Yapıldı mı? SN3 Ayda 5 Kat Arttı, Gerçekten Ne Yaptı?"
Orjinal Yazar: KarenZ, Foresight News


20 Mart 2026'de, All-In Venture Capital podcast'inde olağandışı bir diyalog vardı.


Yatırımcı devi Chamath Palihapitiya, konuşmayı NVIDIA CEO'su Elon Musk'a devretti ve Bittensor'da bir proje olduğunu söyledi: "oldukça çılgın bir teknolojik başarı gerçekleştirdi", dağıtılmış güç kullanarak İnternet'te büyük bir dil modeli eğitti ve süreç tamamen merkezi olmayan, hiçbir merkezi veri merkezinin dahil olmadığı.


Elon Musk kaçınmadı. Bu olayı "Folding@home'un modern bir versiyonu" olarak tanıttı, 2000'lerde boşta bulunan gücünü bağışlayarak protein katlanma sorununa karşı ortak mücadele etmesini sağlayan dağıtılmış bir projeydi.


4 gün öncesinde, 16 Mart'ta, Anthropic'in kurucu ortağı Jack Clark, bir yapay zeka araştırma ilerleme raporu yayınladı ve bu çığır açanı önemli bir şekilde vurgulayarak alıntıladı: Bittensor ekosistem alt ağı Templar (SN3), 720 milyar parametreli büyük bir modelin (Covenant 72B) dağıtılmış eğitimini tamamladı ve model performansı, Meta'nın 2023'te piyasaya sürdüğü LLaMA-2 ile eşdeğerdir.


Jack Clark bu bölümü "Dağıtılmış Eğitim Yoluyla AI Politik Ekonomiye Meydan Okuma" olarak adlandırdı ve analizinde, bu sürekli takip edilmesi gereken bir teknoloji olduğunu vurgulayarak, bir gelecek hayal edebiliyordu: Cihaz kenarı yapay zekanın merkezi olmayan eğitimle üretilen modelleri yaygınlaşacak ve bulut tabanlı yapay zeka özel büyük modelleri çalıştırmaya devam edecek.


Piyasanın tepkisi biraz gecikmeliydi ama oldukça şiddetliydi: SN3 geçen ay %440'dan fazla arttı, geçen iki haftada %340'tan fazla arttı, piyasa değeri 1.3 milyar dolara ulaştı. Ağ alt ağın anlatısı patladı ve doğrudan TAO'nun satın alma baskısına dönüştü. Bu nedenle, TAO hızla yükseldi ve bir ara 377 dolara ulaştı, geçen ay %100 arttı, FDV yaklaşık 7.5 milyar dolara ulaştı.


Soru şu: SN3 gerçekten ne yaptı? Neden bu kadar büyük ilgi gördü? Dağıtılmış eğitim ve merkezi olmayan yapay zeka anlatısı nasıl gelişecek?


O 72B Modeli


Bu soruyu yanıtlamak için önce SN3'ün teslim ettiği notları incelemek gerekiyor.


2026 yılının 10 Mart'ında, Covenant AI ekibi arXiv'de bir teknik rapor yayınladı ve Covenant-72B'nin eğitimini tamamladığını resmen duyurdu. Bu, 720 milyar parametreli devasa bir dil modelidir, yaklaşık 70 bağımsız düğüm peers'a sahiptir (her turda yaklaşık 20 düğüm senkronize olmuş olup her biri 8 adet B200 ile donatılmış), toplamda yaklaşık 1.1 trilyon token'lık bir metin yığınında 720 milyar parametreli model eğitimini tamamlamıştır.



Templar, referans testlerinde bazı veriler sunmuş olup tabii ki karşılaştırma yapılan LLaMA-2-70B, 2023 yılında Meta tarafından yayınlanan büyük bir modeldir. Covenant-72B'nin MMLU üzerindeki 67.1 puanı, yaklaşık olarak Meta'nın 2023 yılında yayınladığı LLaMA-2-70B'nin (65.6 puan) karşılığıdır.


Ancak 2026 yılındaki önde gelen modeller - hem GPT serisi, Claude ya da Gemini olsun - 1000 milyardan fazla parametreyle eğitimi tamamlamış ve farklılık, çıkarım, kodlama, matematik yetenekleri arasındaki farklar yüzde değil, sayısal olarak büyük bir farkın olduğu bir sorun olmuştur. Bu gerçek fark, piyasa duyguları tarafından göz ardı edilmemelidir.


Ancak, “dağıtılmış ağdaki açık internet üzerinde eğitilmiş” olma koşuluyla, anlam tamamen farklıdır.


Şöyle bir kıyaslama yapalım: Her ikisi de merkezi olmayan eğitim olan INTELLECT-1 (Prime Intellect ekibi tarafından geliştirilen, 100 milyar parametreli) MMLU puanı 32.7; Beyaz liste katılımcıları arasında gerçekleşen başka bir dağıtılmış eğitim projesi olan Psyche Consilience (400 milyar parametreli) ise 24.2 puan almıştır. Covenant-72B, 72B boyutunda ve 67.1 MMLU puanıyla, merkezi olmayan eğitim pistinde dikkat çekici bir rakamdır.



Daha da önemlisi, bu eğitim "izin gerektirmeyen" bir eğitimdi. Herkes bir katılımcı düğüm olabilir, önceden onay gerekmez, beyaz liste gerekmez. 70'ten fazla bağımsız düğüm model güncellemesine katıldı ve küresel çapta güç birliği sağlandı.


황인훈이 언급한 것, 언급하지 않은 것


그 팟캐스트 대화의 세부 내용을 재구성하면, 이번 "지지"에 대한 외부 해석을 보정하는 데 도움이 됩니다.


Chamath Palihapitiya는 대화에서 Bittensor의 기술 성취를 황인훈에게 소개하고, 분산된 컴퓨팅력으로 Llama 모델을 학습한 것으로 묘사하며, 이 과정을 "완전히 분산되어 있으면서도 상태를 유지하는" 것으로 설명했습니다. 황인훈의 반응은 이것을 "Folding@home의 현대판"으로 비윈하여, 오픈 소스와 전용 모델이 병행하여 공존해야 한다는 필요성에 대해 논의했습니다.


주목할 점은, 황인훈이 Bittensor의 토큰이나 투자 의미에 대해 직접 언급하지 않았으며, 분산화된 AI 학습에 대한 논의를 더 이상 진행하지 않았다는 것입니다.


Bittensor 서브넷과 SN3 이해하기


SN3의 돌파를 이해하려면 먼저 Bittensor와 해당 서브넷의 운영 논리를 명확히 알아야 합니다. 간단히 말해, Bittensor는 AI 공중 사슬 및 플랫폼으로 볼 수 있으며, 각 서브넷은 독립적인 "AI 생산 라인"과 유사하며, 각각이 핵심 임무를 명확히하고 인센티브 모델을 설계하며, 분산 AI 생태계를 형성하기 위해 협력합니다.


그 운영 프로세스는 명확하며 분산화되어 있습니다: 서브넷 소유자는 서브넷 목표를 정의하고 인센티브 모델을 작성합니다. 채굴자는 서브넷에서 컴퓨팅 리소스를 제공하고 AI 관련 작업(추론, 학습, 저장 등)을 완료합니다. 검증자는 채굴자의 공헌을 평가하고 등급을 Bittensor 합의층에 업로드하고, 마침내 Bittensor의 Yuma 합의 알고리즘은 각 서브넷의 누적 보상에 따라 해당 수익을 서브넷 참여자에게 분배합니다.


현재 Bittensor에는 128개의 서브넷이 있으며, 추론, 서버리스 AI 클라우드 서비스, 이미지, 데이터 주석, 강화 학습, 저장, 계산 등 다양한 유형의 AI 작업을 다룹니다.


그리고 SN3은 그 중 하나의 서브넷입니다. 이는 응용 프로그램 계층 랩핑을 수행하지 않으며, 기존 대형 모델 API를 임대하지 않고, 오히려 전체 AI 생태계에서 가장 비쌈이면서도 폐쇄적인 핵심 환경 중 하나, 즉 대형 모델 사전 학습 자체를 직접 겨냥합니다.


SN3은 Bittensor 네트워크를 활용하여 이기종 컴퓨팅 리소스를 위한 분산 학습을 조정하고, 인센티브 분산 대형 모델 교육을 통해, 비싼 중앙 집중식 슈퍼 컴퓨팅 클러스터가 필요하지 않더라도 강력한 기본 모델을 학습할 수 있다는 것을 증명하고자 합니다. 핵심 매력은 "균형"에 있으며, 중앙 집중식 훈련의 리소스 독과점을 깨고, 일반 개인 또는 소규모 기관도 대형 모델 교육에 참여할 수 있도록 하면서 동시에 분산 컴퓨팅 리소스를 활용하여 교육 비용을 낮출 수 있는 것입니다.


SN3'ün gelişimini iten temel güç, araştırma ekibi olan Covenant Labs'e ait Templar'dır. Bu ekip aynı zamanda Basilica (SN39, hesaplama hizmetlerine odaklanan) ve Grail (SN81, RL sonrası eğitim ve model değerlendirmesine odaklanan) adında iki alt ağı da işletmektedir. Üç alt ağ, büyük modellerin ön eğitimden hizalama optimizasyonuna kadar tüm süreci kapsayan dikey entegrasyon oluşturur. Bu, merkezi olmayan büyük model eğitiminin tam ekosistemini oluşturur.


Daha spesifik olarak, madenciler hesaplama kaynağı sağlar, gradyan güncellemelerini (model parametrelerinin ayarlanma yönü ve şiddeti) ağa yükler; doğrulayıcılar her madencinin katkı kalitesini değerlendirir ve hata düzeltme büyüklüğüne göre her birine zincir üstü puan verir. Sonuçlar ödül ağırlığını belirler, otomatik olarak tahsis edilir, herhangi bir üçüncü tarafa güven gerekmez.


Teşvik mekanizması tasarımının anahtarı, ödülün doğrudan "katkınız modeli ne kadar geliştirdi" ile ilişkili olmasıdır, sadece işlem gücüne dayalı katılım değil. Bu, merkezi olmayan senaryolardaki en zor sorunu temelden çözer: Madencilerin usulsüzlük yapmasını nasıl önleriz.


Peki Covenant-72B ile iletişim verimliliği ve teşvik uyumluluğu sorununu nasıl çözüyor?


İç içe geçmiş onlarca güvenmeyen, farklı donanıma sahip, değişken ağ kalitesindeki düğümün aynı modeli eşzamanlı olarak eğittiği bir senaryoda, iki zorluk vardır: birincisi iletişim verimliliği, standart dağıtılmış eğitim çözümü düğümler arasında yüksek bant genişliği ve düşük gecikme gerektirir; ikincisi teşvik uyumluluğu, kötü niyetli düğümlerin yanlış gradyanları göndermesini nasıl engelleriz? Her katılımcının dürüstçe eğitim yaptığından emin olmak ve diğerlerinin sonuçlarını taklit etmediğinden emin olmak için ne yapılır?


SN3, bu iki sorunu çözmek için iki temel bileşen olan SparseLoCo ve Gauntlet kullanır.


SparseLoCo, iletişim verimliliği sorununu çözer. Geleneksel dağıtılmış eğitim her adımda tam gradyanın senkronizasyonunu gerektirir, veri miktarı çok büyüktür. SparseLoCo'nun kullandığı yaklaşım şudur: Her düğüm yerel olarak 30 adım iç optimizasyon çalıştırır (AdamW) ve ardından üretilen "sahte gradyanı" sıkıştırıp diğer düğümlere yükler. Sıkıştırma yöntemleri arasında Top-k seyrekleştirme (sadece en önemli gradyan bileşenlerini koruma), hata geri bildirimi (atılan kısmı biriktirip bir sonraki tura aktarma) ve 2 bit kantizasyon bulunur. Nihai sıkıştırma oranı 146 katına ulaşır.


Basitçe söylemek gerekirse, normalde iletilmesi gereken 100MB'lik şey şimdi 1MB'den azdır.


Bu, sistemin, standart internet bağlantısı (yukarı akış 110Mbps, aşağı akış 500Mbps) bant genişliği kısıtlamaları altında, hesaplama kullanımını yaklaşık %94,5'te tutmasını sağlar - 20 düğüm, her düğüm 8 adet B200, her tur iletişim süresi sadece 70 saniye.


Gauntlet, teşvik uyumluluk sorununu çözer. Bittensor blok zincirinde (Alt Ağ 3) çalışır ve her düğümün sunduğu sahte gradyan kalitesini doğrulamaktan sorumludur. Belirli bir şekilde, "Bu düğümün gradyanını kullandıktan sonra model kaybı ne kadar azaldı" sorusunu küçük bir veri yığınıyla test ederek cevaplanır ve bu sonuca LossScore adı verilir. Aynı zamanda, sistem ayrıca düğümün kendi atandığı verileri kullanıp kullanmadığını da kontrol eder—bir düğümün rastgele verilerle kaybı iyileşirse, kendi atadığı verilerdekinden daha iyi, bu durumda eksi puan alır.


Nihayetinde, her eğitim turunda sadece en yüksek puanı alan düğümün gradyanı toplama katılır, diğer düğümler bu turdan çıkarılır. Fazla olan katılımcılar her an yerlerine geçebilir, böylece sistem sağlam kalır. Tüm eğitim sürecinde, ortalama olarak her turda 16.9 düğümün gradyanı toplama dahil edilir ve toplamda katılan eşsiz düğüm kimliği sayısı 70'i aşar.


Merkeziyetsiz AI'nın Değer Anlatısı, Temel Bir Dönüşüm Geçiriyor


Bu durumu teknik ve endüstri açısından göz önünde bulundurarak, Covenant-72B'nin temsil ettiği yönelimin birkaç gerçek anlamı var.


İlk olarak, "Dağıtılmış eğitim sadece küçük modeller için uygundur" önyargısını yıktı. Henüz lider modellerle arasında büyük fark olsa da, bu yöntemin ölçeklenebilirliğinin kanıtıdır.


İkinci olarak, izinsiz katılımın gerçekten mümkün olduğu. Bu nokta hafife alındı. Önceki dağıtılmış eğitim projeleri beyaz listeye dayanıyordu—sadece incelenmiş katılımcılar iş gücü sağlayabiliyordu. SN3'teki bu eğitimde, yeterli iş gücüne sahip herkes katılabiliyor, doğrulama mekanizması kötü niyetli katkıları filtrelemekten sorumludur. Bu, "gerçek anlamda merkezi olmayan" bir adım atmaktır.


Üçüncü olarak, Bittensor'ün dTAO mekanizması, alt ağın değerinin piyasa keşfinin mümkün olmasını sağlar. dTAO, her alt ağın kendi Alpha jetonunu yayınlamasına olanak tanır ve AMM mekanizması aracılığıyla piyasanın hangi alt ağların daha fazla TAO emisyonu alacağına karar verdiğini belirler. Bu tür somut sonuçlar üreten alt ağlar için kaba ancak etkili bir değer yakalama mekanizması sağlar. Tabii ki, bu mekanizmanın aynı şekilde anlatılar ve duygular tarafından etkilenebileceği, LLM eğitiminin kalitesinin normal piyasa katılımcıları tarafından bağımsız olarak değerlendirilmesinin zor olduğu unutulmamalıdır.


Dördüncü olarak, merkezi olmayan AI eğitiminin siyasi ekonomik anlamı. Jack Clark, bu sorunu "AI'nın geleceğine kimin sahip olduğu" seviyesine taşır. Şu anda, lider model eğitimi büyük ölçekli veri merkezlerine sahip az sayıda kurum tarafından tekeline alınmış durumda, bu sadece iş problemi değil, aynı zamanda bir güç yapısı problemidir. Dağıtılmış eğitim teknik olarak ilerlemeye devam ederse, belirli model tiplerinde (örneğin belirli alanlardaki küçük ölçekli lider modeller) gerçek anlamda merkezi olmayan bir geliştirme ekosistemi oluşturabilir. Tabii ki, bu olasılık şu anda uzak bir gelecekte.


Özet: Gerçek bir kilometre taşı ve bir sürü gerçek sorun


Hong Ren Hsun, buna "modern Folding@home versiyonu" dedi. Folding@home, moleküler simulasyon alanında gerçek katkılarda bulundu, ancak büyük ilaç şirketlerinin temel Ar-Ge konumunu tehdit etmedi. Bu benzetme çok doğru.


SN3 protokolü çalıştı, dağıtımlı eğitimin izlenebilirliğini doğruladı. Ancak teknik ve endüstri perspektifinden bakıldığında, elde edilen bu notların arkasında, ciddiye almak istemeyen birçok sorun var:


MMLU kendisi akademide tartışmalı bir ölçüttür, kamuya açık referans soruları ve cevapları eğitim setine sızma riski taşır. Daha da önemlisi, referans noktası seçiminin yapılması gereklidir: Makale, LLaMA-2-70B ve LLM360 K2 modellerini 2023 ile 2024 arasından eski modeller olarak belirlemiştir, aynı dönemdeki 65 ila 70 puan, Grok, Bean gibi öğelerde hem orta hem de düşük seviye ve giriş seviyesine ait olarak belirlenmiştir; Claude'a göre ise çok geride kalmıştır. Bunlar, dinamik olarak güncellenen bir listede veya kirlenmeye karşı dirençli yeni nesil referanslarla karşılaştırıldığında, sonuçlar belki daha dürüst olabilir.


Daha da önemlisi, modelin yetkinlik sınırını belirleyen yüksek kaliteli veriler – konuşma verileri, kod, matematiksel türeler, bilimsel literatür – muhtemelen büyük şirketler, yayınevleri ve akademik veritabanları tarafındadır. Hesaplama gücü demokratikleşirken, veri tarafı hala oligarşik yapıdadır ve bu çelişki tartışılmamıştır.


Güvenlik konusunda, izinsiz katılım, 70'ten fazla düğümün kim olduğunu ve hangi verilerle eğitim yaptığını bilmediğiniz anlamına gelir. Gauntlet bariz anormallikleri filtreleyebilir, ancak ince veri zehirlenmesine karşı koyamaz – eğer bir düğüm sistematik olarak zararlı içeriğe yönelik birkaç tur daha eğitim yaparsa, üretilen gradyan değişikliği çok ince olabilir, kayıp değerlendirme eleme tarafından filtrelenir, ancak modele kümülatif sapmalar getirir.

Asıl soru şudur: Finans, sağlık, hukuk gibi yüksek düzeyde düzenlemeye tabi, güvenlik gerektiren alanlarda, az sayıda anonim düğümün eğitime katkıda bulunduğu, veri kaynağının eksik izlenebilirliğine sahip bir modelin kullanılması hangi riskleri beraberinde getirecektir?


Söylemeye değer başka bir yapısal sorun daha var: Covenant-72B zaten Apache 2.0 lisansıyla açık kaynaklıdır ve SN3 jetonu kullanmaz. SN3 jetonuna sahip olmak, alt ağın gelecekteki sürekli model çıkarma getirisiyle paylaşılmakta olup, modelin kullanımından elde edilen herhangi bir doğrudan getiri değil. Bu değer zinciri, sürekli eğitim çıktısına ve Bittensor genel ağ emisyon mekanizmasının sağlıklı işleyişine dayanmaktadır. Eğer gelecekte eğitim durmaya başlarsa veya yeni eğitim çıktısı beklenenden düşük kalitede olursa, jetonun değerleme mantığı gevşer.


Bu sorunları ortaya koymak, Covenant-72B'nin anlamını inkar etmek için değil. Daha önce imkansız olarak düşünülen bir şeyin yapılabileceğini kanıtlar, bu gerçek sonsuza kadar geçerli olacaktır. Ancak bunu başarmak ve bunun ne anlama geldiği, birbirinden farklı konulardır.


SN3 jetonu son bir ayda %440 değer kazandı. Bu aradaki fark, sadece bir manüpülasyon olmayıp, anlatının hızının her zaman gerçekliğin hızından daha hızlı olmasıdır. Bu farkın sonunda gerçeklikle mi doldurulacağı yoksa piyasanın bunu sindirip düzelteceği, tamamen Covenant AI ekibinin ne sunacağına bağlı olacaktır.


Önemli olan bir diğer nokta ise, Grayscale'in 2026 yılının Ocak ayında TAO ETF başvurusu yapmış olmasıdır, bu da kurumsal sermayenin bu alana giriş sinyali verdiğini göstermektedir. Ayrıca, 2025 Aralık ayında Bittensor'un günlük TAO arzını yarı yarıya indireceği ve arz tarafındaki yapısal sıkılaşmanın halen devam etmekte olduğu belirtilmelidir.


Orijinal Makale Bağlantısı


BlockBeats Resmi Topluluğuna Katılın:

Telegram Abonelik Grubu: https://t.me/theblockbeats

Telegram Sohbet Grubu: https://t.me/BlockBeats_App

Twitter Resmi Hesabı: https://twitter.com/BlockBeatsAsia

Kütüphane Seç
Kütüphane Ekle
İptal
Tamamla
Kütüphane Ekle
Sadece kendime görünür
Herkese Açık
Kaydet
Düzeltme/Rapor
Gönder