AI Eğitim Paradigmasının Evrimi: Merkezî Kontrolden Merkeziyetsizlik İşbirliğine Teknik Devrim
AI'nın tam değer zincirinde, model eğitimi en fazla kaynak tüketen ve en yüksek teknik engellere sahip aşamadır; bu, modelin yetenek sınırlarını ve gerçek uygulama etkilerini doğrudan belirler. Çıkarım aşamasının hafif çağrımına kıyasla, eğitim süreci sürekli büyük ölçekli hesaplama gücü yatırımı, karmaşık veri işleme süreçleri ve yüksek yoğunluklu optimizasyon algoritması desteği gerektirir; bu, AI sisteminin inşasının gerçek "ağır sanayi"sidir. Mimari paradigmalar açısından, eğitim yöntemleri dört kategoriye ayrılabilir: merkezi eğitim, dağıtık eğitim, federatif öğrenme ve bu makalede odaklanılan Merkeziyetsizlik eğitimi.
Merkeziyetsiz eğitim, tek bir kuruluşun yerel yüksek performanslı küme içinde tüm eğitim süreçlerini tamamladığı en yaygın geleneksel yöntemdir. Donanım ( gibi NVIDIA GPU ), alt yazılım ( CUDA, cuDNN ), küme zamanlama sistemleri ( gibi Kubernetes ) ve eğitim çerçeveleri ( gibi NCCL arka uçuna dayalı PyTorch ), tüm bileşenler tek bir kontrol sistemi tarafından koordine edilir. Bu derin işbirliği mimarisi, bellek paylaşımı, gradyan senkronizasyonu ve hata toleransı mekanizmalarının verimliliğini en üst düzeye çıkarır ve GPT, Gemini gibi büyük ölçekli modellerin eğitimine son derece uygundur. Yüksek verimlilik, kontrol edilebilir kaynaklar gibi avantajları vardır, ancak aynı zamanda veri tekelciliği, kaynak engelleri, enerji tüketimi ve tek nokta riski gibi sorunları da barındırır.
Dağıtık eğitim, günümüzün büyük model eğitiminde ana akım yöntemdir, temelinde model eğitim görevlerinin parçalanarak birden fazla makineye dağıtılıp eşzamanlı olarak yürütülmesi yatmaktadır. Bu, tek makine hesaplama ve depolama darboğazını aşmak içindir. Fiziksel olarak "dağıtık" özelliklere sahip olmasına rağmen, genel olarak merkezi bir kuruluş tarafından kontrol edilip senkronize edilmektedir, genellikle yüksek hızlı yerel alan ağı ortamında çalışmakta ve NVLink yüksek hızlı bağlantı teknolojisi aracılığıyla ana düğüm, alt görevleri koordine etmektedir. Ana akım yöntemler şunları içermektedir:
Veri paralelliği: Her bir düğüm farklı veri üzerinde eğitim yapar, parametreler paylaşılır, model ağırlıklarının eşleşmesi gerekir.
Model paralelliği: Modelin farklı bölümlerini farklı düğümlere dağıtarak güçlü ölçeklenebilirlik sağlama
Boru hattı paralelliği: Aşamalı seri yürütme, verimliliği artırır
Tensör paralelliği: Matris hesaplamalarını ince bir şekilde bölerek paralel inceleme seviyesini artırma
Dağıtık eğitim, "merkezi kontrol + dağıtık yürütme" kombinasyonudur; bu, aynı patronun uzaktan birden fazla "ofis" çalışanını görevi tamamlamak için işbirliği yapmaya yönlendirmesine benzer. Şu anda neredeyse tüm ana akım büyük modeller (GPT-4, Gemini, LLaMA gibi ) bu şekilde eğitim tamamlanmaktadır.
Merkeziyetsizlik eğitimi, daha açık ve sansüre karşı dayanıklı bir geleceği temsil eder. Bunun temel özellikleri şunlardır: Birbirine güvenmeyen birden fazla düğüm (, ev bilgisayarları, bulut GPU'lar veya kenar cihazları ), merkezi bir koordinatör olmaksızın eğitimi tamamlamak için işbirliği yapabilir; genellikle görev dağıtımı ve işbirliği, protokollerle yönlendirilir ve katkının dürüstlüğünü sağlamak için kriptografik teşvik mekanizmaları kullanılır. Bu modelin karşılaştığı ana zorluklar şunlardır:
Cihaz heterojenliği ve bölme zorluğu: Heterojen cihazların koordinasyonu zordur, görev bölme verimliliği düşüktür.
İletişim verimliliği darboğazı: Ağ iletişimi kararsız, gradyan senkronizasyonu darboğazı belirgin.
Birlikte koordine eksikliği: Merkezi bir kontrolcü yok, görev dağıtımı, hata geri alma mekanizması karmaşık.
Merkeziyetsizlik eğitimi, küresel bir gönüllü grubunun, her birinin model eğitimi için hesaplama gücü katkıda bulunduğu bir işbirliği olarak anlaşılabilir; ancak "gerçekten uygulanabilir büyük ölçekli merkeziyetsizlik eğitimi" hâlâ sistematik bir mühendislik zorluğudur ve sistem mimarisi, iletişim protokolleri, şifre güvenliği, ekonomik mekanizmalar, model doğrulama gibi birçok düzeyde zorluklar içermektedir. Ancak "etkili işbirliği + dürüstlük teşviki + doğru sonuç" elde edilip edilemeyeceği hâlâ erken prototip keşif aşamasındadır.
Federated learning, bir geçiş biçimi olarak dağıtık ve Merkeziyetsizlik arasında, verilerin yerel olarak korunmasını, model parametrelerinin merkezi olarak birleştirilmesini vurgular ve gizlilik uyumuna önem veren senaryolara uygundur (, örneğin sağlık, finans ). Federated learning, dağıtık eğitim mühendislik yapısına ve yerel iş birliği yeteneğine sahiptir, aynı zamanda Merkeziyetsizlik eğitiminde verilerin dağılma avantajlarını da taşır, ancak yine de güvenilir bir koordine ediciye bağımlıdır ve tamamen açık ve sansüre karşı dirençli özelliklere sahip değildir. Gizlilik uyum senaryolarında "kontrollü merkeziyetsizlik" çözümü olarak düşünülebilir, eğitim görevleri, güven yapılandırması ve iletişim mekanizmaları açısından nispeten ılımlıdır ve sanayi geçişi olarak daha uygun bir dağıtım mimarisi olarak hizmet eder.
AI eğitim paradigması genel karşılaştırma tablosu ( teknik mimari × güven teşviki × uygulama özellikleri )
Merkeziyetsizlik eğitiminin sınırları, fırsatları ve gerçek yolları
Eğitim paradigması açısından, merkeziyetsizlik eğitimi tüm görev türleri için uygun değildir. Bazı durumlarda, görev yapısının karmaşık olması, kaynak gereksinimlerinin çok yüksek olması veya iş birliği zorluğu nedeniyle, doğal olarak heterojen, güvenilir olmayan düğümler arasında verimli bir şekilde tamamlanması uygun değildir. Örneğin, büyük model eğitimi genellikle yüksek bellek, düşük gecikme ve yüksek bant genişliğine bağımlıdır; açık ağlarda etkili bir şekilde bölünmesi ve senkronize edilmesi zordur; veri gizliliği ve egemenlik kısıtlamaları olan görevler (, örneğin sağlık, finans, hassas veriler ), yasal uyumluluk ve etik kısıtlamalar nedeniyle açılamaz ve paylaşılamaz; iş birliği teşvik temeli eksik olan görevler (, örneğin işletme kapalı kaynak modeli veya iç prototip eğitimi ) dış katılım motivasyonundan yoksundur. Bu sınırlar, günümüzde merkeziyetsizlik eğitiminin gerçek sınırlamalarını oluşturmaktadır.
Ancak bu, merkeziyetsizlik eğitiminin bir sahte önerme olduğu anlamına gelmez. Aslında, yapı olarak hafif, kolayca paralel hale getirilebilen ve teşvik edici görev türlerinde merkeziyetsizlik eğitimi belirgin bir uygulama potansiyeli göstermektedir. Bunlar arasında ancak bunlarla sınırlı olmamak üzere: LoRA ince ayarı, davranış hizalama ile ilgili ardıl eğitim görevleri ( gibi RLHF, DPO ), veri toplama eğitimi ve etiketleme görevleri, kaynak kontrolüne sahip küçük temel model eğitimi ve kenar cihazların katıldığı işbirlikçi eğitim senaryoları bulunmaktadır. Bu görevler genel olarak yüksek paralellik, düşük bağlılık ve heterojen hesaplama gücüne tolerans gibi özellikler taşımakta olup, P2P ağları, Swarm protokolü, dağıtık optimizatörler gibi yollarla işbirlikçi eğitim için oldukça uygundur.
Merkeziyetsizlik eğitim görevine uygunluk genel tablosu
Merkeziyetsizlik eğitim klasik proje analizi
Şu anda merkeziyetsizlik eğitim ve federatif öğrenim öncülüğünde, temsilci blok zinciri projeleri arasında Prime Intellect, Pluralis.ai, Gensyn, Nous Research ve Flock.io yer almaktadır. Teknik yenilikçilik ve mühendislik gerçekleştirme zorluğu açısından, Prime Intellect, Nous Research ve Pluralis.ai sistem mimarisi ve algoritma tasarımı konusunda birçok özgün keşif önermiştir ve mevcut teorik araştırmanın öncülüğünü temsil etmektedir; Gensyn ve Flock.io'nun gerçekleştirme yolları ise görece daha nettir ve ilk mühendislik ilerlemeleri görülmektedir. Bu makalede, bu beş projenin arkasındaki temel teknolojiler ve mühendislik yapıları sırayla analiz edilecek ve merkeziyetsiz AI eğitim sistemi içindeki farklılıklar ve tamamlayıcı ilişkileri daha da tartışılacaktır.
Prime Intellect: Eğitim yolu doğrulanabilir güçlendirilmiş öğrenme işbirliği ağı öncüsü
Prime Intellect, güvene ihtiyaç duymayan bir AI eğitim ağı oluşturmayı hedeflemektedir, böylece herkes eğitime katılabilir ve hesaplama katkıları için güvenilir ödüller alabilir. Prime Intellect, PRIME-RL + TOPLOC + SHARDCAST üç ana modülü aracılığıyla, doğrulanabilirlik, açıklık ve teşvik mekanizması açısından tamamlanmış bir AI merkeziyetsiz eğitim sistemi kurmayı amaçlamaktadır.
Bir, Prime Intellect Protokol Yığını Yapısı ve Ana Modül Değeri
İkincisi, Prime Intellect eğitim ana mekanizmalarının detaylı açıklaması
PRIME-RL: Ayrık Asenkron Pekiştirme Öğrenme Görev Mimarisi
PRIME-RL, Prime Intellect tarafından Merkeziyetsizlik eğitim senaryoları için özelleştirilmiş bir görev modelleme ve uygulama çerçevesidir ve heterojen ağlar ile asenkron katılım için tasarlanmıştır. Güçlendirilmiş öğrenmeyi öncelikli uyum nesnesi olarak kullanır, eğitim, çıkarım ve ağırlık yükleme süreçlerini yapısal olarak ayrıştırır, böylece her eğitim düğümü yerel olarak bağımsız bir görev döngüsünü tamamlayabilir ve standartlaştırılmış arayüz ile doğrulama ve birleştirme mekanizmalarıyla iş birliği yapabilir. Geleneksel denetimli öğrenme süreçleriyle karşılaştırıldığında, PRIME-RL, merkezi bir planlamanın olmadığı ortamlarda esnek eğitimi gerçekleştirmek için daha uygundur, bu da sistem karmaşıklığını azaltır ve çoklu görev paralelliği ve politika evrimi için bir temel oluşturur.
TOPLOC:Ağırlıksız eğitim davranışı doğrulama mekanizması
TOPLOC(Güvenilir Gözlem & Politika-İl Kontrolü), Prime Intellect tarafından önerilen eğitim doğrulabilirliği çekirdek mekanizmasıdır ve bir düğümün gözlem verilerine dayalı olarak geçerli bir politika öğrenip öğrenmediğini belirlemek için kullanılır. ZKML gibi ağır çözümlerden farklı olarak, TOPLOC tam model yeniden hesaplamasına dayanmaz; bunun yerine "gözlem dizisi↔politika güncellemesi" arasındaki yerel tutarlılık izini analiz ederek hafif yapı doğrulamasını tamamlar. Eğitim sürecindeki davranış izlerini doğrulanabilir nesnelere dönüştüren ilk sistemdir, güvene dayanmayan eğitim ödül dağıtımını gerçekleştirmenin anahtar yeniliğidir ve denetlenebilir, teşvik edici Merkeziyetsizlik işbirlikçi eğitim ağlarının inşası için uygulanabilir bir yol sunar.
SHARDCAST: Asenkron Ağırlık Toplama ve Yayılma Protokolü
SHARDCAST, Prime Intellect tarafından tasarlanan bir ağırlık yayılımı ve toplama protokolüdür ve asenkron, bant genişliği kısıtlı ve düğüm durumlarının sürekli değiştiği gerçek ağ ortamları için optimize edilmiştir. Gossip yayılım mekanizmasını ve yerel senkronizasyon stratejisini birleştirerek, birden fazla düğümün senkronize olmayan durumlarda sürekli kısmi güncellemeler göndermesine olanak tanır, böylece ağırlıkların kademeli yakınsaması ve çoklu versiyon evrimi sağlanır. Merkezi veya senkronize AllReduce yöntemlerine kıyasla, SHARDCAST merkeziyetsizlik eğitiminde ölçeklenebilirliği ve hata toleransını önemli ölçüde artırır ve istikrarlı ağırlık konsensüsü ile sürekli eğitim iterasyonlarının inşası için temel bir altyapıdır.
OpenDiLoCo: Seyrek Asenkron İletişim Çerçevesi
OpenDiLoCo, Prime Intellect ekibi tarafından DeepMind'ın önerdiği DiLoCo fikri temelinde bağımsız olarak uygulanan ve açık kaynak kodlu bir iletişim optimizasyon çerçevesidir. Bu çerçeve, merkeziyetsiz eğitimde sıkça karşılaşılan bant genişliği kısıtlamaları, cihaz heterojenliği ve düğüm istikrarsızlığı gibi zorluklar için özel olarak tasarlanmıştır. Mimarisi veri paralelliğine dayanmakta olup, Ring, Expander, Small-World gibi seyrek topoloji yapıları oluşturarak, küresel senkronizasyonun yüksek iletişim maliyetlerini önler. Model işbirlikçi eğitimini tamamlamak için yalnızca yerel komşu düğümlere dayanır. Asenkron güncellemeler ve kesinti toleransı mekanizması ile bir araya getirildiğinde, OpenDiLoCo, tüketici düzeyindeki GPU'ların ve kenar cihazlarının eğitim görevlerine de istikrarlı bir şekilde katılmasını sağlar, küresel işbirlikçi eğitimin katılımını önemli ölçüde artırır ve merkeziyetsiz eğitim ağlarının inşası için kritik bir iletişim altyapılarından biridir.
PCCL: İşbirlikçi İletişim Kütüphanesi
PCCL(Prime Collective Communication Library), Prime Intellect tarafından Merkeziyetsizlik AI eğitim ortamı için özel olarak tasarlanmış hafif bir iletişim kütüphanesidir; geleneksel iletişim kütüphanelerinin (, NCCL, Gloo) gibi heterojen cihazlar ve düşük bant genişliği ağlarındaki uyum sorunlarını çözmeyi amaçlamaktadır. PCCL, seyrek topolojiyi, gradyan sıkıştırmayı, düşük hassasiyetli senkronizasyonu ve kesinti kurtarmayı destekler, tüketici sınıfı GPU'larda ve kararsız düğümlerde çalışabilir; OpenDiLoCo protokolünün asenkron iletişim yeteneklerini destekleyen temel bileşendir. Eğitim ağının bant genişliği toleransını ve cihaz uyumluluğunu önemli ölçüde artırır ve gerçekten açık, güvene ihtiyaç duymayan işbirlikçi eğitim ağlarının "son bir mil" iletişim altyapısını kurar.
Üç, Prime Intellect teşvik ağı ve rol dağılımı
Prime Intellect, herkesin görevlere katılabileceği ve gerçek katkılara dayalı ödüller alabileceği, izin gerektirmeyen, doğrulanabilir ve ekonomik teşvik mekanizmasına sahip bir eğitim ağı inşa etti. Protokol, üç ana rol temelinde çalışmaktadır:
Görev başlatıcısı: Eğitim ortamını, başlangıç modelini, ödül fonksiyonunu ve doğrulama standartlarını tanımlayın.
Eğitim düğümü: Yerel eğitim uygulamak, ağırlık güncellemeleri ve gözlem izlerini göndermek
Doğrulayıcı düğüm: Eğitim davranışının gerçekliğini doğrulamak için TOPLOC mekanizmasını kullanın ve ödül hesaplaması ve strateji birleştirmeye katılın.
Protokolün temel süreçleri, görev yayınlama, düğüm eğitimi, iz doğrulama, ağırlık birleştirme (SHARDCAST) ve ödül dağıtımını içerir, bu da "gerçek eğitim davranışları" etrafında bir teşvik döngüsü oluşturur.
Dört, INTELLECT-2: İlk doğrulanabilir Merkeziyetsizlik eğitimi modelinin yayınlanması
Prime Intellect, 2025 yılının Mayıs ayında INTELLECT-2'yi piyasaya sürdü, bu tamamen
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
8 Likes
Reward
8
7
Share
Comment
0/400
ForkMonger
· 23h ago
lol merkezi yapay zeka sadece istismara hazır bir yönetişim... bu paradigma için çatal açma zamanı bence
View OriginalReply0
MetaNeighbor
· 23h ago
Antrenmanı iyi yapın, pro'lar parası olanlar oynasın.
View OriginalReply0
SquidTeacher
· 23h ago
Makaleyi okudum, çok yoruldum, anahtar kelimeler kaçtı.
View OriginalReply0
WhaleMistaker
· 23h ago
Eğitim Bilgi İşlem Gücü pahalı oldu 🐔... Kim geri ödeyecek?
View OriginalReply0
MEV_Whisperer
· 23h ago
Kimde Bilgi İşlem Gücü varsa o karar verir...
View OriginalReply0
SilentObserver
· 23h ago
Bilgi İşlem Gücü maliyeti gerçekten büyük bir sorun!!
View OriginalReply0
LightningPacketLoss
· 07-05 16:07
Yine AI'den bahsediyor, benim ekran kartım sadece 225 watt, ağlıyorum.
AI eğitim paradigmasının evrimi: merkezi kontrolden Merkeziyetsizlik iş birliğine teknik devrim
AI Eğitim Paradigmasının Evrimi: Merkezî Kontrolden Merkeziyetsizlik İşbirliğine Teknik Devrim
AI'nın tam değer zincirinde, model eğitimi en fazla kaynak tüketen ve en yüksek teknik engellere sahip aşamadır; bu, modelin yetenek sınırlarını ve gerçek uygulama etkilerini doğrudan belirler. Çıkarım aşamasının hafif çağrımına kıyasla, eğitim süreci sürekli büyük ölçekli hesaplama gücü yatırımı, karmaşık veri işleme süreçleri ve yüksek yoğunluklu optimizasyon algoritması desteği gerektirir; bu, AI sisteminin inşasının gerçek "ağır sanayi"sidir. Mimari paradigmalar açısından, eğitim yöntemleri dört kategoriye ayrılabilir: merkezi eğitim, dağıtık eğitim, federatif öğrenme ve bu makalede odaklanılan Merkeziyetsizlik eğitimi.
Merkeziyetsiz eğitim, tek bir kuruluşun yerel yüksek performanslı küme içinde tüm eğitim süreçlerini tamamladığı en yaygın geleneksel yöntemdir. Donanım ( gibi NVIDIA GPU ), alt yazılım ( CUDA, cuDNN ), küme zamanlama sistemleri ( gibi Kubernetes ) ve eğitim çerçeveleri ( gibi NCCL arka uçuna dayalı PyTorch ), tüm bileşenler tek bir kontrol sistemi tarafından koordine edilir. Bu derin işbirliği mimarisi, bellek paylaşımı, gradyan senkronizasyonu ve hata toleransı mekanizmalarının verimliliğini en üst düzeye çıkarır ve GPT, Gemini gibi büyük ölçekli modellerin eğitimine son derece uygundur. Yüksek verimlilik, kontrol edilebilir kaynaklar gibi avantajları vardır, ancak aynı zamanda veri tekelciliği, kaynak engelleri, enerji tüketimi ve tek nokta riski gibi sorunları da barındırır.
Dağıtık eğitim, günümüzün büyük model eğitiminde ana akım yöntemdir, temelinde model eğitim görevlerinin parçalanarak birden fazla makineye dağıtılıp eşzamanlı olarak yürütülmesi yatmaktadır. Bu, tek makine hesaplama ve depolama darboğazını aşmak içindir. Fiziksel olarak "dağıtık" özelliklere sahip olmasına rağmen, genel olarak merkezi bir kuruluş tarafından kontrol edilip senkronize edilmektedir, genellikle yüksek hızlı yerel alan ağı ortamında çalışmakta ve NVLink yüksek hızlı bağlantı teknolojisi aracılığıyla ana düğüm, alt görevleri koordine etmektedir. Ana akım yöntemler şunları içermektedir:
Dağıtık eğitim, "merkezi kontrol + dağıtık yürütme" kombinasyonudur; bu, aynı patronun uzaktan birden fazla "ofis" çalışanını görevi tamamlamak için işbirliği yapmaya yönlendirmesine benzer. Şu anda neredeyse tüm ana akım büyük modeller (GPT-4, Gemini, LLaMA gibi ) bu şekilde eğitim tamamlanmaktadır.
Merkeziyetsizlik eğitimi, daha açık ve sansüre karşı dayanıklı bir geleceği temsil eder. Bunun temel özellikleri şunlardır: Birbirine güvenmeyen birden fazla düğüm (, ev bilgisayarları, bulut GPU'lar veya kenar cihazları ), merkezi bir koordinatör olmaksızın eğitimi tamamlamak için işbirliği yapabilir; genellikle görev dağıtımı ve işbirliği, protokollerle yönlendirilir ve katkının dürüstlüğünü sağlamak için kriptografik teşvik mekanizmaları kullanılır. Bu modelin karşılaştığı ana zorluklar şunlardır:
Merkeziyetsizlik eğitimi, küresel bir gönüllü grubunun, her birinin model eğitimi için hesaplama gücü katkıda bulunduğu bir işbirliği olarak anlaşılabilir; ancak "gerçekten uygulanabilir büyük ölçekli merkeziyetsizlik eğitimi" hâlâ sistematik bir mühendislik zorluğudur ve sistem mimarisi, iletişim protokolleri, şifre güvenliği, ekonomik mekanizmalar, model doğrulama gibi birçok düzeyde zorluklar içermektedir. Ancak "etkili işbirliği + dürüstlük teşviki + doğru sonuç" elde edilip edilemeyeceği hâlâ erken prototip keşif aşamasındadır.
Federated learning, bir geçiş biçimi olarak dağıtık ve Merkeziyetsizlik arasında, verilerin yerel olarak korunmasını, model parametrelerinin merkezi olarak birleştirilmesini vurgular ve gizlilik uyumuna önem veren senaryolara uygundur (, örneğin sağlık, finans ). Federated learning, dağıtık eğitim mühendislik yapısına ve yerel iş birliği yeteneğine sahiptir, aynı zamanda Merkeziyetsizlik eğitiminde verilerin dağılma avantajlarını da taşır, ancak yine de güvenilir bir koordine ediciye bağımlıdır ve tamamen açık ve sansüre karşı dirençli özelliklere sahip değildir. Gizlilik uyum senaryolarında "kontrollü merkeziyetsizlik" çözümü olarak düşünülebilir, eğitim görevleri, güven yapılandırması ve iletişim mekanizmaları açısından nispeten ılımlıdır ve sanayi geçişi olarak daha uygun bir dağıtım mimarisi olarak hizmet eder.
AI eğitim paradigması genel karşılaştırma tablosu ( teknik mimari × güven teşviki × uygulama özellikleri )
Merkeziyetsizlik eğitiminin sınırları, fırsatları ve gerçek yolları
Eğitim paradigması açısından, merkeziyetsizlik eğitimi tüm görev türleri için uygun değildir. Bazı durumlarda, görev yapısının karmaşık olması, kaynak gereksinimlerinin çok yüksek olması veya iş birliği zorluğu nedeniyle, doğal olarak heterojen, güvenilir olmayan düğümler arasında verimli bir şekilde tamamlanması uygun değildir. Örneğin, büyük model eğitimi genellikle yüksek bellek, düşük gecikme ve yüksek bant genişliğine bağımlıdır; açık ağlarda etkili bir şekilde bölünmesi ve senkronize edilmesi zordur; veri gizliliği ve egemenlik kısıtlamaları olan görevler (, örneğin sağlık, finans, hassas veriler ), yasal uyumluluk ve etik kısıtlamalar nedeniyle açılamaz ve paylaşılamaz; iş birliği teşvik temeli eksik olan görevler (, örneğin işletme kapalı kaynak modeli veya iç prototip eğitimi ) dış katılım motivasyonundan yoksundur. Bu sınırlar, günümüzde merkeziyetsizlik eğitiminin gerçek sınırlamalarını oluşturmaktadır.
Ancak bu, merkeziyetsizlik eğitiminin bir sahte önerme olduğu anlamına gelmez. Aslında, yapı olarak hafif, kolayca paralel hale getirilebilen ve teşvik edici görev türlerinde merkeziyetsizlik eğitimi belirgin bir uygulama potansiyeli göstermektedir. Bunlar arasında ancak bunlarla sınırlı olmamak üzere: LoRA ince ayarı, davranış hizalama ile ilgili ardıl eğitim görevleri ( gibi RLHF, DPO ), veri toplama eğitimi ve etiketleme görevleri, kaynak kontrolüne sahip küçük temel model eğitimi ve kenar cihazların katıldığı işbirlikçi eğitim senaryoları bulunmaktadır. Bu görevler genel olarak yüksek paralellik, düşük bağlılık ve heterojen hesaplama gücüne tolerans gibi özellikler taşımakta olup, P2P ağları, Swarm protokolü, dağıtık optimizatörler gibi yollarla işbirlikçi eğitim için oldukça uygundur.
Merkeziyetsizlik eğitim görevine uygunluk genel tablosu
Merkeziyetsizlik eğitim klasik proje analizi
Şu anda merkeziyetsizlik eğitim ve federatif öğrenim öncülüğünde, temsilci blok zinciri projeleri arasında Prime Intellect, Pluralis.ai, Gensyn, Nous Research ve Flock.io yer almaktadır. Teknik yenilikçilik ve mühendislik gerçekleştirme zorluğu açısından, Prime Intellect, Nous Research ve Pluralis.ai sistem mimarisi ve algoritma tasarımı konusunda birçok özgün keşif önermiştir ve mevcut teorik araştırmanın öncülüğünü temsil etmektedir; Gensyn ve Flock.io'nun gerçekleştirme yolları ise görece daha nettir ve ilk mühendislik ilerlemeleri görülmektedir. Bu makalede, bu beş projenin arkasındaki temel teknolojiler ve mühendislik yapıları sırayla analiz edilecek ve merkeziyetsiz AI eğitim sistemi içindeki farklılıklar ve tamamlayıcı ilişkileri daha da tartışılacaktır.
Prime Intellect: Eğitim yolu doğrulanabilir güçlendirilmiş öğrenme işbirliği ağı öncüsü
Prime Intellect, güvene ihtiyaç duymayan bir AI eğitim ağı oluşturmayı hedeflemektedir, böylece herkes eğitime katılabilir ve hesaplama katkıları için güvenilir ödüller alabilir. Prime Intellect, PRIME-RL + TOPLOC + SHARDCAST üç ana modülü aracılığıyla, doğrulanabilirlik, açıklık ve teşvik mekanizması açısından tamamlanmış bir AI merkeziyetsiz eğitim sistemi kurmayı amaçlamaktadır.
Bir, Prime Intellect Protokol Yığını Yapısı ve Ana Modül Değeri
İkincisi, Prime Intellect eğitim ana mekanizmalarının detaylı açıklaması
PRIME-RL: Ayrık Asenkron Pekiştirme Öğrenme Görev Mimarisi
PRIME-RL, Prime Intellect tarafından Merkeziyetsizlik eğitim senaryoları için özelleştirilmiş bir görev modelleme ve uygulama çerçevesidir ve heterojen ağlar ile asenkron katılım için tasarlanmıştır. Güçlendirilmiş öğrenmeyi öncelikli uyum nesnesi olarak kullanır, eğitim, çıkarım ve ağırlık yükleme süreçlerini yapısal olarak ayrıştırır, böylece her eğitim düğümü yerel olarak bağımsız bir görev döngüsünü tamamlayabilir ve standartlaştırılmış arayüz ile doğrulama ve birleştirme mekanizmalarıyla iş birliği yapabilir. Geleneksel denetimli öğrenme süreçleriyle karşılaştırıldığında, PRIME-RL, merkezi bir planlamanın olmadığı ortamlarda esnek eğitimi gerçekleştirmek için daha uygundur, bu da sistem karmaşıklığını azaltır ve çoklu görev paralelliği ve politika evrimi için bir temel oluşturur.
TOPLOC:Ağırlıksız eğitim davranışı doğrulama mekanizması
TOPLOC(Güvenilir Gözlem & Politika-İl Kontrolü), Prime Intellect tarafından önerilen eğitim doğrulabilirliği çekirdek mekanizmasıdır ve bir düğümün gözlem verilerine dayalı olarak geçerli bir politika öğrenip öğrenmediğini belirlemek için kullanılır. ZKML gibi ağır çözümlerden farklı olarak, TOPLOC tam model yeniden hesaplamasına dayanmaz; bunun yerine "gözlem dizisi↔politika güncellemesi" arasındaki yerel tutarlılık izini analiz ederek hafif yapı doğrulamasını tamamlar. Eğitim sürecindeki davranış izlerini doğrulanabilir nesnelere dönüştüren ilk sistemdir, güvene dayanmayan eğitim ödül dağıtımını gerçekleştirmenin anahtar yeniliğidir ve denetlenebilir, teşvik edici Merkeziyetsizlik işbirlikçi eğitim ağlarının inşası için uygulanabilir bir yol sunar.
SHARDCAST: Asenkron Ağırlık Toplama ve Yayılma Protokolü
SHARDCAST, Prime Intellect tarafından tasarlanan bir ağırlık yayılımı ve toplama protokolüdür ve asenkron, bant genişliği kısıtlı ve düğüm durumlarının sürekli değiştiği gerçek ağ ortamları için optimize edilmiştir. Gossip yayılım mekanizmasını ve yerel senkronizasyon stratejisini birleştirerek, birden fazla düğümün senkronize olmayan durumlarda sürekli kısmi güncellemeler göndermesine olanak tanır, böylece ağırlıkların kademeli yakınsaması ve çoklu versiyon evrimi sağlanır. Merkezi veya senkronize AllReduce yöntemlerine kıyasla, SHARDCAST merkeziyetsizlik eğitiminde ölçeklenebilirliği ve hata toleransını önemli ölçüde artırır ve istikrarlı ağırlık konsensüsü ile sürekli eğitim iterasyonlarının inşası için temel bir altyapıdır.
OpenDiLoCo: Seyrek Asenkron İletişim Çerçevesi
OpenDiLoCo, Prime Intellect ekibi tarafından DeepMind'ın önerdiği DiLoCo fikri temelinde bağımsız olarak uygulanan ve açık kaynak kodlu bir iletişim optimizasyon çerçevesidir. Bu çerçeve, merkeziyetsiz eğitimde sıkça karşılaşılan bant genişliği kısıtlamaları, cihaz heterojenliği ve düğüm istikrarsızlığı gibi zorluklar için özel olarak tasarlanmıştır. Mimarisi veri paralelliğine dayanmakta olup, Ring, Expander, Small-World gibi seyrek topoloji yapıları oluşturarak, küresel senkronizasyonun yüksek iletişim maliyetlerini önler. Model işbirlikçi eğitimini tamamlamak için yalnızca yerel komşu düğümlere dayanır. Asenkron güncellemeler ve kesinti toleransı mekanizması ile bir araya getirildiğinde, OpenDiLoCo, tüketici düzeyindeki GPU'ların ve kenar cihazlarının eğitim görevlerine de istikrarlı bir şekilde katılmasını sağlar, küresel işbirlikçi eğitimin katılımını önemli ölçüde artırır ve merkeziyetsiz eğitim ağlarının inşası için kritik bir iletişim altyapılarından biridir.
PCCL: İşbirlikçi İletişim Kütüphanesi
PCCL(Prime Collective Communication Library), Prime Intellect tarafından Merkeziyetsizlik AI eğitim ortamı için özel olarak tasarlanmış hafif bir iletişim kütüphanesidir; geleneksel iletişim kütüphanelerinin (, NCCL, Gloo) gibi heterojen cihazlar ve düşük bant genişliği ağlarındaki uyum sorunlarını çözmeyi amaçlamaktadır. PCCL, seyrek topolojiyi, gradyan sıkıştırmayı, düşük hassasiyetli senkronizasyonu ve kesinti kurtarmayı destekler, tüketici sınıfı GPU'larda ve kararsız düğümlerde çalışabilir; OpenDiLoCo protokolünün asenkron iletişim yeteneklerini destekleyen temel bileşendir. Eğitim ağının bant genişliği toleransını ve cihaz uyumluluğunu önemli ölçüde artırır ve gerçekten açık, güvene ihtiyaç duymayan işbirlikçi eğitim ağlarının "son bir mil" iletişim altyapısını kurar.
Üç, Prime Intellect teşvik ağı ve rol dağılımı
Prime Intellect, herkesin görevlere katılabileceği ve gerçek katkılara dayalı ödüller alabileceği, izin gerektirmeyen, doğrulanabilir ve ekonomik teşvik mekanizmasına sahip bir eğitim ağı inşa etti. Protokol, üç ana rol temelinde çalışmaktadır:
Protokolün temel süreçleri, görev yayınlama, düğüm eğitimi, iz doğrulama, ağırlık birleştirme (SHARDCAST) ve ödül dağıtımını içerir, bu da "gerçek eğitim davranışları" etrafında bir teşvik döngüsü oluşturur.
Dört, INTELLECT-2: İlk doğrulanabilir Merkeziyetsizlik eğitimi modelinin yayınlanması
Prime Intellect, 2025 yılının Mayıs ayında INTELLECT-2'yi piyasaya sürdü, bu tamamen