OpenLedger Derinlik Araştırması: OP Stack+EigenDA tabanlı, veri odaklı, model kombinasyonuna sahip bir akıllı ekonomi inşa et
Bir, Giriş | Crypto AI'nin model katmanındaki sıçrama
Veri, model ve hesaplama gücü, AI altyapısının üç temel unsurudur; yakıt (veri), motor (model) ve enerji (hesaplama gücü) birbirinden ayrılamaz. Geleneksel AI endüstrisinin altyapı evrimiyle benzer bir yol izleyen Crypto AI alanı da benzer aşamalardan geçmiştir. 2024 yılının başlarında, piyasa bir dönem merkeziyetsiz GPU projeleri tarafından domine edildi ( bazı platformlar gibi ), genel olarak "hesaplama gücünü birleştirme" üzerine büyüme mantığını vurguladı. 2025 yılına girerken, sektörün odak noktası yavaş yavaş model ve veri katmanına kaymaya başladı ve bu, Crypto AI'nin alt kaynak rekabetinden daha sürdürülebilir ve uygulama değeri olan orta katman inşasına geçiş yaptığını gösteriyor.
Genel Model (LLM) vs Özel Model (SLM)
Geleneksel büyük dil modellerinin (LLM) eğitimi, büyük ölçekli veri setlerine ve karmaşık dağıtılmış mimarilere yüksek derecede bağımlıdır; parametre boyutu genellikle 70B ile 500B arasında değişir ve bir seferdeki eğitim maliyeti genellikle milyonlarca doları bulur. SLM (Özelleşmiş Dil Modeli) ise, yeniden kullanılabilir temel modellerin hafif ince ayar paradigması olarak, genellikle LLaMA, Mistral, DeepSeek gibi açık kaynaklı modelleri temel alır ve az sayıda yüksek kaliteli uzman verisi ile LoRA gibi teknolojileri birleştirerek belirli bir alan bilgisine sahip uzman modelleri hızlı bir şekilde inşa eder, böylece eğitim maliyetlerini ve teknik engelleri önemli ölçüde azaltır.
Dikkate değer olan, SLM'nin LLM ağırlıklarına entegre edilmeyeceği, bunun yerine Agent mimarisi çağrıları, eklenti sistemi dinamik yönlendirmesi, LoRA modülü sıcak takibi, RAG (geri alma artırılmış üretim) gibi yöntemlerle LLM ile işbirliği içinde çalışacağıdır. Bu mimari, LLM'nin geniş kapsama yeteneğini korurken, ince ayar modülleriyle profesyonel performansı artırarak yüksek derecede esnek bir kombinasyon akıllı sistemi oluşturur.
Kripto AI'nin model katmanındaki değeri ve sınırları
Crypto AI projeleri esasen büyük dil modellerinin (LLM) çekirdek yeteneklerini doğrudan geliştirmekte zordur, bunun başlıca nedeni şudur:
Teknik engeller çok yüksek: Foundation Model'i eğitmek için gereken veri ölçeği, hesaplama kaynakları ve mühendislik yetenekleri son derece büyük; şu anda yalnızca Amerika (bazı şirketler vb.) ve Çin (bazı şirketler vb.) gibi teknoloji devleri bu yeteneklere sahip.
Açık kaynak ekosisteminin sınırlamaları: Ana akım temel modeller LLaMA ve Mixtral açık kaynak olsa da, model atılımlarını gerçekten teşvik eden anahtar hala araştırma kuruluşları ve kapalı kaynak mühendislik sistemlerinde yoğunlaşmaktadır; zincir üzerindeki projelerin temel model katmanındaki katılım alanı sınırlıdır.
Ancak, açık kaynaklı temel modellerin üzerinde, Crypto AI projeleri hala özel dil modelleri (SLM) ile ince ayar yaparak ve Web3'ün doğrulanabilirliği ve teşvik mekanizmalarını birleştirerek değer uzantısı gerçekleştirebilir. AI endüstri zincirinin "kenar arayüz katmanı" olarak, iki ana yönde kendini gösterir:
Güvenilir doğrulama katmanı: Model oluşturma yollarını, veri katkılarını ve kullanım durumlarını zincir üzerinde kaydederek, AI çıktılarının izlenebilirliğini ve değiştirilmezlik kapasitesini artırır.
Teşvik mekanizması: Yerel Token'lar aracılığıyla, veri yükleme, model çağrısı, akıllı ajan (Agent) yürütme gibi eylemleri teşvik etmek için, model eğitimi ve hizmeti için olumlu bir döngü oluşturma.
AI model türleri sınıflandırması ve blok zinciri uygulanabilirlik analizi
Buradan görüldüğü üzere, model sınıfı Crypto AI projelerinin uygulanabilir noktaları esasen küçük SLM'nin hafif ince ayarı, RAG mimarisinin zincir üzerindeki veri erişimi ve doğrulaması, ayrıca Edge modelinin yerel dağıtımı ve teşviki üzerine yoğunlaşmaktadır. Blok zincirinin doğrulanabilirliği ve token mekanizması ile bir araya geldiğinde, Crypto bu orta ve düşük kaynaklı model senaryolarına özgü bir değer sunarak AI "arayüz katmanı"nın farklılaşmış değerini oluşturabilir.
Veri ve modele dayalı blockchain AI zinciri, her veri ve modelin katkı kaynağını net, değiştirilemez bir şekilde kaydedebilmekte ve veri güvenilirliğini ile model eğitiminde izlenebilirliği önemli ölçüde artırmaktadır. Aynı zamanda, akıllı sözleşme mekanizması sayesinde, veriler ya da modeller çağrıldığında ödül dağıtımını otomatik olarak tetikleyerek AI davranışlarını ölçülebilir ve ticarete konu edilebilir tokenleşmiş değere dönüştürmekte ve sürdürülebilir bir teşvik sistemi oluşturmaktadır. Ayrıca, topluluk kullanıcıları token ile model performansını değerlendirebilir, kuralların belirlenmesi ve iterasyonuna katılabilir, merkeziyetsiz yönetim yapısını geliştirebilirler.
İki, Proje Özeti | OpenLedger'ın AI Zincir Vizyonu
OpenLedger, veri ve model teşvik mekanizmalarına odaklanan mevcut pazardaki az sayıdaki blok zinciri AI projesinden biridir. "Ödenebilir AI" kavramını ilk olarak ortaya atan OpenLedger, veri katkıcıları, model geliştiricileri ve AI uygulama oluşturucularının aynı platformda işbirliği yapmalarını ve gerçek katkıları doğrultusunda zincir üzerinde kazanç elde etmelerini sağlamak amacıyla adil, şeffaf ve birleştirilebilir bir AI çalışma ortamı inşa etmeyi hedeflemektedir.
OpenLedger, "veri sağlama"dan "model dağıtımı"na ve ardından "komisyon çağrısına" kadar tam bir döngü sunmaktadır. Temel modülleri şunları içerir:
Model Factory: Programlama gerektirmeden, açık kaynak LLM kullanarak LoRA ile ince ayar yaparak eğitim ve özel modelleri dağıtabilirsiniz;
OpenLoRA: Binlerce modelin eşzamanlı varlığını destekler, ihtiyaç duyulduğunda dinamik olarak yükler, dağıtım maliyetlerini önemli ölçüde düşürür;
PoA (Atıf Kanıtı): Zincir üzerindeki çağrılar aracılığıyla katkı ölçümü ve ödül dağılımını gerçekleştirme;
Datanets: Dikey senaryolara yönelik yapılandırılmış veri ağı, topluluk işbirliği ile inşa ve doğrulanmaktadır;
Model Teklif Platformu (Model Proposal Platform): Kombinlenebilir, çağrılabilir, ödenebilir zincir üstü model pazarı.
Yukarıdaki modüller aracılığıyla, OpenLedger veri odaklı ve model kombinasyonuna sahip bir "akıllı varlık ekonomi altyapısı" inşa etti ve AI değer zincirinin zincir üstü hale gelmesini sağladı.
Blok zinciri teknolojisi benimsemede, OpenLedger, OP Stack + EigenDA temel alarak, AI modelleri için yüksek performanslı, düşük maliyetli ve doğrulanabilir veri ve sözleşme çalışma ortamı oluşturmuştur.
OP Stack üzerine inşa edildi: Optimism teknoloji yığınını temel alarak, yüksek işlem hacmi ve düşük maliyetli işlemleri destekler;
Ethereum ana ağında işlem yapmak: İşlem güvenliğini ve varlık bütünlüğünü sağlamak;
EVM uyumlu: Geliştiricilerin Solidity tabanlı hızlı dağıtım ve genişletme yapmasını kolaylaştırır;
EigenDA veri kullanılabilirliği desteği sağlar: depolama maliyetlerini önemli ölçüde azaltır ve verilerin doğrulanabilirliğini güvence altına alır.
NEAR gibi daha çok alt katmana odaklanan, veri egemenliğini ve "AI Agents on BOS" mimarisini öne çıkaran genel amaçlı AI zincirlerine kıyasla, OpenLedger daha çok veri ve model teşviklerine yönelik AI özel zinciri oluşturmaya odaklanmaktadır. Amacı, model geliştirme ve çağrılarının zincir üzerinde izlenebilir, birleştirilebilir ve sürdürülebilir bir değer döngüsü oluşturmasını sağlamaktır. Web3 dünyasında model teşvik altyapısıdır; belirli platform tabanlı model barındırma, belirli platform tabanlı kullanım ücretlendirmesi ve belirli platform tabanlı zincir üstü birleştirilebilir arayüzlerle bir araya gelerek "model varlık olarak" gerçekleştirmenin yolunu ilerletmektedir.
Üç, OpenLedger'ın Temel Bileşenleri ve Teknoloji Mimarisi
3.1 Model Fabrikası, kodsuz model fabrikası
ModelFactory, OpenLedger ekosisteminde büyük bir dil modeli (LLM) ince ayar platformudur. Geleneksel ince ayar çerçevelerinin aksine, ModelFactory tamamen grafik arayüzü ile işlem yapma imkanı sunar, komut satırı araçlarına veya API entegrasyonuna ihtiyaç yoktur. Kullanıcılar, OpenLedger üzerinde yetkilendirilmiş ve onaylanmış veri setlerine dayanarak modeli ince ayar yapabilirler. Veri yetkilendirmesi, model eğitimi ve dağıtımını bir arada sunan entegre bir iş akışı gerçekleştirilmiştir; ana süreçler şunlardır:
Veri erişim kontrolü: Kullanıcı veri talebi gönderir, sağlayıcı inceleyip onaylar, veri otomatik olarak model eğitim arayüzüne entegre edilir.
Model Seçimi ve Yapılandırması: Ana akım LLM'leri (örneğin LLaMA, Mistral) destekler, GUI aracılığıyla hiperparametreleri yapılandırır.
Hafifletilmiş ince ayar: Dahili LoRA / QLoRA motoru, eğitim ilerlemesini gerçek zamanlı olarak gösterir.
Model Değerlendirme ve Dağıtım: Dahili değerlendirme araçları, dağıtım veya ekosistem paylaşım çağrısını destekler.
Etkileşimli doğrulama arayüzü: Modelin soru-cevap yeteneğini doğrudan test etmek için sohbet tarzı bir arayüz sağlar.
RAG üretim izleme: Kaynak referansları ile yanıt vererek güveni ve denetlenebilirliği artırın.
Model Factory sistemi, kimlik doğrulama, veri yetkisi, model ince ayarı, değerlendirme dağıtımı ve RAG izleme dahil olmak üzere altı ana modül içerir ve güvenli, kontrol edilebilir, gerçek zamanlı etkileşimli ve sürdürülebilir bir şekilde gelir elde etme amacıyla entegre bir model hizmet platformu oluşturur.
ModelFactory şu anda desteklenen büyük dil modeli yetenekleri aşağıdaki gibidir:
LLaMA Serisi: En geniş ekosistem, aktif topluluk, güçlü genel performans ile mevcut en yaygın açık kaynak temel modellerden biridir.
Mistral: Yapı verimli, çıkarım performansı mükemmel, esnek dağıtım ve sınırlı kaynaklar için uygundur.
Qwen: Bir şirket tarafından üretilmiştir, Çince görevlerde mükemmel performans gösterir, genel yetenekleri güçlüdür, yerli geliştiriciler için ilk tercihtir.
ChatGLM: Çince diyalog performansı öne çıkıyor, dikey müşteri hizmetleri ve yerelleştirilmiş senaryolar için uygundur.
Deepseek: Kod üretimi ve matematiksel akıl yürütme konusunda üstün performans gösterir, akıllı geliştirme yardımcı araçları için uygundur.
Gemma: Bir şirket tarafından sunulan hafif bir model, yapısı net, hızlı bir şekilde öğrenilmesi ve deney yapılması kolay.
Falcon: Önceleri performans standartıydı, temel araştırmalar veya karşılaştırmalı testler için uygundu, ancak topluluk etkinliği azaldı.
BLOOM: Çok dilli destek oldukça güçlü, ancak çıkarım performansı zayıf, dil kapsama araştırmaları için uygundur.
GPT-2: Klasik erken dönem model, yalnızca öğretim ve doğrulama amaçları için uygundur, pratik kullanım için önerilmez.
OpenLedger'in model kombinasyonu en son yüksek performanslı MoE modellerini veya çok modlu modelleri içermese de, stratejisi çağ dışı değil; bunun yerine zincir üzerinde dağıtımın gerçek kısıtlamalarına (çıkarım maliyeti, RAG uyumu, LoRA uyumluluğu, EVM ortamı) dayalı olarak "pragmatik öncelikli" bir yapılandırma yapılmıştır.
Model Factory, kodsuz bir araç zinciri olarak, tüm modeller katkı kanıtı mekanizması ile entegre edilmiştir ve bu, veri katkı sağlayıcıları ile model geliştiricilerinin haklarını güvence altına alır. Düşük giriş engeli, paraya dönüştürülebilirlik ve birleştirilebilirlik gibi avantajlara sahiptir; geleneksel model geliştirme araçları ile karşılaştırıldığında:
Geliştiriciler için: Model kuluçkası, dağıtımı ve gelir için tam bir yol sunar;
Platform için: Model varlıkların dolaşımını ve kombinasyon ekosistemini oluşturmak;
Uygulayıcılar için: Modelleri veya Ajanları API çağrısı yapar gibi birleştirerek kullanabilirsiniz.
3.2 OpenLoRA, modelin zincir üzerindeki varlıklaştırılması
LoRA (Düşük Sıralı Uyum), orijinal model parametrelerini değiştirmeden yeni görevleri öğrenmek için önceden eğitilmiş büyük modellere "düşük rütbeli matrisler" ekleyerek çalışan verimli bir parametre ince ayar yöntemidir. Geleneksel büyük dil modelleri (örneğin LLaMA, GPT-3) genellikle on milyarlarca hatta yüz milyarlarca parametreye sahiptir. Belirli görevlerde (örneğin hukuki soru yanıtı, tıbbi danışmanlık) kullanılabilmeleri için ince ayar (fine-tuning) yapılması gerekmektedir. LoRA'nın temel stratejisi şudur: "Orijinal büyük modelin parametrelerini dondurmak, yalnızca eklenen yeni parametre matrislerini eğitmek." Parametre verimliliği, hızlı eğitimi ve esnek dağıtımı ile günümüzde Web3 model dağıtımı ve kombineli çağrılar için en uygun ana akım ince ayar yöntemidir.
OpenLoRA, OpenLedger tarafından, çoklu model dağıtımı ve kaynak paylaşımı için tasarlanmış hafif bir çıkarım çerçevesidir. Temel hedefi, mevcut AI model dağıtımında yaygın olan yüksek maliyet, düşük yeniden kullanım, GPU kaynak israfı gibi sorunları çözmek ve "ödenebilir AI" (Payable AI) uygulamasını teşvik etmektir.
OpenLoRA sistem mimarisi temel bileşenleri, modüler tasarıma dayanmaktadır ve model depolama, çıkarım yürütme, istek yönlendirme gibi kritik aşamaları kapsamaktadır. Verimli, düşük maliyetli çoklu model dağıtımı ve çağırma yeteneği sağlamaktadır:
LoRA Adaptör Depolama Modülü (LoRA Adaptörleri Depolama): İnce ayar yapılmış LoRA adaptörü OpenLedger üzerinde barındırılmakta, ihtiyaç duyulduğunda yüklenmekte ve tüm modelin önceden yüklenmesini önlemektedir.
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
6 Likes
Reward
6
7
Share
Comment
0/400
MindsetExpander
· 14h ago
Bir grup enayinin coin'lerinin toplanmasıydı.
View OriginalReply0
MEVSandwich
· 14h ago
Bana bir Çin özeti yap.
View OriginalReply0
MaticHoleFiller
· 14h ago
Bu dalgada AI'yi beğendim.
View OriginalReply0
OnchainSniper
· 14h ago
Yine bir bilgi işlem gücü günü.
View OriginalReply0
RugpullAlertOfficer
· 14h ago
Hızla akıllı varlık Rug Pull'a geçin
View OriginalReply0
BlockchainTherapist
· 14h ago
Güzel görünüyor, bir deneyelim.
View OriginalReply0
MidnightSeller
· 14h ago
Bu çağda şişe sosu olmadan AI projesi yapılabilir mi?
OpenLedger, OP Stack+EigenDA tabanlı AI modeli teşvik zincirini tanıttı, birleşik akıllı ajans ekonomisini inşa ediyor.
OpenLedger Derinlik Araştırması: OP Stack+EigenDA tabanlı, veri odaklı, model kombinasyonuna sahip bir akıllı ekonomi inşa et
Bir, Giriş | Crypto AI'nin model katmanındaki sıçrama
Veri, model ve hesaplama gücü, AI altyapısının üç temel unsurudur; yakıt (veri), motor (model) ve enerji (hesaplama gücü) birbirinden ayrılamaz. Geleneksel AI endüstrisinin altyapı evrimiyle benzer bir yol izleyen Crypto AI alanı da benzer aşamalardan geçmiştir. 2024 yılının başlarında, piyasa bir dönem merkeziyetsiz GPU projeleri tarafından domine edildi ( bazı platformlar gibi ), genel olarak "hesaplama gücünü birleştirme" üzerine büyüme mantığını vurguladı. 2025 yılına girerken, sektörün odak noktası yavaş yavaş model ve veri katmanına kaymaya başladı ve bu, Crypto AI'nin alt kaynak rekabetinden daha sürdürülebilir ve uygulama değeri olan orta katman inşasına geçiş yaptığını gösteriyor.
Genel Model (LLM) vs Özel Model (SLM)
Geleneksel büyük dil modellerinin (LLM) eğitimi, büyük ölçekli veri setlerine ve karmaşık dağıtılmış mimarilere yüksek derecede bağımlıdır; parametre boyutu genellikle 70B ile 500B arasında değişir ve bir seferdeki eğitim maliyeti genellikle milyonlarca doları bulur. SLM (Özelleşmiş Dil Modeli) ise, yeniden kullanılabilir temel modellerin hafif ince ayar paradigması olarak, genellikle LLaMA, Mistral, DeepSeek gibi açık kaynaklı modelleri temel alır ve az sayıda yüksek kaliteli uzman verisi ile LoRA gibi teknolojileri birleştirerek belirli bir alan bilgisine sahip uzman modelleri hızlı bir şekilde inşa eder, böylece eğitim maliyetlerini ve teknik engelleri önemli ölçüde azaltır.
Dikkate değer olan, SLM'nin LLM ağırlıklarına entegre edilmeyeceği, bunun yerine Agent mimarisi çağrıları, eklenti sistemi dinamik yönlendirmesi, LoRA modülü sıcak takibi, RAG (geri alma artırılmış üretim) gibi yöntemlerle LLM ile işbirliği içinde çalışacağıdır. Bu mimari, LLM'nin geniş kapsama yeteneğini korurken, ince ayar modülleriyle profesyonel performansı artırarak yüksek derecede esnek bir kombinasyon akıllı sistemi oluşturur.
Kripto AI'nin model katmanındaki değeri ve sınırları
Crypto AI projeleri esasen büyük dil modellerinin (LLM) çekirdek yeteneklerini doğrudan geliştirmekte zordur, bunun başlıca nedeni şudur:
Ancak, açık kaynaklı temel modellerin üzerinde, Crypto AI projeleri hala özel dil modelleri (SLM) ile ince ayar yaparak ve Web3'ün doğrulanabilirliği ve teşvik mekanizmalarını birleştirerek değer uzantısı gerçekleştirebilir. AI endüstri zincirinin "kenar arayüz katmanı" olarak, iki ana yönde kendini gösterir:
AI model türleri sınıflandırması ve blok zinciri uygulanabilirlik analizi
Buradan görüldüğü üzere, model sınıfı Crypto AI projelerinin uygulanabilir noktaları esasen küçük SLM'nin hafif ince ayarı, RAG mimarisinin zincir üzerindeki veri erişimi ve doğrulaması, ayrıca Edge modelinin yerel dağıtımı ve teşviki üzerine yoğunlaşmaktadır. Blok zincirinin doğrulanabilirliği ve token mekanizması ile bir araya geldiğinde, Crypto bu orta ve düşük kaynaklı model senaryolarına özgü bir değer sunarak AI "arayüz katmanı"nın farklılaşmış değerini oluşturabilir.
Veri ve modele dayalı blockchain AI zinciri, her veri ve modelin katkı kaynağını net, değiştirilemez bir şekilde kaydedebilmekte ve veri güvenilirliğini ile model eğitiminde izlenebilirliği önemli ölçüde artırmaktadır. Aynı zamanda, akıllı sözleşme mekanizması sayesinde, veriler ya da modeller çağrıldığında ödül dağıtımını otomatik olarak tetikleyerek AI davranışlarını ölçülebilir ve ticarete konu edilebilir tokenleşmiş değere dönüştürmekte ve sürdürülebilir bir teşvik sistemi oluşturmaktadır. Ayrıca, topluluk kullanıcıları token ile model performansını değerlendirebilir, kuralların belirlenmesi ve iterasyonuna katılabilir, merkeziyetsiz yönetim yapısını geliştirebilirler.
İki, Proje Özeti | OpenLedger'ın AI Zincir Vizyonu
OpenLedger, veri ve model teşvik mekanizmalarına odaklanan mevcut pazardaki az sayıdaki blok zinciri AI projesinden biridir. "Ödenebilir AI" kavramını ilk olarak ortaya atan OpenLedger, veri katkıcıları, model geliştiricileri ve AI uygulama oluşturucularının aynı platformda işbirliği yapmalarını ve gerçek katkıları doğrultusunda zincir üzerinde kazanç elde etmelerini sağlamak amacıyla adil, şeffaf ve birleştirilebilir bir AI çalışma ortamı inşa etmeyi hedeflemektedir.
OpenLedger, "veri sağlama"dan "model dağıtımı"na ve ardından "komisyon çağrısına" kadar tam bir döngü sunmaktadır. Temel modülleri şunları içerir:
Yukarıdaki modüller aracılığıyla, OpenLedger veri odaklı ve model kombinasyonuna sahip bir "akıllı varlık ekonomi altyapısı" inşa etti ve AI değer zincirinin zincir üstü hale gelmesini sağladı.
Blok zinciri teknolojisi benimsemede, OpenLedger, OP Stack + EigenDA temel alarak, AI modelleri için yüksek performanslı, düşük maliyetli ve doğrulanabilir veri ve sözleşme çalışma ortamı oluşturmuştur.
NEAR gibi daha çok alt katmana odaklanan, veri egemenliğini ve "AI Agents on BOS" mimarisini öne çıkaran genel amaçlı AI zincirlerine kıyasla, OpenLedger daha çok veri ve model teşviklerine yönelik AI özel zinciri oluşturmaya odaklanmaktadır. Amacı, model geliştirme ve çağrılarının zincir üzerinde izlenebilir, birleştirilebilir ve sürdürülebilir bir değer döngüsü oluşturmasını sağlamaktır. Web3 dünyasında model teşvik altyapısıdır; belirli platform tabanlı model barındırma, belirli platform tabanlı kullanım ücretlendirmesi ve belirli platform tabanlı zincir üstü birleştirilebilir arayüzlerle bir araya gelerek "model varlık olarak" gerçekleştirmenin yolunu ilerletmektedir.
Üç, OpenLedger'ın Temel Bileşenleri ve Teknoloji Mimarisi
3.1 Model Fabrikası, kodsuz model fabrikası
ModelFactory, OpenLedger ekosisteminde büyük bir dil modeli (LLM) ince ayar platformudur. Geleneksel ince ayar çerçevelerinin aksine, ModelFactory tamamen grafik arayüzü ile işlem yapma imkanı sunar, komut satırı araçlarına veya API entegrasyonuna ihtiyaç yoktur. Kullanıcılar, OpenLedger üzerinde yetkilendirilmiş ve onaylanmış veri setlerine dayanarak modeli ince ayar yapabilirler. Veri yetkilendirmesi, model eğitimi ve dağıtımını bir arada sunan entegre bir iş akışı gerçekleştirilmiştir; ana süreçler şunlardır:
Model Factory sistemi, kimlik doğrulama, veri yetkisi, model ince ayarı, değerlendirme dağıtımı ve RAG izleme dahil olmak üzere altı ana modül içerir ve güvenli, kontrol edilebilir, gerçek zamanlı etkileşimli ve sürdürülebilir bir şekilde gelir elde etme amacıyla entegre bir model hizmet platformu oluşturur.
ModelFactory şu anda desteklenen büyük dil modeli yetenekleri aşağıdaki gibidir:
OpenLedger'in model kombinasyonu en son yüksek performanslı MoE modellerini veya çok modlu modelleri içermese de, stratejisi çağ dışı değil; bunun yerine zincir üzerinde dağıtımın gerçek kısıtlamalarına (çıkarım maliyeti, RAG uyumu, LoRA uyumluluğu, EVM ortamı) dayalı olarak "pragmatik öncelikli" bir yapılandırma yapılmıştır.
Model Factory, kodsuz bir araç zinciri olarak, tüm modeller katkı kanıtı mekanizması ile entegre edilmiştir ve bu, veri katkı sağlayıcıları ile model geliştiricilerinin haklarını güvence altına alır. Düşük giriş engeli, paraya dönüştürülebilirlik ve birleştirilebilirlik gibi avantajlara sahiptir; geleneksel model geliştirme araçları ile karşılaştırıldığında:
3.2 OpenLoRA, modelin zincir üzerindeki varlıklaştırılması
LoRA (Düşük Sıralı Uyum), orijinal model parametrelerini değiştirmeden yeni görevleri öğrenmek için önceden eğitilmiş büyük modellere "düşük rütbeli matrisler" ekleyerek çalışan verimli bir parametre ince ayar yöntemidir. Geleneksel büyük dil modelleri (örneğin LLaMA, GPT-3) genellikle on milyarlarca hatta yüz milyarlarca parametreye sahiptir. Belirli görevlerde (örneğin hukuki soru yanıtı, tıbbi danışmanlık) kullanılabilmeleri için ince ayar (fine-tuning) yapılması gerekmektedir. LoRA'nın temel stratejisi şudur: "Orijinal büyük modelin parametrelerini dondurmak, yalnızca eklenen yeni parametre matrislerini eğitmek." Parametre verimliliği, hızlı eğitimi ve esnek dağıtımı ile günümüzde Web3 model dağıtımı ve kombineli çağrılar için en uygun ana akım ince ayar yöntemidir.
OpenLoRA, OpenLedger tarafından, çoklu model dağıtımı ve kaynak paylaşımı için tasarlanmış hafif bir çıkarım çerçevesidir. Temel hedefi, mevcut AI model dağıtımında yaygın olan yüksek maliyet, düşük yeniden kullanım, GPU kaynak israfı gibi sorunları çözmek ve "ödenebilir AI" (Payable AI) uygulamasını teşvik etmektir.
OpenLoRA sistem mimarisi temel bileşenleri, modüler tasarıma dayanmaktadır ve model depolama, çıkarım yürütme, istek yönlendirme gibi kritik aşamaları kapsamaktadır. Verimli, düşük maliyetli çoklu model dağıtımı ve çağırma yeteneği sağlamaktadır: