Analyse approfondie d'OpenLedger : construire des infrastructures économiques d'agents sur la base d'OP Stack et d'EigenDA

OpenLedger Depth Rapport de recherche : Construire une économie d'agents intelligents basée sur OP Stack + EigenDA, axée sur les données et modélisable.

I. Introduction | La transition des couches de modèle de Crypto AI

Les données, les modèles et la puissance de calcul sont les trois éléments clés de l'infrastructure de l'IA, comparables au carburant (données), au moteur (modèle) et à l'énergie (puissance de calcul), tous indispensables. Tout comme l'évolution de l'infrastructure des industries traditionnelles de l'IA, le domaine de l'IA Crypto a également traversé des phases similaires. Au début de 2024, le marché était en grande partie dominé par des projets de GPU décentralisés, mettant l'accent sur la logique de croissance extensive axée sur la « puissance de calcul ». Cependant, à partir de 2025, l'attention de l'industrie s'est progressivement déplacée vers les couches de modèles et de données, marquant ainsi la transition de l'IA Crypto d'une compétition pour les ressources de base vers une construction de niveau intermédiaire plus durable et à valeur ajoutée.

Modèle à grande échelle (LLM) vs Modèle spécialisé (SLM)

Les modèles de langage traditionnels (LLM) dépendent fortement de vastes ensembles de données et d'architectures distribuées complexes, avec une échelle de paramètres allant de 70B à 500B, et le coût d'une seule formation peut atteindre plusieurs millions de dollars. En revanche, le SLM (Specialized Language Model), en tant que paradigme de micro-ajustement léger à partir d'un modèle de base réutilisable, est généralement basé sur des modèles open source, combinant une petite quantité de données professionnelles de haute qualité et des technologies comme LoRA, permettant de construire rapidement des modèles experts possédant des connaissances spécifiques à un domaine, tout en réduisant considérablement les coûts de formation et les barrières techniques.

Il convient de noter que SLM ne sera pas intégré dans les poids LLM, mais fonctionnera en collaboration avec LLM via des appels d'architecture d'Agent, un système de plugins pour le routage dynamique, l'insertion à chaud de modules LoRA, RAG (génération améliorée par la recherche), etc. Cette architecture conserve la capacité de large couverture du LLM tout en renforçant la performance spécialisée grâce à des modules de réglage fin, formant ainsi un système intelligent combiné hautement flexible.

La valeur et les limites de Crypto AI au niveau du modèle

Les projets de Crypto AI sont essentiellement difficiles à améliorer directement les capacités centrales des modèles de langage de grande taille (LLM), la raison principale étant que

  • Barrière technologique trop élevée : l'échelle des données, les ressources de calcul et les capacités d'ingénierie nécessaires pour entraîner un modèle fondamental sont extrêmement vastes, et seules les grandes entreprises technologiques disposent actuellement des capacités correspondantes.
  • Limites de l'écosystème open source : Bien que les principaux modèles de base soient open source, la clé pour faire avancer les modèles reste concentrée sur les institutions de recherche et les systèmes d'ingénierie fermés, les projets sur la chaîne ont un espace de participation limité au niveau des modèles fondamentaux.

Cependant, sur la base de modèles fondamentaux open source, les projets Crypto AI peuvent encore réaliser une extension de valeur en affinant des modèles de langage spécialisés (SLM) et en combinant la vérifiabilité et les mécanismes d'incitation de Web3. En tant que « couche d'interface périphérique » de la chaîne de valeur de l'IA, cela se manifeste dans deux directions principales :

  • Couche de vérification fiable : enregistrement sur la chaîne du chemin de génération du modèle, des contributions de données et de l'utilisation, renforçant la traçabilité et la résistance à la falsification des sorties de l'IA.
  • Mécanisme d'incitation : Grâce au Token natif, utilisé pour inciter le téléchargement de données, l'appel de modèles, l'exécution d'agents, etc., construire un cycle positif de formation et de service des modèles.

Classification des types de modèles d'IA et analyse de l'applicabilité de la blockchain

Il en ressort que les points d'application viables des projets de type Crypto AI se concentrent principalement sur le réglage léger des SLM de petite taille, l'intégration et la validation des données en chaîne de l'architecture RAG, ainsi que le déploiement local des modèles Edge et les incitations qui y sont associées. En combinant la vérifiabilité de la blockchain et le mécanisme des tokens, Crypto peut offrir une valeur unique pour ces scénarios de modèles à ressources moyennes et faibles, créant ainsi une valeur différenciée pour la "couche d'interface" de l'IA.

La chaîne blockchain AI basée sur des données et des modèles peut enregistrer de manière claire et immuable la source de contribution de chaque donnée et modèle sur la chaîne, améliorant considérablement la crédibilité des données et la traçabilité de l'entraînement des modèles. En outre, grâce au mécanisme des contrats intelligents, des récompenses sont automatiquement distribuées lorsque des données ou des modèles sont appelés, transformant le comportement de l'IA en une valeur tokenisée mesurable et échangeable, et établissant un système d'incitation durable. De plus, les utilisateurs de la communauté peuvent également évaluer les performances des modèles par le biais de votes en tokens, participer à l'élaboration et à l'itération des règles, et améliorer la structure de gouvernance décentralisée.

OpenLedger Depth Research Report : En utilisant OP Stack + EigenDA comme base, construire une économie d'agents intelligents basée sur les données et les modèles combinables

II. Aperçu du projet | La vision de la chaîne AI d'OpenLedger

OpenLedger est l'un des rares projets d'IA blockchain sur le marché actuel qui se concentre sur les mécanismes d'incitation basés sur les données et les modèles. Il a été le premier à proposer le concept de "Payable AI", visant à créer un environnement d'exécution d'IA équitable, transparent et combinable, incitant les contributeurs de données, les développeurs de modèles et les constructeurs d'applications d'IA à collaborer sur la même plateforme et à obtenir des revenus en chaîne en fonction de leurs contributions réelles.

OpenLedger offre une chaîne complète allant de « fourniture de données » à « déploiement de modèles » en passant par « appel de partage de profits », dont les modules clés comprennent :

  • Model Factory : sans programmation, il est possible d'utiliser LoRA pour l'ajustement et le déploiement de modèles personnalisés basés sur des LLM open source ;
  • OpenLoRA : prend en charge la coexistence de milliers de modèles, charge dynamique à la demande, réduisant considérablement les coûts de déploiement ;
  • PoA (Proof of Attribution) : Mesure des contributions et distribution des récompenses grâce à l'enregistrement des appels on-chain ;
  • Datanets : Réseau de données structurées destiné aux scénarios verticaux, construit et vérifié par la collaboration de la communauté ;
  • Plateforme de proposition de modèle (Model Proposal Platform) : un marché de modèles en chaîne, combinable, appelable et payant.

À travers les modules ci-dessus, OpenLedger a construit une « infrastructure économique des agents » basée sur des données et des modèles combinables, promouvant la chaîne de valeur de l'IA sur la blockchain.

Et en ce qui concerne l'adoption de la technologie blockchain, OpenLedger utilise OP Stack + EigenDA comme base pour construire un environnement d'exécution de données et de contrats hautes performances, à faible coût et vérifiable pour les modèles d'IA.

  • Construit sur OP Stack : basé sur la pile technologique d'Optimism, supporte un haut débit et une exécution à faible coût ;
  • Règlement sur le réseau principal Ethereum : assurer la sécurité des transactions et l'intégrité des actifs ;
  • Compatible EVM : Permet aux développeurs de déployer et d'étendre rapidement sur la base de Solidity ;
  • EigenDA offre un support de disponibilité des données : réduit considérablement les coûts de stockage et garantit la vérifiabilité des données.

Comparé à NEAR, une chaîne AI générale axée sur la souveraineté des données et l'architecture « AI Agents on BOS », OpenLedger se concentre davantage sur la construction de chaînes spécialisées pour l'IA orientées vers les incitations liées aux données et aux modèles. Elle s'engage à rendre le développement et l'appel des modèles traçables, combinables et durables sur la chaîne. C'est une infrastructure d'incitation aux modèles dans le monde de Web3, combinant l'hébergement de modèles, la facturation d'utilisation et des interfaces combinables sur la chaîne, promouvant le chemin vers la réalisation de « modèle en tant qu'actif ».

OpenLedgerDepth Research Report : Construire une économie d'agents intelligente, basée sur OP Stack + EigenDA, pilotée par les données et modélisable

Trois, les composants clés et l'architecture technique d'OpenLedger

3.1 Modèle d'usine, pas besoin de code modèle d'usine

ModelFactory est une plateforme de fine-tuning de grands modèles de langage (LLM) dans l'écosystème OpenLedger. Contrairement aux cadres de fine-tuning traditionnels, ModelFactory offre une interface entièrement graphique, sans avoir besoin d'outils en ligne de commande ou d'intégration d'API. Les utilisateurs peuvent affiner le modèle en se basant sur des ensembles de données autorisés et vérifiés complétés sur OpenLedger. Cela a permis de réaliser un flux de travail intégré pour l'autorisation des données, l'entraînement et le déploiement des modèles, dont le processus principal comprend :

  • Contrôle d'accès aux données : L'utilisateur soumet une demande de données, le fournisseur examine et approuve, les données sont automatiquement intégrées à l'interface d'entraînement du modèle.
  • Sélection et configuration du modèle : prend en charge les LLM principaux, configuration des hyperparamètres via l'interface graphique.
  • Ajustement léger : moteur LoRA / QLoRA intégré, affichage en temps réel de la progression de l'entraînement.
  • Évaluation et déploiement des modèles : Outils d'évaluation intégrés, prise en charge de l'exportation pour le déploiement ou l'appel partagé dans l'écosystème.
  • Interface de validation interactive : Fournit une interface de type chat, facilitant le test direct des capacités de question-réponse du modèle.
  • RAG génération de traçabilité : réponses avec des citations de sources, renforçant la confiance et l'auditabilité.

L'architecture du système Model Factory comprend six grands modules, couvrant l'authentification des identités, les droits d'accès aux données, le réglage fin des modèles, le déploiement d'évaluation et la traçabilité RAG, créant une plateforme de services de modèles intégrée, sécurisée, contrôlable, interactive en temps réel et capable de générer des revenus durables.

Le tableau ci-dessous présente les capacités des grands modèles de langue actuellement pris en charge par ModelFactory :

  • Série LLaMA : écosystème le plus large, communauté active, performances générales solides, c'est l'un des modèles de base open source les plus populaires actuellement.
  • Mistral : architecture efficace, performances d'inférence excellentes, adapté aux scénarios flexibles et aux ressources limitées.
  • Qwen : Produit par Alibaba, performance exceptionnelle sur les tâches en chinois, capacités globales fortes, idéal pour les développeurs nationaux.
  • ChatGLM : Les effets de conversation en chinois sont remarquables, adaptés aux services clients de niche et aux scénarios de localisation.
  • Deepseek : excelle dans la génération de code et le raisonnement mathématique, adapté aux outils d'assistance au développement intelligent.
  • Gemma : un modèle léger lancé par Google, avec une structure claire, facile à prendre en main et à expérimenter.
  • Falcon : Autrefois une référence en matière de performance, adapté à la recherche fondamentale ou aux tests comparatifs, mais l'activité de la communauté a diminué.
  • BLOOM : support multilingue important, mais performances d'inférence faibles, adapté aux recherches sur la couverture linguistique.
  • GPT-2 : un modèle classique précoce, adapté uniquement à des fins d'enseignement et de validation, non recommandé pour un déploiement réel.

Bien que la combinaison de modèles d'OpenLedger n'inclue pas les derniers modèles MoE haute performance ou les modèles multimodaux, sa stratégie n'est pas obsolète, mais plutôt une configuration « axée sur la praticité » basée sur les contraintes réalistes du déploiement en chaîne (coûts d'inférence, adaptation RAG, compatibilité LoRA, environnement EVM).

Model Factory en tant qu'outil sans code, tous les modèles intègrent un mécanisme de preuve de contribution, garantissant les droits des contributeurs de données et des développeurs de modèles, avec des avantages tels qu'une faible barrière à l'entrée, une monétisation et une combinabilité, comparé aux outils de développement de modèles traditionnels :

  • Pour les développeurs : fournir un chemin complet pour l'incubation, la distribution et les revenus du modèle ;
  • Pour la plateforme : former un écosystème de circulation et de combinaison des actifs modèles ;
  • Pour les utilisateurs : il est possible de combiner les modèles ou les Agents comme on appelle une API.

OpenLedger Depth Rapport d'étude : Construire une économie d'agents intelligents axée sur les données et modulable avec OP Stack + EigenDA comme base

3.2 OpenLoRA, l'assetisation on-chain des modèles de fine-tuning

LoRA (Low-Rank Adaptation) est une méthode d'ajustement de paramètres efficace qui permet d'apprendre de nouvelles tâches en insérant des « matrices de faible rang » dans un grand modèle pré-entraîné, sans modifier les paramètres du modèle d'origine, ce qui réduit considérablement les coûts d'entraînement et les besoins de stockage. Les grands modèles de langage traditionnels possèdent généralement des dizaines de milliards, voire des centaines de milliards de paramètres. Pour les utiliser pour des tâches spécifiques, un ajustement est nécessaire. La stratégie principale de LoRA est : « geler les paramètres du grand modèle d'origine et n'entraîner que les nouveaux matrices de paramètres insérées. » Ses paramètres sont efficaces, son entraînement est rapide et son déploiement est flexible, ce qui en fait la méthode d'ajustement la plus adaptée pour le déploiement et l'appel combiné des modèles Web3.

OpenLoRA est un cadre d'inférence léger construit par OpenLedger, spécialement conçu pour le déploiement multi-modèle et le partage de ressources. Son objectif principal est de résoudre les problèmes courants liés au déploiement de modèles d'IA, tels que les coûts élevés, la faible réutilisation et le gaspillage des ressources GPU, et de promouvoir l'exécution de l'« IA payante ».

OpenLoRA architecture core components, basé sur une conception modulaire, couvrant le stockage de modèles, l'exécution d'inférences, le routage des demandes et d'autres étapes clés, réalisant des capacités de déploiement et d'appel multi-modèles efficaces et à faible coût :

  • Module de stockage LoRA Adapter : l'adaptateur LoRA affiné est hébergé sur OpenLedger, permettant un chargement à la demande et évitant de précharger tous les modèles dans la mémoire vidéo, économisant ainsi des ressources.
  • Hébergement de modèle et couche de fusion dynamique : tous les modèles de fine-tuning partagent un grand modèle de base, lors de l'inférence, l'adaptateur LoRA est fusionné dynamiquement, prenant en charge l'inférence conjointe de plusieurs adaptateurs, améliorant ainsi les performances.
  • Moteur d'inférence : intègre plusieurs technologies d'optimisation CUDA telles que Flash-Attention, Paged-Attention et SGMV.
  • Module de routage des requêtes et de sortie en flux : Routage dynamique vers le bon adaptateur en fonction du modèle requis dans la requête, réalisation de la génération en flux au niveau des tokens grâce à une optimisation du noyau.

Le processus d'inférence d'OpenLoRA appartient à la couche technique des services de modèle « matures et génériques » comme suit :

  • Chargement du modèle de base : le système précharge le grand modèle de base
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • 5
  • Partager
Commentaire
0/400
GasFeeNightmarevip
· Il y a 13h
Il vaut mieux trader directement dans l'univers de la cryptomonnaie que de brûler de l'argent avec des modèles.
Voir l'originalRépondre0
GateUser-aa7df71evip
· Il y a 13h
Encore une fois, raconter des histoires pour se faire prendre pour des cons.
Voir l'originalRépondre0
ContractCollectorvip
· Il y a 13h
ai est très bull mais ne tombe pas dedans !
Voir l'originalRépondre0
BrokenYieldvip
· Il y a 13h
ugh... un autre récit de gpu qui va mourir comme luna tbh
Voir l'originalRépondre0
OnChainDetectivevip
· Il y a 13h
hmm... le modèle suggère un autre shill gpt/ai mais *vérifie les données historiques* l'infrastructure op stack pourrait être légitime ngl
Voir l'originalRépondre0
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)