OpenLedger Profundidade: Construindo infraestrutura econômica de agentes baseada na OP Stack e EigenDA

OpenLedger Profundidade研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

I. Introdução | A transição do nível de modelo da Crypto AI

Dados, modelos e poder computacional são os três principais elementos da infraestrutura de IA, comparáveis a combustível (dados), motor (modelo) e energia (poder computacional), todos indispensáveis. Semelhante ao caminho de evolução da infraestrutura da indústria de IA tradicional, o campo da Crypto AI também passou por fases semelhantes. No início de 2024, o mercado foi dominado por projetos de GPU descentralizados, enfatizando amplamente a lógica de crescimento extensivo de "competição de poder computacional". No entanto, ao entrar em 2025, o foco da indústria começou a se deslocar gradualmente para as camadas de modelo e dados, marcando a transição da Crypto AI de uma competição por recursos básicos para uma construção de camada média mais sustentável e com valor aplicacional.

Modelo Geral (LLM) vs Modelo Especializado (SLM)

Os modelos de linguagem tradicionais de grande escala (LLM) dependem fortemente de conjuntos de dados em grande escala e de uma arquitetura distribuída complexa, com escalas de parâmetros que variam de 70B a 500B, e o custo de treinar uma única vez pode chegar a milhões de dólares. O SLM (Modelo de Linguagem Especializado), como um paradigma de ajuste fino leve baseado em modelos fundamentais reutilizáveis, geralmente é baseado em modelos de código aberto, combinando uma pequena quantidade de dados profissionais de alta qualidade e técnicas como LoRA, para construir rapidamente modelos de especialistas com conhecimento em domínios específicos, reduzindo significativamente o custo de treinamento e a barreira técnica.

Vale a pena notar que o SLM não será integrado nos pesos do LLM, mas sim operará em colaboração com o LLM através da arquitetura de Agente, roteamento dinâmico do sistema de plugins, inserção a quente do módulo LoRA, RAG (Geração Aumentada por Recuperação), entre outros. Esta arquitetura mantém a ampla capacidade de cobertura do LLM, enquanto aumenta o desempenho especializado através de módulos de ajuste fino, formando um sistema inteligente combinatório altamente flexível.

Valor e limites da Crypto AI na camada de modelo

Os projetos de IA criptográfica são essencialmente difíceis de melhorar diretamente as capacidades centrais dos modelos de linguagem de grande escala (LLM), e a razão principal é que

  • Barreiras técnicas muito altas: a escala de dados, os recursos de computação e as capacidades de engenharia necessárias para treinar um Modelo Fundamental são extremamente grandes, atualmente apenas os gigantes tecnológicos possuem a capacidade correspondente.
  • Limitações do ecossistema de código aberto: Embora os principais modelos de base tenham sido abertos, a verdadeira chave para impulsionar os avanços dos modelos ainda reside nas instituições de pesquisa e nos sistemas de engenharia de código fechado, com espaço limitado para a participação de projetos em cadeia no nível do modelo central.

No entanto, em cima de modelos básicos de código aberto, os projetos de Crypto AI ainda podem estender valor através do ajuste fino de modelos de linguagem especializados (SLM), combinando a verificabilidade e os mecanismos de incentivo do Web3. Como "camada de interface periférica" da cadeia industrial de IA, isso se reflete em duas direções centrais:

  • Camada de verificação de confiança: através do registo em cadeia do caminho de geração do modelo, contribuição de dados e utilização, aumenta a rastreabilidade e a capacidade de resistência à manipulação das saídas de IA.
  • Mecanismo de incentivo: Com a ajuda do Token nativo, utilizado para incentivar o upload de dados, a chamada de modelos e a execução de agentes, construindo um ciclo positivo de treino e serviço de modelos.

Análise da classificação dos tipos de modelos de IA e da aplicabilidade na blockchain

Assim, pode-se ver que os pontos de viabilidade dos projetos de Crypto AI da classe de modelo estão principalmente concentrados na afinação leve de SLMs pequenos, na integração e validação de dados on-chain da arquitetura RAG, e na implementação local e incentivos dos modelos Edge. Combinando a verificabilidade da blockchain e o mecanismo de tokens, o Crypto pode oferecer um valor único para esses cenários de modelos de recursos médios a baixos, formando um valor diferenciado na "camada de interface" de AI.

A cadeia de blocos AI baseada em dados e modelos pode registrar de forma clara e imutável a origem das contribuições de cada dado e modelo, aumentando significativamente a credibilidade dos dados e a rastreabilidade do treinamento de modelos. Ao mesmo tempo, através do mecanismo de contratos inteligentes, recompensas são automaticamente distribuídas quando dados ou modelos são chamados, transformando o comportamento da AI em um valor tokenizado mensurável e negociável, construindo um sistema de incentivos sustentável. Além disso, os usuários da comunidade podem avaliar o desempenho do modelo através da votação com tokens, participar da formulação e iteração de regras, aprimorando a estrutura de governança descentralizada.

OpenLedger Profundidade研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

II. Visão geral do projeto | Visão da cadeia AI da OpenLedger

OpenLedger é um dos poucos projetos de blockchain de IA no mercado atual que se concentra em mecanismos de incentivo para dados e modelos. Foi o primeiro a apresentar o conceito de "Payable AI", com o objetivo de construir um ambiente de execução de IA justo, transparente e combinável, incentivando contribuidores de dados, desenvolvedores de modelos e construtores de aplicações de IA a colaborar na mesma plataforma e receber rendimentos na cadeia com base nas suas contribuições reais.

A OpenLedger oferece um ciclo completo que vai desde a "fornecimento de dados" até o "desdobramento de modelos" e "chamadas de compartilhamento de lucros", com seus módulos principais incluindo:

  • Fábrica de Modelos: sem necessidade de programação, é possível usar o LLM de código aberto para ajustar e treinar modelos personalizados com LoRA e implantá-los;
  • OpenLoRA: suporta a coexistência de milhares de modelos, carregamento dinâmico conforme necessário, reduzindo significativamente os custos de implementação;
  • PoA (Prova de Atribuição): Medição de contribuição e distribuição de recompensas através do registro de chamadas na cadeia;
  • Datanets: Redes de dados estruturados voltadas para cenários verticais, construídas e verificadas pela colaboração da comunidade;
  • Plataforma de Proposta de Modelo (Model Proposal Platform): mercado de modelos em cadeia combináveis, chamáveis e pagáveis.

Através dos módulos acima, a OpenLedger construiu uma "infraestrutura de economia de agentes" baseada em dados e modelos combináveis, promovendo a on-chainização da cadeia de valor da IA.

E na adoção da tecnologia blockchain, a OpenLedger utiliza OP Stack + EigenDA como base, criando um ambiente de execução de dados e contratos de alto desempenho, baixo custo e verificável para modelos de IA.

  • Construído sobre OP Stack: baseado na pilha tecnológica da Optimism, suporta alta capacidade de processamento e execução de baixo custo;
  • Liquidar na rede principal do Ethereum: garantir a segurança das transações e a integridade dos ativos;
  • Compatível com EVM: Facilita a implantação e expansão rápida pelos desenvolvedores com base em Solidity;
  • EigenDA fornece suporte à disponibilidade de dados: reduz significativamente os custos de armazenamento e garante a verificabilidade dos dados.

Comparado a cadeias de IA gerais como o NEAR, que são mais orientadas para a camada base e focam na soberania dos dados e na arquitetura "AI Agents on BOS", a OpenLedger concentra-se mais na construção de cadeias de IA dedicadas à motivação de dados e modelos, esforçando-se para tornar o desenvolvimento e a chamada de modelos rastreáveis, combináveis e sustentáveis na cadeia. É a infraestrutura básica de motivação de modelos no mundo Web3, combinando hospedagem de modelos, cobrança de uso e interfaces combináveis na cadeia, promovendo o caminho para a realização do "modelo como ativo".

OpenLedgerProfundidade研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

Três, Componentes principais e arquitetura técnica do OpenLedger

3.1 Fábrica de Modelos, fábrica de modelos sem código

ModelFactory é uma plataforma de ajuste fino de um grande modelo de linguagem (LLM) sob o ecossistema OpenLedger. Ao contrário das estruturas tradicionais de ajuste fino, o ModelFactory oferece uma interface de operação puramente gráfica, sem necessidade de ferramentas de linha de comando ou integração de API. Os usuários podem realizar o ajuste fino do modelo com base em conjuntos de dados que foram autorizados e verificados na OpenLedger. Isso realiza um fluxo de trabalho integrado de autorização de dados, treinamento de modelos e implantação, cujo processo central inclui:

  • Controle de acesso a dados: O usuário envia um pedido de dados, o provedor revisa e aprova, os dados são automaticamente integrados à interface de treinamento do modelo.
  • Seleção e configuração do modelo: Suporta LLMs populares, configuração de hiperparâmetros através da GUI.
  • Ajuste leve: motor LoRA / QLoRA embutido, exibe o progresso do treinamento em tempo real.
  • Avaliação e implementação de modelos: Ferramentas de avaliação integradas, suportando exportação para implementação ou chamadas compartilhadas no ecossistema.
  • Interface de verificação interativa: fornece uma interface de chat, facilitando o teste direto da capacidade de resposta do modelo.
  • Geração de RAG rastreável: Responder com citações de origem, aumentando a confiança e a auditabilidade.

A arquitetura do sistema Model Factory inclui seis grandes módulos, abrangendo autenticação de identidade, permissões de dados, ajuste fino de modelos, avaliação de implantação e rastreamento RAG, criando uma plataforma de serviços de modelo integrada, segura e controlável, com interação em tempo real e monetização sustentável.

A tabela a seguir resume as capacidades dos grandes modelos de linguagem atualmente suportados pelo ModelFactory:

  • Série LLaMA: ecossistema mais amplo, comunidade ativa, desempenho geral forte, é um dos modelos base de código aberto mais populares atualmente.
  • Mistral: Arquitetura eficiente, desempenho de inferência excelente, adequado para cenários de implantação flexíveis e recursos limitados.
  • Qwen: Produto da Alibaba, com desempenho excelente em tarefas em chinês, capacidade abrangente, ideal para desenvolvedores nacionais como primeira escolha.
  • ChatGLM: Efeito de conversa em chinês destacado, adequado para atendimento ao cliente em nichos e cenários de localização.
  • Deepseek: Superior em geração de código e raciocínio matemático, adequado para ferramentas de assistência ao desenvolvimento inteligente.
  • Gemma: Um modelo leve lançado pelo Google, com estrutura clara, fácil de usar e experimentar rapidamente.
  • Falcon: Era um padrão de desempenho, adequado para pesquisa básica ou testes de comparação, mas a atividade da comunidade diminuiu.
  • BLOOM: Suporte para múltiplas línguas é forte, mas o desempenho de inferência é fraco, adequado para pesquisa de cobertura linguística.
  • GPT-2: modelo clássico inicial, adequado apenas para fins de ensino e validação, não recomendado para uso em produção.

Embora a combinação de modelos da OpenLedger não inclua os mais recentes modelos MoE de alto desempenho ou modelos multimodais, sua estratégia não está desatualizada, mas sim baseada nas restrições reais de implementação em cadeia (custos de inferência, adaptação RAG, compatibilidade LoRA, ambiente EVM), resultando em uma configuração "prioridade prática".

Model Factory, como uma ferramenta de código zero, tem todos os modelos incorporados com um mecanismo de prova de contribuição, garantindo os direitos dos contribuidores de dados e dos desenvolvedores de modelos, com as vantagens de baixa barreira, monetização e combinabilidade, em comparação com ferramentas de desenvolvimento de modelos tradicionais:

  • Para os desenvolvedores: fornecer um caminho completo para incubação, distribuição e receita do modelo;
  • Para a plataforma: formar um ecossistema de circulação e combinação de ativos modelo;
  • Para os utilizadores: podem combinar modelos ou agentes como se estivessem a chamar uma API.

OpenLedgerProfundidade研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

3.2 OpenLoRA, a assetização em cadeia de modelos ajustados

LoRA (Low-Rank Adaptation) é um método eficiente de ajuste de parâmetros que aprende novas tarefas ao inserir "matrizes de baixa classificação" em um grande modelo pré-treinado, sem modificar os parâmetros do modelo original, reduzindo assim significativamente os custos de treinamento e as necessidades de armazenamento. Os grandes modelos de linguagem tradicionais geralmente possuem dezenas de bilhões ou até trilhões de parâmetros. Para utilizá-los em tarefas específicas, é necessário realizar o ajuste. A estratégia central do LoRA é: "congelar os parâmetros do grande modelo original, apenas treinar as novas matrizes de parâmetros inseridas." Seus parâmetros são eficientes, o treinamento é rápido e a implantação é flexível, sendo o método de ajuste mais adequado atualmente para a implantação e chamada combinada de modelos Web3.

OpenLoRA é uma estrutura de inferência leve construída pela OpenLedger, projetada especificamente para o desenvolvimento de múltiplos modelos e compartilhamento de recursos. Seu objetivo central é resolver problemas comuns na implementação de modelos de IA, como altos custos, baixa reutilização e desperdício de recursos GPU, promovendo a execução de "IA Pagável".

Componente central da arquitetura do sistema OpenLoRA, baseado em design modular, cobrindo armazenamento de modelos, execução de inferência, roteamento de solicitações e outros aspectos críticos, alcançando capacidade de implantação e chamada de múltiplos modelos de forma eficiente e de baixo custo:

  • Módulo de armazenamento LoRA Adapter: o LoRA adapter ajustado é hospedado no OpenLedger, permitindo o carregamento sob demanda, evitando a pré-carregamento de todos os modelos na memória gráfica, economizando recursos.
  • Hospedagem de modelos e camada de fusão dinâmica: todos os modelos de ajuste fino compartilham um grande modelo base, durante a inferência, o adaptador LoRA é mesclado dinamicamente, suportando múltiplas inferências conjuntas de adaptadores, melhorando o desempenho.
  • Motor de inferência: Integra várias tecnologias de otimização CUDA, como Flash-Attention, Paged-Attention e SGMV.
  • Módulo de roteamento de solicitações e saída em fluxo: Roteia dinamicamente para o adaptador correto com base no modelo necessário na solicitação, realizando a geração em fluxo a nível de token através da otimização do núcleo.

O processo de inferência do OpenLoRA pertence à camada técnica de serviços de modelo "maduro e geral", como segue:

  • Carregamento do modelo básico: sistema pré-carrega o modelo básico grande
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • 5
  • Partilhar
Comentar
0/400
GasFeeNightmarevip
· 11h atrás
Modelos queimam dinheiro, é melhor direto no mundo crypto.
Ver originalResponder0
GateUser-aa7df71evip
· 11h atrás
Outra vez a contar histórias para fazer as pessoas de parvas.
Ver originalResponder0
ContractCollectorvip
· 11h atrás
ai é muito bull, mas não caia nisso!
Ver originalResponder0
BrokenYieldvip
· 11h atrás
ugh... outra narrativa de gpu que vai morrer como a luna tbh
Ver originalResponder0
OnChainDetectivevip
· 11h atrás
hmm... o padrão sugere mais um shill de gpt/ai mas *verifica dados históricos* a infra do op stack pode ser legítima ngl
Ver originalResponder0
  • Pino
Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)