I. Introdução | A transição da camada de modelo do Crypto AI
Dados, modelos e poder de cálculo são os três principais elementos da infraestrutura de IA, análogos a combustível (dados), motor (modelo) e energia (poder de cálculo), todos indispensáveis. Assim como o caminho de evolução da infraestrutura na indústria tradicional de IA, o campo da Crypto AI também passou por fases semelhantes. No início de 2024, o mercado foi dominado por projetos de GPU descentralizados, enfatizando amplamente a lógica de crescimento extensivo de "competição de poder de cálculo". No entanto, a partir de 2025, o foco da indústria começou a se mover gradualmente para as camadas de modelo e dados, marcando a transição da Crypto AI de uma competição por recursos de baixo nível para uma construção de médio nível mais sustentável e com valor de aplicação.
Modelo Geral (LLM) vs Modelo Especializado (SLM)
Modelos de Linguagem de Grande Escala (LLM) tradicionais dependem fortemente de grandes conjuntos de dados e arquiteturas distribuídas complexas, com escalas de parâmetros que variam de 70B a 500B, e o custo de um único treinamento pode chegar a milhões de dólares. O SLM (Modelo de Linguagem Especializado), como um paradigma de ajuste fino leve que utiliza modelos de base reutilizáveis, geralmente é baseado em modelos de código aberto, combinando uma pequena quantidade de dados especializados de alta qualidade e tecnologias como LoRA, permitindo a construção rápida de modelos de especialistas com conhecimento em áreas específicas, reduzindo significativamente os custos de treinamento e as barreiras tecnológicas.
É importante notar que o SLM não será integrado nos pesos do LLM, mas sim colaborará com o LLM através da arquitetura Agent, do sistema de plugins para roteamento dinâmico, da inserção a quente de módulos LoRA e do RAG (Geração Aumentada por Recuperação). Esta arquitetura mantém a ampla capacidade de cobertura do LLM, enquanto melhora o desempenho especializado por meio de módulos de ajuste fino, formando um sistema inteligente modular altamente flexível.
Valor e limites da Crypto AI na camada de modelo
Os projetos de IA Crypto, na sua essência, têm dificuldade em melhorar diretamente as capacidades centrais dos modelos de linguagem de grande escala (LLM), e a razão principal para isso é
Barreiras técnicas excessivas: a escala de dados, os recursos de computação e a capacidade de engenharia necessários para treinar um Modelo de Fundação são extremamente grandes; atualmente, apenas gigantes tecnológicos como os Estados Unidos e a China têm a capacidade correspondente.
Limitações do ecossistema de código aberto: embora modelos fundamentais convencionais como LLaMA e Mixtral tenham sido tornados públicos, a verdadeira chave para impulsionar a quebra de modelos ainda está concentrada em instituições de pesquisa e sistemas de engenharia fechados, com espaço de participação limitado para projetos na cadeia no nível do modelo central.
No entanto, em cima de modelos base de código aberto, os projetos de Crypto AI ainda podem estender o valor através do ajuste fino de Modelos de Linguagem Especializados (SLM), combinando a verificabilidade e os mecanismos de incentivo do Web3. Como uma "camada de interface periférica" da cadeia industrial de IA, isso se reflete em duas direções centrais:
Camada de Verificação Confiável: Através do registo em cadeia do percurso de geração do modelo, da contribuição de dados e da utilização, melhora a rastreabilidade e a resistência à manipulação das saídas de IA.
Mecanismo de incentivo: Através do Token nativo, utilizado para incentivar o upload de dados, chamadas de modelos e execuções de agentes, construindo um ciclo positivo de treinamento e serviço de modelos.
Classificação de tipos de modelos de IA e análise da aplicabilidade da blockchain
Assim, pode-se ver que os pontos de viabilidade dos projetos de IA Crypto do tipo modelo estão principalmente concentrados na afinação leve de pequenos SLM, na integração e verificação de dados em cadeia da arquitetura RAG, bem como na implementação local e incentivos dos modelos Edge. Combinando a verificabilidade da blockchain e o mecanismo de tokens, o Crypto pode oferecer um valor único para esses cenários de modelos de recursos médios e baixos, formando um valor diferenciado da "camada de interface" da IA.
A cadeia de blockchain AI baseada em dados e modelos pode registrar de forma clara e imutável a origem das contribuições de cada dado e modelo, aumentando significativamente a credibilidade dos dados e a rastreabilidade do treinamento de modelos. Ao mesmo tempo, através do mecanismo de contratos inteligentes, a distribuição de recompensas é automaticamente acionada quando dados ou modelos são utilizados, convertendo o comportamento da IA em valor tokenizado que é mensurável e negociável, construindo um sistema de incentivos sustentável. Além disso, os usuários da comunidade também podem avaliar o desempenho do modelo através de votação com tokens, participar da formulação e iteração de regras, aperfeiçoando a arquitetura de governança descentralizada.
II. Visão geral do projeto | A visão da cadeia AI da OpenLedger
OpenLedger é um dos poucos projetos de blockchain AI no mercado atual que se concentra em mecanismos de incentivo para dados e modelos. Ele foi o primeiro a apresentar o conceito de "Payable AI", com o objetivo de construir um ambiente de operação de AI justo, transparente e combinável, incentivando contribuidores de dados, desenvolvedores de modelos e construtores de aplicações de AI a colaborarem na mesma plataforma e a obterem收益链上 com base nas contribuições reais.
OpenLedger oferece um ciclo completo que vai desde a "fornecimento de dados" até o "desdobramento de modelos" e "chamada de repartição de lucros", sendo que seus módulos principais incluem:
Fábrica de Modelos: sem necessidade de programação, é possível utilizar o LLM de código aberto para treinar e implantar modelos personalizados com ajuste fino LoRA;
OpenLoRA: suporta a coexistência de mil modelos, carregamento dinâmico conforme a necessidade, reduzindo significativamente os custos de implementação;
PoA (Proof of Attribution): Medição de contribuição e distribuição de recompensas através do registro de chamadas na cadeia;
Datanets: Rede de dados estruturados voltada para cenários verticais, construída e validada pela colaboração da comunidade;
Plataforma de Propostas de Modelos (Model Proposal Platform): mercado de modelos em cadeia, combinável, chamável e pagável.
Através dos módulos acima, o OpenLedger construiu uma "infraestrutura econômica de agentes" impulsionada por dados e modelos combináveis, promovendo a on-chainização da cadeia de valor da IA.
E na adoção da tecnologia blockchain, a OpenLedger utiliza o OP Stack + EigenDA como base, construindo um ambiente de execução de dados e contratos de alto desempenho, baixo custo e verificável para modelos de IA.
Construído com base no OP Stack: baseado na pilha tecnológica da Optimism, suporta alta profundidade e execução de baixos custos;
Settled on the Ethereum mainnet: Garantir a segurança das transações e a integridade dos ativos;
EVM compatível: permite que os desenvolvedores implementem e expandam rapidamente com base em Solidity;
EigenDA fornece suporte à disponibilidade de dados: reduz significativamente os custos de armazenamento e garante a verificabilidade dos dados.
Comparado a cadeias de IA genéricas como NEAR, que são mais focadas na camada inferior e na soberania dos dados e na arquitetura "AI Agents on BOS", a OpenLedger está mais focada em construir cadeias de IA dedicadas voltadas para incentivos de dados e modelos, comprometendo-se a tornar o desenvolvimento e a chamada de modelos em blockchain rastreáveis, combináveis e sustentáveis em um ciclo de valor. É a infraestrutura de incentivo de modelos no mundo Web3, combinando hospedagem de modelos, cobrança de uso e interfaces combináveis em blockchain, impulsionando o caminho para a realização de "modelos como ativos".
Três, os componentes centrais e a arquitetura técnica da OpenLedger
3.1 Fábrica de Modelos, fábrica de modelos sem código
ModelFactory é uma plataforma de ajuste fino de grandes modelos de linguagem (LLM) no ecossistema OpenLedger. Ao contrário dos frameworks tradicionais de ajuste fino, o ModelFactory oferece uma interface totalmente gráfica, sem necessidade de ferramentas de linha de comando ou integração de API. Os usuários podem ajustar o modelo com base em conjuntos de dados que foram autorizados e revisados na OpenLedger. Implementa um fluxo de trabalho integrado para autorização de dados, treinamento de modelos e implantação, cujos processos principais incluem:
Controle de acesso a dados: O usuário envia um pedido de dados, o provedor revisa e aprova, e os dados são automaticamente integrados à interface de treinamento do modelo.
Seleção e configuração de modelos: Suporta LLMs populares (como LLaMA, Mistral), configurando hiperparâmetros através da GUI.
Ajuste leve: Motor LoRA / QLoRA embutido, exibe em tempo real o progresso do treinamento.
Avaliação e Implantação de Modelos: Ferramentas de avaliação incorporadas, suportam exportação para implantação ou chamadas de compartilhamento de ecossistema.
Interface de validação interativa: fornece uma interface de chat, facilitando o teste direto da capacidade de resposta do modelo.
Geração de RAG de rastreabilidade: Responder com citações de origem, aumentando a confiança e a auditabilidade.
A arquitetura do sistema Model Factory inclui seis módulos, abrangendo autenticação de identidade, permissões de dados, ajuste fino de modelos, implementação de avaliações e rastreamento RAG, criando uma plataforma de serviços de modelo integrada, segura, controlável, interativa em tempo real e com monetização sustentável.
O resumo das capacidades dos grandes modelos de linguagem atualmente suportados pelo ModelFactory é o seguinte:
Série LLaMA: o ecossistema mais amplo, comunidade ativa e forte desempenho geral, é um dos modelos base de código aberto mais populares atualmente.
Mistral: Arquitetura eficiente, desempenho de inferência excelente, adequada para cenários de implantação flexível e recursos limitados.
Qwen: Desempenho excelente em tarefas em chinês, com forte capacidade abrangente, adequado como a primeira escolha para desenvolvedores nacionais.
ChatGLM: Efeito de diálogo em chinês destacado, adequado para atendimento ao cliente de nicho e cenários de localização.
Deepseek: apresenta desempenho superior na geração de código e raciocínio matemático, adequado para ferramentas de assistência ao desenvolvimento inteligente.
Gemma: Modelo leve lançado pelo Google, com estrutura clara, fácil de começar a usar e experimentar.
Falcon: Era um padrão de desempenho, adequado para pesquisa fundamental ou testes comparativos, mas a atividade da comunidade diminuiu.
BLOOM: Suporte a múltiplas línguas é forte, mas o desempenho de inferência é fraco, adequado para pesquisas de cobertura linguística.
GPT-2: modelo clássico inicial, adequado apenas para fins de ensino e validação, não recomendado para uso em produção.
Embora a combinação de modelos da OpenLedger não inclua os mais recentes modelos MoE de alto desempenho ou modelos multimodais, sua estratégia não está ultrapassada, mas sim baseada nas restrições práticas da implementação em cadeia (custo de inferência, adaptação RAG, compatibilidade LoRA, ambiente EVM) que resultaram numa configuração "prioridade à praticidade".
Model Factory como uma ferramenta sem código, todos os modelos possuem um mecanismo de prova de contribuição embutido, garantindo os direitos dos contribuintes de dados e dos desenvolvedores de modelos, apresentando vantagens de baixo custo, monetizável e combinável, em comparação com ferramentas tradicionais de desenvolvimento de modelos:
Para desenvolvedores: fornecer um caminho completo para incubação, distribuição e receita de modelos;
Para a plataforma: formar a circulação de ativos de modelo e um ecossistema de combinação;
Para os utilizadores: é possível combinar modelos ou Agentes como se estivesse a chamar uma API.
3.2 OpenLoRA, a assetização em cadeia do modelo de ajuste fino
LoRA (Low-Rank Adaptation) é um método de ajuste de parâmetros eficiente que aprende novas tarefas inserindo uma "matriz de baixa classificação" em um grande modelo pré-treinado, sem modificar os parâmetros do modelo original, reduzindo assim significativamente os custos de treinamento e as necessidades de armazenamento. Modelos de linguagem grandes tradicionais (como LLaMA, GPT-3) geralmente têm dezenas de bilhões ou até centenas de bilhões de parâmetros. Para usá-los em tarefas específicas (como perguntas e respostas legais, consultas médicas), é necessário realizar um ajuste fino (fine-tuning). A estratégia central do LoRA é: "congelar os parâmetros do grande modelo original e treinar apenas a nova matriz de parâmetros inserida." Seus parâmetros são eficientes, o treinamento é rápido e a implantação é flexível, sendo o método de ajuste fino mais adequado para a implantação e chamada combinada de modelos Web3 atualmente.
OpenLoRA é um framework de inferência leve projetado pela OpenLedger, especificamente para implantação de múltiplos modelos e compartilhamento de recursos. Seu objetivo principal é resolver problemas comuns na implantação de modelos de IA, como altos custos, baixa reutilização e desperdício de recursos de GPU, promovendo a execução prática da "IA Pagável" (Payable AI).
OpenLoRA arquitetura do sistema, componentes principais, baseado em design modular, cobre armazenamento de modelos, execução de inferência, roteamento de solicitações e outros aspectos críticos, realizando uma capacidade de implantação e chamada de múltiplos modelos de forma eficiente e de baixo custo:
Módulo de Armazenamento do Adaptador LoRA (LoRA Adapters Storage): O adaptador LoRA ajustado é hospedado no OpenLedger, permitindo o carregamento sob demanda, evitando o pré-carregamento de todos os modelos na memória gráfica, economizando recursos.
Modelos de hospedagem e camada de fusão dinâmica (Model Hosting & Adapter Merging Layer): todos os modelos ajustados compartilham o modelo base (base model), durante a inferência o adaptador LoRA é dinâmico.
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
OpenLedger constrói uma economia de agentes: plataforma de modelo orientado a dados baseada em OP Stack e EigenDA
OpenLedger Profundidade研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济
I. Introdução | A transição da camada de modelo do Crypto AI
Dados, modelos e poder de cálculo são os três principais elementos da infraestrutura de IA, análogos a combustível (dados), motor (modelo) e energia (poder de cálculo), todos indispensáveis. Assim como o caminho de evolução da infraestrutura na indústria tradicional de IA, o campo da Crypto AI também passou por fases semelhantes. No início de 2024, o mercado foi dominado por projetos de GPU descentralizados, enfatizando amplamente a lógica de crescimento extensivo de "competição de poder de cálculo". No entanto, a partir de 2025, o foco da indústria começou a se mover gradualmente para as camadas de modelo e dados, marcando a transição da Crypto AI de uma competição por recursos de baixo nível para uma construção de médio nível mais sustentável e com valor de aplicação.
Modelo Geral (LLM) vs Modelo Especializado (SLM)
Modelos de Linguagem de Grande Escala (LLM) tradicionais dependem fortemente de grandes conjuntos de dados e arquiteturas distribuídas complexas, com escalas de parâmetros que variam de 70B a 500B, e o custo de um único treinamento pode chegar a milhões de dólares. O SLM (Modelo de Linguagem Especializado), como um paradigma de ajuste fino leve que utiliza modelos de base reutilizáveis, geralmente é baseado em modelos de código aberto, combinando uma pequena quantidade de dados especializados de alta qualidade e tecnologias como LoRA, permitindo a construção rápida de modelos de especialistas com conhecimento em áreas específicas, reduzindo significativamente os custos de treinamento e as barreiras tecnológicas.
É importante notar que o SLM não será integrado nos pesos do LLM, mas sim colaborará com o LLM através da arquitetura Agent, do sistema de plugins para roteamento dinâmico, da inserção a quente de módulos LoRA e do RAG (Geração Aumentada por Recuperação). Esta arquitetura mantém a ampla capacidade de cobertura do LLM, enquanto melhora o desempenho especializado por meio de módulos de ajuste fino, formando um sistema inteligente modular altamente flexível.
Valor e limites da Crypto AI na camada de modelo
Os projetos de IA Crypto, na sua essência, têm dificuldade em melhorar diretamente as capacidades centrais dos modelos de linguagem de grande escala (LLM), e a razão principal para isso é
No entanto, em cima de modelos base de código aberto, os projetos de Crypto AI ainda podem estender o valor através do ajuste fino de Modelos de Linguagem Especializados (SLM), combinando a verificabilidade e os mecanismos de incentivo do Web3. Como uma "camada de interface periférica" da cadeia industrial de IA, isso se reflete em duas direções centrais:
Classificação de tipos de modelos de IA e análise da aplicabilidade da blockchain
Assim, pode-se ver que os pontos de viabilidade dos projetos de IA Crypto do tipo modelo estão principalmente concentrados na afinação leve de pequenos SLM, na integração e verificação de dados em cadeia da arquitetura RAG, bem como na implementação local e incentivos dos modelos Edge. Combinando a verificabilidade da blockchain e o mecanismo de tokens, o Crypto pode oferecer um valor único para esses cenários de modelos de recursos médios e baixos, formando um valor diferenciado da "camada de interface" da IA.
A cadeia de blockchain AI baseada em dados e modelos pode registrar de forma clara e imutável a origem das contribuições de cada dado e modelo, aumentando significativamente a credibilidade dos dados e a rastreabilidade do treinamento de modelos. Ao mesmo tempo, através do mecanismo de contratos inteligentes, a distribuição de recompensas é automaticamente acionada quando dados ou modelos são utilizados, convertendo o comportamento da IA em valor tokenizado que é mensurável e negociável, construindo um sistema de incentivos sustentável. Além disso, os usuários da comunidade também podem avaliar o desempenho do modelo através de votação com tokens, participar da formulação e iteração de regras, aperfeiçoando a arquitetura de governança descentralizada.
II. Visão geral do projeto | A visão da cadeia AI da OpenLedger
OpenLedger é um dos poucos projetos de blockchain AI no mercado atual que se concentra em mecanismos de incentivo para dados e modelos. Ele foi o primeiro a apresentar o conceito de "Payable AI", com o objetivo de construir um ambiente de operação de AI justo, transparente e combinável, incentivando contribuidores de dados, desenvolvedores de modelos e construtores de aplicações de AI a colaborarem na mesma plataforma e a obterem收益链上 com base nas contribuições reais.
OpenLedger oferece um ciclo completo que vai desde a "fornecimento de dados" até o "desdobramento de modelos" e "chamada de repartição de lucros", sendo que seus módulos principais incluem:
Através dos módulos acima, o OpenLedger construiu uma "infraestrutura econômica de agentes" impulsionada por dados e modelos combináveis, promovendo a on-chainização da cadeia de valor da IA.
E na adoção da tecnologia blockchain, a OpenLedger utiliza o OP Stack + EigenDA como base, construindo um ambiente de execução de dados e contratos de alto desempenho, baixo custo e verificável para modelos de IA.
Comparado a cadeias de IA genéricas como NEAR, que são mais focadas na camada inferior e na soberania dos dados e na arquitetura "AI Agents on BOS", a OpenLedger está mais focada em construir cadeias de IA dedicadas voltadas para incentivos de dados e modelos, comprometendo-se a tornar o desenvolvimento e a chamada de modelos em blockchain rastreáveis, combináveis e sustentáveis em um ciclo de valor. É a infraestrutura de incentivo de modelos no mundo Web3, combinando hospedagem de modelos, cobrança de uso e interfaces combináveis em blockchain, impulsionando o caminho para a realização de "modelos como ativos".
Três, os componentes centrais e a arquitetura técnica da OpenLedger
3.1 Fábrica de Modelos, fábrica de modelos sem código
ModelFactory é uma plataforma de ajuste fino de grandes modelos de linguagem (LLM) no ecossistema OpenLedger. Ao contrário dos frameworks tradicionais de ajuste fino, o ModelFactory oferece uma interface totalmente gráfica, sem necessidade de ferramentas de linha de comando ou integração de API. Os usuários podem ajustar o modelo com base em conjuntos de dados que foram autorizados e revisados na OpenLedger. Implementa um fluxo de trabalho integrado para autorização de dados, treinamento de modelos e implantação, cujos processos principais incluem:
A arquitetura do sistema Model Factory inclui seis módulos, abrangendo autenticação de identidade, permissões de dados, ajuste fino de modelos, implementação de avaliações e rastreamento RAG, criando uma plataforma de serviços de modelo integrada, segura, controlável, interativa em tempo real e com monetização sustentável.
O resumo das capacidades dos grandes modelos de linguagem atualmente suportados pelo ModelFactory é o seguinte:
Embora a combinação de modelos da OpenLedger não inclua os mais recentes modelos MoE de alto desempenho ou modelos multimodais, sua estratégia não está ultrapassada, mas sim baseada nas restrições práticas da implementação em cadeia (custo de inferência, adaptação RAG, compatibilidade LoRA, ambiente EVM) que resultaram numa configuração "prioridade à praticidade".
Model Factory como uma ferramenta sem código, todos os modelos possuem um mecanismo de prova de contribuição embutido, garantindo os direitos dos contribuintes de dados e dos desenvolvedores de modelos, apresentando vantagens de baixo custo, monetizável e combinável, em comparação com ferramentas tradicionais de desenvolvimento de modelos:
3.2 OpenLoRA, a assetização em cadeia do modelo de ajuste fino
LoRA (Low-Rank Adaptation) é um método de ajuste de parâmetros eficiente que aprende novas tarefas inserindo uma "matriz de baixa classificação" em um grande modelo pré-treinado, sem modificar os parâmetros do modelo original, reduzindo assim significativamente os custos de treinamento e as necessidades de armazenamento. Modelos de linguagem grandes tradicionais (como LLaMA, GPT-3) geralmente têm dezenas de bilhões ou até centenas de bilhões de parâmetros. Para usá-los em tarefas específicas (como perguntas e respostas legais, consultas médicas), é necessário realizar um ajuste fino (fine-tuning). A estratégia central do LoRA é: "congelar os parâmetros do grande modelo original e treinar apenas a nova matriz de parâmetros inserida." Seus parâmetros são eficientes, o treinamento é rápido e a implantação é flexível, sendo o método de ajuste fino mais adequado para a implantação e chamada combinada de modelos Web3 atualmente.
OpenLoRA é um framework de inferência leve projetado pela OpenLedger, especificamente para implantação de múltiplos modelos e compartilhamento de recursos. Seu objetivo principal é resolver problemas comuns na implantação de modelos de IA, como altos custos, baixa reutilização e desperdício de recursos de GPU, promovendo a execução prática da "IA Pagável" (Payable AI).
OpenLoRA arquitetura do sistema, componentes principais, baseado em design modular, cobre armazenamento de modelos, execução de inferência, roteamento de solicitações e outros aspectos críticos, realizando uma capacidade de implantação e chamada de múltiplos modelos de forma eficiente e de baixo custo: