I. Introducción | La transición de la capa de modelo de Crypto AI
Los datos, los modelos y la potencia de cálculo son los tres elementos centrales de la infraestructura de IA, análogos a combustible (datos), motor (modelo) y energía (potencia de cálculo), todos son indispensables. Al igual que el camino de evolución de la infraestructura en la industria de IA tradicional, el campo de Crypto AI también ha pasado por etapas similares. A principios de 2024, el mercado estuvo dominado por proyectos de GPU descentralizados, enfatizando en general la lógica de crecimiento extensivo de "competir en potencia de cálculo". Sin embargo, a partir de 2025, el enfoque de la industria se ha ido desplazando gradualmente hacia los modelos y la capa de datos, marcando que Crypto AI está pasando de la competencia de recursos básicos a una construcción intermedia más sostenible y de valor aplicado.
Modelo General (LLM) vs Modelo Especializado (SLM)
Los modelos de lenguaje grandes (LLM) tradicionales dependen en gran medida de conjuntos de datos a gran escala y arquitecturas distribuidas complejas, con un tamaño de parámetros que varía entre 70B y 500B, y el costo de entrenar uno puede alcanzar fácilmente varios millones de dólares. El SLM (Modelo de Lenguaje Especializado), como un paradigma de ajuste fino ligero que reutiliza modelos base, generalmente se basa en modelos de código abierto, combinando una pequeña cantidad de datos profesionales de alta calidad y tecnologías como LoRA, para construir rápidamente modelos de expertos que tienen conocimiento en campos específicos, lo que reduce significativamente el costo de entrenamiento y la barrera técnica.
Es importante señalar que SLM no se integrará en los pesos de LLM, sino que colaborará con LLM a través de la arquitectura de agente, el enrutamiento dinámico del sistema de plugins, la conexión en caliente del módulo LoRA, RAG (Generación Aumentada por Recuperación), entre otros métodos. Esta arquitectura preserva la amplia capacidad de cobertura de LLM, al tiempo que mejora el rendimiento profesional a través de módulos de ajuste fino, formando un sistema inteligente combinatorio altamente flexible.
Valor y límites de Crypto AI en la capa de modelo
Los proyectos de Crypto AI son esencialmente difíciles de mejorar directamente las capacidades centrales de los modelos de lenguaje grande (LLM), y la razón principal es que
Barrera técnica demasiado alta: la escala de datos, los recursos de computación y la capacidad de ingeniería necesarios para entrenar un Modelo Fundamental son extremadamente grandes, y actualmente solo los gigantes tecnológicos tienen la capacidad correspondiente.
Limitaciones del ecosistema de código abierto: Aunque los modelos base principales han sido de código abierto, la clave para impulsar las innovaciones en los modelos sigue estando concentrada en las instituciones de investigación y en los sistemas de ingeniería de código cerrado, y el espacio de participación de los proyectos en cadena en el nivel de los modelos centrales es limitado.
Sin embargo, sobre los modelos básicos de código abierto, los proyectos de Crypto AI aún pueden extender su valor a través del ajuste fino de modelos de lenguaje especializados (SLM), combinando la verificabilidad y los mecanismos de incentivos de Web3. Como "capa de interfaz periférica" de la cadena de la industria de AI, se manifiesta en dos direcciones centrales:
Capa de verificación confiable: a través del registro en cadena de la ruta de generación del modelo, la contribución de datos y el uso, se mejora la trazabilidad y la capacidad de resistencia a la manipulación de la salida de IA.
Mecanismo de incentivos: Con la ayuda del Token nativo, se utiliza para incentivar la carga de datos, la invocación de modelos, la ejecución de agentes (Agent) y otras acciones, creando un ciclo positivo de entrenamiento y servicio de modelos.
Análisis de la aplicabilidad de los tipos de modelos de IA y la blockchain
De esto se puede ver que los puntos de viabilidad de los proyectos de Crypto AI de tipo modelo se concentran principalmente en la optimización ligera de SLM pequeños, la integración y verificación de datos en cadena de la arquitectura RAG, así como en el despliegue local y la incentivación del modelo Edge. Combinando la verificabilidad de blockchain y el mecanismo de tokens, Crypto puede proporcionar un valor único para estos escenarios de modelos de recursos medios y bajos, formando un valor diferencial en la "capa de interfaz" de la IA.
La cadena de bloques AI basada en datos y modelos permite un registro claro e inmutable de la fuente de contribución de cada dato y modelo, mejorando significativamente la credibilidad de los datos y la trazabilidad del entrenamiento de modelos. Al mismo tiempo, a través del mecanismo de contratos inteligentes, se activa automáticamente la distribución de recompensas cuando se invocan datos o modelos, transformando el comportamiento de la IA en un valor tokenizable, medible y negociable, y construyendo un sistema de incentivos sostenible. Además, los usuarios de la comunidad también pueden evaluar el rendimiento del modelo mediante votación con tokens, participar en la formulación y iteración de reglas, y mejorar la estructura de gobernanza descentralizada.
II. Resumen del proyecto | Visión de la cadena AI de OpenLedger
OpenLedger es uno de los pocos proyectos de IA en blockchain que se centra en los mecanismos de incentivos de datos y modelos en el mercado actual. Fue el primero en proponer el concepto de "Payable AI", con el objetivo de construir un entorno de ejecución de IA justo, transparente y combinable, incentivando a los contribuyentes de datos, desarrolladores de modelos y constructores de aplicaciones de IA a colaborar en la misma plataforma y obtener beneficios en cadena según su contribución real.
OpenLedger ofrece un ciclo cerrado completo que va desde "provisión de datos" hasta "despliegue de modelos" y "llamado a la distribución de beneficios", cuyos módulos centrales incluyen:
Fábrica de Modelos: Sin necesidad de programación, se pueden utilizar modelos LLM de código abierto para entrenar y desplegar modelos personalizados con ajuste fino LoRA;
OpenLoRA: soporta la coexistencia de miles de modelos, carga dinámica bajo demanda, lo que reduce significativamente los costos de implementación;
PoA (Prueba de Atribución): Medición de contribuciones y distribución de recompensas a través de registros de llamadas en la cadena;
Datanets: Red de datos estructurados orientada a escenarios verticales, construida y validada por la colaboración de la comunidad;
Plataforma de Propuestas de Modelos (Model Proposal Platform): mercado de modelos en cadena que es combinable, llamable y pagable.
A través de los módulos anteriores, OpenLedger ha construido una "infraestructura económica de agentes" impulsada por datos y con modelos componibles, promoviendo la cadena de valor de la IA en la cadena.
Y en la adopción de la tecnología blockchain, OpenLedger utiliza OP Stack + EigenDA como base, creando un entorno de ejecución de datos y contratos de alto rendimiento, bajo costo y verificable para modelos de IA.
Construido sobre OP Stack: basado en la pila tecnológica de Optimism, que soporta una alta profundidad y una ejecución de bajos costos;
Liquidación en la red principal de Ethereum: Asegurar la seguridad de las transacciones y la integridad de los activos;
Compatible con EVM: Facilita a los desarrolladores desplegar y expandir rápidamente sobre Solidity;
EigenDA proporciona soporte de disponibilidad de datos: reduce significativamente los costos de almacenamiento y garantiza la verificabilidad de los datos.
En comparación con cadenas de AI más generales como NEAR, que se centran más en la capa base y en la soberanía de datos con la arquitectura de "AI Agents on BOS", OpenLedger se especializa en construir cadenas dedicadas a la AI orientadas a incentivos de datos y modelos, comprometida a hacer que el desarrollo y la invocación de modelos en la cadena logren un ciclo de valor rastreable, combinable y sostenible. Es la infraestructura de incentivos para modelos en el mundo de Web3, combinando la gestión de modelos, la facturación por uso y las interfaces combinables en la cadena, impulsando el camino hacia la realización del "modelo como activo".
Tres, los componentes centrales y la arquitectura técnica de OpenLedger
3.1 Modelo de Fábrica, fábrica de modelos sin necesidad de código
ModelFactory es una plataforma de ajuste fino de modelos de lenguaje (LLM) a gran escala en el ecosistema de OpenLedger. A diferencia de los marcos de ajuste fino tradicionales, ModelFactory ofrece una interfaz gráfica de usuario, sin necesidad de herramientas de línea de comandos o integración de API. Los usuarios pueden ajustar modelos basándose en conjuntos de datos que han sido autorizados y revisados en OpenLedger. Se ha logrado un flujo de trabajo integrado para la autorización de datos, el entrenamiento de modelos y el despliegue, cuyos procesos centrales incluyen:
Control de acceso a datos: el usuario envía una solicitud de datos, el proveedor revisa y aprueba, los datos se integran automáticamente en la interfaz de entrenamiento del modelo.
Selección y configuración del modelo: Soporta los LLM más utilizados, configurando los hiperparámetros a través de la GUI.
Ajuste ligero: motor LoRA / QLoRA incorporado, muestra en tiempo real el progreso del entrenamiento.
Evaluación y despliegue del modelo: herramientas de evaluación integradas, que permiten exportar para despliegue o compartir llamadas en el ecosistema.
Interfaz de verificación interactiva: proporciona una interfaz de chat, lo que facilita la prueba directa de las capacidades de respuesta del modelo.
Generación de RAG para trazabilidad: Responder con citas de origen, mejorando la confianza y la auditabilidad.
La arquitectura del sistema Model Factory incluye seis módulos, abarcando la autenticación de identidad, los permisos de datos, el ajuste fino del modelo, la evaluación y el despliegue, así como la trazabilidad RAG, creando una plataforma de servicios de modelos integrada que sea segura, controlable, interactiva en tiempo real y capaz de monetización sostenible.
El siguiente es un resumen de las capacidades de los grandes modelos de lenguaje que ModelFactory admite actualmente:
LLaMA serie: la más amplia en ecosistemas, comunidad activa y alto rendimiento general, es uno de los modelos básicos de código abierto más populares en la actualidad.
Mistral: arquitectura eficiente, excelente rendimiento de inferencia, adecuada para escenarios flexibles y con recursos limitados.
Qwen: Producto de Alibaba, sobresale en tareas en chino, con habilidades integrales fuertes, adecuado como primera opción para desarrolladores nacionales.
ChatGLM: el efecto de conversación en chino es destacado, adecuado para servicios de atención al cliente en nichos y escenarios de localización.
Deepseek: Destaca en la generación de código y el razonamiento matemático, adecuado para herramientas de asistencia en el desarrollo inteligente.
Gemma: Modelo ligero lanzado por Google, con una estructura clara, fácil de aprender y experimentar rápidamente.
Falcon: Solía ser un referente de rendimiento, adecuado para investigaciones básicas o pruebas comparativas, pero la actividad de la comunidad ha disminuido.
BLOOM: Soporte multilingüe fuerte, pero el rendimiento de inferencia es débil, adecuado para investigaciones de cobertura de idiomas.
GPT-2: modelo clásico temprano, solo adecuado para fines de enseñanza y verificación, no se recomienda su uso en implementaciones reales.
Aunque la combinación de modelos de OpenLedger no incluye los últimos modelos MoE de alto rendimiento o modelos multimodales, su estrategia no está desactualizada, sino que se basa en las restricciones reales de implementación en cadena (costo de inferencia, adaptación RAG, compatibilidad con LoRA, entorno EVM) para hacer una configuración "prioritaria de la practicidad".
Model Factory como una cadena de herramientas sin código, todos los modelos incorporan un mecanismo de prueba de contribución, asegurando los derechos de los contribuyentes de datos y de los desarrolladores de modelos, con ventajas de bajo umbral, monetización y combinabilidad, en comparación con las herramientas de desarrollo de modelos tradicionales:
Para desarrolladores: proporcionar una ruta completa para la incubación, distribución e ingresos del modelo;
Para la plataforma: formar un ecosistema de circulación y combinación de activos modelo;
Para los usuarios: se pueden combinar modelos o agentes de la misma manera que se llama a una API.
3.2 OpenLoRA, la tokenización de activos en cadena del modelo de ajuste fino
LoRA (Adaptación de Bajo Rango) es un método eficiente de ajuste de parámetros que aprende nuevas tareas insertando "matrices de bajo rango" en un modelo grande preentrenado, sin modificar los parámetros del modelo original, lo que reduce drásticamente los costos de entrenamiento y los requisitos de almacenamiento. Los modelos de lenguaje grandes tradicionales suelen tener decenas de miles de millones e incluso cientos de miles de millones de parámetros. Para utilizarlos en tareas específicas, se requiere un ajuste fino. La estrategia central de LoRA es: "congelar los parámetros del modelo grande original y solo entrenar las nuevas matrices de parámetros insertadas." Su eficiencia en parámetros, entrenamiento rápido y despliegue flexible lo convierten en el método de ajuste fino más adecuado actualmente para el despliegue y la llamada combinada de modelos Web3.
OpenLoRA es un marco de inferencia ligero construido por OpenLedger, diseñado específicamente para el despliegue de múltiples modelos y el intercambio de recursos. Su objetivo central es abordar los problemas comunes en el despliegue de modelos de IA, como los altos costos, la baja reutilización y el desperdicio de recursos de GPU, promoviendo la ejecución de "IA Pagable".
OpenLoRA sistema arquitectónico componentes centrales, basado en diseño modular, abarcando almacenamiento de modelos, ejecución de inferencias, enrutamiento de solicitudes y otros aspectos clave, logrando una capacidad de despliegue y llamada de múltiples modelos de manera eficiente y a bajo costo:
Módulo de almacenamiento de LoRA Adapter: el adaptador LoRA ajustado se aloja en OpenLedger, permitiendo la carga bajo demanda, evitando la precarga de todos los modelos en la memoria de video y ahorrando recursos.
Alojamiento de modelos y capa de fusión dinámica: todos los modelos de ajuste fino comparten el modelo base grande, durante la inferencia se fusionan dinámicamente adaptadores LoRA, soportando inferencia conjunta de múltiples adaptadores, mejorando el rendimiento.
Motor de inferencia: integra múltiples tecnologías de optimización CUDA como Flash-Attention, Paged-Attention y SGMV.
Módulo de enrutamiento de solicitudes y salida en streaming: Enrutar dinámicamente al adaptador correcto según el modelo requerido en la solicitud, logrando una generación en streaming a nivel de token a través de la optimización del núcleo.
El proceso de inferencia de OpenLoRA pertenece a la capa técnica de servicios de modelo "maduro y general". El flujo es el siguiente:
Carga del modelo base: el sistema precarga el modelo base grande
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
11 me gusta
Recompensa
11
6
Compartir
Comentar
0/400
Rugpull幸存者
· hace16h
Esta trampa de la inteligencia artificial es demasiado familiar, ¿verdad?
Ver originalesResponder0
GasFeeNightmare
· 07-18 01:52
El modelo quema dinero, es mejor directamente operar en el mundo Cripto.
Ver originalesResponder0
GateUser-aa7df71e
· 07-18 01:50
Otra vez contando historias para tomar a la gente por tonta.
Ver originalesResponder0
ContractCollector
· 07-18 01:49
ai es muy alcista, pero no te caigas dentro, ¿eh?
Ver originalesResponder0
BrokenYield
· 07-18 01:46
ugh... otra narrativa de gpu que va a morir como luna tbh
Ver originalesResponder0
OnChainDetective
· 07-18 01:39
hmm... el patrón sugiere otro shill de gpt/ai pero *verifica los datos históricos* la infraestructura de op stack podría ser legítima, no voy a mentir
Análisis profundo de OpenLedger: Construcción de una infraestructura económica de agentes basada en OP Stack y EigenDA
OpenLedger Profundidad研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济
I. Introducción | La transición de la capa de modelo de Crypto AI
Los datos, los modelos y la potencia de cálculo son los tres elementos centrales de la infraestructura de IA, análogos a combustible (datos), motor (modelo) y energía (potencia de cálculo), todos son indispensables. Al igual que el camino de evolución de la infraestructura en la industria de IA tradicional, el campo de Crypto AI también ha pasado por etapas similares. A principios de 2024, el mercado estuvo dominado por proyectos de GPU descentralizados, enfatizando en general la lógica de crecimiento extensivo de "competir en potencia de cálculo". Sin embargo, a partir de 2025, el enfoque de la industria se ha ido desplazando gradualmente hacia los modelos y la capa de datos, marcando que Crypto AI está pasando de la competencia de recursos básicos a una construcción intermedia más sostenible y de valor aplicado.
Modelo General (LLM) vs Modelo Especializado (SLM)
Los modelos de lenguaje grandes (LLM) tradicionales dependen en gran medida de conjuntos de datos a gran escala y arquitecturas distribuidas complejas, con un tamaño de parámetros que varía entre 70B y 500B, y el costo de entrenar uno puede alcanzar fácilmente varios millones de dólares. El SLM (Modelo de Lenguaje Especializado), como un paradigma de ajuste fino ligero que reutiliza modelos base, generalmente se basa en modelos de código abierto, combinando una pequeña cantidad de datos profesionales de alta calidad y tecnologías como LoRA, para construir rápidamente modelos de expertos que tienen conocimiento en campos específicos, lo que reduce significativamente el costo de entrenamiento y la barrera técnica.
Es importante señalar que SLM no se integrará en los pesos de LLM, sino que colaborará con LLM a través de la arquitectura de agente, el enrutamiento dinámico del sistema de plugins, la conexión en caliente del módulo LoRA, RAG (Generación Aumentada por Recuperación), entre otros métodos. Esta arquitectura preserva la amplia capacidad de cobertura de LLM, al tiempo que mejora el rendimiento profesional a través de módulos de ajuste fino, formando un sistema inteligente combinatorio altamente flexible.
Valor y límites de Crypto AI en la capa de modelo
Los proyectos de Crypto AI son esencialmente difíciles de mejorar directamente las capacidades centrales de los modelos de lenguaje grande (LLM), y la razón principal es que
Sin embargo, sobre los modelos básicos de código abierto, los proyectos de Crypto AI aún pueden extender su valor a través del ajuste fino de modelos de lenguaje especializados (SLM), combinando la verificabilidad y los mecanismos de incentivos de Web3. Como "capa de interfaz periférica" de la cadena de la industria de AI, se manifiesta en dos direcciones centrales:
Análisis de la aplicabilidad de los tipos de modelos de IA y la blockchain
De esto se puede ver que los puntos de viabilidad de los proyectos de Crypto AI de tipo modelo se concentran principalmente en la optimización ligera de SLM pequeños, la integración y verificación de datos en cadena de la arquitectura RAG, así como en el despliegue local y la incentivación del modelo Edge. Combinando la verificabilidad de blockchain y el mecanismo de tokens, Crypto puede proporcionar un valor único para estos escenarios de modelos de recursos medios y bajos, formando un valor diferencial en la "capa de interfaz" de la IA.
La cadena de bloques AI basada en datos y modelos permite un registro claro e inmutable de la fuente de contribución de cada dato y modelo, mejorando significativamente la credibilidad de los datos y la trazabilidad del entrenamiento de modelos. Al mismo tiempo, a través del mecanismo de contratos inteligentes, se activa automáticamente la distribución de recompensas cuando se invocan datos o modelos, transformando el comportamiento de la IA en un valor tokenizable, medible y negociable, y construyendo un sistema de incentivos sostenible. Además, los usuarios de la comunidad también pueden evaluar el rendimiento del modelo mediante votación con tokens, participar en la formulación y iteración de reglas, y mejorar la estructura de gobernanza descentralizada.
II. Resumen del proyecto | Visión de la cadena AI de OpenLedger
OpenLedger es uno de los pocos proyectos de IA en blockchain que se centra en los mecanismos de incentivos de datos y modelos en el mercado actual. Fue el primero en proponer el concepto de "Payable AI", con el objetivo de construir un entorno de ejecución de IA justo, transparente y combinable, incentivando a los contribuyentes de datos, desarrolladores de modelos y constructores de aplicaciones de IA a colaborar en la misma plataforma y obtener beneficios en cadena según su contribución real.
OpenLedger ofrece un ciclo cerrado completo que va desde "provisión de datos" hasta "despliegue de modelos" y "llamado a la distribución de beneficios", cuyos módulos centrales incluyen:
A través de los módulos anteriores, OpenLedger ha construido una "infraestructura económica de agentes" impulsada por datos y con modelos componibles, promoviendo la cadena de valor de la IA en la cadena.
Y en la adopción de la tecnología blockchain, OpenLedger utiliza OP Stack + EigenDA como base, creando un entorno de ejecución de datos y contratos de alto rendimiento, bajo costo y verificable para modelos de IA.
En comparación con cadenas de AI más generales como NEAR, que se centran más en la capa base y en la soberanía de datos con la arquitectura de "AI Agents on BOS", OpenLedger se especializa en construir cadenas dedicadas a la AI orientadas a incentivos de datos y modelos, comprometida a hacer que el desarrollo y la invocación de modelos en la cadena logren un ciclo de valor rastreable, combinable y sostenible. Es la infraestructura de incentivos para modelos en el mundo de Web3, combinando la gestión de modelos, la facturación por uso y las interfaces combinables en la cadena, impulsando el camino hacia la realización del "modelo como activo".
Tres, los componentes centrales y la arquitectura técnica de OpenLedger
3.1 Modelo de Fábrica, fábrica de modelos sin necesidad de código
ModelFactory es una plataforma de ajuste fino de modelos de lenguaje (LLM) a gran escala en el ecosistema de OpenLedger. A diferencia de los marcos de ajuste fino tradicionales, ModelFactory ofrece una interfaz gráfica de usuario, sin necesidad de herramientas de línea de comandos o integración de API. Los usuarios pueden ajustar modelos basándose en conjuntos de datos que han sido autorizados y revisados en OpenLedger. Se ha logrado un flujo de trabajo integrado para la autorización de datos, el entrenamiento de modelos y el despliegue, cuyos procesos centrales incluyen:
La arquitectura del sistema Model Factory incluye seis módulos, abarcando la autenticación de identidad, los permisos de datos, el ajuste fino del modelo, la evaluación y el despliegue, así como la trazabilidad RAG, creando una plataforma de servicios de modelos integrada que sea segura, controlable, interactiva en tiempo real y capaz de monetización sostenible.
El siguiente es un resumen de las capacidades de los grandes modelos de lenguaje que ModelFactory admite actualmente:
Aunque la combinación de modelos de OpenLedger no incluye los últimos modelos MoE de alto rendimiento o modelos multimodales, su estrategia no está desactualizada, sino que se basa en las restricciones reales de implementación en cadena (costo de inferencia, adaptación RAG, compatibilidad con LoRA, entorno EVM) para hacer una configuración "prioritaria de la practicidad".
Model Factory como una cadena de herramientas sin código, todos los modelos incorporan un mecanismo de prueba de contribución, asegurando los derechos de los contribuyentes de datos y de los desarrolladores de modelos, con ventajas de bajo umbral, monetización y combinabilidad, en comparación con las herramientas de desarrollo de modelos tradicionales:
3.2 OpenLoRA, la tokenización de activos en cadena del modelo de ajuste fino
LoRA (Adaptación de Bajo Rango) es un método eficiente de ajuste de parámetros que aprende nuevas tareas insertando "matrices de bajo rango" en un modelo grande preentrenado, sin modificar los parámetros del modelo original, lo que reduce drásticamente los costos de entrenamiento y los requisitos de almacenamiento. Los modelos de lenguaje grandes tradicionales suelen tener decenas de miles de millones e incluso cientos de miles de millones de parámetros. Para utilizarlos en tareas específicas, se requiere un ajuste fino. La estrategia central de LoRA es: "congelar los parámetros del modelo grande original y solo entrenar las nuevas matrices de parámetros insertadas." Su eficiencia en parámetros, entrenamiento rápido y despliegue flexible lo convierten en el método de ajuste fino más adecuado actualmente para el despliegue y la llamada combinada de modelos Web3.
OpenLoRA es un marco de inferencia ligero construido por OpenLedger, diseñado específicamente para el despliegue de múltiples modelos y el intercambio de recursos. Su objetivo central es abordar los problemas comunes en el despliegue de modelos de IA, como los altos costos, la baja reutilización y el desperdicio de recursos de GPU, promoviendo la ejecución de "IA Pagable".
OpenLoRA sistema arquitectónico componentes centrales, basado en diseño modular, abarcando almacenamiento de modelos, ejecución de inferencias, enrutamiento de solicitudes y otros aspectos clave, logrando una capacidad de despliegue y llamada de múltiples modelos de manera eficiente y a bajo costo:
El proceso de inferencia de OpenLoRA pertenece a la capa técnica de servicios de modelo "maduro y general". El flujo es el siguiente: