Uno, Introducción | La transición de la capa del modelo de Crypto AI
Los datos, los modelos y la potencia de cálculo son los tres elementos centrales de la infraestructura de IA, comparables a combustible (datos), motor (modelo) y energía (potencia de cálculo), todos son indispensables. Al igual que la trayectoria de evolución de la infraestructura en la industria de IA tradicional, el campo de Crypto AI también ha pasado por etapas similares. A principios de 2024, el mercado estuvo dominado por proyectos de GPU descentralizados, enfatizando en general la lógica de crecimiento extensivo de "competir en potencia de cálculo". Sin embargo, a partir de 2025, el enfoque de la industria se ha ido desplazando gradualmente hacia la capa de modelos y datos, lo que marca la transición de Crypto AI de la competencia por recursos básicos a una construcción intermedia más sostenible y de valor aplicado.
Modelo general (LLM) vs Modelo especializado (SLM)
Los modelos de lenguaje grandes (LLM) tradicionales dependen en gran medida de conjuntos de datos a gran escala y arquitecturas distribuidas complejas, con un tamaño de parámetro que oscila entre 70B y 500B, y el costo de entrenar uno a menudo alcanza varios millones de dólares. Por otro lado, el SLM (Modelo de Lenguaje Especializado), como un paradigma de ajuste fino ligero de modelos base reutilizables, generalmente se basa en modelos de código abierto, combinando una pequeña cantidad de datos profesionales de alta calidad y tecnologías como LoRA, para construir rápidamente modelos de expertos que poseen conocimientos en dominios específicos, reduciendo significativamente el costo de entrenamiento y la barrera técnica.
Es notable que SLM no se integre en los pesos de LLM, sino que colabore con LLM a través de la arquitectura de Agent, el sistema de plugins para enrutamiento dinámico, el módulo LoRA para conexión en caliente, y RAG (Generación Aumentada por Recuperación). Esta arquitectura conserva la amplia capacidad de cobertura de LLM y, al mismo tiempo, mejora el rendimiento profesional mediante módulos de ajuste fino, formando así un sistema inteligente combinado altamente flexible.
El valor y los límites de Crypto AI en la capa del modelo
Los proyectos de IA criptográfica son esencialmente difíciles de mejorar directamente la capacidad central de los modelos de lenguaje grande (LLM), y la razón principal es que
La barrera tecnológica es demasiado alta: la escala de datos, los recursos de computación y la capacidad de ingeniería necesarios para entrenar un Modelo Fundamental son extremadamente grandes, y actualmente solo las grandes empresas tecnológicas de Estados Unidos y China poseen la capacidad correspondiente.
Limitaciones del ecosistema de código abierto: aunque modelos básicos como LLaMA y Mixtral se han abierto, la clave para impulsar los avances en los modelos sigue concentrándose en instituciones de investigación y sistemas de ingeniería de código cerrado, y el espacio de participación de los proyectos en cadena en la capa del modelo central es limitado.
Sin embargo, sobre los modelos básicos de código abierto, los proyectos de Crypto AI aún pueden lograr una extensión de valor mediante el ajuste fino de modelos de lenguaje especializados (SLM), combinados con la verificabilidad y los mecanismos de incentivos de Web3. Como "capa de interfaz periférica" de la cadena de la industria de IA, se manifiesta en dos direcciones centrales:
Capa de verificación confiable: a través de registros en la cadena sobre la trayectoria de generación del modelo, la contribución de datos y el uso, se mejora la trazabilidad y la resistencia a la manipulación de las salidas de IA.
Mecanismo de incentivos: A través del Token nativo, se utiliza para incentivar comportamientos como la carga de datos, la llamada a modelos y la ejecución de agentes, construyendo un ciclo positivo de entrenamiento y servicio de modelos.
Clasificación de tipos de modelos de IA y análisis de aplicabilidad en blockchain
Como se puede ver, los puntos de viabilidad de los proyectos de modelo tipo Crypto AI se concentran principalmente en la ligera afinación de SLM pequeños, la integración y verificación de datos en cadena de la arquitectura RAG, así como el despliegue local y la incentivación de modelos Edge. Combinando la verificabilidad de la blockchain y el mecanismo de tokens, Crypto puede proporcionar un valor único a estos escenarios de modelos de recursos medio-bajos, formando un valor diferenciado en la "capa de interfaz" de la IA.
Una cadena de bloques de IA basada en datos y modelos puede registrar de manera clara e inalterable el origen de las contribuciones de cada dato y modelo, mejorando significativamente la credibilidad de los datos y la trazabilidad del entrenamiento de modelos. Al mismo tiempo, a través del mecanismo de contratos inteligentes, se activa automáticamente la distribución de recompensas cuando se accede a datos o modelos, transformando el comportamiento de la IA en un valor tokenizado medible y comerciable, construyendo un sistema de incentivos sostenible. Además, los usuarios de la comunidad también pueden evaluar el rendimiento del modelo mediante votación con tokens, participar en la formulación y iteración de reglas, y perfeccionar la estructura de gobernanza descentralizada.
II. Resumen del proyecto | La visión de la cadena AI de OpenLedger
OpenLedger es uno de los pocos proyectos de blockchain AI en el mercado actual que se centra en mecanismos de incentivos para datos y modelos. Fue pionero en proponer el concepto de "Payable AI", con el objetivo de construir un entorno de ejecución de IA justo, transparente y combinable, que incentive a los contribuyentes de datos, desarrolladores de modelos y constructores de aplicaciones de IA a colaborar en la misma plataforma y obtener ingresos en la cadena según sus contribuciones reales.
OpenLedger ofrece un ciclo cerrado completo que va desde "provisión de datos" hasta "despliegue de modelos" y luego "llamada de participación en beneficios", cuyos módulos centrales incluyen:
Fábrica de Modelos: sin necesidad de programación, puedes usar LoRA para ajustar, entrenar y desplegar modelos personalizados basados en LLM de código abierto;
OpenLoRA: soporta la coexistencia de miles de modelos, carga dinámica bajo demanda, reduce significativamente los costos de implementación;
PoA (Prueba de Atribución): medir la contribución y distribuir recompensas a través de registros de llamadas en la cadena;
Datanets: redes de datos estructurados orientadas a escenarios verticales, construidas y verificadas mediante la colaboración de la comunidad;
Plataforma de Propuestas de Modelos (Model Proposal Platform): mercado de modelos en cadena que es combinable, llamable y pagable.
A través de los módulos anteriores, OpenLedger ha construido una "infraestructura económica de agentes inteligentes" impulsada por datos y modelada de manera combinable, promoviendo la cadena de valor de la IA en la cadena de bloques.
Y en la adopción de la tecnología blockchain, OpenLedger utiliza OP Stack + EigenDA como base, creando un entorno de ejecución de datos y contratos de alto rendimiento, bajo costo y verificable para modelos de IA.
Construido sobre OP Stack: Basado en la pila tecnológica de Optimism, soporta alta profundidad y ejecución de bajas tarifas;
Liquidación en la red principal de Ethereum: Asegurar la seguridad de las transacciones y la integridad de los activos;
Compatible con EVM: facilita a los desarrolladores desplegar y expandir rápidamente sobre Solidity;
EigenDA proporciona soporte de disponibilidad de datos: reduce significativamente los costos de almacenamiento y garantiza la verificabilidad de los datos.
En comparación con cadenas de IA genéricas como NEAR, que están más orientadas a la capa base y se centran en la soberanía de datos y la arquitectura de "AI Agents on BOS", OpenLedger se enfoca más en construir cadenas específicas de IA orientadas a datos e incentivos de modelos, comprometida a hacer que el desarrollo y la invocación de modelos se realicen en la cadena con un ciclo de valor rastreable, combinable y sostenible. Es la infraestructura de incentivos de modelos en el mundo Web3, combinando la gestión de modelos, la facturación de uso y las interfaces combinables en la cadena, impulsando el camino hacia la realización de "modelos como activos".
Tres, los componentes centrales y la arquitectura técnica de OpenLedger
3.1 Modelo de fábrica, modelo de fábrica sin código
ModelFactory es una plataforma de ajuste fino de grandes modelos de lenguaje (LLM) bajo el ecosistema de OpenLedger. A diferencia de los marcos de ajuste fino tradicionales, ModelFactory ofrece una interfaz gráfica de usuario pura, sin necesidad de herramientas de línea de comandos o integración de API. Los usuarios pueden ajustar el modelo en base a los conjuntos de datos autorizados y revisados en OpenLedger. Se ha logrado un flujo de trabajo integrado para la autorización de datos, entrenamiento de modelos y despliegue, cuyos procesos centrales incluyen:
Control de acceso a datos: el usuario envía una solicitud de datos, el proveedor revisa y aprueba, los datos se integran automáticamente en la interfaz de entrenamiento del modelo.
Selección y configuración del modelo: Soporta los LLM más populares (como LLaMA, Mistral), configurando los hiperparámetros a través de la GUI.
Ajuste ligero: motor LoRA / QLoRA integrado, muestra el progreso de entrenamiento en tiempo real.
Evaluación y despliegue del modelo: Herramienta de evaluación integrada, admite la exportación para despliegue o la llamada para compartir en ecosistemas.
Interfaz de verificación interactiva: Proporciona una interfaz de chat, facilitando la prueba directa de la capacidad de respuesta del modelo.
Generación de trazabilidad RAG: Respuestas con citas de origen, mejorando la confianza y la auditabilidad.
La arquitectura del sistema Model Factory incluye seis módulos, abarcando la autenticación de identidad, los permisos de datos, el ajuste fino de modelos, la evaluación y el despliegue, así como la trazabilidad RAG, creando una plataforma de servicio de modelos integrada, segura y controlable, con interacción en tiempo real y monetización sostenible.
El siguiente es un resumen de las capacidades de los grandes modelos de lenguaje que ModelFactory admite actualmente:
Serie LLaMA: el ecosistema más amplio, comunidad activa y alto rendimiento general, es uno de los modelos base de código abierto más populares en la actualidad.
Mistral: arquitectura eficiente, rendimiento de inferencia excelente, adecuado para escenarios de implementación flexible y recursos limitados.
Qwen: el rendimiento en tareas en chino es excelente, con habilidades integrales fuertes, ideal para ser la primera elección de los desarrolladores nacionales.
ChatGLM: Efectos de conversación en chino sobresalientes, adecuados para atención al cliente en nichos y escenarios de localización.
Deepseek: Se destaca en la generación de código y el razonamiento matemático, adecuado para herramientas de asistencia en el desarrollo inteligente.
Gemma: Modelo ligero lanzado por Google, con una estructura clara, fácil de comenzar y experimentar rápidamente.
Falcon: Fue un referente de rendimiento, adecuado para investigaciones básicas o pruebas de comparación, pero la actividad de la comunidad ha disminuido.
BLOOM: Soporte multilingüe fuerte, pero el rendimiento de inferencia es débil, adecuado para investigaciones de cobertura lingüística.
GPT-2: modelo clásico temprano, adecuado solo para fines de enseñanza y verificación, no se recomienda su uso en implementaciones reales.
Aunque la combinación de modelos de OpenLedger no incluye los últimos modelos de MoE de alto rendimiento o modelos multimodales, su estrategia no está desactualizada, sino que se basa en las restricciones reales de implementación en la cadena (costos de inferencia, adaptación de RAG, compatibilidad con LoRA, entorno EVM) para hacer una configuración "prioritaria en la práctica".
Model Factory como herramienta sin código, todos los modelos tienen un mecanismo de prueba de contribución incorporado, asegurando los derechos de los contribuyentes de datos y los desarrolladores de modelos, con ventajas de bajo umbral, monetización y combinabilidad, en comparación con las herramientas de desarrollo de modelos tradicionales:
Para los desarrolladores: proporcionar un camino completo para la incubación, distribución e ingresos del modelo;
Para la plataforma: formar un ecosistema de circulación y combinación de activos del modelo;
Para los usuarios: se pueden combinar modelos o Agentes como si estuvieran llamando a una API.
3.2 OpenLoRA, la tokenización de activos en cadena de modelos de ajuste fino.
LoRA (Adaptación de Bajo Rango) es un método eficiente de ajuste fino de parámetros que aprende nuevas tareas al insertar "matrices de bajo rango" en un modelo grande preentrenado, sin modificar los parámetros del modelo original, lo que reduce drásticamente el costo de entrenamiento y la necesidad de almacenamiento. Los modelos de lenguaje grandes tradicionales (como LLaMA, GPT-3) suelen tener decenas de miles de millones o incluso cientos de miles de millones de parámetros. Para utilizarlos en tareas específicas (como preguntas legales o consultas médicas), es necesario realizar un ajuste fino. La estrategia central de LoRA es: "congelar los parámetros del modelo grande original y solo entrenar la nueva matriz de parámetros insertada." Su eficiencia de parámetros, rapidez de entrenamiento y flexibilidad de implementación la convierten en el método de ajuste fino más adecuado en la actualidad para el despliegue y la llamada combinada de modelos Web3.
OpenLoRA es un marco de inferencia ligero construido por OpenLedger, diseñado específicamente para el despliegue de múltiples modelos y el intercambio de recursos. Su objetivo principal es resolver los problemas comunes en el despliegue de modelos de IA, como los altos costos, la baja reutilización y el desperdicio de recursos de GPU, promoviendo la ejecución de la "IA pagable" (Payable AI).
OpenLoRA arquitectura del sistema, componentes centrales, basados en un diseño modular, cubriendo el almacenamiento de modelos, ejecución de inferencias, enrutamiento de solicitudes y otros aspectos clave, logrando una capacidad de despliegue y llamada de múltiples modelos de manera eficiente y a bajo costo:
Módulo de Almacenamiento de Adaptadores LoRA (Almacenamiento de Adaptadores LoRA): el adaptador LoRA afinado se aloja en OpenLedger, permitiendo la carga bajo demanda y evitando la precarga de todos los modelos en la memoria gráfica, ahorrando recursos.
Alojamiento de Modelos y Capa de Fusión Dinámica (Model Hosting & Adapter Merging Layer): Todos los modelos de ajuste fino comparten el modelo base (base model), durante la inferencia, el adaptador LoRA se fusiona dinámicamente.
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
OpenLedger construye una economía de agentes: plataforma de modelos impulsados por datos basada en OP Stack y EigenDA.
OpenLedger Profundidad研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济
Uno, Introducción | La transición de la capa del modelo de Crypto AI
Los datos, los modelos y la potencia de cálculo son los tres elementos centrales de la infraestructura de IA, comparables a combustible (datos), motor (modelo) y energía (potencia de cálculo), todos son indispensables. Al igual que la trayectoria de evolución de la infraestructura en la industria de IA tradicional, el campo de Crypto AI también ha pasado por etapas similares. A principios de 2024, el mercado estuvo dominado por proyectos de GPU descentralizados, enfatizando en general la lógica de crecimiento extensivo de "competir en potencia de cálculo". Sin embargo, a partir de 2025, el enfoque de la industria se ha ido desplazando gradualmente hacia la capa de modelos y datos, lo que marca la transición de Crypto AI de la competencia por recursos básicos a una construcción intermedia más sostenible y de valor aplicado.
Modelo general (LLM) vs Modelo especializado (SLM)
Los modelos de lenguaje grandes (LLM) tradicionales dependen en gran medida de conjuntos de datos a gran escala y arquitecturas distribuidas complejas, con un tamaño de parámetro que oscila entre 70B y 500B, y el costo de entrenar uno a menudo alcanza varios millones de dólares. Por otro lado, el SLM (Modelo de Lenguaje Especializado), como un paradigma de ajuste fino ligero de modelos base reutilizables, generalmente se basa en modelos de código abierto, combinando una pequeña cantidad de datos profesionales de alta calidad y tecnologías como LoRA, para construir rápidamente modelos de expertos que poseen conocimientos en dominios específicos, reduciendo significativamente el costo de entrenamiento y la barrera técnica.
Es notable que SLM no se integre en los pesos de LLM, sino que colabore con LLM a través de la arquitectura de Agent, el sistema de plugins para enrutamiento dinámico, el módulo LoRA para conexión en caliente, y RAG (Generación Aumentada por Recuperación). Esta arquitectura conserva la amplia capacidad de cobertura de LLM y, al mismo tiempo, mejora el rendimiento profesional mediante módulos de ajuste fino, formando así un sistema inteligente combinado altamente flexible.
El valor y los límites de Crypto AI en la capa del modelo
Los proyectos de IA criptográfica son esencialmente difíciles de mejorar directamente la capacidad central de los modelos de lenguaje grande (LLM), y la razón principal es que
Sin embargo, sobre los modelos básicos de código abierto, los proyectos de Crypto AI aún pueden lograr una extensión de valor mediante el ajuste fino de modelos de lenguaje especializados (SLM), combinados con la verificabilidad y los mecanismos de incentivos de Web3. Como "capa de interfaz periférica" de la cadena de la industria de IA, se manifiesta en dos direcciones centrales:
Clasificación de tipos de modelos de IA y análisis de aplicabilidad en blockchain
Como se puede ver, los puntos de viabilidad de los proyectos de modelo tipo Crypto AI se concentran principalmente en la ligera afinación de SLM pequeños, la integración y verificación de datos en cadena de la arquitectura RAG, así como el despliegue local y la incentivación de modelos Edge. Combinando la verificabilidad de la blockchain y el mecanismo de tokens, Crypto puede proporcionar un valor único a estos escenarios de modelos de recursos medio-bajos, formando un valor diferenciado en la "capa de interfaz" de la IA.
Una cadena de bloques de IA basada en datos y modelos puede registrar de manera clara e inalterable el origen de las contribuciones de cada dato y modelo, mejorando significativamente la credibilidad de los datos y la trazabilidad del entrenamiento de modelos. Al mismo tiempo, a través del mecanismo de contratos inteligentes, se activa automáticamente la distribución de recompensas cuando se accede a datos o modelos, transformando el comportamiento de la IA en un valor tokenizado medible y comerciable, construyendo un sistema de incentivos sostenible. Además, los usuarios de la comunidad también pueden evaluar el rendimiento del modelo mediante votación con tokens, participar en la formulación y iteración de reglas, y perfeccionar la estructura de gobernanza descentralizada.
II. Resumen del proyecto | La visión de la cadena AI de OpenLedger
OpenLedger es uno de los pocos proyectos de blockchain AI en el mercado actual que se centra en mecanismos de incentivos para datos y modelos. Fue pionero en proponer el concepto de "Payable AI", con el objetivo de construir un entorno de ejecución de IA justo, transparente y combinable, que incentive a los contribuyentes de datos, desarrolladores de modelos y constructores de aplicaciones de IA a colaborar en la misma plataforma y obtener ingresos en la cadena según sus contribuciones reales.
OpenLedger ofrece un ciclo cerrado completo que va desde "provisión de datos" hasta "despliegue de modelos" y luego "llamada de participación en beneficios", cuyos módulos centrales incluyen:
A través de los módulos anteriores, OpenLedger ha construido una "infraestructura económica de agentes inteligentes" impulsada por datos y modelada de manera combinable, promoviendo la cadena de valor de la IA en la cadena de bloques.
Y en la adopción de la tecnología blockchain, OpenLedger utiliza OP Stack + EigenDA como base, creando un entorno de ejecución de datos y contratos de alto rendimiento, bajo costo y verificable para modelos de IA.
En comparación con cadenas de IA genéricas como NEAR, que están más orientadas a la capa base y se centran en la soberanía de datos y la arquitectura de "AI Agents on BOS", OpenLedger se enfoca más en construir cadenas específicas de IA orientadas a datos e incentivos de modelos, comprometida a hacer que el desarrollo y la invocación de modelos se realicen en la cadena con un ciclo de valor rastreable, combinable y sostenible. Es la infraestructura de incentivos de modelos en el mundo Web3, combinando la gestión de modelos, la facturación de uso y las interfaces combinables en la cadena, impulsando el camino hacia la realización de "modelos como activos".
Tres, los componentes centrales y la arquitectura técnica de OpenLedger
3.1 Modelo de fábrica, modelo de fábrica sin código
ModelFactory es una plataforma de ajuste fino de grandes modelos de lenguaje (LLM) bajo el ecosistema de OpenLedger. A diferencia de los marcos de ajuste fino tradicionales, ModelFactory ofrece una interfaz gráfica de usuario pura, sin necesidad de herramientas de línea de comandos o integración de API. Los usuarios pueden ajustar el modelo en base a los conjuntos de datos autorizados y revisados en OpenLedger. Se ha logrado un flujo de trabajo integrado para la autorización de datos, entrenamiento de modelos y despliegue, cuyos procesos centrales incluyen:
La arquitectura del sistema Model Factory incluye seis módulos, abarcando la autenticación de identidad, los permisos de datos, el ajuste fino de modelos, la evaluación y el despliegue, así como la trazabilidad RAG, creando una plataforma de servicio de modelos integrada, segura y controlable, con interacción en tiempo real y monetización sostenible.
El siguiente es un resumen de las capacidades de los grandes modelos de lenguaje que ModelFactory admite actualmente:
Aunque la combinación de modelos de OpenLedger no incluye los últimos modelos de MoE de alto rendimiento o modelos multimodales, su estrategia no está desactualizada, sino que se basa en las restricciones reales de implementación en la cadena (costos de inferencia, adaptación de RAG, compatibilidad con LoRA, entorno EVM) para hacer una configuración "prioritaria en la práctica".
Model Factory como herramienta sin código, todos los modelos tienen un mecanismo de prueba de contribución incorporado, asegurando los derechos de los contribuyentes de datos y los desarrolladores de modelos, con ventajas de bajo umbral, monetización y combinabilidad, en comparación con las herramientas de desarrollo de modelos tradicionales:
3.2 OpenLoRA, la tokenización de activos en cadena de modelos de ajuste fino.
LoRA (Adaptación de Bajo Rango) es un método eficiente de ajuste fino de parámetros que aprende nuevas tareas al insertar "matrices de bajo rango" en un modelo grande preentrenado, sin modificar los parámetros del modelo original, lo que reduce drásticamente el costo de entrenamiento y la necesidad de almacenamiento. Los modelos de lenguaje grandes tradicionales (como LLaMA, GPT-3) suelen tener decenas de miles de millones o incluso cientos de miles de millones de parámetros. Para utilizarlos en tareas específicas (como preguntas legales o consultas médicas), es necesario realizar un ajuste fino. La estrategia central de LoRA es: "congelar los parámetros del modelo grande original y solo entrenar la nueva matriz de parámetros insertada." Su eficiencia de parámetros, rapidez de entrenamiento y flexibilidad de implementación la convierten en el método de ajuste fino más adecuado en la actualidad para el despliegue y la llamada combinada de modelos Web3.
OpenLoRA es un marco de inferencia ligero construido por OpenLedger, diseñado específicamente para el despliegue de múltiples modelos y el intercambio de recursos. Su objetivo principal es resolver los problemas comunes en el despliegue de modelos de IA, como los altos costos, la baja reutilización y el desperdicio de recursos de GPU, promoviendo la ejecución de la "IA pagable" (Payable AI).
OpenLoRA arquitectura del sistema, componentes centrales, basados en un diseño modular, cubriendo el almacenamiento de modelos, ejecución de inferencias, enrutamiento de solicitudes y otros aspectos clave, logrando una capacidad de despliegue y llamada de múltiples modelos de manera eficiente y a bajo costo: