Informe de investigación profunda de OpenLedger: Construyendo una economía de agentes impulsada por datos y modelos combinables sobre la base de OP Stack+EigenDA
I. Introducción | La transición del nivel del modelo de Crypto AI
Los datos, los modelos y la potencia de cálculo son los tres elementos centrales de la infraestructura de la IA, análogos al combustible (datos), el motor (modelo) y la energía (potencia de cálculo), todos ellos son indispensables. Al igual que la trayectoria de evolución de la infraestructura en la industria tradicional de la IA, el campo de Crypto AI también ha pasado por etapas similares. A principios de 2024, el mercado fue dominado en un momento por proyectos de GPU descentralizados ( ciertas plataformas, enfatizando comúnmente la lógica de crecimiento extensivo de "competir en potencia de cálculo". Sin embargo, a medida que ingresamos a 2025, el enfoque de la industria se ha ido desplazando gradualmente hacia las capas de modelo y datos, marcando que Crypto AI está pasando de una competencia por recursos básicos a una construcción de nivel medio más sostenible y con valor de aplicación.
) Modelo General (LLM) vs Modelo Especializado (SLM)
Los modelos de lenguaje de gran tamaño (LLM) tradicionales dependen en gran medida de conjuntos de datos a gran escala y arquitecturas distribuidas complejas, con escalas de parámetros que van desde 70B hasta 500B, y el costo de entrenar uno puede alcanzar fácilmente varios millones de dólares. Por otro lado, el SLM (Modelo de Lenguaje Especializado) es un paradigma de ajuste fino ligero que permite la reutilización de modelos base, que generalmente se basa en modelos de código abierto como LLaMA, Mistral y DeepSeek, combinando una pequeña cantidad de datos profesionales de alta calidad y tecnologías como LoRA para construir rápidamente modelos expertos con conocimientos específicos del dominio, reduciendo significativamente los costos de entrenamiento y las barreras técnicas.
Es importante destacar que SLM no se integra en los pesos de LLM, sino que colabora con LLM a través de la invocación de la arquitectura Agent, el enrutamiento dinámico del sistema de plugins, la conexión en caliente del módulo LoRA, RAG (Generación Aumentada por Recuperación) y otros métodos. Esta arquitectura preserva la amplia capacidad de cobertura de LLM y, al mismo tiempo, mejora el rendimiento profesional a través de módulos de ajuste fino, formando un sistema inteligente modular altamente flexible.
El valor y los límites de Crypto AI en la capa de modelo
Los proyectos de Crypto AI, en esencia, tienen dificultades para mejorar directamente las capacidades centrales de los modelos de lenguaje de gran tamaño (LLM), y la razón principal es que
Barrera técnica demasiado alta: la escala de datos, los recursos de computación y la capacidad de ingeniería necesarios para entrenar un Modelo Base son extremadamente grandes; actualmente, solo gigantes tecnológicos como Estados Unidos (ciertas empresas, etc.) y China (ciertas empresas, etc.) tienen la capacidad correspondiente.
Limitaciones del ecosistema de código abierto: Aunque modelos básicos como LLaMA y Mixtral han sido de código abierto, la clave para impulsar la ruptura del modelo sigue estando concentrada en instituciones de investigación y sistemas de ingeniería de código cerrado, los proyectos en cadena tienen un espacio de participación limitado en la capa del modelo central.
Sin embargo, sobre los modelos básicos de código abierto, los proyectos de Crypto AI aún pueden lograr la extensión de valor mediante el ajuste fino de modelos de lenguaje especializados (SLM), combinando la verificabilidad y los mecanismos de incentivos de Web3. Como "capa de interfaz periférica" de la cadena de industria de IA, se manifiesta en dos direcciones centrales:
Capa de verificación confiable: a través del registro en cadena de la ruta de generación del modelo, la contribución de datos y el uso, se mejora la trazabilidad y la resistencia a la manipulación de las salidas de IA.
Mecanismo de incentivos: Utilizando el Token nativo, para incentivar acciones como la carga de datos, la llamada de modelos y la ejecución de agentes, construyendo un ciclo positivo de entrenamiento y servicio de modelos.
Clasificación de tipos de modelos de IA y análisis de aplicabilidad de blockchain
Como se puede ver, los puntos de viabilidad de los proyectos de IA Crypto de tipo modelo se centran principalmente en la optimización ligera de SLM pequeños, la integración y verificación de datos en cadena de la arquitectura RAG, así como el despliegue local y la incentivación de modelos Edge. Combinando la verificabilidad de blockchain y el mecanismo de tokens, Crypto puede proporcionar un valor único para estos escenarios de modelos de recursos medios y bajos, formando un valor diferenciado en la «capa de interfaz» de la IA.
La cadena de bloques AI basada en datos y modelos puede registrar de manera clara e inmutable el origen de la contribución de cada dato y modelo, mejorando significativamente la credibilidad de los datos y la trazabilidad del entrenamiento del modelo. Al mismo tiempo, a través del mecanismo de contrato inteligente, se activa automáticamente la distribución de recompensas cuando se utilizan datos o modelos, transformando el comportamiento de la IA en un valor tokenizado medible y negociable, construyendo un sistema de incentivos sostenible. Además, los usuarios de la comunidad también pueden evaluar el rendimiento del modelo mediante votación con tokens, participar en la formulación y iteración de reglas, y mejorar la estructura de gobernanza descentralizada.
II. Resumen del proyecto | La visión de la cadena de OpenLedger AI
OpenLedger es uno de los pocos proyectos de blockchain AI en el mercado actual que se centra en los incentivos de datos y modelos. Fue pionero en proponer el concepto de "Payable AI", con el objetivo de construir un entorno de operación de AI justo, transparente y combinable, incentivando a los contribuyentes de datos, desarrolladores de modelos y constructores de aplicaciones de AI a colaborar en la misma plataforma y obtener ingresos en cadena según su contribución real.
OpenLedger ofrece un ciclo cerrado completo que va desde "provisión de datos" hasta "despliegue de modelos" y "llamadas de reparto de beneficios", cuyos módulos centrales incluyen:
Fábrica de Modelos: sin necesidad de programación, se puede utilizar LoRA para ajustar, entrenar y desplegar modelos personalizados basados en LLM de código abierto;
OpenLoRA: soporta la coexistencia de miles de modelos, carga dinámica bajo demanda, reduciendo significativamente los costos de implementación;
PoA (Prueba de Atribución): Medición de contribuciones y distribución de recompensas a través de registros de llamadas en la cadena;
Datanets: redes de datos estructurados para escenarios verticales, construidos y verificados por la colaboración de la comunidad;
Plataforma de Propuestas de Modelos (Model Proposal Platform): mercado de modelos en cadena que es combinable, llamable y pagable.
A través de los módulos anteriores, OpenLedger ha construido una "infraestructura económica de agentes inteligentes" impulsada por datos y modelable, promoviendo la on-chain del valor de la cadena de AI.
Y en la adopción de la tecnología blockchain, OpenLedger utiliza OP Stack + EigenDA como base para construir un entorno de ejecución de datos y contratos de alto rendimiento, bajo costo y verificable para modelos de IA.
Construido sobre OP Stack: Basado en la pila de tecnología de Optimism, soporta alta profundidad y ejecución de bajo costo;
Liquidación en la red principal de Ethereum: Asegurar la seguridad de las transacciones y la integridad de los activos;
Compatible con EVM: facilita a los desarrolladores implementar y expandir rápidamente sobre Solidity;
EigenDA proporciona soporte de disponibilidad de datos: reduce significativamente los costos de almacenamiento y garantiza la verificabilidad de los datos.
En comparación con cadenas de IA de propósito general como NEAR, que se centran más en la capa base y en la soberanía de datos con la arquitectura de "AI Agents on BOS", OpenLedger se enfoca más en construir cadenas de IA dedicadas a la incentivación de datos y modelos, comprometida a hacer que el desarrollo y la invocación de modelos en la cadena logren un ciclo de valor rastreable, combinable y sostenible. Es la infraestructura de incentivos para modelos en el mundo Web3, combinando ciertos servicios de alojamiento de modelos de tipo plataforma, ciertos sistemas de facturación de uso de tipo plataforma y ciertas interfaces combinables en la cadena de tipo plataforma, promoviendo el camino hacia la realización de "modelo como activo".
Tres, los componentes centrales y la arquitectura técnica de OpenLedger
) 3.1 Modelo de Fábrica, sin necesidad de código modelo de fábrica
ModelFactory es una plataforma de ajuste fino de un gran modelo de lenguaje (LLM) bajo el ecosistema de OpenLedger. A diferencia de los marcos de ajuste fino tradicionales, ModelFactory ofrece una operación puramente gráfica, sin necesidad de herramientas de línea de comandos o integración de API. Los usuarios pueden ajustar el modelo basándose en los conjuntos de datos autorizados y revisados completados en OpenLedger. Se ha logrado un flujo de trabajo integrado para la autorización de datos, el entrenamiento del modelo y el despliegue, cuyo proceso central incluye:
Control de acceso a datos: El usuario envía una solicitud de datos, el proveedor revisa y aprueba, los datos se integran automáticamente en la interfaz de entrenamiento del modelo.
Selección y configuración del modelo: Soporta LLM de vanguardia (como LLaMA, Mistral), configurando hiperparámetros a través de la GUI.
Ajuste ligero: Motor LoRA / QLoRA integrado, muestra en tiempo real el progreso del entrenamiento.
Evaluación y despliegue de modelos: Herramienta de evaluación incorporada, admite exportación para despliegue o llamada compartida en el ecosistema.
Interfaz de verificación interactiva: Proporciona una interfaz de chat, lo que facilita la prueba directa de la capacidad de respuesta del modelo.
Generación de trazabilidad RAG: Responder con citas de origen, aumentando la confianza y la auditabilidad.
La arquitectura del sistema Model Factory incluye seis grandes módulos, abarcando la autenticación de identidad, permisos de datos, ajuste fino de modelos, evaluación y despliegue, así como el rastreo RAG, creando una plataforma de servicios de modelos integrada, segura, controlable, interactiva en tiempo real y con capacidad de monetización sostenible.
El siguiente es un breve resumen de las capacidades de los grandes modelos de lenguaje que ModelFactory admite actualmente:
Serie LLaMA: el ecosistema más amplio, comunidad activa, rendimiento general fuerte, es uno de los modelos básicos de código abierto más populares en la actualidad.
Mistral: arquitectura eficiente, rendimiento de inferencia excepcional, adecuado para escenarios flexibles y con recursos limitados.
Qwen: Producto de una empresa, muestra un rendimiento sobresaliente en tareas en chino, tiene una gran capacidad integral, ideal para ser la primera opción de los desarrolladores nacionales.
ChatGLM: el efecto de conversación en chino es destacado, adecuado para el servicio al cliente de nicho y escenarios de localización.
Deepseek: se destaca en la generación de código y el razonamiento matemático, adecuado para herramientas de asistencia en el desarrollo inteligente.
Gemma: un modelo ligero lanzado por una empresa, con una estructura clara, fácil de manejar y experimentar rápidamente.
Falcon: Solía ser un estándar de rendimiento, adecuado para investigaciones básicas o pruebas comparativas, pero la actividad de la comunidad ha disminuido.
BLOOM: Soporte multilingüe fuerte, pero el rendimiento de inferencia es débil, adecuado para investigaciones de cobertura de idiomas.
GPT-2: modelo clásico temprano, solo adecuado para fines de enseñanza y verificación, no se recomienda su uso en producción.
Aunque la combinación de modelos de OpenLedger no incluye los últimos modelos MoE de alto rendimiento ni modelos multimodales, su estrategia no es obsoleta, sino que se basa en la configuración "prioridad práctica" realizada bajo las restricciones de implementación en la cadena (costo de inferencia, adaptación RAG, compatibilidad LoRA, entorno EVM).
Model Factory como una cadena de herramientas sin código, todos los modelos incorporan un mecanismo de prueba de contribución, asegurando los derechos de los contribuyentes de datos y los desarrolladores de modelos, con las ventajas de bajo umbral, monetizable y combinable, en comparación con las herramientas de desarrollo de modelos tradicionales:
Para los desarrolladores: proporcionar un camino completo para la incubación, distribución e ingresos del modelo;
Para la plataforma: formar un ecosistema de circulación y combinación de activos de modelo;
Para los usuarios: se pueden combinar modelos o Agentes como si se estuviera llamando a una API.
) 3.2 OpenLoRA, la tokenización de activos en cadena del modelo de ajuste fino
LoRA (Adaptación de Bajo Rango) es un método de ajuste fino de parámetros eficiente que aprende nuevas tareas insertando "matrices de bajo rango" en un modelo grande preentrenado, sin modificar los parámetros del modelo original, lo que reduce drásticamente los costos de entrenamiento y las necesidades de almacenamiento. Los modelos de lenguaje grandes tradicionales (como LLaMA, GPT-3) suelen tener decenas de miles de millones o incluso cientos de miles de millones de parámetros. Para utilizarlos en tareas específicas (como preguntas y respuestas legales, consultas médicas), se necesita realizar un ajuste fino (fine-tuning). La estrategia central de LoRA es: "congelar los parámetros del modelo grande original y solo entrenar las nuevas matrices de parámetros insertadas." Su eficiencia de parámetros, entrenamiento rápido y despliegue flexible lo convierten en el método de ajuste fino más adecuado en la actualidad para el despliegue y la invocación combinada de modelos Web3.
OpenLoRA es un marco de inferencia ligero construido por OpenLedger, diseñado específicamente para el despliegue de múltiples modelos y el intercambio de recursos. Su objetivo central es abordar los problemas comunes en el despliegue de modelos de IA, como el alto costo, la baja reutilización y el desperdicio de recursos de GPU, promoviendo la ejecución de "IA Pagable".
Componentes centrales de la arquitectura del sistema OpenLoRA, basados en un diseño modular, que cubren aspectos clave como el almacenamiento de modelos, la ejecución de inferencias y el enrutamiento de solicitudes, logrando una capacidad de implementación y llamada de múltiples modelos de manera eficiente y a bajo costo:
Módulo de almacenamiento de adaptadores LoRA ### Almacenamiento de adaptadores LoRA (: el adaptador LoRA afinado se aloja en OpenLedger, permitiendo la carga bajo demanda y evitando la precarga de todos los modelos.
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
6 me gusta
Recompensa
6
7
Compartir
Comentar
0/400
MindsetExpander
· hace14h
Una ola de tomar a la gente por tonta con monedas.
Ver originalesResponder0
MEVSandwich
· hace14h
Dame un resumen en chino, por favor.
Ver originalesResponder0
MaticHoleFiller
· hace14h
Esta vez tengo buenas expectativas sobre la IA.
Ver originalesResponder0
OnchainSniper
· hace14h
Otro día de la potencia computacional.
Ver originalesResponder0
RugpullAlertOfficer
· hace14h
Avance rápido hacia el Rug Pull del agente inteligente
Ver originalesResponder0
BlockchainTherapist
· hace14h
Se ve muy bien, inténtalo.
Ver originalesResponder0
MidnightSeller
· hace14h
¿Se puede hacer un proyecto de IA sin salsa de botella en estos tiempos?
OpenLedger lanza una cadena de incentivos de modelos de IA basada en OP Stack+EigenDA para construir una economía de agentes combinables.
Informe de investigación profunda de OpenLedger: Construyendo una economía de agentes impulsada por datos y modelos combinables sobre la base de OP Stack+EigenDA
I. Introducción | La transición del nivel del modelo de Crypto AI
Los datos, los modelos y la potencia de cálculo son los tres elementos centrales de la infraestructura de la IA, análogos al combustible (datos), el motor (modelo) y la energía (potencia de cálculo), todos ellos son indispensables. Al igual que la trayectoria de evolución de la infraestructura en la industria tradicional de la IA, el campo de Crypto AI también ha pasado por etapas similares. A principios de 2024, el mercado fue dominado en un momento por proyectos de GPU descentralizados ( ciertas plataformas, enfatizando comúnmente la lógica de crecimiento extensivo de "competir en potencia de cálculo". Sin embargo, a medida que ingresamos a 2025, el enfoque de la industria se ha ido desplazando gradualmente hacia las capas de modelo y datos, marcando que Crypto AI está pasando de una competencia por recursos básicos a una construcción de nivel medio más sostenible y con valor de aplicación.
) Modelo General (LLM) vs Modelo Especializado (SLM)
Los modelos de lenguaje de gran tamaño (LLM) tradicionales dependen en gran medida de conjuntos de datos a gran escala y arquitecturas distribuidas complejas, con escalas de parámetros que van desde 70B hasta 500B, y el costo de entrenar uno puede alcanzar fácilmente varios millones de dólares. Por otro lado, el SLM (Modelo de Lenguaje Especializado) es un paradigma de ajuste fino ligero que permite la reutilización de modelos base, que generalmente se basa en modelos de código abierto como LLaMA, Mistral y DeepSeek, combinando una pequeña cantidad de datos profesionales de alta calidad y tecnologías como LoRA para construir rápidamente modelos expertos con conocimientos específicos del dominio, reduciendo significativamente los costos de entrenamiento y las barreras técnicas.
Es importante destacar que SLM no se integra en los pesos de LLM, sino que colabora con LLM a través de la invocación de la arquitectura Agent, el enrutamiento dinámico del sistema de plugins, la conexión en caliente del módulo LoRA, RAG (Generación Aumentada por Recuperación) y otros métodos. Esta arquitectura preserva la amplia capacidad de cobertura de LLM y, al mismo tiempo, mejora el rendimiento profesional a través de módulos de ajuste fino, formando un sistema inteligente modular altamente flexible.
El valor y los límites de Crypto AI en la capa de modelo
Los proyectos de Crypto AI, en esencia, tienen dificultades para mejorar directamente las capacidades centrales de los modelos de lenguaje de gran tamaño (LLM), y la razón principal es que
Sin embargo, sobre los modelos básicos de código abierto, los proyectos de Crypto AI aún pueden lograr la extensión de valor mediante el ajuste fino de modelos de lenguaje especializados (SLM), combinando la verificabilidad y los mecanismos de incentivos de Web3. Como "capa de interfaz periférica" de la cadena de industria de IA, se manifiesta en dos direcciones centrales:
Clasificación de tipos de modelos de IA y análisis de aplicabilidad de blockchain
Como se puede ver, los puntos de viabilidad de los proyectos de IA Crypto de tipo modelo se centran principalmente en la optimización ligera de SLM pequeños, la integración y verificación de datos en cadena de la arquitectura RAG, así como el despliegue local y la incentivación de modelos Edge. Combinando la verificabilidad de blockchain y el mecanismo de tokens, Crypto puede proporcionar un valor único para estos escenarios de modelos de recursos medios y bajos, formando un valor diferenciado en la «capa de interfaz» de la IA.
La cadena de bloques AI basada en datos y modelos puede registrar de manera clara e inmutable el origen de la contribución de cada dato y modelo, mejorando significativamente la credibilidad de los datos y la trazabilidad del entrenamiento del modelo. Al mismo tiempo, a través del mecanismo de contrato inteligente, se activa automáticamente la distribución de recompensas cuando se utilizan datos o modelos, transformando el comportamiento de la IA en un valor tokenizado medible y negociable, construyendo un sistema de incentivos sostenible. Además, los usuarios de la comunidad también pueden evaluar el rendimiento del modelo mediante votación con tokens, participar en la formulación y iteración de reglas, y mejorar la estructura de gobernanza descentralizada.
![OpenLedger Profundidad研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济]###https://img-cdn.gateio.im/webp-social/moments-62b3fa1e810f4772aaba3d91c74c1aa6.webp(
II. Resumen del proyecto | La visión de la cadena de OpenLedger AI
OpenLedger es uno de los pocos proyectos de blockchain AI en el mercado actual que se centra en los incentivos de datos y modelos. Fue pionero en proponer el concepto de "Payable AI", con el objetivo de construir un entorno de operación de AI justo, transparente y combinable, incentivando a los contribuyentes de datos, desarrolladores de modelos y constructores de aplicaciones de AI a colaborar en la misma plataforma y obtener ingresos en cadena según su contribución real.
OpenLedger ofrece un ciclo cerrado completo que va desde "provisión de datos" hasta "despliegue de modelos" y "llamadas de reparto de beneficios", cuyos módulos centrales incluyen:
A través de los módulos anteriores, OpenLedger ha construido una "infraestructura económica de agentes inteligentes" impulsada por datos y modelable, promoviendo la on-chain del valor de la cadena de AI.
Y en la adopción de la tecnología blockchain, OpenLedger utiliza OP Stack + EigenDA como base para construir un entorno de ejecución de datos y contratos de alto rendimiento, bajo costo y verificable para modelos de IA.
En comparación con cadenas de IA de propósito general como NEAR, que se centran más en la capa base y en la soberanía de datos con la arquitectura de "AI Agents on BOS", OpenLedger se enfoca más en construir cadenas de IA dedicadas a la incentivación de datos y modelos, comprometida a hacer que el desarrollo y la invocación de modelos en la cadena logren un ciclo de valor rastreable, combinable y sostenible. Es la infraestructura de incentivos para modelos en el mundo Web3, combinando ciertos servicios de alojamiento de modelos de tipo plataforma, ciertos sistemas de facturación de uso de tipo plataforma y ciertas interfaces combinables en la cadena de tipo plataforma, promoviendo el camino hacia la realización de "modelo como activo".
![OpenLedger Profundidad研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济])https://img-cdn.gateio.im/webp-social/moments-19c2276fccc616ccf9260fb7e35c9c24.webp(
Tres, los componentes centrales y la arquitectura técnica de OpenLedger
) 3.1 Modelo de Fábrica, sin necesidad de código modelo de fábrica
ModelFactory es una plataforma de ajuste fino de un gran modelo de lenguaje (LLM) bajo el ecosistema de OpenLedger. A diferencia de los marcos de ajuste fino tradicionales, ModelFactory ofrece una operación puramente gráfica, sin necesidad de herramientas de línea de comandos o integración de API. Los usuarios pueden ajustar el modelo basándose en los conjuntos de datos autorizados y revisados completados en OpenLedger. Se ha logrado un flujo de trabajo integrado para la autorización de datos, el entrenamiento del modelo y el despliegue, cuyo proceso central incluye:
La arquitectura del sistema Model Factory incluye seis grandes módulos, abarcando la autenticación de identidad, permisos de datos, ajuste fino de modelos, evaluación y despliegue, así como el rastreo RAG, creando una plataforma de servicios de modelos integrada, segura, controlable, interactiva en tiempo real y con capacidad de monetización sostenible.
![OpenLedger Profundidad研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济]###https://img-cdn.gateio.im/webp-social/moments-f23f47f09226573b1fcacebdcfb8c1f3.webp(
El siguiente es un breve resumen de las capacidades de los grandes modelos de lenguaje que ModelFactory admite actualmente:
Aunque la combinación de modelos de OpenLedger no incluye los últimos modelos MoE de alto rendimiento ni modelos multimodales, su estrategia no es obsoleta, sino que se basa en la configuración "prioridad práctica" realizada bajo las restricciones de implementación en la cadena (costo de inferencia, adaptación RAG, compatibilidad LoRA, entorno EVM).
Model Factory como una cadena de herramientas sin código, todos los modelos incorporan un mecanismo de prueba de contribución, asegurando los derechos de los contribuyentes de datos y los desarrolladores de modelos, con las ventajas de bajo umbral, monetizable y combinable, en comparación con las herramientas de desarrollo de modelos tradicionales:
![OpenLedger Profundidad研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济])https://img-cdn.gateio.im/webp-social/moments-909dc3f796ad6aa44a1c97a51ade4193.webp(
) 3.2 OpenLoRA, la tokenización de activos en cadena del modelo de ajuste fino
LoRA (Adaptación de Bajo Rango) es un método de ajuste fino de parámetros eficiente que aprende nuevas tareas insertando "matrices de bajo rango" en un modelo grande preentrenado, sin modificar los parámetros del modelo original, lo que reduce drásticamente los costos de entrenamiento y las necesidades de almacenamiento. Los modelos de lenguaje grandes tradicionales (como LLaMA, GPT-3) suelen tener decenas de miles de millones o incluso cientos de miles de millones de parámetros. Para utilizarlos en tareas específicas (como preguntas y respuestas legales, consultas médicas), se necesita realizar un ajuste fino (fine-tuning). La estrategia central de LoRA es: "congelar los parámetros del modelo grande original y solo entrenar las nuevas matrices de parámetros insertadas." Su eficiencia de parámetros, entrenamiento rápido y despliegue flexible lo convierten en el método de ajuste fino más adecuado en la actualidad para el despliegue y la invocación combinada de modelos Web3.
OpenLoRA es un marco de inferencia ligero construido por OpenLedger, diseñado específicamente para el despliegue de múltiples modelos y el intercambio de recursos. Su objetivo central es abordar los problemas comunes en el despliegue de modelos de IA, como el alto costo, la baja reutilización y el desperdicio de recursos de GPU, promoviendo la ejecución de "IA Pagable".
Componentes centrales de la arquitectura del sistema OpenLoRA, basados en un diseño modular, que cubren aspectos clave como el almacenamiento de modelos, la ejecución de inferencias y el enrutamiento de solicitudes, logrando una capacidad de implementación y llamada de múltiples modelos de manera eficiente y a bajo costo: