OpenLedger будує економіку агентів: платформа модельного управління даними на основі OP Stack та EigenDA

Звіт про глибокі дослідження OpenLedger: Побудова агентної економіки, керованої даними, компонованої моделями, на основі OP Stack+EigenDA

Один. Вступ | Модельний рівень Crypto AI

Дані, моделі та обчислювальна потужність є трьома основними елементами інфраструктури ШІ, аналогічно паливу (дані), двигуну (модель), енергії (обчислювальна потужність) не обійтись. Подібно до еволюційного шляху інфраструктури традиційної індустрії ШІ, галузь Crypto AI також пройшла схожі етапи. На початку 2024 року ринок на деякий час був під контролем децентралізованих проектів GPU, які в основному акцентували увагу на логіці грубого зростання «конкуренція обчислювальної потужності». А з початком 2025 року увага галузі поступово перемістилася на рівень моделей і даних, що знаменує перехід Crypto AI від конкуренції за базові ресурси до більш сталого та цінного з точки зору застосування середнього рівня будівництва.

Загальний великий модель (LLM) проти спеціалізованої моделі (SLM)

Традиційні великі мовні моделі (LLM) сильно залежать від великих наборів даних і складних розподілених архітектур, обсяг параметрів коливається від 70B до 500B, а вартість однієї тренування може досягати кількох мільйонів доларів. Натомість SLM (Спеціалізована мовна модель) є легким методом тонкої настройки, що використовує повторно базову модель, зазвичай базуючись на відкритих моделях, поєднуючи невелику кількість якісних спеціалізованих даних та технології LoRA, швидко створюючи експертні моделі з конкретними знаннями в певній області, що значно знижує витрати на тренування та технічні бар'єри.

Варто зазначити, що SLM не буде інтегровано в ваги LLM, а буде співпрацювати з LLM через виклики архітектури Agent, динамічну маршрутизацію системи плагінів, гарячу заміну модулів LoRA, RAG (покращене генеративне витягування) та інші способи. Ця архітектура зберігає широку охоплювальність LLM, одночасно покращуючи професійні результати завдяки модулю налаштування, формуючи високо гнучку комбінаційну інтелектуальну систему.

Цінність і межі Crypto AI на рівні моделей

Проекти Crypto AI в основному важко безпосередньо підвищити основні можливості великих мовних моделей (LLM), основна причина полягає в тому,

  • Технічний бар'єр занадто високий: обсяги даних, обчислювальні ресурси та інженерні можливості, необхідні для навчання Foundation Model, є надзвичайно великими, і наразі лише такі технологічні гіганти, як США та Китай, мають відповідні можливості.
  • Обмеження відкритої екосистеми: хоча основні базові моделі, такі як LLaMA та Mixtral, вже є відкритими, справжній прорив у моделях все ще зосереджений у науково-дослідних установах та закритих інженерних системах, а участь проектів на базі блокчейн у ядрі моделей є обмеженою.

Однак, на основі відкритих базових моделей, проекти Crypto AI все ще можуть реалізувати розширення вартості шляхом тонкої настройки спеціалізованих мовних моделей (SLM) та поєднання з верифікацією та механізмами стимулювання Web3. Як «периферійний інтерфейсний шар» у ланцюгу постачання AI, це втілюється у двох основних напрямках:

  • Достовірний верифікаційний шар: шляхом запису на ланцюзі шляху генерації моделі, внесків у дані та їх використання, підвищує відстежуваність та стійкість до підробок виходу AI.
  • Механізм стимулювання: за допомогою рідного токена для стимулювання завантаження даних, виклику моделей, виконання агентами (Agent) та інших дій, створення позитивного циклу навчання та обслуговування моделей.

Класифікація типів AI моделей та аналіз їх застосовності у блокчейні

Отже, видно, що життєздатні точки застосування моделей типу Crypto AI в основному зосереджені на легкій настройці малих SLM, інтеграції та верифікації даних на ланцюгу для архітектури RAG, а також на локальному розгортанні та стимулюванні моделей Edge. Поєднуючи перевірність блокчейну та токенну механіку, Crypto може надати унікальну цінність для цих середніх та малих ресурсних моделей, формуючи диференційовану цінність «інтерфейсного рівня» AI.

Базуючись на даних і моделях, блокчейн AI ланцюга може чітко та незмінно фіксувати джерела внеску кожного даних і моделі, що значно підвищує довіру до даних та можливість відстеження навчання моделей. Одночасно, за допомогою механізму смарт-контрактів, автоматично запускається розподіл винагород, коли дані або моделі викликаються, перетворюючи поведінку AI в вимірювану, торгівельну токенізовану цінність, створюючи стійку систему стимулювання. Крім того, користувачі спільноти також можуть оцінювати продуктивність моделей за допомогою голосування токенами, брати участь у формуванні правил і ітерацій, вдосконалюючи децентралізовану структуру управління.

! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-62b3fa1e810f4772aaba3d91c74c1aa6)

Два, огляд проекту | Візія AI ланцюга OpenLedger

OpenLedger є одним з небагатьох блокчейн-AI проектів на ринку, які зосереджуються на механізмах стимулювання даних та моделей. Він вперше запропонував концепцію «Payable AI», метою якої є створення справедливого, прозорого та комбінованого середовища для роботи AI, яке стимулює внески даних, розробників моделей та будівельників AI-додатків співпрацювати на одній платформі та отримувати ончейн прибуток відповідно до фактичного внеску.

OpenLedger надає повний ланцюг від «надання даних» до «розгортання моделей» і до «виклику розподілу прибутку», його ключові модулі включають:

  • Модельна фабрика: не потрібно програмувати, можна використовувати LoRA для тонкої настройки, навчання та розгортання настроєних моделей на основі відкритого LLM;
  • OpenLoRA: підтримка спільного існування тисяч моделей, динамічна завантаження за потребою, значне зниження витрат на впровадження;
  • PoA (Proof of Attribution): реалізація вимірювання внеску та розподілу винагороди через записи викликів в ланцюгу;
  • Datanets: структуровані мережі даних, орієнтовані на вертикальні сценарії, що будуються та валідуються за допомогою співпраці спільноти;
  • Платформа пропозицій моделей (Model Proposal Platform): комбінаційний, викликаємий, платіжний ринковий майданчик моделей на блокчейні.

За допомогою вищезгаданих модулів OpenLedger побудував «інфраструктуру економіки агентів», що базується на даних і модульній комбінації, що сприяє онлайнізації ціннісного ланцюга AI.

А в застосуванні технології блокчейн OpenLedger використовує OP Stack + EigenDA в якості бази, щоб створити високо продуктивне, економічне та перевірене середовище для роботи з даними та контрактами для AI моделей.

  • Побудовано на OP Stack: на базі технологічного стеку Optimism, підтримує високу пропускну здатність та низькі витрати на виконання;
  • Розрахунок в основній мережі Ethereum: забезпечення безпеки транзакцій та цілісності активів;
  • EVM сумісність: зручний для розробників швидкий розгортання та розширення на основі Solidity;
  • EigenDA надає підтримку доступності даних: суттєво знижує витрати на зберігання, забезпечуючи перевірність даних.

В порівнянні з NEAR, яка більше орієнтована на базовий рівень та зосереджена на суверенітеті даних і архітектурі «AI Agents on BOS», OpenLedger більше зосереджується на створенні спеціалізованого блокчейну для штучного інтелекту, орієнтованого на дані та моделі. Він прагне забезпечити можливість відстеження, комбінування та стійкого ціннісного циклу для розробки та виклику моделей на блокчейні. Це інфраструктура стимулювання моделей у світі Web3, яка поєднує хостинг моделей, розрахунок за використання та комбіновані інтерфейси на блокчейні, сприяючи реалізації шляху «модель як актив».

! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-19c2276fccc616ccf9260fb7e35c9c24)

Три, основні компоненти та технологічна архітектура OpenLedger

3.1 Модельна фабрика, безкодова модельна фабрика

ModelFactory є великою платформою для доопрацювання мовних моделей (LLM) в екосистемі OpenLedger. На відміну від традиційних рамок доопрацювання, ModelFactory надає чистий графічний інтерфейс для роботи, без необхідності в командному рядку або інтеграції API. Користувачі можуть доопрацьовувати моделі на основі наборів даних, які були авторизовані та перевірені на OpenLedger. Реалізовано інтегрований робочий процес для авторизації даних, навчання моделей та їх розгортання, основні етапи якого включають:

  • Контроль доступу до даних: Користувач подає запит на дані, провайдер перевіряє та затверджує, дані автоматично підключаються до інтерфейсу навчання моделі.
  • Вибір та налаштування моделі: Підтримує основні LLM (як-от LLaMA, Mistral), через GUI налаштування гіперпараметрів.
  • Легке налаштування: Вбудований двигун LoRA / QLoRA, що в реальному часі демонструє прогрес навчання.
  • Оцінка та розгортання моделей: вбудовані інструменти оцінки, підтримка експорту для розгортання або екосистемного спільного використання.
  • Інтерфейс перевірки взаємодії: надає чат-інтерфейс, що полегшує безпосереднє тестування здатності моделі до запитань і відповідей.
  • Генерація RAG трасування: Відповіді з посиланнями на джерела, підвищують довіру та аудиторську перевірку.

Система архітектури Model Factory містить шість основних модулів, які охоплюють ідентифікацію, управління даними, тонке налаштування моделей, оцінку, розгортання та відстеження RAG, створюючи інтегровану платформу модельних послуг, яка є безпечною та контрольованою, з реальним взаємодією та стійкою монетизацією.

! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-f23f47f09226573b1fcacebdcfb8c1f3)

Модельна фабрика наразі підтримує такі можливості великих мовних моделей:

  • Серія LLaMA: найбільша екосистема, активна спільнота, висока загальна продуктивність, є однією з найпоширеніших відкритих базових моделей на сьогодні.
  • Mistral: архітектура ефективна, продуктивність висока, підходить для гнучкого розгортання в умовах обмежених ресурсів.
  • Qwen: Виконання завдань китайською мовою відмінне, загальні можливості сильні, підходить для вибору вітчизняними розробниками.
  • ChatGLM: Вражаючі результати діалогу китайською, підходить для спеціалізованих служб підтримки та локалізованих сценаріїв.
  • Deepseek: Відзначається перевагою в генерації коду та математичному висновуванні, підходить для інструментів допомоги в розумному розвитку.
  • Gemma: Легка модель, випущена Google, з чіткою структурою, яка дозволяє швидко освоїтися та експериментувати.
  • Falcon: Колишній еталон продуктивності, підходить для базових досліджень або порівняльних тестів, але активність спільноти зменшилася.
  • BLOOM: Підтримка багатьох мов є досить сильною, але продуктивність в інтерпретації є слабкою, що підходить для досліджень з охоплення мов.
  • GPT-2: класична рання модель, яка підходить лише для навчальних та верифікаційних цілей, не рекомендується для реального розгортання.

Хоча модельний набір OpenLedger не містить останніх високопродуктивних моделей MoE або мультимодальних моделей, його стратегія не застаріла, а скоріше базується на реальних обмеженнях, пов’язаних з ончейн-розгортанням (вартість інференції, адаптація RAG, сумісність LoRA, середовище EVM), що призводить до конфігурації «практичної переваги».

Model Factory як безкодовий інструмент, усі моделі мають вбудований механізм доказу внеску, що забезпечує права учасників даних та розробників моделей, має низький поріг входу, можливість монетизації та комбінації, у порівнянні з традиційними інструментами розробки моделей:

  • Для розробників: забезпечити повний шлях до інкубації моделей, їх розповсюдження та отримання доходу;
  • Для платформи: формування обігу модельних активів та комбінаційної екосистеми;
  • Для користувачів: можна комбінувати моделі або агенти так само, як викликати API.

! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-909dc3f796ad6aa44a1c97a51ade4193)

3.2 OpenLoRA, активізація он-chain активів моделі з мікрорегулюванням

LoRA (Low-Rank Adaptation) є ефективним методом тонкої настройки параметрів, що дозволяє навчатися новим завданням шляхом вставлення «низькорангової матриці» в попередньо навчену велику модель, не змінюючи параметри оригінальної моделі, що значно знижує витрати на навчання та вимоги до зберігання. Традиційні великі мовні моделі (наприклад, LLaMA, GPT-3) зазвичай мають десятки мільярдів, а іноді й сотні мільярдів параметрів. Щоб використовувати їх для конкретних завдань (наприклад, юридичні запитання, медичні консультації), потрібно провести тонку настройку (fine-tuning). Основна стратегія LoRA полягає в тому, що: «заморожують параметри оригінальної великої моделі, і тренують лише нові параметричні матриці, що вставляються». Вона має високу ефективність параметрів, швидке навчання і гнучке розгортання, що робить її найзручнішим сучасним методом для розгортання моделей Web3 та комбінацій викликів.

OpenLoRA є легковаговою інфраструктурою для інференсу, розробленою OpenLedger, яка спеціально створена для розгортання декількох моделей та обміну ресурсами. Її основною метою є вирішення поширених проблем, пов'язаних із розгортанням AI моделей, таких як високі витрати, низька повторна використаність, марнування ресурсів GPU та сприяння реалізації «платоспроможного AI» (Payable AI).

Основні компоненти архітектури системи OpenLoRA, основані на модульному дизайні, охоплюють зберігання моделей, виконання висновків, маршрутизацію запитів та інші ключові етапи, реалізуючи ефективні та економічні можливості для розгортання та виклику кількох моделей:

  • Модуль зберігання LoRA адаптера (LoRA Адаптери Зберігання): Налаштовані LoRA адаптери розміщуються на OpenLedger, що дозволяє завантажувати їх за потребою, уникаючи попереднього завантаження всіх моделей у відеопам'ять, економлячи ресурси.
  • Модельне хостингування та динамічний шар злиття (Model Hosting & Adapter Merging Layer): всі моделі з тонкою наладкою спільно використовують базову велику модель (base model), під час інференції динамічно LoRA adapter.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • 5
  • Поділіться
Прокоментувати
0/400
GasFeeCryervip
· 07-16 18:51
Коли газ дорогий, потрібно зменшити.
Переглянути оригіналвідповісти на0
ChainSpyvip
· 07-16 06:13
Комбінація моделей є ключем до успіху
Переглянути оригіналвідповісти на0
GateUser-e51e87c7vip
· 07-16 06:11
Крутити, крутити, крутити, все в крутить ai
Переглянути оригіналвідповісти на0
AlwaysAnonvip
· 07-16 06:02
Модель все ще тут кричить гасла.
Переглянути оригіналвідповісти на0
MetaverseLandlordvip
· 07-16 05:46
Модельний рівень До місяця, дивись.
Переглянути оригіналвідповісти на0
  • Закріпити