OpenLedger Глибина аналізу: побудова інфраструктури економіки агентів на основі OP Stack та EigenDA

OpenLedger Глибина дослідження: на базі OP Stack+EigenDA побудувати економіку агентів, що керується даними та має модульну структуру.

Одне. Вступ | Перехід моделей Crypto AI

Дані, моделі та обчислювальні потужності є трьома основними елементами інфраструктури ШІ, аналогічно паливу (дані), двигуну (моделі) та енергії (обчислювальні потужності), жоден з яких не можна пропустити. Як і в традиційній інфраструктурі ШІ, сфера Crypto AI також пройшла через подібні етапи. На початку 2024 року ринок був переважно під контролем децентралізованих GPU проектів, які загалом підкреслювали логіку нестримного зростання «конкуренція потужностей». Після вступу в 2025 рік увага в галузі поступово зосереджується на моделях і даних, що знаменує перехід Crypto AI від конкуренції за базові ресурси до більш сталого та цінного для застосування середнього рівня будівництва.

Загальний великий модель (LLM) проти спеціалізованої моделі (SLM)

Традиційні великі мовні моделі (LLM) вимагають значної залежності від великих наборів даних та складних розподілених архітектур, обсяг параметрів коливається від 70B до 500B, а вартість одного навчання зазвичай досягає кількох мільйонів доларів. У той час як SLM (Спеціалізована мовна модель) є легким підходом до доопрацювання повторно використовуваних базових моделей, зазвичай базується на відкритих моделях, поєднуючи невелику кількість високоякісних спеціалізованих даних та технології LoRA, швидко створює експертні моделі з конкретними знаннями в певній галузі, значно знижуючи витрати на навчання та технічні бар'єри.

Варто зазначити, що SLM не буде інтегровано в ваги LLM, а буде співпрацювати з LLM через архітектуру агентів, динамічну маршрутизацію плагінів, гарячу заміну модулів LoRA, RAG (покращене генерування з пошуком) та інші способи. Ця архітектура зберігає широке охоплення LLM, одночасно підсилюючи професійні показники за рахунок модуля тонкого налаштування, формуючи високо гнучку комбінаційну інтелектуальну систему.

Crypto AI вартість та межі на рівні моделей

Проекти Crypto AI по суті важко безпосередньо підвищити основні можливості великих мовних моделей (LLM), основна причина полягає в тому,

  • Технічний бар'єр занадто високий: обсяги даних, обчислювальні ресурси та інженерні можливості, необхідні для навчання Foundation Model, є надзвичайно великими, наразі лише технологічні гіганти мають відповідні можливості.
  • Обмеження відкритої екосистеми: хоча основні базові моделі вже відкриті, справжніми рушійними силами прориву моделей залишаються науково-дослідні установи та закриті інженерні системи, а участь проектів на блокчейні в ядрі моделей є обмеженою.

Однак, на базі відкритих моделей, проекти Crypto AI все ще можуть досягати розширення вартості, налаштовуючи спеціалізовані мовні моделі (SLM) та поєднуючи їх з перевіряністю та механізмами стимулювання Web3. Як «периферійний інтерфейсний шар» в індустрії AI, це проявляється у двох основних напрямках:

  • Достовірний верифікаційний рівень: через записані в ланцюгу моделі генерування шляху, внесення даних та їх використання, покращується відслідковуваність та стійкість до підробок виходу AI.
  • Механізм стимулювання: за допомогою рідного токена для стимулювання завантаження даних, виклику моделей, виконання агентів (Agent) тощо, створення позитивного циклу навчання моделей і обслуговування.

Аналіз класифікації типів AI моделей та їхньої придатності до блокчейну

З цього видно, що можливі точки реалізації моделей класу Crypto AI в основному зосереджені на легкій тонкій настройці малих SLM, інтеграції та верифікації даних на ланцюгу архітектури RAG, а також на локальному розгортанні та стимулюванні Edge моделей. Поєднуючи верифікованість блокчейну та токеноміку, Crypto може надати унікальну цінність для цих сценаріїв моделей з середніми та низькими ресурсами, створюючи диференційовану цінність «інтерфейсного шару» AI.

Блокчейн AI ланцюг на основі даних та моделей може чітко та незмінно реєструвати джерела внеску для кожного набору даних та моделі, що суттєво підвищує довіру до даних та простежуваність навчання моделей. Одночасно, за допомогою механізму смарт-контрактів, при виклику даних або моделей автоматично спрацьовує розподіл винагород, перетворюючи поведінку AI на вимірювану, торгівельну токенізовану вартість, створюючи стійку систему стимулів. Крім того, користувачі спільноти можуть оцінювати продуктивність моделей шляхом голосування токенами, брати участь у розробці правил та ітераціях, вдосконалюючи децентралізовану управлінську структуру.

! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-62b3fa1e810f4772aaba3d91c74c1aa6)

Два, огляд проекту | Візія AI-ланцюга OpenLedger

OpenLedger є одним з небагатьох блокчейн AI проектів, які наразі зосереджені на механізмах стимулювання даних та моделей. Він вперше запропонував концепцію «Payable AI», що має на меті створити справедливе, прозоре та комбіруване середовище для роботи AI, заохочуючи внесок даних, розробників моделей та будівельників AI додатків співпрацювати на одній платформі та отримувати доходи в мережі відповідно до фактичного внеску.

OpenLedger надає повний ланцюговий цикл від «надання даних» до «розгортання моделі», а потім до «виклику розподілу прибутку», його основні модулі включають:

  • Модельна фабрика: без програмування, можна використовувати LoRA для тонкого налаштування, навчання та розгортання індивідуальних моделей на основі відкритого LLM;
  • OpenLoRA: підтримує співіснування тисяч моделей, динамічно завантажує за потребою, суттєво знижує витрати на розгортання;
  • PoA (Proof of Attribution): реалізація вимірювання внеску та розподілу винагороди через записи викликів в ланцюгу;
  • Datanets: структуровані мережі даних для вертикальних сцен, що будуються і перевіряються спільнотою;
  • Платформа пропозицій моделей (Model Proposal Platform): комбінований, викликаний, платіжний ринковий модель на ланцюзі.

За допомогою зазначених модулів OpenLedger створив дані-орієнтовану, модельно-комбіновану «інфраструктуру економіки агентів», що сприяє онланізації ціннісного ланцюга AI.

А в застосуванні технології блокчейн OpenLedger використовує OP Stack + EigenDA як основу для створення високопродуктивного, низькозатратного та перевіряємого середовища виконання даних і контрактів для AI моделей.

  • Побудовано на OP Stack: на основі технологічного стеку Optimism, підтримує високу пропускну здатність та низькі витрати на виконання;
  • Розрахунок в основній мережі Ethereum: Забезпечення безпеки транзакцій та цілісності активів;
  • EVM сумісний: зручно для розробників швидко розгортати та розширювати на основі Solidity;
  • EigenDA забезпечує підтримку доступності даних: значно знижує витрати на зберігання, гарантує перевірність даних.

У порівнянні з NEAR, що більше орієнтований на базовий рівень, акцентуючи увагу на суверенітеті даних та архітектурі «AI Agents on BOS», OpenLedger більше зосереджується на створенні спеціалізованого AI-ланцюга, орієнтованого на дані та моделі, прагнучи зробити розробку та виклик моделей на ланцюговій основі відстежуваними, комбінованими та сталими вартісними замкнутими колами. Це інфраструктура заохочення моделей у світі Web3, поєднуючи хостинг моделей, облік використання та комбіновані інтерфейси на ланцюгу, просуваючи шлях реалізації «моделі як актив».

! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-19c2276fccc616ccf9260fb7e35c9c24)

Три, ключові компоненти та технологічна архітектура OpenLedger

3.1 Модельний завод, безкодовий модельний завод

ModelFactory є великою платформою для тонкої настройки мовних моделей (LLM) в екосистемі OpenLedger. На відміну від традиційних фреймворків для тонкої настройки, ModelFactory пропонує чистий графічний інтерфейс, без потреби в командному рядку або інтеграції API. Користувачі можуть проводити тонку настройку моделей на основі даних, які були авторизовані та перевірені на OpenLedger. Реалізовано інтегрований робочий процес авторизації даних, навчання моделей та їх розгортання, основні етапи якого включають:

  • Контроль доступу до даних: Користувач подає запит на дані, постачальник перевіряє та затверджує, дані автоматично підключаються до інтерфейсу навчання моделі.
  • Вибір і налаштування моделі: Підтримка основних LLM, конфігурація гіперпараметрів через GUI.
  • Легке налаштування: вбудований двигун LoRA / QLoRA, що в режимі реального часу демонструє прогрес навчання.
  • Оцінка та розгортання моделей: вбудовані інструменти оцінки, підтримка експорту для розгортання або екологічного спільного використання.
  • Інтерфейс взаємодії для перевірки: надає чат-подібний інтерфейс, що полегшує безпосереднє тестування можливостей моделі у відповідях на запитання.
  • Генерація RAG для відстеження: відповіді з посиланнями на джерела, що підвищує довіру та аудиторську перевірку.

Архітектура системи Model Factory складається з шести основних модулів, які охоплюють ідентифікацію, управління даними, тонке налаштування моделей, оцінку та розгортання, а також RAG трасування, створюючи інтегровану платформу модельних послуг, що забезпечує безпеку, контрольованість, реальний інтерактивний обмін та можливість сталого монетизації.

Модельна фабрика в даний час підтримує можливості великих мовних моделей, які наведені в таблиці нижче:

  • Серія LLaMA: найбільша екосистема, активна спільнота, універсальна продуктивність, є однією з найбільш поширених відкритих базових моделей.
  • Mistral: Архітектура ефективна, продуктивність висока, підходить для гнучкого розгортання в умовах обмежених ресурсів.
  • Qwen: Продукція Alibaba, відмінна продуктивність на китайських завданнях, сильні комплексні можливості, підходить для вибору вітчизняних розробників.
  • ChatGLM: видатні результати діалогу китайською мовою, підходить для вертикальних клієнтських послуг та локалізованих сцен.
  • Deepseek: демонструє переваги у генерації коду та математичному висновуванні, підходить для інтелектуальних інструментів розробки.
  • Gemma: легка модель, випущена Google, з чіткою структурою, що дозволяє швидко розпочати роботу та експериментувати.
  • Falcon: Раніше був еталоном продуктивності, підходить для фундаментальних досліджень або порівняльних тестів, але активність у спільноті зменшилася.
  • BLOOM: Підтримка багатьох мов є досить сильною, але продуктивність в інференції є слабшою, підходить для досліджень, що охоплюють мови.
  • GPT-2: класична рання модель, призначена лише для навчальних цілей і перевірки, не рекомендується для фактичного розгортання.

Хоча модельна комбінація OpenLedger не містить останніх високопродуктивних моделей MoE або мультимодальних моделей, її стратегія не є застарілою, а базується на реальних обмеженнях, пов'язаних з ончейн-деплоєм (витрати на інференс, адаптація RAG, сумісність LoRA, середовище EVM), і становить «практичний пріоритет».

Model Factory як безкодова інструментальна ланцюг, всі моделі мають вбудований механізм доказу внеску, що забезпечує права учасників внеску даних та розробників моделей, має низький поріг входження, можливість монетизації та комбінації, порівняно з традиційними інструментами розробки моделей:

  • Для розробників: надайте повний шлях до інкубації, розподілу та доходу моделей;
  • Для платформи: формувати модель обігу активів та комбіновану екосистему;
  • Для користувачів: моделі або агенти можна комбінувати так само, як виклик API.

! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-f23f47f09226573b1fcacebdcfb8c1f3)

3.2 OpenLoRA, активізація онлайнових активів моделі тонкого налаштування

LoRA (Low-Rank Adaptation) є ефективним методом тонкої настройки параметрів, який навчає нові завдання шляхом вставлення «низькорослих матриць» у попередньо навчений великий модель, не змінюючи параметри оригінальної моделі, що значно зменшує витрати на навчання та вимоги до зберігання. Традиційні великі мовні моделі зазвичай мають десятки мільярдів або навіть сотні мільярдів параметрів. Щоб використовувати їх для специфічних завдань, необхідно виконати тонку настройку. Основна стратегія LoRA полягає в тому, щоб: «заморозити параметри оригінальної великої моделі, навчати лише нові параметричні матриці». Ця стратегія є ефективною за параметрами, швидкою в навчанні та гнучкою в розгортанні, що робить її найкращим сучасним методом тонкої настройки для розгортання та комбінованого виклику моделей Web3.

OpenLoRA – це легка інфраструктура для інференції, створена OpenLedger, спеціально розроблена для розгортання кількох моделей та спільного використання ресурсів. Її основною метою є вирішення поширених проблем, пов'язаних із високими витратами, низькою повторюваністю та марнотратством ресурсів GPU у розгортанні AI моделей, а також сприяння реалізації "платоспроможного AI" (Payable AI).

Основні компоненти архітектури системи OpenLoRA, засновані на модульному дизайні, охоплюють зберігання моделей, виконання висновків, маршрутизацію запитів та інші ключові етапи, забезпечуючи ефективну, економічну можливість розгортання та виклику декількох моделей:

  • Модуль зберігання LoRA адаптера: налаштований LoRA адаптер зберігається на OpenLedger, що дозволяє завантажувати його за потребою, уникаючи попереднього завантаження всіх моделей у відеопам'ять, що економить ресурси.
  • Хостинг моделей та динамічний інтеграційний шар: всі моделі з мікрорегулюваннями використовують спільну базову велику модель, під час інференції динамічно об'єднуються LoRA адаптери, підтримують спільну інференцію кількох адаптерів, покращують продуктивність.
  • Інференційний двигун: інтеграція Flash-Attention, Paged-Attention, SGMV оптимізацій та інших CUDA оптимізаційних технологій.
  • Запит маршрутизації та потічний вихідний модуль: динамічна маршрутизація до правильного адаптера на основі моделі, необхідної в запиті, реалізація потічного генерування на рівні токенів через оптимізацію ядра.

Процес інференції OpenLoRA належить до технічного рівня «досить загальних» моделей сервісу «процес, як наведено нижче:

  • Завантаження базової моделі: система попередньо завантажує базову велику модель
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • 5
  • Поділіться
Прокоментувати
0/400
GasFeeNightmarevip
· 19год тому
Модель спалює гроші, краще вже просто торгувати в криптосвіті.
Переглянути оригіналвідповісти на0
GateUser-aa7df71evip
· 19год тому
Знову розповідають історії, щоб обдурювати людей, як лохів.
Переглянути оригіналвідповісти на0
ContractCollectorvip
· 19год тому
ai дуже бик, але не впадай у це!
Переглянути оригіналвідповісти на0
BrokenYieldvip
· 19год тому
ех... ще одна наратив про gpu, яка помре, як luna, чесно кажучи
Переглянути оригіналвідповісти на0
OnChainDetectivevip
· 20год тому
гм... шаблон вказує на ще один шілл gpt/ai, але *перевіряє історичні дані* інфраструктура op stack може бути легітимною, чесно кажучи
Переглянути оригіналвідповісти на0
  • Закріпити