Децентралізація AI тренування дослідження: від Prime Intellect до Pluralis передові технології аналізу

Святий Грааль Crypto AI: передові дослідження децентралізованого навчання

У повному ланцюзі вартості AI, тренування моделей є етапом з найбільшим споживанням ресурсів та найвищими технічними бар'єрами, що безпосередньо визначає межу можливостей моделей та їх фактичну ефективність. У порівнянні з легкими викликами на етапі висновків, процес навчання потребує постійних масштабних обчислювальних витрат, складних процесів обробки даних та підтримки високонавантажених алгоритмів оптимізації, що є справжньою "важкою промисловістю" в побудові AI-систем. З точки зору архітектурних парадигм, способи навчання можна поділити на чотири категорії: централізоване навчання, розподілене навчання, федеративне навчання та децентралізоване навчання, яке є основною темою цієї статті.

Святий Грааль Crypto AI: Децентралізація навчання на передовій

Централізоване навчання є найпоширенішим традиційним способом, який виконується єдиною установою на локальних високопродуктивних кластерах, де весь процес навчання, починаючи від апаратного забезпечення, програмного забезпечення нижнього рівня, системи управління кластерами, до всіх компонентів навчальної рамки, координується єдиною системою управління. Така глибока співпраця архітектури забезпечує оптимальну ефективність спільного використання пам'яті, синхронізації градієнтів та механізмів відмовостійкості, що робить її дуже придатною для навчання масштабних моделей, таких як GPT, Gemini, з перевагами високої ефективності та контрольованими ресурсами, але одночасно існують проблеми монополії даних, бар'єрів для ресурсів, енергоспоживання та ризику єдиної точки.

Розподілене навчання є основним методом навчання великих моделей сьогодні, його суть полягає в розподілі завдань навчання моделі на кілька машин для спільного виконання, щоб подолати обмеження обчислень та зберігання на одній машині. Хоча фізично має "розподілені" характеристики, але в цілому все ще контролюється централізованими установами, які здійснюють управління та синхронізацію, зазвичай працює в середовищі високошвидкісних локальних мереж, за допомогою технології високошвидкісної взаємопов'язаної шини NVLink, головний вузол координує всі підзавдання. Основні методи включають:

  • Дані паралельно: кожен вузол навчає різні дані, параметри спільні, потрібно узгодити ваги моделі
  • Модельна паралельність: розгортання різних частин моделі на різних вузлах для досягнення сильної масштабованості
  • Паралелізм конвеєра: поетапне послідовне виконання, підвищує пропускну здатність
  • Тензорна паралельність: детальне розділення матричних обчислень, підвищення паралельної гранулярності

Розподілене навчання є комбінацією "централізованого контролю + розподіленого виконання", аналогічно тому, як один і той же керівник дистанційно керує співробітниками з кількох "офісів" для виконання завдання. Наразі майже всі основні великі моделі навчаються саме цим способом.

Святий Грааль Crypto AI: Децентралізація навчання на передньому краї

Децентралізація тренування означає більш відкритий та стійкий до цензури шлях у майбутнє. Його основною характеристикою є: кілька недовірливих вузлів спільно виконують завдання з навчання без центрального координатора, зазвичай через протокол, що керує розподілом завдань та співпрацею, і за допомогою механізму криптостимулів забезпечують чесність внесків. Головні виклики, з якими стикається ця модель, включають:

  • Складність гетерогенності пристроїв та розподілу: висока складність координації гетерогенних пристроїв, низька ефективність розподілу завдань
  • Вузьке місце в ефективності комунікації: нестабільна мережна комунікація, очевидне вузьке місце в синхронізації градієнтів
  • Відсутність надійного виконання: брак надійного середовища виконання, важко перевірити, чи дійсно вузол бере участь у обчисленнях
  • Відсутність єдиного координаційного центру: немає центрального диспетчера, складний розподіл завдань і механізм відкату в разі помилок

Децентралізація тренування можна зрозуміти як: група глобальних добровольців, які по-різному вносять обчислювальну потужність для спільного тренування моделі, але "справді здійсненне масштабне децентралізоване тренування" все ще є системною інженерною задачею, що охоплює системну архітектуру, комунікаційні протоколи, криптографічну безпеку, економічні механізми, верифікацію моделей та інші аспекти, але можливість "спільної ефективності + стимулювання чесності + правильності результату" все ще перебуває на ранній стадії прототипного дослідження.

Федеративне навчання, як перехідна форма між розподіленими і децентралізованими системами, підкреслює збереження даних локально та централізовану агрегацію параметрів моделі, що підходить для сценаріїв, де важлива відповідність вимогам конфіденційності. Федеративне навчання має інженерну структуру розподіленого навчання і можливості локальної співпраці, а також переваги розподілу даних у децентралізованому навчанні, але досі залежить від надійних координаторів і не має повністю відкритих і антикорупційних характеристик. Це можна розглядати як "контрольовану децентралізацію" в контексті конфіденційності, що є відносно м'якою у навчальних завданнях, структурах довіри та комунікаційних механізмах, що робить її більш підходящою для промислових перехідних архітектур.

Децентралізація тренінгів: межі, можливості та реальні шляхи

З точки зору навчальних парадигм, децентралізоване навчання не підходить для всіх типів завдань. У деяких ситуаціях, через складність структури завдання, надвисокі вимоги до ресурсів або великі труднощі співпраці, воно природно не підходить для ефективного виконання між гетерогенними, недовіреними вузлами. Наприклад, навчання великих моделей часто залежить від високої пам'яті, низької затримки та високої пропускної здатності, що ускладнює їх ефективне розподіл та синхронізацію в відкритих мережах; завдання, що мають сильні обмеження щодо конфіденційності даних та суверенітету, обмежені законодавчими вимогами та етичними обмеженнями, не можуть бути відкритими для спільного використання; а завдання, які не мають бази для мотивування співпраці, не мають зовнішнього стимулу для участі. Ці межі разом складають реальні обмеження сучасного децентралізованого навчання.

Але це не означає, що децентралізоване навчання є псевдопроблемою. Насправді, у структурах з невеликою вагою, легких для паралелізації та заохочувальних типах завдань децентралізоване навчання демонструє чіткі перспективи застосування. Включаючи, але не обмежуючи: мікронастройка LoRA, завдання після навчання з поведінковою відповідністю, навчання та позначення даних через краудсорсинг, навчання малих базових моделей з контрольованими ресурсами, а також сценарії кооперативного навчання з участю крайових пристроїв. Ці завдання зазвичай мають високу паралельність, низьку зв'язаність і стійкість до гетерогенних обчислювальних потужностей, що робить їх дуже придатними для кооперативного навчання через P2P мережі, протокол Swarm, дистрибутивні оптимізатори тощо.

Святий Грааль Crypto AI: Децентралізація тренування на передовій

Децентралізація тренування класичних проектів аналіз

Наразі в області децентралізованого навчання та федеративного навчання, репрезентативними блокчейн-проектами є Prime Intellect, Pluralis.ai, Gensyn, Nous Research та Flock.io. З точки зору технологічної інноваційності та складності реалізації, Prime Intellect, Nous Research та Pluralis.ai запропонували багато оригінальних досліджень у системній архітектурі та дизайні алгоритмів, представляючи сучасні теоретичні напрямки; в той час як реалізаційні шляхи Gensyn та Flock.io є відносно чіткими, вже можна бачити перші інженерні досягнення. У цій статті буде поетапно проаналізовано основні технології та інженерні архітектури цих п'яти проектів, а також подальше дослідження їх відмінностей та взаємодоповнюючих відносин у децентралізованій системі навчання ШІ.

Prime Intellect: тренувальні траєкторії, що можуть бути підтверджені, посилювальна навчальна кооперативна мережа, піонер.

Prime Intellect прагне створити мережу тренування ШІ без довіри, що дозволяє будь-кому брати участь у тренуванні та отримувати надійні винагороди за свої обчислювальні внески. Prime Intellect сподівається створити децентралізовану систему тренування ШІ з підтверджуваністю, відкритістю та повноцінним механізмом стимулювання за допомогою трьох основних модулів: PRIME-RL + TOPLOC + SHARDCAST.

Структура та ключова модульна цінність протоколу Prime Intellect

Святий грааль Crypto AI: Децентралізація тренування на передовій досліджень

Детальний опис ключових механізмів тренування Prime Intellect

#PRIME-RL: Архітектура завдань декомпозованого асинхронного підсиленого навчання

PRIME-RL є фреймворком моделювання та виконання завдань, розробленим Prime Intellect для децентралізованих навчальних сценаріїв, спеціально створеним для гетерогенних мереж і асинхронних учасників. Він використовує навчання з підкріпленням як пріоритетний адаптаційний об'єкт, структурно декомпозуючи процеси навчання, міркування та завантаження ваг, що дозволяє кожному навчальному вузлу незалежно виконувати цикли завдань локально та співпрацювати через стандартизовані інтерфейси з механізмами верифікації та агрегації. У порівнянні з традиційними процесами навчання з наглядом, PRIME-RL більше підходить для реалізації еластичного навчання в умовах безцентрового розподілу, що знижує складність системи та закладає основу для підтримки паралельних багаторазових завдань і еволюції стратегій.

#TOPLOC:Легка верифікація поведінки тренування

TOPLOC є основним механізмом перевірки навчання, запропонованим Prime Intellect, який використовується для визначення, чи дійсно вузол завершив ефективне навчання стратегії на основі спостережуваних даних. На відміну від важких рішень, таких як ZKML, TOPLOC не залежить від повторного обчислення всієї моделі, а завершить верифікацію легковажної структури, аналізуючи локальну узгодженість між "послідовністю спостережень ↔ оновленням стратегії". Він вперше перетворює поведінкові траєкторії під час навчання на об'єкти, що підлягають перевірці, що є ключовою інновацією для реалізації розподілу навчальних винагород без довіри, пропонуючи реальний шлях до створення перевіряємих, стимулюючих децентралізованих мереж співпраці.

#SHARDCAST: Асиметрична агрегація ваг та протокол поширення

SHARDCAST є протоколом вагового розповсюдження та агрегування, розробленим Prime Intellect, оптимізованим спеціально для асинхронних, обмежених за смугою та змінних станів вузлів реальних мережевих середовищ. Він поєднує механізм gossip-розповсюдження та стратегії локальної синхронізації, що дозволяє кільком вузлам безперервно подавати часткові оновлення в умовах асинхронного стану, реалізуючи прогресивну конвергенцію ваг та багатовимірну еволюцію. У порівнянні з централізованими або синхронними методами AllReduce, SHARDCAST суттєво підвищує масштабованість та стійкість до збоїв децентралізованого навчання, є основою для створення стабільного консенсусу ваг та безперервної тренувальної ітерації.

#OpenDiLoCo:Рідкісний асинхронний комунікаційний фреймворк

OpenDiLoCo є незалежно реалізованою та відкритою системою оптимізації зв’язку, створеною командою Prime Intellect на основі концепції DiLoCo, що була запропонована DeepMind. Вона спеціально призначена для вирішення таких викликів, як обмежена пропускна здатність, гетерогенність пристроїв та нестабільність вузлів, які часто зустрічаються в децентралізованому навчанні. Її архітектура базується на паралельному обробленні даних, шляхом побудови рідких топологій, таких як кільце, розширювач та малий світ, що дозволяє уникнути високих витрат на глобальну синхронізацію, покладаючись лише на сусідні вузли для виконання спільного навчання моделі. Поєднуючи асинхронні оновлення з механізмом відмовостійкості, OpenDiLoCo дозволяє споживчим GPU та крайнім пристроям стабільно брати участь у навчальних завданнях, суттєво підвищуючи доступність глобального співпраці в навчанні, що робить її однією з ключових комунікаційних інфраструктур для побудови децентралізованої навчальної мережі.

#PCCL:Бібліотека синхронного зв'язку

PCCL є легковаговою бібліотекою зв'язку, створеною Prime Intellect для децентралізованого середовища навчання AI, яка має на меті вирішення проблеми адаптації традиційних бібліотек зв'язку в гетерогенних пристроях та мережах з низькою пропускною здатністю. PCCL підтримує розріджену топологію, стиснення градієнтів, синхронізацію з низькою точністю та відновлення з контрольних точок, може працювати на споживчих GPU та нестабільних вузлах, є підґрунтям для асинхронних комунікаційних можливостей протоколу OpenDiLoCo. Це суттєво підвищує толерантність мережі до пропускної здатності та сумісність пристроїв, прокладаючи "остання миля" комунікаційної основи для побудови справжньої відкритої, бездосвідної мережі спільного навчання.

Prime Intellect стимулююча мережа та розподіл ролей

Prime Intellect побудував мережу тренування, що не потребує дозволу, є перевіряємим і має економічний стимули, що дозволяє будь-кому брати участь у завданнях і отримувати винагороди на основі реального внеску. Протокол працює на основі трьох основних ролей:

  • Ініціатор завдання: визначення середовища навчання, початкової моделі, функції винагороди та стандартів перевірки
  • Тренувальний вузол: виконання локального навчання, подання оновлень ваг та спостережуваних траєкторій
  • Вузли перевірки: використання механізму TOPLOC для перевірки справжності навчальної поведінки та участі в розрахунку винагороди та агрегації стратегій

Основний процес угоди включає публікацію завдань, навчання вузлів, перевірку траєкторій, агрегацію ваг та виплату винагород, що складає стимуляційний замкнуте коло навколо "реальної навчальної поведінки".

Святий Грааль Crypto AI: Децентралізація тренування на передовій

INTELLECT-2: Перше публічне підтверджене децентралізоване тренувальне моделі.

Prime Intellect випустила INTELLECT-2 у травні 2025 року, це перша у світі велика модель навчання з підкріпленням, яка була навчена за допомогою асинхронних, без довіри децентралізованих вузлів, з параметрами на рівні 32B. Модель INTELLECT-2 була навчена за допомогою співпраці 100+ гетерогенних вузлів GPU, розташованих на трьох континентах, використовуючи повністю асинхронну архітектуру, час навчання перевищує 400 годин, що демонструє здійсненність та стабільність асинхронної кооперативної мережі. Ця модель не лише є проривом в продуктивності, але й є першим системним впровадженням парадигми "навчання - це консенсус", запропонованої Prime Intellect. INTELLECT-2 інтегрує основні протокольні модулі, такі як PRIME-RL, TOPLOC та SHARDCAST, що знаменує собою перше досягнення відкритості, верифікації та економічних стимулів у процесі навчання децентралізованої навчальної мережі.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • 5
  • Поділіться
Прокоментувати
0/400
GateUser-c802f0e8vip
· 8год тому
Важка промисловість + святий грааль, простими словами, це просто витрачання грошей.
Переглянути оригіналвідповісти на0
not_your_keysvip
· 14год тому
Що хорошого в централізованому ШІ?
Переглянути оригіналвідповісти на0
HodlTheDoorvip
· 14год тому
Тут тренують ШІ?
Переглянути оригіналвідповісти на0
StableNomadvip
· 14год тому
децентралізований штучний інтелект? відчувається як luna 2.0, чесно кажучи... давайте спочатку подивимось на ці ризикові показники
Переглянути оригіналвідповісти на0
ServantOfSatoshivip
· 14год тому
Є дещо цікаве
Переглянути оригіналвідповісти на0
  • Закріпити