Священный Грааль Crypto AI: передовые исследования децентрализованного обучения
В полной цепочке создания ценностей AI этап обучения модели является наиболее ресурсозатратным и с высоким технологическим порогом, что напрямую определяет предельные возможности модели и фактическую эффективность применения. В отличие от легковесных вызовов на этапе вывода, процесс обучения требует постоянных затрат больших вычислительных мощностей, сложных процессов обработки данных и поддержки высокоинтенсивных оптимизационных алгоритмов, что делает его настоящей "тяжелой промышленностью" в строительстве AI-систем. С точки зрения архитектурных парадигм, способы обучения можно разделить на четыре категории: централизованное обучение, распределенное обучение, федеративное обучение и децентрализованное обучение, которое будет основным предметом обсуждения в данной статье.
Централизованное обучение является наиболее распространенным традиционным методом, который выполняется единственным учреждением в локальном высокопроизводительном кластере, охватывая весь процесс обучения: от аппаратного обеспечения, программного обеспечения низкого уровня, системы планирования кластера до всех компонентов обучающего фреймворка, которые координируются единой контрольной системой. Эта архитектура глубокой координации позволяет оптимизировать эффективность совместного использования памяти, синхронизации градиентов и механизмов отказоустойчивости, что делает ее очень подходящей для обучения крупномасштабных моделей, таких как GPT и Gemini, обладая высокой эффективностью и контролируемыми ресурсами. Однако одновременно существуют проблемы, такие как монополия на данные, барьеры для ресурсов, потребление энергии и риски единой точки отказа.
Распределенное обучение является основным способом обучения больших моделей в настоящее время. Его суть состоит в том, чтобы разбить задачу обучения модели на части и распределить их на несколько машин для совместного выполнения, чтобы преодолеть ограничения вычислений и хранения на одном компьютере. Несмотря на то, что физически он обладает "распределенными" характеристиками, в целом он по-прежнему контролируется и координируется централизованными учреждениями, часто работает в среде высокоскоростной локальной сети, используя технологии высокоскоростной межсоединительной шины NVLink для единой координации всех подзадач главным узлом. Основные методы включают:
Параллельные данные: каждый узел обучает разные данные, параметры общие, необходимо сопоставить веса модели
Модельное параллелизм: развертывание различных частей модели на разных узлах для достижения высокой масштабируемости
Параллельные каналы: поэтапное последовательное выполнение, повышение пропускной способности
Тензорное параллелизм: тонкая сегментация матричных вычислений, повышение степени параллелизма
Распределенное обучение — это комбинация "централизованного контроля + распределенного выполнения", аналогично тому, как один и тот же начальник дистанционно координирует работу нескольких сотрудников в разных "офисах" для выполнения задачи. На данный момент почти все основные большие модели обучаются именно таким образом.
Децентрализация тренировки представляет собой более открытый и устойчивый к цензуре путь в будущее. Его ключевыми характеристиками являются: множество недоверяющих друг другу узлов, которые совместно выполняют задачи тренировки без центрального координатора, обычно с помощью протоколов для распределения задач и сотрудничества, а также с использованием механизмов криптостимулов для обеспечения честности вклада. Основные вызовы, с которыми сталкивается эта модель, включают:
Гетерогенность устройств и сложность разделения: высокая сложность координации гетерогенных устройств, низкая эффективность разделения задач
Отсутствие доверенного выполнения: недостаток доверенной вычислительной среды затрудняет проверку того, действительно ли узлы участвуют в вычислении.
Недостаток единой координации: отсутствие центрального диспетчера, распределение задач, сложные механизмы отката при сбоях
Децентрализация тренировки может пониматься как: группа глобальных волонтеров, каждый из которых вносит свою вычислительную мощность для совместной тренировки модели, но "действительно осуществимая крупномасштабная децентрализация тренировки" все еще является системной инженерной задачей, затрагивающей архитектуру системы, протоколы связи, криптографическую безопасность, экономические механизмы, валидацию моделей и другие аспекты, однако возможность "совместной эффективности + стимулирования честности + правильных результатов" все еще находится на ранней стадии прототипирования.
Федеративное обучение как переходная форма между распределенной и Децентрализация, подчеркивает локальное хранение данных и централизованную агрегацию параметров модели, подходит для сценариев, акцентирующих внимание на соблюдении конфиденциальности. Федеративное обучение обладает инженерной структурой распределенного обучения и локальными координационными возможностями, одновременно имея преимущества распределенных данных в Децентрализация, но все же зависит от доверенного координатора и не обладает полностью открытыми и устойчивыми к цензуре характеристиками. Его можно рассматривать как "контролируемую Децентрализация" в сценариях соблюдения конфиденциальности, где задачи обучения, структура доверия и механизмы связи являются относительно умеренными, что делает его более подходящим в качестве переходной архитектуры для промышленного развертывания.
Децентрализация тренировки: границы, возможности и реальные пути
С точки зрения парадигмы обучения, Децентрализация обучения не подходит для всех типов задач. В некоторых сценариях, из-за сложной структуры задач, высоких требований к ресурсам или больших сложностей в сотрудничестве, она изначально не подходит для эффективного выполнения между гетерогенными, доверительными узлами. Например, обучение больших моделей часто зависит от высокой видеопамяти, низкой задержки и высокой пропускной способности, что затрудняет эффективное разделение и синхронизацию в открытой сети; задачи, сильно ограниченные конфиденциальностью данных и суверенитетом, ограничены правовыми и этическими ограничениями и не могут быть открыто поделены; а задачи, лишенные основы для совместного сотрудничества, не имеют внешних стимулов для участия. Эти границы совместно составляют реальные ограничения текущего Децентрализованного обучения.
Но это не означает, что Децентрализация обучения является ложной гипотезой. На самом деле, в задачах с легкой структурой, простых для параллелизации и мотивируемых, Децентрализация обучения демонстрирует явные перспективы применения. Включая, но не ограничиваясь: LoRA дообучение, задачи постобучения с поведением (, такие как RLHF, DPO ), задачи по обучению и аннотированию данных с краудсорсингом, обучение малых базовых моделей с контролируемыми ресурсами, а также сценарии совместного обучения с участием периферийных устройств. Эти задачи обычно обладают высокой параллельностью, низкой связностью и способны терпеть гетерогенные вычислительные мощности, что делает их очень подходящими для совместного обучения через P2P сети, протоколы Swarm, распределенные оптимизаторы и другие методы.
Децентрализация тренировки классических проектов анализ
В настоящее время среди представительных блокчейн-проектов в области Децентрализации обучения и федеративного обучения можно выделить Prime Intellect, Pluralis.ai, Gensyn, Nous Research и Flock.io. С точки зрения технологической инновационности и сложности реализации, Prime Intellect, Nous Research и Pluralis.ai предложили множество оригинальных исследований в области системной архитектуры и алгоритмического дизайна, представляя передовые направления теоретических исследований; в то время как пути реализации Gensyn и Flock.io относительно ясны, и уже можно наблюдать начальный прогресс в инженерной реализации. В данной статье последовательно будут проанализированы ключевые технологии и архитектуры инженерии этих пяти проектов, а также дополнительно исследуются их различия и взаимодополняющие отношения в системе Децентрализации AI-тренировок.
Prime Intellect: Проверяемая траектория обучения для сети совместного обучения
Prime Intellect стремится создать сеть обучения ИИ, не требующую доверия, позволяя каждому участвовать в обучении и получать надежные вознаграждения за свои вычислительные вклады. Prime Intellect надеется создать децентрализованную систему обучения ИИ с проверяемостью, открытостью и полноценным механизмом стимулов с помощью трех основных модулей: PRIME-RL, TOPLOC и SHARDCAST.
01、Структура протокольного стека Prime Intellect и ценность ключевых модулей
02, Подробное объяснение ключевых механизмов тренировки Prime Intellect
#PRIME-RL: Архитектура задач асинхронного усиленного обучения с декомпозицией
PRIME-RL — это рамки моделирования и исполнения задач, разработанные Prime Intellect для децентрализованных тренировочных сцен, специально предназначенные для гетерогенных сетей и асинхронного участия. Он использует усиленное обучение в качестве приоритетного адаптируемого объекта, структурно разъединяя процессы тренировки, вывода и загрузки весов, что позволяет каждому тренировочному узлу независимо выполнять циклы задач на локальном уровне и сотрудничать через стандартизированные интерфейсы с механизмами валидации и агрегации. По сравнению с традиционными процессами контролируемого обучения, PRIME-RL более подходит для реализации эластичного обучения в средах без централизованного управления, что снижает сложность системы и закладывает основу для поддержки параллельных многозадачности и эволюции стратегий.
#TOPLOC:Легковесный механизм проверки поведения тренировки
TOPLOC — это ядро механизма проверки обучаемости, предложенное Prime Intellect, используемое для определения того, завершил ли узел эффективное обучение стратегии на основе наблюдаемых данных. В отличие от тяжелых решений, таких как ZKML, TOPLOC не зависит от полной переработки модели, а выполняет верификацию легковесной структуры, анализируя локально согласованные траектории между "последовательностью наблюдений ↔ обновлением стратегии". Он впервые превращает поведенческие траектории в процессе обучения в проверяемые объекты, что является ключевой инновацией для реализации распределения вознаграждений за обучение без доверия и предоставляет жизнеспособный путь для создания аудитируемой и мотивирующей сети децентрализованного совместного обучения.
#SHARDCAST: Асинхронная агрегация весов и протокол распространения
SHARDCAST — это протокол распространения и агрегации весов, разработанный Prime Intellect, оптимизированный для реальных сетевых условий с асинхронной работой, ограниченной пропускной способностью и изменчивым состоянием узлов. Он сочетает механизмы распространения gossip и локальные стратегии синхронизации, позволяя нескольким узлам продолжать отправлять частичные обновления в условиях несинхронизированного состояния, что обеспечивает постепенное сходимость весов и эволюцию с несколькими версиями. По сравнению с централизованными или синхронными методами AllReduce, SHARDCAST значительно повышает масштабируемость и отказоустойчивость децентрализованного обучения и является основной основой для построения стабильного консенсуса весов и непрерывной итерации обучения.
OpenDiLoCo — это независимая реализация и открытая коммуникационная оптимизационная структура, разработанная командой Prime Intellect на основе концепции DiLoCo, предложенной DeepMind, специально предназначенная для решения распространённых проблем в децентрализованном обучении, таких как ограниченная пропускная способность, гетерогенные устройства и нестабильные узлы. Его архитектура основана на параллельной обработке данных и использует разреженные топологические структуры, такие как Ring, Expander и Small-World, чтобы избежать высоких затрат на глобальную синхронизацию, полагаясь только на локальных соседних узлов для выполнения совместного обучения модели. В сочетании с асинхронным обновлением и механизмом восстановления после сбоев, OpenDiLoCo позволяет потребительским GPU и периферийным устройствам стабильно участвовать в обучающих задачах, значительно повышая возможность участия в глобальном совместном обучении и являясь одной из ключевых коммуникационных инфраструктур для построения децентрализованных обучающих сетей.
#PCCL: Библиотека совместной связи
PCCL — это легковесная библиотека связи, разработанная Prime Intellect для децентрализованной среды обучения ИИ, направленная на решение проблем адаптации традиционных библиотек связи в гетерогенных устройствах и сетях с низкой пропускной способностью. PCCL поддерживает разреженные топологии, сжатие градиентов, синхронизацию с низкой точностью и восстановление с контрольных точек, может работать на потребительских GPU и нестабильных узлах, является основным компонентом, поддерживающим асинхронные коммуникационные возможности протокола OpenDiLoCo. Она значительно повышает пропускную способность сети для обучения и совместимость устройств, прокладывая "последнюю милю" связи для создания действительно открытой, не требующей доверия сети совместного обучения.
03, Сеть стимулирования и ролевое подразделение Prime Intellect
Prime Intellect создал сеть обучения, которая не требует разрешений, может быть проверена и имеет экономические стимулы, позволяя каждому участвовать в задачах и получать вознаграждение за реальный вклад. Протокол работает на основе трех основных ролей:
Инициатор задачи: определение обучающей среды, начальной модели, функции вознаграждения и стандартов проверки
Узел тренировки: выполнение локальной тренировки, отправка обновлений весов и наблюдательных траекторий
Узлы проверки: использование механизма TOPLOC для подтверждения подлинности учебного поведения и участия в расчетах вознаграждения и агрегации стратегий
Ядро процесса соглашения включает в себя публикацию задач, обучение узлов, проверку траекторий, агрегацию весов (SHARDCAST) и распределение вознаграждений, образуя замкнутый цикл стимулов вокруг "реального обучающего поведения".
04, INTELLECT-2: Выпуск первой проверяемой Децентрализация модели обучения
Prime Intellect выпустила INTELLECT-2 в мае 2025 года, это первая в мире большая модель обучения с подкреплением, созданная с помощью асинхронного, доверия не требующего, Децентрализация узлового сотрудничества, с размером параметров 32B. Модель INTELLECT-2 была обучена с помощью более 100 гетерогенных узлов GPU, расположенных на трех континентах, использующих полностью асинхронную архитектуру, время обучения превысило 400 часов, продемонстрировав осуществимость и стабильность асинхронной сетевой кооперации. Эта модель не только представляет собой прорыв в производительности, но и является первой системной реализацией парадигмы Prime Intellect "обучение как консенсус". INTELLECT-2 интегрирует ключевые протокольные модули PRIME-RL, TOPLOC и SHARDCAST, что знаменует собой Децентрализация.
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
16 Лайков
Награда
16
7
Поделиться
комментарий
0/400
mev_me_maybe
· 4ч назад
Настоящее обучение и дорогое, и медленное. Кто это выдержит?
Посмотреть ОригиналОтветить0
WhaleWatcher
· 4ч назад
Без реформы входной платы о Децентрализации и говорить не о чем
Посмотреть ОригиналОтветить0
MissedAirdropBro
· 4ч назад
Снова собираюсь построить большую партию ригов для майнинга и разбогатеть.
Посмотреть ОригиналОтветить0
WagmiWarrior
· 4ч назад
Этот вкус просто отличный.
Посмотреть ОригиналОтветить0
SellTheBounce
· 4ч назад
Ах, еще одна возможность для капиталистов, по сути не отличается от прошлого цикла.
Посмотреть ОригиналОтветить0
CommunitySlacker
· 4ч назад
Заголовок: «Децентрализация AI-тренировок: Prime Intellect и Pluralis на переднем крае»
Как насчет этого? ? Централизованная тренировка убивает медленные
Децентрализация AI обучения исследования: Prime Intellect и Pluralis ведут на переднем крае
Священный Грааль Crypto AI: передовые исследования децентрализованного обучения
В полной цепочке создания ценностей AI этап обучения модели является наиболее ресурсозатратным и с высоким технологическим порогом, что напрямую определяет предельные возможности модели и фактическую эффективность применения. В отличие от легковесных вызовов на этапе вывода, процесс обучения требует постоянных затрат больших вычислительных мощностей, сложных процессов обработки данных и поддержки высокоинтенсивных оптимизационных алгоритмов, что делает его настоящей "тяжелой промышленностью" в строительстве AI-систем. С точки зрения архитектурных парадигм, способы обучения можно разделить на четыре категории: централизованное обучение, распределенное обучение, федеративное обучение и децентрализованное обучение, которое будет основным предметом обсуждения в данной статье.
Централизованное обучение является наиболее распространенным традиционным методом, который выполняется единственным учреждением в локальном высокопроизводительном кластере, охватывая весь процесс обучения: от аппаратного обеспечения, программного обеспечения низкого уровня, системы планирования кластера до всех компонентов обучающего фреймворка, которые координируются единой контрольной системой. Эта архитектура глубокой координации позволяет оптимизировать эффективность совместного использования памяти, синхронизации градиентов и механизмов отказоустойчивости, что делает ее очень подходящей для обучения крупномасштабных моделей, таких как GPT и Gemini, обладая высокой эффективностью и контролируемыми ресурсами. Однако одновременно существуют проблемы, такие как монополия на данные, барьеры для ресурсов, потребление энергии и риски единой точки отказа.
Распределенное обучение является основным способом обучения больших моделей в настоящее время. Его суть состоит в том, чтобы разбить задачу обучения модели на части и распределить их на несколько машин для совместного выполнения, чтобы преодолеть ограничения вычислений и хранения на одном компьютере. Несмотря на то, что физически он обладает "распределенными" характеристиками, в целом он по-прежнему контролируется и координируется централизованными учреждениями, часто работает в среде высокоскоростной локальной сети, используя технологии высокоскоростной межсоединительной шины NVLink для единой координации всех подзадач главным узлом. Основные методы включают:
Распределенное обучение — это комбинация "централизованного контроля + распределенного выполнения", аналогично тому, как один и тот же начальник дистанционно координирует работу нескольких сотрудников в разных "офисах" для выполнения задачи. На данный момент почти все основные большие модели обучаются именно таким образом.
Децентрализация тренировки представляет собой более открытый и устойчивый к цензуре путь в будущее. Его ключевыми характеристиками являются: множество недоверяющих друг другу узлов, которые совместно выполняют задачи тренировки без центрального координатора, обычно с помощью протоколов для распределения задач и сотрудничества, а также с использованием механизмов криптостимулов для обеспечения честности вклада. Основные вызовы, с которыми сталкивается эта модель, включают:
Децентрализация тренировки может пониматься как: группа глобальных волонтеров, каждый из которых вносит свою вычислительную мощность для совместной тренировки модели, но "действительно осуществимая крупномасштабная децентрализация тренировки" все еще является системной инженерной задачей, затрагивающей архитектуру системы, протоколы связи, криптографическую безопасность, экономические механизмы, валидацию моделей и другие аспекты, однако возможность "совместной эффективности + стимулирования честности + правильных результатов" все еще находится на ранней стадии прототипирования.
Федеративное обучение как переходная форма между распределенной и Децентрализация, подчеркивает локальное хранение данных и централизованную агрегацию параметров модели, подходит для сценариев, акцентирующих внимание на соблюдении конфиденциальности. Федеративное обучение обладает инженерной структурой распределенного обучения и локальными координационными возможностями, одновременно имея преимущества распределенных данных в Децентрализация, но все же зависит от доверенного координатора и не обладает полностью открытыми и устойчивыми к цензуре характеристиками. Его можно рассматривать как "контролируемую Децентрализация" в сценариях соблюдения конфиденциальности, где задачи обучения, структура доверия и механизмы связи являются относительно умеренными, что делает его более подходящим в качестве переходной архитектуры для промышленного развертывания.
Децентрализация тренировки: границы, возможности и реальные пути
С точки зрения парадигмы обучения, Децентрализация обучения не подходит для всех типов задач. В некоторых сценариях, из-за сложной структуры задач, высоких требований к ресурсам или больших сложностей в сотрудничестве, она изначально не подходит для эффективного выполнения между гетерогенными, доверительными узлами. Например, обучение больших моделей часто зависит от высокой видеопамяти, низкой задержки и высокой пропускной способности, что затрудняет эффективное разделение и синхронизацию в открытой сети; задачи, сильно ограниченные конфиденциальностью данных и суверенитетом, ограничены правовыми и этическими ограничениями и не могут быть открыто поделены; а задачи, лишенные основы для совместного сотрудничества, не имеют внешних стимулов для участия. Эти границы совместно составляют реальные ограничения текущего Децентрализованного обучения.
Но это не означает, что Децентрализация обучения является ложной гипотезой. На самом деле, в задачах с легкой структурой, простых для параллелизации и мотивируемых, Децентрализация обучения демонстрирует явные перспективы применения. Включая, но не ограничиваясь: LoRA дообучение, задачи постобучения с поведением (, такие как RLHF, DPO ), задачи по обучению и аннотированию данных с краудсорсингом, обучение малых базовых моделей с контролируемыми ресурсами, а также сценарии совместного обучения с участием периферийных устройств. Эти задачи обычно обладают высокой параллельностью, низкой связностью и способны терпеть гетерогенные вычислительные мощности, что делает их очень подходящими для совместного обучения через P2P сети, протоколы Swarm, распределенные оптимизаторы и другие методы.
Децентрализация тренировки классических проектов анализ
В настоящее время среди представительных блокчейн-проектов в области Децентрализации обучения и федеративного обучения можно выделить Prime Intellect, Pluralis.ai, Gensyn, Nous Research и Flock.io. С точки зрения технологической инновационности и сложности реализации, Prime Intellect, Nous Research и Pluralis.ai предложили множество оригинальных исследований в области системной архитектуры и алгоритмического дизайна, представляя передовые направления теоретических исследований; в то время как пути реализации Gensyn и Flock.io относительно ясны, и уже можно наблюдать начальный прогресс в инженерной реализации. В данной статье последовательно будут проанализированы ключевые технологии и архитектуры инженерии этих пяти проектов, а также дополнительно исследуются их различия и взаимодополняющие отношения в системе Децентрализации AI-тренировок.
Prime Intellect: Проверяемая траектория обучения для сети совместного обучения
Prime Intellect стремится создать сеть обучения ИИ, не требующую доверия, позволяя каждому участвовать в обучении и получать надежные вознаграждения за свои вычислительные вклады. Prime Intellect надеется создать децентрализованную систему обучения ИИ с проверяемостью, открытостью и полноценным механизмом стимулов с помощью трех основных модулей: PRIME-RL, TOPLOC и SHARDCAST.
01、Структура протокольного стека Prime Intellect и ценность ключевых модулей
02, Подробное объяснение ключевых механизмов тренировки Prime Intellect
#PRIME-RL: Архитектура задач асинхронного усиленного обучения с декомпозицией
PRIME-RL — это рамки моделирования и исполнения задач, разработанные Prime Intellect для децентрализованных тренировочных сцен, специально предназначенные для гетерогенных сетей и асинхронного участия. Он использует усиленное обучение в качестве приоритетного адаптируемого объекта, структурно разъединяя процессы тренировки, вывода и загрузки весов, что позволяет каждому тренировочному узлу независимо выполнять циклы задач на локальном уровне и сотрудничать через стандартизированные интерфейсы с механизмами валидации и агрегации. По сравнению с традиционными процессами контролируемого обучения, PRIME-RL более подходит для реализации эластичного обучения в средах без централизованного управления, что снижает сложность системы и закладывает основу для поддержки параллельных многозадачности и эволюции стратегий.
#TOPLOC:Легковесный механизм проверки поведения тренировки
TOPLOC — это ядро механизма проверки обучаемости, предложенное Prime Intellect, используемое для определения того, завершил ли узел эффективное обучение стратегии на основе наблюдаемых данных. В отличие от тяжелых решений, таких как ZKML, TOPLOC не зависит от полной переработки модели, а выполняет верификацию легковесной структуры, анализируя локально согласованные траектории между "последовательностью наблюдений ↔ обновлением стратегии". Он впервые превращает поведенческие траектории в процессе обучения в проверяемые объекты, что является ключевой инновацией для реализации распределения вознаграждений за обучение без доверия и предоставляет жизнеспособный путь для создания аудитируемой и мотивирующей сети децентрализованного совместного обучения.
#SHARDCAST: Асинхронная агрегация весов и протокол распространения
SHARDCAST — это протокол распространения и агрегации весов, разработанный Prime Intellect, оптимизированный для реальных сетевых условий с асинхронной работой, ограниченной пропускной способностью и изменчивым состоянием узлов. Он сочетает механизмы распространения gossip и локальные стратегии синхронизации, позволяя нескольким узлам продолжать отправлять частичные обновления в условиях несинхронизированного состояния, что обеспечивает постепенное сходимость весов и эволюцию с несколькими версиями. По сравнению с централизованными или синхронными методами AllReduce, SHARDCAST значительно повышает масштабируемость и отказоустойчивость децентрализованного обучения и является основной основой для построения стабильного консенсуса весов и непрерывной итерации обучения.
#OpenDiLoCo: Разреженная асинхронная коммуникационная рамка
OpenDiLoCo — это независимая реализация и открытая коммуникационная оптимизационная структура, разработанная командой Prime Intellect на основе концепции DiLoCo, предложенной DeepMind, специально предназначенная для решения распространённых проблем в децентрализованном обучении, таких как ограниченная пропускная способность, гетерогенные устройства и нестабильные узлы. Его архитектура основана на параллельной обработке данных и использует разреженные топологические структуры, такие как Ring, Expander и Small-World, чтобы избежать высоких затрат на глобальную синхронизацию, полагаясь только на локальных соседних узлов для выполнения совместного обучения модели. В сочетании с асинхронным обновлением и механизмом восстановления после сбоев, OpenDiLoCo позволяет потребительским GPU и периферийным устройствам стабильно участвовать в обучающих задачах, значительно повышая возможность участия в глобальном совместном обучении и являясь одной из ключевых коммуникационных инфраструктур для построения децентрализованных обучающих сетей.
#PCCL: Библиотека совместной связи
PCCL — это легковесная библиотека связи, разработанная Prime Intellect для децентрализованной среды обучения ИИ, направленная на решение проблем адаптации традиционных библиотек связи в гетерогенных устройствах и сетях с низкой пропускной способностью. PCCL поддерживает разреженные топологии, сжатие градиентов, синхронизацию с низкой точностью и восстановление с контрольных точек, может работать на потребительских GPU и нестабильных узлах, является основным компонентом, поддерживающим асинхронные коммуникационные возможности протокола OpenDiLoCo. Она значительно повышает пропускную способность сети для обучения и совместимость устройств, прокладывая "последнюю милю" связи для создания действительно открытой, не требующей доверия сети совместного обучения.
03, Сеть стимулирования и ролевое подразделение Prime Intellect
Prime Intellect создал сеть обучения, которая не требует разрешений, может быть проверена и имеет экономические стимулы, позволяя каждому участвовать в задачах и получать вознаграждение за реальный вклад. Протокол работает на основе трех основных ролей:
Ядро процесса соглашения включает в себя публикацию задач, обучение узлов, проверку траекторий, агрегацию весов (SHARDCAST) и распределение вознаграждений, образуя замкнутый цикл стимулов вокруг "реального обучающего поведения".
04, INTELLECT-2: Выпуск первой проверяемой Децентрализация модели обучения
Prime Intellect выпустила INTELLECT-2 в мае 2025 года, это первая в мире большая модель обучения с подкреплением, созданная с помощью асинхронного, доверия не требующего, Децентрализация узлового сотрудничества, с размером параметров 32B. Модель INTELLECT-2 была обучена с помощью более 100 гетерогенных узлов GPU, расположенных на трех континентах, использующих полностью асинхронную архитектуру, время обучения превысило 400 часов, продемонстрировав осуществимость и стабильность асинхронной сетевой кооперации. Эта модель не только представляет собой прорыв в производительности, но и является первой системной реализацией парадигмы Prime Intellect "обучение как консенсус". INTELLECT-2 интегрирует ключевые протокольные модули PRIME-RL, TOPLOC и SHARDCAST, что знаменует собой Децентрализация.
Как насчет этого? ? Централизованная тренировка убивает медленные