Дослідження Децентралізація AI тренування: від Prime Intellect до передового досвіду Pluralis

Святе грааль Crypto AI: передові дослідження децентралізованого навчання

У повному价值链і AI, навчання моделі є найбільш витратним з точки зору ресурсів і має найвищий технічний поріг, що безпосередньо визначає верхню межу можливостей моделі та фактичну ефективність застосування. У порівнянні з легковаговими запитами на етапі інференції, процес навчання потребує постійних великих обсягів обчислювальної потужності, складних процесів обробки даних та підтримки високоефективних алгоритмів оптимізації, що робить його справжньою "важкою промисловістю" для систем AI. З точки зору архітектурних парадигм, способи навчання можна розділити на чотири категорії: централізоване навчання, розподілене навчання, федеративне навчання та децентралізоване навчання, яке є основною темою даної статті.

Святий Грааль Crypto AI: Децентралізація навчання на передовій

Концентраційне навчання є найпоширенішим традиційним способом, який виконується єдиною установою в локальному високопродуктивному кластері, що охоплює всі етапи навчання: від апаратного забезпечення, базового програмного забезпечення, системи управління кластером до всіх компонентів навчальної рамки, які координуються єдиною контрольною системою. Така глибоко кооперативна архітектура забезпечує оптимальну ефективність спільного використання пам'яті, синхронізації градієнтів та механізмів відмовостійкості, що робить її дуже підходящою для навчання великих моделей, таких як GPT, Gemini, з перевагами високої ефективності та контрольованих ресурсів, але водночас існують проблеми монополії даних, бар'єрів для ресурсів, енергетичних витрат і ризику одиничної точки.

Розподілене навчання є основним способом навчання великих моделей, його суть полягає в розподілі завдань навчання моделі на кілька машин для спільного виконання, щоб подолати обмеження обчислення та зберігання на одній машині. Хоча фізично має "Децентралізація" характеристики, але в цілому все ще контролюється централізованими організаціями щодо розподілу та синхронізації, зазвичай працює в середовищі високошвидкісної локальної мережі, через технологію високошвидкісної послідовної шини NVLink, головний вузол координує всі підзадачі. Основні методи включають:

  • Паралельність даних: кожен вузол тренує різні дані, параметри діляться, потрібно узгодити ваги моделі
  • Паралелізм моделей: розміщення різних частин моделі на різних вузлах для досягнення високої розширюваності
  • Паралельні канали: поетапне послідовне виконання, підвищення пропускної здатності
  • Тензорна паралельність: детальне розподілення матричних обчислень, підвищення паралельної гранулярності

Розподілене навчання є поєднанням "централізоване управління + розподілене виконання", аналогічно тому, як один і той же бос дистанційно керує співпрацею кількох "офісних" працівників для виконання завдання. Наразі майже всі основні великі моделі навчаються цим способом.

Святий Грааль Crypto AI: Децентралізація навчання на передовій

Децентралізація тренування означає більш відкритий і стійкий до цензури шлях у майбутнє. Його основна характеристика полягає в тому, що кілька недовірливих вузлів співпрацюють для виконання навчальних завдань без центрального координатора, зазвичай через протокол, що керує розподілом завдань та співпрацею, і за допомогою механізму крипто-стимулів для забезпечення добросовісності внесків. Основні виклики, з якими стикається ця модель, включають:

  • Гетерогенність пристроїв та складність розподілу: висока складність координації гетерогенних пристроїв, низька ефективність розподілу завдань
  • Вузьке місце в ефективності зв'язку: нестабільність мережевого зв'язку, явне вузьке місце в синхронізації градієнтів
  • Відсутність надійного виконання: нестача надійного середовища виконання, важко перевірити, чи дійсно вузли беруть участь у обчисленнях.
  • Відсутність єдиної координації: немає центрального диспетчера, розподіл завдань та механізм відкату помилок складні

Децентралізація тренування можна розуміти як: група глобальних волонтерів, які спільно вносять обчислювальну потужність для навчання моделі, але "справжнє життєздатне великомасштабне децентралізоване тренування" все ще є системною інженерною проблемою, що охоплює кілька рівнів, включаючи системну архітектуру, комунікаційні протоколи, криптографічну безпеку, економічні механізми, перевірку моделей тощо, але питання "співпраця ефективна + стимулювання чесності + правильність результатів" все ще перебуває на стадії ранніх прототипів.

Федеративне навчання, як перехідна форма між розподіленістю та децентралізацією, підкреслює збереження даних локально та централізоване агрегування параметрів моделі, що підходить для сценаріїв, які акцентують увагу на відповідності вимогам конфіденційності. Федеративне навчання має інженерну структуру розподіленого навчання та локальні можливості співпраці, одночасно володіючи перевагами розподілених даних децентралізованого навчання, але все ще залежить від надійних координаторів і не має повністю відкритих та стійких до цензури характеристик. Його можна розглядати як "контрольовану децентралізацію" в умовах дотримання конфіденційності, з відносно м'якими вимогами до навчальних завдань, структур довіри та механізмів зв'язку, що робить його більш придатним для промислових перехідних архітектур.

Децентралізація тренування: межі, можливості та реальні шляхи

З точки зору навчальної парадигми, Децентралізація навчання не підходить для всіх типів завдань. У деяких сценаріях, через складність структури завдання, надзвичайно високі вимоги до ресурсів або складність співпраці, вона природним чином не підходить для ефективного виконання між гетерогенними, недовіреними вузлами. Наприклад, навчання великих моделей зазвичай залежить від високої пам'яті, низької затримки та високої пропускної здатності, що ускладнює ефективний розподіл та синхронізацію в відкритій мережі; завдання з сильною конфіденційністю даних та обмеженнями суверенітету обмежені юридичною відповідністю та етичними нормами, що унеможливлює відкритий обмін; а завдання, що не мають основи для стимулювання співпраці, позбавлені зовнішнього мотиваційного впливу. Ці межі спільно формують реальні обмеження сучасного Децентралізованого навчання.

Але це не означає, що децентралізоване навчання є хибним твердженням. Насправді, в легких структурах, які легко паралелізуються та можуть бути стимульовані, децентралізоване навчання демонструє чіткі перспективи застосування. Сюди входять, але не обмежуються: донавчання LoRA, завдання після навчання з поведінковою вирівнюванням, завдання навчання та маркування з краудсорсингом даних, навчання малих базових моделей з контрольованими ресурсами, а також сценарії кооперативного навчання з участю крайових пристроїв. Ці завдання зазвичай мають високу паралельність, низьку зв'язаність і толерантність до гетерогенної обчислювальної потужності, що робить їх дуже придатними для кооперативного навчання через P2P мережі, протокол Swarm, розподілені оптимізатори та інші способи.

Крипто AI святий грааль: Децентралізація навчання на передовій

Децентралізація тренування класичних проектів解析

Наразі в передових сферах децентралізованого навчання та федеративного навчання, представницькі проекти блокчейн включають Prime Intellect, Pluralis.ai, Gensyn, Nous Research та Flock.io. З точки зору технологічної інноваційності та складності інженерної реалізації, Prime Intellect, Nous Research та Pluralis.ai запропонували чимало оригінальних досліджень у системній архітектурі та проектуванні алгоритмів, що представляє передові напрямки сучасних теоретичних досліджень; тоді як реалізаційні шляхи Gensyn та Flock.io є відносно зрозумілими, вже можна спостерігати початковий інженерний прогрес. У цій статті буде поетапно розглянуто основні технології та інженерні архітектури цих п'яти проектів, а також подальше обговорення їхніх відмінностей та взаємодоповнюючих відносин у децентралізованій системі AI-навчання.

Prime Intellect: Тренувальна траєкторія, що може бути перевірена, посилена навчальна кооперативна мережа-попередник

Prime Intellect прагне створити мережу навчання ШІ, яка не потребує довіри, дозволяючи кожному брати участь у навчанні та отримувати надійні винагороди за свій обчислювальний внесок. Prime Intellect сподівається побудувати систему децентралізованого навчання ШІ з трьох основних модулів: PRIME-RL + TOPLOC + SHARDCAST, яка має верифікацію, відкритість та повноцінний механізм стимулювання.

01、Структура протоколу Prime Intellect та цінність ключових модулів

Святий Грааль Crypto AI: Децентралізація тренування на передньому краї досліджень

02, Детальний опис ключових механізмів навчання Prime Intellect

#PRIME-RL: Архітектура завдань асинхронного підкріплювального навчання з декомпозицією

PRIME-RL є фреймворком моделювання та виконання завдань, розробленим Prime Intellect для децентралізованих навчальних сценаріїв, спеціально спроектованим для гетерогенних мереж та асинхронної участі. Він використовує підкріплене навчання як пріоритетний адаптивний об'єкт, структурно декомпонуючи процеси навчання, інференції та завантаження ваг, що дозволяє кожному навчальному вузлу незалежно завершувати цикли завдань на місці та співпрацювати через стандартизовані інтерфейси з механізмами валідації та агрегації. У порівнянні з традиційним процесом контрольованого навчання, PRIME-RL краще підходить для реалізації еластичного навчання в умовах безцентрового керування, що знижує складність системи та закладає основу для підтримки паралельних багатоцільових завдань та еволюції стратегій.

#TOPLOC:Легка перевірка механізмів навчальної поведінки

TOPLOC є ядром механізму верифікації навчання, запропонованим Prime Intellect, який використовується для визначення, чи дійсно вузол завершив ефективне навчання стратегії на основі спостережуваних даних. На відміну від важких рішень, таких як ZKML, TOPLOC не покладається на повторний розрахунок всієї моделі, а аналізує локальні траєкторії узгодженості між "послідовністю спостережень ↔ оновленням стратегії" для завершення верифікації легковагової структури. Вперше він перетворює траєкторії поведінки під час навчання на верифіковані об'єкти, що є ключовою інновацією для реалізації розподілу винагороди за навчання без довіри, що забезпечує здійсненний шлях для створення аудиторських та стимулюючих мереж децентралізованого співпраці.

#SHARDCAST: Асинхронна вага агрегації та поширення протоколу

SHARDCAST є протоколом важільного поширення та агрегації, розробленим Prime Intellect, спеціально оптимізованим для асинхронних, обмежених за пропускною здатністю та змінних станів вузлів у реальних мережевих середовищах. Він поєднує механізм gossip-поширення та локальні стратегії синхронізації, що дозволяє кільком вузлам у різних станах синхронізації продовжувати надсилати часткові оновлення, досягаючи прогресивної конвергенції ваг та еволюції багатьох версій. У порівнянні з централізованими або синхронізованими методами AllReduce, SHARDCAST суттєво підвищує масштабованість та стійкість до помилок децентралізованого навчання, є основою для побудови стабільного консенсусу ваг та безперервної ітерації навчання.

#OpenDiLoCo:Рідкісний асинхронний комунікаційний фреймворк

OpenDiLoCo є комунікаційним оптимізаційним фреймворком, незалежно реалізованим та відкритим від Prime Intellect команди на основі концепції DiLoCo, запропонованої DeepMind, спеціально розробленим для вирішення таких викликів, як обмежена пропускна здатність, гетерогенність пристроїв та нестабільність вузлів, що часто виникають під час децентралізованого навчання. Його архітектура базується на паралелізмі даних, шляхом побудови розріджених топологій, таких як Кільце, Розширювач, Малий світ, що дозволяє уникнути високих витрат на комунікацію через глобальну синхронізацію, покладаючись лише на сусідні локальні вузли для виконання кооперативного навчання моделі. Поєднуючи асинхронне оновлення та механізм відмовостійкості, OpenDiLoCo дозволяє споживчим GPU та крайнім пристроям стабільно брати участь у навчальних завданнях, значно підвищуючи участь у глобальному кооперативному навчанні, є однією з ключових комунікаційних інфраструктур для створення децентралізованої навчальної мережі.

#PCCL:Бібліотека координаційного зв'язку

PCCL є легковаговою бібліотекою зв'язку, створеною Prime Intellect для децентралізованого середовища навчання штучного інтелекту, спрямованою на вирішення адаптаційних вузьких місць традиційних бібліотек зв'язку в гетерогенних пристроях та мережах з низькою пропускною здатністю. PCCL підтримує розріджену топологію, стиснення градієнтів, синхронізацію з низькою точністю та відновлення з контрольних точок, може працювати на споживчих GPU та нестабільних вузлах, є базовим компонентом, що підтримує асинхронну комунікацію протоколу OpenDiLoCo. Він значно підвищує толерантність до пропускної здатності тренувальної мережі та сумісність пристроїв, прокладаючи "останню милю" комунікаційної основи для створення справді відкритої, бездоверчої мережі спільного навчання.

03、Prime Intellect стимулююча мережа та розподіл ролей

Prime Intellect побудував мережу навчання, яка не потребує дозволу, є перевірною та має економічні стимули, що дозволяє будь-кому брати участь у завданнях і отримувати винагороду на основі реальних внесків. Протокол працює на основі трьох основних ролей:

  • Ініціатор завдання: визначення середовища навчання, початкової моделі, функції винагороди та стандартів валідації
  • Тренувальний вузол: виконання локального навчання, подання оновлення ваг та спостереження траєкторії
  • Вузли верифікації: використання механізму TOPLOC для перевірки достовірності навчальної поведінки та участь у розрахунку винагороди та агрегації стратегій

Основні процеси протоколу включають публікацію завдань, навчання вузлів, верифікацію траєкторій, агрегацію ваг та виплату винагород, утворюючи стимулюючий замкнутий цикл навколо "реальних навчальних дій".

Крипто AI святий грааль: Децентралізація тренувань на передовій досліджень

04、INTELLECT-2: перший перевіряємий децентралізований навчальний модель.

Prime Intellect випустила INTELLECT-2 у травні 2025 року, це перша у світі велика модель підсиленого навчання, яка була навчена за допомогою асинхронних, бездоверених децентралізованих вузлів. Кількість параметрів досягає 32B. Модель INTELLECT-2 була навчена з використанням понад 100 гетерогенних вузлів GPU, розташованих на трьох континентах, за повністю асинхронною архітектурою, час навчання перевищує 400 годин, демонструючи життєздатність і стабільність асинхронної кооперативної мережі. Ця модель не лише є проривом у продуктивності, але й вперше системно реалізує парадигму "навчання як консенсус", запропоновану Prime Intellect. INTELLECT-2 інтегрує ключові протокольні модулі, такі як PRIME-RL, TOPLOC та SHARDCAST, що знаменує собою перше досягнення децентралізованої навчальної мережі.

PRIME-3.1%
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • 9
  • Репост
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити