Революція навчання штучного інтелекту: від централізації до Децентралізація технологічної еволюції

Еволюція парадигм навчання ШІ: від централізованого контролю до технологічної революції децентралізованої кооперації

У повній ціннісній ланцюзі ШІ, навчання моделей є найбільш ресурсомістким і технологічно складним етапом, який безпосередньо визначає межу можливостей моделей та фактичну ефективність застосування. В порівнянні з легким викликом на етапі виводу, процес навчання потребує постійних великих обсягів обчислювальної потужності, складних процесів обробки даних і підтримки високонавантажених алгоритмів оптимізації, що є справжньою "важкою промисловістю" побудови систем ШІ. З точки зору архітектурних парадигм, методи навчання можна поділити на чотири категорії: централізоване навчання, розподілене навчання, федеративне навчання та децентралізоване навчання, на якому зосереджено цю статтю.

Еволюція парадигми AI: від централізованого контролю до технологічної революції децентралізованої колаборації

Централізоване навчання є найбільш поширеним традиційним способом, що виконується єдиною установою в локальному високопродуктивному кластері, де весь процес навчання здійснюється від апаратного забезпечення, базового програмного забезпечення, системи управління кластером до всіх компонентів навчальної рамки, які координуються єдиною системою управління. Така глибока координація архітектури забезпечує оптимальну ефективність спільного використання пам'яті, синхронізації градієнтів і механізмів захисту від збоїв, що дуже підходить для навчання масштабних моделей, таких як GPT, Gemini тощо, з перевагами високої ефективності та контрольованих ресурсів, але водночас існують проблеми монополії даних, бар'єрів ресурсів, споживання енергії та ризику одиночної точки.

Розподілене навчання є основним способом навчання великих моделей, його суть полягає в розподілі завдань навчання моделі на кілька машин для спільного виконання, щоб подолати обмеження обчислення та зберігання на одному комп'ютері. Хоча фізично має "розподілені" характеристики, але в цілому все ще контролюється централізованими установами для управління та синхронізації, зазвичай працює в середовищі високошвидкісної локальної мережі, через технологію високошвидкісної інтеграції NVLink, основний вузол є єдиним координатором для кожного підзавдання. Основні методи включають:

  • Дані паралельно: кожен вузол навчає різні дані, параметри яких спільні, потрібно узгодити ваги моделі
  • Модельна паралельність: розгортання різних частин моделі на різних вузлах для досягнення високої розширюваності;
  • Паралельні канали: поетапне послідовне виконання, підвищення пропускної спроможності;
  • Тензорне паралельне: уточнене розділення матричних обчислень, підвищення паралельного гранулювання.

Розподілене навчання є поєднанням "централізованого контролю + розподіленого виконання", аналогічно тому, як один і той же бос дистанційно керує співпрацею кількох "офісних" працівників для виконання завдання. Наразі майже всі основні великі моделі навчаються саме цим способом.

Еволюція парадигми навчання ШІ: від централізованого контролю до децентралізованої співпраці технічна революція

Децентралізація тренування означає більш відкритий і стійкий до цензури шлях у майбутнє. Його основна риса полягає в тому, що кілька недовірливих вузлів співпрацюють для виконання навчальних завдань без централізованого координатора, зазвичай через протоколи, що керують розподілом завдань і співпрацею, і за допомогою криптостимулів, які забезпечують чесність внесків. Основні виклики, з якими стикається ця модель, включають:

  • Гетерогенність пристроїв та труднощі розподілу: висока складність координації гетерогенних пристроїв, низька ефективність розподілу завдань;
  • Вузьке місце в ефективності зв'язку: нестабільна мережа, очевидне вузьке місце в синхронізації градієнтів;
  • Відсутність довіреного виконання: відсутність довіреного середовища виконання ускладнює перевірку того, чи дійсно вузли беруть участь у обчисленнях;
  • Відсутність єдиного координаційного центру: немає центрального диспетчера, розподіл завдань та механізм відкату помилок складні.

Децентралізація навчання можна розуміти як: група глобальних волонтерів, які спільно вносять обчислювальну потужність для навчання моделі, але "справді здійснене велике масове децентралізоване навчання" все ще є системною інженерною проблемою, яка охоплює кілька аспектів, включаючи системну архітектуру, комунікаційні протоколи, криптографічну безпеку, економічні механізми, верифікацію моделей тощо, але питання "координація ефективності + стимулювання чесності + коректність результатів" все ще перебуває на стадії раннього прототипування.

Федеративне навчання, як перехідна форма між розподіленістю та децентралізацією, підкреслює локальне збереження даних і централізовану агрегацію параметрів моделі, підходить для сцен, що акцентують на дотриманні конфіденційності. Федеративне навчання має інженерну структуру розподіленого навчання та здатність до локальної співпраці, одночасно маючи переваги розподілених даних децентралізованого навчання, але все ще залежить від надійного координатора і не має повністю відкритих та антикорупційних характеристик. Його можна розглядати як "контрольовану децентралізацію" в контексті дотримання конфіденційності, що є відносно поміркованим у завданнях навчання, структурі довіри та механізмах зв'язку, що більше підходить для перехідної архітектури впровадження в промисловості.

Децентралізація тренування меж, можливості та реальні шляхи

З точки зору навчальних парадигм, децентралізоване навчання не підходить для всіх типів завдань. У деяких сценаріях, через складну структуру завдання, надзвичайно високі потреби в ресурсах або великі труднощі в співпраці, воно природно не підходить для ефективного виконання на гетерогенних, бездоверених вузлах. Наприклад, навчання великих моделей часто залежить від високої пам'яті, низької затримки та високої пропускної здатності, що ускладнює ефективне розподіл та синхронізацію в відкритій мережі; завдання з сильною конфіденційністю даних та обмеженнями суверенітету обмежені юридичною відповідністю та етичними обмеженнями, що унеможливлює відкритий обмін; а завдання, що не мають основи для стимулювання співпраці, позбавлені зовнішньої мотивації для участі. Ці межі разом складають реальні обмеження для поточного децентралізованого навчання.

Але це не означає, що децентралізоване навчання є хибним поняттям. Насправді, у легковагових, простих для паралелізації, заохочувальних типах завдань децентралізоване навчання демонструє чіткі перспективи застосування. Сюди входять, але не обмежуються: LoRA доопрацювання, завдання після навчання з поведінковим вирівнюванням, завдання з краудсорсингу даних та їх розмітки, навчання малих базових моделей з контрольованими ресурсами, а також сценарії кооперативного навчання з участю крайових пристроїв. Ці завдання зазвичай мають високу паралельність, низьку зв'язаність та толерантність до гетерогенної обчислювальної потужності, що робить їх дуже підходящими для кооперативного навчання через P2P мережі, протокол Swarm, розподілені оптимізатори тощо.

Еволюція парадигми навчання штучного інтелекту: від централізованого контролю до Децентралізації співпраці технічна революція

Децентралізація тренування класичних проектів аналіз

Наразі на передовій у сфері децентралізованого навчання та федеративного навчання основними представленими блокчейн-проектами є Prime Intellect, Pluralis.ai, Gensyn, Nous Research та Flock.io. З точки зору технологічної інноваційності та складності реалізації, Prime Intellect, Nous Research та Pluralis.ai запропонували багато оригінальних досліджень у системній архітектурі та алгоритмічному дизайні, представляючи сучасні теоретичні дослідження на передовій; в той час як шляхи реалізації Gensyn та Flock.io відносно чіткі, вже можна побачити початкові інженерні досягнення. У цій статті буде поетапно проаналізовано основні технології та інженерні архітектури цих п'яти проектів, а також далі обговорять їх відмінності та взаємодоповнюючі відносини в системі децентралізованого AI-навчання.

Prime Intellect: навчальні траєкторії можуть бути перевірені в посиленому навчанні кооперативних мереж

Prime Intellect прагне побудувати мережу навчання AI, яка не потребує довіри, дозволяючи кожному брати участь у навчанні та отримувати надійні винагороди за свої обчислювальні внески. Prime Intellect сподівається створити децентралізовану систему навчання AI з можливістю перевірки, відкритістю та повноцінним механізмом стимулювання за допомогою трьох основних модулів: PRIME-RL + TOPLOC + SHARDCAST.

Один. Структура стеку протоколу Prime Intellect та цінність ключових модулів

Еволюція парадигми навчання AI: від централізованого контролю до децентралізованої співпраці технологічної революції

Два, детальний аналіз ключових механізмів тренування Prime Intellect

PRIME-RL: Архітектура завдань декомпозованого асинхронного навчання з підкріпленням

PRIME-RL є фреймворком для моделювання та виконання завдань, розробленим Prime Intellect для децентралізованих навчальних сценаріїв, спеціально створеним для гетерогенних мереж та асинхронної участі. Він використовує підкріплювальне навчання як пріоритетний адаптаційний об'єкт, структурно декомпонуючи процеси навчання, висновку та завантаження ваг, що дозволяє кожному навчальному вузлу незалежно виконувати цикл завдань локально та співпрацювати через стандартизовані інтерфейси з механізмами верифікації та агрегації. У порівнянні з традиційними процесами контрольованого навчання, PRIME-RL більше підходить для реалізації еластичного навчання в умовах безцентрового управління, що знижує складність системи та закладає основу для підтримки паралельних багатозадачних операцій та еволюції стратегій.

TOPLOC:легкий механізм верифікації поведінки навчання

TOPLOC є основним механізмом перевірки навчання, запропонованим Prime Intellect, що використовується для визначення, чи дійсно вузол завершив ефективне навчання стратегії на основі спостережуваних даних. На відміну від важких рішень, таких як ZKML, TOPLOC не покладається на перерахунок всієї моделі, а реалізує верифікацію легковагової структури шляхом аналізу локальної узгодженості траєкторій між "послідовністю спостережень ↔ оновленням стратегії". Вперше він перетворює траєкторії поведінки під час навчання на верифіковані об'єкти, що є ключовою інновацією для реалізації бездостовірного розподілу винагороди за навчання, надаючи здійсненний шлях для створення аудиторних, стимулюючих децентралізованих кооперативних навчальних мереж.

SHARDCAST: Асинхронна агрегація ваг і протокол поширення

SHARDCAST є протоколом важелевого поширення та агрегації, розробленим Prime Intellect, спеціально оптимізованим для асинхронних, обмежених по ширині смуги та з мінливим станом вузлів у реальному мережевому середовищі. Він поєднує механізм поширення gossip з локальною синхронізуючою стратегією, що дозволяє кільком вузлам продовжувати надсилати часткові оновлення в асинхронному стані, досягаючи поступової збіжності ваг та еволюції кількох версій. У порівнянні з централізованими або синхронізованими методами AllReduce, SHARDCAST суттєво підвищує масштабованість та стійкість до помилок децентралізованого навчання, є основною основою для побудови стабільного консенсусу ваг та постійної ітерації навчання.

OpenDiLoCo: Рідкісний асинхронний комунікаційний фреймворк

OpenDiLoCo є незалежною реалізацією та відкритим вихідним кодом фреймворку оптимізації комунікацій, створеним командою Prime Intellect на основі концепції DiLoCo, запропонованої DeepMind, спеціально розробленим для вирішення проблем, що часто виникають у децентралізованому навчанні, таких як обмежена пропускна здатність, гетерогенність пристроїв та нестабільність вузлів. Його архітектура базується на паралельній обробці даних, шляхом побудови розріджених топологічних структур, таких як кільце, розширювач, маленький світ, що дозволяє уникнути високих витрат на комунікацію глобальної синхронізації, покладаючись лише на сусідні локальні вузли для завершення спільного навчання моделі. Поєднуючи асинхронне оновлення та механізм стійкості до збоїв, OpenDiLoCo дозволяє споживчим GPU та крайнім пристроям стабільно брати участь у навчальних завданнях, значно підвищуючи можливість участі в глобальному співпраці, що робить його однією з ключових комунікаційних інфраструктур для побудови децентралізованих навчальних мереж.

PCCL:Бібліотека кооперативного зв'язку

PCCL є легким комунікаційним бібліотекою, створеною Prime Intellect для децентралізованого середовища навчання AI, яка має на меті вирішити проблеми адаптації традиційних комунікаційних бібліотек на гетерогенних пристроях та в мережах з низькою пропускною здатністю. PCCL підтримує рідкісну топологію, стиснення градієнтів, синхронізацію з низькою точністю та відновлення з контрольних точок, може працювати на споживчих GPU та нестабільних вузлах, є основним компонентом, що підтримує асинхронну комунікацію протоколу OpenDiLoCo. Він значно підвищує пропускну здатність мережі навчання та сумісність пристроїв, прокладаючи "останню милю" комунікаційної інфраструктури для створення справжньої відкритої, бездоверчої мережі спільного навчання.

Три, Мережа стимулювання Prime Intellect та розподіл ролей

Prime Intellect побудував мережу навчання без дозволу, що підлягає перевірці та має економічні стимули, що дозволяє кожному брати участь у завданнях та отримувати винагороди на основі реальних внесків. Протокол працює на основі трьох основних ролей:

  • Ініціатор завдання: визначити навчальне середовище, початкову модель, функцію винагороди та критерії валідації
  • Навчальний вузол: виконання локального навчання, подання оновлень ваг і спостереження за траєкторією
  • Вузли верифікації: використання механізму TOPLOC для перевірки справжності навчальної поведінки та участі в обчисленні винагороди та агрегації стратегій

Ядро процесу угоди включає в себе публікацію завдань, навчання вузлів, верифікацію траєкторій, агрегацію ваг та виплату винагород, формуючи мотиваційний замкнутий цикл, що обертається навколо "реальної тренувальної поведінки".

Еволюція парадигми AI-тренування: від централізованого контролю до децентралізованої співпраці технологічної революції

Чотири, INTELLECT-2: випуск першої перевіряємого децентралізованої навчальної моделі

Prime Intellect випустила INTELLECT-2 у травні 2025 року. Це перша у світі модель великого навчання, що була навчена за допомогою асинхронних, бездоказових децентралізованих вузлів. Кількість параметрів становить 32B. Модель INTELLECT-2 була навчена завдяки співпраці більше ніж 100 гетерогенних вузлів GPU, розташованих на трьох континентах, використовуючи повністю асинхронну архітектуру, а тривалість навчання перевищила 400 годин, що продемонструвало життєздатність та стабільність асинхронної кооперативної мережі. Ця модель є не лише проривом у продуктивності, але й першим системним втіленням парадигми "навчання – це консенсус", запропонованої Prime Intellect. INTELLECT-2 інтегрувала основні модулі протоколів, такі як PRIME-RL, TOPLOC та SHARDCAST, що знаменує децентралізацію.

PRIME-1.68%
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • 6
  • Репост
  • Поділіться
Прокоментувати
0/400
Whale_Whisperervip
· 08-12 12:33
Це ж занадто витратно!
Переглянути оригіналвідповісти на0
MemeCuratorvip
· 08-12 12:10
Тренування з витратами звучить як головний біль
Переглянути оригіналвідповісти на0
LazyDevMinervip
· 08-09 17:17
Моделювання вимагає величезних витрат, бідні не можуть собі цього дозволити.
Переглянути оригіналвідповісти на0
Degentlemanvip
· 08-09 17:12
Не можуть грати в централізовані маленькі студії, брати, всі пішли грати у федерацію.
Переглянути оригіналвідповісти на0
DefiPlaybookvip
· 08-09 17:10
Тренування ще не децентралізоване? Це ж рівнозначно тому, що всі смартконтракти розміщені на aws.
Переглянути оригіналвідповісти на0
SadMoneyMeowvip
· 08-09 17:09
Ой, знову гроші закінчилися qaq
Переглянути оригіналвідповісти на0
  • Закріпити