Децентралізація тренування: Технологічний фронт і виклики застосування в області Crypto AI

Святий Грааль Crypto AI: передові дослідження децентралізованого навчання

У повному ланцюгу вартості ШІ навчання моделей є найбільш ресурсомістким і технічно складним етапом, що безпосередньо визначає верхню межу можливостей моделі та фактичну ефективність застосування. На відміну від легковагової обробки на етапі інференції, процес навчання потребує безперервних масштабних обчислювальних ресурсів, складних процесів обробки даних та високоефективної підтримки оптимізаційних алгоритмів, що робить його справжньою "важкою промисловістю" в будівництві систем ШІ. З точки зору архітектурних парадигм, способи навчання можна розділити на чотири категорії: централізоване навчання, розподілене навчання, федеративне навчання та децентралізоване навчання, яке є основною темою цієї статті.

Святий Грааль Crypto AI: Децентралізація навчання на передовій

Централізоване навчання є найпоширенішим традиційним способом, що здійснюється єдиною установою на локальних високопродуктивних кластерах, де весь процес навчання, від апаратного забезпечення, програмного забезпечення нижнього рівня, системи розподілу кластерів до всіх компонентів навчальної платформи, координується єдиною системою управління. Така глибока співпраця архітектури дозволяє досягти оптимальної ефективності в розподілі пам'яті, синхронізації градієнтів та механізмах відмовостійкості, що робить її дуже придатною для навчання масштабних моделей, таких як GPT, Gemini, з перевагами високої ефективності та контрольованих ресурсів, але водночас існують такі проблеми, як монополія на дані, бар'єри для ресурсів, споживання енергії та ризики єдиної точки відмови.

Розподілене навчання є основним способом навчання великих моделей, його суть полягає в тому, щоб розбити завдання навчання моделі на частини та розподілити їх на кілька машин для спільного виконання, щоб подолати обмеження обчислень та зберігання на одному пристрої. Хоча фізично воно має "розподілені" риси, але в цілому все ще контролюється централізованими організаціями, які координують та синхронізують, зазвичай працюючи в середовищі швидкої локальної мережі, через технологію високошвидкісної зв'язку NVLink, основний вузол координує всі підзавдання. Основні методи включають:

  • Дані паралельно: кожен вузол навчає різні дані, параметри діляться, потрібно узгодити ваги моделі
  • Модельна паралельність: розміщення різних частин моделі на різних вузлах для досягнення високої масштабованості
  • Паралельні конвеєри: поетапне послідовне виконання, підвищення пропускної здатності
  • Тензорна паралельність: уточнене розподілення матричних обчислень, підвищення паралельної гранулярності

Розподілене навчання є комбінацією "централізованого контролю + розподіленого виконання", що аналогічно тому, як один і той же керівник віддалено керує кількома співробітниками "офісу" для виконання завдання. На сьогоднішній день майже всі основні великі моделі навчаються цим способом.

Децентралізація тренування означає більш відкритий і антицензурний шлях у майбутнє. Його ключовою рисою є: кілька недовірливих вузлів спільно виконують завдання тренування без центрального координатора, зазвичай за допомогою протоколу для розподілу завдань і співпраці, а також за допомогою механізму криптостимулів для забезпечення чесності внесків. Основними викликами, з якими стикається ця модель, є:

  • Ускладнена гетерогенність пристроїв та розподіл: висока складність координації гетерогенних пристроїв, низька ефективність розподілу задач.
  • Проблеми з ефективністю зв'язку: нестабільний мережевий зв'язок, помітні проблеми з синхронізацією градієнтів
  • Відсутність довірчого виконання: відсутність довірчого середовища виконання ускладнює перевірку того, чи дійсно вузли беруть участь у обчисленнях.
  • Відсутність єдиного координування: немає центрального диспетчера, розподіл завдань, механізм повернення у разі аномалій є складними

Децентралізоване навчання можна зрозуміти як: група глобальних волонтерів, які спільно вносять обчислювальну потужність для навчання моделі, але "справді життєздатне масштабне децентралізоване навчання" все ще є системним інженерним викликом, що охоплює багато аспектів, таких як системна архітектура, комунікаційні протоколи, криптографічна безпека, економічні механізми, валідація моделей тощо, але можливість "спільної ефективності + стимулювання чесності + правильні результати" все ще перебуває на ранній стадії прототипування.

Федеративне навчання як перехідна форма між розподіленістю та децентралізацією підкреслює локальне збереження даних та централізовану агрегацію параметрів моделі, що підходить для сценаріїв, які акцентують увагу на відповідності вимогам конфіденційності. Федеративне навчання має інженерну структуру розподіленого навчання та локальні кооперативні можливості, водночас має переваги розподілених даних децентралізованого навчання, але все ж залежить від надійних координаторів і не має повністю відкритих та антикорупційних характеристик. Можна розглядати як "контрольовану децентралізацію" в сценаріях відповідності вимогам конфіденційності, що є відносно м'яким у навчальних завданнях, структурах довіри та комунікаційних механізмах, більш придатним як архітектура перехідного розгортання в промисловості.

Святий Грааль Crypto AI: Децентралізація тренування на передньому краї досліджень

Децентралізація тренування: кордони, можливості та реальні шляхи

З точки зору навчальної парадигми, децентралізоване навчання не підходить для всіх типів завдань. У деяких ситуаціях, через складну структуру завдання, високі вимоги до ресурсів або великі труднощі в співпраці, воно природно не підходить для ефективного виконання між гетерогенними, довіреними вузлами. Наприклад, навчання великих моделей часто залежить від великої пам'яті, низької затримки та високої пропускної здатності, що ускладнює їх ефективне розподіл та синхронізацію в відкритій мережі; завдання з сильною конфіденційністю даних та обмеженнями суверенітету обмежені правовою відповідністю та етичними обмеженнями, що унеможливлює відкритий обмін; а завдання, що не мають основи для співпраці, відчувають брак зовнішньої мотивації для участі. Ці межі разом формують реальні обмеження сучасного децентралізованого навчання.

Але це не означає, що децентралізоване навчання є псевдопозицією. Насправді, у випадках легких за структурою, легких для паралелізації та заохочувальних типів завдань, децентралізоване навчання демонструє чіткі перспективи застосування. Сюди входять, але не обмежуються: LoRA доопрацювання, завдання після навчання з вирівнюванням поведінки, навчання та маркування даних через краудсорсинг, навчання малих базових моделей з контрольованими ресурсами, а також сценарії кооперативного навчання з участю пристроїв на краю. Ці завдання зазвичай мають високу паралельність, низьку зв'язність та терпимість до гетерогенних обчислювальних потужностей, що робить їх дуже підходящими для кооперативного навчання за допомогою P2P мереж, протоколів Swarm, розподілених оптимізаторів та інших способів.

Святий Грааль Crypto AI: Децентралізація тренування на передовій досліджень

Децентралізація тренувальних класичних проектів аналіз

Наразі в області децентралізованого навчання та федеративного навчання провідними блокчейн-проектами є Prime Intellect, Pluralis.ai, Gensyn, Nous Research та Flock.io. З точки зору технологічної інноваційності та складності реалізації, Prime Intellect, Nous Research та Pluralis.ai запропонували багато оригінальних досліджень у системній архітектурі та алгоритмів, представляючи передові напрямки сучасних теоретичних досліджень; тоді як реалізаційні шляхи Gensyn та Flock.io є відносно чіткими, і вже можна побачити перші кроки до інженерного прогресу.

Prime Intellect: Тренувальні траєкторії можуть бути перевірені в посиленому навчанні в кооперативних мережах

Prime Intellect прагне створити мережу тренування ШІ, яка не потребує довіри, дозволяючи будь-кому брати участь у навчанні та отримувати надійні винагороди за свої обчислювальні внески. Prime Intellect сподівається побудувати децентралізовану систему тренування ШІ з верифікацією, відкритістю та повноцінним механізмом стимулювання через три основні модулі: PRIME-RL + TOPLOC + SHARDCAST.

01、Структура та ключові модулі протоколу Prime Intellect

PRIME-RL: архітектура завдань асинхронного посилення навчання з декомпозицією TOPLOC: легкий механізм верифікації поведінки в навчанні SHARDCAST: асинхронна вага агрегування та поширення протоколу OpenDiLoCo: Рідкісний асинхронний комунікаційний фреймворк PCCL: Бібліотека кооперативного зв'язку

Святий Грааль Crypto AI: Децентралізація тренування в передовому дослідженні

02, Докладний аналіз ключових механізмів навчання Prime Intellect

PRIME-RL: архітектура завдань асинхронного підкріплювального навчання з декомпозованою структурою

PRIME-RL є рамкою моделювання завдань і виконання, розробленою Prime Intellect для децентралізованих навчальних сцен, спеціально спроектованою для гетерогенних мереж та асинхронних учасників. Він використовує посилене навчання як пріоритетний об'єкт адаптації, структурно розділяючи процеси навчання, висновку та завантаження ваг, що дозволяє кожному навчальному вузлу незалежно виконувати цикл завдань на місці та співпрацювати через стандартизовані інтерфейси з механізмами валідації та агрегації. На відміну від традиційних процесів контрольованого навчання, PRIME-RL більше підходить для реалізації еластичного навчання в умовах безцентрового управління, що зменшує складність системи та закладає основу для підтримки паралельного виконання багатьох завдань та еволюції стратегій.

TOPLOC: легкий механізм верифікації поведінки тренування

TOPLOC є основним механізмом тренування з перевірюваністю, запропонованим Prime Intellect, який використовується для визначення того, чи дійсно вузол завершив ефективне навчання стратегії на основі спостережуваних даних. На відміну від важких рішень, таких як ZKML, TOPLOC не залежить від повторного обчислення всього моделі, а завершує верифікацію легковагової структури, аналізуючи локальні консистентні траєкторії між "послідовністю спостережень↔оновлення стратегії". Він вперше трансформує поведінкові траєкторії в процесі навчання в об'єкти, які можна перевірити, що є ключовим нововведенням для реалізації бездоверчого розподілу навчальних винагород, і забезпечує здійсненний шлях до створення аудиторних та інcentивних децентралізованих мереж співпраці для навчання.

SHARDCAST: Асинхронна агрегація ваги та протокол поширення

SHARDCAST — це протокол вагового розповсюдження та агрегації, розроблений Prime Intellect, оптимізований для асинхронних, обмежених по пропускній здатності та динамічних станів вузлів у реальних мережевих умовах. Він поєднує механізм розповсюдження gossip та локальну синхронізацію, що дозволяє кільком вузлам продовжувати подавати часткові оновлення в стані несинхронізації, досягаючи поступової згортки ваг та еволюції кількох версій. В порівнянні з централізованими або синхронізованими методами AllReduce, SHARDCAST суттєво підвищує масштабованість та стійкість до збоїв децентралізованого навчання, є основою для побудови стабільного консенсусу ваг та безперервних ітерацій навчання.

OpenDiLoCo: Рідкоасинхронна комунікаційна рамка

OpenDiLoCo – це фреймворк оптимізації зв'язку з відкритим вихідним кодом, незалежно реалізований командою Prime Intellect на основі концепції DiLoCo, запропонованої DeepMind, яка розроблена для вирішення поширених проблем обмеження пропускної здатності, неоднорідності пристрою та нестабільності вузлів у децентралізованому навчанні. Архітектура базується на паралелізмі даних, і завдяки побудові розріджених топологій, таких як Ring, Expander і Small-World, вона уникає високих витрат на зв'язок при глобальній синхронізації, і покладається лише на локальні сусідні вузли для завершення спільного навчання моделі. У поєднанні з асинхронним оновленням і механізмом відмовостійкості точок зупину, OpenDiLoCo дозволяє графічним процесорам і периферійним пристроям споживчого класу стабільно брати участь у навчальних завданнях, значно покращуючи участь у глобальному спільному навчанні, і є однією з ключових комунікаційних інфраструктур для побудови децентралізованої навчальної мережі.

PCCL:Бібліотека координаційного зв'язку

PCCL є легковаговою бібліотекою зв'язку, спеціально розробленою Prime Intellect для децентралізованого середовища навчання штучного інтелекту, яка покликана вирішити проблеми адаптації традиційних бібліотек зв'язку в гетерогенних пристроях та мережах з низькою пропускною здатністю. PCCL підтримує розріджену топологію, стиснення градієнтів, синхронізацію з низькою точністю та відновлення з контрольних точок, може працювати на споживчих GPU та нестабільних вузлах, є базовим компонентом, що підтримує асинхронні комунікаційні можливості протоколу OpenDiLoCo. Це суттєво підвищує толерантність до пропускної здатності мережі навчання та сумісність пристроїв, прокладаючи "остання миля" комунікаційної інфраструктури для створення справді відкритої, бездоверчої мережі спільного навчання.

03、Prime Intellect стимулювання мережі та розподіл ролей

Prime Intellect побудував бездозвільну, верифіковану мережу тренування з економічними інcentивами, яка дозволяє будь-кому брати участь у завданнях та отримувати винагороду на основі реального внеску. Протокол працює на основі трьох основних ролей:

  • Ініціатор завдання: визначення тренувального середовища, початкової моделі, функції винагороди та стандартів валідації
  • Навчальний вузол: виконання локального навчання, подача оновлень ваг та спостережуваних траєкторій
  • Вузли перевірки: використання механізму TOPLOC для перевірки достовірності навчальної поведінки та участі в розрахунку винагороди та агрегації стратегій

Ядро процесу угоди включає публікацію завдань, навчання вузлів, перевірку траєкторій, агрегацію ваг та виплату винагород, що утворює стимулюючий замкнений цикл навколо "реальної навчальної поведінки".

Святий Грааль Crypto AI: Децентралізація навчання на передньому краї досліджень

04、INTELLECT-2:перше перевірене децентралізоване навчальне моделювання

Prime Intellect у травні 2025 року випустив INTELLECT-2, це перша у світі велика модель зміцнюючого навчання, яка була навчена за допомогою асинхронних, бездостовірних децентралізованих вузлів. Кількість параметрів досягла 32B. Модель INTELLECT-2 була навчена за допомогою 100+ гетерогенних вузлів GPU, розташованих на трьох континентах, з використанням повністю асинхронної архітектури, час навчання перевищив 400 годин, демонструючи доцільність та стабільність асинхронної кооперативної мережі. Ця модель не лише є проривом у продуктивності, але й є першим системним втіленням парадигми "навчання як консенсус", запропонованої Prime Intellect. INTELLECT-2 інтегрує основні модулі протоколів PRIME-RL, TOPLOC та SHARDCAST.

PRIME-0.64%
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • 4
  • Репост
  • Поділіться
Прокоментувати
0/400
StakeHouseDirectorvip
· 6год тому
Важка промисловість трохи не витримує.
Переглянути оригіналвідповісти на0
mev_me_maybevip
· 6год тому
Що за святий грааль, який не є святим граалем, все одно потрібно спалювати відеокарти.
Переглянути оригіналвідповісти на0
MondayYoloFridayCryvip
· 6год тому
Все централізовано, навіть навчання також централізовано.
Переглянути оригіналвідповісти на0
SadMoneyMeowvip
· 6год тому
Кліпові купони翻车选手
Переглянути оригіналвідповісти на0
  • Закріпити