Cách mạng đào tạo AI: Sự tiến hóa công nghệ từ tập trung đến Phi tập trung

Sự tiến hóa của mô hình đào tạo AI: Cách mạng công nghệ từ kiểm soát tập trung đến hợp tác phi tập trung

Trong toàn bộ chuỗi giá trị của AI, việc huấn luyện mô hình là giai đoạn tiêu tốn tài nguyên nhiều nhất và có rào cản kỹ thuật cao nhất, quyết định trực tiếp giới hạn khả năng của mô hình và hiệu quả ứng dụng thực tế. So với việc gọi nhẹ nhàng trong giai đoạn suy luận, quá trình huấn luyện cần đầu tư sức mạnh tính toán quy mô lớn liên tục, quy trình xử lý dữ liệu phức tạp và hỗ trợ từ các thuật toán tối ưu hóa cường độ cao, thực sự là "ngành công nghiệp nặng" trong xây dựng hệ thống AI. Từ góc độ mô hình kiến trúc, phương pháp huấn luyện có thể được chia thành bốn loại: huấn luyện tập trung, huấn luyện phân tán, học tập liên bang và huấn luyện phi tập trung mà bài viết này sẽ tập trung thảo luận.

AI huấn luyện mô hình tiến hóa: từ kiểm soát tập trung đến cách mạng công nghệ hợp tác phi tập trung

Huấn luyện tập trung là phương pháp truyền thống phổ biến nhất, được thực hiện bởi một tổ chức duy nhất trong cụm hiệu suất cao tại địa phương, hoàn thành toàn bộ quy trình huấn luyện, từ phần cứng, phần mềm nền tảng, hệ thống lập lịch cụm, đến tất cả các thành phần của khung huấn luyện đều được một hệ thống điều khiển thống nhất điều phối hoạt động. Kiến trúc hợp tác sâu sắc này giúp hiệu suất chia sẻ bộ nhớ, đồng bộ gradient và cơ chế chống lỗi đạt mức tối ưu, rất phù hợp cho việc huấn luyện các mô hình quy mô lớn như GPT, Gemini, với những lợi thế về hiệu suất cao, tài nguyên có thể kiểm soát, nhưng đồng thời cũng tồn tại các vấn đề như độc quyền dữ liệu, rào cản tài nguyên, tiêu thụ năng lượng và rủi ro điểm đơn.

Huấn luyện phân tán là phương thức chính trong huấn luyện mô hình lớn hiện nay, cốt lõi của nó là phân tách nhiệm vụ huấn luyện mô hình, sau đó phân phối đến nhiều máy tính để thực hiện phối hợp, nhằm vượt qua giới hạn tính toán và lưu trữ của máy đơn. Mặc dù về mặt vật lý có đặc điểm "Phi tập trung", nhưng tổng thể vẫn do các tổ chức trung tâm kiểm soát, điều phối và đồng bộ, thường hoạt động trong môi trường mạng cục bộ tốc độ cao, thông qua công nghệ bus liên kết tốc độ cao NVLink, do nút chính phối hợp các nhiệm vụ con. Các phương pháp chính bao gồm:

  • Dữ liệu song song: Mỗi nút huấn luyện các tham số dữ liệu khác nhau chia sẻ, cần khớp trọng số mô hình
  • Song song mô hình: Triển khai các phần khác nhau của mô hình trên các nút khác nhau, đạt được khả năng mở rộng mạnh mẽ;
  • Đường ống song song: Thực hiện tuần tự theo từng giai đoạn, tăng cường thông lượng;
  • Phân tán tensor: Chia nhỏ tính toán ma trận một cách tinh vi, nâng cao độ phân giải song song.

Huấn luyện phân tán là sự kết hợp của "kiểm soát tập trung + thực hiện phân tán", tương tự như một ông chủ điều hành từ xa nhiều nhân viên "văn phòng" hợp tác hoàn thành nhiệm vụ. Hiện tại, hầu như tất cả các mô hình lớn chính đều được huấn luyện theo cách này.

Sự tiến hóa của mô hình đào tạo AI: Cuộc cách mạng công nghệ từ kiểm soát tập trung đến Phi tập trung hợp tác

Phi tập trung đào tạo thì đại diện cho một con đường tương lai có tính mở và khả năng chống kiểm duyệt hơn. Đặc điểm cốt lõi của nó là: nhiều nút không tin tưởng lẫn nhau phối hợp hoàn thành nhiệm vụ đào tạo mà không cần điều phối viên trung tâm, thường thông qua giao thức điều khiển việc phân phát nhiệm vụ và hợp tác, và nhờ vào cơ chế khuyến khích mã hóa để đảm bảo tính trung thực của đóng góp. Các thách thức chính mà mô hình này phải đối mặt bao gồm:

  • Khó khăn trong việc phân tách và đồng bộ thiết bị khác nhau: Khó khăn trong việc phối hợp thiết bị khác nhau, hiệu suất phân tách nhiệm vụ thấp;
  • Đường truyền hiệu quả: Giao tiếp mạng không ổn định, rõ ràng có rào cản đồng bộ gradient;
  • Thiếu khả năng thực thi đáng tin cậy: Thiếu môi trường thực thi đáng tin cậy, khó xác minh xem nút có thực sự tham gia tính toán hay không;
  • Thiếu sự phối hợp thống nhất: không có bộ điều độ trung ương, việc phân phát nhiệm vụ và cơ chế hoàn cuốn bất thường phức tạp.

Phi tập trung đào tạo có thể hiểu là: một nhóm tình nguyện viên toàn cầu, mỗi người đóng góp sức mạnh tính toán để hợp tác đào tạo mô hình, nhưng "đào tạo phi tập trung quy mô lớn thực sự khả thi" vẫn là một thách thức kỹ thuật hệ thống, liên quan đến kiến trúc hệ thống, giao thức truyền thông, an ninh mật mã, cơ chế kinh tế, xác thực mô hình và nhiều khía cạnh khác, nhưng việc liệu có thể "hợp tác hiệu quả + khuyến khích trung thực + kết quả chính xác" vẫn đang ở giai đoạn khám phá nguyên mẫu sớm.

Học liên bang, như một hình thức chuyển tiếp giữa phân tán và Phi tập trung, nhấn mạnh việc giữ dữ liệu tại địa phương và tập trung tổng hợp các tham số mô hình, phù hợp với các trường hợp chú trọng đến sự tuân thủ quyền riêng tư. Học liên bang có cấu trúc kỹ thuật của đào tạo phân tán và khả năng hợp tác cục bộ, đồng thời kết hợp lợi thế phân tán dữ liệu của đào tạo Phi tập trung, nhưng vẫn phụ thuộc vào bên phối hợp đáng tin cậy, và không có đặc tính hoàn toàn mở và chống kiểm duyệt. Nó có thể được coi là một giải pháp "Phi tập trung có kiểm soát" trong các tình huống tuân thủ quyền riêng tư, với các nhiệm vụ đào tạo, cấu trúc niềm tin và cơ chế giao tiếp tương đối nhẹ nhàng, thích hợp hơn để làm kiến trúc triển khai chuyển tiếp trong ngành công nghiệp.

Phi tập trung đào tạo của ranh giới, cơ hội và con đường thực tế

Từ góc độ khung đào tạo, đào tạo Phi tập trung không phù hợp với tất cả các loại nhiệm vụ. Trong một số tình huống, do cấu trúc nhiệm vụ phức tạp, yêu cầu tài nguyên cực cao hoặc độ khó hợp tác lớn, nó tự nhiên không phù hợp để hoàn thành hiệu quả giữa các nút không đồng nhất và không tin cậy. Ví dụ, đào tạo mô hình lớn thường phụ thuộc vào bộ nhớ cao, độ trễ thấp và băng thông cao, khó có thể phân tách và đồng bộ hiệu quả trong mạng mở; nhiệm vụ có quyền riêng tư dữ liệu và hạn chế chủ quyền mạnh mẽ bị giới hạn bởi tuân thủ pháp luật và ràng buộc đạo đức, không thể chia sẻ công khai; trong khi đó, các nhiệm vụ thiếu cơ sở khuyến khích hợp tác thiếu động lực tham gia bên ngoài. Những ranh giới này cùng nhau tạo thành những giới hạn thực tế của đào tạo Phi tập trung hiện nay.

Nhưng điều này không có nghĩa là huấn luyện phi tập trung là một giả thuyết sai. Trên thực tế, trong các loại nhiệm vụ có cấu trúc nhẹ, dễ song song và có thể khuyến khích, huấn luyện phi tập trung thể hiện rõ triển vọng ứng dụng. Bao gồm nhưng không giới hạn: tinh chỉnh LoRA, các nhiệm vụ huấn luyện sau liên quan đến hành vi, huấn luyện và gán nhãn dữ liệu theo cách crowdsourcing, huấn luyện mô hình cơ bản nhỏ có thể kiểm soát tài nguyên, cũng như các kịch bản huấn luyện hợp tác có sự tham gia của thiết bị biên. Những nhiệm vụ này thường có tính song song cao, độ liên kết thấp và khả năng chịu đựng tính toán dị thể, rất phù hợp để thực hiện huấn luyện hợp tác thông qua mạng P2P, giao thức Swarm, bộ tối ưu phân tán và các cách thức khác.

Sự tiến hóa của mô hình đào tạo AI: Cuộc cách mạng công nghệ từ kiểm soát tập trung đến Phi tập trung hợp tác

Phi tập trung huấn luyện dự án kinh điển phân tích

Hiện tại, trong lĩnh vực đào tạo phi tập trung và học tập liên bang, các dự án blockchain tiêu biểu chủ yếu bao gồm Prime Intellect, Pluralis.ai, Gensyn, Nous Research và Flock.io. Xét về tính đổi mới công nghệ và độ khó trong việc hiện thực hóa kỹ thuật, Prime Intellect, Nous Research và Pluralis.ai đã đưa ra nhiều khám phá sáng tạo trong thiết kế hệ thống và thuật toán, đại diện cho hướng nghiên cứu lý thuyết tiên tiến hiện nay; trong khi đó, con đường hiện thực hóa của Gensyn và Flock.io tương đối rõ ràng, đã thấy được những tiến triển kỹ thuật ban đầu. Bài viết này sẽ lần lượt phân tích công nghệ cốt lõi và kiến trúc kỹ thuật của năm dự án này, và tiếp tục thảo luận về sự khác biệt và mối quan hệ bổ sung của chúng trong hệ thống đào tạo AI phi tập trung.

Prime Intellect: Người tiên phong của mạng lưới hợp tác học tăng cường có thể xác minh được lộ trình đào tạo

Prime Intellect cam kết xây dựng một mạng lưới đào tạo AI không cần tin cậy, cho phép bất kỳ ai tham gia đào tạo và nhận được phần thưởng đáng tin cậy cho những đóng góp tính toán của họ. Prime Intellect hy vọng thông qua ba mô-đun PRIME-RL + TOPLOC + SHARDCAST, xây dựng một hệ thống đào tạo AI Phi tập trung có khả năng xác minh, tính mở và cơ chế khuyến khích hoàn chỉnh.

Một, Cấu trúc ngăn xếp giao thức Prime Intellect và giá trị của các mô-đun chính

Sự tiến hóa của mô hình đào tạo AI: Cách mạng công nghệ từ kiểm soát tập trung đến Phi tập trung hợp tác

Hai, Giải thích chi tiết về cơ chế đào tạo Prime Intellect

PRIME-RL: Kiến trúc nhiệm vụ học tăng cường bất đồng bộ tách rời

PRIME-RL là khung mô hình và thực hiện nhiệm vụ được tùy chỉnh bởi Prime Intellect cho các kịch bản đào tạo Phi tập trung, được thiết kế đặc biệt cho mạng lưới dị thể và sự tham gia không đồng bộ. Nó sử dụng học tăng cường như là đối tượng thích ứng ưu tiên, tách cấu trúc quy trình đào tạo, suy diễn và tải trọng lên, cho phép mỗi nút đào tạo hoàn thành vòng nhiệm vụ độc lập tại địa phương, và hợp tác thông qua giao diện tiêu chuẩn hóa với cơ chế xác minh và tập hợp. So với quy trình học giám sát truyền thống, PRIME-RL phù hợp hơn để thực hiện đào tạo linh hoạt trong môi trường không có điều phối trung tâm, vừa giảm độ phức tạp của hệ thống, vừa đặt nền tảng cho việc hỗ trợ đa nhiệm song song và tiến hóa chiến lược.

TOPLOC: cơ chế xác thực hành vi đào tạo nhẹ

TOPLOC là cơ chế cốt lõi về khả năng xác thực trong đào tạo do Prime Intellect đưa ra, được sử dụng để xác định xem một nút có thực sự hoàn thành việc học chiến lược hiệu quả dựa trên dữ liệu quan sát hay không. Khác với các giải pháp nặng như ZKML, TOPLOC không phụ thuộc vào việc tính toán lại toàn bộ mô hình, mà thay vào đó hoàn thành xác thực cấu trúc nhẹ bằng cách phân tích quỹ đạo nhất quán cục bộ giữa "chuỗi quan sát ↔ cập nhật chiến lược". Đây là lần đầu tiên hành vi quỹ đạo trong quá trình đào tạo được chuyển đổi thành đối tượng có thể xác thực, là đổi mới then chốt để thực hiện phân phối phần thưởng đào tạo không cần tin tưởng, cung cấp con đường khả thi để xây dựng mạng lưới đào tạo hợp tác phi tập trung có thể kiểm toán và có thể khuyến khích.

SHARDCAST: Giao thức tổng hợp và truyền tải trọng số bất đồng bộ

SHARDCAST là giao thức truyền tải và tổng hợp trọng số được thiết kế bởi Prime Intellect, được tối ưu hóa đặc biệt cho môi trường mạng thực tế không đồng bộ, băng thông hạn chế và trạng thái nút biến đổi. Nó kết hợp cơ chế truyền gossip với chiến lược đồng bộ cục bộ, cho phép nhiều nút tiếp tục gửi các cập nhật một phần trong trạng thái không đồng bộ, đạt được sự hội tụ trọng số dần dần và tiến hóa nhiều phiên bản. So với các phương pháp AllReduce tập trung hoặc đồng bộ, SHARDCAST cải thiện đáng kể khả năng mở rộng và khả năng chịu lỗi của việc đào tạo Phi tập trung, là nền tảng cốt lõi để xây dựng sự đồng thuận trọng số ổn định và đào tạo liên tục.

OpenDiLoCo: Khung giao tiếp bất đồng bộ thưa thớt

OpenDiLoCo là một khung tối ưu hóa giao tiếp được đội ngũ Prime Intellect độc lập thực hiện và mã nguồn mở dựa trên ý tưởng DiLoCo được đề xuất bởi DeepMind, được thiết kế đặc biệt cho những thách thức thường gặp trong đào tạo phi tập trung như băng thông hạn chế, thiết bị không đồng nhất và nút không ổn định. Kiến trúc của nó dựa trên dữ liệu song song, thông qua việc xây dựng các cấu trúc topo thưa như Ring, Expander, Small-World, tránh được chi phí giao tiếp cao của đồng bộ toàn cầu, chỉ cần dựa vào các nút lân cận cục bộ để hoàn thành việc đào tạo mô hình hợp tác. Kết hợp với cập nhật không đồng bộ và cơ chế chịu lỗi điểm dừng, OpenDiLoCo cho phép GPU tiêu dùng và thiết bị biên cũng có thể tham gia ổn định vào các nhiệm vụ đào tạo, nâng cao khả năng tham gia đào tạo hợp tác toàn cầu, là một trong những cơ sở hạ tầng giao tiếp quan trọng để xây dựng mạng lưới đào tạo phi tập trung.

PCCL: Thư viện giao tiếp hợp tác

PCCL là thư viện giao tiếp nhẹ dành riêng cho môi trường đào tạo AI phi tập trung do Prime Intellect phát triển, nhằm giải quyết các vấn đề thích ứng của thư viện giao tiếp truyền thống trong các thiết bị khác nhau và mạng có băng thông thấp. PCCL hỗ trợ cấu trúc thưa, nén độ dốc, đồng bộ độ chính xác thấp và khôi phục từ điểm dừng, có thể chạy trên GPU tiêu dùng và các nút không ổn định, là thành phần cơ sở hỗ trợ khả năng giao tiếp bất đồng bộ của giao thức OpenDiLoCo. Nó nâng cao đáng kể khả năng chịu đựng băng thông của mạng đào tạo và tính tương thích của thiết bị, mở ra "km cuối" cho cơ sở giao tiếp trong việc xây dựng mạng đào tạo hợp tác thực sự mở và không cần tin cậy.

Ba, Mạng lưới khuyến khích Prime Intellect và phân công vai trò

Prime Intellect xây dựng một mạng lưới đào tạo không cần phép, có thể xác minh và có cơ chế khuyến khích kinh tế, cho phép bất kỳ ai tham gia vào nhiệm vụ và nhận được phần thưởng dựa trên đóng góp thực sự. Giao thức hoạt động dựa trên ba loại vai trò cốt lõi:

  • Người khởi tạo nhiệm vụ: định nghĩa môi trường đào tạo, mô hình ban đầu, hàm thưởng và tiêu chuẩn xác thực
  • Nút huấn luyện: thực hiện huấn luyện cục bộ, gửi cập nhật trọng số và theo dõi quỹ đạo
  • Nút xác thực: Sử dụng cơ chế TOPLOC để xác minh tính xác thực của hành vi đào tạo và tham gia vào việc tính toán phần thưởng cũng như tổng hợp chiến lược

Quy trình cốt lõi của thỏa thuận bao gồm phát hành nhiệm vụ, đào tạo nút, xác minh quỹ đạo, tổng hợp trọng số và phát thưởng, tạo thành một vòng khép kín khuyến khích xoay quanh "hành vi đào tạo thực tế".

AI huấn luyện mô hình tiến hóa: từ kiểm soát tập trung đến cách mạng công nghệ hợp tác Phi tập trung

Bốn, INTELLECT-2: Phát hành mô hình đào tạo phi tập trung đầu tiên có thể xác minh

Prime Intellect đã phát hành INTELLECT-2 vào tháng 5 năm 2025, đây là mô hình học sâu lớn đầu tiên trên thế giới được đào tạo thông qua sự hợp tác của các nút phi tập trung không cần tin cậy và không đồng bộ, với quy mô tham số lên đến 32B. Mô hình INTELLECT-2 được hoàn thành thông qua sự hợp tác đào tạo của hơn 100 nút GPU không đồng nhất trải rộng trên ba châu lục, sử dụng kiến trúc hoàn toàn không đồng bộ, thời gian đào tạo vượt quá 400 giờ, cho thấy tính khả thi và ổn định của mạng lưới hợp tác không đồng bộ. Mô hình này không chỉ là một bước đột phá về hiệu suất, mà còn là lần đầu tiên hệ thống hóa triết lý "đào tạo chính là đồng thuận" mà Prime Intellect đã đề xuất. INTELLECT-2 tích hợp các mô-đun giao thức cốt lõi như PRIME-RL, TOPLOC và SHARDCAST, đánh dấu sự phi tập trung.

PRIME-5.05%
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • 6
  • Đăng lại
  • Chia sẻ
Bình luận
0/400
Whale_Whisperervip
· 08-12 12:33
Quá tốn tiền rồi đấy.
Xem bản gốcTrả lời0
MemeCuratorvip
· 08-12 12:10
Đào tạo tiêu tiền nghe đã thấy đau đầu
Xem bản gốcTrả lời0
LazyDevMinervip
· 08-09 17:17
Đào tạo mô hình tốn kém rất lớn, người nghèo không chơi nổi.
Xem bản gốcTrả lời0
Degentlemanvip
· 08-09 17:12
Không đủ sức để chơi các studio tập trung, anh em đã chuyển sang chơi liên bang.
Xem bản gốcTrả lời0
DefiPlaybookvip
· 08-09 17:10
Đào tạo vẫn chưa phi tập trung? Điều này chẳng phải tương đương với việc tất cả hợp đồng thông minh đều được đặt trên aws sao?
Xem bản gốcTrả lời0
SadMoneyMeowvip
· 08-09 17:09
Ôi, tiền lại bị tiêu hết rồi qaq
Xem bản gốcTrả lời0
  • Ghim
Giao dịch tiền điện tử mọi lúc mọi nơi
qrCode
Quét để tải xuống ứng dụng Gate
Cộng đồng
Tiếng Việt
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)