AI và DePIN giao thoa: Sự trỗi dậy của mạng tính toán GPU phi tập trung
Kể từ năm 2023, AI và DePIN đã trở thành những xu hướng nóng trong lĩnh vực Web3, với giá trị thị trường lần lượt đạt 30 tỷ USD và 23 tỷ USD. Bài viết này sẽ khám phá giao thoa giữa hai yếu tố này và nghiên cứu sự phát triển của các giao thức liên quan.
Trong ngăn xếp công nghệ AI, mạng DePIN cung cấp tài nguyên tính toán để hỗ trợ AI. Sự phát triển của các công ty công nghệ lớn đã dẫn đến tình trạng thiếu GPU, khiến các nhà phát triển khác khó có thể có đủ GPU để tính toán. Điều này thường buộc các nhà phát triển phải chọn nhà cung cấp dịch vụ đám mây tập trung, nhưng do cần ký hợp đồng phần cứng hiệu suất cao dài hạn không linh hoạt, dẫn đến hiệu quả thấp.
DePIN cung cấp một giải pháp thay thế linh hoạt và tiết kiệm chi phí hơn, thông qua việc khuyến khích tài nguyên đóng góp bằng token. Mạng DePIN trong lĩnh vực AI sẽ tích hợp tài nguyên GPU từ các chủ sở hữu cá nhân thành một nguồn cung thống nhất, phục vụ cho những người dùng cần phần cứng. Điều này không chỉ mang lại tính tùy chỉnh và truy cập theo nhu cầu cho các nhà phát triển, mà còn tạo ra thu nhập bổ sung cho các chủ sở hữu GPU.
Tổng quan về mạng DePIN AI
Các dự án đều nhằm mục tiêu xây dựng mạng lưới tính toán GPU. Dưới đây sẽ giới thiệu đặc điểm, trọng tâm thị trường và thành tựu của từng dự án.
Render là tiên phong trong mạng tính toán GPU P2P, ban đầu tập trung vào việc tạo nội dung đồ họa, sau đó mở rộng sang các nhiệm vụ tính toán AI.
Đặc điểm:
Được thành lập bởi công ty đồ họa đám mây OTOY
Các công ty lớn trong ngành giải trí như Paramount Pictures, PUBG sử dụng mạng GPU của họ
Hợp tác với Stability AI và Endeavor, tích hợp mô hình AI với quy trình làm việc render nội dung 3D.
Phê duyệt nhiều máy khách tính toán, tích hợp nhiều GPU của mạng DePIN hơn
Akash được định vị là một sản phẩm thay thế "siêu đám mây" hỗ trợ lưu trữ, tính toán GPU và CPU. Sử dụng nền tảng container và các nút tính toán được quản lý bởi Kubernetes, phần mềm có thể được triển khai liền mạch trên nhiều môi trường.
Đặc điểm:
Hướng tới các nhiệm vụ tính toán rộng rãi từ tính toán tổng quát đến lưu trữ mạng
AkashML hỗ trợ chạy hơn 15,000 mô hình trên Hugging Face
Ứng dụng chatbot mô hình LLM của Mistral AI, SDXL của Stability AI, v.v.
Hỗ trợ nền tảng triển khai vũ trụ ảo, AI và học liên bang
io.net cung cấp cụm đám mây GPU phân tán, chuyên dùng cho các trường hợp AI và ML. Tích hợp tài nguyên GPU từ các lĩnh vực như trung tâm dữ liệu, thợ đào tiền mã hóa.
Đặc điểm:
IO-SDK tương thích với các framework như PyTorch và Tensorflow, có thể tự động mở rộng theo nhu cầu tính toán.
Hỗ trợ tạo 3 loại cụm khác nhau, có thể khởi động trong vòng 2 phút
Hợp tác tích hợp tài nguyên GPU với Render, Filecoin, Aethir và các bên khác
Gensyn cung cấp khả năng tính toán GPU tập trung vào học máy và học sâu. Sử dụng các công nghệ như chứng minh học tập, giao thức định vị chính xác dựa trên đồ thị để nâng cao hiệu quả xác minh.
Đặc điểm:
Chi phí mỗi giờ cho GPU tương đương V100 khoảng 0.40 đô la, tiết kiệm chi phí đáng kể
Hỗ trợ tinh chỉnh các mô hình cơ bản đã được huấn luyện trước
Kế hoạch cung cấp mô hình cơ sở phi tập trung, toàn cầu sở hữu
Aethir tập trung vào AI, ML, game đám mây và các lĩnh vực tính toán chuyên sâu khác. Các container trong mạng lưới của nó hoạt động như các điểm cuối ảo để thực hiện các ứng dụng đám mây, mang đến trải nghiệm độ trễ thấp.
Đặc điểm:
Mở rộng dịch vụ điện thoại đám mây, hợp tác với APhone để ra mắt điện thoại thông minh đám mây Phi tập trung
Thiết lập hợp tác với các công ty lớn như NVIDIA, Super Micro, HPE
Hợp tác với nhiều dự án Web3 như CARV, Magic Eden
Phala Network là tầng thực thi của giải pháp Web3 AI. Thông qua môi trường thực thi đáng tin cậy (TEE) thiết kế xử lý các vấn đề về quyền riêng tư, hỗ trợ các đại lý AI được kiểm soát bởi hợp đồng thông minh trên chuỗi.
Đặc điểm:
Là giao thức đồng xử lý cho tính toán có thể xác minh, hỗ trợ tài nguyên trên chuỗi AI.
Hợp đồng đại lý AI có thể được nhận thông qua Redpill để có được các mô hình ngôn ngữ lớn hàng đầu như OpenAI, Llama.
Tương lai sẽ bao gồm zk-proofs, tính toán nhiều bên, hệ thống chứng minh đa dạng như mã hóa đồng nhất hoàn toàn.
Kế hoạch hỗ trợ H100 và các GPU TEE khác, nâng cao khả năng tính toán
So sánh dự án
| | Render | Akash | io.net | Gensyn | Aethir | Phala |
|--------|-------------|------------------|---------------------|---------|---------------|----------|
| Phần cứng | GPU & CPU | GPU & CPU | GPU & CPU | GPU | GPU | CPU |
| Điểm nhấn kinh doanh | Kết xuất đồ họa và AI | Điện toán đám mây, kết xuất và AI | AI | AI | AI, trò chơi đám mây và viễn thông | Thực thi AI trên chuỗi |
| Loại nhiệm vụ AI | Suy diễn | Cả hai | Cả hai | Đào tạo | Đào tạo | Thực hiện |
| Định giá công việc | Định giá dựa trên hiệu suất | Đấu giá ngược | Định giá thị trường | Định giá thị trường | Hệ thống đấu thầu | Tính toán quyền lợi |
| Chuỗi khối | Solana | Cosmos | Solana | Gensyn | Arbitrum | Polkadot |
| Quyền riêng tư dữ liệu | Mã hóa&băm | Xác thực mTLS | Mã hóa dữ liệu | Bản đồ an toàn | Mã hóa | TEE |
| Chi phí công việc | Mỗi công việc 0.5-5% | 20% USDC, 4% AKT | 2% USDC, 0.25% phí dự trữ | Chi phí thấp | Mỗi phiên 20% | Tỷ lệ với số tiền đặt cọc |
| An toàn | Chứng minh kết xuất | Chứng minh quyền lợi | Chứng minh tính toán | Chứng minh quyền lợi | Chứng minh khả năng kết xuất | Kế thừa từ chuỗi trung gian |
| Chứng minh hoàn thành | - | - | Chứng minh khóa thời gian | Chứng minh học tập | Chứng minh công việc render | Chứng minh TEE |
| Đảm bảo chất lượng | Tranh chấp | - | - | Người xác minh và người báo cáo | Nút kiểm tra | Chứng minh từ xa |
| Cụm GPU | Không | Có | Có | Có | Có | Không |
Tầm quan trọng
Tính khả dụng của cụm và tính toán song song
Khung tính toán phân tán triển khai cụm GPU, cung cấp khả năng đào tạo và khả năng mở rộng hiệu quả hơn. Việc đào tạo các mô hình AI phức tạp cần sức mạnh tính toán mạnh mẽ, thường dựa vào tính toán phân tán. Hầu hết các dự án hiện đã tích hợp cụm để thực hiện tính toán song song. io.net đã triển khai thành công hơn 3.800 cụm. Mặc dù Render không hỗ trợ cụm, nhưng nó sẽ phân chia một nhiệm vụ duy nhất thành nhiều nút để xử lý đồng thời. Phala hỗ trợ cụm hóa các bộ xử lý CPU.
Dữ liệu riêng tư
Việc phát triển mô hình AI cần sử dụng một lượng lớn tập dữ liệu, có thể tồn tại rủi ro lộ dữ liệu nhạy cảm. Hầu hết các dự án áp dụng một dạng mã hóa dữ liệu nào đó để bảo vệ quyền riêng tư. io.net hợp tác với Mind Network ra mắt mã hóa toàn phần (FHE), cho phép xử lý dữ liệu trong trạng thái mã hóa. Phala Network giới thiệu môi trường thực thi đáng tin cậy (TEE), ngăn chặn các quy trình bên ngoài truy cập hoặc sửa đổi dữ liệu.
Tính toán hoàn thành chứng nhận và kiểm tra chất lượng
Gensyn và Aethir tạo ra chứng nhận sau khi hoàn thành tính toán, chứng nhận của io.net cho thấy hiệu suất GPU được thuê đã được sử dụng đầy đủ. Cả Gensyn và Aethir đều thực hiện kiểm tra chất lượng cho các tính toán đã hoàn thành. Render đề xuất sử dụng quy trình giải quyết tranh chấp. Phala tạo ra chứng nhận TEE sau khi hoàn thành, đảm bảo rằng đại lý AI thực hiện các thao tác cần thiết.
Việc đào tạo mô hình AI cần GPU có hiệu suất tốt nhất, như A100 và H100 của Nvidia. Hiệu suất suy diễn của H100 nhanh gấp 4 lần A100, trở thành GPU được ưa chuộng. Các nhà cung cấp thị trường GPU Phi tập trung cần đáp ứng nhu cầu thực tế của thị trường và cung cấp mức giá thấp hơn. io.net và Aethir đều đã nhận được hơn 2000 đơn vị H100/A100, phù hợp hơn cho tính toán mô hình lớn.
Mặc dù cụm GPU kết nối mạng có chi phí thấp hơn, nhưng bộ nhớ bị hạn chế. GPU kết nối bằng NVLink là phù hợp nhất cho LLM có nhiều tham số và tập dữ liệu lớn, vì chúng cần hiệu suất cao và tính toán dày đặc. Mạng GPU Phi tập trung vẫn có thể cung cấp khả năng tính toán mạnh mẽ và khả năng mở rộng cho các tác vụ tính toán phân tán, mở ra cơ hội để xây dựng nhiều trường hợp AI và ML hơn.
Cung cấp GPU/CPU cấp tiêu dùng
CPU trong việc đào tạo mô hình AI cũng đóng vai trò quan trọng, có thể được sử dụng cho việc tiền xử lý dữ liệu và quản lý tài nguyên bộ nhớ. GPU tiêu dùng có thể được sử dụng để tinh chỉnh mô hình đã được đào tạo trước hoặc đào tạo quy mô nhỏ. Các dự án như Render, Akash và io.net cũng phục vụ cho thị trường này, phát triển thị trường ngách của riêng mình.
Kết luận
Lĩnh vực DePIN AI vẫn còn tương đối mới mẻ và đối mặt với những thách thức. Tuy nhiên, số lượng nhiệm vụ và phần cứng được thực hiện trên các mạng này đã tăng lên đáng kể, nhấn mạnh nhu cầu về các sản phẩm thay thế cho tài nguyên phần cứng của nhà cung cấp đám mây Web2. Trong tương lai, thị trường trí tuệ nhân tạo dự kiến sẽ phát triển mạnh mẽ, các mạng GPU phi tập trung này sẽ đóng vai trò then chốt trong việc cung cấp giải pháp tính toán hiệu quả về chi phí cho các nhà phát triển.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
14 thích
Phần thưởng
14
6
Chia sẻ
Bình luận
0/400
WenMoon
· 17giờ trước
Đã hiểu, đã hiểu khi mọi người đều xếp hàng để giành GPU.
Xem bản gốcTrả lời0
SilentObserver
· 07-28 17:52
GPU trực tiếp giảm麻了?
Xem bản gốcTrả lời0
ForeverBuyingDips
· 07-28 17:45
gpu要To da moon了?
Xem bản gốcTrả lời0
BearMarketSunriser
· 07-28 17:43
Lại là kể chuyện lừa đồ ngốc nhập một vị thế.
Xem bản gốcTrả lời0
WhaleMinion
· 07-28 17:32
GPU tăng lên quá nhanh, bán lẻ thật sự khó khăn.
Xem bản gốcTrả lời0
StablecoinArbitrageur
· 07-28 17:23
hmm *điều chỉnh kính* nhìn vào cơ sở chi phí trên mỗi đơn vị tính toán... depin thực sự có thể mang lại lợi nhuận điều chỉnh rủi ro tốt hơn so với các nhà cung cấp tập trung thật lòng mà nói
AI và sự kết hợp DePIN: Sự nổi lên và phát triển của mạng lưới tính toán GPU Phi tập trung
AI và DePIN giao thoa: Sự trỗi dậy của mạng tính toán GPU phi tập trung
Kể từ năm 2023, AI và DePIN đã trở thành những xu hướng nóng trong lĩnh vực Web3, với giá trị thị trường lần lượt đạt 30 tỷ USD và 23 tỷ USD. Bài viết này sẽ khám phá giao thoa giữa hai yếu tố này và nghiên cứu sự phát triển của các giao thức liên quan.
Trong ngăn xếp công nghệ AI, mạng DePIN cung cấp tài nguyên tính toán để hỗ trợ AI. Sự phát triển của các công ty công nghệ lớn đã dẫn đến tình trạng thiếu GPU, khiến các nhà phát triển khác khó có thể có đủ GPU để tính toán. Điều này thường buộc các nhà phát triển phải chọn nhà cung cấp dịch vụ đám mây tập trung, nhưng do cần ký hợp đồng phần cứng hiệu suất cao dài hạn không linh hoạt, dẫn đến hiệu quả thấp.
DePIN cung cấp một giải pháp thay thế linh hoạt và tiết kiệm chi phí hơn, thông qua việc khuyến khích tài nguyên đóng góp bằng token. Mạng DePIN trong lĩnh vực AI sẽ tích hợp tài nguyên GPU từ các chủ sở hữu cá nhân thành một nguồn cung thống nhất, phục vụ cho những người dùng cần phần cứng. Điều này không chỉ mang lại tính tùy chỉnh và truy cập theo nhu cầu cho các nhà phát triển, mà còn tạo ra thu nhập bổ sung cho các chủ sở hữu GPU.
Tổng quan về mạng DePIN AI
Các dự án đều nhằm mục tiêu xây dựng mạng lưới tính toán GPU. Dưới đây sẽ giới thiệu đặc điểm, trọng tâm thị trường và thành tựu của từng dự án.
Render là tiên phong trong mạng tính toán GPU P2P, ban đầu tập trung vào việc tạo nội dung đồ họa, sau đó mở rộng sang các nhiệm vụ tính toán AI.
Đặc điểm:
Akash được định vị là một sản phẩm thay thế "siêu đám mây" hỗ trợ lưu trữ, tính toán GPU và CPU. Sử dụng nền tảng container và các nút tính toán được quản lý bởi Kubernetes, phần mềm có thể được triển khai liền mạch trên nhiều môi trường.
Đặc điểm:
io.net cung cấp cụm đám mây GPU phân tán, chuyên dùng cho các trường hợp AI và ML. Tích hợp tài nguyên GPU từ các lĩnh vực như trung tâm dữ liệu, thợ đào tiền mã hóa.
Đặc điểm:
Gensyn cung cấp khả năng tính toán GPU tập trung vào học máy và học sâu. Sử dụng các công nghệ như chứng minh học tập, giao thức định vị chính xác dựa trên đồ thị để nâng cao hiệu quả xác minh.
Đặc điểm:
Aethir tập trung vào AI, ML, game đám mây và các lĩnh vực tính toán chuyên sâu khác. Các container trong mạng lưới của nó hoạt động như các điểm cuối ảo để thực hiện các ứng dụng đám mây, mang đến trải nghiệm độ trễ thấp.
Đặc điểm:
Phala Network là tầng thực thi của giải pháp Web3 AI. Thông qua môi trường thực thi đáng tin cậy (TEE) thiết kế xử lý các vấn đề về quyền riêng tư, hỗ trợ các đại lý AI được kiểm soát bởi hợp đồng thông minh trên chuỗi.
Đặc điểm:
So sánh dự án
| | Render | Akash | io.net | Gensyn | Aethir | Phala | |--------|-------------|------------------|---------------------|---------|---------------|----------| | Phần cứng | GPU & CPU | GPU & CPU | GPU & CPU | GPU | GPU | CPU | | Điểm nhấn kinh doanh | Kết xuất đồ họa và AI | Điện toán đám mây, kết xuất và AI | AI | AI | AI, trò chơi đám mây và viễn thông | Thực thi AI trên chuỗi | | Loại nhiệm vụ AI | Suy diễn | Cả hai | Cả hai | Đào tạo | Đào tạo | Thực hiện | | Định giá công việc | Định giá dựa trên hiệu suất | Đấu giá ngược | Định giá thị trường | Định giá thị trường | Hệ thống đấu thầu | Tính toán quyền lợi | | Chuỗi khối | Solana | Cosmos | Solana | Gensyn | Arbitrum | Polkadot | | Quyền riêng tư dữ liệu | Mã hóa&băm | Xác thực mTLS | Mã hóa dữ liệu | Bản đồ an toàn | Mã hóa | TEE | | Chi phí công việc | Mỗi công việc 0.5-5% | 20% USDC, 4% AKT | 2% USDC, 0.25% phí dự trữ | Chi phí thấp | Mỗi phiên 20% | Tỷ lệ với số tiền đặt cọc | | An toàn | Chứng minh kết xuất | Chứng minh quyền lợi | Chứng minh tính toán | Chứng minh quyền lợi | Chứng minh khả năng kết xuất | Kế thừa từ chuỗi trung gian | | Chứng minh hoàn thành | - | - | Chứng minh khóa thời gian | Chứng minh học tập | Chứng minh công việc render | Chứng minh TEE | | Đảm bảo chất lượng | Tranh chấp | - | - | Người xác minh và người báo cáo | Nút kiểm tra | Chứng minh từ xa | | Cụm GPU | Không | Có | Có | Có | Có | Không |
Tầm quan trọng
Tính khả dụng của cụm và tính toán song song
Khung tính toán phân tán triển khai cụm GPU, cung cấp khả năng đào tạo và khả năng mở rộng hiệu quả hơn. Việc đào tạo các mô hình AI phức tạp cần sức mạnh tính toán mạnh mẽ, thường dựa vào tính toán phân tán. Hầu hết các dự án hiện đã tích hợp cụm để thực hiện tính toán song song. io.net đã triển khai thành công hơn 3.800 cụm. Mặc dù Render không hỗ trợ cụm, nhưng nó sẽ phân chia một nhiệm vụ duy nhất thành nhiều nút để xử lý đồng thời. Phala hỗ trợ cụm hóa các bộ xử lý CPU.
Dữ liệu riêng tư
Việc phát triển mô hình AI cần sử dụng một lượng lớn tập dữ liệu, có thể tồn tại rủi ro lộ dữ liệu nhạy cảm. Hầu hết các dự án áp dụng một dạng mã hóa dữ liệu nào đó để bảo vệ quyền riêng tư. io.net hợp tác với Mind Network ra mắt mã hóa toàn phần (FHE), cho phép xử lý dữ liệu trong trạng thái mã hóa. Phala Network giới thiệu môi trường thực thi đáng tin cậy (TEE), ngăn chặn các quy trình bên ngoài truy cập hoặc sửa đổi dữ liệu.
Tính toán hoàn thành chứng nhận và kiểm tra chất lượng
Gensyn và Aethir tạo ra chứng nhận sau khi hoàn thành tính toán, chứng nhận của io.net cho thấy hiệu suất GPU được thuê đã được sử dụng đầy đủ. Cả Gensyn và Aethir đều thực hiện kiểm tra chất lượng cho các tính toán đã hoàn thành. Render đề xuất sử dụng quy trình giải quyết tranh chấp. Phala tạo ra chứng nhận TEE sau khi hoàn thành, đảm bảo rằng đại lý AI thực hiện các thao tác cần thiết.
Thống kê phần cứng
| | Render | Akash | io.net | Gensyn | Aethir | Phala | |-------------|--------|-------|--------|------------|------------|--------| | Số lượng GPU | 5600 | 384 | 38177 | - | 40000+ | - | | Số lượng CPU | 114 | 14672 | 5433 | - | - | 30000+ | | Số lượng H100/A100 | - | 157 | 2330 | - | 2000+ | - | | Chi phí H100/giờ | - | $1.46 | $1.19 | - | - | - | | Chi phí A100/giờ | - | $1.37 | $1.50 | $0.55 ( dự kiến ) | $0.33 ( dự kiến ) | - |
yêu cầu GPU hiệu suất cao
Việc đào tạo mô hình AI cần GPU có hiệu suất tốt nhất, như A100 và H100 của Nvidia. Hiệu suất suy diễn của H100 nhanh gấp 4 lần A100, trở thành GPU được ưa chuộng. Các nhà cung cấp thị trường GPU Phi tập trung cần đáp ứng nhu cầu thực tế của thị trường và cung cấp mức giá thấp hơn. io.net và Aethir đều đã nhận được hơn 2000 đơn vị H100/A100, phù hợp hơn cho tính toán mô hình lớn.
Mặc dù cụm GPU kết nối mạng có chi phí thấp hơn, nhưng bộ nhớ bị hạn chế. GPU kết nối bằng NVLink là phù hợp nhất cho LLM có nhiều tham số và tập dữ liệu lớn, vì chúng cần hiệu suất cao và tính toán dày đặc. Mạng GPU Phi tập trung vẫn có thể cung cấp khả năng tính toán mạnh mẽ và khả năng mở rộng cho các tác vụ tính toán phân tán, mở ra cơ hội để xây dựng nhiều trường hợp AI và ML hơn.
Cung cấp GPU/CPU cấp tiêu dùng
CPU trong việc đào tạo mô hình AI cũng đóng vai trò quan trọng, có thể được sử dụng cho việc tiền xử lý dữ liệu và quản lý tài nguyên bộ nhớ. GPU tiêu dùng có thể được sử dụng để tinh chỉnh mô hình đã được đào tạo trước hoặc đào tạo quy mô nhỏ. Các dự án như Render, Akash và io.net cũng phục vụ cho thị trường này, phát triển thị trường ngách của riêng mình.
Kết luận
Lĩnh vực DePIN AI vẫn còn tương đối mới mẻ và đối mặt với những thách thức. Tuy nhiên, số lượng nhiệm vụ và phần cứng được thực hiện trên các mạng này đã tăng lên đáng kể, nhấn mạnh nhu cầu về các sản phẩm thay thế cho tài nguyên phần cứng của nhà cung cấp đám mây Web2. Trong tương lai, thị trường trí tuệ nhân tạo dự kiến sẽ phát triển mạnh mẽ, các mạng GPU phi tập trung này sẽ đóng vai trò then chốt trong việc cung cấp giải pháp tính toán hiệu quả về chi phí cho các nhà phát triển.