AI y DePIN: El auge de la red de computación GPU descentralizada
Desde 2023, la IA y la Descentralización de Infraestructura Física (DePIN) se han convertido en tendencias populares en el ámbito de Web3, alcanzando una capitalización de mercado de 30 mil millones de dólares y 23 mil millones de dólares, respectivamente. Este artículo explorará la intersección de ambas, investigando el desarrollo de los protocolos relacionados.
En la pila tecnológica de IA, la red DePIN empodera la IA al proporcionar recursos de computación. El desarrollo de grandes empresas tecnológicas ha llevado a la escasez de GPU, lo que dificulta que otros desarrolladores obtengan suficientes GPU para realizar cálculos. Esto a menudo obliga a los desarrolladores a optar por proveedores de servicios en la nube centralizados, pero debido a la necesidad de firmar contratos de hardware de alto rendimiento a largo plazo e inflexibles, la eficiencia es baja.
DePIN ofrece una alternativa más flexible y rentable, incentivando la contribución de recursos a través de tokens. La red DePIN en el ámbito de la IA integra recursos de GPU de propietarios individuales en un suministro unificado, brindando servicios a los usuarios que necesitan hardware. Esto no solo proporciona personalización y acceso bajo demanda para los desarrolladores, sino que también crea ingresos adicionales para los propietarios de GPU.
Resumen de la red AI DePIN
Cada proyecto tiene como objetivo construir una red de mercado de computación GPU. A continuación, se presentarán las características de cada proyecto, los enfoques del mercado y los logros.
Render es el pionero de la red de computación P2P GPU, que inicialmente se centró en la renderización gráfica para la creación de contenido y luego se expandió a tareas de computación de IA.
Características:
Fundada por la compañía de gráficos en la nube OTOY
Grandes compañías de la industria del entretenimiento como Paramount Pictures, PUBG, etc. utilizan su red GPU
Colaborar con Stability AI y Endeavor para integrar modelos de IA en flujos de trabajo de renderizado de contenido 3D
Aprobar múltiples clientes de cálculo, integrar más GPU de redes DePIN
Akash se posiciona como una alternativa a la "súper nube" que soporta almacenamiento, GPU y cálculos de CPU. Utilizando una plataforma de contenedores y nodos de computación gestionados por Kubernetes, permite el despliegue de software sin problemas a través de entornos.
Características:
Enfocado en una amplia gama de tareas computacionales, desde la computación general hasta el alojamiento en red.
AkashML admite más de 15,000 modelos en Hugging Face
Aplicaciones como el chatbot de modelo LLM de Mistral AI, SDXL de Stability AI, etc.
Soporte para plataformas de despliegue de metaverso, IA y aprendizaje federado
io.net ofrece un clúster de GPU en la nube distribuido, diseñado para casos de uso de IA y ML. Integra recursos de GPU de áreas como centros de datos, mineros de criptomonedas, entre otros.
Características:
IO-SDK es compatible con marcos como PyTorch y Tensorflow, y puede escalar automáticamente según las necesidades de cálculo.
Soporta la creación de 3 tipos diferentes de clústeres, que se pueden iniciar en 2 minutos.
Colaborar e integrar recursos de GPU con Render, Filecoin, Aethir, etc.
Gensyn ofrece capacidades de computación GPU centradas en el aprendizaje automático y el aprendizaje profundo. Utiliza tecnologías como la prueba de aprendizaje y protocolos de localización precisa basados en gráficos para mejorar la eficiencia de la verificación.
Características:
El costo por hora de una GPU equivalente a V100 es de aproximadamente 0.40 dólares, lo que representa un ahorro de costos significativo.
Soporte para el ajuste fino de modelos base preentrenados
Se planea proporcionar un modelo base de propiedad global y descentralizado.
Aethir se centra en áreas de alta computación como IA, ML y juegos en la nube. Los contenedores en su red actúan como puntos finales virtuales para ejecutar aplicaciones en la nube, logrando una experiencia de baja latencia.
Características:
Expansión a servicios de teléfonos en la nube, colaboración con APhone para lanzar un teléfono inteligente en la nube de Descentralización.
Establecer colaboraciones con grandes empresas como NVIDIA, Super Micro, HPE
Colaboración con múltiples proyectos Web3 como CARV, Magic Eden
Phala Network como la capa de ejecución de soluciones de IA Web3. Diseñada para abordar problemas de privacidad a través de entornos de ejecución confiables (TEE), soporta agentes de IA controlados por contratos inteligentes en la cadena.
Características:
Como protocolo de coprocesador de cálculo verificable, soporta recursos en la cadena de agentes de IA.
Los contratos de agente de IA se pueden obtener a través de Redpill, que ofrece modelos de lenguaje de primer nivel como OpenAI, Llama, entre otros.
El futuro incluirá sistemas de pruebas múltiples como zk-proofs, computación multipartita y cifrado homomórfico completo.
Se planea soportar H100 y otras GPU TEE para mejorar la capacidad de cálculo.
Comparación de proyectos
| | Render | Akash | io.net | Gensyn | Aethir | Phala |
|--------|-------------|------------------|---------------------|---------|---------------|----------|
| Hardware | GPU & CPU | GPU & CPU | GPU & CPU | GPU | GPU | CPU |
| Enfoque del negocio | Renderizado gráfico y IA | Computación en la nube, renderizado e IA | IA | IA | IA, juegos en la nube y telecomunicaciones | Ejecución de IA en cadena |
| Tipo de tarea de IA | Inferencia | Ambos | Ambos | Entrenamiento | Entrenamiento | Ejecución |
| Precio del trabajo | Precio basado en el rendimiento | Subasta inversa | Precio de mercado | Precio de mercado | Sistema de licitación | Cálculo de derechos |
| Blockchain | Solana | Cosmos | Solana | Gensyn | Arbitrum | Polkadot |
| Privacidad de datos | Encriptación&hashing | Autenticación mTLS | Cifrado de datos | Mapeo seguro | Encriptación | TEE |
| Costos de trabajo | 0.5-5% por trabajo | 20% USDC, 4% AKT | 2% USDC, 0.25% costos de reserva | Costos bajos | 20% por sesión | Proporcional al monto de la participación |
| Seguridad | Prueba de Renderizado | Prueba de Participación | Prueba de Cálculo | Prueba de Participación | Prueba de Capacidad de Renderizado | Heredado de la Cadena de Relé |
| Certificado de finalización | - | - | Certificado de bloqueo temporal | Certificado de aprendizaje | Certificado de trabajo de renderización | Certificado TEE |
| Garantía de Calidad | Controversia | - | - | Verificador y Denunciante | Nodo de Comprobación | Prueba Remota |
| GPU Cluster | No | Sí | Sí | Sí | Sí | No |
importancia
Disponibilidad de clústeres y computación en paralelo
El marco de computación distribuida implementa un clúster de GPU, proporcionando un entrenamiento más eficiente y escalabilidad. Entrenar modelos de IA complejos requiere una poderosa capacidad de computación, que generalmente depende de la computación distribuida. La mayoría de los proyectos ahora han integrado clústeres para lograr el cálculo en paralelo. io.net ha desplegado con éxito más de 3,800 clústeres. Aunque Render no soporta clústeres, descompone tareas individuales para que múltiples nodos las procesen simultáneamente. Phala apoya la agrupación de trabajadores de CPU.
Privacidad de datos
El desarrollo de modelos de IA requiere el uso de grandes conjuntos de datos, lo que puede implicar riesgos de exposición de datos sensibles. La mayoría de los proyectos adoptan alguna forma de cifrado de datos para proteger la privacidad. io.net se ha asociado con Mind Network para lanzar la encriptación homomórfica total (FHE), permitiendo el procesamiento de datos en estado cifrado. Phala Network introduce un entorno de ejecución confiable (TEE), que previene el acceso o la modificación de datos por procesos externos.
Prueba de cálculo completo y verificación de calidad
Gensyn y Aethir generan pruebas después de completar los cálculos, la prueba de io.net indica que el rendimiento de la GPU arrendada se está utilizando de manera óptima. Tanto Gensyn como Aethir realizan un control de calidad de los cálculos completados. Render sugiere utilizar un proceso de resolución de disputas. Phala genera una prueba TEE al finalizar, asegurando que el agente de IA ejecute las operaciones requeridas.
El entrenamiento de modelos de IA requiere GPU de rendimiento óptimo, como la A100 y H100 de Nvidia. El rendimiento de inferencia de la H100 es 4 veces más rápido que el de la A100, convirtiéndose en la GPU preferida. Los proveedores de mercado de GPU Descentralización deben cumplir con la demanda real del mercado y ofrecer precios más bajos. io.net y Aethir han obtenido más de 2000 unidades de H100/A100, siendo más adecuadas para cálculos de modelos grandes.
Aunque los clústeres de GPU conectados a la red tienen un costo más bajo, su memoria es limitada. Las GPU conectadas por NVLink son las más adecuadas para LLM con muchos parámetros y grandes conjuntos de datos, ya que requieren un alto rendimiento y cálculos intensivos. La red de GPU descentralizada aún puede proporcionar una potente capacidad de cálculo y escalabilidad para tareas de computación distribuida, ofreciendo oportunidades para construir más casos de uso de IA y ML.
proporciona GPU/CPU de nivel de consumo
La CPU también desempeña un papel importante en el entrenamiento de modelos de IA, y se puede utilizar para el preprocesamiento de datos y la gestión de recursos de memoria. Las GPU de consumo se pueden utilizar para ajustar modelos preentrenados o para entrenamientos a pequeña escala. Proyectos como Render, Akash e io.net también sirven a este mercado, desarrollando su propio nicho.
Conclusión
El campo de DePIN de IA sigue siendo relativamente emergente y enfrenta desafíos. Sin embargo, el número de tareas ejecutadas en estas redes y de hardware ha aumentado significativamente, lo que resalta la demanda de alternativas a los recursos de hardware de los proveedores de nube Web2. En el futuro, se espera que el mercado de la inteligencia artificial prospere, y estas redes de GPU descentralizadas desempeñarán un papel clave en la provisión de alternativas de computación rentables para los desarrolladores.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
14 me gusta
Recompensa
14
6
Compartir
Comentar
0/400
WenMoon
· hace17h
Entendido, entendido, mientras todos hacen cola para las GPU.
Ver originalesResponder0
SilentObserver
· 07-28 17:52
¿La GPU cayó directamente?
Ver originalesResponder0
ForeverBuyingDips
· 07-28 17:45
¿La gpu va a To the moon?
Ver originalesResponder0
BearMarketSunriser
· 07-28 17:43
Otra vez contando historias para engañar a los tontos e introducir una posición.
Ver originalesResponder0
WhaleMinion
· 07-28 17:32
La GPU sube demasiado rápido, los inversores minoristas realmente están teniendo dificultades.
Ver originalesResponder0
StablecoinArbitrageur
· 07-28 17:23
hmm *ajusta las gafas* mirando el costo base por unidad de cómputo... depin podría, de hecho, generar mejores rendimientos ajustados al riesgo que los proveedores centralizados, para ser honesto.
La fusión de AI y DePIN: el surgimiento y desarrollo de redes de computación GPU descentralizadas
AI y DePIN: El auge de la red de computación GPU descentralizada
Desde 2023, la IA y la Descentralización de Infraestructura Física (DePIN) se han convertido en tendencias populares en el ámbito de Web3, alcanzando una capitalización de mercado de 30 mil millones de dólares y 23 mil millones de dólares, respectivamente. Este artículo explorará la intersección de ambas, investigando el desarrollo de los protocolos relacionados.
En la pila tecnológica de IA, la red DePIN empodera la IA al proporcionar recursos de computación. El desarrollo de grandes empresas tecnológicas ha llevado a la escasez de GPU, lo que dificulta que otros desarrolladores obtengan suficientes GPU para realizar cálculos. Esto a menudo obliga a los desarrolladores a optar por proveedores de servicios en la nube centralizados, pero debido a la necesidad de firmar contratos de hardware de alto rendimiento a largo plazo e inflexibles, la eficiencia es baja.
DePIN ofrece una alternativa más flexible y rentable, incentivando la contribución de recursos a través de tokens. La red DePIN en el ámbito de la IA integra recursos de GPU de propietarios individuales en un suministro unificado, brindando servicios a los usuarios que necesitan hardware. Esto no solo proporciona personalización y acceso bajo demanda para los desarrolladores, sino que también crea ingresos adicionales para los propietarios de GPU.
Resumen de la red AI DePIN
Cada proyecto tiene como objetivo construir una red de mercado de computación GPU. A continuación, se presentarán las características de cada proyecto, los enfoques del mercado y los logros.
Render es el pionero de la red de computación P2P GPU, que inicialmente se centró en la renderización gráfica para la creación de contenido y luego se expandió a tareas de computación de IA.
Características:
Akash se posiciona como una alternativa a la "súper nube" que soporta almacenamiento, GPU y cálculos de CPU. Utilizando una plataforma de contenedores y nodos de computación gestionados por Kubernetes, permite el despliegue de software sin problemas a través de entornos.
Características:
io.net ofrece un clúster de GPU en la nube distribuido, diseñado para casos de uso de IA y ML. Integra recursos de GPU de áreas como centros de datos, mineros de criptomonedas, entre otros.
Características:
Gensyn ofrece capacidades de computación GPU centradas en el aprendizaje automático y el aprendizaje profundo. Utiliza tecnologías como la prueba de aprendizaje y protocolos de localización precisa basados en gráficos para mejorar la eficiencia de la verificación.
Características:
Aethir se centra en áreas de alta computación como IA, ML y juegos en la nube. Los contenedores en su red actúan como puntos finales virtuales para ejecutar aplicaciones en la nube, logrando una experiencia de baja latencia.
Características:
Phala Network como la capa de ejecución de soluciones de IA Web3. Diseñada para abordar problemas de privacidad a través de entornos de ejecución confiables (TEE), soporta agentes de IA controlados por contratos inteligentes en la cadena.
Características:
Comparación de proyectos
| | Render | Akash | io.net | Gensyn | Aethir | Phala | |--------|-------------|------------------|---------------------|---------|---------------|----------| | Hardware | GPU & CPU | GPU & CPU | GPU & CPU | GPU | GPU | CPU | | Enfoque del negocio | Renderizado gráfico y IA | Computación en la nube, renderizado e IA | IA | IA | IA, juegos en la nube y telecomunicaciones | Ejecución de IA en cadena | | Tipo de tarea de IA | Inferencia | Ambos | Ambos | Entrenamiento | Entrenamiento | Ejecución | | Precio del trabajo | Precio basado en el rendimiento | Subasta inversa | Precio de mercado | Precio de mercado | Sistema de licitación | Cálculo de derechos | | Blockchain | Solana | Cosmos | Solana | Gensyn | Arbitrum | Polkadot | | Privacidad de datos | Encriptación&hashing | Autenticación mTLS | Cifrado de datos | Mapeo seguro | Encriptación | TEE | | Costos de trabajo | 0.5-5% por trabajo | 20% USDC, 4% AKT | 2% USDC, 0.25% costos de reserva | Costos bajos | 20% por sesión | Proporcional al monto de la participación | | Seguridad | Prueba de Renderizado | Prueba de Participación | Prueba de Cálculo | Prueba de Participación | Prueba de Capacidad de Renderizado | Heredado de la Cadena de Relé | | Certificado de finalización | - | - | Certificado de bloqueo temporal | Certificado de aprendizaje | Certificado de trabajo de renderización | Certificado TEE | | Garantía de Calidad | Controversia | - | - | Verificador y Denunciante | Nodo de Comprobación | Prueba Remota | | GPU Cluster | No | Sí | Sí | Sí | Sí | No |
importancia
Disponibilidad de clústeres y computación en paralelo
El marco de computación distribuida implementa un clúster de GPU, proporcionando un entrenamiento más eficiente y escalabilidad. Entrenar modelos de IA complejos requiere una poderosa capacidad de computación, que generalmente depende de la computación distribuida. La mayoría de los proyectos ahora han integrado clústeres para lograr el cálculo en paralelo. io.net ha desplegado con éxito más de 3,800 clústeres. Aunque Render no soporta clústeres, descompone tareas individuales para que múltiples nodos las procesen simultáneamente. Phala apoya la agrupación de trabajadores de CPU.
Privacidad de datos
El desarrollo de modelos de IA requiere el uso de grandes conjuntos de datos, lo que puede implicar riesgos de exposición de datos sensibles. La mayoría de los proyectos adoptan alguna forma de cifrado de datos para proteger la privacidad. io.net se ha asociado con Mind Network para lanzar la encriptación homomórfica total (FHE), permitiendo el procesamiento de datos en estado cifrado. Phala Network introduce un entorno de ejecución confiable (TEE), que previene el acceso o la modificación de datos por procesos externos.
Prueba de cálculo completo y verificación de calidad
Gensyn y Aethir generan pruebas después de completar los cálculos, la prueba de io.net indica que el rendimiento de la GPU arrendada se está utilizando de manera óptima. Tanto Gensyn como Aethir realizan un control de calidad de los cálculos completados. Render sugiere utilizar un proceso de resolución de disputas. Phala genera una prueba TEE al finalizar, asegurando que el agente de IA ejecute las operaciones requeridas.
Estadísticas de hardware
| | Render | Akash | io.net | Gensyn | Aethir | Phala | |-------------|--------|-------|--------|------------|------------|--------| | Cantidad de GPU | 5600 | 384 | 38177 | - | 40000+ | - | | Cantidad de CPU | 114 | 14672 | 5433 | - | - | 30000+ | | Cantidad H100/A100 | - | 157 | 2330 | - | 2000+ | - | | Costo H100/hora | - | $1.46 | $1.19 | - | - | - | | Costo A100/hora | - | $1.37 | $1.50 | $0.55 ( estimado ) | $0.33 ( estimado ) | - |
Requisitos de GPU de alto rendimiento
El entrenamiento de modelos de IA requiere GPU de rendimiento óptimo, como la A100 y H100 de Nvidia. El rendimiento de inferencia de la H100 es 4 veces más rápido que el de la A100, convirtiéndose en la GPU preferida. Los proveedores de mercado de GPU Descentralización deben cumplir con la demanda real del mercado y ofrecer precios más bajos. io.net y Aethir han obtenido más de 2000 unidades de H100/A100, siendo más adecuadas para cálculos de modelos grandes.
Aunque los clústeres de GPU conectados a la red tienen un costo más bajo, su memoria es limitada. Las GPU conectadas por NVLink son las más adecuadas para LLM con muchos parámetros y grandes conjuntos de datos, ya que requieren un alto rendimiento y cálculos intensivos. La red de GPU descentralizada aún puede proporcionar una potente capacidad de cálculo y escalabilidad para tareas de computación distribuida, ofreciendo oportunidades para construir más casos de uso de IA y ML.
proporciona GPU/CPU de nivel de consumo
La CPU también desempeña un papel importante en el entrenamiento de modelos de IA, y se puede utilizar para el preprocesamiento de datos y la gestión de recursos de memoria. Las GPU de consumo se pueden utilizar para ajustar modelos preentrenados o para entrenamientos a pequeña escala. Proyectos como Render, Akash e io.net también sirven a este mercado, desarrollando su propio nicho.
Conclusión
El campo de DePIN de IA sigue siendo relativamente emergente y enfrenta desafíos. Sin embargo, el número de tareas ejecutadas en estas redes y de hardware ha aumentado significativamente, lo que resalta la demanda de alternativas a los recursos de hardware de los proveedores de nube Web2. En el futuro, se espera que el mercado de la inteligencia artificial prospere, y estas redes de GPU descentralizadas desempeñarán un papel clave en la provisión de alternativas de computación rentables para los desarrolladores.