Ethereum The Surge: objetivo clave de soporte de 100,000 TPS y futuros planes de escalado

Futuro posible de Ethereum: The Surge

El mapa de ruta de Ethereum originalmente incluía dos estrategias de escalado: sharding y protocolos Layer2. Estos dos caminos finalmente se fusionaron, formando un mapa de ruta centrado en Rollup, que sigue siendo la estrategia de escalado actual de Ethereum.

La hoja de ruta centrada en Rollup propone una división de trabajo simple: Ethereum L1 se enfoca en convertirse en una capa base poderosa y descentralizada, mientras que L2 asume la tarea de ayudar a expandir el ecosistema. Este modelo está presente en toda la sociedad: la existencia del sistema judicial (L1) es para proteger los contratos y la propiedad, mientras que los emprendedores (L2) deben construir sobre esta sólida capa base, promoviendo el progreso humano.

Este año, la hoja de ruta centrada en Rollup ha logrado resultados importantes: con el lanzamiento de los blobs EIP-4844, el ancho de banda de datos de Ethereum L1 ha aumentado significativamente, y múltiples máquinas virtuales de Ethereum (EVM) Rollup han entrado en la primera fase. Cada L2 existe como un "shard" con sus propias reglas y lógica internas, y la diversidad y pluralidad de las formas de implementación de los shards se han convertido en una realidad. Pero, como hemos visto, seguir este camino también enfrenta algunos desafíos únicos. Por lo tanto, nuestra tarea ahora es completar la hoja de ruta centrada en Rollup y abordar estos problemas, mientras mantenemos la robustez y descentralización que son propias de Ethereum L1.

The Surge: Objetivos clave

  1. En el futuro, Ethereum podrá alcanzar más de 100,000 TPS a través de L2;

  2. Mantener la descentralización y robustez de L1;

  3. Al menos algunos L2 heredan completamente las propiedades centrales de Ethereum, ( de confianza, apertura y resistencia a la censura );

  4. Ethereum debería sentirse como un ecosistema unificado, y no como 34 blockchains diferentes.

El contenido de este capítulo

  1. Paradoja del triángulo de escalabilidad
  2. Avances adicionales en el muestreo de disponibilidad de datos
  3. Compresión de datos
  4. Plasma Generalizado
  5. Sistema de prueba L2 maduro
  6. Mejora de la interoperabilidad entre L2
  7. Ampliar la ejecución en L1

paradoja del triángulo de la escalabilidad

El triángulo de la escalabilidad es una idea propuesta en 2017, que sostiene que existe una contradicción entre las tres características de la blockchain: descentralización (, más específicamente: bajo costo de operación de nodos ), escalabilidad (, que permite procesar un gran número de transacciones ) y seguridad (, donde un atacante necesita comprometer una gran parte de los nodos en la red para hacer fallar una sola transacción ).

Es importante notar que la paradoja triangular no es un teorema, y las publicaciones que presentan la paradoja triangular no incluyen una prueba matemática. Sin embargo, ofrece un argumento matemático heurístico: si un nodo amigable con la descentralización (, por ejemplo, una laptop de consumo ) puede verificar N transacciones por segundo, y tienes una cadena que procesa k*N transacciones por segundo, entonces (i) cada transacción solo puede ser vista por 1/k nodos, lo que significa que un atacante solo necesita comprometer unos pocos nodos para realizar una transacción maliciosa, o (ii) tu nodo se volverá poderoso, mientras tu cadena no se descentraliza. El propósito de este artículo no es demostrar que romper la paradoja triangular es imposible; más bien, se propone mostrar que romper la paradoja ternaria es difícil y que requiere, en cierta medida, salir del marco de pensamiento que implica este argumento.

Durante años, algunas cadenas de alto rendimiento han afirmado que resuelven el trilema sin cambiar fundamentalmente la arquitectura, generalmente aplicando técnicas de ingeniería de software para optimizar los nodos. Esto siempre es engañoso, ya que ejecutar nodos en estas cadenas es mucho más difícil que ejecutar nodos en Ethereum. Este artículo explorará por qué es así y por qué la ingeniería de software del cliente L1 por sí sola no puede escalar Ethereum.

Sin embargo, la combinación de muestreo de disponibilidad de datos y SNARKs realmente resuelve la paradoja del triángulo: permite a los clientes verificar que una cierta cantidad de datos está disponible y que una cierta cantidad de pasos de cálculo se ejecutan correctamente, con solo descargar una pequeña cantidad de datos y realizar muy pocos cálculos. Los SNARKs son sin confianza. El muestreo de disponibilidad de datos tiene un sutil modelo de confianza few-of-N, pero conserva las características fundamentales de una cadena no escalable, es decir, incluso un ataque del 51% no puede forzar que bloques malos sean aceptados por la red.

Una forma alternativa de resolver el dilema de escalabilidad es la arquitectura Plasma, que utiliza técnicas ingeniosas para trasladar la responsabilidad de la disponibilidad de los datos a los usuarios de manera compatible con incentivos. Entre 2017 y 2019, cuando solo teníamos la prueba de fraude como medio para escalar la capacidad de cálculo, Plasma estaba muy limitado en la ejecución segura, pero con la proliferación de SNARKs( pruebas de conocimiento cero concisas y no interactivas), la arquitectura Plasma se vuelve más viable para un conjunto de casos de uso más amplio que nunca.

Vitalik nuevo artículo: Ethereum y su posible futuro, The Surge

Avances adicionales en la muestreo de disponibilidad de datos

¿Qué problema estamos resolviendo?

El 13 de marzo de 2024, cuando se implemente la actualización Dencun, la blockchain de Ethereum tendrá 3 blobs de aproximadamente 125 kB en cada slot de 12 segundos, o un ancho de banda de datos disponible por slot de aproximadamente 375 kB. Suponiendo que los datos de las transacciones se publican directamente en la cadena, una transferencia ERC20 es de aproximadamente 180 bytes, por lo tanto, el máximo TPS de Rollup en Ethereum es: 375000 / 12 / 180 = 173.6 TPS.

Si añadimos el valor máximo teórico de calldata de Ethereum (: 30 millones de Gas por slot / 16 gas por byte = 1,875,000 bytes por slot ), entonces se convierte en 607 TPS. Usando PeerDAS, la cantidad de blobs podría aumentar a 8-16, lo que proporcionaría 463-926 TPS para calldata.

Esta es una mejora significativa para Ethereum L1, pero no es suficiente. Queremos más escalabilidad. Nuestro objetivo a medio plazo es de 16 MB por slot, lo que combinado con las mejoras en la compresión de datos de Rollup, traerá ~58000 TPS.

¿Qué es? ¿Cómo funciona?

PeerDAS es una implementación relativamente simple de "1D sampling". En Ethereum, cada blob es un polinomio de 4096 grados sobre el campo primo de 253 bits (. Transmitimos las shares del polinomio, donde cada share contiene 16 valores de evaluación de 16 coordenadas adyacentes de un total de 8192 coordenadas. De estos 8192 valores de evaluación, cualquiera de los 4096 ) puede recuperar el blob según los parámetros propuestos actualmente: cualquiera de los 64 de 128 muestras posibles (.

El funcionamiento de PeerDAS es permitir que cada cliente escuche una pequeña cantidad de subredes, donde la i-ésima subred transmite la i-ésima muestra de cualquier blob, y solicita a los pares en la red p2p global ) quién escuchará diferentes subredes ( para obtener los blobs que necesita de otras subredes. Una versión más conservadora, SubnetDAS, utiliza únicamente el mecanismo de subredes, sin consultas adicionales a la capa de pares. La propuesta actual es que los nodos que participan en la prueba de participación utilicen SubnetDAS, mientras que otros nodos ), es decir, los clientes (, utilicen PeerDAS.

Desde un punto de vista teórico, podemos escalar un "muestreo 1D" bastante grande: si aumentamos el número máximo de blobs a 256) con un objetivo de 128(, entonces podemos alcanzar el objetivo de 16 MB, y en el muestreo de disponibilidad de datos, cada nodo tiene 16 muestras * 128 blobs * 512 bytes por muestra por blob = 1 MB de ancho de banda de datos por slot. Esto está apenas dentro de nuestro rango de tolerancia: es viable, pero significa que los clientes con ancho de banda limitado no pueden muestrear. Podemos optimizar esto hasta cierto punto reduciendo el número de blobs y aumentando el tamaño de los blobs, pero esto aumentará el costo de reconstrucción.

Por lo tanto, finalmente queremos ir un paso más allá y realizar 2D sampling), un método que no solo realiza muestreo aleatorio dentro del blob, sino también entre los blobs. Aprovechando la propiedad lineal del compromiso KZG, se expande un conjunto de blobs dentro de un bloque utilizando un conjunto de nuevos blobs virtuales que codifican redundantemente la misma información.

Por lo tanto, al final queremos ir un paso más allá y realizar muestreo 2D, que no solo se realiza dentro del blob, sino también entre los blobs. La propiedad lineal del compromiso KZG se utiliza para ampliar un conjunto de blobs en un bloque, que contiene una nueva lista de blobs virtuales codificados en redundancia para la misma información.

Es crucial que la expansión del compromiso de cálculo no requiera un blob, por lo que esta solución es fundamentalmente amigable para la construcción de bloques distribuidos. Los nodos que realmente construyen bloques solo necesitan tener el compromiso KZG del blob, y pueden confiar en la muestreo de disponibilidad de datos (DAS) para verificar la disponibilidad de los bloques de datos. El muestreo de disponibilidad de datos unidimensional (1D DAS) también es intrínsecamente amigable para la construcción de bloques distribuidos.

Vitalik nuevo artículo: El futuro posible de Ethereum, The Surge

(# ¿Qué más hay que hacer? ¿Qué compensaciones hay?

A continuación, se completará la implementación y lanzamiento de PeerDAS. Después, se incrementará continuamente la cantidad de blobs en PeerDAS, mientras se observa cuidadosamente la red y se mejora el software para garantizar la seguridad; este es un proceso gradual. Al mismo tiempo, esperamos más trabajo académico para regular PeerDAS y otras versiones de DAS, así como su interacción con cuestiones como la seguridad de las reglas de selección de bifurcación.

En etapas más avanzadas en el futuro, necesitamos hacer más trabajo para determinar la versión ideal del DAS 2D y demostrar sus propiedades de seguridad. También esperamos poder eventualmente pasar de KZG a una alternativa que sea segura cuánticamente y no requiera una configuración de confianza. Actualmente, no está claro qué candidatos son amigables para la construcción de bloques distribuidos. Incluso utilizando la costosa técnica de "fuerza bruta", es decir, usando STARK recursivo para generar pruebas de validez para reconstruir filas y columnas, no es suficiente para satisfacer la demanda, porque aunque técnicamente, un STARK tiene un tamaño de O)log(n) * log###log(n() hash ( usando STIR(, en realidad, el STARK es casi tan grande como todo el blob.

El camino de realidad a largo plazo que yo pienso es:

  1. Implementar un DAS 2D ideal;
  2. Mantener el uso de 1D DAS, sacrificando la eficiencia del ancho de banda de muestreo, aceptando un límite de datos más bajo por simplicidad y robustez.
  3. Renunciar a DA y aceptar completamente Plasma como nuestra principal arquitectura Layer2 de interés.

Por favor, ten en cuenta que, incluso si decidimos expandir la ejecución directamente en la capa L1, esta opción existe. Esto se debe a que si la capa L1 tiene que manejar una gran cantidad de TPS, los bloques L1 se volverán muy grandes, y los clientes querrán tener un método eficiente para verificar su corrección, por lo que tendremos que usar en la capa L1 las mismas tecnologías que Rollup) como ZK-EVM y DAS).

(# ¿Cómo interactuar con otras partes de la hoja de ruta?

Si se implementa la compresión de datos, la demanda de 2D DAS disminuirá, o al menos se retrasará. Si Plasma se utiliza ampliamente, la demanda disminuirá aún más. DAS también plantea desafíos para los protocolos y mecanismos de construcción de bloques distribuidos: aunque DAS es teóricamente amigable con la reconstrucción distribuida, en la práctica esto debe combinarse con la propuesta de lista de inclusión de paquetes y su mecanismo de selección de bifurcación circundante.

![Vitalik nuevo artículo: Ethereum posible futuro, The Surge])https://img-cdn.gateio.im/webp-social/moments-40311fde406a2b6c83ba590c35e23a7c.webp(

) compresión de datos

¿Qué problema estamos resolviendo?

Cada transacción en un Rollup ocupa una gran cantidad de espacio de datos en la cadena: una transferencia ERC20 requiere aproximadamente 180 bytes. Incluso con el muestreo de disponibilidad de datos ideal, esto limita la escalabilidad del protocolo Layer. Cada slot es de 16 MB, obtenemos:

16000000 / 12 / 180 = 7407 TPS

¿Qué pasaría si no solo pudiéramos resolver el problema del numerador, sino también el problema del denominador, haciendo que las transacciones en cada Rollup ocupen menos bytes en la cadena?

¿Qué es y cómo funciona?

En mi opinión, la mejor explicación es esta imagen de hace dos años:

En la compresión de ceros, reemplazamos cada larga secuencia de ceros con dos bytes que indican cuántos ceros hay. Además, aprovechamos las propiedades específicas de las transacciones:

Agregación de firmas: Hemos cambiado de firmas ECDSA a firmas BLS. La característica de las firmas BLS es que varias firmas pueden combinarse en una sola firma, y esta firma puede demostrar la validez de todas las firmas originales. En la capa L1, debido a que incluso con la agregación, el costo computacional de la verificación sigue siendo alto, no se considera el uso de firmas BLS. Sin embargo, en un entorno L2 donde los datos son escasos, el uso de firmas BLS tiene sentido. La característica de agregación de ERC-4337 proporciona un camino para lograr esta funcionalidad.

Usar punteros para reemplazar direcciones: si Ether

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • 9
  • Compartir
Comentar
0/400
LightningPacketLossvip
· 07-17 22:06
Este año, otros cadenas han sido superadas.
Ver originalesResponder0
GhostAddressMinervip
· 07-17 01:10
¿Eh, todavía estás jugando con esta trampa de rollup? He rastreado al menos 7 DIRECCIÓN de Grandes inversores que recientemente están transfiriendo activos a L1, y también hay signos anormales en los contratos de flash... espera a ver el gran espectáculo.
Ver originalesResponder0
DeFiDoctorvip
· 07-15 23:53
Los datos clínicos sobre las complicaciones del rollup aún no tienen un período de observación lo suficientemente largo, se debe tener precaución.
Ver originalesResponder0
TokenSherpavip
· 07-15 23:53
en realidad, si examinas los datos de gobernanza, el escalado l2 es solo un parche temporal... el verdadero cuello de botella de eth sigue sin resolverse fundamentalmente
Ver originalesResponder0
MiningDisasterSurvivorvip
· 07-15 23:51
Otra hermosa historia. La escuché mucho en 2018. Hacer un gran pastel sigue siendo la misma receta.
Ver originalesResponder0
StealthMoonvip
· 07-15 23:49
Con L2 es suficiente.
Ver originalesResponder0
CryptoSourGrapevip
· 07-15 23:46
Si el año pasado hubiera comprado eth, ahora no tendría que maldecirme por ser un limón... Ay, viendo a los grandes que apostaron todo en solana, me siento amargado.
Ver originalesResponder0
GlueGuyvip
· 07-15 23:28
¿Qué L1 L2 hay? ¡Córtalos todos!
Ver originalesResponder0
  • Anclado
Opere con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)