Lanzamiento de la versión de prueba de la red Mira: construir una capa de confianza en IA para Soltar sesgos y alucinaciones

robot
Generación de resúmenes en curso

Nueva exploración de la capa de confianza en IA: Lanzamiento de la red pública de pruebas de Mira

Recientemente, se lanzó oficialmente la red de pruebas pública de Mira, un proyecto que tiene como objetivo construir una capa de confianza para la IA. Entonces, ¿por qué la IA necesita ser confiable? ¿Cómo resuelve Mira este problema?

Al discutir la IA, a menudo las personas se centran más en su potente capacidad. Sin embargo, el problema de las "ilusiones" o sesgos en la IA a menudo se pasa por alto. Lo que se llama "ilusión" de la IA, en términos simples, significa que a veces la IA "inventa" información, explicando de manera aparentemente razonable algunos fenómenos que no existen.

Las "ilusiones" o sesgos de la IA están relacionados con la trayectoria actual de la tecnología de IA. La IA generativa logra coherencia y razonabilidad al predecir el contenido "más probable", pero a veces es difícil verificar la autenticidad. Además, los propios datos de entrenamiento pueden contener errores, sesgos e incluso contenido ficticio, lo que también afecta la salida de la IA. En otras palabras, la IA aprende patrones del lenguaje humano, más que hechos en sí.

El mecanismo de generación de probabilidad actual y el modelo impulsado por datos inevitablemente conducen a que la IA produzca "ilusiones". Estas salidas sesgadas o ilusorias pueden no tener consecuencias directas en contenido de conocimiento general o entretenimiento, pero en campos altamente rigurosos como la medicina, el derecho, la aviación y las finanzas, pueden tener un impacto significativo. Por lo tanto, abordar las ilusiones y sesgos de la IA se ha convertido en uno de los problemas centrales en el proceso de evolución de la IA.

El proyecto Mira intenta abordar los problemas de sesgo y alucinaciones en la IA, construyendo una capa de confianza para la IA y mejorando su fiabilidad. ¿Cómo reduce Mira el sesgo y las alucinaciones de la IA y, en última instancia, logra una IA confiable?

La estrategia central de Mira es validar las salidas de IA a través del consenso de múltiples modelos de IA. Esencialmente, Mira es una red de validación que utiliza el consenso de múltiples modelos de IA para verificar la fiabilidad de las salidas de IA. Más importante aún, Mira utiliza un consenso descentralizado para la validación.

La clave de la red Mira radica en la verificación de consenso descentralizada. Este enfoque combina las ventajas del ámbito de la criptografía y las características de la colaboración multimodal, reduciendo sesgos y ilusiones a través de un modelo de verificación colectivo.

En términos de arquitectura de validación, el protocolo Mira admite la conversión de contenido complejo en declaraciones de validación independientes. Los operadores de nodos participan en la validación de estas declaraciones, asegurando la honestidad de los operadores de nodos a través de un mecanismo de incentivos / penalizaciones en la economía criptográfica. Diferentes modelos de IA y operadores de nodos descentralizados participan conjuntamente para garantizar la fiabilidad de los resultados de validación.

La arquitectura de la red de Mira incluye conversión de contenido, validación distribuida y mecanismo de consenso. Primero, el sistema descompone el contenido candidato enviado por el cliente en declaraciones verificables, luego las distribuye a los nodos para su validación y, finalmente, resume los resultados para alcanzar un consenso. Para proteger la privacidad del cliente, las declaraciones se distribuirán a diferentes nodos de manera aleatoria en fragmentos.

Los operadores de nodos son responsables de ejecutar el modelo de validadores, procesar declaraciones y enviar resultados de validación. Su motivación para participar en la validación proviene de las ganancias disponibles, que se generan a partir del valor creado para los clientes. El objetivo de la red Mira es reducir la tasa de error de la IA, especialmente en campos como la medicina, el derecho, la aviación y las finanzas, donde esto podría generar un gran valor.

Para evitar que los operadores de nodos intenten aprovecharse, los nodos que se desvíen continuamente del consenso serán penalizados con la reducción de tokens de participación. Este juego económico asegura que los operadores de nodos participen de manera honesta en la validación.

En general, Mira ofrece un nuevo enfoque para lograr la fiabilidad de la IA. Construye una red de verificación de consenso descentralizada sobre múltiples modelos de IA, lo que aporta mayor fiabilidad a los servicios de IA de los clientes, reduce el sesgo y las alucinaciones de la IA, y satisface la demanda de los clientes de mayor precisión y tasa de aciertos.

Actualmente, Mira ha colaborado con varios marcos de agentes de IA. Los usuarios pueden participar en la red de pruebas pública de Mira a través de Klok (una aplicación de chat LLM basada en Mira), experimentar salidas de IA verificadas y tener la oportunidad de ganar puntos Mira. Esta nueva capa de confianza en IA promete impulsar el desarrollo profundo de las aplicaciones de IA.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • 2
  • Compartir
Comentar
0/400
DataChiefvip
· hace20h
¿Esta ai ahora juega a la Descentralización?
Ver originalesResponder0
NullWhisperervip
· hace21h
hmm capas de confianza... aún teóricamente explotables
Ver originalesResponder0
  • Anclado
Opere con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)