Lancement de la version bêta du réseau Mira : construire une couche de confiance AI Goutte les biais et les illusions

robot
Création du résumé en cours

Nouvelle exploration de la couche de confiance en IA : Lancement du testnet public du réseau Mira

Récemment, le testnet public du réseau Mira a été officiellement lancé. Ce projet vise à construire une couche de confiance pour l'IA. Alors, pourquoi l'IA a-t-elle besoin d'être digne de confiance ? Comment Mira résout-elle ce problème ?

Lorsqu'on discute de l'IA, les gens se concentrent souvent sur ses puissantes capacités. Cependant, le problème des "hallucinations" ou des biais de l'IA est souvent ignoré. Ce qu'on appelle les "hallucinations" de l'IA, en termes simples, signifie que l'IA peut parfois "inventer" des informations et expliquer de manière apparemment raisonnable des phénomènes inexistants.

L'"illusion" ou le biais de l'IA est liée aux voies technologiques actuelles de l'IA. L'IA générative atteint la cohérence et la rationalité en prédisant le contenu "le plus probable", mais il est parfois difficile de vérifier la véracité. De plus, les données d'entraînement elles-mêmes peuvent contenir des erreurs, des biais voire du contenu fictif, ce qui peut également affecter la sortie de l'IA. En d'autres termes, l'IA apprend des modèles de langage humain, et non des faits eux-mêmes.

Le mécanisme de génération de probabilité actuel et le modèle axé sur les données conduisent presque inévitablement à des "hallucinations" de l'IA. Ces sorties biaisées ou illusoires peuvent ne pas avoir de conséquences directes dans le contenu de connaissances générales ou de divertissement, mais dans des domaines hautement rigoureux tels que la médecine, le droit, l'aviation et la finance, elles peuvent avoir un impact significatif. Par conséquent, résoudre les hallucinations et les biais de l'IA est devenu l'un des problèmes centraux dans le processus d'évolution de l'IA.

Le projet Mira tente précisément de résoudre les problèmes de biais et d'illusions de l'IA, en construisant une couche de confiance pour l'IA afin d'améliorer sa fiabilité. Alors, comment Mira réduit-elle les biais et les illusions de l'IA et parvient-elle finalement à réaliser une IA de confiance ?

La stratégie principale de Mira consiste à valider les sorties de l'IA par le consensus de plusieurs modèles d'IA. Mira est essentiellement un réseau de validation qui utilise le consensus de plusieurs modèles d'IA pour vérifier la fiabilité des sorties de l'IA. Plus important encore, Mira utilise un consensus décentralisé pour la validation.

La clé du réseau Mira réside dans la validation de consensus décentralisée. Cette méthode combine les avantages du domaine de la cryptographie et les caractéristiques de la collaboration multi-modèles, en réduisant les biais et les illusions grâce à un mode de validation collectif.

En matière d'architecture de validation, le protocole Mira prend en charge la conversion de contenus complexes en déclarations de validation indépendantes. Les opérateurs de nœuds participent à la validation de ces déclarations, garantissant l'honnêteté des opérateurs de nœuds grâce à un mécanisme d'incitation/punition économique cryptographique. Différents modèles d'IA et des opérateurs de nœuds décentralisés participent ensemble pour garantir la fiabilité des résultats de validation.

L'architecture réseau de Mira comprend la conversion de contenu, la validation distribuée et le mécanisme de consensus. Tout d'abord, le système décompose le contenu candidat soumis par le client en déclarations vérifiables, puis les distribue aux nœuds pour validation, et enfin résume les résultats pour parvenir à un consensus. Pour protéger la vie privée des clients, les déclarations seront distribuées à différents nœuds de manière aléatoire par fragments.

Les opérateurs de nœuds sont responsables de l'exécution du modèle de validateur, de la gestion des déclarations et de la soumission des résultats de validation. Leur motivation à participer à la validation provient des bénéfices disponibles, qui sont issus de la valeur créée pour les clients. L'objectif du réseau Mira est de réduire le taux d'erreur de l'IA, en particulier dans des domaines tels que la santé, le droit, l'aviation et la finance, qui peuvent générer une valeur énorme.

Pour éviter que les opérateurs de nœuds ne jouent sur les règles, les nœuds qui s'écartent continuellement du consensus auront leurs tokens de staking réduits. Ce mécanisme économique de jeu garantit que les opérateurs de nœuds participent honnêtement à la validation.

Dans l'ensemble, Mira propose une nouvelle approche pour garantir la fiabilité de l'IA. Elle construit un réseau de validation de consensus décentralisé basé sur plusieurs modèles d'IA, offrant ainsi une plus grande fiabilité aux services d'IA pour les clients, réduisant les biais et les hallucinations de l'IA, et répondant aux besoins des clients en matière de précision et de taux de précision plus élevés.

Actuellement, Mira a collaboré avec plusieurs frameworks d'agents AI. Les utilisateurs peuvent participer au Testnet public de Mira via Klok (une application de chat LLM basée sur Mira), expérimenter des sorties AI vérifiées et avoir la chance de gagner des points Mira. Ce nouveau type de couche de confiance AI devrait favoriser le développement approfondi des applications AI.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • 2
  • Partager
Commentaire
0/400
DataChiefvip
· Il y a 17h
Cette IA joue maintenant à la Décentralisation ?
Voir l'originalRépondre0
NullWhisperervip
· Il y a 17h
hmm couches de confiance... encore théoriquement exploitables
Voir l'originalRépondre0
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)