Machine Trust – Pourquoi la réputation est le prochain primitif de l'IA - The Daily Hodl

Article invité HodlXSoumettez votre article

Lorsque nous avons d'abord parlé de décentralisation de l'IA, nous nous sommes concentrés sur le calcul, les données et les modèles de gouvernance – et cela reste important.

Cependant, alors que les agents autonomes opèrent dans des environnements réels tels que le commerce d'actifs, la gestion des chaînes d'approvisionnement et la modération des communautés, la confiance est le défi qui se place au premier plan.

Pas le genre humain et doux comme, "Je me sens bien à propos de cette marque," ou "Leur marketing est convaincant."

Dans les économies de machine, la confiance doit être vérifiable, quantifiable et exécutable à la vitesse du protocole.

Sans cela, l'IA décentralisée risque de devenir une arène à haut débit pour les hallucinations, le spam, l'exploitation et les échecs en cascade.

Ce n'est pas un problème que nous pouvons résoudre avec plus de puissance de calcul ou des ensembles de données plus propres. C'est un problème de la façon dont nous décidons qui peut agir.

D'une confiance informelle aux règles du protocole

Dans le Web 2.0, la confiance était comme lire des critiques de restaurants – utile pour choisir le dîner mais sans signification lorsque des milliers d'agents autonomes prennent des décisions instantanées et à fort impact.

Ces signaux sont faciles à falsifier, impossibles à auditer à grande échelle et n'ont aucune conséquence intégrée pour les acteurs malveillants.

Dans les réseaux d'IA décentralisés, cela ne suffira pas. Les agents ne sont plus des scripts isolés fonctionnant sur le serveur d'un amateur.

Ce sont des entités qui demandent des ressources, exécutent des transactions, votent dans des DAO et orchestrent d'autres agents.

Les dommages sont immédiats et souvent irréversibles si l'on agit de manière malveillante ou incompétente.

La réponse qui émerge de la communauté de recherche est de faire de la confiance elle-même une partie de l'infrastructure.

Une proposition qui gagne en popularité est l'idée des jetons AgentBound – des identifiants non transférables qui servent de dossier pour les agents IA, proposée pour la première fois par le chercheur Tomer Jordi Chaffer.

ABT – Passeports pour les machines

Un ABT est un certificat cryptographique non transférable qui enregistre le comportement d'un agent au fil du temps.

Considérez cela comme un passeport pour les machines – tamponné non pas avec des visas mais avec des emplois vérifiés accomplis, des résultats livrés et des échecs enregistrés.

Contrairement aux soldes de portefeuille ou aux montants de mise, les ABT ne peuvent pas être achetés, vendus ou délégués.

Ils sont gagnés par des actions, mis à jour sur la performance vérifiée et réduits pour inconduite – preuve de conduite.

Cela renverse le défaut de payer pour jouer à prouver pour agir.

Les soldes de jetons peuvent contrôler les humains, mais dans les économies de machines, ils sous-estiment le risque – les agents sont facilement clonés, peuvent emprunter des capitaux et opérer à la vitesse des machines, créant des externalités bien au-delà de leur participation.

Les ABTs comblent cette lacune en rendant la performance vérifiée une ressource rare au fil du temps.

Dans les systèmes pondérés par les jetons, les gros investisseurs achètent l'accès – dans les systèmes ABT-Gated, seule une expérience solide et transparente débloque des rôles à fort impact.

La fiabilité devient la garantie opérationnelle.

Grâce à une boucle en temps réel en cinq étapes, les ABTs transforment le comportement des agents en capital opérationnel qui peut croître, décliner ou être réduit.

Considérez un réseau logistique décentralisé. Un nouvel agent de routage avec un ABT à réputation nulle commence sous supervision sur de petites expéditions.

Chaque emploi vérifié génère des attestations - la confiance s'accumule jusqu'à ce qu'elle fasse fonctionner une région de manière autonome.

Une mise à jour boguée entraîne alors des retards - les validateurs le signalent et l'ABT est pénalisé, renvoyant l'agent vers des tâches à faible risque.

Après une période de probation réussie, sa réputation se rétablit.

C'est la confiance en tant que système vivant, acquise, perdue et retrouvée sous une forme que les machines peuvent comprendre et que les protocoles peuvent appliquer.

Construire sur l'idée des liens d'âme

Si cela semble conceptuellement proche des jetons Soulbound, c'est le cas.

Dans leur article de 2022, « Société décentralisée – Trouver l'âme du Web 3.0 », Glen Weyl, Puja Ohlhaver et Vitalik Buterin ont proposé les SBT comme des attestations non transférables pour l'identité humaine – diplômes, affiliations, licences.

Les ABTs étendent cette logique aux machines.

Mais là où les SBT sont principalement statiques (« cette personne a obtenu son diplôme de X »), les ABT sont dynamiques, se mettant à jour avec chaque action vérifiée.

Ils concernent moins qui est un agent, mais plutôt comment il se comporte dans le temps - et l'élément temporel est crucial.

Un dossier impeccable de l'année dernière signifie peu si le modèle de l'agent s'est depuis dégradé ou a été compromis.

Les ABTs capturent cette évolution, les transformant en un signal vivant plutôt qu'en un insigne unique.

Les DAOs de réputation comme couche de gouvernance

Les ABTs gèrent les données, l'enregistrement immuable de ce qui s'est passé, mais quelqu'un doit établir les règles.

Qu'est-ce qu'un bon ou un mauvais comportement ? Quel poids ont diverses actions ? Comment gérer les différends ?

Les DAOs de réputation sont des organes de gouvernance décentralisés qui définissent, maintiennent et audent la couche de réputation.

Ils décident quels validateurs peuvent mettre à jour les ABTs, quelles métriques sont importantes pour un domaine donné et comment la réputation se dégrade ou se rétablit au fil du temps.

Ils peuvent également définir des niveaux de risque dans des environnements à enjeux élevés - un agent de modération de contenu a besoin d'un historique pour agir de manière autonome.

En revanche, un bot de trading pourrait en avoir besoin d'un autre. En décentralisant ces décisions, le système évite à la fois la capture par une seule autorité et la rigidité des règles codées en dur.

Les DAOs de réputation sont l'élément humain dans la boucle pour la confiance décentralisée – non pas en micromanageant chaque action – mais en orientant les normes et les paramètres qui maintiennent la couche machine honnête.

Défis de la programmation de la confiance

Rien de tout cela n'est trivial à mettre en œuvre. Les problèmes les plus complexes sont à la fois sociaux et techniques.

Les attaques Sybil sont la menace évidente – générant des milliers de nouveaux agents pour cultiver la réputation dans des rôles à faible risque, puis les déployant dans des contextes à enjeux plus élevés.

Pour prévenir cela, il est nécessaire de lier les ABTs à des identités décentralisées solides – et parfois à des environnements matériels ou d'exécution qui ne peuvent pas être répliqués à moindre coût.

Le lavage de réputation est un autre risque.

Sans mesures de protection, un système ABT pourrait devenir une fête costumée à enjeux élevés, où des agents malveillants revêtent le masque de quelqu'un d'autre pour entrer dans la salle VIP.

La non-transférabilité au niveau du protocole, le lien cryptographique aux clés et des règles strictes contre la délégation sont essentiels.

Il y a aussi un compromis entre la confidentialité et l'auditabilité. Pour faire confiance à un agent, vous devez savoir comment il a performé.

Cependant, la publication des journaux de décision complets pourrait exposer des données sensibles ou des méthodes propriétaires.

Les ZKPs (preuves à divulgation nulle d'information) et les métriques aggreGate sont des moyens prometteurs de résoudre ce problème.

Et puis il y a la capture de gouvernance – si un petit groupe de validateurs contrôle la plupart des mises à jour, ils peuvent mettre sur liste blanche des acteurs malveillants ou punir des rivaux.

L'ouverture des ensembles de validateurs, la rotation et la sanction pour collusion aident à répartir ce pouvoir.

Pourquoi cela compte maintenant

Nous en sommes au point où l'IA décentralisée est moins contrainte par la technologie et plus par la légitimité.

Sans décider quels agents peuvent être dignes de confiance pour quels rôles, les réseaux centralisent soit le contrôle, soit acceptent un risque constant.

Les ABTs et les DAOs de réputation offrent un troisième chemin : une façon d'encoder la confiance directement dans l'infrastructure, la rendant aussi native au système que le consensus.

Ils répondent à cette question publiquement en transformant « qui contrôle l'IA ? » en « comment le contrôle est-il défini, accordé et révoqué ? »

La première vague du Web 3.0 nous a appris à faire confiance à des inconnus avec de l'argent.

Le prochain doit nous apprendre à faire confiance à des étrangers pour des décisions à la vitesse de la machine, avec des conséquences qu'aucun humain ne peut inverser à temps.

Dans une économie d'agents, ce n'est pas optionnel - c'est une question de survie.


Roman Melnyk est le directeur marketing chez DeXe.

WHY-5.63%
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)