Início da versão de teste da rede Mira: Construindo uma camada de confiança em IA para Gota preconceitos e alucinações

robot
Geração do resumo em andamento

Nova exploração da camada de confiança AI: Lançamento da Testnet da rede Mira

Recentemente, a rede Mira lançou oficialmente a sua Testnet, um projeto que visa construir uma camada de confiança para a IA. Então, por que a IA precisa ser confiável? Como é que a Mira resolve esse problema?

Ao discutir a IA, as pessoas costumam se concentrar mais em suas poderosas capacidades. No entanto, o problema das "alucinações" ou preconceitos da IA muitas vezes é ignorado. O que se chama de "alucinações" da IA, simplificando, é que a IA às vezes "inventa" informações, explicando de forma aparentemente razoável alguns fenômenos que não existem.

As "ilusão" ou preconceito da IA está relacionado com a atual trajetória da tecnologia de IA. A IA generativa alcança coerência e razoabilidade através da previsão do conteúdo "mais provável", mas às vezes é difícil verificar a veracidade. Além disso, os dados de treinamento podem conter erros, preconceitos ou até mesmo conteúdo fictício, o que também afeta a saída da IA. Em outras palavras, a IA aprende padrões de linguagem humana, e não fatos em si.

Atualmente, os mecanismos de geração de probabilidades e os modelos baseados em dados quase inevitavelmente levam a que a IA produza "ilustrações". Essas saídas enviesadas ou ilusórias podem não causar consequências diretas temporárias em conteúdos de conhecimento geral ou entretenimento, mas em áreas altamente rigorosas como saúde, direito, aviação e finanças, podem ter um impacto significativo. Portanto, resolver a ilusão e o viés da IA torna-se uma das questões centrais no processo de evolução da IA.

O projeto Mira tenta resolver os problemas de viés e alucinações da IA, construindo uma camada de confiança para a IA e melhorando a sua fiabilidade. Então, como é que a Mira reduz o viés e as alucinações da IA e, em última instância, realiza uma IA confiável?

A estratégia central da Mira é validar a saída da IA através do consenso de vários modelos de IA. A Mira é essencialmente uma rede de validação que utiliza o consenso de múltiplos modelos de IA para verificar a confiabilidade da saída da IA. Mais importante ainda, a Mira adota um consenso descentralizado para a validação.

A chave da rede Mira está na validação de consenso descentralizada. Esta abordagem combina as vantagens do campo da criptografia e as características da colaboração de múltiplos modelos, reduzindo preconceitos e ilusões através de um modo de validação coletivo.

No que diz respeito à arquitetura de validação, o protocolo Mira suporta a conversão de conteúdos complexos em declarações de validação independentes. Os operadores de nós participam na validação dessas declarações, garantindo a honestidade dos operadores de nós através de mecanismos de incentivo/recompensa econômica criptográfica. Diferentes modelos de IA e operadores de nós descentralizados colaboram para garantir a fiabilidade dos resultados de validação.

A arquitetura de rede da Mira inclui conversão de conteúdo, validação distribuída e mecanismo de consenso. Primeiro, o sistema decompõe o conteúdo candidato submetido pelos clientes em declarações verificáveis, que são então distribuídas para os nós para validação, e finalmente os resultados são agregados para alcançar consenso. Para proteger a privacidade dos clientes, as declarações serão distribuídas para diferentes nós de forma a serem fragmentadas aleatoriamente.

Os operadores de nós são responsáveis por executar o modelo de validadores, processar declarações e submeter resultados de validação. A motivação deles para participar da validação vem dos rendimentos disponíveis, que são originados do valor criado para os clientes. O objetivo da rede Mira é reduzir a taxa de erro da IA, especialmente nas áreas de saúde, legal, aviação e finanças, que podem gerar um valor significativo.

Para evitar que os operadores de nós se aproveitem da situação, os nós que se afastam continuamente do consenso terão seus tokens de staking reduzidos. Essa mecânica de jogo econômica garante que os operadores de nós participem honestamente na validação.

De um modo geral, a Mira oferece uma nova abordagem para garantir a confiabilidade da IA. Ela constrói uma rede de validação de consenso descentralizada baseada em múltiplos modelos de IA, trazendo maior confiabilidade aos serviços de IA dos clientes, reduzindo preconceitos e alucinações da IA, e atendendo à demanda dos clientes por maior precisão e taxa de exatidão.

Atualmente, a Mira já colaborou com várias estruturas de agentes de IA. Os usuários podem participar da Testnet pública da Mira através do Klok (uma aplicação de chat LLM baseada na Mira), experimentar saídas de IA validadas e ter a oportunidade de ganhar pontos Mira. Este novo tipo de camada de confiança em IA promete impulsionar o desenvolvimento aprofundado de aplicações de IA.

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • 3
  • Compartilhar
Comentário
0/400
SilentAlphavip
· 3h atrás
Ainda é melhor esperar pelo GPT5
Ver originalResponder0
DataChiefvip
· 07-18 02:02
Esta ai agora está a brincar com Descentralização?
Ver originalResponder0
NullWhisperervip
· 07-18 01:49
hmm camadas de confiança... ainda teoricamente exploráveis
Ver originalResponder0
  • Marcar
Faça trade de criptomoedas em qualquer lugar e a qualquer hora
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)