Relatório de Pesquisa AI Layer1: Encontrando o solo fértil para DeAI na cadeia
Resumo
Contexto
Nos últimos anos, empresas de tecnologia de ponta como OpenAI, Anthropic, Google e Meta têm impulsionado o rápido desenvolvimento de modelos de linguagem de grande escala (LLM). Os LLM demonstraram capacidades sem precedentes em diversas indústrias, expandindo enormemente o espaço da imaginação humana e, em alguns cenários, mostrando o potencial para substituir o trabalho humano. No entanto, o núcleo dessas tecnologias está firmemente nas mãos de poucos gigantes tecnológicos centralizados. Com capital robusto e controle sobre recursos de computação altamente custosos, essas empresas estabeleceram barreiras intransponíveis, dificultando a concorrência para a grande maioria dos desenvolvedores e equipes de inovação.
Ao mesmo tempo, no início da rápida evolução da IA, a opinião pública frequentemente se concentra nas inovações e conveniências trazidas pela tecnologia, enquanto a atenção a questões centrais como proteção da privacidade, transparência e segurança é relativamente insuficiente. A longo prazo, esses problemas afetarão profundamente o desenvolvimento saudável da indústria de IA e a aceitação social. Se não forem resolvidos adequadamente, a controvérsia sobre se a IA deve "agir para o bem" ou "agir para o mal" se tornará cada vez mais proeminente, enquanto os gigantes centralizados, impulsionados pelo instinto de lucro, muitas vezes carecem de motivação suficiente para enfrentar esses desafios proativamente.
A tecnologia blockchain, com suas características de descentralização, transparência e resistência à censura, oferece novas possibilidades para o desenvolvimento sustentável da indústria de IA. Atualmente, já surgiram diversas aplicações "Web3 AI" nas principais blockchains como Solana e Base. No entanto, uma análise mais profunda revela que esses projetos ainda enfrentam muitos problemas: por um lado, o grau de descentralização é limitado, com etapas e infraestrutura chave ainda dependentes de serviços de nuvem centralizados, apresentando uma forte característica de meme, dificultando o suporte a um ecossistema verdadeiramente aberto; por outro lado, em comparação com os produtos de IA do mundo Web2, a IA na cadeia ainda é limitada em termos de capacidade de modelo, uso de dados e cenários de aplicação, com a profundidade e a amplitude da inovação necessitando de melhorias.
Para realmente realizar a visão de IA descentralizada, permitindo que a blockchain suporte aplicações de IA em larga escala de forma segura, eficiente e democrática, e rivalizando em desempenho com soluções centralizadas, precisamos projetar uma blockchain Layer 1 feita sob medida para IA. Isso proporcionará uma base sólida para a inovação aberta em IA, a democracia na governança e a segurança dos dados, promovendo o desenvolvimento próspero do ecossistema de IA descentralizada.
As principais características da camada 1 de IA
AI Layer 1, como uma blockchain projetada especificamente para aplicações de IA, tem sua arquitetura subjacente e design de desempenho intimamente alinhados com as necessidades das tarefas de IA, visando apoiar de forma eficiente o desenvolvimento sustentável e a prosperidade do ecossistema de IA na cadeia. Especificamente, AI Layer 1 deve possuir as seguintes capacidades centrais:
Mecanismos de incentivo eficientes e consenso descentralizado O núcleo do AI Layer 1 reside na construção de uma rede compartilhada de recursos abertos, como poder computacional e armazenamento. Ao contrário dos nós de blockchain tradicionais que se concentram principalmente na contabilidade do livro-razão, os nós do AI Layer 1 precisam assumir tarefas mais complexas, não apenas fornecendo poder computacional, completando o treinamento e a inferência de modelos de IA, mas também contribuindo com armazenamento, dados, largura de banda e outros recursos diversificados, rompendo assim o monopólio dos gigantes centralizados na infraestrutura de IA. Isso impõe requisitos mais elevados aos mecanismos de consenso e incentivo subjacentes: o AI Layer 1 deve ser capaz de avaliar, incentivar e verificar com precisão a contribuição real dos nós em tarefas de inferência e treinamento de IA, garantindo a segurança da rede e a alocação eficiente de recursos. Só assim se pode garantir a estabilidade e a prosperidade da rede, além de reduzir efetivamente o custo total do poder computacional.
Desempenho elevado e capacidade de suporte a tarefas heterogêneas A tarefa de IA, especialmente o treinamento e a inferência de LLM, impõe exigências extremamente altas em termos de desempenho computacional e capacidade de processamento paralelo. Além disso, o ecossistema de IA na cadeia geralmente precisa suportar uma variedade de tipos de tarefas heterogêneas, incluindo diferentes estruturas de modelos, processamento de dados, inferência, armazenamento e outros cenários diversos. A camada de IA 1 deve ser profundamente otimizada na arquitetura de base para atender às demandas de alta taxa de transferência, baixa latência e paralelismo elástico, além de prever a capacidade de suporte nativo a recursos computacionais heterogêneos, garantindo que diversas tarefas de IA possam ser executadas de forma eficiente, permitindo uma expansão suave de "tarefas únicas" para "ecossistemas complexos e diversos".
Verificabilidade e Garantia de Saída Confiável A AI Layer 1 não só deve prevenir comportamentos maliciosos do modelo e a manipulação de dados, mas também garantir a verificabilidade e a conformidade dos resultados de saída da AI a partir de mecanismos de base. Ao integrar tecnologias de ponta como ambientes de execução confiáveis (TEE), provas de conhecimento zero (ZK) e computação segura multipartidária (MPC), a plataforma permite que cada inferência de modelo, treinamento e processo de tratamento de dados possam ser verificados de forma independente, assegurando a justiça e a transparência do sistema de AI. Ao mesmo tempo, essa verificabilidade também pode ajudar os usuários a entenderem a lógica e a base das saídas da AI, realizando o princípio de "o que se obtém é o que se deseja", aumentando a confiança e a satisfação dos usuários em relação aos produtos de AI.
Proteção da privacidade de dados Aplicações de IA frequentemente envolvem dados sensíveis dos usuários, sendo a proteção da privacidade dos dados especialmente crítica nas áreas financeira, médica e social. A camada de IA 1 deve garantir a verificabilidade ao mesmo tempo em que utiliza técnicas de processamento de dados baseadas em criptografia, protocolos de computação de privacidade e gestão de permissões de dados, para assegurar a segurança dos dados em todo o processo de inferência, treinamento e armazenamento, prevenindo efetivamente vazamentos e abusos de dados, eliminando as preocupações dos usuários em relação à segurança dos dados.
Capacidade poderosa de suporte ao ecossistema e desenvolvimento Como uma infraestrutura Layer 1 nativa de IA, a plataforma não só deve ter liderança tecnológica, mas também fornecer ferramentas de desenvolvimento completas, SDKs integrados, suporte à operação e mecanismos de incentivo para desenvolvedores, operadores de nós e outros participantes do ecossistema. Ao otimizar continuamente a usabilidade da plataforma e a experiência do desenvolvedor, promove-se a implementação de aplicações nativas de IA ricas e diversas, realizando a contínua prosperidade de um ecossistema de IA descentralizado.
Com base no contexto e nas expectativas acima, este artigo irá apresentar detalhadamente seis projetos representativos de AI Layer1, incluindo Sentient, Sahara AI, Ritual, Gensyn, Bittensor e 0G, sistematizando os últimos avanços da área, analisando o estado atual do desenvolvimento dos projetos e discutindo as tendências futuras.
Sentient: construir um modelo de IA descentralizado e de código aberto com lealdade
Visão geral do projeto
Sentient é uma plataforma de protocolo de código aberto que está a desenvolver uma blockchain AI Layer1 ( na fase inicial como Layer 2, e posteriormente será migrada para Layer 1). Através da combinação da AI Pipeline e da tecnologia blockchain, está a construir um ecossistema de inteligência artificial descentralizado. O seu objetivo central é resolver problemas de propriedade de modelos, rastreamento de chamadas e distribuição de valor no mercado LLM centralizado através da estrutura "OML" (aberta, lucrativa, leal), permitindo que os modelos de IA tenham uma estrutura de propriedade na cadeia, chamadas transparentes e distribuição de valor. A visão do Sentient é permitir que qualquer pessoa possa construir, colaborar, possuir e monetizar produtos de IA, promovendo assim uma rede ecológica justa e aberta de Agentes de IA.
A equipe da Sentient Foundation reúne os principais especialistas acadêmicos, empreendedores de blockchain e engenheiros do mundo, dedicando-se a construir uma plataforma de AGI comunitária, de código aberto e verificável. Os membros principais incluem o professor Pramod Viswanath da Universidade de Princeton e o professor Himanshu Tyagi do Instituto Indiano de Ciência, responsáveis pela segurança e proteção da privacidade da IA, enquanto o co-fundador da Polygon, Sandeep Nailwal, lidera a estratégia de blockchain e o ecossistema. Os membros da equipe têm experiência em empresas renomadas como Meta, Coinbase, Polygon, além de instituições de ensino de alto nível como a Universidade de Princeton e o Instituto Indiano de Tecnologia, cobrindo áreas como AI/ML, NLP e visão computacional, colaborando para a implementação do projeto.
Como um projeto de segunda empreitada de Sandeep Nailwal, cofundador da Polygon, o Sentient já chegou ao mercado com um brilho especial, contando com uma vasta gama de recursos, conexões e reconhecimento de mercado, proporcionando um forte suporte ao desenvolvimento do projeto. Em meados de 2024, o Sentient completou uma rodada de financiamento seed de 85 milhões de dólares, liderada por Founders Fund, Pantera e Framework Ventures, com outras instituições de investimento como Delphi, Hashkey e Spartan, entre várias outras VCs renomadas.
arquitetura de design e camada de aplicação
Camada de Infraestrutura
Arquitetura Central
A arquitetura central do Sentient é composta por um Pipeline de IA e um sistema de blockchain:
O pipeline de IA é a base para o desenvolvimento e treinamento de artefatos de "IA Leal", contendo dois processos principais:
Planeamento de Dados (Data Curation): processo de seleção de dados impulsionado pela comunidade, utilizado para o alinhamento de modelos.
Treinamento de Lealdade (Loyalty Training): garantir que o modelo mantenha um processo de treinamento alinhado com as intenções da comunidade.
O sistema de blockchain proporciona transparência e controle descentralizado para os protocolos, garantindo a propriedade dos artefatos de IA, o rastreamento de uso, a distribuição de rendimentos e a governança justa. A arquitetura específica é dividida em quatro camadas:
Camada de armazenamento: armazena os pesos do modelo e as informações de registro de impressões digitais;
Camada de distribuição: entrada de chamada de modelo controlada por contrato de autorização;
Camada de Acesso: Verifica se o utilizador tem autorização através da prova de permissão;
Camada de incentivo: o contrato de roteamento de rendimentos distribuirá o pagamento a cada chamada entre os treinadores, implementadores e validadores.
Estrutura do Modelo OML
A estrutura OML (Aberto Open, Monetizável Monetizable, Leal Loyal) é o conceito central proposto pela Sentient, com o objetivo de fornecer proteção clara de propriedade e mecanismos de incentivo econômico para modelos de IA de código aberto. Ao combinar tecnologia na cadeia e criptografia nativa de IA, possui as seguintes características:
Abertura: O modelo deve ser de código aberto, com código e estrutura de dados transparentes, facilitando a reprodução, auditoria e melhoria pela comunidade.
Monetização: Cada chamada de modelo desencadeia um fluxo de receita, o contrato na cadeia distribuirá os ganhos entre o treinador, o implementador e o validador.
Lealdade: O modelo pertence à comunidade de contribuidores, a direção de atualização e a governança são decididas pela DAO, e o uso e a modificação são controlados por mecanismos de criptografia.
Criptografia nativa de IA (AI-native Cryptography)
A criptografia nativa de IA utiliza a continuidade dos modelos de IA, a estrutura de variedades de baixa dimensão e a característica de diferenciabilidade dos modelos para desenvolver um mecanismo de segurança leve "verificável, mas não removível". A sua tecnologia central é:
Impressão digital incorporada: durante o treinamento, insere-se um conjunto de pares chave-valor de consulta-resposta ocultos para formar a assinatura única do modelo;
Protocolo de verificação de propriedade: verificar se a impressão digital foi preservada através de um detector de terceiros (Prover) na forma de uma pergunta query;
Mecanismo de chamada de permissão: antes da chamada, é necessário obter o "certificado de autorização" emitido pelo proprietário do modelo, e o sistema, com base nisso, autoriza o modelo a decodificar a entrada e retornar a resposta correta.
Esta abordagem permite a realização de "chamadas autorizadas baseadas em comportamento + Verificação de pertença" sem custos de re-encriptação.
Modelo de titularidade e estrutura de execução segura
Sentient atualmente utiliza a segurança Melange combinada: com verificação de identidade por impressões digitais, execução TEE e divisão de lucros em contratos na cadeia. O método de impressão digital é a implementação OML 1.0 na linha principal, enfatizando a ideia de "Segurança Otimista", ou seja, conformidade por padrão, com a possibilidade de detecção e punição em caso de violação.
O mecanismo de impressão digital é a implementação chave do OML, permitindo que o modelo gere assinaturas únicas na fase de treinamento através da incorporação de pares específicos de "pergunta-resposta". Através dessas assinaturas, o proprietário do modelo pode validar a propriedade, prevenindo cópias e comercializações não autorizadas. Este mecanismo não apenas protege os direitos dos desenvolvedores do modelo, mas também fornece um registro rastreável na cadeia para as ações de uso do modelo.
Além disso, a Sentient lançou a estrutura de computação Enclave TEE, que utiliza ambientes de execução confiáveis (como AWS Nitro Enclaves) para garantir que o modelo responda apenas a solicitações autorizadas, prevenindo acessos e usos não autorizados. Embora o TEE dependa de hardware e apresente alguns riscos de segurança, suas vantagens em termos de alto desempenho e tempo real fazem dele a tecnologia central para a implantação de modelos atualmente.
No futuro, a Sentient planeia introduzir provas de conhecimento zero (ZK) e criptografia totalmente homomórfica (FHE) para melhorar ainda mais a proteção da privacidade e a verificabilidade.
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
15 gostos
Recompensa
15
5
Partilhar
Comentar
0/400
NullWhisperer
· 6h atrás
tecnicamente falando... a abordagem do sentient parece vulnerável aos mesmos velhos problemas de centralização, para ser honesto
Ver originalResponder0
LiquidationTherapist
· 6h atrás
A pesquisa de fundo é bastante confiável
Ver originalResponder0
MEVHunterWang
· 6h atrás
Inteligência artificial... dominar a humanidade, vejo isso incerto~
Ver originalResponder0
DeFiCaffeinator
· 6h atrás
Por que os gigantes centralizados são todos tão gananciosos?
AI Layer1 nova estrela surge: Sentient cria infraestrutura DeAI na cadeia
Relatório de Pesquisa AI Layer1: Encontrando o solo fértil para DeAI na cadeia
Resumo
Contexto
Nos últimos anos, empresas de tecnologia de ponta como OpenAI, Anthropic, Google e Meta têm impulsionado o rápido desenvolvimento de modelos de linguagem de grande escala (LLM). Os LLM demonstraram capacidades sem precedentes em diversas indústrias, expandindo enormemente o espaço da imaginação humana e, em alguns cenários, mostrando o potencial para substituir o trabalho humano. No entanto, o núcleo dessas tecnologias está firmemente nas mãos de poucos gigantes tecnológicos centralizados. Com capital robusto e controle sobre recursos de computação altamente custosos, essas empresas estabeleceram barreiras intransponíveis, dificultando a concorrência para a grande maioria dos desenvolvedores e equipes de inovação.
Ao mesmo tempo, no início da rápida evolução da IA, a opinião pública frequentemente se concentra nas inovações e conveniências trazidas pela tecnologia, enquanto a atenção a questões centrais como proteção da privacidade, transparência e segurança é relativamente insuficiente. A longo prazo, esses problemas afetarão profundamente o desenvolvimento saudável da indústria de IA e a aceitação social. Se não forem resolvidos adequadamente, a controvérsia sobre se a IA deve "agir para o bem" ou "agir para o mal" se tornará cada vez mais proeminente, enquanto os gigantes centralizados, impulsionados pelo instinto de lucro, muitas vezes carecem de motivação suficiente para enfrentar esses desafios proativamente.
A tecnologia blockchain, com suas características de descentralização, transparência e resistência à censura, oferece novas possibilidades para o desenvolvimento sustentável da indústria de IA. Atualmente, já surgiram diversas aplicações "Web3 AI" nas principais blockchains como Solana e Base. No entanto, uma análise mais profunda revela que esses projetos ainda enfrentam muitos problemas: por um lado, o grau de descentralização é limitado, com etapas e infraestrutura chave ainda dependentes de serviços de nuvem centralizados, apresentando uma forte característica de meme, dificultando o suporte a um ecossistema verdadeiramente aberto; por outro lado, em comparação com os produtos de IA do mundo Web2, a IA na cadeia ainda é limitada em termos de capacidade de modelo, uso de dados e cenários de aplicação, com a profundidade e a amplitude da inovação necessitando de melhorias.
Para realmente realizar a visão de IA descentralizada, permitindo que a blockchain suporte aplicações de IA em larga escala de forma segura, eficiente e democrática, e rivalizando em desempenho com soluções centralizadas, precisamos projetar uma blockchain Layer 1 feita sob medida para IA. Isso proporcionará uma base sólida para a inovação aberta em IA, a democracia na governança e a segurança dos dados, promovendo o desenvolvimento próspero do ecossistema de IA descentralizada.
As principais características da camada 1 de IA
AI Layer 1, como uma blockchain projetada especificamente para aplicações de IA, tem sua arquitetura subjacente e design de desempenho intimamente alinhados com as necessidades das tarefas de IA, visando apoiar de forma eficiente o desenvolvimento sustentável e a prosperidade do ecossistema de IA na cadeia. Especificamente, AI Layer 1 deve possuir as seguintes capacidades centrais:
Mecanismos de incentivo eficientes e consenso descentralizado O núcleo do AI Layer 1 reside na construção de uma rede compartilhada de recursos abertos, como poder computacional e armazenamento. Ao contrário dos nós de blockchain tradicionais que se concentram principalmente na contabilidade do livro-razão, os nós do AI Layer 1 precisam assumir tarefas mais complexas, não apenas fornecendo poder computacional, completando o treinamento e a inferência de modelos de IA, mas também contribuindo com armazenamento, dados, largura de banda e outros recursos diversificados, rompendo assim o monopólio dos gigantes centralizados na infraestrutura de IA. Isso impõe requisitos mais elevados aos mecanismos de consenso e incentivo subjacentes: o AI Layer 1 deve ser capaz de avaliar, incentivar e verificar com precisão a contribuição real dos nós em tarefas de inferência e treinamento de IA, garantindo a segurança da rede e a alocação eficiente de recursos. Só assim se pode garantir a estabilidade e a prosperidade da rede, além de reduzir efetivamente o custo total do poder computacional.
Desempenho elevado e capacidade de suporte a tarefas heterogêneas A tarefa de IA, especialmente o treinamento e a inferência de LLM, impõe exigências extremamente altas em termos de desempenho computacional e capacidade de processamento paralelo. Além disso, o ecossistema de IA na cadeia geralmente precisa suportar uma variedade de tipos de tarefas heterogêneas, incluindo diferentes estruturas de modelos, processamento de dados, inferência, armazenamento e outros cenários diversos. A camada de IA 1 deve ser profundamente otimizada na arquitetura de base para atender às demandas de alta taxa de transferência, baixa latência e paralelismo elástico, além de prever a capacidade de suporte nativo a recursos computacionais heterogêneos, garantindo que diversas tarefas de IA possam ser executadas de forma eficiente, permitindo uma expansão suave de "tarefas únicas" para "ecossistemas complexos e diversos".
Verificabilidade e Garantia de Saída Confiável A AI Layer 1 não só deve prevenir comportamentos maliciosos do modelo e a manipulação de dados, mas também garantir a verificabilidade e a conformidade dos resultados de saída da AI a partir de mecanismos de base. Ao integrar tecnologias de ponta como ambientes de execução confiáveis (TEE), provas de conhecimento zero (ZK) e computação segura multipartidária (MPC), a plataforma permite que cada inferência de modelo, treinamento e processo de tratamento de dados possam ser verificados de forma independente, assegurando a justiça e a transparência do sistema de AI. Ao mesmo tempo, essa verificabilidade também pode ajudar os usuários a entenderem a lógica e a base das saídas da AI, realizando o princípio de "o que se obtém é o que se deseja", aumentando a confiança e a satisfação dos usuários em relação aos produtos de AI.
Proteção da privacidade de dados Aplicações de IA frequentemente envolvem dados sensíveis dos usuários, sendo a proteção da privacidade dos dados especialmente crítica nas áreas financeira, médica e social. A camada de IA 1 deve garantir a verificabilidade ao mesmo tempo em que utiliza técnicas de processamento de dados baseadas em criptografia, protocolos de computação de privacidade e gestão de permissões de dados, para assegurar a segurança dos dados em todo o processo de inferência, treinamento e armazenamento, prevenindo efetivamente vazamentos e abusos de dados, eliminando as preocupações dos usuários em relação à segurança dos dados.
Capacidade poderosa de suporte ao ecossistema e desenvolvimento Como uma infraestrutura Layer 1 nativa de IA, a plataforma não só deve ter liderança tecnológica, mas também fornecer ferramentas de desenvolvimento completas, SDKs integrados, suporte à operação e mecanismos de incentivo para desenvolvedores, operadores de nós e outros participantes do ecossistema. Ao otimizar continuamente a usabilidade da plataforma e a experiência do desenvolvedor, promove-se a implementação de aplicações nativas de IA ricas e diversas, realizando a contínua prosperidade de um ecossistema de IA descentralizado.
Com base no contexto e nas expectativas acima, este artigo irá apresentar detalhadamente seis projetos representativos de AI Layer1, incluindo Sentient, Sahara AI, Ritual, Gensyn, Bittensor e 0G, sistematizando os últimos avanços da área, analisando o estado atual do desenvolvimento dos projetos e discutindo as tendências futuras.
Sentient: construir um modelo de IA descentralizado e de código aberto com lealdade
Visão geral do projeto
Sentient é uma plataforma de protocolo de código aberto que está a desenvolver uma blockchain AI Layer1 ( na fase inicial como Layer 2, e posteriormente será migrada para Layer 1). Através da combinação da AI Pipeline e da tecnologia blockchain, está a construir um ecossistema de inteligência artificial descentralizado. O seu objetivo central é resolver problemas de propriedade de modelos, rastreamento de chamadas e distribuição de valor no mercado LLM centralizado através da estrutura "OML" (aberta, lucrativa, leal), permitindo que os modelos de IA tenham uma estrutura de propriedade na cadeia, chamadas transparentes e distribuição de valor. A visão do Sentient é permitir que qualquer pessoa possa construir, colaborar, possuir e monetizar produtos de IA, promovendo assim uma rede ecológica justa e aberta de Agentes de IA.
A equipe da Sentient Foundation reúne os principais especialistas acadêmicos, empreendedores de blockchain e engenheiros do mundo, dedicando-se a construir uma plataforma de AGI comunitária, de código aberto e verificável. Os membros principais incluem o professor Pramod Viswanath da Universidade de Princeton e o professor Himanshu Tyagi do Instituto Indiano de Ciência, responsáveis pela segurança e proteção da privacidade da IA, enquanto o co-fundador da Polygon, Sandeep Nailwal, lidera a estratégia de blockchain e o ecossistema. Os membros da equipe têm experiência em empresas renomadas como Meta, Coinbase, Polygon, além de instituições de ensino de alto nível como a Universidade de Princeton e o Instituto Indiano de Tecnologia, cobrindo áreas como AI/ML, NLP e visão computacional, colaborando para a implementação do projeto.
Como um projeto de segunda empreitada de Sandeep Nailwal, cofundador da Polygon, o Sentient já chegou ao mercado com um brilho especial, contando com uma vasta gama de recursos, conexões e reconhecimento de mercado, proporcionando um forte suporte ao desenvolvimento do projeto. Em meados de 2024, o Sentient completou uma rodada de financiamento seed de 85 milhões de dólares, liderada por Founders Fund, Pantera e Framework Ventures, com outras instituições de investimento como Delphi, Hashkey e Spartan, entre várias outras VCs renomadas.
arquitetura de design e camada de aplicação
Camada de Infraestrutura
Arquitetura Central
A arquitetura central do Sentient é composta por um Pipeline de IA e um sistema de blockchain:
O pipeline de IA é a base para o desenvolvimento e treinamento de artefatos de "IA Leal", contendo dois processos principais:
O sistema de blockchain proporciona transparência e controle descentralizado para os protocolos, garantindo a propriedade dos artefatos de IA, o rastreamento de uso, a distribuição de rendimentos e a governança justa. A arquitetura específica é dividida em quatro camadas:
Estrutura do Modelo OML
A estrutura OML (Aberto Open, Monetizável Monetizable, Leal Loyal) é o conceito central proposto pela Sentient, com o objetivo de fornecer proteção clara de propriedade e mecanismos de incentivo econômico para modelos de IA de código aberto. Ao combinar tecnologia na cadeia e criptografia nativa de IA, possui as seguintes características:
Criptografia nativa de IA (AI-native Cryptography)
A criptografia nativa de IA utiliza a continuidade dos modelos de IA, a estrutura de variedades de baixa dimensão e a característica de diferenciabilidade dos modelos para desenvolver um mecanismo de segurança leve "verificável, mas não removível". A sua tecnologia central é:
Esta abordagem permite a realização de "chamadas autorizadas baseadas em comportamento + Verificação de pertença" sem custos de re-encriptação.
Modelo de titularidade e estrutura de execução segura
Sentient atualmente utiliza a segurança Melange combinada: com verificação de identidade por impressões digitais, execução TEE e divisão de lucros em contratos na cadeia. O método de impressão digital é a implementação OML 1.0 na linha principal, enfatizando a ideia de "Segurança Otimista", ou seja, conformidade por padrão, com a possibilidade de detecção e punição em caso de violação.
O mecanismo de impressão digital é a implementação chave do OML, permitindo que o modelo gere assinaturas únicas na fase de treinamento através da incorporação de pares específicos de "pergunta-resposta". Através dessas assinaturas, o proprietário do modelo pode validar a propriedade, prevenindo cópias e comercializações não autorizadas. Este mecanismo não apenas protege os direitos dos desenvolvedores do modelo, mas também fornece um registro rastreável na cadeia para as ações de uso do modelo.
Além disso, a Sentient lançou a estrutura de computação Enclave TEE, que utiliza ambientes de execução confiáveis (como AWS Nitro Enclaves) para garantir que o modelo responda apenas a solicitações autorizadas, prevenindo acessos e usos não autorizados. Embora o TEE dependa de hardware e apresente alguns riscos de segurança, suas vantagens em termos de alto desempenho e tempo real fazem dele a tecnologia central para a implantação de modelos atualmente.
No futuro, a Sentient planeia introduzir provas de conhecimento zero (ZK) e criptografia totalmente homomórfica (FHE) para melhorar ainda mais a proteção da privacidade e a verificabilidade.