Como confiar na IA: quais ideias o aprendizado de máquina com conhecimento zero (ZKML) fornece

Resumo

**À medida que a IA evolui a uma velocidade inimaginável, inevitavelmente levantará preocupações sobre a outra "ponta" da espada da IA - a confiança. **A primeira é a privacidade: na era da IA, como os humanos podem confiar na IA do ponto de vista da privacidade dos dados? Talvez a transparência do modelo de IA seja a chave para a preocupação: a capacidade de emergir como um modelo de linguagem em grande escala equivale a uma "caixa preta" tecnológica impenetrável para humanos, e usuários comuns não conseguem entender como o modelo funciona e o resultados da operação E como obtê-lo - o que é mais problemático é que, como usuário, você pode não saber se o modelo de IA fornecido pelo provedor de serviços está funcionando conforme prometido. Especialmente ao aplicar algoritmos e modelos de IA em alguns dados confidenciais, como médicos, financeiros, aplicativos de Internet, etc., se o modelo de IA for tendencioso (ou mesmo orientado de forma maliciosa) ou se o provedor de serviços executar o modelo (e parâmetros) exatamente como prometido, tornou-se a questão mais preocupante para os usuários. A tecnologia de prova de conhecimento zero tem uma solução direcionada a esse respeito, portanto, o aprendizado de máquina de conhecimento zero (ZKML) tornou-se a direção de desenvolvimento mais recente.

**Consideração abrangente de integridade de computação, otimização heurística e privacidade, a combinação de prova de conhecimento zero e IA, aprendizado de máquina de conhecimento zero (Zero-Knowledge Machine Learning, ZKML) surgiu. **Na era em que o conteúdo gerado por IA está se aproximando cada vez mais do conteúdo gerado por humanos, as características técnicas da prova secreta de conhecimento zero podem nos ajudar a determinar que um conteúdo específico é gerado por meio de um modelo específico. Para proteção da privacidade, a tecnologia de prova de conhecimento zero é particularmente importante, ou seja, a prova e a verificação podem ser concluídas sem revelar a entrada de dados do usuário ou os detalhes específicos do modelo.

**Cinco maneiras pelas quais as provas de conhecimento zero são aplicadas ao aprendizado de máquina: integridade computacional, integridade do modelo, verificação, treinamento distribuído e autenticação. **O rápido desenvolvimento recente de modelos de linguagem em larga escala (LLMs) mostra que esses modelos estão se tornando cada vez mais inteligentes e completam a importante interface entre algoritmos e humanos: a linguagem. A tendência da inteligência artificial geral (AGI) já é imparável, mas, a julgar pelos resultados atuais do treinamento do modelo, a IA pode imitar perfeitamente humanos de alta capacidade em interações digitais - e superar humanos a uma velocidade inimaginável em rápida evolução. para se maravilhar com essa velocidade evolutiva e até se preocupar em ser rapidamente substituído pela IA.

**Desenvolvedores da comunidade usam ZKML para verificar a função de recomendação do Twitter, que é instrutiva. **O recurso de recomendação "For You" do Twitter usa um algoritmo de recomendação de IA para destilar os aproximadamente 500 milhões de tweets postados todos os dias em um punhado de tweets populares, que eventualmente são exibidos na linha do tempo da página inicial do usuário. No final de março de 2023, o Twitter abriu o código do algoritmo, mas como os detalhes do modelo não foram divulgados, os usuários ainda não podem verificar se o algoritmo está sendo executado de maneira precisa e completa. O desenvolvedor da comunidade Daniel Kang e outros usam ferramentas criptográficas ZK-SNARKs para verificar se o algoritmo de recomendação do Twitter está correto e funcionando completamente sem divulgar detalhes do algoritmo - esse é o ponto mais atraente da prova de conhecimento zero, ou seja, não revelando nenhuma informação específica sobre o objeto Prove a credibilidade da informação na premissa da informação (conhecimento zero). Idealmente, o Twitter poderia usar o ZK-SNARKS para publicar provas de seu modelo de classificação – provas de que, quando o modelo é aplicado a usuários e tweets específicos, produz uma classificação de saída final específica. Essa prova é a base para a confiabilidade do modelo: os usuários podem verificar se o cálculo do algoritmo padrão funciona como prometido - ou submetê-lo a terceiros para auditoria. Isso tudo é feito sem divulgar os detalhes dos pesos dos parâmetros do modelo. Ou seja, usando a prova do modelo oficialmente anunciada, o usuário usa a prova para verificar se o tweet específico está operando honestamente conforme prometido pelo modelo para tweets questionáveis específicos.

1. Ideias principais

À medida que a IA evolui a uma velocidade inimaginável, inevitavelmente levantará preocupações sobre o outro "fio" da espada da IA - a confiança. A primeira é a privacidade: na era da IA, como os humanos podem confiar na IA do ponto de vista da privacidade? Talvez a transparência do modelo de IA seja a chave para a preocupação: a capacidade de emergir como um modelo de linguagem em grande escala equivale a uma "caixa preta" tecnológica impenetrável para humanos, e usuários comuns não conseguem entender como o modelo funciona e o resultados da operação e como obtê-lo (o próprio modelo está cheio de recursos incompreensíveis ou previsíveis) - o que é mais problemático é que, como usuário, você pode não saber se o modelo de IA fornecido pelo provedor de serviços está funcionando conforme prometido . Especialmente ao aplicar algoritmos e modelos de IA em alguns dados confidenciais, como médicos, financeiros, aplicativos de Internet, etc., se o modelo de IA for tendencioso (ou mesmo orientado de forma maliciosa) ou se o provedor de serviços executar o modelo (e parâmetros) exatamente como prometido, tornou-se a questão mais preocupante para os usuários.

A tecnologia de prova de conhecimento zero tem uma solução direcionada a esse respeito, portanto, o aprendizado de máquina de conhecimento zero (ZKML) tornou-se a direção de desenvolvimento mais recente. Este artigo discute as características da tecnologia ZKML, possíveis cenários de aplicação e alguns casos inspiradores, e faz uma pesquisa e elaboração sobre a direção de desenvolvimento do ZKML e seu possível impacto industrial.

**2. A "outra ponta" da espada da IA: como confiar na IA? **

As capacidades da inteligência artificial estão se aproximando rapidamente das dos humanos e já ultrapassaram os humanos em muitos domínios de nicho. O rápido desenvolvimento recente de modelos de linguagem grandes (LLMs) sugere que esses modelos estão se tornando cada vez mais inteligentes, e esses modelos refinam uma importante interface entre algoritmos e humanos: a linguagem. A tendência da inteligência artificial geral (AGI) já é imparável, mas, a julgar pelos resultados do treinamento do modelo atual, a IA pode imitar perfeitamente os humanos de alta capacidade em interações digitais - e superar os humanos a uma velocidade inimaginável no nível de rápida evolução. O modelo de linguagem teve um progresso significativo recentemente. Os produtos representados pelo ChatGPT tiveram um desempenho incrível, atingindo mais de 20% da capacidade humana na maioria das avaliações de rotina. Ao comparar o GPT-3.5 e o GPT-4, que têm apenas alguns meses de diferença, tornando os humanos tem que se maravilhar com essa velocidade evolutiva. Mas, por outro lado, está a preocupação com a perda de controle dos recursos de IA.

** Primeiro é o aspecto da privacidade. **Na era da IA, com o desenvolvimento de tecnologias como reconhecimento facial, os usuários estão sempre preocupados com o risco de vazamento de dados ao experimentar os serviços de IA. Isso trouxe alguns obstáculos para a promoção e desenvolvimento da IA - como confiar na IA do ponto de vista da privacidade?

**Talvez a transparência dos modelos de IA seja a chave para mais preocupação. **A capacidade de emergir semelhante a modelos de linguagem em grande escala é equivalente a uma "caixa preta" tecnológica impenetrável para humanos. Usuários em geral não conseguem entender como o modelo opera e como os resultados são obtidos (o próprio modelo está cheio de capacidade que difícil de entender ou prever) - mais problemático, pois um usuário pode não saber se o modelo de IA fornecido pelo provedor de serviços está funcionando como prometido. Especialmente ao aplicar algoritmos e modelos de IA em alguns dados confidenciais, como médicos, financeiros, aplicativos de Internet, etc., se o modelo de IA for tendencioso (ou mesmo orientado de forma maliciosa) ou se o provedor de serviços executar o modelo (e parâmetros) exatamente como prometido, tornou-se a questão mais preocupante para os usuários. Por exemplo, a plataforma de aplicativo social faz recomendações relevantes de acordo com o algoritmo de "tratamento igualitário"? A recomendação do algoritmo de IA do provedor de serviços financeiros é tão precisa e completa quanto prometido? Há consumo desnecessário no plano de atendimento médico preconizado pela AI? Os provedores de serviços aceitam auditoria de modelos de IA?

Simplificando, por um lado, os usuários não conhecem a situação real do modelo de IA fornecido pelo provedor de serviços. Ao mesmo tempo, eles estão muito preocupados com o fato de o modelo não ser "discriminatório". Os modelos de IA são considerado para incluir alguns fatores tendenciosos ou outros orientados, o que trará perda desconhecida para os usuários ou impacto negativo.

Por outro lado, a velocidade de auto-evolução da IA parece ser cada vez mais imprevisível, e o modelo de algoritmo de IA cada vez mais poderoso parece estar cada vez mais além da possibilidade de controle humano, ** então a questão da confiança tornou-se outra "borda" da espada afiada de AI ". **

É necessário estabelecer a confiança do usuário na IA a partir das perspectivas de privacidade de dados, transparência do modelo e controlabilidade do modelo. Os usuários precisam se preocupar com a proteção da privacidade e se o modelo do algoritmo está sendo executado com precisão e completamente como prometido; no entanto, esta não é uma tarefa fácil. Em termos de transparência do modelo, os provedores de modelos têm preocupações sobre a auditoria e supervisão do modelo com base em segredos comerciais e outros perspectivas; Por outro lado, a evolução do modelo do algoritmo em si não é fácil de controlar, e essa incontrolabilidade também precisa ser considerada.

Do ponto de vista da proteção da privacidade dos dados do usuário, também fizemos muitas pesquisas em nossos relatórios anteriores, como "IA e elementos de dados impulsionados pela Web 3.0: abertura, segurança e privacidade". Algumas aplicações da Web 3.0 são muito inspiradoras a este respeito—— Ou seja, o treinamento do modelo AI é realizado sob a premissa de confirmação completa dos dados do usuário e proteção da privacidade dos dados.

No entanto, o mercado atual está sobrecarregado com o desempenho impressionante de grandes modelos como o Chatgpt, e não considerou as questões de privacidade do modelo em si, as questões de confiança do modelo (e a confiança trazida pela incontrolabilidade) trazida pela evolução das características "emergentes" do algoritmo, mas em outro nível, os usuários sempre foram céticos sobre a operação precisa, completa e honesta do chamado modelo algorítmico. Portanto, a questão da confiança da IA deve ser resolvida a partir dos três níveis de usuários, provedores de serviços e incontrolabilidade do modelo.

3. ZKML: A combinação de prova de conhecimento zero e IA traz confiança

3.1. Prova de conhecimento zero: zk-SNARKS, zk-STARK e outras tecnologias estão amadurecendo

Zero Knowledge Proof (Zero Knowledge Proof, ZKP) foi proposto pela primeira vez por Shafi Goldwasser e Silvio Micali do MIT em um artigo intitulado "Knowledge Complexity of Interactive Proof Systems" em 1985. O autor mencionou no artigo que é possível para um provador convencer um verificador da autenticidade dos dados sem revelar os dados específicos. A função pública f(x) e o valor de saída y de uma função, Alice diz a Bob que ela sabe o valor de x, mas Bob não acredita. Para fazer isso, Alice usa um algoritmo de prova de conhecimento zero para gerar uma prova. Bob verifica esta prova para confirmar se Alice realmente conhece x que satisfaz a função f.

Por exemplo, usando prova de conhecimento zero, você não precisa saber as pontuações do teste de Xiaoming, mas pode saber se suas pontuações atendem aos requisitos do usuário - como se ele é aprovado, se a taxa correta de preenchimento dos espaços em branco excede 60%, e assim por diante. No campo da IA, combinado com a prova de conhecimento zero, você pode ter uma ferramenta de confiança confiável para modelos de IA.

A prova de conhecimento zero pode ser interativa, ou seja, o provador tem que provar a autenticidade dos dados uma vez para cada verificador; também pode ser não interativa, ou seja, o provador cria uma prova, e quem usar essa prova pode ser verificado.

O conhecimento zero se divide em prova e verificação.De modo geral, a prova é quase-linear, ou seja, a verificação é T*log(T).

Supondo que o tempo de verificação seja o quadrado do logaritmo do número de transações, o tempo de verificação da máquina para um bloco de 10.000 transações é

VTime = ( )2 ~ (13.2)2 ~ 177 ms; agora aumente o tamanho do bloco em cem vezes (para 1 milhão de tx/bloco), o novo tempo de execução do validador é VTime = (log2 1000000)2 ~ 202 ~ 400 ms. Portanto, podemos ver sua superescalabilidade, e é por isso que, teoricamente, o tps pode atingir o ilimitado.

**A verificação é muito rápida, e toda a dificuldade está na parte de geração das provas. **Contanto que a velocidade de geração de provas possa ser mantida, a verificação on-chain é muito simples. Atualmente, existem muitas implementações de provas de conhecimento zero, como zk-SNARKS, zk-STARKS, PLONK e Bulletproofs. Cada método tem suas próprias vantagens e desvantagens em termos de tamanho da prova, tempo do provador e tempo de verificação.

Quanto mais complexa e maior a prova de conhecimento zero, maior o desempenho e menor o tempo necessário para verificação. Conforme mostrado na figura abaixo, STARKs e Bulletproofs não requerem configurações confiáveis. Conforme a quantidade de dados de transação aumenta de 1TX para 10.000TX, o tamanho da última prova aumenta ainda menos. A vantagem do Bulletproofs é que o tamanho da prova é uma transformação logarítmica (mesmo que f e x sejam grandes), é possível armazenar a prova no bloco, mas a complexidade computacional de sua verificação é linear. Percebe-se que vários algoritmos possuem muitos pontos-chave a serem ponderados, e também há muito espaço para atualização. Porém, no processo de operação real, a dificuldade de geração de provas é muito maior do que se imagina. Portanto, a indústria é agora comprometido em resolver o problema de gerar provas.

Embora o desenvolvimento da tecnologia de prova de conhecimento zero não seja suficiente para corresponder à escala de um modelo de linguagem grande (LLM), sua implementação técnica tem cenários de aplicação inspiradores. Especialmente no desenvolvimento da espada de dois gumes da IA, a prova de conhecimento zero fornece uma solução confiável para a confiança da IA.

3.2. Zero Knowledge Machine Learning (ZKML): IA sem confiança

Em uma era em que o conteúdo gerado por IA está se aproximando cada vez mais do conteúdo gerado por humanos, as características técnicas das provas secretas de conhecimento zero podem nos ajudar a determinar que um conteúdo específico é gerado pela aplicação de um modelo específico. Para proteção da privacidade, a tecnologia de prova de conhecimento zero é particularmente importante, ou seja, a prova e a verificação podem ser concluídas sem revelar a entrada de dados do usuário ou os detalhes específicos do modelo. Considerando a integridade da computação, otimização heurística e privacidade, a combinação de prova de conhecimento zero e IA, aprendizado de máquina de conhecimento zero (Zero-Knowledge Machine Learning, ZKML) surgiu.

Aqui estão cinco maneiras pelas quais as provas de conhecimento zero podem ser aplicadas ao aprendizado de máquina. Além das funções básicas, como integridade computacional, integridade do modelo e privacidade do usuário, o aprendizado de máquina de conhecimento zero também pode trazer treinamento distribuído - isso promoverá a integração de IA e blockchain e a identificação de pessoas na selva de IA (Esta parte pode ser encontrada em nosso relatório "OpenAI Founder's Web3 Vision: Worldcoin Creates AI Digital Passport").

A demanda por poder de computação do modelo grande de IA é óbvia para todos. Neste momento, ao intercalar provas ZK em aplicativos de IA, novas demandas são colocadas no poder de computação de hardware. O estado da arte atual para sistemas de conhecimento zero combinados com hardware de alto desempenho ainda não pode provar nada tão grande quanto os modelos de linguagem grande (LLMs) atualmente disponíveis, mas algum progresso foi feito na criação de provas para modelos menores. De acordo com a equipe do Modulus Labs, o sistema de prova ZK existente foi testado em vários modelos de tamanhos diferentes. Sistemas de prova como o plonky2 podem ser executados em cerca de 50 segundos em uma poderosa máquina AWS para criar provas para modelos com uma escala de cerca de 18 milhões de parâmetros.

Em termos de hardware, as opções atuais de hardware para a tecnologia ZK incluem GPU, FPGA ou ASIC. Deve-se notar que a prova de conhecimento zero ainda está em estágio inicial de desenvolvimento, ainda há pouca padronização e o algoritmo está sendo constantemente atualizado e alterado. Cada algoritmo tem suas próprias características e é adequado para diferentes hardwares, e cada algoritmo será aprimorado até certo ponto conforme o desenvolvimento do projeto exigir, por isso é difícil avaliar especificamente qual algoritmo é o melhor.

Deve-se notar que em termos de combinação de modelos grandes de ZK e AI, não há pesquisas claras sobre a avaliação de sistemas de hardware existentes, portanto, ainda existem grandes variáveis e potenciais em termos de requisitos futuros de hardware.

3.3. Caso Inspirador: Validando o Algoritmo de Classificação de Recomendações do Twitter

A função de recomendação "For You" do Twitter usa um algoritmo de recomendação de IA para refinar os aproximadamente 500 milhões de tweets postados todos os dias em um punhado de tweets populares, que são finalmente exibidos na linha do tempo "For You" na página inicial do usuário. A recomendação extrai informações latentes de tweets, usuários e dados de engajamento para poder fornecer recomendações mais relevantes. No final de março de 2023, o Twitter abriu o código do algoritmo que seleciona e classifica postagens na linha do tempo para o recurso de recomendação "Para você". O processo de recomendação é mais ou menos assim:

  1. Gerar características de comportamento do usuário a partir da interação entre os usuários e o site, e obter os melhores tweets de diferentes fontes de recomendação;

  2. Use o modelo de algoritmo AI para classificar cada tweet;

  3. Aplique heurísticas e filtros, como filtrar tweets que os usuários bloquearam e tweets que eles viram, etc.

O módulo central do algoritmo de recomendação é o serviço responsável por construir e fornecer a linha do tempo Para Você - Home Mixer. O serviço atua como um backbone algorítmico conectando diferentes fontes candidatas, funções de pontuação, heurística e filtros.

A função de recomendação "Para você" prevê e pontua a relevância de cada tweet de candidato com base em aproximadamente 1.500 recomendações de candidatos potencialmente relevantes. O site oficial do Twitter diz que, nesta fase, todos os tweets de candidatos são tratados igualmente. A classificação principal é obtida por meio de uma rede neural de cerca de 48 milhões de parâmetros, que é treinada continuamente nas interações do tweet para otimizar. Esse mecanismo de classificação considera milhares de recursos e produz cerca de dez rótulos para pontuar cada tweet, onde cada rótulo representa a probabilidade de engajamento e, em seguida, classifica os tweets com base nessas pontuações.

Embora este seja um passo importante para a transparência no algoritmo de recomendação do Twitter, os usuários ainda não podem verificar se o algoritmo está sendo executado de forma precisa e completa - um dos principais motivos são os detalhes de peso específicos no modelo de algoritmo usado para classificar os tweets para proteger a privacidade do usuário. não foi tornado público. Portanto, a transparência do algoritmo ainda está em dúvida.

Usando a tecnologia ZKML (Zero-Knowledge Machine Learning), o Twitter pode provar se os detalhes do peso do modelo do algoritmo são precisos e completos (se o modelo e seus parâmetros são "iguais para usuários diferentes"), o que torna a proteção da privacidade do modelo do algoritmo e há um bom equilíbrio entre transparência.

O desenvolvedor da comunidade Daniel Kang e outros usam ferramentas criptográficas ZK-SNARKs para verificar se o algoritmo de recomendação do Twitter está correto e funcionando completamente sem revelar detalhes do algoritmo - esse é o ponto mais atraente da prova de conhecimento zero, ou seja, não revelando nenhuma informação específica sobre o objeto Prove a credibilidade da informação na premissa da informação (conhecimento zero). Idealmente, o Twitter poderia usar o ZK-SNARKS para publicar provas de seu modelo de classificação – provas de que, quando o modelo é aplicado a usuários e tweets específicos, produz uma classificação de saída final específica. Essa prova é a base para a confiabilidade do modelo: os usuários podem verificar se o cálculo do algoritmo padrão funciona como prometido - ou submetê-lo a terceiros para auditoria. Isso tudo é feito sem divulgar os detalhes dos pesos dos parâmetros do modelo. Ou seja, usando a prova do modelo oficialmente anunciada, o usuário usa a prova para verificar se o tweet específico está operando honestamente conforme prometido pelo modelo para tweets questionáveis específicos.

Digamos que um usuário pense que a linha do tempo do recurso de recomendação “Para você” é questionável – pensando que certos tweets devem ter uma classificação mais alta (ou mais baixa). Se o Twitter pode lançar a função de prova ZKML, os usuários podem usar a prova oficial para verificar como o tweet suspeito se classifica em comparação com outros tweets na linha do tempo (a pontuação calculada corresponde à classificação). Pontuações que não correspondem indicam que o modelo algorítmico para esses tweets em particular, não estava operando honestamente (alguns parâmetros variavam artificialmente). Pode-se entender que, embora o oficial não anuncie os detalhes específicos do modelo, ele dá uma varinha mágica (a prova do modelo) de acordo com o modelo. No entanto, os detalhes privados do modelo não podem ser restaurados. Portanto, os detalhes do modelo oficial são auditados enquanto a privacidade dos detalhes é preservada.

Da perspectiva do modelo, enquanto protege a privacidade do modelo, o uso da tecnologia ZKML ainda pode fazer com que o modelo ganhe auditoria e confiança do usuário.

Ver original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Recompensa
  • Comentar
  • Partilhar
Comentar
0/400
Nenhum comentário
  • Pino
Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)