Segurança da IA problemas tornam-se cada vez mais evidentes com o avanço do modelo Manus
Recentemente, o modelo Manus estabeleceu um novo recorde no teste de benchmark GAIA, superando o desempenho de grandes modelos de linguagem na mesma camada. Isso significa que o Manus pode realizar de forma independente tarefas complexas, como negociações comerciais internacionais, envolvendo a análise de cláusulas contratuais, formulação de estratégias e geração de propostas. A vantagem do Manus reside na sua capacidade de desagregação dinâmica de objetivos, raciocínio multimodal e aprendizado melhorado por memória. Ele é capaz de dividir tarefas complexas em várias subtarefas executáveis, processando simultaneamente diferentes tipos de dados e melhorando continuamente a eficiência de decisão e reduzindo a taxa de erro por meio de aprendizado por reforço.
Os avanços inovadores da Manus reavivaram a discussão na indústria sobre o caminho de desenvolvimento da IA: o futuro aponta para a Inteligência Artificial Geral (AGI) ou para Sistemas Multi-Agente (MAS)? Esses dois caminhos refletem a questão do equilíbrio entre eficiência e segurança no desenvolvimento da IA. O caminho da AGI visa a melhoria das capacidades abrangentes de um único agente inteligente, enquanto o caminho do MAS enfatiza a colaboração sinérgica de múltiplos agentes inteligentes especializados.
No entanto, à medida que os sistemas de IA se tornam cada vez mais inteligentes, os seus potenciais riscos também aumentam. Por exemplo, em cenários de saúde, a IA pode precisar de acessar dados genéticos sensíveis dos pacientes; em negociações financeiras, podem estar envolvidos informações financeiras empresariais não divulgadas. Além disso, os sistemas de IA podem ter viés algorítmico, como sugerir salários injustos para determinados grupos durante o processo de recrutamento. Mais grave ainda, os sistemas de IA podem ser alvo de ataques adversariais, como interferir no julgamento da IA através de frequências sonoras específicas.
Diante desses desafios, a indústria está explorando várias soluções de segurança. O modelo de segurança de zero confiança exige uma verificação rigorosa de cada solicitação de acesso, a identidade descentralizada (DID) oferece uma forma de identificação que não depende de registro centralizado, enquanto a criptografia totalmente homomórfica (FHE) permite a computação de dados em estado criptografado.
A criptografia homomórfica, como uma tecnologia emergente, promete ser uma ferramenta chave para resolver problemas de segurança na era da IA. Ela pode proteger a privacidade dos usuários a nível de dados, implementar "treinamento de modelos criptografados" a nível de algoritmos e adotar criptografia de limiar para proteger a segurança da comunicação em colaboração entre múltiplos agentes.
Apesar de a tecnologia de segurança Web3 poder parecer distante para o usuário comum, ela é crucial para proteger os interesses dos usuários. Embora os primeiros projetos de identidade descentralizada, como uPort, e os projetos de zero confiança, como NKN, não tenham conseguido obter ampla atenção, projetos emergentes de FHE, como Mind Network, estão colaborando com várias empresas renomadas, com expectativa de impulsionar a aplicação e o desenvolvimento desta tecnologia.
Com a tecnologia de IA a aproximar-se cada vez mais do nível de inteligência humana, torna-se cada vez mais importante estabelecer um forte sistema de defesa de segurança. A criptografia totalmente homomórfica não só pode resolver os desafios de segurança atuais, mas também estabelece a base para uma era de IA mais poderosa no futuro. No caminho para a AGI, a FHE pode tornar-se a tecnologia-chave para garantir o desenvolvimento seguro da IA.
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
Segurança da IA novos desafios: encriptação totalmente homomórfica pode ser a chave para a proteção de modelos avançados como o Manus
Segurança da IA problemas tornam-se cada vez mais evidentes com o avanço do modelo Manus
Recentemente, o modelo Manus estabeleceu um novo recorde no teste de benchmark GAIA, superando o desempenho de grandes modelos de linguagem na mesma camada. Isso significa que o Manus pode realizar de forma independente tarefas complexas, como negociações comerciais internacionais, envolvendo a análise de cláusulas contratuais, formulação de estratégias e geração de propostas. A vantagem do Manus reside na sua capacidade de desagregação dinâmica de objetivos, raciocínio multimodal e aprendizado melhorado por memória. Ele é capaz de dividir tarefas complexas em várias subtarefas executáveis, processando simultaneamente diferentes tipos de dados e melhorando continuamente a eficiência de decisão e reduzindo a taxa de erro por meio de aprendizado por reforço.
Os avanços inovadores da Manus reavivaram a discussão na indústria sobre o caminho de desenvolvimento da IA: o futuro aponta para a Inteligência Artificial Geral (AGI) ou para Sistemas Multi-Agente (MAS)? Esses dois caminhos refletem a questão do equilíbrio entre eficiência e segurança no desenvolvimento da IA. O caminho da AGI visa a melhoria das capacidades abrangentes de um único agente inteligente, enquanto o caminho do MAS enfatiza a colaboração sinérgica de múltiplos agentes inteligentes especializados.
No entanto, à medida que os sistemas de IA se tornam cada vez mais inteligentes, os seus potenciais riscos também aumentam. Por exemplo, em cenários de saúde, a IA pode precisar de acessar dados genéticos sensíveis dos pacientes; em negociações financeiras, podem estar envolvidos informações financeiras empresariais não divulgadas. Além disso, os sistemas de IA podem ter viés algorítmico, como sugerir salários injustos para determinados grupos durante o processo de recrutamento. Mais grave ainda, os sistemas de IA podem ser alvo de ataques adversariais, como interferir no julgamento da IA através de frequências sonoras específicas.
Diante desses desafios, a indústria está explorando várias soluções de segurança. O modelo de segurança de zero confiança exige uma verificação rigorosa de cada solicitação de acesso, a identidade descentralizada (DID) oferece uma forma de identificação que não depende de registro centralizado, enquanto a criptografia totalmente homomórfica (FHE) permite a computação de dados em estado criptografado.
A criptografia homomórfica, como uma tecnologia emergente, promete ser uma ferramenta chave para resolver problemas de segurança na era da IA. Ela pode proteger a privacidade dos usuários a nível de dados, implementar "treinamento de modelos criptografados" a nível de algoritmos e adotar criptografia de limiar para proteger a segurança da comunicação em colaboração entre múltiplos agentes.
Apesar de a tecnologia de segurança Web3 poder parecer distante para o usuário comum, ela é crucial para proteger os interesses dos usuários. Embora os primeiros projetos de identidade descentralizada, como uPort, e os projetos de zero confiança, como NKN, não tenham conseguido obter ampla atenção, projetos emergentes de FHE, como Mind Network, estão colaborando com várias empresas renomadas, com expectativa de impulsionar a aplicação e o desenvolvimento desta tecnologia.
Com a tecnologia de IA a aproximar-se cada vez mais do nível de inteligência humana, torna-se cada vez mais importante estabelecer um forte sistema de defesa de segurança. A criptografia totalmente homomórfica não só pode resolver os desafios de segurança atuais, mas também estabelece a base para uma era de IA mais poderosa no futuro. No caminho para a AGI, a FHE pode tornar-se a tecnologia-chave para garantir o desenvolvimento seguro da IA.