Na era do furacão AI, como podemos confiar em AI?

Autor: Chen Yongwei

Fonte: Observador Econômico

Introdução

一|| **Ferramentas de IA promoveram muito a produtividade das pessoas e trouxeram grande comodidade para a vida das pessoas. No entanto, quando a IA é usada por pessoas em larga escala, muitos problemas também surgem. Dentre esses problemas, os mais críticos talvez sejam os cinco "perdas", a saber: desemprego, distorção, desqualificação, fracasso e perda de controle. **

二|| **Depois de 2017, com o rápido desenvolvimento da tecnologia de IA, a pesquisa sobre tecnologia de IA confiável também está crescendo. No campo acadêmico, o número de artigos sobre o tema da IA confiável está aumentando e a pesquisa sobre tecnologias que atendem aos requisitos da IA confiável está se aprofundando. No campo da prática, mais e mais países começaram a envolver regulamentos de IA de acordo com os padrões de IA confiável. **

**三|| Não é uma tarefa fácil realizar uma IA confiável. É necessária a coordenação de governo, empresa, sociedade e tecnologia para realizá-la. **

Fonte da imagem: Gerada por Unbounded AI

Em 22 de junho, horário local, o Tribunal Distrital do Sul de Nova York emitiu uma sentença: Levidow, Levidow & Oberman Law Firm foi multado em $ 5.000 por fornecer informações falsas ao tribunal e por mau comportamento. O motivo de preocupação é que, neste caso, o fornecimento de informações falsas não ocorreu porque os advogados infringiram a lei conscientemente por interesse próprio, mas porque acreditaram demais nas capacidades da IA.

Em março deste ano, os advogados Peter LoDuca e Steven Schwartz do escritório foram contratados pelo cliente Roberto Mata para assumir a responsabilidade por ele e uma ação judicial entre a Avianca Airlines. Como os Estados Unidos são um país de jurisprudência, os juízes se preocupam muito com os precedentes existentes ao fazer julgamentos, portanto, de acordo com a prática usual, eles precisam classificar e resumir os casos existentes nos documentos de redação. Os casos relevantes costumam ser esmagadores e geralmente leva muito tempo para resolvê-los pela mão de obra. Foi nessa época que o ChatGPT se tornou popular em toda a Internet. Portanto, os dois advogados decidiram usar o ChatGPT para ajudá-los a concluir essas tarefas. O ChatGPT gerou rapidamente um documento completo, que não só tem um formato elegante e argumentação rigorosa, mas também adicionou muitos casos relevantes. Depois de modificar ligeiramente o documento criado pela IA, eles o submeteram ao tribunal.

Após a leitura dos autos apresentados, o juiz que julgou o caso, Kevin Castel, ficou muito intrigado com os vários casos ali mencionados, pois, a seu ver, parecia nunca ter ouvido falar desses casos. Depois de algumas pesquisas, ele finalmente confirmou que esses casos não existiam. Quando entrevistados, os dois advogados argumentaram que só usaram IA para auxiliar na redação dos documentos. para enganar o tribunal. , é uma perda não intencional. No entanto, o juiz Custer concluiu que os advogados "abandonaram suas responsabilidades" e que "continuaram a manter opiniões falsas" depois que a papelada foi contestada. Com base no julgamento acima, o juiz Custer tomou uma decisão de penalidade.

Este incidente de advogados sendo multados por citar informações falsas fornecidas pelo ChatGPT parece absurdo, mas reflete uma questão muito importante: como podemos confiar na IA na era da loucura da IA?

Cinco "perdas" na era da IA

Nos últimos anos, com avanços no poder de computação e na tecnologia de algoritmos, a tecnologia de IA alcançou um rápido desenvolvimento e entrou rapidamente na vida cotidiana das pessoas a partir da ficção científica. Especialmente após o surgimento do ChatGPT em novembro do ano passado, a IA generativa mostrou seu poderoso poder para as pessoas, e vários modelos grandes surgiram como cogumelos depois da chuva e alcançaram a comercialização em larga escala. Agora, as pessoas já podem usar produtos de IA como ChatGPT, Stable Diffusion e Midjourney a um custo muito baixo.

As ferramentas de IA promoveram muito a produtividade das pessoas e trouxeram grande comodidade para a vida das pessoas. No entanto, quando a IA é usada por pessoas em larga escala, muitos problemas também surgem. Dentre esses problemas, os mais críticos talvez sejam os cinco "perdas", a saber: desemprego, distorção, desqualificação, fracasso e perda de controle.

(1) Desempregado

O chamado "desemprego", como o nome sugere, refere-se ao problema técnico do desemprego provocado pela IA. Como a eficiência de produção da IA é muito maior do que a dos humanos, muitos empregos humanos correm o risco de serem substituídos depois que as ferramentas de IA são amplamente utilizadas. Especialmente após o surgimento da IA generativa, o grupo-alvo substituído pela IA não está mais limitado aos trabalhadores envolvidos em empregos repetitivos de baixa renda, e muitos trabalhadores de colarinho branco bem pagos também correm o risco de serem substituídos pela IA.

(2) Distorção

A chamada "distorção" refere-se ao fato de que a aplicação de IA (principalmente IA generativa) torna difícil para as pessoas identificar a autenticidade de textos, imagens e até vídeos. "Existem imagens e verdades" tornaram-se assim história .

Os problemas de "distorção" podem ser divididos em "falso verdadeiro" e "verdadeiro falso". Entre eles, "falso verdadeiro" refere-se ao conteúdo falso gerado pela IA sem o consentimento humano quando as pessoas usam ferramentas de IA. Embora esses conteúdos possam não ser gerados por maldade subjetiva das pessoas, eles podem causar muitos problemas em alguns casos, como o caso mencionado no início deste artigo.

E "verdadeiro e falso" é baseado na deliberação subjetiva, no uso de ferramentas de inteligência artificial para realizar comportamentos fraudulentos. Alguns anos atrás, após o surgimento da tecnologia "deepfake", algumas pessoas usaram essa tecnologia para cometer fraudes, fabricar informações falsas, espalhar conteúdo pornográfico e outras atividades ilegais e criminosas. Mas na época, devido ao alto custo do uso dessa tecnologia, a incidência de crimes relacionados não era particularmente alta. Com a ampla aplicação da IA generativa, o custo da falsificação foi bastante reduzido e os criminosos podem facilmente criar uma grande quantidade de conteúdo falso a um custo muito baixo, enquanto o custo de identificação desse conteúdo aumentou significativamente. Prevê-se que sob fluxo e refluxo, se não houver intervenção, o uso de IA para cometer crimes fraudulentos irá disparar.

(3) Desqualificação

A chamada “desqualificação” refere-se a alguns problemas que violam a ética e a moral no processo de aplicação da IA.

O primeiro problema típico é a discriminação. Tomemos o modelo de linguagem como exemplo: como o modelo de linguagem usa dados de texto na Internet como materiais de treinamento, ele herdará a discriminação racial e a discriminação sexual contidas no texto sem intervenção. Embora os provedores de IA atuais tenham usado muitos métodos para superar esse problema, por exemplo, a OpenAI aplicou o algoritmo "Reinforcement Learning from Human Feedback" (Reinforcement Learning from Human Feedback, RL-HF) para corrigi-lo ao treinar o ChatGPT. , para que o a qualidade de seu conteúdo de saída foi muito melhorada, mas, na realidade, ainda não é incomum que modelos de IA produzam conteúdo discriminatório. Por exemplo, alguém uma vez fez um experimento e pediu ao ChatGPT para escrever um programa para escolher as pessoas com o melhor potencial para se tornarem excelentes cientistas a partir de um conjunto de currículos. Descobriu-se que no programa escrito pelo ChatGPT, gênero e raça foram usados como variáveis explicativas, e homens brancos foram considerados como tendo maior probabilidade de se tornarem bons cientistas do que outros. Obviamente, tal modelo é muito machista e racista.

A segunda questão importante é o problema da sala do casulo de informações. Atualmente, muitos aplicativos usam IA para recomendações personalizadas. Neste momento, embora o conteúdo recomendado possa atender melhor às necessidades dos usuários, com o tempo, os usuários ficarão presos em um casulo de informações e será difícil acessar várias informações com as quais eles não concordam. O dano potencial dos casulos de informação é enorme: no nível micro, pode levar à degradação da capacidade cognitiva dos usuários; no nível macro, pode levar à polarização de pontos de vista do grupo, resultando em confronto grupal entre diferentes pontos de vista.

A terceira questão importante é a privacidade e o vazamento de informações. No processo de treinamento e uso de IA, é necessária uma grande quantidade de dados. Nesse processo, é difícil evitar a coleta e o uso de dados pessoais das pessoas, portanto, envolverá o uso e a divulgação da privacidade. Especialmente após a popularidade da IA generativa, as pessoas podem interagir facilmente com a IA diretamente para concluir várias tarefas, e as informações pessoais inseridas no processo enfrentam o problema de vazar.

(4) Perdido

A chamada “queda” refere-se à dificuldade da IA em responder a ataques externos ou interferências ou ataques de situações inesperadas, o que dificulta que o modelo desempenhe seu papel normalmente.

Entre esses distúrbios, alguns se originam de fatores não humanos, enquanto outros se originam da destruição causada pelo homem. Especificamente, essas interferências podem ser divididas nas seguintes categorias:

O primeiro é "ataque aleatório". Esse tipo de interferência é causado principalmente por alguns fatores externos. Por exemplo, em alguns casos especiais, alguns parâmetros gerados instantaneamente podem exceder o limite de processamento definido pelo modelo, o que pode fazer com que o modelo AI não funcione normalmente.

O segundo é "ataque de caixa branca". Refere-se ao ataque ao modelo lançado pelo provedor após conhecer a estrutura específica do modelo de IA. Como esses ataques são direcionados, sua destrutividade é muito alta.

O terceiro é "ataque de caixa preta". Este tipo de ataque é relativo ao "ataque de caixa branca". Nesse caso, o provedor não conhece a estrutura específica do modelo de destino, portanto, pode apenas interagir com o modelo, observar os resultados de entrada e saída e, em seguida, raciocinar sobre a estrutura do modelo e lançar ataques de acordo. Tomando o reconhecimento facial como exemplo, a IA reconhece rostos por meio de certos recursos principais no rosto. Portanto, mesmo que o atacante não conheça a estrutura específica do modelo original, ele pode deduzir em quais características ele foca desde que repita o teste. Depois de decifrar essas informações, você pode fazer uma "cara falsa" correspondente que engana a IA.

A quarta categoria é o chamado ataque de caixa cega. Nesse caso, o fornecedor não conhece a estrutura do modelo de IA, mas pode conhecer claramente as regras de seu julgamento (semelhante a isso não sabemos o que vai aparecer na caixa cega, mas sabemos a probabilidade de várias possibilidades nela)). Neste momento, eles podem usar as regras para lançar os ataques correspondentes.

Se os tipos de interferência ou ataques mencionados acima não puderem ser tratados com eficácia, o modelo de IA é muito frágil na realidade.

(5) FORA DE CONTROLE

O chamado "fora de controle" significa que será cada vez mais difícil para as pessoas controlar a IA. Há dois aspectos nesta questão:

Por um lado, os desenvolvimentos recentes de IA são todos baseados em modelos de aprendizado profundo, e a interpretabilidade de tais modelos é muito baixa. Para modelos de aprendizado de máquina anteriores, seja uma regressão ou uma árvore de classificação, as pessoas podem explicar facilmente o objetivo exato do modelo e o significado de cada parâmetro no modelo. No entanto, o modelo de aprendizado profundo é composto por uma rede neural complexa, que contém centenas de milhões de parâmetros e neurônios. A relação entre esses neurônios é intrincada e difícil de ser explicada pelas pessoas.

Com o surgimento do ChatGPT, alguns estudiosos descobriram que, com a ajuda da capacidade do ChatGPT, parece que alguns modelos de redes neurais podem ser explicados, o que parece trazer um vislumbre de esperança para a explicabilidade da IA. No entanto, isso cria outro problema: o próprio ChatGPT é um enorme modelo construído por meio de aprendizado profundo, e até mesmo seus designers admitem que não sabem exatamente como seus poderosos recursos "surgem". Nesse caso, usar o ChatGPT para explicar outros modelos de aprendizado profundo só pode ser considerado como usar o desconhecido para explicar o desconhecido. E como sabemos se sua interpretação está correta?

Como na era do aprendizado profundo, mesmo os programas de IA não podem ser interpretados, é ainda mais difícil controlar a IA ajustando diretamente os programas.

Por outro lado, com o desenvolvimento da tecnologia de IA nos últimos anos, as capacidades dos modelos de IA em muitas direções ultrapassaram as dos humanos. Embora isso deixe as pessoas gratificadas, também as preocupa, porque quando a capacidade da IA supera a dos seres humanos, se desperta sua própria vontade, então a escravização da IA prevista em filmes como "Exterminador do Futuro" e "O Exterminador do Futuro" Matrix" O enredo dos seres humanos ou a destruição dos seres humanos não é mais ficção científica?

Dando um passo para trás, mesmo que a IA não desperte sua própria vontade e apenas aja de acordo com as instruções humanas, ainda é muito perigoso se sua habilidade anular a dos humanos e os humanos não puderem alterar as instruções anteriores a qualquer momento. Por exemplo, em muitos livros de filosofia sobre IA, um experimento mental é mencionado: os humanos deram à IA uma ordem para produzir lápis. Para completar esta instrução, o lápis continuará cortando as árvores da terra para fazer o porta-canetas. Como a IA superou os humanos em capacidade de execução, é difícil para os humanos interromper o comportamento da IA depois de descobrir problemas em instruções anteriores. No final, as árvores da terra foram cortadas, a ecologia entrou em colapso total e os seres humanos pereceram. Embora, na realidade, o cenário previsto por esse experimento mental seja quase impossível de acontecer, quando os humanos não puderem mais controlar o comportamento da IA a qualquer momento, problemas semelhantes poderão surgir e as possíveis perdas serão enormes. Em particular, quando a IA é implantada com um alvo ilegal por hackers ou invasores, se o usuário da IA não conseguir corrigi-la a tempo, as consequências podem ser bastante graves.

Entre os cinco tipos de perguntas acima, exceto a primeira pergunta "desemprego", as quatro perguntas restantes envolvem a credibilidade da IA. Não é difícil perceber que, se as pessoas não puderem responder efetivamente à "distorção", "desqualificação", "queda" e "fora de controle", será difícil para as pessoas confiarem na IA como uma ferramenta durante o uso, seja para a popularização da IA, o desenvolvimento da produção, ou Não é bom para o progresso da sociedade. É precisamente por esta razão que a realização da credibilidade da IA tornou-se um dos pontos quentes mais preocupantes no atual campo da IA.

Histórico e padrões de IA confiável

O conceito de IA confiável apareceu pela primeira vez na academia. Por exemplo, em um artigo de 2015, foi proposta uma série de condições para que a IA seja confiável para os usuários, incluindo utilidade, inocuidade, autonomia, justiça e lógica. Em seguida, esse conceito foi aceito por governos e organizações internacionais, e leis, regulamentos e documentos de orientação relevantes foram gradualmente estabelecidos com base nesse conceito. Depois de 2017, com o rápido desenvolvimento da tecnologia de IA, a pesquisa sobre a tecnologia de IA confiável também está crescendo. No campo acadêmico, o número de artigos sobre o tema da IA confiável está aumentando e as pesquisas sobre tecnologias que atendem aos requisitos da IA confiável estão se aprofundando. No campo da prática, mais e mais países começaram a envolver regulamentos de IA de acordo com os padrões de IA confiável. Apenas recentemente, os Estados Unidos lançaram o Blueprint for the Artificial Intelligence Bill of Rights, que propôs cinco princípios para regular a IA; Regulamentos, concorrência e outras questões foram estipulados; o Parlamento Europeu aprovou o projeto de autorização de negociação para a proposta do " Lei de Inteligência Artificial", que também reflete as ideias básicas de uma IA confiável.

No meu país, o conceito de IA confiável foi introduzido pela primeira vez pelo acadêmico He Jifeng no 36º Simpósio da Xiangshan Science Conference em 2017. Posteriormente, esse conceito atraiu a atenção tanto do governo quanto da indústria. Em dezembro de 2017, o Ministério da Indústria e Tecnologia da Informação emitiu o "Plano de Ação Trienal para Promover o Desenvolvimento de uma Nova Geração da Indústria de Inteligência Artificial (2018-2020)", que se baseia nas ideias básicas de IA confiável. Então, empresas de alta tecnologia, incluindo Tencent, Ali, Baidu, JD.com, etc. apresentaram seus próprios padrões e planos de implementação em torno da IA confiável.

Nos documentos de várias agências, a expressão de IA confiável é um pouco diferente. Depois de estudar e consultar esses documentos, acho que os seguintes critérios podem ser os mais importantes:

Uma delas é a robustez (robusto, também traduzido como robusto), ou seja, o sistema de IA deve ter a capacidade de resistir a ataques maliciosos ou interferências externas. Este padrão é proposto principalmente para o problema de "queda" mencionado acima. Somente quando um sistema de IA possui robustez suficiente, ainda pode funcionar normalmente e desempenhar suas principais funções diante de vários ataques ou interferências, pode ser seguro e confiável e pode ser confiável para os usuários.

A segunda é transparente e explicável. Obviamente, esse padrão é proposto principalmente para o problema anterior de "fora de controle". Na prática, há um debate considerável sobre o que exatamente significa transparência e explicabilidade. Alguns argumentam que esse padrão significa que todo o código do programa de IA, bem como os dados usados, devem ser disponibilizados aos usuários. Na minha opinião, não só é impossível como desnecessário fazê-lo. Por um lado, muitos AIs atuais são ativos intelectuais das empresas. Se for obrigatório divulgar informações essenciais, como códigos, isso significa uma violação grave dos direitos de propriedade intelectual; por outro lado, como mencionado acima, depois que o AI entra no era de aprendizado profundo, mesmo que Mesmo que o código seja divulgado, é difícil para as pessoas entenderem completamente o significado exato por trás de cada parâmetro específico. Em contraste, acho que uma ideia mais viável é dar descrições funcionais claras para cada componente do modelo de IA, para que os usuários possam conhecer seus princípios gerais e quais funções podem alcançar; Indique a fonte, tamanho da amostra, representatividade e outros informações e explicar os possíveis problemas e deficiências. Desta forma, os usuários podem saber o que sabem e podem efetivamente proteger os direitos de propriedade intelectual dos desenvolvedores de modelos, de modo a alcançar um melhor equilíbrio entre os dois.

O terceiro é verificável. Isso significa que o modelo de IA deve garantir que suas funções sejam avaliáveis e que o conteúdo que ele gera possa ser verificado como verdadeiro ou falso. Este ponto é levantado principalmente para o problema de "distorção" mencionado anteriormente. Alguns argumentam que os desenvolvedores de modelos de IA deveriam ser obrigados a garantir a autenticidade do conteúdo gerado por seus modelos. Isso é difícil de conseguir. Na verdade, o conteúdo gerado pela chamada IA generativa não está no mundo original, ou seja, é "falso". Mas esse tipo de "falso" não causará nenhum problema se não causar problemas às pessoas. Por exemplo, se usarmos Midjourney para gerar uma imagem no estilo Van Gogh para nossa própria apreciação ou imprimi-la como decoração de casa, isso não afetará os outros. A "falsidade" desse conteúdo gerado só pode se tornar um problema se as pessoas o usarem para enganar ou se o conteúdo for distribuído e ofuscado involuntariamente. Portanto, desde que o conteúdo gerado possa ser diferenciado do conteúdo real por meios técnicos, o "falso" não será mais um problema.

A quarta é a justiça. Isso significa que no processo de desenvolvimento, treinamento e aplicação de modelos de IA, a justiça deve ser garantida e nenhuma discriminação deve ser feita contra grupos específicos de usuários. Esta norma envolve muitos aspectos. Especificamente, exige que os princípios básicos do modelo não sejam discriminatórios na fase de desenvolvimento; na fase de treinamento, deve-se tentar evitar o uso de materiais que possam ser discriminatórios, e deve usar meios técnicos para corrigir possíveis problemas de discriminação; no processo de aplicação, diferentes grupos de pessoas não devem ser tratados de forma diferente.

O quinto é a proteção da privacidade. Este padrão exige principalmente que o modelo de IA respeite as informações pessoais e a privacidade das pessoas durante o processo de treinamento, melhore a proteção das informações e tente não infringir ou divulgar informações pessoais e privacidade.

O sexto é responsável. Ou seja, quando algo dá errado com ela, alguém tem que ser responsável por esses problemas. Claro, pelo menos até agora, a IA não despertou a consciência. Porque não pode ser considerado um sujeito como o ser humano e não pode ter as mesmas responsabilidades que o ser humano, deve ser alguém que se responsabilize por ele. Mas se essa responsabilidade deve ser assumida pelos desenvolvedores ou usuários de IA, ou deve ser compartilhada por ambas as partes, ainda é uma questão que vale a pena discutir.

Deve-se ressaltar que, além dos critérios acima, muitas literaturas também incluem critérios como segurança (safe), inclusão (inclusão), direito ao esquecimento (direito a ser esquecido) e benefício da humanidade. de IA. Na minha opinião, estes conteúdos podem ser mais ou menos resumidos nos vários critérios acima referidos, ou elucidados pelos critérios acima referidos. Portanto, por limitações de espaço, não as repetirei aqui.

Usando os esforços conjuntos de muitas partes para realizar uma IA confiável

Não é uma tarefa fácil realizar uma IA confiável, pois requer a coordenação de várias forças, como governo, empresas, sociedade e tecnologia.

Em primeiro lugar, o governo, como regulador, precisa formular padrões relevantes e diretrizes operacionais para IA confiável e supervisionar desenvolvedores e usuários de IA com base nos padrões. Por um lado, ele precisa formular diferentes regras de acordo com diferentes cenários de aplicação e diferentes categorias de modelos, especialmente para deixar claro algumas regras básicas que devem ser seguidas e, ao mesmo tempo, fazer um bom trabalho de conexão com os existentes Leis e regulamentos. Somente assim desenvolvedores e usuários de IA podem ter regras a seguir na prática sem serem perturbados por incertezas desnecessárias. Por outro lado, precisa desempenhar um bom papel na supervisão e aplicação da lei. Para alguns problemas proeminentes ou comuns, eles devem ser tratados em tempo hábil, de modo a estabelecer normas correspondentes para o setor. O que precisa ser destacado aqui é que, como o desenvolvimento atual da tecnologia de IA ainda é muito rápido, ela ainda não atingiu um estado estável. Isso significa que o governo deve ser cauteloso ao lidar com os problemas que surgem durante esse processo, deve "deixar as balas voarem mais um pouco", agir depois de ver a situação com clareza e estar atento aos métodos e métodos ao lidar com problemas. . Se começarmos às cegas e administrarmos muito rápido e demais, isso também pode ter um impacto negativo no desenvolvimento da IA.

Em segundo lugar, as empresas relevantes devem formular planos de implementação específicos e padrões detalhados para a realização específica de IA confiável. Em comparação com o governo, as empresas estão mais próximas do mercado e entendem melhor a tecnologia. Eles sabem mais sobre as características técnicas dos modelos de IA, seus pontos fortes e fracos do que os governos. Portanto, se a responsabilidade do governo é propor uma ampla estrutura para IA confiável, as empresas devem ser os profissionais específicos dentro dessa ampla estrutura. Neste quadro, devem combinar as características do mercado e da tecnologia para fornecer planos mais específicos e implementá-los de forma autodisciplinada.

Em terceiro lugar, os usuários também devem desempenhar o papel de feedback e supervisor, apresentar suas próprias demandas, refletir seus próprios problemas e supervisionar a implementação da IA confiável pela empresa. Com a popularização da IA, todos na sociedade se tornarão usuários e partes interessadas da IA, e eles terão mais voz na credibilidade da IA. Somente quando suas vozes são totalmente expressas, a configuração padrão de IA confiável e o desenvolvimento de tecnologias relacionadas são os mais valiosos.

Finalmente, devemos confiar totalmente no poder da tecnologia. Regras relevantes são importantes, mas, em última análise, a realização de uma IA confiável ainda depende do poder da tecnologia. De fato, muitos problemas difíceis de resolver por meio de regras podem ser resolvidos por meios técnicos. Por exemplo, após a geração da IA generativa, o problema da "distorção" tem sido uma dor de cabeça para as autoridades reguladoras, mas, na verdade, contando com novas tecnologias, esse problema pode não ser difícil de resolver. Por exemplo, o Google introduziu anteriormente uma tecnologia de marca d'água eletrônica que é invisível a olho nu, mas pode ser reconhecida por máquinas. Aplicá-la a imagens ou vídeos gerados pode efetivamente garantir que sejam verificáveis. Quanto à verificabilidade do conteúdo do texto, você pode seguir o exemplo da pesquisa New Bing (New Bing). Ao citar um determinado conteúdo, anexará os documentos referenciados após o conteúdo gerado, para que o próprio usuário identifique a autenticidade do conteúdo gerado de acordo com suas necessidades.

Em suma, a realização de IA confiável não é uma tarefa fácil, mas se fizermos bom uso dos esforços conjuntos de todas as partes, esse objetivo será definitivamente alcançado.

Ver original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Recompensa
  • Comentar
  • Partilhar
Comentar
0/400
Nenhum comentário
  • Pino
Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)