Rumo a uma IA responsável: tendências e perspectivas da governança de IA na China

Autor: Cao Jianfeng, pesquisador sênior, Tencent Research Institute

Fonte da imagem: Gerada por Unbounded AI

O século 21 é uma era de desenvolvimento profundo da digitalização, rede e inteligência. A inteligência artificial (IA), como uma tecnologia-chave, atraiu muita atenção de todas as esferas da vida. Os últimos dez anos são considerados a "década de ouro" da IA representada pelo aprendizado profundo. ** [1] Por meio do aprendizado profundo, a tecnologia de redes neurais (Neural Networks) no campo de IA deu início a uma recuperação, dando início à "terceira primavera" de rápido desenvolvimento no campo de IA. Antes disso, desde que o conceito de "inteligência artificial" foi proposto na Conferência de Dartmouth em 1956, o campo da IA passou por dois altos e baixos. Especificamente, a convergência e o desenvolvimento de muitos elementos técnicos, como algoritmos de aprendizado de máquina, big data, computação em nuvem, chips específicos de IA e estruturas de software de código aberto promoveram um tremendo progresso no campo da IA. Como resultado, a IA tornou-se rapidamente uma nova tecnologia de uso geral e a base inteligente da economia e da sociedade, e é amplamente utilizada em vários campos da economia e da sociedade, trazendo novos produtos e serviços. Desde recomendação de algoritmo, conteúdo gerado por IA (AIGC) e chatbots no campo da Internet do consumidor até veículos não tripulados no campo industrial, software médico de IA, inspeção de qualidade de IA e várias aplicações convenientes em serviços públicos sociais, a IA tem um grande impacto na economia.O enorme valor do desenvolvimento social de alta qualidade continua a ser demonstrado. [2] Em suma, como uma tecnologia estratégica liderando uma nova rodada de revolução tecnológica e transformação industrial (a quarta revolução industrial), espera-se que a IA remodele a economia e a sociedade humanas e tenha um enorme impacto na produtividade, emprego de mão de obra, distribuição de renda, globalização, etc.

**Neste contexto, a IA tornou-se um novo foco de competição internacional, e países ao redor do mundo introduziram estratégias de desenvolvimento de IA e políticas específicas para aproveitar posições estratégicas de comando e oportunidades de desenvolvimento. ** Em julho de 2017, a China lançou o "Plano de Desenvolvimento de Inteligência Artificial de Nova Geração" e a IA foi elevada a uma estratégia nacional; em abril de 2018, a UE emitiu uma estratégia de IA, com o objetivo de tornar a UE um centro de IA de classe mundial e garantir que a IA seja orientada para as pessoas, credível; em fevereiro de 2019, foi lançado o "American AI Plan", lançando a estratégia de IA, com o objetivo de aumentar a liderança dos Estados Unidos no campo da IA; em setembro de 2021, o O Reino Unido emitiu uma estratégia de IA, na esperança de construir as superpotências do Reino Unido para IA. Analisando as estratégias de IA de vários países, não é difícil perceber que a competição internacional no campo da IA não está apenas relacionada à inovação tecnológica e à economia industrial, mas também envolve dimensões como a governança da IA. Com a ampla aplicação da IA, muitas questões éticas científicas e tecnológicas trazidas pela IA continuam a atrair grande atenção de todas as esferas da vida, como discriminação de algoritmo, casulo de informações, tomada de decisão injusta de IA, abuso de informações pessoais e violação de privacidade, IA segurança, caixa preta de algoritmo, responsabilidade, abuso de tecnologia (como assassinato de big data, fraude de IA e informações falsas sintéticas), impacto no trabalho e no emprego, impacto ético e moral e outros desafios de risco. [3] Portanto, juntamente com o rápido desenvolvimento e aplicação da tecnologia de IA nos últimos dez anos, todas as esferas da vida em casa e no exterior promoveram simultaneamente a governança de IA, exploraram várias medidas de governança e mecanismos de garantia, como legislação, estruturas éticas, padrões e certificação, e as melhores práticas do setor para apoiar o desenvolvimento de IA responsável, confiável e centrado no ser humano.

Com base em uma perspectiva internacional, este artigo classifica o importante progresso da China no campo da governança de IA nos últimos dez anos, analisa e resume as leis e tendências e espera o desenvolvimento futuro. Num futuro previsível, à medida que a IA se tornar mais capaz, sua aplicação e impacto se aprofundarão dia a dia. Portanto, a IA responsável (Responsible AI) se tornará cada vez mais importante. O avanço e a implementação da IA responsável são inseparáveis da governança de IA razoável e eficaz. Em outras palavras, estabelecer uma sólida governança de IA é a única maneira de avançar para uma IA responsável e garantir o desenvolvimento futuro da IA. Espera-se que este artigo seja útil para o desenvolvimento e implementação contínuos da governança de IA no futuro.

Oito tendências de governança de IA

A estratégia macro e a política de implementação são desenvolvidas simultaneamente para cultivar a competitividade nacional da IA

Desde que as "Opiniões Orientadoras sobre a Promoção do Desenvolvimento Ordenado e Saudável da Internet das Coisas" emitidas em fevereiro de 2013 apresentaram "desenvolvimento econômico e social inteligente", a IA entrou no campo de visão da macroestratégia nacional e se tornou um tópico importante de documentos de políticas nacionais de alto nível. Por exemplo, em 2015, as "Opiniões Orientadoras sobre a Promoção Ativa da Ação "Internet Plus"" propuseram pela primeira vez "cultivar e desenvolver indústrias emergentes de inteligência artificial". Desde então, o país prestou cada vez mais atenção à IA e continuou a fazer implantações para o desenvolvimento da IA no nível estratégico para garantir que as principais tecnologias sejam autocontroláveis e promovam autoconfiança e autoconfiança tecnológica de alto nível. dependência (Tabela 1).

As políticas de desembarque são igualmente importantes. A IA é um complexo de tecnologias emergentes e indústrias emergentes. Somente quando a inovação tecnológica da IA for transformada em uma ecologia industrial sustentável e profundamente integrada à economia real, ela poderá desempenhar plenamente seu poderoso papel como um novo motor de crescimento. A este respeito, o modelo de primeira tentativa, como a área de teste e a área piloto, desempenha um papel importante. O Ministério da Ciência e Tecnologia obteve conquistas notáveis na construção de zonas piloto de inovação e desenvolvimento de inteligência artificial. O país aprovou a construção de 18 zonas piloto nacionais de inovação e desenvolvimento de inteligência artificial de nova geração, que desempenharam um bom papel na política ferramentas, modelos de aplicação, experiência e práticas. Desde 2019, o Ministério da Indústria e Tecnologia da Informação aprovou a construção de 11 zonas piloto nacionais de inovação e aplicação de inteligência artificial para promover a integração profunda da IA e da economia real; "Opiniões Orientadoras sobre o Desenvolvimento da Qualidade", com foco na solução dos problemas de Aplicação e industrialização de IA e use a troika de "banco de dados + plataforma de poder de computação + abertura de cena" para conduzir a integração profunda de IA e desenvolvimento econômico e social e apoiar melhor o desenvolvimento de alta qualidade.

Com o apoio contínuo da macroestratégia nacional e das políticas de implementação, a inovação e o empreendedorismo no campo da IA na China continuaram ativos. Laboratórios nacionais no campo da IA foram estabelecidos um após o outro e conquistas importantes foram feitas em inovação tecnológica, aplicação industrial e escala de talentos na área de IA. . O "Relatório do Índice Global de Inovação em Inteligência Artificial de 2021", divulgado pelo Instituto de Informações Científicas e Tecnológicas da China, mostra que o atual desenvolvimento global da IA apresenta um padrão geral liderado pela China e pelos Estados Unidos e uma competição acirrada entre os principais países. [4] O desenvolvimento da IA na China alcançou resultados notáveis. O nível de inovação da IA entrou no primeiro escalão do mundo e a lacuna com os Estados Unidos foi ainda mais reduzida. Os centros de supercomputação da China, a escala empresarial de IA, o número de registros de patentes, a formação de equipes de talentos e a força da pesquisa científica estão liderando o mundo. No futuro, a contribuição da IA para o crescimento econômico e o desenvolvimento social da China continuará a aumentar. Um relatório de pesquisa da PricewaterhouseCoopers prevê que globalmente, até 2030, a contribuição da IA para a economia global chegará a 15,7 trilhões de dólares americanos, e a China colherá os maiores benefícios econômicos da IA, chegando a 7 trilhões de dólares americanos, o que significa que a IA promoverá O crescimento do PIB da China de cerca de 26,1%, seguido pelos Estados Unidos e América do Norte, chegará a 3,7 trilhões de dólares americanos. [5]

O sistema de ética científica e tecnológica foi continuamente aprimorado e se tornou uma importante garantia para a inovação da IA

Na era digital, as tecnologias digitais emergentes, como a IA, têm singularidade e complexidade diferentes das aplicações tecnológicas da era industrial. Principalmente refletido em: (1) Conectividade mais ampla, conexão de rede e coleta e processamento de dados são onipresentes; (2) Autonomia mais forte, o sistema de IA impulsiona vários produtos e serviços para operar de forma independente sem intervenção humana; (3) Opacidade mais profunda, o "preto algorítmico caixa" do sistema AI é difícil de entender e explicar; [6] (4) Maior fidelidade, o conteúdo, os dados e o mundo virtual gerados e sintetizados pela IA estão se aproximando da realidade. Por causa disso, as questões sociais e éticas que podem ser causadas pela aplicação de novas tecnologias, como a IA, são cada vez mais caracterizadas pela rapidez, ocultação, escala e imprevisibilidade, que representam novos desafios para a governança ética da ciência e da tecnologia. No processo de desenvolvimento e aplicação de IA, torna-se cada vez mais necessário e importante considerar simultaneamente ou mesmo considerar antecipadamente questões de ética científica e tecnológica. [7] O ajuste e aprimoramento do sistema de ética científica e tecnológica tornou-se, assim, uma questão importante na era da IA. É necessário passar do foco na ética humana para o foco na ética técnica, implementar restrições morais aos agentes inteligentes e construir uma ordem social digital amigável. [8] Além disso, com a competição global cada vez mais acirrada em ciência e tecnologia, a ética em ciência e tecnologia não está relacionada apenas à prevenção de riscos e desafios à segurança tecnológica, mas também à construção da competitividade tecnológica nacional.

**Desde o 18º Congresso Nacional do Partido Comunista da China, o Estado tem dado cada vez mais atenção à ética da ciência e tecnologia, afirmando claramente que a ética da ciência e tecnologia é um critério de valor que deve ser seguido nas atividades científicas e tecnológicas , e incorporou a ética da ciência e tecnologia no desenho de políticas de alto nível como um importante suporte e garantia para a inovação científica e tecnológica. ** "Decisão do Comitê Central do Partido Comunista da China sobre a adesão e melhoria do sistema socialista com características chinesas e promoção da modernização do sistema nacional de governança e das capacidades de governança" e "Décimo quarto plano quinquenal e esboço de longo -metas de prazo para 2035" fizeram implantações de alto nível para a ética científica e tecnológica. É necessário melhorar o sistema de governança da ética científica e tecnológica e melhorar o sistema de ética científica e tecnológica. Atualmente, o país continua a estabelecer e melhorar o sistema de ética da ciência e tecnologia e moldar o conceito cultural e garantir o mecanismo de ciência e tecnologia para o bem. Isso se reflete principalmente em três aspectos:

**Em primeiro lugar, estabelecer o Comitê Nacional de Ética Científica e Tecnológica, responsável por orientar, coordenar e promover a construção do sistema nacional de governança ética em ciência e tecnologia. **Em julho de 2019, a Nona Reunião do Comitê Central de Reforma de Aprofundamento Abrangente revisou e aprovou o "Plano Nacional de Formação do Comitê de Ética em Ciência e Tecnologia", estabelecendo oficialmente a organização nacional de gestão de ética em ciência e tecnologia da China. Os “Opiniões sobre o Fortalecimento da Governança da Ética em Ciência e Tecnologia” emitidos em março de 2022 esclareceram ainda mais as responsabilidades de gestão do Comitê Nacional de Ética em Ciência e Tecnologia.

**Em segundo lugar, promulgar políticas e regulamentos relacionados à ética científica e tecnológica para apoiar a implementação da governança ética científica e tecnológica. ** Um dos destaques da "Lei do Progresso Científico e Tecnológico" revisada em dezembro de 2021 é o acréscimo de dispositivos relacionados à ética científica e tecnológica. Sujeitos como instituições de ensino superior, empresas e instituições públicas devem exercer a responsabilidade principal de e gestão da ética tecnológica, realizar revisão ética das atividades científicas e tecnológicas e, ao mesmo tempo, esclarecer os resultados legais e éticos das atividades de pesquisa, desenvolvimento e aplicação científica e tecnológica. As "Opiniões sobre o Fortalecimento da Governança Ética da Ciência e Tecnologia" apresentam requisitos mais abrangentes para a governança ética da ciência e tecnologia, envolvendo seis grandes aspectos: requisitos gerais, princípios, sistemas, garantias institucionais, revisão e supervisão, educação e publicidade, e estabelece as bases para a implementação da governança ética da ciência e tecnologia. O acompanhamento também formulará normas de apoio como os métodos de revisão da ética científica e tecnológica, a lista de atividades científicas e tecnológicas de alto risco em ética científica e tecnológica e as normas de ética científica e tecnológica em campos subdivididos.

**Em terceiro lugar, enfatize a governança ética da ciência e tecnologia no campo da IA. **O Comitê Profissional Nacional de Governança de Inteligência Artificial de Nova Geração emitiu sucessivamente os "Princípios de Governança de Inteligência Artificial de Nova Geração - Desenvolvimento de Inteligência Artificial Responsável" e "Ética de Inteligência Artificial de Nova Geração", fornecendo diretrizes éticas para o desenvolvimento de IA responsável. A "Lei de Segurança de Dados", "Regulamentos de Gerenciamento de Recomendação de Algoritmos de Serviços de Informações da Internet", "Opiniões Orientadoras sobre o Fortalecimento da Governança Abrangente de Algoritmos de Serviços de Informações da Internet" e outras leis e regulamentos apresentam requisitos éticos científicos e tecnológicos e medidas de gerenciamento de dados e algoritmos Atividades. As "Opiniões sobre o Fortalecimento da Governança da Ética em Ciência e Tecnologia" consideram IA, ciências da vida e medicina como as três áreas-chave durante o período do "14º Plano Quinquenal", requer a formulação de normas e diretrizes especiais de ética em ciência e tecnologia, fortalece a legislação de ética científica e tecnológica e exige executivos relevantes do setor O departamento lançou uma medida de supervisão de ética científica e tecnológica. É previsível que a regulamentação da ética tecnológica no domínio da IA seja reforçada no futuro. Além disso, a legislação local, como os "Regulamentos de promoção da indústria de inteligência artificial de Shenzhen" e "Regulamentos de Xangai sobre a promoção do desenvolvimento da indústria de inteligência artificial", consideram a governança ética da IA uma garantia importante para apoiar o desenvolvimento saudável da IA. indústria.

**A partir da análise acima, pode-se ver que, em termos de governança da ética da ciência e tecnologia da IA, uma tendência significativa é assumir a responsabilidade do sujeito da gestão da ética da ciência e tecnologia como o principal ponto de partida, o que é semelhante à ênfase na responsabilidade do sujeito da plataforma na supervisão da plataforma da Internet. **A supervisão da plataforma pelo governo é amplamente alcançada através da implementação e compactação da responsabilidade principal da plataforma. A legislação relevante no campo da Internet estabeleceu um sistema abrangente de obrigações da plataforma antes, durante e depois do evento. A Administração Estatal do Mercado Supervisão emitida As "Diretrizes para Implementação das Responsabilidades dos Assuntos em Plataformas da Internet (Rascunho para Comentários)" tentaram refinar as responsabilidades dos assuntos dos diferentes tipos de plataformas. A regulamentação do governo sobre IA mostra uma ideia semelhante. As atuais políticas e regulamentos relevantes tentam refinar as responsabilidades dos sujeitos de gestão da ética científica e tecnológica, exigindo que os sujeitos da inovação estabeleçam comitês de ética, cumpram os princípios básicos da ética científica e tecnológica, conduzam análises éticas científicas e tecnológicas, realizem monitorização do risco ético, alerta e avaliação precoce e realização de formação em ética científica e tecnológica.

A aplicação de algoritmos no campo da Internet tornou-se o objeto principal da supervisão da IA

A recomendação de algoritmos, a tomada de decisão automatizada de algoritmos, a síntese profunda de IA e outras aplicações de algoritmos no campo da Internet tornaram-se o foco da supervisão do governo no campo da IA devido a fatores como ampla aplicação, alta atenção do público e destaque contínuo de problemas negativos . Nos últimos anos, o estado promulgou uma série de leis e regulamentos para regular ativamente a aplicação de algoritmos no campo da Internet. [9] As "Opiniões Orientadoras sobre o Fortalecimento da Governança Abrangente dos Algoritmos do Serviço de Informações da Internet" emitidas pelo Escritório Estadual de Informações da Internet e outros nove departamentos apresentam requisitos de gerenciamento relativamente abrangentes. Espera-se que em cerca de três anos, um mecanismo de governança sólido, uma supervisão sólida sistema, e um padrão ecológico algorítmico será gradualmente estabelecido. Padrão de governança abrangente de segurança algorítmica. O parecer também enfatiza o fortalecimento das responsabilidades corporativas, incluindo responsabilidades de segurança de algoritmos e revisão ética científica e tecnológica.

Em termos de recomendação de algoritmos, o "Regulamento de Governação Ecológica de Conteúdos de Informação em Rede" propõe melhorar a intervenção humana e o mecanismo de auto-seleção do utilizador para a tecnologia de recomendação de algoritmos. O "Regulamento sobre a administração de recomendações de algoritmo para serviços de informações da Internet", que será implementado em 1º de março de 2022, é a primeira legislação da China com foco na governança de algoritmos. Uma série de medidas regulatórias, como monitoramento de riscos de segurança, avaliação de segurança de algoritmos e o gerenciamento de arquivamento de algoritmos fortaleceu ainda mais a responsabilidade de segurança de algoritmos das empresas de plataforma. Especialistas do setor interpretaram isso como um sinal e chamaram 2022 de o primeiro ano de regulamentação de algoritmos.

Em termos de tomada de decisão automatizada algorítmica, a "Lei de Proteção de Informações Pessoais da República Popular da China", "Lei de Comércio Eletrônico da República Popular da China", "Disposições Provisórias sobre Serviços de Gerenciamento de Turismo Online" e outras disposições têm disposições sobre discriminação de algoritmos, familiarização com big data, etc. Para regular comportamentos legítimos de tomada de decisão de algoritmos, métodos de regulamentação, como fornecer direitos de escolha aos indivíduos, realizar avaliações de impacto e indivíduos podem solicitar explicações e desfrutar de direitos de rejeição para melhor equilibrar a proteção de direitos pessoais e atividades de aplicação comercial de algoritmos.

Em termos de síntese profunda de IA (referindo-se principalmente ao uso da tecnologia de IA para gerar e sintetizar conteúdo de informação), a legislação relevante delineia ativamente a linha vermelha para a aplicação da tecnologia de síntese profunda de IA e promove a aplicação positiva da tecnologia, como o " Network Audio and Video Information Service Management Regulations", "Network The Regulations on Information Content Ecological Governance, the Regulations on the Administration of Internet Information Service Algorithm Recommendations, etc. . O "Regulamento sobre a Administração de Síntese Profunda de Serviços de Informações da Internet" aprovado em novembro de 2022 resume a experiência regulatória anterior e regula de forma abrangente a aplicação da tecnologia de síntese profunda em termos de responsabilidade principal dos provedores de serviços de síntese profunda e o gerenciamento do conteúdo de informações de síntese profunda Identificação.As medidas de segurança necessárias, como identificação, detecção e identificação e rastreabilidade de conteúdo, garantem que a aplicação da tecnologia de síntese profunda seja segura e confiável e promova melhor a inovação tecnológica e o desenvolvimento e aplicações positivas.

No geral, a supervisão de algoritmos no campo da Internet enfatiza vários propósitos, como segurança e controlabilidade, proteção de direitos e interesses, imparcialidade e justiça, abertura e transparência e prevenção de abuso. aplicações de algoritmos de alto risco. A regulamentação de classificação e classificação de algoritmos é semelhante à regulamentação de sistemas de IA na Lei de Inteligência Artificial da União Europeia, com diferentes requisitos regulamentares. Nesse contexto, a comunidade acadêmica tem um forte interesse na pesquisa de governança algorítmica e propôs muitas ideias, como interpretação de algoritmos, avaliação de impacto de algoritmos e auditoria de algoritmos. No futuro, todas as esferas da vida precisam explorar e melhorar os métodos e medidas de governança da supervisão de algoritmos, de modo a garantir melhor que a aplicação dos algoritmos seja ascendente e boa.

Usando inovação regulatória para promover a aplicação de IA em campos regulatórios fortes tradicionais

Para campos regulatórios fortes tradicionais, como transporte e assistência médica, o principal problema enfrentado por coisas novas, como carros autônomos, drones tripulados (carros voadores não tripulados), software médico de IA etc. é que suas aplicações comerciais ainda enfrentam desafios maiores. legal e obstáculos regulatórios. Essas barreiras não apenas afetam a confiança do consumidor e do público na tecnologia, mas também desencorajam inovadores e investidores. Portanto, a inovação regulatória eficaz é a chave para o desenvolvimento e aplicação dessas novidades. Tomando os carros autônomos como exemplo, a aplicação comercial de carros autônomos só pode ser acelerada acelerando a reforma do quadro legislativo e regulatório destinado a regular carros tradicionais e motoristas humanos e, em seguida, estabelecendo um novo e efetivo quadro regulatório.

Os formuladores de políticas da China estão inovando ativamente métodos e meios regulatórios e apoiando e promovendo a aplicação de novos itens de IA por meio do "Sandbox Regulatório" (Sandbox Regulatório, veja a introdução abaixo), projetos-piloto e aplicativos de demonstração. No campo dos carros autônomos, o estado emitiu uma série de legislação e documentos normativos para incentivar, apoiar e regular os testes de estrada e as atividades de aplicação de demonstração de carros autônomos, explorar a "caixa de areia regulamentar" dos padrões de segurança para carros autônomos -dirigir carros e melhorar a padronização dos carros autônomos Regras de passagem para entrar e entrar na estrada para garantir a segurança do transporte de carros autônomos. Devido a políticas regulatórias favoráveis, lugares como Pequim, Xangai, Guangzhou e Shenzhen conquistaram planaltos de desenvolvimento um após o outro. Algumas cidades emitiram licenças de operação experimental para carros autônomos que não permitem motorista no carro e podem ser operados por uma taxa ; Shenzhen é a primeira no país a emitir o "The Regulations on the Administration of Shenzhen Intelligent Connected Vehicles" estabelece um quadro legislativo e regulamentar para aplicações comerciais. No campo da assistência médica de IA, como o software médico de IA tem muitos novos recursos diferentes dos dispositivos médicos tradicionais, incluindo autonomia, recursos de aprendizado e evolução, iteração contínua, caixa preta de algoritmo, imprevisibilidade etc., é difícil para os procedimentos de aprovação tradicionais adaptar-se efetivamente aos cuidados médicos de IA.Necessidades de desenvolvimento de software. Para esse fim, as autoridades reguladoras estão melhorando ativamente os procedimentos de declaração e aprovação de registro e usam especificações de gerenciamento de dispositivos médicos de IA e apoiam a aplicação clínica acelerada de software médico de IA para diagnóstico e tratamento auxiliares, como imagens médicas inteligentes; atualmente, IA médica software foi aprovado na China, como o software de diagnóstico de glaucoma assistido por IA da Tencent Miying e o sistema de diagnóstico assistido por IA para pneumonia foram aprovados para o certificado de registro de dispositivo médico de terceira classe ("três tipos de certificados"). No futuro, as autoridades reguladoras precisam continuar a melhorar e otimizar os procedimentos de registro, inscrição e aprovação de software médico de IA, para que os aplicativos médicos de IA possam melhorar a subsistência e o bem-estar das pessoas.

Acelere a exploração das regras de proteção de propriedade intelectual da IA

O conteúdo gerado por IA (conteúdo gerado por IA, abreviado como AIGC) tornou-se uma nova fronteira da IA, representando a futura direção de desenvolvimento da IA [10] . No campo da Internet, o AIGC é a forma de produção de conteúdo depois do PGC (Professional Content Production) e do UGC (User Production Content), trazendo uma grande mudança na produção automatizada de conteúdo. Atualmente, a tecnologia AIGC tem sido capaz de produzir de forma independente várias formas de conteúdo, incluindo texto, imagens, áudio, vídeo, conteúdo 3D (objetos 3D, cenas virtuais 3D), etc. As regras de proteção de direitos de propriedade intelectual para a tecnologia AIGC e suas aplicações tornaram-se, portanto, uma questão importante que não pode ser evitada. Questões como "como estabelecer a proteção de direitos autorais e propriedade do conteúdo AIGC" e "se a tecnologia AIGC está infringindo os direitos autorais conteúdo" são questões urgentes a serem resolvidas. [11] Alguns estudiosos estrangeiros sugeriram que é necessário estabelecer regras especiais de proteção à propriedade intelectual da IA e tratados internacionais, porque a tecnologia da IA quebra o modelo existente de que criadores e inventores só podem ser seres humanos. [12]

Em casa e no exterior, as regras de proteção de propriedade intelectual para conteúdo gerado por IA têm sido exploradas ativamente. No exterior, o Reino Unido, a União Europeia, o Japão, a África do Sul, etc. estão considerando ou formularam regras especiais de proteção à propriedade intelectual da IA, como as cláusulas de proteção de trabalhos gerados por computador no "Copyright, Design and Patent Act" britânico e a "Diretiva de Direitos Autorais do Mercado Digital Único" da União Europeia. "Exceções de direitos autorais de mineração de texto e dados com base na tecnologia AI, etc. Em termos de patentes, a política do Reino Unido aponta que, como a IA ainda não está avançada o suficiente para inventar e criar de forma independente, não há necessidade de alterar a lei de patentes no momento, mas é necessário prestar muita atenção ao progresso tecnológico e avaliar a IA questões de patentes em tempo hábil.

Na China, no caso do Beijing Film Law Firm contra o caso de violação de direitos autorais “Baijiahao” da Baidu, o tribunal considerou que apenas trabalhos originais criados por pessoas físicas podem obter proteção de direitos autorais, negando assim os direitos autorais de trabalhos gerados direta e independentemente por IA. destacam que os direitos e interesses relevantes (como direitos e interesses competitivos) de conteúdo gerado por IA podem ser protegidos por meio de leis de concorrência e outros meios. No caso de Shenzhen Tencent Computer System Co., Ltd. v. Shanghai Yingxun Technology Co., Ltd. por violação de direitos autorais e disputas de concorrência desleal, o tribunal, com base na realidade da colaboração humano-computador no campo de IA, apontou que os trabalhos tecnicamente "gerados" do software de escrita AI Dream Writer são apenas criações. Como um elo no processo, a atividade intelectual geral formada pela divisão de trabalho multiequipe e multipessoal hospedada pelo demandante é o elo central da criação, e assim se determina que o artigo envolvido na causa é obra de pessoa jurídica hospedada pelo autor. A determinação do caso Dream Writer está mais alinhada com o desenvolvimento atual da tecnologia AIGC e suas aplicações, e tem grande significado de referência para esclarecer ainda mais as regras de proteção de propriedade intelectual para conteúdo gerado por IA por meio de legislação no futuro. Em termos de legislação, a recém-revisada "Lei de Direitos Autorais da República Popular da China" em 2020 adota um método aberto de identificação de obras. cláusulas, fornecendo AIGC e outras novas tecnologias A proteção de novos objetos trazidos por aplicativos reserva espaço institucional.

A construção de padronização é uma parte fundamental da governança de IA

**O "Esboço de Desenvolvimento da Normalização Nacional" apontou que a padronização desempenha um papel fundamental e de liderança na promoção da modernização do sistema de governança nacional e das capacidades de governança. Para o campo da IA, os padrões de IA não são apenas um meio importante para apoiar e promover o desenvolvimento, progresso e ampla aplicação da IA (como padrões técnicos), mas também uma maneira eficaz de promover a implementação da governança de IA (como governança padrões, padrões éticos), porque os padrões de governança de IA podem desempenhar um papel importante na "execução da legislação e supervisão e na prática técnica de ancoragem". Além disso, os padrões no campo da governança de IA são mais ágeis, flexíveis e adaptáveis do que a legislação e a regulamentação. Portanto, os padrões de governança de IA tornaram-se um ponto de comando no desenvolvimento da tecnologia e da indústria de IA, e a comunidade internacional propôs medidas de implementação. **Representantes típicos incluem os padrões confiáveis de IA da União Europeia, o gerenciamento de risco de IA liderado pelo Instituto Nacional de Padrões e Tecnologia (NIST) dos EUA, a identificação de discriminação de IA e outros padrões de governança, o plano de desenvolvimento do ecossistema de certificação de IA do Reino Unido, os padrões de ética de IA do IEEE, etc. Em termos de implementação, o IEEE lançou um projeto de certificação de ética de IA para o setor; o Reino Unido espera cultivar uma indústria de certificação de IA líder mundial no valor de bilhões de libras em 5 anos e aprovar os serviços de certificação de IA de um terceiro neutro (incluindo auditoria, avaliação de influência, certificação) para avaliar e comunicar a credibilidade e a conformidade dos sistemas de IA.

**A China atribui grande importância à construção de padronização no campo de IA. O "Esboço Nacional de Desenvolvimento de Padronização" requer pesquisa de padronização nas áreas de IA, informação quântica e biotecnologia. **Nos últimos anos, todas as esferas da vida continuaram a promover a padronização de padrões nacionais, padrões da indústria, padrões locais e padrões de grupo no campo da governança de IA. Por exemplo, o Comitê Nacional de Gestão de Padronização estabeleceu o Grupo Geral Nacional de Padronização de Inteligência Artificial, e o Comitê Técnico Nacional de Padronização de Tecnologia da Informação estabeleceu o Subcomitê Técnico de Inteligência Artificial, ambos com o objetivo de promover a formulação de padrões nacionais no campo da IA . As "Diretrizes para a construção do sistema nacional de padrão de inteligência artificial de nova geração" emitidas em julho de 2020 esclarecem o design de alto nível no campo dos padrões de IA. A IA estabelece um sistema de conformidade para promover o desenvolvimento saudável e sustentável da IA. No futuro, os padrões relacionados à governança da IA precisam ser formulados e implementados mais rapidamente, de modo a fornecer mais garantias para a inovação tecnológica e o desenvolvimento industrial no campo da IA.

A indústria explora ativamente medidas de autodisciplina para governança de IA e pratica o conceito de inovação e tecnologia responsáveis para o bem

**A governança eficaz da IA requer a participação conjunta de vários sujeitos, como governo, empresas, organizações industriais, grupos acadêmicos, usuários ou consumidores e o público. Entre eles, a autogovernança e a gestão autodisciplinada das empresas de tecnologia é um parte importante da implementação do conceito de "ética em primeiro lugar". **A razão para pedir "ética em primeiro lugar" deve-se em grande parte ao fato de que, em face do rápido desenvolvimento da IA, o fenômeno do "atraso legal" tornou-se cada vez mais proeminente. No campo da IA, a "ética em primeiro lugar" se manifesta pela primeira vez na gestão autodisciplinada da ética tecnológica das empresas de tecnologia, e as melhores práticas das empresas líderes muitas vezes podem desempenhar um papel de liderança muito bom, promovendo a prática de inovação e tecnologia responsáveis para o bem em toda a ideia da indústria.

No nível da indústria, nos últimos anos, instituições de pesquisa relevantes e organizações da indústria propuseram diretrizes éticas de IA e convenções de autodisciplina, etc., para fornecer orientação ética para as atividades de IA das empresas. Representantes típicos a esse respeito incluem a "Convenção de Autodisciplina da Indústria de Inteligência Artificial" e "Diretrizes de Operação de Inteligência Artificial Confiável" da Aliança de Desenvolvimento da Indústria de Inteligência Artificial da China (AIIA), o "Consenso de Inteligência Artificial de Pequim" e o "Consenso de Inteligência Artificial" de Pequim Instituto de Pesquisa de Inteligência Artificial de Zhiyuan. Declaração de Responsabilidade da Indústria", as "Diretrizes de Práticas Padrão de Segurança de Rede do Comitê Nacional de Padronização de Segurança - Diretrizes para Prevenção de Riscos de Segurança Ética de Inteligência Artificial", etc.

No nível empresarial, as empresas de tecnologia, como o principal órgão de inovação e aplicação industrial da tecnologia de IA, assumem a importante responsabilidade de pesquisa, desenvolvimento e aplicação responsáveis da IA. Em países estrangeiros, as empresas de tecnologia exploraram uma experiência relativamente madura e acumularam muitos recursos propondo princípios éticos de IA, estabelecendo organizações internas de governança ética de IA e desenvolvendo ferramentas técnicas e de gerenciamento e até mesmo soluções de IA responsáveis comercialmente. Práticas Promovidas (Tabela 2) [13] . Nos últimos anos, as empresas de tecnologia nacionais implementaram ativamente requisitos regulatórios e exploraram medidas autorregulatórias relevantes, incluindo principalmente: publicação de princípios éticos de IA, estabelecimento de organizações internas de governança de IA (como comitês de ética), realização de revisões éticas ou avaliações de risco de segurança para atividades de IA e divulgar algoritmos para o mundo exterior. Informações relevantes, promover a abertura e transparência de algoritmos e explorar soluções técnicas para questões éticas de IA (como ferramentas de detecção e identificação de conteúdo de informações sintéticas, ferramentas de avaliação de governança de IA e soluções de computação de privacidade, como como aprendizagem federada), etc.

Cooperação e competição globais de governança de IA coexistem

**A competição global de IA não é apenas uma competição entre tecnologia e indústria, mas também uma competição entre regras e padrões de governança. **O desenvolvimento da economia digital global está formando novas regras internacionais para IA e dados, como fluxo de dados, estrutura de governança de IA, etc. Nos últimos anos, a cooperação global em governança de IA continuou a avançar. Os Princípios de IA da OCDE/G20 de 2019 são a primeira estrutura política global de IA. Em novembro de 2021, a UNESCO das Nações Unidas aprovou o primeiro acordo de ética de IA do mundo "Recomendação sobre a Ética da Inteligência Artificial" (Recomendação sobre a Ética da Inteligência Artificial), que é atualmente a estrutura de política de IA global mais abrangente e amplamente consensual. , avaliação de impacto ético e outros mecanismos para fortalecer a governança ética da IA.

Ao mesmo tempo, os Estados Unidos e a Europa estão acelerando as políticas de IA para fortalecer sua liderança no campo de políticas de IA e influenciar as regras e padrões globais de governança de IA. Por exemplo, a União Europeia está trabalhando em um projeto de lei de IA harmonizado que, quando for aprovado em 2023, estabelecerá um caminho regulatório abrangente e baseado em risco para IA. Muitos especialistas prevêem que, assim como o impacto da legislação de privacidade de dados anterior GPDR na indústria de tecnologia global, a Lei de IA da UE estenderá o "Efeito Bruxelas" ao campo da IA, que é exatamente o que a UE espera para estabelecer a governança da IA. para o mundo através do padrão de regulamentação. [14] Além da legislação de IA, o Conselho da Europa ainda está planejando a primeira “Convenção Internacional de IA” do mundo. convenção. [15] Os Estados Unidos sempre foram líderes globais no campo da IA em termos de tecnologia e indústria e, nos últimos anos, começaram a remodelar ativamente sua liderança no campo da política de IA. Uma das principais tarefas do Conselho de Comércio e Tecnologia EUA-UE estabelecido em 2020 é promover a cooperação EUA-UE na governança de IA. [16] Em conclusão, a competição global de IA está enfatizando cada vez mais a competição de soft power no campo da política e governança de IA, o que pode ser considerado uma grande mudança na competição tecnológica no século XXI.

Nos últimos anos, a China atribuiu grande importância à participação na governança global de ciência e tecnologia, apresentou ativamente suas próprias propostas e lutou por mais reconhecimento e consenso. Por exemplo, a China apresentou a "Iniciativa Global de Segurança de Dados", que continua a injetar energia positiva na governança digital global. Em novembro de 2022, na Conferência dos Estados Partes da Convenção das Nações Unidas sobre Certas Armas Convencionais, a China apresentou um documento sobre o fortalecimento da governança ética da inteligência artificial e apresentou proposições como aderir primeiro à ética, fortalecer a autodisciplina, uso responsável da inteligência artificial e incentivo à cooperação internacional.

PERSPECTIVA DE TRÊS PONTOS

Muitas políticas e documentos normativos, como "O 14º Plano Quinquenal e o Esboço de Metas de Longo Prazo em 2035", "Construção do Estado de Direito na China (2020-2025)", "Opiniões sobre o Fortalecimento da Governança Ética da Ciência e Tecnologia" e outras políticas e documentos normativos mostram que a governança de IA continua a se tornar uma questão importante na governança de ciência e tecnologia. Áreas centrais da ética tecnológica. Para aumentar ainda mais a competitividade global da China no campo da IA, a China não apenas precisa prestar mais atenção ao cultivo de tecnologia e hard power industrial, mas também precisa se concentrar em moldar o poder brando, especialmente o direito de falar e liderar na política e governança de IA. . Porque a governança da IA se tornou uma parte importante da competitividade global da IA.

Olhando para o passado, a China esclareceu a ideia de supervisão e governança de IA que presta igual atenção ao desenvolvimento e à segurança, paralelamente à inovação e à ética. Ao mesmo tempo em que apoia e promove a inovação e o desenvolvimento, também garante a segurança, confiabilidade e controlabilidade de aplicações de tecnologia. Diante do futuro, precisamos fazer melhor uso dos esforços conjuntos do governo, indústrias/empresas, instituições de pesquisa, organizações sociais, usuários/consumidores, público, mídia e outras partes interessadas para continuar a promover o desenvolvimento sólido da IA práticas de governança e tornar a IA melhor beneficiam o desenvolvimento econômico e social, melhoram a subsistência e o bem-estar das pessoas e levam a ciência e a tecnologia a um nível superior.

Além disso, a última "década de ouro" da IA trouxe às pessoas modelos de IA cada vez mais poderosos e, no futuro previsível, a IA só se tornará mais poderosa. Isso significa que, quando a IA interage com o ecossistema social, seus possíveis impactos humanos, sociais e ambientais excederão em muito qualquer tecnologia anterior. Portanto, a principal tarefa da governança de IA é continuar a defender e praticar o conceito de "IA responsável"; criar valor para as partes interessadas e melhorar seu bem-estar e evitar abusos, uso indevido e mau uso. Em resumo, uma governança de IA eficaz precisa promover o desenvolvimento de práticas responsáveis de IA e criar uma IA confiável (Trustworthy AI).

Continue melhorando a estrutura legal de dados e IA e promova uma supervisão precisa e ágil

O desenvolvimento saudável e sustentável da IA é inseparável de uma supervisão razoável e eficaz, por um lado, e, por outro lado, precisa melhorar continuamente o nível de fornecimento e circulação e utilização de dados no campo da IA. De fato, um dos principais problemas enfrentados pelo desenvolvimento e aplicação da IA em muitos campos, como assistência médica, manufatura e finanças, é o problema da aquisição e utilização de dados, incluindo difícil aquisição de dados, baixa qualidade de dados e padrões de dados inconsistentes. Portanto, o desenvolvimento futuro da IA depende em grande parte da melhoria contínua dos dados e da estrutura legal da IA. O "Plano de Regulamentação Digital" do Reino Unido propõe que uma regulamentação bem projetada pode ter um efeito poderoso na promoção do desenvolvimento e na formação de uma economia e sociedade digitais vibrantes, mas uma regulamentação mal projetada ou restritiva pode impedir a inovação. As regras certas podem ajudar as pessoas a confiar nos produtos e serviços que usam, o que, por sua vez, impulsionará a popularidade de produtos e serviços e aumentará o consumo, o investimento e a inovação. [17] O mesmo vale para a IA.

** Por um lado, para a governança da IA, é necessário promover melhor a supervisão precisa e ágil. Isso inclui: Primeiro, adote regras diferentes para diferentes produtos, serviços e aplicativos de IA. **Como os aplicativos de IA são quase onipresentes agora, é difícil para uma regra de tamanho único se adaptar razoavelmente às características únicas dos aplicativos de IA em diferentes setores e campos e seu impacto nos indivíduos e na sociedade. Isso exige que adotemos uma estrutura de política de governança de IA baseada em risco. Por exemplo, a mesma tecnologia de IA pode ser usada não apenas para analisar e prever os atributos e preferências pessoais do usuário e para enviar conteúdo personalizado, mas também para auxiliar no diagnóstico e tratamento de doenças; A classificação e a organização também podem ser usadas para identificar tumores cancerígenos. Essas aplicações têm grandes diferenças em termos de nível de risco, importância dos resultados e impacto pessoal e social. Obviamente, não é científico nem realista apresentar requisitos regulatórios de maneira geral e única. **Em segundo lugar, enfatiza a adoção de supervisão descentralizada e diferenciada com base na classificação e classificação de aplicativos de IA. **Assim como a Internet, a IA é uma tecnologia muito ampla e de uso geral, que não é adequada e difícil de conduzir supervisão unificada. Do ponto de vista externo, atualmente apenas a União Europeia está tentando estabelecer um quadro regulamentar unificado e geral para todas as aplicações de IA (o modelo da UE), enquanto o Reino Unido e os Estados Unidos enfatizam a supervisão descentralizada das indústrias com base em cenários de aplicação e riscos ( o modelo anglo-americano). O Reino Unido propõe ser guiado por princípios e adotar uma supervisão que promova a inovação em aplicações de IA. Seus conceitos centrais incluem: focar em cenários de aplicação específicos e garantir a proporcionalidade e adaptabilidade da supervisão com base no grau de risco; [18] Os Estados Unidos sempre enfatizaram um caminho de governança que combina a regulamentação do setor e a autodisciplina do setor. Por exemplo, o "AI Bill of Rights Blueprint" não apenas propõe cinco princípios, mas também esclarece a ideia de regulamentação descentralizada liderada pelas autoridades do setor e orientado a cenários de aplicação. [19] No que diz respeito à China, a legislação e a supervisão da IA no passado estão mais próximas do modelo anglo-americano, ou seja, regras regulatórias separadas são formuladas para diferentes aplicações de IA, como serviços de recomendação de algoritmos, síntese profunda e direção autônoma. Esse modelo regulatório descentralizado e diferenciado está em conformidade com os princípios de governança ágil e pode se adaptar melhor às características complexas de rápido desenvolvimento e iteração da tecnologia de IA e seus aplicativos. **Terceiro, apela à inovação contínua da caixa de ferramentas regulatória e à adoção de medidas regulatórias diversificadas. Uma delas é a "caixa de proteção regulatória" da IA. ** Uma das principais iniciativas da União Europeia na regulamentação de IA é a proposta de "caixa de proteção regulatória" de IA. [20] Como uma forma eficaz de apoiar e promover a comunicação e a colaboração entre reguladores e assuntos de inovação, a "sandbox regulatória" pode fornecer um ambiente controlado para desenvolver, testar e verificar a conformidade de aplicativos inovadores de IA. As melhores práticas e diretrizes de implementação geradas a partir do "sandbox regulatório" ajudarão as empresas, especialmente pequenas, médias e micro empresas e empresas iniciantes a implementar regras regulatórias. **O segundo são os serviços sociais de governança de IA, incluindo padrões de governança de IA, certificação, teste, avaliação, auditoria, etc. **No campo da segurança de rede, os serviços sociais de segurança de rede, como certificação de segurança de rede, testes e avaliação de riscos, são uma maneira importante de implementar os requisitos regulatórios. A governança de IA pode aprender com essa abordagem. Atualmente, a União Europeia, o Reino Unido, os Estados Unidos e o IEEE estão promovendo serviços sociais de governança de IA. Por exemplo, o IEEE lançou a certificação de ética de IA para o setor; [21] O "Roadmap for Establishing an Effective AI Certification Ecosystem" emitido pelo Reino Unido espera cultivar uma indústria de certificação de IA líder mundial, por meio de serviços de certificação de IA de terceiros neutros (incluindo avaliação de impacto, auditoria de viés e auditoria de conformidade, certificação, avaliação de conformidade) , testes de desempenho, etc.) para avaliar e comunicar a credibilidade e a conformidade dos sistemas de IA. O Reino Unido acredita que esta será uma nova indústria no valor de bilhões de libras. [22] A China precisa acelerar o estabelecimento de um sistema de serviço social de governança de IA sólido e melhor empreender e implementar a legislação upstream e os requisitos regulatórios por meio de serviços downstream de governança de IA. Além disso, métodos regulatórios como diretrizes de políticas, portos seguros de responsabilidade, projetos-piloto, aplicativos de demonstração e responsabilidade pós-evento podem desempenhar um papel importante em diferentes cenários de aplicação.

**Por outro lado, é necessário acelerar a melhoria do quadro legal de circulação e utilização de dados e continuar a melhorar o nível de fornecimento de dados no domínio da IA. **A primeira é construir uma estrutura legal para dados públicos abertos e compartilhados em nível nacional, unificar padrões de qualidade e governança de dados e usar downloads de dados, interfaces API, computação privada (aprendizagem federada, computação multipartidária segura, e ambientes de computação confiáveis, etc.), gerenciamento diversificado de dados e métodos técnicos, como o Data Space, para promover o compartilhamento aberto máximo de dados públicos. A segunda é remover ativamente vários obstáculos ao desenvolvimento e aplicação da tecnologia de computação de privacidade e tecnologia de dados sintéticos. Atualmente, na circulação e utilização de vários dados, as tecnologias de computação de privacidade, como o aprendizado federado, estão desempenhando um papel cada vez mais importante e podem alcançar efeitos como "os dados estão disponíveis/contáveis e invisíveis", "os dados não alteram o algoritmo/valor movimentos". Impulsionado pelo desenvolvimento de aplicativos de IA e big data, o aprendizado federado, como principal método de promoção e aplicação no campo da computação de privacidade, é atualmente o caminho técnico mais maduro. Na próxima etapa, podemos apoiar melhor a aplicação e o desenvolvimento de tecnologias de computação de privacidade, como aprendizado federado, construindo espaços de dados em áreas estratégicas, formulando padrões do setor para computação de privacidade e emitindo diretrizes legais para a implementação de tecnologias de computação de privacidade.

A governança ética da IA precisa passar do princípio à prática

Com o desenvolvimento da institucionalização e legalização da governança ética científica e tecnológica, o fortalecimento da governança ética científica e tecnológica tornou-se uma das "escolhas obrigatórias" e "questões obrigatórias" para empresas de ciência e tecnologia. Sob o conceito de "ética em primeiro lugar", os requisitos para governança ética de ciência e tecnologia significam que as empresas de tecnologia não podem esperar lidar com questões éticas de IA na forma de medidas corretivas pós-fato, mas precisam estar envolvidas em todo o Ciclo de vida da IA, do design ao desenvolvimento e à implantação. Entre eles, cumprir ativamente a responsabilidade do corpo principal de gerenciamento de ética científica e tecnológica e promover de forma inovadora a autodisciplina da ética científica e tecnológica de várias maneiras. No geral, em uma sociedade altamente tecnológica e digital, as empresas de tecnologia precisam considerar a incorporação da governança de IA em seu cenário de governança corporativa como um módulo tão importante quanto os módulos existentes, como assuntos jurídicos, finanças e controle de risco. Os seguintes aspectos merecem uma exploração mais aprofundada:

**Em primeiro lugar, em termos de gestão, é necessário estabelecer um mecanismo de gestão de risco ético de IA. **O gerenciamento de riscos éticos de IA precisa passar por todo o ciclo de vida da IA, incluindo o estágio de pré-concepção, estágio de design e desenvolvimento, estágio de implantação e atividades de teste e avaliação ao longo desses estágios, de modo a identificar, analisar e avaliar de forma abrangente , gerencie e controle os riscos éticos da IA . Isso depende da empresa estabelecer a estrutura organizacional correspondente e normas de gestão, como comitê de ética, processo de revisão ética e outras ferramentas de gestão. Os formuladores de políticas podem considerar a emissão de diretrizes políticas a esse respeito.

Em segundo lugar, em termos de design, é necessário seguir o conceito de design orientado para as pessoas e praticar o conceito de "Ethics by Design"** (Ethicsby Design). **Design integrado ético significa integrar valores, princípios, requisitos e procedimentos éticos no design, desenvolvimento e implantação de IA, robótica e sistemas de big data. As empresas precisam refletir sobre o processo de P&D e aplicação de IA liderado por técnicos e dar mais ênfase aos diversos antecedentes e participação de atividades de P&D e aplicação de IA. A introdução de políticas, leis, ética, sociedade, filosofia e outros profissionais multidisciplinares e interdisciplinares na equipe de desenvolvimento de tecnologia é a maneira mais direta e eficaz de incorporar requisitos éticos ao design e desenvolvimento de tecnologia. No futuro, os formuladores de políticas podem se unir à indústria para resumir a experiência e as lições e emitir diretrizes técnicas, melhores práticas e outros documentos para um design integrado ético.

**Finalmente, em termos de tecnologia, é necessário continuar a explorar abordagens técnicas e orientadas para o mercado para lidar com questões éticas de IA e criar aplicações de IA credíveis. **Uma delas é a ferramenta ética de IA. Muitos problemas em aplicações de IA, como explicabilidade, justiça, segurança, proteção de privacidade, etc., podem ser resolvidos por meio da inovação tecnológica. Com foco nessas questões, a indústria explorou algumas ferramentas de ética de IA e ferramentas de auditoria de IA, e trabalhos futuros nessa área precisam ser mais desenvolvidos. O segundo é o serviço de ética da IA (Serviço AIEthicsasa). [23] É um caminho orientado para o mercado. Empresas líderes em ética de IA e startups de ética em IA desenvolvem soluções responsáveis de IA centradas em ferramentas e serviços de ética em IA e as fornecem como serviços comerciais. [24] A empresa de pesquisa e consultoria Forrester prevê que cada vez mais empresas de tecnologia de IA e empresas em outros campos que aplicam IA comprarão soluções de IA responsáveis para ajudá-las a implementar princípios éticos de IA justos e transparentes, e o tamanho do mercado de serviços de ética de IA dobrará. O terceiro são os métodos de crowdsourcing de tecnologia, como o AI Ethics Bounty. Semelhante à recompensa por vulnerabilidade de segurança de rede (Bug bounty), recompensa por discriminação de algoritmo (Algorithmic Bias Bounty) e outros métodos técnicos de crowdsourcing amplamente usados por empresas de Internet, ele pode descobrir, identificar e resolver problemas éticos de IA, desenvolver ferramentas de auditoria de IA e criar aplicativos de IA confiáveis desempenharão um papel importante. Algumas empresas estrangeiras e instituições de pesquisa universitária, como o Twitter e a Universidade de Stanford, lançaram o Algorithmic Discrimination Bounty Challenge e o AI Audit Challenge, convocando os participantes a desenvolver ferramentas para identificar e mitigar a discriminação algorítmica em modelos de IA. Cultivar e fortalecer a comunidade ética de IA por meio desses métodos de crowdsourcing de tecnologia desempenhará um papel importante na governança de IA.

A cooperação global em governança de IA precisa continuar a se aprofundar

Como mencionado anteriormente, a governança global de IA apresenta uma situação competitiva, que não está de acordo com os conceitos de tecnologia aberta e compartilhada orientada para as pessoas e desenvolvimento inclusivo. Os países precisam continuar a aprofundar a cooperação na governança internacional de IA, promover a formulação de acordos internacionais sobre ética e governança de IA, formar uma estrutura internacional de governança de IA, padrões e normas com amplo consenso, aprimorar intercâmbios e colaboração em tecnologia, talentos, indústrias etc. ., e opor-se ao exclusivismo , promover a inclusão tecnológica e a tecnologia para o bem e realizar o desenvolvimento inclusivo de todos os países. A profunda participação da China na governança global de tecnologia precisa aproveitar a nova rodada de oportunidades internacionais de regulamentação nas áreas de IA e dados, propor continuamente soluções de governança de IA que estejam em conformidade com o consenso global e continuar a injetar a sabedoria chinesa na governança digital global e Governança de IA. Ao mesmo tempo, precisamos fortalecer nossa voz internacional, integrar nossas ideias, proposições e práticas na comunidade internacional, lutar por mais reconhecimento e consenso e aumentar nossa voz e influência.

De frente para o futuro, com o desenvolvimento contínuo da tecnologia AI, a AI se tornará cada vez mais poderosa, e a AI geral (Artificial General Intelligence, abreviado como AGI) pode aparecer no futuro. Uma IA geral teria um nível de inteligência equivalente ao humano e seria capaz de realizar qualquer tarefa intelectual de que um ser humano é capaz. Em teoria, a IA geral pode projetar um nível superior de inteligência, provocando uma grande explosão de inteligência, a chamada "singularidade", resultando em superinteligência. Do aplicativo de IA atual para o futuro AGI, pode ser um salto da mudança quantitativa para a mudança qualitativa. Isso levantou preocupações sobre o deslocamento de empregos humanos da AGI, ficando fora de controle e até mesmo ameaçando a existência humana. Portanto, para o desenvolvimento da IA de uso geral e seus possíveis problemas de segurança e ética, o mundo precisa planejar com antecedência e trabalhar em conjunto para garantir que a tecnologia de IA seja mais inclusiva, segura, confiável e controlável para o benefício de toda a humanidade.

Este artigo apareceu pela primeira vez na edição 4, 2023 do "Journal of Shanghai Normal University (Philosophy and Social Sciences Edition)"

Ver original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Recompensa
  • Comentar
  • Partilhar
Comentar
0/400
Nenhum comentário
  • Pino
Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)