O enigma regulatório da IA: como 'vencer a mágica com mágica'

Fonte original: China News Weekly

Autor: Hallik

Fonte da imagem: Gerada por Unbounded AI‌

O processo de legislação global de IA acelerou significativamente e as regulamentações em todo o mundo estão acompanhando a evolução da IA.

A 14 de junho, hora local, o Parlamento Europeu votou 499 a favor, 28 contra e 93 abstenções, e aprovou o projeto de mandato de negociação da Lei da Inteligência Artificial (AI Act). De acordo com o processo legislativo da UE, o Parlamento Europeu, os estados membros da UE e a Comissão Europeia iniciarão "negociações tripartidas" para determinar os termos finais do projeto de lei.

O Parlamento Europeu disse que estava "pronto para negociações" para aprovar o primeiro projeto de lei de inteligência artificial. O presidente dos EUA, Biden, emitiu um sinal para controlar a IA, e alguns membros do Congresso dos EUA apresentaram propostas para a legislação reguladora da IA. O líder democrata do Senado dos EUA, Chuck Schumer, revelou seu "Framework for AI Safety Innovation" e planeja aprovar um projeto de lei federal de IA em apenas "alguns meses".

a legislação relevante do meu país também foi colocada na ordem do dia, e o projeto de lei de inteligência artificial será submetido ao Comitê Permanente do Congresso Nacional Popular para deliberação ainda este ano. Em 20 de junho, o primeiro lote de listas de arquivamento de algoritmos de serviço de síntese em profundidade também foi lançado, com 26 empresas, incluindo Baidu, Alibaba e Tencent, e um total de 41 algoritmos na lista.

Embora a China, os Estados Unidos e a União Europeia defendam conceitos regulatórios de IA baseados em princípios, como precisão, segurança e transparência, existem muitas diferenças em ideias e métodos específicos. A promulgação de leis abrangentes de IA está por trás da produção de suas próprias regras e deseja aproveitar as vantagens das regras.

Alguns especialistas nacionais pediram o rápido desenvolvimento de regulamentações legais sobre inteligência artificial, mas os problemas práticos atuais não podem ser ignorados. Além disso, há outra consideração importante: regular ou desenvolver. Esta não é uma escolha binária, mas no mundo digital, equilibrar os dois não é fácil.

Corrida da UE, China e Estados Unidos aceleram

Se tudo correr bem, a Lei de Inteligência Artificial aprovada pelo Parlamento Europeu deverá ser aprovada até o final deste ano. A primeira lei reguladora abrangente de inteligência artificial do mundo provavelmente chegará à UE.

"Este projeto afetará outros países que estão à margem para acelerar a legislação. Por muito tempo, se a tecnologia de inteligência artificial deveria ser incluída no escopo da supervisão legal sempre foi controversa. " é implementada, plataformas de rede relevantes, como conteúdo de negócios e plataformas de usuários que se concentram na geração de informações são obrigadas a assumir obrigações de auditoria mais altas." Zhao Jingwu, professor associado da Faculdade de Direito da Universidade de Beihang, disse à China News Weekly.

Como parte da estratégia digital, a União Europeia espera regulamentar de forma abrangente a inteligência artificial por meio da "Lei de Inteligência Artificial", e o layout estratégico por trás dela também foi colocado na mesa.

Peng Xiaoyan, diretor executivo do escritório de advocacia Beijing Wanshang Tianqin (Hangzhou), disse ao China News Weekly que a "Lei de Inteligência Artificial" não se aplica apenas à UE, mas também regula os provedores de sistemas localizados fora da UE, mas cujos dados de saída do sistema são usados em a UE ou usuário. O escopo de jurisdição e aplicação da Lei foi muito ampliado, e as pistas de preempção da jurisdição de elementos de dados também podem ser vislumbradas.

Jin Ling, vice-diretor e pesquisador do Instituto Europeu do Instituto de Estudos Internacionais da China, também escreveu no artigo "A primeira legislação de inteligência artificial do mundo: um equilíbrio difícil entre inovação e regulamentação" que a "Lei de Inteligência Artificial" destaca a moral vantagens da governança de IA da UE, é outra tentativa da UE de aproveitar ao máximo seu poder normativo e compensar deficiências técnicas por meio das vantagens das regras. Reflete a intenção estratégica da UE de conquistar a superioridade moral no campo da inteligência artificial.

A Lei de Inteligência Artificial levou dois anos para ser elaborada. Em abril de 2021, a Comissão Europeia apresentou uma proposta de legislação de inteligência artificial com base na estrutura de "classificação de risco", que foi discutida e revisada após várias rodadas. Após a popularidade da IA generativa, como o ChatGPT, os legisladores da UE adicionaram "patches" com urgência.

Uma nova mudança é que o último rascunho da "Lei de Inteligência Artificial" fortaleceu os requisitos de transparência para IA de propósito geral. Por exemplo, a IA generativa baseada no modelo básico deve rotular o conteúdo gerado, ajudar os usuários a distinguir deep fakes de informações reais e garantir que o conteúdo ilegal seja impedido de ser gerado. Os fornecedores de modelos básicos, como OpenAI e Google, também precisam divulgar os detalhes dos dados de treinamento se usarem dados protegidos por direitos autorais durante o treinamento do modelo.

Além disso, a tecnologia biométrica remota em tempo real em locais públicos foi ajustada do nível "alto risco" para o nível "proibido", ou seja, a tecnologia AI não deve ser usada para reconhecimento facial em locais públicos nos países da UE.

A última minuta também aumenta ainda mais o valor das penalidades por infrações, alterando o máximo de 30 milhões de euros ou 6% do faturamento global da empresa infratora no ano fiscal anterior para um máximo de 40 milhões de euros ou 7% do faturamento global anual volume de negócios da empresa infratora no ano anterior. Isso é significativamente maior do que o Regulamento Geral de Proteção de Dados, a lei europeia de segurança de dados, que pode acarretar multas de até 4% da receita global, ou 20 milhões de euros.

Peng Xiaoyan disse ao China News Weekly que o aumento na quantidade de punições reflete a determinação e a força das autoridades da UE para supervisionar a inteligência artificial. Para gigantes da tecnologia como Google, Microsoft e Apple, com receita de centenas de bilhões de dólares, se violarem as disposições da "Lei de Inteligência Artificial", as multas podem chegar a dezenas de bilhões de dólares.

Nos Estados Unidos, do outro lado do oceano, enquanto Washington estava ocupado respondendo ao apelo de Musk e outros por um controle mais forte da IA, em 20 de junho, o presidente dos EUA Biden se reuniu com um grupo de especialistas em inteligência artificial e pesquisadores em São Francisco para discutir como gerenciar os riscos dessa nova tecnologia. risco. Biden disse na época que, ao aproveitar o enorme potencial da IA, é necessário administrar os riscos que ela representa para a sociedade, a economia e a segurança nacional.

O pano de fundo do gerenciamento e controle de riscos se tornando um tópico importante em IA é que os Estados Unidos não adotaram medidas antimonopólio rígidas contra a tecnologia de IA e ainda não introduziram leis reguladoras abrangentes de IA no nível federal.

A primeira incursão formal do governo federal dos EUA no campo da regulamentação de inteligência artificial foi em janeiro de 2020, quando lançou as "Diretrizes Regulatórias para a Aplicação de Inteligência Artificial" para fornecer orientações sobre medidas regulatórias e não regulatórias para questões emergentes de inteligência artificial. A "Lei da Iniciativa Nacional de Inteligência Artificial 2020" introduzida em 2021 é mais um layout de política no campo da IA, e ainda há uma certa distância da governança de inteligência artificial e supervisão forte. Um ano depois, o Blueprint for an AI Bill of Rights ("Blueprint") lançado pela Casa Branca em outubro de 2022 fornece uma estrutura de suporte para a governança de IA, mas não é uma política oficial dos EUA e não é vinculativa.

Pouco progresso foi feito na legislação de IA nos Estados Unidos, o que tem causado muita insatisfação. Muitas pessoas criticaram que os Estados Unidos ficaram para trás da União Europeia e da China na formulação de regras para a economia digital. No entanto, talvez vendo que a "Lei de Inteligência Artificial" da União Européia está prestes a passar pelo "obstáculo" final, o Congresso dos EUA recentemente mostrou sinais de legislação acelerada.

No dia da conferência de IA de Biden, os deputados democratas Ted W. Lieu e Anna Eshoo, juntamente com o deputado republicano Ken Buck, apresentaram a proposta da Lei do Conselho Nacional de Inteligência Artificial. Enquanto isso, o senador democrata Brian Schatz apresentará uma legislação complementar no Senado que se concentrará na regulamentação da IA.

De acordo com o conteúdo do projeto de lei, a Comissão de Inteligência Artificial será composta por 20 especialistas do governo, indústria, sociedade civil e ciência da computação. Eles revisarão os atuais métodos regulatórios de inteligência artificial nos Estados Unidos e desenvolverão em conjunto uma estrutura regulatória abrangente .

"A IA está fazendo coisas incríveis na sociedade. Se não for controlada e regulamentada, pode causar danos significativos. O Congresso não deve ficar de braços cruzados", disse Ted Liu em um comunicado.

Um dia depois, em 21 de junho, o líder democrata do Senado, Chuck Schumer, fez um discurso no Centro de Estudos Estratégicos e Internacionais (CSIS), revelando seu "Framework for Artificial Intelligence Security Innovation" ("AI Framework")— — Incentivando a inovação enquanto avança segurança, responsabilidade, fundamento e interpretabilidade, ecoando o grande plano, incluindo o Blueprint. Ele propôs a estrutura em abril, mas deu poucos detalhes na época.

Por trás da estrutura de IA está uma estratégia legislativa de Chuck Schumer. Nesse discurso, ele disse que um projeto de lei federal de inteligência artificial seria promulgado em apenas "alguns meses". No entanto, o processo legislativo dos EUA é complicado, pois não só precisa ser votado pelo Senado e pela Câmara dos Deputados, mas também precisa passar por várias rodadas de audiências, o que leva muito tempo.

Para acelerar o progresso, como parte da estrutura de IA, Chuck Schumer planeja realizar uma série de fóruns de inteligência artificial a partir de setembro deste ano, cobrindo 10 tópicos, incluindo inovação, propriedade intelectual, segurança nacional e privacidade. Ele disse ao mundo exterior que o Insight Forum não substituirá as audiências do Congresso sobre inteligência artificial, mas será realizado em paralelo para que a legislatura possa introduzir políticas sobre a tecnologia em meses, em vez de anos. Ele previu que pode demorar até o outono "para começar a ver algumas coisas concretas" na legislação de IA dos EUA.

Embora o progresso não tenha alcançado a União Européia, a legislação relevante em meu país também foi incluída na agenda. No início de junho, o Gabinete Geral do Conselho de Estado emitiu o "Plano de Trabalho Legislativo do Conselho de Estado de 2023", que mencionava que o projeto de lei de inteligência artificial estava preparado para ser submetido à deliberação do Comitê Permanente do Congresso Nacional Popular. .

De acordo com o disposto na "Lei Legislativa" do meu país, depois de o Conselho de Estado propor um projecto de lei à Comissão Permanente da Assembleia Popular Nacional, a reunião do presidente decide incluí-la na ordem do dia da reunião da Comissão Permanente, ou submete-a primeiro à comissão especial competente para deliberação e apresenta um relatório, e então decide incluí-lo no Comitê Permanente A pauta da reunião geralmente precisa passar por três deliberações antes de ser votada.

Desde o início deste ano, muitos países aceleraram a legislação de IA. Peng Xiaoyan acredita que isso é resultado tanto da concorrência quanto do desenvolvimento tecnológico.

"Os elementos de dados estão se tornando cada vez mais elementos estratégicos nacionais, e os países também esperam estabelecer jurisdição por meio de legislação e obter o direito de falar em inteligência artificial. Ao mesmo tempo, a atualização iterativa de tecnologias de inteligência artificial, como o ChatGPT, permitiu que a sociedade visse novas esperanças para o desenvolvimento de uma inteligência artificial forte. Novo O desenvolvimento da tecnologia inevitavelmente trará novos problemas sociais e contradições sociais, que requerem intervenção e ajustes regulatórios, e o desenvolvimento da tecnologia promoveu a atualização da legislação até certo ponto." Peng disse Xiaoyan.

A divergência supera em muito a convergência

A China, os Estados Unidos e a União Europeia são as principais forças motrizes para o desenvolvimento global da IA, mas também existem algumas diferenças na legislação de IA entre os três.

A "Lei de Inteligência Artificial" da União Europeia divide os riscos de aplicações de inteligência artificial em quatro níveis do ponto de vista de uso e função. Não importa quantas rodadas de revisões o rascunho tenha passado, "classificação de risco" ainda é o conceito central da UE Governança de IA.

O topo da pirâmide deve representar um risco "inaceitável" para a segurança humana. Por exemplo, sistemas de pontuação que classificam as pessoas com base em seu comportamento social ou características pessoais, etc., seriam completamente banidos.

No último rascunho, o Parlamento Europeu expandiu a lista de "riscos inaceitáveis" para prevenir sistemas de IA intrusivos e discriminatórios. Seis tipos de sistemas de inteligência artificial, como identificação biométrica em espaços públicos, reconhecimento emocional, policiamento preditivo (com base em perfis, localização ou comportamento criminoso anterior) e captura aleatória de imagens faciais da Internet, são completamente proibidos.

A segunda categoria são os sistemas de IA que impactam negativamente a segurança humana ou os direitos fundamentais e são considerados de "alto risco". Por exemplo, sistemas de IA usados em produtos como aviação, automóveis e equipamentos médicos, bem como oito campos específicos que devem ser registrados no banco de dados da UE, abrangendo infraestrutura crítica, educação, treinamento, aplicação da lei e muito mais. Sujeito aos regulamentos de IA e à avaliação prévia de conformidade, vários sistemas de IA de "alto risco" serão autorizados a entrar no mercado da UE, sujeitos a um conjunto de requisitos e obrigações.

Além disso, sistemas de inteligência artificial que influenciam eleitores e resultados eleitorais, bem como sistemas de recomendação usados por plataformas de mídia social com mais de 45 milhões de usuários, como Facebook, Twitter e Instagram, também serão colocados na lista de alto risco sob o Lei de Serviços Digitais da UE .

Na base da pirâmide estão os sistemas de IA com risco limitado, pouco ou nenhum. O primeiro tem obrigações específicas de transparência e precisa informar aos usuários que eles estão interagindo com sistemas de IA, enquanto o último não tem regulamentações obrigatórias e basicamente não é regulamentado, como aplicativos como filtros de spam.

Devido às suas estritas disposições regulatórias, a "Lei de Inteligência Artificial" é considerada por muitos membros da indústria como tendo muitos "dentes" afiados. No entanto, o projeto de lei também tenta encontrar um equilíbrio entre forte regulamentação e inovação.

Por exemplo, o último rascunho exige que os Estados membros estabeleçam pelo menos uma "caixa de proteção regulatória" que possa ser usada gratuitamente por pequenas e médias empresas e start-ups, em um cenário supervisionado, seguro e controlável, para testar inovações artificiais sistemas de inteligência antes de serem colocados em uso, até que os requisitos de conformidade sejam atendidos. A UE geralmente acredita que a proposta não apenas permitirá que as autoridades prestem atenção às mudanças tecnológicas em tempo real, mas também ajudará as empresas de IA a continuar inovando, reduzindo a pressão regulatória.

Jin Ling disse no artigo mencionado que, por um lado, o método de governança upstream da UE exige que as empresas suportem mais custos iniciais e, por outro lado, a incerteza da avaliação de risco também afeta o entusiasmo de investimento das empresas. Portanto, embora a Comissão tenha enfatizado repetidamente que a legislação de IA apoiará a inovação e o crescimento na economia digital europeia, a análise econômica realista não parece apoiar essa conclusão. O projeto de lei reflete o conflito inerente da UE entre a promoção da inovação e a proteção dos direitos que é difícil de equilibrar efetivamente.

Como a União Europeia e a China, os Estados Unidos apóiam uma abordagem regulatória de IA baseada em risco, defendendo precisão, segurança e transparência. No entanto, na visão de Zhao Jingwu, o pensamento regulatório dos EUA está mais focado no uso da IA para promover a inovação e o desenvolvimento da indústria de IA e, finalmente, manter a liderança e a competitividade dos Estados Unidos.

"Diferente do conceito regulatório de 'prevenção de riscos e segurança tecnológica' mantido pela China e pela UE, os Estados Unidos se concentram no desenvolvimento comercial. Tanto a China quanto a UE se concentram na segurança dos aplicativos de tecnologia de inteligência artificial para evitar o abuso da tecnologia de inteligência artificial de infringir os direitos individuais, enquanto os Estados Unidos se concentram no desenvolvimento industrial é o foco da supervisão", disse Zhao Jingwu.

Estudos descobriram que a legislação do Congresso dos EUA se concentra principalmente em incentivar e orientar o governo a usar inteligência artificial. Por exemplo, o Senado dos EUA introduziu uma Lei de Inovação em IA em 2021, exigindo que o Departamento de Defesa dos EUA implementasse um programa piloto para garantir acesso aos melhores recursos de software de IA e aprendizado de máquina.

No discurso mencionado acima, Chuck Schumer considerou a inovação como a Estrela do Norte, e sua estrutura de IA é liberar o grande potencial da inteligência artificial e apoiar a inovação liderada pelos EUA em tecnologia de inteligência artificial. No início das “Diretrizes para a Supervisão de Aplicações de Inteligência Artificial”, fica claro que o avanço da tecnologia e a inovação devem continuar sendo promovidos. O objetivo final da Lei da Iniciativa Nacional de Inteligência Artificial de 2020 também é garantir que os Estados Unidos mantenham uma posição de liderança no campo global de tecnologia de IA, aumentando o investimento em pesquisa e estabelecendo um sistema de força de trabalho.

Peng Xiaoyan disse que, do ponto de vista do design de especificação orientadora, o desenvolvimento da inteligência artificial nos Estados Unidos ainda está em um estado de fraca supervisão nos níveis legislativo e institucional, e a sociedade incentiva ativamente a inovação e expansão da tecnologia de inteligência artificial com uma atitude aberta.

Em comparação com a União Europeia, que tem poderes investigativos mais claros e cobertura regulatória abrangente, os Estados Unidos adotaram uma abordagem descentralizada para a regulamentação da IA, com alguns estados e instituições promovendo a governança da IA em menor grau. Como resultado, as iniciativas regulatórias nacionais de IA são muito amplas e baseadas em princípios.

Por exemplo, o "Blueprint" é um marco na política de governança de inteligência artificial dos EUA. Ele formulou cinco princípios básicos, incluindo sistemas seguros e eficazes, prevenção de discriminação algorítmica, proteção da privacidade de dados, notificação e explicação e participação humana na decisão Não há disposições mais detalhadas.

Peng Xiaoyan acredita que o "Blueprint" não formula medidas específicas de implementação, mas constrói uma estrutura básica para o desenvolvimento da inteligência artificial de maneira baseada em princípios, com o objetivo de orientar o design, uso e implantação de sistemas de inteligência artificial.

"Padrões como este não são obrigatórios. Isso ocorre porque os Estados Unidos consideram apoiar o desenvolvimento da indústria de inteligência artificial. No momento, a inteligência artificial ainda está em um estágio emergente de desenvolvimento e a supervisão de alta intensidade deve limitar o desenvolvimento industrial e inovação até certo ponto. Portanto, os Estados Unidos mantêm uma atitude relativamente modesta na legislação", disse Peng Xiaoyan.

"Sem leis dando novos poderes às agências, elas só podem regular o uso da inteligência artificial de acordo com os poderes que já possuem. Por outro lado, os princípios éticos relacionados à inteligência artificial permanecem menos regulamentados, e as agências podem decidir como regular por si mesmas De acordo com Hadrien Pouget, analista da Carnegie, isso torna as agências federais lideradas pela Casa Branca restritas e gratuitas.

O conceito de governança de IA dominado pela utilização e inovação está destinado a não ser muito difícil para o "punho" dos Estados Unidos. Alex Engler, pesquisador da Brookings Institution, um conhecido think tank americano, apontou que a União Europeia e os Estados Unidos estão adotando diferentes abordagens regulatórias para a inteligência artificial que tem impactos sociais como educação, finanças e emprego.

Em termos de aplicações específicas de IA, a "Lei de Inteligência Artificial" da União Europeia tem requisitos de transparência para robôs de bate-papo, enquanto não há regulamentações federais nos Estados Unidos. O reconhecimento facial é considerado "risco inaceitável" pela União Europeia e os Estados Unidos fornecem informações públicas por meio do programa de teste de fornecedores de reconhecimento facial do Instituto Nacional de Padrões e Tecnologia (NIST), mas não impõe regras.

“O alcance regulatório da UE não apenas cobre uma gama mais ampla de aplicações, mas também estabelece mais regras para essas aplicações de IA. mais limitado.” Alex Engler diz que há muito mais divergências do que convergências no gerenciamento de risco de IA, apesar dos princípios amplamente idênticos.

Zhao Jingwu resumiu os modelos regulatórios de IA da China, União Europeia e Estados Unidos e descobriu que a China está limitada aos cenários de aplicação da tecnologia de inteligência artificial e formulou regras regulatórias especiais para cenários de aplicação, como tecnologia de reconhecimento facial , síntese profunda e recomendação automatizada. A UE é guiada pelo nível de risco, dependendo se o nível de risco dos aplicativos de inteligência artificial é um nível aceitável. Os Estados Unidos julgam a legalidade da aplicação da tecnologia de inteligência artificial no âmbito do sistema jurídico tradicional existente.

Além disso, os Estados Unidos também concentraram mais atenção na pesquisa de inteligência artificial e investiram mais recursos nela. Apenas no início de maio, a Casa Branca anunciou um investimento de cerca de 140 milhões de dólares americanos para estabelecer sete novos institutos nacionais de pesquisa em inteligência artificial. Alguns pesquisadores acreditam que esse movimento dos Estados Unidos espera entender melhor a IA, aliviando assim as preocupações decorrentes do processo regulatório.

Peng Xiaoyan disse que meu país adotou medidas para incentivar o desenvolvimento da tecnologia de inteligência artificial, ao mesmo tempo em que regulamenta o gerenciamento de campos relacionados de maneira limitada e orienta o desenvolvimento da tecnologia de inteligência artificial com políticas coordenadas e requisitos de gerenciamento.

a legislação do meu país enfrenta muitos problemas práticos

A União Europeia está acelerando a implementação do primeiro projeto de lei regulatório de IA do mundo. Zhao Jingwu disse ao China News Weekly que as medidas regulatórias de inteligência artificial do "sistema de nível de risco" da União Europeia, o conceito regulatório de "modelo geral" proposto na "Lei de Inteligência Artificial" , e os regulamentos específicos para ChatGPT As obrigações de divulgação e obrigações de conformidade com direitos autorais de dados de aplicativos de inteligência artificial generativa são de valor de referência para a legislação de inteligência artificial do meu país.

Na verdade, a legislação do meu país sobre inteligência artificial já começou. Em 2017, o Conselho de Estado emitiu o "Plano de Desenvolvimento de Inteligência Artificial de Nova Geração", que propunha que, até 2025, leis e regulamentos de inteligência artificial, normas éticas e sistemas de políticas deveriam ser inicialmente estabelecido, e avaliações e políticas de segurança de inteligência artificial devem ser formadas.

Localmente, em 2022, a cidade de Shenzhen promulgou os "Regulamentos de promoção da indústria de inteligência artificial da zona econômica especial de Shenzhen", que é considerada a primeira legislação especial do meu país para a indústria de inteligência artificial. O “Regulamento” mencionou que o mecanismo de supervisão no campo da inteligência artificial deve ser aprimorado para prevenir possíveis riscos éticos de segurança e riscos de conformidade que possam surgir em produtos e serviços de inteligência artificial.

Atualmente, a regulamentação da inteligência artificial do meu país é promovida principalmente em conjunto por vários ministérios e comissões importantes, que promovem a regulamentação e o desenvolvimento da inteligência artificial em diferentes campos. Documentos normativos como o "Regulamento sobre a Administração de Recomendações de Algoritmos para Serviços de Informações da Internet", "Regulamento sobre a Administração de Síntese Profunda de Serviços de Informações da Internet" e "Medidas Administrativas para Serviços Geradores de Inteligência Artificial (Rascunho para Comentário)" também foram Foi emitido.

"Do ponto de vista das normas históricas de gestão, os regulamentos do meu país no campo da inteligência artificial adotam medidas para distinguir áreas de negócios e direções técnicas, e as normas de gestão tendem a ser descentralizadas. Quando as normas são introduzidas, muitas vezes têm a característica de serem oportunas .Após o surgimento de tecnologias específicas Faça regulamentos de gestão especiais.Os regulamentos são promulgados pelo departamento administrativo, com foco na supervisão, e não foram atualizados para leis no nível de regulamentação.” Peng Xiaoyan disse.

Vale a pena notar que em 20 de junho, o primeiro lote de listas de arquivamento de algoritmos de serviço de síntese em profundidade foi lançado. 26 empresas, incluindo Baidu, Alibaba, Tencent, ByteDance e Meituan, e um total de 41 algoritmos estavam na lista.

À medida que o calor da legislação de IA esquenta, especialistas nacionais começaram a pedir o rápido desenvolvimento de regulamentações legais de inteligência artificial. No entanto, na opinião de Zhao Jingwu, a legislação especial do meu país sobre inteligência artificial é viável, mas também enfrenta muitos problemas práticos.

"O primeiro é o problema da conexão do sistema entre os documentos legislativos. A relação aplicável entre a legislação específica de inteligência artificial e outros documentos normativos ainda não foi resolvida, especialmente a sobreposição de conteúdo de legislação especial e legislação atual que precisa ser resolvida com urgência. A segunda é a tecnologia de inteligência artificial. A velocidade de atualização e iteração está acelerando e é difícil garantir o desenvolvimento simultâneo de lei e tecnologia; terceiro, as regras regulatórias para inteligência artificial carecem de integridade e as regras regulatórias para os três elementos principais de dados, algoritmos e poder de computação ainda estão em estágio exploratório; quarto, a legislação de inteligência artificial Se o foco deve estar no gerenciamento de riscos de segurança ou no desenvolvimento industrial é mais controverso", disse Zhao Jingwu.

Seja a "Lei de Inteligência Artificial" da União Européia ou as regulamentações, iniciativas e planos de IA da China, dos Estados Unidos e de outros países, eles estão tentando construir uma estrutura regulatória abrangente que possa não apenas garantir a segurança, mas também criar melhores condições para IA.

Com base nesse princípio de universalidade, Peng Xiaoyan disse ao China News Weekly que o estabelecimento de leis de inteligência artificial em meu país deve primeiro se basear no incentivo ativo ao desenvolvimento e à inovação, para que a inteligência artificial possa ser regulada e desenvolvida em um espaço relativamente aberto. linha Vermelha.

“Além disso, questões legais no campo da inteligência artificial com as quais todos estão preocupados agora precisam ser resolvidas, incluindo, entre outras, a proibição de conteúdo ilegal em inteligência artificial, a proteção da segurança de dados de inteligência artificial, a proteção de inteligência artificial ética e segurança, prevenção de violação de propriedade intelectual, etc. ", disse Peng Xiaoyan.

Zhao Jingwu acredita que meu país deveria estabelecer uma lei de inteligência artificial voltada para a proteção do desenvolvimento industrial.

"Até certo ponto, a legislação atual pode basicamente atender às necessidades de supervisão de aplicação de tecnologia de inteligência artificial. Prevenir riscos tecnológicos e garantir a segurança tecnológica são apenas o processo de governança, e seu objetivo final ainda precisa retornar ao nível de desenvolvimento da inteligência artificial indústria. Afinal, as leis de inteligência artificial não estão restringindo o desenvolvimento das indústrias, mas para orientar e garantir o desenvolvimento sólido das indústrias relacionadas", disse Zhao Jingwu.

Ver original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Recompensa
  • Comentar
  • Partilhar
Comentar
0/400
Nenhum comentário
  • Pino
Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)