Fonte: Power Plant, Autor: Zhang Yongyi, Editor: Gao Yulei
Fonte da imagem: Gerada pela ferramenta Unbounded AI
Em 31 de julho, os produtos chatgpt da App Store da Apple na China foram retirados coletivamente das prateleiras.De acordo com a Apple, os produtos relacionados precisam obter uma licença de operação.
Não apenas a China, mas também os Estados Unidos e a Europa, que estão determinados a competir nesse campo, estão aplicando ativamente a legislação e a regulamentação enquanto incentivam a inovação.
Em abril de 2021, a Comissão Europeia publicou pela primeira vez uma proposta de estrutura regulatória para a operação e governança de aplicativos de aprendizado de máquina, propondo a regulamentação da IA. Naquela época, a visão mais popular na indústria de IA ainda era a famosa piada de Wu Enda de que "preocupar-se com a inteligência artificial hoje é como se preocupar com a superpopulação de Marte".
Mas até 2023, tal visão não pode mais se tornar dominante: levou menos de 6 meses para a IA generativa mostrar ao mundo o grande potencial para substituir os humanos e mudar completamente o mundo existente - assim como foi desenvolvido na Segunda Guerra Mundial. como uma arma nuclear.
O físico J-Robert Oppenheimer liderou o desenvolvimento da primeira bomba atômica do mundo. Naquela época, a Segunda Guerra Mundial havia terminado, mas a bomba nuclear, como a arma mais terrível da história da humanidade, ainda dominava em grande parte a tendência histórica: o Estados Unidos O governo não acatou as críticas e sugestões de especialistas como Oppenheimer de que "a proliferação nuclear levará a uma corrida armamentista sem precedentes", o que acabou levando à eclosão de uma corrida armamentista nuclear entre os Estados Unidos e a União Soviética representada por o desenvolvimento da bomba de hidrogênio "super bomba nuclear" - e em Durante a Crise dos Mísseis de Cuba, quase toda a civilização humana foi arrastada para um abismo escuro além da redenção.
A crise que Oppenheimer encontrou tem muitas semelhanças com a atual "AI Omnic Crisis" enfrentada pelos humanos: antes que os humanos usem a AI para se arrastar para um futuro maior e incontrolável, guie-o para um futuro mais massivo e incontrolável. Talvez a melhor maneira seja para implementar a supervisão em uma pista segura.
Em 2021, a "preparação para um dia chuvoso" da União Europeia acabou se tornando a primeira estrutura regulatória para a indústria de inteligência artificial na história da humanidade - é também a predecessora da Lei de Inteligência Artificial da União Europeia (AI Act).
No entanto, quando os legisladores elaboraram este projeto de lei, eles não esperavam a existência de inteligência artificial generativa ou grandes modelos até o final de 2022. Portanto, o aumento explosivo da IA generativa em 2023 também acrescentou mais A seção sobre IA generativa: incluindo o transparência de seu uso de grandes modelos e regulamentação da coleta/uso de dados do usuário.
Neste momento, este projeto de lei foi votado pelo Parlamento Europeu em meados de junho.O próximo passo para os termos finais é finalizar a lei nas negociações entre os três órgãos de decisão da UE - o Parlamento, o Conselho e a Comissão. Um acordo será alcançado e finalmente entrará em vigor.
Na China, a legislação sobre IA generativa também está em andamento: em 13 de julho, as "Medidas provisórias para a administração de serviços de inteligência artificial generativa" (doravante denominadas coletivamente como "Medidas provisórias") foram emitidas em conjunto por sete ministérios e comissões incluindo a Administração do Ciberespaço da China, que entrará em vigor em agosto.
Este pode se tornar o primeiro regulamento de gerenciamento de inteligência artificial generativa que finalmente será implementado. IA. .
Em outros países que estão no primeiro escalão do desenvolvimento da IA, como Reino Unido e Estados Unidos, a legislação regulatória sobre IA também está em andamento: em 16 de março, o US Copyright Office lançou uma iniciativa para estudar a lei de direitos autorais e questões políticas decorrente da tecnologia de inteligência artificial: incluindo Escopo de direitos autorais em trabalhos gerados usando ferramentas de inteligência artificial e uso de material protegido por direitos autorais para fins de aprendizado de máquina. O governo do Reino Unido lançou sua primeira estrutura regulatória de IA em 4 de abril. Desde então, a Administração Nacional de Telecomunicações e Informações dos EUA (NTIA) divulgou um rascunho de responsabilidade da IA para solicitar um feedback público mais amplo sobre medidas e políticas de responsabilidade da IA.
“Devemos desenvolver um pensamento não humano que possa eventualmente substituir completamente os humanos em termos de quantidade e inteligência?” Esta é a questão levantada em uma carta aberta assinada por vários CEOs e pesquisadores conhecidos em março deste ano. Olhando para trás agora, no caminho do desenvolvimento da IA generativa, o apelo de "todos suspendem a pesquisa por seis meses" é muito idealista. No momento, apenas os países que promovem leis relacionadas à IA generativa que desempenham um papel regulador podem ser eficazes.
INOVAÇÃO E RESPONSABILIDADE
A legislação e a governança da IA generativa é um novo campo em que ninguém jamais pisou antes, e todo legislador precisa suportar a pressão das dúvidas do mundo exterior: na conferência de desenvolvedores do Google I/O deste ano, o Google lançou oficialmente sua IA generativa O robô de conversação Bard, mas o escopo do serviço exclui completamente a região europeia.
Isso faz com que muitos pesquisadores/empresas europeus de IA questionem: por que a Europa está faltando? Mais tarde, o Google afirmou mais vezes que "espera se abrir para usuários europeus", o que foi interpretado como uma "medida de cobertura" para o Google evitar a área legal cinzenta que existe na IA generativa, resultando em multas enormes na UE. .
Em julho, o Google finalmente revelou o motivo: Jack Krawczyk, chefe do produto Bard, escreveu em um blog: No início da pesquisa, a Irish Data Protection Commission (DPC) já havia proposto a intenção de lançar o Bard na Europa, mas no final das contas , demorou até julho para atender ao pedido de prestação de informações do regulador.
Hoje, a "Lei de Inteligência Artificial" da União Européia foi lançada, e quase todas as leis nela apontam diretamente para os problemas emergentes ou potenciais no atual desenvolvimento da IA: a disseminação de informações falsas/desinformadas, a possível educação/saúde mental e outros problemas importantes problemas.
Mas então os legisladores descobriram que a parte mais complicada de resolver esse problema está em como determinar a legislação: é necessário proteger a inovação/evitar o monopólio de gigantes no campo da IA e garantir a controlabilidade da IA até certo ponto . Evite inundar com conteúdo falso. Tornou-se o núcleo comum da legislação generativa de IA na China, nos Estados Unidos e na Europa, mas eles têm ênfases diferentes nas regulamentações atuais.
Muitos casos europeus anteriores sobre inteligência artificial causaram tratamento negativo de instituições como Google e OpenAI. Muitas empresas de tecnologia europeias locais e até mesmo legisladores estão preocupados que uma legislação excessivamente rigorosa permita que a Europa retorne ao nível de liderança mundial com a ajuda da IA A concretização da visão tornou-se difícil: após a aprovação oficial da "Lei de Inteligência Artificial", a União Europeia tem o direito de aplicar uma multa de até 30 milhões de euros, ou 6% da receita anual da empresa , contra empresas que violam os regulamentos de inteligência artificial. Este é, sem dúvida, um aviso óbvio para empresas como Google e Microsoft que desejam expandir seus negócios de IA generativa na Europa.
Na versão de junho da "Lei de Inteligência Artificial", os legisladores da UE incluíram claramente novas disposições para incentivar a inovação responsável da inteligência artificial, reduzindo os riscos tecnológicos, supervisionando adequadamente a inteligência artificial e colocando-a em primeiro plano. Posição importante: Artigo 1 do projeto de lei claramente apoia medidas inovadoras para pequenas e médias empresas e start-ups, incluindo o estabelecimento de "sandboxes regulamentares" e outras medidas para reduzir a carga de conformidade em pequenas e médias empresas e start-ups.
No entanto, antes de vender serviços de IA ou implantar sistemas no mercado, a IA generativa deve atender a uma série de requisitos regulatórios para gerenciamento de riscos, dados, transparência e documentação. Ao mesmo tempo, o uso de inteligência artificial em áreas sensíveis, como infraestrutura crítica será considerado como "Alto risco" está incluído no escopo da supervisão.
Atualmente, a especificação de IA baseada nas "Medidas Provisórias" já entrou em ação: em 31 de julho, um grande número de aplicativos que forneciam serviços ChatGPT na App Store na China foram removidos coletivamente das prateleiras pela Apple e não não fornece acesso direto ao ChatGPT, mas também focado em funções AI. Outro lote de aplicativos não será afetado por enquanto.
Na resposta aos desenvolvedores, a sugestão de revisão oficial da Apple é que “os serviços de inteligência artificial generativa devem atender aos requisitos de licenciamento para operar na China, incluindo a obtenção de uma licença do Ministério da Indústria e Tecnologia da Informação”. para A categoria de "prestação de serviços ao público" nas "Medidas Provisórias".
O Artigo 15 das "Medidas Provisórias" da China também menciona claramente o método de gerenciamento para gerar conteúdo de risco "os provedores devem tomar medidas imediatas, como interromper a geração, interromper a transmissão e eliminação, e tomar medidas como treinamento de otimização de modelo para fazer a retificação". Isso já foi mencionado na "Mistura para Comentários"; no entanto, em comparação com a versão anterior, a descrição nas "Medidas Provisórias" é mais moderada, e a descrição do prazo como "retificação em três meses" foi excluída .
Entre as controvérsias atuais em torno do nascimento da IA generativa, as disputas de direitos autorais de dados usados para treinar modelos de linguagem em larga escala para IA generativa, os fabricantes no primeiro escalão do desenvolvimento de IA generativa já se sentiram limitados pela falta de conteúdo de alta qualidade ". Teto invisível", mas, ao mesmo tempo, inúmeros criadores e mídia começaram a iniciar processos judiciais e outras ações sobre questões de direitos autorais causadas pela IA generativa. É iminente a formulação de cláusulas de proteção de direitos autorais de conteúdo para o desenvolvimento de IA generativa.
Portanto, este também é o foco da legislação generativa de IA nos Estados Unidos e na Europa: a "Lei de Inteligência Artificial" europeia exige claramente que fornecedores de modelos em larga escala declarem se usam materiais protegidos por direitos autorais para treinar IA e, ao mesmo tempo, registrar informações de registro suficientes para os criadores buscarem compensação; enquanto o US Copyright Office emitiu uma nova revisão, solicitando sugestões sobre os amplos problemas de direitos autorais levantados pela IA generativa e buscando legislação especial para resolvê-los.
Nas atuais “Medidas Provisórias”, os parágrafos relevantes da minuta para comentários em abril foram excluídos, deixando as atuais “Medidas Provisórias” com disposições em branco sobre a proteção dos direitos de propriedade intelectual sobre as fontes de dados, que precisam ser aprimoradas com urgência.
No entanto, para os grandes modelos que a IA generativa depende para o desenvolvimento; é a lei do desenvolvimento procurar dados na Internet para acelerar o desenvolvimento iterativo de grandes modelos, e restrições de tamanho único provavelmente causarão um grande golpe para toda a indústria. Mencionou "isenção" em diferentes cenários: Na "Lei de Inteligência Artificial" da União Europeia, está incluída uma isenção para pesquisa de IA por desenvolvedores de código aberto: a cooperação e a construção de componentes de inteligência artificial em um ambiente aberto receberão especial proteção. Ao mesmo tempo, nas "Medidas Provisórias", as cláusulas relevantes também esclarecem o alcance da isenção da lei:
"Enquanto empresas, instituições de pesquisa científica, etc. não fornecerem abertamente serviços de inteligência artificial generativa ao público, esta lei não se aplica."
"A legislação no campo da propriedade intelectual ainda precisa de mais tempo para pesquisa e demonstração." Um consultor jurídico que atualmente atende fabricantes de modelos em grande escala disse a repórteres: "Conjuntos de dados chineses de alta qualidade são mais escassos do que o conteúdo em inglês e generativo. O treinamento de IA determina que mesmo os gigantes não podem assinar contratos completamente com todas as plataformas e todos os criadores de conteúdo de forma independente, sem mencionar que a taxa de licenciamento altíssima já é um grande golpe para as startups.”
"Talvez o problema atual só possa ser deixado para o desenvolvimento da indústria para obter melhores soluções práticas." Competição e cooperação, acrescentou o consultor. Embora na competição entre a China e os Estados Unidos, o desenvolvimento da IA tenha se tornado um dos principais campos de batalha para os Estados Unidos conterem o desenvolvimento da China, mas no campo da legislação generativa da IA, a cooperação entre a China, os Estados Unidos e a Europa está gradualmente se tornando o principal.
Nesta fase, as empresas de inteligência artificial nos Estados Unidos perceberam os riscos que acompanham o desenvolvimento da IA. Promessas foram feitas para garantir que a IA "não faça o mal": a OpenAI afirmou que sua missão declarada é "garantir que a inteligência artificial geral beneficie toda a humanidade". Os princípios operacionais da DeepMind incluem o compromisso de "ser um pioneiro responsável no campo da inteligência artificial", enquanto os fundadores da DeepMind se comprometem a não se envolver em pesquisas letais de inteligência artificial, e os princípios de pesquisa de inteligência artificial do Google também estipulam que o Google não implantará ou projetará armas que prejudiquem humanos, ou inteligência artificial que viole as normas internacionais de vigilância.
Em 26 de julho, Anthropic, Google, Microsoft e OpenAI lançaram o Frontier Model Forum, um órgão do setor focado em garantir o desenvolvimento seguro e responsável de modelos de ponta de IA.
O fórum terá como objetivo "trabalhar com formuladores de políticas, academia e sociedade civil para minimizar riscos e compartilhar conhecimento sobre riscos de segurança" enquanto avança na pesquisa de IA. Ao mesmo tempo, integrar ativamente na cooperação multilateral internacional existente: incluindo G7, OCDE e formulação de políticas de outras organizações sobre IA generativa. A fim de promover a sincronização dos países na direção da legislação e dos conceitos regulatórios.
Anteriormente, a revista Time comentou que há muitas possibilidades de cooperação entre a China e os Estados Unidos como "atores significativos" na IA generativa, e a Europa, que muitas vezes tem sido "pioneira" de fato na legislação de novas tecnologias , é do interesse de todas as partes para iniciar a cooperação na fase legislativa, e também é um dos meios importantes para promover o desenvolvimento da IA generativa.
Isso também é consistente com as opiniões de Max Tegmark, professor do Massachusetts Institute of Technology e fundador do Future of Life Institute: "A China está em uma posição vantajosa em muitos campos da IA generativa e provavelmente se tornará líder no controle inteligência artificial."
O número de modelos de grande escala na China e nos Estados Unidos representa 90% do mundo, portanto, a coordenação legislativa entre China, Estados Unidos e Europa determinará até a tendência de desenvolvimento da indústria global de IA generativa. "A coordenação legal com a China sob a premissa de atender aos interesses dos Estados Unidos" tornou-se gradualmente o consenso dos círculos políticos e acadêmicos americanos.
Capa da reportagem da WIRED
Mais representativas são as medidas de classificação para riscos de IA: as "Medidas provisórias" da China mencionam "prudência inclusiva e classificação e supervisão de classificação para serviços de inteligência artificial generativa", mas não detalham a classificação na versão atual Atualmente, apenas parágrafos como " desenvolvimento de regras ou diretrizes de supervisão de classificação e classificação correspondentes" foram escritos.
A "Lei de Inteligência Artificial" europeia também propõe um sistema de classificação para corresponder às obrigações dos desenvolvedores de IA com diferentes níveis de risco. O atual "nível de ameaça" de IA proposto inclui quatro categorias:
IA de risco limitado
IA de alto risco
Nível de risco inaceitável
IA generativa: produtos como ChatGPT
Na versão atual, a "Lei de Inteligência Artificial" extrai a IA generativa como uma classificação independente e, ao mesmo tempo, restringe estritamente os produtos classificados como "IA de alto risco". Isso também é considerado um "projeto de referência" para futuras legislações sobre riscos de IA na China e nos Estados Unidos.
Além disso, a julgar pelo processo legislativo atual, convidar ativamente o público e as instituições de pesquisa de IA para participar do processo legislativo é um consenso formado por agências reguladoras em vários países por meio da experiência dos últimos seis meses. É uma "cláusula sombra" que não pode ser questionado.
“A IA generativa pode nunca ser perfeita, mas a lei está destinada a desempenhar um papel importante na direção-chave do desenvolvimento da IA”
Assim como Oppenheimer nunca se arrependeu de ter desenvolvido a bomba atômica no Novo México, embora se opusesse ao uso de armas nucleares na guerra, ninguém pode impedir que pesquisadores curiosos usem a tecnologia existente para desenvolver IA mais inteligente, ciência. O ritmo da exploração nunca parará por aí. A supervisão "necessária e razoável" é o "redutor de velocidade" no caminho da corrida frenética da IA e também é a "última linha de defesa" para impedir que a inteligência artificial generativa cause danos reais.
Mas focar em “como evitar ficar para trás na corrida da IA causada pela regulamentação” ainda é uma das coisas que mais preocupam os legisladores. A legislação relevante ficará, sem dúvida, mais completa com mais experiência e feedback.
“As agências reguladoras manterão o espírito da legislação científica e da legislação de portas abertas, e farão revisões e melhorias oportunas.” A passagem sobre IA generativa nas “Medidas provisórias” pode ser o melhor princípio para a legislação na era da IA generativa.
Ver original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
Os produtos ChatGPT estão surgindo em um fluxo interminável, e a regulamentação global está atravessando o rio sentindo as pedras
Fonte: Power Plant, Autor: Zhang Yongyi, Editor: Gao Yulei
Em 31 de julho, os produtos chatgpt da App Store da Apple na China foram retirados coletivamente das prateleiras.De acordo com a Apple, os produtos relacionados precisam obter uma licença de operação.
Não apenas a China, mas também os Estados Unidos e a Europa, que estão determinados a competir nesse campo, estão aplicando ativamente a legislação e a regulamentação enquanto incentivam a inovação.
Em abril de 2021, a Comissão Europeia publicou pela primeira vez uma proposta de estrutura regulatória para a operação e governança de aplicativos de aprendizado de máquina, propondo a regulamentação da IA. Naquela época, a visão mais popular na indústria de IA ainda era a famosa piada de Wu Enda de que "preocupar-se com a inteligência artificial hoje é como se preocupar com a superpopulação de Marte".
Mas até 2023, tal visão não pode mais se tornar dominante: levou menos de 6 meses para a IA generativa mostrar ao mundo o grande potencial para substituir os humanos e mudar completamente o mundo existente - assim como foi desenvolvido na Segunda Guerra Mundial. como uma arma nuclear.
O físico J-Robert Oppenheimer liderou o desenvolvimento da primeira bomba atômica do mundo. Naquela época, a Segunda Guerra Mundial havia terminado, mas a bomba nuclear, como a arma mais terrível da história da humanidade, ainda dominava em grande parte a tendência histórica: o Estados Unidos O governo não acatou as críticas e sugestões de especialistas como Oppenheimer de que "a proliferação nuclear levará a uma corrida armamentista sem precedentes", o que acabou levando à eclosão de uma corrida armamentista nuclear entre os Estados Unidos e a União Soviética representada por o desenvolvimento da bomba de hidrogênio "super bomba nuclear" - e em Durante a Crise dos Mísseis de Cuba, quase toda a civilização humana foi arrastada para um abismo escuro além da redenção.
A crise que Oppenheimer encontrou tem muitas semelhanças com a atual "AI Omnic Crisis" enfrentada pelos humanos: antes que os humanos usem a AI para se arrastar para um futuro maior e incontrolável, guie-o para um futuro mais massivo e incontrolável. Talvez a melhor maneira seja para implementar a supervisão em uma pista segura.
Em 2021, a "preparação para um dia chuvoso" da União Europeia acabou se tornando a primeira estrutura regulatória para a indústria de inteligência artificial na história da humanidade - é também a predecessora da Lei de Inteligência Artificial da União Europeia (AI Act).
No entanto, quando os legisladores elaboraram este projeto de lei, eles não esperavam a existência de inteligência artificial generativa ou grandes modelos até o final de 2022. Portanto, o aumento explosivo da IA generativa em 2023 também acrescentou mais A seção sobre IA generativa: incluindo o transparência de seu uso de grandes modelos e regulamentação da coleta/uso de dados do usuário.
Neste momento, este projeto de lei foi votado pelo Parlamento Europeu em meados de junho.O próximo passo para os termos finais é finalizar a lei nas negociações entre os três órgãos de decisão da UE - o Parlamento, o Conselho e a Comissão. Um acordo será alcançado e finalmente entrará em vigor.
Na China, a legislação sobre IA generativa também está em andamento: em 13 de julho, as "Medidas provisórias para a administração de serviços de inteligência artificial generativa" (doravante denominadas coletivamente como "Medidas provisórias") foram emitidas em conjunto por sete ministérios e comissões incluindo a Administração do Ciberespaço da China, que entrará em vigor em agosto.
Este pode se tornar o primeiro regulamento de gerenciamento de inteligência artificial generativa que finalmente será implementado. IA. .
Em outros países que estão no primeiro escalão do desenvolvimento da IA, como Reino Unido e Estados Unidos, a legislação regulatória sobre IA também está em andamento: em 16 de março, o US Copyright Office lançou uma iniciativa para estudar a lei de direitos autorais e questões políticas decorrente da tecnologia de inteligência artificial: incluindo Escopo de direitos autorais em trabalhos gerados usando ferramentas de inteligência artificial e uso de material protegido por direitos autorais para fins de aprendizado de máquina. O governo do Reino Unido lançou sua primeira estrutura regulatória de IA em 4 de abril. Desde então, a Administração Nacional de Telecomunicações e Informações dos EUA (NTIA) divulgou um rascunho de responsabilidade da IA para solicitar um feedback público mais amplo sobre medidas e políticas de responsabilidade da IA.
INOVAÇÃO E RESPONSABILIDADE
A legislação e a governança da IA generativa é um novo campo em que ninguém jamais pisou antes, e todo legislador precisa suportar a pressão das dúvidas do mundo exterior: na conferência de desenvolvedores do Google I/O deste ano, o Google lançou oficialmente sua IA generativa O robô de conversação Bard, mas o escopo do serviço exclui completamente a região europeia.
Isso faz com que muitos pesquisadores/empresas europeus de IA questionem: por que a Europa está faltando? Mais tarde, o Google afirmou mais vezes que "espera se abrir para usuários europeus", o que foi interpretado como uma "medida de cobertura" para o Google evitar a área legal cinzenta que existe na IA generativa, resultando em multas enormes na UE. .
Em julho, o Google finalmente revelou o motivo: Jack Krawczyk, chefe do produto Bard, escreveu em um blog: No início da pesquisa, a Irish Data Protection Commission (DPC) já havia proposto a intenção de lançar o Bard na Europa, mas no final das contas , demorou até julho para atender ao pedido de prestação de informações do regulador.
Hoje, a "Lei de Inteligência Artificial" da União Européia foi lançada, e quase todas as leis nela apontam diretamente para os problemas emergentes ou potenciais no atual desenvolvimento da IA: a disseminação de informações falsas/desinformadas, a possível educação/saúde mental e outros problemas importantes problemas.
Mas então os legisladores descobriram que a parte mais complicada de resolver esse problema está em como determinar a legislação: é necessário proteger a inovação/evitar o monopólio de gigantes no campo da IA e garantir a controlabilidade da IA até certo ponto . Evite inundar com conteúdo falso. Tornou-se o núcleo comum da legislação generativa de IA na China, nos Estados Unidos e na Europa, mas eles têm ênfases diferentes nas regulamentações atuais.
Muitos casos europeus anteriores sobre inteligência artificial causaram tratamento negativo de instituições como Google e OpenAI. Muitas empresas de tecnologia europeias locais e até mesmo legisladores estão preocupados que uma legislação excessivamente rigorosa permita que a Europa retorne ao nível de liderança mundial com a ajuda da IA A concretização da visão tornou-se difícil: após a aprovação oficial da "Lei de Inteligência Artificial", a União Europeia tem o direito de aplicar uma multa de até 30 milhões de euros, ou 6% da receita anual da empresa , contra empresas que violam os regulamentos de inteligência artificial. Este é, sem dúvida, um aviso óbvio para empresas como Google e Microsoft que desejam expandir seus negócios de IA generativa na Europa.
Na versão de junho da "Lei de Inteligência Artificial", os legisladores da UE incluíram claramente novas disposições para incentivar a inovação responsável da inteligência artificial, reduzindo os riscos tecnológicos, supervisionando adequadamente a inteligência artificial e colocando-a em primeiro plano. Posição importante: Artigo 1 do projeto de lei claramente apoia medidas inovadoras para pequenas e médias empresas e start-ups, incluindo o estabelecimento de "sandboxes regulamentares" e outras medidas para reduzir a carga de conformidade em pequenas e médias empresas e start-ups.
No entanto, antes de vender serviços de IA ou implantar sistemas no mercado, a IA generativa deve atender a uma série de requisitos regulatórios para gerenciamento de riscos, dados, transparência e documentação. Ao mesmo tempo, o uso de inteligência artificial em áreas sensíveis, como infraestrutura crítica será considerado como "Alto risco" está incluído no escopo da supervisão.
Atualmente, a especificação de IA baseada nas "Medidas Provisórias" já entrou em ação: em 31 de julho, um grande número de aplicativos que forneciam serviços ChatGPT na App Store na China foram removidos coletivamente das prateleiras pela Apple e não não fornece acesso direto ao ChatGPT, mas também focado em funções AI. Outro lote de aplicativos não será afetado por enquanto.
Entre as controvérsias atuais em torno do nascimento da IA generativa, as disputas de direitos autorais de dados usados para treinar modelos de linguagem em larga escala para IA generativa, os fabricantes no primeiro escalão do desenvolvimento de IA generativa já se sentiram limitados pela falta de conteúdo de alta qualidade ". Teto invisível", mas, ao mesmo tempo, inúmeros criadores e mídia começaram a iniciar processos judiciais e outras ações sobre questões de direitos autorais causadas pela IA generativa. É iminente a formulação de cláusulas de proteção de direitos autorais de conteúdo para o desenvolvimento de IA generativa.
Portanto, este também é o foco da legislação generativa de IA nos Estados Unidos e na Europa: a "Lei de Inteligência Artificial" europeia exige claramente que fornecedores de modelos em larga escala declarem se usam materiais protegidos por direitos autorais para treinar IA e, ao mesmo tempo, registrar informações de registro suficientes para os criadores buscarem compensação; enquanto o US Copyright Office emitiu uma nova revisão, solicitando sugestões sobre os amplos problemas de direitos autorais levantados pela IA generativa e buscando legislação especial para resolvê-los.
Nas atuais “Medidas Provisórias”, os parágrafos relevantes da minuta para comentários em abril foram excluídos, deixando as atuais “Medidas Provisórias” com disposições em branco sobre a proteção dos direitos de propriedade intelectual sobre as fontes de dados, que precisam ser aprimoradas com urgência.
No entanto, para os grandes modelos que a IA generativa depende para o desenvolvimento; é a lei do desenvolvimento procurar dados na Internet para acelerar o desenvolvimento iterativo de grandes modelos, e restrições de tamanho único provavelmente causarão um grande golpe para toda a indústria. Mencionou "isenção" em diferentes cenários: Na "Lei de Inteligência Artificial" da União Europeia, está incluída uma isenção para pesquisa de IA por desenvolvedores de código aberto: a cooperação e a construção de componentes de inteligência artificial em um ambiente aberto receberão especial proteção. Ao mesmo tempo, nas "Medidas Provisórias", as cláusulas relevantes também esclarecem o alcance da isenção da lei:
"Enquanto empresas, instituições de pesquisa científica, etc. não fornecerem abertamente serviços de inteligência artificial generativa ao público, esta lei não se aplica."
"A legislação no campo da propriedade intelectual ainda precisa de mais tempo para pesquisa e demonstração." Um consultor jurídico que atualmente atende fabricantes de modelos em grande escala disse a repórteres: "Conjuntos de dados chineses de alta qualidade são mais escassos do que o conteúdo em inglês e generativo. O treinamento de IA determina que mesmo os gigantes não podem assinar contratos completamente com todas as plataformas e todos os criadores de conteúdo de forma independente, sem mencionar que a taxa de licenciamento altíssima já é um grande golpe para as startups.”
"Talvez o problema atual só possa ser deixado para o desenvolvimento da indústria para obter melhores soluções práticas." Competição e cooperação, acrescentou o consultor. Embora na competição entre a China e os Estados Unidos, o desenvolvimento da IA tenha se tornado um dos principais campos de batalha para os Estados Unidos conterem o desenvolvimento da China, mas no campo da legislação generativa da IA, a cooperação entre a China, os Estados Unidos e a Europa está gradualmente se tornando o principal.
Nesta fase, as empresas de inteligência artificial nos Estados Unidos perceberam os riscos que acompanham o desenvolvimento da IA. Promessas foram feitas para garantir que a IA "não faça o mal": a OpenAI afirmou que sua missão declarada é "garantir que a inteligência artificial geral beneficie toda a humanidade". Os princípios operacionais da DeepMind incluem o compromisso de "ser um pioneiro responsável no campo da inteligência artificial", enquanto os fundadores da DeepMind se comprometem a não se envolver em pesquisas letais de inteligência artificial, e os princípios de pesquisa de inteligência artificial do Google também estipulam que o Google não implantará ou projetará armas que prejudiquem humanos, ou inteligência artificial que viole as normas internacionais de vigilância.
Em 26 de julho, Anthropic, Google, Microsoft e OpenAI lançaram o Frontier Model Forum, um órgão do setor focado em garantir o desenvolvimento seguro e responsável de modelos de ponta de IA.
O fórum terá como objetivo "trabalhar com formuladores de políticas, academia e sociedade civil para minimizar riscos e compartilhar conhecimento sobre riscos de segurança" enquanto avança na pesquisa de IA. Ao mesmo tempo, integrar ativamente na cooperação multilateral internacional existente: incluindo G7, OCDE e formulação de políticas de outras organizações sobre IA generativa. A fim de promover a sincronização dos países na direção da legislação e dos conceitos regulatórios.
Isso também é consistente com as opiniões de Max Tegmark, professor do Massachusetts Institute of Technology e fundador do Future of Life Institute: "A China está em uma posição vantajosa em muitos campos da IA generativa e provavelmente se tornará líder no controle inteligência artificial."
O número de modelos de grande escala na China e nos Estados Unidos representa 90% do mundo, portanto, a coordenação legislativa entre China, Estados Unidos e Europa determinará até a tendência de desenvolvimento da indústria global de IA generativa. "A coordenação legal com a China sob a premissa de atender aos interesses dos Estados Unidos" tornou-se gradualmente o consenso dos círculos políticos e acadêmicos americanos.
Mais representativas são as medidas de classificação para riscos de IA: as "Medidas provisórias" da China mencionam "prudência inclusiva e classificação e supervisão de classificação para serviços de inteligência artificial generativa", mas não detalham a classificação na versão atual Atualmente, apenas parágrafos como " desenvolvimento de regras ou diretrizes de supervisão de classificação e classificação correspondentes" foram escritos.
A "Lei de Inteligência Artificial" europeia também propõe um sistema de classificação para corresponder às obrigações dos desenvolvedores de IA com diferentes níveis de risco. O atual "nível de ameaça" de IA proposto inclui quatro categorias:
Na versão atual, a "Lei de Inteligência Artificial" extrai a IA generativa como uma classificação independente e, ao mesmo tempo, restringe estritamente os produtos classificados como "IA de alto risco". Isso também é considerado um "projeto de referência" para futuras legislações sobre riscos de IA na China e nos Estados Unidos.
Além disso, a julgar pelo processo legislativo atual, convidar ativamente o público e as instituições de pesquisa de IA para participar do processo legislativo é um consenso formado por agências reguladoras em vários países por meio da experiência dos últimos seis meses. É uma "cláusula sombra" que não pode ser questionado.
“A IA generativa pode nunca ser perfeita, mas a lei está destinada a desempenhar um papel importante na direção-chave do desenvolvimento da IA”
Assim como Oppenheimer nunca se arrependeu de ter desenvolvido a bomba atômica no Novo México, embora se opusesse ao uso de armas nucleares na guerra, ninguém pode impedir que pesquisadores curiosos usem a tecnologia existente para desenvolver IA mais inteligente, ciência. O ritmo da exploração nunca parará por aí. A supervisão "necessária e razoável" é o "redutor de velocidade" no caminho da corrida frenética da IA e também é a "última linha de defesa" para impedir que a inteligência artificial generativa cause danos reais.
Mas focar em “como evitar ficar para trás na corrida da IA causada pela regulamentação” ainda é uma das coisas que mais preocupam os legisladores. A legislação relevante ficará, sem dúvida, mais completa com mais experiência e feedback.
“As agências reguladoras manterão o espírito da legislação científica e da legislação de portas abertas, e farão revisões e melhorias oportunas.” A passagem sobre IA generativa nas “Medidas provisórias” pode ser o melhor princípio para a legislação na era da IA generativa.