As empresas esperam que os regulamentos da UE garantam o desenvolvimento contínuo da IA na região.
Várias empresas de tecnologia e inteligência artificial, incluindo GitHub e HuggingFace, escreveram para formuladores de políticas europeus pedindo que forneçam mais suporte para o desenvolvimento de código aberto de modelos de inteligência artificial (IA), informou o The Verge em 26 de julho.
No documento, que contém uma lista de propostas ao Parlamento Europeu, as empresas pedem definições mais claras, entre outras coisas.
As empresas que assinam o documento incluem Creative Commons, EleutherAI, LAION e Open Future.
Essas empresas estão agindo para garantir que o projeto de lei de IA atualmente desenvolvido pelos formuladores de políticas da UE atenda aos melhores padrões para garantir o desenvolvimento da IA.
A União Europeia é uma das regiões que leva a sério a regulamentação da IA, com um projeto de lei de IA já em vigor, mas o projeto atraiu críticas de muitos quadrantes.
A maior parte das críticas centrou-se no foco excessivo na camada de aplicativos e na falta de definições concisas das tecnologias de IA. Não surpreendentemente, essas empresas apresentaram definições mais claras.
Outras recomendações incluem separar amadores e pesquisadores que trabalham em modelos de IA de código aberto daqueles com fins comerciais, definir requisitos para modelos diferentes e regulamentar testes do mundo real para projetos de IA.
O projeto de lei proíbe todas as formas de teste de IA no mundo real. Mas as empresas argumentam que tal proibição total afetaria apenas a pesquisa e o desenvolvimento. Eles também querem compartilhar ferramentas de IA em bibliotecas de código aberto, livres de regulamentação.
Se aprovado, o projeto de lei pode abrir um precedente para leis que regulam a inteligência artificial em outras jurisdições. É por isso que as empresas de IA têm feito lobby agressivamente para garantir que as regras não sejam tão rígidas que atrapalhem o crescimento do setor.
Embora os formuladores de políticas da UE já estejam trabalhando em leis para regular a IA, a regulamentação dos EUA ainda está em seus estágios iniciais. Os legisladores querem evitar a atual ambiguidade regulatória que continua a atormentar as criptomoedas no manuseio da inteligência artificial.
As principais empresas de IA, incluindo Google, Meta e OpenAI, concordaram recentemente em implementar marcas d'água em conteúdo criado por IA como parte de um esforço voluntário para melhorar a segurança.
Ver original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
Empresas de IA fazem lobby para apoiar o código aberto nos próximos regulamentos da UE
As empresas esperam que os regulamentos da UE garantam o desenvolvimento contínuo da IA na região.
Várias empresas de tecnologia e inteligência artificial, incluindo GitHub e HuggingFace, escreveram para formuladores de políticas europeus pedindo que forneçam mais suporte para o desenvolvimento de código aberto de modelos de inteligência artificial (IA), informou o The Verge em 26 de julho.
No documento, que contém uma lista de propostas ao Parlamento Europeu, as empresas pedem definições mais claras, entre outras coisas.
As empresas que assinam o documento incluem Creative Commons, EleutherAI, LAION e Open Future.
Essas empresas estão agindo para garantir que o projeto de lei de IA atualmente desenvolvido pelos formuladores de políticas da UE atenda aos melhores padrões para garantir o desenvolvimento da IA.
A União Europeia é uma das regiões que leva a sério a regulamentação da IA, com um projeto de lei de IA já em vigor, mas o projeto atraiu críticas de muitos quadrantes.
A maior parte das críticas centrou-se no foco excessivo na camada de aplicativos e na falta de definições concisas das tecnologias de IA. Não surpreendentemente, essas empresas apresentaram definições mais claras.
Outras recomendações incluem separar amadores e pesquisadores que trabalham em modelos de IA de código aberto daqueles com fins comerciais, definir requisitos para modelos diferentes e regulamentar testes do mundo real para projetos de IA.
O projeto de lei proíbe todas as formas de teste de IA no mundo real. Mas as empresas argumentam que tal proibição total afetaria apenas a pesquisa e o desenvolvimento. Eles também querem compartilhar ferramentas de IA em bibliotecas de código aberto, livres de regulamentação.
Se aprovado, o projeto de lei pode abrir um precedente para leis que regulam a inteligência artificial em outras jurisdições. É por isso que as empresas de IA têm feito lobby agressivamente para garantir que as regras não sejam tão rígidas que atrapalhem o crescimento do setor.
Embora os formuladores de políticas da UE já estejam trabalhando em leis para regular a IA, a regulamentação dos EUA ainda está em seus estágios iniciais. Os legisladores querem evitar a atual ambiguidade regulatória que continua a atormentar as criptomoedas no manuseio da inteligência artificial.
As principais empresas de IA, incluindo Google, Meta e OpenAI, concordaram recentemente em implementar marcas d'água em conteúdo criado por IA como parte de um esforço voluntário para melhorar a segurança.