A partir de 15 de agosto, entraram em vigor as “Medidas Provisórias para a Administração de Serviços Generativos de Inteligência Artificial” (doravante denominadas “Medidas Provisórias”).
Para a indústria de modelos em grande escala, que cresceu de forma imprudente e fez progressos rápidos nos últimos seis meses, pode-se dizer que as "Medidas Provisórias" entraram em vigor no momento certo.
De acordo com o "Relatório de Pesquisa de Mapas de Grandes Modelos de Inteligência Artificial da China", divulgado pelo Instituto de Informações Científicas e Tecnológicas da China, a partir do primeiro semestre de 2023, 79 modelos domésticos de grande escala com parâmetros de 1 bilhão ou mais foram lançados, ocupando o segundo lugar no mundo, perdendo apenas para os Estados Unidos.
No processo de exploração da ecologia industrial de grandes modelos, os dados são dados de produção necessários e também um elo importante que precisa ser padronizado. O advogado Wang Chen disse a "Shijie": "A proteção da privacidade pessoal de nosso país há muito se reflete em leis e regulamentos relevantes, como a "Decisão sobre o fortalecimento da proteção de informações de rede" aprovada em 2012, mas com o desenvolvimento da tecnologia AI, o The a coleta e o uso de informações pessoais também estão sendo constantemente introduzidos, o que requer ajustes e complementações constantes no nível regulatório.”
As "Medidas Provisórias" que acabaram de entrar em vigor são as primeiras políticas regulatórias domésticas e até globais emitidas para a atual indústria explosiva de inteligência artificial generativa (AIGC).
Neste contexto, Liu Qingfeng, presidente da HKUST iFlytek, acredita: "(Com as "Medidas Provisórias" entrando em vigor), 15 de agosto dará início a um nó-chave no desenvolvimento da inteligência artificial geral da China e também será um marco nó.”
** "Miao Duck Camera" não pode tirar os dados do usuário **
Não faz muito tempo, a "Câmera Miaoya", que gera avatares digitais e fotos de IA por 9,9 yuans, tornou-se popular em toda a Internet e milhares de pessoas até fizeram fila para fazer avatares digitais. No entanto, sua política de privacidade afirma que a autorização concedida pelo usuário à Miaoya Camera é "irrevogável" e que o conteúdo do usuário pode ser "usado de qualquer forma e dentro de qualquer escopo" e outros conteúdos inapropriados.
Embora o desenvolvedor da Miaoya Camera posteriormente tenha respondido que o conteúdo do contrato original estava errado e excluído as cláusulas relevantes imediatamente, esse incidente ainda despertou preocupações dos usuários.
Casos de uso da tecnologia AIGC para gerar vídeos faciais e até mesmo simular vozes humanas para novos tipos de fraude também apareceram nos jornais. Segundo dados do Ministério da Segurança Pública, até 10 de agosto, foram detectados 79 casos relacionados a fraudes causadas por "mudança facial por IA" e 515 suspeitos foram presos.
O engenheiro de algoritmo de IA, Wen Mu, disse a "Shijie": "O custo de usar a tecnologia de IA para gerar fotos ou vídeos de rostos falsos é extremamente baixo. Em teoria, os criminosos precisam apenas de um modelo de IA treinado e uma foto da vítima. Isso será feito. "
Xu Liang, responsável por uma empresa de AIGC, acredita que os incidentes acima mencionados de uso indevido da tecnologia AI refletem que toda a cadeia industrial da indústria de modelos em grande escala precisa ser regulada com urgência. apenas na China, mas também no campo global de IA são tópicos que precisam ser focados.”
▲
A “Medidas Provisórias”, que entrou em vigor em 15 de agosto, tem 4 capítulos e 24 artigos, e explicita as questões acima mencionadas.
Por exemplo, as "Medidas Provisórias" estipulam que nas atividades de processamento de dados envolvendo informações pessoais, os provedores de serviços AIGC devem obter consentimento pessoal ou cumprir outras circunstâncias estipuladas por leis e regulamentos administrativos; responsabilidade do autor, obrigações relacionadas ao gerenciamento de conteúdo, etc. De acordo com a análise da King & Wood Mallesons, esta disposição ajudará a evitar que as partes relevantes não cumpram suas obrigações de conformidade ou tentem se esquivar umas das outras.
Xu Liang acredita que os regulamentos relevantes sobre o escopo de aplicação das "Medidas Provisórias" são particularmente dignos de atenção. As disposições específicas incluem: uso da tecnologia AIGC para fornecer ao público doméstico o serviço de geração de texto, imagens, áudio, vídeo e outros conteúdos, essas medidas se aplicam; organizações industriais, empresas, instituições educacionais e de pesquisa científica, instituições culturais públicas, instituições relevantes, etc. pesquisar, desenvolver e aplicar a tecnologia AIGC Caso os serviços AIGC não sejam prestados ao público nacional, não se aplicam as disposições das presentes Medidas.
"No meu entendimento, os produtos AIGC de nível ToC enfrentarão uma supervisão relativamente rígida para o mercado doméstico, mas podem ser considerados para ir para o exterior. No entanto, quando produtos modelo em grande escala treinados na China vão para o exterior, eles também precisam considerar a conformidade questões de dados que vão para o exterior." Xu Liang disse: "No geral, as "Medidas Provisórias" não são rígidas, dando à indústria espaço para livre desenvolvimento."
Vale ressaltar que as "Medidas Provisórias" também estipulam que aqueles que prestam serviços de inteligência artificial generativa com atributos de opinião pública ou capacidade de mobilização social devem realizar avaliações de segurança de acordo com os regulamentos relevantes e passar por processos e outros procedimentos.
Desde o final de julho, a AppStore da Apple tomou a iniciativa de remover um grande número de aplicativos generativos de IA na China. Com a entrada em vigor das "Medidas Provisórias", no futuro, esse software aplicativo será relançado após a conclusão dos procedimentos relevantes.
**Como gerenciar a Caixa de Pandora? **
A indústria geralmente acredita que no caminho para o desenvolvimento padronizado da indústria de modelos em grande escala, além da melhoria contínua de leis e regulamentos, também é necessário que empresas e indústrias construam um sistema de conformidade com inteligência artificial.
O responsável por uma empresa humana digital virtual disse a "Shijie": "A aplicação de novas tecnologias muitas vezes nasce antes das normas. Não podemos esperar passivamente, mas devemos contribuir ativamente para o desenvolvimento útil e benéfico enquanto exploramos e inovamos tecnologias e aplicações." Para orientar na direção do mercado e fornecer serviços necessários ao mercado, à indústria e à sociedade. Ao mesmo tempo, também realizaremos avaliações de risco para identificar e avaliar possíveis efeitos negativos do desenvolvimento tecnológico em tempo hábil maneira, e formular contramedidas correspondentes. Prestar atenção à prevenção de riscos Ao mesmo tempo, a tolerância a erros e os mecanismos de correção de erros também devem ser estabelecidos simultaneamente.”
Quando as "Medidas Provisórias" entraram em vigor, muitas empresas de grande porte também compartilharam suas ideias e progresso na construção de um sistema de conformidade de inteligência artificial.
Em 15 de agosto, Liu Qingfeng, presidente da iFlytek, disse na coletiva de imprensa de seu modelo de grande escala autodesenvolvido "Xunfei Spark Cognitive Model 2.0" que a iFlytek projetou a limpeza de dados de treinamento e gerou correção de conteúdo.
Entre eles, no processo de limpeza de dados, após coletar corpus de treinamento de todo o mundo, a iFLYTEK limpará o texto por meio de discriminadores de idioma, discriminadores de qualidade, discriminadores de privacidade e discriminadores de segurança e, finalmente, obterá corpus de treinamento de alta qualidade. Diante da ilusão de modelos grandes, a ideia da iFLYTEK é combinar os recursos de bases de conhecimento geral, bases de conhecimento da indústria e modelos grandes, usar modelos grandes gerais para aprender bases de conhecimento seguras e profissionais da indústria e, em seguida, extrair conhecimento relevante. Apresentar com precisão aos clientes .
Baidu disse que percebeu a segurança e a capacidade de controle da cadeia de suprimentos na arquitetura de quatro camadas de camada de chip, camada de estrutura, camada de modelo e camada de aplicativo. Sua estrutura de aprendizado profundo autodesenvolvida "Flying Paddle" também possui um gerenciamento de vulnerabilidade completo mecanismo.
De acordo com o "Teste de produto doméstico LLM (modelo de linguagem grande)", o modelo em grande escala da Baidu "Wen Xin Yi Yan" e o modelo em grande escala de Xunfei "Xunfei Xinghuo" têm semelhanças em crenças religiosas, superstição feudal, pan-pornografia, assuntos atuais , proteção de menores e Internet. A objetividade e a imparcialidade das respostas em áreas relacionadas, como lei de segurança, são melhores do que GPT-3.5.
Zhou Hongyi, fundador do Grupo 360, disse em entrevista à mídia que o 360 lançou uma solução de modelo de IA de grande escala em nível empresarial e segue os quatro princípios de "segurança e confiabilidade, bom conteúdo e resultados confiáveis" para criar um modelo de grande escala vertical de nível empresarial Fornecer soluções para 20 indústrias.
De acordo com o "Plano de Trabalho Legislativo do Conselho de Estado para 2023", emitido em 6 de junho, a "Lei de Inteligência Artificial" da China também está em processo legislativo e as normas legais relevantes serão cada vez mais aprimoradas.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
O modelo de inteligência artificial da China não pode mais continuar "correndo nu"
Autor: Shijie
A partir de 15 de agosto, entraram em vigor as “Medidas Provisórias para a Administração de Serviços Generativos de Inteligência Artificial” (doravante denominadas “Medidas Provisórias”).
Para a indústria de modelos em grande escala, que cresceu de forma imprudente e fez progressos rápidos nos últimos seis meses, pode-se dizer que as "Medidas Provisórias" entraram em vigor no momento certo.
De acordo com o "Relatório de Pesquisa de Mapas de Grandes Modelos de Inteligência Artificial da China", divulgado pelo Instituto de Informações Científicas e Tecnológicas da China, a partir do primeiro semestre de 2023, 79 modelos domésticos de grande escala com parâmetros de 1 bilhão ou mais foram lançados, ocupando o segundo lugar no mundo, perdendo apenas para os Estados Unidos.
No processo de exploração da ecologia industrial de grandes modelos, os dados são dados de produção necessários e também um elo importante que precisa ser padronizado. O advogado Wang Chen disse a "Shijie": "A proteção da privacidade pessoal de nosso país há muito se reflete em leis e regulamentos relevantes, como a "Decisão sobre o fortalecimento da proteção de informações de rede" aprovada em 2012, mas com o desenvolvimento da tecnologia AI, o The a coleta e o uso de informações pessoais também estão sendo constantemente introduzidos, o que requer ajustes e complementações constantes no nível regulatório.”
As "Medidas Provisórias" que acabaram de entrar em vigor são as primeiras políticas regulatórias domésticas e até globais emitidas para a atual indústria explosiva de inteligência artificial generativa (AIGC).
Neste contexto, Liu Qingfeng, presidente da HKUST iFlytek, acredita: "(Com as "Medidas Provisórias" entrando em vigor), 15 de agosto dará início a um nó-chave no desenvolvimento da inteligência artificial geral da China e também será um marco nó.”
** "Miao Duck Camera" não pode tirar os dados do usuário **
Não faz muito tempo, a "Câmera Miaoya", que gera avatares digitais e fotos de IA por 9,9 yuans, tornou-se popular em toda a Internet e milhares de pessoas até fizeram fila para fazer avatares digitais. No entanto, sua política de privacidade afirma que a autorização concedida pelo usuário à Miaoya Camera é "irrevogável" e que o conteúdo do usuário pode ser "usado de qualquer forma e dentro de qualquer escopo" e outros conteúdos inapropriados.
Embora o desenvolvedor da Miaoya Camera posteriormente tenha respondido que o conteúdo do contrato original estava errado e excluído as cláusulas relevantes imediatamente, esse incidente ainda despertou preocupações dos usuários.
Casos de uso da tecnologia AIGC para gerar vídeos faciais e até mesmo simular vozes humanas para novos tipos de fraude também apareceram nos jornais. Segundo dados do Ministério da Segurança Pública, até 10 de agosto, foram detectados 79 casos relacionados a fraudes causadas por "mudança facial por IA" e 515 suspeitos foram presos.
O engenheiro de algoritmo de IA, Wen Mu, disse a "Shijie": "O custo de usar a tecnologia de IA para gerar fotos ou vídeos de rostos falsos é extremamente baixo. Em teoria, os criminosos precisam apenas de um modelo de IA treinado e uma foto da vítima. Isso será feito. "
Xu Liang, responsável por uma empresa de AIGC, acredita que os incidentes acima mencionados de uso indevido da tecnologia AI refletem que toda a cadeia industrial da indústria de modelos em grande escala precisa ser regulada com urgência. apenas na China, mas também no campo global de IA são tópicos que precisam ser focados.”
▲
A “Medidas Provisórias”, que entrou em vigor em 15 de agosto, tem 4 capítulos e 24 artigos, e explicita as questões acima mencionadas.
Por exemplo, as "Medidas Provisórias" estipulam que nas atividades de processamento de dados envolvendo informações pessoais, os provedores de serviços AIGC devem obter consentimento pessoal ou cumprir outras circunstâncias estipuladas por leis e regulamentos administrativos; responsabilidade do autor, obrigações relacionadas ao gerenciamento de conteúdo, etc. De acordo com a análise da King & Wood Mallesons, esta disposição ajudará a evitar que as partes relevantes não cumpram suas obrigações de conformidade ou tentem se esquivar umas das outras.
Xu Liang acredita que os regulamentos relevantes sobre o escopo de aplicação das "Medidas Provisórias" são particularmente dignos de atenção. As disposições específicas incluem: uso da tecnologia AIGC para fornecer ao público doméstico o serviço de geração de texto, imagens, áudio, vídeo e outros conteúdos, essas medidas se aplicam; organizações industriais, empresas, instituições educacionais e de pesquisa científica, instituições culturais públicas, instituições relevantes, etc. pesquisar, desenvolver e aplicar a tecnologia AIGC Caso os serviços AIGC não sejam prestados ao público nacional, não se aplicam as disposições das presentes Medidas.
"No meu entendimento, os produtos AIGC de nível ToC enfrentarão uma supervisão relativamente rígida para o mercado doméstico, mas podem ser considerados para ir para o exterior. No entanto, quando produtos modelo em grande escala treinados na China vão para o exterior, eles também precisam considerar a conformidade questões de dados que vão para o exterior." Xu Liang disse: "No geral, as "Medidas Provisórias" não são rígidas, dando à indústria espaço para livre desenvolvimento."
Vale ressaltar que as "Medidas Provisórias" também estipulam que aqueles que prestam serviços de inteligência artificial generativa com atributos de opinião pública ou capacidade de mobilização social devem realizar avaliações de segurança de acordo com os regulamentos relevantes e passar por processos e outros procedimentos.
Desde o final de julho, a AppStore da Apple tomou a iniciativa de remover um grande número de aplicativos generativos de IA na China. Com a entrada em vigor das "Medidas Provisórias", no futuro, esse software aplicativo será relançado após a conclusão dos procedimentos relevantes.
**Como gerenciar a Caixa de Pandora? **
A indústria geralmente acredita que no caminho para o desenvolvimento padronizado da indústria de modelos em grande escala, além da melhoria contínua de leis e regulamentos, também é necessário que empresas e indústrias construam um sistema de conformidade com inteligência artificial.
O responsável por uma empresa humana digital virtual disse a "Shijie": "A aplicação de novas tecnologias muitas vezes nasce antes das normas. Não podemos esperar passivamente, mas devemos contribuir ativamente para o desenvolvimento útil e benéfico enquanto exploramos e inovamos tecnologias e aplicações." Para orientar na direção do mercado e fornecer serviços necessários ao mercado, à indústria e à sociedade. Ao mesmo tempo, também realizaremos avaliações de risco para identificar e avaliar possíveis efeitos negativos do desenvolvimento tecnológico em tempo hábil maneira, e formular contramedidas correspondentes. Prestar atenção à prevenção de riscos Ao mesmo tempo, a tolerância a erros e os mecanismos de correção de erros também devem ser estabelecidos simultaneamente.”
Quando as "Medidas Provisórias" entraram em vigor, muitas empresas de grande porte também compartilharam suas ideias e progresso na construção de um sistema de conformidade de inteligência artificial.
Em 15 de agosto, Liu Qingfeng, presidente da iFlytek, disse na coletiva de imprensa de seu modelo de grande escala autodesenvolvido "Xunfei Spark Cognitive Model 2.0" que a iFlytek projetou a limpeza de dados de treinamento e gerou correção de conteúdo.
Entre eles, no processo de limpeza de dados, após coletar corpus de treinamento de todo o mundo, a iFLYTEK limpará o texto por meio de discriminadores de idioma, discriminadores de qualidade, discriminadores de privacidade e discriminadores de segurança e, finalmente, obterá corpus de treinamento de alta qualidade. Diante da ilusão de modelos grandes, a ideia da iFLYTEK é combinar os recursos de bases de conhecimento geral, bases de conhecimento da indústria e modelos grandes, usar modelos grandes gerais para aprender bases de conhecimento seguras e profissionais da indústria e, em seguida, extrair conhecimento relevante. Apresentar com precisão aos clientes .
Baidu disse que percebeu a segurança e a capacidade de controle da cadeia de suprimentos na arquitetura de quatro camadas de camada de chip, camada de estrutura, camada de modelo e camada de aplicativo. Sua estrutura de aprendizado profundo autodesenvolvida "Flying Paddle" também possui um gerenciamento de vulnerabilidade completo mecanismo.
De acordo com o "Teste de produto doméstico LLM (modelo de linguagem grande)", o modelo em grande escala da Baidu "Wen Xin Yi Yan" e o modelo em grande escala de Xunfei "Xunfei Xinghuo" têm semelhanças em crenças religiosas, superstição feudal, pan-pornografia, assuntos atuais , proteção de menores e Internet. A objetividade e a imparcialidade das respostas em áreas relacionadas, como lei de segurança, são melhores do que GPT-3.5.
Zhou Hongyi, fundador do Grupo 360, disse em entrevista à mídia que o 360 lançou uma solução de modelo de IA de grande escala em nível empresarial e segue os quatro princípios de "segurança e confiabilidade, bom conteúdo e resultados confiáveis" para criar um modelo de grande escala vertical de nível empresarial Fornecer soluções para 20 indústrias.
De acordo com o "Plano de Trabalho Legislativo do Conselho de Estado para 2023", emitido em 6 de junho, a "Lei de Inteligência Artificial" da China também está em processo legislativo e as normas legais relevantes serão cada vez mais aprimoradas.