Le modèle d'intelligence artificielle de la Chine ne peut plus continuer à « courir nu »

Auteur : Shijie

À partir du 15 août, les "Mesures provisoires pour l'administration des services d'intelligence artificielle générative" (ci-après dénommées les "Mesures provisoires") sont entrées en vigueur.

Pour l'industrie du modélisme à grande échelle qui s'est développée de manière imprudente et a fait des progrès rapides au cours des six derniers mois environ, on peut dire que les "mesures provisoires" sont entrées en vigueur au bon moment.

Selon le « China Artificial Intelligence Large Model Map Research Report » publié par l'Institut d'information scientifique et technologique de Chine, au premier semestre 2023, 79 grands modèles nationaux avec des paramètres de 1 milliard ou plus ont été publiés, se classant au deuxième rang. dans le monde en nombre, juste derrière les États-Unis.

Dans le processus d'exploration de l'écologie industrielle des grands modèles, la donnée est une donnée de production nécessaire, et c'est aussi un maillon important qui doit être standardisé. L'avocat Wang Chen a déclaré à "Shijie" : "La protection de la vie privée de notre pays se reflète depuis longtemps dans les lois et réglementations pertinentes, telles que la "Décision sur le renforcement de la protection des informations sur le réseau" adoptée en 2012, mais avec le développement de la technologie de l'IA, le la collecte et l'utilisation des informations personnelles sont également constamment introduites, ce qui nécessite des ajustements et des compléments constants au niveau réglementaire.

Les "mesures provisoires" qui viennent d'entrer en vigueur sont les premières politiques réglementaires nationales et même mondiales émises pour l'industrie actuelle de l'intelligence artificielle générative explosive (AIGC).

Dans ce contexte, Liu Qingfeng, président de HKUST iFlytek, estime : "(Avec l'entrée en vigueur des" mesures provisoires "), le 15 août inaugurera un nœud clé dans le développement de l'intelligence artificielle générale de la Chine, et ce sera également une étape importante nœud. »

** "Miao Duck Camera" ne peut pas supprimer les données de l'utilisateur **

Il n'y a pas si longtemps, la "Miaoya Camera", qui génère des avatars numériques et des photos AI pour 9,9 yuans, est devenue populaire sur Internet, et des milliers de personnes ont même fait la queue pour créer des avatars numériques. Cependant, sa politique de confidentialité stipule que l'autorisation accordée par l'utilisateur à Miaoya Camera est "irrévocable", et que le contenu de l'utilisateur peut être "utilisé sous n'importe quelle forme et dans n'importe quelle portée" et tout autre contenu inapproprié.

Bien que le développeur de Miaoya Camera ait répondu plus tard que le contenu de l'accord initial était erroné et a immédiatement supprimé les clauses pertinentes, cet incident a tout de même suscité l'inquiétude des utilisateurs.

Des cas d'utilisation de la technologie AIGC pour générer des vidéos de visage et même simuler des voix humaines pour de nouveaux types de fraude sont également apparus dans les journaux. Selon les données du ministère de la Sécurité publique, au 10 août, 79 cas de fraude liés au « changement de visage de l'IA » ont été détectés et 515 suspects ont été arrêtés.

L'ingénieur en algorithme d'IA Wen Mu a déclaré à "Shijie" : "Le coût d'utilisation de la technologie de l'IA pour générer de fausses photos ou vidéos de visage est extrêmement faible. En théorie, les criminels n'ont besoin que d'un modèle d'IA formé et d'une photo de la victime. Ce sera fait. ”

Xu Liang, responsable d'une société AIGC, estime que les incidents d'utilisation abusive de la technologie de l'IA mentionnés ci-dessus reflètent le fait que toute la chaîne industrielle de l'industrie du modèle à grande échelle doit être réglementée de toute urgence. seulement en Chine, mais aussi dans le domaine mondial de l'IA sont des sujets sur lesquels il faut se concentrer.

Les "Mesures provisoires", entrées en vigueur le 15 août, comportent 4 chapitres et 24 articles, et énoncent clairement les sujets de préoccupation susmentionnés.

Par exemple, les "Mesures provisoires" stipulent que dans les activités de traitement de données impliquant des informations personnelles, les fournisseurs de services AIGC doivent obtenir le consentement personnel ou se conformer à d'autres circonstances prévues par les lois et règlements administratifs ; responsabilité de l'auteur, obligations liées à la gestion du contenu, etc. Selon l'analyse de King & Wood Mallesons, cette disposition contribuera à empêcher les parties concernées de ne pas remplir leurs obligations de conformité ou d'essayer de se dérober.

Xu Liang estime que les réglementations pertinentes sur le champ d'application des "mesures provisoires" méritent particulièrement l'attention. Les dispositions spécifiques comprennent : l'utilisation de la technologie AIGC pour fournir au public national le service de génération de texte, d'images, d'audio, de vidéo et d'autres contenus, ces mesures s'appliquent ; les organisations industrielles, les entreprises, les établissements d'enseignement et de recherche scientifique, les institutions culturelles publiques, les institutions concernées, etc. rechercher, développer et appliquer la technologie AIGC Si les services AIGC ne sont pas fournis au public national, les dispositions des présentes mesures ne s'appliqueront pas.

"D'après ce que j'ai compris, les produits AIGC de niveau ToC seront soumis à une supervision relativement stricte pour le marché intérieur, mais ils peuvent être considérés comme allant à l'étranger. Cependant, lorsque les produits modèles à grande échelle formés en Chine vont à l'étranger, ils doivent également tenir compte de la problèmes de conformité des données partant à l'étranger. » Xu Liang a déclaré : « Dans l'ensemble, les « mesures provisoires » ne sont pas strictes, laissant à l'industrie la possibilité de se développer librement.

Il convient de souligner que les « mesures provisoires » stipulent également que ceux qui fournissent des services d'intelligence artificielle générative avec des attributs d'opinion publique ou des capacités de mobilisation sociale doivent effectuer des évaluations de sécurité conformément aux réglementations pertinentes et suivre des procédures de classement et autres.

Depuis fin juillet, l'AppStore d'Apple a pris l'initiative de supprimer un grand nombre d'applications d'IA génératives en Chine. Avec l'entrée en vigueur des "mesures provisoires", à l'avenir, ce logiciel d'application sera relancé après l'achèvement des procédures pertinentes.

**Comment gérer la boîte de Pandore ? **

L'industrie estime généralement que sur la voie du développement standardisé de l'industrie des modèles à grande échelle, outre l'amélioration continue des lois et réglementations, il est également nécessaire pour les entreprises et les industries de mettre en place un système de conformité à l'intelligence artificielle.

Le responsable d'une entreprise humaine numérique virtuelle a déclaré à "Shijie" : "L'application des nouvelles technologies est souvent née avant les normes. Nous ne pouvons pas attendre passivement, mais nous devons contribuer activement à un développement utile et bénéfique tout en explorant et en innovant les technologies et applications." Pour guider dans la direction du marché et fournir les services dont le marché, l'industrie et la société ont besoin. Dans le même temps, nous procéderons également à des évaluations des risques pour identifier et évaluer les effets négatifs possibles du développement technologique en temps opportun. et de formuler les contre-mesures correspondantes Prêter attention à la prévention des risques Dans le même temps, des mécanismes de tolérance aux erreurs et de correction des erreurs devraient également être établis simultanément.

Lorsque les "mesures provisoires" sont entrées en vigueur, de nombreuses grandes entreprises ont également partagé leurs idées et leurs progrès dans la construction d'un système de conformité à l'intelligence artificielle.

Le 15 août, Liu Qingfeng, président d'iFLYTEK, a déclaré lors de la conférence de presse de son grand modèle auto-développé "Xunfei Xinghuo Cognitive Model 2.0" qu'iFLYTEK avait conçu le nettoyage des données de formation et généré la correction du contenu.

Parmi eux, dans le processus de nettoyage des données, après avoir collecté des corpus de formation du monde entier, iFLYTEK nettoiera le texte à l'aide de discriminateurs de langue, de discriminateurs de qualité, de discriminateurs de confidentialité et de discriminateurs de sécurité, et obtiendra enfin un corpus de formation de haute qualité. Face à l'illusion de grands modèles, l'idée d'iFLYTEK est de combiner les capacités des bases de connaissances générales, des bases de connaissances de l'industrie et des grands modèles, d'utiliser de grands modèles généraux pour apprendre des bases de connaissances de l'industrie sûres et professionnelles, puis d'extraire les connaissances pertinentes. .

Baidu a déclaré avoir réalisé la sécurité et la contrôlabilité de la chaîne d'approvisionnement dans l'architecture à quatre couches de la couche de puce, de la couche de cadre, de la couche de modèle et de la couche d'application.Son cadre d'apprentissage en profondeur auto-développé "Flying Paddle" dispose également d'une gestion complète des vulnérabilités mécanisme.

Selon "Domestic LLM (Large Language Model) Product Test", le modèle à grande échelle de Baidu "Wen Xin Yi Yan" et le modèle à grande échelle de Xunfei "Xunfei Xinghuo" ont des similitudes dans la croyance religieuse, la superstition féodale, la pan-pornographie, les affaires courantes , la protection des mineurs et Internet. L'objectivité et l'équité des réponses dans des domaines connexes tels que le droit de la sécurité sont meilleures que GPT-3.5.

Zhou Hongyi, le fondateur du groupe 360, a déclaré dans une interview aux médias que 360 a lancé une solution de modèle d'IA à grande échelle au niveau de l'entreprise et suit les quatre principes de "sécurité et fiabilité, bon contenu et résultats crédibles" pour créer un modèle vertical à grande échelle au niveau de l'entreprise Fournir des solutions pour 20 industries.

Selon le "Plan de travail législatif 2023 du Conseil des Affaires d'Etat" publié le 6 juin, la "Loi sur l'intelligence artificielle" de la Chine est également en cours de processus législatif, et les normes juridiques pertinentes seront de plus en plus améliorées.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)