Source de l'image : générée par l'outil Unbounded AI
Introduction
Dès l’époque où ChatGPT était populaire, on disait que l’IA remplacerait tôt ou tard le travail humain. Tout d’un coup, des gens de divers secteurs parlent de l’IA, craignant que son développement rapide ne remplace directement leurs emplois et ne les laisse nulle part où aller. Les avocats sont également inclus. En fait, le travail d'un avocat implique également de nombreuses questions administratives. Même dans le domaine professionnel, il existe de nombreuses tâches répétitives, ennuyeuses et peu difficiles. Par conséquent, de nombreux acteurs du secteur se sont demandé s'il y aurait un jour. , celui qui servait tout le monde est devenu avocat en IA. Dans le cadre du traitement à haute efficacité de l'IA, nous avons dû être licenciés à l'avance.
Il est en effet difficile de répondre à cette question, et la grande évolutivité de la technologie de l'IA est impressionnante. Mais maintenant, l'équipe de Sister Sa peut toujours donner une réponse claire : non. À ce sujet, cette année encore, des collègues du cabinet d'avocats Levidow, Levidow & Oberman aux États-Unis ont donné à chacun la réponse basée sur leur expérience personnelle : **Au moins aujourd'hui, l'IA est loin de pouvoir remplacer le travail des avocats. Utiliser l'IA Au contraire, cela peut causer beaucoup de problèmes aux amis avocats. **
Un "fait intéressant" : l'utilisation de ChatGPT pour rédiger des documents a été sanctionnée par une amende
La cause de l'affaire remonte au mois de mars de cette année. Roberto Mata a déposé une plainte devant le tribunal pour un différend avec une compagnie aérienne en 2019. La compagnie aérienne a estimé que l'affaire avait dépassé le délai de prescription et a suggéré au juge de retirer l'affaire. . À cet égard, les avocats Peter LoDuca et Steven Schwartz du cabinet d'avocats Levidow, Levidow & Oberman engagés par Roberto Mata ont estimé que l'affaire n'avait pas dépassé le délai de prescription et devait être jugée, ils ont donc soumis un avis au tribunal. Et c'est ce document qui leur a causé de grands ennuis.
Comme nous le savons tous, les États-Unis, en tant que pays de jurisprudence, attachent une grande importance à la référence aux précédents. Peter LoDuca et Steven Schwartz ont cité un grand nombre de cas pour tenter de prouver leur point de vue. À l'origine, le dossier était bien traité et l'avis était bien écrit, mais j'ai rencontré un juge compétent, sérieux et responsable, Kevin Castel. Après avoir lu l'avis juridique, le juge Kevin Castel s'est senti très confus et après une recherche minutieuse, il a finalement confirmé que certains des cas cités n'existaient pas réellement. Face à cette situation, l'avocat Steven Schwartz a fait valoir qu'il n'avait utilisé l'IA que pour aider à la rédaction de documents. Ils ont fait confiance à l'IA, ils n'ont donc pas confirmé davantage l'authenticité de l'affaire. Au lieu de cela, ils ont estimé que c'était uniquement parce que l'IA avait trouvé des cas qu'ils ne savait pas. Ils ont déclaré qu’ils n’avaient pas délibérément fabriqué cette affaire pour tromper le tribunal.
Malgré tout, **Le 22 juin, le tribunal a quand même rendu un jugement, estimant que Peter LoDuca, Steven Schwartz et leur cabinet d'avocats avaient fourni de fausses informations au tribunal pour mauvais comportement et ont imposé une amende de 5 000 $. **Depuis lors, le cabinet d'avocats a par la suite publié une déclaration disant : « Nous avons commis une erreur de bonne foi et n'avons pas anticipé que ChatGPT pourrait fabriquer des précédents. »
Responsabilité de l'avocat en cas de fausses déclarations——traitement dans mon pays
"L'IA dira des bêtises de manière sérieuse", c'est un point de vue avancé très tôt par l'équipe de Sister Sa. L'essentiel est qu'à ce stade, l'IA n'a pas la capacité de juger de la valeur et de distinguer entre vrai et faux. Quels matériaux "alimente-t-il" ? S'il y a de fausses informations dans ces matériaux, les résultats de la sortie de l'IA auront de fausses informations. Si ces matériaux ont des tendances de valeur, alors les résultats de la sortie de l'IA auront des tendances de valeur. **La conséquence de ceci est que pour certaines questions qui nécessitent des analyses vraies et fausses et des jugements de valeur, l'IA ne peut pas améliorer notre efficacité, mais nous obligera à passer plus de temps à identifier "si l'IA est fausse ou non". **C'est pourquoi ChatGPT a écrit par erreur plusieurs cas inexistants dans les cas susmentionnés et a insisté sur le fait que les cas existaient.
Les cas mentionnés ci-dessus se sont produits à l’étranger, il semble donc que nous en soyons encore relativement loin. La question est donc de savoir si, en Chine, un avocat utilise l’IA pour rédiger un avis juridique et le soumettre au tribunal, à quel type de responsabilité sera-t-il confronté ? **
Selon l'article 3 de la « Loi sur les avocats », « les avocats doivent respecter la Constitution et la loi, ainsi que l'éthique professionnelle et la discipline de pratique des avocats. La pratique des avocats doit être fondée sur les faits et la loi comme critère ». principe important de la pratique juridique. **Sur cette base, les règles de pratique des avocats, basées sur la « Loi sur les avocats » comme base, imposent des restrictions strictes aux actes des avocats consistant à fournir de fausses informations, à faire de fausses déclarations ou à fournir de faux éléments de preuve.
Selon les dispositions de l'article 40 de la « Loi sur les avocats », « les avocats ne doivent pas accomplir les actes suivants dans le cadre de leurs activités : (1) accepter des mandats en privé, percevoir des honoraires, accepter les biens des clients ou d'autres avantages ; (3) accepter biens ou autres intérêts de l'autre partie, collusion malveillante avec l'autre partie ou un tiers et portant atteinte aux droits et intérêts du client ; (4) rencontrer des juges, des procureurs, des arbitres et d'autres parties en violation des réglementations Personnel concerné ; (5) Corrompre des juges, des procureurs, des arbitres et d'autres membres du personnel concernés, introduire des pots-de-vin ou inciter ou inciter des parties à corrompre, ou influencer les juges, les procureurs, les arbitres et d'autres membres du personnel concernés par d'autres manières inappropriées. Traiter les affaires conformément à la loi ; ** (6) fournir délibérément de fausses preuves ou menacer ou inciter d'autres personnes à fournir de fausses preuves pour empêcher l'autre partie d'obtenir légalement des preuves ;** (7) inciter et encourager les parties à prendre des moyens illégaux tels que perturber l'ordre public et mettre en danger la sécurité publique (8) perturber l'ordre des tribunaux et des tribunaux d'arbitrage, et interférer avec la conduite normale des activités contentieuses et arbitrales. » Dans le même temps, selon l'article 49, si le comportement mentionné ci-dessus se produit, « le gouvernement populaire de district d'une ville divisée en districts ou une municipalité relevant directement du gouvernement central Le département administratif judiciaire imposera une pénalité de cessation d'exercice pour au moins six mois mais pas plus d'un an, et peut imposer une amende d'au plus 50 000 yuans ; en cas d'infraction illégale revenus, les revenus illégaux seront confisqués ; si les circonstances sont graves, le département administratif judiciaire du gouvernement populaire de la province, de la région autonome ou de la municipalité relevant directement du gouvernement central révoquera le certificat d'exercice de son avocat ; si un crime est constitué , sa responsabilité pénale fera l'objet d'une enquête conformément à la loi." Par ailleurs, l'article 22 du Code de déontologie et de discipline de l'exercice des avocats stipule que « les avocats doivent obtenir des preuves conformément à la loi, ne pas falsifier de preuves, ne doivent pas encourager leurs clients à falsifier des preuves, fournir de faux témoignages. **, ne doit pas impliquer d'inciter ou de menacer autrui à fournir de fausses preuves.
Par conséquent, la clé du comportement susmentionné est de savoir s'il peut être identifié comme « fournir délibérément de fausses preuves », en d'autres termes, si l'avocat qui a fourni les éléments ou les informations savait ou aurait dû savoir que les éléments de preuve étaient faux. preuve. Étant donné que l'avocat savait manifestement que les documents avaient été réalisés à l'aide de l'IA lors de la soumission de la déclaration, il avait lui-même l'obligation de vérifier si les preuves étaient véridiques dans une certaine mesure. Le juge ou le service compétent détermine que l'avocat lui-même a une connaissance subjective et considère donc l'acte comme un acte de "fourniture intentionnelle de fausses preuves", de falsification de preuves et d'obstruction au témoignage".
**En résumé, pour les avocats, l'utilisation de l'IA pour la rédaction de documents n'est peut-être pas une solution permettant de « gagner du temps et de la main d'œuvre ». **
Pas seulement des avocats - Les dangers de fournir de faux documents, informations
**En fait, non seulement les avocats, mais aussi les gens ordinaires, qui utilisent l'IA pour créer de faux documents à certaines occasions assumeront également certaines responsabilités, et les cas graves comporteront également un risque de responsabilité pénale. **
Par exemple, si l’acteur est paresseux dans la demande et l’enregistrement d’un médicament et utilise l’IA pour produire les certificats, les données, le matériel, etc. requis, mais qu’en fin de compte le certificat, les données et le matériel sont faux, alors si les autres exigences sont rencontré, l'acteur Cela peut constituer le « délit d'entrave à l'administration de médicaments » au sens de l'article 142 du « Code pénal ». Un autre exemple est que, pour gagner du temps, l'auteur utilise l'IA pour produire des documents d'émission tels que des prospectus, des formulaires de souscription, des méthodes d'offre d'obligations d'entreprises et d'entreprises, et que certaines fausses informations y sont contenues, ce qui peut également constituer le « délit de fraude ». l'émission de titres » à l'article 160. . Un autre exemple est que l'acteur utilise l'IA pour collecter et diffuser des informations, et que ces informations sont de fausses informations affectant le commerce des valeurs mobilières et des contrats à terme, ou de faux dangers, épidémies, catastrophes et situations policières, alors le comportement de l'acteur peut constituer une violation de l'article 180. Le délit de « fabrication et diffusion de fausses informations sur les opérations sur valeurs mobilières et à terme » au premier alinéa de l'article 11 ou le délit de « fabrication et diffusion intentionnelle de fausses informations » au deuxième alinéa de l'article 291-1.
En outre, pour certains sujets spécifiques, tels que le personnel des organisations intermédiaires effectuant l'évaluation des actifs, la vérification du capital, la vérification, la comptabilité, l'audit, les services juridiques, le parrainage, l'évaluation de la sécurité, l'évaluation de l'impact environnemental, la surveillance environnementale, etc., s'ils utilisent l'IA pour écrire Si le document obtenu est considéré comme un faux document de certification, il peut alors être soupçonné de « délit de fourniture de faux documents de certification ».** Il convient de noter que même s'il ne peut pas prouver son intention subjective, s'il est considéré comme être gravement irresponsable, s'il y a une négligence grave, alors elle peut quand même constituer le « délit d'inexactitude majeure dans la délivrance des documents de certification », et alors être sanctionnée. **
On peut voir que l'utilisation de l'IA pour la rédaction de documents n'est pas seulement mauvaise pour les avocats, mais aussi pour les gens ordinaires.
Comment protéger vos droits
Par conséquent, un nouveau problème se pose, si l'utilisateur du service d'IA rencontre le non-sens de l'IA générative, mais ne parvient pas à l'identifier et provoque ainsi des pertes, peut-il récupérer auprès du fournisseur de services d'IA ?
Selon le premier paragraphe de l'article 7 de la « Loi sur la protection des droits des consommateurs », « les consommateurs ont le droit de porter atteinte à la sécurité de leurs personnes et de leurs biens lorsqu'ils achètent, utilisent des biens et reçoivent des services. » Dans le même temps, les fournisseurs de services d'IA sont souvent E- les opérateurs de commerce donc, selon les dispositions de l'article 74 de la « Loi sur le commerce électronique », « Un opérateur de commerce électronique qui vend des biens ou fournit des services, manque à ses obligations contractuelles ou exécute des obligations contractuelles non conformes à l'accord, ou cause un dommage à autrui, sera responsable des dommages conformément à la loi. Responsabilité civile." Autrement dit, les utilisateurs peuvent demander réparation aux prestataires de services d'IA conformément aux dispositions de ces deux lois.
Il convient toutefois de noter que les fournisseurs de services d'IA ne sont pas tous des "imbéciles". Il leur est tout à fait possible de stipuler de telles situations dans le contrat d'utilisation ou dans les textes associés. Par exemple, l'authenticité du contenu généré n'est pas garantie. En partant du principe que l'authenticité du contenu ne peut être garantie, ce type d'accord est tout à fait raisonnable. En d'autres termes, le commerçant a déjà averti l'utilisateur du risque avant de fournir le service, et le comportement d'utilisation de l'utilisateur relève de la « responsabilité » de dans une certaine mesure.
Néanmoins, il devrait être clair que de tels accords sont en fait des conditions générales. Selon les dispositions du Code civil et de la loi relative à la protection des droits et des intérêts des consommateurs, les prestataires de services doivent "attirer l'attention des consommateurs sur la quantité et la qualité, le prix ou frais, période et méthode d'exécution, précautions de sécurité et avertissements de risque, service après-vente, responsabilité civile et autres contenus présentant un intérêt majeur pour le consommateur, et l'expliquer conformément aux exigences du consommateur", sinon l'utilisateur a le droit à On fait valoir que cette clause ne fait pas partie du contrat.
Écrivez à la fin
Derrière la prédominance de la technologie de l’IA se cachent des risques juridiques invisibles. Ces risques juridiques ont été élargis en raison de l'absence de réglementations spécifiques et ciblées. Vous devez être prudent dans la fourniture et l'utilisation des services. Les lecteurs et amis doivent garder à l'esprit la conformité et être prudents quant à la sortie de l'IA.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Le boom de l'IA est arrivé, et les avocats ont aussi du mal ?
Introduction
Dès l’époque où ChatGPT était populaire, on disait que l’IA remplacerait tôt ou tard le travail humain. Tout d’un coup, des gens de divers secteurs parlent de l’IA, craignant que son développement rapide ne remplace directement leurs emplois et ne les laisse nulle part où aller. Les avocats sont également inclus. En fait, le travail d'un avocat implique également de nombreuses questions administratives. Même dans le domaine professionnel, il existe de nombreuses tâches répétitives, ennuyeuses et peu difficiles. Par conséquent, de nombreux acteurs du secteur se sont demandé s'il y aurait un jour. , celui qui servait tout le monde est devenu avocat en IA. Dans le cadre du traitement à haute efficacité de l'IA, nous avons dû être licenciés à l'avance.
Il est en effet difficile de répondre à cette question, et la grande évolutivité de la technologie de l'IA est impressionnante. Mais maintenant, l'équipe de Sister Sa peut toujours donner une réponse claire : non. À ce sujet, cette année encore, des collègues du cabinet d'avocats Levidow, Levidow & Oberman aux États-Unis ont donné à chacun la réponse basée sur leur expérience personnelle : **Au moins aujourd'hui, l'IA est loin de pouvoir remplacer le travail des avocats. Utiliser l'IA Au contraire, cela peut causer beaucoup de problèmes aux amis avocats. **
Un "fait intéressant" : l'utilisation de ChatGPT pour rédiger des documents a été sanctionnée par une amende
La cause de l'affaire remonte au mois de mars de cette année. Roberto Mata a déposé une plainte devant le tribunal pour un différend avec une compagnie aérienne en 2019. La compagnie aérienne a estimé que l'affaire avait dépassé le délai de prescription et a suggéré au juge de retirer l'affaire. . À cet égard, les avocats Peter LoDuca et Steven Schwartz du cabinet d'avocats Levidow, Levidow & Oberman engagés par Roberto Mata ont estimé que l'affaire n'avait pas dépassé le délai de prescription et devait être jugée, ils ont donc soumis un avis au tribunal. Et c'est ce document qui leur a causé de grands ennuis.
Comme nous le savons tous, les États-Unis, en tant que pays de jurisprudence, attachent une grande importance à la référence aux précédents. Peter LoDuca et Steven Schwartz ont cité un grand nombre de cas pour tenter de prouver leur point de vue. À l'origine, le dossier était bien traité et l'avis était bien écrit, mais j'ai rencontré un juge compétent, sérieux et responsable, Kevin Castel. Après avoir lu l'avis juridique, le juge Kevin Castel s'est senti très confus et après une recherche minutieuse, il a finalement confirmé que certains des cas cités n'existaient pas réellement. Face à cette situation, l'avocat Steven Schwartz a fait valoir qu'il n'avait utilisé l'IA que pour aider à la rédaction de documents. Ils ont fait confiance à l'IA, ils n'ont donc pas confirmé davantage l'authenticité de l'affaire. Au lieu de cela, ils ont estimé que c'était uniquement parce que l'IA avait trouvé des cas qu'ils ne savait pas. Ils ont déclaré qu’ils n’avaient pas délibérément fabriqué cette affaire pour tromper le tribunal.
Malgré tout, **Le 22 juin, le tribunal a quand même rendu un jugement, estimant que Peter LoDuca, Steven Schwartz et leur cabinet d'avocats avaient fourni de fausses informations au tribunal pour mauvais comportement et ont imposé une amende de 5 000 $. **Depuis lors, le cabinet d'avocats a par la suite publié une déclaration disant : « Nous avons commis une erreur de bonne foi et n'avons pas anticipé que ChatGPT pourrait fabriquer des précédents. »
Responsabilité de l'avocat en cas de fausses déclarations——traitement dans mon pays
"L'IA dira des bêtises de manière sérieuse", c'est un point de vue avancé très tôt par l'équipe de Sister Sa. L'essentiel est qu'à ce stade, l'IA n'a pas la capacité de juger de la valeur et de distinguer entre vrai et faux. Quels matériaux "alimente-t-il" ? S'il y a de fausses informations dans ces matériaux, les résultats de la sortie de l'IA auront de fausses informations. Si ces matériaux ont des tendances de valeur, alors les résultats de la sortie de l'IA auront des tendances de valeur. **La conséquence de ceci est que pour certaines questions qui nécessitent des analyses vraies et fausses et des jugements de valeur, l'IA ne peut pas améliorer notre efficacité, mais nous obligera à passer plus de temps à identifier "si l'IA est fausse ou non". **C'est pourquoi ChatGPT a écrit par erreur plusieurs cas inexistants dans les cas susmentionnés et a insisté sur le fait que les cas existaient.
Les cas mentionnés ci-dessus se sont produits à l’étranger, il semble donc que nous en soyons encore relativement loin. La question est donc de savoir si, en Chine, un avocat utilise l’IA pour rédiger un avis juridique et le soumettre au tribunal, à quel type de responsabilité sera-t-il confronté ? **
Selon l'article 3 de la « Loi sur les avocats », « les avocats doivent respecter la Constitution et la loi, ainsi que l'éthique professionnelle et la discipline de pratique des avocats. La pratique des avocats doit être fondée sur les faits et la loi comme critère ». principe important de la pratique juridique. **Sur cette base, les règles de pratique des avocats, basées sur la « Loi sur les avocats » comme base, imposent des restrictions strictes aux actes des avocats consistant à fournir de fausses informations, à faire de fausses déclarations ou à fournir de faux éléments de preuve.
Selon les dispositions de l'article 40 de la « Loi sur les avocats », « les avocats ne doivent pas accomplir les actes suivants dans le cadre de leurs activités : (1) accepter des mandats en privé, percevoir des honoraires, accepter les biens des clients ou d'autres avantages ; (3) accepter biens ou autres intérêts de l'autre partie, collusion malveillante avec l'autre partie ou un tiers et portant atteinte aux droits et intérêts du client ; (4) rencontrer des juges, des procureurs, des arbitres et d'autres parties en violation des réglementations Personnel concerné ; (5) Corrompre des juges, des procureurs, des arbitres et d'autres membres du personnel concernés, introduire des pots-de-vin ou inciter ou inciter des parties à corrompre, ou influencer les juges, les procureurs, les arbitres et d'autres membres du personnel concernés par d'autres manières inappropriées. Traiter les affaires conformément à la loi ; ** (6) fournir délibérément de fausses preuves ou menacer ou inciter d'autres personnes à fournir de fausses preuves pour empêcher l'autre partie d'obtenir légalement des preuves ;** (7) inciter et encourager les parties à prendre des moyens illégaux tels que perturber l'ordre public et mettre en danger la sécurité publique (8) perturber l'ordre des tribunaux et des tribunaux d'arbitrage, et interférer avec la conduite normale des activités contentieuses et arbitrales. » Dans le même temps, selon l'article 49, si le comportement mentionné ci-dessus se produit, « le gouvernement populaire de district d'une ville divisée en districts ou une municipalité relevant directement du gouvernement central Le département administratif judiciaire imposera une pénalité de cessation d'exercice pour au moins six mois mais pas plus d'un an, et peut imposer une amende d'au plus 50 000 yuans ; en cas d'infraction illégale revenus, les revenus illégaux seront confisqués ; si les circonstances sont graves, le département administratif judiciaire du gouvernement populaire de la province, de la région autonome ou de la municipalité relevant directement du gouvernement central révoquera le certificat d'exercice de son avocat ; si un crime est constitué , sa responsabilité pénale fera l'objet d'une enquête conformément à la loi." Par ailleurs, l'article 22 du Code de déontologie et de discipline de l'exercice des avocats stipule que « les avocats doivent obtenir des preuves conformément à la loi, ne pas falsifier de preuves, ne doivent pas encourager leurs clients à falsifier des preuves, fournir de faux témoignages. **, ne doit pas impliquer d'inciter ou de menacer autrui à fournir de fausses preuves.
Par conséquent, la clé du comportement susmentionné est de savoir s'il peut être identifié comme « fournir délibérément de fausses preuves », en d'autres termes, si l'avocat qui a fourni les éléments ou les informations savait ou aurait dû savoir que les éléments de preuve étaient faux. preuve. Étant donné que l'avocat savait manifestement que les documents avaient été réalisés à l'aide de l'IA lors de la soumission de la déclaration, il avait lui-même l'obligation de vérifier si les preuves étaient véridiques dans une certaine mesure. Le juge ou le service compétent détermine que l'avocat lui-même a une connaissance subjective et considère donc l'acte comme un acte de "fourniture intentionnelle de fausses preuves", de falsification de preuves et d'obstruction au témoignage".
**En résumé, pour les avocats, l'utilisation de l'IA pour la rédaction de documents n'est peut-être pas une solution permettant de « gagner du temps et de la main d'œuvre ». **
Pas seulement des avocats - Les dangers de fournir de faux documents, informations
**En fait, non seulement les avocats, mais aussi les gens ordinaires, qui utilisent l'IA pour créer de faux documents à certaines occasions assumeront également certaines responsabilités, et les cas graves comporteront également un risque de responsabilité pénale. **
Par exemple, si l’acteur est paresseux dans la demande et l’enregistrement d’un médicament et utilise l’IA pour produire les certificats, les données, le matériel, etc. requis, mais qu’en fin de compte le certificat, les données et le matériel sont faux, alors si les autres exigences sont rencontré, l'acteur Cela peut constituer le « délit d'entrave à l'administration de médicaments » au sens de l'article 142 du « Code pénal ». Un autre exemple est que, pour gagner du temps, l'auteur utilise l'IA pour produire des documents d'émission tels que des prospectus, des formulaires de souscription, des méthodes d'offre d'obligations d'entreprises et d'entreprises, et que certaines fausses informations y sont contenues, ce qui peut également constituer le « délit de fraude ». l'émission de titres » à l'article 160. . Un autre exemple est que l'acteur utilise l'IA pour collecter et diffuser des informations, et que ces informations sont de fausses informations affectant le commerce des valeurs mobilières et des contrats à terme, ou de faux dangers, épidémies, catastrophes et situations policières, alors le comportement de l'acteur peut constituer une violation de l'article 180. Le délit de « fabrication et diffusion de fausses informations sur les opérations sur valeurs mobilières et à terme » au premier alinéa de l'article 11 ou le délit de « fabrication et diffusion intentionnelle de fausses informations » au deuxième alinéa de l'article 291-1.
En outre, pour certains sujets spécifiques, tels que le personnel des organisations intermédiaires effectuant l'évaluation des actifs, la vérification du capital, la vérification, la comptabilité, l'audit, les services juridiques, le parrainage, l'évaluation de la sécurité, l'évaluation de l'impact environnemental, la surveillance environnementale, etc., s'ils utilisent l'IA pour écrire Si le document obtenu est considéré comme un faux document de certification, il peut alors être soupçonné de « délit de fourniture de faux documents de certification ».** Il convient de noter que même s'il ne peut pas prouver son intention subjective, s'il est considéré comme être gravement irresponsable, s'il y a une négligence grave, alors elle peut quand même constituer le « délit d'inexactitude majeure dans la délivrance des documents de certification », et alors être sanctionnée. **
On peut voir que l'utilisation de l'IA pour la rédaction de documents n'est pas seulement mauvaise pour les avocats, mais aussi pour les gens ordinaires.
Comment protéger vos droits
Par conséquent, un nouveau problème se pose, si l'utilisateur du service d'IA rencontre le non-sens de l'IA générative, mais ne parvient pas à l'identifier et provoque ainsi des pertes, peut-il récupérer auprès du fournisseur de services d'IA ?
Selon le premier paragraphe de l'article 7 de la « Loi sur la protection des droits des consommateurs », « les consommateurs ont le droit de porter atteinte à la sécurité de leurs personnes et de leurs biens lorsqu'ils achètent, utilisent des biens et reçoivent des services. » Dans le même temps, les fournisseurs de services d'IA sont souvent E- les opérateurs de commerce donc, selon les dispositions de l'article 74 de la « Loi sur le commerce électronique », « Un opérateur de commerce électronique qui vend des biens ou fournit des services, manque à ses obligations contractuelles ou exécute des obligations contractuelles non conformes à l'accord, ou cause un dommage à autrui, sera responsable des dommages conformément à la loi. Responsabilité civile." Autrement dit, les utilisateurs peuvent demander réparation aux prestataires de services d'IA conformément aux dispositions de ces deux lois.
Il convient toutefois de noter que les fournisseurs de services d'IA ne sont pas tous des "imbéciles". Il leur est tout à fait possible de stipuler de telles situations dans le contrat d'utilisation ou dans les textes associés. Par exemple, l'authenticité du contenu généré n'est pas garantie. En partant du principe que l'authenticité du contenu ne peut être garantie, ce type d'accord est tout à fait raisonnable. En d'autres termes, le commerçant a déjà averti l'utilisateur du risque avant de fournir le service, et le comportement d'utilisation de l'utilisateur relève de la « responsabilité » de dans une certaine mesure.
Néanmoins, il devrait être clair que de tels accords sont en fait des conditions générales. Selon les dispositions du Code civil et de la loi relative à la protection des droits et des intérêts des consommateurs, les prestataires de services doivent "attirer l'attention des consommateurs sur la quantité et la qualité, le prix ou frais, période et méthode d'exécution, précautions de sécurité et avertissements de risque, service après-vente, responsabilité civile et autres contenus présentant un intérêt majeur pour le consommateur, et l'expliquer conformément aux exigences du consommateur", sinon l'utilisateur a le droit à On fait valoir que cette clause ne fait pas partie du contrat.
Écrivez à la fin
Derrière la prédominance de la technologie de l’IA se cachent des risques juridiques invisibles. Ces risques juridiques ont été élargis en raison de l'absence de réglementations spécifiques et ciblées. Vous devez être prudent dans la fourniture et l'utilisation des services. Les lecteurs et amis doivent garder à l'esprit la conformité et être prudents quant à la sortie de l'IA.