Fonte da imagem: gerada pela ferramenta Unbounded AI
Introdução
Já na época em que o ChatGPT era popular, falava-se que a IA substituiria o trabalho humano, mais cedo ou mais tarde. De repente, pessoas em vários sectores estão a falar sobre IA, temendo que o seu rápido desenvolvimento substitua directamente os seus empregos e não os deixe para onde ir. Advogados também estão incluídos. Na verdade, o trabalho do advogado também envolve muitas questões administrativas. Mesmo no campo profissional, existem muitas tarefas repetitivas, chatas e de baixa dificuldade. Por isso, muitas pessoas do setor especulam se haverá um dia Um dia , aquele que atendia a todos tornou-se um advogado de IA. Sob o processamento de alta eficiência da IA, tivemos que ser demitidos antecipadamente.
Essa pergunta é realmente difícil de responder, e a alta escalabilidade da tecnologia de IA é impressionante. Mas agora, a equipe da irmã Sa ainda pode dar uma resposta clara: não. Sobre este assunto, ainda este ano, colegas do escritório de advocacia Levidow, Levidow & Oberman, nos Estados Unidos, deram a todos a resposta com base na sua experiência pessoal: **Pelo menos hoje, a IA está longe de ser capaz de substituir o trabalho dos advogados. Usando AI Pelo contrário, pode trazer muitos problemas para amigos advogados. **
Um "fato interessante" - o uso do ChatGPT para redigir documentos foi multado
A causa do problema remonta a março deste ano, quando Roberto Mata entrou com uma ação na Justiça por disputa com uma companhia aérea em 2019. A companhia aérea acreditava que o caso havia passado do prazo de prescrição e sugeriu que o juiz retirasse o processo. . A este respeito, os advogados Peter LoDuca e Steven Schwartz, do escritório Levidow, Levidow & Oberman contratado por Roberto Mata, consideraram que o caso não ultrapassava o prazo de prescrição e deveria ser julgado, pelo que submeteram um parecer ao tribunal. E foi este documento que lhes causou grandes problemas.
Como todos sabemos, os Estados Unidos, como país jurisprudencial, dão grande importância à referência de precedentes, Peter LoDuca e Steven Schwartz citaram um grande número de casos na tentativa de provar seu ponto de vista. Originalmente, o assunto foi bem tratado e o parecer foi bem escrito, mas conheci um juiz experiente, sério e responsável, Kevin Castel. Após a leitura do parecer jurídico, o juiz Kevin Castel sentiu-se muito confuso e, após cuidadosa pesquisa, finalmente confirmou que alguns dos casos citados não existiam de fato. Diante dessa situação, o advogado Steven Schwartz argumentou que só usou IA para auxiliar na redação de documentos. Eles confiaram na IA, então não confirmaram mais a autenticidade do caso. não sabia. Eles disseram que não fabricaram deliberadamente o caso para enganar o tribunal.
Mesmo assim, **Em 22 de junho, o tribunal emitiu uma sentença, concluindo que Peter LoDuca, Steven Schwartz e seu escritório de advocacia forneceram informações falsas ao tribunal por mau comportamento e impuseram uma multa de $ 5.000. **Desde então, o escritório de advocacia posteriormente emitiu uma declaração, dizendo: "Cometemos um erro de boa fé e falhamos em prever que o ChatGPT poderia criar precedentes."
Responsabilidade do Advogado por Declarações Falsas——Tratamento do meu país
"IA vai falar bobagem de maneira séria", este é um ponto de vista apresentado pela equipe da irmã Sa muito cedo. O núcleo é que, nesta fase, a IA não tem a capacidade de julgar valor e distinguir entre verdadeiro e falso. Quais materiais ele "alimenta"? Se houver informações falsas nesses materiais, os resultados da saída de IA terão informações falsas. Se esses materiais tiverem tendências de valor, os resultados da saída de IA terão tendências de valor. **A consequência disso é que, para alguns problemas que exigem análise de verdadeiro e falso e julgamentos de valor, a IA não pode melhorar nossa eficiência, mas nos fará gastar mais tempo identificando "se a IA está errada ou não". **É por isso que o ChatGPT erroneamente escreveu vários casos inexistentes nos casos mencionados e insistiu que os casos existiam.
Os casos acima mencionados ocorreram no estrangeiro, pelo que parece que ainda estamos relativamente longe. Então, uma questão é, se na China um advogado usar IA para escrever uma opinião legal e apresentá-la ao tribunal, que tipo de responsabilidade ele (ela) enfrentará? **
De acordo com o artigo 3.º da "Lei dos Advogados", "os advogados devem respeitar a Constituição e a lei, e respeitar a ética profissional e a disciplina prática dos advogados. A prática dos advogados deve basear-se nos factos e na lei como critério". princípio importante da prática jurídica. **Com base nisso, as regras de prática dos advogados tendo como núcleo a “Lei do Advogado” impõem restrições estritas aos atos dos advogados de fornecer informações falsas, fazer declarações falsas ou fornecer materiais de prova falsos.
De acordo com o disposto no artigo 40.º da “Lei do Advogado”, “o advogado não pode praticar os seguintes actos na sua actividade profissional: (1) aceitar encomendas privadas, cobrar honorários, aceitar bens de clientes ou outros benefícios; (3) aceitar propriedade ou outros interesses da outra parte, conspirando maliciosamente com a outra parte ou com terceiros, e infringindo os direitos e interesses do cliente; (4) reunião com juízes, promotores, árbitros e outras partes em violação dos regulamentos Pessoal relevante; (5) Subornar juízes, procuradores, árbitros e outro pessoal relevante, introduzir subornos ou instigar ou induzir as partes a subornar, ou influenciar juízes, procuradores, árbitros e outro pessoal relevante de outras formas impróprias Lidar com casos de acordo com a lei; (6) fornecer deliberadamente provas falsas ou ameaçar ou induzir terceiros a fornecer provas falsas para impedir a outra parte de obter provas legalmente;(7) incitar e encorajar as partes a tomarem meios ilegais, tais como perturbar a ordem pública e pôr em perigo a segurança pública (8) perturbar a ordem dos tribunais e tribunais arbitrais, e interferindo na condução normal das atividades de contencioso e arbitragem." Ao mesmo tempo, de acordo com o Artigo 49, se ocorrer o comportamento acima mencionado, "o governo popular distrital de uma cidade dividida em distritos ou um município diretamente subordinado ao Governo Central deverá O departamento administrativo judicial imporá uma penalidade de cessação da prática por não menos de seis meses, mas não mais de um ano, e poderá impor uma multa não superior a 50.000 yuans; se houver ilegal rendimentos, os rendimentos ilegais serão confiscados; se as circunstâncias forem graves, o departamento administrativo judicial do governo popular da província, região autónoma ou município directamente subordinado ao Governo Central revogará o certificado de exercício do seu advogado; se for constituído um crime , ele será investigado por responsabilidade criminal de acordo com a lei." Além disso, o artigo 22 do Código de Ética e Disciplina Profissional dos Advogados estipula que "os advogados devem obter provas de acordo com a lei, não falsificar provas, não devem encorajar os clientes a falsificar provas, **fornecer falsos testemunhos **, não implicará induzir ou ameaçar outros a fornecer provas falsas."
Portanto, a chave para o comportamento mencionado é se ele pode ser identificado como "fornecimento de provas falsas deliberadamente", ou seja, se o advogado que forneceu o material ou a informação sabia ou deveria saber que o material da prova era falso evidência. Como o advogado obviamente sabia que o material era feito por IA ao apresentar a declaração, ele mesmo tinha a obrigação de examinar se as provas eram verdadeiras até certo ponto. O juiz ou o departamento competente determina que o próprio advogado tem conhecimento subjetivo, e assim, considera o ato um ato de "fornecer intencionalmente provas falsas". , falsificação de provas e obstrução de testemunho".
**Em resumo, para os advogados, usar IA para redigir documentos pode não ser algo que “economize tempo e trabalho”. **
Não apenas advogados: os perigos de fornecer materiais e informações falsas
**Na verdade, não só os advogados, mas também as pessoas comuns, que utilizam a IA para criar materiais falsos em determinadas ocasiões, também terão certas responsabilidades, e os casos graves também correrão o risco de responsabilidade criminal. **
Por exemplo, se o ator for preguiçoso na aplicação e registro de medicamentos e usar IA para produzir os certificados, dados, materiais etc. necessários, mas no final o certificado, os dados e os materiais forem falsos, então, se os outros requisitos forem cumprido, o ator pode configurar o "crime de obstrução à administração de drogas" no artigo 142 da "Lei Penal". Outro exemplo é que, para ganhar tempo, o criminoso usa IA para produzir documentos de emissão, como prospectos, formulários de subscrição, métodos de oferta de títulos de empresas e empresas, e neles contém algumas informações falsas, que também podem configurar o "crime de fraude emissão de valores mobiliários” no artigo 160. Outro exemplo é que o ator usa IA para coletar e divulgar informações, e essas informações são informações falsas que afetam valores mobiliários e negociação de futuros, ou falsos perigos, epidemias, desastres e situações policiais, então o comportamento do ator pode constituir uma violação do Artigo 180 O crime de "fabricação e divulgação de informações falsas sobre negociação de valores mobiliários e futuros" no primeiro parágrafo do Artigo 11 ou o "crime de fabricação e divulgação intencional de informações falsas" no segundo parágrafo do Artigo 291-1.
Além disso, para alguns assuntos específicos, como pessoal de organizações intermediárias que realizam avaliação de ativos, verificação de capital, verificação, contabilidade, auditoria, serviços jurídicos, patrocínio, avaliação de segurança, avaliação de impacto ambiental, monitoramento ambiental, etc., se usarem IA para escrever Se o documento resultante for considerado um documento de certificação falso, então pode ser suspeito de "crime de fornecimento de documentos de certificação falsos". **Deve-se notar que mesmo que não possa provar sua intenção subjetiva, se for considerado ser gravemente irresponsável, houver negligência grave, poderá ainda constituir o “crime de grande inexatidão na emissão de documentos de certificação”, sendo então punido. **
Pode-se observar que o uso de IA para redação de documentos não é ruim apenas para os advogados, mas também para as pessoas comuns.
Como proteger seus direitos
Portanto, surge um novo problema, se o usuário do serviço de IA se deparar com o absurdo da IA generativa, mas não conseguir identificá-la e assim causar prejuízos, ele poderá se recuperar do provedor de serviços de IA?
De acordo com o primeiro parágrafo do Artigo 7 da "Lei de Proteção dos Direitos do Consumidor", "os consumidores têm o direito de inviolar a segurança pessoal e patrimonial ao comprar, usar bens e receber serviços". operadores de comércio eletrônico, portanto, de acordo com o disposto no artigo 74 da “Lei do Comércio Eletrônico”, “Um operador de comércio eletrônico que vende bens ou presta serviços, não cumpre obrigações contratuais ou executa obrigações contratuais não conformes com o acordo, ou causar danos a terceiros, será responsável pelos danos de acordo com a lei. Responsabilidade civil." Em outras palavras, os usuários podem buscar compensação dos provedores de serviços de IA de acordo com as disposições dessas duas leis.
No entanto, deve-se notar que os provedores de serviços de IA não são todos "tolos". É perfeitamente possível que eles estipulem tais situações no contrato do usuário ou textos relacionados, como não garantir a autenticidade do conteúdo de saída. Sob a premissa de que a autenticidade do conteúdo não pode ser garantida, esse tipo de acordo é totalmente razoável. Ou seja, o comerciante já alertou o usuário sobre o risco antes de fornecer o serviço, e o comportamento de uso do usuário se enquadra na "responsabilidade" de um determinado categoria.
Ainda assim, deve ficar claro que tais acordos são, na verdade, termos padrão. De acordo com o disposto no Código Civil e na Lei de Defesa dos Direitos e Interesses do Consumidor, os prestadores de serviços devem "chamar a atenção dos consumidores para a quantidade e qualidade, preço ou taxa, período e método de execução, precauções de segurança e avisos de risco, serviço pós-venda, responsabilidade civil e outros conteúdos que tenham interesse significativo no consumidor e explicá-lo de acordo com os requisitos do consumidor", caso contrário, o usuário terá o direito de Argumenta-se que esta cláusula não faz parte do contrato.
Escreva no final
Por trás da prevalência da tecnologia de IA estão riscos jurídicos invisíveis. Esses riscos legais foram ampliados devido à falta de regulamentações específicas e direcionadas. Você precisa ser cauteloso ao fornecer e usar serviços. Leitores e amigos devem manter a conformidade em mente e ser cautelosos com os resultados da IA. Livre de riscos.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
O boom da IA chegou e os advogados também estão lutando?
Introdução
Já na época em que o ChatGPT era popular, falava-se que a IA substituiria o trabalho humano, mais cedo ou mais tarde. De repente, pessoas em vários sectores estão a falar sobre IA, temendo que o seu rápido desenvolvimento substitua directamente os seus empregos e não os deixe para onde ir. Advogados também estão incluídos. Na verdade, o trabalho do advogado também envolve muitas questões administrativas. Mesmo no campo profissional, existem muitas tarefas repetitivas, chatas e de baixa dificuldade. Por isso, muitas pessoas do setor especulam se haverá um dia Um dia , aquele que atendia a todos tornou-se um advogado de IA. Sob o processamento de alta eficiência da IA, tivemos que ser demitidos antecipadamente.
Essa pergunta é realmente difícil de responder, e a alta escalabilidade da tecnologia de IA é impressionante. Mas agora, a equipe da irmã Sa ainda pode dar uma resposta clara: não. Sobre este assunto, ainda este ano, colegas do escritório de advocacia Levidow, Levidow & Oberman, nos Estados Unidos, deram a todos a resposta com base na sua experiência pessoal: **Pelo menos hoje, a IA está longe de ser capaz de substituir o trabalho dos advogados. Usando AI Pelo contrário, pode trazer muitos problemas para amigos advogados. **
Um "fato interessante" - o uso do ChatGPT para redigir documentos foi multado
A causa do problema remonta a março deste ano, quando Roberto Mata entrou com uma ação na Justiça por disputa com uma companhia aérea em 2019. A companhia aérea acreditava que o caso havia passado do prazo de prescrição e sugeriu que o juiz retirasse o processo. . A este respeito, os advogados Peter LoDuca e Steven Schwartz, do escritório Levidow, Levidow & Oberman contratado por Roberto Mata, consideraram que o caso não ultrapassava o prazo de prescrição e deveria ser julgado, pelo que submeteram um parecer ao tribunal. E foi este documento que lhes causou grandes problemas.
Como todos sabemos, os Estados Unidos, como país jurisprudencial, dão grande importância à referência de precedentes, Peter LoDuca e Steven Schwartz citaram um grande número de casos na tentativa de provar seu ponto de vista. Originalmente, o assunto foi bem tratado e o parecer foi bem escrito, mas conheci um juiz experiente, sério e responsável, Kevin Castel. Após a leitura do parecer jurídico, o juiz Kevin Castel sentiu-se muito confuso e, após cuidadosa pesquisa, finalmente confirmou que alguns dos casos citados não existiam de fato. Diante dessa situação, o advogado Steven Schwartz argumentou que só usou IA para auxiliar na redação de documentos. Eles confiaram na IA, então não confirmaram mais a autenticidade do caso. não sabia. Eles disseram que não fabricaram deliberadamente o caso para enganar o tribunal.
Mesmo assim, **Em 22 de junho, o tribunal emitiu uma sentença, concluindo que Peter LoDuca, Steven Schwartz e seu escritório de advocacia forneceram informações falsas ao tribunal por mau comportamento e impuseram uma multa de $ 5.000. **Desde então, o escritório de advocacia posteriormente emitiu uma declaração, dizendo: "Cometemos um erro de boa fé e falhamos em prever que o ChatGPT poderia criar precedentes."
Responsabilidade do Advogado por Declarações Falsas——Tratamento do meu país
"IA vai falar bobagem de maneira séria", este é um ponto de vista apresentado pela equipe da irmã Sa muito cedo. O núcleo é que, nesta fase, a IA não tem a capacidade de julgar valor e distinguir entre verdadeiro e falso. Quais materiais ele "alimenta"? Se houver informações falsas nesses materiais, os resultados da saída de IA terão informações falsas. Se esses materiais tiverem tendências de valor, os resultados da saída de IA terão tendências de valor. **A consequência disso é que, para alguns problemas que exigem análise de verdadeiro e falso e julgamentos de valor, a IA não pode melhorar nossa eficiência, mas nos fará gastar mais tempo identificando "se a IA está errada ou não". **É por isso que o ChatGPT erroneamente escreveu vários casos inexistentes nos casos mencionados e insistiu que os casos existiam.
Os casos acima mencionados ocorreram no estrangeiro, pelo que parece que ainda estamos relativamente longe. Então, uma questão é, se na China um advogado usar IA para escrever uma opinião legal e apresentá-la ao tribunal, que tipo de responsabilidade ele (ela) enfrentará? **
De acordo com o artigo 3.º da "Lei dos Advogados", "os advogados devem respeitar a Constituição e a lei, e respeitar a ética profissional e a disciplina prática dos advogados. A prática dos advogados deve basear-se nos factos e na lei como critério". princípio importante da prática jurídica. **Com base nisso, as regras de prática dos advogados tendo como núcleo a “Lei do Advogado” impõem restrições estritas aos atos dos advogados de fornecer informações falsas, fazer declarações falsas ou fornecer materiais de prova falsos.
De acordo com o disposto no artigo 40.º da “Lei do Advogado”, “o advogado não pode praticar os seguintes actos na sua actividade profissional: (1) aceitar encomendas privadas, cobrar honorários, aceitar bens de clientes ou outros benefícios; (3) aceitar propriedade ou outros interesses da outra parte, conspirando maliciosamente com a outra parte ou com terceiros, e infringindo os direitos e interesses do cliente; (4) reunião com juízes, promotores, árbitros e outras partes em violação dos regulamentos Pessoal relevante; (5) Subornar juízes, procuradores, árbitros e outro pessoal relevante, introduzir subornos ou instigar ou induzir as partes a subornar, ou influenciar juízes, procuradores, árbitros e outro pessoal relevante de outras formas impróprias Lidar com casos de acordo com a lei; (6) fornecer deliberadamente provas falsas ou ameaçar ou induzir terceiros a fornecer provas falsas para impedir a outra parte de obter provas legalmente;(7) incitar e encorajar as partes a tomarem meios ilegais, tais como perturbar a ordem pública e pôr em perigo a segurança pública (8) perturbar a ordem dos tribunais e tribunais arbitrais, e interferindo na condução normal das atividades de contencioso e arbitragem." Ao mesmo tempo, de acordo com o Artigo 49, se ocorrer o comportamento acima mencionado, "o governo popular distrital de uma cidade dividida em distritos ou um município diretamente subordinado ao Governo Central deverá O departamento administrativo judicial imporá uma penalidade de cessação da prática por não menos de seis meses, mas não mais de um ano, e poderá impor uma multa não superior a 50.000 yuans; se houver ilegal rendimentos, os rendimentos ilegais serão confiscados; se as circunstâncias forem graves, o departamento administrativo judicial do governo popular da província, região autónoma ou município directamente subordinado ao Governo Central revogará o certificado de exercício do seu advogado; se for constituído um crime , ele será investigado por responsabilidade criminal de acordo com a lei." Além disso, o artigo 22 do Código de Ética e Disciplina Profissional dos Advogados estipula que "os advogados devem obter provas de acordo com a lei, não falsificar provas, não devem encorajar os clientes a falsificar provas, **fornecer falsos testemunhos **, não implicará induzir ou ameaçar outros a fornecer provas falsas."
Portanto, a chave para o comportamento mencionado é se ele pode ser identificado como "fornecimento de provas falsas deliberadamente", ou seja, se o advogado que forneceu o material ou a informação sabia ou deveria saber que o material da prova era falso evidência. Como o advogado obviamente sabia que o material era feito por IA ao apresentar a declaração, ele mesmo tinha a obrigação de examinar se as provas eram verdadeiras até certo ponto. O juiz ou o departamento competente determina que o próprio advogado tem conhecimento subjetivo, e assim, considera o ato um ato de "fornecer intencionalmente provas falsas". , falsificação de provas e obstrução de testemunho".
**Em resumo, para os advogados, usar IA para redigir documentos pode não ser algo que “economize tempo e trabalho”. **
Não apenas advogados: os perigos de fornecer materiais e informações falsas
**Na verdade, não só os advogados, mas também as pessoas comuns, que utilizam a IA para criar materiais falsos em determinadas ocasiões, também terão certas responsabilidades, e os casos graves também correrão o risco de responsabilidade criminal. **
Por exemplo, se o ator for preguiçoso na aplicação e registro de medicamentos e usar IA para produzir os certificados, dados, materiais etc. necessários, mas no final o certificado, os dados e os materiais forem falsos, então, se os outros requisitos forem cumprido, o ator pode configurar o "crime de obstrução à administração de drogas" no artigo 142 da "Lei Penal". Outro exemplo é que, para ganhar tempo, o criminoso usa IA para produzir documentos de emissão, como prospectos, formulários de subscrição, métodos de oferta de títulos de empresas e empresas, e neles contém algumas informações falsas, que também podem configurar o "crime de fraude emissão de valores mobiliários” no artigo 160. Outro exemplo é que o ator usa IA para coletar e divulgar informações, e essas informações são informações falsas que afetam valores mobiliários e negociação de futuros, ou falsos perigos, epidemias, desastres e situações policiais, então o comportamento do ator pode constituir uma violação do Artigo 180 O crime de "fabricação e divulgação de informações falsas sobre negociação de valores mobiliários e futuros" no primeiro parágrafo do Artigo 11 ou o "crime de fabricação e divulgação intencional de informações falsas" no segundo parágrafo do Artigo 291-1.
Além disso, para alguns assuntos específicos, como pessoal de organizações intermediárias que realizam avaliação de ativos, verificação de capital, verificação, contabilidade, auditoria, serviços jurídicos, patrocínio, avaliação de segurança, avaliação de impacto ambiental, monitoramento ambiental, etc., se usarem IA para escrever Se o documento resultante for considerado um documento de certificação falso, então pode ser suspeito de "crime de fornecimento de documentos de certificação falsos". **Deve-se notar que mesmo que não possa provar sua intenção subjetiva, se for considerado ser gravemente irresponsável, houver negligência grave, poderá ainda constituir o “crime de grande inexatidão na emissão de documentos de certificação”, sendo então punido. **
Pode-se observar que o uso de IA para redação de documentos não é ruim apenas para os advogados, mas também para as pessoas comuns.
Como proteger seus direitos
Portanto, surge um novo problema, se o usuário do serviço de IA se deparar com o absurdo da IA generativa, mas não conseguir identificá-la e assim causar prejuízos, ele poderá se recuperar do provedor de serviços de IA?
De acordo com o primeiro parágrafo do Artigo 7 da "Lei de Proteção dos Direitos do Consumidor", "os consumidores têm o direito de inviolar a segurança pessoal e patrimonial ao comprar, usar bens e receber serviços". operadores de comércio eletrônico, portanto, de acordo com o disposto no artigo 74 da “Lei do Comércio Eletrônico”, “Um operador de comércio eletrônico que vende bens ou presta serviços, não cumpre obrigações contratuais ou executa obrigações contratuais não conformes com o acordo, ou causar danos a terceiros, será responsável pelos danos de acordo com a lei. Responsabilidade civil." Em outras palavras, os usuários podem buscar compensação dos provedores de serviços de IA de acordo com as disposições dessas duas leis.
No entanto, deve-se notar que os provedores de serviços de IA não são todos "tolos". É perfeitamente possível que eles estipulem tais situações no contrato do usuário ou textos relacionados, como não garantir a autenticidade do conteúdo de saída. Sob a premissa de que a autenticidade do conteúdo não pode ser garantida, esse tipo de acordo é totalmente razoável. Ou seja, o comerciante já alertou o usuário sobre o risco antes de fornecer o serviço, e o comportamento de uso do usuário se enquadra na "responsabilidade" de um determinado categoria.
Ainda assim, deve ficar claro que tais acordos são, na verdade, termos padrão. De acordo com o disposto no Código Civil e na Lei de Defesa dos Direitos e Interesses do Consumidor, os prestadores de serviços devem "chamar a atenção dos consumidores para a quantidade e qualidade, preço ou taxa, período e método de execução, precauções de segurança e avisos de risco, serviço pós-venda, responsabilidade civil e outros conteúdos que tenham interesse significativo no consumidor e explicá-lo de acordo com os requisitos do consumidor", caso contrário, o usuário terá o direito de Argumenta-se que esta cláusula não faz parte do contrato.
Escreva no final
Por trás da prevalência da tecnologia de IA estão riscos jurídicos invisíveis. Esses riscos legais foram ampliados devido à falta de regulamentações específicas e direcionadas. Você precisa ser cauteloso ao fornecer e usar serviços. Leitores e amigos devem manter a conformidade em mente e ser cautelosos com os resultados da IA. Livre de riscos.