¿Ha llegado el boom de la IA y los abogados también están luchando?

Fuente de la imagen: generada por la herramienta Unbounded AI

Introducción

Ya en los días en que ChatGPT era popular, se hablaba de que la IA reemplazaría el trabajo humano tarde o temprano. De repente, personas de diversas industrias están hablando de IA, temiendo que su rápido desarrollo reemplace directamente sus empleos y no les deje ningún lugar adonde ir. Los abogados también están incluidos. De hecho, el trabajo de un abogado también implica muchas cuestiones administrativas, incluso en el ámbito profesional existen muchas tareas repetitivas, aburridas y de baja dificultad, por lo que mucha gente en la industria ha especulado si algún día habrá un día. , el que sirvió a todos se convirtió en un abogado de AI Bajo el procesamiento de alta eficiencia de AI, tuvimos que ser despedidos por adelantado.

De hecho, esta pregunta es difícil de responder y la alta escalabilidad de la tecnología de inteligencia artificial es impresionante. Pero ahora, el equipo de la hermana Sa todavía puede dar una respuesta clara: no. Respecto a este asunto, apenas este año, colegas del bufete de abogados Levidow, Levidow & Oberman en Estados Unidos dijeron a todos la respuesta basándose en su experiencia personal: ** Al menos hoy, la IA está lejos de poder reemplazar el trabajo de los abogados. El uso de IA, por el contrario, puede traer muchos problemas a los amigos abogados. **

Un "hecho interesante": el uso de ChatGPT para redactar documentos fue multado

La causa del asunto se remonta a marzo de este año: Roberto Mata presentó una demanda ante los tribunales por una disputa con una aerolínea en 2019. La aerolínea consideró que el caso había prescrito y sugirió al juez retirar el caso. . Al respecto, los abogados Peter LoDuca y Steven Schwartz del estudio Levidow, Levidow & Oberman contratados por Roberto Mata consideraron que el caso no prescribió y debía ser juzgado, por lo que elevaron un dictamen al tribunal. Y fue este documento el que les causó grandes problemas.

Como todos sabemos, Estados Unidos, como país jurisprudencial, concede gran importancia a la referencia de precedentes. Peter LoDuca y Steven Schwartz citaron un gran número de casos en un intento de probar su punto de vista. Al principio, el asunto se manejó bien y la opinión estaba bien redactada, pero conocí a un juez informado, serio y responsable, Kevin Castel. Después de leer el dictamen legal, el juez Kevin Castel se sintió muy confundido y después de una cuidadosa búsqueda finalmente confirmó que algunos de los casos citados en él en realidad no existían. Ante esta situación, el abogado Steven Schwartz argumentó que solo usó IA para ayudar en la redacción de documentos. Confiaban en AI, por lo que no confirmaron más la autenticidad del caso. En cambio, creyeron que solo porque AI encontró casos que pudieron no lo sabía. Dijeron que no inventaron deliberadamente el caso para engañar a la corte.

Aun así, **El 22 de junio, el tribunal aún emitió un fallo, determinando que Peter LoDuca, Steven Schwartz y su bufete de abogados habían proporcionado información falsa al tribunal por mala conducta e impusieron una multa de $5,000. **Desde entonces, el bufete de abogados ha emitido posteriormente una declaración, diciendo: "Cometimos un error de buena fe y no pudimos anticipar que ChatGPT podría fabricar precedentes".

Responsabilidad del abogado por declaraciones falsas——Manejo de mi país

"La IA dirá tonterías en serio", este es un punto de vista presentado por el equipo de la hermana Sa desde el principio. La esencia es que en esta etapa, la IA no tiene la capacidad de juzgar el valor y distinguir entre verdadero y falso. ¿Qué materiales "alimenta"? Si hay información falsa en estos materiales, los resultados de la producción de IA tendrán información falsa. Si estos materiales tienen tendencias de valor, entonces los resultados de la producción de IA tendrán tendencias de valor. ** La consecuencia de esto es que para algunos problemas que requieren análisis y juicios de valor verdaderos y falsos, la IA no puede mejorar nuestra eficiencia, pero hará que dediquemos más tiempo a identificar "si la IA está equivocada o no". **Es por eso que ChatGPT escribió por error varios casos inexistentes en los casos antes mencionados e insistió en que existían.

Los casos antes mencionados ocurrieron en el extranjero, por lo que parece que todavía estamos relativamente lejos. Entonces, una pregunta es, si en China, un abogado usa IA para escribir una opinión legal y enviarla a la corte, ¿qué tipo de responsabilidad enfrentará? **

Según el artículo 3 de la "Ley de Abogados", "los abogados deben respetar la Constitución y la ley, así como la ética profesional y la disciplina en el ejercicio de los abogados. La práctica de los abogados debe basarse en los hechos y en la ley como criterio". importante principio de la práctica jurídica. **Con base en esto, las reglas de la práctica de los abogados con la "Ley de Abogados" como núcleo imponen restricciones estrictas a los actos de los abogados de proporcionar información falsa, hacer declaraciones falsas o proporcionar materiales de evidencia falsos.

De acuerdo con lo dispuesto en el artículo 40 de la "Ley de Abogados", "los abogados no podrán realizar los siguientes actos en sus actividades de práctica: (1) aceptar en privado encomiendas, cobrar honorarios, aceptar bienes de clientes u otros beneficios; (3) aceptar propiedad u otros intereses de la otra parte, en colusión maliciosa con la otra parte o con un tercero, e infringiendo los derechos e intereses del cliente, (4) reunirse con jueces, fiscales, árbitros y otras partes en violación de las normas Personal pertinente; (5) Sobornar a jueces, fiscales, árbitros y otro personal relevante, introducir sobornos o instigar o inducir a las partes a sobornar, o influir en jueces, fiscales, árbitros y otro personal relevante de otras maneras indebidas Manejar casos de acuerdo con la ley; (6) proporcionando deliberadamente pruebas falsas o amenazando o incitando a otros a proporcionar pruebas falsas para evitar que la otra parte obtenga pruebas legalmente; ** (7) incitar y ser cómplices de las partes para tomar medios ilegales, como alterar el orden público y poner en peligro la seguridad pública (8) interrumpir el orden de los juzgados y tribunales arbitrales, e interfiriendo con el desarrollo normal de las actividades de litigio y arbitraje". Al mismo tiempo, de acuerdo con el artículo 49, si se produce el comportamiento mencionado anteriormente, "el gobierno popular distrital de una ciudad dividida en distritos o un municipio directamente bajo el El departamento administrativo judicial impondrá una sanción de cese de la práctica por no menos de seis meses pero no más de un año, y podrá imponer una multa de no más de 50.000 yuanes; si hay ilegal ingresos, los ingresos ilegales serán decomisados; si las circunstancias son graves, el departamento judicial administrativo del gobierno popular de la provincia, región autónoma o municipio directamente dependiente del Gobierno Central revocará el certificado de ejercicio de su abogado; si se constituye un delito , será investigado por responsabilidad penal conforme a la ley." Además, el artículo 22 del Código de Ética Profesional y Disciplina del Ejercicio de los Abogados establece que "los abogados obtendrán pruebas de conformidad con la ley, ** no falsificarán pruebas, no alentarán a sus clientes a falsificar pruebas, ofrecerán pruebas falsas testimonio, no implicará, inducir o amenazar a otros a proporcionar pruebas falsas."

Por lo tanto, la clave de la conducta antes mencionada es si puede identificarse como "aportar pruebas falsas deliberadamente", es decir, si el abogado que proporcionó el material o la información sabía o debería haber sabido que la prueba material era falsa evidencia. Dado que el abogado obviamente sabía que el material se hizo usando IA al presentar la declaración, él mismo tenía la obligación de examinar si la evidencia era cierta hasta cierto punto. El juez o el departamento correspondiente determina que el propio abogado tiene conocimiento subjetivo, y considera, por tanto, que el acto es un acto de "aportación intencionada de pruebas falsas, falsificación de pruebas y obstrucción del testimonio".

**En resumen, para los abogados, el uso de IA para la redacción de documentos puede no ser algo que "ahorre tiempo y trabajo". **

No solo abogados: los peligros de proporcionar materiales e información falsos

**De hecho, no solo los abogados, sino también la gente corriente que utiliza la IA para crear materiales falsos en determinadas ocasiones también tendrán ciertas responsabilidades, y los casos graves también tendrán el riesgo de responsabilidad penal. **

Por ejemplo, si el actor es perezoso en la solicitud y el registro de medicamentos, y usa IA para producir los certificados, datos, materiales, etc. requeridos, pero al final el certificado, los datos y los materiales son falsos, entonces si los otros requisitos son De cumplirse, el actor puede constituir el "delito de obstrucción a la administración de drogas" del artículo 142 de la "Ley Penal". Otro ejemplo es que, para ahorrar tiempo, el perpetrador utiliza IA para producir documentos de emisión como folletos, formularios de suscripción, métodos de oferta de bonos corporativos y corporativos, y contienen cierta información falsa, lo que también puede constituir el "delito de fraude". emisión de valores” del artículo 160. . Otro ejemplo es que el actor utiliza IA para recopilar y difundir información, y dicha información es información falsa que afecta el comercio de valores y futuros, o peligros falsos, epidemias, desastres y situaciones policiales, entonces el comportamiento del actor puede constituir una violación del artículo 180 El delito de "fabricación y difusión de información falsa sobre valores y negociación de futuros" en el primer párrafo del artículo 11 o el "delito de fabricación y difusión intencional de información falsa" en el segundo párrafo del artículo 291-1.

Además, para algunos temas específicos, como el personal de organizaciones intermediarias que realizan evaluación de activos, verificación de capital, verificación, contabilidad, auditoría, servicios legales, patrocinio, evaluación de seguridad, evaluación de impacto ambiental, monitoreo ambiental, etc., si utilizan IA para escribir Si el documento resultante se considera un documento de certificación falso, entonces puede ser sospechoso de "delito de proporcionar documentos de certificación falsos". **Cabe señalar que incluso si no puede probar su intención subjetiva, si se considera que ser gravemente irresponsable, hay una negligencia grave, entonces aún puede constituir el "delito de gran inexactitud en la emisión de documentos de certificación", y luego ser sancionado. **

Se puede ver que el uso de IA para la redacción de documentos no solo es malo para los abogados, sino también para la gente común.

Cómo proteger tus derechos

Por lo tanto, surge un nuevo problema, si el usuario del servicio de IA se encuentra con el sinsentido de la IA generativa, pero no logra identificarlo y, por lo tanto, causa pérdidas, ¿puede recuperarse del proveedor del servicio de IA?

Según el primer párrafo del artículo 7 de la "Ley de protección de los derechos del consumidor", "los consumidores tienen derecho a violar la seguridad personal y de la propiedad al comprar, utilizar bienes y recibir servicios". Al mismo tiempo, los proveedores de servicios de IA suelen ser proveedores de servicios electrónicos. operadores de comercio electrónico, por lo tanto, de acuerdo con lo dispuesto en el artículo 74 de la "Ley de Comercio Electrónico", "Un operador de comercio electrónico que vende bienes o presta servicios, incumple obligaciones contractuales o cumple obligaciones contractuales no conformes con el acuerdo, o causa daños a otros, será responsable de los daños y perjuicios de conformidad con la ley. Responsabilidad civil ". En otras palabras, los usuarios pueden solicitar una compensación a los proveedores de servicios de IA de acuerdo con las disposiciones de estas dos leyes.

Sin embargo, cabe señalar que no todos los proveedores de servicios de IA son "tontos": es perfectamente posible que estipulen situaciones de este tipo en el acuerdo de usuario o textos relacionados, como no garantizar la autenticidad del contenido de salida. Bajo la premisa de que no se puede garantizar la autenticidad del contenido, este tipo de acuerdo es completamente razonable, es decir, el comerciante ya ha advertido al usuario del riesgo antes de prestar el servicio, y el comportamiento de uso del usuario cae dentro de la "responsabilidad" ante un determinado extensión categoría.

Aun así, debe quedar claro que estos acuerdos son en realidad cláusulas estándar: según las disposiciones del Código Civil y la Ley de Protección de los Derechos e Intereses del Consumidor, los proveedores de servicios deben "llamar la atención de los consumidores sobre la cantidad y la calidad, el precio o tarifa, período y método de ejecución, precauciones de seguridad y advertencias de riesgo, servicio postventa, responsabilidad civil y otros contenidos que tengan un interés importante para el consumidor, y explicarlo de acuerdo con los requisitos del consumidor", en caso contrario el usuario tiene el derecho a Se argumenta que esta cláusula no forma parte del contrato.

Escribe al final

Detrás del predominio de la tecnología de IA se encuentran riesgos legales invisibles. Estos riesgos legales se han ampliado debido a la falta de regulaciones específicas y específicas. Debe ser cauteloso al proporcionar y usar servicios. Los lectores y amigos deben tener en cuenta el cumplimiento y ser cautelosos con la salida de IA. Libre de riesgo.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado
Opere con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)