Fuente de la imagen: generada por la herramienta de IA ilimitada
** Las noticias de los medios del jueves mostraron que OpenAI está siendo investigado por la Comisión Federal de Comercio (FTC) de EE. UU. La FTC envió una carta de solicitud de investigación civil a OpenAI El enfoque de la investigación incluye si el robot de chat ChatGPT de OpenAI ha dañado a personas relevantes debido a la divulgación de información falsa y cómo OpenAI maneja los riesgos relacionados. **
** La investigación de la FTC marca la primera vez que los reguladores de EE. UU. lanzan formalmente una revisión de los riesgos que plantean los chatbots de inteligencia artificial. **La FTC, encabezada por Lina Khan, tiene amplios poderes para vigilar las prácticas comerciales engañosas e injustas. ** La investigación de la FTC significa que ChatGPT, actualmente la aplicación más popular del mundo, enfrenta posibles amenazas legales. **
La FTC escribió en la carta:
Describa en detalle hasta qué punto ha tomado medidas para abordar o mitigar el riesgo de que su producto modelo de lenguaje extenso pueda generar declaraciones falsas, engañosas o difamatorias sobre personas reales.
Los legisladores actuales están particularmente preocupados por el riesgo de los llamados videos falsos que representan falsamente a personas reales que realizan acciones vergonzosas o dicen cosas vergonzosas.
Sin embargo, expertos relevantes de la industria creen que la FTC es demasiado amplia. Los medios citaron a Adam Kovacevich, director ejecutivo de la Cámara del Progreso, un grupo comercial de tecnología, diciendo: "Cuando ChatGPT dice algo incorrecto sobre alguien y puede dañar su reputación, ¿es un problema dentro de la jurisdicción de la FTC? "No creo que eso esté del todo claro. Este tipo de cosas están más en el ámbito del discurso, en el ámbito de la regulación del discurso, que está más allá del ámbito de la FTC".
La FTC también hizo preguntas específicas sobre las prácticas de seguridad y privacidad de datos de OpenAI en la carta para ver si se involucraba en prácticas desleales o engañosas. La FTC citó un incidente en 2020 cuando OpenAI reveló un error que permitía a los usuarios ver las conversaciones de chat de otras personas y cierta información relacionada con los pagos.
En total, la carta de la FTC planteó docenas de problemas. Otros temas incluyen: los detalles técnicos del diseño de ChatGPT, la práctica de entrenar modelos de IA, los esfuerzos de marketing de OpenAI, el manejo de la información personal de los usuarios, el contexto de las quejas de los usuarios y cómo las empresas evalúan las percepciones de las personas sobre la precisión y la confiabilidad del chatbot. La FTC solicitó a OpenAI que compartiera materiales internos relevantes.
El movimiento de la FTC tiene señales tempranas. En mayo de este año, la FTC emitió una advertencia de que estaba observando de cerca cómo las empresas eligen usar tecnologías de inteligencia artificial, incluidas nuevas herramientas de inteligencia artificial generativa, para tener un impacto real y significativo en los consumidores.
Lina Khan, quien testificó ante el Comité Judicial de la Cámara de Representantes de EE. UU. el jueves, enfrentó fuertes críticas de los legisladores republicanos por su dura postura de aplicación. Cuando se le preguntó en la audiencia sobre la investigación de OpenAI, Khan se negó a comentar, pero dijo:
**Las preocupaciones más amplias de la FTC incluyen que ChatGPT y otros servicios de inteligencia artificial están capacitados en grandes cantidades de datos sin verificar qué datos están utilizando estas empresas. Hemos escuchado informes sobre la filtración de información confidencial de personas en respuesta a consultas de otros. Escuchamos que están sucediendo declaraciones difamatorias y cosas completamente falsas. Ese es el tipo de trampa que nos preocupa. **
A medida que el fuego se propaga por todo el mundo, los productos de inteligencia artificial generativa se están convirtiendo cada vez más en el foco de atención de las agencias reguladoras de todo el mundo. En mayo, la administración de Biden buscó desarrollar una estrategia nacional de inteligencia artificial para protegerse contra la desinformación y otras posibles deficiencias de la tecnología. En marzo de este año, los reguladores italianos prohibieron ChatGPT y, al mismo tiempo, inspeccionaron la recopilación de información personal de la empresa. ChatGPT volvió a estar en línea unas semanas más tarde en Italia después de que OpenAI hiciera más accesible su política de privacidad y lanzara una herramienta para verificar la edad de los usuarios.
Ver originales
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
¡Los reguladores estadounidenses investigan oficialmente ChatGPT por primera vez! FTC "dispara" en OpenAI
Autor: He Hao
** Las noticias de los medios del jueves mostraron que OpenAI está siendo investigado por la Comisión Federal de Comercio (FTC) de EE. UU. La FTC envió una carta de solicitud de investigación civil a OpenAI El enfoque de la investigación incluye si el robot de chat ChatGPT de OpenAI ha dañado a personas relevantes debido a la divulgación de información falsa y cómo OpenAI maneja los riesgos relacionados. **
** La investigación de la FTC marca la primera vez que los reguladores de EE. UU. lanzan formalmente una revisión de los riesgos que plantean los chatbots de inteligencia artificial. **La FTC, encabezada por Lina Khan, tiene amplios poderes para vigilar las prácticas comerciales engañosas e injustas. ** La investigación de la FTC significa que ChatGPT, actualmente la aplicación más popular del mundo, enfrenta posibles amenazas legales. **
La FTC escribió en la carta:
Los legisladores actuales están particularmente preocupados por el riesgo de los llamados videos falsos que representan falsamente a personas reales que realizan acciones vergonzosas o dicen cosas vergonzosas.
Sin embargo, expertos relevantes de la industria creen que la FTC es demasiado amplia. Los medios citaron a Adam Kovacevich, director ejecutivo de la Cámara del Progreso, un grupo comercial de tecnología, diciendo: "Cuando ChatGPT dice algo incorrecto sobre alguien y puede dañar su reputación, ¿es un problema dentro de la jurisdicción de la FTC? "No creo que eso esté del todo claro. Este tipo de cosas están más en el ámbito del discurso, en el ámbito de la regulación del discurso, que está más allá del ámbito de la FTC".
La FTC también hizo preguntas específicas sobre las prácticas de seguridad y privacidad de datos de OpenAI en la carta para ver si se involucraba en prácticas desleales o engañosas. La FTC citó un incidente en 2020 cuando OpenAI reveló un error que permitía a los usuarios ver las conversaciones de chat de otras personas y cierta información relacionada con los pagos.
En total, la carta de la FTC planteó docenas de problemas. Otros temas incluyen: los detalles técnicos del diseño de ChatGPT, la práctica de entrenar modelos de IA, los esfuerzos de marketing de OpenAI, el manejo de la información personal de los usuarios, el contexto de las quejas de los usuarios y cómo las empresas evalúan las percepciones de las personas sobre la precisión y la confiabilidad del chatbot. La FTC solicitó a OpenAI que compartiera materiales internos relevantes.
El movimiento de la FTC tiene señales tempranas. En mayo de este año, la FTC emitió una advertencia de que estaba observando de cerca cómo las empresas eligen usar tecnologías de inteligencia artificial, incluidas nuevas herramientas de inteligencia artificial generativa, para tener un impacto real y significativo en los consumidores.
Lina Khan, quien testificó ante el Comité Judicial de la Cámara de Representantes de EE. UU. el jueves, enfrentó fuertes críticas de los legisladores republicanos por su dura postura de aplicación. Cuando se le preguntó en la audiencia sobre la investigación de OpenAI, Khan se negó a comentar, pero dijo:
A medida que el fuego se propaga por todo el mundo, los productos de inteligencia artificial generativa se están convirtiendo cada vez más en el foco de atención de las agencias reguladoras de todo el mundo. En mayo, la administración de Biden buscó desarrollar una estrategia nacional de inteligencia artificial para protegerse contra la desinformación y otras posibles deficiencias de la tecnología. En marzo de este año, los reguladores italianos prohibieron ChatGPT y, al mismo tiempo, inspeccionaron la recopilación de información personal de la empresa. ChatGPT volvió a estar en línea unas semanas más tarde en Italia después de que OpenAI hiciera más accesible su política de privacidad y lanzara una herramienta para verificar la edad de los usuarios.