Más de 370 personas, entre ellas LeCun y Ng Enda, firmaron una carta conjunta: el control estricto de la IA es peligroso y la apertura es el antídoto

Fuente original: Heart of the Machine

Fuente de la imagen: Generado por Unbounded AI

En los últimos días, la discusión sobre cómo supervisar la IA se ha vuelto cada vez más acalorada, y los grandes tienen opiniones muy diferentes.

Por ejemplo, el triunvirato del Premio Turing Geoffrey Hinton, Yoshua Bengio y Yann LeCun tienen dos puntos de vista. Hinton y Bengio son un equipo que pide encarecidamente una regulación más estricta de la IA, lo que podría conducir al riesgo de "extinción de la IA". LeCun no comparte sus puntos de vista, argumentando que una fuerte regulación de la IA conducirá inevitablemente a un monopolio de gigantes, con el resultado de que solo unas pocas empresas controlan la investigación y el desarrollo de la IA.

Con el fin de expresar sus ideas, muchas personas firmaron una carta conjunta para transmitir sus puntos de vista, por ejemplo, en los últimos días, Bengio, Hinton y otros emitieron una carta conjunta "Gestión del riesgo de IA en una era de rápida evolución", en la que pedían a los investigadores que tomaran medidas urgentes de gobernanza antes de desarrollar sistemas de IA.

Al mismo tiempo, una carta abierta titulada "Declaración conjunta sobre la seguridad y la apertura de la inteligencia artificial" está fermentando actualmente en las redes sociales.

Enlace a la carta abierta:

Hasta ahora, más de 370 personas, entre ellas LeCun, uno de los tres gigantes del aprendizaje profundo, y Andrew Ng, profesor del Departamento de Ciencias de la Computación de la Universidad de Stanford, han firmado la carta abierta. La lista se actualiza constantemente.

"El acceso abierto, transparente y amplio hace que la plataforma de software sea más segura y confiable. Esta carta abierta de la Fundación Mozilla, que también he firmado, defiende las plataformas y sistemas de IA abiertos".

El contenido de la carta abierta es el siguiente:

Nos encontramos en una coyuntura crítica en la gobernanza de la IA. Para mitigar los daños actuales y futuros de los sistemas de IA, debemos adoptar la apertura, la transparencia y el acceso amplio. Esto debe ser una prioridad global.
Es cierto que los modelos disponibles públicamente son arriesgados y vulnerables: los modelos de IA pueden ser mal utilizados por actores maliciosos o desplegados por desarrolladores mal equipados. Sin embargo, una y otra vez, hemos visto esto con todo tipo de tecnologías patentadas: el aumento del acceso público y la censura hacen que la tecnología sea más segura, no más peligrosa. La idea de que el control estricto y patentado de los modelos de IA subyacentes es la única forma de protegernos de daños masivos es ingenua en el mejor de los casos y peligrosa en el peor.

Además, la historia del desarrollo humano nos enseña que la adopción rápida de una regulación equivocada puede conducir a una concentración de poder, lo que puede perjudicar la competencia y la innovación. Un modelo abierto puede informar el debate público y mejorar el desarrollo de estrategias. Si nuestro objetivo es la seguridad, la protección y la rendición de cuentas, entonces la apertura y la transparencia son factores importantes para lograr este objetivo.
Estamos en medio de un debate dinámico sobre lo que significa ser "abierto" en la era de la IA. Este importante debate no debe ralentizarse. Más bien, debería acelerarse, animándonos a experimentar, aprender y desarrollar nuevas formas de aprovechar la apertura en la carrera de la seguridad de la IA.

Necesitamos construir un conjunto de enfoques para el código abierto y la apertura que puedan servir como bloques de construcción para:

  1. Acelere la comprensión de los riesgos y peligros de las capacidades de IA a través de la investigación independiente, la colaboración y el intercambio de conocimientos. 2. Mejorar el escrutinio público y la rendición de cuentas ayudando a los reguladores a adoptar herramientas para supervisar los sistemas de IA a gran escala. 3. Reducir la barrera de entrada para los nuevos jugadores y centrarse en crear una IA responsable.
    Como firmantes de esta carta abierta, somos un grupo diverso de científicos, estrategas, ingenieros, activistas, empresarios, educadores y periodistas, por nombrar algunos. Representamos diferentes perspectivas sobre cómo gestionar y publicar IA de código abierto. Sin embargo, estamos totalmente de acuerdo en una cosa: un enfoque abierto, responsable y transparente es esencial para mantenernos seguros en la era de la IA.
    Cuando se trata de la seguridad de la IA, la apertura es el antídoto, no el veneno.

Firmado por:

  • Arthur Mensch, cofundador y CEO de la startup francesa MistralAI
  • Andrew Ng, fundador de DeepLearning.AI, fundador y CEO de Landing AI, profesor de ciencias de la computación en la Universidad de Stanford
  • Yann Lecun, ganador del Premio Turing, científico jefe de IA en Meta
  • Julien Chaumond, CTO de Hugging Face
  • Brian Behlendorf, miembro fundador de Apache, CTO de OpenSSF
  • Eric Von Hippel es un economista estadounidense y profesor de la MIT Sloan School of Management
  • ......

En la actualidad, esta carta abierta, que solo ha aparecido durante unos días, continúa fermentando y ha atraído una gran atención y discusión en la comunidad extranjera de IA, por lo que puede seguir prestando atención a la actualización de la lista.

Si está de acuerdo con la idea de la carta conjunta, también puede enviar su propia firma.

Llevará tiempo responder si una regulación estricta de la IA hará más daño que bien, o si los beneficios superan las desventajas.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Compartir
Comentar
0/400
Sin comentarios
Opere con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)