¿Qué dijeron los gigantes mundiales de la IA cuando se reunieron para una Conferencia sobre la sal y el hierro en la era de la IA?

Quizás nunca ha habido una tecnología que se haya convertido rápidamente en el consenso de la comunidad científica y tecnológica e incluso de toda la sociedad en tan solo unos meses como el gran modelo de IA. Hoy en día, todos los gigantes tecnológicos y los principales gobiernos creen casi firmemente que la IA cambiará el mundo y lo cambiará todo.

Pero detrás de un gran consenso, todavía hay demasiados problemas. Por un lado, son reales: la sustitución en acción, la proliferación de contenidos falsos, los umbrales de uso desiguales, etc.; por otro lado, son los largos -Término obras de arte humanas. La "amenaza a la civilización" expresada aquí. **Según la revista "Wired", OpenAI incluso estipuló un mecanismo de salida en un documento financiero cuando la IA destruye el sistema económico humano. **

En julio de este año, en un evento celebrado en la sede de IBM, el líder de la mayoría del Senado de Estados Unidos, Chuck Schumer, dijo que convocaría una serie de conferencias sobre inteligencia artificial para "reunir a la mejor gente a la mesa y aprender unos de otros". , intente llegar a algún consenso y soluciones, y los senadores, nuestro personal y otros simplemente escuchan". ** En última instancia, Schumer espera "sentar las bases para una legislación sobre políticas de IA" basada en los intercambios en la reunión. **

**Dos meses después, comenzó la reunión. **A la reunión a puerta cerrada asistieron 22 participantes de las principales empresas de tecnología, entre ellos el CEO de OpenAI, Sam Altman, el CEO de NVIDIA, Huang Jenxun, y el CEO de Google, Sundar, Pichai, y el CEO de Meta, Mark Zuckerberg. y otros, así como el fundador de Microsoft, Bill Gates, y el ex director ejecutivo de Google, Eric Schmidt, los líderes tecnológicos de la generación anterior de Internet.

La IA debe ser “controlada”

Nadie negará el enorme potencial de la inteligencia artificial, pero todavía nos falta mucho consenso sobre los riesgos, las medidas de seguridad, la supervisión y el futuro de la inteligencia artificial. Lo único que es seguro es que los humanos no podemos permitir por completo el crecimiento brutal de la inteligencia artificial. inteligencia.

Tras abandonar la primera reunión a puerta cerrada, el director general de Tesla, SpaceX y Neuralink, Elon Musk, declaró públicamente que la reunión era "histórica" y que respaldaba la idea de crear una nueva agencia para regular la inteligencia artificial, y volvió a enfatizar los enormes riesgos que plantea la inteligencia artificial.

"Las consecuencias de que la IA funcione mal son graves, por lo que tenemos que ser proactivos en lugar de reactivos. El problema es realmente un riesgo para la civilización, que tiene riesgos potenciales para todos los humanos en todo el mundo".

** Musk no entró en detalles sobre el daño específico de la llamada inteligencia artificial a la civilización humana, pero cuando la inteligencia artificial se involucre más en la gestión y el control de las redes eléctricas, los sistemas de suministro de agua y los sistemas de vehículos, los errores causarán un muchos problemas**. La científica informática e investigadora de inteligencia artificial Deb Raji también mencionó que las decisiones sesgadas de la inteligencia artificial afectan todos los aspectos de la sociedad.

Es más, también existen desde hace mucho tiempo preocupaciones humanas sobre la inteligencia artificial.

Pero, ¿cómo podemos reducir y prevenir los riesgos que plantea la inteligencia artificial? El presidente de Microsoft, Brad Smith, propuso que es necesario establecer un "freno de emergencia" a los enormes riesgos que la inteligencia artificial puede plantear, especialmente en los sistemas de inteligencia artificial que gestionan infraestructuras críticas como las redes eléctricas y los sistemas de agua. Las amenazas que mucha gente teme siguen siendo materia de ciencia ficción y no se convierten en una nueva realidad."**

Brad Smith, foto/

Smith cree que, al igual que los disyuntores que se encuentran en todos los edificios y hogares y que pueden detener inmediatamente el funcionamiento del sistema de energía si es necesario, los sistemas de inteligencia artificial necesitarán "frenos de emergencia" similares para garantizar que los humanos no se vean afectados por dichos sistemas y causen daños masivos.

Casualmente, William Dally, científico jefe y vicepresidente senior de NVIDIA, también señaló que la clave de la posibilidad de errores y daños graves causados por la inteligencia artificial como programa informático radica en la "participación humana", es decir, los humanos son colocados en En los eslabones clave del trabajo de la inteligencia artificial, algunos poderes de toma de decisiones de la inteligencia artificial están restringidos. **

William Daly, foto/NVIDIA

"Así que creo que mientras tengamos cuidado con la forma en que implementamos la IA, poniendo a los humanos en el eslabón crítico, podemos asegurarnos de que la IA no tome el control y apague nuestra red eléctrica o provoque que los aviones caigan del cielo. ", dijo Daly.

**¿Será la IA de código abierto una caja de Pandora? **

A finales del año pasado, cuando ChatGPT se hizo popular por primera vez en el círculo tecnológico, algunas personas expresaron su preocupación por el uso de modelos de IA para comportamientos maliciosos como el fraude. El código abierto parece aumentar el riesgo de "abuso".

Uno de los debates en la conferencia giró en torno a los modelos de IA de "código abierto" que el público puede descargar y modificar. El código abierto de estos modelos permite a las empresas y a los investigadores utilizar tecnología de inteligencia artificial similar a la de ChatGPT sin invertir grandes cantidades de dinero y recursos en capacitación.

Pero los malos también pueden abusar de los sistemas de inteligencia artificial de código abierto, incluido OpenAI, que ha detenido el código abierto desde GPT-3.5. El cofundador y científico jefe de OpenAI, Ilya Sutskever, dijo: "En unos años, todos verán claramente que la inteligencia artificial de código abierto La inteligencia es imprudente”.

Ilya Sutskever habla con Jen-Hsun Huang en la GDC, foto/NVIDIA

**Cuando se le preguntó por qué, dijo: "Estos modelos son muy fuertes y se volverán cada vez más fuertes, y en algún momento, si alguien quisiera, sería fácil hacer mucho daño con estos modelos". **

Además, Mustafa Suleyman, cofundador de DeepMind y director ejecutivo de Inflection AI, también mencionó no hace mucho los riesgos del código abierto y señaló que el problema clave de la IA de código abierto es que la "rápida difusión del poder" permitirá un solo individuo causará un daño e impacto sin precedentes al mundo, "En los próximos 20 años, el código abierto ingenuo casi con certeza causará un desastre". **

Mustafa Suleiman, 图/DeepMind

Sin embargo, Meta obviamente no está de acuerdo con estas declaraciones. **El CEO de Meta, Zuckerberg, respondió que el código abierto "democratizará la IA, ayudará a la competencia justa y promoverá la innovación individual y corporativa". **Pero al mismo tiempo, también dijo que el modelo de código abierto puede traer peligros, pero Meta está construyendo esta tecnología de la manera más segura posible.

Cuando la IA se encuentra con el código abierto, esta sigue siendo una pregunta abierta.

Escribe al final

Hace 2104 años, siete años después de la muerte del emperador Wu de la dinastía Han, la corte Han convocó una consulta política sin precedentes. Una de las cuestiones principales fue la abolición y revisión de la política estatal de monopolio del vino de sal y hierro implementada durante el emperador Durante el período de Wu. Para ello, las "más de sesenta personas virtuosas y literarias", así como funcionarios gubernamentales como Sang Hongyang, el censor imperial, fueron posteriormente denominadas "Conferencia de la Sal y el Hierro". Sin embargo, esta Conferencia de la Sal y el Hierro esencialmente discutía la dirección de la política económica de la dinastía Han.

Aunque los temas son diferentes y el entorno de la época es muy diferente**, ya sea la Conferencia sobre la Sal y el Hierro hace más de 2.000 años o el actual Foro de Conocimientos sobre Inteligencia Artificial, todos nos enfrentamos a un enorme problema y esperamos solucionarlo. comunicar a través del debate sobre "grupos de talentos" como base para la legislación. **

Imagen/Google

En un artículo reciente que conmemora el 25 aniversario de Google, el actual director ejecutivo de Google, Sundar Pichai, escribió:

(Google) Únase al importante debate sobre cómo estas tecnologías darán forma a nuestra sociedad y luego trabajen juntos para encontrar las respuestas. La inteligencia artificial es una parte clave de esto. Si bien estamos entusiasmados con el potencial de la IA para beneficiar a las personas y a la sociedad**, sabemos que la IA, como cualquier tecnología en etapa inicial, conlleva complejidades y riesgos. Nuestro desarrollo y uso de la IA debe abordar estos riesgos y ayudar a desarrollar la tecnología de manera responsable. **

Unos días después, ocho empresas, entre ellas Adobe, Cohere, IBM, Nvidia, Palantir, Salesforce, Scale AI y Stability, se convirtieron en el segundo grupo de empresas en firmar el acuerdo de "Desarrollo responsable de tecnología de inteligencia artificial (IA)". Muchas veces, cuando nos enfrentamos a problemas que no pueden ser resueltos por un solo individuo o una sola empresa/gobierno, debemos darnos cuenta del valor de los "esfuerzos conjuntos".

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Compartir
Comentar
0/400
Sin comentarios
Opere con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)