El discurso de Cambridge del "padre de ChatGPT" fue boicoteado, y los peces gordos académicos lucharon ferozmente por la seguridad de la IA

Fuente del artículo: Titanium Media

Autor: Lin Zhijia

Editor: Ma Jinnan

Este artículo se publicó por primera vez en la aplicación Titanium Media

Andrew Ng, fundador de Google Brain y profesor de la Universidad de Stanford, señaló que la regulación de la IA destruye la innovación. Musk, por otro lado, cree que la IA es más peligrosa que las armas nucleares (bombas nucleares).

Con la emisión por parte del gobierno de EE.UU. de nuevas regulaciones de IA, ha habido un reciente resurgimiento de la controversia sobre la regulación de los grandes modelos de IA.

En la madrugada del 2 de noviembre, hora de Pekín, cuando Sam Altman, el "padre de ChatGPT" y CEO de OpenAI, participó en un evento en Cambridge, Inglaterra, fue fuertemente resistido por activistas anti-IA, y fue "aplastado" frente a él en el auditorio, y algunos manifestantes exigieron que se detuviera la competencia de IA.

Algunos manifestantes incluso colgaron pancartas y dejaron caer panfletos en los balcones, y la escena fue caótica durante un tiempo. Por supuesto, Ultraman estaba muy tranquilo y completó el evento con calma.

En su discurso, Altman dijo que incluso si los modelos de IA son lo suficientemente potentes en el futuro, requerirán una enorme potencia informática para funcionar. Si se eleva el umbral de la potencia informática, se puede reducir el riesgo de delitos deliberados y también se puede mejorar la rendición de cuentas. Anteriormente, el cofundador de OpenAI, Ilya Sutskever, dijo sin rodeos que ChatGPT puede ser consciente y que la IA tendrá riesgos potenciales.

Al mismo tiempo, Yann LeCun, científico jefe de Meta AI y ganador del "Premio Turing" 2018, ha criticado recientemente en repetidas ocasiones a Altman, al CEO de DeepMind, Demis Hassabis, al CEO de Anthropic y a otros en las plataformas sociales por el "cabildeo corporativo a gran escala" ante el gobierno de EE. UU., lo que eventualmente puede llevar a que solo unos pocos grandes gigantes tecnológicos puedan controlar la tecnología de IA.

Yang Likun señaló que estas personas propagan el miedo. "Si tienen éxito, usted y yo conduciremos inevitablemente a una catástrofe: un puñado de empresas tomarán el control de la IA".

Posteriormente, Hassabis replicó: "Estoy totalmente en desacuerdo con la mayoría de los comentarios de Yang Likun. Señaló que Google DeepMind no está tratando de lograr una "captura regulatoria" cuando se discute la mejor manera de usar la IA, y es más importante comenzar a discutir cómo regular la posible súper IA ahora.

En un momento en que la competencia por los grandes modelos de IA es cada vez más feroz, la industria ha entrado en un "cuerpo a cuerpo" y todo el mundo está involucrado en feroces batallas en torno al tema de los gigantes que controlan la IA.

¿La IA es la mayor amenaza para la humanidad? Musk: La IA será más inteligente que los humanos

En los últimos 12 meses, ChatGPT ha conquistado el mundo, y la IA generativa se ha convertido por completo en un tema central en el mundo de la tecnología este año.

Ahora, Apple también está adoptando la IA.

En la conferencia de ganancias del cuarto trimestre en la mañana del 3 de noviembre, hora de Beijing, el CEO de Apple, Tim Cook, dijo que Apple ha llevado a cabo varios trabajos en IA generativa y está invirtiendo mucho dinero para hacerlo de manera responsable. "Con el tiempo, verás que los productos de Apple con estas tecnologías en su núcleo evolucionarán".

Anteriormente, Bloomberg informó que Apple se está poniendo al día silenciosamente con los competidores en el campo de la IA, por un lado, ha aumentado la contratación relacionada con la IA, por otro lado, ha acelerado la madurez y la implementación de la tecnología de IA a través de fusiones y adquisiciones de nuevas empresas, y ha comenzado a desarrollar grandes modelos de lenguaje internamente, conocidos internamente como AppleGPT.

Al mismo tiempo, también se rumoreaba que el equipo de xAI establecido por Elon Musk, el hombre más rico del mundo en tecnología y CEO de Tesla, con un patrimonio neto de $ 220 mil millones, tenía el primer lote de información de productos, incluido Grok relacionado con la recuperación de información de IA, IDE de estación de trabajo de palabras rápidas, etc. Además, gigantes tecnológicos como Google, Microsoft y Amazon también están participando en la ola de IA.

Sin embargo, los líderes de la industria, incluidos Elon Musk y Ultraman, han hablado recientemente sobre la letalidad potencial de la IA y los riesgos de la IA semanalmente. Esto parece haberse convertido en un "consenso de círculo pequeño".

El 2 de noviembre, Musk dijo durante la Cumbre Británica de IA que la IA es una de las mayores amenazas para la humanidad, y que la IA se convertirá en la fuerza más disruptiva de la historia y será más inteligente que los humanos. Cree que la IA algún día hará que todo el mundo pierda su trabajo.

"La IA tiene la capacidad de hacer cualquier cosa, y no sé si eso haría que los humanos se sintieran cómodos o incómodos. Si quieres un elfo mágico, la IA cumplirá todos tus deseos, y no hay límite, y no habrá restricción de solo 3 deseos, que pueden ser buenos o malos, y el desafío en el futuro será cómo encontramos el significado de la vida. Dijo Musk.

Musk ha advertido en repetidas ocasiones que la IA es más peligrosa que las armas nucleares (bombas nucleares).

Ultraman también ha dicho en repetidas ocasiones que el gobierno lo controla. Dentro de 10 años, el mundo puede tener un poderoso sistema de IA (IA), pero ahora, la humanidad debe estar preparada para esto.

El gobierno de Estados Unidos también ha comenzado a regular la seguridad de la IA. El 30 de octubre, el presidente de Estados Unidos, Joe Biden, firmó una nueva orden ejecutiva sobre IA, tomando la medida más completa jamás tomada en la dirección de los estándares de seguridad de la IA, la protección de la privacidad de los estadounidenses, la promoción de la equidad y los derechos civiles, la salvaguardia de los intereses de los consumidores y los trabajadores, la promoción de la innovación y la competencia, y el avance del liderazgo de Estados Unidos en el extranjero, entre otras cosas, para gestionar los riesgos potenciales de la IA.

Vale la pena mencionar que en la nueva orden ejecutiva se ha fortalecido el apoyo a los gigantes de la IA, como el apoyo a la investigación en IA a través de la financiación de la investigación y otros medios, la atracción de talento extranjero, etc.

Una piedra agita mil olas.

Posteriormente, expertos académicos en IA como los "Tres de Turing" tuvieron una acalorada discusión sobre la supervisión de la IA, que se dividió principalmente en dos facciones: las personas representadas por Yang Likun y Ng Enda creían que el automóvil quería frenar antes de ser construido, y la IA no había alcanzado la etapa de supervisión; Sin embargo, personas como Elon Musk, Altman y Geoffrey Hinton, el "padre del aprendizaje profundo", creen que la IA sigue siendo muy peligrosa.

Entre ellos, Yang Likun dijo sin rodeos que si Estados Unidos continúa apoyando la investigación de IA de los gigantes tecnológicos, eventualmente puede conducir a que solo unos pocos grandes gigantes tecnológicos puedan controlar la IA, lo que inevitablemente conducirá a un gran riesgo y desastre.

"Como mucha gente, soy un gran defensor de una plataforma de IA abierta. Pero también creo que el futuro de la IA es una combinación de la creatividad, la democracia, el poder de mercado y la regulación de las personas. Yang Likun escribió en la plataforma X.

Andrew Ng, fundador de Google Brain y profesor de la Universidad de Stanford, también apoya a Yang. Dijo que era una "conspiración" para imponer una fuerte regulación sobre el desarrollo de la tecnología de inteligencia artificial.

"Va a destruir la innovación", señaló Ng, "y definitivamente hay algunas grandes empresas tecnológicas que son reacias a competir con la IA de código abierto, por lo que están creando el temor de que la IA conduzca a la extinción humana". Esta siempre ha sido un arma legislativa buscada por los grupos de presión, pero es muy perjudicial para la comunidad de código abierto. Con la dirección de la regulación en muchos países, creo que ninguna regulación estaría mejor que ahora. "

Pero al mismo tiempo, el 25 de octubre, el ganador del Premio Turing Yoshua Bengio, el "padre del aprendizaje profundo" Geoffrey Hinton, Andrew Yao, Zhang Yaqin y otros expertos de la industria de la IA también firmaron una carta conjunta, en la que continuaron pidiendo que se fortalezca la supervisión del desarrollo de la tecnología de IA y creyeron que se deben tomar medidas urgentes de gobernanza antes de que se desarrollen estos sistemas. y un cambio importante hacia prácticas seguras y éticas en la investigación y el desarrollo de IA.

Hoy en día, continúa la feroz batalla entre los peces gordos académicos sobre la regulación de la seguridad de la IA. La IA ahora está profundamente presente en todo, desde los motores de búsqueda hasta las redes sociales y las finanzas, por lo que los expertos han planteado serias preocupaciones sobre los desafíos de esta carrera armamentista de IA, los riesgos de seguridad y los deep fakes.

Yoshua Bengio、Geoffrey Hinton、Yann LeCun

Y muchos internautas están preocupados por si la relación entre los peces gordos se verá afectada por la controversia. Yang Likun publicó una foto con Yoshua Bengio y Hinton hace algún tiempo, que parece responder bien a esta pregunta.

El 3 de noviembre, el gobierno de EE. UU. dijo que había establecido el Instituto de Seguridad de IA, con la esperanza de desarrollar estándares y reglas para regular el futuro de la IA a través de la capacidad legislativa del Departamento de Comercio de EE. UU. y otras agencias.

Aceleración regulatoria en los próximos 10 años los seres humanos pueden entrar de lleno en la era de la inteligencia

El 1 de noviembre, en la primera Cumbre de Seguridad de la IA celebrada en Bletchley Park, Londres, Reino Unido, se publicó la "Declaración de Bletchley", en la que se declara que la IA ofrece grandes oportunidades y tiene el potencial de mejorar el bienestar, la paz y la prosperidad humanos, pero al mismo tiempo, la IA también plantea riesgos significativos, que deben abordarse a través de la cooperación internacional.

En la reunión, más de 25 países y regiones, incluidos Estados Unidos, China y la Unión Europea, firmaron la declaración. El primer ministro del Reino Unido, Rishi Sunak, dijo: "Este es un logro histórico, ya que las potencias de IA más poderosas del mundo reconocen la urgencia de 'comprender los riesgos de la IA' para ayudar a asegurar el futuro a largo plazo de nuestra próxima generación". Como líderes, tenemos la responsabilidad de tomar medidas para proteger a las personas, y eso es exactamente lo que estamos haciendo. "

La declaración afirma que la IA plantea riesgos significativos, incluso en el ámbito de la vida cotidiana, y que "todas las cuestiones son de suma importancia, y reconocemos la necesidad y la urgencia de abordarlas". "

"Para lograr esto, afirmamos que la IA debe diseñarse, desarrollarse, implementarse y usarse de manera segura, centrada en el ser humano, confiable y responsable para el beneficio de todos". Muchos de los riesgos que plantea la IA son de naturaleza internacional y se abordan mejor a través de la cooperación internacional, identificando los riesgos de seguridad de la IA de interés común y apoyando una red internacionalmente inclusiva de investigación científica de seguridad de IA de vanguardia, según la declaración.

El 3 de noviembre, en el "Foro de la Frontera de la Inteligencia Artificial de Nueva Generación" celebrado por la Universidad de Pekín, Huang Tiejun, profesor de la Escuela de Ciencias de la Computación de la Universidad de Pekín y decano de la Academia de Inteligencia Artificial de Beijing, dijo que la controversia actual es que la comprensión básica de la IA de cada persona es diferente, y muchas personas que se dedican al pensamiento científico no creen que la inteligencia artificial general (AGI) se realice, mientras que otro pensamiento técnico, incluido Yang Likun, cree que el desarrollo de la IA es factible.

"Son dos formas de pensar completamente diferentes, y ninguna puede convencer a nadie. Por lo tanto, detrás de la polémica, cada uno mira este tema desde una posición completamente diferente y una forma diferente de pensar. Dijo Huang Tiejun en su discurso.

Para el desarrollo futuro de la tecnología de modelos grandes de IA, Huang Tiejun dio expectativas para 3 años, 10 años y 20 años.

  • En los próximos tres años, el modelo grande se ampliará a la inteligencia general, como la visión, la audición, la inteligencia encarnada y la acción, y la escala se hará más grande y más pequeña, convirtiéndose en el "cerebro" de la inteligencia encarnada; El lenguaje ordinario se convierte en lenguaje científico, y la inteligencia artificial resuelve los principales problemas científicos.
  • En los próximos 10 años, la humanidad entrará en la era de la inteligencia (habilidad) de una manera integral, al igual que la revolución industrial para liberar la fuerza física, al igual que la revolución del poder para resolver la circulación de la energía, y se completará la construcción de la ciencia y la tecnología, la economía y la ecología social con la inteligencia como núcleo. • En los próximos 20 años: el gran modelo actual es la inteligencia estática basada en datos, el futuro es la inteligencia dinámica impulsada por el entorno espacio-temporal, y el portador inteligente se actualiza a una red neuronal de picos similar a la del cerebro; En 2045, llegará el AGI físico que imita el cerebro estructural, el cerebro funcional y el supercerebro de rendimiento.
  • Además, se debe dar al menos la misma importancia a la seguridad, de lo contrario la humanidad corre un gran riesgo.

En opinión de Huang Tiejun, en los próximos 10 años, la economía, la sociedad, la ciencia y la tecnología de todo el mundo pueden experimentar un cambio importante, la inteligencia se convertirá en el elemento básico de la operación social, al igual que la electricidad de hoy está en todas partes, se formará el mundo. En 2045, bajo la tecnología de IA, los humanos pueden lograr datos inteligentes en tiempo real, y se actualizarán de forma iterativa, y el cerebro y la posterior toma de decisiones también cambiarán.

"Creo que antes de 2045, todas estas capacidades de inspiración e innovación como la nuestra aparecerán en un no-organismo, pero si lo hace, será un gran riesgo, si los humanos debemos tomar esta opción, o si puede ser un poco más lento, esto debe discutirse mucho". Dijo Huang Tiejun al final de su discurso.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
Opere con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)