La promesa y los daños de la IA son temas candentes en estos días. Algunas personas dicen que la inteligencia artificial nos salvará, ayudará a diagnosticar algunas enfermedades malignas, cerrará la brecha digital en la educación, etc. Pero también hay preocupaciones sobre la amenaza que representa para la guerra, la seguridad, la desinformación y más. Se convirtió en un pasatiempo para la gente común y sonó la alarma en el mundo de los negocios.
La IA es muy útil, pero aún no puede silenciar el ruido de una habitación llena de charlas. Esta semana, académicos, reguladores, líderes gubernamentales, empresas emergentes, grandes empresas tecnológicas y docenas de organizaciones con y sin fines de lucro se reúnen en el Reino Unido para discutir y debatir sobre la IA.
¿Por qué el Reino Unido? ¿Por qué ahora? **
El miércoles y el jueves, el Reino Unido acogerá la Cumbre de Seguridad de la IA en Bletchley Park, la primera de este tipo en el Reino Unido.
La cumbre estaba prevista desde hace varios meses para explorar algunos de los problemas y riesgos a largo plazo que plantea la IA. Los objetivos de la cumbre son ideales, más que concretos: "un entendimiento común de los riesgos que plantea la IA fronteriza y la necesidad de actuar", "un proceso orientado hacia el futuro para la cooperación internacional en materia de seguridad de la IA fronteriza, incluida la mejor manera de apoyar los marcos nacionales e internacionales", "las organizaciones deben tomar medidas adecuadas para mejorar la seguridad de la IA fronteriza", etc.
Este deseo de alto nivel también se refleja en las identidades de los participantes: estarán presentes altos funcionarios gubernamentales, líderes de la industria y pensadores destacados en el campo. (Según los últimos informes: Elon Musk, el presidente Biden, Justin Trudeau y Olaf Scholz, entre otros, estarán presentes).
La cumbre sonaba especial, y lo era: el "boleto dorado" a la cumbre (descrito por el fundador y autor de tecnología con sede en Londres, Azeem Azhar) escaseaba. Se informa que la cumbre será a pequeña escala y en su mayor parte cerrada. Estos eventos incluyen charlas en la Royal Society (Academia Nacional de Ciencias); Conferencias "AI Fringe" a gran escala en varias ciudades y anuncios de muchos grupos de trabajo, entre otros.
Gina Neff, directora ejecutiva del Centro Mindelow para la Tecnología y la Democracia de la Universidad de Cambridge, dijo en una mesa redonda nocturna sobre ciencia y seguridad en la Royal Society la semana pasada: "Vamos a desempeñar el papel de la cumbre que ya hemos manejado. En otras palabras, un evento en Bletchley hará lo que se supone que debe hacer, y lo que no está dentro del alcance del evento será una oportunidad para que la gente haga una lluvia de ideas sobre otros temas. "
La mesa redonda de Neff fue un ejemplo de ello: en una sala abarrotada de la Royal Society, se sentó con representantes de Human Rights Watch, funcionarios estatales del gran sindicato Unite, el fundador del Tech Global Institute, un grupo de expertos centrado en cuestiones de equidad tecnológica en el Sur Global, el jefe de políticas públicas de la startup Stability AI y científicos informáticos de la Universidad de Cambridge.
Al mismo tiempo, se puede decir que la llamada reunión de borde de IA es solo una "ventaja" nominal. Dado que la Cumbre de Bletchley tuvo lugar en el mismo lugar durante la semana, con una lista de invitados muy limitada y oportunidades igualmente limitadas para aprender lo que se discutió, la sesión de AI Edge se amplió rápidamente a Bletchley y desarrolló la agenda de la conferencia. Según los informes, el evento no fue organizado por el gobierno, sino por una firma de relaciones públicas llamada Milltown Partners (que ha representado a empresas como DeepMind, Stripe y la firma de capital de riesgo Atomico) y, curiosamente, duró una semana completa, se llevó a cabo en varios lugares de todo el país y fue gratuito para aquellos que pudieron obtener boletos (muchos de los eventos se agotaron), y muchas de las sesiones también estaban disponibles en servicios de transmisión.
A pesar de la variedad, fue muy triste ver que la discusión sobre la IA, a pesar de su infancia, todavía estaba tan dividida: una era una reunión de los poderes del poder (la mayoría de la cual estaba abierta solo a invitados) y otra era una reunión del resto de nosotros.
En el día de hoy, un grupo de 100 sindicatos y activistas enviaron una carta al primer ministro diciendo que el gobierno estaba "exprimiendo" sus voces en la conversación al no permitirles participar en Bletchley Park. (Puede que no consiguieran las entradas, pero su forma de oponerse a ellas fue absolutamente sensata: el grupo lo hizo público compartiendo la carta con las publicaciones económicas más elitistas del país, como el Financial Times).
No es solo la gente común la que se queda a la intemperie. Carissa Véliz, profesora del Departamento de Filosofía de la Universidad de Oxford, dijo en el evento AI Edge de hoy: "Ninguna de las personas que conozco ha sido invitada. "
Algunos creen que la racionalización tiene sus beneficios.
El científico investigador de inteligencia artificial Marius Hobbhahn es el cofundador y director de Apollo Research, que está desarrollando herramientas de seguridad de IA. Cree que un número menor de personas también puede atraer más atención: "Cuanta más gente haya en la sala, más difícil será sacar conclusiones o tener una discusión efectiva", dijo.
En un sentido más amplio, la cumbre es solo un "ladrillo" y parte de una conversación más amplia que está actualmente en curso. La semana pasada, el primer ministro británico, Rishi Sunak, dijo que tenía la intención de crear un nuevo instituto de seguridad de la IA y una red de investigación en el Reino Unido para dedicar más tiempo y esfuerzo a estudiar el impacto de la IA; Un grupo de destacados académicos, liderados por Yoshua Bengio y Geoffrey Hinton, se sumergieron colectivamente en este campo con un artículo titulado "Gestión del riesgo de la IA en una era de rápido progreso"; Las Naciones Unidas también han anunciado la creación de su propio grupo de trabajo para explorar el impacto de la inteligencia artificial. Recientemente, el presidente de Estados Unidos, Joe Biden, también emitió la propia orden ejecutiva de Estados Unidos para establecer estándares de seguridad de la IA.
"Riesgo existencial"
Uno de los mayores debates es si la idea de que la IA representa un "riesgo existencial" es exagerada, o incluso intencional, para eliminar el escrutinio de la actividad más directa de la IA.
Matt Kelly, profesor de matemáticas de sistemas en la Universidad de Cambridge, señala que una de las áreas más citadas es la desinformación.
"La desinformación no es nueva. Ni siquiera es algo nuevo en este siglo o en el siglo pasado", dijo en una entrevista la semana pasada. "Pero esta es una de las áreas en las que creemos que existen riesgos potenciales para la IA a corto y medio plazo. Y estos riesgos se desarrollan lentamente con el tiempo. Kelly, miembro de la Royal Society of Scientry, dijo que la sociedad también llevó a cabo un ejercicio de equipo rojo y azul específicamente para la desinformación en la ciencia durante el período previo a la cumbre para ver cómo se comportarían los grandes modelos de lenguaje cuando intentaran competir entre sí. Es un intento de comprender mejor cuáles son los riesgos en este momento".
El gobierno del Reino Unido parece estar adoptando un enfoque de dos caras en este debate, con el peligro más evidente que el nombre del evento que está organizando, la Cumbre de Seguridad de la IA.
En su discurso de la semana pasada, Sunak dijo: "En este momento, no tenemos un entendimiento común de los riesgos a los que nos enfrentamos. "Sin este consenso, no podemos esperar abordar estos riesgos juntos". Es por eso que haremos un fuerte impulso para que se emita la primera declaración internacional sobre la naturaleza de estos riesgos".
Pero al organizar la cumbre, el Reino Unido se posicionó primero como un actor central en el establecimiento de la agenda de "de qué hablamos cuando hablamos de IA", y ciertamente tiene una perspectiva económica.
"Al convertir al Reino Unido en un líder mundial en IA segura, atraeremos más nuevos puestos de trabajo e inversiones de esta ola de nuevas tecnologías", señaló Sunak. (El memorándum también fue recibido por otros departamentos: el ministro del Interior organizó hoy un evento con la Internet Watch Foundation y varias de las principales empresas de aplicaciones de consumo, como TikTok y Snap, para hacer frente a la proliferación de imágenes de abuso sexual generadas por IA).
Involucrar a las grandes empresas tecnológicas puede parecer que ayuda de alguna manera, pero los críticos tienden a verlo también como un problema. La "captura regulatoria", en la que los actores más poderosos de la industria toman medidas proactivas para discutir y desarrollar riesgos y protecciones, ha sido otro gran tema en el nuevo mundo de la IA, y la cumbre de esta semana no es diferente.
"Desconfíe de los líderes de IA que levantan la mano y dicen: 'yo, yo'". Nigel Toon, CEO del fabricante de chips de IA Graphcore, señaló astutamente en un artículo que escribió sobre la próxima cumbre de esta semana: "Es probable que los gobiernos intervengan y confíen en su palabra". (Sin embargo, no es del todo marginal: él mismo asistirá a la cumbre).
Al mismo tiempo, muchas personas todavía están debatiendo si el llamado riesgo existencial actual es un ejercicio útil de pensamiento.
"Creo que la retórica de las fronteras y la inteligencia artificial nos ha puesto en un estado de miedo a la tecnología durante el último año", dijo Ben Brooks, jefe de políticas públicas de Stability AI, en un panel de discusión en la Royal Society, citando el experimento mental "Paperclip Maxing", donde la IA podría destruir el mundo creando clips sin tener en cuenta las necesidades humanas o la seguridad, como un ejemplo de este enfoque deliberadamente limitante. "No piensan en las circunstancias en las que se puede implementar la IA. Pero puedes desarrollarlo de forma segura. Queremos que todo el mundo se sienta inspirado por esto y se dé cuenta de que la IA es alcanzable y segura de hacer. "
Otros no están tan seguros.
Hobbhahn, de Apollo Research, dijo: "Para ser justos, no creo que el riesgo existencial sea exacto. "Llamémoslo riesgo catastrófico". Dado el ritmo de desarrollo de los últimos años, las aplicaciones de IA generativa han llevado grandes modelos de lenguaje a la corriente principal, y cree que la mayor preocupación seguirán siendo los malos actores que utilizan la IA, en lugar de la propia IA en un motín: su uso para la guerra biológica, la situación de seguridad nacional y la desinformación que podría alterar el proceso democrático. Todas estas, dijo, son áreas en las que cree que es probable que la IA desempeñe un papel catastrófico.
"Los ganadores del Premio Turing están abiertamente preocupados por la supervivencia y los riesgos catastróficos... Realmente deberíamos pensarlo", agregó.
Perspectivas de negocio
Si bien existen serios riesgos, el Reino Unido también quiere convertir al país en un hogar natural para las empresas de IA organizando grandes conversaciones sobre IA. Sin embargo, algunos analistas creen que el camino para invertir en IA puede no ser tan fácil como algunos predicen.
"Creo que está empezando a surgir la realidad de que las empresas están empezando a entender cuánto tiempo y dinero necesitan asignar a los proyectos de IA generativa para obtener resultados fiables que realmente puedan aumentar la productividad y los ingresos", dijo Avivah Litan, vicepresidente analista corporativo de Gartner. "A pesar de que realizan ajustes iterativos e ingeniería en el proyecto, aún necesitan supervisión manual de las operaciones y los resultados. En resumen, la salida de GenAI no es lo suficientemente confiable y requiere muchos recursos para que sea confiable. Por supuesto, el modelo está mejorando todo el tiempo, pero ese es el estado actual del mercado. Sin embargo, al mismo tiempo, vemos cada vez más proyectos que entran en la etapa de producción. "
Ella cree que las inversiones en IA "definitivamente ralentizarán el crecimiento de las empresas y las organizaciones gubernamentales que utilizan la IA". Los proveedores están impulsando sus aplicaciones y productos de IA, pero las empresas no pueden adoptarlos tan rápido como se les impulsa. Además, existen muchos riesgos asociados con las aplicaciones de GenAI, como democratizar el fácil acceso a la información confidencial incluso dentro de una organización. "
Al igual que la "transformación digital" es más bien un concepto de combustión lenta en realidad, la estrategia de inversión en IA de una empresa también necesita más tiempo. "Se necesita tiempo para que las empresas bloqueen sus conjuntos de datos estructurados y no estructurados y establezcan los permisos de manera correcta y eficiente. Hay demasiado exceso de intercambio en la empresa que realmente no importaba hasta entonces. Litan añade: "Ahora, cualquiera puede acceder a cualquier archivo que otros no estén adecuadamente protegidos mediante un simple comando de idioma nativo, como el inglés". "
El hecho de que cómo equilibrar los intereses comerciales de la IA con los problemas de seguridad y riesgo que discutirá Bletchley Park dice mucho sobre la tarea que tenemos por delante, pero también pone de relieve la tensión de la situación. Más adelante en la conferencia, los organizadores de Bletchley han trabajado para ampliar la discusión más allá de las preocupaciones de seguridad de alto nivel a áreas donde realmente pueden surgir riesgos, como la atención médica, aunque este cambio no se detalla en la agenda anunciada actualmente.
"Habrá una mesa redonda de unos 100 expertos, que no es pequeña. Soy un crítico, pero no suena como una mala idea", dice Neff, profesor de la Universidad de Cambridge. "Ahora, ¿la regulación global será un tema de discusión? En absoluto. ¿Vamos a normalizar las relaciones Este-Oeste? Probablemente no. Pero estamos llegando a nuestra cumbre. Creo que podría haber algunas oportunidades muy interesantes en este momento. "
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Avance de la Cumbre de Seguridad de la IA en el Reino Unido: Por qué ahora, por qué en el Reino Unido
Texto: Ingrid Lunden
Fuente: TechCrunch
La promesa y los daños de la IA son temas candentes en estos días. Algunas personas dicen que la inteligencia artificial nos salvará, ayudará a diagnosticar algunas enfermedades malignas, cerrará la brecha digital en la educación, etc. Pero también hay preocupaciones sobre la amenaza que representa para la guerra, la seguridad, la desinformación y más. Se convirtió en un pasatiempo para la gente común y sonó la alarma en el mundo de los negocios.
La IA es muy útil, pero aún no puede silenciar el ruido de una habitación llena de charlas. Esta semana, académicos, reguladores, líderes gubernamentales, empresas emergentes, grandes empresas tecnológicas y docenas de organizaciones con y sin fines de lucro se reúnen en el Reino Unido para discutir y debatir sobre la IA.
¿Por qué el Reino Unido? ¿Por qué ahora? **
El miércoles y el jueves, el Reino Unido acogerá la Cumbre de Seguridad de la IA en Bletchley Park, la primera de este tipo en el Reino Unido.
La cumbre estaba prevista desde hace varios meses para explorar algunos de los problemas y riesgos a largo plazo que plantea la IA. Los objetivos de la cumbre son ideales, más que concretos: "un entendimiento común de los riesgos que plantea la IA fronteriza y la necesidad de actuar", "un proceso orientado hacia el futuro para la cooperación internacional en materia de seguridad de la IA fronteriza, incluida la mejor manera de apoyar los marcos nacionales e internacionales", "las organizaciones deben tomar medidas adecuadas para mejorar la seguridad de la IA fronteriza", etc.
Este deseo de alto nivel también se refleja en las identidades de los participantes: estarán presentes altos funcionarios gubernamentales, líderes de la industria y pensadores destacados en el campo. (Según los últimos informes: Elon Musk, el presidente Biden, Justin Trudeau y Olaf Scholz, entre otros, estarán presentes).
La cumbre sonaba especial, y lo era: el "boleto dorado" a la cumbre (descrito por el fundador y autor de tecnología con sede en Londres, Azeem Azhar) escaseaba. Se informa que la cumbre será a pequeña escala y en su mayor parte cerrada. Estos eventos incluyen charlas en la Royal Society (Academia Nacional de Ciencias); Conferencias "AI Fringe" a gran escala en varias ciudades y anuncios de muchos grupos de trabajo, entre otros.
Gina Neff, directora ejecutiva del Centro Mindelow para la Tecnología y la Democracia de la Universidad de Cambridge, dijo en una mesa redonda nocturna sobre ciencia y seguridad en la Royal Society la semana pasada: "Vamos a desempeñar el papel de la cumbre que ya hemos manejado. En otras palabras, un evento en Bletchley hará lo que se supone que debe hacer, y lo que no está dentro del alcance del evento será una oportunidad para que la gente haga una lluvia de ideas sobre otros temas. "
La mesa redonda de Neff fue un ejemplo de ello: en una sala abarrotada de la Royal Society, se sentó con representantes de Human Rights Watch, funcionarios estatales del gran sindicato Unite, el fundador del Tech Global Institute, un grupo de expertos centrado en cuestiones de equidad tecnológica en el Sur Global, el jefe de políticas públicas de la startup Stability AI y científicos informáticos de la Universidad de Cambridge.
Al mismo tiempo, se puede decir que la llamada reunión de borde de IA es solo una "ventaja" nominal. Dado que la Cumbre de Bletchley tuvo lugar en el mismo lugar durante la semana, con una lista de invitados muy limitada y oportunidades igualmente limitadas para aprender lo que se discutió, la sesión de AI Edge se amplió rápidamente a Bletchley y desarrolló la agenda de la conferencia. Según los informes, el evento no fue organizado por el gobierno, sino por una firma de relaciones públicas llamada Milltown Partners (que ha representado a empresas como DeepMind, Stripe y la firma de capital de riesgo Atomico) y, curiosamente, duró una semana completa, se llevó a cabo en varios lugares de todo el país y fue gratuito para aquellos que pudieron obtener boletos (muchos de los eventos se agotaron), y muchas de las sesiones también estaban disponibles en servicios de transmisión.
A pesar de la variedad, fue muy triste ver que la discusión sobre la IA, a pesar de su infancia, todavía estaba tan dividida: una era una reunión de los poderes del poder (la mayoría de la cual estaba abierta solo a invitados) y otra era una reunión del resto de nosotros.
En el día de hoy, un grupo de 100 sindicatos y activistas enviaron una carta al primer ministro diciendo que el gobierno estaba "exprimiendo" sus voces en la conversación al no permitirles participar en Bletchley Park. (Puede que no consiguieran las entradas, pero su forma de oponerse a ellas fue absolutamente sensata: el grupo lo hizo público compartiendo la carta con las publicaciones económicas más elitistas del país, como el Financial Times).
No es solo la gente común la que se queda a la intemperie. Carissa Véliz, profesora del Departamento de Filosofía de la Universidad de Oxford, dijo en el evento AI Edge de hoy: "Ninguna de las personas que conozco ha sido invitada. "
Algunos creen que la racionalización tiene sus beneficios.
El científico investigador de inteligencia artificial Marius Hobbhahn es el cofundador y director de Apollo Research, que está desarrollando herramientas de seguridad de IA. Cree que un número menor de personas también puede atraer más atención: "Cuanta más gente haya en la sala, más difícil será sacar conclusiones o tener una discusión efectiva", dijo.
En un sentido más amplio, la cumbre es solo un "ladrillo" y parte de una conversación más amplia que está actualmente en curso. La semana pasada, el primer ministro británico, Rishi Sunak, dijo que tenía la intención de crear un nuevo instituto de seguridad de la IA y una red de investigación en el Reino Unido para dedicar más tiempo y esfuerzo a estudiar el impacto de la IA; Un grupo de destacados académicos, liderados por Yoshua Bengio y Geoffrey Hinton, se sumergieron colectivamente en este campo con un artículo titulado "Gestión del riesgo de la IA en una era de rápido progreso"; Las Naciones Unidas también han anunciado la creación de su propio grupo de trabajo para explorar el impacto de la inteligencia artificial. Recientemente, el presidente de Estados Unidos, Joe Biden, también emitió la propia orden ejecutiva de Estados Unidos para establecer estándares de seguridad de la IA.
"Riesgo existencial"
Uno de los mayores debates es si la idea de que la IA representa un "riesgo existencial" es exagerada, o incluso intencional, para eliminar el escrutinio de la actividad más directa de la IA.
Matt Kelly, profesor de matemáticas de sistemas en la Universidad de Cambridge, señala que una de las áreas más citadas es la desinformación.
"La desinformación no es nueva. Ni siquiera es algo nuevo en este siglo o en el siglo pasado", dijo en una entrevista la semana pasada. "Pero esta es una de las áreas en las que creemos que existen riesgos potenciales para la IA a corto y medio plazo. Y estos riesgos se desarrollan lentamente con el tiempo. Kelly, miembro de la Royal Society of Scientry, dijo que la sociedad también llevó a cabo un ejercicio de equipo rojo y azul específicamente para la desinformación en la ciencia durante el período previo a la cumbre para ver cómo se comportarían los grandes modelos de lenguaje cuando intentaran competir entre sí. Es un intento de comprender mejor cuáles son los riesgos en este momento".
El gobierno del Reino Unido parece estar adoptando un enfoque de dos caras en este debate, con el peligro más evidente que el nombre del evento que está organizando, la Cumbre de Seguridad de la IA.
En su discurso de la semana pasada, Sunak dijo: "En este momento, no tenemos un entendimiento común de los riesgos a los que nos enfrentamos. "Sin este consenso, no podemos esperar abordar estos riesgos juntos". Es por eso que haremos un fuerte impulso para que se emita la primera declaración internacional sobre la naturaleza de estos riesgos".
Pero al organizar la cumbre, el Reino Unido se posicionó primero como un actor central en el establecimiento de la agenda de "de qué hablamos cuando hablamos de IA", y ciertamente tiene una perspectiva económica.
"Al convertir al Reino Unido en un líder mundial en IA segura, atraeremos más nuevos puestos de trabajo e inversiones de esta ola de nuevas tecnologías", señaló Sunak. (El memorándum también fue recibido por otros departamentos: el ministro del Interior organizó hoy un evento con la Internet Watch Foundation y varias de las principales empresas de aplicaciones de consumo, como TikTok y Snap, para hacer frente a la proliferación de imágenes de abuso sexual generadas por IA).
Involucrar a las grandes empresas tecnológicas puede parecer que ayuda de alguna manera, pero los críticos tienden a verlo también como un problema. La "captura regulatoria", en la que los actores más poderosos de la industria toman medidas proactivas para discutir y desarrollar riesgos y protecciones, ha sido otro gran tema en el nuevo mundo de la IA, y la cumbre de esta semana no es diferente.
"Desconfíe de los líderes de IA que levantan la mano y dicen: 'yo, yo'". Nigel Toon, CEO del fabricante de chips de IA Graphcore, señaló astutamente en un artículo que escribió sobre la próxima cumbre de esta semana: "Es probable que los gobiernos intervengan y confíen en su palabra". (Sin embargo, no es del todo marginal: él mismo asistirá a la cumbre).
Al mismo tiempo, muchas personas todavía están debatiendo si el llamado riesgo existencial actual es un ejercicio útil de pensamiento.
"Creo que la retórica de las fronteras y la inteligencia artificial nos ha puesto en un estado de miedo a la tecnología durante el último año", dijo Ben Brooks, jefe de políticas públicas de Stability AI, en un panel de discusión en la Royal Society, citando el experimento mental "Paperclip Maxing", donde la IA podría destruir el mundo creando clips sin tener en cuenta las necesidades humanas o la seguridad, como un ejemplo de este enfoque deliberadamente limitante. "No piensan en las circunstancias en las que se puede implementar la IA. Pero puedes desarrollarlo de forma segura. Queremos que todo el mundo se sienta inspirado por esto y se dé cuenta de que la IA es alcanzable y segura de hacer. "
Otros no están tan seguros.
Hobbhahn, de Apollo Research, dijo: "Para ser justos, no creo que el riesgo existencial sea exacto. "Llamémoslo riesgo catastrófico". Dado el ritmo de desarrollo de los últimos años, las aplicaciones de IA generativa han llevado grandes modelos de lenguaje a la corriente principal, y cree que la mayor preocupación seguirán siendo los malos actores que utilizan la IA, en lugar de la propia IA en un motín: su uso para la guerra biológica, la situación de seguridad nacional y la desinformación que podría alterar el proceso democrático. Todas estas, dijo, son áreas en las que cree que es probable que la IA desempeñe un papel catastrófico.
"Los ganadores del Premio Turing están abiertamente preocupados por la supervivencia y los riesgos catastróficos... Realmente deberíamos pensarlo", agregó.
Perspectivas de negocio
Si bien existen serios riesgos, el Reino Unido también quiere convertir al país en un hogar natural para las empresas de IA organizando grandes conversaciones sobre IA. Sin embargo, algunos analistas creen que el camino para invertir en IA puede no ser tan fácil como algunos predicen.
"Creo que está empezando a surgir la realidad de que las empresas están empezando a entender cuánto tiempo y dinero necesitan asignar a los proyectos de IA generativa para obtener resultados fiables que realmente puedan aumentar la productividad y los ingresos", dijo Avivah Litan, vicepresidente analista corporativo de Gartner. "A pesar de que realizan ajustes iterativos e ingeniería en el proyecto, aún necesitan supervisión manual de las operaciones y los resultados. En resumen, la salida de GenAI no es lo suficientemente confiable y requiere muchos recursos para que sea confiable. Por supuesto, el modelo está mejorando todo el tiempo, pero ese es el estado actual del mercado. Sin embargo, al mismo tiempo, vemos cada vez más proyectos que entran en la etapa de producción. "
Ella cree que las inversiones en IA "definitivamente ralentizarán el crecimiento de las empresas y las organizaciones gubernamentales que utilizan la IA". Los proveedores están impulsando sus aplicaciones y productos de IA, pero las empresas no pueden adoptarlos tan rápido como se les impulsa. Además, existen muchos riesgos asociados con las aplicaciones de GenAI, como democratizar el fácil acceso a la información confidencial incluso dentro de una organización. "
Al igual que la "transformación digital" es más bien un concepto de combustión lenta en realidad, la estrategia de inversión en IA de una empresa también necesita más tiempo. "Se necesita tiempo para que las empresas bloqueen sus conjuntos de datos estructurados y no estructurados y establezcan los permisos de manera correcta y eficiente. Hay demasiado exceso de intercambio en la empresa que realmente no importaba hasta entonces. Litan añade: "Ahora, cualquiera puede acceder a cualquier archivo que otros no estén adecuadamente protegidos mediante un simple comando de idioma nativo, como el inglés". "
El hecho de que cómo equilibrar los intereses comerciales de la IA con los problemas de seguridad y riesgo que discutirá Bletchley Park dice mucho sobre la tarea que tenemos por delante, pero también pone de relieve la tensión de la situación. Más adelante en la conferencia, los organizadores de Bletchley han trabajado para ampliar la discusión más allá de las preocupaciones de seguridad de alto nivel a áreas donde realmente pueden surgir riesgos, como la atención médica, aunque este cambio no se detalla en la agenda anunciada actualmente.
"Habrá una mesa redonda de unos 100 expertos, que no es pequeña. Soy un crítico, pero no suena como una mala idea", dice Neff, profesor de la Universidad de Cambridge. "Ahora, ¿la regulación global será un tema de discusión? En absoluto. ¿Vamos a normalizar las relaciones Este-Oeste? Probablemente no. Pero estamos llegando a nuestra cumbre. Creo que podría haber algunas oportunidades muy interesantes en este momento. "