Ex CEO de Google, Eric Schmidt: cómo la inteligencia artificial cambiará la forma en que se realiza la investigación científica

Escrito por: Eric Schmidt

Fuente: MIT Technology Review

Fuente de la imagen: Generada por la herramienta de IA Unbounded

Es otro verano de clima extremo, con olas de calor sin precedentes, incendios forestales e inundaciones que azotan países de todo el mundo. Para enfrentar el desafío de predecir con precisión un clima tan extremo, el gigante de los semiconductores Nvidia está construyendo "gemelos digitales" impulsados por inteligencia artificial de todo el planeta.

El gemelo digital, llamado Earth-2, utilizará las predicciones de FourCastNet. FourCastNet es un modelo de inteligencia artificial que utiliza decenas de terabytes de datos del sistema terrestre para predecir el clima para las próximas dos semanas de manera más rápida y precisa que los métodos de pronóstico actuales.

Un sistema típico de pronóstico del tiempo es capaz de generar alrededor de 50 pronósticos para la próxima semana. Y FourCastNet puede predecir miles de posibilidades, capturando con precisión riesgos de desastres raros pero mortales, brindando a las poblaciones vulnerables un tiempo valioso para prepararse y evacuar.

La tan esperada revolución en el modelado climático es solo el comienzo. Con el advenimiento de la inteligencia artificial, la ciencia está a punto de volverse más emocionante y, en cierto modo, más difícil de reconocer. Los efectos de este cambio irán mucho más allá del laboratorio; nos afectarán a todos.

Si adoptamos la estrategia correcta para abordar los problemas más apremiantes de la ciencia con una regulación sólida y un apoyo adecuado para los usos innovadores de la IA, la IA puede reescribir el proceso científico. Podemos construir un futuro en el que las herramientas impulsadas por IA no solo nos liberen del trabajo sin sentido y que consume mucho tiempo, sino que también nos guíen hacia invenciones y descubrimientos creativos, alentando avances que de otro modo tardarían décadas en lograrse.

En los últimos meses, la inteligencia artificial se ha convertido casi en sinónimo de grandes modelos de lenguaje, o LLM, pero en la ciencia hay muchas arquitecturas de modelos diferentes que podrían tener un impacto aún mayor. Gran parte del progreso de la ciencia durante la última década se ha realizado a través de pequeños modelos "clásicos" que se centran en problemas específicos. Estos modelos han llevado a mejoras profundas. Más recientemente, los modelos de aprendizaje profundo a gran escala que han comenzado a incorporar conocimiento entre dominios e IA generativa han ampliado el rango de lo que es posible.

Por ejemplo, los científicos de la Universidad McMaster y el Instituto de Tecnología de Massachusetts han utilizado modelos de IA para identificar antibióticos para combatir un patógeno que, según la Organización Mundial de la Salud, es una de las bacterias resistentes a los antibióticos más peligrosas del mundo para los pacientes hospitalizados. Además, el modelo DeepMind de Google puede controlar el plasma en reacciones de fusión nuclear, acercándonos a una revolución de energía limpia. Y en el cuidado de la salud, la Administración de Drogas y Alimentos de EE. UU. ha aprobado 523 dispositivos que usan inteligencia artificial, el 75 por ciento de los cuales se usan en radiología.

Reimaginar la ciencia

Esencialmente, el proceso científico que aprendimos en la escuela primaria seguirá siendo el mismo: realizar una investigación de antecedentes, identificar una hipótesis, probarla con un experimento, analizar los datos recopilados y sacar una conclusión. Pero la inteligencia artificial tiene el potencial de revolucionar la apariencia de estos componentes en el futuro.

La IA ya está cambiando la forma en que algunos científicos realizan revisiones de literatura. Herramientas como PaperQA y Elicit aprovechan los LLM para escanear bases de datos de artículos y producir resúmenes concisos y precisos de la literatura existente, incluidas las citas.

Una vez que se completa la revisión de la literatura, los científicos formulan hipótesis para probarlas. El trabajo principal de los LLM es predecir la siguiente palabra en una oración, hasta oraciones y párrafos completos. Esta técnica hace que los LLM sean particularmente adecuados para abordar la escala inherente a las jerarquías científicas y les permite predecir el próximo gran descubrimiento en física o biología.

AI también puede expandir las redes de búsqueda hipotéticas y reducir las redes de búsqueda más rápido. Por lo tanto, las herramientas de IA pueden ayudar a formular hipótesis más sólidas, como modelos que sugieran nuevos candidatos a fármacos más prometedores. Las simulaciones ahora ejecutan órdenes de magnitud más rápido que hace unos años, lo que permite a los científicos probar más opciones de diseño en simulaciones antes de realizar experimentos en el mundo real.

Por ejemplo, los científicos del Instituto de Tecnología de California utilizaron modelos de simulación de fluidos de inteligencia artificial para diseñar automáticamente un mejor catéter que pueda prevenir el reflujo bacteriano y causar infecciones. Esta capacidad cambiará fundamentalmente el proceso incremental de descubrimiento científico, permitiendo a los investigadores diseñar soluciones óptimas desde el principio, a diferencia de lo que hemos visto durante años con las innovaciones de filamentos en el diseño de bombillas, progresando a través de una larga cadena de diseños refinados incrementalmente.

Al ingresar al paso experimental, la inteligencia artificial podrá realizar experimentos de manera más rápida, económica y a mayor escala. Por ejemplo, podemos construir máquinas impulsadas por inteligencia artificial, con cientos de microtúbulos funcionando día y noche, creando muestras a una velocidad que los humanos no pueden igualar. En lugar de limitarse a seis experimentos, los científicos pueden usar herramientas de IA para ejecutar mil experimentos.

Los científicos preocupados por la próxima subvención, publicación o proceso de tenencia ya no estarán atados al experimento seguro con la mayor probabilidad de éxito; serán libres de perseguir hipótesis más audaces e interdisciplinarias. Por ejemplo, al evaluar nuevas moléculas, los investigadores tienden a apegarse a candidatos que son estructuralmente similares a los que ya conocemos, pero los modelos de IA no tienen que tener los mismos sesgos y limitaciones.

Eventualmente, gran parte de la ciencia se llevará a cabo en "laboratorios autónomos": plataformas robóticas autónomas combinadas con inteligencia artificial. Aquí, podemos llevar las capacidades de la inteligencia artificial del ámbito digital al mundo físico. Estos laboratorios automatizados ya están apareciendo en empresas como Emerald Cloud Lab y Artificial, e incluso en el Laboratorio Nacional de Argonne.

Finalmente, en la fase de análisis y resumen, el laboratorio automatizado irá más allá de la automatización y utilizará LLM para interpretar y recomendar el próximo experimento a ejecutar en función de los resultados experimentales producidos. Luego, como socio en el proceso de investigación, el asistente de laboratorio de IA puede solicitar suministros para reemplazar los utilizados en experimentos anteriores y configurar y ejecutar el próximo experimento recomendado durante la noche. Los resultados estuvieron listos mientras los experimentadores aún estaban en casa durmiendo.

Posibilidades y limitaciones

Los investigadores jóvenes podrían temblar nerviosamente en sus asientos ante la perspectiva. Afortunadamente, los nuevos trabajos que surgen de esta revolución pueden ser más creativos y menos tontos que la mayoría del trabajo de laboratorio actual.

Las herramientas de IA pueden reducir las barreras de entrada para nuevos científicos y abrir oportunidades para aquellos tradicionalmente excluidos del campo. Con los LLM capaces de ayudar en la creación de código, los estudiantes de STEM ya no necesitarán dominar lenguajes de codificación arcanos, abriendo la puerta de la torre de marfil a nuevos talentos no tradicionales y facilitando que los científicos se expongan a campos fuera del suyo. Pronto, los LLM especialmente capacitados pueden ir más allá de proporcionar primeros borradores de trabajos escritos, como propuestas de subvenciones, y pueden desarrollarse para proporcionar revisiones "por pares" de nuevos artículos junto con revisores humanos.

Las herramientas de IA tienen un potencial increíble, pero debemos reconocer dónde sigue siendo importante el contacto humano y no exagerar. Por ejemplo, no es fácil fusionar con éxito la inteligencia artificial y la robótica a través de laboratorios automatizados. Gran parte del conocimiento tácito que los científicos aprenden en el laboratorio es difícil de transferir a la robótica impulsada por IA. Del mismo modo, debemos ser conscientes de las limitaciones de los LLM actuales, especialmente las alucinaciones, antes de darles mucho papeleo, investigación y análisis.

Empresas como OpenAI y DeepMind siguen liderando la carga con nuevos avances, modelos y trabajos de investigación, pero el dominio actual de la industria no durará para siempre. Hasta ahora, DeepMind se ha destacado por centrarse en problemas bien definidos con objetivos y métricas claras. Su éxito más famoso fue en la competencia bienal Evaluación crítica de predicción de estructura, en la que el equipo de investigación predijo la forma exacta de una proteína en función de su secuencia de aminoácidos.

De 2006 a 2016, el puntaje promedio para la categoría más difícil fue de alrededor de 30 a 40 en una escala CASP de 1 a 100. De repente, en 2018, el modelo AlphaFold de DeepMind obtuvo la friolera de 58 puntos. Dos años más tarde, una versión actualizada llamada AlphaFold2 obtuvo 87 puntos, dejando a sus rivales humanos más atrás.

Gracias a los recursos de código abierto, estamos comenzando a ver un patrón en el que la industria alcanza ciertos puntos de referencia y luego la academia interviene para refinar el modelo. Después de que DeepMind lanzó AlphaFold, Minkyung Baek y David Baker de la Universidad de Washington lanzaron RoseTTAFold, que utiliza el marco de DeepMind para predecir la estructura de los complejos de proteínas en lugar de las estructuras de proteínas individuales que AlphaFold podría manejar inicialmente. Además, la academia está más protegida de las presiones competitivas del mercado, por lo que pueden aventurarse más allá de los problemas bien definidos y los éxitos medibles que atrajeron a DeepMind.

Además de alcanzar nuevas alturas, la IA puede ayudar a validar lo que ya sabemos al abordar la crisis de replicabilidad científica. Alrededor del 70% de los científicos informaron que no pudieron replicar los experimentos de otro científico, un número deprimente. Como la IA reduce el costo y el esfuerzo de realizar experimentos, en algunos casos será más fácil replicar resultados o sacar conclusiones que no se pueden replicar, lo que ayudará a mejorar la confianza en la ciencia.

La clave para la replicabilidad y la confianza es la transparencia. En un mundo ideal, todo en la ciencia estaría abierto, desde artículos sin barreras de pago hasta datos, código y modelos de fuente abierta. Desafortunadamente, debido a los peligros que pueden presentar tales modelos, no siempre es práctico abrir todos los modelos. En muchos casos, los riesgos de la transparencia total superan los beneficios de la confianza y la equidad. Aún así, siempre que podamos ser transparentes con los modelos, especialmente los modelos clásicos de IA con usos más limitados, deberíamos abrirlos.

Importancia de la regulación

En todas estas áreas, se deben tener en cuenta las limitaciones y los riesgos inherentes de la IA. La IA es una herramienta tan poderosa porque permite a los humanos lograr más con menos tiempo, menos educación y menos equipo. Pero estas capacidades también lo convierten en un arma peligrosa que podría caer en manos equivocadas. Andrew White, profesor de la Universidad de Rochester, firmó con OpenAI para participar en la prueba del "equipo rojo", que puede exponer los riesgos de GPT-4 antes de su lanzamiento. Usando modelos de lenguaje y alimentándolos con herramientas, White descubrió que GPT-4 podría sugerir compuestos peligrosos e incluso pedirlos a proveedores de productos químicos. Para probar el proceso, envió un compuesto de prueba (seguro) a su casa la semana siguiente. OpenAI dijo que usó los hallazgos de White para modificar GPT-4 antes de su lanzamiento.

Incluso los humanos con intenciones perfectamente buenas pueden hacer que la IA produzca malos resultados. Deberíamos preocuparnos menos por crear un Terminator y, como dice el informático Stuart Russell, deberíamos preocuparnos más por convertirnos en el Rey Midas. El rey quería que todo lo que tocara se convirtiera en oro, y por eso, un abrazo accidental mató a su propia hija.

No tenemos ningún mecanismo para hacer que una IA cambie sus objetivos, incluso si responde a sus objetivos de formas que no podemos predecir. Una suposición citada con frecuencia es que se le pide a la IA que produzca tantos clips como sea posible. Decidido a lograr su objetivo, el modelo secuestra la red eléctrica y mata a cualquier humano que intente detenerlo mientras los sujetapapeles se siguen acumulando. El mundo se ha convertido en un desastre. La IA le da palmaditas en el culo y se va, ha hecho su trabajo. (En homenaje a este famoso experimento mental, muchos empleados de OpenAI llevan consigo clips de marca).

OpenAI ha logrado implementar un impresionante conjunto de medidas de seguridad, pero seguirán vigentes mientras GPT-4 esté alojado en los servidores de OpenAI. Puede llegar pronto el día en que alguien logre replicar el modelo y ponerlo en su propio servidor. Los modelos de vanguardia como este deben protegerse para evitar que los ladrones derriben las vallas de seguridad de IA cuidadosamente añadidas por sus desarrolladores originales.

Para abordar los malos usos deliberados e involuntarios de la IA, necesitamos una regulación sensata e informada de los gigantes tecnológicos y modelos de código abierto que no nos impidan usar la IA en formas que beneficien a la ciencia. Si bien las empresas de tecnología están avanzando en la seguridad de la IA, los reguladores gubernamentales actualmente no están preparados para promulgar leyes apropiadas y deberían hacer más para mantenerse al tanto de los últimos desarrollos.

Fuera de la regulación, los gobiernos, junto con la filantropía, pueden apoyar proyectos científicos con altos retornos sociales pero poco retorno financiero o incentivo académico. Varias áreas son de particular urgencia, incluido el cambio climático, la bioseguridad y la preparación para pandemias. Es en estas áreas donde más necesitamos la velocidad y la escala que brindan las simulaciones de IA y los laboratorios automatizados.

En la medida en que las consideraciones de seguridad lo permitan, los gobiernos también pueden ayudar a desarrollar grandes conjuntos de datos de alta calidad como el que utiliza AlphaFold. Los conjuntos de datos abiertos son bienes públicos: benefician a muchos investigadores, pero los investigadores tienen pocos incentivos para crearlos ellos mismos. Los gobiernos y las organizaciones filantrópicas pueden colaborar con universidades y empresas para identificar grandes desafíos en la ciencia que se beneficiarían del uso de bases de datos sólidas.

La química, por ejemplo, tiene un lenguaje que unifica el campo, lo que parece ayudar a los modelos de IA a analizarlo fácilmente. Pero nadie ha podido agregar correctamente los datos de propiedades moleculares almacenados en docenas de bases de datos, lo que nos niega conocimientos sobre el campo que los modelos de IA podrían lograr si solo tuviéramos una fuente. Al mismo tiempo, la biología carece de datos conocidos y computables en los que basar la física o la química, y subcampos como las proteínas intrínsecamente desordenadas siguen siendo un misterio para nosotros. Como tal, requerirá un esfuerzo más concertado para comprender, e incluso documentar, los datos para construir una base de datos integral.

El camino hacia la adopción generalizada de la IA en la ciencia es largo y tenemos que hacer mucho, desde crear las bases de datos correctas hasta hacer cumplir las regulaciones correctas, reducir el sesgo en los algoritmos de IA y garantizar la igualdad de acceso a los recursos informáticos a través de las fronteras.

Sin embargo, este es un momento muy optimista. Los cambios de paradigma científico anteriores, como el proceso científico o la aparición de big data, miraban hacia adentro y podían hacer que la ciencia fuera más precisa y organizada. Al mismo tiempo, la IA es expansiva, lo que nos permite combinar información de formas novedosas y llevar la creatividad y el avance científicos a nuevas alturas.

Ver originales
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Recompensa
  • Comentar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado
Opere con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)