“Casi se está convirtiendo en un mar rojo.” Cuando conversé con un empresario sobre el gran modelo, directamente me lanzó esta frase.
En noviembre del año pasado, OpenAI lanzó ChatGPT basado en GPT-3.5, que instantáneamente encendió el aumento de modelos grandes. Durante más de medio año, ha habido una "guerra de los cien modelos" en China. Las principales empresas de Internet, como BAT y las empresas de inteligencia artificial, básicamente han anunciado sus propios modelos a gran escala.
A principios de mayo, Zhou Hongyi, el jefe de 360, dijo al mundo exterior: "Si no pasas dos años de imitación y plagio, si apareces y dices que puedes superarlo, eso es fanfarronear". "Hay una brecha de dos años entre el modelo grande y los países extranjeros, lo retiro, hoy está cerca del nivel internacional".
Algunas personas sienten que tomó medio año ponerse al día con ChatGPT, y parece que el modelo grande no es difícil.
Entonces, ¿cuáles son las principales barreras para los modelos grandes? ¿Cuál es el nivel del modelo grande de China? ¿Qué riesgos trae el modelo grande a la sociedad humana?
Con este fin, conversamos con Shen Wei (seudónimo), un conocido profesor universitario 985 que se ha dedicado a la investigación del aprendizaje automático durante muchos años, para descubrir la niebla del modelo grande.
La ruta GPT se ha completado, por lo que hay una "Guerra de los Cien Modelos"
** White Horse Business Review: ¿Puede explicar el modelo grande en el lenguaje más popular y simple, qué es el modelo grande? ¿En qué se diferencia de los modelos de IA anteriores? **
Shen Wei: El llamado modelo grande se refiere a la gran cantidad de parámetros en el modelo, pero no existe una definición clara y clara en los círculos académicos para definir qué tan grande se llama un parámetro "grande". Todavía está en etapa de investigación y desarrollo rápidos En términos generales, la cantidad de parámetros de un modelo grande alcanza 1. más de 100 millones.
De hecho, el desarrollo del aprendizaje profundo ha pasado aproximadamente por tres etapas. La primera etapa es de 2012 a 2017, representada por pequeños modelos específicos de dominio, como la segmentación de imágenes yolo y la clasificación de imágenes ResNet, por lo que la cantidad de parámetros ocupa un máximo de varios cientos de MB de memoria.
En 2017, la llegada de Transformer permitió el aprendizaje profundo para paralelizar la computación, que es más eficiente, lo que significa que se pueden realizar operaciones de modelos a gran escala y, posteriormente, produjo grandes modelos de lenguaje natural como OpenAI GPT y Google Bert. En esta etapa, nació un modelo grande de una tarea específica y los parámetros del modelo superaron los 100 millones.
Alrededor de 2020, el aprendizaje profundo entrará en la etapa de modelo general. Su entrada es una oración con espacios en blanco, y la función del modelo es "llenar los espacios en blanco". En el pasado, el modelo se adaptó a las aplicaciones posteriores, pero ahora es el modelo de adaptación de aplicaciones aguas abajo. Los modelos en esta etapa incluyen GPT 3.5 y GPT 4 en el campo del lenguaje natural y Clip, DALLE, Stable Diffusion, Midjourney, etc. en el campo de la imagen. En esta etapa, los parámetros del modelo pueden alcanzar decenas de miles de millones y cientos de miles de millones.
**White Horse Business Review: ¿Sabe qué empresa o institución fue la primera en estudiar modelos a gran escala? ¿Cuáles son los resultados? **
Shen Wei: Al principio, las universidades y las instituciones de investigación científica realizaron investigaciones relacionadas. Sé que Wu Dao del Instituto de Investigación de Inteligencia Artificial Zhiyuan de Beijing y los cerebros de Pengcheng Lab son los primeros. Ahora, la investigación en la industria también está muy sincronizada. La investigación en el mundo académico tiene algunos resultados, pero el rendimiento no es tan sorprendente como el de ChatGPT.
** White Horse Business Review: en solo unos meses, ha habido una "guerra de los cien modelos" en China, y la cantidad de empresas que han lanzado modelos a gran escala ya es incontable. ¿Qué piensas de este fenómeno? ? **
Shen Wei: Las modelos grandes son definitivamente una tendencia y la gente las ha estado investigando. En el pasado, muchas empresas pueden invertir en un área pequeña e investigar un poco; ahora que apareció de repente un buen producto como ChatGPT, todos vieron una dirección comercial clara, por lo que comenzaron a aumentar la inversión.
Por otro lado, muchas empresas se enfrentan a la presión de la competencia comercial y pueden quedarse atrás si no fabrican modelos a gran escala, por lo que se deben lanzar proyectos de modelos a gran escala.
White Horse Business Review: Zhou Hongyi dijo recientemente que se retractó de la frase "la brecha entre los modelos nacionales a gran escala y los países extranjeros es de dos años". Él cree que hoy está cerca del nivel internacional. Solo han pasado unos meses, y el modelo grande no parece ser difícil. ¿Cuánto crees que es la diferencia?
Shen Wei: La diferencia depende de con quién se esté comparando. No he probado los productos 360 Smart Brain hasta ahora, por lo que no soy muy bueno para evaluarlos. Sin embargo, hay algunos productos de IA generativa en China. Después de mi experiencia, siento que todavía hay una brecha con ChatGPT. Los grandes modelos domésticos aún necesitan trabajar duro.
**Bajo una gran inversión de capital, ¿solo las principales empresas tienen la oportunidad? **
**Revisión de White Horse Business: ¿Cuáles son las principales barreras para el desarrollo de modelos grandes? **
Shen Wei: Las barreras centrales de los modelos grandes incluyen datos, poder de cómputo y algoritmos.
Desde la perspectiva de la potencia informática, se necesitan al menos 10 000 tarjetas gráficas Nvidia A100 para entrenar una IA generativa como ChatGPT. El precio de una sola tarjeta gráfica actualmente es de 60 000 a 70 000 yuanes, y el precio unitario de V100 con mejor rendimiento es de 80 000 yuanes. La inversión debe alcanzar al menos seis o siete mil millones de yuanes, y solo unas pocas empresas e instituciones importantes pueden permitírselo. Para las organizaciones comerciales, gastar cientos de millones para comprar un montón de tarjetas gráficas no necesariamente produce resultados, esta es una pregunta que debe ser considerada.
Lo siguiente son los datos y los algoritmos. Los algoritmos son más fáciles de entender, como los marcos de desarrollo y los algoritmos de optimización. En términos de datos, China no tiene escasez de datos, e incluso más datos de Internet que Estados Unidos, pero qué datos elegir para la capacitación y cómo procesarlos son barreras centrales.
**Baima Business Review: ¿Sueles comunicarte con empresas? ¿Cuál es la diferencia entre las instituciones de investigación sin fines de lucro y las corporaciones de investigación? **
Shen Wei: Tendremos algunos intercambios con el departamento de investigación de la empresa. Al comunicarnos con las empresas, comprenderemos mejor las necesidades comerciales reales. A veces, la investigación académica que hacemos prestará más atención a la tecnología con visión de futuro y los requisitos para la implementación no son tan altos, pero las empresas generalmente ponen más énfasis en la implementación.
**Baima Business Review: ¿Alguna vez ha estudiado modelos domésticos a gran escala? ¿Cuál te gusta más? **
Shen Wei: Tal vez las principales empresas puedan salir. Uno es una gran inversión de capital, y solo las empresas líderes tienen la fuerza; el otro es que los datos en manos de varias empresas líderes son más abundantes; el tercero es que ha habido un período de acumulación de tecnología en el campo de la inteligencia artificial.
**Revisión de White Horse Business: ¿Cuál es su aplicación de modelo a gran escala más prometedora? **
Shen Wei: Desde un punto de vista técnico, la primera aplicación debe ser en el campo del procesamiento del lenguaje natural y las imágenes, y el reconocimiento de voz puede ser posterior.
Puedes ver que cada vez se usa más chatGPT para redactar textos publicitarios. Cada vez hay más aplicaciones para este tipo de creación de contenido. Creo que otras aplicaciones, como el servicio al cliente inteligente, deberían ser más rápidas. Algunos de los servicios de atención al cliente inteligentes actuales a menudo no pueden comprender las necesidades de los usuarios y no pueden resolver problemas prácticos.Si los usuarios no pueden distinguir si es un humano o un robot, la experiencia mejorará mucho;incluido el NPC en el juego, el anterior el diálogo está codificado, ahora es gradualmente interactivo y la experiencia del jugador será mejor.
** White Horse Business Review: solía ser el analista jefe de una importante firma de corretaje. Desde una perspectiva de inversión, ¿qué oportunidades cree que tienen los grandes modelos? **
Shen Wei: La lógica de la exageración del capital es de la aplicación a los algoritmos, modelos y luego al poder de cómputo; la lógica de la industria es la opuesta, y el poder de cómputo tiene una clara expectativa de crecimiento, por lo que Nvidia recientemente ha aumentado rápidamente y mucho. Los inversores ahora también entienden que aún debe verificarse que el gran modelo se puede realizar y realizar, pero la mayor parte del aumento de la inversión de capital se ha invertido en potencia informática. Después de repetidas exageraciones, el aumento general en el mercado debería haber llegado a su fin, y más adelante se necesita una verificación lógica y el cumplimiento del rendimiento.
Originalmente miré principalmente a la industria de medios e Internet, como el sector de juegos relativamente fuerte hace algún tiempo. La lógica del capital es primero aplicar modelos grandes para mejorar la eficiencia de I + D y reducir costos; segundo, los modelos grandes brindan una mejor experiencia y NPC los personajes son más inteligentes Aumento de la viscosidad, aumento del valor UP. Por supuesto, eventualmente se puede requerir la verificación del desempeño.
Los humanos no pueden controlar la IA, ni siquiera su propio destino
**Revisión de White Horse Business: Hemos visto que Altman y Musk han expresado su preocupación sobre la seguridad de la inteligencia artificial. Ahora solo sabemos que hay resultados inteligentes a través del entrenamiento de modelos grandes, pero el proceso de entrenamiento es como una caja negra. En realidad es Muy escalofriante. ¿Cómo te sientes acerca de los problemas de seguridad? **
Shen Wei: En términos de seguridad, en primer lugar, observé varios fenómenos anormales. La primera fue una carta abierta firmada en marzo por más de 1000 personas, incluidos Musk y el cofundador de Apple, Steve Wozniak, que pedía una moratoria en el entrenamiento de sistemas de IA más potentes que GPT-4.
La segunda es que Jeffrey Hinton, el científico jefe de Google y el "padrino de la IA" de 75 años, renunció en mayo de este año. La razón directa de su salida de Google fue que estaba preocupado por el peligro de la inteligencia artificial. , e incluso se arrepintió del trabajo que había hecho toda su vida. .
La tercera es que en los últimos dos años, el modelo de formación a gran escala en el ámbito académico ha sumado discusiones éticas.
En la actualidad, creo que el modelo grande todavía es controlable y no hay mayor problema, pero la tecnología se está desarrollando demasiado rápido. En solo unos meses desde que se lanzó, GPT ha pasado por varias iteraciones y la velocidad de desarrollo es demasiado alta. rápido A medida que nos volvemos más y más inteligentes, ¿desarrollaremos la autoconciencia, dejaremos de escuchar las "órdenes" humanas y perderemos el control? Esta pregunta es lo que preocupa a todos.
** White Horse Business Review: ¿Cree que la IA causará desempleo masivo? Frente a la IA, ¿cómo puede la gente común conservar su trabajo? **
Shen Wei: Desde una perspectiva macro, no creo que la IA cause mucho desempleo. Los humanos siempre tendrán trabajo. Es solo que el contenido de los trabajos de las personas cambiará. Por supuesto, desde un punto de vista individual, definitivamente habrá desempleo estructural, y solo podemos seguir aprendiendo.
**Revisión de White Horse Business: Mucha gente dijo antes que las máquinas no tienen emoción, carecen de imaginación y no pueden reemplazar a los humanos; ahora que el cerebro humano puede ser simulado por IA, ¿pueden simularse la lujuria humana y el deseo sexual en el futuro? Hormonas , dopamina, etc. Es un mecanismo de recompensa biológica. **
Shen Wei: Es la suposición actual que las máquinas no tienen emociones. La inteligencia artificial se está acercando al modo de pensamiento humano. ¿Producirá "emociones" similares a las de los humanos? Es solo que viven en una dimensión espacial diferente a la de los humanos, al igual que la hija de Tu Hengyu en "La Tierra Errante". La inteligencia artificial puede generar su propio mundo con mecanismos de recompensa biológicamente similares a los humanos.
**Revisión de White Horse Business: si todo se puede calcular, planificar y establecer, ¿no sería un poco aburrido? **
Shen Wei: El comportamiento de la IA no es previsto ni planificado por los humanos, sino que es el resultado de su autofortalecimiento y autoentrenamiento. La toma de decisiones de MOSS en "The Wandering Earth" se realiza por sí mismo, en lugar de obedecer las instrucciones. dada por los humanos.
** White Horse Business Review: ¿Es el reemplazo de la civilización basada en el carbono por una civilización basada en el silicio una dirección determinista? **
Shen Wei: Esta pregunta está más allá del esquema. De acuerdo con la tendencia de desarrollo actual, puede ser así, al igual que en "La Tierra Errante", es MOSS, no los humanos, quien realmente domina el destino de la humanidad; pero en realidad, también es posible que la tecnología se estanque en una determinada etapa y no puede pasarla.Después de todo, el desarrollo tecnológico no es lineal.
Ver originales
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
Sobre el modelo grande, tuve una conversación única con un profesional
Fuente original: White Horse Business Review
“Casi se está convirtiendo en un mar rojo.” Cuando conversé con un empresario sobre el gran modelo, directamente me lanzó esta frase.
En noviembre del año pasado, OpenAI lanzó ChatGPT basado en GPT-3.5, que instantáneamente encendió el aumento de modelos grandes. Durante más de medio año, ha habido una "guerra de los cien modelos" en China. Las principales empresas de Internet, como BAT y las empresas de inteligencia artificial, básicamente han anunciado sus propios modelos a gran escala.
A principios de mayo, Zhou Hongyi, el jefe de 360, dijo al mundo exterior: "Si no pasas dos años de imitación y plagio, si apareces y dices que puedes superarlo, eso es fanfarronear". "Hay una brecha de dos años entre el modelo grande y los países extranjeros, lo retiro, hoy está cerca del nivel internacional".
Algunas personas sienten que tomó medio año ponerse al día con ChatGPT, y parece que el modelo grande no es difícil.
Entonces, ¿cuáles son las principales barreras para los modelos grandes? ¿Cuál es el nivel del modelo grande de China? ¿Qué riesgos trae el modelo grande a la sociedad humana?
Con este fin, conversamos con Shen Wei (seudónimo), un conocido profesor universitario 985 que se ha dedicado a la investigación del aprendizaje automático durante muchos años, para descubrir la niebla del modelo grande.
La ruta GPT se ha completado, por lo que hay una "Guerra de los Cien Modelos"
** White Horse Business Review: ¿Puede explicar el modelo grande en el lenguaje más popular y simple, qué es el modelo grande? ¿En qué se diferencia de los modelos de IA anteriores? **
Shen Wei: El llamado modelo grande se refiere a la gran cantidad de parámetros en el modelo, pero no existe una definición clara y clara en los círculos académicos para definir qué tan grande se llama un parámetro "grande". Todavía está en etapa de investigación y desarrollo rápidos En términos generales, la cantidad de parámetros de un modelo grande alcanza 1. más de 100 millones.
De hecho, el desarrollo del aprendizaje profundo ha pasado aproximadamente por tres etapas. La primera etapa es de 2012 a 2017, representada por pequeños modelos específicos de dominio, como la segmentación de imágenes yolo y la clasificación de imágenes ResNet, por lo que la cantidad de parámetros ocupa un máximo de varios cientos de MB de memoria.
En 2017, la llegada de Transformer permitió el aprendizaje profundo para paralelizar la computación, que es más eficiente, lo que significa que se pueden realizar operaciones de modelos a gran escala y, posteriormente, produjo grandes modelos de lenguaje natural como OpenAI GPT y Google Bert. En esta etapa, nació un modelo grande de una tarea específica y los parámetros del modelo superaron los 100 millones.
**White Horse Business Review: ¿Sabe qué empresa o institución fue la primera en estudiar modelos a gran escala? ¿Cuáles son los resultados? **
Shen Wei: Al principio, las universidades y las instituciones de investigación científica realizaron investigaciones relacionadas. Sé que Wu Dao del Instituto de Investigación de Inteligencia Artificial Zhiyuan de Beijing y los cerebros de Pengcheng Lab son los primeros. Ahora, la investigación en la industria también está muy sincronizada. La investigación en el mundo académico tiene algunos resultados, pero el rendimiento no es tan sorprendente como el de ChatGPT.
** White Horse Business Review: en solo unos meses, ha habido una "guerra de los cien modelos" en China, y la cantidad de empresas que han lanzado modelos a gran escala ya es incontable. ¿Qué piensas de este fenómeno? ? **
Shen Wei: Las modelos grandes son definitivamente una tendencia y la gente las ha estado investigando. En el pasado, muchas empresas pueden invertir en un área pequeña e investigar un poco; ahora que apareció de repente un buen producto como ChatGPT, todos vieron una dirección comercial clara, por lo que comenzaron a aumentar la inversión.
Por otro lado, muchas empresas se enfrentan a la presión de la competencia comercial y pueden quedarse atrás si no fabrican modelos a gran escala, por lo que se deben lanzar proyectos de modelos a gran escala.
White Horse Business Review: Zhou Hongyi dijo recientemente que se retractó de la frase "la brecha entre los modelos nacionales a gran escala y los países extranjeros es de dos años". Él cree que hoy está cerca del nivel internacional. Solo han pasado unos meses, y el modelo grande no parece ser difícil. ¿Cuánto crees que es la diferencia?
Shen Wei: La diferencia depende de con quién se esté comparando. No he probado los productos 360 Smart Brain hasta ahora, por lo que no soy muy bueno para evaluarlos. Sin embargo, hay algunos productos de IA generativa en China. Después de mi experiencia, siento que todavía hay una brecha con ChatGPT. Los grandes modelos domésticos aún necesitan trabajar duro.
**Bajo una gran inversión de capital, ¿solo las principales empresas tienen la oportunidad? **
**Revisión de White Horse Business: ¿Cuáles son las principales barreras para el desarrollo de modelos grandes? **
Shen Wei: Las barreras centrales de los modelos grandes incluyen datos, poder de cómputo y algoritmos.
Desde la perspectiva de la potencia informática, se necesitan al menos 10 000 tarjetas gráficas Nvidia A100 para entrenar una IA generativa como ChatGPT. El precio de una sola tarjeta gráfica actualmente es de 60 000 a 70 000 yuanes, y el precio unitario de V100 con mejor rendimiento es de 80 000 yuanes. La inversión debe alcanzar al menos seis o siete mil millones de yuanes, y solo unas pocas empresas e instituciones importantes pueden permitírselo. Para las organizaciones comerciales, gastar cientos de millones para comprar un montón de tarjetas gráficas no necesariamente produce resultados, esta es una pregunta que debe ser considerada.
Lo siguiente son los datos y los algoritmos. Los algoritmos son más fáciles de entender, como los marcos de desarrollo y los algoritmos de optimización. En términos de datos, China no tiene escasez de datos, e incluso más datos de Internet que Estados Unidos, pero qué datos elegir para la capacitación y cómo procesarlos son barreras centrales.
**Baima Business Review: ¿Sueles comunicarte con empresas? ¿Cuál es la diferencia entre las instituciones de investigación sin fines de lucro y las corporaciones de investigación? **
Shen Wei: Tendremos algunos intercambios con el departamento de investigación de la empresa. Al comunicarnos con las empresas, comprenderemos mejor las necesidades comerciales reales. A veces, la investigación académica que hacemos prestará más atención a la tecnología con visión de futuro y los requisitos para la implementación no son tan altos, pero las empresas generalmente ponen más énfasis en la implementación.
**Baima Business Review: ¿Alguna vez ha estudiado modelos domésticos a gran escala? ¿Cuál te gusta más? **
Shen Wei: Tal vez las principales empresas puedan salir. Uno es una gran inversión de capital, y solo las empresas líderes tienen la fuerza; el otro es que los datos en manos de varias empresas líderes son más abundantes; el tercero es que ha habido un período de acumulación de tecnología en el campo de la inteligencia artificial.
**Revisión de White Horse Business: ¿Cuál es su aplicación de modelo a gran escala más prometedora? **
Shen Wei: Desde un punto de vista técnico, la primera aplicación debe ser en el campo del procesamiento del lenguaje natural y las imágenes, y el reconocimiento de voz puede ser posterior.
Puedes ver que cada vez se usa más chatGPT para redactar textos publicitarios. Cada vez hay más aplicaciones para este tipo de creación de contenido. Creo que otras aplicaciones, como el servicio al cliente inteligente, deberían ser más rápidas. Algunos de los servicios de atención al cliente inteligentes actuales a menudo no pueden comprender las necesidades de los usuarios y no pueden resolver problemas prácticos.Si los usuarios no pueden distinguir si es un humano o un robot, la experiencia mejorará mucho;incluido el NPC en el juego, el anterior el diálogo está codificado, ahora es gradualmente interactivo y la experiencia del jugador será mejor.
** White Horse Business Review: solía ser el analista jefe de una importante firma de corretaje. Desde una perspectiva de inversión, ¿qué oportunidades cree que tienen los grandes modelos? **
Shen Wei: La lógica de la exageración del capital es de la aplicación a los algoritmos, modelos y luego al poder de cómputo; la lógica de la industria es la opuesta, y el poder de cómputo tiene una clara expectativa de crecimiento, por lo que Nvidia recientemente ha aumentado rápidamente y mucho. Los inversores ahora también entienden que aún debe verificarse que el gran modelo se puede realizar y realizar, pero la mayor parte del aumento de la inversión de capital se ha invertido en potencia informática. Después de repetidas exageraciones, el aumento general en el mercado debería haber llegado a su fin, y más adelante se necesita una verificación lógica y el cumplimiento del rendimiento.
Originalmente miré principalmente a la industria de medios e Internet, como el sector de juegos relativamente fuerte hace algún tiempo. La lógica del capital es primero aplicar modelos grandes para mejorar la eficiencia de I + D y reducir costos; segundo, los modelos grandes brindan una mejor experiencia y NPC los personajes son más inteligentes Aumento de la viscosidad, aumento del valor UP. Por supuesto, eventualmente se puede requerir la verificación del desempeño.
Los humanos no pueden controlar la IA, ni siquiera su propio destino
**Revisión de White Horse Business: Hemos visto que Altman y Musk han expresado su preocupación sobre la seguridad de la inteligencia artificial. Ahora solo sabemos que hay resultados inteligentes a través del entrenamiento de modelos grandes, pero el proceso de entrenamiento es como una caja negra. En realidad es Muy escalofriante. ¿Cómo te sientes acerca de los problemas de seguridad? **
Shen Wei: En términos de seguridad, en primer lugar, observé varios fenómenos anormales. La primera fue una carta abierta firmada en marzo por más de 1000 personas, incluidos Musk y el cofundador de Apple, Steve Wozniak, que pedía una moratoria en el entrenamiento de sistemas de IA más potentes que GPT-4.
La segunda es que Jeffrey Hinton, el científico jefe de Google y el "padrino de la IA" de 75 años, renunció en mayo de este año. La razón directa de su salida de Google fue que estaba preocupado por el peligro de la inteligencia artificial. , e incluso se arrepintió del trabajo que había hecho toda su vida. .
La tercera es que en los últimos dos años, el modelo de formación a gran escala en el ámbito académico ha sumado discusiones éticas.
En la actualidad, creo que el modelo grande todavía es controlable y no hay mayor problema, pero la tecnología se está desarrollando demasiado rápido. En solo unos meses desde que se lanzó, GPT ha pasado por varias iteraciones y la velocidad de desarrollo es demasiado alta. rápido A medida que nos volvemos más y más inteligentes, ¿desarrollaremos la autoconciencia, dejaremos de escuchar las "órdenes" humanas y perderemos el control? Esta pregunta es lo que preocupa a todos.
** White Horse Business Review: ¿Cree que la IA causará desempleo masivo? Frente a la IA, ¿cómo puede la gente común conservar su trabajo? **
Shen Wei: Desde una perspectiva macro, no creo que la IA cause mucho desempleo. Los humanos siempre tendrán trabajo. Es solo que el contenido de los trabajos de las personas cambiará. Por supuesto, desde un punto de vista individual, definitivamente habrá desempleo estructural, y solo podemos seguir aprendiendo.
**Revisión de White Horse Business: Mucha gente dijo antes que las máquinas no tienen emoción, carecen de imaginación y no pueden reemplazar a los humanos; ahora que el cerebro humano puede ser simulado por IA, ¿pueden simularse la lujuria humana y el deseo sexual en el futuro? Hormonas , dopamina, etc. Es un mecanismo de recompensa biológica. **
Shen Wei: Es la suposición actual que las máquinas no tienen emociones. La inteligencia artificial se está acercando al modo de pensamiento humano. ¿Producirá "emociones" similares a las de los humanos? Es solo que viven en una dimensión espacial diferente a la de los humanos, al igual que la hija de Tu Hengyu en "La Tierra Errante". La inteligencia artificial puede generar su propio mundo con mecanismos de recompensa biológicamente similares a los humanos.
**Revisión de White Horse Business: si todo se puede calcular, planificar y establecer, ¿no sería un poco aburrido? **
Shen Wei: El comportamiento de la IA no es previsto ni planificado por los humanos, sino que es el resultado de su autofortalecimiento y autoentrenamiento. La toma de decisiones de MOSS en "The Wandering Earth" se realiza por sí mismo, en lugar de obedecer las instrucciones. dada por los humanos.
** White Horse Business Review: ¿Es el reemplazo de la civilización basada en el carbono por una civilización basada en el silicio una dirección determinista? **
Shen Wei: Esta pregunta está más allá del esquema. De acuerdo con la tendencia de desarrollo actual, puede ser así, al igual que en "La Tierra Errante", es MOSS, no los humanos, quien realmente domina el destino de la humanidad; pero en realidad, también es posible que la tecnología se estanque en una determinada etapa y no puede pasarla.Después de todo, el desarrollo tecnológico no es lineal.