Autor: Li Zi, Doctorado en Sociología de la Tecnología, Becario Postdoctoral, Departamento de Humanidades Médicas y Ética, Universidad de Columbia
Fuente de la imagen: Generada por Unbounded AI
En la primera mitad del año, nació ChatGPT y se reveló el potencial de la inteligencia artificial, lo que generó una discusión sobre la crisis de supervivencia en muchas industrias. GPT puede aprobar exámenes de calificación de barra e ingeniero, escribir ensayos universitarios sin reprobar las calificaciones e incluso "entender" chistes. Puede responder a las preguntas de las personas, organizar estructuras idiomáticas vívidas e imitar una variedad de estilos lingüísticos; y la combinación de grandes modelos lingüísticos y tecnologías de IA de generación de imágenes, como Midjourney, puede permitir que las personas que no han recibido ninguna formación artística utilicen algunos palabras "Crear" impresionantes imágenes artísticas.
La esencia de ChatGPT es en realidad un modelo de lenguaje grande (Large Language Model, LLM) superpuesto a la inteligencia artificial generativa. Un modelo de lenguaje grande, como sugiere el nombre, es grande y utiliza una gran cantidad de morfemas para entrenar un modelo de computadora con métodos de aprendizaje automático. La fórmula generativa utiliza un método predictivo para mostrar las conexiones de morfema más probables durante el diálogo.
Para los "procesadores" y "consumidores" de conocimiento, las capacidades de los grandes modelos de lenguaje más la inteligencia artificial generativa son enormes. Los datos masivos de morfemas, la red neuronal profunda y el enorme poder de cómputo son equivalentes a "aplanar" todo el conocimiento de Internet y luego "ensamblarlo" a través de la interacción humano-computadora.
**En términos de lógica computacional, ChatGPT es equivalente a un motor de búsqueda más potente. ** Los motores de búsqueda ordinarios como Google y Baidu "raspan" la información de todo Internet a través del modo de rastreo y clasifican a través de algoritmos complejos. El método de la inteligencia artificial que utiliza el aprendizaje automático equivale a clasificar la información de forma predictiva de acuerdo con la lógica del lenguaje. El procesamiento del conocimiento se ha vuelto más conveniente y rápido, y el consumo se ha vuelto más conciso y claro, a veces incluso demasiado simple, lo que brinda oportunidades para hacer trampa en los exámenes.
En respuesta a esto, los optimistas tecnológicos creen que, dado que el contenido que las máquinas pueden generar a partir de ahora, no requerirá que la mayoría de los humanos usen sus cerebros para darse cuenta, al igual que los motores de búsqueda reemplazan las tarjetas de biblioteca y las calculadoras reemplazan al ábaco. De hecho, incluso si la IA no interviene en la toma de decisiones final, aquellas tareas que requieren mucha escritura repetitiva o enumeración y clasificación mecánicas pueden proporcionar un grado considerable de productividad y ayudar a los humanos en el procesamiento y consumo de conocimiento.
Entonces, ¿es útil leer? ¿El personal de las principales universidades e instituciones de investigación también puede dejar el trabajo?
Qué puede "aprender" la máquina
Los grandes modelos de lenguaje y la inteligencia artificial generativa han traído un tema ineludible a los futuros "productores" de conocimiento: ¿qué es el conocimiento? ¿Cómo producir conocimiento diverso, imparcial y auténtico?
La capacidad de "aprendizaje" de la inteligencia artificial es asombrosa. El modelo de lenguaje grande existente y la aplicación de inteligencia artificial no pueden separarse del aprendizaje automático como trasfondo. La palabra "aprendizaje" es esencialmente usar una gran cantidad de datos para entrenar el modelo de predicción y encontrar un equilibrio entre la precisión y la universalidad de la predicción. Este tipo de predicción en realidad se basa en el conocimiento existente, y la predicción del modelo de idioma también se basa en la conexión entre los idiomas existentes. Por ejemplo, ingrese "carne estofada" y la máquina predice "carne"; luego, en función de más entradas, como ubicación, personas, hábitos, etc., dará predicciones más precisas, como "carne estofada de la abuela" y pronto.
¿Cómo se hizo realidad esta predicción? El sistema de coordenadas con el que estamos familiarizados es bidimensional. Por ejemplo, en toda la población, existe una correspondencia aproximada entre altura y peso, dada la altura, la máquina predice un peso promedio, que es una predicción basada en datos existentes. Agregue otra dimensión, como el género, luego se convierte en una coordenada tridimensional y las predicciones de hombres y mujeres serán diferentes. Si esto continúa, las dimensiones de los datos pueden ser infinitas, y el modelo de aprendizaje automático es encontrar tales conexiones en un espacio multidimensional que el cerebro humano no puede imaginar y ajustar constantemente los pesos entre varias dimensiones. Por ejemplo, "cuán importante" es la predicción de altura a peso, que se puede ajustar después de una gran cantidad de entradas de datos.
** Por lo tanto, la inteligencia artificial basada en el aprendizaje automático conectará datos de varias dimensiones en un espacio de dimensiones superiores, tendrá la capacidad de descubrir conexiones potenciales entre datos y también "aprenderá" algunas cosas que no existen en la realidad, pero muy vínculos probables. **Usada en el modelo de lenguaje, la inteligencia artificial también puede aprender diferentes estilos de lenguaje y desenterrar la "esencia" y los "problemas" en el texto existente.
**Cuanto más grandes sean los datos, más maduro será el modelo y mayores serán sus capacidades informáticas y de minería. **Al igual que AI como BERT y GPT, que nacieron en grandes instituciones, muchas personas creen que han alcanzado el "punto de inflexión" de la tecnología, y no es descabellado que los cambios cuantitativos produzcan cambios cualitativos; esta es una buena cosa para los productores de conocimiento. Sin embargo, los modelos grandes también tienen problemas inherentes, y cuanto más grande es el modelo, más agudos son los problemas, especialmente en relación con los aspectos diversos, justos y veraces del conocimiento.
Cómo producir real
** y conocimiento imparcial? **
Se puede generar nuevo conocimiento a partir de conexiones y nuevos modelos del conocimiento existente, lo cual es cierto ya sea a nivel humano o de máquina. Sin embargo, ¿es suficiente el conocimiento existente? ¿Es suficiente? ¿Es justo? Si la base del conocimiento existente es insuficiente o incluso sesgada, el nuevo conocimiento construido sobre ella también estará sesgado.
Desde que la IA de aprendizaje automático se aplicó a gran escala, los académicos han revelado continuamente los sesgos inherentes a estos modelos: sexismo, racismo, resultados poco éticos, etc. Los desarrolladores utilizan varios parches y métodos de corrección para compensarlo, pero la mayoría de los problemas están ocultos en el proceso de formación y producción de datos, y el sesgo de la IA también es un reflejo y una amplificación del prejuicio social.
Otro problema es la calidad de los datos. El aprendizaje automático implica no solo la capacidad de entrenar modelos, sino también la cantidad y calidad de los datos. El proceso de desarrollo existente pone más énfasis en el rendimiento del modelo e incluso en la superstición, pero ignora el problema subyacente de las fuentes de datos. La mayoría de los datos actuales dependen de la limpieza y el formateo manuales, la categorización, el etiquetado, etc. Muchas veces, este proceso de producción de datos es opaco, incluso garabateado. Por ejemplo, detrás del desarrollo de IA de las grandes empresas, una gran cantidad de mano de obra "sucia y desordenada" se subcontrata a "fábricas de IA" en áreas subdesarrolladas. Este proceso tiene, por un lado, problemas de ética laboral y, por otro lado, también plantea desafíos a la calidad de los datos.
En la era de los modelos grandes, este problema puede ocultarse más profundamente: no todos los investigadores o equipos tienen la capacidad de desarrollar modelos de IA desde cero, especialmente modelos de lenguaje grande e imágenes grandes, la mayoría de los cuales se basan en modelos existentes en los que se realiza un ajuste fino. Los problemas y desviaciones del propio modelo grande se migrarán a más modelos de aplicación. Y cuanto menor es la desviación, más difícil es tratarla mediante el ajuste fino y la corrección de la desviación.
El modo de generación de predicción del modelo de lenguaje existente incluso amplificará la desviación existente de los datos, dando como resultado el efecto de "sobreajuste": por ejemplo, cierta enfermedad tiene una alta proporción de datos estadísticos en un determinado grupo étnico, alrededor del 60% ; Pero si el modelo de lenguaje se usa para generar un retrato de un paciente, entonces hay más del 90% de posibilidades de que la descripción del paciente generado pertenezca a este grupo.
Ahora, algunos modelos de entrenamiento de IA adoptan un modo de "combate mutuo", la llamada "red antagónica generativa" (red antagónica generativa), que permite que dos modelos se generen y se corrijan continuamente. Este método mejora la eficiencia del entrenamiento del modelo, pero cualquier pequeña desviación se magnificará en esta "interacción". En el mismo principio, si un productor de conocimiento que trabaja en estrecha colaboración con una máquina se basa en este tipo de "generación", entonces algunos sesgos del modelo se integrarán en más conocimiento nuevo, y el nuevo conocimiento será absorbido como datos, lo que es más refuerza el sesgo del modelo. **Los productores de conocimiento deben permanecer atentos a este proceso.
**¿Qué es el nuevo conocimiento? ¿Podría la "generación" de IA representar nuevos conocimientos? **
¿Qué es el llamado nuevo conocimiento? Si la IA se va a utilizar plenamente para producir conocimiento, entonces los productores de conocimiento deben pensar en este tema desde el punto de vista de la combinación de hombre y máquina. Cualquier información, así como el conocimiento adquirido por humanos del mundo real, debe "limpiarse" y "formatearse" en datos. Además de la calidad de los datos mencionada anteriormente, el proceso de generación de datos también es importante. En resumen, ¿cuál es el problema que se quiere estudiar? ¿A qué tipo de datos se traduce esta pregunta? ¿Cómo se producen estos datos? ¿Representan completa y justamente los temas que los productores de conocimiento quieren estudiar?
Este problema también es válido para los productores de conocimientos "tradicionales". Toma la historia como ejemplo, aunque la historia estudia eventos pasados, ningún evento pasado puede ser 100% concluyente. Los académicos generalmente buscan constantemente nuevos materiales históricos para complementar su comprensión de los problemas históricos y para descubrir perspectivas y voces olvidadas en el pasado. Curiosamente, la historiografía actual a menudo recurre a una gran cantidad de datos, especialmente datos económicos, de población y climáticos del pasado, e incluso se basa en el aprendizaje automático para aportar nuevos conocimientos y perspectivas a la historia.
Del mismo modo, confiar en conocimientos y opiniones generados por máquinas puede aumentar la importancia de ciertas fuentes de datos. Los productores de conocimiento de hoy dependen demasiado de la información convencional, de Internet y electrónica para crear cosas que han sido "traducidas" en datos por otros. **En la era de la IA, la comodidad y la extensibilidad que brinda la IA facilitarán potencialmente que las personas ignoren el conocimiento experimental y no convencional que no ha sido digitalizado, electronicizado y, por lo tanto, pierdan la posibilidad de formar nuevos puntos de vista y perspectivas. . **
En un nivel más profundo, el nuevo conocimiento a menudo surge de la excavación de nuevos materiales, la colisión de diferentes puntos de vista y perspectivas y la reconstrucción del conocimiento existente. El modelo de lenguaje grande brinda muchas posibilidades para la exhibición del conocimiento, pero su lógica y estructura internas pueden ser contrarias a este método de producción.
Según el método de entrenamiento del modelo de lenguaje grande y las características de la salida generada por el modelo, el peso del contenido de salida de mayor clasificación y mayor probabilidad será mayor y las características serán más singulares. "Generado por IA" casi se ha convertido en un adjetivo para describir las palabras sin sentido, repetitivas y sin rasgos distintivos que se dicen como si no lo fueran. Es cierto que para los consumidores de conocimiento, las respuestas "más probables" reducen considerablemente el umbral de comprensión, pero para los productores de conocimiento, estas cosas pueden convertirse en obstáculos.
**¿Adónde deben ir los productores de conocimiento en la nueva era? **
Tal vez muchos investigadores de ciencias sociales como yo hemos encontrado este problema al usar ChatGPT: pídale que explique un concepto y es lógico; un autor nunca escribió un libro, nunca publicó un artículo. Cuanto más estrecho y especializado sea el campo, mayor será la posibilidad de "tonterías".
Volviendo al principio de la IA, este tipo de "creación" en realidad está minando las "posibles" conexiones de palabras y oraciones en datos masivos, pero estas conexiones no existen en la realidad. Para decirlo sin rodeos, simplemente "suenan igual". . Este nuevo fenómeno ahora se llama "alucinación". Para los productores de conocimiento, cómo usar la inteligencia artificial para extraer patrones y conexiones en la base de conocimiento existente, pero mantenerse alerta frente a la "visión" de la máquina, lo que existe y lo que es dudoso, es una habilidad muy importante.
El "diálogo" con la IA también se convertirá en una nueva habilidad. La IA actual sigue siendo una "caja negra" misteriosa para la mayoría de las personas no técnicas (incluso las personas técnicas). Cómo comenzar desde el nivel inferior o medio de la tecnología para hablar con las máquinas de manera más efectiva, comprender y luchar contra la "visión" requiere la cooperación de los productores de conocimiento y los profesionales técnicos.
Para la investigación de nuevos conocimientos, nuevas perspectivas y nuevos materiales, la estructura e interpretación únicas de cada campo sigue siendo muy importante en la actualidad. Los modelos predictivos de modelos de lenguaje grande y la IA generativa aún tienden a ser únicos y repetitivos, y cuanto más limitado sea el material de capacitación, más limitadas serán las capacidades. Si desea combinar las capacidades de las máquinas y las personas, debe comenzar desde la fuente de producción de datos, utilizar datos precisos, diversos, justos y novedosos para entrenar modelos de IA y establecer un modelo benigno de interacción humano-computadora.
El advenimiento de los grandes modelos de lenguaje y la IA generativa es solo el comienzo de los desafíos para los investigadores. En lugar de hablar de "reemplazo", es mejor buscar la posibilidad de rodaje y desarrollo bajo una mirada más prudente.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Con ChatGPT, ¿sigue siendo útil leer?
Autor: Li Zi, Doctorado en Sociología de la Tecnología, Becario Postdoctoral, Departamento de Humanidades Médicas y Ética, Universidad de Columbia
En la primera mitad del año, nació ChatGPT y se reveló el potencial de la inteligencia artificial, lo que generó una discusión sobre la crisis de supervivencia en muchas industrias. GPT puede aprobar exámenes de calificación de barra e ingeniero, escribir ensayos universitarios sin reprobar las calificaciones e incluso "entender" chistes. Puede responder a las preguntas de las personas, organizar estructuras idiomáticas vívidas e imitar una variedad de estilos lingüísticos; y la combinación de grandes modelos lingüísticos y tecnologías de IA de generación de imágenes, como Midjourney, puede permitir que las personas que no han recibido ninguna formación artística utilicen algunos palabras "Crear" impresionantes imágenes artísticas.
La esencia de ChatGPT es en realidad un modelo de lenguaje grande (Large Language Model, LLM) superpuesto a la inteligencia artificial generativa. Un modelo de lenguaje grande, como sugiere el nombre, es grande y utiliza una gran cantidad de morfemas para entrenar un modelo de computadora con métodos de aprendizaje automático. La fórmula generativa utiliza un método predictivo para mostrar las conexiones de morfema más probables durante el diálogo.
Para los "procesadores" y "consumidores" de conocimiento, las capacidades de los grandes modelos de lenguaje más la inteligencia artificial generativa son enormes. Los datos masivos de morfemas, la red neuronal profunda y el enorme poder de cómputo son equivalentes a "aplanar" todo el conocimiento de Internet y luego "ensamblarlo" a través de la interacción humano-computadora.
**En términos de lógica computacional, ChatGPT es equivalente a un motor de búsqueda más potente. ** Los motores de búsqueda ordinarios como Google y Baidu "raspan" la información de todo Internet a través del modo de rastreo y clasifican a través de algoritmos complejos. El método de la inteligencia artificial que utiliza el aprendizaje automático equivale a clasificar la información de forma predictiva de acuerdo con la lógica del lenguaje. El procesamiento del conocimiento se ha vuelto más conveniente y rápido, y el consumo se ha vuelto más conciso y claro, a veces incluso demasiado simple, lo que brinda oportunidades para hacer trampa en los exámenes.
En respuesta a esto, los optimistas tecnológicos creen que, dado que el contenido que las máquinas pueden generar a partir de ahora, no requerirá que la mayoría de los humanos usen sus cerebros para darse cuenta, al igual que los motores de búsqueda reemplazan las tarjetas de biblioteca y las calculadoras reemplazan al ábaco. De hecho, incluso si la IA no interviene en la toma de decisiones final, aquellas tareas que requieren mucha escritura repetitiva o enumeración y clasificación mecánicas pueden proporcionar un grado considerable de productividad y ayudar a los humanos en el procesamiento y consumo de conocimiento.
Entonces, ¿es útil leer? ¿El personal de las principales universidades e instituciones de investigación también puede dejar el trabajo?
Qué puede "aprender" la máquina
Los grandes modelos de lenguaje y la inteligencia artificial generativa han traído un tema ineludible a los futuros "productores" de conocimiento: ¿qué es el conocimiento? ¿Cómo producir conocimiento diverso, imparcial y auténtico?
La capacidad de "aprendizaje" de la inteligencia artificial es asombrosa. El modelo de lenguaje grande existente y la aplicación de inteligencia artificial no pueden separarse del aprendizaje automático como trasfondo. La palabra "aprendizaje" es esencialmente usar una gran cantidad de datos para entrenar el modelo de predicción y encontrar un equilibrio entre la precisión y la universalidad de la predicción. Este tipo de predicción en realidad se basa en el conocimiento existente, y la predicción del modelo de idioma también se basa en la conexión entre los idiomas existentes. Por ejemplo, ingrese "carne estofada" y la máquina predice "carne"; luego, en función de más entradas, como ubicación, personas, hábitos, etc., dará predicciones más precisas, como "carne estofada de la abuela" y pronto.
¿Cómo se hizo realidad esta predicción? El sistema de coordenadas con el que estamos familiarizados es bidimensional. Por ejemplo, en toda la población, existe una correspondencia aproximada entre altura y peso, dada la altura, la máquina predice un peso promedio, que es una predicción basada en datos existentes. Agregue otra dimensión, como el género, luego se convierte en una coordenada tridimensional y las predicciones de hombres y mujeres serán diferentes. Si esto continúa, las dimensiones de los datos pueden ser infinitas, y el modelo de aprendizaje automático es encontrar tales conexiones en un espacio multidimensional que el cerebro humano no puede imaginar y ajustar constantemente los pesos entre varias dimensiones. Por ejemplo, "cuán importante" es la predicción de altura a peso, que se puede ajustar después de una gran cantidad de entradas de datos.
** Por lo tanto, la inteligencia artificial basada en el aprendizaje automático conectará datos de varias dimensiones en un espacio de dimensiones superiores, tendrá la capacidad de descubrir conexiones potenciales entre datos y también "aprenderá" algunas cosas que no existen en la realidad, pero muy vínculos probables. **Usada en el modelo de lenguaje, la inteligencia artificial también puede aprender diferentes estilos de lenguaje y desenterrar la "esencia" y los "problemas" en el texto existente.
**Cuanto más grandes sean los datos, más maduro será el modelo y mayores serán sus capacidades informáticas y de minería. **Al igual que AI como BERT y GPT, que nacieron en grandes instituciones, muchas personas creen que han alcanzado el "punto de inflexión" de la tecnología, y no es descabellado que los cambios cuantitativos produzcan cambios cualitativos; esta es una buena cosa para los productores de conocimiento. Sin embargo, los modelos grandes también tienen problemas inherentes, y cuanto más grande es el modelo, más agudos son los problemas, especialmente en relación con los aspectos diversos, justos y veraces del conocimiento.
Cómo producir real
** y conocimiento imparcial? **
Se puede generar nuevo conocimiento a partir de conexiones y nuevos modelos del conocimiento existente, lo cual es cierto ya sea a nivel humano o de máquina. Sin embargo, ¿es suficiente el conocimiento existente? ¿Es suficiente? ¿Es justo? Si la base del conocimiento existente es insuficiente o incluso sesgada, el nuevo conocimiento construido sobre ella también estará sesgado.
Desde que la IA de aprendizaje automático se aplicó a gran escala, los académicos han revelado continuamente los sesgos inherentes a estos modelos: sexismo, racismo, resultados poco éticos, etc. Los desarrolladores utilizan varios parches y métodos de corrección para compensarlo, pero la mayoría de los problemas están ocultos en el proceso de formación y producción de datos, y el sesgo de la IA también es un reflejo y una amplificación del prejuicio social.
En la era de los modelos grandes, este problema puede ocultarse más profundamente: no todos los investigadores o equipos tienen la capacidad de desarrollar modelos de IA desde cero, especialmente modelos de lenguaje grande e imágenes grandes, la mayoría de los cuales se basan en modelos existentes en los que se realiza un ajuste fino. Los problemas y desviaciones del propio modelo grande se migrarán a más modelos de aplicación. Y cuanto menor es la desviación, más difícil es tratarla mediante el ajuste fino y la corrección de la desviación.
El modo de generación de predicción del modelo de lenguaje existente incluso amplificará la desviación existente de los datos, dando como resultado el efecto de "sobreajuste": por ejemplo, cierta enfermedad tiene una alta proporción de datos estadísticos en un determinado grupo étnico, alrededor del 60% ; Pero si el modelo de lenguaje se usa para generar un retrato de un paciente, entonces hay más del 90% de posibilidades de que la descripción del paciente generado pertenezca a este grupo.
Ahora, algunos modelos de entrenamiento de IA adoptan un modo de "combate mutuo", la llamada "red antagónica generativa" (red antagónica generativa), que permite que dos modelos se generen y se corrijan continuamente. Este método mejora la eficiencia del entrenamiento del modelo, pero cualquier pequeña desviación se magnificará en esta "interacción". En el mismo principio, si un productor de conocimiento que trabaja en estrecha colaboración con una máquina se basa en este tipo de "generación", entonces algunos sesgos del modelo se integrarán en más conocimiento nuevo, y el nuevo conocimiento será absorbido como datos, lo que es más refuerza el sesgo del modelo. **Los productores de conocimiento deben permanecer atentos a este proceso.
**¿Qué es el nuevo conocimiento? ¿Podría la "generación" de IA representar nuevos conocimientos? **
¿Qué es el llamado nuevo conocimiento? Si la IA se va a utilizar plenamente para producir conocimiento, entonces los productores de conocimiento deben pensar en este tema desde el punto de vista de la combinación de hombre y máquina. Cualquier información, así como el conocimiento adquirido por humanos del mundo real, debe "limpiarse" y "formatearse" en datos. Además de la calidad de los datos mencionada anteriormente, el proceso de generación de datos también es importante. En resumen, ¿cuál es el problema que se quiere estudiar? ¿A qué tipo de datos se traduce esta pregunta? ¿Cómo se producen estos datos? ¿Representan completa y justamente los temas que los productores de conocimiento quieren estudiar?
Este problema también es válido para los productores de conocimientos "tradicionales". Toma la historia como ejemplo, aunque la historia estudia eventos pasados, ningún evento pasado puede ser 100% concluyente. Los académicos generalmente buscan constantemente nuevos materiales históricos para complementar su comprensión de los problemas históricos y para descubrir perspectivas y voces olvidadas en el pasado. Curiosamente, la historiografía actual a menudo recurre a una gran cantidad de datos, especialmente datos económicos, de población y climáticos del pasado, e incluso se basa en el aprendizaje automático para aportar nuevos conocimientos y perspectivas a la historia.
Del mismo modo, confiar en conocimientos y opiniones generados por máquinas puede aumentar la importancia de ciertas fuentes de datos. Los productores de conocimiento de hoy dependen demasiado de la información convencional, de Internet y electrónica para crear cosas que han sido "traducidas" en datos por otros. **En la era de la IA, la comodidad y la extensibilidad que brinda la IA facilitarán potencialmente que las personas ignoren el conocimiento experimental y no convencional que no ha sido digitalizado, electronicizado y, por lo tanto, pierdan la posibilidad de formar nuevos puntos de vista y perspectivas. . **
En un nivel más profundo, el nuevo conocimiento a menudo surge de la excavación de nuevos materiales, la colisión de diferentes puntos de vista y perspectivas y la reconstrucción del conocimiento existente. El modelo de lenguaje grande brinda muchas posibilidades para la exhibición del conocimiento, pero su lógica y estructura internas pueden ser contrarias a este método de producción.
Según el método de entrenamiento del modelo de lenguaje grande y las características de la salida generada por el modelo, el peso del contenido de salida de mayor clasificación y mayor probabilidad será mayor y las características serán más singulares. "Generado por IA" casi se ha convertido en un adjetivo para describir las palabras sin sentido, repetitivas y sin rasgos distintivos que se dicen como si no lo fueran. Es cierto que para los consumidores de conocimiento, las respuestas "más probables" reducen considerablemente el umbral de comprensión, pero para los productores de conocimiento, estas cosas pueden convertirse en obstáculos.
**¿Adónde deben ir los productores de conocimiento en la nueva era? **
Tal vez muchos investigadores de ciencias sociales como yo hemos encontrado este problema al usar ChatGPT: pídale que explique un concepto y es lógico; un autor nunca escribió un libro, nunca publicó un artículo. Cuanto más estrecho y especializado sea el campo, mayor será la posibilidad de "tonterías".
Volviendo al principio de la IA, este tipo de "creación" en realidad está minando las "posibles" conexiones de palabras y oraciones en datos masivos, pero estas conexiones no existen en la realidad. Para decirlo sin rodeos, simplemente "suenan igual". . Este nuevo fenómeno ahora se llama "alucinación". Para los productores de conocimiento, cómo usar la inteligencia artificial para extraer patrones y conexiones en la base de conocimiento existente, pero mantenerse alerta frente a la "visión" de la máquina, lo que existe y lo que es dudoso, es una habilidad muy importante.
El "diálogo" con la IA también se convertirá en una nueva habilidad. La IA actual sigue siendo una "caja negra" misteriosa para la mayoría de las personas no técnicas (incluso las personas técnicas). Cómo comenzar desde el nivel inferior o medio de la tecnología para hablar con las máquinas de manera más efectiva, comprender y luchar contra la "visión" requiere la cooperación de los productores de conocimiento y los profesionales técnicos.
Para la investigación de nuevos conocimientos, nuevas perspectivas y nuevos materiales, la estructura e interpretación únicas de cada campo sigue siendo muy importante en la actualidad. Los modelos predictivos de modelos de lenguaje grande y la IA generativa aún tienden a ser únicos y repetitivos, y cuanto más limitado sea el material de capacitación, más limitadas serán las capacidades. Si desea combinar las capacidades de las máquinas y las personas, debe comenzar desde la fuente de producción de datos, utilizar datos precisos, diversos, justos y novedosos para entrenar modelos de IA y establecer un modelo benigno de interacción humano-computadora.
El advenimiento de los grandes modelos de lenguaje y la IA generativa es solo el comienzo de los desafíos para los investigadores. En lugar de hablar de "reemplazo", es mejor buscar la posibilidad de rodaje y desarrollo bajo una mirada más prudente.