Fuente de la imagen: generada por la herramienta Unbounded AI
Los modelos grandes son ilusorios y sus manifestaciones son diversas, como conflictos con los hechos, y sus causas son muchas, como falta de conocimiento relevante o errores de alineación, lo que deja aún más puntos confusos. Pero los puntos más críticos relacionados con la aplicación no son estos, sino: Parece que las alucinaciones son algo que no se puede solucionar a corto plazo, ni siquiera para OpenAI. Esto requiere pensar en sus condiciones e invariantes actuales cuando se implemente. Una vez que se consideran como condiciones previas e invariantes, descubrirá que, al igual que los humanos, las ilusiones no son del todo malas.
Con la tendencia y contra la tendencia
Tomamos como eje vertical si las alucinaciones son útiles o perjudiciales para el producto, y agregamos la responsabilidad de los problemas como eje horizontal para formar un sistema de coordenadas simple, y luego colocamos varios agentes de inteligencia artificial en este sistema de coordenadas, entonces probablemente parezca este:
Puede haber disputas sobre las posiciones de los diferentes agentes artificiales, pero algunos valores extremos no deberían ser un gran problema.
Para Metaverse, es un juego de alto nivel. El comportamiento inusual de los personajes en realidad estimulará la diversidad de la narrativa del juego y se convertirá en parte del alimento para enriquecer el contenido mundial. Para consulta, es muy problemático. Si es así Si se utiliza fuera del marco de conocimiento médico existente, la condición del paciente se vuelve grave, lo que no solo es perjudicial, sino que también tiene graves consecuencias. En realidad, hay más cosas similares a la consulta en el espacio real, incluido el servicio al cliente, la consulta fiscal, etc.
En Buscando el volante inteligente: del agotamiento de los datos a la multimodalidad y la autogeneración mencionamos que nadie, excepto AlphaGo, ha hecho girar el volante inteligente, y debido a que una vez que el volante gira, inevitablemente producirá dioses en campos específicos, por lo que A las personas preocupadas por esta aplicación de inteligencia artificial les preocupa dónde podría haber otro volante inteligente como el que se muestra en la siguiente imagen:
La respuesta también se puede encontrar en el diagrama de cuadrantes anterior: cuanto más cerca de la dirección del metaverso, más fácil será. La ilusión puede crear nuevos datos con bajos costos de responsabilidad, y los nuevos datos pueden integrarse en la escena, que a su vez puede usarse como combustible para impulsar el volante. **
La posición en el cuadrante es la posición
La posición en el cuadrante es muy crítica para la implementación de productos de IA.
**Esta posición determina en gran medida sus costos operativos e incluso la velocidad de funcionamiento. Y las limitaciones que enfrenta son muy rígidas e inmutables. **
En el sentido habitual, todos consideramos los productos como un conjunto de características, expresadas en términos de lo que pueden y no pueden hacer, parámetros de rendimiento funcional, etc. En un nivel más avanzado, la marca se deriva de preferencias estéticas. Pero no es integral. En un nivel más profundo, el producto es también el punto de convergencia de un sistema de derechos, responsabilidades y beneficios. Esto no es tan obvio en los productos del lado C como en los del lado B.
Rara vez se mencionó en el pasado porque sólo hay un tipo de agente inteligente en el sistema económico: las personas. Todo el sistema económico se basa en los derechos, responsabilidades y beneficios determinados por las personas naturales y jurídicas. Pero ahora este sistema se enfrenta a nuevos desafíos: el auge de la inteligencia artificial ha provocado grietas en este sistema de derechos y responsabilidades y su funcionamiento está estancado.
El ejemplo más sencillo es la conducción autónoma, que se ha debatido a menudo en el pasado. Habrá un nuevo y complejo reequilibrio de derechos, responsabilidades e intereses entre los usuarios, los fabricantes y los proveedores de servicios de conducción autónoma. (Resulta que la responsabilidad de los accidentes es básicamente del usuario. Quien conduce el coche es el responsable. Esto ya no es así con la conducción autónoma)
** Esto será muy problemático, porque la inteligencia artificial no es objeto de derechos e intereses, pero parece tener que asumir las responsabilidades correspondientes. Esto lleva a que, inconscientemente, todas las empresas intenten utilizar la tecnología para protegerse, haciendo que parezca que ciertas cosas malas pueden evitarse, pero en realidad, esto es similar a Don Quijote luchando contra los molinos de viento, lo cual es básicamente imposible. **
El reequilibrio de los derechos, responsabilidades y beneficios de los usuarios y la Parte A en realidad determinará la dirección de la asignación limitada de recursos de la empresa como un bastón. (costos sociales generales que realmente crean una ubicación específica)
¿No es vergonzoso tener que hacerlo cuando la entrada y la salida no son buenas?
La razón principal de esta vergüenza es que la tecnología no puede compensar completamente los derechos y responsabilidades.
Derechos y responsabilidades que no pueden cubrirse
¿Por qué es imposible que la tecnología compense completamente los derechos y responsabilidades?
Por supuesto, esto se debe a que la tecnología siempre tiene un proceso de maduración, pero la razón más crítica es que, si bien lo digital y la inteligencia hacen explícitos los problemas, los derechos y responsabilidades se amplifican. **
Cuando se enfrenta a resultados numéricos claramente representables, cada cliente querrá resolver problemas sin límites, y este límite se ha suprimido en el pasado.
Podemos tomar el servicio de atención al cliente como ejemplo:
Al contratar miles o cientos de personas para atender al cliente, el servicio en sí debe tener problemas de rendimiento. Pero en este momento, básicamente todos pueden aceptar una cierta cantidad de errores, todos saben que la gente cometerá errores, además, el personal de servicio al cliente no es fácil de encontrar, por lo que todos mantienen una cierta tolerancia a esta tasa de rendimiento. Si el personal de atención al cliente no presta un buen servicio y pierde un pedido, el personal de atención al cliente correspondiente será despedido o se descontará el dinero como máximo. Es difícil recuperar los daños causados por el servicio al cliente.
Cuando el servicio al cliente fue reemplazado por la inteligencia artificial, las cosas siguieron igual, pero la relación de poder y responsabilidad cambió silenciosamente.
Incluso si la tasa de rendimiento de la inteligencia artificial supera la del trabajo manual anterior, desde la perspectiva del Partido A, todavía habrá suficiente motivación para responsabilizar a las empresas que brindan servicios de inteligencia artificial. Las empresas de tecnología detrás tendrán que encontrar formas de hacer que los cuerpos de inteligencia artificial estén libres de errores.
Se trata de utilizar la tecnología para cubrir derechos y responsabilidades.
**La esencia es utilizar la tecnología para resolver problemas en campos casi ilimitados. A medida que pasó el tiempo, se volvió más y más confuso porque no podía entenderlo. La industria de la inteligencia artificial ha estado repitiendo esta historia desde el despertar de los parlantes inteligentes. **
La situación actual es que incluso si los antiguos motores de búsqueda no cometen errores, por ejemplo, si cierto tipo de contenido aparece una vez y luego se destruye, entonces empresas como Google y Baidu morirán innumerables veces.
Sin embargo, la tolerancia del sistema de poder y responsabilidad de ** en realidad tiene muchas razones. Tiene historia, cultura y realidad empresarial. Es muy rígido y es poco probable que cambie **. Y si no puede cambiar, no es muy adecuado para una entidad puramente artificial. El método de compromiso que se me ocurre es volver a colocar a la persona dentro. Incluso si la persona no hace nada y sólo actúa como un espectáculo, está cumpliendo con sus responsabilidades laborales. El cuerpo artificial le sirve y él es responsable de todos los resultados.
De esta manera, la selección y el posicionamiento son críticos, porque el sistema de autoridad y responsabilidad en sí mismo es costo, dirección y satisfacción del cliente (** "Pensar es el problema, hacer es la respuesta" está mal, Lei Jun dijo que no es posible ** Solo hazlo Fin del viejo tema que está mal). Bajo la premisa de que la ilusión es parte de la inteligencia, si realmente vas a un campo donde el sistema de poder y responsabilidad es muy pesado, en realidad obtendrás la mitad del resultado con la mitad del esfuerzo.
Desde esta perspectiva, podemos ir un poco más arriba y hablar del modelo de aplicación de las nuevas tecnologías.
Modelo de aplicación de nuevas tecnologías
Cuando analicemos el modelo de aplicación, volvamos primero a los propios humanos.
Los subsistemas centrales de la civilización humana: la política, la economía y la cultura, en realidad se crean a través de procesos repetidos de primero virtualidad y luego realidad, y luego realidad y virtualidad. Hace 300 años no había separación de poderes, ni libertad, democracia ni socialismo. Por supuesto, no había automóviles, trenes de alta velocidad ni bicicletas.
Estos se basan en la imaginación y algún tipo de racionalidad lógica, además de otra ola de personas que han encontrado la conexión entre la imaginación, las leyes físicas y los juegos de negocios, y luego la imaginación se convertirá en realidad. De esta manera llegaron al mundo los trenes, la electricidad, los coches, los teléfonos móviles, etc.
Luego echaremos una mirada retrospectiva al 12 de febrero de 1912, cuando Puyi abdicó, para ver el papel de la imaginación.
Muchos de los productos que hoy tienen un profundo impacto en nosotros fueron inventados antes de 1912. Los productos incluyen máquinas de vapor, automóviles, electricidad, penicilina, teléfonos, cámaras, baterías, etc. Los personajes incluyen Nobel, Edison, Tesla, Ford, etc. Estos productos generalmente no tuvieron éxito después de su nacimiento. Por ejemplo, los automóviles de vapor a menudo explotaban. Edison alguna vez atacó principalmente la corriente alterna como peligrosa y fácil de electrocutar a las personas. Sin embargo, el entorno relativamente tolerante permitió que estos productos sobrevivieran.
**Imagínese si Cixi y otros creyeran que el regreso de los trenes interfiere con el feng shui de los antepasados, entonces no existiría tal diversidad. El uso de la inquisición literaria y otros métodos por parte de la dinastía Qing para suprimir el pensamiento fue realmente efectivo. Logró la estabilidad que esperaba hasta cierto punto. Sin embargo, si bien la estabilidad fue muy buena, la eficiencia de todo el sistema fue muy pobre. En 1912 se puede ver así: malos resultados de desempeño. **
¿Qué iluminación nos da esto?
**Es más apropiado que las nuevas tecnologías comiencen en lugares con bajos costos sociales generales. Cuanto más flexible sea el sistema de derechos y responsabilidades, menor será el costo del ensayo y error, y más propicio será que los productos inmaduros impulsados por nuevas tecnologías se recuperen. **
La cuestión de los costos sociales generales es muy complicada y no se discutirá aquí. (Cómo evitar creer que cuando aparezca el tren, destruirá el feng shui.)
Para los individuos que son sujetos innovadores, obviamente es necesario evitar sistemas complejos de derechos y responsabilidades.
Debido a que la tecnología es inmadura, si todavía la utilizamos para cubrir los riesgos de derechos y responsabilidades complejos, definitivamente será ingrata.
Volviendo a la inteligencia artificial, ¿cómo sería si fuera más específico?
**Puede que en este momento no sea fundamental que el entorno en sí sea flexible o no. El complejo sistema de derechos y responsabilidades puede facilitar la generación de flujo de efectivo. Pero puede volverse más crítico más adelante. Debido a que el volante inteligente subyacente funciona, esta es realmente la diferencia entre 1,01 elevado a la 99ª potencia y 0,99 elevado a la 99ª potencia. **
Kevin Kelly expresó este punto de vista en What Technology Wants: Incluso si los beneficios que aporta la tecnología son sólo un poco mayores que las desventajas, a medida que se vuelva más poderosa, el impacto será muy significativo.
Lo mismo ocurre con los cuerpos artificiales: esta pequeña diferencia puede ser más adelante la diferencia entre si el volante inteligente puede girar o no.
En pocas palabras, el modelo de aplicación de la inteligencia artificial en sí es: ** Encontrar alucinaciones que sean beneficiosas, cubriendo derechos y responsabilidades en áreas menos complejas, y luego crecer de adentro hacia afuera, en lugar de fomentar el crecimiento. **
Resumen
**Desde esta perspectiva, es cierto que la ilusión es inteligencia, al menos la fuerza impulsora detrás del volante inteligente. **En muchos casos, es la ilusión la que nos da una sensación de inteligencia. Para eliminar completamente la ilusión y aún mantener la inteligencia, realmente tenemos que lograr un cuerpo súper unitario (la sabiduría suprema de los Kree). Esta es una muy buena ideal. , pero creo que si se supone que la inteligencia artificial no puede construir un modelo mundial completo, entonces es imposible eliminar esta ilusión. Por lo tanto, en lugar de esperar utilizar la tecnología para resolver este problema, es mejor revisar el modelo de aplicación. según el avance de la tecnología.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Ilusión es inteligencia: la línea divisoria entre ir con la tendencia e ir contra la tendencia en la implementación de la IA
Fuente: Li Zhiyong
Los modelos grandes son ilusorios y sus manifestaciones son diversas, como conflictos con los hechos, y sus causas son muchas, como falta de conocimiento relevante o errores de alineación, lo que deja aún más puntos confusos. Pero los puntos más críticos relacionados con la aplicación no son estos, sino: Parece que las alucinaciones son algo que no se puede solucionar a corto plazo, ni siquiera para OpenAI. Esto requiere pensar en sus condiciones e invariantes actuales cuando se implemente. Una vez que se consideran como condiciones previas e invariantes, descubrirá que, al igual que los humanos, las ilusiones no son del todo malas.
Con la tendencia y contra la tendencia
Tomamos como eje vertical si las alucinaciones son útiles o perjudiciales para el producto, y agregamos la responsabilidad de los problemas como eje horizontal para formar un sistema de coordenadas simple, y luego colocamos varios agentes de inteligencia artificial en este sistema de coordenadas, entonces probablemente parezca este:
Para Metaverse, es un juego de alto nivel. El comportamiento inusual de los personajes en realidad estimulará la diversidad de la narrativa del juego y se convertirá en parte del alimento para enriquecer el contenido mundial. Para consulta, es muy problemático. Si es así Si se utiliza fuera del marco de conocimiento médico existente, la condición del paciente se vuelve grave, lo que no solo es perjudicial, sino que también tiene graves consecuencias. En realidad, hay más cosas similares a la consulta en el espacio real, incluido el servicio al cliente, la consulta fiscal, etc.
En Buscando el volante inteligente: del agotamiento de los datos a la multimodalidad y la autogeneración mencionamos que nadie, excepto AlphaGo, ha hecho girar el volante inteligente, y debido a que una vez que el volante gira, inevitablemente producirá dioses en campos específicos, por lo que A las personas preocupadas por esta aplicación de inteligencia artificial les preocupa dónde podría haber otro volante inteligente como el que se muestra en la siguiente imagen:
La posición en el cuadrante es la posición
La posición en el cuadrante es muy crítica para la implementación de productos de IA.
**Esta posición determina en gran medida sus costos operativos e incluso la velocidad de funcionamiento. Y las limitaciones que enfrenta son muy rígidas e inmutables. **
En el sentido habitual, todos consideramos los productos como un conjunto de características, expresadas en términos de lo que pueden y no pueden hacer, parámetros de rendimiento funcional, etc. En un nivel más avanzado, la marca se deriva de preferencias estéticas. Pero no es integral. En un nivel más profundo, el producto es también el punto de convergencia de un sistema de derechos, responsabilidades y beneficios. Esto no es tan obvio en los productos del lado C como en los del lado B.
Rara vez se mencionó en el pasado porque sólo hay un tipo de agente inteligente en el sistema económico: las personas. Todo el sistema económico se basa en los derechos, responsabilidades y beneficios determinados por las personas naturales y jurídicas. Pero ahora este sistema se enfrenta a nuevos desafíos: el auge de la inteligencia artificial ha provocado grietas en este sistema de derechos y responsabilidades y su funcionamiento está estancado.
El ejemplo más sencillo es la conducción autónoma, que se ha debatido a menudo en el pasado. Habrá un nuevo y complejo reequilibrio de derechos, responsabilidades e intereses entre los usuarios, los fabricantes y los proveedores de servicios de conducción autónoma. (Resulta que la responsabilidad de los accidentes es básicamente del usuario. Quien conduce el coche es el responsable. Esto ya no es así con la conducción autónoma)
** Esto será muy problemático, porque la inteligencia artificial no es objeto de derechos e intereses, pero parece tener que asumir las responsabilidades correspondientes. Esto lleva a que, inconscientemente, todas las empresas intenten utilizar la tecnología para protegerse, haciendo que parezca que ciertas cosas malas pueden evitarse, pero en realidad, esto es similar a Don Quijote luchando contra los molinos de viento, lo cual es básicamente imposible. **
El reequilibrio de los derechos, responsabilidades y beneficios de los usuarios y la Parte A en realidad determinará la dirección de la asignación limitada de recursos de la empresa como un bastón. (costos sociales generales que realmente crean una ubicación específica)
¿No es vergonzoso tener que hacerlo cuando la entrada y la salida no son buenas?
La razón principal de esta vergüenza es que la tecnología no puede compensar completamente los derechos y responsabilidades.
Derechos y responsabilidades que no pueden cubrirse
¿Por qué es imposible que la tecnología compense completamente los derechos y responsabilidades?
Por supuesto, esto se debe a que la tecnología siempre tiene un proceso de maduración, pero la razón más crítica es que, si bien lo digital y la inteligencia hacen explícitos los problemas, los derechos y responsabilidades se amplifican. **
Cuando se enfrenta a resultados numéricos claramente representables, cada cliente querrá resolver problemas sin límites, y este límite se ha suprimido en el pasado.
Podemos tomar el servicio de atención al cliente como ejemplo:
Cuando el servicio al cliente fue reemplazado por la inteligencia artificial, las cosas siguieron igual, pero la relación de poder y responsabilidad cambió silenciosamente.
Incluso si la tasa de rendimiento de la inteligencia artificial supera la del trabajo manual anterior, desde la perspectiva del Partido A, todavía habrá suficiente motivación para responsabilizar a las empresas que brindan servicios de inteligencia artificial. Las empresas de tecnología detrás tendrán que encontrar formas de hacer que los cuerpos de inteligencia artificial estén libres de errores.
Se trata de utilizar la tecnología para cubrir derechos y responsabilidades.
**La esencia es utilizar la tecnología para resolver problemas en campos casi ilimitados. A medida que pasó el tiempo, se volvió más y más confuso porque no podía entenderlo. La industria de la inteligencia artificial ha estado repitiendo esta historia desde el despertar de los parlantes inteligentes. **
La situación actual es que incluso si los antiguos motores de búsqueda no cometen errores, por ejemplo, si cierto tipo de contenido aparece una vez y luego se destruye, entonces empresas como Google y Baidu morirán innumerables veces.
Sin embargo, la tolerancia del sistema de poder y responsabilidad de ** en realidad tiene muchas razones. Tiene historia, cultura y realidad empresarial. Es muy rígido y es poco probable que cambie **. Y si no puede cambiar, no es muy adecuado para una entidad puramente artificial. El método de compromiso que se me ocurre es volver a colocar a la persona dentro. Incluso si la persona no hace nada y sólo actúa como un espectáculo, está cumpliendo con sus responsabilidades laborales. El cuerpo artificial le sirve y él es responsable de todos los resultados.
De esta manera, la selección y el posicionamiento son críticos, porque el sistema de autoridad y responsabilidad en sí mismo es costo, dirección y satisfacción del cliente (** "Pensar es el problema, hacer es la respuesta" está mal, Lei Jun dijo que no es posible ** Solo hazlo Fin del viejo tema que está mal). Bajo la premisa de que la ilusión es parte de la inteligencia, si realmente vas a un campo donde el sistema de poder y responsabilidad es muy pesado, en realidad obtendrás la mitad del resultado con la mitad del esfuerzo.
Desde esta perspectiva, podemos ir un poco más arriba y hablar del modelo de aplicación de las nuevas tecnologías.
Modelo de aplicación de nuevas tecnologías
Cuando analicemos el modelo de aplicación, volvamos primero a los propios humanos.
Los subsistemas centrales de la civilización humana: la política, la economía y la cultura, en realidad se crean a través de procesos repetidos de primero virtualidad y luego realidad, y luego realidad y virtualidad. Hace 300 años no había separación de poderes, ni libertad, democracia ni socialismo. Por supuesto, no había automóviles, trenes de alta velocidad ni bicicletas.
Estos se basan en la imaginación y algún tipo de racionalidad lógica, además de otra ola de personas que han encontrado la conexión entre la imaginación, las leyes físicas y los juegos de negocios, y luego la imaginación se convertirá en realidad. De esta manera llegaron al mundo los trenes, la electricidad, los coches, los teléfonos móviles, etc.
Luego echaremos una mirada retrospectiva al 12 de febrero de 1912, cuando Puyi abdicó, para ver el papel de la imaginación.
Muchos de los productos que hoy tienen un profundo impacto en nosotros fueron inventados antes de 1912. Los productos incluyen máquinas de vapor, automóviles, electricidad, penicilina, teléfonos, cámaras, baterías, etc. Los personajes incluyen Nobel, Edison, Tesla, Ford, etc. Estos productos generalmente no tuvieron éxito después de su nacimiento. Por ejemplo, los automóviles de vapor a menudo explotaban. Edison alguna vez atacó principalmente la corriente alterna como peligrosa y fácil de electrocutar a las personas. Sin embargo, el entorno relativamente tolerante permitió que estos productos sobrevivieran.
**Imagínese si Cixi y otros creyeran que el regreso de los trenes interfiere con el feng shui de los antepasados, entonces no existiría tal diversidad. El uso de la inquisición literaria y otros métodos por parte de la dinastía Qing para suprimir el pensamiento fue realmente efectivo. Logró la estabilidad que esperaba hasta cierto punto. Sin embargo, si bien la estabilidad fue muy buena, la eficiencia de todo el sistema fue muy pobre. En 1912 se puede ver así: malos resultados de desempeño. **
¿Qué iluminación nos da esto?
**Es más apropiado que las nuevas tecnologías comiencen en lugares con bajos costos sociales generales. Cuanto más flexible sea el sistema de derechos y responsabilidades, menor será el costo del ensayo y error, y más propicio será que los productos inmaduros impulsados por nuevas tecnologías se recuperen. **
La cuestión de los costos sociales generales es muy complicada y no se discutirá aquí. (Cómo evitar creer que cuando aparezca el tren, destruirá el feng shui.)
Para los individuos que son sujetos innovadores, obviamente es necesario evitar sistemas complejos de derechos y responsabilidades.
Debido a que la tecnología es inmadura, si todavía la utilizamos para cubrir los riesgos de derechos y responsabilidades complejos, definitivamente será ingrata.
Volviendo a la inteligencia artificial, ¿cómo sería si fuera más específico?
**Puede que en este momento no sea fundamental que el entorno en sí sea flexible o no. El complejo sistema de derechos y responsabilidades puede facilitar la generación de flujo de efectivo. Pero puede volverse más crítico más adelante. Debido a que el volante inteligente subyacente funciona, esta es realmente la diferencia entre 1,01 elevado a la 99ª potencia y 0,99 elevado a la 99ª potencia. **
Kevin Kelly expresó este punto de vista en What Technology Wants: Incluso si los beneficios que aporta la tecnología son sólo un poco mayores que las desventajas, a medida que se vuelva más poderosa, el impacto será muy significativo.
Lo mismo ocurre con los cuerpos artificiales: esta pequeña diferencia puede ser más adelante la diferencia entre si el volante inteligente puede girar o no.
En pocas palabras, el modelo de aplicación de la inteligencia artificial en sí es: ** Encontrar alucinaciones que sean beneficiosas, cubriendo derechos y responsabilidades en áreas menos complejas, y luego crecer de adentro hacia afuera, en lugar de fomentar el crecimiento. **
Resumen
**Desde esta perspectiva, es cierto que la ilusión es inteligencia, al menos la fuerza impulsora detrás del volante inteligente. **En muchos casos, es la ilusión la que nos da una sensación de inteligencia. Para eliminar completamente la ilusión y aún mantener la inteligencia, realmente tenemos que lograr un cuerpo súper unitario (la sabiduría suprema de los Kree). Esta es una muy buena ideal. , pero creo que si se supone que la inteligencia artificial no puede construir un modelo mundial completo, entonces es imposible eliminar esta ilusión. Por lo tanto, en lugar de esperar utilizar la tecnología para resolver este problema, es mejor revisar el modelo de aplicación. según el avance de la tecnología.