"¡La tecnología es impulsada por personas perezosas!"
Creo que todo el mundo ha utilizado esta frase para excusarse cuando está "pescando" o "tumbado".
Desde la revolución industrial de la máquina de vapor hasta la revolución digital de la computadora, el progreso de la tecnología ha hecho que los seres humanos sean cada vez más planos en algunos aspectos.
La tecnología de IA, que tiene el mayor potencial para convertirse en una plataforma de próxima generación, hará que los humanos sean más "perezosos"?
Parece que sí, pero no es una buena noticia.
Según un nuevo estudio publicado en la revista Frontiers in Robotics and Artificial Intelligence, los humanos son realmente "perezosos" cuando trabajan con IA y máquinas.
Según Cymek, autor principal del estudio, "el trabajo en equipo puede ser tanto una bendición como una maldición".
Entonces, en la era de la IA, la mayor crisis para la humanidad no es ser reemplazada por máquinas, sino ser "perezosa para degenerar".
01 Asistente de máquinas, deja que los humanos "bajen la guardia"
Cuando hay un ayudante tan poderoso como una máquina, hará que los seres humanos se vuelvan más "grandes".
Investigadores de la Universidad Técnica de Berlín en Alemania proporcionaron a 42 participantes imágenes borrosas de placas de circuitos y les pidieron que verificaran si había defectos. A la mitad de los participantes se les dijo que la placa de circuito con la que estaban tratando había sido inspeccionada por un robot llamado "Panda" y que se habían detectado defectos.
Experimento: Tarea de búsqueda visual para el control de calidad de placas de circuitos simulados |
De hecho, el robot "Panda" detectó el 94,8% de los defectos durante el experimento. A todos los participantes se les dieron las mismas 320 imágenes de la placa de circuito escaneada, y cuando los investigadores observaron más de cerca las tasas de error de los participantes, encontraron que los participantes que trabajaron con el "panda" tenían menos defectos más adelante en la tarea porque habían visto al "panda" marcar con éxito muchos de los defectos.
Ambos grupos de participantes examinaron casi toda la superficie del tablero, dedicaron tiempo a buscar y se autoevaluaron como que su nivel de esfuerzo era mayor. Como resultado, los participantes que trabajaron con el robot encontraron un promedio de 3,3 defectos y aquellos que completaron la tarea solos encontraron un promedio de 4,23 defectos.
Media y desviación estándar de los defectos detectados por los participantes en ambos grupos |
"Esto sugiere que los participantes pueden estar menos atentos a la inspección de la placa cuando trabajan con sus amigos robots", dice el estudio. Los participantes en nuestro estudio parecían haber mantenido sus esfuerzos para inspeccionar las placas de circuitos, pero parece que la inspección se llevó a cabo con menos esfuerzo mental y atención a la información de muestreo".
Esto significa que si se les dice que el robot ya ha comprobado una pieza y ha experimentado la fiabilidad del robot, encontrarán menos defectos. Inconscientemente, asumen que los "pandas" son menos propensos a pasar por alto defectos, lo que resulta en un efecto de "inercia social".
Las implicaciones de este estudio son particularmente importantes para las industrias que dependen de un estricto control de calidad. Los autores advierten que incluso un corto período de relajación de la atención humana, posiblemente debido a la excesiva confianza en la precisión del robot, podría poner en peligro la seguridad.
El investigador Onnasch menciona: "En turnos más largos, la pérdida de motivación tiende a ser mayor cuando las tareas se vuelven rutinarias y el entorno de trabajo proporciona menos monitoreo y retroalimentación del desempeño. Es frecuente en la industria manufacturera, especialmente en áreas relacionadas con la seguridad donde las dobles comprobaciones son comunes, lo que puede tener un impacto negativo en los resultados laborales".
Por supuesto, hay algunas limitaciones en las pruebas del investigador. Por ejemplo, la muestra no es lo suficientemente grande y es difícil simular la "inercia social" en el laboratorio porque los participantes saben que están siendo monitoreados. Cymek explica: "La principal limitación es el entorno de laboratorio. Para comprender la magnitud del problema de la pérdida de energía en la interacción hombre-máquina, necesitamos salir del laboratorio y probar nuestra hipótesis en un entorno de trabajo del mundo real con trabajadores experimentados, que a menudo trabajan con robots".
02 La "crisis de la cooperación hombre-máquina" ya ha ocurrido
De hecho, fuera del laboratorio, la "degradación" causada por la cooperación hombre-máquina ya ha aparecido en el mundo real.
En el campo de la conducción autónoma, existe un fenómeno similar a la "inercia social", llamado "complacencia de la automatización", que suele distraerse con la presencia de asistencia automatizada.
En marzo de 2018, en Arizona, EE. UU., un automóvil autónomo de Uber con un oficial de seguridad atropelló y mató a un ciclista. El análisis policial encontró que si el oficial de seguridad hubiera estado mirando la carretera, el oficial de seguridad podría haberse detenido 12,8 metros frente a la víctima y evitar la tragedia.
Muertes por conducción autónoma en 2018 en EE. UU. |CNN
Tesla suele ser el objetivo de los medios de comunicación y los reguladores en Estados Unidos, a menudo debido a accidentes relacionados con la conducción autónoma. Un escenario típico es que un conductor de Tesla duerma mientras usa una función de conducción autónoma, o para jugar un juego, y se vea involucrado en un accidente automovilístico fatal.
En el frenesí actual de la IA, la predicción de que las máquinas reemplazarán a los humanos se acerca cada vez más a la realidad. Un lado cree que las máquinas servirán a los humanos, mientras que el otro lado cree que los humanos crearán accidentalmente algo malvado.
En el campo de la medicina, el sistema de IA de IBM "Doctor Watson" ha dado consejos de medicamentos inseguros a pacientes con cáncer. Este año, un documento señaló que la IA generativa ya ha aprobado tres secciones del Examen de Licencia Médica de EE. UU. Una hipótesis de migración similar es: si la IA diagnostica y trata a los humanos en el futuro, y luego los médicos humanos hacen las comprobaciones, ¿tendrán los médicos humanos el problema de la "inercia social" y la "complacencia automatizada"?
Los autores del estudio señalaron: "La combinación de las capacidades de humanos y robots obviamente ofrece muchas oportunidades, pero también debemos considerar los efectos de enjambre no deseados que pueden ocurrir en los equipos humano-máquina. Cuando los humanos y los robots trabajan en una tarea, esto puede conducir a una pérdida de motivación para los compañeros de equipo humanos y hacer que efectos como la inercia social sean más probables".
También existe la preocupación de que la IA pueda afectar el pensamiento y la creatividad humanos, así como debilitar las relaciones humanas, distrayendo la atención de la realidad en su conjunto. La startup estrella de IA generativa de Silicon Valley, Inflection, ha lanzado su chatbot Pi, que está diseñado para ser un compañero amigable y de apoyo. Según los fundadores, Pi es una herramienta para ayudar a las personas a lidiar con la soledad y se puede usar como una persona en la que confiar. Los críticos argumentan que permite a las personas escapar de la realidad en lugar de interactuar con humanos reales.
Ahora, la relación entre las personas y las herramientas ha evolucionado a un nuevo nivel. El nacimiento de todas las herramientas ha hecho que los seres humanos sean perezosos, como las barredoras que evitan que las personas limpien las casas y los teléfonos móviles que hacen que las personas ya no tengan que escribir números de teléfono.
Pero la diferencia entre la tecnología de IA y la tecnología anterior es que la mayor parte del trabajo de pensamiento y elección se le da a la IA, que es básicamente una caja negra, que es más como una transferencia de autonomía de pensamiento. Cuando las personas dejan las decisiones de conducción completamente en manos de la conducción autónoma y los diagnósticos médicos en manos de los sistemas de IA, el costo potencial puede ser completamente diferente del costo de no poder recordar números de teléfono.
Joseph Wiesenbaum, el científico informático que desarrolló el primer chatbot de la historia, ha comparado la ciencia con "una droga adictiva" y se ha convertido en "un veneno crónico" debido al aumento de las dosis, como la introducción de computadoras en actividades humanas complejas, y puede que no haya vuelta atrás.
Cuando las personas otorgan el poder de pensar y juzgar a las máquinas, como una especie de "referencia", el demonio de la "inercia social" y la "complacencia automática" también puede acechar en ella, y puede convertirse en un veneno crónico con la repetición de tareas.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
¿Dónde te arrodillaste? ¿Cuáles son los peligros de que los humanos y la IA cooperen?
Fuente original: Geek Park
Autor: Xinxin
"¡La tecnología es impulsada por personas perezosas!"
Creo que todo el mundo ha utilizado esta frase para excusarse cuando está "pescando" o "tumbado".
Desde la revolución industrial de la máquina de vapor hasta la revolución digital de la computadora, el progreso de la tecnología ha hecho que los seres humanos sean cada vez más planos en algunos aspectos.
La tecnología de IA, que tiene el mayor potencial para convertirse en una plataforma de próxima generación, hará que los humanos sean más "perezosos"?
Parece que sí, pero no es una buena noticia.
Según un nuevo estudio publicado en la revista Frontiers in Robotics and Artificial Intelligence, los humanos son realmente "perezosos" cuando trabajan con IA y máquinas.
Según Cymek, autor principal del estudio, "el trabajo en equipo puede ser tanto una bendición como una maldición".
Entonces, en la era de la IA, la mayor crisis para la humanidad no es ser reemplazada por máquinas, sino ser "perezosa para degenerar".
01 Asistente de máquinas, deja que los humanos "bajen la guardia"
Cuando hay un ayudante tan poderoso como una máquina, hará que los seres humanos se vuelvan más "grandes".
Investigadores de la Universidad Técnica de Berlín en Alemania proporcionaron a 42 participantes imágenes borrosas de placas de circuitos y les pidieron que verificaran si había defectos. A la mitad de los participantes se les dijo que la placa de circuito con la que estaban tratando había sido inspeccionada por un robot llamado "Panda" y que se habían detectado defectos.
De hecho, el robot "Panda" detectó el 94,8% de los defectos durante el experimento. A todos los participantes se les dieron las mismas 320 imágenes de la placa de circuito escaneada, y cuando los investigadores observaron más de cerca las tasas de error de los participantes, encontraron que los participantes que trabajaron con el "panda" tenían menos defectos más adelante en la tarea porque habían visto al "panda" marcar con éxito muchos de los defectos.
Ambos grupos de participantes examinaron casi toda la superficie del tablero, dedicaron tiempo a buscar y se autoevaluaron como que su nivel de esfuerzo era mayor. Como resultado, los participantes que trabajaron con el robot encontraron un promedio de 3,3 defectos y aquellos que completaron la tarea solos encontraron un promedio de 4,23 defectos.
"Esto sugiere que los participantes pueden estar menos atentos a la inspección de la placa cuando trabajan con sus amigos robots", dice el estudio. Los participantes en nuestro estudio parecían haber mantenido sus esfuerzos para inspeccionar las placas de circuitos, pero parece que la inspección se llevó a cabo con menos esfuerzo mental y atención a la información de muestreo".
Esto significa que si se les dice que el robot ya ha comprobado una pieza y ha experimentado la fiabilidad del robot, encontrarán menos defectos. Inconscientemente, asumen que los "pandas" son menos propensos a pasar por alto defectos, lo que resulta en un efecto de "inercia social".
Las implicaciones de este estudio son particularmente importantes para las industrias que dependen de un estricto control de calidad. Los autores advierten que incluso un corto período de relajación de la atención humana, posiblemente debido a la excesiva confianza en la precisión del robot, podría poner en peligro la seguridad.
El investigador Onnasch menciona: "En turnos más largos, la pérdida de motivación tiende a ser mayor cuando las tareas se vuelven rutinarias y el entorno de trabajo proporciona menos monitoreo y retroalimentación del desempeño. Es frecuente en la industria manufacturera, especialmente en áreas relacionadas con la seguridad donde las dobles comprobaciones son comunes, lo que puede tener un impacto negativo en los resultados laborales".
Por supuesto, hay algunas limitaciones en las pruebas del investigador. Por ejemplo, la muestra no es lo suficientemente grande y es difícil simular la "inercia social" en el laboratorio porque los participantes saben que están siendo monitoreados. Cymek explica: "La principal limitación es el entorno de laboratorio. Para comprender la magnitud del problema de la pérdida de energía en la interacción hombre-máquina, necesitamos salir del laboratorio y probar nuestra hipótesis en un entorno de trabajo del mundo real con trabajadores experimentados, que a menudo trabajan con robots".
02 La "crisis de la cooperación hombre-máquina" ya ha ocurrido
De hecho, fuera del laboratorio, la "degradación" causada por la cooperación hombre-máquina ya ha aparecido en el mundo real.
En el campo de la conducción autónoma, existe un fenómeno similar a la "inercia social", llamado "complacencia de la automatización", que suele distraerse con la presencia de asistencia automatizada.
En marzo de 2018, en Arizona, EE. UU., un automóvil autónomo de Uber con un oficial de seguridad atropelló y mató a un ciclista. El análisis policial encontró que si el oficial de seguridad hubiera estado mirando la carretera, el oficial de seguridad podría haberse detenido 12,8 metros frente a la víctima y evitar la tragedia.
Tesla suele ser el objetivo de los medios de comunicación y los reguladores en Estados Unidos, a menudo debido a accidentes relacionados con la conducción autónoma. Un escenario típico es que un conductor de Tesla duerma mientras usa una función de conducción autónoma, o para jugar un juego, y se vea involucrado en un accidente automovilístico fatal.
En el frenesí actual de la IA, la predicción de que las máquinas reemplazarán a los humanos se acerca cada vez más a la realidad. Un lado cree que las máquinas servirán a los humanos, mientras que el otro lado cree que los humanos crearán accidentalmente algo malvado.
En el campo de la medicina, el sistema de IA de IBM "Doctor Watson" ha dado consejos de medicamentos inseguros a pacientes con cáncer. Este año, un documento señaló que la IA generativa ya ha aprobado tres secciones del Examen de Licencia Médica de EE. UU. Una hipótesis de migración similar es: si la IA diagnostica y trata a los humanos en el futuro, y luego los médicos humanos hacen las comprobaciones, ¿tendrán los médicos humanos el problema de la "inercia social" y la "complacencia automatizada"?
Los autores del estudio señalaron: "La combinación de las capacidades de humanos y robots obviamente ofrece muchas oportunidades, pero también debemos considerar los efectos de enjambre no deseados que pueden ocurrir en los equipos humano-máquina. Cuando los humanos y los robots trabajan en una tarea, esto puede conducir a una pérdida de motivación para los compañeros de equipo humanos y hacer que efectos como la inercia social sean más probables".
También existe la preocupación de que la IA pueda afectar el pensamiento y la creatividad humanos, así como debilitar las relaciones humanas, distrayendo la atención de la realidad en su conjunto. La startup estrella de IA generativa de Silicon Valley, Inflection, ha lanzado su chatbot Pi, que está diseñado para ser un compañero amigable y de apoyo. Según los fundadores, Pi es una herramienta para ayudar a las personas a lidiar con la soledad y se puede usar como una persona en la que confiar. Los críticos argumentan que permite a las personas escapar de la realidad en lugar de interactuar con humanos reales.
Ahora, la relación entre las personas y las herramientas ha evolucionado a un nuevo nivel. El nacimiento de todas las herramientas ha hecho que los seres humanos sean perezosos, como las barredoras que evitan que las personas limpien las casas y los teléfonos móviles que hacen que las personas ya no tengan que escribir números de teléfono.
Pero la diferencia entre la tecnología de IA y la tecnología anterior es que la mayor parte del trabajo de pensamiento y elección se le da a la IA, que es básicamente una caja negra, que es más como una transferencia de autonomía de pensamiento. Cuando las personas dejan las decisiones de conducción completamente en manos de la conducción autónoma y los diagnósticos médicos en manos de los sistemas de IA, el costo potencial puede ser completamente diferente del costo de no poder recordar números de teléfono.
Joseph Wiesenbaum, el científico informático que desarrolló el primer chatbot de la historia, ha comparado la ciencia con "una droga adictiva" y se ha convertido en "un veneno crónico" debido al aumento de las dosis, como la introducción de computadoras en actividades humanas complejas, y puede que no haya vuelta atrás.
Cuando las personas otorgan el poder de pensar y juzgar a las máquinas, como una especie de "referencia", el demonio de la "inercia social" y la "complacencia automática" también puede acechar en ella, y puede convertirse en un veneno crónico con la repetición de tareas.