« La technologie est pilotée par des paresseux ! »
Je crois que tout le monde a utilisé cette phrase pour se trouver des excuses lorsqu’il « pêche » ou « couché à plat ».
De la révolution industrielle de la machine à vapeur à la révolution numérique de l’ordinateur, les progrès de la technologie ont en effet rendu l’être humain de plus en plus plat à certains égards.
La technologie de l’IA, qui a le plus de potentiel pour devenir une plate-forme de nouvelle génération, rendra-t-elle les humains « plus paresseux" ?
Il semble que oui, mais ce n’est pas une bonne nouvelle.
Selon une nouvelle étude publiée dans la revue Frontiers in Robotics and Artificial Intelligence, les humains sont vraiment « paresseux » lorsqu’ils travaillent avec l’IA et les machines.
Selon Cymek, l’auteur principal de l’étude, « le travail d’équipe peut être à la fois une bénédiction et une malédiction ».
Donc, à l’ère de l’IA, la plus grande crise pour l’humanité n’est pas d’être remplacée par des machines, mais d’être « paresseux pour dégénérer » ?
01 Assistant machine, laissez les humains « baisser leur garde"
Lorsqu’il y a une aide aussi puissante qu’une machine, cela rendra les êtres humains plus « grand cœur ».
Des chercheurs de l’Université technique de Berlin en Allemagne ont fourni à 42 participants des images floues de circuits imprimés et leur ont demandé de vérifier s’il y avait des défauts. La moitié des participants ont été informés que le circuit imprimé auquel ils avaient affaire avait été inspecté par un robot appelé « Panda » et que les défauts avaient été signalés.
Expérience : Tâche de recherche visuelle pour le contrôle qualité des cartes de circuits imprimés simulées |
En effet, le robot « Panda » a détecté 94,8 % des défauts au cours de l’expérience. Tous les participants ont reçu les mêmes 320 images de la carte de circuit imprimé numérisée, et lorsque les chercheurs ont examiné de plus près les taux d’erreur des participants, ils ont constaté que les participants qui travaillaient avec le « panda » avaient moins de défauts plus tard dans la tâche parce qu’ils avaient vu le « panda » marquer avec succès de nombreux défauts.
Les deux groupes de participants ont examiné presque toute la surface de la planche, ont passé du temps à chercher et ont auto-évalué leur niveau d’effort était plus élevé. En conséquence, les participants travaillant avec le robot ont trouvé en moyenne 3,3 défauts et ceux qui ont effectué la tâche seuls ont trouvé en moyenne 4,23 défauts.
Moyenne et écart-type des défauts détectés par les participants des deux groupes |
« Cela suggère que les participants peuvent être moins attentifs à l’inspection de la carte lorsqu’ils travaillent avec leurs copains robots », indique l’étude. Les participants à notre étude semblaient avoir maintenu leurs efforts pour inspecter les circuits imprimés, mais il semble que l’inspection ait été effectuée avec moins d’effort mental et d’attention aux informations d’échantillonnage.
Cela signifie que si on leur dit que le robot a déjà vérifié une pièce et qu’il a fait l’expérience de la fiabilité du robot, ils trouveront moins de défauts. Inconsciemment, ils supposent que les « pandas » sont moins susceptibles de passer à côté de défauts, ce qui entraîne un effet d'« inertie sociale ».
Les implications de cette étude sont particulièrement importantes pour les industries qui s’appuient sur un contrôle de qualité strict. Les auteurs avertissent que même une courte période de relâchement de l’attention humaine, peut-être en raison d’une dépendance excessive à la précision du robot, pourrait compromettre la sécurité.
Le chercheur Onnasch mentionne : « Sur des quarts de travail plus longs, la perte de motivation a tendance à être plus importante lorsque les tâches deviennent routinières et que l’environnement de travail offre moins de suivi des performances et de rétroaction. Il est répandu dans l’industrie manufacturière, en particulier dans les domaines liés à la sécurité où les doubles contrôles sont courants, ce qui peut avoir un impact négatif sur les résultats au travail.
Bien sûr, il y a certaines limites aux tests de l’investigateur. Par exemple, l’échantillon n’est pas assez grand, et il est difficile de simuler « l’inertie sociale » en laboratoire car les participants savent qu’ils sont surveillés. Cymek explique : « La principale contrainte est l’environnement du laboratoire. Pour comprendre l’ampleur du problème de la perte de puissance dans l’interaction homme-machine, nous devons sortir du laboratoire et tester notre hypothèse dans un environnement de travail réel avec des travailleurs expérimentés, qui travaillent souvent avec des robots.
02 La « crise de la coopération homme-machine » a déjà eu lieu
En fait, en dehors du laboratoire, la « dégradation » causée par la coopération homme-machine est déjà apparue dans le monde réel.
Dans le domaine de la conduite autonome, il existe un phénomène similaire à « l’inertie sociale », appelé « complaisance de l’automatisation », qui est généralement distrait par la présence d’une assistance automatisée.
En mars 2018, en Arizona, aux États-Unis, une voiture autonome Uber avec un agent de sécurité a heurté et tué un cycliste. L’analyse policière a révélé que si l’agent de sécurité avait regardé la route, il aurait pu s’arrêter à 12,8 mètres devant la victime et éviter la tragédie.
Décès liés à la conduite autonome en 2018 aux États-Unis |CNN
Tesla est souvent la cible des médias et des régulateurs aux États-Unis, souvent en raison d’accidents liés à la conduite autonome. Un scénario typique est qu’un conducteur de Tesla dorme tout en utilisant une fonction de conduite autonome, ou qu’il joue à un jeu et qu’il soit impliqué dans un accident de voiture mortel.
Dans la frénésie actuelle de l’IA, la prédiction selon laquelle les machines remplaceront les humains se rapproche de plus en plus de la réalité. D’un côté, on croit que les machines serviront les humains, tandis que de l’autre, on croit que les humains vont accidentellement créer quelque chose de maléfique.
Dans le domaine médical, le système d’IA d’IBM « Doctor Watson » a donné des conseils sur les médicaments dangereux aux patients atteints de cancer. Cette année, un article a souligné que l’IA générative a déjà passé trois sections de l’examen de licence médicale des États-Unis. Une hypothèse de migration similaire est la suivante : si l’IA diagnostique et traite les humains à l’avenir, puis que les médecins humains effectuent les contrôles, les médecins humains auront-ils le problème de « l’inertie sociale » et de la « complaisance automatisée » ?
Les auteurs de l’étude ont noté : « La combinaison des capacités des humains et des robots offre évidemment de nombreuses opportunités, mais nous devons également tenir compte des effets d’essaim involontaires qui peuvent se produire dans les équipes homme-machine. Lorsque les humains et les robots travaillent sur une tâche, cela peut entraîner une perte de motivation pour les coéquipiers humains et rendre des effets tels que l’inertie sociale plus probables.
On craint également que l’IA n’affecte la pensée et la créativité humaines, ainsi qu’elle n’affaiblisse les relations humaines, détournant l’attention de la réalité dans son ensemble. Inflection, la start-up star de l’IA générative de la Silicon Valley, a lancé son chatbot Pi, conçu pour être un compagnon amical et solidaire. Selon les fondateurs, Pi est un outil pour aider les gens à faire face à la solitude et peut être utilisé comme une personne à qui se confier. Les critiques soutiennent qu’il permet aux gens d’échapper à la réalité plutôt que d’interagir avec de vrais humains.
Aujourd’hui, la relation entre les personnes et les outils a évolué à un nouveau niveau. La naissance de tous les outils a en fait rendu les êtres humains paresseux, tels que les balayeuses qui sauvent les gens du nettoyage des maisons, et les téléphones portables qui permettent aux gens de ne plus avoir à écrire les numéros de téléphone.
Mais la différence entre la technologie de l’IA et la technologie précédente est qu’une plus grande partie du travail de réflexion et de choix est confiée à l’IA, qui est essentiellement une boîte noire, qui ressemble davantage à un transfert d’autonomie de pensée. Lorsque les gens laissent les décisions de conduite entièrement à la conduite autonome et les diagnostics médicaux aux systèmes d’IA, le coût potentiel peut être complètement différent du coût de ne pas pouvoir se souvenir des numéros de téléphone.
Joseph Wiesenbaum, l’informaticien qui a développé le premier chatbot de l’histoire, a comparé la science à « une drogue addictive » et est devenue « un poison chronique » en raison de l’augmentation des doses, comme l’introduction d’ordinateurs dans des activités humaines complexes, et il n’y a peut-être pas de retour en arrière.
Lorsque les gens donnent le pouvoir de penser et de juger aux machines, comme une sorte de « référence », le diable de « l’inertie sociale » et de la « complaisance automatique » peut également s’y cacher, et peut devenir un poison chronique avec la répétition des tâches.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Où vous êtes-vous agenouillé ? Quels sont les dangers de la coopération entre les humains et l’IA ?
Source originale : Geek Park
Auteur : Xinxin
« La technologie est pilotée par des paresseux ! »
Je crois que tout le monde a utilisé cette phrase pour se trouver des excuses lorsqu’il « pêche » ou « couché à plat ».
De la révolution industrielle de la machine à vapeur à la révolution numérique de l’ordinateur, les progrès de la technologie ont en effet rendu l’être humain de plus en plus plat à certains égards.
La technologie de l’IA, qui a le plus de potentiel pour devenir une plate-forme de nouvelle génération, rendra-t-elle les humains « plus paresseux" ?
Il semble que oui, mais ce n’est pas une bonne nouvelle.
Selon une nouvelle étude publiée dans la revue Frontiers in Robotics and Artificial Intelligence, les humains sont vraiment « paresseux » lorsqu’ils travaillent avec l’IA et les machines.
Selon Cymek, l’auteur principal de l’étude, « le travail d’équipe peut être à la fois une bénédiction et une malédiction ».
Donc, à l’ère de l’IA, la plus grande crise pour l’humanité n’est pas d’être remplacée par des machines, mais d’être « paresseux pour dégénérer » ?
01 Assistant machine, laissez les humains « baisser leur garde"
Lorsqu’il y a une aide aussi puissante qu’une machine, cela rendra les êtres humains plus « grand cœur ».
Des chercheurs de l’Université technique de Berlin en Allemagne ont fourni à 42 participants des images floues de circuits imprimés et leur ont demandé de vérifier s’il y avait des défauts. La moitié des participants ont été informés que le circuit imprimé auquel ils avaient affaire avait été inspecté par un robot appelé « Panda » et que les défauts avaient été signalés.
En effet, le robot « Panda » a détecté 94,8 % des défauts au cours de l’expérience. Tous les participants ont reçu les mêmes 320 images de la carte de circuit imprimé numérisée, et lorsque les chercheurs ont examiné de plus près les taux d’erreur des participants, ils ont constaté que les participants qui travaillaient avec le « panda » avaient moins de défauts plus tard dans la tâche parce qu’ils avaient vu le « panda » marquer avec succès de nombreux défauts.
Les deux groupes de participants ont examiné presque toute la surface de la planche, ont passé du temps à chercher et ont auto-évalué leur niveau d’effort était plus élevé. En conséquence, les participants travaillant avec le robot ont trouvé en moyenne 3,3 défauts et ceux qui ont effectué la tâche seuls ont trouvé en moyenne 4,23 défauts.
« Cela suggère que les participants peuvent être moins attentifs à l’inspection de la carte lorsqu’ils travaillent avec leurs copains robots », indique l’étude. Les participants à notre étude semblaient avoir maintenu leurs efforts pour inspecter les circuits imprimés, mais il semble que l’inspection ait été effectuée avec moins d’effort mental et d’attention aux informations d’échantillonnage.
Cela signifie que si on leur dit que le robot a déjà vérifié une pièce et qu’il a fait l’expérience de la fiabilité du robot, ils trouveront moins de défauts. Inconsciemment, ils supposent que les « pandas » sont moins susceptibles de passer à côté de défauts, ce qui entraîne un effet d'« inertie sociale ».
Les implications de cette étude sont particulièrement importantes pour les industries qui s’appuient sur un contrôle de qualité strict. Les auteurs avertissent que même une courte période de relâchement de l’attention humaine, peut-être en raison d’une dépendance excessive à la précision du robot, pourrait compromettre la sécurité.
Le chercheur Onnasch mentionne : « Sur des quarts de travail plus longs, la perte de motivation a tendance à être plus importante lorsque les tâches deviennent routinières et que l’environnement de travail offre moins de suivi des performances et de rétroaction. Il est répandu dans l’industrie manufacturière, en particulier dans les domaines liés à la sécurité où les doubles contrôles sont courants, ce qui peut avoir un impact négatif sur les résultats au travail.
Bien sûr, il y a certaines limites aux tests de l’investigateur. Par exemple, l’échantillon n’est pas assez grand, et il est difficile de simuler « l’inertie sociale » en laboratoire car les participants savent qu’ils sont surveillés. Cymek explique : « La principale contrainte est l’environnement du laboratoire. Pour comprendre l’ampleur du problème de la perte de puissance dans l’interaction homme-machine, nous devons sortir du laboratoire et tester notre hypothèse dans un environnement de travail réel avec des travailleurs expérimentés, qui travaillent souvent avec des robots.
02 La « crise de la coopération homme-machine » a déjà eu lieu
En fait, en dehors du laboratoire, la « dégradation » causée par la coopération homme-machine est déjà apparue dans le monde réel.
Dans le domaine de la conduite autonome, il existe un phénomène similaire à « l’inertie sociale », appelé « complaisance de l’automatisation », qui est généralement distrait par la présence d’une assistance automatisée.
En mars 2018, en Arizona, aux États-Unis, une voiture autonome Uber avec un agent de sécurité a heurté et tué un cycliste. L’analyse policière a révélé que si l’agent de sécurité avait regardé la route, il aurait pu s’arrêter à 12,8 mètres devant la victime et éviter la tragédie.
Tesla est souvent la cible des médias et des régulateurs aux États-Unis, souvent en raison d’accidents liés à la conduite autonome. Un scénario typique est qu’un conducteur de Tesla dorme tout en utilisant une fonction de conduite autonome, ou qu’il joue à un jeu et qu’il soit impliqué dans un accident de voiture mortel.
Dans la frénésie actuelle de l’IA, la prédiction selon laquelle les machines remplaceront les humains se rapproche de plus en plus de la réalité. D’un côté, on croit que les machines serviront les humains, tandis que de l’autre, on croit que les humains vont accidentellement créer quelque chose de maléfique.
Dans le domaine médical, le système d’IA d’IBM « Doctor Watson » a donné des conseils sur les médicaments dangereux aux patients atteints de cancer. Cette année, un article a souligné que l’IA générative a déjà passé trois sections de l’examen de licence médicale des États-Unis. Une hypothèse de migration similaire est la suivante : si l’IA diagnostique et traite les humains à l’avenir, puis que les médecins humains effectuent les contrôles, les médecins humains auront-ils le problème de « l’inertie sociale » et de la « complaisance automatisée » ?
Les auteurs de l’étude ont noté : « La combinaison des capacités des humains et des robots offre évidemment de nombreuses opportunités, mais nous devons également tenir compte des effets d’essaim involontaires qui peuvent se produire dans les équipes homme-machine. Lorsque les humains et les robots travaillent sur une tâche, cela peut entraîner une perte de motivation pour les coéquipiers humains et rendre des effets tels que l’inertie sociale plus probables.
On craint également que l’IA n’affecte la pensée et la créativité humaines, ainsi qu’elle n’affaiblisse les relations humaines, détournant l’attention de la réalité dans son ensemble. Inflection, la start-up star de l’IA générative de la Silicon Valley, a lancé son chatbot Pi, conçu pour être un compagnon amical et solidaire. Selon les fondateurs, Pi est un outil pour aider les gens à faire face à la solitude et peut être utilisé comme une personne à qui se confier. Les critiques soutiennent qu’il permet aux gens d’échapper à la réalité plutôt que d’interagir avec de vrais humains.
Aujourd’hui, la relation entre les personnes et les outils a évolué à un nouveau niveau. La naissance de tous les outils a en fait rendu les êtres humains paresseux, tels que les balayeuses qui sauvent les gens du nettoyage des maisons, et les téléphones portables qui permettent aux gens de ne plus avoir à écrire les numéros de téléphone.
Mais la différence entre la technologie de l’IA et la technologie précédente est qu’une plus grande partie du travail de réflexion et de choix est confiée à l’IA, qui est essentiellement une boîte noire, qui ressemble davantage à un transfert d’autonomie de pensée. Lorsque les gens laissent les décisions de conduite entièrement à la conduite autonome et les diagnostics médicaux aux systèmes d’IA, le coût potentiel peut être complètement différent du coût de ne pas pouvoir se souvenir des numéros de téléphone.
Joseph Wiesenbaum, l’informaticien qui a développé le premier chatbot de l’histoire, a comparé la science à « une drogue addictive » et est devenue « un poison chronique » en raison de l’augmentation des doses, comme l’introduction d’ordinateurs dans des activités humaines complexes, et il n’y a peut-être pas de retour en arrière.
Lorsque les gens donnent le pouvoir de penser et de juger aux machines, comme une sorte de « référence », le diable de « l’inertie sociale » et de la « complaisance automatique » peut également s’y cacher, et peut devenir un poison chronique avec la répétition des tâches.