Source de l'image : générée par l'outil Unbounded AI
Les grands modèles sont illusoires et leurs manifestations sont diverses, comme des conflits avec les faits, et leurs causes sont nombreuses, comme le manque de connaissances pertinentes ou des erreurs d'alignement, laissant encore plus de points flous. Mais le point le plus critique lié à l'application n'est pas celui-ci, mais : Il semble que l'hallucination soit quelque chose qui ne peut pas être résolu à court terme, même pour OpenAI. Cela nécessite de réfléchir à ses conditions actuelles et à ses invariants lors de sa mise en œuvre. Une fois considérées comme des conditions préalables et des invariants, vous constaterez que, tout comme les humains, les illusions ne sont pas toutes mauvaises.
Avec la tendance et contre la tendance
Nous prenons comme axe vertical si les hallucinations sont utiles ou nocives pour le produit, et ajoutons la responsabilité des problèmes comme axe horizontal pour former un système de coordonnées simple, puis plaçons divers agents d'intelligence artificielle sur ce système de coordonnées, alors cela ressemble probablement à ce:
Il peut y avoir des différends sur les positions des différents agents artificiels, mais quelques valeurs extrêmes ne devraient pas poser de gros problèmes.
Pour le Metaverse, il s'agit d'un jeu de haut niveau. Le comportement inhabituel des personnages va en fait stimuler la diversité du récit du jeu et faire partie de la nourriture pour enrichir le contenu du monde. Pour la consultation, c'est très gênant. Si c'est le cas utilisé en dehors du cadre des connaissances médicales existantes, l'état du patient devient alors grave, ce qui est non seulement nocif, mais a également de graves conséquences. Il existe en fait davantage de choses qui s'apparentent à la consultation dans l'espace réel, notamment le service client, la consultation fiscale, etc.
Dans À la recherche du volant d'inertie intelligent : de l'épuisement des données à la multimodalité en passant par l'auto-génération, nous avons mentionné que personne, à l'exception d'AlphaGo, n'a fait tourner le volant d'inertie intelligent, et parce qu'une fois que le volant d'inertie tourne, il produira inévitablement des dieux dans des domaines spécifiques, donc Les personnes préoccupées par cette application d’intelligence artificielle se demandent où pourrait se trouver un autre volant d’inertie intelligent comme l’image ci-dessous :
La réponse peut également être trouvée dans le diagramme en quadrant ci-dessus : plus la direction du métaverse est proche, plus ce sera facile. Illusion peut créer de nouvelles données à faible coût de responsabilité, et les nouvelles données peuvent être intégrées dans la scène, qui à son tour peut être utilisée comme carburant pour entraîner le volant d'inertie. **
La position dans le quadrant est la position
La position dans le quadrant est très critique pour la mise en œuvre de produits d’IA.
**Cette position détermine dans une large mesure vos coûts d'exploitation et même la vitesse de fonctionnement. Et les contraintes auxquelles il est confronté sont très rigides et immuables. **
Au sens habituel du terme, nous considérons tous les produits comme un ensemble de caractéristiques, exprimées en termes de ce qu'ils peuvent et ne peuvent pas faire, de paramètres de performance fonctionnelle, etc. À un niveau plus avancé, la marque découle de préférences esthétiques. Mais il n’est pas exhaustif : à un niveau plus profond, le produit est aussi le point de convergence d’un système de droits, de responsabilités et d’avantages. Ce n’est pas aussi évident sur les produits côté C que sur la face B.
On en parlait rarement dans le passé car il n’existe qu’un seul type d’agent intelligent dans le système économique : les personnes. L'ensemble du système économique repose sur les droits, responsabilités et avantages déterminés par les individus et les personnes morales. Mais aujourd’hui, ce système se trouve confronté à de nouveaux défis : l’essor de l’intelligence artificielle a provoqué des fissures dans ce système de droits et de responsabilités, et son fonctionnement stagne.
L’exemple le plus simple est celui de la conduite autonome, souvent évoqué par le passé, qui entraînera un rééquilibrage nouveau et complexe des droits, des responsabilités et des intérêts entre les utilisateurs, les constructeurs et les prestataires de services de conduite autonome. (Il s'avère que la responsabilité des accidents incombe essentiellement à l'utilisateur. Celui qui conduit la voiture est responsable. Ce n'est plus le cas avec la conduite autonome)
**Cela sera très gênant, car l'intelligence artificielle ne fait pas l'objet de droits et d'intérêts, mais elle semble devoir assumer des responsabilités correspondantes. Cela conduit inconsciemment chaque entreprise à essayer d'utiliser la technologie pour se protéger, donnant l'impression que certaines mauvaises choses peuvent éviter de se produire. Mais en fait, cela ressemble à Don Quichotte combattant les moulins à vent, ce qui est fondamentalement impossible. **
Le rééquilibrage des droits, responsabilités et avantages des utilisateurs et de la partie A déterminera en fait l'orientation de l'allocation limitée des ressources de l'entreprise, comme un bâton. (coûts sociaux généraux qui créent effectivement un emplacement spécifique)
N'est-ce pas embarrassant de devoir le faire alors que les entrées et les sorties ne sont pas bonnes ?
La principale raison de cet embarras est que la technologie ne peut pas complètement compenser les droits et les responsabilités.
Droits et responsabilités qui ne peuvent être couverts
Pourquoi est-il impossible pour la technologie de compenser complètement les droits et les responsabilités ?
Cela s’explique bien sûr par le fait que la technologie connaît toujours un processus de maturation, mais la raison la plus importante est que si le numérique et l’intelligence explicitent les problèmes, les droits et les responsabilités sont amplifiés. **
Face à des résultats numériques clairement représentables, chaque client souhaite résoudre des problèmes sans limites, et cette limite a été supprimée dans le passé.
Nous pouvons prendre le service client comme exemple :
Lorsqu'on embauche des milliers ou des centaines de personnes pour assurer le service client, le service lui-même doit avoir des problèmes de rendement. Mais à l'heure actuelle, tout le monde peut fondamentalement accepter un certain nombre d'erreurs. Tout le monde sait que les gens feront des erreurs. De plus, le personnel du service client n'est pas facile à trouver, donc tout le monde maintient une certaine tolérance à ce taux de rendement. Si le personnel du service client ne fournit pas un bon service et perd une commande, le personnel du service client correspondant sera licencié ou l'argent sera déduit au maximum. Il est difficile de récupérer les dommages causés auprès du service client.
Lorsque le service client a été remplacé par l’intelligence artificielle, les choses sont restées les mêmes, mais les rapports de pouvoir et de responsabilité ont progressivement changé.
Même si le taux de rendement de l’intelligence artificielle dépasse celui du travail manuel précédent, du point de vue de la partie A, il y aura encore suffisamment de motivation pour demander des comptes aux entreprises qui fournissent des services d’intelligence artificielle. Les entreprises technologiques derrière elles devront trouver des moyens de rendre les corps d’intelligence artificielle exempts d’erreurs.
Il s’agit d’utiliser la technologie pour couvrir les droits et les responsabilités.
**L'essence est d'utiliser la technologie pour résoudre des problèmes dans des domaines presque illimités. Au fil du temps, c'est devenu de plus en plus confus parce que je n'arrivais pas à comprendre. L’industrie de l’intelligence artificielle répète cette histoire depuis l’éveil des haut-parleurs intelligents. **
La situation actuelle est que même si les anciens moteurs de recherche ne commettent pas d’erreurs, par exemple si un certain type de contenu apparaît une fois puis est détruit, des entreprises comme Google et Baidu mourront d’innombrables fois.
Cependant, la tolérance du système de pouvoir et de responsabilité de ** a en réalité de nombreuses raisons. Elle a une histoire, une culture et une réalité commerciale. Elle est très rigide et peu susceptible de changer **. Et si cela ne peut pas changer, ce n’est pas très adapté à une entité purement artificielle. La méthode de compromis à laquelle je pense est de réintégrer la personne. Même si la personne ne fait rien et se comporte seulement comme un spectacle, elle remplit ses responsabilités professionnelles. Le corps artificiel lui sert et il est responsable de tout ce qui se passe.
De cette manière, la sélection et le positionnement sont essentiels, car le système d'autorité et de responsabilité lui-même est le coût, la direction et la satisfaction du client (** "Penser est le problème, faire est la réponse" est faux, Lei Jun a dit que ce n'est pas possible** Fais-le. Fin du vieux sujet qui est faux). En partant du principe que l'illusion fait partie de l'intelligence, si vous allez vraiment dans un domaine où le système de pouvoir et de responsabilité est très lourd, vous obtiendrez en réalité la moitié du résultat avec la moitié de l'effort.
Dans cette perspective, nous pouvons aller un peu plus haut et parler du modèle d’application des nouvelles technologies.
Modèle d'application des nouvelles technologies
Lorsque nous discutons du modèle d’application, revenons d’abord aux humains eux-mêmes.
Les sous-systèmes centraux de la civilisation humaine : la politique, l’économie et la culture sont en réalité tous créés par des processus répétés de virtualité puis de réalité, puis de réalité et de virtualité. Il y a 300 ans, il n'y avait pas de séparation des pouvoirs, de liberté, de démocratie et de socialisme. Bien sûr, il n'y avait ni voitures, ni trains à grande vitesse, ni vélos.
Celles-ci sont basées sur l'imagination et une sorte de rationalité logique, ainsi que sur une autre vague de personnes qui ont trouvé le lien entre l'imagination, les lois physiques et les jeux d'affaires, et alors l'imagination deviendra réalité. Les trains, l’électricité, les voitures, les téléphones portables, etc. sont tous arrivés au monde de cette manière.
Nous reviendrons ensuite sur le 12 février 1912, date de l'abdication de Puyi, pour voir le rôle de l'imagination.
De nombreux produits qui ont un impact profond sur nous aujourd'hui ont été inventés avant 1912. Les produits incluent les moteurs à vapeur, les automobiles, l'électricité, la pénicilline, les téléphones, les appareils photo, les batteries, etc. Les personnages incluent Nobel, Edison, Tesla, Ford, etc. Ces produits n'ont généralement pas eu de succès après leur naissance. Par exemple, les voitures à vapeur explosaient souvent. Edison attaquait autrefois principalement le courant alternatif comme étant dangereux et facile à électrocuter. Cependant, l'environnement relativement tolérant a permis à ces produits de survivre.
**Imaginez si Cixi et d'autres pensaient que le retour des trains interférait avec le feng shui des ancêtres, alors une telle diversité n'existerait pas. L'utilisation par la dynastie Qing de l'inquisition littéraire et d'autres méthodes pour supprimer la pensée s'est avérée efficace. Elle a atteint dans une certaine mesure la stabilité espérée. Cependant, même si la stabilité était très bonne, l'efficacité de l'ensemble du système était très médiocre. en 1912 peut être considéré comme ceci : de mauvais résultats de performance. **
Quelle illumination cela nous donne-t-il ?
**Il est plus approprié que les nouvelles technologies démarrent dans des endroits où les coûts sociaux généraux sont faibles. Plus le système de droits et de responsabilités est souple, plus le coût des essais et des erreurs est faible et plus il est propice au redressement des produits immatures pilotés par les nouvelles technologies. **
La question des coûts sociaux généraux est très complexe et ne sera pas abordée ici. (Comment éviter de croire que lorsque le train apparaîtra, il détruira le feng shui.)
Pour les individus qui sont des sujets innovants, il faut évidemment éviter les systèmes complexes de droits et de responsabilités.
Parce que la technologie est immature, si vous l’utilisez encore pour couvrir les risques liés à des droits et responsabilités complexes, ce sera certainement ingrat.
Pour en revenir à l’intelligence artificielle, à quoi cela ressemblerait-il pour être plus précis ?
**Que l'environnement lui-même soit souple ou non n'est peut-être pas critique à ce stade. Le système complexe de droits et de responsabilités peut faciliter la génération de flux de trésorerie. Mais cela pourrait devenir plus critique par la suite. Étant donné que le volant d'inertie intelligent sous-jacent fonctionne, c'est en réalité la différence entre 1,01 à la puissance 99 et 0,99 à la puissance 99. **
Kevin Kelly a exprimé ce point de vue dans What Technology Wants : même si les avantages apportés par la technologie ne sont qu'un peu supérieurs aux inconvénients, à mesure qu'elle devient plus puissante, l'impact sera très significatif.
Il en va de même pour les corps artificiels : cette petite différence pourrait plus tard faire la différence entre la capacité du volant intelligent à tourner ou non.
Pour le dire simplement, le modèle d'application de l'intelligence artificielle elle-même est le suivant : **Trouver des hallucinations bénéfiques, en couvrant les droits et les responsabilités dans des domaines moins complexes, puis grandir de l'intérieur vers l'extérieur, plutôt que d'encourager la croissance. **
Résumé
**De ce point de vue, il est vrai que l'illusion est l'intelligence, du moins la force motrice du volant d'inertie intelligent. **Dans de nombreux cas, c'est l'illusion qui nous donne un sentiment d'intelligence. Pour supprimer complètement l'illusion tout en conservant l'intelligence, nous devons vraiment parvenir à un corps super unitaire (la sagesse ultime des Kree). C'est un très bon idéal. , mais je pense que si l'on suppose que l'intelligence artificielle ne peut pas construire un modèle mondial complet, alors il est impossible de supprimer cette illusion. Par conséquent, au lieu d'espérer utiliser la technologie pour résoudre ce problème, il est préférable de réviser le modèle d'application selon les progrès de la technologie.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
L’illusion, c’est l’intelligence : la ligne de démarcation entre suivre la tendance et aller à contre-courant dans la mise en œuvre de l’IA
Source : Li Zhiyong
Les grands modèles sont illusoires et leurs manifestations sont diverses, comme des conflits avec les faits, et leurs causes sont nombreuses, comme le manque de connaissances pertinentes ou des erreurs d'alignement, laissant encore plus de points flous. Mais le point le plus critique lié à l'application n'est pas celui-ci, mais : Il semble que l'hallucination soit quelque chose qui ne peut pas être résolu à court terme, même pour OpenAI. Cela nécessite de réfléchir à ses conditions actuelles et à ses invariants lors de sa mise en œuvre. Une fois considérées comme des conditions préalables et des invariants, vous constaterez que, tout comme les humains, les illusions ne sont pas toutes mauvaises.
Avec la tendance et contre la tendance
Nous prenons comme axe vertical si les hallucinations sont utiles ou nocives pour le produit, et ajoutons la responsabilité des problèmes comme axe horizontal pour former un système de coordonnées simple, puis plaçons divers agents d'intelligence artificielle sur ce système de coordonnées, alors cela ressemble probablement à ce:
Pour le Metaverse, il s'agit d'un jeu de haut niveau. Le comportement inhabituel des personnages va en fait stimuler la diversité du récit du jeu et faire partie de la nourriture pour enrichir le contenu du monde. Pour la consultation, c'est très gênant. Si c'est le cas utilisé en dehors du cadre des connaissances médicales existantes, l'état du patient devient alors grave, ce qui est non seulement nocif, mais a également de graves conséquences. Il existe en fait davantage de choses qui s'apparentent à la consultation dans l'espace réel, notamment le service client, la consultation fiscale, etc.
Dans À la recherche du volant d'inertie intelligent : de l'épuisement des données à la multimodalité en passant par l'auto-génération, nous avons mentionné que personne, à l'exception d'AlphaGo, n'a fait tourner le volant d'inertie intelligent, et parce qu'une fois que le volant d'inertie tourne, il produira inévitablement des dieux dans des domaines spécifiques, donc Les personnes préoccupées par cette application d’intelligence artificielle se demandent où pourrait se trouver un autre volant d’inertie intelligent comme l’image ci-dessous :
La position dans le quadrant est la position
La position dans le quadrant est très critique pour la mise en œuvre de produits d’IA.
**Cette position détermine dans une large mesure vos coûts d'exploitation et même la vitesse de fonctionnement. Et les contraintes auxquelles il est confronté sont très rigides et immuables. **
Au sens habituel du terme, nous considérons tous les produits comme un ensemble de caractéristiques, exprimées en termes de ce qu'ils peuvent et ne peuvent pas faire, de paramètres de performance fonctionnelle, etc. À un niveau plus avancé, la marque découle de préférences esthétiques. Mais il n’est pas exhaustif : à un niveau plus profond, le produit est aussi le point de convergence d’un système de droits, de responsabilités et d’avantages. Ce n’est pas aussi évident sur les produits côté C que sur la face B.
On en parlait rarement dans le passé car il n’existe qu’un seul type d’agent intelligent dans le système économique : les personnes. L'ensemble du système économique repose sur les droits, responsabilités et avantages déterminés par les individus et les personnes morales. Mais aujourd’hui, ce système se trouve confronté à de nouveaux défis : l’essor de l’intelligence artificielle a provoqué des fissures dans ce système de droits et de responsabilités, et son fonctionnement stagne.
L’exemple le plus simple est celui de la conduite autonome, souvent évoqué par le passé, qui entraînera un rééquilibrage nouveau et complexe des droits, des responsabilités et des intérêts entre les utilisateurs, les constructeurs et les prestataires de services de conduite autonome. (Il s'avère que la responsabilité des accidents incombe essentiellement à l'utilisateur. Celui qui conduit la voiture est responsable. Ce n'est plus le cas avec la conduite autonome)
**Cela sera très gênant, car l'intelligence artificielle ne fait pas l'objet de droits et d'intérêts, mais elle semble devoir assumer des responsabilités correspondantes. Cela conduit inconsciemment chaque entreprise à essayer d'utiliser la technologie pour se protéger, donnant l'impression que certaines mauvaises choses peuvent éviter de se produire. Mais en fait, cela ressemble à Don Quichotte combattant les moulins à vent, ce qui est fondamentalement impossible. **
Le rééquilibrage des droits, responsabilités et avantages des utilisateurs et de la partie A déterminera en fait l'orientation de l'allocation limitée des ressources de l'entreprise, comme un bâton. (coûts sociaux généraux qui créent effectivement un emplacement spécifique)
N'est-ce pas embarrassant de devoir le faire alors que les entrées et les sorties ne sont pas bonnes ?
La principale raison de cet embarras est que la technologie ne peut pas complètement compenser les droits et les responsabilités.
Droits et responsabilités qui ne peuvent être couverts
Pourquoi est-il impossible pour la technologie de compenser complètement les droits et les responsabilités ?
Cela s’explique bien sûr par le fait que la technologie connaît toujours un processus de maturation, mais la raison la plus importante est que si le numérique et l’intelligence explicitent les problèmes, les droits et les responsabilités sont amplifiés. **
Face à des résultats numériques clairement représentables, chaque client souhaite résoudre des problèmes sans limites, et cette limite a été supprimée dans le passé.
Nous pouvons prendre le service client comme exemple :
Lorsque le service client a été remplacé par l’intelligence artificielle, les choses sont restées les mêmes, mais les rapports de pouvoir et de responsabilité ont progressivement changé.
Même si le taux de rendement de l’intelligence artificielle dépasse celui du travail manuel précédent, du point de vue de la partie A, il y aura encore suffisamment de motivation pour demander des comptes aux entreprises qui fournissent des services d’intelligence artificielle. Les entreprises technologiques derrière elles devront trouver des moyens de rendre les corps d’intelligence artificielle exempts d’erreurs.
Il s’agit d’utiliser la technologie pour couvrir les droits et les responsabilités.
**L'essence est d'utiliser la technologie pour résoudre des problèmes dans des domaines presque illimités. Au fil du temps, c'est devenu de plus en plus confus parce que je n'arrivais pas à comprendre. L’industrie de l’intelligence artificielle répète cette histoire depuis l’éveil des haut-parleurs intelligents. **
La situation actuelle est que même si les anciens moteurs de recherche ne commettent pas d’erreurs, par exemple si un certain type de contenu apparaît une fois puis est détruit, des entreprises comme Google et Baidu mourront d’innombrables fois.
Cependant, la tolérance du système de pouvoir et de responsabilité de ** a en réalité de nombreuses raisons. Elle a une histoire, une culture et une réalité commerciale. Elle est très rigide et peu susceptible de changer **. Et si cela ne peut pas changer, ce n’est pas très adapté à une entité purement artificielle. La méthode de compromis à laquelle je pense est de réintégrer la personne. Même si la personne ne fait rien et se comporte seulement comme un spectacle, elle remplit ses responsabilités professionnelles. Le corps artificiel lui sert et il est responsable de tout ce qui se passe.
De cette manière, la sélection et le positionnement sont essentiels, car le système d'autorité et de responsabilité lui-même est le coût, la direction et la satisfaction du client (** "Penser est le problème, faire est la réponse" est faux, Lei Jun a dit que ce n'est pas possible** Fais-le. Fin du vieux sujet qui est faux). En partant du principe que l'illusion fait partie de l'intelligence, si vous allez vraiment dans un domaine où le système de pouvoir et de responsabilité est très lourd, vous obtiendrez en réalité la moitié du résultat avec la moitié de l'effort.
Dans cette perspective, nous pouvons aller un peu plus haut et parler du modèle d’application des nouvelles technologies.
Modèle d'application des nouvelles technologies
Lorsque nous discutons du modèle d’application, revenons d’abord aux humains eux-mêmes.
Les sous-systèmes centraux de la civilisation humaine : la politique, l’économie et la culture sont en réalité tous créés par des processus répétés de virtualité puis de réalité, puis de réalité et de virtualité. Il y a 300 ans, il n'y avait pas de séparation des pouvoirs, de liberté, de démocratie et de socialisme. Bien sûr, il n'y avait ni voitures, ni trains à grande vitesse, ni vélos.
Celles-ci sont basées sur l'imagination et une sorte de rationalité logique, ainsi que sur une autre vague de personnes qui ont trouvé le lien entre l'imagination, les lois physiques et les jeux d'affaires, et alors l'imagination deviendra réalité. Les trains, l’électricité, les voitures, les téléphones portables, etc. sont tous arrivés au monde de cette manière.
Nous reviendrons ensuite sur le 12 février 1912, date de l'abdication de Puyi, pour voir le rôle de l'imagination.
De nombreux produits qui ont un impact profond sur nous aujourd'hui ont été inventés avant 1912. Les produits incluent les moteurs à vapeur, les automobiles, l'électricité, la pénicilline, les téléphones, les appareils photo, les batteries, etc. Les personnages incluent Nobel, Edison, Tesla, Ford, etc. Ces produits n'ont généralement pas eu de succès après leur naissance. Par exemple, les voitures à vapeur explosaient souvent. Edison attaquait autrefois principalement le courant alternatif comme étant dangereux et facile à électrocuter. Cependant, l'environnement relativement tolérant a permis à ces produits de survivre.
**Imaginez si Cixi et d'autres pensaient que le retour des trains interférait avec le feng shui des ancêtres, alors une telle diversité n'existerait pas. L'utilisation par la dynastie Qing de l'inquisition littéraire et d'autres méthodes pour supprimer la pensée s'est avérée efficace. Elle a atteint dans une certaine mesure la stabilité espérée. Cependant, même si la stabilité était très bonne, l'efficacité de l'ensemble du système était très médiocre. en 1912 peut être considéré comme ceci : de mauvais résultats de performance. **
Quelle illumination cela nous donne-t-il ?
**Il est plus approprié que les nouvelles technologies démarrent dans des endroits où les coûts sociaux généraux sont faibles. Plus le système de droits et de responsabilités est souple, plus le coût des essais et des erreurs est faible et plus il est propice au redressement des produits immatures pilotés par les nouvelles technologies. **
La question des coûts sociaux généraux est très complexe et ne sera pas abordée ici. (Comment éviter de croire que lorsque le train apparaîtra, il détruira le feng shui.)
Pour les individus qui sont des sujets innovants, il faut évidemment éviter les systèmes complexes de droits et de responsabilités.
Parce que la technologie est immature, si vous l’utilisez encore pour couvrir les risques liés à des droits et responsabilités complexes, ce sera certainement ingrat.
Pour en revenir à l’intelligence artificielle, à quoi cela ressemblerait-il pour être plus précis ?
**Que l'environnement lui-même soit souple ou non n'est peut-être pas critique à ce stade. Le système complexe de droits et de responsabilités peut faciliter la génération de flux de trésorerie. Mais cela pourrait devenir plus critique par la suite. Étant donné que le volant d'inertie intelligent sous-jacent fonctionne, c'est en réalité la différence entre 1,01 à la puissance 99 et 0,99 à la puissance 99. **
Kevin Kelly a exprimé ce point de vue dans What Technology Wants : même si les avantages apportés par la technologie ne sont qu'un peu supérieurs aux inconvénients, à mesure qu'elle devient plus puissante, l'impact sera très significatif.
Il en va de même pour les corps artificiels : cette petite différence pourrait plus tard faire la différence entre la capacité du volant intelligent à tourner ou non.
Pour le dire simplement, le modèle d'application de l'intelligence artificielle elle-même est le suivant : **Trouver des hallucinations bénéfiques, en couvrant les droits et les responsabilités dans des domaines moins complexes, puis grandir de l'intérieur vers l'extérieur, plutôt que d'encourager la croissance. **
Résumé
**De ce point de vue, il est vrai que l'illusion est l'intelligence, du moins la force motrice du volant d'inertie intelligent. **Dans de nombreux cas, c'est l'illusion qui nous donne un sentiment d'intelligence. Pour supprimer complètement l'illusion tout en conservant l'intelligence, nous devons vraiment parvenir à un corps super unitaire (la sagesse ultime des Kree). C'est un très bon idéal. , mais je pense que si l'on suppose que l'intelligence artificielle ne peut pas construire un modèle mondial complet, alors il est impossible de supprimer cette illusion. Par conséquent, au lieu d'espérer utiliser la technologie pour résoudre ce problème, il est préférable de réviser le modèle d'application selon les progrès de la technologie.