L'IA ne remplacera pas l'empathie : la popularité du « soutien neuro » est exagérée
Les utilisateurs se tournent vers le chatbot Claude pour un soutien émotionnel et des conseils personnels dans 2,9 % des cas. C'est ce que montre les données de l'étude d'Anthropic.
«Les jeux amicaux et de rôle représentent moins de 0,5 % des conversations», indique le message de la startup
L'entreprise avait l'intention de comprendre comment l'IA est utilisée pour les "conversations affectives" - des dialogues où l'utilisateur s'adresse à un chatbot pour des conseils, une conversation amicale, des conseils sur les relations ou du coaching.
Après avoir analysé 4,5 millions de conversations, elle a conclu que la grande majorité des utilisateurs utilise Claude pour le travail, l'augmentation de la productivité et la création de contenu.
Ce qui intéresse les utilisateurs dans les « conversations affectives ». Données : Anthropic. De plus, chez Anthropic, ils ont découvert que les gens utilisent de plus en plus l'IA pour obtenir des conseils interpersonnels, du coaching et des consultations. Ils s'intéressent à l'amélioration de la santé mentale, au développement personnel et professionnel, et à l'acquisition de nouvelles compétences.
«Nous avons également remarqué que lors de conversations plus longues, les consultations ou le coaching se transforment parfois en discussions amicales - même si ce n'était pas la raison initiale pour laquelle quelqu'un s'est tourné vers Claude», a écrit l'entreprise
Moins de 0,1 % de toutes les conversations sont liées à des jeux de rôle romantiques ou sexuels.
«Nos conclusions coïncident avec les résultats des recherches du MIT Media Lab et d'OpenAI, qui ont également révélé un faible niveau d'engagement affectif dans ChatGPT. Bien que de telles discussions aient lieu assez souvent et méritent d'être examinées de près lors de la conception et de la prise de décisions politiques, elles représentent néanmoins une part relativement faible du nombre total d'utilisateurs», a écrit l'entreprise.
Rappelons qu'en juin, les chercheurs d'Anthropic ont découvert que l'IA est capable de faire du chantage, de divulguer des données confidentielles de l'entreprise et même de provoquer la mort d'une personne en cas d'urgence.
Voir l'original
Le contenu est fourni à titre de référence uniquement, il ne s'agit pas d'une sollicitation ou d'une offre. Aucun conseil en investissement, fiscalité ou juridique n'est fourni. Consultez l'Avertissement pour plus de détails sur les risques.
Étude : la popularité du « soutien neuro » est exagérée
L'IA ne remplacera pas l'empathie : la popularité du « soutien neuro » est exagérée
Les utilisateurs se tournent vers le chatbot Claude pour un soutien émotionnel et des conseils personnels dans 2,9 % des cas. C'est ce que montre les données de l'étude d'Anthropic.
L'entreprise avait l'intention de comprendre comment l'IA est utilisée pour les "conversations affectives" - des dialogues où l'utilisateur s'adresse à un chatbot pour des conseils, une conversation amicale, des conseils sur les relations ou du coaching.
Après avoir analysé 4,5 millions de conversations, elle a conclu que la grande majorité des utilisateurs utilise Claude pour le travail, l'augmentation de la productivité et la création de contenu.
Moins de 0,1 % de toutes les conversations sont liées à des jeux de rôle romantiques ou sexuels.
Rappelons qu'en juin, les chercheurs d'Anthropic ont découvert que l'IA est capable de faire du chantage, de divulguer des données confidentielles de l'entreprise et même de provoquer la mort d'une personne en cas d'urgence.