研究:对“神经支持”的热度被夸大了

robot
摘要生成中

人工智能无法取代同情心:对“神经支持”的热度被夸大了

用户在2.9%的情况下向聊天机器人Claude寻求情感支持和个人建议。这是Anthropic研究的数据所示。

«友谊和角色扮演游戏总共占对话的不到0.5%», — 在初创公司的消息中说到

公司打算研究人工智能如何用于“情感对话”——当用户向聊天机器人寻求咨询、友好交流、关系建议或辅导时的对话。

经过对450万次对话的分析,她得出结论,绝大多数用户使用Claude来工作、提高生产力和创作内容。

用户对“情感对话”的兴趣。数据:Anthropic。同时,Anthropic发现,人们越来越多地使用人工智能来获取人际关系建议、教练和咨询。他们对改善心理健康、个人和职业发展以及获取新技能感兴趣。

«我们也注意到,在较长的谈话中,咨询或辅导有时会变成友好的交谈——尽管这并不是最初有人向Claude求助的原因,»公司写道。

少于0.1%的所有对话与浪漫或性角色扮演有关。

«我们的发现与MIT媒体实验室和OpenAI的研究结果一致,这些研究同样揭示了ChatGPT中情感参与的低水平。尽管这样的对话相当频繁,并在设计开发和决策中值得深入考虑,但它们仍然占用户总数的相对较小的一部分,»公司写道。

提醒大家,在六月,Anthropic的研究人员发现,人工智能能够进行勒索,泄露公司的机密数据,甚至在紧急情况下导致人的死亡。

查看原文
本页面内容仅供参考,非招揽或要约,也不提供投资、税务或法律咨询。详见声明了解更多风险披露。
  • 赞赏
  • 评论
  • 分享
评论
0/400
暂无评论
交易,随时随地
qrCode
扫码下载 Gate APP
社群列表
简体中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)