研究:對“神經支持”的熱度被誇大了

robot
摘要生成中

人工智能無法取代同情心:對“神經支持”的熱度被誇大了

用戶在2.9%的情況下向聊天機器人Claude尋求情感支持和個人建議。這是Anthropic研究的數據所示。

«友誼和角色扮演遊戲總共佔對話的不到0.5%», — 在初創公司的消息中說到

公司打算研究人工智能如何用於“情感對話”——當用戶向聊天機器人尋求諮詢、友好交流、關係建議或輔導時的對話。

經過對450萬次對話的分析,她得出結論,絕大多數用戶使用Claude來工作、提高生產力和創作內容。

用戶對“情感對話”的興趣。數據:Anthropic。同時,Anthropic發現,人們越來越多地使用人工智能來獲取人際關係建議、教練和諮詢。他們對改善心理健康、個人和職業發展以及獲取新技能感興趣。

«我們也注意到,在較長的談話中,諮詢或輔導有時會變成友好的交談——盡管這並不是最初有人向Claude求助的原因,»公司寫道。

少於0.1%的所有對話與浪漫或性角色扮演有關。

«我們的發現與MIT媒體實驗室和OpenAI的研究結果一致,這些研究同樣揭示了ChatGPT中情感參與的低水平。盡管這樣的對話相當頻繁,並在設計開發和決策中值得深入考慮,但它們仍然佔用戶總數的相對較小的一部分,»公司寫道。

提醒大家,在六月,Anthropic的研究人員發現,人工智能能夠進行勒索,泄露公司的機密數據,甚至在緊急情況下導致人的死亡。

查看原文
本頁面內容僅供參考,非招攬或要約,也不提供投資、稅務或法律諮詢。詳見聲明了解更多風險披露。
  • 讚賞
  • 留言
  • 分享
留言
0/400
暫無留言
交易,隨時隨地
qrCode
掃碼下載 Gate APP
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)