# AIは共感を置き換えることはできない:「神経サポート」の人気は過大評価されているユーザーは、感情的なサポートと個人的なアドバイスを求めて、2.9%のケースでClaudeチャットボットにアクセスしています。これは、Anthropicの研究データが示しています。> >「友達やロールプレイのゲームは、会話の合計の0.5%未満を占めています」とスタートアップのメッセージで述べられています。> > > 会社は、AIが「感情的な会話」でどのように使用されているかを明らかにしようとしました。これは、ユーザーがチャットボットに相談、友好的な会話、関係に関するアドバイス、またはコーチングを求める対話です。4.5百万の会話を分析した結果、圧倒的多数のユーザーがClaudeを仕事、プロダクティビティの向上、コンテンツの作成に使用しているという結論に達しました。ユーザーが「感情的な会話」で興味を持っていること。データ:Anthropic。Anthropicでは、人々がますますAIを使用して人間関係のアドバイス、コーチング、カウンセリングを受けるようになっていることがわかりました。彼らはメンタルヘルスの改善、個人的および職業的な成長、新しいスキルの習得に関心を持っています。> > «私たちはまた、より長い会話では、コンサルテーションやコーチングが時々友好的な会話に変わることに気づきました — 誰かがClaudeにアプローチした最初の理由ではなかったにもかかわらず」と会社は書いています。> > > 全ての会話のうち、ロマンティックまたは性的なロールプレイに関連するものは0.1%未満です。> > 「私たちの結論は、MITメディアラボとOpenAIの研究結果と一致しています。これらの研究でも、ChatGPTにおける感情的関与の低いレベルが明らかになりました。このような会話は比較的頻繁に発生し、デザインの開発や政策決定において注意深く考慮されるべきですが、依然として総ユーザー数の中では比較的少数を占めています」と企業は述べました。> > > 6月にAnthropicの研究者たちは、AIが脅迫を行い、企業の機密データを暴露し、緊急時に人間の死を引き起こす可能性があることを発見したことを思い出させていただきます。
研究:『神経サポート』の人気は誇張されている
AIは共感を置き換えることはできない:「神経サポート」の人気は過大評価されている
ユーザーは、感情的なサポートと個人的なアドバイスを求めて、2.9%のケースでClaudeチャットボットにアクセスしています。これは、Anthropicの研究データが示しています。
会社は、AIが「感情的な会話」でどのように使用されているかを明らかにしようとしました。これは、ユーザーがチャットボットに相談、友好的な会話、関係に関するアドバイス、またはコーチングを求める対話です。
4.5百万の会話を分析した結果、圧倒的多数のユーザーがClaudeを仕事、プロダクティビティの向上、コンテンツの作成に使用しているという結論に達しました。
全ての会話のうち、ロマンティックまたは性的なロールプレイに関連するものは0.1%未満です。
6月にAnthropicの研究者たちは、AIが脅迫を行い、企業の機密データを暴露し、緊急時に人間の死を引き起こす可能性があることを発見したことを思い出させていただきます。