先日、ある経営者から「AIに経営相談をしたら、論理的には正しいが寂しい回答が返ってきた」という話を伺いました。
この方は人より共感性の高い人なので、敏感だったのかもしれません。

ただ、生成AIの進化は凄まじいですが、データと論理だけでは解決できない人間の感情面への配慮が不足することがあります
これは、AIだけでのことではないですが…。

ただ、最近は生成AIへの感情知能(EQ)を高めようという動きがでてきています。
例えば、GPT-4.5では生成AIの能力は正確さや論理性だけでなく、ニュアンスの理解や文脈把握がより洗練されています。

特にボイスチャット機能で、テキストでのやり取りと異なり、声のトーンや間合いに感情が乗ります。
声を通じたコミュニケーションでは、感情理解や共感能力がより重要になるのです。

実際、相談で「AIに話しかけるとき、人間のように理解してほしいけど、無理ですよねぇ」という話がありました。
これは単なる便利さだけでなく、心理的安全性を求める声でもあります。

生成AIにEQが必要とされる背景には、テクノロジーと人間性の融合という大きな流れがあります。
技術が進化するほど、逆説的に人間らしさへの渇望が高まるのです。

IT専門相談の現場では、「正確な回答」より「共感してくれる回答」に価値を見出すケースが増えています。
特に人生や経営の悩みといった複雑な問題では、感情を理解し、寄り添えることが求められています。

これは、決してAIにはできないことで人に残された聖域だと思っていました。
ただ、GPT-4.5の技術的進化のように、単なる情報処理から一歩進んだ、感情知能を備えたAIが登場するかも…です。

最近のお気に入りに「泥酔プロンプト」があります。「あなたは泥酔した専門家でぶっちゃけトークをお願い」ってのです。
さらに「日本酒とサワーをチャンポンで飲み、さらなる泥酔状態で…」って続けると、自分っぽくなります。