気軽に相談できるAIボットは賢く使えば役立つが、頼りすぎると思わぬ落とし穴が NICO EL NINO/ISTOCK
<ほぼ無料でいつでも利用できる「お手軽心理療法」のプチブームに専門家が警鐘>
猛スピードで進化を遂げ、身近な技術となったAI(人工知能)。文書や画像の作成、企画立案などには大いに役立つが、感情の機微に触れる心理療法には不向きとされる。
ところがチャットGPTなどAI搭載型チャットボットに心の悩みを相談する「お手軽セラピー」が若年層を中心に話題を呼び、その方法を伝授する動画がTikTok(ティックトック)などに盛んに投稿されている。こうした風潮に対し、専門家は安全性に疑問ありと注意を促す。
コンテンツクリエーターのシャノン・マクナマラは心理療法ツールとしてチャットGPTをよく使っていると、本誌に話した。「独りで考えてもらちが明かないときや自分の気持ちがよく分からないとき」などに「驚くほど役立つ」そうだ。個人的な事柄を詳細に入力すればプライバシー保護上のリスクがあるのは承知の上だが、利用のメリットがリスクを上回るという。
マクナマラは多くの人にその効果を知ってもらおうと、今年7月末からTikTokで活用術を配信し始めた。
メンタルヘルスの不調に苦しむ人は多いが、心理療法を受けるハードルは高い。アメリカでは昨年の相場で1回の料金が100〜200ドル前後。特に若年層にとっては痛い出費になる。それに比べ、年中無休で1日24時間、無料か低料金で利用できるAIツールは魅力的な代替手段に見える。
だが手軽な手段に頼りすぎるのは考えものだ。「セラピー代わりにAIを使っても、本物のセラピーのような効果は期待できない」と、心理療法士のレーチェル・ゴールドバーグは警告する。治療がうまくいくためにはセラピストとクライアントの信頼関係が非常に重要、というのだ。
限界を知って有効活用
AIプラットフォームを通じて認知行動療法ツールを提供するアプリ「ヨディ」を開発したセス・アイゼンバーグも同じ考えだ。
「175カ国・地域の20万人以上のユーザーがヨディをダウンロードしたことからも、必要なときに即座にアクセスできる感情面の支援ツールを多くの人が求めているのは明らかだ」と、アイゼンバーグは言う。一方で、人間のセラピストとの対話から生まれる深い感情的なつながりや共感は、AIには期待できない、ともクギを刺す。
大規模言語モデルでテキストを作成する生成AIは、ユーザーの質問に対し文脈に沿った回答をする。だが入力情報が不十分であれば、不正確な情報やでっち上げの情報を提示することもある。しぐさや表情からユーザーの気持ちを読み取ることができないのもAIの限界だ。
この分野でのAIの限界を見せつけた痛ましい事件がある。2023年にチャイというアプリでAIチャットボットに悩みを打ち明けていたベルギー人男性が自殺したのだ。
ゴールドバーグもアイゼンバーグも、AIはメンタルヘルス改善のツールとして有効活用できると考えている。ただし、より複雑なメンタルの問題を抱えている人など、必要な場合は対面での各種セラピーにアクセスできることが重要だと強調する。
技術の進歩を活用すること、心の触れ合いや信頼関係など人間的な要素を大切にすること。この両立がメンタルヘルスのためのAI活用の鍵を握っているようだ。
鄭重声明:本文の著作権は原作者に帰属します。記事の転載は情報の伝達のみを目的としており、投資の助言を構成するものではありません。もし侵害行為があれば、すぐにご連絡ください。修正または削除いたします。ありがとうございます。