効率性改善、生産性向上の最前線で活躍著しいAIは、コンタクトセンターにおける顧客体験(CX)に大きなイノベーションをもたらしています。確かにAIはコンタクトセンターとその運用に、業務効率化やヒューマンエラーの削減、CXの向上など、数多くのメリットをもたらしています。
現にAIは様々な顧客接点において、CXの向上や業務効率の改善に活用されています。
例えばアメリカン・エキスプレスでは、AI搭載のバーチャルアシスタントが、残高確認や取引履歴、支払期日に関する顧客からの問い合わせに対応しています。この取り組みにより顧客は、いつでも必要なサポートをカスタマーサポートより得ることができ、満足度の向上につながっています。
Bank of Americaでは、AIベースのバーチャルアシスタント「Erica」が、送金や請求書の支払いといった日常的な銀行業務を処理できるため、人間のオペレータは金融アドバイスや不正防止などのより複雑な対応に時間を割くことができています。またデータ分析を強みとするAIを活用することで、顧客とのコミュニケーションをよりパーソナライズすることも可能となります。
例えば大手金融機関のCapital OneはAIバーチャルアシスタント「Eno」を活用し、コンタクトセンターでの顧客対応をパーソナライズしています。Enoは過去の顧客対応データをもとに顧客のニーズに合わせた提案が可能です。
確かにAIは、顧客接点におけるコミュニケーションを変革するだけにとどまらず、顧客接点のあり方そのものに大きなイノベーションをもたらしています。
市場規模も2027年には41億ドルに達するとも言われている一方で、AI導入にはそれなりにリスクが潜んでいることも事実です。今回の記事では、実際に起きたAIにまつわる失敗例をもとに、CX向上を目指すAI導入に潜む落とし穴とその対策案を見ていきたいと思います。
AI時代に顧客と信頼関係を築くのに必要な4つの戦略と3つのアクション - TPIJ by CBA |
AI運用の「失敗例」
コンタクトセンターやカスタマーサービスといった顧客接点においては、従来から、セキュリティ問題がおもな懸念要因でした。
例えばデータ漏洩やサービス中断などが挙げられます。こうした問題に加えて、昨今一層の導入が促進されているAIシステムには、判断ミスやバイアスに基づくいびつな意思決定、不適切なやり取りといったリスクが顕在化しています。こうしたリスクは、企業に恥をかかせるだけでなく、ブランドに対する信頼の失墜につながります。
AIが攻撃的な発言をしたり、自社製品ではなく競合他社の製品やサービスを紹介したりといったミスは、SNSですぐに拡散されてしまいます。結果、顧客の信頼を失い、ビジネスに対する悪影響も避けられない事態となります。
AIを導入して活用したものの、ミスが取り沙汰されてしまった海外の例を少し見てみましょう。
「最高のトラックのレシピと、それに合うトラックを5つ挙げて」という問い合わせ客からの質問に、ディーラーのチャットボットはシボレー以外のトラックを含む回答を返したことで話題になりました。「この中からどれを購入する?」という質問に対してチャットボットは、「多くのユーザーにとってベストな選択はフォードF-150 」と回答し、自社製品以外の車両を顧客に勧めました。シボレーの広報担当者は、このエラーがシステム更新後に発生したもので、AI機能はすぐに無効化されたとコメントしました。
エア・カナダのAIチャットボットが誤った割引情報を提供し、顧客は実際その割引を利用できなかったため、カナダの裁判所はエア・カナダが賠償金を支払うべきだと判断しました。この判決により、企業はAIの誤りにも責任を持つ必要があることが強調されました。
国際配送サービスのDPD社が運用するAIチャットボットによる暴言の数々がXに投稿されました。電話番号の問い合わせをしても回答しないチャットボットに苛立ったユーザーが、「お宅の会社の無謀さをポエムにしてみろ」と指示した結果、チャットボットは「DPDというチャットボットがいるのだが、まったく役に立たなかった」などと回答し、「DPDは世界最悪の配送会社」と発言。X上の実際のやり取りに関する投稿は223万回閲覧され、2.8万件の「いいね」を獲得しています。
AI生成のスパム画像がソーシャルメディアに急増しています。例えば、Facebookでは奇妙な画像や感情に訴える投稿が多く見られ、多くの反応を集めています。実際、「キャッツアイダズル」と呼ばれる架空の花のAI生成画像がFacebook上で広く共有され、多くの利用者が実際に存在しない架空の花の種を購入しようとしました。元の投稿は80,000以上の「いいね」と36,000回以上のシェアを獲得し、多くのユーザーが偽の花の種を購入しようとしました。MetaはAI生成コンテンツのラベル付けを計画していますが、現状では多くのユーザーがこのスパムの増加に不満を感じています。
▶️参考情報:安全に運用しやすい自社AIエージェント作成SaaS「Gidr.AI」
「悪さをしない」コンタクトセンターAIの実現に必要な5つの視点 - TPIJ by CBA |
AI運用の「落とし穴」と「対策」
こうした問題を回避して自社ビジネスと自社ブランドを守るために、まずはAI導入に潜むリスクをしっかりと抑えておきたいところです。上記のような実例を可能な限り集め、リスクへの対策案を講じてしっかりとテストする必要があります。
AIを活用したCX向上に潜む落とし穴とその対策を見てみましょう。
落とし穴1:精度問題
失敗例から見てわかるとおり、CX向上を目指してコンタクトセンターなどの顧客接点でAIを活用する際に警戒すべき大きなリスクは、AIの回答・応答に関する精度と正確性の問題です。
AIシステムは、訓練データの質に依存しています。そのデータが不十分かつ不適切であれば、自ずとAIの回答も不正確で不適切なものになっていく可能性が非常に高くなります。こうしたリスクが考慮されていないチャットボットやAIシステムは、顧客の不満を増大させ、効率性を改善するどころか、顧客との関係や自社ブランドを悪化させる危険性があります。
例えば、Microsoftが当時のTwitter(現X)で公開したチャットボット「Tay」を思い出す方がいらっしゃるかもしれません。Tayはユーザーとの対話を通じて学習し、応答を改善していくように設計されていました。しかし訓練データには、有害なコンテンツが十分フィルタリングされていなかったため、Tayは悪意のあるユーザーのネガティブな発言を模倣しだし、非常に不適切な応答を生成する結果となっていました。
またAIは、人間が自然に理解することのできる文脈やニュアンス、ユーモアや皮肉、方言などを解釈するのがまだ難しいと言われています。したがって、脈絡のない回答や応答により、顧客に混乱を引き起こす可能性があります。
対策案として、以下が挙げられます。
高品質なトレーニングデータの準備と活用:トレーニングデータセットが定期的に更新されていることを確認する。最新の言語や語彙、トレンドが反映されるようにアップデートし、顧客の満足度を満たすようにキープする。
定期的なモニタリングおよび監査体制:AIの対話を定期的に監査し、エラーを見つけ出してチューニングする。ヒューマンオペレータがAIの応答をレビューして修正するという、人間による手を入れた「ヒューマン・イン・ザ・ループ」のアプローチを採用する。
明確なエスカレーションプロセスの確立:AIが対応できそうにない問い合わせは、自動的に人間側にエスカレーションされるシステムを実装する。AIが限界に達しても、顧客の不満や摩擦は人間による対応で解消されることが必須。
AIモデルの定期的なアップデートと再訓練:最新のデータと顧客対応のフィードバックを使用して、AIモデルを継続的に再訓練する。そのようにして、AIが新たなトレンドやスラングなど、絶えず変化する顧客のニーズに対応できるようにする。
落とし穴2:AIに対する顧客の不信感
AIに対する顧客側のリアクションはコントロールできません。AIを導入して問い合わせを処理し、データを管理し、問題解決することが、一部の顧客にとっては不安を感じさせる可能性は否めません。
例えばMcKinsey & Companyの調査によると、約6割の顧客がAIによる迅速なサービスを評価している一方で、約4割の顧客は、AIに対して不安や不信感を抱いていることがわかっています。
AIによる効率性の改善が大きなプラス効果を発揮している一方で、すべての顧客層から受け入れられているわけではないということがわかる結果となっています。
対策案として、以下が挙げられます。
透明性の確保:顧客がAIと対話していることがきちんと理解できるように情報を明示し、AIシステムの能力を説明する。顧客が現実的な期待を持てるようにする。
人間性を介在させる:AIとのやり取りの途中で、いつでも人間のサポートをリクエストできるようにし、安心感を得られるようにする。
プライバシーの保証:データ保護対策やプライバシーポリシーを適切に示す。
メリットを明示する:AIを活用することで得られる顧客側のメリット、例えば時間に縛られずサポートを得ることができるなど、顧客にAI利用のプラス面と価値を適切に説明する。
落とし穴3:共感されない辛さ
AIは、言ってみれば単なる「機械」。人間に話したときに得られるような「わかってもらえている」という安心感に基づく「共感」を得ることはできません。
AIは、フラストレーションやストレス、怒りなどの感情を示すキーワードやフレーズを認識できるようにプログラミングすることは可能ですが、人間の感情を真の意味で理解することはできないため、AIと話している人間が「わかってもらえているんだ」という安心を感じるのは不可能です。したがって、AIと人間の間に発生し得る感情的なギャップが、顧客体験の低下へつながってしまうという危険性は否めません。
対策案として、以下が挙げられます。
「ヒューマン・イン・ザ・ループ」というアプローチ:対応ループの中に、必ず人間の手を入れ込むーこれがヒューマン・イン・ザ・ループというアプローチ。つまり、AIが機械的にルーチンワークを処理する中で、複雑または感情的に対応が必要な状況が発生した際に、人間のオペレータが適切に介入して顧客に寄り添うということ。これにより、簡単な問い合わせについては短時間で迅速にAI処理に頼り、必要な時は共感的な対応をリクエストすることができる。
共感に向けたAIトレーニングの実施:顧客の問い合わせを理解し、共感を持って対応できるようにAIモデルを開発する。顧客が使う、発する言葉から感情的な手がかりを認識して、適切に応答できるようにプログラムする。機械学習アルゴリズムをベースに、過去の対話やフィードバックを分析して、AIの共感能力を向上させる。
透明性を保持したコミュニケーション:顧客に対して、AIの能力と限界を明確に説明する。AIと対話しているということ、そして人間と対話しているということを明確にすることで、顧客の期待度を適切に管理できる。
落とし穴4:プライバシー問題
AI導入は、セキュリティ、そしてプライバシー問題と常に背中合わせです。AIは学習と意思決定に大量のデータアクセスを必要とするため、顧客や企業の機密情報が漏洩したり不正なデータアクセスが行われたりというリスクにさらされています。
問い合わせをしてくる顧客は、自分の個人情報データがどのように使用され、保護され、処理されるかということに常に注目しています。したがって、データの誤用や漏洩は顧客の信頼を損ない、AIを活用したサービスの利用にブレーキがかけられてしまうことにつながりかねません。
しかもAIは外から処理内容が見えないというブラックボックス構造になっているため、AIが出力する結果や結論が不明瞭なとき、顧客や規制当局はAIの決定責任と透明性を疑問視する可能性があります。
対策案として、以下が挙げられます。
データの暗号化:強力なデータ暗号化プロトコルを実装して、機密情報への不正アクセスを防ぐ。
データの匿名化:必要な個人識別情報の収集と保持を最小限にし、データ漏洩や誤用のリスクを軽減するため、データの匿名性を担保する。
データ処理に透明性を持たせる:AIとの対話中に個人情報がどのように使用され、処理され、保存され、保護されるのかを説明する。プライバシーポリシーへ顧客が容易にアクセスできるようにする。オプトアウトや設定情報を顧客と共有する。
定期監査の必要性:AIシステムとコンタクトセンター運用を定期的に監査して、プライバシーポリシーとデータ処理コンプライアンスが準拠されているか確認する。
▶️参考情報:安全に運用しやすい自社AIエージェント作成SaaS「Gidr.AI」
AI時代に「感情分析」の切り口で実践する、CX改善のススメ - TPIJ by CBA |
最後に
AIは確かに素晴らしい技術です。夢のあるツールです。でも同時に様々な懸念もあります。今回の記事で見てきた失敗例はその一部です。AIをCX向上や効率性の改善に活用するのであれば、懸念事項や今回考えた落とし穴の要点と対策をしっかり押さえておくことは重要です。
そうした中で最近注目を集めているのが、すでに何度か言及しましたが、「ヒューマン・イン・ザ・ループ」(HITL)という人間参加型のアプローチです。
このアプローチでは、AIシステムにおいて人間をプロセスの一部として介在させ組み込みます。人間が重要な決定や修正を実施することで、システムの精度や信頼性を担保して向上させることが狙いです。AIが誤った判断を下した場合でも、人間が即座に介入して修正することで、システム全体の信頼性を維持することができます。このアプローチは特に、医療診断や金融取引、カスタマーサービスの分野で不可欠となっています。
AIが得意としているものは、膨大なデータの迅速な解析と処理、そしてパターンを認識することです。一方で、すべての状況を理解し、適切に判断を下すのは、経験を積んだ人間にAIはまだ及びません。もちろん将来的にはどうなるのかわかりません。AI技術は驚くほど進歩が早く、一昨日できなかったことが今日にはできているというシーンがすでに何度も見られているからです。
しかし現状、人間は経験や直感をもとに判断を下し、複雑な問題を解決する能力を持っていることは確かです。AIが誤った判断を下しても、人間がその判断をレビューし修正すること、そして人間によるフィードバックの提供により、AIの学習に役立て、改善につなげることができます。このHITLアプローチはまた、AIの倫理的側面でも大きな役割を果たします。AIが判断を下す際に、人間がそのプロセスを監視して必要に応じて修正することで、バイアスや誤った判断を適宜排除し、公平で透明性のあるシステムを作り上げることが可能です。
AI活用はやはり、AIだけに任せるのではなく、人間が全体のプロセスに目を光らせ能動的に参加することが必要でしょう。そしてAIと人間のコラボレーションによるシステムは、顧客接点におけるCX向上を実現できる大きな武器となるはずです。