本ウェビナーでは、株式会社アイティ・コミュニケーションズ情報システム部シニアディレクターの安川正勝氏をお招きし、「生成AIで挑む:カスハラ対策最前線」について対談させていただきました。

弊社セールスの大西が、各BPOのカスハラ対策の現状と、弊社とともに開発を進めるAIによるカスハラ対策プロセスについて尋ねていきます。

【本日のトピック】

  • カスハラ対策の難しさ
  • 生成AIによるカスハラ対策について
  • コミュニケーターを守る生成AIの活用法とは

カスハラ対策の難しさ

――今年は厚生労働省や東京都がカスハラに対して、様々なガイドラインやポリシーを出してきています。安川さんはカスハラという問題についてどのように捉えていらっしゃいますか。

安川正勝氏: はい 当然、弊社もカスハラに関するガイドラインを定めている状況です。しかし、もともとデフォルト値のないところからデファクトスタンダードを作っていかなければならないという難しさがあります。

そこで、まずは大きい定性的なガイドラインを考え、そこから「じゃあどう運用するのか」というところへ落とし込んでいく段階です。ただコミュニケーターのことを考えていくと、早く定量化してあげたいと思っております。

――日本の全体の考え方として、「お客様は神様だ」というものがあります。その中で、「このお客さんはカスタマーハラスメントにマッチする」と定義していくのは難しいと思うのですが、どうお考えですか。

安川正勝氏: ここは非常に難しいところです。いわゆる「正当なクレームであるのか」「カスハラであるのか」というところに関しては、個人それぞれの考え方によっても振れてしまいます。また、私どもはBPOもやっておりますので、クライアント様の考え方にも合わせていかなければなりません。

そうすると、定量化、つまり「この基準において運用していくんですよ」という部分を打ち出すことが大切になります。難しいのですが、「SVは能力があるからSVが判断する」のではなく、「誰がどう判断しても同じ基準で識別ができる・選別ができる」ようにすることが大切だと思っております。

――「アホだ」とか「バカだ」という言葉をお客さまが使うことがあります。これはどの出身のコミュニケーターが聞くかによって、本当に罵倒する意味なのか、それともただの癖なのか判断するのは難しいのではないでしょうか。

安川正勝氏: おっしゃる通り、地方によって違います。現在、センターの所在地は分散型です。そのため「どこの拠点にいるどのコミュニケーターにおいても同じニュアンスで捉えられる・同じ判断ができる」というのは非常に難しいと思っているんです。 

カスハラ対策で使いやすいSTT「Namitechソリューション

▶カスハラ対策用にチューニングされたマルチモーダルAI「GIDR.ai

生成AIによるカスハラ対策について

――カスハラかどうかの難易度の高い判断をするために、各BPO様はいろいろな取組をされています。たとえば、生成AIの活用についてはどうお考えですか。

安川正勝氏: 鍵となるキーワードのディクショナリー化、グルーピング化をしていけば非常に生成AIというのは使いどころがあるなと思っています。生成AIをチューニングするプロセスを共有していくことが、一つ定量化の基準になっていくと考えています。

――「チューニングについて共有する」点について詳しく教えてください。

安川正勝氏: 用語だけのスコープで説明をしていきますね。

たとえば、どのような言葉がどういうタイミングで、どれくらいリピートをされたのかを分析すると、あるキーワードに対して「言葉の重さ」というものが見えてきます。単なる「バカだ」とか、「ボケだ」という言葉や、もっと強い言葉が使われることがあります。その用語っていうのは、当然「重み」が違います。

その重みに対してどのような処理に持ち込むのかを考えていきます。またこの言葉たちがどういう集合体になったときに、カスハラとして判定するのかを判断します。このシステム・プロセスを、クライアント様と協議をし、基準を決めて共有していくのです。

こういったクレームとかカスハラ対策をすると、必ず私どもの窓口だけではなく、他の窓口に電話が入っていたりします。そのときに、他の窓口での基準が違っていたりすると、全体として統一的な対応ができない事になってしまいます。そうならないように、全てを共有していなければなりません。

カスハラの判断基準の定量化と、プロセスの決め方と、最終的なアウトプットが大切になってくると思っています。

コミュニケーターを守る生成AIの活用とは

――最近では、カスハラ対策のための生成AIサービスがいろいろあります。

声のトーンを変えてオペレーターに優しく伝えるサービスや、生成AIと対話する形でカスハラにどのように対応していくのか学ぶサービスなどです。ただ、こういったサービスは、本当の意味でなかなかコミュニケーターを守ることにはならないのではないかという意見もあります。

現在、AIを活用してカスハラからコミュニケーターを守るべく、新たなサービスをアイティコム様と弊社で開発しています。

この開発については、今月の「コールセンタージャパン」(2024年9月号47ページ)にも掲載されました。現在の開発状況について少し教えていただけますか。

安川正勝氏: コミュニケーターの方に、生成AIを使ってトレーニングしていくのは前時代的かなと思っています。なぜなら、属人的な能力に頼るところから抜けられていないからです。

今この時代にコールセンターを運営されている方たちには本当に共感していただけると思うのですが、人ができる事や、人のストレスに対する受容というか、許容というものがどんどん少なくなっているというのは、もう間違いがないと思います。そこに対して、コミュニケーターや対応する人間にトレーニングを積む、もしくは声のトーンを変えることによって安定的なメンタルを保つというのは、もう難しいと思っているのです。

そこで、コミュニケーターもしくはエスカレーションされたSVから、カスハラ対応を「剥がしとる」ということがすごく重要だと思っています。

コミュニケーターが頑張ろうとすると、お客さまに満足してもらうために長い時間をかけて対話をすることになります。それを頑張り過ぎると、今度は違うトラブルを実は引き起こしてしまうことがあるのです。

コミュニケーターのメンタルを守るという視点と、1次トラブルが2次トラブルに発展してしまうという両方の側面があります。そこをしっかりAIなどを使いながら定量的な基準において「もうこれはエスカレしてください」とコミュニケーターに示唆する仕組みが大事だと思っています。

コミュニケーターがエスカレートするのを判断して「手あげ」とか、「SVに持っていく」ということをさせたくないのです。コミュニケーターの「許容キャパがいっぱいになったらエスカレするんだ」っていうことではなくて、定量的な基準で「これはエスカレしてください」という流れになる仕組みが大事だと思っています。

「深追いしなくてよい」ということで、まずコミュニケーターは安心します。なので生成AIで属人的な能力を引き上げるトレーニングとは、ちょっと方向性が違う取り組みではないかと私は思っております。

――「コールセンタージャパン」に出ていた図を見ながら、開発中のサービスについて説明していただけますか。

安川正勝氏: この図は粗い全体概要になります。まずはカスハラの認定に対する基準の作り方、もしくは定量化の仕方が一番大きなキモになるかと思います。

その後、AIにエスカレーションを行います。お客さまは当然ヒートアップしている状況が考えられます。そのお客さまに対して、どのようにカスハラに対する認識を持ってもらうのかが大切です。私どもが対応を放棄したわけではないということをしっかり理解してもらうために、AIのボイス対応が必要だと思っております。

可能なら同じお客さまと再度コミュニケーションを再開したいと考えています。なので、AIによるカスハラ対応から引き戻すプロセスを検討しています。何の承諾を得て通常の対応に戻すのかということをAIで標準化していけたらと考えております。

――コミュニケーターをしっかりと守る仕組みですね。カスハラに屈しない、強気の一手になるサービスではないでしょうか。

参加者の皆様、いかがだったでしょうか。きっと共感できる部分ですとか、新たな考えのひらめきとなるきっかけとなれば嬉しく思っております。

カスハラ対策で使いやすいSTT「Namitechソリューション

▶カスハラ対策用にチューニングされたマルチモーダルAI「GIDR.ai

最後に

海外の最新コールセンターシステムを、18年間にわたり日本市場へローカライズしてきた株式会社コミュニケーション・ビジネス・アヴェニューでは、デジタルコミュニケーションに関係するウェビナーを毎月開催しております。

イベントの情報はメルマガで発信しております。この機会にどうぞご登録ください。