生成AI技術や大規模原語モデル(LLM)の出現により、飛躍的な進歩を遂げた人工知能。CXやコンタクトセンターなどの顧客接点においても、大きな話題となっています。とくに2023年は、そうしたAI技術を導入すべきかという舵取りフェーズとして機能していました。2024年はそのフェーズよりもう一歩踏み込み、「AI技術の効果的な活用は」という視点がメインとなっています。
言い換えると、AIを導入したほうが良いのかどうかと迷う時期はもう終了しており、AIを使っていかにこれまでのシステムやビジネスを変革するか、AIありきの具体的な方法と施策を考える段階に来ています。
そこで無視できないのが、やはり安全性。とくに、お客さまが関係する以上、安全でポジティブなCXの確保と構築は、顧客接点を抱えた企業にとって非常に重要です。
2023年にアメリカのバイデン大統領が行ったAIに関する発令文や、EUのAI法を引用しながら解説していきます。
AIに関する法規制の動き
世界中で、AIから顧客を保護するための基準や規制を設ける動きが活発化しています。
アメリカ
たとえばアメリカでは、2023年の10月にバイデン大統領が大統領令を発令( FACT SHEET: President Biden Issues Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence )して、法的規制や国際的なルールづくりをリードしようとしています。ポイントは以下のとおりです。
- 安全性とセキュリティの新基準を設定 (企業によるAIモデル開発時のテスト結果などの共有の義務付け )
- 米国民のプライバシー保護 (プライバシー保護のための研究と技術強化)
- 公平性と公民権の推進(AIアルゴリズムが差別の助長に使われないように指針を策定)
- 消費者・患者・学生の権利保護 (AIを活用した医療・教育の改善を推進、関連する安全プログラムを確立 )
- 労働者の支援 (雇用転換、労働基準、職場の公平性、データ収集などに取り組み、労働者にとってのAIの弊害を軽減し、利益を最大化する)
- イノベーションと競争の促進 (全米AI研究リソースの試験運用の開始、重要分野における助成金を拡大 )
- 海外における米国のリーダーシップの促進 (国務省と商務省が連携し、国際的な枠組みの構築とAI標準の開発を主導)
- 政府によるAI効果の保証 (政府全体でAI専門家の迅速な採用を加速、権利・安全保護のための明確な基準やガイダンスを発行)
その後、今年の4月には、カリフォルニア州で新たなAI規制法が州上院司法委員会を通過する( SB-1047 Safe and Secure Innovation for Frontier Artificial Intelligence Models Act. )など、アメリカはAI活用をコントロールし世界でも自国のプレゼンスを高めるべくリードしています。
EU
EUでは統一的でリスクベースアプローチを採用したAI法( The EU Artificial Intelligence Act Up-to-date developments and analyses of the EU AI Act )が成立しており、今年の後半にも完全施行される予定となっています。
たとえば、対象者の意識を超えたサブリミナルな技法を展開するものや年齢・障害などによるグループの脆弱性を利用するもの、精神的・身体的な害を生じさせるAIは禁止扱いです。
日本
日本では、欧米に比べて慎重なAI規制に対する姿勢が取られていましたが、ここのところの報道でも明らかな通り、日本政府はAI開発に対する法規制を検討しています。
大規模事業者に報告義務を課すことや、リスク情報の共有と言った強制力を伴う法的な枠組みの検討が必要だとの判断がされました(5月2日付日本経済新聞)。これまで主に事業者に委ねられてきたAI規制ですが、この従来の方針に軌道修正がされる流れになってきています。
こうした新しいAIポリシーや規制への対応は、コンプライアンスのみならず、顧客満足度の向上や顧客体験の改善にも不可欠です。企業が説明責任を果たせる、責任あるAIを採用して活用することで、コンタクトセンターは安全で企業倫理にしっかりと則った顧客体験を構築することができるからです。
「悪さをしない」AIの実現・活用に必要となる5つの視点
では具体的に、顧客接点を抱える企業が「安全な」、いわば「悪さをしない」AIを導入して活用するためには、どんな視点が必要となるのでしょうか。5つの視点を考えてみましょう。
1. AI倫理
ここで言う「AI倫理」とは「AI技術を責任ある方法で開発、導入、活用するために役立つ倫理的な原則」と定義づけします。
アメリカ合衆国科学技術政策局(OSTP)が2022年10月にリリースした「AI権利章典のための青写真」(Blueprint for an AI Bill of Rights)は、次の5つの原則がすべての個人に対して権利として確立されているべきだとしています。
- 安全かつ効果的なシステム:AIシステムは安全・効果的であるべき
- アルゴリズムの差別防止:AIアルゴリズムは公平性と平等を重視し、差別を助長してはならない
- データプライバシー:AIシステムには、データ保護昨日が組み込まれているべき
- 通知と説明責任:企業はAIシステム使用時にユーザーに通知するべき
- 人間対応を選択できること・配慮・フォールバック:ユーザーはAIを使わない選択肢も与えられ、必要なときは人間による支援が受けられるようになっているべき
国家レベルにおいても企業組織レベルにおいても、こうした「AI倫理」という視点と原則を優先することで、ビジネスや顧客個人の安全を保証することに繋がり、責任あるAI設計と開発、および活用を促進しつつ、望ましくない「副作用」という悪さもたらす悪影響を最小限に抑えることができます。
2. 透明性
ここで言うAIの透明性とは、「AIシステムの意思決定プロセス、具体的な結果を出せるメカニズム、そしてアウトプットに使用しているデータはどんなものなのかが理解できること」です。
「AIの中の人が何をやっているか」が覗ける状態、と言い換えられるかもしれません。
透明性の確保には以下の3つの要件が必要です。
- 説明可能性
- 解釈可能性
- 説明責任
とくにコンタクトセンター環境において生成AIシステムが展開されている場合、お客さまは「自身と企業の間のコミュニケーションがAIによって成立している」という事実を知る権利を有しています。
ここを不透明にした場合、企業に対する信頼が損なわれるだけでなく、顧客離れを引き起こしてしまいます。自分の問い合わせや問題がAIによって取り扱われているという事実情報を顧客が取得できるという透明性が確立されていれば、ポジティブなCX構築に繋がります。
3. バイアスの問題
AIモデルにはバイアスが含まれることがあり、無意識のうちに特定のグループを差別する可能性があります。
たとえば、採用プロセスにAIを利用したとします。性別や人種などの偏見に基づいて不公平な選考が行われるとしたら、それは完全にブランドの信頼が失墜します。したがって、バイアスが発生する可能性があるという認識を持つことは重要です。
コンタクトセンターという環境に関して考えると、こうしたバイアスに基づいてAIがお客さま対応を実施した場合、それはそのままオペレータによる不平等な扱いに繋がる危険性があります。
偏りのない公平な待遇を、昨今の消費者並びに顧客は求めており、それは時代のニーズともマッチします。生成AIが生み出す危険性として「バイアス」をしっかり認識し、対処することにより、企業は包括的で差別のない公平な顧客サービスを提供できるでしょう。
4. データ・セキュリティ
顧客接点においては、個人を特定できる情報が取り扱われ処理されます。したがって、そういった機密情報は、厳格な対策を講じる必要があるわけです。送信中のデータはもとより、静的データも保護されなければなりません。
データ・セキュリティに欠かせないのが、各種の基準や法令へのコンプライアンスです。
そこには、データの取り扱いプロセスも含まれます。また、現在世界各国で広がるガバナンスやルールの制定、ベストプラクティスの検討が進む中で、個人情報を扱うコンタクトセンターは、こうした動きやトレンド、また議論の方向性を注意深く見守り、新たな国際基準や法令に準拠する方向性にシフトする必要があります。
5. 人材削減の最小化・本当の意味での「適材適所」
AIにつきまとう懸念、それは「AIによる人間労働者の置き換え」です。
高機能となったAIがあまりにも有能すぎて、人間の仕事をどんどん淘汰していくというストーリーは、誰しも聞いたことがあるはず。企業がAI搭載のチャットボットを採用するという傾向が強まる中で、人間のオペレータの雇用が奪われることに不安を感じるのは当然のことと言えるかもしれません。
雇用への悪影響を緩和するために、やはりここでも積極的な対応が必要となります。
したがって企業は、従業員がAIの自動化に適応できるよう、再教育とスキルアッププログラムを重視することができます。このような取り組みにより、自動化サービスへの移行がスムーズに進むことになります。また、倫理的には従業員の福利厚生を重視し、人間的な接客の価値を保ち、コンタクトセンターオペレータの貢献を評価することが大切です。
最後に
AIは、様々な事柄を、これまでにないほどの勢いで変化させています。AIは人間が長時間かかるタスクをほぼ一瞬で完了できてしまい、なおかつ大規模な形で機能するため、ベネフィットも大きい反面、リスクも非常に大きく、広範囲に及ぶと言えます。
つまり、AIが導入されたシステムにおいては、リスクとリスクがもたらす影響は、一人だけに及ぶのではありません。自動運転の先にいる人たち、顔認証システムで撮影される人たち、求人に応募してAIで判断された人たち、AI診察を受けた人たち、顧客接点で企業とコミュニケーションする人たち。関わる当事者のみならず、多くの人々が影響を受けるのです。
今やAI活用を考えないでビジネスを展開できる時代ではありません。データ漏えいなどAIの利用には小さくない懸念がありますが、そのリスクが自社にどんな影響を与えるのか、そもそも自社の業務におけるAI活用の中で問題となるのはどういった点なのかをしっかりと理解して、抽出する必要があります。
問題があるということを漠然と理解するのではなく、「どの部分で問題になるのか」という具体的な視点を持って、倫理規範やガイドライン、ルールなどを策定していくことが、AI時代の企業に求められているのです。しっかりとした倫理観や規範、セキュアな対策と確かな技術・ソリューションに基づいたAIシステムは、確実に付加価値となって自社ブランドにベネフィットを還元してくれるでしょう。