サイトアイコン TPIJ by CBA

AIガバナンスで想定するべき4大リスクとその対策

デジタル庁が創設されてから5年目を迎えました。2025年9月5日に行われたデジタル庁の活動報告会では、「AIフレンドリーな国家を目指す」との方針が改めて打ち出され、「デジタル庁2.0」への進化を掲げて、AIによる行政改革を加速する方向性が示されました。

国内におけるAI活用がさらに加速していく一方、AIの利活用における統制や管理、AIリスクへの社会的関心が高まっています。海外でもその機運は高まっており、法改正あるいは法案の作成が着々と進んでいます。これは日本企業にも影響を及ぼすものです。

本記事では、今後のさらなるAI活用に備えて、AIガバナンスで想定するべき4大リスクとその対策に注目していきます。

海外の最新コールセンターシステムやデジタル・コミュニケーションツールを、19年間にわたり日本市場へローカライズしてきた株式会社コミュニケーション・ビジネス・アヴェニューが解説します。

【この記事が解決するお悩み】

 

効率性改善、生産性向上の最前線で活躍著しいAIは、コンタクトセンターにおける顧客体験(CX)に大きなイノベーションをもたらしています。確かにAIはコンタクトセンターとその運用に、業務効率化やヒューマンエラーの削減、CXの向上など、数多くのメリットをもたらしています。現にAIは様々な顧客接点において、CXの向上や業務効率の改善に活用されています。例えばアメリカン・エキスプレスでは、AI搭載のバーチャルアシスタントが、残高確認や取引履歴、支払期日に関する顧客からの問い合わせに対応しています。この取り組みにより...
海外における残念なAI失敗例から学ぶ:CX向上を阻む落とし穴とその対策とは? - TPIJ by CBA

 

AIガバナンスとは

「AIガバナンス」とは、AI技術を開発・利用・提供する際に、倫理的・法的・社会的基準を遵守しながら、適切に管理・統制する体制や運用のことを指します。

近年、国内外を問わず、AIガバナンスを取り巻く規制やガイドラインの策定と公開が進んでいます。日本においては、経済産業省が「AI原則実践のためのガバナンス・ガイドライン」を発表しました。

欧州では、2024年5月21日に「欧州(EU)AI規制法」が成立し、段階的に施行が進んでいます。これは日本企業にも影響を及ぼすもので、決して軽視できません。支社をEU圏に設置していたり、製品をEU圏の顧客に提供したりする際に遵守しなければいけない法律となるからです。

AIの導入・運用のあり方、活用目的、リスク許容度は、企業や業界によって大きく異なります。そのため、企業ごとに実行性の高いAIガバナンスを構築していく重要性は日に日に高まっているのです。

「AIのリスク」といえば、少し前までは「AIに仕事を取られる」「人間がAIに支配される」のようなスケールの大きいものでした。しかし、実際にAIがビジネスで活用され始めた現在は、より現実的かつ日常的なリスクが表面化しています。

ここからは、業界に限らず企業がAIガバナンスとして想定しておくべき4つのリスクを紹介します。

著作権侵害

AIによる生成物は、学習段階で取り込んだデータに含まれる他者の著作物を再現してしまう可能性があります。生成プロセスはブラックボックス化されているため、確認や著作権処理を行わずに利用・公開すると、著作権侵害にあたるリスクがあります。

機密情報漏えい

AI活用における最大の懸念のひとつが情報漏えいです。機密情報や閲覧制限付きのデータを学習に使うと、本来アクセスできない社員や顧客に重要情報が共有される「オーバーシェアリング」が発生するリスクがあります。

さらに、近年増加するサイバー攻撃による漏えいも依然として大きな課題です。いずれにせよ、貴重な情報資産の流出は、企業の信頼を大きく損なうものです。

ハルシネーション

学習データに誤りや偏りがあると、AIがもっともらしい誤情報(ハルシネーション)を出力することがあります。

一般的な知識であれば、誤情報や根拠の曖昧さに気がつく場合があるものの、専門性の高い領域においては、ハルシネーションに気がつくのは困難です。とはいえ、現時点でハルシネーションの発生を完全に避ける方法はないとされています。

差別を含む出力

自然言語処理や画像認識においては、学習データに含まれる人種や性別、年齢といった属性への偏見がそのまま反映される可能性があります。結果として、利用者の意図に反して差別的な発言や判断を行ってしまうリスクがあります。企業としてのモラルのコントロールが難しくなるのです。

これは企業の法的責任や社会的信用の失墜につながり、場合によっては訴訟リスクを抱えることにもなります。

「コールセンタージャパン2025年7月号」では、「コンタクトセンターは、良くも悪くも、生成AI導入の『実験場』と化している」と指摘されています。

では、「実験場」であるコンタクトセンターは、どのようにAIガバナンスを構築するべきでしょうか。ここからはコンタクトセンターにおけるAIガバナンスに注目していきましょう。

リスクチェックプロセスの整備

業務や案件ごとにリスク評価がばらつかないよう、共通して適用可能なリスクチェックプロセスを整備するのは効果的です。

国内だけでなく、自社が関連する国の規定も踏まえ、「誰が・どのように・何に基づいてチェックするのか」を明確にしておくことで、実行性が高まり、現場からのフィードバックも得やすくなります。

「AI活用に関するリスクを0にはできない」という事実を受け止めつつ、ヒューマン・イン・ザ・ループの体制を整えることで、リスクに対処していきやすくなります。

前回の記事で注目したように、現代のカスタマーサービスにおいて、コンタクトセンターを含む顧客接点においては顧客の期待が高まっており、24時間対応や即時対応、チャネルをシームレスにまたいだ対応が当たり前になっています。そうした背景において、労働力の確保やコスト節約といった課題がこれまでになく大きく企業にのしかかっています。そこで注目されているのがAI技術です。AIは、反復的な業務の自動化やデータ分析で大きな力を発揮しています。たとえば、データ入力やスケジュール管理といったルーティン業務をAIがこなすよう...
AIと人間(Part 2):ヒューマン・イン・ザ・ループで築く、顧客接点の新時代 - TPIJ by CBA

アクセス権限とデータ責任の管理

ハルシネーション対策として、RAGを導入する企業は少なくありません。一方で、アクセス制御が甘いとオーバーシェアリングのリスクが高まります。

このジレンマを対処するには、「コンテンツレベルでのアクセス制御」が有効です。とくに顧客情報を扱うコンタクトセンターでは、細やかで厳格な管理が求められます。

既出の「コールセンタージャパン」では、「従来の『ネットワークなどのインフラ単位で情報システム部門が主導する』から、『データの作成者である事業部門が主導して管理する』への変換が求められる」と分析されています。

欧米では「データオーナーシップ」の考え方に基づいて、「このデータを保護する責任は誰にあるのか」が明確化される傾向にあります。AI活用においても、データを「使うだけでなく守る」ことにも着目するべきでしょう。

補足:欧米の最先端コールセンターに学ぶシンプルなAIガバナンス術

フィリピンは欧米企業を中心に数多くのコールセンターが集積しており、なかには1万席を超える大規模拠点も少なくありません。

実際に米国大手銀行も現地拠点へ投資を拡大しており、いまやフィリピンのコールセンター業界には巨額の欧米資本が流入しています。こうした背景から、AIの活用やガバナンスに関する先進的な取り組みも加速しています。

その一例として、マニラのサポートセンターでは複数のAIプラットフォームを用途ごとに使い分ける運用が実践されています。具体的には、

という3つの用途に分けて利用しています。AIプラットフォームごとに用途を明確に分けることで、シンプルなルール設定が可能になり、情報漏えいのリスクを抑えつつ、オペレータ教育の徹底にもつなげています。

たとえば「汎用AIには顧客情報を入力しない」といった明確なルールを設けることで、オペレータからマネジメント層まで統一した運用がしやすくなります。

このようなシンプルかつ実効性のあるAI運用の仕組みは、日本国内のコールセンターがAIガバナンスを考える上でも大いに参考になるでしょう。

参考情報:『コールセンタージャパン』2025年8月号

ガードレールの活用

最新のコンタクトセンターシステムやAIツールには、さまざまなガードレールが搭載されています。ガードレールの活用は、もっとも「大事故」になりやすい情報漏えいの対策として効果的です。

代表的な機能としては、個人情報のマスク機能や、コンプライアンスチェック機能などが挙げられるでしょう。これらを組織ごとにカスタマイズし、複数組み合わせることで、重大な情報漏えいを防止する効果が期待できます。

参考情報:個人情報のマスキングができるAIプラットフォーム「GIDR.ai(ガイダーエーアイ)」

参考情報:既存のAIと連携できるコンタクトセンターシステム「Bright Pattern」

人材育成

どれだけ体制を整えても、社員が正しいリテラシーをもたなければ、ガバナンスは機能しません。そのため、社員ひとりひとりがAI活用におけるリスクを正しく理解し、安全な使い方を身につけられるよう教育していくことも重要です。

多くのコンタクトセンターにおいてオペレータ不足が慢性化し、リソースが厳しくなっています。リソース不足ゆえに社員への一斉教育が難しいのであれば、何人かを専任して教育したり、専門の部署/チームを設置したりするのもひとつの策になるでしょう。

LINEヤフーコミュニケーションズ株式会社では、社員による生成AI利用の条件として「セキュリティ研修の受講」を必須化しています。研修の合格者のみがシステムを利用できるようにすることで、教育とルールを徹底しているのです。

元データの整備

AIの出力精度を高めるには、元となる学習データの正確性が欠かせません。学習データに誤りや偏見があれば、AIも同様に誤情報をアウトプットするからです。

継続的なデータのメンテナンスと、最新の価値観を反映した更新が必要不可欠と言えます。

「AI活用に関するリスクは、企業や個人にとって致命的なものが多い。その上、AIにまつわる各国のガイドラインは、まだまだこれから増加・変化しそうなので、今のうちからAIを使っていくのは危険かつ非効率的かもしれない。せめてもう少しガイドラインや法律が整備されてからの導入・活用でも良いのではないか」

このように思われる方もいるかもしれません。

しかし、リスク回避を第一に考えてAI活用を遅らせることは、市場での競争力低下・損失という別のリスクにつながります。理想は、低リスク・高効果な分野からスモールスタートし、活用と対策を並行して強化していくことです。

生成AI活用には多様なリスクが存在しますが、その効果も非常に大きいものです。リスクと効果は表裏一体であり、今後のコンタクトセンターは、「AIを活用するかどうか」ではなく、「どのようにリスクを抑えて効果を最大化するか」が重要なテーマとなるでしょう。ひとつのアプローチとして、現状のAIガバナンスについて見直してみることをおすすめします。


モバイルバージョンを終了