そうした中、AI活用は単なる技術導入の話ではなく、企業としての向き合い方が問われる経営課題の一つとなりつつあります。
今回は、リスクマネジメントを専門とするニュートン・コンサルティング株式会社 取締役副社長 兼 プリンシパルコンサルタントの勝俣良介氏に、AI時代のリスクマネジメントについて話を聞きました。
ニュートン・コンサルティング株式会社
取締役副社長 兼 プリンシパルコンサルタント 勝俣良介
なぜAIを使いこなせない?日本企業に見られる“アクセルとブレーキ”のねじれ
――まず、企業におけるAI活用の現状をどのように見ていますか?勝俣:企業におけるAIの議論に大きく「利用促進」と「リスクマネジメント」の大きな2つの軸があるとすると、日本ではどちらも中途半端になってしまっていると感じます。そもそも、AIをそこまでフル活用できていないんですよね。
一方で、我々が相談を受けるのはリスクマネジメントの話、いわば“ブレーキ”の部分が多いんですが、そもそも“アクセル”が踏まれていない=AIを十分に使いこなせていない状態だと、ブレーキの議論も深まらない。結果として、両方とも中途半端になってしまっているケースが多いと見ています。
――確かに活用が進んでいないとリスクも見えてこないですよね。
勝俣:そうですね。実際にAIの使い方としても、まだ「ちょっとした作業をお願いする」くらいに留まっている企業が多い印象があります。生産性が大幅に上がるような使い方ができて初めて「活用できている」と言えると思うんですが、そこまで行っていないケースが多いのではないでしょうか。
AIは何が危険なのか。企業が向き合うべき「効率化の先」の論点
――活用もリスクマネジメントも道半ばという現状ですが、リスクの観点で言うと、企業はどんなことに留意すべきなのでしょうか?勝俣:AIの利用には危険性が伴うという認識を持つことが大前提として必要だと思います。社会的影響が大きいところでは特にそうですね。
例えば、オランダでは2023年に「Smart Check」というAIを使って、生活保護受給希望者の申請内容を精査し、虚偽の申請をした可能性がある人物を特定するという仕組みを導入していました。人の手で行うよりも、AIの方が不正検知の精度は高かったとされている一方、本当に不正をしていない人まで疑われて不利益を被ってしまいました。結果として、公平性の問題が大きく取り上げられ、禁止されたという事例です。
――精度が高ければ良いというわけではないんですね。
勝俣:AIは効率化のためのツールとはいえ、危険性を十分に考慮せず、効率や精度だけで評価してしまうことがまず問題ですし、組織や企業がAIを利用すること自体、社会や個人に与えうる影響が大きいんです。
AIに関する包括的な法的枠組みである「EU AI法」では、個人の尊厳や自由、基本的権利を侵害する恐れが極めて高いとして「禁止されるAI慣行」というものが定められているのですが、この事例はそれが制定される理由の一つになったとも言われています。「精度が高いから良い」では済まないことが、制度の面でも明確になってきているんですよね。
――なるほど。AIを「効率化に役立つかどうか」という視点だけではなく、どこに使うのか、どんな影響を及ぼすのかまで含めて企業は考えなくてはといけないと。
勝俣:はい。AIの利用に関してどこまで許容してどこからは許容しないのか、という基準まで含めて考えないと、AIリスクの本質は捉えられないのかなと思います。
AI活用を深める鍵は、攻めと守りを「分けて」考えること
――では、効率化の裏にこうしたリスクも伴う中で、企業がAIを適切に活用するためには何が必要なのでしょうか。勝俣:まずは、活用を進める議論とリスクを管理する議論を分けることだと考えています。
例えば、「こういう使い方をすれば効果がありそうだ」という積極的な話をしていても、すぐに「でもこういうリスクが出てくるのではないか」という守りの意見が出てくる。もちろんどちらの視点も大事なんですが、最初から全部を一緒に議論すると、結局どちらも進まなくなってしまうことがあります。
――分けるというのは新しい視点でした。
勝俣:もし私自身が会社の中でAI活用を推進する立場なら、推進チームとリスクマネジメントチームを明確に分けます。AIをどんどん活用していくための意見出しをする推進チームと、そこから出てきたアイデアをどう実現可能にするか、どんなリスクがあるかを考えるリスクマネジメントチームは、役割を分けた方がいい。
――“攻めと守り”を別に考えることで、議論が前に進みやすくなる。
勝俣:はい。そして、リスクマネジメントチームも「止める」ためのものではありません。出てきたアイデアを実現するために、リスクをうまくコントロールしながら支える役割であるべきだと思っています。そういう体制を設けることで、AI活用が進まない状態から抜け出しやすくなるのではないでしょうか。
――ただ、実際に体制を構築するとなると、既存の社内ルールとの整合性で悩む企業も
多そうです。
勝俣: まさにそこが鍵になります。体制の構築といっても、人や役割を整えるだけで
なく、既存のルールとどう整合させるかが重要です。具体例として、当社がISO/IEC
42001(AIMS)の認証取得を支援した企業の事例が参考になります。
i-PRO、AIMS認証取得で「責任あるAI活用」を強化~ニュートン・コンサルティングが支援した倫理的なAI活用基盤の構築~PR TIMES×
――既存の仕組みとどう折り合いをつけたのでしょうか?
勝俣: その企業には既にしっかりとしたQMS(品質マネジメントシステム)があった
ため、ゼロから新しい仕組みを作るのではなく、そのQMSにAI特有のエッセンスを組
み込んでいったんです。こうすることで、組織の状況に合わせた「攻めと守りの両立
を可能にする基盤」を築くことができました。活用の加速には柔軟な体制設計が不可
欠です。
AIはどう使うかではなく「どう管理するか」。企業に問われるリスクマネジメントのあり方とは
――ここまで伺ってきて、AIは単なる技術ではなく、企業としてどう扱うかという大きな課題の一つのように感じます。勝俣:そうですね。AIは技術変化がすごく速いので、企業側で最初から全部を白黒はっきり決め切るのは難しいと思います。だからこそ、細かいルールを固定的に作るより、変化に柔軟に対応できる体制を整えておくことの方が重要なんです。
また、AIが用いられたフェイクが出回ることも少なくありませんが、そうした偽情報もものすごいスピードで拡散してしまう。
――変化とスピードに対応し、判断し続けられる状態が大事なんですね。
勝俣:はい。あとは、どんな活用の仕方や技術の進化があっても、ここは超えてはいけないという最低限のラインは明確にしておく必要があります。僕はそれを“エアバッグ”みたいなものだと思っていて。アクセルを踏みたい=積極的に活用していきたいなら、いざという時の安全装置となるエアバッグは欠かせないですよね。それがあるからこそ、安心して活用を進められる。
――確かに、攻めるためにはまず守りの前提が必要です。
勝俣:そうだと思います。さらに言えば、AIは社内のみならず、利用することで外にどういう影響を与えるかまで考慮しなければいけません。だから、単にAIに詳しい人だけが決めるのではなく、技術、各事業部門、法務、経営層といったあらゆる関係者が入って、継続的に管理していく形が必要だと思います。
――――――――――――
さらに実務的な内容については、当社サイトにてご紹介しています。
▼記事はこちらから
https://www.newton-consulting.co.jp/itilnavi/column/corporate-ai-risk-management.html
ニュートン・コンサルティングは、リスクマネジメント分野での豊富な経験と知見を活かした様々なコンサルティングサービスを提供しています。
▼ISO/IEC 42001(AIマネジメントシステム)の認証取得を支援しました
国内ファーストグループの「ISO/IEC 42001」認証取得を支援~i-PRO株式会社のAIマネジメントシステム認証取得をサポート~PR TIMES×i-PRO、AIMS認証取得で「責任あるAI活用」を強化~ニュートン・コンサルティングが支援した倫理的なAI活用基盤の構築~PR TIMES×
▼AIに関するサービスはこちらから
https://www.newton-consulting.co.jp/solution/dx/index.html