東京大学先端科学技術研究センター特任講師の井形彬が2月6日、ニッポン放送「新行市佳のOK! Cozy up!」に出演。「AIの安全性を巡る標準化」について解説した。

AIにおける「規制するリスク」と「規制しないリスク」 それぞ...の画像はこちら >>

※画像はイメージです

「AIの安全性を巡る標準化」

AI技術の急速な発展に対する期待が高まっている一方で、AIによる無断学習や画像生成における著作権の問題、さらには個人情報や機密情報の取り扱いなど、AI技術に関わる制度的、法律的、そして倫理的な課題への対応の遅れが指摘されている。

新行)AI技術の問題について、2月7日に国際シンポジウム「AIの安全性を巡る標準化:リスク・機会・国際協力」が開催されます。このシンポジウムは井形彬さんの東京大学先端科学技術研究センター経済安保プログラムと、駐日英国大使館による共同開催で、イギリスのリンディ・キャメロン国家サイバーセキュリティセンター長官も出席されるということです。

井形)こちらは共催に加えて、後援として外務省、サイバーセキュリティ戦略本部、慶應義塾大学も入っていただいている、かなり大掛かりなシンポジウムです。いま各国で「AIに対する規制をどうするか」が大きな課題になっています。それを日本国内だけで議論するのではなく、国際的に一緒に相談しながら話す場が必要だと思い、今回のシンポジウムを企画しました。

イギリスで「AI安全研究所」が発足

新行)イギリスでは2023年11月に「AI安全研究所」が発足したそうです。

井形)AIにはリスクがありますが、それをどのようにバランスするかが重要です。

そのような問題を考える研究所として、イギリスに「AI安全研究所」ができました。日本でも似たようなものをつくる必要があると、2023年の段階から自民党のホワイトペーパーで議論されています。実際に2024年につくる方向で動いています。

AIを規制することも、しないこともそれぞれリスクがある

新行)AIは悪用されると危ないけれど、使い方によっては非常に便利なイメージもあります。そのバランスを考える必要がありますか?

井形)最近ではChatGPTをはじめ、AIでいろいろなことができるという評価がある反面、誤用されると危ないという、双方のリスクが見えてきています。難しいのは、AIを規制しても、逆に規制しなくても、それぞれリスクがあるということです。「規制しないリスク」の例としては、AIを使って偽情報が氾濫する可能性が出てくる。

実際に「フェイクニュース」や、「ディープフェイク」と呼ばれていますが、有名な政治家が言ってもいないことを、あたかも言ったようにつくられた動画が流れてしまう。そのため、「偽情報は危ないので規制する必要がある」という側面があります。

リスクのバランスのとり方が難しい

井形)ただ、規制によってイノベーション力が削がれてしまうところもあります。わかりやすいのが医療の現場です。患者のデータを匿名化した上でAIを使って分析し、「このような特徴がある人にはこの薬が効く」あるいは「効かない」という情報が得られると、いままで治療法がなかったような病気に関しても、AIを使うことで治療法が見えてくるかも知れない。それを規制してしまうと、本来であればイノベーションによって救えた命が救えなくなる可能性もあります。ただ、規制もなくすべてオープンにしてしまい、データの匿名化が何かしらの理由で上手くいかなかった場合、個人情報が漏洩してしまうリスクもあります。

このリスクとのバランスが非常に難しいのです。

「どこまで規制するか」は各国によって温度差がある

新行)各国ではどんな議論があるのでしょうか?

井形)アメリカはかなり頑張っています。アメリカは官民で連携しながら、AI戦略・AI規制をどうするべきか、以前から議論を進めています。また、EUでも進んでいます。国によって「どこまで規制するのか」に関しては、若干の温度差があります。日本としては、先ほど言った2023年の自民党のホワイトペーパーを見ると、もちろん両方のリスクがあるのですが、「より促進する方向で進めていいのではないか」という方向性が提案されています。

偽情報への規制の難しさ

新行)災害が起きたとき、不安を煽るような偽情報がSNSなどであっという間に拡散されてしまうことがありますよね。

井形)ディスインフォメーション(偽情報)に関しては規制が必要だと思います。

災害時も含めて、何かショッキングなことが起こると偽情報がまん延する傾向は、AI時代の前からありました。それがテクノロジーによって、さらに被害が拡大しやすくなっています。しかし、政府が強く「ディスインフォメーションを広げてはダメだ」というような政策をつくってしまうと、「では何をディスインフォメーションと判断するのか」という問題が出てくる。そうなると民間の言論弾圧、自由な言論を阻害してしまう可能性が出てきます。ただ、まったくやらないのも問題なわけです。ここでもバランスの話が出てきます。

プラットフォーマーである民間企業でも明らかな偽情報を拡散させないような規制が必要

井形)もう1つ考えられるのは、情報拡散の場を提供している民間企業です。X(旧ツイッター)やFacebook、LinkedIn、Instagramなどのプラットフォーマーである民間企業が、「明らかにおかしい」という情報を特定したら、「その情報を拡散させないようにする」というような規制が必要になると思います。

半導体・AI・サステナブル技術における競争領域、協調領域、協力領域

新行)井形さんは1月30日に「日韓経済安保シンポジウム:半導体・AI・サステナブル技術」というシンポジウムも開催されています。こちらではどんな議論があったのでしょうか?

井形)ソウル大学で経済安全保障を専門とする教授の方々に来ていただき、半導体・AI・サステナブル技術という3つの大きな技術を見たとき、競争領域、協調領域、協力領域が、それぞれどこに当たるのかを議論しました。簡単に言うとこの順番と同じで、半導体はもちろん協力・協調できるところもあるのですが、どうしても競争領域も出てきてしまう。AIに関しては、共同研究できるかも知れないけれど、重要なのは「どのような規制をつくっていくか」で協調することです。それに対し、サステナブル関連の技術は、日本と韓国でかなり相互補完性がある部分なので、「協力領域はサステナブル技術なのではないか」ということを議論させていただきました。

新行)サステナブル技術というと、つまり持続可能な技術ということでしょうか?

井形)どうすれば同じエネルギーでより多くのものを生み出せるか、より環境負荷が低い状態でものを生産できるか、というようなことです。特にバイオテクノロジー分野だと、これから出てくるような新しい技術で、いろいろと協力できるのではないかということを議論しました。

radikoのタイムフリーを聴く:https://radiko.jp/share/?sid=LFR&t=20240206074313