Anthropicは9月8日、最先端のAI開発企業を対象とした米カリフォルニア州の法案「SB 53」を支持することを表明した。これまで同社は慎重かつ思慮深いAI規制の必要性を訴えてきたが、今回の支持は2024年の規制案(SB 1047)から得られた教訓を踏まえた上での判断となる。

○義務ではなく、情報開示を要件とした規制案

今年6月にカリフォルニア州知事のGavin Newsom氏は、学術界と産業界の専門家で構成する「Joint California Policy Working Group(合同政策ワーキンググループ)」を設置し、AIガバナンスに関する提言を求めた。同グループは「trust but verify(信頼しつつ検証する)」というアプローチを支持し、SB 53はこの原則を技術的な義務ではなく、情報開示の要件としている。SB 53は、AIシステムを開発する大手企業に対して以下を義務付けている。

安全性フレームワークの策定と公開
大規模な被害や金銭的損失を引き起こす可能性のある「壊滅的リスク」にどう対処するかを明示。
透明性報告書の提出
新たな強力なモデルを展開する前に、リスク評価と対応策をまとめた報告書を公開。
重大な安全インシデントの報告
発生から15日以内に州へ報告。内部利用モデルに関する壊滅的リスクの評価も機密扱いで提出可能。
内部告発者の保護
要件違反や公衆の安全に関わる重大な危険に関する告発を保護。
フレームワークに対する責任
公開した安全性フレームワークに対する責任を負い、違反時には金銭的罰則が科される。

これらの要件は、Anthropicを含む多くの最先端AI企業がすでに実施している慣行を法的に制度化するものとなる。Anthropicは「Responsible Scaling Policy(責任あるスケーリング方針)」を公開し、モデルの能力向上に伴うリスク評価と軽減策を示している。

また、モデルの機能と限界を記した「システムカード」も提供し、Google DeepMind、OpenAI、Microsoftなど他のラボも同様の取り組みを行っており、今後はこれらのモデルが法的に同じ基準に従うことになるとのこと。
法案は、AIモデルを開発する大企業に焦点を当てており、スタートアップや小規模企業には免除を設け、不要な規制負担を避けつつ、透明性の確保を図る方針だ。

SB 53は強固な規制の基盤を提供するが改善の余地もあり、現行法案では規制対象となるAIシステムを「訓練に使用された計算能力(FLOPS)」で定義しているものの、現行の閾値(10^26 FLOPS)では一部の強力なモデルが対象外もなる可能性もある。また、開発者には実施したテストや評価、リスク軽減策についてより詳細な情報提供が求められるべきだという。

Anthropicは、業界団体「Frontier Model Forum」を通じて安全性研究やレッドチームテスト、展開判断の共有を行っており、こうした透明性が業務の信頼性を高めると考えている。AI技術の進化に伴い、規制も柔軟に更新される必要がある。規制当局には、技術の進展に応じてルールを見直す権限が求められるとのこと。
編集部おすすめ