中国のインターネット情報当局は4月末、「剪映(CapCut)」など一部の著名な動画編集ソフトや生成AIプラットフォームに対し、行政指導を行いました。AI生成コンテンツの識別表示規定を適切に履行しなかったためです。
この規制措置は明確なシグナルを発しています。中国におけるAI生成コンテンツのコンプライアンス管理は、政策の提唱や原則の宣言といった段階から、厳格な執行という実務段階へと加速しています。
中国の「AI生成コンテンツ識別表示弁法」は昨年9月に施行されました。同規定は、公衆に誤解を与える恐れのあるコンテンツに対し、作成者に「作品はAIにより生成」などの明示的な識別表示を追加するよう求めています。同時に、プラットフォームなどのサービス提供者に対し、コンテンツの追跡や責任追及の確認に向けた技術的裏付けとして、ファイルのメタデータに非表示の識別情報を追加することも義務付けています。
こうした政策は一定の規制効果を上げています。中国のある大学のAIガバナンスチームが2025年第4四半期に実施した調査によると、政策施行後、出所不明なコンテンツに対するユーザーの「疑う意識」は約40%向上しました。一部のAIフェイクニュースの出所追跡事例では、責任追及にかかる期間が従来の平均72時間から12時間に短縮されています。しかし、抜け穴も存在します。プラットフォーム間で技術水準や執行力に差があるほか、AIの識別表示を意図的に削除する不正ビジネスも出現しているためです。
中国の専門家は、技術の進化に伴う規制の課題に対応するため、「技術革新、責任の細分化、協同ガバナンス」など多角的な取り組みが必要だと指摘しています。
AI生成コンテンツが本物と見分けがつかないレベルに達した今、識別表示のないAI作品はオリジナル作品のエコシステムに打撃を与え、著作権紛争や個人の権利侵害を引き起こす可能性があります。情報環境の「真実性」という基盤が揺らげば、社会的合意の形成、公共議論の質、さらには信頼メカニズムそのものが損なわれる恐れがあります。AI生成コンテンツへの識別表示は、厳守すべき法的なレッドラインです。これを守ることで初めて、AI技術は過度な商業主義から距離を置き、幅広い産業を支える有用なツールとなることができると認識されます。(提供/CGTN Japanese)











