2026年1月22日、中国メディアの第一財経は、中国の司法当局が人工知能(AI)やネットワーク技術を悪用した新型犯罪への対策を強化し、法的責任の所在を人間に帰結させる指針を示したことに関する社説を掲載した。
社説はまず、先日開催された全国高級法院院長会議において、最高人民法院がAI技術などを悪用した犯罪への強力な処罰を求めたことを紹介。
また、特にネットワーク技術の更新速度は法執行機関や司法機関の反応速度をはるかに上回っており、刑事司法の分野においても「いかに時代の変化に即応するか」という課題に直面しているとの見方を示した。
そして、最高人民法院が、AIを利用した犯罪は隠蔽(いんぺい)性が高く、主観的な悪意が深い上に社会的危害も大きいため、総体として法に基づき厳格に対処すべきだとの見解を示したことに言及。取り締まりにおいては、ハイテクを駆使した専門犯罪集団や、インターネット上で一時的に結託して実行される犯行グループを重点的な対象とし、その犯罪手口や危害を白日の下にさらすことで、社会全体に教育的な警鐘を鳴らす必要性を強調したと伝えている。
その上で、データ処理の不透明性が招く個人情報侵害のリスク、生成内容が制御不能になることで発生する誹謗(ひぼう)中傷や違法情報の拡散リスク、技術が詐欺に直接悪用されたり、間接的に犯罪を補助したりするリスクの3点を、具体的なAI犯罪リスクとして列挙した。
社説は、上海市静安区人民検察院が以前、ディープシンセシス(深層合成)技術による「AI顔交換」を用いて顔認証を突破した初の新型犯罪事例を報告したことに言及。犯罪手口の巧妙化と同時に犯罪集団の産業化・チェーン化の現状が、検察機関の事件処理において大きな壁になっていると伝えた。
さらに、全国高級法院院長会議において、裁判の過程でもAIで偽造された証拠が提出され、適正な司法手続きや司法審査に対抗する現象が発生していると指摘されたことも紹介。「人」と「機械」の責任境界が議論となる中、アルゴリズムが違法内容を推奨した場合の責任主体や、既存の過失犯理論では処罰しきれないといった法的課題も浮き彫りになっていると解説した。
そして最後に、「どれほど高度な技術であっても、その根源にあるのは人間の価値志向と選択であり、AIがいかに強力であっても独立した犯罪主体にはなり得ない」と指摘。刑事責任は最終的に明確な法的規定をもって「人」に帰属させなければならないと結論づけた。(編集・翻訳/川尻)











