勾配降下法を用いて学習させたモデルを用いた分類を行う場合に、任意の分類結果が得られるような入力を意図的に作成することが可能。これは、Kumar et al.による攻撃分類では、「perturbation attacks」や「adversarial examples in the physical domain」に該当する。現在のところ、次のような事例が知られている。
・音声からテキストへの自動変換システムに対し、任意の結果に誤変換させることが可能であることを実証
・写真データを使った顔認識システムに対し、照明操作、眼鏡着用、写真データ加工などによって意図的に誤認識させることが可能であることを実証
・2019年3月に発表された論文では、車線認識機能を持つ Tesla Autopilot に対し、実験用走行環境ではあるが、路面に貼られたステッカーによって意図的に車線変更させる実験に成功。また、2020年1月に発表された論文では、同様の手法がドローンなどによる路面への投影によっても可能であることを実証
JVNでは、「攻撃に使われる入力に対し適切な結果を返すように学習させること」および「多層防御を実戦すること」を推奨している。