「GMO AIセキュリティ診断 for GPT」は、GPT等の大規模言語モデル(LLM)を組み込んだアプリケーションに対し、敵対的プロンプト(Adversarial Prompting)を用いた擬似攻撃を行い、アプリケーションに内在するセキュリティリスクを調査するサービス。
なお、大規模言語モデル(LLM)の出力を意図しないものに誘導するよう設計された敵対的プロンプトに関するセキュリティリスクとしては、「プロンプトインジェクションによる出力の乗っ取り」「プロンプトリークによる秘密情報の漏えい」「コンテンツポリシーの回避による非倫理的なコンテンツの出力(ジェイルブレイク)」がある。
GMO AIセキュリティ診断 for GPTでは、予算や求めるセキュリティレベルに応じて「ライトプラン」「ベーシックプラン」「アドバンスドプラン」の3つの診断プランから選択可能。