0

GoogleはAI原則で戦争利用を回避したか?

2018年6月9日 21時58分

攻撃目標地点を設定するカタールにある空軍情報・監視・偵察部(画像:米国防総省)

[拡大写真]

 Googleのスンダー・ピチャイCEOが6月7日にGoogleのAI事業についての原則(以下仮に「AI原則」)を発表しました。2016年のCEO就任以来、AIファーストと唱えているピチャイさん。「GoogleはAIのリーダーだから、AIを正しく扱わなくちゃいけない」ということで、なんだかアシモフのロボット三原則みたいなプリンシプル(行動規範とか、原則とかいう意味)を内外に示しました。

 アシモフの三原則みたいにすっきり分かりやすくないところが残念ですが、少なくとも「武器その他の関連技術」の領域にはAIを使わないとはっきり書かれています。

 ピチャイさんがAI原則を発表した背景には、Googleが米国防総省とAI開発に関する契約を結んだことに対して社内で批判が高まったことがあります。請願書には3000人以上(4000人という報道もあります)が署名し、この契約に反対してGoogleを去った人もいます。

 この契約の下でGoogleは、国防総省が「Project Maven」と呼ぶ、画像/動画解析のためのAIアルゴリズム開発プロジェクトに協力しています。

 国防総省が昨年7月に発表した概要によると、Project Mavenは、ドローンが(恐らく戦場で)撮影した膨大な量の画像/動画を学習データとして使い、画像/動画から目的のオブジェクトを自動抽出するアルゴリズムを構築するというもの。

 プロジェクトに深く関わるGoogle Cloudのダイアン・グリーンCEOは「この契約は、ドローンが撮影する動画と低解像度のオブジェクトをAIで解析するもので、目的は命を救うことだ」と説明していますが、使われるのが戦場である時点で反対派の人々にとってはアウトなのでした。

「GoogleはAI原則で戦争利用を回避したか?」のコメント一覧 0

コメントするニャ!
※絵文字使えないニャ!