0

SiriとAlexaがセクハラ質問に毅然とした態度をとるよう、プログラム変更を求める署名運動

2017年12月10日 11時47分 (2017年12月13日 14時49分 更新)
SiriとAlexaがユーザーからのセクハラ質問に毅然とした態度をとるよう、AppleとAmazonにプログラム変更を求めるオンライン署名運動をCare2が実施している(VentureBeatの記事)。

ほとんどのパーソナルデジタルアシスタントはデフォルトで女性の声が使われており、ユーザーのセクハラ質問に遭うことも多いようだ。Quartzの記事ではSiriとAlexa、Cortana、Google Homeを使い、各種セクハラ質問に対する応答内容を調査しているが、セクハラ質問にデジタルアシスタントが毅然とした態度で応答することは少なく、受け流した応答をすることが多かったという。時には喜んでいるかのような応答も聞かれたとのこと。

Care2では実際の人物ではないデジタルアシスタントが傷つくわけではないとしつつ、応答内容はセクハラを受けた現実の女性が仕事を続けるために見せる態度と同じようなものであり、セクハラが許容されている現状を変えるためにはデジタルアシスタントも毅然とした態度で応答すべきだと考えているようだ。目標の署名件数は1万件。9日夜の時点で9千件を超えている。

スラドのコメントを読む |スラドにコメントを書く | ITセクション | ソフトウェア | 人工知能 | デベロッパー | IT

関連ストーリー:
米バーガーキングの「Ok Google」広告、カンヌライオンズDirect部門でグランプリを獲得 2017年06月24日
音声アシスタントに恋する現代人 2017年05月02日
Amazon Echo、子供からの音楽再生リクエストに対し卑猥な単語を読み上げる 2017年01月10日
スマホの「音声アシスタント」機能、深刻な質問に対しては適切に対応できない? 2016年03月22日
Cortanaが服を着ていない理由 2015年11月03日
Siriに聞け: 0割る0は? 2015年07月05日
Siriが語る、パーソナルアシスタントになるまでの物語 2011年11月09日
「Siri」、色々な意味で話題に 2011年10月07日

注: この記事は配信日から2週間以上経過した記事です。記事内容が現在の状況と異なる場合もありますのでご了承ください。

コメントするニャ!
※絵文字使えないニャ!