0

Pixel 2に追加される、見た物を理解する「Google Lens」って何者!?

2017年10月5日 04時50分 (2017年10月5日 19時58分 更新)
Image: Google/YouTube

またスマートフォンが賢くなってしまう…。

本日発表されたGoogle(グーグル)の新型スマートフォン「Pixel 2/2 XL」ではカメラ性能の進化などが目につきますが、それ以外にも年内に「Google Lens」機能のプレビュー版が実装されます。これ、見たものを理解して情報として処理できるという、興味深い機能なんです。

Google Lensではカメラが向けられた物体、例えば道端の花やレストランを理解し、なにか文字列があればそれを読み取ってメールを送ったり、翻訳をすることも可能です。あと便利な使い方としては、Wi-FiルーターのラベルからSSIDなどを読み取ってネットワークに接続したり、プリントされたイベント情報をカレンダーに追加したりもできるそう。

それに書籍や音楽、動画、ビデオゲームのパッケージからタイトルを探したり、ビルや目印、テキストからその場所を判断することも可能です。そして写真やスクリーンショットに存在する電話番号や日付、アドレス情報を適切なアプリで取り扱うこともできます。すごい!

なお、これらの機能は「Google アシスタント」と「Google フォト」上のGoogle Lensで利用できるようになるそうです。

Image: YouTube
Source: 9to5Google, Engadget

塚本直樹

元の記事を読む

注: この記事は配信日から2週間以上経過した記事です。記事内容が現在の状況と異なる場合もありますのでご了承ください。

コメントするニャ!
※絵文字使えないニャ!