みんなのケータイ
Pixel以外でも使えるようになった「Googleレンズ」
【Galaxy S9 SC-02K】
2018年12月3日 06:00
Googleブランドのスマートフォン「Pixel 3」の発売にあわせて、日本語に対応した「Googleレンズ」。22日からPixel以外のAndroid端末でも利用できるようになったということで、さっそく使ってみた。
Googleレンズは、カメラをかざすだけで周囲にある物についての情報を得られる機能だ。目の前の植物や動物、ランドマークを認識し、名前が分からなくても画像解析によってその物について調べられる。
今回提供が始まった機能はPlayストアで提供されている単体のアプリとしてのGoogleレンズではなく、「Googleアシスタント」または「Googleフォト」内で利用できる。Android Oneスマートフォンや、シャープ、ソニーモバイル、モトローラの対象端末では、カメラアプリ内での提供も予定されている。
使い方としては、ホームボタンの長押しなどで通常通り「Googleアシスタント」を起動した後、新たに追加されたGoogleレンズのアイコンをタップするとカメラが立ち上がる。
検索機能に関して言えば、人工物よりは植物や動物の種類を見分けるほうが得意なようだ。見た目が似ている商品の多い食べ物や飲み物のパッケージを認識させてみると、近いけれど惜しい結果が出ることも多かった。画像解析で物を認識する機能のほかに、QRコードやバーコードの読み取りもできるようになっているので、バーコードが付いている物に関してはこちらを使った方が手っ取り早い。同じ商品をネット通販でもう一度買いたい、といった場面では役立つだろう。
筆者が使っている「Galaxy S9」には、Googleレンズのほかに元々、Bixby Visionという画像認識機能がある。「モノを撮って認識させる」ということに関してはGoogleレンズの方がやや精度が高いと感じた。それ以上に差を感じたのは、文字認識の機能。GoogleレンズとBixby Visionのどちらにも、カメラに写った文字列をテキスト化する機能があるのだが、認識の速さやテキスト化された文字列を選択してコピーできるようになるまでの手順の少なさはGoogleレンズが優れている。
文字認識だけでなく先述のQRコードリーダー機能などもそうだが、Googleレンズの場合は多機能であるにもかかわらず、目的に応じてモードを選ぶ必要がないというメリットは大きい。画像検索がしたい時でも、QRコードを読み取りたい時でも、書類をテキスト化してコピーしたい時でも、同じようにカメラを向けて被写体をタップするだけで情報が得られるのは想像以上に便利だ。
ここまではGoogleアシスタント経由でGoogleレンズを起動した場合、つまりは目の前にある物について調べる場合の使い方を取り上げてきたが、冒頭で触れたように「Googleフォト」でもGoogleレンズは利用できる。過去に撮った写真に写っている物に対しても、同様の機能が使えるのだ。
例えば、旅先で撮った写真を見返して「これ、どこだっけ?」というような時にはかなり使える。Googleマップアプリで訪れた場所を記録してくれる「タイムライン」機能などと組み合わせれば、旅の思い出が鮮明によみがえるのではないだろうか。
docomo Online Shop |
---|
Galaxyシリーズの情報をチェック |
au Online Shop |
---|
Galaxyシリーズの情報をチェック |