スポンサーリンク

Pixel 3【Googleレンズ】

文字にレンズを向けるスマホ 雑記
この記事は約4分で読めます。

こんばんは、くまリオです。

11月22日から、日本ではPixel3しか使用できなかった
画像内情報検索AIツールである「Google Lens」の日本語版が、他のAndroid端末でも
使用できるようになったと発表されました。

なので、今日はGoogleレンズの使用してみての感想を書いてみたいと思います。
Pixel3を使用して3週間か…まだまだ使いこなしてる感はないですね(笑)

スポンサーリンク

Google Lens

Googleレンズを使用すると、写真の被写体や周囲のものに関する詳細情報を表示したり、
さまざまな操作を行なったりできます。

Googleカメラから、またGoogleアシスタントから、直接起動、
またすでに撮った写真でも、Googleフォトから、アイコンをタップして、詳細を確認したり、
操作したり、類似の商品を見つけたりできるようになっています。

実際使用してみての感想

ロゴ、QRコード、バーコードなど、テキスト系は、ほぼほぼ確実な情報を与えてくれると
思います。文字や、数字は間違いようがないのかな?
日付系は、カレンダーの方にひっぱられるのかな…。
バーコードは確実に商品を写真付きで出してきますね、さすが!

あと、商品なども、まったく同じ商品があるものは、簡単に割り出してくると思います。
PixelStandに向けたら、これはPixelStandとすぐに出してきました。
(一応、自社商品のものだから、これで違ってたら笑ってしまおうと思ってたんですけどね、笑)

イスなども、例えば、バックがハート型になっている椅子にLensを向けたのですが、
まったく同じ商品はないにしても、雰囲気や色などの類似品を出してきました。

カーテンに向けると、カーテンだったりスカートが出てくるのは、
やっぱり柄の方にとらわれがちなんでしょうかね…でもこれはこれでおもしろい(笑)

 

個人的に、1番正確に分かると嬉しいなぁ…と思ってるのが、
植物や花の種類なんですよね…。

道端で咲いている花が何かとかの話題になった時、あんまり詳しくないので、
Lensで分かったらすごいな…と思っていたのですが、
この点は、まだ正確性に欠けると思います。

確実にこの花だ!というのは(自分でもわかるくらいの花)それだと1つの答えを出すのですが
例えば、ヒマワリとかですね。
検索結果が2つ以上出てくるというのもざらにありました。
その中で、自分が答えが分かればいいんですけどね、詳しくないとね、分かんないですよ(笑)

この辺りは、まだ改善の余地があるのかもしれません。
あくまでもAIツールなので、たくさんの人が検索したり、正しい情報を掴ませることによって
改善はしていくでしょうから、その辺の進化は楽しみですね。
Pixel以外にも、Lensが使用できるようになったので、精度が上がっていくといいなと思います!

ちなみに、Lensの検索もGoogleのアクティビティに残りますので、
嫌だわ…という方は、管理から削除なり、許可を与えないなりしてくださいね!

 

まとめ

AIツールですから、まだまだ伸びしろがありますね。
文字は確実に、理解して検索されるので、頼もしいですが、
あとは生物系の精度が上がってくれれば…!

あと、まだ個人的には、そんなにLensを使用していない分野は、
ファッションですかね。
服や靴に向けたら、果たして同じ商品もしくは類似品を出してくれるのか…
って書いているそばから気になったので(笑)
ちょっと、チェック柄のトップスにLensを向けてみたら、
同じ柄のトップスを検索に出してきました(笑)

自分が持っているのは、ノーブランドものでしたが、
1万超えのものから、ユニクロ商品まで、様々な類似商品をちゃんと出してきました。

…なるほど、やるじゃねーの!(カッ!)(開眼)

公式サイトに跳んだりできるので、そのままショッピングもできるのか…。
なるほど、なるほど…便利、怖い、便利、怖い…べ、便利(笑)

Pixel3以外のAndroid端末の皆さんも、是非、
この機能を駆使して、カメラをもっと楽しみましょう!そして精度が上がると…いいな!

スポンサーリンク