こんばんは、くまリオです。
11月22日から、日本ではPixel3しか使用できなかった画像内情報検索AIツールである「Google Lens」の日本語版が、他のAndroid端末でも使用できるようになったと発表されました。
なので、今日はGoogleレンズの使用してみての感想を書いてみたいと思います。
Pixel3を使用して3週間か…まだまだ使いこなしてる感はないですね(笑)
Google Lens
Googleレンズを使用すると、写真の被写体や周囲のものに関する詳細情報を表示したり、さまざまな操作を行なったりできます。
Googleカメラから、またGoogleアシスタントから、直接起動、またすでに撮った写真でも、Googleフォトから、アイコンをタップして、詳細を確認したり、操作したり、類似の商品を見つけたりできるようになっています。
実際使用してみての感想
ロゴ、QRコード、バーコードなど、テキスト系は、ほぼほぼ確実な情報を与えてくれると思います。文字や、数字は間違いようがないのかな?日付系は、カレンダーの方にひっぱられるのかな…。バーコードは確実に商品を写真付きで出してきますね、さすが!
あと、商品なども、まったく同じ商品があるものは、簡単に割り出してくると思います。PixelStandに向けたら、これはPixelStandとすぐに出してきました。(一応、自社商品のものだから、これで違ってたら笑ってしまおうと思ってたんですけどね、笑)
イスなども、例えば、バックがハート型になっている椅子にLensを向けたのですが、まったく同じ商品はないにしても、雰囲気や色などの類似品を出してきました。
カーテンに向けると、カーテンだったりスカートが出てくるのは、やっぱり柄の方にとらわれがちなんでしょうかね…でもこれはこれでおもしろい(笑)
個人的に、1番正確に分かると嬉しいなぁ…と思ってるのが、植物や花の種類なんですよね…。
道端で咲いている花が何かとかの話題になった時、あんまり詳しくないので、Lensで分かったらすごいな…と思っていたのですが、この点は、まだ正確性に欠けると思います。
確実にこの花だ!というのは(自分でもわかるくらいの花)それだと1つの答えを出すのですが例えば、ヒマワリとかですね。検索結果が2つ以上出てくるというのもざらにありました。その中で、自分が答えが分かればいいんですけどね、詳しくないとね、分かんないですよ(笑)
この辺りは、まだ改善の余地があるのかもしれません。あくまでもAIツールなので、たくさんの人が検索したり、正しい情報を掴ませることによって改善はしていくでしょうから、その辺の進化は楽しみですね。
Pixel以外にも、Lensが使用できるようになったので、精度が上がっていくといいなと思います!
ちなみに、Lensの検索もGoogleのアクティビティに残りますので、嫌だわ…という方は、管理から削除なり、許可を与えないなりしてくださいね!
まとめ
AIツールですから、まだまだ伸びしろがありますね。文字は確実に、理解して検索されるので、頼もしいですが、あとは生物系の精度が上がってくれれば…!
あと、まだ個人的には、そんなにLensを使用していない分野は、ファッションですかね。
服や靴に向けたら、果たして同じ商品もしくは類似品を出してくれるのか…って書いているそばから気になったので(笑)ちょっと、チェック柄のトップスにLensを向けてみたら、同じ柄のトップスを検索に出してきました(笑)
自分が持っているのは、ノーブランドものでしたが、1万超えのものから、ユニクロ商品まで、様々な類似商品をちゃんと出してきました。
…なるほど、やるじゃねーの!(カッ!)(開眼)
公式サイトに跳んだりできるので、そのままショッピングもできるのか…。なるほど、なるほど…便利、怖い、便利、怖い…べ、便利(笑)
Pixel3以外のAndroid端末の皆さんも、是非、この機能を駆使して、カメラをもっと楽しみましょう!そして精度が上がると…いいな!