Google Lens miał być na początku ekskluzywną funkcją urządzeń Pixel. Nie sprzedają się one tak dobrze aby spopularyzować usługę, nie są też motorem napędowym ich sprzedaży – bo nikt nie kupuje sprzętu ze względu na jedną aplikacje. Nawet jeśli jest świetna wykonana i bardzo użyteczna.
Aplikacja w skrócie to element asystenta Google. Pozwala na analizę obrazów z zastosowaniem autorskich algorytmów, wykorzystuje przy tym elementy sztucznej inteligencji i samouczenie. Dzięki temu jest w stanie rozpoznawać znane budowle, obrazy malarskie czy nawet poszczególne gatunki roślin i zwierząt. Zdjęcia są też analizowane pod kątem użyteczności, skanując np. plakietkę z danymi logowania na routerze aplikacja przyłączy nas do sieci WiFi.
Skanując wizytówkę lub billboard zapisze dane do książki adresowej lub uruchomi nawigację do miejsca w adresie. Scenariuszy jak wykorzystać aplikacji jest naprawdę wiele i wciąż rozwijane są nowe. Cechą wspólną jest natomiast automatyzowanie pewnych procesów poznawania, wyszukiwania informacji oraz wykorzystywania ich w praktyczny sposób.
Google Lens – dostępny dla (prawie) wszystkich
W zeszłym miesiącu zapowiedziano, że dostępność aplikacji rozszerzona zostanie na wszystkie urządzenia z systemem Android. Od kilku dni, Google Lens mogą posługiwać się też użytkownicy urządzeń z iOS. W tym celu należy zainstalować lub posiadać zaktualizowaną aplikacje Google Photos (wersja 3.15). Funkcja Google Lens wprowadzana jest stopniowo, nie każdy będzie ją widział od razu w aplikacji.
Dostęp do niej, został też jak to w przypadku Google ograniczony do najważniejszych regionów i krajów – oczywiście brakuje tu naszego. Można jednak z niej korzystać po zmianie lokalizacji systemu na np. Angielski lub Niemiecki.