Для компанії, яка спрямована на те, щоб бути графіком знань на всій планеті, сервіс AI на основі зображень - це очевидна річ, яку Google хоче отримати правильно. І для тих, хто використовує Google Photos протягом останніх кількох років, ви знаєте, що було досягнуто величезних успіхів у вдосконаленні цих можливостей. Розпізнавання обличчя та об’єктів у Google Photos може бути неймовірним, і багато корисного може отримати від використання цих функцій у реальному світі. Бути в змозі запропонувати камеру з можливістю швидко ідентифікувати вітрини та вуличні знаки лише для людей із вадами зору - неймовірно.
Google Lens направляється в правильному напрямку, але він явно ще не готовий до щоденного використання.
Як власник Google Pixel, я мав доступ до об'єктива вже півроку. Цей бета-період для об'єктива був трохи незграбним, чого можна очікувати. Я вказую Об'єктиву на незвичайну книгу, яку мав мій друг, і замість того, щоб сказати мені, де я можу придбати цю книгу для себе, я отримав текстовий фрагмент із визначеної обкладинки. Я прошу Об'єктив сканувати фотографії маркіза в кінотеатрі, він не має уявлення про те, що є на фотографії, і не пропонує мені можливості, але квитки на шоу, як це було належить. Я фотографую мою вівчарку Шетландська, Об'єктив ідентифікує її як Грубу Коллі. Гаразд, так що останнього майже неможливо отримати прямо на фотографії, але справа в тому, що Google Об'єктив ще не робить надійно більшість речей, які, як він стверджує, ще не може зробити.
На думку Google, те, що об'єктив виходить правильно, швидко виходить. Мені подобається використовувати об'єктив для перекладу мови в режимі реального часу. Наведіть лінзи на меню, написане іншою мовою, ви отримаєте негайні переклади прямо на сторінці так, ніби весь час ви дивилися на меню англійською мовою. Сфотографувавши візитну картку, об'єктив готовий додати цю інформацію до моєї книги контактів. Я використовував окремі додатки для цих функцій, які досить добре працювали в минулому, але об'єднання цих функцій там же, де я отримую доступ до всіх своїх фотографій, є відмінним.
Я також знаю, що це ще дуже ранні дні для об'єктива. Зрештою, в додатку написано "Попередній перегляд". У той час як власники Pixel мали доступ до цієї функції протягом півроку, більшість країн світу Android в цей момент мали доступ до неї лише трохи більше місяця. І коли ви розумієте, як працює це програмне забезпечення, це важлива деталь. Інформація про машинне навчання Google багато в чому покладається на величезний внесок знань, тому вона може швидко просіяти все це і використовувати те, що було належним чином визначено, щоб краще визначити наступне. Можна стверджувати, що Google Lens лише розпочав свій бета-тест, тепер кожен має доступ до нього.
У той же час, лінза була оголошена цілий рік тому в цей момент, і я все ще не можу надійно вказати її на квітку, і я можу сказати мені, який це вид. Приємно мати доступ до цього, але я щиро сподіваюся, що Google зможе зробити цю функцію чимось особливим у не надто віддаленому майбутньому.