Google Chrome начал проверять URL-адреса на опечатки и давать подсказки
Читать в полной версииGoogle сообщила, что с выходом нового обновления специальных возможностей Chrome в браузере появится функция проверки URL-адреса пользователя на наличие опечаток. Благодаря этому Google Chrome будет отображать предлагаемые веб-сайты, исходя из предполагаемого «правильного» варианта. Новая функция сначала появится у веб-браузера для настольных компьютеров, а затем в «ближайшие месяцы» — в мобильной версии.
Как отметил ресурс The Verge, это удобный инструмент, позволяющий пользователю исключить ошибку и попасть на нужные ему веб-сайты, а не на те сомнительные, на которые нередко попадаешь, допустив неточность в названии популярного веб-сайта.
Google также представила обновление функции Live Caption, преобразующей голосовое сообщение в текст. Теперь пользователь сможет набирать ответ во время телефонного звонка и воспроизводить его вслух собеседнику. Поначалу эту функцию будут поддерживать последние модели Pixel, после чего она появится на ранее вышедших моделях Pixel и других Android-устройствах.
Кроме того, Google запустит окно оптимизированных субтитров на Android-планшетах и добавит поддержку Live Caption для французского, итальянского и немецкого языков на Pixel 4 и 5, а также на других устройствах на платформе Android.
Также сообщается, что в Google Maps появилось обновление, благодаря которому значок мест, оборудованных для инвалидных колясок будет видимым для всех. Раньше нужно было включить функцию «Доступные места» на Google Maps, чтобы проверить, есть ли в конкретном месте съезд для инвалидных колясок.
В дополнение Google объявила о закрытом бета-тестировании нескольких новых функций в приложении Lookout для слепых или слабовидящих пользователей. Теперь приложение на базе искусственного интеллекта будет обрабатывать и генерировать описания изображений независимо от того, есть ли к ним текстовое сопровождение или нет. Пользователи смогут задавать уточняющие вопросы об этих изображениях, на которые будет дан ответ с использованием продвинутой модели визуального языка (VLM) от Google DeepMind.