реклама
Теги → google
Быстрый переход

Google представила ИИ для написания писем в Gmail, генерации текстов в «Документах» и создания слайдов в «Презентациях»

В марте Google сообщила о намерениях внедрить функции искусственного интеллекта в свои приложения Workspace, чтобы не отставать от аналогичного проекта Microsoft. Теперь же компания обозначила, когда они станут доступными широкому кругу пользователей и уточнила, что ИИ-инструменты получили название Duet AI. Кроме того, Google анонсировала функцию Sidekick — ИИ сможет читать и обобщать информацию в документах разных приложений экосистемы, а также отвечать на вопросы.

 Источник изображения: workspace.google.com

Источник изображения: workspace.google.com

Платформа Duet AI охватывает несколько инструментов генеративного ИИ, направленных на повышение скорости работы с документами: помощь в написании текстов в «Документах» и Gmail, создание изображений для слайдов презентаций, заполнение таблиц, автоматическое создание сводок встреч в Google Meet и многое другое.

Пожалуй, важнейшей новостью стала функция помощи в написании писем Gmail на мобильных устройствах — в компании уверены, что она окажется востребованной, потому что переписываться на телефоне не очень удобно, и люди охотно будут пользоваться подсказками, которые предлагает ИИ. Здесь даже предусмотрена кнопка «Мне повезёт!» как в поиске, хотя и работать она будет столь же непредсказуемо: писать хайку или отвечать с пиратским акцентом — забавно, но на практике скорее бесполезно.

Большинство функций ИИ в Workspace пока остаются недоступными для широкого круга пользователей, но в лист ожидания теперь может записаться любой желающий, достаточно зарегистрироваться в Workspace Labs. Помощь в написании писем в Gmail уже доступна в Workspace Labs, причём как в веб-интерфейсе, так и на мобильных устройствах. В июне в «Презентациях» появится возможность генерировать слайды по текстовому описанию. В ближайшие месяцы в Google Meet также появится возможность устанавливать собственные фоны. Появится также анализ содержимого в «Документах» и «Таблицах». В последних также появится функция заполнения ячеек с помощью ИИ.

Инновационной функцией Duet AI станет Sidekick — боковая панель, на которую выводится результат ИИ-анализа просматриваемых пользователем документов. В Google функцию назвали «будущим совместной работы с ИИ». При написании истории система предложит создать иллюстрации к ней, а в переписке она проанализирует предшествующие письма, прочитает файлы вложений и предложит что-то своё.

Google превратит классическую аркаду Space Invaders в игру с дополненной реальностью — трейлер и подробности Space Invaders: World Defense

Компания Google в рамках открытия конференции для разработчиков Google I/O, помимо всего прочего, представила ещё и новую игру с технологией дополненной реальности — Space Invaders: World Defense.

 Источник изображения: Google

Источник изображения: Google

Последние 45 лет космические захватчики пытались поработить мир, и на этот раз они вернулись из другого измерения. В Space Invaders: World Defense игроки должны будут вновь встать на защиту родной планеты.

В роли одного из лучших земных пилотов геймерам предстоит задействовать передовые технологии своего космолёта и экспертные навыки, чтобы путешествовать между измерениями и защитить планету: «Будущее Земли в ваших руках».

Space Invaders: World Defense «превратит ваш город в виртуальную игровую площадку» и предложит «индивидуальный геймплей на основе вашего местоположения, ближайших достопримечательностей, времени и погоды».

В основе Space Invaders: World Defense лежит платформа дополненной реальности ARCore и представленный на Google I/O инструмент Geospatial Creator (для привязки контента к координатам на карте мира).

 Источник изображения: Taito

Источник изображения: Taito

Как именно будет играться Space Invaders: World Defense, из анонсирующего трейлера не совсем ясно. На скриншоте с официального сайта звездолёт противостоит захватчикам в какой-то виртуальной траншее, а не на фоне реальной локации.

Space Invaders: World Defense создаётся усилиями Google и японской студии Taito, выпустившей оригинальную Space Invaders в далёком 1978 году. Релиз ожидается ближайшим летом.

Кабинка для 3D-видеосвязи Google Project Starline превратилась в телевизор с несколькими камерами и ИИ

Компания Google представила в ходе конференции Google I/O более компактную версию программно-аппаратного комплекса для видеосвязи Project Starline, который теперь больше похож на большой телевизор, чем на огромную кабину для видеочата, продемонстрированную ранее.

 Источник изображения: Google

Источник изображения: Google

Project Starline предназначен для того, чтобы придать общению по видеосвязи максимально реалистичный характер. Благодаря использованию ИИ и ряда технологий формируется трёхмерное изображение собеседника, создавая впечатление, будто он находится рядом на расстоянии вытянутой руки.

По словам генерального директора Starline Эндрю Нарткера (Andrew Nartker), более ранние прототипы Project Starline занимали целую комнату в связи с использованием сложного аппаратного комплекса, включающего инфракрасные излучатели света и специальные камеры для создания 3D-модели человека. «Размеры и сложность системы затрудняли внедрение во многих современных офисах», — отметил он.

В новом прототипе Project Starline используются «новые методы искусственного интеллекта», которые позволяют для создания реалистичных трёхмерных изображений более высокого качества использовать всего несколько стандартных камер.

«Благодаря этим усовершенствованиям наш прототип теперь напоминает более традиционную систему видеоконференцсвязи — [мы перешли] от размера ресторанной кабинки до телевизора с плоским экраном — более удобную и доступную», — рассказал Нарткер.

Он добавил, что Google уже предоставила новый прототип Project Starline своим партнёрам Salesforce, T-Mobile и WeWork, чтобы получить отзывы о его работе с целью выявления возможных недочётов. Вместе с тем Эндрю Нарткер не указал сроки появления Project Starline на рынке.

Google подключит миллиарды Android-смартфонов по всему миру к поиску потерянных гаджетов

Сервис Google «Найти устройство» (Find My Device) уже давно позволяет искать потерянные или украденные смартфоны и планшеты на Android, подключённые к Wi-Fi или мобильной сети. Теперь Google объявила, что добавит в сервис «Найти устройство» возможность поиска и других гаджетов вроде Bluetooth-наушников, трекеров, смарт-часов и т.д. Для этого будут задействованы миллиарды Android-смартфонов по всему миру.

 Источник изображения: Google

Источник изображения: Google

Google расширяет и модернизирует платформу Find My Device. В ходе доклада на мероприятии Google I/O, представитель компании заявил, что в ближайшие месяцы в экосистему Find My Device будут добавлены наушники, планшеты, Bluetooth-трекеры и другие продуктовые категории. В частности, после обновления прошивок, которые скоро выйдут для наушников от Sony и JBL, а также Pixel Buds, их можно будет найти через «Найти устройство».

Ещё важнее, что экосистема «Найти устройство» превратится в развитую сеть, использующую смартфоны на Android, принадлежащие другим людям, для поиска потерянного или украденного гаджета. По исходящим от наушников или часов сигналам, находящиеся рядом смартфоны смогут определить и сообщить его местоположение. По данным Google, речь идёт о поддержке сети из миллиардов гаджетов по всему миру.

При этом в Google обещают сохранение конфиденциальности — как и раньше, данные о местоположении шифруются и не могут просматриваться никем кроме владельца потерянного устройства, даже самой Google, поскольку безопасность пользователей является одним из приоритетов.

 Источник изображения: The Verge

Источник изображения: The Verge

При этом отмечено, что злонамеренное использование гаджетов для слежки будет пресекаться. Пользователь будет получать оповещения, если с ним незаметно «путешествует» неизвестный трекер, включая Apple AirTag — компании совместно работают над предотвращением слежки с использованием своей электроники. Функция обнаружения неизвестных трекеров будет запущена этим летом.

Google представила детектор сгенерированных ИИ изображений — в поиске и других приложениях

Компания Google делает новые шаги на пути борьбы с дезинформацией — она намерена автоматически выявлять сгенерированные ИИ изображения. На мероприятии I/O она представила новые функции, которые добавятся в её поиск. Считается, что такая функциональность поможет людям лучше понимать «контекст» изображений в поисковой выдаче. Кроме того, пользователи будут получать больше информации об изображении в специальной вкладке. Также появится и маркировка «Сгенерировано ИИ».

 Сгенерировано Google. Источник изображения: Google

Сгенерировано Google. Источник изображения: Google

В компании заявляют, что новые функции помогут людям быстрее оценивать достоверность изображения — реально ли оно или создано ИИ. Впрочем, сами эти инструменты вряд ли помогут устранить проблему дезинформации полностью, поскольку значительная часть изображений будет демонстрироваться вообще вне экосистемы Google, на площадках, где авторы могут публиковать буквально что угодно. Тем не менее, новая функциональность, которая появится в «ближайшие месяцы», обеспечит в поиске больше контекста, связанного с теми или иными «снимками» — достаточно будет открыть вкладку «Об этом изображении» (About this image).

В частности, в число данных будет включена информация о том, когда изображения были впервые индексированы Google, где изображение, вероятно, впервые появилось онлайн и где ещё оно публиковалось. В частности, такой поиск может привести на сайты, занимающиеся проверкой фактов, которые позволят пользователям больше узнать об изображении, чья достоверность поставлена под вопрос. В Google отметили, что 62 % опрошенных людей уверены, что встречаются с дезинформацией ежедневно или еженедельно, в компании надеются решать эту проблему с помощью вкладки «Об этом изображении».

Хотя Google изо всех сил старается представить технологию как можно раньше, до того, как мир заполонят сгенерированные ИИ изображения, недостоверность которых на первый взгляд неочевидна, в сети уже появилось множество фейковых фото, например — Папы Франциска в пуховике или дружески общающихся Трампа и Байдена. Такие технологии уже сегодня могут нанести серьёзный ущерб обществу.

Для того, чтобы вызвать информацию об изображении, пользователь будет должен нажать на трёхточечное меню в результатах выдачи «Изображения» в поисковике Google, можно будет искать по изображению или скриншоту в Google Lens или просто сделать свайп вверх на странице с заинтересовавшим пользователя изображением. Позже в этом году доступ к информации можно будет получить, вызвав окно правой кнопкой мыши на компьютере или долгим нажатием на изображение в смартфоне (в мобильной или настольной версии Chrome). Впрочем, сначала функция будет доступна только в США и только на английском.

 ATIGif.gif

Тем временем сгенерированные инструментами самой Google изображения получат специальную маркировку в исходном файле. Создатели изображений и издатели также смогут добровольно добавлять подобную маркировку на сгенерированные ИИ изображения. После этого в поиске Google будет появляться соответствующая метка. В Google заявляют, что некоторые платформы уже готовы к сотрудничеству в этой сфере — включая Midjourney, Shutterstock и др.

Google представила и другие возможности. Например, речь идёт о скором появлении секции в поиске раздела с некоммерческим контентом, опубликованным реальными людьми.

В поиске Google появится раздел Perspectives — с мнениями и контентом реальных людей без SEO-оптимизации

В англоязычном интернете довольно давно используется особый трюк — когда кто-то хочет узнать мнение реальных людей о товарах, услугах, а также информацию без SEO-оптимизации на другие темы, помимо основного запроса в поисковую строку добавляется слово Reddit. В результате поиск ведётся по постам сайта, где люди делятся именно личным опытом. Похоже, Google взяла идею на вооружение — в новом разделе Perspectives будут появляться тексты с субъективными мнениями, написанные обычными людьми.

 Источник изображения: Benjamin Dada/unsplash.com

Источник изображения: Benjamin Dada/unsplash.com

Секция Perspectives появится «в ближайшие недели» поверх всех поисковых результатов — наряду с секциями поиска новостей, изображений, видео, книг и т.п. Нажав на соответствующую вкладку, можно будет получить доступ к выдаче, более похожей на страницу Pinterest, чем обычный поиск Google. В разделе будут присутствовать ссылки на комментарии Reddit, видео с YouTube, информация со Stack Overflow и прочие данные, публикуемые людьми в различных сообществах, посты из блогов и другие материалы, которые поисковые алгоритмы Google сочтут авторским контентом.

Perspectives — часть более широкой инициативы Google по реформированию и оптимизации поиска для удобства тех пользователей, которые не ищут коротких ответов на простые вопросы. Как заявили в Google, компания обнаружила, что пользователи, часто молодые, хотят получать информацию от других людей, а не знакомиться с SEO-оптимизированным контентом, подготовленным крупными брендами.

Проблема становится всё важнее, поскольку большие языковые модели (включая созданные Google) позволяют генерировать всё больше контента низкого качества без особых усилий. В августе 2022 года, ещё до взлёта систем вроде ChatGPT, в Google анонсировали изменение системы поискового ранжирования, предполагавшее снижение рейтинга неоригинального и неполезного контента. Недавно Google начала также оценивать источник контента исходя из того, действительно ли автор знаком с предметом.

Впрочем, если раньше говорилось, что Perspectives, скорее, покажет экспертные мнения из проверенных источников, то теперь речь идёт о запуске целого сервиса, позволяющего ознакомиться с действительно субъективными точками зрения.

Однако, предстоит ещё большая работа. Комментарий с Reddit, вероятнее всего, является субъективным мнением реального человека, но как автоматически отличить авторский ролик с YouTube от созданного крупным брендом или просто профессиональной командой, пока неизвестно. В любом случае остаётся только приветствовать инициативу, позволяющую найти в Сети реальные мнения без длительного сёрфинга по группам в социальных сетях.

Google открыла доступ к нейросети MusicLM, которая позволяет создавать музыку по текстовому описанию

Поскольку искусственному интеллекту уже под силу сочинение сложных текстов и написание картин, привлечение его ресурсов для сочинения музыки было лишь вопросом времени, и соответствующие эксперименты уже вовсю ведутся. Google решила не отставать от тенденции и продемонстрировала приложение MusicLM, которое позволяет создавать музыкальные композиции по текстовому описанию.

 Источник изображения: Google

Источник изображения: Google

Ещё в январе, впервые описывая данный инструмент, Google заявляла об отсутствии планов по его выпуску в открытый доступ, но за прошедшее время изменила своё отношение. MusicLM доступна в составе AI Test Kitchen для Android и iOS участникам программы тестирования, требующей отдельной регистрации. По текстовому описанию музыкальной композиции система способна создавать два варианта произведений, из которых пользователь сможет выбрать более подходящий. Текстовое описание может содержать информацию не только об инструментальном содержании трека, но и о желаемом эмоциональном эффекте, который он создаёт.

Google пытается избежать упрёков со стороны правообладателей, поэтому MusicLM не будет создавать музыкальные произведения, содержащие вокал конкретных исполнителей. Юридические аспекты имитации отдельных музыкальных произведений тоже заставляют задуматься о перспективах использования результатов работы MusicLM в коммерческой сфере. Платформам, связанным с распространением музыки, уже приходилось сталкиваться с необходимостью удалить ряд произведений, созданных с помощью искусственного интеллекта.

Google Карты предложат «эффект погружения» — 3D-маршруты с визуализацией погоды и дорожного трафика

Картографический сервис Google, как стало понятно по итогам конференции для разработчиков, ждут изменения в соответствии с общим вектором развития информационных технологий. Трёхмерными картами Street View более никого не удивишь, поэтому Google предложит для 15 городов мира новый режим Immersive View, который буквально позволяет пользователю изучить маршрут «изнутри» с учётом погодных условий и интенсивности трафика для заданного времени суток.

 Источник изображения: Google

Источник изображения: Google

По словам представителей Google, технология Immersive View позволяет генерировать трёхмерные карты улиц на базе снимков Street View и данных аэрофотосъёмки, а затем накладывать на них необходимую информацию. Пользователь получает возможность буквально отследить весь маршрут в интерактивном режиме, при желании добавляя погодные условия и интенсивность трафика для конкретного интервала времени. Человек словно предварительно преодолевает намеченный маршрут в виртуальном пространстве, чтобы получить лучшее представление о нём перед тем, как двинуться в путь. По традиции, прокладка маршрута осуществляется как для водителей или велосипедистов, так и для пешеходов.

В ближайшие месяцы сервис будет запущен в Амстердаме, Берлине, Дублине, Флоренции, Лас-Вегасе, Лондоне, Лос-Анджелесе, Нью-Йорке, Майами, Париже, Сиэтле, Сан-Франциско, Сан-Хосе, Токио и Венеции. Разработчикам ПО также будут предложены инструменты для интеграции данного сервиса в свои приложения. Например, разного рода туристические путеводители смогут отмечать на трёхмерной карте города достопримечательности и рестораны, а продавцы недвижимости предоставят клиентам возможность заранее изучить окрестности объекта, не тратя время на его посещение.

Google представила технологию автоматического дубляжа видео с переводом и прорисовкой артикуляции

Учёные уже давно записали профессию переводчика в умирающие, поскольку развитие систем машинного перевода ставит её под угрозу существования не первое десятилетие подряд. Компании Google удалось вывести технологию на новый уровень: искусственный интеллект теперь способен не только переводить речь человека, записанного на видео, но и адаптировать его артикуляцию к результату перевода на другой язык.

 Источник изображения: Google

Источник изображения: Google

Другими словами, движения губ человека будут синхронизированы со словами, которые он якобы произносит на другом языке. Работа «универсального переводчика», как незатейливо назвали эту технологию в Google, состоит из нескольких этапов. Сперва система распознаёт речь выступающего на видео человека «на слух» и переводит её в текстовую форму. Данный текст уже переводится на нужный язык, из него тут же синтезируется речь с сохранением тембра и эмоциональной окраски оригинала. Затем под новую речь на другом языке синхронизируются не только движения губ и мимика, но и жестикуляция говорящего. Конечное видео выглядит так, как будто спикер изначально произносил речь на другом языке, чего в реальности он не делал.

Данная технология открывает широкие возможности если не в кинематографе, где дубляж фильмов остаётся сложным процессом, то в сфере образования как минимум. Как справедливо опасается Google, подобный инструмент должен рано или поздно заинтересовать злоумышленников, которые с его помощью захотят фальсифицировать публичные выступления тех же политиков, например. По этой причине корпорация намерена не только распространять технологию «универсального перевода» через доверенных партнёров, но и наделять результирующие видео разного рода водяными знаками, которые позволяют зрителю понять, что ролик является продуктом искусственного интеллекта.

Главные анонсы Google I/O: переосмысленный поиск, вездесущие нейросети, бюджетный и очень дорогой Pixel

Google провела презентацию в рамках открытия конференции для разработчиков Google I/O, в рамках которой рассказала о новых гаджетах, сервисах и ПО, усиленных с помощью ИИ. Здесь мы собрали основные анонсы.

Представлена языковая модель общего назначения PaLM 2 . Она способна отвечать на вопросы, решать задачи по математике, писать код на 20 языках программирования и переводить со 100 языков. Модель масштабируема и будет использоваться во всех продуктах Google.

Чат-бот Bard открылся для всех желающих (в России пока недоступен). Он переведён на PaLM 2 и общается на английском, японском и корейском. Остальные языки будут добавлены позже. Также ожидается поддержка картинок и интеграция с внешними сервисами.

ИИ-возможности скоро появятся в поиске Google. Новая функция Converse будет обобщать результаты поиска по сложным запросам в короткую сводку и позволит уточнять запросы в диалоге.

Компания намерена внедрить ИИ в «Документы», «Таблицы» и «Презентации». Генерировать тексты, заполнять ячейки таблиц или добавлять картинки в презентации с привлечением ИИ можно будет прямо из редактора. Также анонсированы ИИ-инструменты для помощи в написании писем в Gmail. Пользователи смогут сгенерировать черновик ответа по короткому описанию задачи и с учётом прошлой переписки.

Представлен «иммерсионный вид» для гугл-карт. Он предполагает прокладку маршрутов в 3D с добавлением визуального отображения погоды и дорожного трафика. Пока будет работать лишь в отдельных городах.

Google показала экспериментальную функцию синхронного ИИ-перевода видео (как в «Яндекс.Браузере»). Озвучка автоматически синхронизируется с движениями губ рассказчика. Сроки доступности названы не были.

Google подключит миллиарды Android-смартфонов по всему миру к поиску потерянных или украденных гаджетов с помощью сервиса «Найти устройство». По исходящим от такого гаджета сигналам находящиеся радом смартфоны и планшеты разных пользователей смогут сообщить местоположение потерянного устройства.

Представлен Pixel Fold — первый гибкий смартфон Google стоимостью $1800: экраны OLED 120 Гц (5,8” и 7,6”), процессор Tensor G2 и фирменные камеры. Компания утверждает, что это самый тонкий смартфон-книжка на рынке.

Также представлен доступный Android-смартфон Pixel 7a. Он похож на Pixel 7, имеет 90-Гц экран с диагональю 6,1“, продвинутую 64-Мп камеру и чип Tensor G2. Цена — $500.

Выпущен 500-долларовый планшет Pixel Tablet: экран 11”, четыре динамика, три микрофона и до 12 часов работы. В комплект входит подставка с зарядкой и динамиком, превращающая планшет в умный дисплей.

Операционная система Wear OS 4 повысит автономность смарт-часов и предложит поддержку сторонних циферблатов

В рамках конференции Google I/O для разработчиков компания Google рассказала, чего стоит ждать в составе новой операционной системы Wear OS 4 для смарт-часов. В частности, новая версия программного обеспечения обещает повысить автономность умных часов, упростит смену смартфона или часов на новые, исключив необходимость в сбросе устройства на заводские настройки, а также предложит новые инструменты для создания циферблатов.

 Источник изображения: Google

Источник изображения: Google

С сегодняшнего дня для разработчиков станет доступен новый декларативный XML-формат файлов Watch Face Format для циферблатов, который позволит создавать новые циферблаты для смарт-часов и публиковать их в магазине приложений Google Play. С помощью нового языка проектирования разработчики смогут создавать цифровые и аналоговые циферблаты для умных часов с различными дополнениями и изменяемыми элементами.

Новая операционная система Wear OS 4 повысит уровень автономности умных часов, а также получит улучшенные специальные возможности, вроде нового, более быстрого и надёжного движка для функции перевода текста в речь.

Для владельцев умных часов станет проще процесс перехода на новое устройство. Wear OS 4 предложит поддержку функций резервного копирования и восстановления данных, которые позволят быстро и легко перенести данные и настройки со старой модели часов на новую. А при настройке часов с телефона разрешения приложений будут перенесены в том числе и на часы.

Google пообещала рассказать больше о новой версии Wear OS в ближайшие месяцы. Компания выпустила для разработчиков предварительную версию Wear OS 4, а также эмулятор, которые позволят подготовится к официальному выпуску новой ОС.

Google объявила, что переосмыслит интернет-поиск с помощью ИИ — без чат-бота, но со ссылками на источники

Нет сомнения в том, что будущее поисковой системы Google будет тесно связано с технологиями искусственного интеллекта. При этом IT-гигант не делает основную ставку на создание ИИ-бота, как это сделала Microsoft в своём Bing, хотя продолжает активно развивать систему Bard, и не станет менять дизайн домашней страницы. Вместо этого Google интегрирует возможности генеративных нейросетей в результаты поисковой выдачи.

 Источник изображений: Google

Источник изображений: Google

Вице-президент Google по поисковым продуктам Лиз Рид (Liz Reid) показала несколько примеров того, как изменится поисковик компании в скором времени. В одном из примеров она ввела в поисковой строке запрос: «Почему хлеб из закваски всё ещё популярен?» Практически сразу на экране появились результаты поиска в привычном всем виде. Над выдачей отобразился оранжевый баннер «Генеративный ИИ является экспериментальным». Через несколько секунд вместо баннера появилось резюме, сгенерированное нейросетью. Оно представляет собой несколько абзацев, в которых кратко описано, насколько хорош хлеб из закваски на вкус, в чём его преимущества и др. В дополнение к этому приводится блок с тремя ссылками на ресурсы, перейдя по которым пользователь может проверить достоверность информации, сгенерированной ИИ.

В Google это называют ИИ-снимком. Все данные, выводимые в поисковую выдачу в виде резюме, собираются с помощью больших языковых моделей из открытых интернет-источников. Затем Рид изменила способ представления информации в блоке, нажав кнопку в правой верхней части браузера, которую дизайнеры называют «Лапа медведя». После этого вид ИИ-снимка изменился, текст разделился на отдельные предложения, а ссылки на источники информации отобразились ниже. Рид отметила, что этот момент является ключевым в том, чем отличается реализация технологий на основе ИИ в Google. IT-гигант хочет, чтобы ИИ сообщал пользователям о том, в каких источниках он искал данные и указывал на то, где пользователь может узнать больше об интересующем его вопросе.

Второй пример был связан с поиском лучших Bluetooth-колонок для вечеринки. Снова сначала отобразились стандартные результаты поиска, а позднее в верхней части отобразился блок информации, сгенерированный нейросетью. На этот раз в резюме были включены данные о том, на что следует обратить внимание при выборе Bluetooth-колонки, а справа появились три ссылки на руководства по выбору устройств такого типа. Под резюме отобразилось несколько ссылок на конкретные модели, каждая из которых дополняется кратким описанием, сгенерированным ИИ. Когда Рид дополнила запрос фразой «до $100» резюме обновилось в соответствии с новым данными, а внизу появились соответствующие критериям товары.

Новый вид страницы поисковой выдачи Google ориентирован на использование ИИ и совсем не похож на то, к чему привыкли пользователи. Разработчики реализовали в поиске некоторые из передовых разработок компании в области больших языковых моделей, включая модель общего назначения PaLM2 и многозадачную унифицированную модель (MuM), которая используется для повышения качества обработки сложных запросов.

Чтобы получить доступ к ИИ-снимкам пользователям потребуется присоединиться к программе Search Generative Experience, которая является частью сервиса Search Labs. Отмечается, что не все поисковые запросы будут приводить к появлению в выдаче ИИ-снимков. Они будут генерироваться только в случаях, когда Google посчитает, что ИИ-снимок будет более полезен, чем стандартный результат поиска. Кроме того, на данном этапе вмешательство нейросетей полностью исключено из запросов на важные темы, такие как здоровье или финансы.

via GIPHY

Представители Google подчёркивают, что SGE является экспериментом, но при этом компания рассматривает такой подход как основополагающее долгосрочное изменение в том, как пользователи будут взаимодействовать с поисковиком. В конечном счёте SGE может стать первым шагом на пути полного переосмысления того, как миллиарды людей ищут информацию в интернете. Google давно научилась обрабатывать определённые категории запросов. Однако есть множество запросов, на которые поисковик ранее не мог дать ответа. Например, вопрос «куда мне пойти в Париже на следующей неделе» или «какой лучший ресторан в Токио» сложно обработать, потому что на самом деле это не один вопрос. Подобных запросов огромное множество и очевидно, что ИИ поможет дать ответы на них, поскольку нейросети могут собирать различную информацию структурировать её и выдавать в удобном виде пользователю.

Google представила нейросеть PaLM 2, которая сильна в математике и может запускаться на смартфоне

Сегодня на конференции для разработчиков Google I/O, компания Google объявила о запуске PaLM 2 — своей новейшей большой языковой модели (LLM). PaLM 2 будет доступна в составе чат-бота Google Bard, а также станет базовой моделью для большинства новых ИИ-функций для её продуктов. PaLM 2 теперь доступен разработчикам через Google PaLM API, Firebase и Colab.

 Источник изображения: Google

Источник изображения: Google

Google, как и OpenAI, не предоставила много технических подробностей о том, как обучала эту ИИ-модель — даже число параметров названо не было. Единственное, что представители компании указали о технической части — PaLM 2 была обучена на основе новейшей инфраструктуры Google JAX и TPU v4. В брифинге для прессы перед сегодняшней конференцией вице-президент Google DeepMind Зубин Гахрамани (Zoubin Ghahramani) сказал: «В ходе нашей работы мы обнаружили, что больше не всегда лучше. Вместо этого компания решила сосредоточиться на своих возможностях».

Google говорит, что новая модель лучше подходит для философских рассуждений, математики и логики. Как отметил Гахрамани, компания обучила модель большому количеству математических и научных текстов с поддержкой математических формул. Не секрет, что большие языковые модели — с их упором на язык — с трудом справляются с математическими задачами, не прибегая к сторонним плагинам. Однако, Google утверждает, что PaLM 2 может легко решать математические задачи и даже создавать диаграммы.

PaLM 2 также имеет улучшенную поддержку написания и отладки кода. Модель была обучена на 20 языках программирования, в том числе на популярных, таких как JavaScript и Python, а также на узкоспециалзированных, как Prolog, Verilog и Fortran. PaLM 2 легла в основу Codey — специализированной ИИ-модели Google для написания кода и его отладки, которую Google также запускает сегодня в рамках своей службы автодополнения и генерации кода, среди прочего.

Google также подчеркнула, что PaLM 2 была обучена с помощью более 100 мировых языков, что делает её, по словам компании, «отличным решением для многоязычных задач», чем предыдущие модели.

Google говорит о PaLM как о семействе моделей, в которое входят множество моделей. Среди них и Med-PaLM 2 — модель, ориентированная на медицинские знания. Существует также Sec-PaLM, версия, ориентированная на решение вопросов безопасности, и уменьшенная версия PaLM 2, которая может работать на смартфонах и потенциально откроет PaLM для вариантов использования с упором на конфиденциальность, когда ИИ работает не выходя за пределы устройства пользователя.

Google представила Pixel Fold — «самый тонкий складной смартфон» за $1799

Компания Google, как и было запланировано, представила сегодня в рамках презентации во время открытия конференции Google I/O свой первый складной смартфон — Pixel Fold. Компания ещё неделю назад показала новинку, а теперь раскрыла её характеристики и цену.

Pixel Fold получил 5,8-дюймовый внешний экран, а также 7,6-дюймовый основной дисплей, который складывается внутрь. В обоих случаях применяются панели OLED с частотой обновления 120 Гц и поддержкой HDR. Более компактный экран обладает разрешением 2092 × 1080 точек и поддерживает яркость до 1550 кд/м2, тогда как внутренний экран — 2208 × 1840 точек и до 1450 кд/м2.

В основу Pixel Fold положен процессор Google Tensor G2, который сочетает в себе два ядра Cortex-X1 (2,85 ГГц), два ядра Cortex-A76 (2,35 ГГц) и четыре ядра Cortex-A55 (1,8 ГГц). Для обработки графики предусмотрен ускоритель Mali-G710 MC10. Имеется также встроенный 5G-модем. Такой же процессор применяется во флагманах Pixel 7 и 7 Pro. Чип дополняют 12 Гбайт оперативной памяти. Объём встроенной флеш-памяти составляет 256 или 512 Гбайт в зависимости от версии.

Новинка получила «самый прочный шарнир среди складных смартфонов» — для него заявлен ресурс в 200 000 складываний. Также Google назвала новинку самым тонким из складных смартфонов: в разложенном виде его толщина составляет лишь 6 мм, а в сложенном — 12,1 мм. При этом в сложенном виде практически отсутствует зазор в месте изгиба — в отличие от главного конкурента в лице Samsung Galaxy Z Fold 4. Заметим, что на самом деле по толщине Pixel Fold на самом деле слегка крупнее Huawei Mate X3 — видимо Google не учла при сравнении этот китайский аппарат.

Что касается времени автономной работы, то Google заявляет для Pixel Fold более 24 часов при регулярном использовании. Смартфон получил батарею на 4800 мА·ч и поддержку быстрой зарядки мощностью всего 30 Вт. Есть и поддержка беспроводной зарядки. Имеется защита от влаги по стандарту IPx8, а вот защита от пыли не предусмотрена.

Всего в Pixel Fold пять камер. Есть две 8,3-Мп селфи-камеры — одна на внешнем дисплее для селфи, а другая на внутреннем для видеозвонков. Ещё имеется три камеры сзади: 48-Мп основная камера с оптической стабилизацией, 10,8-Мп широкоугольная и 10,8-Мп телефотокамера с пятикратным зумом. Функции и возможности камеры аналогичны тем, что доступны на Pixel 7 Pro, но в Fold сенсоры применены другие — Google не смогла вместить более крупные сенсоры 7 Pro в тонкую рамку Fold.

Google Pixel Fold уже доступен для предварительного заказа по цене от $1799 — столько же стоит и Samsung Galaxy Z Fold 4. В продажу новинка поступит в конце июня. Правда, продаваться новинка будет только лишь в Германии, Японии, Великобритании и США.

В Google Фото появится инструмент Magic Editor — он умеет дорисовывать фото с помощью ИИ

Google намерена интегрировать функции на основе генеративных нейросетей во многие свои продукты, в том числе в приложение Google Фото, которое позволяет хранить и редактировать изображения. На проходящем на этой неделе мероприятии Google I/O разработчики анонсировали «экспериментальный» инструмент Magic Editor, который способен не только редактировать снимки, но и буквально перерисовывать их для получения нужного результата.

 Источник изображения: Google

Источник изображения: Google

С помощью Magic Editor пользователи могут перемещать объекты на фото, изменять их размер, удалять ненужные элементы или, например, заменить пасмурное небо солнечным. Отметим, что в Google Фото уже присутствуют функции, построенные на основе нейросетей. К таким инструментам относятся Magic Eraser, позволяющий удалять со снимков лишние объекты, а также Magic Unblur, позволяющий увеличить резкость изображения. Однако Magic Editor поможет сделать большой шаг вперёд, поскольку функция будет генерировать контент и эффективно пересоздавать снимки, которые требуется отредактировать.

Вероятно, анонсированная функция будет полезна в случаях, когда требуется спасти неудачный снимок, сделав его более качественным. Однако при этом нейросеть будет генерировать события, которых фактически никогда не было. Возможные последствия использования Magic Editor добавят новые пункты к списку этических вопросов, связанных с генеративными нейросетями.

Согласно имеющимся данным, бета-версия Magic Editor станет доступна владельцам некоторых смартфонов Pixel в конце этого года. Компания предупреждает, что результат работы новой функции может не соответствовать ожиданиям пользователей и разработчики продолжат собирать отзывы для повышения качества обработки снимков с помощью Magic Editor.

window-new
Soft
Hard
Тренды 🔥
Amazon разработала ИИ-модель, которая умеет работать с видео 18 мин.
Илон Маск пообещал «сделать игры снова великими», открыв ИИ-студию на базе xAI 37 мин.
Итоги Devolver Delayed Awards 2024 — Baby Steps, Stick it to the Stickman и Skate Story не выйдут в 2024 году 2 ч.
Microsoft разработала магазин Xbox для Android, но не может его запустить из-за Google 3 ч.
Фоторежим, кроссплей и 12 новых подклассов: Larian анонсировала восьмой крупный патч для Baldur’s Gate 3 4 ч.
Selectel подтвердил соответствие государственному стандарту безопасности для организаций финансовой сферы и обновил действующие сертификаты безопасности 4 ч.
Бывшие руководители Android разрабатывают ОС для ИИ-агентов, которые работают участия без человека 6 ч.
«Убийца» ChatGPT от Илона Маска скоро пойдёт в массы — фривольный бот Grok получит приложение 13 ч.
It Takes Two, Aliens: Dark Descent и аналог «Покемонов»: Sony подтвердила декабрьскую подборку игр PS Plus 17 ч.
«Зима близко»: разработчики Atomic Heart раскрыли, когда выйдет третье дополнение, а новый тизер привёл фанатов в восторг 17 ч.