реклама
Теги → gemini
Быстрый переход

YouTube начнёт показывать рекламу рядом с самыми интересными местами видео

На YouTube начнут показывать рекламу сразу после самых ярких и эмоциональных моментов видео. Новый формат таргетинга, получивший название Peak Points, использует искусственный интеллект Gemini для анализа видео и определения сцен с максимальным вовлечением, например, кульминационных или эмоциональных эпизодов. Как только такой момент заканчивается, пользователю покажут рекламное объявление.

 Источник изображения (скриншот): techcrunch.com

Источник изображения (скриншот): techcrunch.com

Peak Points был представлен на недавнем мероприятии Upfront в Нью-Йорке, сообщает TechCrunch. По замыслу YouTube, реклама после «пиковых точек» будет эффективнее запоминаться, так как зрители в этот момент наиболее вовлечены в контент. Этот подход можно сравнить со стратегией, называемой эмоциональным таргетингом, когда рекламодатели стараются представить свою рекламу, характер которой соответствует настроению видео.

Несмотря на то, что обычно любые нововведения являются шагом вперёд, неоднозначность нового формата очевидна: рекламная пауза в самый интересный момент может не всем пользователям понравиться. Многие предпочитают смотреть видео без помех, особенно если оно вызывает сильные эмоции. Пока достоверно неизвестно, можно ли будет отключать или пропускать Peak Points, как обычную рекламу.

Параллельно YouTube представил и более привлекательный для зрителей формат — шоппинг-ленту прямо в рекламе. Теперь во время просмотра ролика можно будет покупать товары, не переходя на другие сайты. По мнению компании, это должно понравиться как рекламодателям, так и пользователям.

Google анонсировала появление ИИ-ассистента Gemini в автомобилях и телевизорах

Компания Google планирует вывести свой ИИ-ассистент Gemini на устройства с Google TV, автомобили с Android Auto, смарт-часы на базе Wear OS, а также гарнитуры смешанной реальности с Android XR. Google не называет конкретных дат, но всё же даёт понять, когда Gemini станет доступен на устройствах разных типов.

 Источник изображения: Google

Источник изображения: Google

В блоге разработчиков Google сообщается, что на телевизорах с Google TV «вы можете запрашивать фильмы, подходящие по возрасту для ваших детей, и получать лучшие рекомендации». В качестве примера рассматривается ситуация, когда пользователь просит Gemini рассказать первокласснику о Солнечной системе. В ответ алгоритм генерирует краткое описание, а при нажатии на кнопку «Узнать больше» можно перейти к просмотру тематических роликов о Солнечной системе на YouTube. ИИ-ассистент Gemini будет интегрирован в Google TV «позднее в этом году».

В автомобилях Gemini сделает помощника Google Assistant более совершенным, благодаря чему тот будет «понимать, чего вы хотите во время движения, благодаря общению на естественном языке». Например, Gemini сможет найти зарядную станцию для электромобиля, расположенную ближе всего по маршруту следования пользователя. Также Gemini будет способен подключаться к приложениям для обмена сообщениями, чтобы обобщать поступающие послания. В Android Auto Gemini появится «в ближайшие месяцы».

В Wear OS ИИ-ассистент позволит пользователям общаться с голосовым помощником на естественном языке, без необходимости подбирать нужные слова или набирать сообщения на маленьком экране смарт-часов. Это может оказаться полезным во многих ситуациях — например, если нужно уточнить какую-либо информацию во время пробежки. Интеграция Gemini с Wear OS будет реализована «в ближайшие месяцы».

Также разработчики сообщили, что Gemini будет встроен в первую гарнитуру на базе Android XR, созданную компанией Samsung. Ожидается, что владельцы этого устройства смогут опробовать ИИ-помощника к концу года.

Google обновила фирменный значок «G» впервые за 10 лет — теперь он градиентный

Предыдущее обновление фирменного стиля Google произошло почти 10 лет назад — 1 сентября 2015 года компания изменила свой логотип, выбрав для его написания шрифт Product Sans. В результате изменений значок из маленькой белой буквы «g» на синем фоне превратился в четырёхцветную заглавную «G», которая без изменений олицетворяла собой Google до сегодняшнего дня. Теперь компания освежила этот логотип, заменив четыре сплошные цветные секции на плавный радужный градиент.

 Источник изображения: Google

Источник изображения: Google

Отныне в значке Google красный плавно переходит в жёлтый, жёлтый в зелёный, а зелёный в синий. По мнению представителей компании, новый вариант выглядит более современным, ярким и красочным. Эта модернизация значка приближает его к градиентному логотипу Gemini, похожий ярлык уже используется для вызова режима искусственного интеллекта в поиске.

В настоящее время новый значок уже используется приложением «Поиск Google» для iOS. В принципе, это довольно незначительное изменение, которое многие пользователи могут просто не заметить.

Похоже, что Google пока не намерена менять свой основной шестибуквенный логотип, в то время как значки многих приложений, скорее всего, могут получить аналогичные градиентные заливки.

Google защитит пользователей Chrome от фишинга с помощью локальной ИИ-модели Gemini Nano

Компания Google представила новые инструменты на базе искусственного интеллекта, направленные на усиление защиты пользователей браузера Chrome от онлайн-мошенничества. Нововведение касается большой языковой модели (LLM) Gemini Nano, работающей локально, непосредственно на устройстве пользователя.

 Источник изображения: AI

Источник изображения: AI

Эта технология, как сообщает TechCrunch, будет использоваться в настольной версии Chrome в режиме расширенной защиты (Enhanced Protection), которая обеспечивает в два раза более высокую безопасность по сравнению со стандартной защитой. Gemini Nano поможет выявлять и блокировать потенциально опасные сайты, в том числе ранее неизвестные и, как отмечают в Google, идеально подходит для этой задачи благодаря своей способности анализировать разнообразную и сложную структуру ресурсов.

Компания также обращает внимание на риски, связанные с уведомлениями от недобросовестных сайтов, которые могут использовать push-уведомления для попыток обмана. Для противостояния этому в мобильной версии Chrome для Android появится новая система предупреждений о таких push, а пользователь сможет выбрать — отключить это уведомление или пройти по ссылке в нём.

Также Google отметила, что уже использует ИИ для борьбы с мошенничеством в поисковой системе. Технологии позволяют ежедневно блокировать сотни миллионов подозрительных результатов. В частности, компания зафиксировала рост числа мошенников, выдающих себя за сотрудников авиакомпаний, и утверждает, что благодаря новым мерам количество подобных случаев удалось сократить более чем на 80 %.

Google обновила ИИ-модель Gemini 2.5 Pro, улучшив её способности в программировании

Google представила улучшенную версию флагманской ИИ-модели — Gemini 2.5 Pro Preview (I/O Edition). По заявлению компании, новая разработка превосходит предыдущие версии в ряде ключевых показателей, включая генерацию программного кода, создание веб-приложений и анализ видео.

 Источник изображения: blog.google

Источник изображения: blog.google

Выход обновлённой версии состоялся накануне ежегодной конференции Google I/O, где компания традиционно представляет новые технологии. В этом году ожидается целая серия премьер, включая другие ИИ-модели и продукты на их основе. Модель уже доступна через Gemini API, а также на платформах Vertex AI и AI Studio, при этом её стоимость осталась на уровне предыдущей версии. Как сообщает TechCrunch, обновление также появится в приложении Gemini для веб- и мобильных устройств.

Среди ключевых улучшений Gemini 2.5 Pro Preview (I/O Edition) — значительно повышенные способности к написанию и редактированию кода, а также разработке сложных агентных рабочих процессов. По словам компании, модель продемонстрировала впечатляющие результаты в создании веб-приложений и возглавила рейтинг WebDev Arena Leaderboard, оценивающий способность ИИ создавать функциональные сайты.

 Источник изображения: blog.google

Источник изображения: blog.google

Кроме того, модель показала рекордные результаты в области анализа видео, набрав 84,8 % в тесте VideoMME — одном из популярных бенчмарков в сфере ИИ. Это расширяет возможности её применения в более сложных сценариях обработки медиаконтента.

«Для разработчиков, уже использующих Gemini 2.5 Pro, новая версия не только улучшит работу с кодом, но и учтёт ключевые пожелания, включая снижение числа ошибок при вызове функций», — говорится в блоге Google. Также отмечается, что модель по умолчанию лучше учитывает эстетическую составляющую при разработке веб-интерфейсов, оставаясь при этом управляемой и гибкой.

Google совсем скоро представит мобильные приложения ИИ-блокнота NotebookLM с офлайн-режимом

20 мая, в день старта конференции Google I/O 2025, дебютируют бета-версии нативных мобильных приложений NotebookLM для iOS и Android, которые придут на смену существующему веб-приложению. Они обеспечат интеграцию ИИ-сервиса с системными функциями мобильных устройств. Приложения будут поддерживать полноценный офлайн-доступ к ранее сгенерированным аудиообзорам, что позволит слушать материалы при отсутствии подключения к интернету. Таким образом, NotebookLM станет по-настоящему мобильным ИИ-инструментом для учёбы, анализа и создания персонализированного контента на ходу.

 Источник изображений: Google

Источник изображений: Google

NotebookLM — это исследовательский инструмент на основе ИИ, вышедший в 2023 году в формате PWA. Несмотря на его широкую функциональность, использование через браузер накладывало свои ограничения: невозможность работы при потере интернет-соединения и отсутствие полноценного фонового воспроизведения аудио. Новые мобильные приложения призваны устранить оба этих недостатка.

Сервис часто описывают как «умный блокнот» нового поколения: пользователи могут загружать в него PDF-файлы, статьи, ссылки на общедоступные видео с YouTube, обычный текст, Google Документы, Google Презентации, аудиофайлы и другие источники информации. ИИ анализирует материалы, выделяет ключевые положения, отвечает на тематические вопросы, а также способен автоматически преобразовывать контент в формат краткого аудиообзора — своеобразного подкаста, созданного по содержанию загруженных данных.

NotebookLM использует новейшие ИИ-модели семейства Gemini. Все ответы сопровождаются ссылками на источники, что позволяет точно видеть, какая информация была извлечена ИИ из загруженных материалов. Благодаря такой достоверности сервис становится незаменимым помощником для студентов, аналитиков, исследователей и всех, кому необходим точный и проверяемый фактологический материал.

Функциональность включает полноценный офлайн-режим. Можно заранее скачать аудиообзоры, созданные ИИ, и прослушивать их без подключения к интернету. Благодаря фоновому воспроизведению, аудио продолжает играть, даже если пользователь переключился на другое приложение или заблокировал экран.

 Источник изображений: Google

Судя по скриншотам из Google «Play Маркет», интерфейс приложения будет содержать ряд дополнительных функций, часть из которых знакома пользователям веб-версии:

  • Главный экран (Home screen). Отображаются вкладки «Недавние» (Recent), «Общие» (Shared), «Название» (Title) и «Загруженные» (Downloaded), а также прокручиваемый список тетрадей. Каждая тетрадь имеет большую кнопку для запуска «Аудиообзора» (Audio Overview).
  • Аудиоплеер (Audio player): Это полноэкранный режим, который не только показывает анимированную форму волны, но и позволяет вам «присоединиться к подкасту», чтобы задать ИИ вопросы или получить пояснения.
  • Создание новой тетради. Большая плавающая кнопка действия в нижней части экрана позволяет создать новую тетрадь. Достаточно нажать на неё, чтобы загрузить документы, вставить текст, добавить URL-адреса — или воспользоваться функцией системного общего доступа, чтобы импортировать содержимое из других приложений непосредственно в NotebookLM.
  • Режим просмотра тетради. При открытии тетради в нижней части экрана отображается постоянная панель инструментов, обеспечивающая быстрый доступ к разделу «Источники» (Sources) (просмотр загруженных материалов), «Чат» (Chat) (взаимодействие с ИИ по содержанию тетради) и «Студия» (Studio) (настройки и статистика использования).

Скриншоты также демонстрируют, как приложение выглядит на планшетах: в режиме разделённого экрана чат с ИИ располагается рядом со списком источников — как при работе на ноутбуке.

 Источник изображений: Google

Нативные приложения обеспечивают более глубокую интеграцию с системами iOS и Android и доступ к системным функциям, таким как push-уведомления. Пользователи смогут получить доступ к новому приложению, выполнив следующие действия:

  1. Предварительная регистрация: Зайдите в Apple App Store или Google «Play Маркет» нажмите «Предзаказ» (Pre-order) или «Предварительная регистрация» (Pre-register).
  2. Автоматическая загрузка: 20 мая (в первый день Google I/O 2025) ваш смартфон автоматически загрузит приложение.
  3. Войти: Откройте приложение, войдите в него с помощью учетной записи Google, и всё готово.
  4. Обновите приложение до NotebookLM Plus (по желанию): Не забывайте, что существует приложение NotebookLM Plus, доступное в Google One AI Premium. В нём есть всё, что предлагает NotebookLM, плюс в 5 раз больше аудиообзоров, запросов и источников для каждого блокнота, возможность настраивать стиль и длину ответов в блокноте, а также возможность делиться блокнотами с командой.

Google откроет Gemini доступ ко всей информации о пользователях, которую она накопила

Гонка чат-ботов с искусственным интеллектом накаляется, и теперь Google собирается дать Gemini возможность понять пользователя как, возможно, никто другой. Gemini сможет не только запоминать предыдущие разговоры с человеком, но также учиться на его действиях в других приложениях: Gmail, «Google Календарь» и YouTube, сообщил президент Google Labs и Gemini Джош Вудворд (Josh Woodward).

 Источник изображения: blog.google

Источник изображения: blog.google

В апреле OpenAI объявила, что значительно расширит память ChatGPT, позволит помощнику обращаться к прошлой переписке с пользователем и использовать эту информацию для персонализации последующих ответов. Такие ответы, по мнению компании, будут в большей степени соответствовать его интересам, привычкам и предпочтениям, обеспечивая более комфортное и полезное взаимодействие.

В Google решили на этом не останавливаться. В ближайшее время компания откроет Gemini доступ к истории прошлых чатов пользователя и ИИ, а после этого развернёт функцию pcontext, что означает «персонализированный контекст». Пока эта функция тестируется внутри компании. Она предназначена для извлечения информации из учётной записи пользователя в экосистеме Google, что обеспечит Gemini глубокое понимание жизни пользователя: упоминаются, в частности, Gmail, «Google Фото», «Google Календарь», «Google Поиск» и YouTube. Компания намеревается сделать Gemini более активным, но не уточнила, что именно имеется в виду. Возможно, помощник с ИИ будет по собственной инициативе выдвигать полезные предложения с учётом расписания, истории веб-поиска и активности в почтовом ящике пользователя.

Настолько глубокая интеграция, конечно, поднимает вопрос о конфиденциальности. Google и без того хранит чрезвычайно много информации о пользователях, а открытие её системе ИИ и возможность совершать операции с этими данными — очередной шаг вперёд. Поэтому в компании заверили, что будут запрашивать у пользователей явное разрешение, прежде чем Gemini получит доступ к этим данным. Это шаг к тому, чтобы сделать Gemini более «личным, проактивным и мощным», уверен господин Вудворд. И намекнул, что скоро появится новая информация.

Google научила ИИ-бота Gemini редактировать любые изображения

Google Gemini научился редактировать как сгенерированные ИИ изображения, так и загруженные со смартфона или компьютера. В ближайшие недели новая функциональность станет доступна пользователям в большинстве стран мира, где доступен Gemini, и получит поддержку более чем 45 языков. Россия, напомним, в этот список не входит, однако русский язык Gemini понимает и «говорит» на нём.

 Источник изображений: Google

Источник изображений: Google

Нативное редактирование изображений в ИИ-чат-боте Gemini представляет собой эволюционный шаг в развитии возможностей взаимодействия пользователя с ИИ. Запуск последовал за моделью редактирования изображений с помощью ИИ, которую Google опробовала в марте в своей платформе AI Studio и которая получила широкую огласку благодаря своей спорной способности удалять водяные знаки с любого изображения. Подобно недавно обновлённому инструменту редактирования изображений в ChatGPT, встроенный редактор Gemini теоретически способен достигать более высоких результатов по сравнению с автономными ИИ-генераторами изображений.

Теперь Gemini предлагает инновационный «многоэтапный» процесс редактирования, обеспечивающий, по описанию компании, «более богатые и контекстуальные» отклики на каждый запрос — с интеграцией текста и изображений. Функциональность нового редактора позволяет пользователям изменять фон на изображениях, заменять объекты, добавлять элементы и выполнять множество других операций — и всё это непосредственно в интерфейсе Gemini. Подобное решение существенно упрощает процесс создания и редактирования визуального контента, устраняя необходимость переключаться между несколькими специализированными приложениями.

 Источник изображений: Google

«Например, вы можете загрузить личную фотографию и попросить Gemini сгенерировать изображение того, как вы будете выглядеть с разными цветами волос. Также можно попросить Gemini создать первый черновик сказки на ночь о драконах и сгенерировать иллюстрации к истории», — поясняет Google в своём блоге. Эти примеры наглядно демонстрируют многофункциональность системы, пригодной как для утилитарных, так и для креативных задач.

Потенциальные риски технологии в контексте создания дипфейков обоснованно вызывают опасения у специалистов по информационной безопасности. Чтобы нивелировать возможные злоупотребления, Google внедряет технологию невидимых водяных знаков во все изображения, созданные или отредактированные с помощью нативного генератора изображений Gemini. Параллельно компания проводит экспериментальные исследования по внедрению видимых водяных знаков на всех изображениях, сгенерированных с помощью Gemini.

Google подтвердила, что близка к внедрению ИИ-модели Gemini в iPhone

Генеральный директор Google Сундар Пичаи (Sundar Pichai) заявил, что компания близка к соглашению с Apple о внедрении модели искусственного интеллекта Gemini в iPhone. Это позволит Siri использовать широкие возможности ИИ-модели для ответов на более сложные вопросы.

 Источник изображения: Solen Feyissa / Unsplash

Источник изображения: Solen Feyissa / Unsplash

Ещё в июне прошлого года старший вице-президент Apple Крейг Федериги (Craig Federighi) намекал на возможность интеграции, говоря, что компания хотела бы, чтобы в будущем у пользователей была возможность выбора между ИИ-моделями, включая Google Gemini. В настоящий момент добавлена только поддержка чат-бота от OpenAI в систему Apple Intelligence, которая перенаправляет сложные запросы в ChatGPT, если они выходят за рамки её возможностей, отмечает The Verge.

Пичаи подтвердил, что обсуждал вопрос интеграции с главой Apple Тимом Куком (Tim Cook), а он, в свою очередь, интересовался планами разработки и продвижения Gemini, и также подтвердил, что его компания намерена добавить уже в этом году в Apple Intelligence больше сторонних ИИ-моделей.

Если сделка состоится (предположительно к концу 2025 года), Gemini станет второй сторонней ИИ-системой, доступной в экосистеме Apple, и даст пользователям возможность выбора между технологиями OpenAI и Google, а также усилит конкуренцию в области искусственного интеллекта.

Google Gemini поможет в практике иностранных языков — есть и поддержка русского

Google выпустила три экспериментальных проекта на основе технологий искусственного интеллекта, предназначенные для помощи пользователям в изучении иностранных языков. Разработка решений находится на ранних этапах, но большая языковая модель Gemini уже сейчас становится грозным конкурентом Duolingo.

 Источник изображений: googleblog.com

Источник изображений: googleblog.com

Первый экспериментальный проект направлен на быстрое изучение определённых фраз, которые нужны пользователю в данный момент; второй предназначен для того, чтобы сформировать у обучаемого менее формальные навыки иностранного языка и выработать у него манеру общения, более свойственную местным жителям. Третий экспериментальный проект предполагает подключение камеры для формирования нового лексикона на основе окружающих предметов.

Один из наиболее неприятных аспектов при изучении иностранного языка, отмечают в Google, — оказаться в ситуации, когда нужна конкретная фраза, но она ещё не изучена. Экспериментальная функция Tiny Lesson позволяет описать ситуацию, например, «поиски утерянного паспорта» и получить рекомендации по словарному запасу и грамматике, адаптированные к контексту, например: «Я не знаю, где его потерял» или «Я хочу сообщить об этом в полицию».

Вторая экспериментальная функция получила название Slang Hang, её задача — сделать речь обучающегося менее «учебной», то есть менее формальной, более разговорной и обогащённой местным сленгом. Можно смоделировать реалистичный разговор между носителями языка и по каждой реплике проследить, как разворачивается диалог. Это может быть, например, разговор покупателя с уличным торговцем или сценарий встречи двух давно потерявших друг друга приятелей в метро. В рамках этого экспериментального проекта, признались в Google, ИИ иногда неправильно применяет сленг, поэтому его рекомендации лучше сопоставлять с надёжными источниками.

 Источник изображений: googleblog.com

Третий эксперимент получил название Word Cam: пользователь делает снимок окружающих его предметов, Gemini их распознаёт и предлагает названия на изучаемом языке. Иногда на практике требуется знать, как называются предметы вокруг, и эта функция может продемонстрировать, что пользователь ещё многого не изучил. Например, можно знать слово «окно», но не «жалюзи». Идея этих проектов состоит в том, чтобы обозначить новые варианты использования ИИ, сделать самостоятельное изучение языков более динамичным и личностно ориентированным.

Новые экспериментальные функции Google Gemini способны помочь в изучении следующих языков: арабский, китайский (материковый Китай, Гонконг, Тайвань), английский (Австралия, Великобритания, США), французский (Канада, Франция), немецкий, греческий, иврит, хинди, итальянский, японский, корейский, португальский (Бразилия, Португалия), русский, испанский (Латинская Америка, Испания) и турецкий. Доступ к ним открывается через платформу Google Labs.

Google готовит Gemini для детей — ИИ будет под контролем родителей

Google собирается открыть доступ к помощнику с искусственным интеллектом Gemini для детей до 13 лет, чьи устройства контролируются родителями с помощью приложения Family Link. Компания предупредила, что ИИ может вести себя непредсказуемо.

 Источник изображения: blog.google

Источник изображения: blog.google

Google сообщила о намерении выпустить детский вариант Gemini — для этой аудитории предлагаются такие варианты использования, как помощь с домашними заданиями, ответы на вопросы и генерация сказок с учётом возраста ребёнка. Дети смогут взаимодействовать с ИИ-помощником в приложениях для Android, iOS, а также в веб-версии Gemini; на Android службу можно будет установить в качестве помощника по умолчанию.

Учитывая непредсказуемость современных моделей ИИ, Google предупредила пользователей, что «Gemini может допускать ошибки», и порекомендовала родителям научить детей «относиться к ответам Gemini критически». В компании подчеркнули, что ребёнок должен понимать: Gemini — не человек; он может отвечать, как человек, но не обладает сознанием и эмоциями. Поэтому ребёнку следует проверять получаемую информацию и не доверять ИИ конфиденциальные данные. Родителям также стоит учитывать, что механизмы ограничения контента у ИИ не совершенны, и Gemini потенциально может продемонстрировать нежелательные материалы. В связи с этим контроль над системой будет осуществляться через приложение Family Link. О сроках развёртывания детской версии Gemini Google пообещала сообщить дополнительно.

ИИ-помощник Google Gemini появится в автомобилях, умных часах и наушниках

В последние пару лет Google активно интегрирует чат-бота Gemini с искусственным интеллектом в свои продукты: в Gmail, Android, «Google Диск» и другие сервисы. К концу года присутствие чат-бота расширится — он появится на платформе Wear OS для умных часов, Android Auto для автомобилей и в беспроводных наушниках.

 Источник изображения: blog.google

Источник изображения: blog.google

В ходе брифинга после квартального финансового отчёта гендиректор холдинга Alphabet Сундар Пичаи (Sundar Pichai) объявил, что в скором времени Gemini появится на новых устройствах: «Мы обновим Google Assistant на мобильных устройствах до Gemini, а позже в этом году обновим планшеты, автомобили и устройства, которые подключаются к смартфону, такие как наушники и часы». В этом году конференция разработчиков Google I/O запланирована на 20–21 мая — возможно, на ней компания подробнее расскажет о своих планах расширить присутствие Gemini.

Google Gemini уже является помощником по умолчанию на большинстве устройств под управлением Android, но его ещё нет на планшетах, часах с Wear OS, а также умных колонках и дисплеях Google. Планы компании подтвердил анализ бета-версий некоторых приложений. Так, в приложении Google обнаружились фрагменты кода, указывающие, что Gemini появится на Wear OS в качестве «носимого» помощника — вероятно как обновление существующего приложения «Google Ассистент». Сначала компания обновит лишь приложение, а затем усилит интеграцию с выпуском Wear OS 6.

В недавнем выпуске «Google Ассистента» для Android Automotive обнаружились строки, указывающие, что Google усердно работает над переносом Gemini и на автомобильную платформу. Компания разрабатывает модели ИИ, адаптированные для работы в новых областях с большим потенциалом роста, в том числе для робототехники, добавил господин Пичаи.

Google Gemini проиграл ИИ-гонку — пользователи предпочитают ChatGPT и Meta✴ AI

Количество ежемесячных пользователей ИИ Gemini составляет около 350 млн человек, что значительно меньше, чем у ChatGPT от OpenAI и даже у Meta AI. Такая цифра была озвучена в ходе недавно обнародованных данных судебного заседания, в котором Google принимает участие в качестве ответчика.

 Источник изображения: androidauthority.com

Источник изображения: androidauthority.com

По данным The Information, в ходе продолжающегося рассмотрения антимонопольного иска к Google компания на одном из последних судебных заседаний показала слайд, подробно описывающий количество активных пользователей ИИ-помощника Gemini. Согласно этим данным, по состоянию на март 2025 года число активных ежемесячных пользователей Gemini составило 350 млн человек по всему миру. Ежедневно ИИ от Google пользуются около 35 млн человек. Несмотря на отставание от конкурентов, Google увеличила долю пользователей Gemini с октября 2024 года. Тогда ежедневно ИИ-помощником пользовались 9 млн человек, а ежемесячная аудитория составляла 90 млн человек.

Google представила эти цифры в контексте заявления Министерства юстиции США о том, что компании следует запретить расширять своё доминирование в поиске с использованием ИИ. Однако очевидно, что на данный момент Google является аутсайдером в этой области. По сравнению с её показателями OpenAI и Meta значительно опережают её. TechCrunch сообщает, что по состоянию на сентябрь 2024 года число пользователей Meta AI приближалось к 500 млн в месяц, в то время как OpenAI недавно заявила, что еженедельно ChatGPT пользуются более 400 млн человек по всему миру.

Хотя методы расчёта этих данных варьируются от компании к компании, это, безусловно, указывает на значительное отставание Google от OpenAI по числу активных пользователей ИИ-ассистента. Однако остаётся неясным, учитываются ли в данных Google интеграции Gemini в такие продукты, как Workspace и Gmail, у которых, очевидно, гораздо более широкая пользовательская база.

Google призналась, что платит Samsung «огромные деньги» за предустановку Gemini на Galaxy

Недавно суд признал Google виновной в нарушении антимонопольного законодательства — компания платила производителям смартфонов за предустановку своей поисковой системы. Сегодня выяснилось, что Google аналогичным образом стала финансировать предустановку ИИ Gemini на устройства Samsung Galaxy. Этот факт признал вице-президент Google по платформам и партнёрским устройствам Питер Фицджеральд (Peter Fitzgerald) во время другого судебного разбирательства.

 Источник изображения: androidauthority.com

Источник изображения: androidauthority.com

На проходящих трёхнедельных слушаниях Министерство юстиции США в рамках антимонопольного дела против Google потребовало разделить компанию с рыночной капитализацией $1,81 трлн. Этот процесс может кардинально изменить облик технологического гиганта и существенно повлиять на расстановку сил в Кремниевой долине.

На судебном процессе Фицджеральд сообщил, что ежемесячные платежи за предустановку Gemini на устройства Samsung Galaxy начались в январе, а контракт рассчитан как минимум на два года. Общая сумма не разглашается, но представитель Министерства юстиции заявил, что Google платит Samsung «огромные деньги». Кроме того, по словам Фицджеральда, контракт предусматривает получение Samsung процента от дохода от рекламы, отображаемой в Gemini.

Эти показания могут доставить серьёзные юридические неприятности Google в дополнение к уже имеющимся. На днях Министерство юстиции США выиграло судебный процесс против компании, обвинив Google в монопольном положении в сфере рекламных технологий. Суд постановил, что Google «умышленно участвовала в серии антиконкурентных действий», а антиконкурентная практика технологического гиганта нанесла «существенный вред» клиентам и пользователям.

Теперь суд приобщит к текущему судебному иску показания Фицджеральда, чтобы принять окончательное решение об изменениях, которые Google придётся внести в свой бизнес в случае юридического поражения.

Гендир Google DeepMind рассказал о будущем ИИ и появлении у него самосознания

Генеральный директор Google DeepMind Демис Хассабис (Demis Hassabis) в течение часа рассказывал журналистам о перспективах Gemini, темпах разработки сильного ИИ (Artificial General Intelligence, AGI) и общем росте самосознания нейросетей. Он уделил много внимания модели Project Astra, которая сейчас находится в стадии предварительного тестирования. Astra узнаёт пользователей и помнит историю общения с ними, — скоро эти возможности появятся в Gemini Live.

 Источник изображения: 9to5Google

Источник изображения: 9to5Google

Хассабис отметил, что перспективная модель Project Astra отличается, прежде всего, увеличенным количеством памяти. В частности, она запоминает ключевые детали из предыдущих разговоров для лучшего контекста и персонализации. Также имеется отдельная «10-минутная память» текущего диалога. Эти возможности, предположительно, скоро появятся в Gemini Live. Хассабис подчеркнул, что Google DeepMind «обучает свою модель ИИ под названием Gemini не просто показывать мир, но и совершать действия в нём, такие как бронирование билетов и покупки онлайн».

По мнению Хассабиса, реальный срок появления AGI — 5-10 лет, причём это будет «система, которая действительно понимает все вокруг вас очень тонким и глубоким образом и как бы встроена в вашу повседневную жизнь».

На вопрос, «работает ли Google DeepMind сегодня над системой, которая будет осознавать себя», Хассабис заявил, что теоретически это возможно, но он не воспринимает какую-либо из сегодняшних систем как осознающую себя. Он полагает, что «каждый должен принимать собственные решения, взаимодействуя с этими чат-ботами».

На вопрос, «является ли самосознание вашей целью» (при разработке ИИ), он ответил, что это может произойти неявно: «Эти системы могут обрести некоторое чувство самосознания. Это возможно. Я думаю, что для этих систем важно понимать вас, себя и других. И это, вероятно, начало чего-то вроде самосознания».

«Я думаю, есть две причины, по которым мы считаем друг друга сознательными. Одна из них заключается в том, что вы демонстрируете поведение сознательного существа, очень похожее на моё поведение. Но вторая причина в том, что вы работаете на одном и том же субстрате. Мы сделаны из одного и того же углеродного вещества с нашими мягкими мозгами. Очевидно, что машины работают на кремнии. Так что даже если они демонстрируют одинаковое поведение, и даже если они говорят одно и то же, это не обязательно означает, что это ощущение сознания, которое есть у нас, будет тем же самым, что будет у них», — пояснил Хассабис в заключение.

window-new
Soft
Hard
Тренды 🔥
Intel выпустила важные исправления безопасности для устранения уязвимостей в Core Ultra, Arc и серверных GPU 5 ч.
OpenAI станет одним из основных пользователей крупного ЦОД в ОАЭ 6 ч.
Microsoft отделила Teams от Office в попытке увернуться от штрафа в ЕС 11 ч.
Новая статья: «Приключения Капитана Блада» — ахой из прошлого. Рецензия 12 ч.
«Мы делаем всё возможное»: создатели Stellar Blade отреагировали на недоступность игры в 130 странах и развеяли опасения фанатов насчёт Denuvo 13 ч.
В ChatGPT появился ИИ-помощник программиста Codex 14 ч.
В Fortnite появилась ИИ-версия Дарта Вейдера с голосом Джеймса Эрла Джонса — с владыкой ситхов можно поговорить 14 ч.
«Мы не пытаемся стрясти с потребителя всё до последней копейки»: глава Take-Two объяснил, почему Mafia: The Old Country стоит $50 16 ч.
Warhammer 40,000: Speed Freeks скоро вырвется из раннего доступа Steam и станет платной — это боевая гонка про культ помешанных на скорости орков 17 ч.
Хакеры похитили данные клиентов Coinbase, подкупив техподдержку — это может стоить криптобирже до $400 млн 18 ч.