Опрос
|
реклама
Быстрый переход
Google представила Gemini Live — ИИ-ассистента с памятью, естественной речью и компьютерным зрением
14.05.2024 [22:12],
Андрей Созинов
Во вторник на конференции Google I/O 2024 была анонсирована новая возможность для ИИ-чат-бота Gemini — функция Gemini Live, которая позволяет пользователям вести «углубленные» голосовые диалоги с Gemini на своих смартфонах. Пользователи могут прерывать Gemini во время его реплик, чтобы задать уточняющие вопросы, и чат-бот будет адаптироваться к речи пользователя в режиме реального времени. Кроме того, Gemini может видеть и реагировать на окружение пользователя, используя фотографии или видео, снятые камерами смартфонов. Gemini Live — это в некотором роде соединение платформы компьютерного зрения Google Lens и виртуального помощника Google Assistant, и их дальнейшая эволюция. На первый взгляд Gemini Live не кажется кардинальным обновлением по сравнению с существующими технологиями. Но Google утверждает, что система использует новые методы генеративного ИИ, чтобы обеспечить превосходный, менее подверженный ошибкам анализ изображений, и сочетает эти методы с улучшенным речевым движком для более последовательного, эмоционально выразительного и реалистичного многооборотного диалога. Технические инновации, используемые в Gemini Live, частично связаны с проектом Project Astra, новой инициативой DeepMind по созданию приложений и «агентов» на базе ИИ с поддержкой «понимания» в реальном времени различных источников данных — текста, аудио и изображения. «Мы всегда хотели создать универсального агента, который будет полезен в повседневной жизни, — сказал на брифинге Демис Хассабис (Demis Hassabis), генеральный директор DeepMind. — Представьте себе агентов, которые могут видеть и слышать то, что мы делаем, лучше понимать контекст, в котором мы находимся, и быстро реагировать в разговоре, делая темп и качество взаимодействия гораздо более естественными». Gemini Live, который будет запущен только в конце этого года, сможет отвечать на вопросы о предметах, находящихся в поле зрения (или недавно попавших в поле зрения) камеры смартфона, например, в каком районе находится пользователь или как называется сломавшаяся деталь велосипеда. Либо пользователь сможет указать системе на часть компьютерного кода, а Live объяснит, за что она отвечает. А на вопрос о том, где могут находиться очки пользователя, Gemini Live скажет, где он видел их в последний раз. А как это облегчит поиск потерянного пульта от телевизора! Live также сможет стать своеобразным виртуальным наставником, помогая пользователям отрепетировать речь к мероприятию, обдумать идеи и так далее. Live может подсказать, какие навыки следует подчеркнуть на предстоящем собеседовании или стажировке, или дать совет по публичному выступлению. Способность Gemini Live «запоминать», что происходило недавно, стала возможной благодаря архитектуре модели, лежащей в ее основе — Gemini 1.5 Pro, а также, но в меньшей степени, других «специфических» генеративных моделей. У Gemini 1.5 Pro весьма ёмкое контекстное окно, а значит, она может принять и обработать большое количество данных — около часа видео — прежде чем подготовить ответ. В Google отметили, что Gemini Live будет помнить всё, что происходило в последние часы. Gemini Live напоминает генеративный ИИ, применяемый в очках Meta✴, которые аналогичным образом могут просматривать изображения, снятые камерой, и интерпретировать их практически в реальном времени. Судя по демонстрационным роликам, которые Google показала во время презентации, Live также очень похож на недавно обновленный ChatGPT от OpenAI. Ключевое различие между новым ChatGPT и Gemini Live заключается в том, что решение от Google не будет бесплатным. После запуска Live будет эксклюзивом для Gemini Advanced, более сложной версии Gemini, которая доступна подписчикам плана Google One AI Premium Plan, стоимостью 20 долларов в месяц. Возможно, в качестве отсылки к очкам Meta✴, в одном из демонстрационных роликов Google был показан человек в AR-очках, оснащенных приложением, похожим на Gemini Live. Правда, компания Google, желая избежать очередного провала в сфере умных очков, отказалась сообщить, появятся ли этот или подобный продукт с генеративным ИИ на рынке в ближайшем будущем. Google ответила на GPT-4o демонстрацией коммуникативных способностей Gemini — нейросеть ведёт диалог как человек
14.05.2024 [14:01],
Анжелла Марина
Вслед за презентацией модели GPT-4o от OpenAI, компания Google продемонстрировала коммуникативные способности нейросети Gemini на Pixel. Демонстрационное видео, показанное перед конференцией Google I/O, производит сильное впечатление. Gemini ведет разговор с пользователем и делает логические выводы без малейших задержек и ошибок. Как пишет Tom’s Guide, в демо Gemini отвечает на вопросы о происходящем на подготавливаемой сцене для мероприятия. Он правильно определяет, что это сцена для предстоящей конференции Google I/O, и дает краткое описание этого ежегодного события. Подобно недавней демонстрации ChatGPT, видео с Gemini впечатляет естественностью диалога. Кажется, будто за голосом стоит человек, а не искусственный интеллект. Обе модели демонстрируют огромный прогресс в разработке ИИ за последнее время.
Тем не менее, Google не раз критиковали за чрезмерно оптимистичное представление своих разработок в области ИИ. В прошлом некоторые анонсированные функции на практике оказались менее впечатляющими. Поэтому еще предстоит дополнительное тестирование, чтобы понять реальные возможности и ограничения системы. В то же время успехи Google и OpenAI вызывают опасения у экспертов и общественных деятелей. Особенно в контексте недавнего скандала с моделью LaMDA от Google, которая, по утверждению инженера этой компании, «обрела сознание». Хотя большинство ученых опровергают эту гипотезу, вопросы этики и безопасности подобных систем остаются открытыми. Например, ChatGPT от OpenAI уже продемонстрировал способность к предвзятости, токсичности и распространению дезинформации. А Gemini, вероятно, унаследует эти недостатки от GPT-4, учитывая общие принципы работы нейросетевых моделей. Помимо этого, появление ИИ, способного проходить тест Тьюринга и имитировать человеческое поведение, открывает дорогу для злоупотреблений. Например, использование таких систем для автоматического распространения фейковых новостей и социальной инженерии или внедрение в цифровые продукты «дружелюбных» ботов, манипулирующих пользователями в интересах компаний. Медицинский ИИ от Google превзошёл GPT-4 и даже живых докторов
06.05.2024 [14:50],
Владимир Мироненко
Google Research и исследовательская лаборатория Google в области искусственного интеллекта DeepMind сообщили подробности о семействе передовых больших языковых моделей Med-Gemini, разработанных для применения в сфере здравоохранения. ИИ-модели всё ещё находятся на стадии исследования, но авторы разработок утверждают, что Med-Gemini, основанные на модели Google Gemini, превосходят конкурирующие модели, такие как GPT-4 от OpenAI, обладают огромным потенциалом в клинической диагностике и превосходят отраслевые стандарты в 14 популярных профильных бенчмарках. В частности, в тесте MedQA (USMLE) модель Med-Gemini достигла точности 91,1 %, используя стратегию поиска, основанную на неопределённости, превзойдя медицинскую LLM Med-PaLM 2 компании Google на 4,5 %. Набор моделей также превзошёл людей в обобщении медицинских текстов и составлении рекомендаций, причём врачи в половине случаев оценивали ответы Med-Gemini-M 1.0 как хорошие или даже лучше, чем ответы экспертов. Med-Gemini — это семейство больших мультимодальных моделей (LMM), каждая из которых имеет своё предназначение. В отличие от больших языковых моделей, которые «демонстрируют неоптимальные клинические рассуждения в условиях неопределённости», страдают галлюцинациями и предвзятостью, Med-Gemini дают «фактически более точные, надёжные и детальные результаты для сложных задач клинического обоснования», чем их конкуренты, включая GPT-4, утверждает Google. По семи мультимодальным бенчмаркам, включая проверку по изображениям New England Journal of Medicine (NEJM), модель Med-Gemini показала гораздо лучшие результаты, чем GPT-4. Чтобы проверить способность Med-Gemini понимать и рассуждать на основе длинной контекстной медицинской информации, исследователи с успехом выполнили с её помощью так называемую задачу поиска «иголки в стоге сена», используя большую общедоступную базу данных Medical Information Mart for Intensive Care (MIMIC-III), содержащую обезличенные данные о состоянии здоровья пациентов, поступивших в отделение интенсивной терапии. Поддержка Med-Gemini эффективного поиска в базе данных электронных медицинских карт Electronic Health Record (EHR) позволит «значительно снизить когнитивную нагрузку и расширить возможности врачей за счёт эффективного извлечения и анализа важной информации из огромных объёмов данных пациентов», утверждает Google. По словам исследователей, Med-Gemini также показывают хорошие результаты в медицинских тестах, медицинских знаниях, клинических рассуждениях, геномике, медицинской визуализации, медицинских записях и видео. Вместе с тем Google заявила, что её модели нуждаются в большей доработке и специализации, прежде чем их можно будет использовать в здравоохранении. ИИ-приложение Google Gemini стало совместимо с Android 10 и Android 11
26.04.2024 [11:14],
Владимир Фетисов
В начале года Google выпустила Android-приложение Gemini, позволяющее взаимодействовать с одноимённой нейросетью компании. На тот момент программный продукт мог использоваться на устройствах с Android 12 и более поздними версиями операционной системы. Теперь же разработчики расширили поддержку приложения Gemini до более старых версий платформы — Android 10 и Android 11. На момент запуска приложения Gemini ранее в этом году Google дала понять, что воспользоваться сервисом смогут только владельцы устройств с Android 12 и более поздними версиями ОС. Выпущенные с тех пор обновления для приложения также всегда требовали наличия Android 12. Вероятно, решение о расширении поддержки связано с желанием Google сделать Gemini более массовым продуктом. Последняя версия Android-приложения Gemini 1.0.626720042 получила поддержку устройств с Android 10 и более поздними версиями ОС. Установить его на смартфон можно с помощью магазина цифрового контента Google Play. Вместе с этим Google продолжает развивать приложение Gemini. Не так давно стало известно, что в скором времени сервис сможет давать ответы на пользовательские запросы в режиме онлайн. В настоящее время ответы отображаются с некоторой задержкой. ИИ-приложение Google Gemini сможет отвечать на вопросы в реальном времени
23.04.2024 [14:54],
Владимир Фетисов
Некоторое время назад Google выпустила Android-приложение Gemini, позволяющее взаимодействовать с одноимённой нейросетью компании с помощью мобильных устройств. Теперь же стало известно, что в скором времени продукт получит существенное улучшение, и пользователи сервиса смогут получать ответы на свои запросы в режиме реального времени. ИИ-бот Gemini стал ответом Google на появление ChatGPT от OpenAI. На данный момент Gemini всё ещё уступает ChatGPT во многих аспектах, но разработчики продолжают совершенствовать продукт, который в скором времени также станет доступен в почтовом сервисе Gmail и десктопной версии браузера Chrome. Исследователь приложений, известный под ником AssembleDebug, сообщил, что Google планирует добавить в приложение Gemini функцию «ответов в режиме реального времени». Очевидно, что речь идёт об инструменте генерации ответов на задаваемые пользователем вопросы в режиме онлайн. Исследователь также смог активировать новую опцию в меню настроек Gemini. Это может указывать на то, что функция близка к появлению в стабильной версии приложения. На данный момент Android-приложение Gemini даёт ответы на пользовательские запросы с некоторой задержкой. В это же время веб-версия алгоритма успешно справляется с тем, чтобы выдавать ответы онлайн. Включение этой функции в приложение нейросети для Android позволит пользователям быстрее получать ответы на интересующие их вопросы. Это также сделает процесс общения с чат-ботом более естественным. Любопытно, что функция ответов в режиме онлайн не единственная, которую AssembleDebug обнаружил в коде бета-версии приложения. Он также нашёл опцию «Использовать местоположение вашего устройства», которая позволит пользователям контролировать доступ Gemini к данным о местоположении. Когда упомянутые нововведения появятся в стабильной версии приложения, пока неизвестно. Google представила Vids — продвинутый ИИ для создания и редактирования видео
09.04.2024 [18:12],
Владимир Чижевский
На конференции в Лас-Вегасе компания Google представила Vids — инструмент для создания видео с использованием искусственного интеллекта. Идея продукта заключается в том, чтобы создавать и редактировать файлы с другими людьми, подобно тому, как это реализовано в других приложениях Google Workspace, например, «Документах» и «Таблицах». «Я хочу представить нечто по-настоящему новое. В Google Cloud Next появился Vids — совершенно новый инструмент для создания видео при помощи искусственного интеллекта, — сказала вице-президент и генеральный директор Google Workspace Апарна Паппу (Aparna Pappu). — Это универсальный помощник по редактированию и созданию видеороликов. Мы поможем превратить ваши материалы — рекламные тексты, изображения и так далее — в убедительное видео. Вам не придётся пересылать друг другу файлы по электронной почте. Вы можете работать над сюжетом вместе, используя те же средства контроля и безопасности, что и в других инструментах Workspace». Как и с другими ИИ-инструментами, работа в Google Vids начинается с подсказок, описывающих суть будущего видеролика. Затем можно добавить файлы с «Диска» или стоковые материалы, а затем ИИ представит раскадровку будущего видео на основе текстового описания. Следующим шагом можно изменить порядок отдельных частей видеоролика, добавить переходы, вставить звуковую дорожку и так далее. Коллеги могут комментировать внесённые правки или добавлять свои. Сейчас инструмент находится в закрытом тестировании. В июне к нему присоединятся дополнительные тестировщики, а затем Vids войдёт в подписку на Gemini для Google Workspace. Нейросеть Google Gemini 1.5 Pro обрела слух
09.04.2024 [16:45],
Павел Котов
С очередным обновлением большая языковая модель Google Gemini 1.5 Pro получила «уши»: в качестве входных данных она теперь воспринимает загружаемые аудиофайлы. Теперь ИИ может подготовить сводку пресс-конференции без её текстовой расшифровки. Новые функции добавились и в генератор изображений Imagen 2. В ходе мероприятия Google Next компания объявила, что Gemini 1.5 Pro станет доступной для общественности через облачную платформу Vertex AI для разработки приложений искусственного интеллекта. Сейчас большинство пользователей может работать с моделями Gemini через одноимённый чат-бот. Самая мощная из них, Gemini Ultra, доступна с платным чат-ботом Gemini Advanced — она поддерживает длинные запросы, но уступает Gemini 1.5 Pro в скорости работы. Новые возможности также получил генератор изображений Imagen 2 — теперь он может добавлять элементы на готовые изображения или удалять их. На всех картинках, которые создаёт Imagen 2, теперь ставится цифровой водяной знак SynthID, который указывает на их происхождение при проверке специальным инструментом, но остаётся невидимым для человеческого глаза. Google добавила, что изучает способы согласовывать ответы ИИ с выдачей поисковой системы, чтобы предоставляемая им информация была актуальной. Это не всегда возможно для больших языковых моделей, и иногда преднамеренно: компания, например, не позволяет Gemini отвечать на вопросы, связанные с выборами в США. Нейросеть Google Gemini Pro поможет создавать Android-приложения — ИИ встроили в Android Studio
09.04.2024 [15:00],
Дмитрий Федоров
Google обновила интегрированную среду разработки (IDE) Android Studio, добавив в неё новейшего ИИ-помощника для генерации кода на основе ИИ-модели Gemini Pro, что обещает разработчикам более высокую эффективность и новые возможности в процессе создания приложений. Android Studio выступает не просто как текстовый редактор для написания кода, но и предлагает разработчикам целый набор инструментов, включая эмулятор, позволяющий запускать виртуальные Android-смартфоны на машине с Windows и использовать их для тестирования и отладки приложений. В мае прошлого года Google внедрила в свою IDE-среду генеративный искусственный интеллект Studio Bot, созданный на базе большой языковой модели (LLM) PaLM 2, которую поисковый гигант анонсировал в том же месяце. Через шесть месяцев после дебюта PaLM 2 Google представила линейку флагманских LLM — Gemini, в которую вошли три модели с разным набором функций и аппаратными требованиями. Обновлённый чат-бот в Android Studio работает на Gemini 1.0 Pro — средней ИИ-модели серии, оптимизированной для сочетания высокого качества ответов и эффективности использования аппаратных ресурсов. Google также анонсировала её обновление до версии Gemini 1.5 Pro, которая, согласно внутренним тестам компании, превосходит свою предшественницу по 87 % бенчмарков, успешно обрабатывая задачи с более чем 100 000 строками кода. Сандхия Мохан (Sandhya Mohan), менеджер по продукту Android Studio, сообщила, что использование Studio Bot в канале Canary уже позволяло ощутить полезность и мощь этой технологии. Теперь же, с переходом чат-бота на Gemini Pro, пользователи увидят существенное улучшение качества ответов. Чат-бот способен отвечать на общие вопросы об Android, например, о том, как интегрировать приложение с функцией отслеживания местоположения в операционной системе. Также он отвечает на вопросы по конкретным проектам. Например, разработчик может попросить совета, как удалить дубликаты записей из набора данных, который приложение использует для работы некоторых функций. Возможности Gemini Pro в Android Studio охватывают даже более сложные задачи. По данным Google, новый ИИ-помощник умеет переписывать код на разных языках программирования, генерировать целые разделы интерфейса приложения и составлять документацию для нового кода, объясняя его функциональность и принципы работы. Чтобы активировать Gemini, необходимо войти в систему и включить функцию в настройках. Большинство возможностей доступны без отправки контекста кода, при этом ответы чат-бота базируются на истории общения, предоставляя пользователям контроль над конфиденциальностью данных. Под давлением пользователей Google преодолела аппаратные ограничения для внедрения ИИ в Pixel 8
28.03.2024 [19:05],
Сергей Сурабекянц
В декабре Google представила большую языковую модель Gemini Nano, оптимизированную для мобильных устройств. По словам компании, ИИ станет неотъемлемой частью ОС Android, но в актуальной линейке устройств ИИ-функции получил лишь Pixel 8 Pro. Младший Pixel 8, основанный на том же чипсете Tensor G3, остался без встроенного ИИ из-за «аппаратных ограничений». После волны недовольства пользователей Google была вынуждена добавить в телефон ИИ-функции в следующем обновлении. Pixel 8 получит поддержку Gemini Nano в следующем выпуске обновлений Pixel сначала в качестве предварительной версии для разработчиков, обеспечивая возможность создания сводок на устройстве и интеллектуальных ответов в Gboard — так же, как в Pixel 8 Pro. Samsung также начала внедрять функции искусственного интеллекта в свои флагманские телефоны предыдущего поколения. Ранее в этом году компания заявила, что это расширение функций будет использовать искусственный интеллект как на устройстве, так и за его пределами. Похоже, что в скором будущем телефон без встроенного ИИ будет купить сложнее, чем сейчас автомобиль с аналоговыми приборами и физическими, а не сенсорными, органами управления. У некоторых пользователей «Google Сообщений» появился чат с Gemini
27.03.2024 [16:02],
Павел Котов
Google открыла для некоторых участников программы бета-тестирования доступ к чату с большой языковой моделью ИИ Gemini в приложении «Google Сообщения». Для работы с этой функцией пользователь и его устройство должны отвечать ряду требований. Участники программы тестирования могут переписываться с ИИ, который готов составлять для них тексты сообщений, обсуждать идеи, планировать мероприятия или просто общаться. Чтобы получить доступ к этой функции, необходимо не только быть участником программы бета-тестирования, но и выполнить ряд требований:
Пользователи, выбранные для тестирования Gemini, увидят соответствующий чат в списке сообщений или соответствующую опцию при нажатии на кнопку «Начать чат». При первом использовании этой функции приложение покажет инструкции с пояснениями, как она работает. Когда все настройки установлены, появляется возможность прямого общения с Gemini аналогично чату на сайте ИИ-помощника. Переписка с Gemini сохраняется в течение 72 часов, но есть возможность очистить её вручную или удалить отдельные запросы в соответствующем разделе настроек учётной записи. Google открыла доступ к мощной нейросети Gemini 1.5 Pro
21.03.2024 [22:01],
Владимир Мироненко
Google открыла доступ к бета-версии нейросети Gemini 1.5 Pro для всех пользователей. Об этом сообщил в социальной сети X ведущий научный сотрудник Google DeepMind Джефф Дин (Jeff Dean). «Сначала мы будем постепенно подключать людей к API, а затем наращивать его. Тем временем разработчики могут опробовать Gemini 1.5 Pro в пользовательском интерфейсе AI Studio прямо сейчас», — рассказал Дин. Gemini 1.5 Pro работает со стандартным контекстным окном на 128 000 токенов, хотя, как сообщается, обрабатываемый объём информации можно увеличить до 1 млн токенов. За один раз Gemini 1.5 Pro способна обработать до часа видео, 11 часов аудио, кодовые базы с более чем 30 000 строк кода или более 700 000 слов. В ходе исследования Google также успешно протестировала обработку до 10 млн токенов. Gemini 1.5, использующая архитектуру Transformer и MoE, сочетает в себе сильные стороны обеих моделей. Gemini 1.5 Pro отлично справляется с различными задачами, такими как анализ исторических документов, например, в расшифровке стенограммы миссии «Аполлон-11». Нейросеть способна не только анализировать большие блоки данных, но и быстро находить определённый фрагмент текста внутри них. Также Gemini 1.5 эффективно обрабатывает большие «куски» кода. В интерфейсе AI Studio нейросеть сейчас доступна с ограничением в 20 запросов в день. В тесте Needle In A Haystack (NIAH) нейросеть достигает 99 % успеха в обнаружении конкретных фактов в длинных текстах. А способность учиться в конкретных условиях, продемонстрированная в бенчмарке Machine Translation from One Book (MTOB), делает Gemini 1.5 одним из лидеров в способности к адаптивному обучению. Слухи о появлении нейросети Google Gemini в будущих iPhone привели к росту акций Alphabet и Apple
18.03.2024 [19:12],
Сергей Сурабекянц
Сегодня информационное агентство Bloomberg сообщило, что Alphabet и Apple «ведут активные переговоры» об использовании некоторых функций искусственного интеллекта Google Gemini в следующем поколении iPhone, которое будет представлено в 2024 году. После этого сообщения акции Alphabet и Apple подорожали более чем на 7 % и 2 % соответственно. Генеральный директор Apple Тим Кук (Tim Cook) во время ежегодного собрания акционеров компании в феврале заявил, что Apple «инвестирует значительные средства» в искусственный интеллект. «Позже в этом году я с нетерпением жду возможности поделиться с вами тем, как мы откроем новые горизонты в области генеративного искусственного интеллекта, ещё одной технологии, которая, по нашему мнению, может переопределить будущее», — сказал Кук. По данным источников Bloomberg, Apple также недавно провела переговоры с OpenAI, на которых рассмотрела возможность использования её моделей ИИ. Однако утверждается, что «обе стороны ещё не определились с условиями или брендом соглашения об ИИ, а также не определились с тем, как оно будет реализовано». Следующее большое обновление Apple для iPhone, iOS 18, ожидается во время Всемирной конференции разработчиков. Именно тогда компания сможет больше рассказать о своих планах по внедрению генеративного искусственного интеллекта и последних новинках программного обеспечения для iPhone, которые потребители смогут увидеть осенью. Другие информационные агентства не смогли независимо проверить сообщение Bloomberg. Apple отказалась от комментариев, Alphabet также не ответила на вопросы журналистов. Apple проиграла гонку ИИ: будущие iPhone получат нейросеть Google Gemini
18.03.2024 [12:20],
Алексей Разин
Обещания главы Apple Тима Кука (Tim Cook) сделать до конца года важное заявление относительно систем искусственного интеллекта наверняка заинтриговали многих, но мало кто мог предположить, что компания пойдёт на сотрудничество с конкурентами. По информации Bloomberg, платформа Google Gemini может лечь в основу некоторых новых функций iPhone, которые должны быть представлены этой осенью. Источники Bloomberg сообщили, что Google и Apple ведут активные переговоры на тему лицензирования платформы искусственного интеллекта Gemini для её использования устройствами второй из компаний. Подобные переговоры недавно Apple вела и с OpenAI, рассчитывая использовать разработки этого успешного стартапа в сфере искусственного интеллекта. Если же вернуться к Google, то сотрудничество поискового гиганта с Apple в иной форме уже длится многие годы, ведь первая из компаний платит второй за право использования своего поискового движка по умолчанию в браузере Safari, который устанавливается на многие устройства Apple. Относительно перспективы использования Gemini ещё нет каких-то чётких договорённостей. Безусловно, Apple готовит для своих устройств специфические функции искусственного интеллекта собственной разработки. Тем более, что собственные чат-боты и прочие актуальные разработки Apple по своей производительности и точности уступают сторонним решениям, как отмечают осведомлённые источники. В частности, с начала прошлого года Apple тестирует собственную большую языковую модель под кодовым названием Ajax. Некоторые сотрудники также опробовали базовый чат-бот Apple GPT. На фоне этого Apple нужна платформа, работающая в облаке, и в этой сфере сотрудничество с Google как раз имеет смысл. Для Google сделка такого плана тоже является выгодной, поскольку в мире сейчас эксплуатируется более 2 млрд устройств Apple. Конкурирующая Samsung тоже не стала «изобретать велосипед», и в январе объявила об использовании Google Gemini в своих смартфонах нового поколения. Единственное, что может омрачать возможное сотрудничество Apple и Google в этой сфере — это внимание регуляторов. По крайней мере, Министерство юстиции США уже расследует факт сотрудничества Apple и Google в области использования поискового движка. Претензии к Apple в этой сфере есть и у европейских чиновников. Скорее всего, в случае достижения определённых новых договорённостей с Google, компания Apple вряд ли сделает соответствующие заявления ранее июня, когда она будет проводить свою конференцию WWDC 2024 для разработчиков. AI.com теперь принадлежит Google и перенаправляет к ИИ-чат-боту Gemini
16.03.2024 [18:13],
Владимир Чижевский
Компания Google позаботилась об удобстве пользователей — домен AI.com отныне зарегистрирован на Google и перенаправляет на сайт ИИ-чат-бота Google Gemini. Компания приобрела короткий, интуитивный и запоминающийся домен, ранее перенаправлявший к ChatGPT. Теперь он зарегистрирован в Squarespace Domains и оплачен до 2031 года, а в контактах указан адрес электронной почты contact-registrant@google.com, явно указывающий на владельца. Ранее воспользоваться Google Gemini можно было лишь перейдя на сайт gemini.google.com, однако вводить этот адрес вручную было не слишком удобно. Нельзя сбрасывать со счетов и возможную пользу для поисковой оптимизации, а также возможность привести к Gemini пользователей, ищущих любой ИИ, а не конкретно от Google. Pixel 8 не получит поддержку Gemini Nano из-за аппаратных ограничений
08.03.2024 [14:28],
Владимир Мироненко
Хотя смартфон Pixel 8 Pro уже получил поддержку нейросети Gemini Nano, для модели Pixel 8 она будет недоступна, сообщила Google в ходе мероприятия Android Show. По словам представителя команды генеративного ИИ в Android компании Google, Gemini Nano не появится в Pixel 8 из-за «некоторых аппаратных ограничений». Вместе с тем он сообщил, что Google «работает над тем, чтобы представить Nano на большем количестве устройств», и что в ближайшем будущем её поддержку получат ещё больше high-end устройств. С точки зрения спецификаций, разница между Pixel 8 и 8 Pro заключается в большем объёме оперативной памяти у старшей модели — 12 против 8 Гбайт. По всей видимости Pixel 8 всё сможет работать с Gemini Nano на техническом уровне, поскольку Galaxy S24 с 8 Гбайт оперативной памяти имеет функцию Magic Compose на её базе. Тем не менее, использование ИИ сразу для нескольких функций может отразиться на работе других приложений, поэтому Google не рекомендует к этому прибегать. В Pixel 8 Pro нейросеть Gemini Nano обеспечивает работу функции «Сводка» (Summarize) в приложении Pixel Recorder, а также Gboard Smart Reply в WhatsApp, Line и KakaoTalk. Если эта функция действительно востребована, как утверждает компания, и Gemini Nano действительно не появится на устаревших моделях смартфонов, то компании необходимо обеспечить её поддержку с помощью облачных сервисов. |
✴ Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»; |