реклама
Теги → google cloud platform

Google представила Axion — свой первый Arm-процессор

Компания Google анонсировала свой первый Arm-процессор — он получил название Axion и предназначается для использования в серверных системах для ЦОД. В своём пресс-релизе Google заявляет, что Axion обеспечивает лидирующие в отрасли показатели производительности и энергоэффективности.

 Источник изображения: Google Cloud

Источник изображения: Google Cloud

Подробного описания процессора компания не приводит. Известно, что в основе Axion используются ядра Arm Neoverse V2 с архитектурой ArmV9 и привычным для неё набором инструкций. Также в составе чипа применяются специализированные микроконтроллеры Titanium, на которые возлагаются задачи, связанные с сетевыми подключениями и безопасностью. Кроме того, Titanium перекладывает операции обработки ввода-вывода хранилища на Hyperdisk, службы сетевого блочного хранения данных в Google Cloud.

По словам Google, Axion обеспечивает на 30 % более высокую производительность по сравнению с самыми быстрыми инструментами общего назначения на базе Arm в облаке, а также до 50 % больше производительности и до 60 % больше энергоэффективности по сравнению с сопоставимыми решениями на базе x86-совместимых процессоров. Наглядные примеры сравнений Google не приводит.

В компании отмечают, что уже начали переводить свои сервисы BigTable, Spanner, BigQuery, Blobstore, Pub/Sub, Google Earth Engine и YouTube Ads на системы с процессорами Axion.

В пресс-релизе Google Cloud также указано, что Axion построен на открытой основе, поэтому клиенты смогут переносить свои существующие рабочие нагрузки Arm в Google Cloud на новую платформу без каких-либо существенных изменений, используя программу SystemReady Virtual Environment (VE). Axion можно будет использовать во многих облачных сервисах Google, включая Google Compute Engine, Google Kubernetes Engine, Dataproc, Dataflow, Cloud Batch и других.

Google отразила самую мощную DDoS-атаку в истории — почти 400 млн запросов в секунду

Google отчиталась об успешно отражённой в минувшем августе самой мощной DDoS-атаке в истории — её интенсивность составила 398 млн запросов в секунду, что в 7,5 раза мощнее антирекорда, установленного в прошлом году. В рамках вредоносной кампании были также отмечены новые методы взлома сайтов и сервисов.

 Источник изображений: cloud.google.com

Источник изображений: cloud.google.com

В новой серии DDoS-атак использовалась новая техника Rapid Reset, основанная на мультиплексировании потоков — важнейшей функции протокола HTTP/2. Интенсивность атаки достигала значения в 398 млн запросов в секунду, тогда как прошлогодний рекорд составлял «всего» 46 млн запросов в секунду. Для сравнения, в течение этой двухминутной атаки генерировалось больше запросов, чем было прочитано статей «Википедии» за весь сентябрь 2023 года.

Последняя волна атак началась в конце августа и продолжается по сей день — она нацелена на крупнейших поставщиков инфраструктурных ресурсов, включая сервисы Google, сеть Google Cloud и клиентов Google. Компании удалось сохранить работоспособность сервисов за счёт глобальной инфраструктуры распределения нагрузки. Google скоординировала усилия с отраслевыми партнёрами, что помогло установить механизмы атак и совместными усилиями разработать меры по смягчению последствий.

В ходе отражения атаки была выявлена уязвимость протокола HTTP/2, которой присвоили номер CVE-2023-44487 с рейтингом 7,5 балла из 10 — эта уязвимость помогла злоумышленникам реализовать технику Rapid Reset. Чтобы ограничить влияние этого вектора атаки, Google рекомендует администраторам серверов с поддержкой протокола HTTP/2 убедиться, что были установлены патчи, закрывающие уязвимость CVE-2023-44487.

Google Cloud представила пятое поколение тензорных процессоров для обучения ИИ

На очередной ежегодной конференции Cloud Next компания Google Cloud объявила о выпуске пятого поколения своих тензорных процессоров (TPU) для обучения нейросетей — TPU v5e. Google анонсировала предыдущую, четвертую версию этих процессоров в 2021 году, но разработчикам они стали доступны только в 2022 году.

 Источник изображения: Frederic Lardinois / TechCrunch

Источник изображения: Frederic Lardinois / TechCrunch

Компания отмечает, что при создании новой версии чипа особое внимание уделялось его эффективности. По сравнению с предыдущим поколением, новый процессор обещает двукратное улучшение производительности в пересчёте на доллар для обучения больших языковых моделей (LLM) и генеративных нейросетей, а также 2,5-кратное улучшение производительности по тому же критерию для инференс-систем.

«Это самый экономичный и доступный облачный TPU на сегодняшний день», — заявил на пресс-конференции перед сегодняшним анонсом Марк Ломейер (Mark Lohmeyer), вице-президент и генеральный директор по вычислительной и ML-инфраструктуре Google Cloud.

 Источник изображения: Google

Источник изображения: Google

В то же время он подчеркнул, что компания не экономила на технических характеристиках TPU v5e в угоду рентабельности. Кластеры могут включать до 256 чипов TPU v5e, объединённых высокоскоростным интерконнектом с совокупной пропускной способностью более 400 Тбит/с. Производительность такой платформы составляет 100 Попс (Петаопс) в INT8-вычислениях.

«Мы предоставляем нашим клиентам возможность легко масштабировать свои модели искусственного интеллекта за пределы физических границ одного модуля TPU или одного кластера TPU. Другими словами, одна большая рабочая нагрузка искусственного интеллекта теперь может распределяться на несколько физических кластеров TPU, масштабируясь буквально до десятков тысяч чипов. При этом работа будет выполняться экономически эффективно. В результате, используя облачные графические процессоры и облачные TPU, мы действительно предоставляем нашим клиентам большой выбор, гибкость и дополнительные возможности для удовлетворения потребностей широкого набора рабочих задач, связанных с ИИ, которые, как мы видим, продолжают множиться», — добавил он.

В дополнение к анонсу нового поколения TPU компания Google также объявила, что в следующем месяце сделает общедоступными для разработчиков виртуальные кластеры A3, оснащённые специализированными графическими процессорами Nvidia H100.

Социальная сеть Twitter вновь начала платить Google Cloud за сервисы, восстанавливая испорченные Маском отношения

В социальной сети Twitter приняли решение возобновить оплату сервисов Google Cloud. Компания пытается вновь наладить отношения, испорченные после прихода к власти в компании Илона Маска (Elon Musk), после покупки бизнеса переставшего платить как Google, так и другим компаниям.

 Источник изображения: freestocks/unsplash.com

Источник изображения: freestocks/unsplash.com

По данным источников Bloomberg, новая глава Twitter Линда Яккарино (Linda Yaccarino) помогла восстановить отношения с провайдером облачных сервисов. Известно, что дополнительно обсуждалось и более широкое партнёрство — в сфере рекламы и использования Twitter API. Примечательно, что, по данным источника, новый формат взаимодействия одобрил и сам Маск. Ещё один информатор подтвердил, что на сегодня между компаниями отсутствуют требующие разрешения разногласия. Впрочем, в самих Twitter и Google слухи комментировать не стали.

С тех пор как Илон Маск приобрёл Twitter минувшей осенью, социальная сеть потребовала от многих поставщиков услуг значительных скидок, а одной из новых целей называлось сокращение расходов на облачные сервисы.

Известно, что Twitter платила Google Cloud $200-300 млн ежегодно — по данным Bloomberg, сервисы IT-гиганта использовались социальной сетью в первую очередь для анализа данных и машинного обучения. Ранее сообщалось, что Twitter полностью отказалась платить Google.

По имеющимся сведениям, первое время руководство Google Cloud пыталось связаться с Маском, чтобы обсудить неоплаченные счета, пытаясь найти контакты с миллиардером даже через топ-менеджеров SpaceX, тоже ведущей с Google дела. В распоряжении Google имелись рычаги давления для того, чтобы заставить Twitter платить, включая, конечно, ограничение сервисов облачной платформы.

Известно, что компании объявили о сотрудничестве ещё в 2018 году и в своё время Twitter даже была важнейшим клиентом Google Cloud, но с тех пор облачный сервис расширил свою клиентскую базу и уже не так зависит от сотрудничества с социальной сетью.

Google добавила в сервисы кибербезопасности ИИ на большой языковой модели Sec-PaLM

Google анонсировала пакет кибербезопасности Cloud Security AI Workbench, основанный на специализированной большой языковой модели (LLM) для обеспечения безопасности Sec-PaLM. По словам компании, Sec-PaLM «настроена для сценариев использования в сфере безопасности», включая анализ уязвимостей программного обеспечения, вредоносного софта, индикаторов угроз и поведенческих профилей субъектов угроз.

 Источник изображения: Google

Источник изображения: Google

Пакет Cloud Security AI Workbench имеет ряд новых инструментов на базе ИИ, таких как Mandiant Threat Intelligence AI, который будет использовать Sec-PaLM для поиска, обобщения и устранения угроз безопасности. Сервис VirusTotal, выполняющий анализ подозрительных файлов и ссылок на наличие вирусов и вредоносных программ, будет использовать Sec-PaLM, чтобы помочь подписчикам анализировать и объяснять поведение потенциально вредоносных скриптов, а также более точно определять, какие скрипты на самом деле представляют угрозу.

Поскольку Security AI Workbench построен на инфраструктуре Vertex AI Google Cloud, клиенты смогут контролировать безопасность данных с помощью возможностей корпоративного уровня, включая изоляцию и защиту данных. Первым партнёром, использующим Security AI Workbench, станет Accenture.

Sec-PaLM также окажет помощь клиентам Chronicle Security Operations в выявлении первоначальных заражений, определении приоритетов воздействия и сдерживания угроз. Тем временем пользователи Google Security Command Center AI получат «вразумительные» объяснения подверженности атакам, рекомендации по смягчению последствий заражения, перечень рисков для безопасности и обеспечения конфиденциальности.

Компания подчеркнула, что запуск Cloud Security AI Workbench никак не связан с ажиотажем вокруг генеративного ИИ, поскольку «Sec-PaLM основана на многолетних фундаментальных исследованиях ИИ, проведённых Google и DeepMind, а также на большом опыте команд по безопасности».

Как отметил ресурс TechCrunch, пока неясно, насколько хорошо Sec-PaLM работает на практике». «Конечно, рекомендуемые меры по смягчению последствий и перечень рисков звучат дельно, но стали ли эти предложения лучше и точнее, потому что их создала модель ИИ?» — задаётся вопросом TechCrunch.

Google представила нейросеть Med-PaLM 2 для помощи медработникам в постановке диагноза

Google представила на ежегодном мероприятии The Check Up, посвящённом вопросам здравоохранения, нейросетевую модель Med-PaLM 2, которая может оказать помощь в работе врачей. Подробности об этом сообщил ресурс siliconangle.com.

 Источник изображения: Google Cloud

Источник изображения: Google Cloud

Компания оценила точность выводов Med-PaLM 2 с помощью задания с рядом вопросов, как на экзамене на получение медицинской лицензии в США. По данным Google, ИИ-модель набрала 85 % баллов, что на 18 % выше, чем у нейронной сети Med-PaLM предыдущего поколения. Компания утверждает, что по производительности Med-PaLM 2 «намного превосходит» аналогичные ИИ-модели других разработчиков.

Google Cloud планирует предоставить в ближайшие недели доступ к Med-PaLM 2 ограниченному кругу клиентов с целью изучения возможностей применения ИИ-модели в области медицины. Google намерена «понять, как Med-PaLM 2 можно использовать для проведения насыщенных, информативных дискуссий, получения ответов на сложные медицинские вопросы и поиска информации в неструктурированных медицинских текстах», сообщается в блоге Google Cloud.

Med-PaLM 2 — одна из нескольких ИИ-моделей, созданных Google для сферы здравоохранения. Компания сообщила в ходе мероприятия о заключении новых соглашений о сотрудничестве с целью использования технологий ИИ для нужд медицины. В частности, было объявлено о партнёрстве со структурой некоммерческой медицинской организации Right to Care с целью сделать скрининг на туберкулёз с помощью ИИ широкодоступным в странах Африки к югу от Сахары.

Google Cloud также анонсировала в ходе мероприятия программный пакет Claims Acceleration Suite с поддержкой ИИ, призванный сократить объём административной работы в организациях здравоохранения.

Google предоставила разработчикам AR-приложений инструменты, которые использовала в своих иммерсивных картах

Подразделение Google Cloud объявило о выходе инструмента Immersive Stream for XR, адресованного разработчикам приложений смешанной реальности — он поддерживает контент, созданный в Unreal Engine 5 и предлагает обработку изображения облачными графическими процессорами.

 Источник изображения: cloud.google.com

Источник изображения: cloud.google.com

Эта технология используется в режиме иммерсивного просмотра в Картах Google — трёхмерные модели городов, на которые накладывается дополнительная информация, например, дорожные заторы или заведения общепита. Разработчики приложений смешанной реальности смогут использовать Immersive Stream for XR, например, для размещения виртуальной мебели в реальных помещениях или виртуального осмотра машины перед покупкой.

Впервые технология была анонсирована ещё на конференции Google I/O в 2022 году, теперь же компания уточнила, что она поддерживает работу с контентом, созданным в Unreal Engine 5. Этот движок крайне популярен в разработке игр, хотя он активно применяется и при создании неигровых приложений.

Некоторые проекты Google в областях смешанной и виртуальной реальности могут быть на какое-то время приостановлены: недавно стало известно, что ответственный за данное направление вице-президент компании Клэй Бавор (Clay Bavor) в марте освободит свою должность ради собственного стартапа. Его обязанности распределят между собой другие топ-менеджеры Google.

Google объявила о сотрудничестве с ИИ-стартапом Anthropic — разработчиком потенциального конкурента ChatGPT

Google Cloud, облачное дочернее предприятие Google, и стартап Anthropic, специализирующийся на разработке решений в области искусственного интеллекта, объявили о партнёрстве. Согласно соглашению о сотрудничестве, Anthropic выбрал Google Cloud в качестве предпочтительного поставщика облачных услуг, обеспечивающих ему вычислительную мощность, необходимую для создания надёжных и заслуживающих доверия систем ИИ.

 Источник изображения: Pixabay

Источник изображения: Pixabay

В пресс-релизе указано, что сервис Google Cloud намерен создать крупномасштабные кластеры TPU и GPU следующего поколения, которые Anthropic будет использовать для обучения и развёртывания систем ИИ.

Как сообщает Financial Times со ссылкой на собственные источники, в конце 2022 года Google инвестировала в стартап около $300 млн, о чём никаких объявлений не поступало. В обмен на инвестиции Google получила 10-процентную долю в стартапе, который вдобавок обязался приобрести ресурсы облачных вычислений у поисковой компании.

Томас Куриан (Thomas Kurian), гендиректор Google Cloud, отметил, что ИИ превратился из предмета академических исследований в один из крупнейших двигателей технологических изменений, создавая новые возможности для роста и улучшения услуг во всех отраслях. Он сообщил, что Google Cloud предоставляет открытую инфраструктуру для нового поколения стартапов в области ИИ, и партнёрство с Anthropic — отличный пример того, как облачный сервис помогает компаниям использовать возможности ИИ.

И OpenAI, и Anthropic занимаются разработкой генеративного ИИ, способного отвечать на вопросы, писать доклады, прозу и сценарии фильмов за считанные секунды. Сообщается, что Anthropic разрабатывает потенциального конкурента ChatGPT — собственного чат-бота общего назначения Claude (Клод). Однако неясно, планирует ли Google интегрировать Claude в свои сервисы подобно тому, как делает Microsoft с ChatGPT. Дело в том, что у Google уже есть собственные наработки в области языковых систем ИИ, и, как полагает Financial Times, сделка с Anthropic является для Google просто продолжением её бизнеса в области облачных вычислений.

Что также представляет интерес, Anthropic был зарегистрирован в 2021 году Дарио Амодеи (Dario Amodei), бывшим вице-президентом по исследованиям OpenAI, разработчика нашумевшего ИИ-бота ChatGPT. Амодеи взял к себе в компанию ряд сотрудников OpenAI, в том числе Тома Брауна (Tom Brown), ведущего инженера языковой модели ИИ GPT-3.

window-new
Soft
Hard
Тренды 🔥