Сегодня 07 мая 2024
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → искусственный интеллект
Быстрый переход

Google добавила ИИ в адресную строку Chrome для более точного предсказания веб-страниц и автозаполнения

Google продолжает улучшать свой браузер Chrome, добавляя в него полезные функции, включая опции на базе искусственного интеллекта. На этот раз обновление затронуло адресную строку обозревателя, благодаря чему пользователям будут предоставляться более «точные и актуальные» адреса предлагаемых для перехода сайтов и варианты при автозаполнении. Улучшенная адресная строка доступна в Chrome M124.

 Источник изображения: unsplash.com

Источник изображения: unsplash.com

Ранее функция предлагаемых веб-сайтов работала на основе «составленных и настроенных вручную формул». Проблема заключалась в том, что эти формулы не были достаточно гибкими, чтобы их можно было оптимизировать или адаптировать к разным сценариям. Теперь же алгоритм машинного обучения сможет предоставлять более релевантные варианты, отвечающие тому, что может быть интересно пользователю.

Это нововведение имеет большое значение, поскольку алгоритмы, на основе которых предлагались сайты в адресной строке, длительно время не обновлялись. Помимо прочего, новый алгоритм учитывает, сколько времени прошло с того момента, как пользователь покинул тот или иной сайт. Например, если он закрыл веб-страницу несколько секунд или минут назад, то этому URL-адресу будет присвоена более низкая оценка релевантности, поскольку, скорее всего, это был не тот сайт, который искал пользователь.

В дальнейшем Google планирует интегрировать в браузер функции на основе ИИ-алгоритмов для повышения качества работы в конкретных средах, например, на мобильных устройствах или в корпоративном пространстве. Это позволит Chrome подбирать более релевантные результаты искомых сайтов с учётом специфики контента, с которым обычно взаимодействует пользователь.

Восемь интернет-изданий подали иск к OpenAI и Microsoft за незаконное использование статей для обучения ИИ

Текстовые материалы, находящиеся в общем доступе, являются одним из самых простых источников данных для обучения больших языковых моделей, но разработчики систем искусственного интеллекта то и дело сталкиваются с претензиями правообладателей. Новый иск к OpenAI выдвинуло американское издательство MediaNews Group, владеющее несколькими интернет-изданиями.

 Источник изображения: Unsplash, Praswin Prakashan

Источник изображения: Unsplash, Praswin Prakashan

Как сообщает Reuters, представители истца упрекают OpenAI в незаконном копировании миллионов статей, размещенных в изданиях New York Daily News, Chicago Tribune, Orlando Sentinel, Sun Sentinel, The Mercury News, The Denver Post, The Orange County Register и Pioneer Press для обучения своих языковых моделей. В общей сложности претензии к создателям ChatGPT и Microsoft Copilot выдвигают восемь интернет-изданий из шести американских штатов. Ответчиком по этому иску выступает и корпорация Microsoft, которая оказывает финансовую поддержку создавшей ChatGPT компании OpenAI, а также использует её разработки для совершенствования своего ИИ-ассистента Copilot.

Это не первый случай возникновения подобных претензий со стороны интернет-изданий к OpenAI и Microsoft. Аналогичные иски уже были поданы The New York Times, The Intercept, Raw Story и AlterNet. Представители MediaNews утверждают, что OpenAI строит свой успех на чужой работе, и «почему-то считает, что не нужно платить за контент». Системы искусственного интеллекта ответчиков, по словам стороны обвинения, способны дословно воспроизводить тексты публикаций по запросу пользователей ChatGPT. Кроме того, этот чат-бот способен добавлять к текстам оригинальных публикаций недостоверную информацию, что вредит репутации исходных СМИ. Microsoft обвиняется в том, что по запросу поисковой системы Bing ассистент Copilot может выдавать защищённые авторскими правами фрагменты публикаций указанных интернет-изданий, при этом не ссылаясь на первоисточник. Они требуют некую материальную компенсацию ущерба и судебного запрета на использование своих материалов для обучения систем искусственного интеллекта. Когда ранее с аналогичными претензиями к OpenAI обратилась The New York Post, представители первой заявили, что выдача фрагментов публикаций происходила в результате технической ошибки в процессе обучения больших языковых моделей.

Google продолжит сокращать персонал, несмотря на рост прибыли на 57 %

Прибыль холдинга Alphabet выросла в первом квартале на 57 % до $23,7 млрд, как показал недавний отчёт, но представители дочерней Google утверждают, что компания продолжает сокращать персонал. В частности, от оптимизации штатной структуры сильно пострадала команда разработчиков в среде Python, Flutter и Dart.

 Источник изображения: Unsplash, Greg Bulla

Источник изображения: Unsplash, Greg Bulla

Об этом на страницах Reddit сообщил один из сотрудников Google, который как раз руководил группой разработчиков, имеющих дело со средствами Flutter и Dart. Сокращения штата разработчиков, по его словам, затронули множество структурных единиц Google, в результате могли пострадать важные для компании проекты в сфере разработки программного обеспечения.

В прошлом году Alphabet сократила больше персонала, чем основные техногиганты в США. Работы лишились более 12 000 человек или 6 % штатной численности персонала Alphabet по всему миру. В январе этого года сотни сотрудников Google были уволены, поскольку имеющиеся ресурсы компания собирается сосредоточить на направлении искусственного интеллекта. Тогда же генеральный директор Сундар Пичаи (Sundar Pichai) предупредил подчинённых, что январскими сокращениями штата дело не ограничится. Приоритетным теперь становится направление ИИ, не все специалисты могут найти применение своим талантам в этой сфере, а потому часть персонала приходится сокращать в процессе реструктуризации бизнеса.

Учёные создали искусственный синапс, который работает как человеческий — на соли и воде

Международная группа физиков из Утрехтского университета в Нидерландах (Universiteit Utrecht) и Университета Соганг в Южной Корее (Sogang University) создала искусственный синапс — элемент, непосредственно участвующий в нервной и разумной деятельности человека. Открытие может помочь в создании искусственного мозга, который был бы способен производить вычисления, похожие на мыслительную деятельность человека.

 Источник изображения: ИИ-генерация Кандинский 3.0/3DNews

Источник изображения: ИИ-генерация Кандинский 3.0/3DNews

Самое примечательное, что искусственный синапс как его живой аналог точно так же работает на воде и растворённых в ней минералах (ионах). Для простоты учёные использовали водный раствор хлорида калия, тогда как в химических и электрических процессах в живом синапсе участвуют ионы кальция. Тем самым искусственный мозг может быть проще цифровых платформ, более экономным в потреблении энергии и сможет превзойти их в выполнении алгоритмов искусственного интеллекта.

В основе представленного элемента лежит ионтронный мемристор, как его назвали исследователи. Прототип имеет размеры 150 × 200 мкм, что на несколько порядков больше размеров живого синапса. Искусственный синапс представляет ионный канал в форме конуса с содержимым в виде водного раствора хлорида калия. Проходящий через такой элемент электрический ток заставляет ионы перемещаться по каналу и менять объёмную плотность, а также проводимость канала.

 Источник изображения: Utrecht University / Sogang University

Источник изображения: Utrecht University / Sogang University

Следовательно, интенсивность и продолжительность электрического импульса влияют на изменение проводимости мемристора. По мнению учёных, это эффективно отражает изменение связей между нейронами, где они соединяются посредством синапсов. В целом, это напоминает прохождение нервных сигналов по сети в головном мозге и может быть использовано для «генерации мыслей» — для выполнения алгоритмов. При этом можно создавать разные по длине каналы, что будет сопровождаться разной длительностью изменения плотности ионов. Из этого следует, что можно будет создать несколько отличающихся друг от друга вычислительных элементов. В общем, простора для исследований и открытий остаётся больше чем достаточно, чтобы в итоге получить интересный результат.

ChatGPT получил новую функцию памяти, которая запоминает предпочтения пользователей

Благодаря новой функции памяти, ChatGPT теперь может извлекать контекстную информацию из предыдущих бесед и работать как личный помощник, учитывая индивидуальные запросы и интересы пользователей.

 Источник изображения: Andrew Neel/Unsplash

Источник изображения: Andrew Neel/Unsplash

Компания OpenAI анонсировала запуск долгожданной функции памяти для своего чат-бота ChatGPT. Функция позволит боту запоминать предыдущие запросы и предпочтения пользователей, чтобы делать свои ответы более персонализированными.

Как сообщает издание The Verge, память ChatGPT использует два варианта обработки запросов. Первый — это когда пользователи могут явно указать ChatGPT, какие детали ему нужно запомнить. Например, если вы работаете в кафе, вы можете сообщить об этом ChatGPT, и он будет использовать эту информацию при последующих запросах, связанных с вашей работой.

При втором варианте ChatGPT будет автоматически извлекать и запоминать полезную информацию из диалогов по аналогии с другими алгоритмами, которые используются в приложениях OpenAI. Например, если вы скажете ChatGPT, что у вас есть ребёнок и что он любит медуз, то в следующий раз, когда вы попросите ChatGPT помочь с открыткой, он может предложить нарисовать медузу в праздничном колпаке. Таким образом чат-бот сможет лучше понимать контекст и предпочтения конкретного пользователя.

При этом OpenAI подчёркивает, что пользователи будут иметь полный контроль над тем, какую информацию запоминает ChatGPT. Можно будет просматривать и редактировать эти данные, а также в любой момент «стереть» их из памяти бота, что важно для обеспечения конфиденциальности и безопасности.

Отмечается, что на первых порах доступ к функции памяти получат только платные подписчики ChatGPT Plus за пределами Европы и Кореи. Причины ограничения доступа в этих регионах пока не разглашаются. В дальнейшем «память» появится и в корпоративных версиях ChatGPT, а также в некоторых пользовательских моделях GPT, доступных в магазине приложений OpenAI.

Хотя возможности данной функции пока ограничены, со временем, по мнению разработчиков, это может кардинально изменить пользовательский опыт общения с искусственным интеллектом и стать шагом на пути создания по-настоящему персонализированных и контекстно-осведомлённых чат-ботов.

GitHub запустил мощного ИИ-помощника для разработчиков Copilot Workspace

Компания GitHub расширяет возможности интеллектуального помощника для программистов Copilot, представив концепцию Copilot Workspace. Теперь ИИ может выступать как полноценный партнер на всех этапах разработки.

 Источник изображения: GitHub

Источник изображения: GitHub

В преддверии ежегодной конференции GitHub Universe в Сан-Франциско, GitHub анонсировал Copilot Workspace, среду разработки, которая использует то, что GitHub называет «агентами на базе Copilot», сообщает издание Techcrunch. Это среда разработки программного обеспечения, которая использует искусственный интеллект для помощи разработчикам на всех этапах — от генерации идей до тестирования и запуска кода.

Copilot Workspace основан на помощнике по программированию GitHub с открытым исходным кодом — Copilot. Но если Copilot фокусируется только на генерации кода по запросу разработчика, то Workspace расширяет функциональность, помогая на более высоком уровне. То есть, Copilot в связке с помощником, основанном на искусственном интеллекте, превращается в более универсальный инструмент.

Как объясняет Джонатан Картер (Jonathan Carter), руководитель GitHub Next, исследования показали, что главным препятствием для разработчиков часто является начало работы и определение подхода к решению задачи. Copilot Workspace призван устранить эту трудный момент и сотрудничать с разработчиками на протяжении всего процесса внесения изменений в код. Он выступает как интеллектуальный помощник, который встречается с разработчиком в самом начале задачи и помогает уменьшить «энергию активации», необходимую для старта, а затем сотрудничает при внесении изменений в код. Помощник может предлагать идеи и подходы на естественном языке, помогать выбирать файлы и методы для реализации.

Уже сейчас Copilot активно используется разработчиками — более 1,8 млн пользователей и 50 000 компаний. Но Картер видит потенциал для ещё большего роста благодаря расширению функциональности в Workspace и смежных продуктах, таких как Copilot Chat для диалога с ИИ о коде.

По его мнению, искусственный интеллект может кардинально изменить рабочий процесс, став по сути партнёром, а Copilot Workspace просто является ещё одним шагом в этом направлении, дополняющим существующие инструменты разработки. В перспективе полноценная ИИ-среда способна решать целый класс задач, с которыми сейчас разработчики справляются не так эффективно. Учитывая, что Workspace основан на одной из самых мощных на сегодня нейросетей GPT-4 Turbo, можно ожидать серьёзный потенциал новой среды разработки.

Тем не менее, в настоящий момент GitHub Copilot приносит компании чистый убыток около 20 долларов в месяц на каждого пользователя. При этом некоторые клиенты вообще обходятся в 80 долларов убытка. Это следует из внутреннего отчёта GitHub, о котором сообщает The Wall Street Journal. Казалось бы, подобная экономика должна заставить компанию свернуть проект. Однако GitHub не собирается этого делать и анонсировал новый продукт Copilot Workspace.

Конечно, есть риски. Исследования показали, что инструменты вроде Copilot могут генерировать небезопасный и неоптимальный код. Поэтому ключевой опцией в Workspace заявлен человеческий контроль, то есть разработчики должны самостоятельно направлять ИИ и проверять сгенерированные решения.

GitHub пока не определился с бизнес-моделью Workspace и планирует собирать отзывы по предварительной версии. Однако очевидно, что компания нацелена превратить технологию в высокодоходный массовый продукт, несмотря на текущие финансовые потери от Copilot.

Microsoft добавила поддержку русского и ещё 15 языков в Copilot для Microsoft 365

Компания Microsoft сообщила, что значительно расширила список языков, поддерживаемых ИИ-помощником Copilot в составе пакета офисных приложений Microsoft 365.

 Источник изображения: Microsoft

Источник изображения: Microsoft

«С сегодняшнего дня мы начинаем выпуск обновления Copilot для Microsoft 365 с поддержкой 16 дополнительных языков. К растущему списку уже поддерживаемых языков, который включает упрощённый китайский, английский (американский, британский, австралийский, канадский, индийский), французский (включая канадский французский), немецкий, итальянский, японский, португальский (Бразилия) и испанский (испанский и мексиканский) добавились арабский, чешский, голландский, финский, иврит, венгерский, корейский, норвежский (букмол), польский, португальский (Португалия), русский, шведский, тайский, турецкий и украинский», — отмечает представитель Microsoft в официальном блоге.

В сообщении также отдельно упоминается китайский (традиционный), который ранее был доступен в бесплатной версии Copilot. Теперь он доступен (для пользовательского интерфейса), но не поддерживается для запросов Copilot для Microsoft 365. Компания обещает скоро добавить полноценную поддержку и этого языка.

«Copilot для Microsoft 365 может не понимать все разговорные выражения или лингвистические конвенции в указанном языке. Мы постоянно совершенствуем языковые возможности Copilot и призываем пользователей предоставлять нам конструктивную обратную связь. Мы также продолжаем расширять список поддерживаемых языков и сообщим больше новостей в ближайшие месяцы».

Компания также опубликовала инструкцию, в которой описывается, как можно поменять язык в той или иной программе, входящей в пакет Microsoft 365.

OpenAI сможет легально обучать ИИ на публикациях Financial Times

Распространение систем искусственного интеллекта, которые для обучения своих языковых данных использовали большие объёмы текстов, произведений искусства и прочих объектов интеллектуальной собственности, натолкнулось на противодействие правообладателей. Financial Times удалось заключить с OpenAI соответствующее лицензионное соглашение.

 Источник изображения: Unsplash, Toa Heftiba

Источник изображения: Unsplash, Toa Heftiba

Как сообщается, стороны преследуют взаимную выгоду подобной сделкой. Для OpenAI обширный банк публикаций Financial Times станет источником информации, на которой будут обучаться большие языковые модели, а само издание сможет при поддержке OpenAI разрабатывать новые сервисы для своих читателей. Финансовые условия сделки не сообщаются. Подобное соглашение с издательством Associated Press компания OpenAI заключила ещё в прошлом году, причём последняя в итоге получила доступ только к части новостного архива издательства.

В новостном бизнесе применение систем искусственного интеллекта набирает обороты. BuzzFeed будет создавать с их помощью персонифицированные опросы на своём сайте, а издание The New York Times потренировало силы в прошлом году при создании сервиса автоматической генерации поздравительных текстов на День святого Валентина. Очевидно, вскоре и работа с материалами Financial Times станет для подписчиков интернет-издания более удобной и продуктивной.

На трассе Формулы-1 в Абу-Даби впервые прошла гонка беспилотных болидов

Восемь команд со всего мира продемонстрировали в Абу-Даби управление болидами Формулы-1 с помощью ИИ в рамках соревнований Автономной гоночной лиги A2RL. Перед стартом состоялся показательный соревновательный заезд между Даниилом Квятом на обычном болиде и беспилотником.

 Источник изображений: The Race

Источник изображений: The Race

На днях на трассе Формулы-1 Яс Марина в Абу-Даби прошло историческое событие — первая гонка Автономной гоночной лиги (A2RL). Восемь команд со всего мира привезли свои болиды, управляемые искусственным интеллектом, чтобы сразиться за многомиллионный приз и звание пионеров гоночных технологий будущего. При этом каждая команда разработала собственные алгоритмы машинного обучения. В гонке приняли участие Fly Eagle, Humda Lab, Code19, Constructor, Kinetiz, Polimove, Unimore и Технический университет Мюнхена.

Автомобиль A2RL является уникальным гоночным болидом, управляемым искусственным интеллектом и представляет собой шасси Dallara Super Formula 2023 года выпуска, оснащенный четырехцилиндровым 2,0-литровым двигателем с турбонаддувом, мощность которого составляет около 550 лошадиных сил. Двигатель работает в паре с 6-ступенчатой коробкой передач 3MO. Подвеска с регулируемыми амортизаторами и торсионными пружинами обеспечивает отличную управляемость, а тормозные механизмы Brembo и шины Yokohama гарантируют максимальную эффективность торможения и сцепление с дорогой.

Отличие A2RL от обычных гоночных автомобилей заключается в его «мозгах». Для работы системы управления на основе искусственного интеллекта используется 7 камер Sony IMX728, 4 радара ZF ProWave и 3 лидара Seyond Falcon Kinetic FK1, а вычислительную мощность для ИИ предоставляет компьютер Neusys RGS-8805GC с графическим процессором Nvidia, накопителями Intel и специализированным ПО. Искусственный интеллект анализирует данные от многочисленных датчиков и принимает решения по управлению рулём, двигателем, коробкой передач и тормозами при помощи 7 гидравлических приводов.

Благодаря программному обеспечению, созданному разработчиками в том числе и на C++ с использованием методов машинного обучения, ИИ может учитывать состояние шин, тормозов и других систем для максимальной эффективности управления болидом. Каждые 5 миллисекунд принимаются сотни решений по управлению автомобилем, а для обеспечения безопасности в A2RL используется «красная кнопка», позволяющая мгновенно отключить болид.

Как отмечает издание The Race, A2RL это не только автогонка, но и площадка для развития передовых технологий. A2RL нацелена на обучение молодёжи и продвижение дисциплин STEM, для чего проводятся соревнования в масштабе 1:8, где юные инженеры могут почувствовать себя конструкторами настоящих болидов. Стефан Тимпано, гендиректор A2RL, поясняет: «Мы хотим научить студентов в ОАЭ программированию и показать на что способна робототехника».

A2RL является уникальной площадкой для тестирования и развития технологий автономного вождения. В отличие от испытаний на обычной дороге, эта трасса позволяет беспилотникам демонстрировать предельно возможную скорость в контролируемых условиях, и в целом платформу можно назвать по-настоящему инклюзивной, продвигающей передовые идеи по всему миру еще и потому, что гонки транслируются бесплатно на YouTube, а при помощи VR можно оказаться «внутри» болида.

В ходе тренировочных заездов выявились индивидуальные особенности настроек каждого болида, заданные программистами. Отмечались и технические сбои — столкновения с ограждениями и между болидами.

Перед стартом состоялся показательный заезд между бывшим пилотом Формулы-1 Даниилом Квятом (Daniil Kvyat) на обычном болиде и автономным автомобилем. Несмотря на явное преимущество гонщика (Квят с легкостью обогнал беспилотник), эксперимент продемонстрировал большие возможности искусственного интеллекта.

Захватывающие гонки это лишь часть уникальной платформы A2RL. В ее основе лежит также образование и технологические инновации. При этом надежность и отказоустойчивость систем оказались главным вызовом для инженеров, хотя и продемонстрировали огромный потенциал развития автономного транспорта и его безопасное тестирование в условиях высоких скоростей. Учитывая обязательства по проведению регулярных соревнований и финансированию A2RL, следующие заезды автономных болидов могут преподнести нам немало сюрпризов.

Заявления руководства Alphabet, Microsoft и Meta✴ подняли капитализацию Nvidia на 15 %

Уходящая неделя характеризовалась высокой концентрацией квартальных отчётов крупных компаний технологического сектора, поэтому комментарии их руководства относительно перспектив дальнейшего развития систем искусственного интеллекта могли оказать влияние на настроения инвесторов. Если на предыдущей неделе капитализация Nvidia снижалась, то на этой она выросла на 15 % или $290 млрд.

 Источник изображения: Nvidia

Источник изображения: Nvidia

Как поясняет Bloomberg, для данного Nvidia уходящая неделя оказалась лучшей с прошлого мая. По словам аналитиков, заявления представителей Meta Platforms, Alphabet и Microsoft о намерениях вложить десятки миллиардов долларов в развитие инфраструктуры искусственного интеллекта непосредственно повлияли на котировки акций Nvidia, которая остаётся крупнейшим поставщиком ускорителей вычислений, которые формируют инфраструктуру подобных систем. Эксперты Bank of America отметили, что ключевые игроки американского облачного рынка — Google, Microsoft и Meta в текущем календарном году должны существенно увеличить капитальные затраты, и немалая их часть будет направлена как раз на закупку ускорителей Nvidia.

В прошлую пятницу акции Nvidia упали в цене сразу на 10 %, и это стало сильнейшим дневным снижением более чем за четыре года. Толчком к движению акций вниз послужили заявления руководства TSMC о сохранении консервативного прогноза относительно роста рынка полупроводниковых компонентов. Тайваньская компания TSMC в данный момент занимается выпуском всех ускорителей вычислений Nvidia. Фондовые индексы США на этой неделе росли: «полупроводниковый» SOX прибавил сразу 10 %, S&P 500 вырос на 2,7 %, а Nasdaq 100 вырос на 4 %. Примечательно, что возросшие затраты Meta на инфраструктуру пока не сопровождаются ростом выручки, поэтому и акции компании на уходящей неделе упали в цене на 11 %. Руководству Google и Microsoft удалось убедить инвесторов, что вложения в ИИ уже обеспечивают финансовую отдачу. Ещё один крупный игрок облачного рынка — Amazon, отчитается о результатах квартала в ближайший вторник.

Apple возобновила переговоры с OpenAI и Google, чтобы выбрать подходящий ИИ для iPhone

Как уже отмечалось, Apple не исключает возможности интеграции сторонних систем искусственного интеллекта в свои будущие устройства, и компания недавно возобновила переговоры с OpenAI на эту тему. Операционная система iOS 18, под управлением которой будут работать iPhone нового поколения, в итоге может получить поддержку экосистемы OpenAI, как сообщает Bloomberg.

 Источник изображения: Apple

Источник изображения: Apple

Это уже не первая попытка Apple реализовать такую интеграцию с OpenAI, переговоры начинались в этом году, но были поставлены на паузу, а теперь возобновляются, как отмечает источник. Не списывает Apple со счетов и Google с её чат-ботом Gemini, поэтому среда, в которой ведутся эти переговоры, довольно конкурентна. Выбор партнёра в этой сфере Apple пока не сделала, и нет гарантий, что твёрдые договорённости будут вообще достигнуты.

Некоторые функции грядущей операционной системы Apple iOS 18 будут использовать элементы большой языковой модели собственной разработки — например, она поможет пользователям генерировать текст, похожий на созданный человеком. При этом на уровне взаимодействия с пользователями через чат-бот Apple рассчитывает полагаться на сторонние решения типа ChatGPT. Когда о поиске партнёра для реализации этой функции впервые стало известно в марте, среди потенциальных участников переговоров фигурировал и стартап Anthropic.

Apple рассчитывает за счёт тесного взаимодействия с разработчиками систем ИИ добиться не только их более глубокой интеграции со своей операционной системой, но и высокой степени информационной безопасности. Тим Кук (Tim Cook) ранее обещал, что функции ИИ будут внедряться в экосистему Apple после их тщательной оценки и адаптации.

Samsung заключила контракт с AMD на поставку HBM3E на сумму $3 млрд

Успех SK hynix в качестве главного поставщика памяти типа HBM был накануне подтверждён финансовой отчётностью компании, тогда как более крупный конкурент в лице Samsung Electronics в этом сегменте рынка остаётся на вторых ролях. Впрочем, это не помешало ему заключить контракт на поставку HBM3E с компанией AMD на сумму $3 млрд.

 Источник изображения: Samsung Electronics

Источник изображения: Samsung Electronics

Об этой сделке сообщает TrendForce со ссылкой на южнокорейские СМИ. По их данным, во второй половине текущего года AMD рассчитывает выпустить ускорители вычислений Instinct MI350, и Samsung будет снабжать их своими 12-ярусными микросхемами памяти типа HBM3E. Сообщается, что сделка предполагает своего рода «бартер»: часть микросхем памяти будет обменяна на ускорители AMD. Выпускать непосредственно чипы ускорителей Instinct MI350 будет компания TSMC по 4-нм технологии. Кроме того, AMD ведёт переговоры с Samsung на тему контрактного производства своих чипов, но указанный контракт на поставку HBM3E никак к данной теме не относится.

Ещё в октябре 2023 года компания Samsung представила микросхемы HBM3E семейства Shinebolt, а в феврале текущего продемонстрировала их в 12-ярусном исполнении, позволяющем формировать в одном стеке до 36 Гбайт памяти этого типа. Массовое производство подобных чипов начнётся во второй половине 2024 года. Они в полтора раза увеличивают пропускную способность, до 1280 Гбайт/с. Высота 12-ярусных чипов за счёт использования более прогрессивной технологии упаковки остаётся на уровне 8-ярусных чипов прежнего поколения. Двенадцатиярусные стеки памяти поднимают быстродействие в задачах искусственного интеллекта на 34 % в среднем по сравнению с 8-ярусными.

На фоне ИИ-бума выручка SK hynix взлетела в два с половиной раза

Квартальный отчёт южнокорейской компании SK hynix был интересен тем, что она впервые за пять предыдущих кварталов получила чистую прибыль, а рост выручки превзошёл ожидания аналитиков и составил 144 %. Очевидно, что подобной динамике финансовых показателей компании способствовал высокий спрос на память типа HBM, хотя и в сегменте NAND наблюдались признаки восстановления.

 Источник изображения: SK hynix

Источник изображения: SK hynix

Выручка SK hynix достигла $9 млрд, что является максимальным значением со второго квартала 2022 года. Операционная прибыль достигла $2,1 млрд, существенно превзойдя ожидания аналитиков и продемонстрировав второй по величине результат за всю историю существования компании. Темпы роста выручки SK hynix в прошлом квартале оказались максимальными с 2010 года.

SK hynix намеревается увеличить капитальные затраты в этом году и нарастить объёмы поставок передовой памяти HBM3E, а также наладить поставки микросхем DDR5 высокой ёмкости для серверного применения. В более традиционных сегментах рынка памяти, по мнению представителей компании, спрос начнёт восстанавливаться во второй половине текущего года.

По прогнозам аналитиков Counterpoint Research, в этом году норма прибыли SK hynix превысит 20 %, а выручка компании достигнет $44,3 млрд. Как ранее отмечали представители SK hynix, в ближайшие годы спрос на память семейства HBM будет расти на 60 % ежегодно. В сотрудничестве с TSMC она рассчитывает начать поставки HBM4 в 2026 году. Помимо новых предприятий в Южной Корее, SK hynix собирается построить предприятие и исследовательский центр в штате Индиана. Компания сейчас ведёт переговоры с рядом клиентов о заключении долгосрочных контрактов на поставку памяти семейства HBM.

Что характерно, содержащий в целом позитивные сигналы квартальный отчёт SK hynix не предотвратил снижения курса акций компании на 3,9 %, поскольку на настроение инвесторов в большей степени повлиял негативный прогноз, прозвучавший из уст представителей Meta Platforms. Акции прочих производителей чипов на азиатских фондовых рынках тоже устремились вниз после открытия торгов утром в четверг.

Softbank закупит ускорители Nvidia на $1 млрд и займётся японским ИИ

Японский конгломерат SoftBank инвестирует к 2025 году 150 млрд иен ($960 млн) в расширение вычислительных мощностей, что позволит разрабатывать высокопроизводительные ИИ-модели, пишет CNBC. По данным ресурса Nikkei Asia, в прошлом году SoftBank израсходовал 20 млрд иен ($128 млн) на укрепление вычислительной инфраструктуры.

Источник изображения: SoftBank

Благодаря столь крупным инвестициям SoftBank будет обладать самыми высокопроизводительными вычислительными мощностями в стране, отметил Nikkei Asia. Как утверждают источники ресурса, для их работы будут использоваться ускорители Nvidia.

В 2024 финансовом году SoftBank планирует завершить создание своей первой большой языковой модели LLM с 390 млрд параметров. Затем, по данным Nikkei Asia, компания начнёт в 2025 году разработку LLM с 1 трлн параметров и поддержкой японского языка.

Как отметил ранее Nikkei Asia, в Японии наблюдается нехватка частных компаний с высокопроизводительными суперкомпьютерами, необходимыми для создания LLM, несмотря на возросший интерес к ИИ. Благодаря инвестициям SoftBank превратится в сильного игрока в сфере генеративного ИИ в то время, когда международные компании пытаются выйти на рынок Японии. На прошлой неделе OpenAI открыла свой первый офис в Токио. В свою очередь, Microsoft объявила о планах инвестировать $2,9 млрд в течение двух лет в расширение инфраструктуры облачных вычислений и ИИ в Японии.

Microsoft представила Phi-3 Mini — самую маленькую ИИ-модель, которую учили на «детских книгах»

Компания Microsoft представила следующую версию своей модели искусственного интеллекта Phi-3 Mini. Она стала первой из трёх небольших ИИ-моделей, которые софтверный гигант планирует выпустить в свет.

 Источник изображения: geralt/Pixabay

Источник изображения: geralt/Pixabay

Phi-3 Mini с 3,8 млрд параметров обучается на наборе данных, который меньше по сравнению с массивом, используемым для обучения больших языковых моделей (LLM), таких как GPT-4. В настоящее время Phi-3 Mini доступна на облачной платформе Azure, а также в Hugging Face и Ollama. В дополнение к этому Microsoft планирует выпустить ИИ-модели Phi-3 Small с 7 млрд параметров и Phi-3 Medium с 14 млрд параметров.

В декабре прошлого года Microsoft выпустила модель Phi-2, которая работала так же хорошо, как и более крупные модели, такие как Llama 2. По словам разработчиков, Phi-3 работает лучше предыдущей версии и может давать ответы, близкие к тем, что дают модели в 10 раз больше. Корпоративный вице-президент Microsoft Azure AI Platform Эрик Бойд (Eric Boyd) заявил, что Phi-3 Mini по своим возможностям не уступает таким LLM, как GPT-3.5, и выполнена «в меньшем форм-факторе».

По сравнению с более крупными аналогами, небольшие ИИ-модели обычно дешевле в эксплуатации и лучше работают на персональных устройствах, таких как смартфоны и ноутбуки. В начале этого года СМИ писали, что Microsoft создала отдельную команду для разработки именно небольших ИИ-моделей. Наряду с Phi компания также создала модель Orca-Math, которая ориентирована на решение математических задач.

Конкуренты Microsoft занимаются разработкой небольших ИИ-моделей, многие из которых нацелены на решение более простых задач, таких как обобщение документов или помощь в написании программного кода. К примеру, модели Gemma 2B и 7B от Anthropic могут обрабатывать большие научные статьи с графиками и быстро обобщать их, а недавно выпущенная модель Llama 3 от Meta может использоваться для создания чат-ботов и помощи в написании кода.

По словам Бойда, разработчики обучали Phi-3 по «учебному плану». Они вдохновлялись тем, как дети учатся на сказках, читаемых перед сном. Это книги с более простыми словами и структурами предложений, но в то же время зачастую в них поднимаются важные темы. Поскольку существующей литературы для детей при тренировке Phi-3 не хватало, разработчики взяли список из более чем 3000 тем и попросили большие языковые модели написать дополнительные «детские книги» специально для обучения Phi-3.

Бойд добавил, что Phi-3 просто развивает дальше то, чему обучились предыдущие итерации ИИ-модели. Если Phi-1 была ориентирована на кодирование, а Phi-2 начала учиться рассуждать, то Phi-3 ещё лучше справляется с кодированием и рассуждениями. Хотя модели семейства Phi-3 обладают некоторыми общими знаниями, они не могут превзойти GPT-4 или другие LLM по широте охвата.

window-new
Soft
Hard
Тренды 🔥