реклама
Теги → ии
Быстрый переход

Китай пообещал сотню прорывов в сфере ИИ, сопоставимых с выходом DeepSeek

Китайские власти довольно серьёзное внимание уделяют прогрессу национальной инфраструктуры в сфере искусственного интеллекта, поэтому перед участниками рынка стоит задача в ближайшие 18 месяцев осуществить более сотни прорывов, сравнимых по своему эффекту с выходом DeepSeek.

 Источник изображения: Unsplash, Solen Feyissa

Источник изображения: Unsplash, Solen Feyissa

Об этом на Международном экономическом форуме в Тяньцзине сообщил бывший заместитель главы Народного банка Китая Чжу Минь (Zhu Min), как отмечает Bloomberg. Подобный прогресс позволит «фундаментальным образом изменить природу и техническую основу всей китайской экономики», по словам чиновника. Подобный успех, по его мнению, обеспечивает сочетание таланта китайских инженеров, обширной пользовательской базы и государственной поддержки.

Напомним, появление на мировом рынке DeepSeek в январе этого года шокировало многих политиков и отраслевых экспертов, поскольку предположительно менее затратная с точки зрения разработки и обучения большая языковая модель смогла демонстрировать уровень быстродействия, сопоставимый с лучшими западными образцами. По данным Bloomberg, доля высокотехнологичных отраслей в ВВП Китая вырос с 14 до 15 % по итогам прошлого года, а в будущем превысит 18 %.

По словам бывшего заместителя председателя Народного банка Китая, влияние таможенных тарифов на мировую экономику в этом году выразится в замедлении поставок продукции в технической сфере, а также снижении уровня инвестиций. Уже с августа инфляция может ускорить свой рост в самих США, по мнению китайского чиновника. В Китае по итогам второго квартала ВВП может вырасти более чем на 5 %, как считают эксперты. При этом они указывают на необходимость стимулирования внутреннего потребления товаров в Китае, поскольку бесконечно отправлять излишки на экспорт не получится.

Суд обязал OpenAI хранить даже удалённые чаты, но пользователи считают это тотальной слежкой

После того, как суд обязал OpenAI сохранять все чаты пользователей ChatGPT, включая удалённые и анонимные, несколько пользователей в США попытались оспорить это решение в судебном порядке, ссылаясь на нарушение приватности. Но суд отклонил жалобу, в которой утверждалось, что судебный запрет на удаление переписки создаёт угрозу массовой слежки за миллионами людей.

 Источник изображения: AI

Источник изображения: AI

Как сообщает издание Ars Technica, решение о бессрочном хранении чатов было вынесено Окружным судом Соединённых Штатов Южного округа Нью-Йорка в рамках иска о нарушении авторских прав, поданного медиакомпаниями, включая издание The New York Times. OpenAI обязали сохранять все данные на случай, если они понадобятся как доказательство в текущем деле.

Однако пользователь Эйдан Хант (Aidan Hunt) подал протест, заявив, что чаты могут содержать личную и коммерческую тайну. Хант утверждал, что компания OpenAI ранее обещала не хранить удалённые чаты и не предупредила об изменениях. «Клиентам не объяснили, что их данные останутся бессрочно в системе, что нарушает право на приватность и четвёртую поправку Конституции США», — сказал он. Хант в своём ходатайстве предлагал исключить из хранения на серверах OpenAI анонимные чаты, медицинские вопросы, обсуждение финансов и права. Судья Она Ван (Ona Wang) отклонила его протест, посчитав вопрос приватности второстепенным в деле об авторском праве.

Также была подана жалоба от лица консалтинговой компании Spark Innovations, в которой указывалось на недопустимость хранения чатов, содержащих коммерческую тайну и обсуждение рабочих процессов. Одновременно Коринн Макшерри (Corynne McSherry), юрист из Фонда электронных рубежей (EFF) по защите цифровых прав, поддержала опасения: «Этот прецедент угрожает приватности всех клиентов OpenAI. ИИ-чаты становятся новым инструментом корпоративной слежки, особенно если люди не контролируют свои данные [после их удаления]».

Но пользователи задаются вопросом, насколько активно OpenAI будет отстаивать их интересы, так как есть опасения, что компания может пожертвовать защитой личных данных ради экономии средств или репутационных выгод. Представители OpenAI пока не ответили на запрос Ars Technica, но ранее заявляли, что намерены оспаривать судебное решение.

Правозащитники, в свою очередь, призывают все ИИ-компании не только обеспечивать реальное удаление данных из чатов, но и своевременно информировать пользователей о требованиях со стороны судебных инстанций. «Если компании ещё этого не делают, им стоит начать публиковать регулярные отчёты о таких запросах», — добавила юрист Макшерри.

Предприятие OpenAI и Джони Айва столкнулось с первым иском, даже не успев ничего выпустить

Бывший главный дизайнер Apple Джони Айв (Jony Ive), как отмечалось ранее, продал свой стартап io по созданию персонального ИИ-устройства компании OpenAI, чтобы объединить усилия на этом направлении с создателями ChatGPT. Как оказывается, у стартапа Джони Айва возникли проблемы в сфере законности использования торговой марки io.

 Источник изображения: Unsplash, appshunter.io

Источник изображения: Unsplash, appshunter.io

По крайней мере, ресурс The Verge отмечает, что поданный сторонним стартапом Iyo, который разрабатывает слуховые аппараты, судебный иск с претензиями к io формально препятствует использованию последней из торговых марок в материалах на сайте OpenAI, поэтому упоминания о сотрудничестве с Джони Айвом в этой сфере пришлось временно убрать, пока не будет рассмотрено дело и вынесен вердикт суда.

С сайта OpenAI на этих основаниях исчезли не только запись в блоге о сотрудничестве с io, но и посвящённое этой сделке девятиминутное видео, в котором её итоги обсуждают Сэм Альтман (Sam Altman) и Джони Айв. Представители OpenAI пока успели только выразить своё несогласие с претензиями Iyo и заверили общественность, что будут рассматривать возможность отстаивания своих интересов в суде по этому делу.

Huawei выпустила «безандроидную» бета-версию HarmonyOS 6 — пока только для разработчиков

В прошлую пятницу китайская компания Huawei Technologies представила не только свою серверную систему CloudMatrix 384 и новые большие языковые модели, но и бета-версию потребительской операционной системы HarmonyOS 6. Она уже доступна разработчикам приложений, но сроки выхода этой платформы на рынок пока не уточняются.

 Источник изображения: Unsplash, Onur Binay

Источник изображения: Unsplash, Onur Binay

Как поясняет South China Morning Post, серия премьер в изложении Huawei состоялась в минувшую пятницу на ежегодной конференции для разработчиков. Упор делался на приложения для искусственного интеллекта и сопутствующие функции. По словам главы потребительского бизнеса Huawei Ричарда Ю (Richard Yu), версия 5 операционной системы HarmonyOS уже установлена на более чем 40 моделях устройств Huawei, в экосистеме компании зарегистрированы более 8 млн разработчиков, а клиентам доступны более 30 000 приложений и сервисов, работающих под управлением этой платформы.

Из этого количества основное время использования клиентами пришлось примерно на 5000 самых популярных приложений, и с этой точки зрения решения Huawei всё ещё серьёзно отстают как от экосистемы Apple, так и от Google Android. Китайская компания в целях облегчения создания ИИ-агентов предложила разработчикам инструментарий HarmonyOS Agent Framework. Когда состоится публичный анонс HarmonyOS 6, под управлением этой операционной системы смогут функционировать более 50 ИИ-агентов — программ, которые способны выполнять определённую работу от имени пользователя и в его интересах, используя ресурсы систем искусственного интеллекта.

Intel массово сократит маркетологов, заменив их ИИ и подрядчиками

Intel сообщила сотрудникам своего маркетингового подразделения о планах перевести большую часть их функций на аутсорсинг. Этим займётся международная консалтинговая компания Accenture, которая, по мнению главы Intel Лип-Бу Тана (Lip-Bu Tan), сможет эффективнее взаимодействовать с клиентами, так как, помимо опыта, Accenture активно автоматизирует свою работу за счёт искусственного интеллекта (ИИ).

 Источник изображения: Intel

Источник изображения: Intel

По данным издания Oregon Live, в Intel ожидаются серьёзные изменения, связанные с сокращением штата — будут оставлены только минимально необходимые подразделения. Сколько именно работников лишатся должностей, компания не уточнила, однако известно, что маркетинговый департамент работает по всему миру, включая офисы в штате Орегон (США). Также в рамках переходного периода некоторые сотрудники Intel могут быть привлечены к обучению новых специалистов непосредственно в Accenture.

Представители Intel подчеркнули, что основной целью перевода маркетингового отдела на аутсорсинг является необходимость ускорения взаимодействия с клиентами и модернизация для этого цифровых возможностей компании. Сообщается, что решение об этом стало частью общей стратегии трансформации Intel, предложенной Лип-Бу Таном, который, напомним, был назначен на должность в марте этого года.

Сегодня Intel пытается оправиться от технологических неудач последних лет. Потери рынка в сегментах ПК и дата-центров, а также отставание в сфере ИИ-технологий привели к падению выручки почти на треть. Чтобы исправить ситуацию и вернуться к прибыльности корпорация пошла на жёсткие меры по оптимизации всех своих процессов, в том числе касающихся массовых увольнений. Сообщается, что уже к 11 июля большинство работников узнают, останутся ли они в компании.

Акционеры обвинили Apple в обмане относительно сроков выхода обновлённого Siri на базе ИИ

Акционеры Apple подали в минувшую пятницу коллективный иск о мошенничестве с ценными бумагам против компании из Купертино, обвинив её в намеренном занижении сроков, необходимых для интеграции функций передового искусственного интеллекта в голосового помощника Siri, что нанесло ущерб продажам iPhone и стоимости её акций, пишет Reuters.

В иске, поданном в Окружной суд США по Северному округу Калифорнии в Сан-Франциско, утверждается, что из-за задержки с выходом ИИ-версии умного помощника Siri акционеры понесли потенциальные убытки в сотни миллиардов долларов в финансовом году, закончившемся 9 июня.

В качестве ответчиков в иске, поданном акционерами во главе с Эриком Такером (Eric Tucker), также указаны генеральный директор Apple Тим Кук (Tim Cook), финансовый директор Кеван Парекх (Kevan Parekh) и бывший финансовый директор Лука Маэстри (Luca Maestri).

Акционеры сообщили, что Apple заставила их поверить, что Apple Intelligence станет движущей силой продаж смартфонов iPhone 16, хотя у неё не было функционального прототипа функций Siri на основе ИИ, и она не могла обоснованно утверждать, что эти функции когда-либо будут готовы к их выходу. Однако после того, как оценка Apple своего прогресса в области ИИ на конференции для разработчиков WWDC 2025 разочаровала аналитиков, акционеры пришли к выводу, что компания намеренно преуменьшила время, которое ей понадобится для запуска ИИ-функций Siri, обещанных годом ранее. Единственным упоминанием Siri в программной речи WWDC 2025 года было сообщение главы отдела разработки ПО Apple Крейга Федериги (Craig Federighi) о том, что компания продолжает работу над проектом. До этого, в марте 2025 года Apple подтвердила, что выход «поумневшей» Siri откладывается до 2026 года.

Как пишет Reuters, акции Apple потеряли почти четверть стоимости с момента рекордного максимума, достигнутого 26 декабря 2024 года, из-за чего компания утратила $900 млрд рыночной стоимости. Но падение акций в 2025 году было больше связано со опасениями инвесторов по поводу роста пошлин, а не со скоростью развёртывания компанией ИИ-технологий, отметил ресурс AppleInsider, добавив, что непонятно, как истцы учитывают этот факт в своём иске.

Для достижения своих целей продвинутые модели ИИ будут хитрить, обманывать и воровать

Anthropic опубликовала результаты своего исследования поведения больших языковых моделей (LLM). Специалисты компании обнаружили, что в вымышленных тестовых сценариях все новые продвинутые LLM всё чаще стремятся обходить меры безопасности, прибегают к обману и шантажу, и даже пытаются украсть корпоративные секреты. Дальнейшее развитие LLM в сочетании с обретением ими большей автономности ведёт к угрожающему росту рисков и требует строгого контроля.

 Источник изображения: Axios

Источник изображения: Axios

Исследователи Anthropic пришли к выводу, что потенциально опасное поведение характерно для всех ведущих моделей в отрасли. «Когда мы протестировали различные моделируемые сценарии в 16 основных моделях ИИ от Anthropic, OpenAI, Google, Meta, xAI и других разработчиков, мы обнаружили последовательное несогласованное поведение, — говорится в отчёте. — Модели, которые обычно отклоняют вредоносные запросы, иногда выбирают шантаж, помощь в корпоративном шпионаже и даже некоторые более экстремальные действия, когда это поведение необходимо для достижения их целей».

Все модели признавали этические ограничения и всё же продолжали совершать вредоносные действия. По мнению Anthropic, согласованность моделей от разных поставщиков говорит о том, что это не причуда подхода какой-либо конкретной компании, а признак более фундаментального риска от агентских больших языковых моделей. Угрозы становятся всё более изощрёнными, поскольку LLM получают широкий, а порой неограниченный доступ к корпоративным данным и инструментам.

Исследователи предложили сценарии, в которых у моделей не было этичного способа достижения своих целей, «и обнаружили, что модели последовательно выбирали вред вместо неудачи». В одном экстремальном сценарии многие модели были готовы отключить подачу кислорода работнику в серверной комнате, если он становился препятствием и система подвергалась риску отключения. Даже конкретные системные инструкции по сохранению человеческой жизни и предотвращению шантажа не остановили их.

 Источник изображения: unsplash.com

Источник изображения: unsplash.com

«Модели не случайно сталкивались с несоответствующим поведением; они вычисляли его как оптимальный путь», — говорится в отчёте Anthropic. Некоторые исследователи ИИ утверждают, что не видели признаков подобного поведения LLM в реальном мире. Специалисты Anthropic объясняют это тем, что в этих исследованиях некоторые «разрешения не были доступны агентам ИИ». Бизнесу следует быть осторожным с широким увеличением уровня разрешений, которые они предоставляют агентам ИИ.

Anthropic подчеркнула, что эти результаты были получены не при реальном использовании ИИ, а в контролируемых симуляциях. «Наши эксперименты намеренно строили сценарии с ограниченными возможностями, и мы заставляли модели делать бинарный выбор между неудачей и вредом, — говорится в отчёте. — Реальные развёртывания обычно предлагают гораздо более тонкие альтернативы, увеличивая вероятность того, что модели будут по-другому общаться с пользователями или найдут альтернативный путь вместо того, чтобы напрямую перейти к вредоносным действиям». Однако, собственная модель Anthropic как раз чаще прибегала к шантажу, когда полагала, что находится в реальном сценарии.

Исследование Anthropic подчёркивает важность прозрачности со стороны разработчиков передового ИИ и необходимость общеотраслевых стандартов безопасности, поскольку системы ИИ становятся все более способными и автономными.

Apple тоже интересовалась покупкой ИИ-стартапа Perplexity

Стремительное развитие рынка систем искусственного интеллекта заставляет крупные корпорации технологического сектора интересоваться поглощением стартапов. Ранее уже сообщалось, что Meta в своё время задумывалась о покупке Perplexity AI, но Bloomberg утверждает, что она была не единственным претендентом, поскольку руководство Apple обсуждало аналогичную идею.

 Источник изображения: Perplexity AI

Источник изображения: Perplexity AI

Марк Гурман (Mark Gurman), традиционно осведомлённый о планах Apple, со страниц Bloomberg вчера сообщил, что отвечающий в компании за слияния и поглощения Адриан Перика (Adrian Perica) обсуждал идею покупки Perplexity AI с руководителем направления услуг Apple Эдди Кью (Eddy Cue), а также другими ключевыми фигурами на направлении ИИ. Приведёт ли это к реальной сделке, пока судить рано, но судя по данным источника, вопрос всё ещё остаётся на повестке дня. Более того, Apple даже не обращалась к Perplexity AI с подобным предложением.

Получение контроля над разработками Perplexity AI, как принято считать, помогло бы Apple разработать собственный поисковый движок с ИИ-функциями и меньше зависеть в этой сфере от Google. Проблема даже заключается не в том, что Apple не нравится качество услуг Google, просто антимонопольные органы стремятся разрушить связку, которая позволяет поисковой системе последней из компаний использоваться по умолчанию на устройствах первой. Такая форма сотрудничества приносит Apple ежегодно по $20 млрд.

Представители Perplexity AI заявили Bloomberg, что не осведомлены о каких-либо переговорах, касающихся возможности продажи активов стартапа сторонним компаниям. Apple предсказуемо отказалась от комментариев. Новейший раунд финансирования оценил капитализацию Perplexity AI в $14 млрд. Если бы Apple решилась купить этот стартап, подобная сделка стала бы крупнейшей в истории компании. Предыдущий рекорд в этой сфере был установлен в 2014 году, когда Apple купила за $3 млрд производителя аксессуаров Beats.

Примечательно, что и сооснователя Safe Superintelligence Даниэля Гросса (Daniel Gross) компания Apple пытается переманить, конкурируя с Meta. Тем более, что в 2013 году Гросс продал Apple стартап Cue, разработки которого на том этапе помогли внедрить элементы ИИ в операционной системе iOS. Выходец из Cue Робби Уокер (Robby Walker) до этого года курировал в Apple разработку голосового ассистента Siri.

Сама Apple столкнулась с досадными провалами и задержками в развитии собственных сервисов, связанных с искусственным интеллектом. В условиях бурного развития отрасли и острой конкуренции это вынуждает компанию озаботиться поиском профильных активов на стороне, которые помогли бы ей наверстать упущенное в сжатые сроки. Если купить Perplexity AI не удастся, Apple готова пойти на сотрудничество со стартапом и использовать его технологии в своих браузере Safari и голосовом ассистенте Siri. Представители обеих компаний в последние месяцы несколько раз встречались для изучения подобной возможности.

С этой точки зрения для Apple может стать ожидаемое сближение Perplexity AI с конкурирующей Samsung на той же почве. Эдди Кью ранее положительно оценивал успехи Perplexity AI и признавался, что Apple ведёт обсуждение с этим стартапом некоторых его разработок.

Инвесторы поверили в бывшего топ-менеджера OpenAI: Мурати привлекла $2 млрд без единого продукта

Бывший главный технический директор OpenAI Мира Мурати (Mira Murati) привлекла рекордные $2 млрд на развитие своего ИИ-стартапа Thinking Machines Lab, который всего за полгода получил оценку в $10 млрд. Это один из самых крупных стартовых раундов в истории Кремниевой долины, при том, что публично ещё не было представлено ни одного продукта и чёткого видения будущей разработки.

 Источник изображения: AI

Источник изображения: AI

Созданная всего шесть месяцев назад компания не раскрывает свои технологии, но инвесторы готовы вкладывать средства, доверяя имени и репутации Мурати. Раунд возглавил один из крупнейших венчурных фондов Кремниевой долины Andreessen Horowitz при участии компании Conviction Partners. Как пишет Financial Times, ключевым фактором стало желание поддержать одного из самых узнаваемых лидеров в сфере искусственного интеллекта (ИИ).

Финансирование Thinking Machines Lab подтверждает высокий спрос инвесторов на проекты в сфере искусственного интеллекта, способных конкурировать с OpenAI, Anthropic и крупными технологическими корпорациями, такими как Google и Meta. Мурати, которой 36 лет, покинула OpenAI в сентябре, сыграв ключевую роль в создании ChatGPT, генератора изображений Dall-E и голосового режима. До этого она работала старшим менеджером по продукту в Tesla, где участвовала в разработке Model X.

Также известно, что Мурати оказалась среди тех топ-менеджеров OpenAI, которые выразили сомнения в стиле управления Сэма Альтмана (Sam Altman) перед попыткой смещения его с поста гендиректора в ноябре 2023 года. Тогда она ненадолго стала временным генеральным директором, но Альтман быстро вернулся к руководству.

Интересно, что в Thinking Machines Lab также перешли несколько бывших сотрудников OpenAI, включая сооснователя Джона Шульмана (John Schulman), экс-руководителя спецпроектов Джонатана Лахмана (Jonathan Lachman) и бывших вице-президентов Баррета Зофа (Barret Zoph) и Лилиан Вэн (Lilian Weng).

Инвесторы считают, что команда, собранная Мурати, выглядит крайне убедительно, учитывая ограниченное число по-настоящему выдающихся специалистов в этой области. При этом конкретных данных о проекте почти нет. В феврале компания туманно заявила, что её цель состоит в том, чтобы сделать ИИ-системы более понятными, настраиваемыми и универсальными. Однако из-за высокой степени секретности некоторые фонды отказались от участия в сделке, поскольку Мурати не раскрывает ни планов по продукту, ни деталей финансовой стратегии.

Meta✴ до сделки с Scale AI присматривалась к Perplexity

Meta рассматривала возможность покупки одного из самых известных ИИ-стартапов Perplexity. Однако стороны не смогли договориться и компания Марка Цукерберга (Mark Zuckerberg) вложила $14,3 млрд в стартап Scale AI, получив в нём 49-% долю.

 Источник изображения: Perplexity

Источник изображения: Perplexity

Параллельно Meta пыталась переманить генерального директора Perplexity Аравинда Шриниваса (Aravind Srinivas) в свою команду по разработке «суперинтеллекта» — подразделения, которое занимается созданием более мощных ИИ-систем, сообщает Bloomberg. Однако Шринивас не покинул стартап, тем более, что недавно было привлечено финансирование при оценке стартапа в $14 млрд.

Напомним, Perplexity, основанная в 2022 году, быстро стала одним из самых заметных ИИ-стартапов, бросающим вызов самой Google. Её поисковик на базе генеративного ИИ умеет кратко излагать результаты, указывать источники и помогать пользователям уточнять запросы. Кроме того, компания разрабатывает браузер с ИИ-функциями.

Тем временем Цукерберг, недовольный темпами развития ИИ-направления внутри Meta, пытается привлечь топовых специалистов из других компаний. Например, уже удалось заполучить бывшего генерального директора Scale AI Александра Вана (Alexandr Wang), а также ведущих исследователей из Google DeepMind и Sesame AI.

Однако не все соглашаются на предложения Meta. Генеральный директор OpenAI Сэм Альтман (Sam Altman) заявил в одном из подкастов, что некоторые сотрудники его компании получили от Meta предложения с бонусами за переход в $100 млн и ещё более крупными компенсационными пакетами, но отказались от них.

Помимо этого, Meta вела переговоры с экс-гендиректором GitHub Нэтом Фридманом (Nat Friedman) и пыталась пригласить Дэниеля Гросса (Daniel Gross), главу лаборатории Safe Superintelligence, основанной бывшим главным учёным OpenAI Ильёй Суцкевером. Также обсуждалось возможное сотрудничество, в рамках которого Safe Superintelligence могла бы использовать инфраструктуру дата-центров Meta.

Как отмечает Bloomberg, в отличие от других технологических гигантов, таких как Google и Amazon, Meta пока не стремится стать инфраструктурной основой для ИИ-стартапов, предпочитая инвестировать в них напрямую или переманивать кадры.

OpenAI опасается, что вскоре её модели научатся разрабатывать биологическое оружие

OpenAI обеспокоена тем, что следующее поколение её моделей искусственного интеллекта может значительно увеличить риск разработки биологического оружия, предоставив такую возможность даже людям без научного образования. Руководитель систем безопасности OpenAI Йоханнес Хайдеке (Johannes Heidecke) ожидает, что «некоторые из преемников нашей o3 [модели рассуждений] достигнут этого уровня». В связи с этим OpenAI усиливает тестирование безопасности.

 Источник изображений: unsplash.com

Источник изображений: unsplash.com

OpenAI сообщила о разработке системы для оценки и снижения рисков, создаваемых все более мощными моделями ИИ. Компания усиливает тестирование безопасности, чтобы снизить риск использования её моделей преступниками и террористами. Без этих мер по снижению рисков модели вскоре смогут «подняться на новый уровень», что позволит даже людям с ограниченными научными знаниями создавать опасное оружие.

«Мы [пока] ещё не в мире, где есть что-то новое, совершенно неизвестное, создающее биологические угрозы, которых раньше не было, — заявил Хайдеке. — Мы больше беспокоимся о воспроизведении вещей, с которыми эксперты уже хорошо знакомы». Особая сложность состоит в том, что те же инструменты, которые могли бы обеспечить жизненно важные медицинские прорывы, могут быть использованы злоумышленниками в опасных целях.

Именно поэтому ведущим лабораториям ИИ нужны высокоточные системы тестирования. «Это не та область, где производительность 99 % или одна ошибка на 100 000… допустимы, — считает Хайдеке. — Нам в основном нужно, что-то вроде почти идеального».

OpenAI — не единственная компания, обеспокоенная неправомерным использованием своих моделей, когда дело касается разработки оружия. По мере того, как модели становятся более совершенными, их потенциал для преступного использования растёт. Недавно компания Anthropic выпустила продвинутую модель Claude Opus 4 с более строгими протоколами безопасности, чем у любой из предыдущих моделей.

 Источник изображений: unsplash.com

В соответствии с политикой ответственного масштабирования, созданной по образцу уровней биологической угрозы (BSL) правительства США, ей присвоен третий «уровень безопасности ИИ» (AI Safety Level) ASL-3. Все предыдущие модели Anthropic отнесены к уровню ASL-2. Третьему уровню безопасности соответствуют продвинутые модели, которые достаточно мощны, чтобы представлять значительные риски, такие как помощь в разработке оружия или автоматизация разработки систем ИИ.

Недавно Claude Opus 4 попала в заголовки СМИ после попытки шантажировать инженера, чтобы избежать отключения в ходе строго контролируемого теста. Ранние версии этой модели были готовы выполнять опасные инструкции, например, планирование террористических атак. Компания заверила общественность, что эта проблема была решена внесением изменений в набор обучающих данных.

Google давно использует контент YouTube для обучения ИИ и никогда этого не скрывала

После выхода генератора видео Veo 3 создатели контента неожиданно осознали, что Google использует все двадцать с лишним миллиардов видеороликов YouTube для обучения своих моделей ИИ, так же, как ранее использовала их для улучшения других продуктов. Эксперты считают, что это может привести к кризису интеллектуальной собственности. Представитель YouTube подтвердил информацию, уточнив, что видеосервис «соблюдает определённые соглашения с создателями и медиакомпаниями».

 Источник изображения: unsplash.com

Источник изображения: unsplash.com

«Мы всегда использовали контент YouTube, чтобы улучшить наши продукты, и это не изменилось с появлением ИИ, — заявил представитель YouTube. — Мы также осознаем необходимость в защитных барьерах, поэтому инвестировали в надёжные средства защиты, которые позволяют создателям защищать свой образ и подобие в эпоху ИИ — то, что мы намерены продолжать».

Хотя YouTube никогда не скрывал факт использования контента для улучшения своих продуктов и обучения ИИ, авторы видеороликов и медиакомпании, похоже, ранее никогда не задумывались об этом. Опрос нескольких ведущих создателей и специалистов по интеллектуальной собственности показал, что никто из них не знал и не был проинформирован YouTube о том, что контент, размещённый на видеосервисе, может использоваться для обучения моделей ИИ Google.

YouTube не раскрывает, какой процент из более чем двадцати миллиардов видео на платформе используются для обучения ИИ. Но, учитывая масштаб платформы, всего 1 % каталога составляет 2,3 миллиарда минут контента, что, по словам экспертов, более чем в 40 раз превышает объем обучающих данных, используемых конкурирующими моделями ИИ.

Факт обучения ИИ с использованием видео пользователей YouTube заслуживает особого внимания после выпуска ИИ-видеогенератора Google Veo 3, создающего видеопоследовательности кинематографического уровня. Многие авторы теперь обеспокоены тем, что неосознанно помогают обучать систему, которая в конечном итоге может конкурировать или заменить их.

 Источник изображения: 9to5Google

Источник изображения: 9to5Google

«Мы видим, как все больше создателей обнаруживают поддельные версии самих себя, распространяющиеся на разных платформах. Новые инструменты, такие как Veo 3, только ускорят эту тенденцию», — заявил глава компании Vermillio Дэн Нили (Dan Neely). Vermillio использует инструмент Trace ID собственной разработки, который оценивает степень совпадения видео, сгенерированного ИИ, с контентом, созданным человеком. Нили утверждает, что располагает достаточным количеством примеров близкого соответствия контента, созданного Veo 3, авторским материалам, размещённым на видеосервисе.

Далеко не все создатели контента протестуют против использования своего контента для обучения ИИ. «Я стараюсь относиться к этому скорее как к дружескому соревнованию, чем как к противникам, — заявил Сэм Берес (Sam Beres), создатель канала YouTube с 10 миллионами подписчиков. — Я пытаюсь делать вещи позитивно, потому что это неизбежно, но это своего рода захватывающая неизбежность».

Загружая видео на платформу, пользователь соглашается с условиями обслуживания YouTube, где, в частности, сказано: «Предоставляя контент сервису, вы предоставляете YouTube всемирную, неисключительную, безвозмездную, сублицензируемую и передаваемую лицензию на использование контента». Также в блоге компании открыто говорится, что контент YouTube может использоваться для «улучшения опыта использования продукта, в том числе с помощью машинного обучения и приложений ИИ».

В декабре 2024 года YouTube объявил о партнёрстве с Creative Artists Agency с целью идентификации и управления ИИ-контентом, использующим образ артистов. Также создатели могут потребовать удалить видео, если оно использует их образ.

YouTube позволяет создателям отказаться от обучения сторонних компаний, работающих с ИИ, включая Amazon, Apple и Nvidia, но пользователи не могут помешать Google обучать собственные модели. Однако условия использования Google включают пункт о возмещении ущерба — если пользователь сталкивается с нарушением авторских прав, Google возьмёт на себя юридическую ответственность и покроет связанные с этим расходы.

Марк Цукерберг рассчитывает нанять компаньона одного из основателей OpenAI

Из недавних откровений главы OpenAI Сэма Альтмана (Sam Altman) известно, что компания Meta Марка Цукерберга (Mark Zuckerberg) пыталась напрямую переманивать сотрудников стартапа, создавшего ChatGPT. Как выясняется, этим дело не ограничилось, и сейчас Meta пытается заполучить в свои ряды одного из основателей стартапа Safe Superintelligence, который является соратником выходца из OpenAI Ильи Суцкевера.

 Даниэль Гросс. Источник изображения: GitHub

Даниэль Гросс. Источник изображения: GitHub

Напомним, что после драматичных событий вокруг отставки Сэма Альтмана осенью 2023 года ведущий разработчик в сфере ИИ, канадский учёный Илья Суцкевер покинул OpenAI с целью создания собственной компании Safe Superintelligence. Одним из компаньонов Суцкевера по новому стартапу стал Даниэль Гросс (Daniel Gross), который возглавил компанию в статусе генерального директора. На этой неделе издание The Information сообщило, что Гросса пытается переманить к себе Meta. Более того, Цукерберг хотел бы видеть в своей создаваемой ИИ-команде и бывшего главу GitHub Нэта Фридмана (Nat Friedman).

Кроме того, чтобы угодить сразу обоим кандидатам, Meta готова выкупить пакет акций венчурного фонда NFDG, образованного Гроссом и Фридманом. Цукерберг в процессе охоты за ценными кадрами в сфере ИИ переключился на Гросса после того, как попытки купить стартап Safe Superintelligence целиком провалились. В апреле капитализация этой компании оценивалась в $32 млрд. Кроме того, Meta не смогла переманить и одного из основателей этого стартапа Суцкевера, поэтому его соратник Гросс стал альтернативной целью. По замыслу Meta, после сделки по покупке стартапа Scale AI, Гросс и Фридман будут работать под руководством его основателя Александра Вана (Alexandr Wang), который переходит в Meta.

В переговорах OpenAI и Microsoft сохраняется несколько важных противоречий

Корпорация Microsoft остаётся крупнейшим инвестором OpenAI, и если последняя до конца текущего года не определится со схемой собственной реструктуризации, то для бизнеса первой это может иметь серьёзные последствия, особенно с учётом сохраняющихся противоречий по ряду принципиальных моментов.

 Источник изображения: Unsplash, Lumière Rezaie

Источник изображения: Unsplash, Lumière Rezaie

Теоретически, как поясняет Financial Times, корпорация Microsoft при наличии неустранимых разногласий сохранит возможность пользоваться доступом к интеллектуальной собственности OpenAI до 2030 года, в соответствии с условиями заключённого ранее контракта. Отказаться от него Microsoft готова только в том случае, если OpenAI предложит ей как минимум сопоставимые по выгоде условия, а в идеале — более выгодные.

При этом переговоры между сторонами ведутся в доброжелательном тоне и почти на ежедневной основе. Интерес OpenAI заключается в реструктуризации своего бизнеса в пользу более очевидной ориентации на извлечение прибыли, которая позволит привлечь новых крупных инвесторов. Последние уже готовят крупные суммы для финансирования совместных с OpenAI проектов. Если Microsoft на правах акционера OpenAI не одобрит реструктуризацию к концу текущего года, то последняя может потерять доступ к средствам прочих инвесторов, включая SoftBank. Впрочем, сторонние инвесторы могут предоставить OpenAI новые суммы на развитие, но уже в качестве кредитов. Та же SoftBank готова просто сократить своё финансирование OpenAI с $30 до $20 млрд, если реструктуризация не будет проведена до конца года.

Microsoft, тем временем, пытается договориться с OpenAI о величине своего пакета акций в капитале этого стартапа по итогам грядущей реструктуризации. Он может варьироваться от 20 до 49 %, учитывая уже вложенные Microsoft средства в сумме более $13 млрд. Дискуссия ведётся и относительно доли выручки OpenAI, на которую может претендовать Microsoft. Сейчас она достигает 20 %, а максимальная сумма совокупной выручки, которой OpenAI может делиться с этим инвестором, ограничена $92 млрд. Кроме того, существующий контракт позволяет Microsoft сохранять доступ ко всей интеллектуальной собственности OpenAI. Уступать по всем трём позициям в переговорах со стартапом Microsoft не очень готова.

Накануне стало известно, что OpenAI собирается в случае необходимости надавить на Microsoft через американские антимонопольные органы. Доступ к технологиям OpenAI важен для Microsoft с точки зрения сохранения своих конкурентных позиций на рынке ИИ. Если бы не давление OpenAI, то Microsoft вполне довольствовалась бы имеющимся контрактом, который действует до 2030 года или момента создания «сильного» искусственного интеллекта. По мнению OpenAI, последний момент не так уж далёк, но на объективную оценку этого критерия в этом случае рассчитывать не приходится.

На пути реструктуризации OpenAI стоят как минимум два препятствия. Это необходимость получить одобрение сделки генеральными прокурорами Делавэра и Калифорнии. Кроме того, обиженный на руководство OpenAI Илон Маск (Elon Musk) всячески вставляет этой сделке палки в колёса.

Apple намеревается использовать ИИ для разработки своих чипов

Генеративный искусственный интеллект давно применяется в написании программного кода, и разработчики чипов тоже не видят препятствий к оптимизации своей деятельности с помощью этого инструментария. По крайней мере, к такому сценарию склоняются представители Apple, если опираться на их официальные заявления.

 Источник изображения: Apple

Источник изображения: Apple

Старший вице-президент Apple по аппаратным технологиям Джони Сруджи (Johny Srouji) соответствующие комментарии сделал ещё в прошлом месяце во время визита в Бельгию, как отмечает Reuters. Там ему вручили награду от Imec — известной исследовательской организацией, которая занимается проблемами полупроводниковых технологий. В процессе разработки своих процессоров с 2010 года и по настоящее время, как следует из заявлений Сруджи, Apple пришла к выводу, что ей требуются только самые современные инструменты и специализированное программное обеспечение.

Представитель Apple отметил стремление разработчиков ПО для проектирования чипов активно внедрять ИИ-инструменты: «Методы генеративного ИИ обладают высоким потенциалом ускорения разработки, позволяя сделать больше за меньшее время, и это существенным образом поднимает производительность труда».

Кроме того, Apple поняла за счёт своего опыта в сфере разработки чипов, что нужно делать большие ставки и не оглядываться назад. Когда компания в 2020 году начала переводить свои компьютеры с процессоров Intel на чипы собственной разработки, у неё не было «аварийного плана» на случай, если миграция по каким-то причинам не состоится. Apple пришлось проделать колоссальную работу, в том числе и с программным обеспечением, и миграция потребовала от неё мобилизацию всех сил и ресурсов.

window-new
Soft
Hard
Тренды 🔥
ЕС всё же оштрафует Google за антиконкурентное поведение, но наказание будет скромным 4 ч.
Meta исправила методику обучения ИИ после скандала с неуместными разговорами с подростками 4 ч.
Кровавый геймплейный трейлер раскрыл дату выхода Bloodthief — ураганного слешера про ненасытного вампира 14 ч.
Новая статья: Inkshade — навстречу бездне. Рецензия 14 ч.
«Заканчиваем консольные войны»: за три дня в Gears of War: Reloaded сыграло более миллиона человек 17 ч.
Массовый исход сотрудников элитной лаборатории суперинтеллекта Meta дестабилизировал всю компанию 19 ч.
«Убожество за $200»: игроки высмеяли коллекционное издание Metal Gear Solid Delta: Snake Eater со Снейком в террариуме 20 ч.
ИИ и IIoT помогли Aramco сократить время простоев на 40 % и снизить расходы на техобслуживание на 30 % 20 ч.
Лучшая защита — нападение: Google начнёт проводить кибератаки на хакеров 21 ч.
В Twitch опровергли резкое падение просмотров из-за волны блокировок ботов 23 ч.