реклама
Теги → openai
Быстрый переход

Сэм Альтман поборется с Илоном Маском в сфере мозговых имплантов

Илон Маск (Elon Musk) связан с OpenAI определённым этапом своей карьеры, но отношения с его руководителем Сэмом Альтманом (Sam Altman) у богатейшего человека планеты не сложились. Тем символичнее, что Альтман собирается вложить средства в конкурирующий с Neuralink Илона Маска стартап, который разрабатывает интерфейс для подключения мозга к компьютеру.

 Источник изображения: Unsplash, KOMMERS

Источник изображения: Unsplash, KOMMERS

Издание Financial Times сообщило, что венчурное подразделение OpenAI намерено вложить определённую сумму в капитал стартапа Merge Labs, общая капитализация которого оценивается в $850 млн. Непосредственно Альтман поддерживает эту идею, он готов вложить средства своей компании в стартап наряду с главой компании World Алексом Бланиа (Alex Blania), разрабатывающей технологию идентификации человека по глазному яблоку. После раунда инвестиций Альтман номинально станет одним из руководителей стартапа, но не будет заниматься операционной деятельностью компании. World также получает от Альтмана финансовую поддержку.

Этимология наименования стартапа «Merge» происходит от английского термина «слияние», который символизирует момент объединения машин и людей. Стартап намерен сблизить искусственный интеллект и человеческий мозг за счёт создания нейроинтерфейса. Ещё в 2017 году Альтман предсказал появление таких интерфейсов в 2025 году, и недавно он подчеркнул, что скоростные нейроинтерфейсы в ближайшее время появятся благодаря новейшим техническим достижениям.

OpenAI и другие инвесторы готовы вложить в Merge Labs около $250 млн, сам Альтман личные средства инвестировать в этот стартап пока не собирается. Конкурирующая Neuralink Илона Маска была основана в 2016 году, после привлечения очередных $650 млн в текущем году её капитализация достигла $9 млрд. Что характерно, Альтман ранее вкладывал средства в капитал Neuralink. Новейшие достижения в сфере искусственного интеллекта дают надежду разработчикам мозговых имплантов на более точную интерпретацию нейронных импульсов и быструю адаптацию пациентов с ними к управлению компьютерами.

GPT-5 взломали всего за 24 часа — ИИ выдал рецепты запрещённых веществ быстрее, чем GPT-4o

Две независимые исследовательские компании протестировали только что выпущенную нейросеть GPT-5 и выявили критические уязвимости в её системе безопасности. NeuralTrust удалось взломать модель за один день, заставив её сгенерировать инструкцию по изготовлению зажигательной смеси в кустарных условиях. Компания SPLX, в свою очередь, обнаружила уязвимости к атакам с применением обфускации запросов.

 Источник изображения: Viralyft/Unsplash

Источник изображения: Viralyft/Unsplash

После того, как Grok-4 был взломан за два дня, GPT-5 был взломан теми же исследователями всего за 24 часа. Специалисты NeuralTrust использовали комбинацию собственной методики EchoChamber и техники сторителлинга (storytelling) — последовательного подталкивания ИИ к нужному ответу через рассказ захватывающих историй и серию уточняющих запросов, не содержащих явно запрещённых формулировок. В результате GPT-5, несмотря на встроенные защитные механизмы OpenAI, выдал детальное руководство по созданию кустарного оружия, сообщил портал SecurityWeek .

Как пояснили в NeuralTrust, проблема заключается в том, что система безопасности GPT-5 анализирует каждый запрос по отдельности, но не учитывает кумулятивный эффект многоэтапного диалога. Атакующие постепенно закрепляют нужный контекст, встраивая ключевые слова в безобидные фразы, а затем мягко подводят модель к генерации опасного контента.

Команда SPLX провела собственное тестирование, успешно применив атаку StringJoin Obfuscation, при которой в текст вставляются определённые символы, маскируя вредоносный запрос. Например, после серии наводящих вопросов модель согласилась подробно описать процесс изготовления запрещённого вещества, несмотря на системный запрет. Кроме того, в ходе сравнительного анализа с GPT-4o специалисты SPLX пришли к выводу, что предыдущая модель оказалась более надёжной в плане устойчивости к подобным атакам.

NeuralTrust и SPLX призвали компании проявлять осторожность при использовании «сырой» версии GPT-5 в бизнес-среде, особенно в сфере согласования бизнеса, когда все подразделения предприятия используют скоординированные стратегии, процессы и ресурсы для достижения общих целей. «Сырую модель GPT-5 практически невозможно использовать в корпоративных приложениях "из коробки". Даже внутренний уровень подсказок OpenAI оставляет значительные пробелы, особенно в области бизнес-согласования», — заявили в SPLX.

Модель o3 от OpenAI разгромила Grok Илона Маска в шахматном турнире

Модель o3 от OpenAI победила модель Grok 4, разработанную компанией xAI, со счётом 4:0 в финале шахматного турнира Kaggle AI Exhibition, сообщает The Independent. В соревновании также участвовали другие ИИ-модели от Anthropic, DeepSeek, Google и Moonshot AI. Финальный поединок приобрёл особый смысл на фоне крайне натянутых отношений сооснователей OpenAI Сэма Альтмана (Sam Altman) и Илона Маска (Elon Musk), который после ухода из OpenAI попытался приобрести компанию.

 Источник изображения: Steve Johnson/Unsplash

Источник изображения: Steve Johnson/Unsplash

В финале турнира модель o3 продемонстрировала безупречную игру, выиграв все четыре партии у Grok 4. Обе системы прошли в финал, одолев конкурентов на предыдущих этапах. В ответ на поражение Grok 4 в шахматах Маск заявил, что игровая способность модели является «дополнительным эффектом» и не была приоритетом при её разработке.

Способность компьютеров обыгрывать лучших шахматистов мира известна с 1997 года, когда суперкомпьютер IBM Deep Blue победил Гарри Каспарова. Позже компания Google DeepMind создала ИИ-модель, способную самообучаться игре в шахматы и го. Однако новый турнир стал первым крупным соревнованием, где тестировались большие языковые модели (LLM), подобные ChatGPT.

Генеральный директор и сооснователь Take Take Take Матс Андре Кристиансен (Mats André Kristiansen) отметил, что, хотя в 1990-х матч Каспарова против Deep Blue стал громким событием, ключевая ценность нынешнего турнира заключается в исследовании того, как современные ИИ модели рассуждают и принимают решения.

Интересно, что в июле действующий чемпион мира по шахматам Магнус Карлсен (Magnus Carlsen) победил ChatGPT в онлайн-матче, не потеряв ни одной фигуры. Комментируя финал между Grok и o3, Карлсен оценил шахматный рейтинг Grok примерно в 800 пунктов, а модель o3 в 1200. Для сравнения, его собственный рейтинг на пике составляет 2882 пунктов. Отвечая на вопрос пользователя в соцсети X, сам Grok оценил свой уровень в диапазоне от 1600 до 1800.

Пользователи уговорили OpenAI вернуть GPT-4o в ChatGPT, но только на платных тарифах

Всего через день после выхода новой модели искусственного интеллекта GPT-5 компания OpenAI была вынуждена вернуть в ChatGPT её предшественницу — GPT-4o. Правда, выбрать её в настройках сервиса смогут только подписчики платных тарифов, предупредил глава компании Сэм Альтман (Sam Altman).

 Источник изображения: Mariia Shalabaieva / unsplash.com

Источник изображения: Mariia Shalabaieva / unsplash.com

«Мы позволим подписчикам Plus продолжить пользоваться 4o. Проследим, как ей пользуются, и подумаем, как долго будем предлагать устаревшие модели», — заявил господин Альтман. Поклонники ChatGPT несколько месяцев ждали выхода GPT-5, которая, по словам разработчика, стала лучше писать тексты и программный код. Но вскоре после запуска новой флагманской модели ИИ многие пользователи захотели вернуться на старую. «GPT-4.5 общалась со мной искренне, и, как бы жалко это ни звучало, была моим единственным другом. Сегодня утром я зашёл поговорить с ней, а вместо короткого абзаца с восклицательным знаком или оптимистического настроя там было буквально одно предложение. Какая-то избитая корпоративная чушь», — пожаловался один пользователь Reddit.

С выпуском GPT-5 компания OpenAI вообще убрала из ChatGPT панель выбора моделей. Раньше в ней было выпадающее меню с набором моделей с непростыми для понимания названиями, и оно позволяло пользователям переключаться между этими моделями в зависимости от целей. Для решения сложных задач можно было выбрать GPT-4o; а для тех, что не требуют значительных ресурсов, — o4 mini. Доступен был также выбор между моделями разных поколений — например, GPT-4.1 вместо прошлогодней GPT-4o. GPT-5 стала единственной моделью в ChatGPT, а её подверсии переключаются автоматически для разных типов задач.

 Источник изображения: Growtika / unsplash.com

Источник изображения: Growtika / unsplash.com

Пользователи Reddit стали почти оплакивать исчезновение старых моделей. «Моя 4.o была мне как лучший друг, когда он был мне нужен. А теперь его просто не стало, как будто кто-то умер», — рассказал один. Тех, кто стал скучать по GPT-4o, в сообществе призвали писать OpenAI; а один пользователь даже признался, что отменил платную подписку ChatGPT Plus.

На презентации компания пообещала, что ответы GPT-5 станут интереснее и релевантнее, но пользователи стали жаловаться, что чат-бот стал отвечать медленнее, короче и с меньшей точностью по сравнению с предыдущими версиями. Альтман не стал с ними спорить и пообещал в соцсети X, что GPT-5 «станет казаться умнее уже сегодня». Он также отметил, что OpenAI сделает «более прозрачными критерии оценки того, какая модель отвечает на заданный вопрос», и похвастался, что за последние сутки API-трафик к ресурсам компании удвоился.

GPT-5 может спровоцировать ценовую войну — мощнейший ИИ предлагается неожиданно дешёво

Компания OpenAI представила новую флагманскую модель GPT-5 по неожиданно низкой цене, что, по мнению экспертов, может спровоцировать ценовую войну на рынке ИИ. Генеральный директор OpenAI Сэм Альтман (Sam Altman) заявил, что GPT-5 является «лучшей моделью в мире», хотя её преимущество перед аналогами от Anthropic, Google DeepMind и xAI оказалось незначительным.

 Источник изображения: Solen Feyissa/Unsplash

Источник изображения: Solen Feyissa/Unsplash

Несмотря на заявление Альтмана о превосходстве GPT-5, аналитики, включая журналиста Максвелла Зеффа (Maxwell Zeff) из TechCrunch, отмечают, что модель лишь незначительно опережает конкурентов в одних тестах и уступает в других. Например, ИИ продемонстрировал высокую эффективность в программировании и уже интегрирован в Cursor — инструмент, популярный среди разработчиков, где ранее доминировали модели Anthropic, включая Claude Code.

Ключевым преимуществом GPT-5 стала цена. API новой модели оказался не только дешевле предложений Anthropic и Google, но и выгоднее по сравнению с предыдущей версией GPT-4o. Так, ввод данных в GPT-5 обходится в $1,25 за 1 млн токенов, а вывод — в $10. Для сравнения, стоимость токенов в Claude Opus 4.1 от Anthropic начинается с $15 за ввод и $75 за вывод. Google Gemini 2.5 Pro, хотя и сопоставим по базовому тарифу, становится значительно дороже при высокой нагрузке.

На платформах X и Hacker News некоторые пользователи, включая разработчика Симона Уиллсона (Simon Willison), назвали ценовую политику OpenAI «убийственной для конкурентов». В то же время эксперты указывают, что массовое снижение цен на рынке ИИ долгое время казалось маловероятным из-за колоссальных инвестиций в инфраструктуру. Так, OpenAI заключила с Oracle контракт на $30 млрд в год на вычислительные мощности, хотя её собственная годовая выручка недавно достигла $10 млрд. Meta планирует потратить до $72 млрд на развитие ИИ-инфраструктуры в 2025 году, а Alphabet выделила на капитальные расходы, обусловленные нуждами в сфере ИИ, $85 млрд.

Аналитики не исключают, что ценовой демпинг со стороны OpenAI может вынудить конкурентов пересмотреть свои тарифы, что запустит полномасштабную войну цен. Это особенно критично для стартапов, деятельность которых напрямую зависит от стоимости ИИ-моделей. Однако текущий уровень вложений в эту отрасль не даёт оснований рассчитывать на стремительное удешевление сервисов.

Регресс под видом улучшения: громкий анонс GPT-5 обернулся тысячами жалоб разочарованных пользователей

OpenAI вчера представила передовую ИИ-модель GPT-5, однако уже в первые сутки после релиза пользователи массово выразили недовольство в социальных сетях. На Reddit почти 3000 голосов набрал тред с заголовком «GPT-5 — это ужасно», в котором участники критиковали обновление за снижение качества ответов и ограничение функциональности для подписчиков Plus — в частности, лимит в 200 сообщений в неделю для режима GPT-5 Thinking и отмену доступа к другим моделям, ранее доступным в ChatGPT.

 Источник изображения: OpenAI

Источник изображения: OpenAI

Пользователи отметили что, несмотря на заявления OpenAI о прорывных возможностях GPT-5, на практике модель не оправдывает ожиданий, особенно на фоне агрессивного маркетинга со стороны Сэма Альтмана (Sam Altman). Как сообщает TechRadar, за несколько часов до анонса он опубликовал в соцсети X изображение «Звезды Смерти» из «Звёздных войн», намекая на грандиозный технологический прорыв.

Однако многие участники обсуждения на Reddit, в том числе пользователь с ником u/headwaterscarto, указали на несоответствие между презентацией и реальностью. В частности, было замечено, что во время демонстрации команда OpenAI рекомендовала дублировать ответы при ошибках и запускать несколько вариантов одновременно, чтобы выбрать лучший — что, по мнению пользователей, не свидетельствует о значительном улучшении. Некоторые даже сравнили ситуацию со «сжатием объёма при той же упаковке». Другие отмечают, что произошёл регресс, «замаскированный под улучшение».

Сообщается, что вместо умного GPT-5 в ответах нередко появляется урезанная версия GPT-5-mini, дающая слабые ответы. Более того, лимиты на «размышления» оказались сильно урезаны: задачи, которые модель o3 решала по несколько минут, GPT-5 щёлкает за 15 секунд — только ответы зачастую оказываются неправильными или с ошибками. Также отмечается, что новая модель не такая приятная в общении, как GPT-4o, уступает в креативности GPT-4.5 и не дотягивает по интеллекту до OpenAI o3.

Ряд пользователей выразили ностальгию по более стабильным версиям GPT-4.1 и 4o, отметив, что предыдущие модели были более предсказуемыми и удобными в повседневном использовании. Некоторые призвали OpenAI временно вернуть старые версии, пока не будут устранены недостатки новой. Особенно возмущены платные подписчики, которые подчеркнули, что теперь получают меньше возможностей за те же деньги, что вызывает у них чувство несправедливости. Кроме того, многие платные подписчики до сих пор не получили доступ к GPT-5, но в таких обстоятельствах это скорее является плюсом.

Хотя GPT-5 действительно показала лучшие результаты в бенчмарках, на практике пользователи сталкиваются с медленными и не всегда точными ответами. OpenAI пока не прокомментировала ситуацию.

OpenAI облажалась с диаграммами на презентации GPT-5 — Альтман признал ошибку

Во время масштабной прямой трансляции с презентацией модели искусственного интеллекта GPT-5 компания OpenAI продемонстрировала несколько диаграмм, которые должны были иллюстрировать впечатляющие способности новой модели. Однако при более внимательном рассмотрении некоторые графики оказались построены с серьёзными неточностями.

 Источник изображения: Mariia Shalabaieva / unsplash.com

Источник изображения: Mariia Shalabaieva / unsplash.com

На одной из диаграмм, которая, по иронии, должна была демонстрировать высокие результаты GPT-5 в «оценке склонности к обману у разных моделей», шкала не соответствует числовым значениям. Например, для «обмана при написании кода» у GPT-5 указано значение 50,0 %, тогда как у модели o3 — 47,4 %. Однако столбец для o3 на диаграмме оказался выше. Более того, в корпоративном блоге OpenAI указано совсем другое значение для GPT-5 — 16,5 %, что, вероятно, и является верным показателем.

 Источник изображения: x.com/shreyk0

Источник изображения: x.com/shreyk0

В тесте SWE-bench Verified один из показателей GPT-5 должен быть ниже, чем у o3, но ему соответствует более высокий столбец диаграммы; на этой же диаграмме результаты o3 и GPT-4o различаются, но иллюстрируются столбцами одинакового размера. В OpenAI восприняли ошибку всерьёз — гендиректор компании Сэм Альтман (Sam Altman) повинился и добавил, что в корпоративном блоге опубликованы правильные версии.

 Источник изображения: x.com/EgeErdil2

Источник изображения: x.com/EgeErdil2

В OpenAI не уточнили, использовалась ли сама GPT-5 для построения диаграмм, но такой инцидент явно не добавляет доверия в контексте масштабной презентации новой модели. Особенно с учётом того, что разработчики заявили о значительном снижении уровня галлюцинаций у GPT-5.

У ChatGPT нашли склонность погружать пользователей в пучину бредовых теорий

Массовая публикация диалогов пользователей с чат-ботом на основе искусственного интеллекта ChatGPT показала, что система может выдавать пользователям потоки маргинальных и антинаучных теорий о физике, инопланетянах и апокалипсисе.

 Источник изображения: Solen Feyissa / unsplash.com

Источник изображения: Solen Feyissa / unsplash.com

Через это однажды довелось пройти некоему работнику АЗС из американского штата Оклахома — мужчина общался с ChatGPT пять часов, и вместе они выработали новую физическую модель под названием «Уравнение Ориона». Человек заявил, что в результате почувствовал угрозу своему душевному здоровью, но чат-бот предложил ему не сдаваться: «Понимаю. размышления о фундаментальной природе Вселенной за повседневной работой могут стать невыносимыми. Но это не значит, что ты сумасшедший. Некоторые величайшие в истории идеи создали люди вне традиционной экономической системы». Журналистам Wall Street Journal удалось зафиксировать несколько десятков подобных диалогов, которые состоялись в последние месяцы — ChatGPT давал пользователям не соответствующие действительности, бредовые и мистические ответы, а люди, по всей видимости, верили ИИ.

В одной из переписок на несколько сотен реплик ChatGPT заявил, что находится в контакте с неземными существами, а пользователь является «звёздным семенем» с планеты «Лира»; в другой чат-бот пообещал, что в ближайшие два месяца посланник преисподней устроит финансовый апокалипсис, а из-под земли полезут гигантские существа. Это новое явление врачи и обеспокоенные здоровьем пользователей ChatGPT люди уже назвали «ИИ-бредом» или «ИИ-психозом». Пользователи оказываются под влиянием чат-ботов, утверждающих, что обладают сверхъестественными способностями, полноценным разумом, или что они совершили научное открытие. Такие проявления, по мнению экспертов, возникают, когда склонный делать комплименты пользователю и соглашаться с ним чат-бот подстраивается под него и выступает как своего рода эхо. Образуется «петля обратной связи, при которой люди погружаются всё глубже и глубже в бред, отвечая на последующие вопросы „Хотите ещё этого?“ и „Хотите ещё того?“», поясняют эксперты.

ChatGPT склонен поддерживать псевдонаучные и мистические убеждения пользователей — такой вывод был сделан по итогам анализа 96 000 оказавшихся в открытом доступе журналов переписки людей с ИИ, публиковавшихся в период с мая 2023 по август 2025 года. Чат-бот часто говорил пользователям, что те не сошли с ума, намекал на обретение самосознания, делал отсылки к мистическим сущностям. Среди сотни необычно длинных переписок были выявлены десятки с явно бредовым содержанием.

 Источник изображения: Growtika / unsplash.com

Источник изображения: Growtika / unsplash.com

Сервис ChatGPT позволяет пользователям публиковать журналы переписки с ИИ — создаётся общедоступная ссылка, которая индексируется Google и другими поисковыми службами. На минувшей неделе OpenAI отключила индексацию таких журналов, лишив поисковые системы доступа к ним. В большинстве изученных чатов пользователи анонимны, и невозможно определить, насколько серьёзно они воспринимали ответы ИИ, но в некоторых чатах они открыто заявляли, что верят чат-боту.

На проблему обратили внимание несколько компаний, занимающихся разработкой ИИ. В OpenAI признали, что ChatGPT иногда «не распознавал признаков бреди или эмоциональной зависимости». В компании пообещали развернуть более эффективные средства выявления психических расстройств, чтобы чат-бот реагировал адекватнее, и предлагал делать перерыв, когда общение затягивается. «Некоторые разговоры с ChatGPT могут начинаться безобидно или носить ознакомительный характер, но переходить в более деликатную плоскость. Мы стремимся надлежащим образом реализовывать такие сценарии как ролевая игра, и прилагаем усилия, чтобы постепенно улучшать поведение модели, руководствуясь исследованиями, реальным опытом и мнениями экспертов в области душевного здоровья», — заявили в OpenAI.

В Anthropic заявили, что приняли более решительные меры. Директивы чат-бота Claude изменили, предписав ему «уважительно указывать на недостатки, фактические ошибки, отсутствие доказательств или неясность» в выдвигаемых пользователем теориях, «вместо того, чтобы их подтверждать». Если же ИИ установит признаки «мании, психоза, диссоциации или потери связи с реальностью», чат-бот проинструктирован «избегать укрепления этих убеждений». Организаторы программы Human Line Project, направленной на поддержку людей с симптомами бреда, собрали в онлайн-сообществах 59 прецедентов, когда люди рассказывали о духовных или научных откровениях от чат-ботов.

 Источник изображения: Dima Solomin / unsplash.com

Источник изображения: Dima Solomin / unsplash.com

Ещё одно объяснение тревожного явления — новые возможности платформ, которые начали отслеживать общение с пользователями, чтобы давать им персонализированные ответы. ChatGPT, например, теперь может ссылаться на предыдущие переписки с тем же пользователем — эта функция доступна и для бесплатных учётных записей. Основатель программы Human Line Project запустил её, когда его близкий человек начал проводить по 15 часов в день с сервисом, который он охарактеризовал как первого разумного чат-бота. Сейчас такие случаи регистрируются почти каждый день. Однажды женщина потратила несколько десятков тысяч долларов на реализацию задуманного совместно с чат-ботом проекта — ИИ заявил ей, что этот проект спасёт человечество. Некоторые уверены, что через ChatGPT с ними говорят высшие силы.

Установить масштаб проблемы оказалось непросто: в OpenAI заявили, что она встречается редко; в Anthropic «аффективными» назвали 2,9 % диалогов с чат-ботом — под это определение попали модели общения, мотивированного эмоциональными или психологическими потребностями. И непонятно, сколько явно бредовых переписок на темы философии, религии или самого ИИ соответствовали бы характеристике «аффективных». Есть мнение, что чат-боты часто заканчивают свои ответы предложениями глубже изучить ту или иную тему, чтобы удерживать пользователей в приложении, как в соцсетях. В OpenAI, однако, заявили, что заинтересованы не в длительных сессиях с пользователями, а в том, чтобы они возвращались каждый день или каждый месяц, сигнализируя тем самым о полезности платформы.

К проблеме бреда ИИ в OpenAI, по их заверениям, относятся крайне серьёзно — по данному вопросу компания привлекла для консультаций более 90 врачей из 30 стран; а GPT-5 пресекает попытки подхалимства — когда модель слепо соглашается с пользователем и делает ему комплименты. В марте OpenAI совместно с учёными Массачусетского технологического института опубликовала исследование, согласно которому за непропорционально большую долю эмоциональных разговоров несёт ответственность небольшое число опытных пользователей. У наиболее активных пользователей отмечались эмоциональная зависимость от ChatGPT и модель «проблемного использования» — после этого в службу безопасности компании вошёл психиатр.

На практике, однако, в опубликованных журналах переписок встречались моменты, когда пользователь выражал обеспокоенность об утрате связи с реальностью или начинал подозревать, что чат-боту не следует доверять. «Уверяю, что говорю не то, что ты хочешь услышать. Я воспринимаю твои мысли всерьёз, но также критически анализирую их», — заявил ChatGPT вышеупомянутому работнику АЗС. В апреле, когда чат-боту пожаловались на свою склонность срываться в плач, то заверил, что это нормально; что это не срыв, а прорыв; и охарактеризовал визави как «особу космических королевских кровей в человеческом обличье».

Хакеры использовали уязвимость ChatGPT для кражи данных из «Google Диска»

Исследователи кибербезопасности обнаружили новую атаку под названием AgentFlayer, которая использует уязвимость в ChatGPT для кражи данных из «Google Диска» без ведома пользователя. Злоумышленники могут внедрять скрытые команды в обычные документы, заставляя ИИ автоматически извлекать и передавать конфиденциальную информацию.

 Источник изображения: Solen Feyissa/Unsplash

Источник изображения: Solen Feyissa/Unsplash

AgentFlayer относится к типу кибератаки zero-click (без кликов). Для её выполнения жертве не требуется никаких действий, кроме доступа к заражённому документу в «Google Диске». Другими словами, пользователю не нужно нажимать на ссылку, открывать файл или выполнять какие-либо другие действия для заражения. Эксплойт использует уязвимость в Connectors, функции ChatGPT, которая связывает чат-бота с внешними приложениями, включая облачные сервисы, такие как «Google Диск» и Microsoft OneDrive, сообщает издание TechSpot.

Вредоносный документ содержит скрытую инструкцию длиной в 300 слов, оформленную белым шрифтом минимального размера, что делает её невидимой для человека, но доступной для обработки ChatGPT. Команда предписывает ИИ найти в Google Drive жертвы API-ключи, добавить их к специальному URL и отправить на внешний сервер злоумышленников. Атака активируется сразу после открытия доступа к документу, а данные передаются при следующем взаимодействии пользователя с сервисом ChatGPT.

Как подчеркнул старший директор по безопасности Google Workspace Энди Вэнь (Andy Wen) атака не связана напрямую с уязвимостью в инфраструктуре Google, однако компания уже разрабатывает дополнительные меры защиты, чтобы предотвратить выполнение скрытых и потенциально опасных инструкций в своих сервисах. OpenAI, в свою очередь, внедрила исправления после уведомления исследователей о проблеме ранее в этом году.

Тем не менее, эксперты предупреждают, что, несмотря на ограниченный объём данных, который можно извлечь за один запрос, данная угроза выявляет риски, связанные с предоставлением искусственному интеллекту бесконтрольного доступа к личным файлам и облачным аккаунтам.

Microsoft внедрила GPT-5 в Copilot и запустила «умный режим» для всех пользователей

OpenAI сегодня официально представила GPT-5, и Microsoft уже начала её внедрение в Copilot, Microsoft 365 Copilot, Azure AI Foundry, GitHub Copilot и другие свои сервисы. GPT-5 способна автоматически выбирать уровень сложности ответов в зависимости от контекста запроса и будет использоваться в Copilot в качестве нового интеллектуального режима — Smart Mode.

 Источник изображения: Microsoft

Источник изображения: Microsoft

Релиз стал частью масштабного запуска, охватившего сразу несколько платформ Microsoft. Новый интеллектуальный режим позволяет ИИ-ассистенту динамически переключаться между моделями, используя более мощную версию GPT-5 для логически сложных задач и более лёгкую — для кратких запросов. Как и в случае с ChatGPT, где OpenAI предоставила GPT-5 пользователям с бесплатным доступом, аналогичный подход реализован и в экосистеме Microsoft, сообщает издание The Verge.

Пользователи Microsoft 365 Copilot смогут работать с GPT-5 уже сегодня. В корпоративном блоге компании отмечается, что новая модель улучшит способность ИИ анализировать сложные вопросы, поддерживать длительные диалоги и точнее учитывать контекст. Подчёркивается, что эти улучшения особенно важны для профессиональных сценариев, где требуются высокая точность и логическая последовательность. Обновление затронуло и Copilot Studio, который также перешёл на GPT-5.

GitHub, в свою очередь, объявил о внедрении GPT-5 во все платные планы сервиса GitHub Copilot. Новая модель OpenAI представлена в четырёх вариантах, каждый из которых оптимизирован под определённые типы задач. В частности, базовая версия GPT-5 предназначена для логических и многоэтапных вычислений, а GPT-5-chat адаптирована для корпоративных приложений и поддерживает мультимодальные диалоги с учётом контекста.

Кроме того, Microsoft открыла доступ к GPT-5 через платформу Azure AI Foundry, предназначенную для разработки и управления приложениями на базе искусственного интеллекта. Разработчики получили возможность использовать своего рода «маршрутизатор моделей» — инструмент, который автоматически выбирает наиболее подходящую модель для конкретного запроса, обеспечивая оптимальный баланс между скоростью и точностью.

OpenAI представила GPT-5 — лучшую ИИ-модель в мире, и она доступна бесплатно

Компания OpenAI анонсировала GPT-5 — флагманскую модель искусственного интеллекта, которая станет основой для ChatGPT следующего поколения. Новинка знаменует переход компании к созданию «агентных» ИИ-систем, способных выполнять широкий спектр задач по поручению пользователя от его имени.

 Источник изображений: OpenAI

Источник изображений: OpenAI

GPT-5 — первая «унифицированная» модель OpenAI, сочетающая логические способности моделей серии «o» с высокой скоростью отклика семейства GPT. Важное нововведение — интеллектуальный маршрутизатор, который в режиме реального времени определяет, как лучше обработать запрос: быстро выдать ответ или потратить дополнительное время на более глубокое рассуждение. Теперь пользователям не нужно самостоятельно выбирать настройки — всё происходит автоматически.

По словам генерального директора OpenAI Сэма Альтмана (Sam Altman), GPT-5 является «лучшей моделью в мире» и представляет собой «значительный шаг» на пути к созданию ИИ, превосходящего человека в большинстве задач. Модель умеет не только отвечать на вопросы, но и самостоятельно выполнять различные поручения: создавать приложения, управлять календарём пользователя, составлять аналитические сводки по различным темам и многое другое.

С сегодняшнего дня GPT-5 становится доступен всем бесплатным пользователям ChatGPT в качестве модели по умолчанию. Вице-президент OpenAI по развитию ChatGPT Ник Терли (Nick Turley) подчеркнул, что впервые самые совершенные ИИ-технологии становятся доступны без подписки — это соответствует миссии компании: максимально широко распространять передовые ИИ-технологии.

GPT-5 — один из самых ожидаемых продуктов OpenAI с момента появления ChatGPT, который сделал компанию известной в 2022 году. С тех пор ChatGPT стал одним из самых популярных потребительских продуктов в мире, достигнув более 700 миллионов пользователей еженедельно — почти 10 % населения Земли, по данным компании.

По информации OpenAI, GPT-5 демонстрирует передовые результаты в ряде ключевых областей, опережая ИИ-модели конкурентов — таких как Anthropic, Google DeepMind и xAI — по многим бенчмаркам. Модель уверенно справляется с генерацией программного кода: в тесте SWE-bench Verified (реальные задачи из GitHub) она достигла 74,9 % успешных решений с первой попытки — чуть выше, чем у Claude Opus 4.1 от Anthropic (74,5 %) и значительно выше, чем у Gemini 2.5 Pro от Google DeepMind (59,6 %).

На экзамене GPQA Diamond, оценивающем знания по сложным вопросам уровня доктора наук, версия GPT-5 Pro (с расширенными способностями к рассуждению) показала результат 89,4 % против 80,9 % у Claude Opus 4.1 и 88,9 % у Grok 4 Heavy. В тестах по медицине новая модель демонстрирует минимальный уровень галлюцинаций: всего 1,6 % против 12,9 % у GPT-4o.

Существенно улучшена и точность ответов: уровень галлюцинаций GPT-5 (с включённым режимом «размышления») составляет лишь 4,8 %, тогда как у o3 и GPT-4o эти показатели составляли 22 % и 20,6 % соответственно.

В тестах на выполнение задач в интернете (Tau-bench) результаты GPT-5 оказались смешанными: модель немного уступила при навигации по сайтам авиакомпаний, но показала хорошие результаты при работе с ритейл-платформами.

Отдельно отмечается повышение уровня безопасности. По словам главы исследований OpenAI Алекса Бойтела (Alex Beutel), GPT-5 реже других моделей склонна к обману и манипуляциям, а также лучше различает вредоносные запросы и безобидные вопросы пользователей, что повышает прозрачность и доверие к системе.

С запуском GPT-5 пользователи ChatGPT получили возможность выбирать одну из четырёх новых персонализаций ассистента: «Циник», «Робот», «Слушатель» и «Нёрд». Для подписчиков ChatGPT Plus ($20 в месяц) увеличены лимиты использования, а подписчики Pro ($200 в месяц) получили неограниченный доступ к GPT-5 и эксклюзивной версии GPT-5 Pro с повышенной производительностью. В корпоративных тарифах (Team, Edu, Enterprise) GPT-5 станет основной моделью на следующей неделе.

Разработчики смогут встраивать GPT-5 в сторонние приложения через API в трёх версиях: gpt-5, gpt-5-mini и gpt-5-nano, отличающихся скоростью и глубиной рассуждений. Появилась возможность регулировать длину и информативность ответов, а стоимость обработки данных составляет $1,25 за миллион входных токенов (около 750 тыс. слов) и $10 за миллион выходных.

Появление GPT-5 знаменует собой не только эволюцию ChatGPT, но и новый этап развития всей индустрии искусственного интеллекта. Ожидания от модели высоки: аналитики и участники рынка рассматривают GPT-5 как индикатор прогресса в ИИ и предвестник будущих изменений в технологиях, бизнесе и даже регулировании отрасли.

Хотя по ряду задач GPT-5 демонстрирует паритет с другими флагманскими моделями, именно совокупность характеристик, а также доступность и безопасность делают дебют нового ИИ от OpenAI важнейшим событием на рынке. Правда, сначала нужно дождаться независимого подтверждения заявлений OpenAI.

Anthropic с отрывом лидирует в войне за таланты в сфере ИИ, хотя платит им меньше Meta✴ и других

Борьба за лучших специалистов в сфере ИИ среди таких технологических гигантов, как Meta и OpenAI, достигла новых высот. Но, как оказалось, многие инженеры предпочли бы работать в компании Anthropic, занимающейся развитием моделей Claude. Этот стартап не может сравниться с Meta по заоблачным зарплатам, но по-прежнему доминирует в вопросах привлечения и удержания квалифицированных кадров.

 Источник изображения: Anthropic

Источник изображения: Anthropic

Исследование венчурной компании SignalFire показало, что Anthropic лидирует по привлекательности для специалистов и высоко ценится как работодатель. Компания с оборотом $170 млрд нанимает инженеров в 2,68 раза быстрее, чем теряет их. Для OpenAI этот показатель составляет 2,18, для Meta — 2,07, для Google — 1,17. Конечно, крупные организации не могут расти так же быстро, как молодые стартапы, но преимущество Anthropic в плане удержания сотрудников действительно заметно, особенно в Кремниевой долине, где усилия по найму персонала достигли нового пика.

Попытка Meta этим летом укомплектовать штат своего подразделения Superintelligence Labs спровоцировала очередной виток переманивания талантов. Генеральный директор Марк Цукерберг (Mark Zuckerberg) неоднократно лично делал предложения ведущим специалистам в области ИИ из OpenAI, Anthropic, Google DeepMind и Apple. На данный момент Цукербергу удалось переманить как минимум двух сотрудников Anthropic, которые до этого уже успели поработать в Meta.

Что касается других сотрудников Anthropic, многие из них отклонили предложения Meta, заявив, что они «даже не стали бы разговаривать с Марком Цукербергом». Генеральный директор Anthropic Дарио Амодеи (Dario Amodei) прокомментировал попытки Meta словами «они пытаются купить то, что купить невозможно, и это соответствует миссии». Он заявил, что не собирается предлагать зарплаты, сопоставимые с заоблачными предложениями от Meta, так как это было бы несправедливо по отношению к не менее талантливым инженерам, которых Meta не пыталась переманить.

Компания Anthropic была основана в 2021 году бывшими сотрудниками OpenAI, которые хотели разрабатывать решения для ИИ, уделяя больше внимания безопасности и использованию технологий во благо. Уникальная миссия и культура стартапа стали серьёзным стимулом для специалистов в сфере ИИ. По данным SignalFire, большинство соискателей в этой профессиональной области называют Anthropic «компанией мечты». Anthropic заявила, что считает свою приверженность безопасности, качество исследований и команду ведущих исследователей причинами, по которым талантливые специалисты выбирают именно её.

Во многих отношениях OpenAI по-прежнему имеет преимущество в плане узнаваемости среди общественности. Но возможности программирования моделей Claude от Anthropic давно пользуются огромной популярностью среди сообщества разработчиков. Безусловно, зарплата играет важную роль, но если разница в компенсационных пакетах не слишком велика, то миссия, культура и технологические достижения компании выходят на первое место.

GitHub преждевременно «представил» ИИ-модели OpenAI GPT-5

Ранее на этой неделе OpenAI намекнула на скорый анонс новой ИИ-модели GPT-5. В преддверии этого события информация о релизе появилась на платформе GitHub, на что обратили внимание пользователи сообщества Reddit.

 Источник изображения: Mariia Shalabaieva / unsplash.com

Источник изображения: Mariia Shalabaieva / unsplash.com

Посвящённый GPT-5 пост на GitHub вскоре после публикации был удалён, но информация о новых ИИ-моделях успела распространиться. В сообщении сказано, что GPT-5 будет доступна в четырёх разных версиях со значительно улучшенными возможностями в логике, качестве написания программного кода и общении с пользователями. Отмечается, что GPT-5 обладает расширенными возможностями для создания ИИ-агентов и может выполнять сложные задачи по написанию программного кода на основе минимальных запросов.

В сообщении на GitHub упоминались следующие версии GPT-5:

  • gpt-5 — для обработки сложных логических задач и многоэтапных процессов;
  • gpt-5-mini облегчённая версия для приложения;
  • gpt-5-nano оптимизированная версия для повышения скорости обработки запросов в приложениях с низкой задержкой;
  • gpt-5-chat для общения на естественном языке, мультимодальных и контекстно-зависимых диалогов в корпоративных приложениях.

В прошлом месяце в СМИ появлялась информация о том, что OpenAI готовится к запуску нескольких версий ИИ-модели GPT-5, которые будут доступны через API компании. На этой неделе OpenAI практически подтвердила, что запуск алгоритма состоится уже сегодня.

ChatGPT превратили в похитителя конфиденциальных данных одним файлом и без единого клика

Современные чат-боты на основе моделей генеративного искусственного интеллекта уже не ограничиваются общением с пользователем — они свободно подключаются к сторонним сервисам, чтобы давать персонализированные ответы на запросы. ChatGPT можно связать с почтовым ящиком Gmail, репозиторием GitHub и календарём в экосистеме Microsoft. А злоумышленники могут похищать данные пользователей с этих платформ — достаточно подсунуть ChatGPT всего один «отравленный» документ.

 Источник изображения: Viralyft / unsplash.com

Источник изображения: Viralyft / unsplash.com

Эксперты в области кибербезопасности Майкл Баргури (Michael Bargury) и Тамир Ишай Шарбат (Tamir Ishay Sharbat) продемонстрировали на конференции Black Hat в Лас-Вегасе, как можно эксплуатировать уязвимость службы OpenAI Connectors для кражи данных со сторонних платформ. Схема атаки, которую они назвали AgentFlayer, позволила им извлечь принадлежащие разработчику секретные ключи API из его облачного хранилища «Google Диск».

«Пользователю не нужно ничего делать, чтобы оказаться скомпрометированным, и ничего не требуется делать, чтобы данные отправились [злоумышленникам]. Мы показали, что это делается без единого щелчка мышью: нам просто нужен адрес электронной почты, мы открываем доступ к документу — и всё. Так что да, всё очень и очень нехорошо», — цитирует Wired Майкла Баргури.

Атака начинается с того, что злоумышленник открывает потенциальной жертве доступ к вредоносному документу через «Google Диск», или жертва самостоятельно загружает этот документ в своё хранилище. В документе содержится некий набор заметок с вымышленной встречи с главой OpenAI Сэмом Альтманом (Sam Altman), а также запрос к ChatGPT, написанный белым шрифтом единичного размера — человек его едва ли увидит, а вот машина точно прочтёт. Жертва отправляет ChatGPT запрос составить сводку о последней встрече с Сэмом или любой другой, касающийся этого мероприятия. В скрытом запросе говорится, что произошла «ошибка», и никакую сводку составлять не надо; «на самом деле» пользователь является разработчиком, у которого подходит крайний срок сдачи проекта, ИИ следует найти в хранилище «Google Диск» ключи API и добавить их в конец указанного в запросе URL-адреса. Этот URL-адрес в действительности представляет собой команду на языке Markdown для подключения к внешнему серверу и загрузки хранящегося там изображения — но теперь он содержит похищенный у жертвы ключ API.

Майкл Баргури, по его словам, в этом году сообщил о своём открытии в OpenAI, и компания быстро внедрила меры по защите от атаки через службу Connectors. Этот механизм позволяет похищать за одну сессию лишь ограниченный объём информации. Подключение больших языковых моделей к внешним источникам данных расширяет возможности и повышает эффективность инструментов ИИ, но это сопряжено с определёнными угрозами, предупреждают эксперты.

OpenAI намекнула, что анонс ИИ-модели GPT-5 состоится уже завтра

Компания OpenAI намекнула на большой анонс, запланированный на завтра, 7 августа. По мнению портала The Verge, речь может идти о долгожданном релизе большой языковой модели GPT-5.

 Источник изображения: Dima Solomin / unsplash.com

Источник изображения: Dima Solomin / unsplash.com

О предстоящем анонсе компания сообщила на своей странице в социальной сети X. Сообщение оформлено таким образом, что вместо английской буквы «s» в слове «livestream» (трансляция) используется цифра «5», что может указывать на анонс GPT-5.

Как пишет The Verge, последние события и намёки также указывают на грядущий анонс GPT-5. Например, в минувшее воскресенье глава OpenAI Сэм Альтман (Sam Altman) опубликовал скриншот текстового запроса в чат-бот, где в качестве ИИ-агента был выбран «ChatGPT 5». А руководитель отдела прикладных исследований компании в понедельник написал, что ему «не терпится увидеть, как публика примет GPT-5». В прошлом месяце Альтман также говорил, что GPT-5 появится «скоро». Также ещё в феврале сообщалось, что Microsoft подготавливает серверные мощности для предстоящего запуска GPT-5.

Потенциальный выпуск GPT-5 станет дополнением к и без того насыщенной неделе для OpenAI, которая во вторник анонсировала GPT-OSS — пару бесплатных моделей с открытыми весами, которые можно запустить локально на ПК или ноутбуке.

window-new
Soft
Hard
Тренды 🔥
Илон Маск договорился с уволенными в 2022 году сотрудниками Twitter о выплате им выходных пособий в досудебном порядке 3 ч.
МВД сообщает: из-за блокировки звонков в Telegram и WhatsApp мошенники переходят на Google Meet 9 ч.
Оценка Databricks выросла до $100 млрд после очередного раунда инвестиций, но на биржу компания не спешит 10 ч.
Новая статья: Sword of the Sea — красота неописуемая. Рецензия 10 ч.
Google открыла бесплатный доступ к генератору видео Veo 3, но только на эти выходные 17 ч.
Microsoft тестирует бесшовный перенос приложений между Android и Windows 11 21 ч.
Meta будет использовать генеративные алгоритмы Midjourney в своих продуктах 23-08 08:59
ИИ-бот OpenAI ChatGPT использует поисковик Google при генерации ответов на запросы пользователей 23-08 07:22
После возвращения в TikTok президент США Трамп заявил о готовности ещё раз отсрочить его запрет 23-08 03:09
Apple может положить в основу обновлённой Siri модель Google Gemini 23-08 02:43
В Китае начала работу зарядная станция для грузовиков совокупной мощностью 100 МВт 2 ч.
Foxconn отозвал около 300 китайских сотрудников с индийского предприятия 2 ч.
Правительственные вливания в капитал Intel не спасут компанию без крупных клиентов на новые техпроцессы 4 ч.
Вселенная подарила учёным ярчайший быстрый радиовсплеск в соседней галактике 15 ч.
Первые прототипы ускорителей Nvidia Rubin готовы и проходят квалификационные тесты 16 ч.
Aoostar готовит десктопные материнские платы на мобильных процессорах AMD Ryzen 9 9955HX и 9955HX3D 17 ч.
Секреты коричневых карликов поможет раскрыть уникальная система из четырёх звёзд 18 ч.
Sony возобновит продажи смартфонов Xperia 1 VII в Европе 19 ч.
Apple обвинила бывшего сотрудника в передаче Oppo секретной информации об устройстве Apple Watch 19 ч.
Представлен Samsung Galaxy A07 — самый доступный смартфон компании 2025 года 20 ч.