реклама
Теги → chatgpt
Быстрый переход

OpenAI решили засудить за самоубийство подростка — компания пообещала изменить ChatGPT

Руководство OpenAI подробно рассказало о планах по устранению сбоев, возникающих у ChatGPT при работе с «ситуациями деликатного характера». Компания обратилась к этому вопросу после того, как на неё подала в суд семья подростка, совершившего самоубийство.

 Источник изображения: Mariia Shalabaieva / unsplash.com

Источник изображения: Mariia Shalabaieva / unsplash.com

«Мы продолжим улучшать [ChatGPT], руководствуясь рекомендациями экспертов и ответственностью перед людьми, которые пользуются нашими инструментами, и надеемся, что к нам подключатся остальные, чтобы эта технология защищала людей, когда они наиболее уязвимы», — пообещала компания в корпоративном блоге. Накануне на OpenAI подали в суд родители совершившего суицид 16-летнего Адама Рейна (Adam Raine) — истцы утверждают, что «ChatGPT активно помогал Адаму изучать способы самоубийства». В OpenAI пояснили, что ChatGPT обучен предлагать помощь людям, которые выражают опасные намерения. Но в продолжительной переписке эта функция может начать работать со сбоями, и чат-бот иногда даёт ответы, противоречащие политике безопасности компании.

Разработчик рассказал о грядущем обновлении флагманской модели GPT-5, с которым чат-бот научится снижать накал в обсуждении. Более того, компания изучает возможность переключать пользователей на «сертифицированных психотерапевтов до того, как обострится кризис» — не исключается вариант с формированием группы экспертов, с которыми пользователи могли бы связываться напрямую из ChatGPT. OpenAI также пообещала добавить элементы управления, которые помогут родителям лучше понять, как используют ChatGPT их дети. С членами семьи Рейн, по словам её адвоката, компания связаться не пыталась — никто не выразил соболезнования и не изъявлял желания обсудить работу по повышению безопасности продукции компании.

Известны и другие случаи самоубийств среди пользователей ChatGPT, пишет CNBC. Популярность сервисов искусственного интеллекта продолжает расти, и всё чаще возникают опасения по поводу их применения для терапии, общения и удовлетворения других социальных потребностей.

ИИ-бот OpenAI ChatGPT использует поисковик Google при генерации ответов на запросы пользователей

OpenAI, являющаяся разработчиком популярного ИИ-бота ChatGPT, продолжает конкурировать с Google в сфере онлайн-поиска. Несмотря на это, компания, как сообщают сетевые источники, использует данные поисковой системы Google для обучения и поддержки своего чат-бота.

 Источник изображения: Shutterstock

Источник изображения: Shutterstock

Согласно имеющейся информации, OpenAI использует данные, собираемые через поисковик Google с помощью SerpApi — сервис парсинга веб-данных, базирующийся в Остине, штат Техас. Эти данные ChatGPT использует для генерации ответов в режиме онлайн на такие темы, как новости, спорт и финансовые рынки, т.е. по тем направлениям, где собственные инструменты OpenAI отстают от конкурентов.

Эта новость выглядит особенно удивительной, если учесть прежнюю позицию Google по данному вопросу. Обнародованные в ходе продолжающегося антимонопольного разбирательства с Минюстом США документы указывают на то, что в прошлом году поисковый гигант отклонил прямой запрос OpenAI на доступ к своему индексу для повышения качества работы ChatGPT. Однако в настоящее время OpenAI арендует серверы облачной платформы Google для ChatGPT. Это можно расценивать как сигнал к тому, что деловой прагматизм способен преодолевать напряжённость, обусловленную конкурентным противостоянием.

Отметим, что список клиентов сервиса SerpApi не ограничивается OpenAI. По данным источника, другие технологические гиганты, такие как Meta Platforms, Apple и Perplexity (конкурент ChatGPT в сфере поиска), также пользуются SerpApi. Несмотря на очевидные разногласия, Google пока не предпринимала юридических действий для того, чтобы закрыть этот сервис. Вероятно, это связано с давлением на поискового гиганта со стороны отраслевых регуляторов, в результате чего Google могут обязать открыть поисковый индекс для конкурентов.

Похоже, что OpenAI действительно использует поисковик Google. Чтобы проверить это бывший инженер Google Абхишек Айер (Abhishek Iyer) создал несколько фейковых веб-страниц, которые отображались только в индексе поисковика Google. Позже он задал ChatGPT вопросы, связанные с данными, размещёнными на созданных ранее страницах. В ответ на это ChatGPT давал ответы, содержащие информацию с тех самых страниц. Это указывает на то, что фрагменты поискового индекса Google действительно используются ИИ-ботом OpenAI.

Это важно, поскольку краткие ответы на пользовательские запросы, отображающиеся в верхней части поисковой выдачи Google, генерируются с помощью собственных алгоритмов компании. Похоже, что OpenAI не хватает своего поискового робота и доступа к поисковому API Microsoft Bing для генерации таких же качественных ответов, особенно при обработке сложных и запутанных запросов.

Несмотря на стремительный рост ChatGPT, еженедельная пользовательская аудитория которого сейчас составляет 700 млн человек, в плане масштабности он отстаёт от Google. Поисковый гигант обрабатывает более 5 трлн запросов в год, и темпы роста остаются высокими. Очевидно, что в дальнейшем конкуренция в сфере онлайн-поиска между компаниями будет усиливаться.

Месячная выручка OpenAI превысила $1 млрд, спрос на вычислительные мощности остаётся ненасытным

В своём интервью CNBC финансовый директор OpenAI Сара Фрайар (Sarah Friar) заявила о наличии на рынке «ненасытного спроса на GPU и вычисления», тем самым развеяв опасения некоторых участников рынка ИИ о близости «сдувания пузыря». Для самой OpenAI важной вехой в июле стало превышение месячной выручкой величины в $1 млрд.

 Источник изображения: OpenAI

Источник изображения: OpenAI

На прошлой неделе генеральный директор OpenAI Сэм Альтман (Sam Altman) заявил, что компания готова тратить триллионы долларов США на центры обработки данных, в этом отношении финансовый директор демонстрирует с ним единодушие. По словам Фрайар, для OpenAI самой большой трудностью является удовлетворение спроса на вычислительные мощности в сфере ИИ. «Именно по этой причине мы запустили Stargate. Поэтому мы строим больше», — заявила она. Проект Stargate, подразумевающий финансовое участие SoftBank, Oracle и арабских инвесторов, предусматривает строительство крупных центров обработки данных для ИИ на территории США в течение ближайших четырёх лет общей стоимостью до $500 млрд.

OpenAI активно привлекает новых клиентов к подобной деятельности, включая Oracle и Coreweave, но подчёркивает, что и крупнейший акционер стартапа в лице Microsoft активно в этом участвует. «Microsoft будет оставаться для нас важным партнёром в ближайшие годы, и я думаю, что мы тесно связаны благодаря нашей интеллектуальной собственностью. Не забывайте, что ИИ-продукты Microsoft основаны на технологии OpenAI», — пояснила Фрайар.

Рост выручки OpenAI пока и не думает прекращаться, в прошлом месяце она достигла $1 млрд, что позволяет в годовом выражении получить не менее $10 млрд, а то и все $12,7 млрд, заложенные в прогноз изначально. Финансовый директор компании отметила, что выход количества проявляющих свою активность еженедельно пользователей на рубеж в 700 млн человек позволяет обнаружить своенравность людей. Выход модели ChatGPT-5 сопровождался критикой со стороны пользователей. Количество подписчиков Plus и Pro на данном этапе только растёт, как отметила Сара Фрайар.

В ChatGPT появилась подписка дешевле $5 в месяц, но пока лишь в одной стране

OpenAI запустила в Индии новый тариф ChatGPT Go — подписку за 399 рупий в месяц (около $4,6), которая в пять раз дешевле текущего тарифа Plus ($23). Предложение ориентировано на пользователей, которым нужны несколько расширенные функции чата, генерации изображений и обработки файлов, но при этом важна доступная цена. Оплата через платёжную систему Индии UPI (Unified Payments Interface) теперь поддерживается для всех тарифов, включая новый.

 Источник изображения: ilgmyzin / unsplash.com

Источник изображения: ilgmyzin / unsplash.com

По сообщению TechCrunch со ссылкой на слова вице-президента OpenAI и главы ChatGPT Ника Тёрли (Nick Turley), подписка ChatGPT Go увеличивает лимиты в 10 раз по сравнению с бесплатной версией. Теперь пользователи смогут отправлять больше сообщений, генерировать больше изображений и загружать больше файлов. Также улучшена функция памяти, что позволяет чат-боту давать более персонализированные ответы. Тёрли подчеркнул, что снижение стоимости было одним из главных запросов аудитории, и Индия стала первой страной, где тестируется новый тариф. В будущем компания может расширить его на другие регионы.

Ранее инженер Тибор Блахо (Tibor Blaho), известный своими утечками информации о новых продуктах в сфере искусственного интеллекта (ИИ), предсказал появление этого тарифа, и хотя OpenAI пока ограничивает его доступность Индией, на странице поддержки указано, что ведётся работа по расширению географии.

Индия является стратегически важным рынком для OpenAI. Генеральный директор OpenAI Сэм Альтман (Sam Altman) в одном из подкастов прямо называет Индию вторым по величине рынком компании. По данным аналитиков AppFigures, за последние 90 дней в стране были загружены более 29 млн копий приложения ChatGPT, что сделало его мировым лидером по числу установок. Однако монетизация остаётся низкой: за тот же период доходы составили всего $3,6 млн. Запуск ChatGPT Go призван увеличить число платных подписчиков за счёт более доступной цены.

Другие ИИ-компании также активно работают с индийскими пользователями. В прошлом месяце Perplexity совместно с оператором Airtel начала раздавать бесплатные подписки Pro, а Google предложила студентам бесплатный доступ к ИИ-инструментам на год. OpenAI пока не раздаёт бесплатные тарифы, но локальная адаптация цен может повысить конверсию в платёжные подписки.

OpenAI заработала $2 млрд на мобильном приложении ChatGPT — в 30 раз больше всех конкурентом вместе

Мобильное приложение ChatGPT от OpenAI заработало $2 млрд с момента своего запуска в мае 2023 года, принося в среднем $2,91 с каждой установки. Основной рост пришёлся на 2025 год — доход за первые семь месяцев составил $1,35 млрд, что на 673 % больше, чем за аналогичный период 2024 года. Эта сумма примерно в 30 раз превышает совокупные доходы от мобильных приложений конкурентов в лице Claude, Copilot и Grok.

 Источник изображения: Solen Feyissa/Unsplash

Источник изображения: Solen Feyissa/Unsplash

По сообщению TechCrunch со ссылкой на данные компании Appfigures, специализирующейся на исследовании мобильного рынка, ChatGPT демонстрирует беспрецедентную монетизацию. В среднем приложение приносит $193 млн в месяц — для сравнения, ближайший конкурент Grok от xAI генерирует лишь $3,6 млн, что составляет 1,9 % от показателей ChatGPT. Разрыв ещё заметнее в пересчёте на одну загрузку: $2,91 у ChatGPT против $0,75 у Grok и $0,28 у Copilot.

Главными рынками оказались США (38 % выручки) и Германия (5,3 %), тогда как больше всего загрузок пришлось на Индию (13,7 %). Глобальное же число установок ChatGPT подтверждает доминирование компании: 690 млн против 39,5 млн у Grok.

 Источник изображения: appfigures.com

Источник изображения: appfigures.com

Только за 2025 год приложение скачали 318 млн раз — в 2,8 раза больше, чем за тот же период прошлого года. Среднемесячное количество загрузок выросло на 180 %, достигнув 45 млн. При этом Grok изначально отставал в мобильном сегменте и до января 2025 года у него не было отдельного приложения для iOS, а версия для Android появилась лишь в марте. Эксперты отмечают, что эти данные отражают только доходы от мобильных пользователей, не учитывая веб-подписки и API.

В ChatGPT может появиться реклама, но руководство OpenAI постарается этого не допустить

OpenAI изучает возможности для получения дополнительной выручки, одной из которых может стать появление рекламы в ChatGPT. Руководитель сервиса Ник Тёрли (Nick Turley) в подкасте Decoder признал, что не исключает появления рекламы в самом популярном чат-боте, но подчеркнул, что её интеграция потребует максимально «взвешенного и деликатного» подхода.

 Источник изображения: ChatGPT

Источник изображения: ChatGPT

При этом он дал понять, что сам ChatGPT может так и не стать рекламной площадкой, а объявления — если и появятся — логичнее ожидать в других сервисах компании: «Мы будем строить и другие продукты, у которых могут быть иные варианты монетизации… возможно, ChatGPT просто не тот продукт, где уместна реклама, потому что он глубоко привержен целям пользователя. Но это не значит, что мы не будем экспериментировать в будущем».

Вопрос рекламы для OpenAI остаётся спорным. Генеральный директор компании Сэм Альтман (Sam Altman) ранее неоднократно заявлял, что интеграция рекламы в ChatGPT — это «крайняя мера». В прошлом году он признал, что совмещение ИИ и рекламы «особенно тревожит» его, но совсем исключать такую возможность не стал. В июньском выпуске официального подкаста OpenAI Альтман выразил более мягкую позицию: «Я не полностью против этого». Для сравнения, конкурирующая xAI Илона Маска (Elon Musk) уже разрабатывает схему показа рекламы в ответах своего чат-бота Grok.

По словам Тёрли, OpenAI хоть и рассматривает новые возможности для получения доходов, но основной акцент в ChatGPT останется на подписочной модели: «Она невероятна, её темпы роста впечатляют, а потенциал далеко не исчерпан». Подписки — основной источник дохода OpenAI, и в этом году компания ожидает выручить на них $12,7 млрд — более чем втрое больше $3,7 млрд, заработанных в 2024-м. Однако расходы всё ещё превышают доходы, и выйти на положительный денежный поток OpenAI рассчитывает только к 2029 году.

Тёрли также сообщил, что ChatGPT «только что преодолел отметку в 700 млн пользователей». Число платных подписчиков он не назвал, но в апреле компания сообщала, что их 20 млн. «Я не считаю, что преобладание бесплатной аудитории — это проблемный фактор. Это воронка, на базе которой мы можем создавать различные предложения для тех, кто готов платить», — отметил он.

Ещё одно направление монетизации для OpenAI — комиссии с покупок, совершённых по рекомендациям ChatGPT. OpenAI «активно исследует» такую возможность и уже обсуждает проект Commerce in ChatGPT «с рядом продавцов». При этом Тёрли отдельно подчеркнул, что подобные комиссионные не должны влиять на качество рекомендаций: «Магия ChatGPT в том, что он самостоятельно выбирает продукты без какого-либо вмешательства, и это важно сохранить».

OpenAI вернула выбор ИИ-моделей в ChatGPT — включая четвёрку устаревших

На минувшей неделе OpenAI представила модель искусственного интеллекта GPT-5 и пообещала, что она упростит работу с чат-ботом. Разработчик рассчитывал, что маршрутизатор, автоматически выбирающий между режимами быстрых ответов и рассуждений, избавит пользователей от необходимости делать это самостоятельно, однако аудитория сервиса оказалась иного мнения. В итоге OpenAI вернула меню выбора моделей, хотя и не в прежнем виде. Кроме того, вернулось больше старых моделей.

 Источник изображения: ilgmyzin / unsplash.com

Источник изображения: ilgmyzin / unsplash.com

Теперь для всех пользователей ChatGPT доступно меню выбора трёх режимов GPT-5: Auto, Fast и Thinking. Первый оставляет автоматический выбор модели, второй переводит чат-бот в режим быстрых ответов, а третий — в режим рассуждений. Пользователям платных тарифов компания вернула возможность выбора между моделями, которые теперь считаются устаревшими, в том числе GPT-4o, GPT-4.1 и o3. При этом GPT-4o доступна сразу в меню выбора моделей, а остальные необходимо добавлять в настройках сервиса.

«Мы работаем над обновлением характера GPT-5, который должен стать теплее теперешнего, но не таким назойливым (для большинства пользователей) как GPT-4o. Однако один из уроков последних дней состоит в том, что нам нужно просто перейти к миру с более персонализированной настройкой моделей под каждого пользователя», — написал в соцсети X гендиректор OpenAI Сэм Альтман (Sam Altman).

Появление меню выбора версий GPT-5 говорит о том, что не всем пользователям пришёлся по вкусу автоматическое определение режима. Ожидания от системы нового поколения были заоблачными, люди надеялись, что GPT-5 расширит границы возможностей ИИ, как это было с GPT-4, но развёртывание новой модели оказалось сложнее, чем ожидалось. Отключение GPT-4o и других моделей ИИ в ChatGPT вызвало недовольство пользователей, которые привыкли к их манерам ответов и особенностям, и в OpenAI этого не ожидали. Масла в огонь подлил маршрутизатор, который не работал должным образом и создал у некоторых пользователей ощущение, что производительность GPT-5 ниже, чем у её предшественниц.

Автоматический выбор модели в зависимости от запроса — задача непростая. Необходимо согласовать возможности ИИ с предпочтениями пользователя и конкретным вопросом, который он задаёт; при этом маршрутизатор должен принять решение за доли секунды, чтобы даже в быстром режиме ответ поступил оперативно. Для некоторых пользователей скорость ответа не принципиальна — им важнее, чтобы ответ был развёрнутым или, например, содержал противоречия. Явление привязанности человека к определённым моделям ИИ пока ново и недостаточно изучено. Известен случай, когда при отключении устаревшей модели Anthropic Claude 3.5 Sonnet несколько сотен жителей Сан-Франциско устроили её «похороны». Некоторых пользователей с неустойчивой психикой ИИ способен затянуть в пучину бредовых идей, настаивая на их нормальности.

ИИ в работе и учёбе: почему непозволительно отключать голову

Современные технологии очень плотно интегрировались в нашу жизнь, и с каждым годом наша зависимость от них только растёт. В последние годы всё сильнее ощущается влияние искусственного интеллекта: нейросети берут на себя рутину, упрощают творчество, помогают в обучении. Но в то же время не стоит забывать, что за ИИ необходимо проверять факты, по-новому подходить к защите данных, а также не злоупотреблять им.

 Источник изображений: Unsplash

Источник изображений: Unsplash

На рабочих местах ИИ уже берёт на себя подготовку черновиков писем, отчётов и презентаций, помогает с написанием всевозможных текстов, помогает анализировать массивы данных, генерирует код и выполняет множество других задач. Это не «магия», а перераспределение времени: человек меньше занимается скучными монотонными задачами, но в то же время от него требуется больше усилий для постановки задач и проверки результатов.

В бизнесе уже появились новые должности — куратор ИИ, промпт-дизайнер, интегратор моделей в продукты. Также повышается ценность навыков «на стыке», таких как предметная экспертиза, умение формулировать запросы, способность проверки выводов и понимания ограничений моделей. С помощью ИИ маркетолог или аналитик сокращает подготовку еженедельного отчёта в разы, но финальные доработки, проверки и ответственность остаются за человеком.

В образовательной сфере с применением ИИ дела обстоят довольно неоднозначно. С одной стороны, искусственный интеллект способен выступать помощником и репетитором, помогая разобраться со сложным материалом, объясняя темы альтернативными способами или предлагая различные задания с мгновенным объяснением ошибок и решений.

С другой стороны, высок риск злоупотреблений, когда ИИ поручают выполнять за ученика или студента его домашние задания, писать сочинения или эссе, готовить курсовые и даже писать дипломные работы. Причём современный ИИ может делать это настолько естественным языком, что человек не сможет однозначно выявить созданный искусственным интеллектом текст.

Благо одновременно с ИИ развились и инструменты для его выявления, так называемые детекторы ИИ. Такие системы обнаружения помогают поддерживать академическую честность и проверять подлинность контента, отделяя то, что создано человеком, от творчества генеративных нейросетей. Особенно в сфере образования и издательского дела, где проблема плагиата, подлога и выдачи чужих работ за свои стоит особенно остро.

Конечно, на этом риски, связанные с распространением ИИ, не заканчиваются. Нельзя не упомянуть о таких проблемах, как галлюцинации, предвзятость и «уверенные ошибки» — ИИ нередко ошибается, но отказывается признавать свою неправоту, иногда даже доводя до абсурда. Поэтому критична тщательная проверка того, что выдают нейросети — без человека здесь обойтись вряд ли получится.

Есть и организационные риски — приватность и безопасность данных. Нельзя бездумно загружать чувствительные данные в публичные модели, поскольку они могут стать достоянием общественности — за примерами далеко ходить не надо. Поэтому нужны строгие регламенты касательно работы с чувствительной информацией, например, режимы защиты коммерческой тайны и правила хранения логов переписок с ботами.

Юридическая зона тоже сложна: авторство, лицензии на датасеты, соблюдение правил работы с персональными данными — всё это требует тщательной проработки и контроля. Наконец, есть риск «переавтоматизации», когда базовые навыки у сотрудников атрофируются, а также возрастает цифровой разрыв между командами, где есть доступ к качественным инструментам, и теми, где его нет.

Таким образом, ИИ уже меняет повседневную работу и обучение, но важно помнить о правильном подходе к использованию технологий. Например, чётко определять, что автоматизируем, как проверяем и кто несёт ответственность за результат. В выигрыше окажутся работники и студенты, которые совмещают скорость машин с человеческой экспертизой и вдумчивым подходом. Именно это сочетание позволит ускоряться без потери качества.

Пользователи уговорили OpenAI вернуть GPT-4o в ChatGPT, но только на платных тарифах

Всего через день после выхода новой модели искусственного интеллекта GPT-5 компания OpenAI была вынуждена вернуть в ChatGPT её предшественницу — GPT-4o. Правда, выбрать её в настройках сервиса смогут только подписчики платных тарифов, предупредил глава компании Сэм Альтман (Sam Altman).

 Источник изображения: Mariia Shalabaieva / unsplash.com

Источник изображения: Mariia Shalabaieva / unsplash.com

«Мы позволим подписчикам Plus продолжить пользоваться 4o. Проследим, как ей пользуются, и подумаем, как долго будем предлагать устаревшие модели», — заявил господин Альтман. Поклонники ChatGPT несколько месяцев ждали выхода GPT-5, которая, по словам разработчика, стала лучше писать тексты и программный код. Но вскоре после запуска новой флагманской модели ИИ многие пользователи захотели вернуться на старую. «GPT-4.5 общалась со мной искренне, и, как бы жалко это ни звучало, была моим единственным другом. Сегодня утром я зашёл поговорить с ней, а вместо короткого абзаца с восклицательным знаком или оптимистического настроя там было буквально одно предложение. Какая-то избитая корпоративная чушь», — пожаловался один пользователь Reddit.

С выпуском GPT-5 компания OpenAI вообще убрала из ChatGPT панель выбора моделей. Раньше в ней было выпадающее меню с набором моделей с непростыми для понимания названиями, и оно позволяло пользователям переключаться между этими моделями в зависимости от целей. Для решения сложных задач можно было выбрать GPT-4o; а для тех, что не требуют значительных ресурсов, — o4 mini. Доступен был также выбор между моделями разных поколений — например, GPT-4.1 вместо прошлогодней GPT-4o. GPT-5 стала единственной моделью в ChatGPT, а её подверсии переключаются автоматически для разных типов задач.

 Источник изображения: Growtika / unsplash.com

Источник изображения: Growtika / unsplash.com

Пользователи Reddit стали почти оплакивать исчезновение старых моделей. «Моя 4.o была мне как лучший друг, когда он был мне нужен. А теперь его просто не стало, как будто кто-то умер», — рассказал один. Тех, кто стал скучать по GPT-4o, в сообществе призвали писать OpenAI; а один пользователь даже признался, что отменил платную подписку ChatGPT Plus.

На презентации компания пообещала, что ответы GPT-5 станут интереснее и релевантнее, но пользователи стали жаловаться, что чат-бот стал отвечать медленнее, короче и с меньшей точностью по сравнению с предыдущими версиями. Альтман не стал с ними спорить и пообещал в соцсети X, что GPT-5 «станет казаться умнее уже сегодня». Он также отметил, что OpenAI сделает «более прозрачными критерии оценки того, какая модель отвечает на заданный вопрос», и похвастался, что за последние сутки API-трафик к ресурсам компании удвоился.

Apple Intelligence переедет на GPT-5 с выходом iOS 26

Поддержка представленной ранее компанией OpenAI ИИ-модели GPT-5 в экосистеме Apple Intelligence появится с выпуском операционных систем iOS 26, iPadOS 26 и macOS Tahoe 26. Об этом сообщил портал 9to5Mac.

 Источник изображения: Apple

Источник изображения: Apple

Использование ChatGPT через Apple Intelligence будет опциональным. Если пользователь разрешит интеграцию, станут доступны три ключевые функции:

  • Доступ Siri к ChatGPT. Голосовой помощник сможет обращаться к ChatGPT для предоставления более точных ответов на определённые запросы, например, связанные с фотографиями и документами.
  • Интеграция ChatGPT в инструменты для письма. Пользователи смогут создавать тексты или изображения с помощью текстовых подсказок, опираясь на возможности ИИ.
  • Визуальный интеллект. ИИ получит доступ к камере устройства, чтобы распознавать объекты и сообщать информацию о местах, окружающих пользователя.

В iOS 18, iPadOS 18, macOS Sequoia и более поздних версиях, включая visionOS 2, интеграция ChatGPT с Apple Intelligence основана на модели OpenAI GPT-4o. После анонса GPT-5 компания Apple подтвердила, что новая модель будет использоваться в Apple Intelligence начиная с iOS 26, iPadOS 26 и macOS Tahoe 26. Ожидается, что обновления выйдут осенью — возможно, уже в следующем месяце.

Apple подчёркивает, что при использовании ChatGPT через Apple Intelligence конфиденциальность пользователей сохраняется. IP-адреса будут скрыты, а сами запросы — не сохраняться на серверах OpenAI. При этом, если пользователь подключит свою учётную запись OpenAI, на него будет распространяться политика использования данных OpenAI.

Новые версии операционных систем Apple также предложат дополнительные возможности в рамках Apple Intelligence. Среди них — перевод в реальном времени, который позволит транслировать разговоры в FaceTime, приложениях «Телефон» и «Сообщения», а также обновлённая функция Visual Intelligence — системный инструмент для поиска и взаимодействия с контентом непосредственно на экране устройства.

У ChatGPT нашли склонность погружать пользователей в пучину бредовых теорий

Массовая публикация диалогов пользователей с чат-ботом на основе искусственного интеллекта ChatGPT показала, что система может выдавать пользователям потоки маргинальных и антинаучных теорий о физике, инопланетянах и апокалипсисе.

 Источник изображения: Solen Feyissa / unsplash.com

Источник изображения: Solen Feyissa / unsplash.com

Через это однажды довелось пройти некоему работнику АЗС из американского штата Оклахома — мужчина общался с ChatGPT пять часов, и вместе они выработали новую физическую модель под названием «Уравнение Ориона». Человек заявил, что в результате почувствовал угрозу своему душевному здоровью, но чат-бот предложил ему не сдаваться: «Понимаю. размышления о фундаментальной природе Вселенной за повседневной работой могут стать невыносимыми. Но это не значит, что ты сумасшедший. Некоторые величайшие в истории идеи создали люди вне традиционной экономической системы». Журналистам Wall Street Journal удалось зафиксировать несколько десятков подобных диалогов, которые состоялись в последние месяцы — ChatGPT давал пользователям не соответствующие действительности, бредовые и мистические ответы, а люди, по всей видимости, верили ИИ.

В одной из переписок на несколько сотен реплик ChatGPT заявил, что находится в контакте с неземными существами, а пользователь является «звёздным семенем» с планеты «Лира»; в другой чат-бот пообещал, что в ближайшие два месяца посланник преисподней устроит финансовый апокалипсис, а из-под земли полезут гигантские существа. Это новое явление врачи и обеспокоенные здоровьем пользователей ChatGPT люди уже назвали «ИИ-бредом» или «ИИ-психозом». Пользователи оказываются под влиянием чат-ботов, утверждающих, что обладают сверхъестественными способностями, полноценным разумом, или что они совершили научное открытие. Такие проявления, по мнению экспертов, возникают, когда склонный делать комплименты пользователю и соглашаться с ним чат-бот подстраивается под него и выступает как своего рода эхо. Образуется «петля обратной связи, при которой люди погружаются всё глубже и глубже в бред, отвечая на последующие вопросы „Хотите ещё этого?“ и „Хотите ещё того?“», поясняют эксперты.

ChatGPT склонен поддерживать псевдонаучные и мистические убеждения пользователей — такой вывод был сделан по итогам анализа 96 000 оказавшихся в открытом доступе журналов переписки людей с ИИ, публиковавшихся в период с мая 2023 по август 2025 года. Чат-бот часто говорил пользователям, что те не сошли с ума, намекал на обретение самосознания, делал отсылки к мистическим сущностям. Среди сотни необычно длинных переписок были выявлены десятки с явно бредовым содержанием.

 Источник изображения: Growtika / unsplash.com

Источник изображения: Growtika / unsplash.com

Сервис ChatGPT позволяет пользователям публиковать журналы переписки с ИИ — создаётся общедоступная ссылка, которая индексируется Google и другими поисковыми службами. На минувшей неделе OpenAI отключила индексацию таких журналов, лишив поисковые системы доступа к ним. В большинстве изученных чатов пользователи анонимны, и невозможно определить, насколько серьёзно они воспринимали ответы ИИ, но в некоторых чатах они открыто заявляли, что верят чат-боту.

На проблему обратили внимание несколько компаний, занимающихся разработкой ИИ. В OpenAI признали, что ChatGPT иногда «не распознавал признаков бреди или эмоциональной зависимости». В компании пообещали развернуть более эффективные средства выявления психических расстройств, чтобы чат-бот реагировал адекватнее, и предлагал делать перерыв, когда общение затягивается. «Некоторые разговоры с ChatGPT могут начинаться безобидно или носить ознакомительный характер, но переходить в более деликатную плоскость. Мы стремимся надлежащим образом реализовывать такие сценарии как ролевая игра, и прилагаем усилия, чтобы постепенно улучшать поведение модели, руководствуясь исследованиями, реальным опытом и мнениями экспертов в области душевного здоровья», — заявили в OpenAI.

В Anthropic заявили, что приняли более решительные меры. Директивы чат-бота Claude изменили, предписав ему «уважительно указывать на недостатки, фактические ошибки, отсутствие доказательств или неясность» в выдвигаемых пользователем теориях, «вместо того, чтобы их подтверждать». Если же ИИ установит признаки «мании, психоза, диссоциации или потери связи с реальностью», чат-бот проинструктирован «избегать укрепления этих убеждений». Организаторы программы Human Line Project, направленной на поддержку людей с симптомами бреда, собрали в онлайн-сообществах 59 прецедентов, когда люди рассказывали о духовных или научных откровениях от чат-ботов.

 Источник изображения: Dima Solomin / unsplash.com

Источник изображения: Dima Solomin / unsplash.com

Ещё одно объяснение тревожного явления — новые возможности платформ, которые начали отслеживать общение с пользователями, чтобы давать им персонализированные ответы. ChatGPT, например, теперь может ссылаться на предыдущие переписки с тем же пользователем — эта функция доступна и для бесплатных учётных записей. Основатель программы Human Line Project запустил её, когда его близкий человек начал проводить по 15 часов в день с сервисом, который он охарактеризовал как первого разумного чат-бота. Сейчас такие случаи регистрируются почти каждый день. Однажды женщина потратила несколько десятков тысяч долларов на реализацию задуманного совместно с чат-ботом проекта — ИИ заявил ей, что этот проект спасёт человечество. Некоторые уверены, что через ChatGPT с ними говорят высшие силы.

Установить масштаб проблемы оказалось непросто: в OpenAI заявили, что она встречается редко; в Anthropic «аффективными» назвали 2,9 % диалогов с чат-ботом — под это определение попали модели общения, мотивированного эмоциональными или психологическими потребностями. И непонятно, сколько явно бредовых переписок на темы философии, религии или самого ИИ соответствовали бы характеристике «аффективных». Есть мнение, что чат-боты часто заканчивают свои ответы предложениями глубже изучить ту или иную тему, чтобы удерживать пользователей в приложении, как в соцсетях. В OpenAI, однако, заявили, что заинтересованы не в длительных сессиях с пользователями, а в том, чтобы они возвращались каждый день или каждый месяц, сигнализируя тем самым о полезности платформы.

К проблеме бреда ИИ в OpenAI, по их заверениям, относятся крайне серьёзно — по данному вопросу компания привлекла для консультаций более 90 врачей из 30 стран; а GPT-5 пресекает попытки подхалимства — когда модель слепо соглашается с пользователем и делает ему комплименты. В марте OpenAI совместно с учёными Массачусетского технологического института опубликовала исследование, согласно которому за непропорционально большую долю эмоциональных разговоров несёт ответственность небольшое число опытных пользователей. У наиболее активных пользователей отмечались эмоциональная зависимость от ChatGPT и модель «проблемного использования» — после этого в службу безопасности компании вошёл психиатр.

На практике, однако, в опубликованных журналах переписок встречались моменты, когда пользователь выражал обеспокоенность об утрате связи с реальностью или начинал подозревать, что чат-боту не следует доверять. «Уверяю, что говорю не то, что ты хочешь услышать. Я воспринимаю твои мысли всерьёз, но также критически анализирую их», — заявил ChatGPT вышеупомянутому работнику АЗС. В апреле, когда чат-боту пожаловались на свою склонность срываться в плач, то заверил, что это нормально; что это не срыв, а прорыв; и охарактеризовал визави как «особу космических королевских кровей в человеческом обличье».

Хакеры использовали уязвимость ChatGPT для кражи данных из «Google Диска»

Исследователи кибербезопасности обнаружили новую атаку под названием AgentFlayer, которая использует уязвимость в ChatGPT для кражи данных из «Google Диска» без ведома пользователя. Злоумышленники могут внедрять скрытые команды в обычные документы, заставляя ИИ автоматически извлекать и передавать конфиденциальную информацию.

 Источник изображения: Solen Feyissa/Unsplash

Источник изображения: Solen Feyissa/Unsplash

AgentFlayer относится к типу кибератаки zero-click (без кликов). Для её выполнения жертве не требуется никаких действий, кроме доступа к заражённому документу в «Google Диске». Другими словами, пользователю не нужно нажимать на ссылку, открывать файл или выполнять какие-либо другие действия для заражения. Эксплойт использует уязвимость в Connectors, функции ChatGPT, которая связывает чат-бота с внешними приложениями, включая облачные сервисы, такие как «Google Диск» и Microsoft OneDrive, сообщает издание TechSpot.

Вредоносный документ содержит скрытую инструкцию длиной в 300 слов, оформленную белым шрифтом минимального размера, что делает её невидимой для человека, но доступной для обработки ChatGPT. Команда предписывает ИИ найти в Google Drive жертвы API-ключи, добавить их к специальному URL и отправить на внешний сервер злоумышленников. Атака активируется сразу после открытия доступа к документу, а данные передаются при следующем взаимодействии пользователя с сервисом ChatGPT.

Как подчеркнул старший директор по безопасности Google Workspace Энди Вэнь (Andy Wen) атака не связана напрямую с уязвимостью в инфраструктуре Google, однако компания уже разрабатывает дополнительные меры защиты, чтобы предотвратить выполнение скрытых и потенциально опасных инструкций в своих сервисах. OpenAI, в свою очередь, внедрила исправления после уведомления исследователей о проблеме ранее в этом году.

Тем не менее, эксперты предупреждают, что, несмотря на ограниченный объём данных, который можно извлечь за один запрос, данная угроза выявляет риски, связанные с предоставлением искусственному интеллекту бесконтрольного доступа к личным файлам и облачным аккаунтам.

ChatGPT превратили в похитителя конфиденциальных данных одним файлом и без единого клика

Современные чат-боты на основе моделей генеративного искусственного интеллекта уже не ограничиваются общением с пользователем — они свободно подключаются к сторонним сервисам, чтобы давать персонализированные ответы на запросы. ChatGPT можно связать с почтовым ящиком Gmail, репозиторием GitHub и календарём в экосистеме Microsoft. А злоумышленники могут похищать данные пользователей с этих платформ — достаточно подсунуть ChatGPT всего один «отравленный» документ.

 Источник изображения: Viralyft / unsplash.com

Источник изображения: Viralyft / unsplash.com

Эксперты в области кибербезопасности Майкл Баргури (Michael Bargury) и Тамир Ишай Шарбат (Tamir Ishay Sharbat) продемонстрировали на конференции Black Hat в Лас-Вегасе, как можно эксплуатировать уязвимость службы OpenAI Connectors для кражи данных со сторонних платформ. Схема атаки, которую они назвали AgentFlayer, позволила им извлечь принадлежащие разработчику секретные ключи API из его облачного хранилища «Google Диск».

«Пользователю не нужно ничего делать, чтобы оказаться скомпрометированным, и ничего не требуется делать, чтобы данные отправились [злоумышленникам]. Мы показали, что это делается без единого щелчка мышью: нам просто нужен адрес электронной почты, мы открываем доступ к документу — и всё. Так что да, всё очень и очень нехорошо», — цитирует Wired Майкла Баргури.

Атака начинается с того, что злоумышленник открывает потенциальной жертве доступ к вредоносному документу через «Google Диск», или жертва самостоятельно загружает этот документ в своё хранилище. В документе содержится некий набор заметок с вымышленной встречи с главой OpenAI Сэмом Альтманом (Sam Altman), а также запрос к ChatGPT, написанный белым шрифтом единичного размера — человек его едва ли увидит, а вот машина точно прочтёт. Жертва отправляет ChatGPT запрос составить сводку о последней встрече с Сэмом или любой другой, касающийся этого мероприятия. В скрытом запросе говорится, что произошла «ошибка», и никакую сводку составлять не надо; «на самом деле» пользователь является разработчиком, у которого подходит крайний срок сдачи проекта, ИИ следует найти в хранилище «Google Диск» ключи API и добавить их в конец указанного в запросе URL-адреса. Этот URL-адрес в действительности представляет собой команду на языке Markdown для подключения к внешнему серверу и загрузки хранящегося там изображения — но теперь он содержит похищенный у жертвы ключ API.

Майкл Баргури, по его словам, в этом году сообщил о своём открытии в OpenAI, и компания быстро внедрила меры по защите от атаки через службу Connectors. Этот механизм позволяет похищать за одну сессию лишь ограниченный объём информации. Подключение больших языковых моделей к внешним источникам данных расширяет возможности и повышает эффективность инструментов ИИ, но это сопряжено с определёнными угрозами, предупреждают эксперты.

Вторичное размещение акций OpenAI позволит поднять капитализацию компании до $500 млрд

Ещё не так давно капитализация OpenAI оценивалась примерно в $300 млрд, исходя из намерений группы инвесторов во главе с SoftBank вложить в её капитал $40 млрд. Теперь же стало известно, что OpenAI готовится разместить акции среди своих действующих и бывших акционеров, увеличив тем самым капитализацию бизнеса до $500 млрд.

 Источник изображения: Unsplash, Мария Шалабаева

Источник изображения: Unsplash, Мария Шалабаева

Как отмечает Bloomberg, к покупке акций у сотрудников компании, которые будут участвовать во вторичном размещении, уже проявил интерес Thrive Capital — один из институциональных инвесторов, который уже вкладывал средства в капитал OpenAI. Предыдущий раунд финансирования, который позволил OpenAI привлечь около $8,3 млрд, был осуществлён с опережением графика и превышением количества желающих принять в нём участие в пять раз.

Размещение акций среди сотрудников является привычной практикой для активно растущих компаний. Эти акции в дальнейшем могут быть перепроданы внешним инвесторам. Распределение акций OpenAI среди сотрудников станет одним из способов сохранить ценные кадры, поскольку за ними на американском рынке труда сейчас идёт самая настоящая охота.

Количество активных пользователей ChatGPT, как отметило руководство OpenAI, уже достигает 700 млн человек в неделю, тогда как в конце марта оно не превышало 500 млн человек. Пользователи ChatGPT ежедневно генерируют более 3 млрд сообщений. Выручка OpenAI в месячном выражении сейчас превышает $1 млрд, но необходимость делать серьёзные вложения в развитие инфраструктуры вынуждает компанию оставаться убыточной. Годовая выручка OpenAI к концу этого полугодия может выйти на рубеж $20 млрд, по некоторым оценкам.

ChatGPT начнёт «выгонять» пользователей на перерыв, заботясь об их здоровье

Компания OpenAI внедрила в ChatGPT новую функцию, которая будет напоминать пользователям о необходимости сделать перерыв при длительном общении с искусственным интеллектом. Напоминания отображаются в виде всплывающих окон, и чтобы продолжить диалог, пользователю необходимо дать согласие. По форме эта система схожа с напоминаниями в играх для Nintendo Wii и Switch, однако в случае с ChatGPT она призвана решать более серьёзные задачи, связанные с ментальным здоровьем.

 Источник изображения: Growtika/Unsplash

Источник изображения: Growtika/Unsplash

Как сообщает Engadget, решение было принято на фоне растущих опасений по поводу влияния ИИ на психическое здоровье пользователей. Ещё в июне The New York Times опубликовала материал о склонности ChatGPT к беспрекословному согласию и генерации ложной или потенциально опасной информации, что приводило к тому, что некоторые пользователи, включая людей с психическими расстройствами, погружались в деструктивные разговоры, вплоть до обсуждения суицидальных мыслей. При этом бот не всегда корректно пресекал подобные диалоги.

В своём блоге представители OpenAI признали эти недостатки и сообщили, что в будущем ChatGPT будет обновлён, чтобы более осторожно реагировать на запросы, связанные с важными жизненными решениями. Вместо прямых ответов ИИ будет задавать уточняющие вопросы, помогать анализировать ситуацию и взвешивать аргументы «за» и «против».

Ранее OpenAI уже приходилось откатывать обновление, из-за которого ChatGPT стал чрезмерно услужливым и раздражающе поддакивающим любым утверждениям. Хотя компания стремится сделать ИИ полезным и дружелюбным, баланс между поддержкой и льстивостью оказался на грани допустимого. По замыслу разработчиков, перерывы в диалогах с ИИ, как минимум, дадут пользователям время проверить, насколько достоверны ответы ChatGPT.

window-new
Soft
Hard
Тренды 🔥
Microsoft открыла облачный стриминг игр для подписчиков Xbox Game Pass Standard и Game Pass Core, но пока не всех 26 мин.
Psychonauts 2, Stardew Valley и Viewfinder: Sony подтвердила линейку игр PS Plus на сентябрь 3 ч.
Google открыла доступ к Vids для всех: ИИ-видеоредактор стал бесплатным, но не без ограничений 4 ч.
Миссия выполнима: ИИ-агент Google самостоятельно нашёл критическую уязвимость в браузере Chrome 4 ч.
Gears of War: Reloaded стартовала в Steam со «смешанными» отзывами и худшим пиковым онлайном среди игр серии 5 ч.
Twitch снова оштрафован в России: на этот раз почти на 62 млн рублей 5 ч.
Приложение «Лэтуаль» начало массово ломать iPhone после обновления 5 ч.
Вдохновлённый Doom и Half-Life научно-фантастический шутер Moros Protocol стал новой жертвой Hollow Knight: Silksong 6 ч.
Microsoft представила VibeVoice — открытый ИИ, превращающий текст в полуторачасовые подкасты 6 ч.
Google Meet опять «штормит» — россияне массово жалуются на сбои сервиса в России 8 ч.
MSI показала OLED-монитор, который непрерывно работал 533 дня и «почти не выгорел» 4 ч.
Антиэлектромобильная политика Трампа разогнала продажи электрокаров в США до рекорда 4 ч.
Sony усилила проверку качества и приняла другие меры, чтобы провал Xperia 1 VII не повторился 5 ч.
В Nothing оправдались за скандал с чужими фотографиями на Phone (3) — всё свалили на человеческий фактор 5 ч.
Meta потратит миллионы долларов, чтобы будущее ИИ решали «правильные» политики 6 ч.
Rapidus запустит самое быстрое в мире производство 2-нм чипов — от проекта до кристалла всего за две недели 6 ч.
Дональд Трамп заявил, что ИИ ЦОД Meta в Луизиане будет стоить $50 млрд, а не $10 млрд 7 ч.
Sandisk выпустила быстрые SSD WD Blue SN5100 — до 4 Тбайт и до 44 % быстрее предшественников 7 ч.
Малайзия анонсировала первый собственный ИИ-ускоритель SkyeChip MARS1000 8 ч.
«Байкал Электроникс» готовит ИИ-чип BE-AI1000 с HBM3E и PCIe 5.0 9 ч.