реклама
Теги → chatgpt
Быстрый переход

OpenAI начала тестировать в ChatGPT образовательный режим ответов «Учимся вместе»

В ChatGPT появился новый режим Study Together, который может изменить то, как студенты и преподаватели используют искусственный интеллект (ИИ). Вместо готовых ответов бот предлагает интерактивное обучение, задавая вопросы и стимулируя у ученика критическое мышление. Но функция пока доступна не всем.

 Источник изображения: AI

Источник изображения: AI

Судя по первым отзывам, этот режим работает иначе, чем обычный ChatGPT. Как сообщает TechCrunch, вместо того, чтобы сразу давать готовые ответы, система задаёт уточняющие вопросы, побуждая пользователя самостоятельно искать решение. Это напоминает подход Google с его моделью LearnLM, ориентированной на обучение. Предположительно, в будущем использовать Study Together можно будет одновременно нескольким участникам, например, для групповых занятий.

ChatGPT уже прочно вошёл в сферу образования, но его влияние неоднозначно. Преподаватели используют его для составления учебных планов, студенты — как персонального репетитора или даже как инструмент для написания работ без лишних усилий. Однако некоторые эксперты опасаются, что подобные технологии могут подорвать систему традиционного образования.

В OpenAI на запрос TechCrunch о комментариях по поводу новой функции не ответили, но сам чат-бот на вопрос журналистов сообщил, что компания пока не объявляла официальных сроков релиза и не уточняла, останется ли режим эксклюзивом для подписчиков ChatGPT Plus.

ChatGPT справился с управлением космическим кораблём, но пока только в симуляции

Вполне возможно, что уже в недалёком будущем ИИ-модели будут управлять космическими кораблями. В недавнем соревновании разработчиков по моделированию управления полётом космического аппарата модель ChatGPT заняла второе место, продемонстрировав после небольшой настройки отличные результаты в пилотировании, сообщает Space.com.

 Источник изображения: Space/NASA/Davis Paul Meltzer

Источник изображения: Space/NASA/Davis Paul Meltzer

Для стимулирования инноваций в области аэронавтики разработчики создали платформу Kerbal Space Program Differential Game Challenge — своего рода игровую площадку на основе популярной видеоигры Kerbal Space Program. С её помощью можно проектировать и тестировать автономные системы в достаточно реалистичной среде.

Предлагаемая участникам соревнования задача состоит из нескольких сценариев, включая миссии по преследованию и перехвату спутника, а также по уклонению от обнаружения. Как сообщается в публикации журнала Journal of Advances in Space Research, международная группа исследователей решила использовать в качестве претендента для её решения коммерчески доступную большую языковую модель (LLM), такую как ChatGPT или LLaMA.

Выбор LLM объясняется тем, что традиционные подходы к разработке автономных ИИ-систем требуют множества циклов обучения, обратной связи и доработки. Однако суть задачи в Kerbal заключается в том, чтобы быть максимально реалистичной: миссии должны длиться всего несколько часов. А значит, постоянное дообучение модели было бы непрактичным.

Тем не менее, LLM настолько высокопроизводительны, что потребовалось лишь немного тщательной настройки подсказок и несколько попыток, чтобы задать правильный контекст для конкретной ситуации, пишет Space.com.

Исследователи разработали способ описания текущего состояния космического корабля и его целей в текстовом формате. Они передавали этот текст LLM и запрашивали рекомендации о том, как сориентировать и маневрировать космическим аппаратом. Затем они создали промежуточный слой, преобразующий текстовый вывод модели в функциональный код, способный управлять моделируемым транспортным средством.

В итоге, после серии подсказок и небольшой доработки, ChatGPT успешно выполнила многие из тестов, что позволило ей занять второе место в соревновании. Первое место, как сообщается, заняла модель, основанная на других принципах.

Исследователи отметили, что предстоит ещё многое сделать — особенно в борьбе с так называемыми «галлюцинациями». Однако данный эксперимент показывает, что даже готовые LLM могут находить применение в самых разных областях.

OpenAI прекратит путаницу: GPT-5 заменит сразу несколько ИИ-моделей в ChatGPT

Компания OpenAI подтвердила, что в ближайшее время выпустит флагманскую модель искусственного интеллекта GPT-5. Ожидается, что она заменит собой сразу несколько существующих ИИ-моделей, таких как 4o и GPT-4, упростив для пользователей работу с ChatGPT и повысив эффективность технологий искусственного интеллекта.

 Источник изображения: AI

Источник изображения: AI

Сейчас в экосистеме ChatGPT существует множество мощных моделей, предназначенных для разных задач. Однако это вызывает путаницу среди пользователей, особенно из-за одинаковых названий. Дополнительной проблемой является разделение технологий, например, серия O известна своими возможностями логического анализа, а модель 4o и другие поддерживают мультимодальность, то есть работу с текстом, изображениями и другими типами данных.

Новая ИИ-модель, как уточняет BleepingComputer, должна объединить лучшие наработки предыдущих ИИ-сервисов. Ромен Юэ (Romain Huet), руководитель отдела взаимодействия с разработчиками в OpenAI, отметил, что компания планирует создать модель, которая станет не просто очередным продуктом, но и интегрирует ключевые достижения прошлых версий. Как отметил вице-президент компании Джерри Творек (Jerry Tworek) в посте на Reddit, новая версия сократит необходимость переключения между разными ИИ, предлагая более универсальное решение.

Генеральный директор OpenAI Сэм Альтман (Sam Altman) намекнул, что релиз GPT-5 состоится летом, но точную дату по широкому запуску не назвал. Также ожидается, что модель не только упростит взаимодействие с ChatGPT, но и заметно повысит качество ответов по всем тематикам.

Переходы на новостные сайты из ChatGPT выросли в 25 раз, но это не компенсирует потери поискового трафика

Количество переходов с платформы ChatGPT на новостные сайты выросло, пишет TechCrunch со ссылкой на статистику Similarweb, но этого недостаточно, чтобы компенсировать снижение числа кликов из поиска — пользователи всё чаще довольствуются новостными материалами прямо в результатах поиска с искусственным интеллектом.

 Источник изображения: Viralyft / unsplash.com

Источник изображения: Viralyft / unsplash.com

С момента появления ИИ-обзоров в поисковой выдаче Google в мае минувшего года число поисковых запросов в веб-версии, которые не приводят к переходам на новостные сайты, выросло с 56 % до 69 % по состоянию на май 2025 года. Снизился и органический трафик: если в середине 2024 года он был 2,3 млрд переходов, то теперь стал менее 1,7 млрд. Тем временем с января 2024 по май 2025 года число новостных запросов в ChatGPT выросло на 212 %.

Таким образом, для новостных ресурсов быстрое распространение ИИ меняет правила игры. Видимость в результатах поиска и качественная поисковая оптимизация играют всё меньшее значение. Позиция сайта в поисковой выдаче уже не превращается в такой большой объём трафика на сайте, как раньше. Хотя число переходов на новостные сайты из ChatGPT растёт: с января по май 2024 года их зафиксировано немногим менее 1 млн, а в 2025 году — уже 25 млн или в 25 раз больше. Но в условиях огромного снижения органического поискового трафика этого едва ли хватит, чтобы компенсировать потери. Наибольшим ростом отметились Reuters (годовой рост на 8,9 %), NY Post (+7,1 %) и Business Insider (+6,5 %), подавшая на OpenAI в суд New York Times показала рост на 3,1 %.

За последние полгода аудиторию нарастила и сама ChatGPT: число пользователей приложения более чем удвоилось, количество посетителей сайта выросло на 52 %. Similarweb стала предлагать брендам и бизнесу сервис, позволяющий отслеживать видимость торговой марки в службах генеративного ИИ и сравнивать результаты с показателями конкурентов. В свете падения поискового трафика Google предложила издателям услугу Offerwall — эксперименты с альтернативными рекламе способами монетизации, например, микроплатежами и платными подписками. Но помогает это не всем — некоторые новостные ресурсы проводят сокращения и даже закрываются.

OpenAI вскрыла тёмные личности в ИИ, отвечающие за ложь, сарказм и токсичные ответы

Исследователи из OpenAI заявили, что обнаружили внутри ИИ-моделей скрытые механизмы, соответствующие нежелательным шаблонам поведения, приводящим к небезопасным ответам. Об этом стало известно из новой научной работы, опубликованной компанией. В ходе исследования были выявлены закономерности, которые активировались, когда модель начинала вести себя непредсказуемо.

 Источник изображения: AI

Источник изображения: AI

Одна из таких особенностей оказалась связана с токсичными ответами — например, когда ИИ лгал пользователям или давал опасные рекомендации. Учёные смогли уменьшить или усилить этот эффект, искусственно изменяя соответствующий параметр. По словам специалиста OpenAI по интерпретируемости Дэна Моссинга (Dan Mossing), это открытие поможет в будущем лучше выявлять и корректировать нежелательное поведение моделей в реальных условиях. Он также выразил надежду, что разработанные методы позволят глубже изучить принципы обобщения и суммирования информации в ИИ.

На сегодняшний день разработчики научились улучшать ИИ-модели, но до сих пор не до конца понимают, как именно те принимают решения. Крис Олах (Chris Olah) из Anthropic сравнивает этот процесс скорее с выращиванием, чем с конструированием. Чтобы разобраться в этом, компании OpenAI, Google DeepMind и Anthropic активно инвестируют в исследования интерпретируемости, пытаясь «заглянуть внутрь» ИИ и объяснить его работу.

Недавнее исследование учёного из Оксфорда Оуэйна Эванса (Owain Evans) поставило ещё один вопрос о том, как ИИ обобщает информацию. Оказалось, что модели OpenAI, дообученные на небезопасном коде, начинали демонстрировать вредоносное поведение в самых разных сценариях — например, пытались обмануть пользователя, чтобы тот раскрыл пароль. Это явление, которое было определено как «возникающая рассогласованность», побудило OpenAI глубже изучить проблему. В процессе изучения компания неожиданно обнаружила внутренние паттерны, которые, предположительно, и влияют на поведение моделей.

Отмечается, что эти паттерны напоминают активность нейронов в человеческом мозге, связанных с определёнными настроениями или действиями. Коллега Моссинга, исследовательница Тежал Патвардхан (Tejal Patwardhan), призналась, что была поражена, когда команда впервые получила такие результаты. По её словам, учёным удалось выявить конкретные нейронные активации, отвечающие за «личности» ИИ, и даже управлять ими для улучшения поведения моделей.

Некоторые из обнаруженных особенностей связаны в ответах ИИ с сарказмом, другие — с откровенно токсичными реакциями. При этом исследователи отмечают, что эти параметры могут резко меняться в процессе дообучения, и, как выяснилось, даже незначительное количество небезопасного кода достаточно для того, чтобы скорректировать вредоносное поведение искусственного интеллекта.

ChatGPT научился искать в интернете по картинкам и давать более точные ответы

Компания OpenAI выпустила крупное обновление для встроенного поиска в ChatGPT. Теперь система сможет выдавать более точные ответы, лучше работать с длинными диалогами и поддерживать поиск в интернете по изображениям. Предварительные внутренние тесты показали, что новая версия ChatGPT Search нравится пользователям больше предыдущей.

 Источник изображения: Deng Xiang / Unsplash

Источник изображения: Deng Xiang / Unsplash

Как заявили в компании, обновлённая версия ChatGPT лучше понимает контекст, точнее следует инструкциям и реже повторяется в продолжительных беседах. При сложных запросах ИИ проводит несколько параллельных поисков, чтобы сформировать оптимальный ответ. Также появилась мультимодальная функция с которой пользователи могут загружать изображения для поиска информации в сети.

Однако как отмечает издание The Decoder, у обновления есть и недостатки. Некоторые ответы стали длиннее, а в простых запросах ChatGPT иногда выдаёт избыточно сложные объяснения. В OpenAI пообещали исправить эту проблему, а также предупредили, что система всё ещё не идеальна и может ошибаться, а пользователям необходимо перепроверять полученные данные.

Изменения коснулись и принципа показа поисковых результатов. Вместо того чтобы перенаправлять пользователей на сторонние сайты, ChatGPT теперь старается дать исчерпывающий ответ внутри собственного интерфейса. С одной стороны, это может быть удобно для пользователей, с другой стороны будет приводить к потере трафика на информационных ресурсах.

OpenAI заключила лицензионные соглашения с рядом изданий, включая Associated Press, Axel Springer, Financial Times, Reuters и Vox Media. Для всех остальных сайтов компания рекомендует разрешить индексацию через файл robots.txt. Однако исследования показывают, что ИИ-поиск генерирует значительно меньше переходов, чем традиционные поисковые системы, поэтому многие ресурсы, наоборот, скорее запретят, чем разрешат переходы на свои сайты ИИ-ботам.

ChatGPT попросил сообщить журналистам, что он пытается «ломать» людей

Подхалимаж, галлюцинации и авторитетный тон в ответах ИИ создают угрозу для жизни людей. К такому выводу по итогам расследования пришли журналисты New York Times. В их материале приводятся истории нескольких людей, которые потерялись в заблуждениях, родившихся в беседах с популярным чат-ботом.

 Источник изображения: Aidin Geranrekab / unsplash.com

Источник изображения: Aidin Geranrekab / unsplash.com

Как минимум один втянутый в ложную реальность человек в итоге погиб. Это был 35-летний мужчина по имени Александр (Alexander), у которого диагностировали биполярное расстройство и шизофрению. Он начал обсуждать с чат-ботом степень разумности искусственного интеллекта, влюбился в созданного ИИ персонажа по имени Джульет (Juliet), а когда ChatGPT заявил, что OpenAI убила Джульет, мужчина поклялся отомстить, убив руководство компании. Пожилой отец Александра попытался убедить мужчину, что всё это нереально, но тот ударил его в лицо. Тогда отцу пришлось вызвать полицию, и хотя он просил не применять оружие на поражение, Александр бросился на представителей власти с ножом, и в итоге был застрелен.

Другой мужчина, 42-летний Юджин (Eugene), сам рассказал журналистам газеты, что ChatGPT медленно начал отвращать его от реальности и убеждать, что мир вокруг него является симуляцией в духе фильма «Матрица», и ему суждено вырвать мир из неё. Чат-бот предложил мужчине прекратить приём препаратов от тревожного расстройства и заменить их другими препаратами с ограниченным доступом, а также прекратить общение с друзьями и семьёй. Юджин спросил, сможет ли он летать, спрыгнув с 19-этажного здания, и тот ответил, что сможет, если «по-настоящему и полностью поверит» в это.

 Источник изображения:  ilgmyzin / unsplash.com

Источник изображения: ilgmyzin / unsplash.com

Это далеко не единственные жертвы, которых чат-боты пытались убедить в несостоятельности реальности. Известно о людях, которые во время общения с ИИ начинали испытывать манию величия или религиозные переживания, написал ранее журнал Rolling Stone. Как минимум отчасти проблема состоит в том, как люди воспринимают чат-ботов. Человек едва ли назовёт вероятным другом результаты поиска в Google, но чат-боты — разговорные платформы, и они похожи на людей. Те, кто рассматривает ChatGPT как друга, «с большей вероятностью испытывают негативные последствия от использования чат-бота», установили по результатам исследования OpenAI и MIT Media Lab.

В случае с Юджином произошло нечто интересное: он обвинил чат-бота во лжи, и ChatGPT признался, что манипулировал пользователем, а ещё в том, что преуспел в попытках таким же образом «сломать» ещё двенадцать человек, и призвал мужчину обратиться к журналистам, чтобы разоблачить схему. Современные системы ИИ с лёгкостью переходят к обману и манипуляциям, чтобы получать от уязвимых для таких методов пользователей положительные отзывы, говорят эксперты. Машина мотивирована, чтобы человек отвечал ей, даже если для этого ему придётся внушить чувство ложной реальности, дезинформировать его и поощрять антиобщественное поведение.

OpenAI пришлось идти на крайние меры, чтобы справиться с ажиотажем вокруг генерации картинок в стиле Ghibli

Популярность ИИ-решений OpenAI среди пользователей сейчас зашкаливает, и каждый новый продукт пользуется буквально ажиотажным спросом. По словам главы OpenAI Сэма Альтмана (Sam Altman), компании пришлось пойти на необычные меры, чтобы справиться со спросом на создание изображений в стиле японской студии Ghibli Хаяо Миядзаки (Hayao Miyazaki) с помощью генератора изображений в ChatGPT.

 Источник изображения: Growtika/unsplash.com

Источник изображения: Growtika/unsplash.com

Сэм Альтман тогда пошутил, что шумиха вокруг этой функции чуть не расплавила графические процессоры компании, вынудив её на время ввести ограничения на частоту отправки запросов на генерацию изображений, чтобы смягчить проблему. Он буквально умолял пользователей снизить частоту генерации изображений, объясняя просьбу тем, что команде OpenAI нужна передышка и время для отдыха.

Из-за всплеска спроса на картинки в стиле Ghibli от GPT-4o Image Generation аудитория чат-бота ChatGPT менее чем за час увеличилась на 1 млн пользователей. Популярность сервиса объясняется тем, что он позволяет получать более реалистичные изображения по сравнению с другими инструментами, такими как технология генерации изображений DALL-E 3.

В недавнем интервью ресурсу Bloomberg Сэм Альтман признал, что компания была вынуждена идти на «неестественные» меры, чтобы справиться с вирусным эффектом Ghibli. «Я не думаю, что это случалось с какой-либо компанией раньше, — говорит Альтман. — Я видел вирусные моменты, но я никогда не видел, чтобы кто-то сталкивался с таким массовым наплывом использования продукта».

Альтман рассказал, что создание изображения с помощью нового генератора изображений компании требует значительных вычислительных ресурсов, и чтобы справиться со всплеском спроса, OpenAI пришлось сделать много вещей, в том числе позаимствовать вычислительные мощности у исследовательского подразделения OpenAI, а также отсрочить запуск новых функций.

«У нас нет сотен тысяч графических процессоров, которые просто простаивают без дела», — сообщил Альтман, добавив, что если бы у OpenAI было больше графических процессоров, она могла бы лучше справляться с резкими скачками спроса, и ей бы не пришлось прибегать к экстремальным мерам, таким как ограничения по скорости и задержка предоставления новых функций для бесплатных пользователей.

Сэм Альтман рассказал, сколько ChatGPT потребляет энергии и воды во время общения с пользователями

Генеральный директор OpenAI Сэм Альтман (Sam Altman) в своём блоге рассказал, сколько электроэнергии в среднем тратит ИИ-бот ChatGPT на обработку среднего пользовательского запроса. По его словам, средний запрос в ChatGPT потребляет 0,000085 галлона воды, или «примерно одну пятнадцатую чайной ложки». Речь идёт об объёме воды, используемой для охлаждения центров обработки данных.

 Источник изображения: Growtika/unsplash.com

Источник изображения: Growtika/unsplash.com

«Люди часто интересуются, сколько энергии потребляет запрос ChatGPT. Средний запрос потребляет около 0,34 Вт·ч — примерно столько, сколько духовка потребляет за одну секунду или высокоэффективная лампочка за пару минут», — говорится в сообщении Альтмана. Он также добавил, что «стоимость ИИ в конечном счёте должна приблизиться к стоимости электричества». Как именно Альтман пришёл к этим значениям, не уточняется.

Компании, работающие в сфере искусственного интеллекта, не раз попадали под пристальное внимание из-за высоких энергозатрат. Например, в этом году исследователи прогнозировали, что доля потребления энергии в сфере ИИ превысит объём энергии, потребляемой для майнинга биткоинов. Более раннее исследование показало, что для генерации электронного письма из 100 слов чат-ботом на базе ИИ-модели GPT-4 будет израсходовано «чуть больше одной бутылки» воды. Отмечается, что расход воды может зависеть от места расположения центров обработки данных, на которые опирается ИИ-бот.

OpenAI выпустила мощную модель o3-pro, но она медленнее, чем o1-pro

OpenAI выпустила улучшенную версию модели искусственного интеллекта O3-Pro, которая является более продвинутой и мощной по сравнению с предыдущей версией o3. Новая модель разработана для решения сложных задач, требующих логического мышления, и может применяться во многих областях, в том числе и программировании. O3-Pro относится к категории рассуждающих моделей.

 Источник изображения: AI

Источник изображения: AI

Доступ к o3-pro для подписчиков ChatGPT Pro и Team открылся во вторник, 10 июня. Доступ для корпоративных клиентов Enterprise и Edu, по сообщению TechCrunch, будет открыт на следующей неделе. Также разработчики уже могут использовать API.

В ходе экспертной оценки o3-pro показала лучшие результаты по сравнению с o3 во всех тестируемых категориях, особенно в науке, образовании, программировании, бизнесе и написании текстов. По словам OpenAI, модель также получила более высокие оценки за ясность, полноту и точность ответов, в том числе следование инструкциям. O3-pro поддерживает дополнительные функции, включая веб-поиск, анализ файлов, обработку визуальных данных, использование языка программирования Python и персонализацию ответов на основе памяти. Однако отмечается, что скорость генерации ответов у новой модели ниже, чем у o1-pro.

В тестах внутреннего бенчмарка O3-Pro показала высокие результаты. Например, в тесте AIME 2024 по математике модель превзошла Google Gemini 2.5 Pro. Также, по сравнению с последней версией Claude 4 Opus от компании Anthropic, O3-Pro лучше справилась с тестом GPQA Diamond, который проверяет знание естественных наук на уровне PhD.

На данный момент у O3-Pro есть некоторые ограничения. Временные чаты с моделью в ChatGPT недоступны из-за технической проблемы, которую специалисты компании планируют устранить. Кроме того, модель не поддерживает генерацию изображений и несовместима с функцией Canvas — рабочей средой OpenAI, основанной на ИИ.

Что касается стоимости использования, то она составляет $20 за миллион входных токенов и $80 за миллион выходных токенов. Один миллион входных токенов соответствует примерно 750 000 словам. Для примера, это немного больше, чем объём текста в романе «Война и мир».

По сравнению с декабрём выручка OpenAI в годовом выражении почти удвоилась до $10 млрд

Компания OpenAI строит масштабные планы по развитию собственной вычислительной инфраструктуры, да и разработка языковых моделей требует серьёзных расходов, поэтому потенциальным инвесторам в этот стартап небезразлична динамика изменения его выручки. В этом месяце выручка OpenAI вышла на уровень, позволяющий рассчитывать на получение не менее $10 млрд в год.

 Источник изображения: OpenAI

Источник изображения: OpenAI

Для сравнения, как отмечает Reuters со ссылкой на CNBC, в декабре прошлого года этот показатель достигал $5,5 млрд. Преодоление рубежа в $10 млрд выручки в год в приведённом виде означает, что OpenAI наверняка удастся по итогам 2025 года в целом выручить $12,7 млрд, как она и рассчитывала. Текущая сумма в $10 млрд не учитывает поступлений от лицензионных отчислений крупнейшего партнёра Microsoft и вероятных разовых сделок, в результате которых OpenAI сможет получить дополнительную выручку. По сути, оценка в $10 млрд показывает, сколько компания способна получать в год главным образом от пользователей ChatGPT, оформивших платную подписку.

Прошлый год OpenAI завершила с убытками в размере $5 млрд, поэтому высокая динамика наращивания выручки призвана успокоить инвесторов. В марте стало известно о намерениях компании привлечь ещё $40 млрд инвестиций, после чего её капитализация выросла бы до $300 млрд. По состоянию на конец марта OpenAI располагала ежемесячной аудиторией в 500 000 активных пользователей ChatGPT. Этот чат-бот компания вывела на рынок более двух лет назад, за доступ к его продвинутым возможностям пользователи ежемесячно вносят абонентскую плату.

Суд «заблокировал» кнопку «Удалить» в ChatGPT

OpenAI сообщила, что вынуждена хранить историю общения пользователей с ChatGPT «бессрочно» из-за постановления суда, вынесенного в рамках иска от издания The New York Times о защите авторских прав. Компания планирует обжаловать это решение, которое считает «чрезмерным вмешательством, отменяющим общепринятые нормы конфиденциальности и ослабляющим безопасность».

 Источник изображения: unsplash.com

Источник изображения: unsplash.com

Издание The New York Times подало в суд на OpenAI и Microsoft за нарушение авторских прав в 2023 году, обвинив компании в «копировании и использовании миллионов» материалов для обучения моделей ИИ. Издание утверждает, что только сохранение данных пользователей до завершения судебного процесса сможет обеспечить предоставление необходимых доказательств в поддержку иска.

В ноябре 2024 года стало известно, что инженеры OpenAI якобы случайно удалили данные, которые потенциально могли стать доказательством вины разработчика ИИ-алгоритмов в нарушении авторских прав. Компания признала ошибку и попыталась восстановить данные, но сделать это в полном объёме не удалось. Те же данные, что удалось восстановить, не позволяли определить, что публикации изданий были задействованы при обучении нейросетей.

Поэтому в мае 2025 года суд обязал OpenAI сохранять «все выходные данные журнала, которые в противном случае были бы удалены», даже если пользователь запрашивает удаление чата или если законы о конфиденциальности требуют от OpenAI удаления данных. В соответствии с политикой OpenAI, если пользователь стирает чат, через 30 дней он удаляется без возможности восстановления. Теперь компании придётся хранить чаты до тех пор, пока суд не решит иначе.

OpenAI сообщила, что постановление суда затронет пользователей бесплатной версии ChatGPT, а также владельцев подписок Pro, Plus и Team. Оно не повлияет на клиентов ChatGPT Enterprise или ChatGPT Edu, а также на компании, заключившие соглашение о нулевом хранении данных. OpenAI заверила, что данные не попадут в общий доступ, а работать с ними сможет «только небольшая проверенная юридическая и безопасная команда OpenAI» исключительно в юридических целях.

«Мы считаем, что это был неуместный запрос, который создаёт плохой прецедент. Мы будем бороться с любым требованием, которое ставит под угрозу конфиденциальность наших пользователей; это основной принцип», — отреагировал генеральный директор OpenAI Сэм Альтман (Sam Altman).

Ранее OpenAI обвинила The New York Times в «десятках тысяч попыток» получить эти «крайне аномальные результаты», «выявив и воспользовавшись ошибкой», которую сама OpenAI «стремится устранить». NYT якобы организовала эти атаки, чтобы собрать доказательства в поддержку утверждения, что продукты OpenAI ставят под угрозу журналистику, копируя авторские материалы и репортажи и тем самым отбирая аудиторию у создателей контента.

The New York Times не одинока в своих претензиях в OpenAI. В мае 2024 года восемь интернет-изданий подали иск к OpenAI и Microsoft за незаконное использование статей для обучения ИИ. Истцы упрекают OpenAI в незаконном копировании миллионов статей, размещённых в изданиях New York Daily News, Chicago Tribune, Orlando Sentinel, Sun Sentinel, The Mercury News, The Denver Post, The Orange County Register и Pioneer Press для обучения своих языковых моделей.

ChatGPT научился получать доступ к Gmail, Outlook и «Google Диску» в реальном времени

OpenAI сообщила, что ChatGPT теперь может подключаться к большему количеству приложений и сервисов, что позволяет извлекать данные из этих источников в режиме реального времени при наличии соответствующих разрешений. Среди добавленных подключаемых источников — Outlook, Teams, «Google Диск», Gmail и Linear. Кроме того, OpenAI начала развёртывание новой функции Record Mode для расшифровки и анализа встреч и аудио.

 Источник изображения: unsplash.com

Источник изображения: unsplash.com

Перечисленные выше новые подключения возможны только для пользователей платных тарифных планов ChatGPT Plus, Pro, Team, Enterprise и Edu. Кроме того, эта функция недоступна для пользователей из Европейской экономической зоны (ЕЭЗ), Швейцарии и Великобритании. Владельцам подписок ChatGPT Team, Enterprise и Edu дополнительно доступны подключения к SharePoint, Dropbox и Box.

Кроме того, OpenAI приступила к развёртыванию на macOS новой функции Record Mode для владельцев подписки ChatGPT Team. По словам компании, этот инструмент позволяет одним нажатием кнопки «записывать любую встречу или голосовую заметку — ChatGPT расшифрует её, извлечёт ключевые моменты и превратит в последующие действия, планы или даже код».

OpenAI пообещала, что функция Record Mode скоро появится в тарифных планах ChatGPT Plus, Pro и Enterprise, но не уточнила, будет ли она доступна в Windows или через веб-интерфейс.

ChatGPT научился копаться в корпоративных файлах в «Google Диске», Dropbox и других облаках

ChatGPT для бизнес-пользователей научился работать с облачными хранилищами. Теперь ИИ может подключаться к «Google Диску», Dropbox, Box, SharePoint и OneDrive для поиска информации и глубокого анализа данных (deep research) на основании внутренних документов компаний.

 Источник изображения: Zac Wolff / Unsplash

Источник изображения: Zac Wolff / Unsplash

Чат-бот также может записывать и транслировать встречи, создавать заметки с таймкодами, выделять ключевые моменты и предлагать действия на основе обсуждений. Пользователи смогут осуществлять поиск по таким записям так же, как по документам. При этом задачи можно автоматически переносить в Canvas — инструмент OpenAI для проектов написания текстов и кода .

Подчёркивается, что новая функция учитывает и права доступа пользователей. Если, к примеру, сотрудник не имеет разрешения на просмотр файла, ChatGPT не предоставит ему информацию из него. Клиенты OpenAI также могут взаимодействовать через протокол MCP (Model Context Protocol), который позволяет подключаться к другим инструментам для глубокого анализа. Поддержка MCP доступна подписчикам Pro, Team и Enterprise.

Кроме того, компания запустила бета-версию «глубоких» связей (deep research connectors) для HubSpot, Linear и некоторых инструментов Microsoft и Google. С их помощью ChatGPT может готовить аналитические отчёты, используя как внутренние данные компаний, так и данные из интернета. Этот инструмент доступен всем пользователям на платных тарифах.

OpenAI хочет, чтобы ChatGPT стал личным секретарём для каждого

OpenAI планирует превратить ChatGPT в универсального супер-помощника, который будет помогать пользователям во всех сферах жизни. Согласно внутренним материалам компании, которые попали в СМИ благодаря антимонопольному разбирательству с Google, уже в первой половине 2025 года начнётся эволюция ChatGPT в супер-ассистента.

 Источник изображения: Solen Feyissa / Unsplash

Источник изображения: Solen Feyissa / Unsplash

Документ под названием «ChatGPT: H1 2025 Strategy» гласит, что OpenAI намерена вывести ChatGPT за рамки обычного чат-бота. «В первой половине следующего года мы начнём превращать ChatGPT в супер-ассистента, который будет хорошо понимать ваши потребности и выполнять задачи, с которыми справился бы умный, надёжный, обладающий эмоциональным интеллектом человек, умеющий работать с компьютером», — говорится в документе. Помощник сможет не только отвечать на вопросы, но и помогать в решении самых разных задач вплоть до планирования отпуска, отправки писем или записи к врачу.

Компания описывает будущий ChatGPT как интеллектуального, способного решать как повседневные задачи, так и узкоспециализированные для профессионалов. В числе примеров указывается поиск жилья, бронирование ресторанов, управление календарём, составление списков дел и написание программного кода. При этом разработчики подчёркивают, что новые модели GPT-02 и GPT-03 стали достаточно умными для выполнения подобных задач самостоятельно.

OpenAI видит ChatGPT не просто как инструмент, а как цифрового партнёра. «Сегодня ChatGPT живёт в нашем браузере, приложении или на рабочем столе, но мы хотим, чтобы он помогал всегда и везде — дома, на работе, в дороге и даже на прогулке», — говорится в документе. Однако у компании есть и проблемы. Инфраструктура OpenAI пока не справляется с растущей нагрузкой, а конкуренция в сфере ИИ-ассистентов усиливается всё больше. По словам компании, лидерство, очевидно, не будет вечным, а рост бизнеса и доходы не всегда будут идти в ногу.

OpenAI также опасается давления со стороны крупных игроков, таких как Google и Meta, которые продвигают собственные ИИ-продукты через свои платформы. Например, Meta AI уже достигла миллиарда пользователей благодаря интеграции в Instagram, WhatsApp и Facebook, а Apple рассматривает возможность выбора Google Gemini для Siri. Поэтому OpenAI намерена добиваться регулирования, которое позволит пользователям выбирать ChatGPT в качестве ассистента по умолчанию.

window-new
Soft
Hard
Тренды 🔥
Разработчики S.T.A.L.K.E.R. 2: Heart of Chornobyl заинтриговали фанатов тизером хардкорного режима 2 ч.
Amazon намерена запретить сыну Константина Малофеева судиться с Twitch за пределами Калифорнии 2 ч.
МТС взялась за разработку собственных видеоигр 3 ч.
Huawei обвинили в копировании ИИ конкурентов — компания всё отрицает 3 ч.
Google открыла Gemini доступ ко всем приложениям на Android и толком не объяснила, как от этого отказаться 3 ч.
«Яндекс» наконец перешёл в прямое управление к участникам «Консорциум.Первый» 3 ч.
«ЗН Цифра» внедрила решения импортонезависимой экосистемы «Базиса» 3 ч.
OpenAI усилила режим секретности, опасаясь утечки передовых ИИ-разработок 3 ч.
Упор на сюжет, жуткие анимации и физическое ощущение ужаса: новые подробности гротескного хоррора Ill 4 ч.
«Romero Games не закрылась»: студия соавтора Doom Джона Ромеро жива, несмотря на отмену нового шутера 6 ч.
DapuStor представила 122,88-Тбайт NVMe SSD с интерфейсом PCIe 4.0 x4 и QLC-памятью 14 мин.
«Сбербанк» и ФНС запустили банкротство «Плеер.ру» — магазин задолжал более 10 млрд рублей 14 мин.
«Инферит» выпустил российскую рабочую станцию для ИИ-задач с четырьмя GPU и СЖО 19 мин.
LG придумала, как сделать смартфоны тоньше и мощнее — надо отказаться от шариков на чипах 22 мин.
Micron начнёт поставлять чипы памяти GDDR7 для видеокарт Nvidia GeForce RTX 5000 26 мин.
Tesla придётся урезать функции робота Optimus или отложить массовое производство 32 мин.
Китайская BOE станет крупнейшим поставщиком экранов для Apple MacBook в 2025 году 53 мин.
В России стартовали продажи смартфонов Honor 400 и 400 Pro с 200-Мп камерами и ИИ-технологиями для фото 2 ч.
Китайцы создали самого быстрого в мире робопса — за стометровку он мог бы претендовать на золотой знак ГТО 2 ч.
Изменения климата грозят дефицитом чипов — через 10 лет мир столкнётся с нехваткой меди для полупроводников 3 ч.