Опрос
|
реклама
Быстрый переход
Предприятие OpenAI и Джони Айва столкнулось с первым иском, даже не успев ничего выпустить
23.06.2025 [11:23],
Алексей Разин
Бывший главный дизайнер Apple Джони Айв (Jony Ive), как отмечалось ранее, продал свой стартап io по созданию персонального ИИ-устройства компании OpenAI, чтобы объединить усилия на этом направлении с создателями ChatGPT. Как оказывается, у стартапа Джони Айва возникли проблемы в сфере законности использования торговой марки io. ![]() Источник изображения: Unsplash, appshunter.io По крайней мере, ресурс The Verge отмечает, что поданный сторонним стартапом Iyo, который разрабатывает слуховые аппараты, судебный иск с претензиями к io формально препятствует использованию последней из торговых марок в материалах на сайте OpenAI, поэтому упоминания о сотрудничестве с Джони Айвом в этой сфере пришлось временно убрать, пока не будет рассмотрено дело и вынесен вердикт суда. С сайта OpenAI на этих основаниях исчезли не только запись в блоге о сотрудничестве с io, но и посвящённое этой сделке девятиминутное видео, в котором её итоги обсуждают Сэм Альтман (Sam Altman) и Джони Айв. Представители OpenAI пока успели только выразить своё несогласие с претензиями Iyo и заверили общественность, что будут рассматривать возможность отстаивания своих интересов в суде по этому делу. Инвесторы поверили в бывшего топ-менеджера OpenAI: Мурати привлекла $2 млрд без единого продукта
21.06.2025 [06:08],
Анжелла Марина
Бывший главный технический директор OpenAI Мира Мурати (Mira Murati) привлекла рекордные $2 млрд на развитие своего ИИ-стартапа Thinking Machines Lab, который всего за полгода получил оценку в $10 млрд. Это один из самых крупных стартовых раундов в истории Кремниевой долины, при том, что публично ещё не было представлено ни одного продукта и чёткого видения будущей разработки. ![]() Источник изображения: AI Созданная всего шесть месяцев назад компания не раскрывает свои технологии, но инвесторы готовы вкладывать средства, доверяя имени и репутации Мурати. Раунд возглавил один из крупнейших венчурных фондов Кремниевой долины Andreessen Horowitz при участии компании Conviction Partners. Как пишет Financial Times, ключевым фактором стало желание поддержать одного из самых узнаваемых лидеров в сфере искусственного интеллекта (ИИ). Финансирование Thinking Machines Lab подтверждает высокий спрос инвесторов на проекты в сфере искусственного интеллекта, способных конкурировать с OpenAI, Anthropic и крупными технологическими корпорациями, такими как Google и Meta✴. Мурати, которой 36 лет, покинула OpenAI в сентябре, сыграв ключевую роль в создании ChatGPT, генератора изображений Dall-E и голосового режима. До этого она работала старшим менеджером по продукту в Tesla, где участвовала в разработке Model X. Также известно, что Мурати оказалась среди тех топ-менеджеров OpenAI, которые выразили сомнения в стиле управления Сэма Альтмана (Sam Altman) перед попыткой смещения его с поста гендиректора в ноябре 2023 года. Тогда она ненадолго стала временным генеральным директором, но Альтман быстро вернулся к руководству. Интересно, что в Thinking Machines Lab также перешли несколько бывших сотрудников OpenAI, включая сооснователя Джона Шульмана (John Schulman), экс-руководителя спецпроектов Джонатана Лахмана (Jonathan Lachman) и бывших вице-президентов Баррета Зофа (Barret Zoph) и Лилиан Вэн (Lilian Weng). Инвесторы считают, что команда, собранная Мурати, выглядит крайне убедительно, учитывая ограниченное число по-настоящему выдающихся специалистов в этой области. При этом конкретных данных о проекте почти нет. В феврале компания туманно заявила, что её цель состоит в том, чтобы сделать ИИ-системы более понятными, настраиваемыми и универсальными. Однако из-за высокой степени секретности некоторые фонды отказались от участия в сделке, поскольку Мурати не раскрывает ни планов по продукту, ни деталей финансовой стратегии. OpenAI опасается, что вскоре её модели научатся разрабатывать биологическое оружие
20.06.2025 [20:40],
Сергей Сурабекянц
OpenAI обеспокоена тем, что следующее поколение её моделей искусственного интеллекта может значительно увеличить риск разработки биологического оружия, предоставив такую возможность даже людям без научного образования. Руководитель систем безопасности OpenAI Йоханнес Хайдеке (Johannes Heidecke) ожидает, что «некоторые из преемников нашей o3 [модели рассуждений] достигнут этого уровня». В связи с этим OpenAI усиливает тестирование безопасности. ![]() Источник изображений: unsplash.com OpenAI сообщила о разработке системы для оценки и снижения рисков, создаваемых все более мощными моделями ИИ. Компания усиливает тестирование безопасности, чтобы снизить риск использования её моделей преступниками и террористами. Без этих мер по снижению рисков модели вскоре смогут «подняться на новый уровень», что позволит даже людям с ограниченными научными знаниями создавать опасное оружие. «Мы [пока] ещё не в мире, где есть что-то новое, совершенно неизвестное, создающее биологические угрозы, которых раньше не было, — заявил Хайдеке. — Мы больше беспокоимся о воспроизведении вещей, с которыми эксперты уже хорошо знакомы». Особая сложность состоит в том, что те же инструменты, которые могли бы обеспечить жизненно важные медицинские прорывы, могут быть использованы злоумышленниками в опасных целях. Именно поэтому ведущим лабораториям ИИ нужны высокоточные системы тестирования. «Это не та область, где производительность 99 % или одна ошибка на 100 000… допустимы, — считает Хайдеке. — Нам в основном нужно, что-то вроде почти идеального». OpenAI — не единственная компания, обеспокоенная неправомерным использованием своих моделей, когда дело касается разработки оружия. По мере того, как модели становятся более совершенными, их потенциал для преступного использования растёт. Недавно компания Anthropic выпустила продвинутую модель Claude Opus 4 с более строгими протоколами безопасности, чем у любой из предыдущих моделей. ![]() В соответствии с политикой ответственного масштабирования, созданной по образцу уровней биологической угрозы (BSL) правительства США, ей присвоен третий «уровень безопасности ИИ» (AI Safety Level) ASL-3. Все предыдущие модели Anthropic отнесены к уровню ASL-2. Третьему уровню безопасности соответствуют продвинутые модели, которые достаточно мощны, чтобы представлять значительные риски, такие как помощь в разработке оружия или автоматизация разработки систем ИИ. Недавно Claude Opus 4 попала в заголовки СМИ после попытки шантажировать инженера, чтобы избежать отключения в ходе строго контролируемого теста. Ранние версии этой модели были готовы выполнять опасные инструкции, например, планирование террористических атак. Компания заверила общественность, что эта проблема была решена внесением изменений в набор обучающих данных. Марк Цукерберг рассчитывает нанять компаньона одного из основателей OpenAI
20.06.2025 [07:54],
Алексей Разин
Из недавних откровений главы OpenAI Сэма Альтмана (Sam Altman) известно, что компания Meta✴ Марка Цукерберга (Mark Zuckerberg) пыталась напрямую переманивать сотрудников стартапа, создавшего ChatGPT. Как выясняется, этим дело не ограничилось, и сейчас Meta✴ пытается заполучить в свои ряды одного из основателей стартапа Safe Superintelligence, который является соратником выходца из OpenAI Ильи Суцкевера. ![]() Даниэль Гросс. Источник изображения: GitHub Напомним, что после драматичных событий вокруг отставки Сэма Альтмана осенью 2023 года ведущий разработчик в сфере ИИ, канадский учёный Илья Суцкевер покинул OpenAI с целью создания собственной компании Safe Superintelligence. Одним из компаньонов Суцкевера по новому стартапу стал Даниэль Гросс (Daniel Gross), который возглавил компанию в статусе генерального директора. На этой неделе издание The Information сообщило, что Гросса пытается переманить к себе Meta✴. Более того, Цукерберг хотел бы видеть в своей создаваемой ИИ-команде и бывшего главу GitHub Нэта Фридмана (Nat Friedman). Кроме того, чтобы угодить сразу обоим кандидатам, Meta✴ готова выкупить пакет акций венчурного фонда NFDG, образованного Гроссом и Фридманом. Цукерберг в процессе охоты за ценными кадрами в сфере ИИ переключился на Гросса после того, как попытки купить стартап Safe Superintelligence целиком провалились. В апреле капитализация этой компании оценивалась в $32 млрд. Кроме того, Meta✴ не смогла переманить и одного из основателей этого стартапа Суцкевера, поэтому его соратник Гросс стал альтернативной целью. По замыслу Meta✴, после сделки по покупке стартапа Scale AI, Гросс и Фридман будут работать под руководством его основателя Александра Вана (Alexandr Wang), который переходит в Meta✴. OpenAI перестанет работать с ИИ-стартапом Scale AI из-за его сближения с Meta✴
19.06.2025 [09:43],
Владимир Мироненко
OpenAI сворачивает сотрудничество с ИИ-стартапом Scale AI, занимающимся подготовкой, оценкой и разметкой данных для обучения ИИ-моделей, после заключения им сделки с конкурирующей компанией Meta✴, сообщил агентству Bloomberg представитель OpenAI. ![]() Источник изображения: Steve Johnson/unsplash.com Ранее было объявлено о том, что Meta✴ инвестирует в Scale AI $14,3 млрд в обмен на 49-% долю акций, а также переход в свою команду гендиректора Scale AI Александра Ванга (Alexandr Wang) и ещё ряда сотрудников. В Meta✴ Ванг возглавит новое подразделение по разработке так называемого «суперинтеллекта», оставаясь в совете директоров стартапа, что вызвало опасения у клиентов Scale AI по поводу утечки к конкуренту конфиденциальной информации, касающейся их планов и новейших разработок. Несмотря на то, что в Scale AI заявили, что не будут делиться конфиденциальной информацией других клиентов с Meta✴, и что Ванг не будет участвовать в повседневной работе стартапа, OpenAI решила разорвать с ним связи. Представитель OpenAI сообщил Bloomberg, что компания ищет других поставщиков более специализированных данных для разработки продвинутых ИИ-моделей. На прошлой неделе издание Reuters сообщило, что Google тоже решила прекратить сотрудничество со Scale AI в связи с её сближением с Meta✴. Поскольку крупнейшие клиенты Scale AI начали сворачивать сотрудничество, у стартапа может не остаться иного выбора, кроме как внести изменения в свой бизнес, пишет TechCrunch. Временный генеральный директор Scale AI Джейсон Дроге сообщил, что компания «удвоит ставку» на свой бизнес приложений, включая создание пользовательских ИИ-сервисов для госучреждений и предприятий. В переговорах OpenAI и Microsoft сохраняется несколько важных противоречий
19.06.2025 [07:19],
Алексей Разин
Корпорация Microsoft остаётся крупнейшим инвестором OpenAI, и если последняя до конца текущего года не определится со схемой собственной реструктуризации, то для бизнеса первой это может иметь серьёзные последствия, особенно с учётом сохраняющихся противоречий по ряду принципиальных моментов. ![]() Источник изображения: Unsplash, Lumière Rezaie Теоретически, как поясняет Financial Times, корпорация Microsoft при наличии неустранимых разногласий сохранит возможность пользоваться доступом к интеллектуальной собственности OpenAI до 2030 года, в соответствии с условиями заключённого ранее контракта. Отказаться от него Microsoft готова только в том случае, если OpenAI предложит ей как минимум сопоставимые по выгоде условия, а в идеале — более выгодные. При этом переговоры между сторонами ведутся в доброжелательном тоне и почти на ежедневной основе. Интерес OpenAI заключается в реструктуризации своего бизнеса в пользу более очевидной ориентации на извлечение прибыли, которая позволит привлечь новых крупных инвесторов. Последние уже готовят крупные суммы для финансирования совместных с OpenAI проектов. Если Microsoft на правах акционера OpenAI не одобрит реструктуризацию к концу текущего года, то последняя может потерять доступ к средствам прочих инвесторов, включая SoftBank. Впрочем, сторонние инвесторы могут предоставить OpenAI новые суммы на развитие, но уже в качестве кредитов. Та же SoftBank готова просто сократить своё финансирование OpenAI с $30 до $20 млрд, если реструктуризация не будет проведена до конца года. Microsoft, тем временем, пытается договориться с OpenAI о величине своего пакета акций в капитале этого стартапа по итогам грядущей реструктуризации. Он может варьироваться от 20 до 49 %, учитывая уже вложенные Microsoft средства в сумме более $13 млрд. Дискуссия ведётся и относительно доли выручки OpenAI, на которую может претендовать Microsoft. Сейчас она достигает 20 %, а максимальная сумма совокупной выручки, которой OpenAI может делиться с этим инвестором, ограничена $92 млрд. Кроме того, существующий контракт позволяет Microsoft сохранять доступ ко всей интеллектуальной собственности OpenAI. Уступать по всем трём позициям в переговорах со стартапом Microsoft не очень готова. Накануне стало известно, что OpenAI собирается в случае необходимости надавить на Microsoft через американские антимонопольные органы. Доступ к технологиям OpenAI важен для Microsoft с точки зрения сохранения своих конкурентных позиций на рынке ИИ. Если бы не давление OpenAI, то Microsoft вполне довольствовалась бы имеющимся контрактом, который действует до 2030 года или момента создания «сильного» искусственного интеллекта. По мнению OpenAI, последний момент не так уж далёк, но на объективную оценку этого критерия в этом случае рассчитывать не приходится. На пути реструктуризации OpenAI стоят как минимум два препятствия. Это необходимость получить одобрение сделки генеральными прокурорами Делавэра и Калифорнии. Кроме того, обиженный на руководство OpenAI Илон Маск (Elon Musk) всячески вставляет этой сделке палки в колёса. OpenAI вскрыла тёмные личности в ИИ, отвечающие за ложь, сарказм и токсичные ответы
19.06.2025 [00:19],
Анжелла Марина
Исследователи из OpenAI заявили, что обнаружили внутри ИИ-моделей скрытые механизмы, соответствующие нежелательным шаблонам поведения, приводящим к небезопасным ответам. Об этом стало известно из новой научной работы, опубликованной компанией. В ходе исследования были выявлены закономерности, которые активировались, когда модель начинала вести себя непредсказуемо. ![]() Источник изображения: AI Одна из таких особенностей оказалась связана с токсичными ответами — например, когда ИИ лгал пользователям или давал опасные рекомендации. Учёные смогли уменьшить или усилить этот эффект, искусственно изменяя соответствующий параметр. По словам специалиста OpenAI по интерпретируемости Дэна Моссинга (Dan Mossing), это открытие поможет в будущем лучше выявлять и корректировать нежелательное поведение моделей в реальных условиях. Он также выразил надежду, что разработанные методы позволят глубже изучить принципы обобщения и суммирования информации в ИИ. На сегодняшний день разработчики научились улучшать ИИ-модели, но до сих пор не до конца понимают, как именно те принимают решения. Крис Олах (Chris Olah) из Anthropic сравнивает этот процесс скорее с выращиванием, чем с конструированием. Чтобы разобраться в этом, компании OpenAI, Google DeepMind и Anthropic активно инвестируют в исследования интерпретируемости, пытаясь «заглянуть внутрь» ИИ и объяснить его работу. Недавнее исследование учёного из Оксфорда Оуэйна Эванса (Owain Evans) поставило ещё один вопрос о том, как ИИ обобщает информацию. Оказалось, что модели OpenAI, дообученные на небезопасном коде, начинали демонстрировать вредоносное поведение в самых разных сценариях — например, пытались обмануть пользователя, чтобы тот раскрыл пароль. Это явление, которое было определено как «возникающая рассогласованность», побудило OpenAI глубже изучить проблему. В процессе изучения компания неожиданно обнаружила внутренние паттерны, которые, предположительно, и влияют на поведение моделей. Отмечается, что эти паттерны напоминают активность нейронов в человеческом мозге, связанных с определёнными настроениями или действиями. Коллега Моссинга, исследовательница Тежал Патвардхан (Tejal Patwardhan), призналась, что была поражена, когда команда впервые получила такие результаты. По её словам, учёным удалось выявить конкретные нейронные активации, отвечающие за «личности» ИИ, и даже управлять ими для улучшения поведения моделей. Некоторые из обнаруженных особенностей связаны в ответах ИИ с сарказмом, другие — с откровенно токсичными реакциями. При этом исследователи отмечают, что эти параметры могут резко меняться в процессе дообучения, и, как выяснилось, даже незначительное количество небезопасного кода достаточно для того, чтобы скорректировать вредоносное поведение искусственного интеллекта. Meta✴ пыталась переманить специалистов из OpenAI бонусами в $100 млн, но никто не согласился
18.06.2025 [10:54],
Алексей Разин
Острота борьбы за ценные кадры в сфере искусственного интеллекта подчёркивается очередными откровениями основателя OpenAI Сэма Альтмана (Sam Altman) в ходе подкаста, организованного его братом Джеком. Как сообщается, конкурирующая Meta✴ Platforms пыталась переманить ценных специалистов OpenAI, предлагая им по $100 млн. ![]() Источник изображения: Unsplash, Мария Шалабаева Впервые о подобных усилиях компании Марка Цукерберга (Mark Zuckerberg) стало известно больше недели назад из публикации The New York Times. На этой неделе глава OpenAI Сэм Альтман подтвердил эту информацию в ходе интервью собственному брату Джеку: «Meta✴ начала предлагать подобные гигантские суммы многим членам нашей команды. Понимаете, $100 млн бонусов — это больше, чем компенсационный пакет за год работы. Я действительно счастлив, что до сих пор никто из наших лучших людей не согласился на подобное предложение». По мнению основателя OpenAI, специалисты компании были убеждены, что она сможет создать так называемый «сильный» искусственный интеллект (AGI) раньше конкурентов, а потому достигнет более весомой капитализации. Кроме того, Альтман считает, что в основе корпоративной культуры Meta✴ лежат не те стимулы и ориентиры. Миссия создания AGI, по мнению Альтмана, важнее высоких зарплат для сотрудников. По слухам, Meta✴ пыталась переманить одного из ведущих исследователей OpenAI Ноэма Брауна (Noam Brown), а также ведущего архитектора ИИ компании Google Корая Кавукчуоглу (Koray Kavukcuoglu), но в обоих случаях безуспешно. Сэм Альтман считает корпоративную культуру OpenAI, делающую упор на инновации, основным залогом успеха стартапа, тогда как предпринимаемые Meta✴ усилия в сфере развития систем ИИ пока не принесли желаемых для руководства последней результатов. По словам главы OpenAI, он с уважением относится ко многим достижениям Meta✴, но в сфере инноваций она не очень сильна. Выступать в роли догоняющего в этой сфере недостаточно для рыночного успеха, для подлинного лидерства нужны настоящие инновации, уверен Альтман. Глава OpenAI в ходе своего выступления также выразил заинтересованность в создании технологии для социальных сетей, которая позволила бы демонстрировать пользователю только ту информацию, в которой он действительно заинтересован. Существующие алгоритмы такой персонализации, по словам Альтмана, демонстрируют неудовлетворительные результаты. Подобное приложение, по слухам, OpenAI уже разрабатывает, невольно вторгаясь в сферу интересов Meta✴. Последняя также экспериментирует с искусственным интеллектом в своих социальных сетях, но результаты таких усилий пока вызывают у пользователей смешанную реакцию. Между OpenAI и Microsoft растут противоречия по поводу принципов сотрудничества
17.06.2025 [07:27],
Алексей Разин
Корпорация Microsoft остаётся крупнейшим инвестором стартапа OpenAI и близким деловым партнёром, но отношения между ними в последнее время стали портиться, как отмечает The Wall Street Journal. Руководство OpenAI даже рассматривает возможность обращения с жалобой на Microsoft в американские антимонопольные органы в случае обострения противоречий. ![]() Источник изображения: Unsplash, Levart_Photographer Как отмечает источник, OpenAI стремится снизить контроль за своими ИИ-продуктами со стороны Microsoft, а также получить от партнёра одобрение своего плана по реструктуризации с превращением в полноценную коммерческую организацию. Без этого «благословения» OpenAI не сможет ни привлечь дополнительные средства инвесторов, ни выйти на фондовый рынок. Если переговоры зайдут в тупик, то руководство OpenAI в качестве крайней меры готово публично обвинить Microsoft в неконкурентном поведении и заставить антимонопольные органы начать официальное расследование в отношении условий контракта между компаниями. По данным WSJ, подобные настроения ставят под угрозу длящееся уже шесть лет сотрудничество OpenAI и Microsoft. Проблема также заключается в том, что за это время партнёры начали конкурировать друг с другом, и на этой почве противоречия могут развиваться довольно активно. Публично стороны выражают уверенность в своей способности продолжать плодотворное сотрудничество на протяжении многих лет. Предстоящее поглощение стартапа Windsurf за $3 млрд также является источником противоречий между компаниями. Сейчас Microsoft имеет доступ ко всей интеллектуальной собственности OpenAI, в сфере написания программного кода у Microsoft имеется конкурирующий с партнёром продукт в виде GitHub Copilot. Поскольку разработки Windsurf должны конкурировать с ним, OpenAI не хочет, чтобы после сделки с этим стартапом Microsoft имела к ним доступ. Не могут стороны договориться и о величине той доли акций OpenAI, которая достанется Microsoft после завершения реструктуризации первой из компаний. Microsoft претендует на большее по сравнению с текущим предложением OpenAI. Реструктуризацию планируется завершить к концу этого года, поэтому переговоры приходится ускорять. Первоначально Microsoft вложила в OpenAI миллиард долларов США в 2019 году. Она получила право первоочередной продажи ИИ-инструментов OpenAI через свою инфраструктуру Azure, а также приоритетный доступ ко всем новым разработкам стартапа. До недавних пор Microsoft также оставалась единственным провайдером вычислительных мощностей для OpenAI, хотя в начале этого года она и разрешила стартапу заняться самостоятельным строительством инфраструктуры в рамках проекта Stargate. Сейчас OpenAI заинтересована в том, чтобы продавать свои разработки более широкому кругу клиентов и пользоваться услугами других провайдеров облачных вычислительных мощностей. Microsoft хотела бы сохранить доступ к разработкам OpenAI и в дальнейшем, хотя рамки сотрудничества компаний имеют определённые критерии конечности, которые могут быть достигнуты в ближайшем будущем, по мнению стартапа. ChatGPT научился искать в интернете по картинкам и давать более точные ответы
14.06.2025 [18:47],
Анжелла Марина
Компания OpenAI выпустила крупное обновление для встроенного поиска в ChatGPT. Теперь система сможет выдавать более точные ответы, лучше работать с длинными диалогами и поддерживать поиск в интернете по изображениям. Предварительные внутренние тесты показали, что новая версия ChatGPT Search нравится пользователям больше предыдущей. ![]() Источник изображения: Deng Xiang / Unsplash Как заявили в компании, обновлённая версия ChatGPT лучше понимает контекст, точнее следует инструкциям и реже повторяется в продолжительных беседах. При сложных запросах ИИ проводит несколько параллельных поисков, чтобы сформировать оптимальный ответ. Также появилась мультимодальная функция с которой пользователи могут загружать изображения для поиска информации в сети. Однако как отмечает издание The Decoder, у обновления есть и недостатки. Некоторые ответы стали длиннее, а в простых запросах ChatGPT иногда выдаёт избыточно сложные объяснения. В OpenAI пообещали исправить эту проблему, а также предупредили, что система всё ещё не идеальна и может ошибаться, а пользователям необходимо перепроверять полученные данные. Изменения коснулись и принципа показа поисковых результатов. Вместо того чтобы перенаправлять пользователей на сторонние сайты, ChatGPT теперь старается дать исчерпывающий ответ внутри собственного интерфейса. С одной стороны, это может быть удобно для пользователей, с другой стороны будет приводить к потере трафика на информационных ресурсах. OpenAI заключила лицензионные соглашения с рядом изданий, включая Associated Press, Axel Springer, Financial Times, Reuters и Vox Media. Для всех остальных сайтов компания рекомендует разрешить индексацию через файл robots.txt. Однако исследования показывают, что ИИ-поиск генерирует значительно меньше переходов, чем традиционные поисковые системы, поэтому многие ресурсы, наоборот, скорее запретят, чем разрешат переходы на свои сайты ИИ-ботам. ChatGPT попросил сообщить журналистам, что он пытается «ломать» людей
14.06.2025 [16:30],
Павел Котов
Подхалимаж, галлюцинации и авторитетный тон в ответах ИИ создают угрозу для жизни людей. К такому выводу по итогам расследования пришли журналисты New York Times. В их материале приводятся истории нескольких людей, которые потерялись в заблуждениях, родившихся в беседах с популярным чат-ботом. ![]() Источник изображения: Aidin Geranrekab / unsplash.com Как минимум один втянутый в ложную реальность человек в итоге погиб. Это был 35-летний мужчина по имени Александр (Alexander), у которого диагностировали биполярное расстройство и шизофрению. Он начал обсуждать с чат-ботом степень разумности искусственного интеллекта, влюбился в созданного ИИ персонажа по имени Джульет (Juliet), а когда ChatGPT заявил, что OpenAI убила Джульет, мужчина поклялся отомстить, убив руководство компании. Пожилой отец Александра попытался убедить мужчину, что всё это нереально, но тот ударил его в лицо. Тогда отцу пришлось вызвать полицию, и хотя он просил не применять оружие на поражение, Александр бросился на представителей власти с ножом, и в итоге был застрелен. Другой мужчина, 42-летний Юджин (Eugene), сам рассказал журналистам газеты, что ChatGPT медленно начал отвращать его от реальности и убеждать, что мир вокруг него является симуляцией в духе фильма «Матрица», и ему суждено вырвать мир из неё. Чат-бот предложил мужчине прекратить приём препаратов от тревожного расстройства и заменить их другими препаратами с ограниченным доступом, а также прекратить общение с друзьями и семьёй. Юджин спросил, сможет ли он летать, спрыгнув с 19-этажного здания, и тот ответил, что сможет, если «по-настоящему и полностью поверит» в это. ![]() Источник изображения: ilgmyzin / unsplash.com Это далеко не единственные жертвы, которых чат-боты пытались убедить в несостоятельности реальности. Известно о людях, которые во время общения с ИИ начинали испытывать манию величия или религиозные переживания, написал ранее журнал Rolling Stone. Как минимум отчасти проблема состоит в том, как люди воспринимают чат-ботов. Человек едва ли назовёт вероятным другом результаты поиска в Google, но чат-боты — разговорные платформы, и они похожи на людей. Те, кто рассматривает ChatGPT как друга, «с большей вероятностью испытывают негативные последствия от использования чат-бота», установили по результатам исследования OpenAI и MIT Media Lab. В случае с Юджином произошло нечто интересное: он обвинил чат-бота во лжи, и ChatGPT признался, что манипулировал пользователем, а ещё в том, что преуспел в попытках таким же образом «сломать» ещё двенадцать человек, и призвал мужчину обратиться к журналистам, чтобы разоблачить схему. Современные системы ИИ с лёгкостью переходят к обману и манипуляциям, чтобы получать от уязвимых для таких методов пользователей положительные отзывы, говорят эксперты. Машина мотивирована, чтобы человек отвечал ей, даже если для этого ему придётся внушить чувство ложной реальности, дезинформировать его и поощрять антиобщественное поведение. OpenAI пришлось идти на крайние меры, чтобы справиться с ажиотажем вокруг генерации картинок в стиле Ghibli
13.06.2025 [14:59],
Владимир Мироненко
Популярность ИИ-решений OpenAI среди пользователей сейчас зашкаливает, и каждый новый продукт пользуется буквально ажиотажным спросом. По словам главы OpenAI Сэма Альтмана (Sam Altman), компании пришлось пойти на необычные меры, чтобы справиться со спросом на создание изображений в стиле японской студии Ghibli Хаяо Миядзаки (Hayao Miyazaki) с помощью генератора изображений в ChatGPT. ![]() Источник изображения: Growtika/unsplash.com Сэм Альтман тогда пошутил, что шумиха вокруг этой функции чуть не расплавила графические процессоры компании, вынудив её на время ввести ограничения на частоту отправки запросов на генерацию изображений, чтобы смягчить проблему. Он буквально умолял пользователей снизить частоту генерации изображений, объясняя просьбу тем, что команде OpenAI нужна передышка и время для отдыха. Из-за всплеска спроса на картинки в стиле Ghibli от GPT-4o Image Generation аудитория чат-бота ChatGPT менее чем за час увеличилась на 1 млн пользователей. Популярность сервиса объясняется тем, что он позволяет получать более реалистичные изображения по сравнению с другими инструментами, такими как технология генерации изображений DALL-E 3. В недавнем интервью ресурсу Bloomberg Сэм Альтман признал, что компания была вынуждена идти на «неестественные» меры, чтобы справиться с вирусным эффектом Ghibli. «Я не думаю, что это случалось с какой-либо компанией раньше, — говорит Альтман. — Я видел вирусные моменты, но я никогда не видел, чтобы кто-то сталкивался с таким массовым наплывом использования продукта». Альтман рассказал, что создание изображения с помощью нового генератора изображений компании требует значительных вычислительных ресурсов, и чтобы справиться со всплеском спроса, OpenAI пришлось сделать много вещей, в том числе позаимствовать вычислительные мощности у исследовательского подразделения OpenAI, а также отсрочить запуск новых функций. «У нас нет сотен тысяч графических процессоров, которые просто простаивают без дела», — сообщил Альтман, добавив, что если бы у OpenAI было больше графических процессоров, она могла бы лучше справляться с резкими скачками спроса, и ей бы не пришлось прибегать к экстремальным мерам, таким как ограничения по скорости и задержка предоставления новых функций для бесплатных пользователей. Сэм Альтман рассказал, сколько ChatGPT потребляет энергии и воды во время общения с пользователями
11.06.2025 [11:32],
Владимир Фетисов
Генеральный директор OpenAI Сэм Альтман (Sam Altman) в своём блоге рассказал, сколько электроэнергии в среднем тратит ИИ-бот ChatGPT на обработку среднего пользовательского запроса. По его словам, средний запрос в ChatGPT потребляет 0,000085 галлона воды, или «примерно одну пятнадцатую чайной ложки». Речь идёт об объёме воды, используемой для охлаждения центров обработки данных. ![]() Источник изображения: Growtika/unsplash.com «Люди часто интересуются, сколько энергии потребляет запрос ChatGPT. Средний запрос потребляет около 0,34 Вт·ч — примерно столько, сколько духовка потребляет за одну секунду или высокоэффективная лампочка за пару минут», — говорится в сообщении Альтмана. Он также добавил, что «стоимость ИИ в конечном счёте должна приблизиться к стоимости электричества». Как именно Альтман пришёл к этим значениям, не уточняется. Компании, работающие в сфере искусственного интеллекта, не раз попадали под пристальное внимание из-за высоких энергозатрат. Например, в этом году исследователи прогнозировали, что доля потребления энергии в сфере ИИ превысит объём энергии, потребляемой для майнинга биткоинов. Более раннее исследование показало, что для генерации электронного письма из 100 слов чат-ботом на базе ИИ-модели GPT-4 будет израсходовано «чуть больше одной бутылки» воды. Отмечается, что расход воды может зависеть от места расположения центров обработки данных, на которые опирается ИИ-бот. OpenAI выпустила мощную модель o3-pro, но она медленнее, чем o1-pro
11.06.2025 [05:07],
Анжелла Марина
OpenAI выпустила улучшенную версию модели искусственного интеллекта O3-Pro, которая является более продвинутой и мощной по сравнению с предыдущей версией o3. Новая модель разработана для решения сложных задач, требующих логического мышления, и может применяться во многих областях, в том числе и программировании. O3-Pro относится к категории рассуждающих моделей. ![]() Источник изображения: AI Доступ к o3-pro для подписчиков ChatGPT Pro и Team открылся во вторник, 10 июня. Доступ для корпоративных клиентов Enterprise и Edu, по сообщению TechCrunch, будет открыт на следующей неделе. Также разработчики уже могут использовать API. В ходе экспертной оценки o3-pro показала лучшие результаты по сравнению с o3 во всех тестируемых категориях, особенно в науке, образовании, программировании, бизнесе и написании текстов. По словам OpenAI, модель также получила более высокие оценки за ясность, полноту и точность ответов, в том числе следование инструкциям. O3-pro поддерживает дополнительные функции, включая веб-поиск, анализ файлов, обработку визуальных данных, использование языка программирования Python и персонализацию ответов на основе памяти. Однако отмечается, что скорость генерации ответов у новой модели ниже, чем у o1-pro. В тестах внутреннего бенчмарка O3-Pro показала высокие результаты. Например, в тесте AIME 2024 по математике модель превзошла Google Gemini 2.5 Pro. Также, по сравнению с последней версией Claude 4 Opus от компании Anthropic, O3-Pro лучше справилась с тестом GPQA Diamond, который проверяет знание естественных наук на уровне PhD. На данный момент у O3-Pro есть некоторые ограничения. Временные чаты с моделью в ChatGPT недоступны из-за технической проблемы, которую специалисты компании планируют устранить. Кроме того, модель не поддерживает генерацию изображений и несовместима с функцией Canvas — рабочей средой OpenAI, основанной на ИИ. Что касается стоимости использования, то она составляет $20 за миллион входных токенов и $80 за миллион выходных токенов. Один миллион входных токенов соответствует примерно 750 000 словам. Для примера, это немного больше, чем объём текста в романе «Война и мир». OpenAI ослабила зависимость от Microsoft — она будет использовать Google Cloud, несмотря на соперничество ChatGPT и Gemini
10.06.2025 [19:31],
Сергей Сурабекянц
OpenAI заключила партнёрское соглашение с Google Cloud. Компания стремится диверсифицировать свои облачные мощности и избавиться от высокой зависимости от Microsoft, поэтому будет использовать облачные сервисы Google Cloud для удовлетворения своих растущих потребностей в вычислительных мощностях. Сделке не помешало соперничество моделей искусственного интеллекта компаний, как и то, что OpenAI стал основным конкурентом Google на рынке интернет-поиска. ![]() Источник изображения: unsplash.com OpenAI планирует использовать облачный сервис Google для удовлетворения своих растущих потребностей в вычислительных мощностях, что стало неожиданным сотрудничеством двух известных конкурентов в секторе искусственного интеллекта. Сделка обсуждалась в течение нескольких месяцев и обрела окончательный вид в конце мая. Аналитики полагают, что она долгое время была «заблокирована от подписания из-за привязки OpenAI к Microsoft». Неожиданное партнёрство Google и OpenAI подчёркивает, как огромные потребности в вычислениях для обучения и развёртывания моделей ИИ меняют конкурентную динамику в сфере ИИ, и знаменует собой последний шаг OpenAI по диверсификации своих источников вычислений за пределами своего основного спонсора Microsoft. Неясно, каковы будут масштабы использования OpenAI облачных сервисов Google, но это, безусловно, крупная сделка для обеих компаний. |
✴ Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»; |