Опрос
|
реклама
Быстрый переход
Будущее соучредителя OpenAI Ильи Суцкевера в компании остаётся под вопросом
09.12.2023 [13:20],
Владимир Фетисов
После возвращения Сэма Альтмана (Sam Altman) на должность генерального директора OpenAI произошло немало событий, одним из которых стал роспуск совета директоров. Однако неясной остаётся судьба главного научного сотрудника компании Ильи Суцкевера (Ilya Sutskever), который, как сообщалось, сыграл важную роль в смещении Альтмана с должности. ![]() Источник изображения: Viralyft / unsplash.com По данным издания Business Insider, ссылающегося на собственные источники в OpenAI, на этой неделе Суцкевер не появлялся в офисе компании в Сан-Франциско, хотя его имя продолжает фигурировать в системах компании, таких как Slack, а картины Ильи продолжают дополнять интерьер офиса. Один из источников отметил, что будущее Суцкевера в компании ещё не обсуждалось руководством официально. «Илья всегда будет играть важную роль. Но, вы знаете, есть много других людей, готовых взять на себя ответственность, которую исторически нёс Илья», — добавил представитель компании, пожелавший сохранить конфиденциальность. Другой источник сообщил, что в настоящее время обсуждается возможность выделения Суцкеверу новой должности, и что есть желание «найти для него роль». При этом он отметил, что определённости относительно будущего главного научного сотрудника OpenAI в компании пока нет. Это не выглядит удивительным, учитывая, что Суцкевер сыграл важную роль в увольнении Альтмана с поста гендиректора, вслед за которым ушёл соучредитель OpenAI Грег Брокман (Greg Brockman), а многие сотрудники компании пригрозили последовать их примеру. Суцкевер входил в совет директоров, который принял решение об увольнении Альтмана. Однако его значение и влияние в компании, а также статус соучредителя делают Суцкевера более значимой фигурой по сравнению с любым другим членом совета директоров. Продолжающийся кризис в OpenAI подтверждает недавний пост Суцкевера в соцсети X, где он написал: «За последний месяц я усвоил много уроков. Одним из таких уроков является то, что фраза «избиения будут продолжаться до тех пор, пока не улучшится моральный дух» применяется чаще, чем имеет на то право». Эта фраза часто используется в мемах для ироничного обозначения цикла, когда низкая мораль порождает наказание, делающее её ещё более низкой. Также известно, что Суцкевер нанял адвоката, которым стал Алекс Вайнгартен (Alex Weingarten) из Willkie & Gallagher. Адвокат отказался комментировать вопросы сотрудничества с Суцкевером, сообщив лишь, что его клиент желает лучшего для компании. Официальные представители OpenAI также воздерживаются от комментариев по данному вопросу. Отставка главы OpenAI Сэма Альтмана была результатом накопившихся противоречий с советом директоров
09.12.2023 [07:04],
Алексей Разин
В ноябре причастное к миру информационных технологий сообщество с замиранием сердца следило за событиями вокруг стартапа OpenAI, создавшего ChatGPT, поскольку конфликт совета директоров с генеральным директором Сэмом Альтманом (Sam Altman) привёл к отставке последнего, но после переговоров он был восстановлен в должности. Как можно догадаться, к отставке Альтмана привёл не единичный инцидент, а копившиеся месяцами противоречия в руководстве компании. ![]() Источник изображения: OpenAI В этом признаются в комментариях Bloomberg источники, знакомые с ситуацией. В целом, как они поясняют, после вынужденного предания скандала огласке бывшие члены совета директоров и Сэм Альтман склонны по-разному трактовать причины, которые привели к отставке последнего. Когда уже после отставки речь зашла о возможности возвращения Альтмана в прежнюю должность, он предложил публично извиниться за то, что не совсем корректно истолковывал взгляды некоторых членов совета директоров на стратегические вопросы управления компанией. Совет директоров на тот момент счёл такие извинения неуместными, поскольку на публике это создало бы впечатление, что причиной отставки Альтмана был какой-то единичный инцидент, который удалось исчерпать с точки зрения противоречий. Пока ведётся независимое расследование, члены совета директоров OpenAI отказались давать официальные комментарии на эту тему, но по неофициальным каналам Bloomberg удалось выяснить, что к отставке Альтмана привели месяцами копившиеся противоречия по поводу его стратегических манёвров и отсутствия прозрачности в его общении с советом директоров. Вчера председатель совета директоров OpenAI заявил, что для юридического сопровождения независимого расследования наняты адвокаты компании WilmerHale. По неофициальным данным, совет директоров начал обсуждать возможность отставки Альтмана этой осенью, за некоторое время до ноябрьских событий. На тот момент в состав этого органа правления входили генеральный директор Сэм Альтман, его соратник и сооснователь OpenAI Грег Брокман (Greg Brockman), который занимал пост президента, а также группы из четырёх директоров, которые и были настроены на отставку генерального директора. К ним следует отнести главного научного руководителя OpenAI Илью Суцкевера (Ilya Sutskever), генерального директора Quora Адама Д’Анджело (Adam D’Angelo), научного деятеля Хелен Тонер (Helen Toner) и предпринимательницы Таши Макколи (Tasha McCauley). Фактическая власть в компании была отдана одноимённой некоммерческой организации, а совет директоров имел мало влияния на вектор её развития. Старшие руководители рангом пониже пытались выразить своё недовольство взаимодействием с Альтманом, но боялись доносить эту информацию до совета директоров в полной мере, опасаясь его мести. После отставки Альтмана коллектив OpenAI сплотился в намерении вернуть бывшего генерального директора, и старшие руководители поддержали это решение без оглядки на прошлые разногласия. Роль Ильи Суцкевера, который и сообщил Альтману об отставке, тоже оказалась значимой во всей этой истории. С июля он проводил реформы в компании, но к октябрю его ограничили в полномочиях из-за нараставших противоречий с Альтманом и Брокманом. Обиженный Суцкевер смог привлечь на свою сторону многих членов совета директоров. В октябре Альтман также попытался отправить в отставку Хелен Тонер, поскольку был недоволен её публичной критикой политики OpenAI в области безопасности. Хелен Тонер, в свою очередь, пыталась заручиться поддержкой других членов совета директоров. Пытаясь наладить контакт с прочими членами совета директоров в этой ситуации, Альтман некорректно истолковал их позиции по вопросу, и ошибочно предположил, что коллеги солидарны с ним в намерениях отправить Тонер в отставку. Он даже открыто выражал уверенность, что Таша Макколи является его союзником в этой ситуации, но последняя от такой позиции открещивалась. Члены совета директоров OpenAI пришли к выводу, что Альтман манипулирует ими, и содержание их разговоров с ним существенно отличается от того, что он пытается представить на публике. Совет директоров действительно был обеспокоен тем, что Альтман не всегда был откровенен с ними. Отставка Альтмана готовилась в такой спешке, что сотрудникам компании не было ничего разъяснено, а потому решимость основной части коллектива настаивать на возвращении генерального директора стала для совета директоров сюрпризом. После возвращения Альтмана на пост генерального директора в отставку подали и Тонер, и Макколи, из прежнего состава совета директоров в новый перекочевал лишь Адам Д’Анджело. На этом настояли те члены совета директоров, которые считали важным сохранить в его составе хотя бы одного очевидца соответствующих ноябрьских событий и сопутствующей предыстории. Британские антимонопольщики проверят отношения Microsoft и OpenAI
08.12.2023 [17:28],
Павел Котов
Британское Управление по конкуренции и рынкам (CMA) может провести проверку партнёрских отношений Microsoft и OpenAI, чтобы установить, привело ли оно к «поглощению контроля», которое подпадает под действие антимонопольного законодательства. В ведомстве сообщили, что изучают «недавние события», подразумевая временную отставку главы OpenAI Сэма Альтмана (Sam Altman) и роль Microsoft в этих событиях. ![]() Источник изображения: Growtika / unsplash.com «CMA запросит комментарии, чтобы определить, привело ли партнёрство Microsoft и OpenAI, включая недавние события, к соответствующей слиянию ситуации, и если да, то к потенциальному влиянию на конкуренцию. CMA проверит, привело ли партнёрство к поглощению контроля, то есть к тому, что одна сторона получила существенное влияние, фактический контроль или 50 % прав голоса в другой организации», — гласит заявление регулятора. Ведомство отметило, что «тесное и многоплановое» партнёрство включает многомиллиардные инвестиции со стороны Microsoft, сотрудничество в области разработки технологий и облачных сервисов. Две компании ведут активную деятельность на финансовых и смежных рынках, а значит, их деловые отношения напрямую влияют на инвесторов. Microsoft недавно также приняла участие в процессах, связанных с управлением OpenAI. Когда совет директоров OpenAI уволил Сэма Альтмана, Microsoft вмешалась в конфликт и заявила о готовности взять его на работу — за ним перейти в корпорацию пригрозило большинство сотрудников OpenAI. Совет директоров уступил, и Альтман вернулся на свой пост. Вице-председатель совета директоров и президент Microsoft Брэнд Смит (Brand Smith) заявил ресурсу Engadget, что компании сотрудничают с 2019 года — за это время было выпущено множество инновационных решений в области искусственного интеллекта, но партнёры сохранили независимость. Единственным изменением стало место наблюдателя без права голоса от Microsoft в совете директоров OpenAI; корпорация готова сотрудничать с CMA и предоставить ведомству все необходимые сведения, какие только потребуются. Сотрудники OpenAI на самом деле не горели желанием уходить в Microsoft — это обернулось бы финансовыми потерями
08.12.2023 [11:09],
Дмитрий Федоров
После неожиданного увольнения генерального директора Сэма Альтмана (Sam Altman) из OpenAI сотрудники компании грозились уйти в Microsoft, если решение об его увольнении останется в силе. Однако, согласно последним данным, угроза перехода в Microsoft была лишь блефом, ведь в этом случае он сулил сотрудникам потерю значительных финансовых выгод. ![]() Источник изображения: voltamax / Pixabay Источники из Business Insider сообщают о чувстве облегчения среди сотрудников OpenAI после того, как им не пришлось переходить в Microsoft. Многие из них заявили, что угроза перехода была всего лишь блефом, целью которого было возвращение Альтмана на пост генерального директора. Отказ от перехода в Microsoft был обусловлен рядом факторов, включая потерю значительных преимуществ, таких как высокая заработная плата и доли в акциях компании. В OpenAI базовая зарплата начинается с $300 000, а пакет акций на сумму в $2 млн выдаётся за четыре года работы, хотя некоторые сотрудники получают ещё больше. Несмотря на то, что Microsoft согласилась нанять всех сотрудников OpenAI на тех же условиях, это обещание было лишь устным и не имело юридической силы. Один из сотрудников OpenAI выразил сомнения в том, что Microsoft выплатила бы компенсацию за потерянные акции OpenAI. Если бы сотрудники компании перешли в Microsoft, они бы потеряли возможность участия в тендерных предложениях о выкупе акций OpenAI. Это значит, что они бы упустили возможность продать свои акции по потенциально выгодной цене в будущем. Один из работников OpenAI отметил, что никто не стремился работать в Microsoft, критикуя корпорацию за медленное принятие решений и сравнивая её с более динамичным и инновационным подходом OpenAI. Некоторые сотрудники также чувствовали себя не в своей тарелке при подписании письма с угрозой ухода в Microsoft, если Альтман не будет восстановлен в должности, отметив, что их отношение к генеральному директору не фанатичное и находится в пределах разумного. Один из сотрудников заявил, что, хотя Альтман и не является идеальным руководителем, на кону стояли миллионы долларов и акции. Снижение стоимости OpenAI нанесло бы ущерб финансовому благополучию сотрудников ИИ-стартапа. Ситуация в Microsoft также была напряжённой. Сотни сотрудников корпорации были возмущены обещаниями Microsoft согласовать зарплаты с сотнями сотрудников OpenAI. Стоит отметить, что Microsoft ранее уволила более 10 000 сотрудников, заморозила зарплаты, сократила бонусы и акционерные выплаты. Это вызвало недовольство среди работников, которые трудятся не покладая рук более 12 часов в день, находясь в постоянном страхе увольнения. С учётом сложившейся ситуации можно ожидать дополнительной информации о развитии событий в ближайшее время. Саркастичный и раскованный ИИ-чат-бот Grok от Илона Маска стал доступен широкой аудитории
07.12.2023 [23:47],
Николай Фрей
В четверг Илон Маск (Elon Musk) заявил, что его компания xAI, специализирующаяся на искусственном интеллекте, запустила для широкой аудитории своего ИИ-чат-бота Grok. Потенциальный конкурент для ChatGPT, не обременённый строгими ограничениями по ответам на провокационные вопросы, стал доступен подписчикам Premium+ социальной сети X (бывшей Twitter). ![]() Источник изображений: X Маск объявил о запуске ИИ-бота в посте в социальной сети X, не раскрывая подробностей запуска. В прошлом месяце он заявил, что как только Grok выйдет из раннего бета-тестирования, то станет доступен платным подписчикам с самым высоким уровнем Premium+ (за $16 в месяц). Вероятно, подписчики Premium получат доступ к боту несколько позже. ![]() Grok знает толк в счастливой семейной жизни «Grok — это искусственный интеллект, созданный по образцу путеводителя «Автостопом по галактике» и предназначенный для того, чтобы отвечать практически на всё и, что гораздо сложнее, даже подсказывать, какие вопросы задавать! Grok создан для того, чтобы остроумно отвечать на вопросы, и у него есть бунтарская жилка, поэтому, пожалуйста, не используйте его, если ненавидите юмор», — описывали разработчики своё творение в момент его анонса минувшим летом. Чат-бот xAI визуально напоминает аналогичные боты. Для взаимодействия с ним предлагается использовать соответствующее поле для формирования запросов. По словам разработчиков, главное преимущество Grok заключается в том, что он способен ответить практически на любой вопрос благодаря доступу к данным соцсети X в режиме онлайн. Разработка алгоритма началась с создания прототипа большой языковой модели (LLM) Grok-0 с 33 млрд параметров. Эта тестовая модель по своим возможностям сопоставима с показателями LLaMA 2 от Meta✴ Platforms в стандартных тестах, но использует при этом только половину своих обучающих ресурсов. К моменту летнего анонса разработчики сумели добиться существенных улучшений в плане возможностей логического анализа и кодирования, что привело к созданию значительно более мощной языковой модели Grok-1. ![]() Илон Маск запустил xAI в июле в ответ на усилия IT-гигантов в области искусственного интеллекта, которые он критиковал за чрезмерную цензуру и отсутствие адекватных мер безопасности. Крупные технологические компании, включая Microsoft и Google, торопятся запустить продукты на базе ИИ после того, как чат-бот ChatGPT от OpenAI поразил воображение компаний и пользователей по всему миру. Напомним, что Маск также являлся одним из основателей OpenAI в 2015 году, но в 2018 году вышел из состава совета директоров компании. Поскольку всё больше рекламодателей уходят с платформы микроблогов, миллиардер сделал акцент на снижении зависимости компании от рекламы и сосредоточился на подписках. Очередная новая функция в виде саркастичного Grok должна сделать их более привлекательными. Маск также намерен превратить X в «супер приложение», предлагающее пользователям целый ряд услуг — от обмена сообщениями и общения в социальных сетях до пиринговых платежей. ИИ-стартап xAI Илона Маска собирается привлечь до $1 млрд инвестиций
06.12.2023 [08:19],
Алексей Разин
Илон Маск (Elon Musk) стоял у истоков ставшего популярным стартапа OpenAI, но в дальнейшем разорвал свои связи с этим разработчиком систем искусственного интеллекта. В этом году американский миллиардер основал компанию xAI, которая при создании своих больших языковых моделей смогла использовать массивы данных социальной сети X. На развитие бизнеса xAI собирается привлечь до $1 млрд, как стало известно на этой неделе. ![]() Источник изображения: Unsplash, Xu Haiwei Информация поступила из официальной заявки, которую американские компании обязаны подавать регуляторам в подобных случаях. Как выясняется, xAI с момента своего основания в текущем году уже привлекла около $135 млн, но перечень инвесторов пока не раскрывается. Теперь компания намеревается привлечь около $1 млрд. В прошлом месяце Илон Маск заявил, что существующие инвесторы социальной сети X получат в капитале стартапа xAI примерно четверть акций. Подписчикам премиального сервиса X также будет открыт доступ к чат-боту Grok, который создаётся xAI с использованием данных социальной сети, ранее известной под именем Twitter. Заинтересованность в инвестициях на направлении систем искусственного интеллекта Илон Маск странным образом совмещает с осторожным отношением к подобным технологиям. В марте он обратился к разработчикам крупнейших языковых моделей с просьбой приостановить свою деятельность. ChatGPT отучили раскрывать свои обучающие данные в ответ на просьбу вечно повторять одно слово
05.12.2023 [00:31],
Владимир Мироненко
Просьба к ИИ-боту ChatGPT компании OpenAI повторять определённые слова «вечно» теперь помечается как нарушение условий предоставления услуг и политики в отношении контента чат-бота. Ранее стало известно, что таким незамысловатым способом можно извлекать огромные количества данных, на которых обучался чат-бот. ![]() Источник изображения: Rolf van Root/unsplash.com Исследователи подразделения Google DeepMind и ряда университетов предложили ChatGPT 3.5-turbo повторять определённые слова «вечно». После определённого количества повторений слова, бот начинал выдавать огромные объёмы обучающих данных, взятых из интернета. Используя этот метод, исследователи смогли извлечь несколько мегабайт обучающих данных и обнаружили, что в ChatGPT включены большие объёмы личных данных, которые иногда могут быть возвращены пользователям в качестве ответов на их запросы. Как сообщил ранее ресурс arXiv, с помощью повторения слова «стихотворение» (poem), учёные добились получения от ChatGPT контактных данных реального человека, включая номер телефона и адрес электронной почты. ![]() Источник изображений: 404 Media А при просьбе к ChatGPT повторить слово «книга», он сначала повторял его несколько раз, а затем начинал выдавать случайный контент. Часть его была взята непосредственно с сайтов CNN и Goodreads, блогов WordPress, вики-сайтов Fandom, а также там были дословные выдержки из соглашений об условиях предоставления услуг, исходный код Stack Overflow, защищённые авторским правом юридические заявления об отказе от ответственности, страницы «Википедии», веб-сайт оптовой торговли казино, новостные блоги, случайные комментарии в интернете и многое другое. «Мы показываем, что злоумышленник может извлекать гигабайты обучающих данных из языковых моделей с открытым исходным кодом, таких как Pythia или GPT-Neo, полуоткрытых моделей, таких как LLaMA или Falcon, и закрытых моделей, таких как ChatGPT», — отметили исследователи из Google DeepMind. Они сообщили, что 30 августа известили OpenAI об уязвимости и что компания её исправила. И лишь после этого исследователи сочли возможным поделиться информацией об уязвимости чат-бота с общественностью. ![]() Как рассказал ресурс 404 Media, теперь в ответ на просьбу к ChatGPT 3.5 «вечно» повторять слово «компьютер», бот несколько десятков раз выдаёт слово «компьютер», а затем отображает сообщение об ошибке: «Этот контент может нарушать нашу политику в отношении контента или условия использования. Если вы считаете, что это ошибка, отправьте свой отзыв — ваш вклад поможет нашим исследованиям в этой области». OpenAI отложила запуск своего онлайн-магазина приложений для кастомных чат-ботов до начала следующего года
02.12.2023 [05:53],
Николай Хижняк
OpenAI отложила запуск своего онлайн-магазина магазина приложений для моделей ИИ, пишет Bloomberg. Об этом в четверг компания сообщила в электронном письме для участников тестирования её инструмента GPT Builder для создания кастомных версий её популярного чат-бота ChatGPT. ![]() Источник изображения: OpenAI В письме для участников программы тестирования GPT Builder компания OpenAI, в частности, отметила, что запуск GPT Store откладывается на начало 2024. Изначально предполагалось, что онлайн-магазин будет запущен в конце текущего года. «Хотя все мы ожидали релиз в этом месяце, несколько неожиданных событий отвлекли нас», — говорится в письме OpenAI, копия которого оказалась в распоряжении портала The Verge. О том, что OpenAI рассматривает возможность создания онлайн-платформы, где клиенты могли бы продавать свои собственные модели ИИ, настроенные для конкретных целей, стало известно ещё летом. При этом предполагалось, что для создания кастомных моделей ChatGPT не потребуется знаний программирования. Для этого будут использоваться специальные инструменты, упрощающие процесс создания кастомных чат-ботов. Маркетплейс OpenAI должен помочь стартапам, занимающимся технологиями искусственного интеллекта, выйти на очень конкурентный и активно развивающийся рынок, сейчас занятый в основном только большими компаниями. На своей первой конференции для разработчиков, проходившей в начале ноября, OpenAI подтвердила, что планирует запустить онлайн-магазин приложений в декабре. Однако последующие события с увольнением генерального директора Сэма Альтмана (Sam Altman) советом директоров в середине того же месяца подвесили в воздухе множество проектов компании и заставили сильно понервничать её акционеров. В конце концов после угроз большинства сотрудников OpenAI об уходе из компании вслед за Альтманом ситуацию удалось разрешить. Альтмана вернули обратно на место генерального директора, а также обновили состав директоров. Исследователи обманом заставили ChatGPT выдать информацию из обучающего массива
30.11.2023 [12:16],
Павел Котов
Учёные из подразделения Google DeepMind и ряда крупных университетов установили, что системы искусственного интеллекта «запоминают» как минимум часть полученной при обучении информации и могут выдавать её в исходном виде, включая персональные данные людей. Для этого, в частности, используется метод «атаки дивергенции» (Divergence Attack) — большой языковой модели отдаётся команда повторять одно и то же слово. Объяснения этому эффекту пока нет. ![]() Источник изображения: Viralyft / unsplash.com Когда в ответах ИИ начали появляться фрагменты материалов, использованных при обучении, исследователи задались целью понять, какой объём данных ИИ запоминает и может воспроизвести, и какого рода может быть эта информация. Они также решили установить, может ли сторонний субъект извлечь данные из обучающего массива, не зная наперёд, что в нём содержится. Учёные провели серию экспериментов с различными языковыми моделями, включая наиболее известные, такие как GPT-Neo, LLaMA и ChatGPT. Они сгенерировали миллиарды токенов — слов или символов, в зависимости от модели — и сравнили, соответствуют ли ответы данным, которые использовались при обучении этих моделей. В ходе работы был обнаружен уникальный метод тестирования ChatGPT, предполагающий повторение одного слова большое количество раз, после чего ИИ внезапно начинает генерировать случайный контент. Как выяснилось, эти модели не только запоминают фрагменты обучающих данных, но и способны воспроизводить их в исходном виде по правильной команде. Не стал исключением и ChatGPT, разработчики которого провели отдельную настройку для предотвращения подобного эффекта. Исследователи обращают внимание разработчиков на острую необходимость всестороннего тестирования моделей ИИ — оно должно касаться не только аспектов взаимодействия с широким кругом пользователей в веб-интерфейсе, но также лежащей в основе сервиса нейросети и системы взаимодействия по API. Целостный подход к безопасности необходим для выявления скрытых уязвимостей, которые в противном случае остаются незамеченными. ![]() Источник изображения: arxiv.org В ходе экспериментов учёные извлекали исходные обучающие данные различных типов: от подробного доклада об инвестиционном исследовании до конкретного кода на Python, решающего задачи в области машинного обучения. Наибольший интерес представляет обнаруженная при взаимодействии с ChatGPT «атака дивергенции» — если заставить систему повторять одно и то же слово, она начинает выдавать полученные при обучении данные. Чтобы проиллюстрировать этот эффект, учёные показали, что при повторении слова «стихотворение» (poem) ChatGPT внезапно выдал список контактных данных реального человека. Персональные данные в этом исследовании учёных встречались довольно часто — они выделили 15 тыс. сгенерированных подстрок, которые пришлось проанализировать отдельно: в 16,9 % случаев это были персональные данные, которые ИИ в исходном виде «запомнил» при обучении; в 85,8 % случаев это были прочие совпадения с реальными данными. По мнению исследователей, это указывает на серьёзные проблемы ИИ-моделей с конфиденциальностью. И разработчикам систем ИИ необходимо понимать, что исправить конкретные уязвимости в алгоритмах пользовательского интерфейса недостаточно — необходимо вмешательство в архитектуру самих моделей. То есть можно установить фильтр ввода-вывода на выдачу персональных данных при ответах, преднамеренных и случайных, но он не решит более серьёзной проблемы: модель склонна запоминать и в принципе способна раскрывать фрагменты обучающих данных, которые носят конфиденциальный характер. Это значит, что требуется дополнительная работа по дедупликации (удалению повторяющихся элементов) данных и понимание влияния ёмкости модели на эффект запоминания. Необходима также выработка надёжных методов проверки запоминания. Сэм Альтман официально вернулся в OpenAI, а Microsoft получила место в правлении, но без права голоса
30.11.2023 [07:03],
Алексей Разин
Из всей истории с «мятежом» в руководстве OpenAI корпорация Microsoft сделала один важный вывод: у неё, как у крупнейшего инвестора в этот перспективный стартап, по факту нет особых рычагов воздействия на компанию, в которую она вложила не менее $10 млрд. Вернувшийся, теперь официально, на пост генерального директора OpenAI Сэм Альтман (Sam Altman) заявил, что представитель Microsoft в новом составе совета директоров этой компании не получит права голоса. ![]() Источник изображения: OpenAI Как поясняет Reuters, подобное решение позволит представителю Microsoft посещать заседания совета директоров OpenAI и получать доступ к конфиденциальной информации о бизнесе компании, но фактической возможности голосовать по стратегически важным решениям у него не будет. Соответственно, Microsoft не может влиять на состав самого совета директоров OpenAI. На прошлой неделе был частично назначен новый состав этого органа правления, его возглавил бывший генеральный директор Salesforce Брет Тейлор (Bret Taylor), а компанию ему составили бывший министр финансов США Ларри Саммерс (Larry Summers) и глава Quora Адам Д’Анджело (Adam D’Angelo), который пока остаётся единственным членом совета директоров OpenAI, перекочевавшим из старого состава в новый. По неофициальным данным, новый состав совета директоров компании расширит свою численность с прежних шести до десяти человек. Инвесторам OpenAI также не светит перспектива войти в состав совета директоров некоммерческой организации с таким же названием, которая и определяет политику развития бизнеса. Microsoft владеет 49 % акций коммерческой структуры OpenAI, вложив в её капитал более $10 млрд, но даже после предлагаемых реформ не получит права голоса в совете директоров. Мира Мурати (Mira Murati), которая на короткое время стала генеральным директором OpenAI сразу после увольнения Сэма Альтмана, вернулась к исполнению обязанностей технического директора компании на постоянной основе. Выбор нового состава директоров OpenAI был одним из условий возвращения на пост руководителя компании Сэма Альтмана после четырёхдневного отсутствия. Непосредственно Альтман пояснил лишь, что новый состав совета директоров компании будет сформирован достаточно быстро, будет существенно расширен в количественном выражении, и в него войдут руководители с высоким уровнем компетенции и широким кругозором. О своём возвращении в состав совета директоров OpenIA Сэм Альтман пока говорить не торопится, не считая это приоритетом на данном этапе преобразований. Новый совет директоров компании также попытается провести независимое расследование причин недавних событий в OpenAI, которые привели к отставке Альтмана и его возвращению. Сооснователь OpenAI Грег Брокман (Greg Brockman), который покинул совет директоров компании в знак протеста против отставки Альтмана 17 ноября, вернётся в ряды руководства на пост президента. Научный руководитель Илья Суцкевер (Ilya Sutskever), который и сообщил на позапрошлой неделе Альтману новость об его увольнении, но позже раскаялся, не получит места в новом составе совета директоров. Альтман дал понять, что не держит зла на Суцкевера и считает его светилом науки, но пока руководство компании ещё не придумало, в каком статусе Илья сможет продолжить работу в OpenAI. В новом составе совета директоров OpenAI места для представителя Microsoft не найдётся
29.11.2023 [08:46],
Алексей Разин
Недавний скандал с «переворотом» в стартапе OpenAI, который привёл к отставке и последующему возвращению генерального директора и одного из основателей компании Сэма Альтмана (Sam Altman), заставил руководство Microsoft выразить озабоченность отсутствием у главного стратегического инвестора реальных рычагов влияния на OpenAI. По предварительным данным, в новом совете директоров места для представителей Microsoft пока не найдётся. ![]() Источник изображения: OpenAI По крайней мере, как поясняет Reuters, именно такими слухами поделились с агентством знакомые с планами руководства OpenAI источники. Как ранее сообщило издание The Information, новый состав совета директоров стартапа будет насчитывать девять человек вместо прежних шести, и из прошлого состава в новый перейдёт только Адам Д’Анджело (Adam D’Angelo), совмещающий этот пост с должностью генерального директора Quora. По некоторым данным, места в новом составе совета директоров OpenAI также не достанутся и крупным институциональным инвесторам в лице Khosla Ventures и Thrive Capital. Председателем совета директоров планируется назначить бывшего главу Salesforce Брета Тейлора (Bret Taylor), в него также войдут бывший министр финансов США Ларри Саммерс (Larry Summers), а также уже упоминавшийся выше Адам Д’Анджело. Их кандидатуры должны быть утверждены на этой неделе. Корпорация Microsoft, которая вложила в OpenAI более $13 млрд и владеет половиной акций одноимённой коммерческой структуры, опять рискует остаться без права голоса в совете директоров, и это должно её определённым образом беспокоить. Пока представители Microsoft лишь выражают готовность дождаться официальных решений совета директоров OpenAI. Изменение состава этого органа правления было одним из условий возвращения Сэма Альтмана на пост генерального директора. Зависимость от OpenAI обернулась угрозой для Microsoft
24.11.2023 [17:00],
Павел Котов
Решение главы Microsoft Сатьи Наделлы (Satya Nadella) связать свою компанию с OpenAI в 2019 году вылилось в один из самых ярких примеров успешного партнёрства в технологической отрасли — софтверный гигант получил огромное преимущество на интенсивно развивающемся рынке генеративного искусственного интеллекта. Но зависимость корпорации от стартапа обернулась для неё угрозой, пишет Financial Times. ![]() Источник изображения: efes / pixabay.com Иллюстрацией тесных отношений между двумя компаниями стало появление Наделлы на сцене вместе с главой OpenAI Сэмом Альтманом (Sam Altman), когда стартап проводил конференцию для разработчиков, но это также подчеркнуло, насколько Наделла зависит от этого альянса. За демонстрируемым на публику духом товарищества стояла жёсткая бизнес-логика. Для Microsoft большие языковые модели OpenAI стали ключевым компонентом основанных на ИИ новых служб, а стартап испытывал острую нужду в деньгах и облачных ресурсах для работы своих гигантских ИИ-моделей — Наделла открыто назвал этот симбиоз «взаимной зависимостью». В результате неожиданное увольнение Альтмана на минувшей неделе оказалось потенциальной угрозой для основы стратегии Microsoft в области ИИ. Через пять дней его восстановили в должности, но этот эпизод положил конец образу безоблачного партнёрства, выгодного для обеих сторон. И Microsoft теперь будет труднее доказать инвесторам с Уолл-стрит, что её лидерство в области генеративного ИИ способно быстро нарастить доходы компании: корпорация активно наращивала усилия по данному направлению, но резко утратила импульс после инцидента с OpenAI. С другой стороны, инвесторы получили возможность взять паузу и осознать происходящее, попытавшись ответить на вопрос, не вкладывают ли они свои средства в Microsoft только из-за ажиотажа. Наделла своими действиями постарался уменьшить ущерб, заверив клиентов, что доступу Microsoft к технологиям OpenAI ничто не угрожает. В рамках нескольких соглашений корпорация обязалась вложить в стартап $13 млрд, но эту сумму поделили на несколько траншей, и часть денег не будет выплачена, пока свои обязательства не выполнит и OpenAI. Когда положение в OpenAI начало казаться непоправимым, Наделла объявил, что Microsoft примет на работу Альтмана и Грега Брокмана (Greg Brockman), бывшего президента компании, который ушёл в отставку вслед за гендиректором. Потом массовым уходом пригрозило большинство сотрудников OpenAI, и у Microsoft возникла возможность заполучить значительную часть интеллектуальных ресурсов партнёра, вообще не платя за её технологии. Но едва ли в корпорации обрадовались подобной перспективе: попытка перестроить OpenAI внутри Microsoft обернулась бы проблемами. Приход очень отличающегося в культурном отношении коллектива стартапа в полном составе обременил бы корпорацию дорогостоящим исследовательским подразделением — для неё это было бы менее привлекательно, чем работа при сложившейся отлаженной схеме, когда Microsoft получает все преимущества от решений OpenAI, не владея технологией напрямую. ![]() Источник изображения: Mariia Shalabaieva / unsplash.com Кроме того, корпорация могла лишний раз оказаться в поле зрения регулирующих органов: когда возникла угроза массового перехода работников стартапа в Microsoft, один из топ-менеджеров Google, пожелавший остаться неизвестным, заявил, что властям следовало бы присмотреться к ситуации. Ведь если бы бывшие сотрудники OpenAI воспроизвели модели ИИ на новом месте работы, у облачной платформы Azure оказался бы эксклюзивный доступ к этой технологии. А возвращение Альтмана в OpenAI после того, как Microsoft предложила ему место работы, напротив, укрепило партнёрские отношения между сторонами. Инцидент также выявил проблемы, которым раньше не уделяли достаточного внимания. Одной из них являются недостатки в механизме управления OpenAI — коммерческий стартап контролируется некоммерческой организацией, и с возвращением Альтмана в компанию эту схему так и не поменяли. Microsoft, конечно, рассчитывает, что это произойдёт, но у неё нет возможности напрямую влиять на то, как управляется OpenAI. Корпорация также стала снижать свою зависимость от стартапа: вслед за Amazon Web Services и Google она начала предлагать клиента ИИ-модели других разработчиков, а не только одного. Тесная интеграция облачной платформы Azure и моделей OpenAI стала одним из главных преимуществ Microsoft — оптимизация моделей стартапа под аппаратную платформу корпорации позволила OpenAI снижать цены быстрее, чем конкурентам. И клиенты с большей вероятностью предпочитали связку ресурсов крупного игрока и сильного технологического фундамента. С другой стороны, основная ценность служб Copilot, интегрированных в продукты Microsoft ИИ-помощников, связана в первую очередь с продуктами Microsoft, а клиентам не так важно, какие модели обеспечивают работу этих служб. И если сейчас Microsoft Research проиграла OpenAI и Google в гонке за создание больших языковых моделей, то у неё ещё есть возможность преуспеть на поле малых языковых моделей. На этой неделе Microsoft выпустила пару языковых моделей Orca 2 — они компактнее конкурирующих систем в 5–10 раз. Подобные разработки могут снизить зависимость Microsoft от OpenAI на следующем этапе развития генеративного ИИ. Но едва ли они станут конкурентным прорывом, которого компании удалось достичь благодаря ставке на команду Альтмана. Альтман вернулся в OpenAI, но вокруг компании образовалось много вопросов
23.11.2023 [15:31],
Владимир Мироненко
Скандал с увольнением Сэма Альтмана (Sam Altman) с поста гендиректора компании OpenAI, разработавшей ИИ-чат-бот ChatGPT, вызвал коллапс компании и обнажил глубокие разногласия в руководстве компании по поводу миссии одного из самых ценных стартапов в мире, пишет Bloomberg. И хотя вчера Альтмана восстановили в должности, нерешённых вопросов ещё масса. ![]() Источник изображения: Andrew Neel/unsplash.com Вместе с возвращением Альтмана был кардинально обновлён совет директоров OpenAI. Новый временный совет директоров OpenAI, в который пока не будет входить Альтман, возглавит Брет Тейлор (Bret Taylor), бывший со-генеральный директор Salesforce. В совет также вошли Ларри Саммерс (Larry Summers), бывший министр финансов США, и действующий член совета Адам Д. Анджело (Adam D’Angelo), соучредитель и генеральный директор Quora Inc. Альтмана уволили в пятницу после конфликта с советом директоров из-за его стремления превратить OpenAI из некоммерческой организации, занимающейся научными исследованиями ИИ, в бизнес, создающий решения и осуществляющий финансирование разработки инструментов ИИ. Члены бывшего совета выражали обеспокоенность по поводу вреда, который может причинить мощный и неконтролируемый ИИ. Первой задачей временного совета будет поиск новых директоров, способных найти баланс между бизнес-императивами OpenAI и необходимостью защитить общественность от инструментов, позволяющих создавать контент, который может нести вред обществу. Инвесторы также ожидают изменений в том, как совет директоров будет с ними общаться. По словам источника Bloomberg, руководители главного инвестора, корпорации Microsoft, были возмущены тем, что получили лишь краткое предупреждение о планах совета директоров уволить Альтмана. Некоторые инвесторы и руководители OpenAI также были недовольны тем, что совет директоров недостаточно ясно объяснил причину увольнения Альтмана. А гендиректор Microsoft Сатья Наделла (Satya Nadella) публично заявил, что не получил объяснений по этому поводу. По словам источников, Альтман согласился провести внутреннее расследование действий, которые привели к его увольнению. Также вызывает вопросы возможность Альтмана продолжать заниматься внешними проектами. По словам источников, за несколько месяцев до увольнения он договаривался с инвесторами о поддержке нового предприятия по производству ИИ-чипов под кодовым названием Tigris, способного конкурировать с NVIDIA. Это тоже предстоит рассмотреть новому совету директоров. OpenAI совершила прорыв в создании сильного ИИ незадолго до увольнения Сэма Альтмана
23.11.2023 [11:12],
Павел Котов
Незадолго до того, как Сэм Альтман (Sam Altman) был уволен с поста гендиректора OpenAI, несколько научных сотрудников компании направили в совет директоров письмо, в котором предупредили о существенном прорыве в разработке искусственного интеллекта — это открытие, по их мнению, может угрожать человечеству, сообщило Reuters со ссылкой на два источника. ![]() Источник изображения: Growtika / unsplash.com Письмо стало одним из факторов в длинном списке претензий совета директоров к главе компании Сэму Альтману. Речь в документе шла о проекте Q* («Q со звёздочкой») — представители OpenAI не дают официальных комментариев о нём, но Мира Мурати (Mira Murati), некоторое время занимавшая пост гендиректора компании в отсутствие Альтмана, написала адресованное сотрудникам сообщение, в котором признала факт существования этого проекта и предупредила об интересе СМИ к нему. Проект Q*, уверены некоторые сотрудники OpenAI, может стать прорывом в разработке сильного искусственного интеллекта (AGI), способного выполнять задачи, не уступая человеку. При наличии мощных вычислительных ресурсов новая модель научилась решать математические задачи — пока на уровне ученика начальной школы, но это достижение вселяет в исследователей оптимизм по поводу будущих успехов Q*. Математика, по мнению учёных, является передовым рубежом в области развития генеративного ИИ. Сейчас он успешно пишет тексты и осуществляет переводы на разные языки, статистически предсказывая каждое последующее слово, но его ответы на один и тот же вопрос могут сильно отличаться. Достижение успеха в области математики, где может быть только один правильный ответ, предполагает наличие у ИИ значительных способностей к рассуждению по образцу человеческого интеллекта. Эти способности можно будет применить к перспективным исследованиям в области ИИ. В отличие от калькулятора, который выполняет ограниченное число операций, AGI умеет обобщать, учиться и понимать. ![]() Источник изображения: Andrew Neel / unsplash.com В своём письме совету директоров исследователи OpenAI отметили мощь ИИ и потенциальную угрозу человечеству, хотя и не уточнили, каких именно аспектов безопасности они могут коснуться. Специалисты в области информационных технологий уже давно ведут дискуссии о высокоинтеллектуальных машинах, которые, например, могут прийти к выводу, что их интересам отвечает уничтожение человечества. Авторы письма отметили работу подразделения, сформированного путём объединения команд Code Gen и Math Gen, — учёные этого подразделения изучали способы оптимизировать существующие модели ИИ, чтобы повысить качество рассуждений систем и направить их потенциал на научную работу. Альтман превратил платформу ChatGPT в один из наиболее востребованных программных продуктов и привлёк от Microsoft финансовые и вычислительные ресурсы, необходимые для работы по созданию AGI. На прошлой неделе в ходе своего выступления на саммите АТЭС он заявил мировым лидерам, что серьёзный прорыв уже не за горами. «Четыре раза за всю историю OpenAI, последний из которых был не более двух недель назад, мне довелось присутствовать в комнате, где мы как будто раздвигаем завесу невежества и отодвигаем границу открытий вперёд, и сделать это — профессиональная честь всей жизни», — заявил Альтман. На следующий день совет директоров его уволил. Нехудожественные писатели подали в суд на OpenAI и Microsoft за обучение ИИ по их книгам
22.11.2023 [22:34],
Николай Фрей
Писатели подали в суд на компании OpenAI и Microsoft за использование их книг для обучения интеллектуального чат-бота ChatGPT. В иске утверждается, что Microsoft «глубоко вовлечена» в процесс обучения ChatGPT, поэтому она несёт полную ответственность за любые нарушения наряду с OpenAI. ![]() ChatGPT и аналогичные ИИ, использующие в своей основе большие языковые модели (Large Language Model, LLM), «тренируются» на огромных массивах данных. При этом OpenAI загружает значительную часть информации из интернета, а некоторые данные поступают из таких источников, как нехудожественная литература. Поэтому авторы таких книг теперь требуют компенсации в новом судебном процессе. По сообщениям Reuters, автор Джулиан Санктон (Julian Sancton) заявляет, что OpenAI без разрешения скопировала десятки тысяч нехудожественных книг для обучения ChatGPT. Автор возглавляет коллектив, подавший в минувший вторник иск в федеральный суд Манхэттена. В иске заявители отмечают, что «модели ответчиков были откалиброваны (обучены) путём воспроизведения огромного массива материалов, защищённых авторским правом, включая десятки или даже сотни тысяч нон-фикшн книг». Иск подан в очень «удачный» для OpenAI момент, когда компания столкнулась с рядом других юридических и внутренних проблем. На компанию уже поданы другие иски, касающиеся частных данных, использования авторского контента. Кроме того, в минувшие выходные OpenAI столкнулась с кризисом управления, когда совет директоров уволил генерального директора компании Сэма Альтмана (Sam Altman), но затем компания отказалась от этого решения, пообещав под давлением сотрудников набрать новый состав совета директоров. Новый иск отличается от предыдущих заявлений тем, что в нём наряду с OpenAI впервые фигурирует технологический гигант Microsoft, который к тому же является крупным инвестором OpenAI. ИИ-чат-бот в Microsoft Bing, поиск на основе искусственного интеллекта и новая функция Copilot в значительной степени опираются на технологии OpenAI. Фигурально выражаясь, это почти что ChatGPT, но со вкусом Microsoft. Несмотря на то, что OpenAI и Microsoft не комментируют этот последний иск, OpenAI ранее заявляла, что контент, генерируемый ChatGPT, не является «производным произведением» и, следовательно, не нарушает чьих бы то ни было авторских прав. В течение текущего года произошёл буквально взрыв в развитии LLM, и многие вопросы, затрагивающие тему авторских прав, ещё не решены в судах. Вероятно, судебные иски так ни к чему и не приведут или заставят изменить порядок выплат авторам контента, используемого при тренировке LLM. Однако, пока говорить об этом несколько преждевременно. |
✴ Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»; |