Опрос
|
реклама
Быстрый переход
OpenAI запустит интернет-магазин кастомных ИИ-чат-ботов на базе ChatGPT
05.01.2024 [23:35],
Владимир Мироненко
На следующей неделе компания OpenAI запустит интернет-магазин, в котором пользователи смогут продавать и покупать кастомизированные версии популярного чат-бота на основе искусственного интеллекта ChatGPT, сообщил ресурс Bloomberg со ссылкой на электронные письма, отправленные компанией некоторым пользователям в четверг. OpenAI в прошлом году заявила, что планирует открыть такой интернет-магазин в ноябре. Здесь пользователи смогут размещать свои версии ИИ-чат-бота и находить адаптированные версии ChatGPT других пользователей. Пользователи смогут зарабатывать деньги, продавая свои версии чат-бота — так же, как это можно делать с приложениями в App Store или Play Маркет. Однако запуск проекта пришлось отложить из-за неразберихи, создавшейся после внезапного увольнения в ноябре гендиректора Сэма Альтмана (Sam Altman) и последующего восстановления его на этой должности. OpenAI объявила на конференции разработчиков в ноябре, что пользователи смогут сами создавать GPT (название пользовательских версий ChatGPT) без необходимости изучения даже основ кодирования. Эта функция позволит пользователям быстро создавать специализированные чат-боты, которые, например, могут учить детей математике или придумывать интересные рецепты коктейлей. Годовая выручка OpenAI превысила $1,6 млрд
30.12.2023 [23:14],
Владимир Фетисов
По сообщениям сетевых источников, объём годовой выручки компании OpenAI превысил отметку в $1,6 млрд благодаря активному росту ИИ-бота ChatGPT. По состоянию на середину октября, этот показатель составлял $1,3 млрд. Об этом пишет издание The Information со ссылкой на собственные осведомлённые источники. Рост объёма полученной выручки на уровне 20 % за два месяца указывает на то, что OpenAI сумела сохранить динамику своего бизнеса, несмотря на ноябрьский кризис, связанный со скандальным увольнением гендиректора Сэма Альтмана (Sam Altman) и последующим периодом неопределённости относительно дальнейшего будущего стартапа. Напомним, основную часть дохода OpenAI получает от чрезвычайно популярного ИИ-бота ChatGPT, запуск которого состоялся немногим более года назад. Ранее в этом месяце издание Bloomberg писало о скором проведении очередного раунда финансирования OpenAI, в рамках которого капитализация компании может быть оценена в $100 млрд. В сообщении говорилось, что переговоры по поводу проведения нового раунда финансирования ведутся, но сроки и условия его реализации ещё не были утверждены. Крупнейшим стратегическим инвестором OpenAI является компания Microsoft, вложившая в ИИ-стартап около $13 млрд. В настоящее время софтверный гигант уже активно использует разработки OpenAI в своих продуктах. Согласно имеющимся данным, OpenAI ведёт переговоры с инвестиционным фондом G42 из ОАЭ о привлечении до $10 млрд на разработку ускорителя вычислений Tigris, который рассматривается в качестве конкурента решениям NVIDIA. В октябре OpenAI и G42 уже подписали договор о сотрудничестве, в рамках которого планируется создание передовых решений в сфере искусственного интеллекта для ОАЭ и других региональных рынков. Газета The New York Times подала в суд на OpenAI и Microsoft за обучение ИИ на её материалах
27.12.2023 [17:56],
Павел Котов
Газета The New York Times сообщила, что подала судебный иск на OpenAI и Microsoft, обвинив ответчиков в нарушении авторских прав — несанкционированном использовании материалов издания при обучении моделей искусственного интеллекта. Истец отметил, что стал первым крупным американским новостным изданием, которое подало в суд на разработчиков ChatGPT и других популярных ИИ-платформ за предполагаемое нарушение авторских прав, связанных с её материалами. В иске, поданном в Федеральный окружной суд Манхэттена, говорится, что для обучения чат-ботов, которые теперь конкурируют с новостными агентствами и претендуют на статус источника достоверной информации, использовались миллионы статей, опубликованных New York Times. В иске отсутствует точная сумма возмещения ущерба. Но в нём отмечается, что ответчики должны понести ответственность за «миллиарды долларов нормативно обоснованного и фактического ущерба», связанного с «незаконным копированием и использованием обладающих уникальной ценностью работ». Истец также требует уничтожить модели чат-ботов и обучающие данные, в которых используются защищённые авторским правом обучающие материалы. От OpenAI и Microsoft комментариев не последовало. New York Times отметила, что в апреле предприняла попытку урегулировать конфликт в досудебном порядке — она обратилась к Microsoft и OpenAI, выразив обеспокоенность использованием своей интеллектуальной собственности и предложив коммерческие и технологические средства защиты своих прав, в том числе наложение ограничений на генеративный ИИ, но переговоры результата не дали. Запросив информацию об имеющих значение текущих событиях, пользователи чат-ботов могут получить ответ, основанный в том числе на прежних материалах New York Times, удовлетвориться им и отказаться перейти на сайт газеты — из-за этого у ресурса снижается веб-трафик, который конвертируется в доходы от рекламы и подписки. В иске приводятся несколько примеров, когда чат-бот предоставлял пользователям почти дословные выдержки из статей New York Times, доступных только на основе платной подписки. По версии газеты, OpenAI и Microsoft при обучении ИИ уделили особое внимание её материалам из-за их вероятных достоверности и точности. При этом издание не отвергает новых технологий: недавно на работу был принят редакционный директор по инициативам в области ИИ — ему поручена разработка протоколов использования ИИ в редакции и изучение способов интеграции ИИ в работу журналистов. Приводится пример, когда основанная на ChatGPT функция Browse With Bing почти дословно воспроизвела материал Wirecutter — принадлежащего New York Times ресурса с обзорами товаров. При этом в ответе чат-бота отсутствовала ссылка на статью Wirecutter и реферальные ссылки на продукцию, которые используются для получения комиссий с продаж на сторонних площадках. Указывается на репутационный ущерб New York Times из-за «галлюцинаций» чат-бота — сбоев в работе ИИ, когда чат-бот предоставляет недостоверные данные. Упоминаются случаи, когда Microsoft Bing Chat предоставил не соответствующую действительности информацию со ссылкой на New York Times, предложив список «15 самых полезных для сердца продуктов», 12 из которых вообще не упоминались в соответствующей публикации газеты. Зарплата рядовых сотрудников OpenAI доходит до $6,5 в минуту
23.12.2023 [23:54],
Владимир Мироненко
Специалисты в области ИИ сейчас имеют заработок на 8–12,5 % больше, чем их коллеги, не занимающиеся искусственным интеллектом, пишет Bloomberg со ссылкой на исследование платформы по сбору данных о зарплате Levels.fyi. Но есть и работающие в отрасли компании с гораздо более высоким уровнем зарплат. Как отметили в Levels.fyi, заработки специалистов по ИИ в OpenAI, создавшей ИИ-чат-бот ChatGPT, могут с учётом бонусов и опционов на акции достигать $800 тыс. в год. Совет директоров OpenAI был вынужден восстановить в должности уволенного гендиректора Сэма Альтмана (Sam Altman) после того, как сотрудники компании пригрозили увольнением, если его не вернут назад, что подчёркивает, насколько значительным влиянием сейчас обладают самые ценные работники технологической отрасли. Большей частью зарплаты специалистов OpenAI находятся в диапазоне от $200 000 до $370 000, хотя несколько более специализированных вакансий предлагаются с зарплатой в диапазоне от $300 000 до $450 000, сообщил Роджер Ли (Roger Lee), соучредитель компании по сравнительному анализу зарплаты Comprehensive.io. По данным Levels.fyi, диапазоны зарплат не учитывают бонусы и акции, с учётом которых стартовая годовая зарплата специалиста компании в размере $300 000 может вырасти до $800 000. Это значит, что минута рабочего времени такого сотрудника оценивается примерно в $6,50. Как отметил ресурс Tom’s Hardware, зарплаты в OpenAI одни из самых высоких в отрасли ИИ: например, вновь поступившие инженеры и исследователи получают в два раза больше, чем могли бы зарабатывать в NVIDIA. В отрасли ИИ наблюдается дефицит специалистов, который будет ощущаться и в ближайшие годы. Тем более, что 2024 год уже неофициально называют годом ПК с ИИ. Что касается набора сотрудников из университетов, существует большая разница между пониманием моделей ИИ на теоретическом уровне и наличием навыков и опыта для их реального применения, пишет Bloomberg. Новый раунд финансирования оценит капитализацию OpenAI в $100 млрд
23.12.2023 [06:15],
Алексей Разин
Несмотря на своё серьёзное влияние на рынок систем искусственного интеллекта, компания OpenAI сохраняет статус стартапа и финансируется инвесторами в ходе частных размещений акций. По информации Bloomberg, очередной раунд финансирования может оценить капитализацию OpenAI в $100 млрд, что поставит стартап на второе место по этому критерию после аэрокосмической компании SpaceX. Предварительные переговоры о новом раунде финансирования OpenAI уже ведутся, как утверждает Bloomberg, но сроки его реализации и условия пока не утверждены. Ранее этот же источник утверждал, что в начале января OpenAI рассчитывает привлечь средства, исходя из оценки капитализации в $86 млрд. Как тогда сообщалось, желающих участвовать в финансировании нашлось больше, чем требовалось. Microsoft, которая на ранних этапах вложила в капитал OpenAI около $13 млрд, является крупнейшим стратегическим инвестором стартапа, программный гигант уже активно использует его разработки в своих продуктах. Как отмечает Bloomberg, компания OpenAI одновременно ведёт переговоры с инвестиционным фондом G42 из ОАЭ о привлечении средств в размере от $8 до $10 млрд на разработку собственного ускорителя вычислений Tigris, который мог бы составить конкуренцию решениям NVIDIA. Является ли эта инициатива частью намерений привлечь средства на общее развитие OpenAI, не поясняется. В октябре этого года G42 и OpenAI уже подписали соглашение о сотрудничестве, в рамках которого последняя обещала создать передовые решения в области искусственного интеллекта для ОАЭ и других региональных рынков. Совет директоров OpenAI сможет блокировать выпуск нейросетей, если сомневается в их безопасности
19.12.2023 [12:34],
Алексей Разин
После недавнего скандала с отставкой генерального директора OpenAI Сэма Альтмана (Sam Altman) и его возвращения компания OpenAI всерьёз задумалась не только о реформировании структуры управления бизнесом, но и повышении ответственности разработчиков за выпуск больших языковых моделей. Теперь совет директоров может задержать выпуск новых моделей, если сочтёт их недостаточно безопасными. Ключевая роль в этом механизме контроля и согласования будет отведена, по данным Bloomberg, специальной «группе готовности» под руководством Александра Мадри (Aleksander Madry), совмещающего эту должность с научной деятельностью в Массачусетском технологическом институте. В задачи группы экспертов будет входить анализ подготовленной к релизу каждой новой большой языковой модели на предмет выявления «катастрофических рисков». К таковым относятся вероятные последствия применения данной языковой модели, которые повлекут сотни миллиардов долларов материального ущерба или даже человеческие жертвы. Группа Мадри будет на ежемесячной основе делиться отчётами о деятельности разработчиков OpenAI со специальным советом по безопасности, а тот уже будет делиться своими выводами с генеральным директором компании и советом директоров. Сэм Альтман сможет принимать решение о выпуске новой языковой модели на рынок или её задержке для доработки, причём совет директоров получает право наложить вето на положительное решение главы OpenAI о выпуске модели в общий доступ. Группа анализа готовности языковых моделей была сформирована внутри OpenAI ещё в октябре, до хорошо известных событий с перестановками в руководстве. В целом, внутри компании действуют ещё две группы, занимающиеся анализом разработок. Прежде всего, это группа безопасности как таковой, а также группа «сверхрегулирования» (superalignment), которая учитывает гипотетические угрозы от внедрения сверхмощных систем искусственного интеллекта в будущем. Разрабатываемые OpenAI языковые модели будут оцениваться группой Мадри по шкале, подразумевающей четыре градации рисков: низкая, средняя, высокая или критическая. По замыслу, компания сможет выпускать в оборот только те системы искусственного интеллекта, которые в итоге всех процедур анализа и доработки получили оценку риска не выше низкого или среднего. Как признался сам Мадри, «OpenAI — это не что-то, происходящее само собой и способное нести нам пользу или вред, это нечто, формируемое нами». Представитель компании выразил надежду, что подобным подходом к управлению рисками в сфере искусственного интеллекта будут пользоваться и другие разработчики. В стенах OpenAI подобная практика формировалась последовательно и в течение последних двух месяцев просто была закреплена решениями высшего руководства. ByteDance заподозрили в использовании технологий OpenAI для создания конкурирующей ИИ-модели
18.12.2023 [16:52],
Владимир Мироненко
ByteDance (родительская компания TikTok) тайно использует технологию OpenAI для разработки собственной конкурирующей большой языковой модели (LLM), сообщил ресурс The Verge, подчеркнувший, что это является прямым нарушением условий использования технологий ИИ OpenAI, согласно которым они не могут применяться для разработки каких-либо моделей ИИ, которые конкурируют с продуктами и сервисами» компании. Согласно внутренним документам ByteDance, с которыми ознакомились в The Verge, OpenAI API использовался в проекте под кодовым названием Project Seed почти на каждом этапе разработки LLM, в том числе для обучения и оценки модели. После публикации The Verge китайская компания сочла необходимым выступить с разъяснением по этому поводу. ByteDance признала в заявлении, направленном ресурсу South China Morning Post, что, когда в начале этого года занялась изучением LLM, её небольшая группа разработчиков действительно использовала API-сервис OpenAI в экспериментальной модели, которая не предназначалась для публичного запуска. Работа над проектом была прекращена в апреле после введения регламентации использования OpenAI, условиями которой запрещается применение продуктов GPT для разработки моделей, конкурирующих с продуктами OpenAI. ByteDance сообщила, что по-прежнему использует API OpenAI вместе с некоторыми другими сторонними моделями «в очень ограниченной степени в процессе оценки/тестирования, например, при сравнительном анализе результатов». «ByteDance имеет лицензию на использование API OpenAI и уделяет большое внимание соблюдению условий использования OpenAI», — указано в заявлении компании. Тем не менее OpenAI приостановила доступ ByteDance к своему сервису. «Хотя использование ByteDance нашего API было минимальным, мы заблокировали её учётную запись на время расследования»,— указано в заявлении OpenAI, направленном ресурсу Verge. OpenAI предупредила, что, если выяснится, что использование API OpenAI китайской компанией не соответствует её условиям, ей будет предложено внести необходимые изменения или закрыть свою учётную запись. В настоящее время в Китае наблюдается бум в разработке LLM. К июлю этого года местными фирмами и исследовательскими институтами было выпущено не менее 130 LLM. В связи с этим основатель и гендиректор Baidu Робин Ли (Robin Li) заявил, что в стране слишком много базовых моделей искусственного интеллекта, что является «громадным растранжириванием ресурсов». Пользователей Dropbox напугала новая ИИ-функция, которая делится данными с OpenAI — она включена по умолчанию
14.12.2023 [12:17],
Павел Котов
Накануне по социальным сетям разлетелась информация, что в Dropbox появилась новая экспериментальная функция поиска, основанная на алгоритмах искусственного интеллекта, которая включена по умолчанию и предусматривает отправку данных OpenAI. В администрации Dropbox заверили пользователей, что данные передаются только в том случае, когда функция активно применяется, а сами данные не используются для обучения ИИ и удаляются в течение 30 дней. Dropbox даёт пользователям гарантии конфиденциальности информации, но включённая по умолчанию функция, предполагающая передачу данных третьим лицам, огорчила пользователей облачного хранилища. Пришлось вмешаться главе Dropbox Дрю Хьюстону (Drew Houston), который пояснил в соцсети X: «Переключатель стороннего ИИ в меню настроек включает или отключает доступ к возможностям и функциям DBX AI. Ни эта, ни любая другая настройка не отправляет никаких данных пользователей Dropbox сторонним ИИ-сервисам в автоматическом или пассивном режиме». По официальной версии, новый пункт в настройках доступен только участникам программы альфа-тестирования функций Dropbox AI, в том числе диалогового интерфейса с ИИ-ботом, которому можно задавать вопросы об отдельных файлах. Чтобы функция работала, ИИ-модели, например, GPT-4, необходим доступ к файлам. Представитель Dropbox сообщил ресурсу Ars Technica, что функция была включена по умолчанию лишь для того, чтобы познакомить пользователей платформы с новыми возможностями. И при попытке воспользоваться этими функциями будет выведено предупреждение об отправке данных третьим лицам. Единственным поставщиком функций ИИ для Dropbox является OpenAI. В компании подчеркнули, что на ресурсы партнёра отправляется только контент, непосредственно связанный с запросом пользователя и необходимый для подготовки ИИ описания или сводки данных, а в течение 30 дней эти материалы удаляются с серверов OpenAI. Доступ стороннего ИИ можно отключить в настройках профиля — соответствующая опция доступна вошедшим в учётную запись пользователям Dropbox по этой ссылке. Регуляторы США и Великобритании заинтересовались вложениями Microsoft в OpenAI
10.12.2023 [12:13],
Дмитрий Федоров
Инвестиции Microsoft в OpenAI, лидера в области ИИ, в размере $13 млрд, привлекли внимание антимонопольных органов, включая Федеральную торговую комиссию (FTC) США и Агентство по контролю за конкуренцией и рынками (CMA) Великобритании. Основной вопрос, который изучают эти государственные органы, — нарушают ли сделанные инвестиции антимонопольные законы. CMA занимается предварительным анализом ситуации, чтобы выяснить, не угрожает ли партнёрство Microsoft и OpenAI конкуренции в Великобритании. В частности, анализируется возможное получение Microsoft контроля над OpenAI, что может включать материальное влияние, фактический контроль или более 50 % голосов в управляющих органах компании. Ситуация усложняется из-за недавнего конфликта в OpenAI, который привёл к временному уходу и последующему восстановлению в должности генерального директора Сэма Альтмана (Sam Altman). В этом контексте заслуживает внимания роль Microsoft, имеющей статус наблюдателя в совете директоров OpenAI. Несмотря на отсутствие формальных прав голоса в процессах принятия решений OpenAI, Microsoft, по всей видимости, оказала существенное влияние на решение о возвращении Альтмана на пост генерального директора. Внимание, уделяемое FTC и CMA инвестициям Microsoft в OpenAI, отражает важность установления равновесия между инновационным развитием и поддержанием конкурентоспособной рыночной среды. Исход этих исследований может оказать влияние на бизнес-стратегии как Microsoft, так и OpenAI, особенно в условиях стремления государственных органов к эффективному регулированию крупномасштабных технологических слияний и поглощений. ChatGPT разленился и призывает людей работать самостоятельно — OpenAI начала расследование причин
09.12.2023 [17:33],
Владимир Мироненко
В последние дни всё чаще стали поступать жалобы пользователей на то, что ИИ-чат-бот ChatGPT на базе модели OpenAI GPT-4 стал отказываться выполнять запросы, мотивируя это тем, что он не заинтересован в помощи людям. Так, в ответ на просьбу предоставить фрагмент кода, он мог просто дать небольшой фрагмент и предложить пользователю доделать остальное самостоятельно. Причём, по словам некоторых пользователей, это делалось самым дерзким образом, например, иногда бот просто заявлял, что они вполне могли бы выполнить всю работу самостоятельно — без обращения к ИИ. В многочисленных постах на сайте Reddit и сообщениях на форумах разработчиков OpenAI, начавших появляться ещё в конце ноября, пользователи жаловались, что система становится менее полезной. Прозвучало даже предположение, что OpenAI специально сделала так, чтобы ChatGPT не тратил время на длинные ответы на запросы и таким образом стал более эффективным с точки зрения расходования вычислительных ресурсов. Хорошо известно, что поддержка функционирования ChatGPT обходится OpenAI недёшево. В апреле 2023 года исследователи сообщили, что на OpenAI уходит $700 000 в день, или $0,36 за запрос. По словам отраслевых аналитиков, OpenAI придётся расширить парк ускорителей на 30 000 единиц до конца года, чтобы сохранить производительность. В OpenAI сообщили, что осведомлены о жалобах на ИИ-бот и отметили, что никаких изменений в модель не вносили. «Мы просмотрели все ваши отзывы о том, что GPT4 становится более ленивым! — написала компания в соцсети X. — Мы не обновляли модель с 11 ноября, и это определённо не намеренно. Поведение модели может быть непредсказуемым, и мы пытаемся это исправить». Будущее соучредителя OpenAI Ильи Суцкевера в компании остаётся под вопросом
09.12.2023 [13:20],
Владимир Фетисов
После возвращения Сэма Альтмана (Sam Altman) на должность генерального директора OpenAI произошло немало событий, одним из которых стал роспуск совета директоров. Однако неясной остаётся судьба главного научного сотрудника компании Ильи Суцкевера (Ilya Sutskever), который, как сообщалось, сыграл важную роль в смещении Альтмана с должности. По данным издания Business Insider, ссылающегося на собственные источники в OpenAI, на этой неделе Суцкевер не появлялся в офисе компании в Сан-Франциско, хотя его имя продолжает фигурировать в системах компании, таких как Slack, а картины Ильи продолжают дополнять интерьер офиса. Один из источников отметил, что будущее Суцкевера в компании ещё не обсуждалось руководством официально. «Илья всегда будет играть важную роль. Но, вы знаете, есть много других людей, готовых взять на себя ответственность, которую исторически нёс Илья», — добавил представитель компании, пожелавший сохранить конфиденциальность. Другой источник сообщил, что в настоящее время обсуждается возможность выделения Суцкеверу новой должности, и что есть желание «найти для него роль». При этом он отметил, что определённости относительно будущего главного научного сотрудника OpenAI в компании пока нет. Это не выглядит удивительным, учитывая, что Суцкевер сыграл важную роль в увольнении Альтмана с поста гендиректора, вслед за которым ушёл соучредитель OpenAI Грег Брокман (Greg Brockman), а многие сотрудники компании пригрозили последовать их примеру. Суцкевер входил в совет директоров, который принял решение об увольнении Альтмана. Однако его значение и влияние в компании, а также статус соучредителя делают Суцкевера более значимой фигурой по сравнению с любым другим членом совета директоров. Продолжающийся кризис в OpenAI подтверждает недавний пост Суцкевера в соцсети X, где он написал: «За последний месяц я усвоил много уроков. Одним из таких уроков является то, что фраза «избиения будут продолжаться до тех пор, пока не улучшится моральный дух» применяется чаще, чем имеет на то право». Эта фраза часто используется в мемах для ироничного обозначения цикла, когда низкая мораль порождает наказание, делающее её ещё более низкой. Также известно, что Суцкевер нанял адвоката, которым стал Алекс Вайнгартен (Alex Weingarten) из Willkie & Gallagher. Адвокат отказался комментировать вопросы сотрудничества с Суцкевером, сообщив лишь, что его клиент желает лучшего для компании. Официальные представители OpenAI также воздерживаются от комментариев по данному вопросу. Отставка главы OpenAI Сэма Альтмана была результатом накопившихся противоречий с советом директоров
09.12.2023 [07:04],
Алексей Разин
В ноябре причастное к миру информационных технологий сообщество с замиранием сердца следило за событиями вокруг стартапа OpenAI, создавшего ChatGPT, поскольку конфликт совета директоров с генеральным директором Сэмом Альтманом (Sam Altman) привёл к отставке последнего, но после переговоров он был восстановлен в должности. Как можно догадаться, к отставке Альтмана привёл не единичный инцидент, а копившиеся месяцами противоречия в руководстве компании. В этом признаются в комментариях Bloomberg источники, знакомые с ситуацией. В целом, как они поясняют, после вынужденного предания скандала огласке бывшие члены совета директоров и Сэм Альтман склонны по-разному трактовать причины, которые привели к отставке последнего. Когда уже после отставки речь зашла о возможности возвращения Альтмана в прежнюю должность, он предложил публично извиниться за то, что не совсем корректно истолковывал взгляды некоторых членов совета директоров на стратегические вопросы управления компанией. Совет директоров на тот момент счёл такие извинения неуместными, поскольку на публике это создало бы впечатление, что причиной отставки Альтмана был какой-то единичный инцидент, который удалось исчерпать с точки зрения противоречий. Пока ведётся независимое расследование, члены совета директоров OpenAI отказались давать официальные комментарии на эту тему, но по неофициальным каналам Bloomberg удалось выяснить, что к отставке Альтмана привели месяцами копившиеся противоречия по поводу его стратегических манёвров и отсутствия прозрачности в его общении с советом директоров. Вчера председатель совета директоров OpenAI заявил, что для юридического сопровождения независимого расследования наняты адвокаты компании WilmerHale. По неофициальным данным, совет директоров начал обсуждать возможность отставки Альтмана этой осенью, за некоторое время до ноябрьских событий. На тот момент в состав этого органа правления входили генеральный директор Сэм Альтман, его соратник и сооснователь OpenAI Грег Брокман (Greg Brockman), который занимал пост президента, а также группы из четырёх директоров, которые и были настроены на отставку генерального директора. К ним следует отнести главного научного руководителя OpenAI Илью Суцкевера (Ilya Sutskever), генерального директора Quora Адама Д’Анджело (Adam D’Angelo), научного деятеля Хелен Тонер (Helen Toner) и предпринимательницы Таши Макколи (Tasha McCauley). Фактическая власть в компании была отдана одноимённой некоммерческой организации, а совет директоров имел мало влияния на вектор её развития. Старшие руководители рангом пониже пытались выразить своё недовольство взаимодействием с Альтманом, но боялись доносить эту информацию до совета директоров в полной мере, опасаясь его мести. После отставки Альтмана коллектив OpenAI сплотился в намерении вернуть бывшего генерального директора, и старшие руководители поддержали это решение без оглядки на прошлые разногласия. Роль Ильи Суцкевера, который и сообщил Альтману об отставке, тоже оказалась значимой во всей этой истории. С июля он проводил реформы в компании, но к октябрю его ограничили в полномочиях из-за нараставших противоречий с Альтманом и Брокманом. Обиженный Суцкевер смог привлечь на свою сторону многих членов совета директоров. В октябре Альтман также попытался отправить в отставку Хелен Тонер, поскольку был недоволен её публичной критикой политики OpenAI в области безопасности. Хелен Тонер, в свою очередь, пыталась заручиться поддержкой других членов совета директоров. Пытаясь наладить контакт с прочими членами совета директоров в этой ситуации, Альтман некорректно истолковал их позиции по вопросу, и ошибочно предположил, что коллеги солидарны с ним в намерениях отправить Тонер в отставку. Он даже открыто выражал уверенность, что Таша Макколи является его союзником в этой ситуации, но последняя от такой позиции открещивалась. Члены совета директоров OpenAI пришли к выводу, что Альтман манипулирует ими, и содержание их разговоров с ним существенно отличается от того, что он пытается представить на публике. Совет директоров действительно был обеспокоен тем, что Альтман не всегда был откровенен с ними. Отставка Альтмана готовилась в такой спешке, что сотрудникам компании не было ничего разъяснено, а потому решимость основной части коллектива настаивать на возвращении генерального директора стала для совета директоров сюрпризом. После возвращения Альтмана на пост генерального директора в отставку подали и Тонер, и Макколи, из прежнего состава совета директоров в новый перекочевал лишь Адам Д’Анджело. На этом настояли те члены совета директоров, которые считали важным сохранить в его составе хотя бы одного очевидца соответствующих ноябрьских событий и сопутствующей предыстории. Британские антимонопольщики проверят отношения Microsoft и OpenAI
08.12.2023 [17:28],
Павел Котов
Британское Управление по конкуренции и рынкам (CMA) может провести проверку партнёрских отношений Microsoft и OpenAI, чтобы установить, привело ли оно к «поглощению контроля», которое подпадает под действие антимонопольного законодательства. В ведомстве сообщили, что изучают «недавние события», подразумевая временную отставку главы OpenAI Сэма Альтмана (Sam Altman) и роль Microsoft в этих событиях. «CMA запросит комментарии, чтобы определить, привело ли партнёрство Microsoft и OpenAI, включая недавние события, к соответствующей слиянию ситуации, и если да, то к потенциальному влиянию на конкуренцию. CMA проверит, привело ли партнёрство к поглощению контроля, то есть к тому, что одна сторона получила существенное влияние, фактический контроль или 50 % прав голоса в другой организации», — гласит заявление регулятора. Ведомство отметило, что «тесное и многоплановое» партнёрство включает многомиллиардные инвестиции со стороны Microsoft, сотрудничество в области разработки технологий и облачных сервисов. Две компании ведут активную деятельность на финансовых и смежных рынках, а значит, их деловые отношения напрямую влияют на инвесторов. Microsoft недавно также приняла участие в процессах, связанных с управлением OpenAI. Когда совет директоров OpenAI уволил Сэма Альтмана, Microsoft вмешалась в конфликт и заявила о готовности взять его на работу — за ним перейти в корпорацию пригрозило большинство сотрудников OpenAI. Совет директоров уступил, и Альтман вернулся на свой пост. Вице-председатель совета директоров и президент Microsoft Брэнд Смит (Brand Smith) заявил ресурсу Engadget, что компании сотрудничают с 2019 года — за это время было выпущено множество инновационных решений в области искусственного интеллекта, но партнёры сохранили независимость. Единственным изменением стало место наблюдателя без права голоса от Microsoft в совете директоров OpenAI; корпорация готова сотрудничать с CMA и предоставить ведомству все необходимые сведения, какие только потребуются. Сотрудники OpenAI на самом деле не горели желанием уходить в Microsoft — это обернулось бы финансовыми потерями
08.12.2023 [11:09],
Дмитрий Федоров
После неожиданного увольнения генерального директора Сэма Альтмана (Sam Altman) из OpenAI сотрудники компании грозились уйти в Microsoft, если решение об его увольнении останется в силе. Однако, согласно последним данным, угроза перехода в Microsoft была лишь блефом, ведь в этом случае он сулил сотрудникам потерю значительных финансовых выгод. Источники из Business Insider сообщают о чувстве облегчения среди сотрудников OpenAI после того, как им не пришлось переходить в Microsoft. Многие из них заявили, что угроза перехода была всего лишь блефом, целью которого было возвращение Альтмана на пост генерального директора. Отказ от перехода в Microsoft был обусловлен рядом факторов, включая потерю значительных преимуществ, таких как высокая заработная плата и доли в акциях компании. В OpenAI базовая зарплата начинается с $300 000, а пакет акций на сумму в $2 млн выдаётся за четыре года работы, хотя некоторые сотрудники получают ещё больше. Несмотря на то, что Microsoft согласилась нанять всех сотрудников OpenAI на тех же условиях, это обещание было лишь устным и не имело юридической силы. Один из сотрудников OpenAI выразил сомнения в том, что Microsoft выплатила бы компенсацию за потерянные акции OpenAI. Если бы сотрудники компании перешли в Microsoft, они бы потеряли возможность участия в тендерных предложениях о выкупе акций OpenAI. Это значит, что они бы упустили возможность продать свои акции по потенциально выгодной цене в будущем. Один из работников OpenAI отметил, что никто не стремился работать в Microsoft, критикуя корпорацию за медленное принятие решений и сравнивая её с более динамичным и инновационным подходом OpenAI. Некоторые сотрудники также чувствовали себя не в своей тарелке при подписании письма с угрозой ухода в Microsoft, если Альтман не будет восстановлен в должности, отметив, что их отношение к генеральному директору не фанатичное и находится в пределах разумного. Один из сотрудников заявил, что, хотя Альтман и не является идеальным руководителем, на кону стояли миллионы долларов и акции. Снижение стоимости OpenAI нанесло бы ущерб финансовому благополучию сотрудников ИИ-стартапа. Ситуация в Microsoft также была напряжённой. Сотни сотрудников корпорации были возмущены обещаниями Microsoft согласовать зарплаты с сотнями сотрудников OpenAI. Стоит отметить, что Microsoft ранее уволила более 10 000 сотрудников, заморозила зарплаты, сократила бонусы и акционерные выплаты. Это вызвало недовольство среди работников, которые трудятся не покладая рук более 12 часов в день, находясь в постоянном страхе увольнения. С учётом сложившейся ситуации можно ожидать дополнительной информации о развитии событий в ближайшее время. Саркастичный и раскованный ИИ-чат-бот Grok от Илона Маска стал доступен широкой аудитории
07.12.2023 [23:47],
Николай Фрей
В четверг Илон Маск (Elon Musk) заявил, что его компания xAI, специализирующаяся на искусственном интеллекте, запустила для широкой аудитории своего ИИ-чат-бота Grok. Потенциальный конкурент для ChatGPT, не обременённый строгими ограничениями по ответам на провокационные вопросы, стал доступен подписчикам Premium+ социальной сети X (бывшей Twitter). Маск объявил о запуске ИИ-бота в посте в социальной сети X, не раскрывая подробностей запуска. В прошлом месяце он заявил, что как только Grok выйдет из раннего бета-тестирования, то станет доступен платным подписчикам с самым высоким уровнем Premium+ (за $16 в месяц). Вероятно, подписчики Premium получат доступ к боту несколько позже. «Grok — это искусственный интеллект, созданный по образцу путеводителя «Автостопом по галактике» и предназначенный для того, чтобы отвечать практически на всё и, что гораздо сложнее, даже подсказывать, какие вопросы задавать! Grok создан для того, чтобы остроумно отвечать на вопросы, и у него есть бунтарская жилка, поэтому, пожалуйста, не используйте его, если ненавидите юмор», — описывали разработчики своё творение в момент его анонса минувшим летом. Чат-бот xAI визуально напоминает аналогичные боты. Для взаимодействия с ним предлагается использовать соответствующее поле для формирования запросов. По словам разработчиков, главное преимущество Grok заключается в том, что он способен ответить практически на любой вопрос благодаря доступу к данным соцсети X в режиме онлайн. Разработка алгоритма началась с создания прототипа большой языковой модели (LLM) Grok-0 с 33 млрд параметров. Эта тестовая модель по своим возможностям сопоставима с показателями LLaMA 2 от Meta✴ Platforms в стандартных тестах, но использует при этом только половину своих обучающих ресурсов. К моменту летнего анонса разработчики сумели добиться существенных улучшений в плане возможностей логического анализа и кодирования, что привело к созданию значительно более мощной языковой модели Grok-1. Илон Маск запустил xAI в июле в ответ на усилия IT-гигантов в области искусственного интеллекта, которые он критиковал за чрезмерную цензуру и отсутствие адекватных мер безопасности. Крупные технологические компании, включая Microsoft и Google, торопятся запустить продукты на базе ИИ после того, как чат-бот ChatGPT от OpenAI поразил воображение компаний и пользователей по всему миру. Напомним, что Маск также являлся одним из основателей OpenAI в 2015 году, но в 2018 году вышел из состава совета директоров компании. Поскольку всё больше рекламодателей уходят с платформы микроблогов, миллиардер сделал акцент на снижении зависимости компании от рекламы и сосредоточился на подписках. Очередная новая функция в виде саркастичного Grok должна сделать их более привлекательными. Маск также намерен превратить X в «супер приложение», предлагающее пользователям целый ряд услуг — от обмена сообщениями и общения в социальных сетях до пиринговых платежей. |
✴ Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»; |