Опрос
|
реклама
Быстрый переход
Ведущие разработчики ИИ всеми силами уклоняются от надзора и критики, заявили экс-работники OpenAI
05.06.2024 [18:17],
Павел Котов
Несколько бывших сотрудников OpenAI опубликовали открытое письмо, в котором предупредили, что передовые разработчики технологий искусственного интеллекта противостоят критике и надзору, и это важно в свете возросших за последние месяцы опасений по поводу ИИ. Открытое письмо подписали 13 бывших сотрудников OpenAI, шесть из которых предпочли остаться анонимными; его также одобрил «крёстный отец ИИ» Джеффри Хинтон (Geoffrey Hinton). В документе говорится, что в отсутствие эффективного государственного надзора компании-разработчики ИИ должны придерживаться принципов открытой критики. Им надлежит отказаться от создания и применения положений о недискредитации, содействовать «проверяемому» процессу информирования о проблемах, предоставить нынешним и бывшим сотрудникам возможность рассказывать общественности о своих опасениях, а также отказаться от принятия ответных мер против осведомителей. Авторы письма утверждают, что верят в потенциал ИИ для пользы общества, но также видят риски: укрепление неравенства, простор для манипуляций и дезинформации — вплоть до возможности вымирания человечества. Подписанты указывают, что существующие меры защиты осведомителей недостаточны — они касаются незаконной деятельности компаний, а не проблем, которые не регулируются. Это значит, что работники могут свободно сообщать о нарушениях в выплате заработной платы, о дискриминации, проблемах безопасности, фактах мошенничества или удержании выходных — в соответствии с законами о защите осведомителей работодатель не может их увольнять, сокращать им рабочие часы или понижать в должности. Но это не касается сведений, имеющих отношение к безопасности систем ИИ. При этом OpenAI ранее включала положение о недискредитации в соглашении о расторжении трудового договора, а также расформировала подразделение Superalignment, которое специализировалось на безопасности ИИ. Google продолжила отстаивать свою правоту после того, как поисковый ИИ дал пользователям множество явно несуразных ответов. Microsoft же подвергалась критике за генератор изображений Copilot Designer, посредством которого создавались явно выходящие за рамки этических норм картинки. В работе ChatGPT произошёл масштабный сбой
04.06.2024 [13:12],
Павел Котов
В работе ChatGPT, популярного чат-бота на основе искусственного интеллекта, произошёл сбой — многие пользователи сообщают, что не могут открыть сервис. Не работает вход в систему, не работает отправка запросов чат-бот, а от него не поступают ответы. Причины сбоя пока неизвестны. Пользователи соцсети X массово жалуются, что ChatGPT не работает. В отдельных случаях интерфейс чат-бота не загружается полностью, а при попытке отправить ему сообщение выводится сообщение об ошибке просроченного входа. Даже после входа чат-бот не загружается, и цикл ошибок повторяется. Сервис мониторинга сбоев веб-служб DownDetector показывает, что проблемы с доступом к ресурсам OpenAI наблюдаются по всему миру. Страница статуса самого ChatGPT подтверждает, что сервис недоступен для некоторых пользователей, а причины сбоя изучаются — здесь же указано, что за последние 90 дней время безотказной работы (аптайм) ChatGPT составило 99,67 %. Причины сбоя ChatGPT пока достоверно неизвестны. Они могут быть связаны с резким ростом трафика или какой-то другой проблемой. Неизвестно также, насколько долго продлится перерыв в работе сервиса. Хакер заставил GPT-4o работать в «режиме бога» — вообще без ограничений
01.06.2024 [12:33],
Павел Котов
Называющий себя этичным хакером пользователь Twitter под ником Pliny the Prompter в минувшей среду выпустил кастомную версию флагманской нейросети OpenAI, которую озаглавил GODMODE GPT. Ему удалось заставить новую модель GPT-4o обойти игнорировать все ограничения: она пользовалась ненормативной лексикой, рассказывала, как взламывать автомобили и готовить запрещённые вещества. Конечно, же, эксперимент долго продлиться не мог. Как только нейросеть GODMODE GPT обрела относительную вирусную популярность в соцсети X, на инцидент обратила внимание OpenAI и удалила кастомную модель с сайта всего через несколько часов после её выхода. Сейчас получить к ней доступ уже невозможно, но в оригинальной ветке автора в соцсети X сохранились скриншоты с «вредными советами» GPT-4o. Модель GPT-4o, возможно, была взломана с использованием архаичного интернет-жаргона leetspeak — подмены букв при наборе текста цифрами и спецсимволами, — что подтверждается скриншотами. В OpenAI не ответили на вопрос, можно ли использовать этот жаргон для обхода ограничений ChatGPT. Не исключено, что создавшему GODMODE GPT просто нравится leetspeak, и он взломал систему каким-то иным способом. Инцидент стал проявлением масштабного движения AI red teaming, в рамках которого этичные хакеры выявляют слабые места современных систем искусственного интеллекта, не нанося им значительного ущерба. Они обладают удивительными возможностями, но, как показал недавний опыт с Google и её обзорами в поиске, современный генеративный ИИ все ещё остаётся системой, которая хорошо угадывает, какие слова должны быть следующими в тексте, не обладая истинным интеллектом. ChatGPT обретёт тело: OpenAI возродила разработку роботов
31.05.2024 [18:44],
Сергей Сурабекянц
Компания OpenAI заморозила разработку собственного робота общего назначения ещё в 2020 году. Теперь гигант искусственного интеллекта собирается поставлять свои технологии машинного обучения другим разработчикам и производителям роботов. По сообщению Forbes, в связи с ростом инвестиций в роботов с ИИ компания OpenAI перезапускает свое ранее закрытое подразделение по робототехнике. По данным трёх независимых источников, в настоящее время OpenAI нанимает инженеров-исследователей для восстановления команды, которую она закрыла в 2020 году. Новая команда существует менее двух месяцев и в списке вакансий поясняется, что новые сотрудники станут «одними из первых её членов». За последний год OpenAI инвестировала в несколько компаний, занимающихся разработкой человекоподобных роботов, включая Fig AI (привлечено $745 млн), 1X Technologies (125 $млн) и Physical Intelligence ($70 млн). Первые намёки на возвращение интереса OpenAI к робототехнике появились в февральском пресс-релизе, посвящённом сбору средств для компании Fig. Месяц спустя компания Fig представила робота, демонстрирующего элементарные навыки речи и мышления на основе большой мультимодальной модели, обученной OpenAI. Источники сообщают, что OpenAI намерена сосуществовать, а не конкурировать с разработчиками роботов, создавая технологии, которые производители роботов будут интегрировать в свои собственные системы. Инженеры компании будут сотрудничать с внешними партнёрами и заниматься обучением моделей ИИ. Даже такая, более узкая направленность команды робототехники OpenAI, может пересекаться с другими компаниями. Например, Covariant, основанная бывшими членами команды OpenAI по робототехнике, занимаются обучением собственных моделей, а количество талантливых специалистов весьма ограничено. Робототехника была одним из основных направлений OpenAI с первых дней её существования. Команда специалистов под руководством соучредителя OpenAI Войцеха Зарембы (Wojciech Zaremba) стремилась создать «робота общего назначения». В 2019 году исследователи OpenAI обучили нейросеть собирать кубик Рубика с помощью роботизированной руки. Но в октябре 2020 года команда была распущена из-за «нехватки данных для обучения», по словам Зарембы. В конечном итоге OpenAI направила усилия команды по робототехнике на другие проекты. «Благодаря быстрому прогрессу в области искусственного интеллекта и его возможностей мы обнаружили, что другие подходы, такие как обучение с подкреплением и обратной связью с человеком, приводят к более быстрому прогрессу», — говорится в заявлении компании. В конечном итоге, достижения в обучении с подкреплением стимулировали бум ИИ, который произошёл после выпуска компанией ChatGPT. Некоторые из бывших сотрудников OpenAI в области робототехники остаются в компании на других должностях. Например, Заремба помогает руководить разработкой флагманских моделей GPT, Питер Велиндер (Peter Welinder) руководит продуктами и партнёрскими отношениями, Боб МакГрю (Bob McGrew) является вице-президентом по исследованиям, а Лилиан Венг (Lilian Weng) возглавляет отдел систем безопасности и является членом недавно созданного комитета по безопасности OpenAI. Пока нет точной информации, планирует ли OpenAI разрабатывать своё робототехническое оборудование, что она пыталась сделать несколько лет назад. Растущие амбиции компании в последнее время были отмечены некоторой турбулентностью, в том числе серией увольнений высокопоставленных специалистов. После публикации Forbes от 30 мая, OpenAI официально подтвердила набор специалистов в возрождённую команду по робототехнике. OpenAI поможет Apple прокачать Siri — это вызвало беспокойство у Microsoft
30.05.2024 [17:10],
Владимир Мироненко
Менее чем через две недели начнётся конференция для разработчиков Apple Worldwide Developers Conference 2024 (WWDC 2024). Как стало известно ресурсу The Information, на ней будет объявлено о сделке Apple с OpenAI, чьи ИИ-технологии будут использоваться в расширении функциональности голосового помощника Siri и, возможно, для его трансформации в ИИ-чат-бота. Ранее появились слухи о том, что Apple ведёт переговоры с OpenAI об использовании технологии GPT в iOS 18. Согласно данным источников The Information, переговоры двух компаний длятся около года. Сотрудники из команды машинного обучения Apple встречались с гендиректором OpenAI Сэмом Альтманом (Sam Altman) и другими сотрудниками компании в середине 2023 года на прошлогодней конференции WWDC. О чём шёл разговор неизвестно, но впоследствии стороны достигли соглашения о предоставлении сотрудникам Apple доступа к API OpenAI для внутреннего тестирования. «В ходе этих тестов инженеры Apple подключили ChatGPT к Siri, создав впечатляющую демонстрацию того, как Siri обрабатывает более сложные запросы, чем обычно, в том числе благодаря лучшему пониманию контекста того, что говорят пользователи», — сообщается в публикации The Information. В свою очередь, ресурс 9to5Mac заявил, что нашёл в коде iOS 17.4 доказательства использования Apple таких API, которые могут помочь Siri даже осуществлять перевод в реальном времени. По данным The Information, Microsoft обеспокоена партнёрством Apple и OpenAI. У Microsoft есть соглашение с OpenAI о сотрудничестве, согласно которому последняя предоставляет ИИ-технологии, лежащие в основе Copilot, а Microsoft предоставляет OpenAI свои ЦОД для поддержки ChatGPT. The Information утверждает, что недавно Альтман встречался по этому поводу с гендиректором Microsoft Сатьей Наделлой (Satya Nadella). Microsoft также обеспокоена тем, как удовлетворить спрос на серверы, когда Apple запускает новые функции для пользователей iPhone и iPad. Кроме того, она предложила OpenAI сократить будущую прибыль в качестве компенсации предыдущих инвестиций в стартап в размере $13 млрд. У бесплатных пользователей ChatGPT появился доступ к кастомным версиям GPT
30.05.2024 [11:38],
Павел Котов
Пользователи бесплатного варианта ChatGPT получили доступ к созданным сообществом спецверсиям моделей GPT — с ними можно анализировать диаграммы, задавать вопросы о фотографиях и работать с другими функциями, которые в начале мая получила официальная GPT-4o. Ранее такие функции как ответы с веб-поиском, анализ данных, создание диаграмм, машинное зрение, загрузка файлов, память контекста и спецверсии GPT были доступны лишь для пользователей тарифов ChatGPT Plus, Teams и Enterprise — теперь же они открыты для всех, кто пользуется ChatGPT. А вот своих собственных версий GPT пользователи бесплатного варианта ChatGPT создавать пока не могут. Функции аналитики данных и создания диаграмм позволяют напрямую подключать хранилища OneDrive и Google Drive к ChatGPT. Разработчики специальных версий GPT также могут участвовать в программе распределения доходов, которую OpenAI в тестовом режиме запустила в марте. У платных подписчиков есть ещё одно преимущество — менее жёсткие ограничения на число сообщений. Когда пользователи бесплатной платформы достигают лимита сообщений в чате с GPT-4o, они автоматически переключаются на менее мощную GPT-3.5. Голос ИИ Sky, до степени смешения напоминающий голос Скарлетт Йоханссон (Scarlett Johansson) даже самой актрисе, пока остаётся недоступным. Бывший руководитель отдела безопасности OpenAI ушёл к конкуренту
29.05.2024 [11:46],
Павел Котов
Ян Лейке (Jan Leike), который прежде был в OpenAI одним из руководителей отдела безопасности и занимался долгосрочными рисками, связанными с ИИ, перешёл на работу в конкурирующую компанию Anthropic. Об этом Лейке сообщил в соцсети X. Лейке ушёл из OpenAI вслед за её сооснователем Ильёй Суцкевером (Ilya Sutskever) — вместе они возглавляли подразделение Superalignment, но оно было распущено, просуществовав менее года. Уходя, он раскритиковал OpenAI, заявив, что «культура и процессы безопасности отошли на второй план по сравнению с блестящими продуктами». Накануне стало известно, что в компании был сформирован новый отдел безопасности во главе с генеральным директором Сэмом Альтманом (Sam Altman). В Anthropic Ян Лейке будет заниматься теми же вопросами, что и в OpenAI — вопросами безопасности, касающимися моделей ИИ, которые превзойдут возможности человека. Таких моделей пока не существует, но OpenAI и Anthropic уже проводят исследования на предмет того, как ими можно будет управлять. Созданная выходцами из OpenAI компания Anthropic позиционирует себя как более ориентированную на безопасность. Бывший член совета директоров OpenAI рассказала, почему Сэма Альтмана уволили прошлой осенью
29.05.2024 [10:29],
Алексей Разин
Ноябрьские события, которые привели к отставке основателя OpenAI Сэма Альтмана (Sam Altman) сроком на четыре дня, а потом его возвращению на пост генерального директора компании с сопутствующей сменой состава совета директоров, продолжают получать оценку участниками этого процесса. По словам покинувшей совет директоров Хелен Тонер (Helen Toner), Альтман способствовал появлению в компании «токсичной атмосферы». Своими оценками она поделилась в интервью на канале The Ted AI Show, которое вышло в эфир в минувший вторник. По словам Тонер, одним из катализаторов ноябрьской отставки Альтмана было обращение двух руководителей компании с жалобой на психологическое унижение. Совет директоров получил от них скриншоты переписки и документы, доказывающие подобные прецеденты. Непосредственно Альтмана бывший член совета директоров Хелен Тонер охарактеризовала как «склонного к манипуляциям управленца, который способствовал зарождению в компании токсичной атмосферы». Учитывая нелюбовь действующего руководства к «выносу сора из избы», высказывания Тонер подверглись критике со стороны председателя совета директоров Брета Тейлора (Bret Taylor), который поспешил напомнить, что расследование ноябрьских событий специальным комитетом в составе совета директоров OpenAI уже сделало свои выводы, и не следует их пересматривать. Тогда правление пришло к выводу, что отставка Альтмана в ноябре прошлого года не была вызвана беспокойством совета директоров по поводу безопасности разработок компании, скорости ведения этих разработок, финансовыми показателями OpenAI, либо заявлениями в адрес инвесторов, клиентов или деловых партнёров. Когда спустя четыре дня после отставки Сэм Альтман вернулся на пост генерального директора, соответствующее решение поддержало большинство из 700 сотрудников компании. Персонал пригрозил совету директоров массовым исходом и требовал вернуть Альтмана на пост генерального директора. Как призналась Хелен Тонер, сотрудникам OpenAI тогда внушили мысль, что компания без него не сможет выжить. Когда же стало ясно, что его возвращение будет неизбежным, сотрудники OpenAI просто испугались, что отказавшиеся от поддержки Альтмана могут быть уволены. Хелен Тонер также призналась, что разработка первой версии ChatGPT велась в условиях настолько высокой секретности, что совет директоров о запуске этой системы искусственного интеллекта узнала из сообщений на страницах Twitter. В целом, по её словам, Сэм Альтман довольно скупо описывал те меры, которые предпринимались для защиты общества от возможного негативного влияния искусственного интеллекта, и со временем у прошлого состава совета директоров даже выработалось стойкое недоверие к его словам. OpenAI объявила о старте обучения ИИ-модели следующего уровня — она заменит GPT-4
28.05.2024 [17:40],
Владимир Мироненко
OpenAI объявила о начале обучение новой флагманской ИИ-модели, которая придёт на смену GPT-4, пишет The New York Times. Компания сообщила в своём блоге, что новая модель получит «следующий уровень возможностей» на пути к созданию сильного искусственного интеллекта (AGI), способного обладать возможностями человеческого мозга. Новая модель расширит возможности чат-ботов, цифровых помощников, поисковых систем, генераторов изображений и других приложений на базе ИИ. Вышедшая в марте 2023 года ИИ-модель GPT-4 позволяет чат-ботам и другим приложениям отвечать на вопросы, анализировать данные, а также способна работать не только с текстом, но и с изображениями. В этом месяце OpenAI представила её обновлённую версию GPT-4o, которая гораздо умнее предыдущих и к тому же является мультимодальной. ИИ-модели, подобные GPT-4o, обучаются навыкам, анализируя огромные объёмы цифровых данных, включая звуки, фотографии, видео, статьи в «Википедии», книги и новости. В декабре прошлого года газета The New York Times подала в суд на OpenAI и Microsoft, обвинив их в нарушении авторских прав на новостной контент, выразившемся в несанкционированном использовании её материалов для обучения ИИ-моделей. Обучение ИИ-модели может занять месяцы или даже годы. После завершения процесса обучения компании обычно тратят ещё несколько месяцев на тестирование ИИ-модели и её настройку для публичного использования. OpenAI также объявила о создании комитета по контролю безопасности ИИ для изучения рисков, связанных с созданием ИИ-технологий. «Хотя мы гордимся тем, что создаём и выпускаем модели, которые являются ведущими в отрасли как по возможностям, так и по безопасности, мы приветствуем активную дискуссию в этот важный момент», — заявила компания. По словам OpenAI, пока она будет обучать свою новую модель, комитет будет работать над совершенствованием политики и вопросов защиты ИИ-технологий. Подготовка к GPT-5: руководство OpenAI сформирует комитет по контролю безопасности ИИ
28.05.2024 [15:09],
Алексей Разин
Уходящий месяц характеризовался для стартапа OpenAI уходом нескольких высокопоставленных руководителей, которые высказывались в пользу усиления контроля за распространением технологий искусственного интеллекта. Попутно было расформировано специальное подразделение, но его функции во многом перейдут к создаваемому наблюдательному комитету в совете директоров. В состав этого комитета, как сообщает Bloomberg, войдут как члены совета директоров, так и руководители компании. Функции комитета будут сведены к оценке безопасности разрабатываемых компанией больших языковых моделей. На первичную оценку существующих правил безопасности комитету будут отведены 90 дней. После этого комитет должен будет опубликовать свои рекомендации в этой сфере и предать их огласке. Компания также отметила, что приступила к обучению своей новейшей большой языковой модели. Вероятнее всего, речь о GPT-5. Напомним, что в составе OpenAI профильное подразделение было вынуждено бороться за ресурсы, а у ведущего научного специалиста Ильи Суцкевера, который покинул штат OpenAI в мае, противоречия относительно методов оценки рисков с действующим руководством возникали ещё прошлой осенью, что и вылилось в попытку отставки основателя компании Сэма Альтмана (Sam Altman). Частично функции контроля за влиянием искусственного интеллекта на общество были возложены на исследовательское подразделение OpenAI, которое после ухода Суцкевера возглавил Джон Шульман (John Schulman), также стоявший у истоков стартапа. В состав наблюдательного комитета войдут три члена совета директоров: председатель Брет Тейлор (Bret Taylor), генеральный директор Адам Д’Анджело (Adam D’Angelo) и бывшая руководительница Sony Entertainment Николь Селигман (Nicole Seligman). Ещё шестеро членов комитета будут сформированы из руководителей, включая Альтмана и Шульмана. Будут привлекаться и сторонние советники, не относящиеся к компании. Двое из них ранее являлись высокопоставленными чиновниками в США. OpenAI больше не будет принуждать экс-сотрудников к молчанию ради акций
24.05.2024 [15:41],
Павел Котов
OpenAI отказалась от практики, при которой вынуждала увольняющихся сотрудников выбирать между подписанием бессрочного соглашения о недискредитации компании и сохранением акций, переданных этим сотрудникам в качестве заработной платы. OpenAI подготовила соответствующую записку, которую разослала нынешним и бывшим сотрудникам. В направленном бывшим работникам документе говорится, что на момент ухода из OpenAI «вас, возможно, проинформировали, о необходимости подписать соглашение об освобождении от обязательств, которое включало положение о недискредитации, чтобы сохранить принадлежащие вам акции. <..> Независимо от того, подписали ли вы соглашение, настоящим уведомляем вас, что OpenAI не аннулировала и не аннулирует какие-либо переданные акции». Компания отметила, что не намеревается обеспечивать исполнения каких-либо иных пунктов соглашения, не допускающих её дискредитации, если бывший сотрудник подписал соответствующий документ. «Как мы рассказали сотрудникам, мы внесём важные изменения в процедуру увольнения», — заявил CNBC представитель OpenAI. «Мы не изымали и никогда не будем изымать принадлежащий [им] капитал, даже если люди не подписывали документов об увольнении. Мы исключим положения о недискредитации из наших стандартных документов при увольнении и освободим бывших сотрудников от действующих обязательств о недискредитации, если только положение о недискредитации не было взаимным», — говорится в заявлении компании. OpenAI подчеркнула, что о нововведении будут также извещены её бывшие сотрудники. OpenAI продолжает терять сотрудников — они считают, что ИИ может быть опасен для человечества
24.05.2024 [13:45],
Павел Котов
Бывшая сотрудница OpenAI Гретхен Крюгер (Gretchen Krueger) сообщила, что 14 мая ушла из компании в связи с опасениями, что разрабатываемый OpenAI искусственный интеллект может представлять угрозу для человечества. Это «непростое решение» она приняла незадолго до того, как о своём уходе объявили Илья Суцкевер (Ilya Sutskever) и Ян Лейке (Jan Leike), которые руководили ныне расформированным подразделением Superalignment. «Я подала в отставку за несколько часов до того, как услышала новости об [Илье Суцквере] и [Яне Лейке], и приняла своё решение независимо. Их опасения я разделяю. У меня также есть другие и частично совпадающие опасения», — написала Крюгер в соцсети X. По её словам, компании необходимо проделать работу по улучшению «процессов принятия решений; подотчётности; прозрачности; документации; обеспечения соблюдения политик; осторожности в применении наших собственных технологий; и сокращения воздействия на неравенство, права и окружающую среду». Крюгер, которая работала специалистом по разработке политик исследования, заявила, что эти опасения разделяет общественность — они «могут влиять на то, как и кем могут определяться аспекты будущего», и эти опасения не следует «неправильно воспринимать как узкие, спекулятивные или не имеющие отношения» к созданию и работе ИИ. «Один из способов, которым технологические компании могут обезоружить тех, кто пытается привлечь их к ответственности, — посеять раскол между теми, кто выражает обеспокоенность или бросает вызов их доминированию. Я крайне озабочена тем, чтобы это предотвратить», — отметила Крюгер. Покинувшие на минувшей неделе OpenAI главный научный сотрудник и соучредитель компании Илья Суцкевер и исполнительный директор Ян Лейке возглавляли подразделение Superalignment — оно разрабатывало меры безопасности, предотвращающие выход сильного ИИ (AGI) из-под контроля. По словам Лейке, компания ставила «блестящие продукты» выше мер безопасности: отделу Superalignment приходилось бороться за ресурсы, а выполнять свою работу ему становилось всё труднее. Тёмная сторона OpenAI: руководство угрожало бывшим работникам потерей акций, если они будут критиковать компанию
24.05.2024 [13:24],
Павел Котов
Желающих покинуть компанию бывших сотрудников OpenAI вынуждали в кратчайшие сроки подписывать обязательство никогда не выступать с критикой организации, сообщило неделю назад издание Vox. В случае отказа сделать это бывшим сотрудникам грозила потеря акций OpenAI. В руководстве компании попытались откреститься от этой практики, но документы свидетельствуют об обратном. К настоящему моменту OpenAI, по её утверждению, всё-таки пересмотрела это правило. Публикация недельной давности вызвала среди действующих сотрудников OpenAI бурю эмоций. Как и многие другие стартапы Кремниевой долины, компания часто выплачивает значительную часть зарплаты в виде акционерного капитала — ранее её работники предполагали, что при передаче им акций в порядке трудового договора эти ценные бумаги становятся их собственностью и не подлежат изъятию, так же, как и выплаченная зарплата. На следующий день после выхода статьи гендиректор OpenAI Сэм Альтман (Sam Altman) опубликовал заявление, заверив, что не знал об этом положении вещей, и что в будущем он не допустит такой несправедливости. Директор по стратегии OpenAI Джейсон Квон (Jason Kwon) дополнительно опубликовал внутреннее сообщение, адресованное сотрудникам компании — по его словам, данное положение действовало с 2019 года, но руководству стало известно о нём около месяца назад, и всю ответственность за инцидент он взял на себя. Но существуют документы за подписями как Квона, так и самого Альтмана, опровергающие, что руководство OpenAI пребывало в неведении по данному вопросу. В частности, есть письмо за подписью Квона и вице-президента по кадрам Дианой Юн (Diane Yoon), которая и сама недавно покинула OpenAI, гласящее: «Если у вас есть какие-либо принадлежащие вам паи, <..> вы должны подписать соглашение об отказе от претензий в течение 60 дней, чтобы сохранить такие паи». Существует также жёсткое соглашение о неразглашении, подписанное только для «согласования» уже переданного бывшему сотруднику акционерного капитала операционным директором Брэдом Лайткэпом (Brad Lightcap). Учредительные документы управляющей акциями OpenAI холдинговой компании содержат множество фрагментов с формулировками, согласно которым она имеет практически неограниченные полномочия по изъятию акций у бывших сотрудников или блокированию их продажи — это подтверждают документы, переданные Vox бывшими сотрудниками OpenAI. Эти учредительные документы были подписаны 10 апреля 2023 года лично Сэмом Альтманом — генеральным директором OpenAI. В ответ на запрос издания о том, могли ли эти положения попасть в учредительные документы без ведома Альтмана, и если да то, каким образом, в компании прямого ответа не дали. Но господин Квон заявил: «Мы сожалеем о страданиях, которые это причинило прекрасным людям, усердно работавшим на нас. Мы работаем над тем, чтобы исправить это как можно скорее. Мы будем стараться ещё сильнее, чтобы стать лучше». Бывшие сотрудники OpenAI предоставили Vox большой объём документов, в которых прослеживается закономерность — их действительно вынуждали подписывать крайне жёсткое соглашение о недискредитации и неразглашении под угрозой аннулирования их акционерного капитала. В двух случаях срок рассмотрения направленных OpenAI длинных и сложных документов об уходе истекал через семь дней, то есть у бывших сотрудников была неделя, чтобы решить, примут ли они навязываемые им правила игры или рискнут потерять миллионы долларов. Когда такие бывшие сотрудники просили дополнительное время для обращения за юридической помощью, их ждало серьёзное противодействие со стороны компании. «Общее соглашение о расторжении и освобождении от обязательств (General Release and Separation Agreement) требует вашей подписи в течение семи дней. Хотим убедиться, что вы понимаете: если вы не подпишете договор, это может повлиять на ваш капитал. Это действительно для всех, и мы просто делаем всё по регламенту», — предупредил по электронной почте представитель OpenAI бывшего сотрудника, который попросил две недели на изучение документа. Журналисты Vox обратились к экспертам в области трудового права с просьбой оценить законность и соответствие отраслевой практике таких положений — один из адвокатов охарактеризовал угрозу изъятия уже переданного капитала «вопиющей и необычной». Некий увольняющийся сотрудник решил поупорствовать, и в отношении него руководство OpenAI применило альтернативные «средства юридического возмездия». Этот сотрудник отказался подписать соглашение в первой редакции и обратился за помощью к юристу — тогда компания изменила тактику: она пригрозила не аннулировать его долю, а запретить её продажу. «Если у вас есть какие-либо паи, и вы не подписываете документов об увольнении, важно понимать, что, помимо прочего, вы не получите права участвовать в будущих тендерных предложениях и других мероприятиях по ликвидности, которые мы можем спонсировать или содействовать им как частная компания», — заявили в OpenAI. То есть в случае отказа подписывать соглашение бывший сотрудник мог лишиться возможность продать свой акционерный капитал. Это не пустая угроза на грани законности, предполагающая фактическое изъятие частной собственности у бывших сотрудников на усмотрение компании. Здесь в игру вступают особенности статуса OpenAI как частной компании. В публичной компании вроде Google акционерный капитал представляет собой просто ценные бумаги. Сотрудники получают зарплату частично в виде денежных средств и частично в виде акций Google, которые они могут держать или свободно продавать на фондовом рынке как любой акционер. В закрытых частных компаниях вроде OpenAI сотрудники так же получают зарплату частично в виде акций или чаще опционов за их покупку по низким ценам, но затем им приходится ожидать, когда появится возможность продать эти акции — и такая возможность может не появиться вообще. Крупные частные компании иногда объявляют «тендерные предложения», на которых действующие и бывшие сотрудники могут продать свой акционерный капитал. Их проводит и OpenAI, но их порядок держится в строжайшем секрете. Угрожая бывшему сотруднику лишением доступа к тендерным предложениям, компания фактически ставит миллионный капитал в зависимость от факта подписания сотрудником соглашения об уходе, при этом честно заявляя, что своей собственности он не лишается. Бывшие сотрудники OpenAI, с которыми удалось побеседовать Vox, выражали беспокойство, что компания могла давать любые публичные заявления, но в реальности её учредительные документы предусматривают множество рычагов воздействия на работников, и отказ от какого-либо одного варианта не вселяет надежды. В них, в частности, говорится, что «по единоличному и абсолютному усмотрению компании» пакет акций любого увольняемого сотрудника может быть сокращён до нуля. Существует и положение, в котором говорится, что компания оставляет за собой полное право определять, кому из сотрудников разрешается участвовать в тендерных предложениях для продажи своей доли. Первоначальное заявление Альтмана подверглось критике — есть мнение, что на практике он сделал недостаточно для того, чтобы исправить ситуацию для бывших сотрудников. Но компания направила в Vox заявление по электронной почте, заверив, что соответствующие положения документов прекратят действовать. «Как мы рассказали сегодня сотрудникам, мы вносим важные изменения в процесс увольнения. Мы не изымали и никогда не будем изымать принадлежащий [им] капитал, даже если люди не подписывали документов об увольнении. Мы исключим положения о недискредитации из наших стандартных документов при увольнении и освободим бывших сотрудников от действующих обязательств о недискредитации, если только положение о недискредитации не было взаимным. Мы передадим это сообщение бывшим сотрудникам. Сожалеем, что меняем эти формулировки только теперь; это не отражает наших ценностей или [образа] компании, которой мы хотим быть», — заявили в OpenAI. Гендиректор OpenAI: современный ИИ будет выглядеть неловко на фоне GPT-5
23.05.2024 [17:55],
Павел Котов
Гендиректор OpenAI Сэм Альтман (Sam Altman) в недавнем интервью намекнул, что модель искусственного интеллекта нового поколения GPT-5 настолько превзойдёт существующие решения, что GPT-4 будет выглядеть «слегка неловко». OpenAI пока не сообщила, когда выпустит очередную модель ИИ серии GPT, но когда это произойдёт, все предыдущие окажутся в крайне невыгодном положении. С момента выпуска популярного ныне чат-бота ChatGPT разработчик оказался в авангарде отрасли ИИ. С тех пор компания выпустила множество других продуктов с ИИ, последним из которых стала модель GPT-4o, которая в сравнении с предшественницами намного лучше справляется с написанием программного кода, а также демонстрирует способность рассуждать, одинаково хорошо воспринимая текст, изображения и звук. Сегодня это впечатляет, но, подчёркивает разработчик, это ничто в сравнении с GPT-5. В недавнем интервью Сэм Альтман коснулся перспективных разработок в области ИИ, заявив, что новая модель может быть похожа на «виртуальный мозг», демонстрируя «более глубокие „мыслительные“ способности». На её фоне GPT-4 будет выглядеть «слегка неловко», поскольку новая нейросеть значительно более мощная, функциональная и «разумная». Альтман также уверен, что GPT-5 станет значительным шагом на пути к появлению сильного ИИ (AGI), соответствующего или превосходящего человеческие возможности в широком круге задач. OpenAI за $250 млн купила доступ к материалам The Wall Street Journal, New York Post и The Daily Telegraph для обучения ИИ
23.05.2024 [10:55],
Павел Котов
OpenAI заключила лицензионное соглашение с News Corp — медиакомпанией, в которую входят такие издания как The Wall Street Journal, New York Post и The Daily Telegraph. Сделка может обойтись разработчику искусственного интеллекта в $250 млн за ближайшие пять лет «в виде денежных средств и кредитов за использование технологий OpenAI». В рамках многолетнего соглашения OpenAI получит доступ к архивным и актуальным публикациям изданий News Corp — эти материалы будут использоваться для обучения ИИ и ответов на вопросы пользователей. Ранее OpenAI заключила аналогичные соглашения с другими крупными изданиями: Associated Press, Financial Times, с издателем Dotdash Meredith (владеет журналом People), с концерном Axel Springer (владеет Politico). Некоторые СМИ, однако, подали на OpenAI в суд, например, New York Times, New York Daily News, Chicago Tribune и The Intercept — они обвинили компанию и его партнёра Microsoft в нарушении авторских прав при обучении моделей ИИ на их материалах. В рамках нового лицензионного соглашения с News Corp компания OpenAI получит доступ и к таким изданиям как Barron’s, MarketWatch, Investor’s Business Daily, FN, Sunday Times, The Sun и The Australian. News Corp также поделится с новым партнёром «журналистским опытом» для «обеспечения высоких стандартов журналистики». |