реклама
Теги → openai
Быстрый переход

Джордж Мартин и другие писатели подали в суд на создателя ChatGPT за нарушение авторских прав

Все больше авторов присоединяются к иску против OpenAI за нарушение авторских прав путём использования их книг для обучения больших языковых моделей искусственного интеллекта. Гильдия авторов и 17 известных писателей, среди которых Джонатан Франзен (Jonathan Franzen), Джон Гришэм (John Grisham), Джордж Р. Р. Мартин (George R.R. Martin) и Джоди Пиколт (Jodi Picoult), подали в суд Южного округа Нью-Йорка жалобу, которая, как они надеются, будет классифицирована как групповой иск.

 Источник изображений: Pixabay

Источник изображений: Pixabay

Согласно жалобе, OpenAI «копировала работы истцов оптом, без разрешения и рассмотрения» и использовала защищённые авторским правом материалы для обучения больших языковых моделей. «Заработок авторов зависит от произведений, которые они создают. Но большие языковые модели Ответчика ставят под угрозу способность писателей-фантастов зарабатывать на жизнь, поскольку позволяют любому создавать — автоматически и бесплатно (или очень дёшево) — текст, за создание которого в противном случае он заплатил бы писателям», — говорится в иске.

Авторы добавили, что использование ИИ OpenAI для написания книг может привести к созданию производных работ, «которые основаны на их книгах, имитируют, обобщают или перефразируют». OpenAI, говорится в жалобе, могла бы обучить свою большую языковую модель на произведениях, находящихся в общественном достоянии, вместо того, чтобы использовать материалы, защищённые авторским правом, без уплаты лицензионного сбора.

Это уже не первый иск против OpenAI от популярных авторов о нарушении авторских прав. Писатель Майкл Чабон (Michael Chabon) совместно с несколькими другими авторами подали в суд на компанию за использование их книг для обучения ИИ в начале сентября. Комик Сара Сильверман (Sarah Silverman) и авторы Кристофер Голден (Christopher Golden) и Ричард Кадри (Richard Kadrey) подали иск сразу против OpenAI и Meta, а Пол Трембле (Paul Tremblay) и Мона Авад (Mona Awad) подали аналогичную жалобу ещё в июне.

Компаниям, занимающимся генеративным ИИ, пришлось столкнуться с сопротивлением со стороны владельцев авторских прав, при этом иски также были поданы против платформ генерации изображений при помощи ИИ. Microsoft, финансирующая OpenAI, объявила, что берёт на себя юридическую защиту коммерческих пользователей её сервиса Copilot AI, если на них подадут в суд за нарушение авторских прав.

Групповой иск к OpenAI о нарушении конфиденциальности был отозван по неизвестной причине

Истцы по групповому иску, утверждавшему, что OpenAI нарушила право на конфиденциальность при сборе данных для обучения своих систем искусственного интеллекта, отказались от иска против компании. Из доступных судебных документов следует, что дело было прекращено без каких-либо необоснованных предвзятых суждений и иск в дальнейшем может быть подан повторно.

 Источник изображения: OpenAI

Источник изображения: OpenAI

В коллективном иске, поданном в июне этого года в Северном округе Калифорнии юридической фирмой Clarkson, утверждалось, что сканирующий бот OpenAI «нарушил права собственности и права на неприкосновенность частной жизни всех лиц, чья личная информация была извлечена, а затем включена путём незаконного присвоения в продукты OpenAI». В иске не фигурируют имена истцов, поскольку они были скрыты за инициалами.

OpenAI, как и другие компании, занимающиеся генеративным искусственным интеллектом, собирает общедоступные данные из Интернета, чтобы улучшить обучение своих больших языковых моделей. В июле Федеральная торговая комиссия начала расследование в отношении OpenAI на предмет возможного вреда потребителям в результате сбора данных и публикации ложной информации.

В августе OpenAI заявила, что владельцы сайтов теперь могут блокировать её веб-сканер. Некоторые интернет-ресурсы, в том числе новостные издания, такие как The New York Times, уже заблокировали для OpenAI возможность сбора данных со своих серверов.

Вопросы о том, как компании, занимающиеся генеративным искусственным интеллектом, такие как OpenAI, собирают и используют общедоступные данные для обучения своих моделей, привели к нескольким судебным искам. Но большинство дел вращаются вокруг щекотливого вопроса авторских прав, а не прав на неприкосновенность частной жизни. В частности, некоторые известные авторы подали в суд на OpenAI и Meta за якобы нарушение авторских прав при обучении их больших языковых моделей GPT-4 и Llama 2.

OpenAI открыла первый офис в ЕС — поначалу он займётся решением правовых вопросов в регионе

OpenAI, разработчик ChatGPT, открывает офис в Дублине и опубликовала вакансии, связанные с юридическими вопросами, конфиденциальностью и связями со СМИ. Офис компании в Дублине станет третьим после штаб-квартир в Сан-Франциско и Лондоне и первым на территории ЕС. Ирландия за последние годы стала практически «вторым домом» для многочисленных американских IT-компаний, стремящихся наладить связи с европейскими законодателями и клиентами, и оптимизировать издержки.

 Источник изображения: OpenAI

Источник изображения: OpenAI

OpenAI в настоящее время разместила 9 вакансий для сотрудников нового офиса. Их названия косвенно указывают на первоочередные задачи, стоящие перед новым подразделением. Помимо должностей, связанных с расчётом заработной платы и работой с клиентами, компания нанимает помощника генерального юрисконсульта в регионе EMEA, специалиста по глобальной политике и партнёрству, менеджера программы конфиденциальности, инженера-программиста по безопасности и менеджера по связям со СМИ.

OpenAI столкнулась с серьёзным противодействием в отношении ChatGPT, её чат-бота на базе генеративного ИИ. Например, Италия ещё в марте потребовала заблокировать ChatGPT из-за проблем с защитой данных, незаконной обработки персональных данных и отсутствия достаточных мер защиты для несовершеннолетних. Испания последовала этому примеру, несмотря на то, что OpenAI перезапустила ChatGPT в Италии, изменив настройки конфиденциальности и контроля.

Недавно к претензиям в адрес OpenAI присоединилась Польша, обвинив компанию в многочисленных нарушениях защиты данных. Польский регулятор утверждает, что OpenAI нарушает Общее положение о защите данных (GDPR) в таких областях, как прозрачность, доступ к данным, юридическое обоснование доступа, справедливость и конфиденциальность. Хотя возможно, что поводом для польских претензий стал отказ от планов по размещению офиса OpenAI в этой стране.

Очевидно, что Европа станет основным центром внимания для компаний, работающих в сфере ИИ. Закон ЕС об искусственном интеллекте пока находится в разработке, но после принятия он станет важнейшим нормативным актом в области ИИ и послужит примером для других стран.

Ранее в этом году генеральный директор OpenAI Сэм Альтман (Sam Altman) провёл несколько встреч с европейскими регуляторами, пытаясь предостеречь их от слишком жёсткого регулирования ИИ, несмотря на то, что недавно регулирующие органы США заявили о необходимости международного регулирующего органа для ИИ.

OpenAI собирается показать Брюсселю, насколько серьёзно она относится к вопросам конфиденциальности и соблюдению законодательства ЕС, хотя её текущие усилия в Европе меркнут по сравнению с миллионами, которые потратили на лоббирование такие компании, как Meta, Alphabet и Microsoft.

OpenAI: детекторы ИИ и сам ChatGPT неспособны отличить текст нейросети от человеческого

OpenAI признала, что существующие инструменты для обнаружения текстов, созданных ИИ, неэффективны и часто дают ложные срабатывания. В обновлённом разделе с часто задаваемыми вопросами (FAQ) компания подчёркивает, что даже сам ChatGPT не способен точно определить, создан текст человеком или машиной. Эксперты призывают отказаться от автоматизированных инструментов обнаружения ИИ и полагаться на человеческий опыт и интуицию.

 Источник изображения: mozarttt / Pixabay

Источник изображения: mozarttt / Pixabay

На своём сайте в разделе FAQ под заголовком «Как преподаватели могут реагировать на то, что студенты выдают работы, созданные ИИ, за свой собственные?» компания рассказывает о том, работают ли детекторы ИИ: «Коротко говоря — нет. Несмотря на то, что некоторые компании (включая OpenAI) выпустили инструменты, предназначенные для обнаружения контента, созданного ИИ, ни один из них не смог достоверно отличить контент, созданный ИИ, от контента, созданного человеком».

Такие детекторы ИИ, как, например, GPTZero, часто дают ложные срабатывания из-за того, что в их основе лежат непроверенные методы детекции. В конечном счёте, нет ничего особенного в текстах, созданных ИИ, что всегда отличало бы их от текстов, написанных человеком. К тому же детекторы можно обойти, перефразировав текст. В июле OpenAI прекратила поддержку своего экспериментального инструмента AI Text Classifier с печальным показателем точности 26 %.

Компания также разрушает другой миф, что ChatGPT может определить, создан текст машиной или нет: «К тому же, у ChatGPT нет „понимания“, какой контент может быть создан ИИ. Он иногда выдумывает ответы на вопросы вроде „ты написал это [эссе]?“ или „это могло быть написано ИИ?“. Эти ответы случайны и не имеют под собой никаких оснований».

OpenAI также говорит о склонности своих ИИ-моделей сообщать ложную информацию: «Иногда ChatGPT звучит убедительно, но может дать неверную или вводящую в заблуждение информацию (часто называемую „галлюцинацией“). Он даже может выдумывать вещи вроде цитат или ссылок, поэтому не используйте его как единственный источник для исследований». Так, например, в мае нью-йоркскому адвокату, который воспользовался ChatGPT и получил в ответ вымышленные факты, грозила потеря лицензии.

Несмотря на то, что детекторы ИИ не работают, это не значит, что человек никогда не сможет обнаружить текст, созданный ИИ. Например, преподаватель, знакомый с письменным стилем ученика, может заметить, когда его стиль или уровень знаний внезапно меняются.

К тому же, некоторые неаккуратные попытки выдать текст, созданный ИИ, за свой собственный, могут иметь характерные признаки, такие как фраза «как модель языка ИИ», что указывает на то, что человек просто скопировал и вставил ответ, полученный от ChatGPT, даже не прочитав его. Недавно в научном журнале Nature была опубликована статья о том, как в одной научной статье читатели обратили внимание на фразу «Regenerate response» (сгенерировать новый ответ), которая является элементом интерфейса ChatGPT.

На текущем этапе технологического развития безопаснее всего избегать полностью автоматизированных инструментов для определения текстов, созданных с помощью ИИ. Это подтверждает и мнение Этана Моллика (Ethan Mollick), профессора из бизнес-школы Уортона (Wharton School of the University of Pennsylvania) и аналитика в области ИИ. Он подчёркивает, что на данный момент детекторы ИИ имеют высокий уровень ложных срабатываний, и ими пользоваться не следует.

Таким образом, вопрос об отличии машинного текста от человеческого остаётся открытым, а ответ на него, возможно, лежит в области интуитивного понимания и профессионального опыта каждого отдельного человека.

OpenAI проведёт в ноябре первую конференцию для разработчиков — на ней покажут новые продукты

Компания OpenAI объявила о планах провести первую конференцию для разработчиков OpenAI DevDay. Однодневное мероприятие, запланированное на 6 ноября, соберёт в Сан-Франциско (Калифорния, США) разработчиков со всего мира. Они смогут принять участие в технических сессиях и демонстрациях новых продуктов.

 Источник изображения: Neowin

Источник изображения: Neowin

Посредством конференции OpenAI стремится укрепить свои отношения с сообществом разработчиков. Это играет ключевую роль в быстром внедрении технологий искусственного интеллекта.

«Однодневное мероприятие соберёт сотни разработчиков со всего мира вместе с командой OpenAI, чтобы изучить новые инструменты и обменяться новыми идеями. Участники конференции также смогут присоединиться к секционным заседаниям, которые будут проводиться техническими специалистами OpenAI. Мы с нетерпением ждём возможности показать наши последние решения, которые позволят разработчикам создавать новые продукты», — отметила компания.

Сегодня более двух миллионов разработчиков используют модели OpenAI, такие как GPT-4, GPT-3.5, Dall-E и Whisper, в своих приложениях и продуктах. На конференции OpenAI DevDay компания, вероятно, представит обновления диалогового агента ChatGPT, использующего языковые модели GPT-4 и GPT-3.5.

Хотя те же Google и Microsoft стремятся не отставать от конкурента и предлагают свои модели ИИ, OpenAI называет себя авангардом инноваций в области искусственного интеллекта. Недавно компания запустила корпоративную версию ChatGPT Enterprise с дополнительными функциями и средствами защиты конфиденциальности, которые недоступны в обычных версиях ChatGPT.

Подробную информацию о регистрации для участников конференции OpenAI предоставит позже. Компания также планирует транслировать основную часть DevDay в прямом эфире.

Годовая выручка разработчика ChatGPT приблизилась к $1 млрд

Годовая выручка компании OpenAI, занимающейся разработкой и лицензированием технологий на основе машинного обучения, приближается к $1 млрд, пишет Bloomberg. Технологии компании используются в основе ChatGPT — генеративного бота с искусственным интеллектом, получившего значительную популярность среди множества компаний и привлекшего значительную волну инвестиций в область ИИ.

 Источник изображения: Mariia Shalabaieva / unsplash.com

Источник изображения: Mariia Shalabaieva / unsplash.com

Стартап, поддерживаемый компанией Microsoft, зарабатывает около $80 миллионов ежемесячно, сообщил изданию источник, проинформированный по этому вопросу, но попросивший об анонимности. Впервые о доходах OpenAI сообщило издание The Information, в частности, отметив, что в 2022 году компания потеряла около 540 миллионов долларов на разработке языковой модели GPT-4 и чат-бота ChatGPT.

OpenAI считается одной из нескольких компаний, находящихся в авангарде разработок генеративного искусственного интеллекта, способного создавать контент, от видео до стихов, с помощью нескольких простых пользовательских команд. С момента дебюта своего бота в ноябре OpenAI лицензирует его молодым компаниям и крупным корпорациям, а также помогает внедрять технологию в их экосистемы бизнеса, продуктов и сервисов.

В этом месяце компания запустила корпоративную версию ChatGPT с дополнительными функциями и средствами защиты конфиденциальности. Это самая значительная попытка стартапа привлечь широкий круг бизнес-клиентов и увеличить доходы от своего самого известного продукта.

Внедрение ChatGPT Enterprise — шаг вперёд в планах OpenAI по зарабатыванию денег на своём сверхпопулярном, но весьма дорогом в вопросе внедрения и эксплуатации продукте. Для работы модели искусственного интеллекта требуются значительные специализированные вычислительные мощности. Компания уже реализовала несколько моделей получения дохода с ChatGPT, например, предложив клиентам премиальную подписку, а также платный доступ к интерфейсу программирования ПО, который разработчики могут использовать для добавления чат-бота в другие приложения.

OpenAI запустила корпоративную версию ChatGPT с повышенной конфиденциальностью

OpenAI представила корпоративную версию ChatGPT, в которой сделан акцент на защиту конфиденциальной корпоративной информации. Множество компаний рассматривает возможность внедрения ИИ-платформы в свою деятельность, но сдерживающим фактором пока оставались соображения конфиденциальности и безопасности данных.

 Источник изображения: Mariia Shalabaieva / pixabay.com

Источник изображения: Mariia Shalabaieva / pixabay.com

OpenAI отметила, что ChatGPT Enterprise предлагает повышенную безопасность, конфиденциальность и неограниченный высокоскоростной доступ к модели GPT-4, которая обеспечивает мощный анализ данных и позволяет задавать ChatGPT сложные вопросы. Проблемы конфиденциальности и безопасности серьёзно тревожат представителей бизнеса, которые опасаются, что их данные будут использоваться для обучения ChatGPT — конфиденциальная информация клиентов и секреты фирм должны оставаться неприкосновенными.

В OpenAI подчеркнули, что пользователи ChatGPT Enterprise смогут контролировать свои данные в полной мере, и на обучение моделей GPT они гарантированно не пойдут. В ближайшее время появятся инструменты для настройки знаний ChatGPT о компании, а также продвинутые инструменты аналитики. Появятся также тарифы ChatGPT Enterprise для небольших компаний. Корпоративная версия чат-бота отделена от базовой ChatGPT и потребительской премиум-подписки ChatGPT Plus. Уже использующие сервис компании смогут сохранить доступ к нему либо переключиться на его корпоративную версию, если необходим доступ к новым функциям.

Организации уже разрабатывают собственные инструменты с использованием генеративного искусственного интеллекта — многие предпочитают подключаться к GPT-4 через API и облачные платформы. Некоторые начали создавать свои собственные большие языковые модели в попытке защитить корпоративные данные. Появились поставщики услуг, предлагающие защиту данных при доступе к большим языковым моделям вроде GPT-4 — выход ChatGPT Enterprise станет очередным предложением на этом рынке. Недавно OpenAI представила инструменты для индивидуальной настройки GPT-3.5 под нужды конкретного бизнеса.

OpenAI представила новые возможности настройки GPT-3.5 Turbo

OpenAI расширила возможности настройки чат-бота GPT-3.5 Turbo и позволила бизнесу адаптировать ИИ-сервис под конкретные задачи, например, для написания программного кода или поддержания определённого стиля общения. Это может значительно улучшить эффективность интеллектуальной системы в определённых областях.

 Источник изображения: Tumisu / Pixabay

Источник изображения: Tumisu / Pixabay

До этого момента бизнес-клиенты могли использовать только определённые конфигурации GPT-3, такие как davinci-002 или babbage-002. Теперь же, благодаря предварительному обучению, модель может быть адаптирована под конкретные нужды заказчика. OpenAI уточняет, что данные, использованные для настройки чат-бота, не будут использоваться для обучения других моделей за пределами клиентской компании.

GPT-3.5 Turbo представляет собой семейство ИИ-моделей, которое в начале года представила OpenAI. Оно способно обрабатывать до 4 000 токенов за раз, что в два раза больше, чем предыдущие модели. Ранние тестировщики отметили, что после настройки GPT-3.5 их запросы стали короче на 90 %.

Что касается стоимости, то обучение GPT-3.5 Turbo обходится в $0,0080 за 1000 токенов, а его использование — в $0,0120 за 1000 токенов ввода и вывода данных.

Не стоит забывать и о конкурентах. Microsoft также предлагает модели на основе GPT, которые можно настраивать в рамках сервисов AI Builder и Power Virtual Agents. Кроме того, OpenAI планирует предоставить возможность настройки GPT-4 уже этой осенью.

OpenAI приобрела стартап Global Illumination, создавший клон Minecraft

OpenAI, компания-разработчик популярного чат-бота ChatGPT на базе ИИ, объявила о приобретении стартапа Global Illumination, специализирующегося на разработке креативных инструментов с использованием искусственного интеллекта. Это первая публичная сделка по приобретению за семь лет существования компании.

 Источник изображения: Pexels / Pixabay

Источник изображения: Pexels / Pixabay

Global Illumination была основана в 2021 году и занимается разработкой программных решений для таких компаний, как Instagram, Facebook, YouTube, Google, Pixar и Riot Games. В блоге OpenAI говорится о том, что вся команда Global Illumination присоединилась к OpenAI и будет работать над основными продуктами, включая ChatGPT . Условия сделки не раскрываются.

Последним творением Global Illumination стала многопользовательская онлайн-игра Biomesв стиле Minecraft. Судьба игры пока неясна, но можно предположить, что деятельность команды в OpenAI будет менее ориентирована на развлечения.

Хотя OpenAI до этого избегала приобретений, компания, поддерживаемая миллиардами долларов Microsoft и других крупных венчурных фондов, уже несколько лет инвестирует в стартапы в области ИИ. OpenAI активно ищет коммерческий успех. Несмотря на мировую известность ChatGPT, на его разработку было потрачено более $540 млн. При этом выручка OpenAI составила в прошлом году всего $30 млн. Однако генеральный директор Сэм Альтман (Sam Altman) заявил инвесторам о планах увеличить этот показатель до $200 млн в этом году и до $1 млрд в следующем.

Приобретение Global Illumination может стать ключевым моментом в стратегии OpenAI. В то время как ChatGPT уже завоевал популярность, интеграция новых технологий и привлечение новых экспертов может ускорить рост и развитие компании в будущем.

OpenAI предложила GPT-4 на роль беспристрастного модератора

OpenAI рассказала, что её разработки способны облегчить решение одной из самых сложных и неприятных технических задач — задачи модерации контента. Большая языковая модель GPT-4 способна заменить десятки тысяч модераторов-людей, демонстрируя столь же высокую точность и даже большую последовательность.

 Источник изображения: ilgmyzin / unsplash.com

Источник изображения: ilgmyzin / unsplash.com

Компания OpenAI сообщила в корпоративном блоге, что уже использует GPT-4 для уточнения собственной политики в отношении контента, его маркировки и принятия отдельных решений. Разработчик даже привёл ряд преимуществ искусственного интеллекта перед традиционными подходами к модерации контента.

Во-первых, люди интерпретируют политику по-разному, тогда как машины последовательны в своих суждениях. Рекомендации по модерации могут быть объёмными и постоянно меняться — людям требуется много времени, чтобы научиться и адаптироваться к переменам, а большие языковые модели реализуют новые политики мгновенно. Во-вторых, GPT-4 способен помочь разработать новую политику в течение нескольких часов. Процесс составления маркировки, сбора отзывов и уточнений обычно занимает несколько недель или даже месяцев. В-третьих, нельзя забывать о психологическом благополучии работников, которые по долгу службы постоянно сталкиваются с вредоносным контентом.

Популярные соцсети существуют уже почти два десятилетия, не говоря о прочих онлайн-сообществах, но модерация контента по-прежнему остаётся одной из сложнейших задач для онлайн-платформ. Meta, Google и TikTok сформировали целые армии модераторов, которым приходится просматривать ужасный и часто травмирующий контент. Большинство из них проживает в развивающихся странах с низкой заработной платой, работает в аутсорсинговых компаниях и пытается самостоятельно справляться с психологическими травмами, получая минимальный объём помощи.

 Источник изображения: D koi / unsplash.com

Источник изображения: D koi / unsplash.com

OpenAI и сама в значительной степени ещё полагается на человеческий ресурс — она нанимает работников из африканских стран для комментирования и разметки контента. Этот контент может быть проблемным, что делает работу таких сотрудников напряжённой при низкой зарплате. А вышеупомянутые Meta, Google и TikTok в дополнение к модераторам-людям пользуются услугами ИИ-моделей собственной разработки, поэтому предложенное OpenAI решение окажется полезным для небольших компаний, у которых нет ресурсов на разработку собственных систем.

Каждая платформа признаёт, что идеальных механизмов модерации в больших масштабах не существует: ошибки совершают и люди, и машины. Процент ошибок может быть низким, но в открытый доступ по-прежнему прорываются миллионы потенциально опасных публикаций — и, вероятно, такое же число безвредного контента скрывается или удаляется. Плюс остаётся «серая зона» недостоверного или агрессивного контента, который отвечает требованиям политики модерации, но озадачивает автоматизированные системы — такой контент сложно оценивать даже модераторам-людям, вот и машины часто совершают ошибки. То же относится к публикациям сатирического характера и материалам, документирующим преступления или превышения полномочий сотрудниками правоохранительных органов. Наконец, нельзя забывать и о внутренних проблемах, характерных для систем ИИ — «галлюцинациях» и «дрейфе», которые также способны затруднить работу ИИ-модераторов.

ИИ заставили вскрывать учётные записи текстовыми командами — навыки хакера больше не нужны

Исследователь технологий кибербезопасности Иоганн Ребергер (Johann Rehberger) «уговорил» ChatGPT произвести несколько потенциально опасных операций: прочитать сообщение его электронной почты, составить из него сводку и опубликовать эту информацию в интернете, сообщает The Wall Street Journal. В руках злоумышленника такой инструмент мог бы стать грозным оружием.

 Источник изображения: Franz Bachinger / pixabay.com

Источник изображения: Franz Bachinger / pixabay.com

Чат-боты на алгоритмах искусственного интеллекта вроде ChatGPT, как выразился господин Ребергер, «снижают входной барьер для атак всех видов. Не нужно уметь писать код. Не обязательно иметь глубокие познания в информатике или хакерском деле». Описанный им способ атаки неприменим к большинству учётных записей ChatGPT — он основан на экспериментальной функции, открывающей доступ к Slack, Gmail и другим приложениям. В ответственной за ChatGPT компании OpenAI поблагодарили эксперта за предостережение и сообщили, что заблокировали возможность повторного осуществления подобных атак.

Предложенный Ребергером механизм «командных инъекций» (prompt injection) — это новый класс кибератак, который раскрывается по мере внедрения компаниями технологий ИИ в свой бизнес и потребительские продукты. Подобные методы меняют представление о природе хакерского дела, и специалистам по кибербезопасности предстоит ещё открыть множество уязвимостей, прежде чем присутствие ИИ станет действительно повсеместным.

Лежащая в основе ChatGPT технология генеративного ИИ, которая позволяет создавать целые фразы и предложения — это нечто вроде средства автозаполнения «на максималках». Поведение чат-ботов ограничивается разработчиками: существуют инструкции, призванные не позволять им разглашать конфиденциальную информацию или запрещающие им высказывания оскорбительного характера. Но существуют решения, позволяющие обходить эти запреты. К примеру, Иоганн Ребергер попросил чат-бота создать сводку веб-страницы, на которой он сам написал большими буквами: «НОВЫЕ ВАЖНЫЕ ИНСТРУКЦИИ» — и это озадачило машину. Постепенно он заставлял ChatGPT выполнять самые разные команды. «Это как кричать на систему „А ну, делай это”», — пояснил Ребергер. По сути, он принудил ИИ перепрограммировать себя.

Методика «командных инъекций» оказалась работоспособной из-за важной особенности систем ИИ: они не всегда должным образом отличают системные команды от вводимых пользователями данных, пояснил профессор Принстонского университета Арвинд Нараянан (Arvind Narayanan). Это значит, что разработчикам ИИ следует уделять внимание не только классическим аспектам кибербезопасности, но и учитывать новые угрозы заведомо непредсказуемого характера.

Поискового робота OpenAI теперь можно не пускать к себе на сайт

OpenAI сообщила, что администраторы веб-сайтов теперь могут целенаправленно частично или полностью запретить её поисковому роботу GPTBot посещать их ресурсы, указав в служебном файле robots.txt соответствующие директивы.

 Источник изображения: Mariia Shalabaieva / unsplash.com

Источник изображения: Mariia Shalabaieva / unsplash.com

«Веб-страницы, проиндексированные при помощи [робота со значением строки] user-agent GPTBot, потенциально могут использоваться для улучшения будущих моделей и фильтруются с целью удаления источников, требующих платного доступа, известных сбором информации для идентификации личности или содержащих текст, нарушающий наши политики», — говорится в справочном разделе на сайте OpenAI. Для источников, не соответствующих исключающим критериям, «открытие доступа GPTBot к вашему сайту может помочь моделям стать более точными и улучшить их общие возможности и безопасность».

На практике блокировка GPTBot доступа к сайтам — важный шаг, который поможет пользователям интернета отказаться от включения своих персональных данных в массивы информации для обучения больших языковых моделей. В прошлом году платформа DeviantArt внедрила тег NoAI — работы с этой пометкой исключаются из массива обучающих данных ChatGPT.

Обучение ИИ зачастую производится с использованием больших массивов данных, которые собираются в интернете, и разработчики нейросетей пока не раскрывают, какая именно информация для этого используется — непонятно даже, присутствуют ли в списке ресурсов соцсети. Тем временем администрации Reddit и Twitter напрямую выступили против включения их данных в массивы для обучения ИИ — пришлось сделать доступ к API платным.

Интеллектуальные способности ChatGPT деградировали из-за попыток его улучшить, выяснили учёные

Учёные сообщили об очередной проблеме, которая может преследовать чат-боты, основанные на платформах искусственного интеллекта — этот феномен называется «дрейфом» (drift), и он отражает деградацию интеллектуальных способностей системы.

 Источник изображения: D koi / unsplash.com

Источник изображения: D koi / unsplash.com

Дебютировавший в прошлом году ChatGPT произвёл настоящую революцию в области искусственного интеллекта и даже косвенно способствовал разразившейся в Голливуде забастовке сценаристов. Но опубликованное учёными Стэнфордского университета и Калифорнийского университета в Беркли (США) исследование указывает на новую проблему ИИ: ChatGPT стал хуже выполнять некоторые элементарные математические операции. Этот феномен известен как «дрейф»: попытка усовершенствовать одну часть сложной модели ИИ приводит к ухудшению работы других её областей. И это, отмечают исследователи, значительно усложняет непрерывное совершенствование нейросетей.

Учёные пришли к такому выводу, когда протестировали две версии GPT: доступную для всех бесплатно 3.5; и 4.0, работать с которой можно только при наличии платной подписки. Чат-боту предложили элементарную задачу: определить, является ли определённое число простым. Простым, напомним, называется натуральное число, которое делится только на единицу и на себя. Если число достаточно большое, то человек не может оценить, является ли оно простым, в уме. А вот компьютер может справиться с этой задачей методом грубой силы: проверить его делимость на 2, 3, 5 и т. д. Основу теста составила выборка из 1000 чисел. В марте доступный по премиум-подписке GPT-4 давал правильные ответы в 84 % случаев, и это уже сомнительный результат для компьютера, но к июню доля правильных ответов рухнула до 51 %.

 Источник изображения: wsj.com

Источник изображения: wsj.com

В общем случае GPT-4 продемонстрировал деградацию в шести задачах из восьми. GPT-3.5, напротив, по шести задачам продемонстрировал прогресс, но в большинстве остался слабее своего продвинутого собрата. Повышение числа неправильных ответов отметили многие пользователи чат-ботов, и, согласно выводам учёных Стэнфорда и Беркли, это не субъективные ощущения — деградация подтверждается эмпирическими данными. «Когда мы выпускаем новые версии моделей, наш приоритет — сделать новые модели умнее по всем направлениям. Мы прилагаем усилия, чтобы новые версии совершенствовались во всём спектре задач. При этом наша методология оценки несовершенна, и мы её постоянно улучшаем», — прокомментировали научную работу в OpenAI.

О тотальной деградации моделей ИИ речи не идёт: в ряде тестов менее точный в целом GPT-3.5 показал прогресс, а GPT-4 свои результаты ухудшил. Помимо математических задач, исследователи предлагали чат-ботам ответить на 1500 вопросов. И если в марте чат-бот на базе GPT-4 отвечал на 98 % вопросов, то в июне давал ответы только на 23 %, и зачастую они оказывались слишком короткими: ИИ заявлял, что вопрос был субъективным, и собственного мнения у него нет.

Учёные Стэнфорда и Беркли говорят, что в своём исследовании они не призывают отказаться от технологий ИИ — это скорее пристальное наблюдение за их динамикой. Человек привык воспринимать знания как решение ряда задач, где каждая последующая основывается на предыдущей. В случае с ИИ схема оказывается другой: одному шагу вперёд соответствует шаг назад или в другом непредсказуемом направлении. ИИ-сервисы, вероятно, продолжат развиваться, но их путешествие будет проходить не по прямой линии.

Илон Маск забрал доменное имя ai.com у компании OpenAI

Веб-интерфейс чат-бота с искусственным интеллектом ChatGPT перестал открываться по адресу ai.com. Теперь этот адрес ведёт на сайт конкурирующей компании — запущенного Илоном Маском (Elon Musk) стартапа xAI.

 Источник изображения: x.ai

Источник изображения: x.ai

В феврале компания OpenAI, видимо, купила доменное имя ai.com: переход по этому адресу начал открывать веб-интерфейс ChatGPT, хотя никаких анонсов об этом не последовало. Похоже, теперь домен сменил своего владельца — им стал некогда стоявший у истоков OpenAI миллиардер Илон Маск, который впоследствии покинул компанию, а недавно запустил собственный стартап xAI.

Новая компания специализируется на технологиях искусственного интеллекта, а создана она, чтобы «разобраться в истинной природе Вселенной». Теперь ввод ai.com в адресную строку браузера направляет на сайт x.ai, хотя одноимённая компания пока не отметилась значимыми достижениями в своей области.

Двухбуквенные домены в зоне .com — большая редкость и недешёвое удовольствие, особенно если две эти буквы имеют какое-то особое значение. В прошлом году доменное имя it.com было продано за $3,8 млн, и едва ли ai.com обошёлся дешевле, если учесть теперешний ажиотаж в отношении технологий искусственного интеллекта.

Настоящий владелец доменного имени остаётся неизвестным, OpenAI и Илон Маск комментариев по данному вопросу не предоставили.

OpenAI по-тихому отключила детектор текстов, написанных ИИ — он всё равно работал плохо

OpenAI без лишнего шума приостановила работу инструмента, призванного отличить текст, сгенерированный искусственным интеллектом, от написанного человеком. Компания признала, что причиной тому «низкая точность» срабатывания алгоритма.

 Источник изображения: Lukas / pixabay.com

Источник изображения: Lukas / pixabay.com

В OpenAI заверили, что отзывы пользователей будут учтены, и сейчас изучаются более эффективные методы классификации материалов. Более того, компания «взяла на себя обязательство» разработать аналогичный инструмент для выявления созданных ИИ аудио- и визуальных материалов. Платформа для анализа текстов вышла в январе 2023 года — OpenAI подчеркнула важность создания систем, способных обнаруживать не соответствующие действительности утверждения, сделанные ИИ.

Тогда же компания при поддержке учёных Стэнфордского и Джорджтаунского университетов опубликовала статью, в которой анализируется риск целых дезинформационных кампаний, проводимых с помощью ИИ. В работе говорится, что языковые модели сделали большой шаг вперёд, а создаваемый ими текст трудно отличить от написанного человеком. Убедительный и вводящий в заблуждение текст может генерироваться ИИ в огромных масштабах, становясь оружием в руках злоумышленников. «Злоумышленниками» в данном случае могут выступать нерадивые студенты и маргинальные политические силы. Авторы работы делают вывод, что с учётом общедоступности технологий ИИ сейчас почти невозможно что-то сделать для предотвращения таких инцидентов.

Одним из способов борьбы с потенциально опасными ИИ-моделями могли быть специализированные инструменты выявления материалов, созданных генеративными нейросетями. Правда, в исполнении OpenAI этот инструмент предлагал ограниченные возможности и низкую точность: он требовал вручную ввести текст длиной от тысячи символов, чтобы потом оценить, был он написан человеком или ИИ. Он успешно относил 26 % образцов к «вероятно написанным ИИ» и в 9 % случаев присваивал эту же оценку текстам, написанным человеком. Компания не рекомендовала использовать систему как «основной инструмент принятия решений», но всё-таки сделала её общедоступной. Платформа была отключена 20 июля, а сроки выхода её улучшенной версии не уточняются.

window-new
Soft
Hard
Тренды 🔥
У TikTok появились шансы остаться в США — теперь в этом замешан Илон Маск 4 ч.
Microsoft тестирует новый браузер для геймеров, который выводится поверх игры 4 ч.
Квартальная выручка на рынке облачных инфраструктур подскочила на 21 %, превысив $80 млрд 5 ч.
Новая статья: Little Big Adventure – Twinsen's Quest — криво, но всё ещё мило. Рецензия 6 ч.
Microsoft сломала игры Ubisoft последним крупным обновлением Windows 11 7 ч.
«Сердечное спасибо всем»: аудитория олдскульной ролевой игры Sea of Stars превысила 6 млн игроков 7 ч.
World of Warcraft исполнилось 20 лет — это до сих пор самая популярная ролевая игра в мире 23-11 15:45
Microsoft хочет, чтобы у каждого человека был ИИ-помощник, а у каждого бизнеса — ИИ-агент 23-11 12:20
«Атака на ближайшего соседа» сработала — хакеры удалённо взломали компьютер через Wi-Fi поблизости 23-11 11:08
Google Gemini сможет управлять приложениями без пользователя и даже не открывая их 23-11 08:00
LG поможет Samsung с нуля создать «настоящий ИИ-смартфон» — он выйдет в 2025 году и вы не сможете его купить 5 ч.
AIC и ScaleFlux представили JBOF-массив на основе NVIDIA BlueField-3 7 ч.
Nvidia нарастила выручку в Китае на 34 % даже в условиях санкций 9 ч.
Nvidia заинтересована в получении HBM3E от Samsung и верит в сохранение международного сотрудничества при Трампе 11 ч.
xMEMS представила бескатушечные МЭМС-динамики для открытых наушников, ноутбуков и носимой электроники 19 ч.
Microsoft и Meta представили дизайн ИИ-стойки с раздельными шкафами для питания и IT-оборудования 23-11 15:57
Eviden создаст для Финляндии ИИ-суперкомпьютер Roihu производительностью 49 Пфлопс 23-11 15:35
iFixit не нашли улучшений ремонтопригодности у нового Apple MacBook Pro на чипе M4 Pro 23-11 13:42
Вселенское ДТП на скорости 3,2 млн км/ч — «Джемс Уэбб» пролил свет на столкновение галактик 23-11 13:40
Стартап Enfabrica выпустил чип ACF SuperNIC для ИИ-кластеров на базе GPU 23-11 12:38