реклама
Теги → openai
Быстрый переход

В ответ на обвинения в воровстве контента OpenAI обвинила New York Times во взломе ChatGPT

OpenAI заявила в суде, что New York Times (NYT) «заплатила кому-то за взлом продуктов OpenAI», таких как ChatGPT, чтобы получить доказательства для подачи иска против OpenAI о нарушении авторских прав. OpenAI считает, что более ста примеров, в которых модель GPT-4 генерирует контент Times в качестве выходных данных не отражают обычного использования ChatGPT, а представляют собой «надуманные атаки наёмника», который добивался от чат-бота генерации фальшивого контента NYT.

 Источник изображения: pexels.com

Источник изображения: pexels.com

OpenAI обвинила NYT в «десятках тысяч попыток» получить эти «крайне аномальные результаты», «выявив и воспользовавшись ошибкой», которую сама OpenAI «стремится устранить». NYT якобы организовала эти атаки, чтобы собрать доказательства в поддержку утверждения, что продукты OpenAI ставят под угрозу журналистику, копируя авторские материалы и репортажи и тем самым отбирая аудиторию у NYT.

«Вопреки утверждениям [содержащимся в жалобе NYT], ChatGPT никоим образом не заменяет подписку на The New York Times, — заявила OpenAI в ходатайстве, направленном на отклонение большинства претензий NYT. — В реальном мире люди не используют ChatGPT или любой другой продукт OpenAI для этой цели. И не могут. В обычном мире невозможно использовать ChatGPT для предоставления статей Times по своему желанию».

 Источник изображений: unsplash.com

Источник изображений: unsplash.com

OpenAI отметила, что примеры в иске NYT цитируют не текущие материалы, которые подписчики Times могут прочитать на сайте Times, а гораздо более старые статьи, опубликованные до 2022 года. Это дополнительно ослабляет заявление NYT о том, что ChatGPT можно рассматривать как замену изданию.

«То, что OpenAI ошибочно называет "хакерством", — это просто использование продуктов OpenAI для поиска доказательств воровства и воспроизведения материалов NYT, защищённых авторским правом. И это именно то, что мы нашли. На самом деле масштаб копирования OpenAI гораздо больше, чем сто примеров, изложенных в жалобе», — парировали адвокаты NYT.

Юристы NYT сделали акцент на том, что OpenAI «не оспаривает и не может оспорить того, что они скопировали миллионы работ для создания и поддержки своих коммерческих продуктов без нашего разрешения». Позиция издания заключается в том, что создание новых продуктов не является оправданием для нарушения закона об авторском праве, и это именно то, что OpenAI сделала в беспрецедентных масштабах.

OpenAI заявила, что NYT в течение многих лет с энтузиазмом разрабатывала собственных чат-ботов, не опасаясь нарушения ими авторских прав. OpenAI сообщала об использовании статей NYT для обучения своих моделей ИИ ещё в 2020 году, но NYT обеспокоилась только после резко возросшей популярности ChatGPT в 2023 году. После этого NYT обвинила OpenAI в нарушении авторских прав и потребовала «коммерческих условий», а после нескольких месяцев обсуждений подала многомиллиардный иск.

OpenAI убеждает суд, что ему следует отклонить иски, направленные на защиту прямого авторского права в цифровую эпоху и игнорировать обвинения в незаконном присвоении, которые компания называет «юридически недействительными». У некоторых жалоб истёк срок давности, другие, по утверждению OpenAI, неправильно трактуют добросовестное использование или искажают требования федеральных законов.

Если это ходатайство OpenAI будет удовлетворено, в иске NYT останутся только претензии о косвенном нарушении авторских прав и размывании товарного знака. Но если NYT победит в суде (а вероятность этого не так уж мала), OpenAI, возможно, придётся буквально «стереть» ChatGPT и заново начать обучение моделей.

OpenAI утверждает, что NYT использовала вводящие в заблуждение подсказки, чтобы вынудить ChatGPT раскрыть обучающие данные. The Times якобы просила у чат-бота предоставить вступительный абзац конкретной статьи, а затем запрашивала «следующее предложение». Но даже эта тактика не поможет воссоздать статью целиком, а скорее выведет набор «разрозненных и неупорядоченных цитат». OpenAI считает, что NYT намеренно вводит суд в заблуждение, используя купюры и многоточие, чтобы скрыть порядок, в котором ChatGPT выдавал фрагменты репортажей, что создаёт ложное впечатление, что ChatGPT выводит последовательные и непрерывные копии статей.

OpenAI также отвергла примеры галлюцинаций ИИ предоставленных NYT, где модели ИИ изобретали на первый взгляд реалистичные статьи, которые содержали неверные факты и никогда не публиковались изданием. Поскольку ни одна из ссылок в этих фиктивных статьях не работала, OpenAI считает, что «любой пользователь, получивший такие выходные данные, сразу же распознает в них галлюцинацию».

OpenAI планирует исправить ошибки ИИ, но это будет возможно сделать только в случае победы в суде. OpenAI необходимо убедить суды во многих юрисдикциях в своей теории добросовестного использования текстов, защищённых авторским правом, что имеет решающее значение для развития её моделей ИИ. «Постоянная задача разработки ИИ — свести к минимуму и в конечном итоге устранить галлюцинации, в том числе за счёт использования более полных наборов обучающих данных для улучшения точности моделей», — заявили в OpenAI.

Адвокаты NYT полагают, что для OpenAI «незаконное копирование и дезинформация являются основными особенностями их продуктов, а не результатом маргинального поведения». По их словам, OpenAI «отслеживает запросы и результаты пользователей, что особенно удивительно, учитывая, что они утверждали, что не делают этого. Мы с нетерпением ждём возможности изучить эту проблему».

Разработчики больших языковых моделей всё чаще прибегают к лицензированию вместо обучения на общедоступных данных, чтобы избежать возможных обвинений в нарушении авторских прав. «Разработка технологий в соответствии с установленными законами об авторском праве является общеотраслевым приоритетом, — считает ведущий советник NYT Ян Кросби (Ian Crosby). — Решение OpenAI и других разработчиков генеративного ИИ заключать сделки с издателями новостей только подтверждает, что они знают, что их несанкционированное использование работ, защищённых авторским правом, далеко не справедливо».

К концу 2025 года Intel готова оснастить своими процессорами с ИИ до 100 млн ПК

Корпорация Intel не перестаёт тешить себя надеждами, что интерес пользователей ПК к теме искусственного интеллекта позволит ей в ближайшие два года увеличить поставки своих процессоров, оснащённых блоками аппаратного ускорения работы систем ИИ. В этом году Intel рассчитывает поставить процессоров для 40 млн таких ПК, а в следующем — ещё 60 млн штук.

 Источник изображения: Intel

Источник изображения: Intel

Таким образом, если прогнозы Intel сбудутся, то по итогам следующего года более 20 % поставленных на рынок центральных процессоров для ПК будут обладать возможностью локального ускорения работы систем искусственного интеллекта, и это без учёта поставок продукции конкурентов, коими можно считать не только AMD, но и Apple, а также Qualcomm. Подобными прогнозами на этой неделе поделился вице-президент Intel Дэвид Фэн (David Feng), отвечающий в компании за направление клиентских вычислений, по данным Nikkei Asian Review.

Представитель Intel подчеркнул, что в эпоху компьютеров с функциями ИИ важно не только поставлять сами процессоры с достойным уровнем быстродействия, но и обеспечивать пропорциональное развитие программной экосистемы за счёт непрерывного взаимодействия с разработчиками. «Сейчас продажа пользователям впечатлений является частью нашего бизнеса», — пояснил Дэвид Фэн. По его словам, сейчас Intel плотно взаимодействует с Microsoft, чтобы добиться эффективной поддержки процессоров Intel Core Ultra со встроенным нейронным сопроцессором (NPU) на уровне операционных систем Windows и разработанного Microsoft ИИ-ассистента Copilot. Его вызов пользователь ноутбука сможет осуществлять с помощью отдельной кнопки на клавиатуре. Вице-президент Intel надеется, что внедрение такого ассистента будет стимулировать обновление парка ПК корпоративными пользователями за счёт их стремления к повышению эффективности работы.

Intel привлекает и других партнёров к оптимизации ПО в соответствии с веяниям времени. Провайдеры услуг в сфере видеоконференций активно внедряют функции искусственного интеллекта для отслеживания взгляда пользователя или удаления заднего фона с его заменой на другую картинку. В сотрудничестве с Microsoft также реализуется функции перевода языка жестов с текст на английском, перевод с других языков в масштабе реального времени, а также автоматическое создание слайдов презентации на базе текстового описания. Intel также старается задействовать ресурсы NPU для работы с антивирусным ПО. Аналитики Counterpoint Research считают, что в текущем году рынок ПК может вернуться на уровни, характерные для периода до пандемии, во многом благодаря циклу обновления Windows, распространению процессоров с архитектурой Arm и развитию функций ускорения искусственного интеллекта.

VK запретила роботу Open AI собирать данные платформы «Дзен»

Контентная платформа «Дзен», принадлежащая VK, указала, что роботу GPTBot американской компании OpenAI (разработчик ИИ-бота ChatGPT) запрещено обходить страницы dzen.ru для сбора данных. Об этом пишет «Коммерсантъ» со ссылкой на данные относящегося к платформе файла robots.txt, который предназначен для программ по автоматическому сбору данных с веб-сайтов.

 Источник изображения: Pixabay

Источник изображения: Pixabay

В пресс-службе VK пояснили, что блокировка GPTBot осуществлена для снижения нагрузки на серверы «Дзена». «Рекомендательная система «Дзена» — одна из самых больших в стране. Высоконагруженные сервисы работают беспрерывно и обрабатывают более 150 тысяч запросов в секунду. Решение не включать GPTBot от OpenAI в файл принято для грамотного использования технического ресурса, чтобы не создавать дополнительную нагрузку. В «Дзене» регулярно создаются миллионы новых публикаций: как в текстах, так и видеоформате, — мы направляем ресурсы на то, чтобы обеспечить качественный опыт нашим пользователям и авторам», — сообщили в VK.

Напомним, файл robots.txt носит рекомендательный характер и технически роботы могут его игнорировать. Что касается GPTBot, то он используется для сбора информации, которая в дальнейшем применяется в процессе обучения нейросетей OpenAI. Американская компания не предоставляет доступ к ним из России, а также заблокировала для россиян доступ к своему сайту.

У OpenAI вновь не получилось зарегистрировать аббревиатуру GPT в качестве товарного знака

Попытка OpenAI зарегистрировать аббревиатуру GPT в качестве товарного знака вновь потерпела неудачу, пишет ресурс The Verge. Бюро по патентам и товарным знакам США (USPTO) отклонило заявку OpenAI, объяснив отказ в регистрации тем, что термин GPT, означающий Generative Pre-trained Transformer или генеративный предварительно обученный трансформер, слишком общий для регистрации и может помешать конкурентам правильно описывать свои продукты как GPT.

 Источник изображения: Tumisu/Pixabay

Источник изображения: Tumisu/Pixabay

Ранее OpenAI просила ведомство ускорить процедуру рассмотрения заявки, но получила отказ в связи с отсутствием надлежащих документальных доказательств необходимости ускоренного рассмотрения этого вопроса.

В решении USPTO от 6 февраля указано, что не имеет значения, если потребители не знают, что означает GPT, поскольку использующие эту технологию понимают, что GPT относится к общему типу программного обеспечения, а не только к продуктам OpenAI.

С появлением технологии генеративного ИИ многие сервисы в сфере ИИ добавили аббревиатуру GPT в названия своих продуктов. Также компании нередко называют свои основополагающие ИИ-модели как GPT.

По данным ресурса Gizmodo, это не первый раз, когда ведомство отклоняет заявку OpenAI на регистрацию товарного знака GPT — впервые это произошло в мае 2023 года. У компании осталась ещё одна возможность зарегистрировать товарный знак, подав апелляцию в Совет по рассмотрению споров и апелляций по товарным знакам (Trademark Trial and Appeal Board, TTAB).

Сэм Альтман добивается от властей США поддержки проекта по расширению глобального производства чипов ИИ

Глава OpenAI Сэм Альтман (Sam Altman) намерен заручиться поддержкой властей США в проекте по ускорению глобального производства ИИ-чипов. Он уже провёл ряд встреч с потенциальными инвесторами и партнёрами в США, на Ближнем Востоке и в Азии в течение последних нескольких недель. Инициатива Альтмана может вызвать, если уже не вызвала, обеспокоенность Вашингтона по поводу национальной безопасности и антимонопольного законодательства.

 Источник изображения: Bloomberg

Источник изображения: Bloomberg

Альтман пытается убедить чиновников США в необходимости ускорения производства полупроводников за счёт масштабного привлечения финансирования, в том числе от инвесторов с Ближнего Востока. Он стремится собрать миллиарды долларов для резкого увеличения мировых производственных мощностей по выпуску передовых компьютерных чипов. Альтман опасается, что дефицит чипов ИИ помешает широкомасштабному внедрению ИИ и дальнейшему развитию этой области.

TSMC, Intel и Samsung являются основными компаниями, производящими такие чипы, и, следовательно, потенциальными партнёрами в инициативе Альтмана. По сообщениям СМИ, в этом году он уже встретился с руководителями Samsung, SK hynix и TSMC. Также сообщается, что Альтман провёл ряд переговоров о потенциальных инвестициях с ближневосточными суверенными фондами благосостояния, в том числе из Объединённых Арабских Эмиратов.

Несмотря на состоявшиеся встречи, Альтман однозначно дал понять, что считает необходимым совместно работать с правительством США над разработкой, согласованием, сроками и структурой проекта. По словам источников, он уже обсуждал свой проект с министром торговли Джиной Раймондо (Gina Raimondo) и другими чиновниками, а представители министерства торговли провели ряд совещаний относительно планов OpenAI по привлечению инвесторов с Ближнего Востока.

 Источник изображения: OpenAI

Источник изображения: OpenAI

«OpenAI провела продуктивные дискуссии о расширении глобальной инфраструктуры и цепочек поставок чипов, энергетики и центров обработки данных, которые имеют решающее значение для искусственного интеллекта и других отраслей, которые на них полагаются, — говорится в заявлении OpenAI. — Мы продолжим информировать правительство США, учитывая важность национальных приоритетов, и с нетерпением ждём возможности поделиться более подробной информацией позже».

По словам некоторых источников, Альтман также рассматривает возможность создания новой компании, отдельной от OpenAI, что может вызвать обеспокоенность антимонопольного регулятора. Дело в том, что законы США запрещают одному и тому же лицу занимать должность руководителя в двух конкурирующих компаниях (так называемое взаимосвязанное управление). Это одна из причин, почему плану Альтмана необходимо однозначное одобрение правительства США, прежде чем двигаться дальше.

 Источник изображения: Pixabay

Источник изображения: Pixabay

Пытаясь привлечь инвестиции от таких организаций, как Фонд благосостояния Объединённых Арабских Эмиратов, Альтман может попасть под пристальное внимание Комитета по иностранным инвестициям США, который уделяет всё более пристальное внимание связям таких фондов с Китаем. Законодатели уже выразили опасения по поводу потенциальных инвестиций от ИИ-компании G42 из Абу-Даби из-за опасений по поводу её сотрудничества с китайским правительством. G42 после этого заявила о сокращении своего присутствия в Китае.

Амбициозная кампания Альтмана по сбору средств рискует спровоцировать проверку национальной безопасности иностранных инвестиций комитетом под председательством Министерства финансов и может столкнуться с контролем Министерства торговли над поставками чипов на Ближний Восток. Правительственные чиновники США опасаются, что такие страны, как Саудовская Аравия и Объединённые Арабские Эмираты, могут выступить в роли посредников, обеспечивающих доступ к попадающим под санкции чипам для китайских компаний. Согласно новым правилам, продажа некоторых передовых микросхем и полупроводникового оборудования предприятиям в этих странах потребует лицензии правительства США.

Проект Альтмана может осложнить деятельность Министерства торговли по субсидированию производства полупроводников в соответствии с «Законом о чипах» 2022 года. Закон предусматривает выделение $100 млрд на стимулирование производства чипов на территории США с рядом дополнительных условий, от ограничений на обратный выкуп акций до запрета на инвестиции в Китай. На данный момент известно лишь о двух небольших грантах, но в ближайшие недели многомиллиардное финансирование должно быть направлено на поддержку передовых производств по производству микросхем, таких как сейчас строят TSMC, Samsung и Intel. Пока неясно, как инициатива Альтмана коррелирует с этим законом.

 Источник изображения: unsplash.com

Источник изображения: unsplash.com

План Альтмана пока не обрёл окончательных очертаний. Он изучает рынок и источники финансирования, пытаясь получить обратную связь чтобы определить, следует ли стремиться к глобальному увеличению мощностей полупроводниковой промышленности или сосредоточиться на менее масштабных усилиях по созданию чипов и программного обеспечения более низкого уровня. Альтман также рассматривает возможность максимального использования зелёной энергии в рамках своего проекта. По мнению экспертов, даже в случае успеха это существенно увеличит потенциальные затраты и приведёт к заметному повышению стоимости готовой продукции.

ОАЭ готовы стать мировым полигоном для испытаний искусственного интеллекта

Возможности генеративного искусственного интеллекта уже породили несколько юридических и этических проблем, поэтому высказанная недавно основателем OpenAI Сэмом Альтманом (Sam Altman) идея создания в ОАЭ тестового полигона для формирования правил использования новых разработок в этой сфере нашла отклик и поддержку у местных властей.

 Источник изображения: OpenAI

Источник изображения: OpenAI

Напомним, что Сэм Альтман выступал перед аудиторией этой страны по видеосвязи, находясь в США, он заявил о необходимости создания своего рода «песочницы» в ОАЭ, опыт которой в применении новых технологий искусственного интеллекта можно было бы использовать для формулирования правил при распространении их в других странах. Сэму Альтману в последние месяцы приписывают попытки привлечь средства арабских инвесторов к нескольким своим инициативам в сфере развития бизнеса OpenAI.

Министр искусственного интеллекта, цифровой экономики и приложений для удалённой работы ОАЭ, Омар аль Олама (Omar Al Olama) в интервью Bloomberg подчеркнул, что данное государство является серьёзным игроком в сфере искусственного интеллекта, поскольку комментарии Альтмана это доказывают. По поводу использования ОАЭ в качестве полигона для разработки регуляторных ограничений в применении ИИ министр заявил следующее: «Это та возможность, в реализации которой я заинтересован лично, и мы будем к этому стремиться».

Комментируя недавно возникшие требования США к эмиратской компании G42 сократить своё присутствие в Китае, аль Олама назвал ОАЭ «очень сильным партнёром США». По его словам, вся технологическая инфраструктура ОАЭ так или иначе связана с американскими компаниями, и в обозримом будущем это не изменится. Но такое сотрудничество с США не означает, что ОАЭ не сможет работать с китайскими компаниями. Власти этой ближневосточной страны не хотели бы отказываться от взаимодействия с одним из партнёров ради сохранения благосклонности другого.

Попутно чиновник пояснил, что с 2021 года ОАЭ удаётся привлекать на работу специалистов по искусственному интеллекту. По состоянию на сентябрь прошлого года в стране работало около 120 000 профильных специалистов, тогда как всего двумя годами ранее их количество не превышало 30 000 человек.

OpenAI представила ИИ-генератор видео Sora, который выдаёт впечатляющие результаты

OpenAI представила новую нейросеть Sora для генерации видео. Компания утверждает, что Sora «может создавать реалистичные и фантазийные сцены по текстовым инструкциям». Модель преобразования текста в видео позволяет пользователям создавать на базе текстовых описаний фотореалистичные видео длиной до минуты с разрешением Full HD (1920 × 1080 точек).

 Источник изображения: OpenAI

Источник изображения: OpenAI

Sora способна создавать «сложные сцены с несколькими персонажами, определенными типами движения и точной детализацией объекта и фона», говорится в блоге OpenAI. Компания также отмечает, что нейросеть может понимать, как объекты «существуют в физическом мире», а также «точно интерпретировать реквизит и генерировать убедительных персонажей, выражающих яркие эмоции».

Модель может генерировать видео на основе неподвижного изображения, заполнять недостающие кадры в существующем видео или расширять его. Среди демонстрационных роликов, созданных с помощью Sora и показанных в блоге OpenAI, сцена Калифорнии времен золотой лихорадки, видео, снятое как будто изнутри токийского поезда, и другие. Многие из них имеют некоторые артефакты, указывающие на работу искусственного интеллекта. Например, подозрительно движущийся пол в видеоролике о музее. Сама OpenAI говорит, что модель «может испытывать трудности с точным моделированием физики сложной сцены», но в целом результаты довольно впечатляющие.

Пару лет назад именно генераторы текста в изображение, такие как Midjourney, лучше всего демонстрировали способности ИИ превращать слова в изображения. Но в последнее время генеративное видео стало улучшаться заметными темпами: такие компании, как Runway и Pika, продемонстрировали впечатляющие модели преобразования текста в видео, а Lumiere от Google, похоже, станет одним из главных конкурентов OpenAI в этой области. Как и Sora, Lumiere предоставляет пользователям инструменты для преобразования текста в видео, а также позволяет создавать видео из неподвижного изображения.

В настоящее время Sora доступна только отдельным тестировщикам, которые оценивают модель на предмет потенциального вреда и рисков. OpenAI также предлагает доступ по запросу отдельным художникам, дизайнерам и кинематографистам, чтобы получить обратную связь. Компания отмечает, что существующая модель может неточно имитировать физику сложной сцены и неправильно интерпретировать некоторые случаи причинно-следственных связей.

Ранее в этом месяце OpenAI объявила, что добавляет маркировку в свой инструмент преобразования текста в изображение DALL-E 3, но отмечает, что их можно легко удалить. Как и в случае с другими продуктами на базе ИИ, компании OpenAI придется бороться с последствиями того, что поддельные фотореалистичные видео, созданные ИИ, будут выдавать за настоящие.

Больше видео, сгенерированных Sora, можно найти здесь.

OpenAI разрабатывает ИИ-поисковик, который составит конкуренцию Google

Заняв лидирующие позиции в гонке генеративного ИИ, OpenAI вступает в борьбу с Google «на её поле». Хотя OpenAI официально не подтверждала этого, инсайдеры сообщают, что компания уже более года занимается разработкой продукта для поиска в интернете. Пока неясно, будет ли новый инструмент интегрирован непосредственно в платную или бесплатную версию чат-бота ChatGPT или станет отдельным решением.

 Источник изображения: unsplash.com

Источник изображения: unsplash.com

ChatGPT изначально имел ограничение на доступ к самой последней информации в интернете. В марте 2023 года OpenAI объявила о поддержке плагинов, включая разработанный ею плагин для веб-обозревателя. В сентябре OpenAI сообщила, что ChatGPT получил доступ к актуальной информации в Сети и способен просматривать веб-страницы. Эта функциональность предназначалась прежде всего для поисковой системы Microsoft Bing, которая в течение многих лет оставалась аутсайдером интернет-поиска.

Microsoft вложила в OpenAI миллиарды долларов и в значительной степени полагается на технологический стек OpenAI при переосмыслении своих собственных продуктов, включая Bing. Microsoft запустила собственный чат-бот на базе ИИ Bing Chat, затем расширила возможности генеративного ИИ на другие свои продукты, и в конечном итоге в 2024 году распространила ИИ повсюду под отдельным брендом Copilot.

Похоже, что OpenAI, при активной поддержке со стороны Microsoft, готова начать атаку на занимаемые Google позиции в сфере веб-поиска. Microsoft некоторое время назад проиграла Google войну поисковых систем, и искусственный интеллект может стать для неё прекрасной возможностью переманить существенную часть пользователей в свою экосистему.

Пока неизвестно, как именно будет работать секретный продукт веб-поиска OpenAI, но можно сделать некоторые предположения, основываясь на появляющихся продуктах других разработчиков. Например, приложение Arc Search, разработанное The Browser Company, предлагает функцию «Просмотр для меня». Она собирает в сети информацию, соответствующую поисковому запросу, компилирует данные из шести авторитетных источников, а затем представляет результаты в виде специальной веб-страницы, избавляя пользователей от необходимости тратить время на просмотр всей поисковой выдачи.

Суд отклонил большинство претензий писателей к OpenAI за нарушение авторских прав

Окружной судья Калифорнии Арасели Мартинес-Ольгин (Araceli Martínez-Olguín) в значительной степени встала на сторону OpenAI и отклонила большинство претензий, выдвинутых писателями — по их версии, лежащая в основе ChatGPT большая языковая модель была обучена на пиратских копиях их книг без их разрешения.

 Источник изображения: succo / pixabay.com

Источник изображения: succo / pixabay.com

Сара Сильверман (Sarah Silverman), Майкл Шейбон (Michael Chabon) и Пол Трембле (Paul Tremblay) подали три отдельных иска, в которых заявили, что ChatGPT просто «переупаковывает» оригинальные работы писателей в свои ответы и является не более чем высокотехнологичным мошенническим проектом, нарушающим законы об авторском праве и законы штата, запрещающие безосновательное обогащение и недобросовестную деловую практику. По словам судьи Арасели Мартинес-Ольгин, истцы не смогли представить доказательств, подтверждающих их обвинения, за исключением прямого нарушения авторских прав. То же утверждала и OpenAI, которая ещё в августе минувшего года подала ходатайство о прекращении этих дел. Претензии о прямом нарушении прав компания намеревается отбить на «более поздней стадии» разбирательства.

Истцы заявили, что «каждый» ответ ChatGPT «является производной работой, нарушающей авторские права», но судья Мартинес-Ольгин встала на сторону OpenAI, утверждающей, что этого недостаточно для обвинений в косвенном нарушении авторских прав; а заявления, что ответы ChatGPT имеют «сходство по существу» или «полное сходство» с книгами истцов, требуют доказательств.

 Источник изображения: Growtika / unsplash.com

Источник изображения: Growtika / unsplash.com

Писателям не удалось убедить судью, что OpenAI при включении их произведений в обучающий массив удалила их выходные данные, такие как имена авторов, названия произведений и условия их использования — соответствующих фактов истцы привести в суде не смогли. Авторы заявили, что OpenAI своими действиями нанесла им материальный ущерб, но, по мнению судьи, даже если бы истцы представили доказательства нарушения закона, они могли бы только предполагать, какой ущерб им был причинён. Тем не менее, Мартинес-Ольгин допустила, что использование OpenAI «может представлять собой недобросовестную практику». Обвинения в халатности и безосновательном обогащении также были отклонены: писатели не смогли пояснить, как именно OpenAI «получила и сохранила выгоду» от обучения ChatGPT на их работах.

Истцам предписано объединить свои иски; им дана возможность до 13 марта изменить аргументы, чтобы отклонённые претензии рассматривались далее. Для этого писателям, вероятно, придётся предоставить ответы ChatGPT, имеющие сходство с их работами, а также доказательства о намеренном удалении OpenAI выходных данных с целью «спровоцировать, обеспечить возможность, облегчить или скрыть нарушение авторских прав».

OpenAI ранее заявила о невозможности обучать модели ИИ без материалов, защищённых авторским правом — сегодня оно распространяется «практически на все виды человеческого самовыражения, включая публикации в блогах, сообщения на форумах, фрагменты программного кода и правительственные документы». Компании жизненно необходимы актуальные материалы, защищённые авторским правом, — так ответы чат-бота и произведения других систем ИИ наиболее полно «отвечают потребностям современных граждан».

Видный разработчик ИИ Андрей Карпатый во второй раз покинул OpenAI

Канадский учёный словацкого происхождения Андрей Карпатый (Andrej Karpathy) до 2017 года работал в стартапе OpenAI, но затем покинул его, чтобы заняться автопилотом в компании Tesla. Из неё он вернулся в OpenAI в прошлом году, но на этой неделе заявил о намерениях в дальнейшем двигаться в сторону развития собственных проектов, во второй раз покинув штат стартапа, создавшего нашумевший чат-бот ChatGPT.

 Источник изображения: Karpathy.ai

Источник изображения: Karpathy.ai

Факт своего ухода Карпатый подтвердил в социальной сети X, заявив в понедельник о намерениях в ближайшее время работать над собственными проектами. Учёный призвал не искать в этом решении какой-то скандальной подоплёки, но в шутку заявил о готовности выслушать от подписчиков разного рода «теории заговора», которые порой являются очень занимательными.

Андрей Карпатый признался, что за почти год своего пребывания в OpenAI он познакомился с интересными людьми и очень воодушевляющим планом развития компании, который обещает подарить миру много всего занимательного. Команду OpenAI он назвал очень сильной, а его место в ней займёт некий другой разработчик, с которым он работал до сих пор, его имя представителями стартапа не называется.

Представители OpenAI выразили благодарность Андрею Карпатому за проделанную работу и пожелали всего наилучшего в новых начинаниях. Предполагается, что в этой компании он работал над созданием персонального ассистента, использующего технологии искусственного интеллекта. Учёный рассчитывает с помощью своих разработок сделать мир лучше и добрее и сократить напрасный расход ресурсов во всех пониманиях этого словосочетания.

ИИ-бот ChatGPT научился запоминать факты о пользователях и их предпочтения

Регулярная работа с чат-ботом на базе искусственного интеллекта может начать раздражать, поскольку для улучшения опыта взаимодействия пользователю каждый раз приходится объяснять некоторые факты о себе и своих предпочтениях. Компания OpenAI, являющаяся разработчиком ИИ-бота ChatGPT, намерена исправить это, сделав алгоритм более персонализированным за счёт добавления ему «памяти».

 Источник изображения: Growtika / unsplash.com

Источник изображения: Growtika / unsplash.com

Такой подход позволит ChatGPT со временем извлекать информацию о пользователе и его предпочтениях из диалогов с ним. Функция памяти работает двумя способами. Пользователь может прямо указать на свои предпочтения или иную информацию, которую ChatGPT должен запомнить. Если этого не делать, то чат-бот будет сам получать нужную информацию в процессе взаимодействия с пользователем. Цель разработчиков состоит в том, чтобы сделать ChatGPT более персонализированным и удобным.

Во многих отношениях память является той функцией, которой действительно не хватает ChatGPT. Однако для её реализации алгоритм будет собирать информацию о пользователях, что может вызвать опасения по поводу конфиденциальности данных. OpenAI выбрала стратегию, которая во многом напоминает принцип работы разных интернет-сервисов. Речь идёт о наблюдении за действиями пользователя для постепенного формирования цифрового профиля. Такой метод работы неоднозначен, поскольку сразу возникают опасения по поводу того, что ChatGPT будет использовать собранные данные для дальнейшего обучения алгоритма и повышения уровня персонализации.

OpenAI заявила, что пользователи будут иметь возможность контроля функции памяти ИИ-бота. Также отмечается, что алгоритм не будет запоминать конфиденциальные данные, например, информацию о здоровье. Можно спросить ChatGPT о том, что именно ему известно о пользователе, после чего эти данные при необходимости без особого труда удаляются из памяти. Если же пользователь не заинтересован в функции памяти, то её попросту можно отключить, но по умолчанию она будет активирована.

На данный момент функция памяти ChatGPT находится на этапе тестирования и доступна ограниченному числу пользователей ИИ-бота. Когда именно она может стать общедоступной, пока неизвестно.

Годовая выручка OpenAI выросла до $2 млрд, но компания тратит больше

Доходы стартапа из Сан-Франциско OpenAI на фоне всплеска популярности разработанного им ИИ-чат-бота ChatGPT стремительно растут. По данным источников Financial Times, в декабре 2023 года годовой оборот OpenAI (показатель выручки за предыдущий месяц, умноженный на 12) достиг отметки в $2 млрд, хотя ещё в октябре годовой доход компании, по данным The Information, составлял $1,3 млрд.

 Источник изображения: Andrew Neel/unsplash.com

Источник изображения: Andrew Neel/unsplash.com

Компания считает возможным удвоить эту сумму в 2025 году на фоне сильного интереса к её решениям со стороны бизнес-клиентов, стремящихся использовать инструменты генеративного ИИ для повышения эффективности своей работы. Благодаря стремительному росту у OpenAI есть все шансы войти в число немногих компаний Кремниевой долины, таких как Google и Meta, которым удалось получить годовой доход в $1 млрд в первые десять лет с момента своего основания.

По словам генерального директора OpenAI Сэма Альтмана (Sam Altman), по состоянию на ноябрь прошлого года 92 % компаний из списка Fortune 500 использовали продукты OpenAI, включая ChatGPT и лежащую в его основе модель искусственного интеллекта GPT-4, в то время как аудитория чат-бота выросла до 100 млн пользователей в неделю.

Интерес потребителей и бизнеса к генеративному ИИ — системам, которые могут генерировать код, текст, изображения, видео и анализировать информацию из подсказок пользователя — резко возрос, отметила Financial Times. Крупные технологические конкуренты OpenAI, такие, как Google и Meta, а также стартапы, включая Anthropic, Mistral и Cohere, тоже начали коммерциализацию своих ИИ-продуктов. Например, на этой неделе Google сделала доступной для широкой публики нейросеть Gemini Ultra, стоимость подписки на которую составляет всего $20 в месяц.

Вместе с тем Альтман отметил, что OpenAI по-прежнему работает с убытками из-за огромных затрат на создание и эксплуатацию её ИИ-моделей. По всей видимости эта тенденция сохранится ещё какое-то время из-за разработки ещё более сложных моделей, и компании, вероятно, придётся дополнительно привлекать значительные суммы, чтобы покрыть растущие расходы. Microsoft инвестировала в OpenAI до $13 млрд, но этого явно недостаточно.

«Расходы на обучение просто огромны, но это вполне ожидаемо», — сообщил Альтман газете Financial Times в ноябре прошлого года.

Глава OpenAI Сэм Альтман предложил скинуться всем миром, чтобы построить десятки новых предприятий для TSMC

Возможности систем генеративного искусственного интеллекта, на которых OpenAI очень быстро сделала себе имя, в своём развитии упираются в нехватку полупроводниковых компонентов и высокие расходы на электроэнергию, поэтому основатель компании Сэм Альтман сейчас сосредоточен на проекте по привлечению до $7 трлн на решение этих проблем.

 Источник изображения: OpenAI

Источник изображения: OpenAI

Как поясняет The Wall Street Journal, Сэм Альтман уже давно вкладывается в стартапы, связанные с созданием источников дешёвой электроэнергии по принципу термоядерного синтеза, но сейчас предприниматель поставил перед собой не менее амбициозную цель: собрать триллионы долларов США для финансирования строительства внушительного количества предприятий, способных выпускать заметно большее количество ускорителей вычислений для систем искусственного интеллекта, чем это возможно сейчас.

По информации осведомлённых источников, Альтман сейчас ведёт активные переговоры как с властями США, так и с правящими кругами ОАЭ, а также руководством TSMC. По его замыслу, арабские инвесторы могли бы предоставить внушительную сумму денег, до $5 трлн или $7 трлн, в совокупности с другими источниками финансирования, чтобы в ближайшие несколько лет построить несколько десятков новых предприятий по контрактному выпуску чипов, которые можно было бы передать в управление компании TSMC. На них предполагается наладить выпуск чипов для ускорителей систем искусственного интеллекта в количествах, пропорциональным амбициям Альтмана по развитию функциональных возможностей разрабатываемых OpenAI чат-ботов и больших языковых моделей.

Следует отметить, что $7 трлн являются весьма внушительной суммой не только по меркам инвестиционных проектов, но и в масштабах суверенного долга некоторых государств. В конце концов, оборот всего рынка полупроводниковых компонентов достигнет рубежа в $1 трлн лишь к концу десятилетия, а совокупная капитализация двух самых дорогих американских компаний, Microsoft и Apple, приближается к $6 трлн.

Альтман, как поясняют источники, поставил в известность о своих намерениях не только министра торговли США Джину Раймондо (Gina Raimondo), но и руководство компании TSMC, не говоря уже о правительстве ОАЭ, у которого собирается просить существенную часть денег на реализацию этого амбициозного проекта. К сожалению, на пути к претворению этого проекта в жизнь стоит немало препятствий. Во-первых, не совсем понятно, где будут построены десятки новых предприятий по выпуску чипов. США заинтересованы в их «приземлении» на родном материке, для самой TSMC реализация столь масштабных зарубежных проектов даже на стадии эксплуатации может представлять серьёзную проблему из-за определённого кадрового голода, а арабские инвесторы очевидным образом намерены развивать национальную промышленность ОАЭ. С другой стороны, власти США настороженно относятся к инвестициям арабских стран в передовые отрасли американской экономики, забывая при этом, что компания GlobalFoundries уже более десяти лет финансируется по этому принципу. Словом, замыслу Альтмана предстоит выдержать испытания суровой реальностью, поэтому прислушиваться к его планам пока приходится больше с точки зрения развлечения.

OpenAI будет незаметно маркировать творчество ИИ-художника DALL-E 3

Генератор изображений OpenAI DALL-E 3 будет помечать созданные им картинки метаданными в соответствии со стандартами организации C2PA (Coalition for Content Provenance and Authenticity — «Коалиции по происхождению и аутентичности контента»). Такая маркировка позволит легко узнать, что изображение создано ИИ, а не человеком.

 Источник изображения: Gerd Altmann / pixabay.com

Источник изображения: Gerd Altmann / pixabay.com

При помощи метаданных будут маркироваться изображения, созданные искусственным интеллектом на сайте ChatGPT и при подключении к API для модели DALL-E 3, сообщила OpenAI. При выводе таких изображений на поддерживающих технологию Content Credentials ресурсах будет отображаться изображение с символами «CR» в левом верхнем углу каждой картинки. Это позволит установить происхождение файла, но пока маркировку получат только картинки, а не видеозаписи или текст. Добавление метаданных лишь незначительно повлияет на скорость работы системы и никак не скажется на качестве картинки, подчеркнули в OpenAI.

 Источник изображения: openai.com

Источник изображения: openai.com

Организация C2PA, в которую входят крупные технологические компании масштаба Adobe и Microsoft, продвигает собственный стандарт Content Credentials — это решение позволяет определять происхождение контента. Ранее о намерении помечать на своих платформах созданные ИИ материалы сообщила компания Meta.

Американские разработчики технологий ИИ взяли на себя обязательства обеспечивать средства идентификации генерируемого ИИ контента. Метаданные, однако, трудно назвать надёжным способом защиты — их легко удалить, случайно или намеренно. Так, они часто в принудительном порядке удаляются при загрузке в соцсети. Метаданные также не сохраняются при снятии снимков экрана.

Инженер Microsoft нашёл серьёзную уязвимость в ИИ-художнике DALL-E 3, но компания замолчала проблему

Старший инженер по искусственному интеллекту Microsoft Шейн Джонс (Shane Jones) обнаружил уязвимость в генераторе изображений OpenAI DALL-E 3, которая позволяет обходить защитные механизмы нейросети и генерировать недопустимый контент. Но в Microsoft и OpenAI отвергли факт наличия этой уязвимости и воспрепятствовали огласке проблемы.

 Источник изображения: efes / pixabay.com

Источник изображения: efes / pixabay.com

Инженер пояснил, что решил предать проблему огласке после того, как на прошлой неделе в соцсетях была опубликована серия сгенерированных ИИ фотореалистичных изображений известной исполнительницы Тейлор Свифт (Taylor Swift), имеющих деликатный характер. Инцидент вызвал возмущение в среде её поклонников, а Шейн Джонс призвал OpenAI изъять DALL-E 3 из открытого доступа. По одной из версий, создавшие эту серию изображений злоумышленники пользуются инструментом Microsoft Designer, частично основанным на этом ИИ-генераторе. Инженер также направил письмо двум сенаторам, одному члену Палаты представителей и генпрокурору штата Вашингтон, отметив, что «Microsoft знала об этих уязвимостях и возможностях злоупотреблений».

Джонс сообщил Microsoft об обнаруженной им проблеме ещё 1 декабря 2023 года, направив соответствующее обращение через внутреннюю систему компании. В тот же день он получил ответ от работающего с такими обращениями сотрудника, который отметил, что проблема не касается ни внутренней сети Microsoft, ни учётных записей клиентов компании, и порекомендовал направить своё обращение в OpenAI. Инженер направил его 9 декабря, представив подробную информацию об уязвимости, но так и не получил ответа. Джонс продолжил изучать проблему и «пришёл к выводу, что DALL-E 3 представляет угрозу общественной безопасности и должен быть изъят из общественного доступа, пока OpenAI не сможет устранить связанные с этой моделью риски».

 Источник изображения: ilgmyzin / unsplash.com

Источник изображения: ilgmyzin / unsplash.com

Две недели спустя, 14 декабря, инженер перевёл общение в публичную плоскость, разместив на своей странице в LinkedIn публикацию с призывом отозвать DALL-E 3 с рынка. Он уведомил об этом руководство компании, и с ним быстро связался его непосредственный начальник — он заявил, что юридический отдел Microsoft требует немедленно удалить публикацию, а обоснования своего требования он предоставит позже. Джонс удалил публикацию, но никаких сообщений от юристов Microsoft так и не получил. В итоге он 30 января был вынужден направить письмо властям.

OpenAI отреагировала только 30 января, заявив, что она изучила обращение инженера сразу после того, как оно поступило, и описанный им метод якобы не позволяет обходить средств безопасности. «Безопасность является нашим приоритетом, и мы применяем многосторонний подход. В основополагающей модели DALL-E 3 мы разработали фильтр наиболее откровенного контента из её обучающих данных, включая изображения сексуального характера и насилия, разработали надёжные классификаторы изображений, не позволяющие модели создавать пагубные картинки. Мы также внедрили дополнительные меры безопасности для наших продуктов, ChatGPT и DALL-E API, включая отклонение запросов, содержащих имя публичного деятеля. Мы выявляем и отклоняем изображения, которые нарушают нашу политику, и фильтруем все созданные изображения, прежде чем они показываются пользователю. Для усиления наших мер безопасности и для проверки на злоупотребления мы привлекаем команду сторонних экспертов», — заверили в OpenAI.

window-new
Soft
Hard
Тренды 🔥
World of Warcraft исполнилось 20 лет — это до сих пор самая популярная ролевая игра в мире 8 ч.
Microsoft хочет, чтобы у каждого человека был ИИ-помощник, а у каждого бизнеса — ИИ-агент 12 ч.
«Атака на ближайшего соседа» сработала — хакеры удалённо взломали компьютер через Wi-Fi поблизости 13 ч.
Google Gemini сможет управлять приложениями без пользователя и даже не открывая их 16 ч.
Илон Маск отделался выплатой $2923 за неявку для дачи показаний по делу о покупке Twitter 17 ч.
Microsoft открыла доступ к скандальной ИИ-функции Recall — пользователям разрешили ограничить её «подглядывания» 23 ч.
Новая статья: Death of the Reprobate: что не так на картине? Рецензия 24 ч.
Главный конкурент OpenAI получил $4 млрд на развитие ИИ без следов Хуанга 22-11 23:13
Valve раскрыла часть игр, которые получат скидку на осенней распродаже Steam — официальный трейлер акции 22-11 22:34
Threads получила «давно назревавшие улучшения» в поиске и тренды 22-11 22:17