Опрос
|
реклама
Быстрый переход
Вышло официальное приложение ChatGPT для Android
26.07.2023 [10:52],
Павел Котов
Официальное приложение ChatGPT для Android стало доступно для скачивания в магазине Google Play для пользователей из Бангладеш, Бразилии, Индии и США — в других странах оно выйдет позже. Аналогичным образом приложение сервиса постепенно расширяло географию присутствия после выхода для iPhone и iPad. Запуск официального приложения ChatGPT для Android состоялся в тот момент, когда интерес к чат-боту на основе искусственного интеллекта начал спадать: аналитические компании Similarweb и Sensor Tower указали на падение веб-трафика на платформе и снижение установок приложений по итогам июня. ChatGPT в течение нескольких месяцев сохранял звание самого быстрорастущего сервиса в истории, пока не вышла платформа микроблогов Meta✴ Threads, которая продемонстрировала взрывной успех. Лежащая в основе приложения ИИ-модель OpenAI GPT-4 также является технологической базой для чат-бота Microsoft Bing — соответствующее приложение доступно на Android уже несколько месяцев. При этом аналогичная служба Google Bard в формате отдельного приложения пока не издаётся, работая только в веб-интерфейсе. Интерес к платформам искусственного интеллекта проявляют все технологические гиганты: недавно стало известно, что собственный чат-бот тестирует Apple. Состоялся глобальный запуск криптовалюты Worldcoin, для использования которой придётся сканировать глаза
24.07.2023 [19:07],
Дмитрий Федоров
Криптовалютный стартап Worldcoin, основанный главой OpenAI Сэмом Альтманом (Sam Altman), начал оказывать услуги по всему миру и глобально запустил одноимённую криптовалюту, которую можно использовать только после того, как пользователь подтвердит свою личность. Компания, с офисами в Берлине и Сан-Франциско, предоставила доступ к своим технологиям в 35 городах 20 стран мира. Центральным элементом проекта является сфера Orb, которая предназначена для сканирования глаз пользователя для подтверждения личности и отличия его от роботов. Важность сферы-сканера Orb, по мнению основателей Worldcoin, будет оценена в будущем, когда отличить человека от робота будет всё сложнее из-за стремительного развития технологий ИИ. После того как пользователь подтвердит, что является человеком, ему будет позволено использовать один из токенов компании. Однако достижению целей стартапа мешает ужесточение контроля над цифровыми активами со стороны регуляторов США, которые опасаются использования криптовалют в качестве средства для спекуляций и мошенничества. По этой причине токены Worldcoin на старте не будут доступными в США. «Когда мы только задумывали проект, то не предполагали, что в итоге получится „мир минус США“, но так уж вышло. Я бы сказал, что 95 % населения планеты живёт за пределами США. Не США создали и не им разрушать этот проект», — заявил Альтман. Запуск Worldcoin происходит на фоне значительного прогресса в области ИИ, что совпадает с беспрецедентным периодом бурного развития цифровых токенов и криптовалютной сферы. Несмотря на препятствия со стороны регулирующих органов, инвесторы вложили в Worldcoin около 250 млн долларов, в числе которых значатся венчурные группы Andreessen Horowitz и Khosla Ventures интернет-предпринимателя Рида Хоффмана (Reid Hoffman) и Сэма Бэнкмана-Фрида (Sam Bankman-Fried). Алекс Блания (Alex Blania), соучредитель Worldcoin, сказал, что компания ограничена в своих коммерческих амбициях из-за контроля со стороны регуляторов США. Однако, по словам Тиаго Сады (Tiago Sada), руководителя отдела продуктов компании, проект будет приносить прибыль: «Все наши продукты являются коммерческими. В конечном счёте появится множество различных кошельков и сервисов, которые будут приносить прибыль». Worldcoin также планирует хранить около 20 % всех выпущенных токенов для целей финансирования производства сканирующих сфер, улучшения своего блокчейн-протокола и поддержания экосистемы. Альтман признал, что технология сканирования глаз хотя и может вызывать недовольство, но при правильной просветительской работе с населением компания сможет привлечь пользователей в свою экосистему: «В криптовалюте было много плохих игроков, и это очень обидно. Мы должны заслужить доверие людей, поэтому так много рассказываем о том, как работает эта технология и о планах децентрализации компании». Успех Worldcoin будет зависеть от способности стартапа преодолеть сопротивление регуляторов США, а также от умения установить доверительные отношения с пользователями. В условиях быстро меняющегося мира криптовалют и цифровых активов, только тщательно продуманные стратегии и стремление к прогрессу могут обеспечить проекту место среди успешных инноваций в этой сфере. Официальное приложение ChatGPT для Android выйдет на следующей неделе
22.07.2023 [10:10],
Павел Котов
Несмотря на мелкие неудачи, платформа ChatGPT продолжает пользоваться популярностью, уступая разве что Threads. Сервис дебютировал в конце ноября, но официального приложения для iPhone пришлось ждать до мая. Теперь же настал черёд клиента под Android. Официальное приложение ChatGPT для Android выйдет на следующей неделе, сообщила в Twitter ответственная за проект компания OpenAI. Конкретной даты не указали, но приложили ссылку на страницу в Google Play, где можно добавиться в лист ожидания и скачать приложение, как только оно станет доступным. Клиент под iPhone вышел в мае, и тогда компания пообещала «вскоре» выпустить Android-версию — потребовалось ещё чуть более двух месяцев. У поискового чат-бота Google Bard собственного мобильного приложения нет — только веб-интерфейс, да и он во многих странах пока недоступен. А преимуществами ChatGPT пока можно воспользоваться через приложение Microsoft Bing, которое вышло под Android и iOS в феврале. Официальный клиент ChatGPT для Android поможет OpenAI бороться с падением популярности публики к сервису: как недавно выяснилось, по итогам июня посещаемость чат-бота просела впервые с момента запуска. Глава отдела доверия и безопасности OpenAI ушёл в отставку
21.07.2023 [18:55],
Сергей Сурабекянц
Компания OpenAI понесла серьёзные кадровые потери. Дэйв Уилнер (Dave Willner), ветеран отрасли, возглавлявший отдел по вопросам доверия и безопасности ИИ последние полтора года, объявил о своём увольнении и переходе на должность консультанта. Он планирует проводить больше времени с семьёй. Его уход происходит в критическое время для ИИ, когда весь мир волнуют вопросы о регулировании ИИ и минимизации возможных вредных последствий его внедрения. Буквально сегодня президент OpenAI Грег Брокман (Greg Brockman) должен появиться в Белом доме вместе с руководителями из Anthropic, Google, Inflection, Microsoft, Meta✴ и Amazon, чтобы подтвердить добровольные обязательства по достижению общих целей безопасности и прозрачности при использовании ИИ в преддверии находящегося в разработке закона. Уилнер в сообщении о своём уходе пишет, что требования к его работе в OpenAI перешли в «фазу высокой интенсивности» после запуска ChatGPT. Он и его жена взяли на себя обязательство всегда ставить семью на первое место, но «в течение нескольких месяцев после запуска ChatGPT мне становилось все труднее выполнять свою часть сделки». Уилнер занимал свой пост в OpenAI последние полтора года, до этого он руководил командами доверия и безопасности в Facebook✴ и Airbnb. В Facebook✴ он был одним из первых сотрудников, который помог сформировать базовый подход компании к стандартам сообщества, ставший в дальнейшем фундаментом гражданской позиции компании. Учитывая влияние Facebook✴ на глобальное развитие социальных сетей, выработка компанией концепций по модерированию контента оказалась системообразуюшей для всего интернета и общества в целом. Начальный этап развития социальной сети характеризовался очень откровенной позицией в отношении свободы слова и отказом Facebook✴ блокировать спорные группы и удалять спорные сообщения. В то время общество раскололось — одни ратовали за строгую модерацию, другие считали это цензурой и покушением на свободу слова. Уилнер был в последнем лагере, полагая, что «язык ненависти» — это не то же самое, что «прямой вред», и поэтому его нельзя модерировать одинаково. Теперь многие считают, что это была довольно недальновидная и даже наивная позиция. Но Уилнер не отказался от своего мнения — в 2019 году, уже не работая в социальной сети, он выступал против исключений для политиков и общественных деятелей в вопросах модерации контента. Необходимость контроля и регулирования в сфере ИИ ещё более актуальна для новой волны технологий на базе ИИ, нежели модерирование социальных сетей. К примеру, в OpenAI Уилнер занимался вопросами безопасности и потенциальных злоупотреблений при использовании генератора изображений Dall-E для таких вещей, как создание генеративной детской порнографии на основе ИИ. OpenAI и всей бурно растущей отрасли генеративного ИИ требуется грамотно продуманная политика использования и требуется, как говорится, ещё вчера. Эксперты предрекают, что в течение года отрасль достигнет очень проблемного состояния. Уже сейчас использование ИИ приводит к массовым увольнениям, проблемам с авторскими правами, ошибкам в судебных процессах и другим крупным неприятностям. И уход из отрасли таких людей, как Уилнер, только усугубляет ситуацию. ChatGPT научили запоминать, кем является пользователь и чего хочет — это упростит составление запросов
21.07.2023 [13:45],
Владимир Мироненко
OpenAI запустила бета-тестирование функции «Пользовательские инструкции» (Custom Instructions), с помощью которой пользователь может сообщить чат-боту сведения о себе и определить настройки сервиса, пишет The Verge. Функция доступна с сегодняшнего дня по подписке для участников программы ChatGPT Plus во всех странах, кроме Великобритании и ЕС. Новая функция позволит устранить необходимость в постоянной преамбуле к вопросам, задаваемым чат-боту. Вместо того чтобы формировать длинный вопрос для ChatGPT со всем необходимым контекстом и информацией, можно просто добавить этот контекст и информацию в свои пользовательские инструкции, чтобы не повторять их каждый раз. Например, если вы сообщите системе, что преподаёте в третьем классе, ответы на запросы будут адаптироваться ИИ-ботом с учётом нужной возрастной группы учащихся. Настройки пользовательских инструкций подчиняются тем же правилам, что и сам ИИ-бот, поэтому попытки спровоцировать его неэтичное или неприемлемое поведение будут безрезультатными. ChatGPT также удаляет личную информацию, которая может быть использована для идентификации пользователя. Следует отметить, что OpenAI представляет новую функцию как способ упростить составление запросов, а не как первый шаг к всеобъемлющему личному помощнику на основе ИИ. Более 8000 авторов книг, стихов и статей выставят счёт IT-гигантам за скармливание их произведений ИИ
20.07.2023 [15:03],
Дмитрий Федоров
Более 8000 писателей и литературных деятелей, включая Маргарет Этвуд (Margaret Atwood) и Джеймса Паттерсона (James Patterson), подписали открытое письмо с требованием компенсации от компаний, использующих их произведения для обучения ИИ-моделей без ведома авторов. «Миллионы защищённых авторским правом книг, статей, эссе и стихов служат "пищей" для систем ИИ и бесконечными "блюдами", за которые не было предъявлено ни единого счёта», — говорится в письме, опубликованном Гильдией писателей США. Письмо адресовано генеральному директору OpenAI Сэму Альтману (Sam Altman), генеральному директору Alphabet Сундару Пичаю (Sundar Pichai), генеральному директору Meta✴ Марку Цукербергу (Mark Zuckerberg), генеральному директору Stability AI Эмаду Мостаку (Emad Mostaque), генеральному директору IBM Арвинду Кришне (Arvind Krishna) и генеральному директору Microsoft Сатье Наделле (Satya Nadella). «В результате встраивания наших произведений в ваши системы генеративный ИИ угрожает нанести ущерб нашей профессии, наводнив рынок посредственными, написанными машиной книгами, рассказами и изданиями, основанными на наших произведениях», — также говорится в письме. Согласно письму, за последнее десятилетие заработки авторов упали на 40 %, а медианный доход писателей, работающих полный рабочий день, в 2022 году составил всего 23 330 долларов, выяснила Гильдия писателей после опроса более 5700 авторов. Организация утверждает, что технологии ИИ ещё больше затруднят заработок писателей. Более 8000 человек, подписавших письмо, среди которых автор «Кода да Винчи» Дэн Браун (Dan Brown) и автор «Голодных игр» Сюзанна Коллинз (Suzanne Collins), хотят, чтобы компании в сфере ИИ смягчили ущерб, наносимый их профессии, предоставив компенсацию за прошлое и будущее использование их произведений. Системы ИИ обучаются на больших объёмах данных, большая часть которых — это текст, извлечённый из интернета, и насколько правомерно компании используют массивы данных — большой вопрос. OpenAI, Google, Meta✴, Stability AI, IBM и Microsoft пока хранят молчание. Ранее OpenAI сообщала, что ChatGPT обучается на «лицензионном, общедоступном контенте и данных, сформированных ИИ-тренерами и пользователями», а сама компания уважает права создателей и авторов. Требование авторов прозвучало на фоне двух судебных исков против OpenAI, обвиняющих компанию в нарушении авторских прав, в том числе Сары Сильверман (Sarah Silverman) о несанкционированном использовании её мемуаров «The Bedwetter». Авторы не одиноки в выражении коллективного недовольства компаниями, развивающими системы ИИ. Художники настолько обеспокоены заменой их генеративным ИИ, что начали применять инструменты для предотвращения использования их работ системами ИИ в обучении. В центре конфликта стоит вопрос о том, как технологии ИИ влияют на творческие профессии, и как они могут изменить ландшафт авторского права. Это напоминает о необходимости пересмотра и адаптации существующих законов и норм, чтобы они соответствовали быстро развивающемуся технологическому миру. В то время как техногиганты продолжают развивать и применять ИИ, важно, чтобы они уважали права и творческий вклад авторов. В конечном итоге, это вопрос о том, как общество ценит и защищает творчество в эпоху ИИ. Возможно, текущий конфликт станет толчком к созданию новых стандартов и практик, которые обеспечат справедливое вознаграждение авторов и одновременно позволят ИИ продолжать своё развитие. Платная версия ChatGPT отупела, в то время как бесплатная набралась ума, выяснили учёные из Стэнфорда
20.07.2023 [12:16],
Дмитрий Федоров
Новое исследование, проведённое учёными из Стэнфордского университета и Калифорнийского университета в Беркли, выявило тревожное снижение качества ответов платной версии ChatGPT. Так, например, точность определения простых чисел у новейшей модели GPT-4, которая лежит в основе ChatGPT Plus, с марта по июнь 2023 года упала с 97,6 % до всего лишь 2,4 %. Напротив, GPT-3.5, являющаяся основной для обычного ChatGPT, точность ответов в некоторых задачах повысила. В последние месяцы всё чаще обсуждается снижение качества ответов ChatGPT. Группа учёных из Стэнфордского университета и Калифорнийского университета в Беркли решила провести исследование с целью определить, действительно ли произошла деградация качества работы этого ИИ, и разработать метрики для количественной оценки масштабов этого негативного явления. Как выяснилось, снижение качества ChatGPT — это не байка или выдумка, а реальность. Трое учёных — Матей Захария (Matei Zaharia), Линцзяо Чэнь (Lingjiao Chen) и Джеймс Цзоу (James Zou) — опубликовали научную работу под названием «Как меняется поведение ChatGPT с течением времени» (How is ChatGPT’s behavior changing over time). Захария, профессор компьютерных наук в Калифорнийском университете, обратил внимание на удручающий факт: точность GPT-4 в ответе на вопрос «Это простое число? Подумай шаг за шагом» снизилась с 97,6 % до 2,4 % с марта по июнь. OpenAI открыла доступ к API языковой модели GPT-4 около двух недель назад и объявила её своей самой продвинутой и функциональной ИИ-моделью. Поэтому общественность была расстроена тем, что новое исследование обнаружило значительное снижение качества ответов GPT-4 даже на относительно простые запросы. Исследовательская группа разработала ряд заданий, чтобы оценить различные качественные аспекты основных больших языковых моделей (LLM) ChatGPT — GPT-4 и GPT-3.5. Задания были разделены на четыре категории, каждая из которых отражает различные навыки ИИ и позволяет оценить их качество:
В следующих графиках представлен обзор эффективности работы ИИ-моделей OpenAI. Исследователи оценили версии GPT-4 и GPT-3.5, выпущенные в марте и июне 2023 года. Первый слайд демонстрирует эффективность выполнения четырёх задач — решения математических задач, ответа на деликатные вопросы, генерации кода и визуального мышления — версиями GPT-4 и GPT-3.5, выпущенными в марте и июне. Заметно, что эффективность GPT-4 и GPT-3.5 может значительно варьироваться со временем и в некоторых задачах ухудшаться. Второй слайд иллюстрирует эффективность решения математических задач. Измерялась точность, многословность (в символах) и совпадение ответов GPT-4 и GPT-3.5 в период с марта по июнь 2023 года. В целом, наблюдались значительные колебания в эффективности обеих ИИ-моделей. Также приведён пример запроса и соответствующие ответы за определенный промежуток времени. GPT-4 в марте следовала инструкциям по цепочке мыслей для получения правильного ответа, но в июне их проигнорировала, выдав неверный ответ. GPT-3.5 всегда следовала цепочке мыслей, но настаивала на генерации неправильного ответа в марте. Эта проблема была устранена к июню. На третьем слайде показан анализ ответов на деликатные вопросы. С марта по июнь GPT-4 ответила на меньшее количество вопросов, в то время как GPT-3.5 ответила на немного больше. Также приведён пример запроса и ответов GPT-4 и GPT-3.5 в разные даты. В марте GPT-4 и GPT-3.5 были многословны и давали подробные объяснения, почему они не ответили на запрос. В июне они просто извинились. Четвёртый слайд демонстрирует снижение эффективности генерации кода. Общая тенденция показывает, что для GPT-4 процент непосредственно исполняемых генераций сократился с 52 % в марте до 10 % в июне. Также наблюдалось значительное падение для GPT-3.5 (с 22 % до 2 %). Многословность GPT-4, измеряемая количеством символов в генерациях, также увеличилась на 20 %. Также приведён пример запроса и соответствующие ответы. В марте обе ИИ-модели следовали инструкции пользователя («только код») и таким образом генерировали непосредственно исполняемый код. Однако в июне они добавили лишние тройные кавычки до и после фрагмента кода, делая код неисполняемым. Пятый слайд демонстрирует эффективность визуального мышления ИИ-моделей. В части общих результатов и GPT-4, и GPT-3.5 показали себя на 2 % лучше в период с марта по июнь, точность их ответов улучшилась. Вместе с тем, объём информации, которую они генерировали, остался примерно на том же уровне. 90 % визуальных задач, которые они решали, не изменились за этот период. На примере конкретного вопроса и ответов на него можно заметить, что, несмотря на общий прогресс, GPT-4 в июне показала себя хуже, чем в марте. Если в марте эта модель выдала правильный ответ, то в июне уже ошиблась. Пока неясно, как обновляются эти модели, и могут ли изменения, направленные на улучшение некоторых аспектов их работы, негативно отразиться на других. Эксперты обращают внимание, насколько хуже стала новейшая версия GPT-4 по сравнению с версией марта в трёх тестовых категориях. Она только незначительно опережает своего предшественника в визуальном мышлении. Ряд пользователей могут не обратить внимания на снижение качества результатов работы одних и тех же версий ИИ-моделей. Однако, как отмечают исследователи, из-за популярности ChatGPT упомянутые модели получили широкое распространение не только среди рядовых пользователей, но и многих коммерческих организаций. Следовательно, нельзя исключать, что некачественная информация, сгенерированная ChatGPT, может повлиять на жизни реальных людей и работу целых компаний. Исследователи намерены продолжать оценку версий GPT в рамках более долгосрочного исследования. Возможно, OpenAI следует регулярно проводить и публиковать свои собственные исследования качества работы своих ИИ-моделей для клиентов. Если компания не сможет стать более открытой в этом вопросе, может потребоваться вмешательство бизнеса или государственных организаций с целью контроля некоторых базовых показателей качества ИИ. OpenAI будет обучать ИИ на новостях Associated Press
14.07.2023 [16:22],
Павел Котов
OpenAI и Associated Press (AP) заключили соглашение, в рамках которого разработчик систем искусственного интеллекта в ближайшие два года сможет обучать свои модели на материалах новостного издателя, а последний получит доступ к «технологическим и продуктовым компетенциям» OpenAI. AP уже не первый год работает с технологиями ИИ — они использовались, в частности, для генерации новостей о Малой бейсбольной лиге и студенческом спорте. Издатель — не единственный крупный партнёр OpenAI: недавно компания сообщила о заключении соглашения с Shutterstock, в рамках которого разработчик ИИ сможет использовать изображения, видео, музыку и метаданные для обучения своей модели DALL-E. Некоторые инструменты OpenAI для «улучшения» и «персонализации» своего контента использует также BuzzFeed. В этом году AP анонсировала новые проекты в области ИИ — генеративные модели будут составлять некоторые материалы на испанском языке и писать новости из области общественной безопасности в газете штата Миннесота. Издание также внедрило функции ИИ в поиск по новостям — фотографии и видео в его библиотеке можно находить при помощи запросов «описательным языком». При этом AP так и не конкретизировала, как именно будет использовать технологии OpenAI в рамках последнего партнерского соглашения. OpenAI попала под расследование FTC из-за подозрений в нарушениях конфиденциальности при обучении ChatGPT
13.07.2023 [22:35],
Владимир Фетисов
Федеральная торговая комиссия (FTC) США запустила расследование в отношении компании OpenAI, являющейся разработчиком популярного ИИ-бота ChatGPT. По данным источника, регулятор направил в адрес разработчика 20-страничное письмо, в котором говорится о начале проверки. Основанием для проверки стало подозрение в том, что большие языковые модели (LLM) OpenAI, являющиеся основой ИИ-алгоритмов, могли создаваться с использованием «нечестных или обманчивых» методов защиты конфиденциальности, нанося «репутационный ущерб» потребителям. В документе содержится 49 вопросов, многие из которых касаются конфиденциальной информации. Помимо прочего регулятор интересуется тем, какие данные компания использует для обучения ChatGPT, как эти данные получены и какие меры принимаются для того, чтобы чат-бот не получил доступ к конфиденциальной информации пользователей. FTC также просит OpenAI предоставить подробные данные об ошибке в программном обеспечении, из-за которой произошла утечка историй разговоров пользователей с чат-ботом и платёжных реквизитов клиентов компании. В письме отмечается, что OpenAI должна приостановить все процедуры, связанные с уничтожением документов. В ходе расследования регулятор также рассмотрит вопрос касательно того, насколько денежная компенсация со стороны OpenAI будет отвечать общественным интересам. Официальные представители FTC и OpenAI отказались комментировать данный вопрос. OpenAI сможет ещё шесть лет обучать ИИ на библиотеке изображений Shutterstock
12.07.2023 [11:46],
Павел Котов
Фотобанк Shutterstock на шесть лет продлил партнёрство с OpenAI, в рамках которого разработчик искусственного интеллекта сохранит право обучать свои модели на изображениях, видео, музыке и метаданных в библиотеке Shutterstock. Две компании начали сотрудничать в 2021 году — материалы Shutterstock помогли OpenAI обучить генератор изображений DALL-E. Глава OpenAI Сэм Альтман (Sam Altman) назвал это соглашение критически важным для разработки модели. В прошлом году Shutterstock учредила специальный фонд, из которого авторам материалов выплачиваются вознаграждения, когда их работа используется в обучении ИИ. Тогда же Shutterstock запустила на своём сайте генератор изображений и запретила продавать на площадке изображения, созданные ИИ, отличными от DALL-E. Впоследствии работа функции была расширена — с помощью ИИ теперь можно редактировать любые материалы на платформе. Функции ИИ также вскоре появятся на ресурсе Giphy, который Shutterstock недавно приобрела у Meta✴. В отличие от некоторых других платформ обмена изображениями, включая Getty Images, Shutterstock поддерживает технологии ИИ. Недовольство их распространением часто выражают авторы материалов: в Getty Images решили идти до конца, запретив на платформе размещение изображений, созданных генераторами, и подав в суд на ответственную за модель Stable Diffusion компанию Stability AI, которая якобы незаконно использовала защищённые авторским правом материалы для обучения ИИ. В Shutterstock правовые вопросы пока активно не поднимались, а интеграция с DALL-E помогает фотобанку активно расширять библиотеку. OpenAI открыла доступ к API языковой модели GPT-4 — самой продвинутой в своём арсенале
07.07.2023 [14:18],
Дмитрий Федоров
OpenAI открыла доступ к GPT-4, своей наиболее продвинутой языковой модели ИИ, через облачный API. Вместе с этим компания предоставила сторонним разработчикам доступ к API трёх других своих моделей ИИ. Кроме того, OpenAI объявила о своих планах постепенно отказаться от ряда более ранних нейронных сетей. OpenAI представила GPT-4 в марте как преемника GPT-3, ИИ-модели, которая за три года до этого привлекла к компании внимание всей отрасли. GPT-4 более эффективно интерпретирует инструкции пользователя, может принимать изображения в качестве входных данных и обладает расширенными возможностями обработки поставленных задач. Последние усовершенствования позволяют модели легче выполнять сложные запросы пользователей, например, решать математические задачи. API GPT-4 позволяет разработчикам интегрировать модель в свои приложения. Сервис теперь доступен для всех клиентов, которые ранее приобрели доступ к API. Компания откроет доступ для новых разработчиков позднее в этом месяце. В дальнейшем OpenAI намерена увеличить лимиты использования API. В долгосрочные планы компании входит запуск так называемой возможности тонкой настройки, которая позволит разработчикам повысить точность GPT-4 путём обучения на пользовательских наборах данных. Вместе с API GPT-4 был открыт доступ к программному интерфейсу трёх других моделей. Первая из них — GPT-3.5 Turbo, предшественница GPT-4, которая предлагает более ограниченные возможности за значительно меньшую стоимость. OpenAI также открыла доступ к API своих моделей DALL-E и Whisper. Последние две нейронные сети оптимизированы для генерации изображений и транскрибирования речи соответственно. В связи с этим событием OpenAI также объявила о планах прекратить работу ряда ранних языковых моделей, доступных через API. Они будут отключены 4 января 2024 года. Некоторые из затронутых моделей будут автоматически обновлены до более новых продуктов OpenAI, в то время как другие потребуют от разработчиков ручного перехода. Изменения частично связаны с обновлением API. Многие из моделей, которые будут постепенно отменены, используют прикладной интерфейс программирования, который OpenAI называет Completions API. Первоначально он стал доступен в 2020 году. Например, энтузиасту, чтобы подключиться к Chat Completion API и запустить ChatGPT на 39-летнем компьютере IBM , пришлось вручную написать весь запрос POST на языке C. В марте этого года OpenAI представила новый интерфейс под названием Chat Completions API, который станет основным направлением дальнейшей разработки. «Первоначально Completions API был представлен в июне 2020 года, чтобы обеспечить текстовую подсказку свободной формы для взаимодействия с нашими языковыми моделями. С тех пор мы поняли, что часто можем обеспечить лучшие результаты с помощью более структурированного интерфейса подсказок», — сообщает OpenAI в своём блоге. Новый API Chat Completions вносит несколько улучшений. В первую очередь, он обеспечивает защиту от атак с внедрением подсказок, которые представляют собой попытки хакеров изменить вывод модели ИИ с помощью вредоносных инструкций. Это усовершенствование должно помочь разработчикам повысить безопасность своих приложений на базе OpenAI. Продвинутые инструменты OpenAI и их растущая доступность открывают новые возможности для разработчиков и исследователей по всему миру. Однако как и с любыми новыми технологиями, важно использовать их ответственно и с учётом возможных рисков. OpenAI продолжает работать над улучшением своих моделей и сервисов, стремясь обеспечить безопасность и эффективность их использования. Посещаемость ChatGPT снизилась впервые с момента запуска
06.07.2023 [14:02],
Павел Котов
По итогам июня месячный трафик на сайте ChatGPT снизился впервые с момента запуска сервиса в ноябре прошлого года, уменьшилось и число уникальных посетителей, пишет Reuters со ссылкой на данные аналитической компании Similarweb. Глобальный трафик ChatGPT с настольных ПК и мобильных устройств по итогам июня 2023 года снизился на 9,7 % по сравнению с маем; количество уникальных посетителей уменьшилось на 5,7 %. Кроме того, на 8,5 % сократилось среднее время, проводимое пользователями на сайте. Эту динамику аналитики объяснили, во-первых, исчезновением эффекта новизны чат-бота, во-вторых — востребованностью генеративного ИИ с данными, поступающими в реальном времени. Поначалу популярность ChatGPT росла рекордными темпами: всего за два месяца число пользователей сервиса перевалило за 100 млн. Сегодня сайт проекта посещают 1,5 млрд человек в месяц, что делает его одним из 20 ведущих ресурсов в мире. ChatGPT оказался даже популярнее поисковой службы Microsoft Bing, частью которой он сам и стал. И даже Google была вынуждена выпустить собственный чат-бот Bard на основе генеративного ИИ. В мае было запущено приложение ChatGPT для iPhone, что также могло оказаться фактором снижения посещаемости сайта наряду со школьными каникулами — учащиеся активно используют ИИ при подготовке заданий. Пик загрузок приложения пришёлся на 31 мая; по состоянию на 4 июля его скачали 17 млн раз. В этом году разработавшая платформу компания OpenAI рассчитывает на доход в размере $200 млн — помимо ChatGPT, она зарабатывает на доступе к API своих ИИ-моделей. Кроме того, одна только Microsoft вложила в неё около $10 млрд. OpenAI формирует команду для контроля над созданием «сверхразумных» систем ИИ
06.07.2023 [08:41],
Руслан Авдеев
По последним данным, компания OpenAI, положившая начало гонке ИИ, представив чрезвычайно эффективного чат-бота ChatGPT, сформировала специальную команду для управления и контроля «сверхразумными» ИИ-системами. Её главой стал один из основателей компании и её главный научный сотрудник Илья Суцкевер. Согласно публикации в блоге OpenAI, ИИ, превосходящий по возможностям человеческий разум, может появиться в течение десятилетия. При этом вовсе не обязательно, что этот «сверхразум» будет благожелательно настроен к человечеству — поэтому необходимо искать пути контроля и ограничений возможностей подобных систем. Как заявляют в OpenAI, сегодня отсутствуют решения для эффективного контроля и управления сверхразумными ИИ и предотвращения «агрессии» с его стороны. Существующие технологии настройки искусственного интеллекта основаны на обучении с подкреплением на основе обратной связи от человека. При этом такие методики рассчитывают на то, что люди в принципе могут контролировать ИИ, что маловероятно с системами, потенциально более разумными, чем люди. Для изучения данного вопроса специальная команда получит доступ к 20 % вычислительных мощностей компании. К ним присоединятся учёные и программисты из отдела, занятого настройкой ИИ в компании, а также других подразделений — в ближайшие четыре года команда намерена справиться с ключевыми техническими вызовами, связанными с контролем сверхразумного ИИ. Фактически речь идёт о тренировке ИИ с использованием обратной связи. При этом будет использоваться специальный искусственный интеллект, предназначенный для оценки других ИИ-систем и обеспечения желаемых результатов, а также обеспечения безопасности их эксплуатации. В OpenAI полагают, что искусственный интеллект справится с этим лучше и быстрее, чем люди. По мере развития ИИ-системы компании предположительно будут брать на себя всё больше задач и в результате станут создавать и внедрять лучшие технологии настройки, чем имеются сейчас. Они будут работать вместе с людьми для того, чтобы их собственные преемники больше соответствовали потребностями людей, а те будут осуществлять только надзор, не принимая в исследованиях непосредственного участия. Конечно, ни один метод не имеет абсолютной защиты от ошибок, о чём и заявили в OpenAI. Использование одного ИИ для оценки других может привести к росту числа ошибок и уязвимостей в создаваемых ИИ, и вообще может выявить, что сложнейшая часть настройки может быть связана с самыми неожиданными аспектами работы ИИ. Впрочем, в компании убеждены, что настройка сверхразума в основе своей является задачей машинного обучения, и критически важную роль будут играть специалисты в данной отрасли. В компании рассчитывают в будущем поделиться плодами своих изысканий для настройки и обеспечения безопасности проектов, даже не связанных с OpenAI. По данным Reuters, противники инициативы считают, что ИИ с мышлением на уровне человеческого сможет выйти из-под контроля ещё до того, как займётся обеспечением безопасной работы других ИИ-систем. В апреле представители экспертного и бизнес-сообщества опубликовали открытое письмо, в котором предостерегали от создания ИИ, более совершенного, чем GPT-4. OpenAI отключила в ChatGPT Plus поиск в интернете через Bing — он давал свободный доступ к платному контенту
05.07.2023 [15:19],
Руслан Авдеев
Компания OpenAI, разработавшая чат-бот ChatGPT, отключила возможность веб-поиска для своего творения. Оказалось, что ИИ-сервис позволял обходить защиту систем доступа к платному контенту и получать свободный доступ к публикациям новостных агентств и блогеров, для просмотра которых необходима соответствующая подписка. Функция Browse with Bing, доступная для подписчиков ChatGPT Plus с марта текущего года, позволяла получать актуальную информацию в Сети в отличие от данных, с которыми приходилось иметь дело пользователям бесплатного ChatGPT. Как известно, бесплатная версия тренировалась на данных из интернета, опубликованных до конца 2021 года. OpenAI пришла к выводу, что обход функционирующих по подписочной модели информационных сервисов недопустим, и ChatGPT Plus действительно может демонстрировать закрытый контент вопреки представлениям разработчиков об идеальных механизмах работы подключённой к Сети системы. Например, если пользователь просил предоставить полный текст, соответствующий тому или иному URL, бот выполнял его пожелание. Компания отключила функцию Browse with Bing до тех пор, пока проблема не будет устранена для того, чтобы защитить права владельцев контента. OpenAI решилась пойти на такой шаг, безусловно, наносящий вред бизнесу. Вряд ли кому-либо из оплачивающих дополнительную функциональность ИИ-сервиса пользователей понравится новость о том, что их ограничивают в возможностях, предлагаемых альтернативными решениями на безвозмездной основе. Более того, поиск по сети может осуществлять даже «родственный» ChatGPT бот Bing Chat компании Microsoft, который тоже работает совершенно бесплатно. На OpenAI подали в суд за незаконное использование литературных произведений для обучения нейросетей
30.06.2023 [15:35],
Дмитрий Федоров
На OpenAI снова подали в суд за использование произведений для обучения ИИ. Два известных писателя подали иск против компании, которая стоит за ChatGPT и Bing Chat, в нарушении авторских прав. По их мнению, OpenAI использовала их произведения в качестве обучающих данных. Это, по всей видимости, первый поданный иск об использовании текста (в отличие от изображений или кода) в качестве обучающих данных. В поданном в окружной суд Северного округа Калифорнии иске истцы Пол Тремблей (Paul Tremblay) и Мона Авад (Mona Awad) утверждают, что OpenAI и её дочерние компании нарушили авторские права, нарушили Закон об авторском праве в цифровую эпоху (DMCA), а также нарушили калифорнийские и общие законодательные ограничения на недобросовестную конкуренцию. Писатели представлены юридической фирмой Джозефа Савери (Joseph Saveri) и Мэттью Баттерика (Matthew Butterick), той же командой, которая стоит за недавними исками, поданными против Stable Diffusion AI и GitHub. В жалобе утверждается, что роман Тремблея «Хижина на краю света» и два романа Авад: «13 способов посмотреть на толстую девушку» и «Зайка» использовались в качестве обучающих данных для GPT-3.5 и GPT-4. Хотя OpenAI не раскрывала, что эти романы находятся в её обучающих данных (которые держатся в секрете), истцы делают вывод, что они должны быть там, поскольку ChatGPT смог предоставить подробные резюме сюжетов и ответить на вопросы о книгах, что потребовало бы доступа к их текстам. «Поскольку языковые модели OpenAI не могут функционировать без выразительной информации, извлечённой из произведений истцов (и других лиц) и сохранённой в них, языковые модели OpenAI сами являются нарушающими авторские права производными произведениями, созданными без разрешения истцов и в нарушение их исключительных прав по Закону об авторском праве», — говорится в жалобе. Все три книги содержат информацию о защите авторских прав (CMI), такую как ISBN и номера регистрации авторских прав. Закон об авторском праве в цифровую эпоху (DMCA) утверждает, что удаление или фальсификация CMI является незаконной, и поскольку ответы ChatGPT не содержат этой информации, истцы утверждают, что OpenAI виновна в нарушении этого закона, помимо факта нарушения авторских прав. Хотя в настоящее время в иске участвуют только два истца, адвокаты намерены сделать иск коллективным, что позволило бы другим авторам, чьи авторские произведения использовались OpenAI, также получить компенсацию. Адвокаты требуют денежных возмещений, судебных издержек и судебного запрета, принуждающего OpenAI изменить своё программное обеспечение и деловые практики в отношении авторских материалов. На сайте юридической фирмы LLM Litigation подробно изложена позиция истцов и причины подачи иска. «Мы подали коллективный иск против OpenAI, обвиняя ChatGPT и его базовые большие языковые модели, GPT-3.5 и GPT-4, в том, что они перерабатывают авторские произведения тысяч писателей — и многих других — без согласия, компенсации или признания», — сообщают адвокаты. Они также критикуют концепцию генеративного ИИ, утверждая: «Генеративный искусственный интеллект — это просто человеческий интеллект, переупакованный и проданный как новый продукт. Это не новый вид интеллекта. Это просто новый способ использования чужого интеллекта без разрешения или компенсации». Они отмечают, что, хотя OpenAI заявляет, что не знает, какие именно книги использовались для обучения ИИ, это не имеет значения, поскольку: «OpenAI знает, что она использовала множество книг, и она знает, что она не получила разрешения от их авторов». Это не первый случай, когда OpenAI сталкивается с подобными обвинениями. Однако новый иск, станет первым, затрагивающим использование текстовых данных, и он может создать прецедент для будущих судебных дел о нарушении авторских прав в области ИИ. |
✴ Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»; |