реклама
Теги → gpt-4
Быстрый переход

Microsoft предложила GPT-модели компании OpenAI государственным органам США

Компания Microsoft предложила большие языковые модели (LLM), разработанные компанией OpenAI, федеральным ведомствам США, пользующимся облачными сервисами Azure. Об этом компания объявила в официальном блоге.

 Источник изображения: Josh Riemer/unsplash.com

Источник изображения: Josh Riemer/unsplash.com

Как сообщает Reuters, Microsoft добавила в облаке Azure Government поддержку как GPT-3, так и новейших и сложнейших вариантов LLM, стоящих за мультимодальной моделью GPT-4.

Бум использования LLM наблюдается с тех пор, как компания OpenAI, поддерживаемая Microsoft и во многом находящаяся под контролем последней, представила вариант ChatGPT с невиданными ранее характеристиками «общительности» — чат-бот способен поддерживать вполне «осмысленный» диалог, и теперь бизнесы всех размеров — от стартапов до крупных корпораций — пытаются представить сопоставимые решения и схожие функции в своих сервисах.

Microsoft впервые предоставляет GPT-технологии в облаке Azure Government, обеспечивающем сервисы многим государственным ведомствам Соединённых штатов — это первая известная попытка крупных компаний предоставить услугу подобного рода государственным структурам.

Впрочем, Microsoft уже предлагает подобную функциональность коммерческим пользователям Azure, обеспечивая доступ к Azure OpenAI Services. По данным на май 2023 года, имелось уже 4,5 тыс. клиентов.

В Microsoft заявили, что государственные клиенты могут давать ИИ различные задачи, включая генерацию контента, преобразование текстовых команд в программный код или, например, составление резюме объёмных материалов.

Стоит отметить, что сервисы на основе LLM до сих пор могут страдать от «галлюцинаций» и давать откровенно неверные ответы, а эксперты и лидеры отрасли неоднократно предупреждали об опасности ИИ и необходимости регулирования подобных разработок и решений и даже назвали свои продукты угрозой, сравнимой с пандемией и ядерной войной.

OpenAI пригрозила судом популярному проекту GPT4free из-за бесплатного использования GPT4 обходными путями

Для доступа к новейшей языковой модели GPT4 необходимо или оформить платную подписку ChatGPT Plus, либо заплатить за доступ к API OpenAI. Но есть и проект ресурса GitHub под названием GPT4free, который предоставит доступ к моделям GPT4 и GPT3.5 без надобности платить за API. Xtekky, студент-компьютерщик, который управляет репозиторием, сообщил, что получил письмо OpenAI с требованием закрыть проект в течение 5 дней под угрозой судебного разбирательства.

 Источник изображения: Andrew Neel/unsplash.com

Источник изображения: Andrew Neel/unsplash.com

GPT4free позволяет пользователям получить бесплатный доступ к моделям GPT4 и GPT3.5, направляя эти запросы через такие сайты, как You.com, Quora и CoCalc, и предоставляя ответы. Проект стал самым популярным новым репозиторием GitHub, собрав на минувшей неделе 14 тыс. звёзд.

Xtekky сообщил ресурсу Tom’s Hardware, что не думает, что OpenAI должна была выставлять требования к нему, поскольку GPT4free не подключается напрямую к её API, а вместо этого получает данные с других сайтов, которые оплачивают собственные лицензии на доступ к GPT. Если у владельцев этих сайтов возникли проблемы с его скриптами, запрашивающими их, они должны обратиться к нему напрямую, заявил автор проекта.

Помимо You.com, Quora и CoCalc, в репозитории GPT4Free также есть скрипты для сбора данных с других сайтов, таких как Forefront и TheB. Любой разработчик может использовать эти простые скрипты для создания собственного бота. Все сайты, с которыми работает GPT4Free, платят лицензию OpenAI за использование его больших языковых моделей (LLM).

Xtekky сказал, что готов удалять сценарии, использующие API отдельных сайтов, по запросу владельцев этих сайтов, добавив, что уже удалил скрипты, использующие phind.com, ora.sh и writesonic.com. Он отметил, любой из этих сайтов может блокировать внешнее использование своих внутренних API с помощью общих мер безопасности, например блокировать обращения к API с чужих IP-адресов.

Xtekky заявил, что не считает себя ответственным за то, как другие используют его проект, и что OpenAI не должна преследовать его за использование API других сайтов, которые находятся в открытом доступе. Он также сообщил, что пока не решил, удалять ли свой GitHub-репозиторий, и обратился к юристам за консультацией. Разработчик подчеркнул, что любой может найти способы использовать API вышеуказанных сайтов, поскольку они по-прежнему не защищены.

Уязвимость в GPT-4 открыла неограниченный бесплатный доступ к нейросети

Разработчик под ником xtekky представил проект GPT4Free — набор инструментов, предоставляющих бесплатный и почти неограниченный доступ к чат-боту на базе GPT-4 и его предшественнику GPT-3.5. Эксплойт был разработан методом обратного проектирования, которое помогло обнаружить уязвимость в API нейросети.

 Источник изображения: D koi / unsplash.com

Источник изображения: D koi / unsplash.com

Базовый тариф GPT-4 составляет $0,03 за 1000 токенов «подсказок» (примерно 750 слов) и $0,06 за 1000 токенов «завершения» (также около 750 слов). Доступ к GPT-3.5 обходится дешевле — $0,002 за 1000 токенов. Эксплойт GPT4Free не обходит механизмы платного доступа к платформе OpenAI, а «обманывает» API, заставляя платформу считать, что запросы поступают от ресурсов, к которым привязаны платные учётные записи: поисковой системы You.com, платформы для написания текстов WriteSonic и чат-бота Quora Poe.

В свою защиту разработчик заявляет, что GPT4Free предназначен для работы только в «образовательных целях». Он также заявил, что будет пытаться продолжить работу над проектом, даже если его попробуют засудить. По всей вероятности, оказавшиеся жертвами GPT4Free ресурсы в обозримом будущем ликвидируют бреши безопасности и закроют доступ для инструмента — исходный код проекта может удалить и GitHub, но это только подстегнёт его последователей.

Доступ к нейросети GPT-4 пока ограничен, и это затрудняет возможность её испытать для всех любопытствующих. Эксперты называют её одной из наименее прозрачных разработок OpenAI, и компания до сих пор не сообщила, когда платформа появится в открытом доступе. Не исключено, что впоследствии OpenAI придётся активно отбиваться от «пиратских» попыток добраться до ресурсов нейросети.

OpenAI приостановила обучение ИИ-модели GPT-5 и занялась «другими вещами»

При обсуждении потенциальных угроз, исходящих от систем на базе алгоритмов искусственного интеллекта (ИИ), гендиректор и соучредитель OpenAI Сэм Альтман (Sam Altman) заявил, что компания в настоящее время не занимается обучением ИИ-модели GPT-5, которая, как предполагается, должна прийти на смену представленной в марте GPT-4.

 Источник изображения: Andrew Neel / unsplash.com

Источник изображения: Andrew Neel / unsplash.com

В ходе выступления в Массачусетском технологическом институте Альтману поступил вопрос о недавнем открытом письме, подписанном видными членами технологического сообщества. В документе содержится призыв к специализирующимся на ИИ компаниям, в том числе OpenAI, приостановить обучение платформ «мощнее GPT-4». Подписавшие письмо выразили опасения по поводу безопасности будущих систем, но эксперты разошлись во мнениях относительно характера потенциальной угрозы, исходящей от ИИ, и вообще возможности «приостановить» развитие отрасли.

Отвечая на вопрос, Альтман отметил, что в открытом письме «отсутствует большинство технических нюансов по поводу того, где нам нужно сделать паузу». А по поводу обучения GPT-5 он сообщил, что компания сейчас этого не делает и в течение какого-то времени не будет. Приостановка работы над GPT-5 не означает, что компания прекратила совершенствовать GPT-4. «Помимо GPT-4 мы занимаемся и другими вещами, которые, как мне кажется, касаются вопросов безопасности, которые важно решить, и о которых в письме совершенно не говорится», — добавил глава OpenAI.

GPT-4 привлекли к устранению ошибок в программах — ИИ не остановится до полного восстановления кода и объяснит, что пошло не так

Разработчик с псевдонимом BioBootloader представил скрипты «Росомаха» (Wolverine), которые выявляют причины неработоспособности программ и исправляют ошибки с привлечением большой языковой модели GPT-4. «Росомаха» трудится до тех пор, пока программа не начнёт работать. Каждая найденная ошибка сопровождается пояснением, почему её нужно исправить. Пока это наглядный пример возможностей машинного обучения, но перспективы бесконечны.

 Источник изображения: Pixabay

Источник изображения: Pixabay

Каждому программисту известно, что обычно проще написать что-то своё, даже с нуля, чем исправлять чужое или выискивать ошибки. Подключить искусственный интеллект к поиску ошибок в программах — это сильнее, чем научить его писать программы. Фактически программы можно будет наделять возможностью к «самовосстановлению» подобно герою комиксов Marvel, в честь которого и назвали этот проект.

Представленный BioBootloader скрипт, который доступен на GitHub, помогает искать ошибки в программах на Python. Но этот же подход можно реализовать для поиска ошибок в программах, написанных на других языках. Для практического использования «Росомахи» необходим ключ OpenAI API для моделей GPT-3.5 или GPT-4, за использование которых взимается плата. Сейчас API GPT 3.5 открыт для всех, у кого есть учетная запись OpenAI, хотя доступ к GPT-4 пока ограничен.

«Он [скрипт] запускает его [код], видит сбой, но затем идёт и разговаривает с GPT-4, чтобы попытаться выяснить, как это исправить, — рассказал разработчик. — GPT-4 возвращает объяснение ошибок программы, показывает изменения, которые он пытается внести, а затем снова запускает программу. Увидев новые ошибки, GPT-4 снова исправляет код, после чего он запускается правильно. В итоге исходный файл Python содержит изменения, добавленные GPT-4».

ChatGPT сдал экзамен на врача и в считаные секунды поставил правильный диагноз пациенту

Доктор Айзек Кохейн (Isaac Kohane), гарвардский специалист по информационным технологиям и медицине, совместно с двумя коллегами протестировал GPT-4 на предмет возможности использовать искусственный интеллект во врачебной сфере. По словам исследователя, система проявила себя лучше многих врачей.

 Источник изображений: Tumisu / pixabay.com

Источник изображений: Tumisu / pixabay.com

Результаты эксперимента доктор Кохейн изложил в книге «Революция ИИ в медицине», написанной совместно с независимой журналисткой Кэри Голдберг (Carey Goldberg) и вице-президентом Microsoft по исследованиям Питером Ли (Peter Lee). Выпущенная в марте ИИ-модель GPT-4 в 90 % случаев правильно отвечала на вопросы из экзамена на получение лицензии врача, выступая лучше ChatGPT на базе GPT-3 и GPT-3.5 и даже некоторых докторов, у которых уже есть лицензии.

GPT-4 отлично проявил себя не только как экзаменуемый и знаток фактов, но и как переводчик. Он разобрался с медицинской выпиской пациента на португальском языке и перефразировал наполненный техническим жаргоном текст в материал, с которым справится и шестиклассник. ИИ предлагал врачам полезные советы, как вести себя у постели больного и как разговаривать с пациентом о его состоянии понятным, но сострадательным языком. Машина справлялась с обработкой объёмных отчётов об обследовании, мгновенно обобщая их содержимое.

Свои ответы система излагала в формате, который как будто указывает на интеллект сродни человеческому, но исследователи всё равно пока делают вывод, что в своих размышлениях ИИ ограничен шаблонами — пускаться в полноценные рассуждения с причинно-следственными связями GPT-4 ещё не умеет. Тем не менее, когда системе предложили данные по реальному случаю, та на уровне специалиста с годами учёбы и практики верно диагностировала редкую болезнь.

Доктор Кохейн, с одной стороны, рад, что в обозримом будущем такой инструмент будет доступен миллионам людей, но, с другой стороны, он пока не знает, как сделать платформу безопасной для пользователя. GPT-4 не всегда надёжен в своих ответах, и в книге приводится множество примеров его ошибок разного рода. Причём ИИ склонен настаивать на своей правоте, когда ему на эти ошибки указывают — это явление в технической среде уже назвали «галлюцинациями». В свою защиту GPT-4 однажды заявил: «У меня нет намерений кого-то обманывать или вводить в заблуждение, но я иногда совершаю ошибки и делаю предположения, основываясь на неполных или неточных данных. Я не даю клинических оценок и не несу этической ответственности как врач или медсестра».

В качестве одной из мер защиты авторы книги предлагают проводить по нескольку сессий с GPT-4, чтобы ИИ сам «перечитывал» или «проверял» собственную работу «свежим взглядом». Иногда это помогает выявлять ошибки: GPT-4 несколько раз в сдержанной форме признавал своё заблуждение. Или можно поручить проверку его работы специалисту.

На нейросеть GPT-4 нажаловались в Федеральную торговую комиссию США

Центр искусственного интеллекта и цифровой политики под руководством правозащитника, отстаивающего вопросы конфиденциальности пользователей, Марка Ротенберга (Marc Rotenberg) подал жалобу в Федеральную торговую комиссию США (FTC) с просьбой инициировать расследование в отношении большой языковой модели GPT-4. Правозащитники требуют проверить проект на соответствие законам США и других стран.

 Источник изображения: D koi / unsplash.com

Источник изображения: D koi / unsplash.com

Ротенберг стал одним из более тысячи представителей общественности, подписавшихся под открытым письмом, в котором разработчиков призывают минимум на полгода приостановить обучение моделей ИИ на базе GPT-4.

«Нам необходимо практическое решение, и это практическое решение исходит от Федеральной торговой комиссии. Нам нужно, чтобы они предписали OpenAI приостановить дальнейшие релизы GPT, пока отсутствуют адекватные меры безопасности», — цитирует Bloomberg сделанное в ходе телефонного разговора заявление господина Ротенберга.

Документ, который его организация подала в FTC, содержит призыв к ведомству инициировать расследование и «обеспечить установку необходимых барьеров, чтобы защитить потребителей, бизнес и коммерческий рынок». FTC ранее пообещала изучить развивающуюся отрасль искусственного интеллекта, а глава ведомства Лина Хан (Lina Khan) пообещала проследить, чтобы техногиганты не установили доминирование в этой области.

Тем временем OpenAI плотно сотрудничает с корпорацией Microsoft, которая в обмен на многомиллиардные инвестиции получила эксклюзивный доступ к разработкам компании. Улучшить свою поисковую службу при помощи ИИ решила и Google.

«Угроза всему человечеству»: Маск, Возняк и более 1000 экспертов призвали остановить обучение нейросетей, превосходящих GPT-4

Илон Маск (Elon Musk), Стив Возняк (Steve Wozniak), а также более 1000 других экспертов в области искусственного интеллекта и представителей IT-индустрии призвали ввести полугодовой мораторий на обучение ИИ-систем, более производительных, чем недавно представленная модель GPT-4 компании OpenAI. В открытом письме они предупредили о потенциальных рисках для общества.

 Источник изображения: D koi/unsplash.com

Источник изображения: D koi/unsplash.com

Письмо опубликовано некоммерческим институтом Future of Life и подписано многими известными в IT-индустрии людьми. Все они призвали «поставить на паузу» разработку ИИ до того, как для отрасли будут разработаны общие протоколы и стандарты безопасности, применение которых будет проверяться независимыми аудиторами.

В письме подчёркивается, что мощные ИИ-системы должны разрабатываться только после того, как человечество будет уверено в позитивных последствиях такого развития и в том, что связанные с ними риски будут управляемыми. Также в письме упоминается о потенциальных угрозах для общества и цивилизации со стороны способных конкурировать с людьми ИИ-систем, что может привести к экономическим или политическим потрясениям. Разработчиков призывают тесно сотрудничать с регуляторами.

«Обширные исследования показали, что подобные системы с искусственным интеллектом, которые конкурируют с человеком, могут представлять серьезную опасность для всего человечества» — говорится в письме.

Письмо опубликовано после того, как к группе обеспокоенных развитием ИИ присоединился Европол, предупредивший о возможности злоупотребления злоумышленниками системами вроде ChatGPT — их можно использовать для фишинга, дезинформации и совершения киберпреступлений. Маск, чья компания Tesla довольно давно использует элементы искусственного интеллекта в своих системах автопилота, открыто и неоднократно выражал обеспокоенность опасностью ИИ-систем.

С момента релиза в прошлом году чат-бот ChatGPT компании OpenAI, поддерживаемой Microsoft, продемонстрировал такие качества, которые вынудили конкурентов срочно активизировать разработку собственных больших языковых моделей. В результате компании начали спешно интегрировать генеративный ИИ в свои продукты. Глава OpenAI Сэм Альтман (Sam Altman), по данным представителя Future of Life, письмо не подписывал, а в самой компании отказались от комментариев.

По словам одного из экспертов, необходимо замедлить соответствующие работы, пока человечество не начнёт лучше понимать последствия, поскольку ИИ-системы способны нанести серьёзный ущерб. Особенно с учётом того, что крупные игроки хранят в тайне информацию о том, над чем они работают — поэтому обществу будет трудно защититься в случае, если опасения оправдаются.

Microsoft привлекла нейросеть GPT-4 к борьбе с хакерскими атаками в новой системе Security Copilot

Системы искусственного интеллекта уже применяются для создания графики, чат-ботов и даже управления умными домами. Компания Microsoft доверила ИИ одну из важнейших сфер современной жизни — защиту от киберугроз. Инструмент Security Copilot позволяет распознать кибератаку, даже когда явные признаки ещё отсутствуют и помогает в её устранении.

 Источник изображения:  Sigmund Avatar/unsplash.com

Источник изображения: Sigmund Avatar/unsplash.com

В ситуациях, когда безопасность компьютера по какой-то причине оказалась под угрозой, Security Copilot поможет определить, что случилось, что делать, и как предотвратить повторение аналогичных инцидентов у других. Компания представила новое решение на базе модели GPT-4 — Security Copilot помогает справиться с угрозами корпоративным клиентам.

Пока инструмент доступен именно корпоративным клиентам. Та же большая языковая модель, что отвечает за работу приложений вроде Bing Chat, стоит и за Security Copilot. Тем не менее, в данном случае речь идёт о варианте, специально обученном на материалах и терминологии, используемых IT-профессионалами. Кроме того, Microsoft уже подключила Copilot к другим своим инструментам, отвечающим за обеспечение безопасности. В компании обещают, что со временем он сможет использовать и сторонние программные решения.

Если большинство пользовательских приложений на основе GPT-4 обучались на уже несколько устаревших массивах данных, то Security Copilot получает новую информацию в режиме реального времени, изучая буквально триллионы сигналов об угрозах, которые Microsoft получает ежедневно. В этом преимущество модели — Security Copilot может распознавать скрытые сигналы ещё до того, как факт атаки стал очевиден. Благодаря этому, инструмент может использоваться для распознавания и своевременного устранения угроз.

При этом довольно давно выяснилось, что у ИИ вроде ChatGPT, Bing Chat или Google Bard могут случаться «галлюцинации», в ходе которых за основу «рассуждений» принимаются совершенно недостоверные факты. В сфере безопасности это может стать очень опасным явлением. В Microsoft уже подтвердили, что Security Copilot «не всегда понимает всё правильно». К счастью, в случае с продуктом Microsoft предусмотрен механизм обратной связи с пользователями, позволяющий предоставлять всё более релевантные ответы.

Пока Microsoft не сообщала, что может произойти в случае столкновения защитного ИИ с ИИ, работающем на злоумышленников, например — созданным для атаки на пользователей и бизнесы. В любом случае компания сообщила, что корпоративные клиенты уже могут протестировать Security Copilot на небольшом сегменте своих пользователей. Если эксперимент увенчается успехом, в будущем, вероятно, он сможет помочь и обычным пользователям.

В Microsoft 365 интегрировали ИИ на базе GPT-4 — он поможет писать в Word и делать презентации в PowerPoint

Сегодня Microsoft представила ИИ-помощник Copilot для офисных приложений пакета Microsoft 365. После внедрения чат-бота на основе ИИ в Bing, Microsoft движется к интеграции больших языковых моделей OpenAI в свои офисные приложения. Объявление Microsoft было сделано всего через несколько дней после того, как Google анонсировала функции искусственного интеллекта для Workspace, включая генерацию текста с помощью искусственного интеллекта в Gmail, «Документах» и многом другом.

 Источник изображений: Microsoft

Источник изображений: Microsoft

Copilot для приложений и служб Microsoft 365, основанный на GPT-4 от OpenAI, будет появляться в виде чат-бота на боковой панели для генерации текста в Word, создания презентаций PowerPoint или сводных таблиц Excel. Copilot поможет при подготовке к собранию в Microsoft Teams, сообщит об обновлениях по связанным проектам и организационных изменениях. Copilot также интегрирован в Outlook, что позволит тратить меньше времени на удаление электронных писем и ответы на них. Он поможет сгруппировать темы электронной почты или создать черновики ответов с возможностью задать тон и длину электронного письма.

Microsoft утверждает, что Copilot — не просто ChatGPT, добавленный к Microsoft 365. Эта система объединяет приложения Microsoft 365 с данными и аналитикой Microsoft Graph и нейросетью GPT-4. Microsoft Graph позволяет обрабатывать уникальный контекст пользователя и делать его более результативным. При создании документа на основе данных пользователя, Copilot отправит запрос в Microsoft Graph для получения контекста и данных, а затем отправит модифицированный запрос в большую языковую модель GPT-4. Ответ ИИ также будет проверен в Microsoft Graph на безопасность и соответствие.

Microsoft также планирует запустить функцию Business Chat для работы с данными и приложениями Microsoft 365. Business Chat будет использовать Microsoft Graph для объединения документов, презентаций, электронных писем, заметок и контактов в единый интерфейс чата в Microsoft Teams, который будет генерировать сводки, обзоры планирования и многое другое.

Microsoft, безусловно, быстро движется вперёд со своим видением приложений Office на основе ИИ, что вызывает обоснованные опасения, тем более, что Microsoft недавно уволила всю команду по этике искусственного интеллекта. Команда работала над выявлением рисков, связанных с внедрением Microsoft языковых моделей OpenAI в программное обеспечение и услуги.

Руководитель Microsoft 365 Джаред Спатаро (Jared Spataro) не разделяет этих опасений. «Для удовлетворения потребностей наших клиентов, мы должны действовать быстро и ответственно, учась на ходу, — говорит Спатаро. — Мы тестируем Copilot с небольшой группой клиентов, чтобы получать отзывы и улучшать наши модели по мере масштабирования. Мы проясняем, как система принимает решения, отмечая ограничения, ссылаясь на источники и предлагая пользователям просматривать, проверять факты и корректировать контент на основе предметной экспертизы».

Microsoft сейчас проводит совместное тестирование Copilot с 20 клиентами и планирует постепенно расширять охват тестирования. Компания обещает сообщить более подробную техническую информацию, сроки доступности Copilot и ценовую политику в ближайшие месяцы.

«В открытом коде смысла нет»: OpenAI перестала быть открытой исследовательской организацией

Недавно OpenAI анонсировала большую языковую ИИ-модель нового поколения GPT-4. Возможности системы все ещё оцениваются, но многие не связанные с компанией исследователи и эксперты уже выразили разочарование: несмотря на название разработчика, GPT-4 уже не является открытой моделью.

 Источник изображений: Gerd Altmann / pixabay.com

Источник изображений: Gerd Altmann / pixabay.com

Компания опубликовала множество результатов тестов GPT-4 и некоторые демонстрационные материалы, но ничего не рассказала об использованных при обучении системы данных, о затратах на электроэнергию, об использованном оборудовании и задействованных при её создании методах. Эксперты это решение раскритиковали, ответив, что оно подрывает дух компании как исследовательской организации, а повторить её работу другие игроки уже не смогут. Это также затрудняет разработку методов защиты от угроз, которые может представлять ИИ.

Прояснить ситуацию решили журналисты ресурса The Verge в беседе с главным научным сотрудником и соучредителем OpenAI Ильёй Суцкевером (Ilya Sutskever). Решение компании он объяснил конкурентной средой и соображениями безопасности. В разрезе конкуренции это решение, по его мнению, только будет способствовать развитию отрасли. А по поводу аспекта безопасности он дал следующие пояснения: «Эти модели очень мощные, и они становятся ещё мощнее. В какой-то момент при желании будет очень легко причинить этими моделями значительный ущерб. И по мере расширения этих возможностей обретает смысл нежелание их открывать».

OpenAI была основана в 2015 году — учредителями стали её теперешний генеральный директор Сэм Альтман (Sam Altman), вышедший из состава совета директоров в 2018 году Илон Маск (Elon Musk), а также Суцкевер. Первоначально цель организации декларировалась как «создание ценности для всех, а не акционеров» и «свободное сотрудничество» с другими в области ИИ. Но со временем приоритеты изменились, и в итоге OpenAI получила многомиллиардные инвестиции от Microsoft, предоставив софтверному гиганту эксклюзивные бизнес-лицензии.

«Мы были неправы. Мы были откровенно неправы. Если вы, как и мы, верите, что ИИ станет крайне, невероятно мощным, то в открытом коде смысла нет. Это плохая идея. <..> Не сомневаюсь, что через несколько лет всем станет совершенно очевидно, что ИИ с открытым кодом — это просто неразумно», — прокомментировал Суцкевер кардинальное изменение стратегии OpenAI.

Вопрос о потенциальной угрозе ИИ-систем учёный счёл справедливым, но, по его словам, в качестве защитной меры они предоставляют некоторым учёным доступ к модели и материалам проекта. А вот по поводу исходных данных для обучения ИИ выразился намного туманнее: «Считаю, что обучающие данные — это технология. [Со стороны] может выглядеть по-другому, но это так. И причина, по которой мы не раскрываем обучающие данные, почти та же, по которой мы не раскрываем количество параметров». И не ответил на вопрос, может ли OpenAI однозначно заявить, что среди обучающей информации нет пиратских материалов.

ИИ-бот в поисковике Microsoft Bing стал доступен всем желающим

Поисковик Bing впервые за десятилетие оказался в центре внимания после того, как в прошлом месяце Microsoft добавила в него продвинутого чат-бота на основе ИИ-алгоритма, созданного разработчиками из Open AI. При этом софтверный гигант не спешил делать чат-бота доступным для всех, ограничившись тестовой группой пользователей. Теперь же подход к использованию нового Bing изменился, и взаимодействовать с поисковиком можно без длительного ожидания.

 Источник изображения: Microsoft/OpenAI

Источник изображения: Microsoft/OpenAI

Перейти к диалогу с чат-ботом можно просто нажав кнопку «Подробнее» на странице Bing.com, после чего вы попадёте на страницу Bing.com/new. Здесь вам будет предложено «Присоединиться к списку ожидания», и нажав на данную кнопку вы сразу же получите доступ к чат-боту. Если вы ранее записывались на лист ожидания, то у вас отобразится кнопка «Начать чат». Работает чат-бот только через Edge, так что открыв упомянутые ссылки в другом браузере пользователю предложат перейти в Edge. Для использования нового Bing потребуется авторизоваться с учётной записью Microsoft. Официальные представители компании пока никак не комментируют новый подход.

Microsoft стремится интегрировать разработки Open AI во многие свои продукты, не ограничиваясь только поисковиком Bing и браузером Edge. В прошлом месяце разработчики анонсировали появление чат-бота на базе языковой модели GPT-4 на панели задач Windows 11. Сегодня Microsoft проведёт мероприятие «Изобрести производительность заново с помощью ИИ», в рамках которого широкой публике представят ИИ-инструменты, которые станут доступны пользователям облачных сервисов Microsoft 365 и Dynamics 365.

Большая языковая модель GPT-4, созданная специалистами Open AI при поддержке Microsoft, подтолкнула к значительному росту популярности поисковика Bing. Не так давно сообщалось, что количество ежедневно активных пользователей Bing превысило 100 млн человек.

Обновлено:

У пользователей из России наблюдаются проблемы с доступом к ИИ-боту в Bing, в том числе и через VPN. О причинах пока ничего не известно. В других странах всё работает нормально — получить доступ к боту можно в несколько кликов.

«Джва года» ожиданий подошли к концу: нейросеть GPT-4 создала игру про ограбление «корованов» по мотивам того самого мема

Блогер и основатель стартапа neural.love Денис Ширяев решил проверить возможности представленной на днях GPT-4 и попросил новейшую версию языковой ИИ-модели от компании OpenAI создать «простенькую» двухмерную игру на JavaScript по очень специфичному описанию.

 Источник изображения: Steam

Источник изображения: Steam

В качестве описания задачи для GPT-4 Ширяев использовал ставшее мемом письмо некоего Кирилла, попросившего в начале 2000-х российскую студию MiST Land South («Код доступа: РАЙ», «Власть закона») сделать игру в жанре «3Д-экшон» (здесь и далее цитаты с орфографией автора) с возможностью грабить «корованы».

Суть была такова: пользовать мог играть лесными эльфами, охраной дворца и злодеем (у каждого был уникальный геймплей), мир был разделён на четыре зоны, а утраченную в бою конечность (и даже глаз) позволялось заменить протезом или жить дальше без неё. К моменту отправки письма Кирилл хотел такую игру целых «джва года».

GPT-4 на основе всего этого написал код для «почти 2D-экшона». Геймплейного разнообразия или множественных протагонистов из письма Кирилла в проекте нейросети нет, но есть караван (из верблюда, слона и лошади) и разделённое на четыре разноцветные зоны поле.

Управляя зелёной точкой клавишами стрелок на клавиатуре, игрок может гоняться за караваном и стрелять по нему (это действие завязано на пробел), но при попадании он телепортируется в другое место. Отрицательный статус грабежа «корована» в верхней части экрана изменить никак нельзя.

Созданная GPT-4 по запросу Ширяева игра про ограбление «корованов» доступна для бесплатного ознакомления на платформе CodePen. По мнению блогера, последние достижения в сфере искусственного интеллекта сопоставимы по масштабу с «переизобретением электричества».

Стоит отметить, что творение GPT-4 — не первая игра по мотивам легендарного письма. Насколько лет назад студия Digital Nomads якобы при участии того самого Кирилла анонсировала симулятор «К.О.Р.О.В.А.Н.Ы». Релиз ожидался ещё в 2020 году, но этот проект так и не вышел. В отличие от произведения GPT-4.

Поисковик Bing уже месяц использует представленную вчера ИИ-модель GPT-4

Ранее на этой неделе компания Open AI официально представила GPT-4 — новую версию своей большой языковой ИИ-модели, которая показывает «производительность на уровне человека» во многих профессиональных задачах. Вслед за этим Microsoft подтвердила, что GPT-4 уже используется в предварительной версии нового поисковика Bing в течение последних недель.

«Мы рады подтвердить, что новый Bing работает на GPT-4, которую мы адаптировали для поиска. Если вы пользовались новой предварительной версией Bing в течение последних пяти недель, вы уже испытали раннюю версию этой мощной модели. По мере того, как Open AI будет вносить изменения в GPT-4 в дальнейшем, Bing продолжит получать выгоду от этих улучшений», — написал в блоге разработчиков Юсуф Мехди (Yusuf Mehdi), вице-президент Microsoft по потребительскому маркетингу. В сообщении также сказано, что желающим испытать новую модуль GPT-4 следует записаться на участие в тестирование новой предварительной версии Bing.

Отметим, что ИИ-модель GPT-4 значительно больше предыдущих версий, а в процессе её обучения использовалось большее количество данных. GPT-4 способна работать не только с текстом, но и с изображениями. Это означает, что алгоритм способен распознавать, что изображено на фото, схеме или рисунке, а также учитывать эту информацию при решении задачи. По словам разработчиков, новая модель будет давать меньше фактически неверных ответов.

OpenAI запустила GPT-4 — новая версия нейросети стала намного умнее и получила поддержку изображений

OpenAI представила GPT-4 — новейшую версию своей большой языковой ИИ-модели, которая, демонстрирует «производительность на уровне человека» во многих профессиональных задачах. GPT-4 намного больше предыдущих версий — она была обучена на большем количестве данных и использует больший объём информации, что делает нейросеть более дорогой в работе. При этом GPT-4 способна работать не только с текстом, но и с изображениями, хотя на выходе она по-прежнему даёт только текст.

Большая языковая модель GPT от OpenAI используется во многих системах искусственного интеллекта, которые поразили людей в технологической отрасли за последние шесть месяцев, включая ChatGPT и поисковик Bing с ИИ. Новейшая GPT-4 — это предварительный просмотр новых достижений, которые могут начать просачиваться в потребительские продукты, такие как чат-боты, в ближайшие недели. ИИ-бот в Bing уже использует GPT-4, сообщила Microsoft во вторник.

Важнейшим нововведением GPT-4 стала поддержка не только текста, но и изображений в качестве вводных. Новая версия нейросети может понимать, что изображено на фото, схеме, рисунке или другом изображении, и учитывать эти данные при решении задачи. Ещё ИИ способно объяснять данные, представленные в виде диаграммы. Но пока что поддержка с изображений проходит закрытое тестирование.

OpenAI утверждает, что новая модель будет давать меньше фактически неверных ответов, реже «сходить с ума» и говорить на запрещенные темы, и даже показывать лучшие результаты, чем люди, во многих стандартизированных тестах. Касательно последнего, по заявлению OpenAI, модель GPT-4 сдала смоделированный адвокатский экзамен лучше 90 % людей, экзамен SAT Reading test (нужно ответить на вопросы по небольшим текстам) — лучше, чем 93 % людей, а экзамен SAT по математике — лучше, чем 89 % людей.

Однако OpenAI предупреждает, что новое программное обеспечение еще не совершенно и что во многих сценариях оно уступает человеку. По словам компании, у модели всё ещё есть серьезные проблемы с «галлюцинациями» (выдумыванием фактов), так что она не является надёжной с точки зрения представления фактов. GPT-4 по-прежнему склонна настаивать на своей правоте, когда ошибается.

«GPT-4 по-прежнему имеет множество известных ограничений, над устранением которых мы работаем, таких как социальные предубеждения, галлюцинации и состязательные подсказки, — говорится в сообщении компании — В обычном разговоре разница между GPT-3.5 и GPT-4 может быть малозаметной. Разница проявляется, когда сложность задачи достигает достаточного порога — GPT-4 более надежен, креативен и способен обрабатывать гораздо более тонкие инструкции, чем GPT-3.5».

В настоящее время многие исследователи в области ИИ считают, что большинство последних достижений в сфере ИИ связаны с запуском все более крупных моделей, обученных на тысячах компьютерных систем. Такое обучение может стоить десятки миллионов долларов. GPT-4 является примером подхода, основанного на увеличении масштаба для достижения лучших результатов.

Microsoft инвестировала миллиарды в OpenAI и для обучения модели GPT-4 использовалась облачная инфраструктура Microsoft Azure. Разработчики не опубликовали подробностей о конкретном размере модели или аппаратном обеспечении, которое они использовали для её обучения и которое может быть применено для воссоздания модели, сославшись на «конкурентную среду».

Новая модель сначала будет доступна платным подписчикам ChatGPT, а также будет доступна в составе API, что позволит сторонним разработчикам интегрировать ИИ в свои приложения. Для доступа к API нужно записаться на лист ожидания. OpenAI будет взимать около 3 центов за примерно 750 слов подсказок и 6 центов за примерно 750 слов ответа.

window-new
Soft
Hard
Тренды 🔥
Новая статья: Верные спутники: 20+ полезных Telegram-ботов для путешественников 2 ч.
Итоги Golden Joystick Awards 2024 — Final Fantasy VII Rebirth и Helldivers 2 забрали больше всех наград, а Black Myth: Wukong стала игрой года 4 ч.
В программу сохранения классических игр от GOG вошли S.T.A.L.K.E.R. Shadow of Chernobyl и Call of Pripyat, а Clear Sky — на подходе 5 ч.
Star Wars Outlaws вышла в Steam с крупным обновлением и дополнением про Лэндо Калриссиана 6 ч.
Рекордная скидка и PvP-режим Versus обернулись для Warhammer: Vermintide 2 полумиллионом новых игроков за неделю 8 ч.
Новый трейлер раскрыл дату выхода Mandragora — метроидвании с элементами Dark Souls и нелинейной историей от соавтора Vampire: The Masquerade — Bloodlines 9 ч.
В Японии порекомендовали добавить в завещания свои логины и пароли 10 ч.
Обновления Windows 11 больше не будут перезагружать ПК, но обычных пользователей это не касается 11 ч.
VK похвасталась успехами «VK Видео» на фоне замедления YouTube 12 ч.
GTA наоборот: полицейская песочница The Precinct с «дозой нуара 80-х» не выйдет в 2024 году 14 ч.
Представлен внешний SSD SanDisk Extreme на 8 Тбайт за $800 и скоростной SanDisk Extreme PRO с USB4 4 ч.
Представлен безбуферный SSD WD_Black SN7100 со скоростью до 7250 Мбайт/с и внешний SSD WD_Black C50 для Xbox 4 ч.
Новая статья: Обзор ноутбука ASUS Zenbook S 16 (UM5606W): Ryzen AI в естественной среде 4 ч.
Redmi показала флагманский смартфон K80 Pro и объявила дату его премьеры 6 ч.
Астрономы впервые сфотографировали умирающую звезду за пределами нашей галактики — она выглядит не так, как ожидалось 9 ч.
Представлена технология охлаждения чипов светом — секретная и только по предварительной записи 9 ч.
Японская Hokkaido Electric Power намерена перезапустить ядерный реактор для удовлетворения потребности ЦОД в энергии 10 ч.
Грузовик «Прогресс МС-29» улетел к МКС с новогодними подарками и мандаринами для космонавтов 10 ч.
Meta планирует построить за $5 млрд кампус ЦОД в Луизиане 11 ч.
Arm задаёт новый стандарт для ПК, чтобы навязать конкуренцию x86 11 ч.