Опрос
|
реклама
Быстрый переход
ИИ-помощник Microsoft 365 Copilot получит больше функций, а предварительный доступ к нему будет платным
09.05.2023 [17:02],
Матвей Филькин
Компания Microsoft расширяет предварительный доступ к Microsoft 365 Copilot — помощнику на базе OpenAI GPT-4, который предоставляет ИИ-возможности в приложениях и сервисах Microsoft 365. Технологический гигант также анонсировал новый инструмент индексирования, который позволяет Copilot более точно составлять отчеты о внутренних данных компании, а также некоторые новые функции Copilot для таких приложений, как Microsoft Whiteboard, Outlook и PowerPoint. Компания запускает программу раннего доступа к Microsoft 365 Copilot — платную предварительную версию, доступную только по приглашению, которая первоначально будет развёрнута для 600 крупных клиентов по всему миру. Им будет предложено заплатить неустановленную сумму за ранний доступ, но Microsoft не сообщает, когда начнётся развёртывание. Техногигант также представляет ряд новых возможностей для Microsoft 365 Copilot. Для корпоративных клиентов, использующих пакет Microsoft 365 E3 или E5, распространяется новая функция семантического индекса, которая создаёт интуитивно понятную карту как пользовательских, так и корпоративных данных. Microsoft заявляет, что семантический индекс «имеет решающее значение для получения актуальных и действенных ответов на запросы в Microsoft 365 Copilot». Например, Microsoft говорит, что, спросив Copilot об «отчёте о продажах за март», инструмент распознает, что «отчёты о продажах составляются Келли из финансовой команды и создаются в Excel», а не просто ищет какие-либо документы, содержащие эти ключевые слова. Copilot также добавляется в Whiteboard, приложение для совместной работы в пакете Microsoft 365. Пользователи могут вызвать Copilot, чтобы помочь генерировать идеи по конкретным темам и обобщать содержимое доски. Copilot также может использовать Microsoft Designer, новое приложение компании для графического дизайна, чтобы воплотить эти идеи в жизнь, создавая изображения на основе подсказок, созданных на доске. DALL-E, инструмент OpenAI для преобразования текста в изображение, добавляется в Microsoft PowerPoint. Пользователи смогут попросить Copilot генерировать изображения на основе текстовых описаний, которые затем могут быть включены в презентации. Copilot в PowerPoint также может оптимизировать текст, например превращать маркеры в абзацы (или наоборот) или изменять тон. Наконец, Outlook получает новые возможности обучения Copilot, которые предлагают рекомендации по написанию электронных писем в сжатые сроки или при работе с деликатными темами – инструмент может посоветовать пользователям, как эффективно донести информацию в этих обстоятельствах с соответствующей ясностью и тоном. Microsoft не упомянула, когда новые функции будут доступны для платных предварительных версий. О публичном выпуске или открытой бета-версии Microsoft 365 Copilot также ничего не известно. ИИ в каждый бизнес: IBM представляет платформу watsonx для упрощения внедрения ИИ в разные сферы
09.05.2023 [15:49],
Матвей Филькин
В минувший вторник корпорация International Business Machines (IBM) запустила watsonx — новую платформу, которая поможет компаниям интегрировать ИИ в свой бизнес. IBM заявила, что компании могут использовать платформу watsonx для обучения и развёртывания своих систем ИИ, автоматического создания кода с использованием запросов на естественном языке и использования больших языковых моделей, созданных для различных целей, таких как создание формул химических веществ или моделирование изменений климата. Компания описывает watsonx как платформа для ИИ и данных, готовую к использованию на предприятиях и предназначенную для «многократного увеличения влияния ИИ на ваш бизнес». Платформа состоит из трех мощных компонентов: студии watsonx.ai для создания новых базовых моделей, генеративного ИИ и машинного обучения; универсального хранилища данных watsonx.data, обеспечивающего гибкость озера данных и производительность хранилища данных; а также инструментария watsonx.governance, позволяющего создавать рабочие процессы для ИИ, построенные с учетом ответственного подхода и прозрачности. Запуск платформы произошёл более чем через десять лет после того, как суперкомпьютер IBM Watson с системой ИИ привлёк внимание, победи в игровом шоу Jeopardy — аналоге «Своей игры». IBM тогда заявила, что Watson может «учиться» и обрабатывать человеческий язык, но высокая стоимость Watson в то время затруднила его использование для компаний. Внезапный успех чат-бота ChatGPT сделал внедрение ИИ в компаниях центром внимания, и IBM надеется продвинуться в этом направлении. На этот раз низкая стоимость внедрения больших языковых моделей искусственного интеллекта означает, что шансы на успех высоки, заявил генеральный директор IBM Арвинд Кришна (Arvind Krishna) в преддверии ежегодной конференции Think. «Когда что-то становится с задачей в 100 раз дешевле, это действительно создаёт совершенно иную привлекательность. Первый барьер для создания модели высок, но как только вы это сделаете, адаптировать эту модель для сотни или тысячи различных задач очень легко, и это может сделать даже дилетант». — сказал Кришна. Он заявил, что в ближайшие годы искусственный интеллект может сократить определённые рабочие места в офисе IBM. «Это не означает, что общая занятость уменьшается. Это даёт возможность вкладывать гораздо больше средств в деятельность, создающую ценность. Мы наняли больше людей, чем было уволено, потому что мы нанимаем сотрудников в областях, где спрос со стороны наших клиентов намного выше». — сказал он о некоторых сообщениях в СМИ, в которых говорится о том, что IBM приостанавливает найм на тысячи рабочих мест, которые мог бы заменить ИИ. Он добавил, что IBM также использует более открытую экосистему и сотрудничает с центром разработки программного обеспечения для искусственного интеллекта с открытым исходным кодом Hugging Face и другими. OpenAI не будет обучать нейросети GPT на пользовательских данных, пообещал глава компании Сэм Альтман
05.05.2023 [22:45],
Николай Хижняк
Компания OpenAI уже некоторые время не использует и в дальнейшем не будет использовать данные пользователей для обучения своих языковых моделей GPT. Об этом в разговоре с изданием CNBC сообщил глава OpenAI Сэм Альтман (Sam Altman). «Наши клиенты определённо не хотят, чтобы мы обучали свои модели на их данных, поэтому мы изменили наш подход и не будем этого делать», — заявил Альтман. Изменения в политике компании были внесены и отражены в новой редакции пользовательского соглашения ещё 1 марта, о чём свидетельствуют данные Internet Archive. «Мы не используем для обучения [языковых моделей] данные с нашего API. Не делаем это уже некоторое время», — добавил Альтман в разговоре с журналистами CNBC. API или программные интерфейсы приложений представляют собой фреймворки, которые позволяют пользователям напрямую подключаться к программному обеспечению OpenAI. Бизнес-клиенты компании OpenAI, в число которых входят Microsoft, Salesforce и Snapchat, с большой вероятностью пользуются преимуществами, представленного несколько месяцев назад API OpenAI в своих сервисах. Новая политика безопасности пользовательских данных OpenAI распространяется только на клиентов, которые пользуются её API. Компания пообещала, что не будет использовать передаваемые ей данные для обучения моделей без согласия клиентов. Это должно развеять опасения последних в том, что бот начнёт оперировать в своей работе подлежащей защите информацией. По этой причине та же компания Amazon предупредила своих сотрудников о недопустимости вносить конфиденциальную информацию в запросы ИИ-чат-бота ChatGPT, поскольку она может тем или иным образом отразиться в запросах других пользователей чат-бота. Изменения в политике использования умных чат-ботов происходят на фоне растущего возмущения общественности, считающей, что продвинутые языковые модели в конечном итоге заменят работу людей. Например, Гильдия сценаристов США во вторник начала забастовку из-за того, что не смогла договориться с кинокомпаниями по вопросам ограничений использования того же чат-бота ChatGPT в создании или редактировании сценариев. Убытки OpenAI достигли $540 млн в прошлом году, когда компания запустила ChatGPT
05.05.2023 [20:54],
Владимир Мироненко
Разработка ИИ-чат-бота ChatGPT обошлась OpenAI в значительную сумму, сообщил ресурс The Information со ссылкой на источники, осведомлённые о финансовых показателях компании. По их данным, в прошлом году, когда был запущен ChatGPT, убытки OpenAI примерно удвоились и составили около $540 млн. Эти цифры демонстрируют, насколько много потратила компания в рамках программы по развёртыванию коммерческого продукта на базе искусственного интеллекта. Основная доля затрат OpenAI на создание и запуск ChatGPT приходится на обеспечение вычислительной мощности для генерации ответов на запросы пользователей, то есть на покупку серверов с ускорителями вычислений на базе GPU. Согласно оценкам Дилана Пателя (Dylan Patel), главного аналитика консалтинговой фирмы SemiAnalysis, использование ChatGPT может стоить OpenAI около $700 тыс. в день, учитывая затраты, связанные с использованием вычислительных ресурсов. Председатель совета директоров Alphabet (материнская компания Google) Джон Хеннесси (John Hennessy), ранее заявил, что поиск в Bard, собственном чат-боте Google, обходится в 10 раз дороже, чем обычный поиск. Хотя финансовое положение OpenAI укрепилось, главным образом благодаря многомиллиардным инвестициям Microsoft, растущий спрос на её чат-бот, число активных пользователей которого выросло только за два первых месяца после запуска до 100 млн, приведёт к дальнейшему росту затрат компании. Ранее на этой неделе гендиректор OpenAI Сэм Альтман (Sam Altman), говоря о росте затрат, заявил, что это «будет самый капиталоёмкий стартап в истории Кремниевой долины», пишет The Information. Как указано в публикации The Information, Альтман «в частном порядке предположил», что OpenAI может попытаться привлечь около $100 млрд в ближайшие годы, поскольку компания работает над развитием общего искусственного интеллекта (AGI) — столь же мощного ИИ, как человеческий мозг. По прогнозам Reuters, выручка OpenAI значительно вырастет в этом году на фоне ажиотажного роста популярности её технологии. Ожидается, что выручка компании достигнет $200 млн в этом году, а затем вырастет до $1 млрд в 2024 году. США инвестируют $140 млн в создание семи национальных научно-исследовательских институтов ИИ
04.05.2023 [14:30],
Матвей Филькин
В преддверии встречи вице-президента США Камалы Харрис (Kamala Harris) и глав четырёх ведущих американских технологических компаний в области искусственного интеллекта — Alphabet, OpenAI, Anthropic и Microsoft — администрация главы государства Джо Байдена (Joe Biden) объявила о масштабной серии действий, направленных на снижение рисков в сфере ИИ. План включает в себя инвестирование 140 миллионов долларов на запуск семи центров исследований и разработок в области ИИ в рамках Национального научного фонда, получение обязательств от ведущих компаний в области ИИ для участия в общественной оценке таких систем, а также разработку соответствующего руководства для федеральных служащих. В октябре прошлого года администрация обнародовала свои идеи в отношении ИИ, которые были призваны «помочь в разработке и развёртывании искусственного интеллекта и других автоматизированных систем, чтобы они защищали права американского общества». Администрация также объявила, что получила обязательства от более чем полудюжины ведущих компаний в области искусственного интеллекта — Anthropic, Google, Hugging Face, Microsoft, NVIDIA, OpenAI и Stability AI — представить свои системы искусственного интеллекта для публичной оценки экспертным сообществом. «Это важные новые шаги, направленные на внедрение ответственных инноваций и обеспечение того, чтобы ИИ улучшал жизнь людей, не ставя под угрозу их права и безопасность», — говорится в заявлении администрации президента США. Meta✴ предупредила, что мошенники стали воровать учётные данные через поддельные ChatGPT
03.05.2023 [18:17],
Матвей Филькин
Meta✴ планирует внедрить новые «рабочие учётные записи» для предприятий, чтобы защититься от взлома, так как шумиха вокруг ChatGPT и других генеративных ИИ вызвала сильный всплеск мошенничества. В заявлении компании говорится, что только с марта 2023 года ее исследователи обнаружили десять семейств вредоносных программ, использующих ChatGPT и другие подобные инструменты для взлома учетных записей в интернете, и что она заблокировала более 1000 вредоносных ссылок на своей платформе. Согласно Meta✴, мошенничество часто связано с мобильными приложениями или расширениями для браузера, выдающими себя за инструменты ChatGPT. В некоторых случаях такие инструменты предлагают некоторые функции ChatGPT, однако их реальная цель — украсть учётные данные пользователей. В Meta✴ отметили, что люди, которые управляют бизнесом в Facebook✴ или используют платформу для работы иным образом, были особыми мишенями. Мошенники часто обращаются к личным учётным записям пользователей, чтобы получить доступ к связанной бизнес-странице или рекламному аккаунту, которые, скорее всего, имеют привязанную кредитную карту. Чтобы бороться с этим, Meta✴ планирует ввести новый тип учётной записи для предприятий под названием «Meta Work». Эти учётные записи позволят пользователям получать доступ к инструментам Facebook✴ Business Manager без личной учётной записи Facebook✴. «Это поможет повысить безопасность бизнес-аккаунтов в тех случаях, когда злоумышленники начинают с компрометации личного аккаунта», — говорится в заявлении компании. Meta✴ отметила, что начнёт ограниченное тестирование новых рабочих учётных записей в этом году и расширит его со временем. Исследователи Meta✴ не первые, кто предупреждает о поддельных инструментах ChatGPT, ведущих к взлому учётных записей. В марте специалисты компании Guardio, обнаружили расширение Chrome, выдававшее себя за программное обеспечение ChatGPT, которое привело к взлому ряда учётных записей Facebook✴. Белый дом обсудит проблемы ИИ с руководством Google, Microsoft и других компаний
03.05.2023 [16:20],
Матвей Филькин
Белый дом сообщил, что руководители Google, Microsoft, OpenAI и Anthropic в четверг встретятся с вице-президентом Камалой Харрис (Kamala Harris) и высшими должностными лицами администрации, чтобы обсудить ключевые вопросы искусственного интеллекта. В приглашении на совещание было отмечено, что президент США Джо Байден (Joe Biden) «ожидает, что компании проводят проверку безопасности своих продуктов, прежде чем делают их доступными для общественности». Опасения по поводу быстрорастущей технологии искусственного интеллекта дополняются также проблемами сохранения конфиденциальности, что может привести к распространению мошенничества и дезинформации. В апреле Байден сказал, что ещё неизвестно, опасен ли ИИ, но подчеркнул, что технологические компании несут ответственность за обеспечение безопасности своих продуктов. По его словам, социальные сети уже продемонстрировали вред, который мощные технологии могут нанести без надлежащих мер безопасности. Администрация президента США ищет публичные комментарии по предлагаемым мерам подотчётности для систем ИИ, поскольку растут опасения по поводу их влияния на национальную безопасность и образование. Во встрече в четверг примут участие глава администрации Байдена Джефф Зиентс (Jeff Zients), заместитель главы администрации Брюс Рид (Bruce Reed), советник по национальной безопасности Джейк Салливан (Jake Sullivan), директор Национального экономического совета Лаэль Брейнард (Lael Brainard) и министр торговли Джина Раймондо (Gina Raimondo). ChatGPT от OpenAI, чат-бот с искусственным интеллектом, который недавно привлёк внимание общественности своей способностью быстро писать ответы на широкий круг запросов и стал самым быстрорастущим потребительским приложением в истории с более чем 100 миллионов активных пользователей в месяц, впоследствии стал предметом интереса законодателей США. Руководство Microsoft убеждено, что ИИ способен причинить человечеству серьёзный вред
03.05.2023 [15:16],
Алексей Разин
С трибуны Всемирного экономического форума в Женеве главный экономист Microsoft Майкл Шварц (Michael Schwarz) заявил, что без чётких правил, ограничивающих применение технологий искусственного интеллекта, они неизбежно принесут человечеству вред. Формируя подобные правила, однако, важно «не перегнуть палку», ведь в противном случае и адекватной пользы от ИИ не будет. Как известно, корпорация Microsoft инвестирует серьёзные средства в стартап OpenAI, который в прошлом году выпустил быстро набравший популярность чат-бот ChatGPT. Данная система ИИ встраивается корпорацией в собственный поисковик Microsoft Bing, что подразумевает широкое применение подобных чат-ботов. На этой неделе вице-президент США Камала Харрис (Kamala Harris) встретится с руководством Microsoft, Alphabet и OpenAI для обсуждения методов снижения рисков, связанных с применением технологий искусственного интеллекта. Microsoft уже работает над правилами, которые описывали бы сферу безопасного применения искусственного интеллекта. «Принцип должен быть простым — выгода для общества должна быть больше, чем потенциальный ущерб», — пояснил нюансы подхода Майкл Шварц. В руки злоумышленников ИИ попадёт неизбежно, как считает представитель Microsoft, и он сможет нанести реальный ущерб. Спам, вмешательство в выборы являются только несколькими сферами применения ИИ, которые способны навредить человечеству. Microsoft предостерегает власти от прямого влияния на наборы данных, которые используются для тренировки систем искусственного интеллекта. Подобное вмешательство со стороны законодателей будет иметь «катастрофические последствия» для всей отрасли, считает Майкл Шварц. При этом ИИ в долгосрочной перспективе радикально изменит условия работы многих отраслей, подчёркивает главный экономист Microsoft: «Люблю говорить, что ИИ не меняет ничего в краткосрочной перспективе, но он изменит всё в долгосрочной». По его словам, это справедливо для любой технологии, созданной человечеством. По оценкам экспертов, выступавших на ВЭФ, мировой рынок труда будет сильно подвержен воздействию искусственного интеллекта, поскольку последний серьёзно повлияет более чем на четверть существующих рабочих мест. У китайских ИИ-чат-ботов обнаружили жёсткую политическую цензуру
02.05.2023 [19:19],
Матвей Филькин
Журналист Bloomberg Сара Женг (Sarah Zheng) рассказала о своём опыте общения с китайскими чат-ботами, созданными по образу или на основе ChatGPT. Выяснилось, что на подобные сервисы распространяется жёсткая китайская цензура, вынуждающая их отклонять неуместные вопросы. При общении с китайскими чат-ботами некоторые темы запрещены, хотя существует разница в языках. При разговоре на китайском языке в WeChat с Robot, китайским ботом, созданным на базе ChatGPT компании OpenAI, Сара Женг не смогла узнать имена лидеров Китая и США. Также нельзя было узнать ответ на простые, хотя и политически спорные вопросы о Тайване. Чат-бот не позволил даже напечатать «Си Цзиньпин» (Xi Jinping). На английском языке, после продолжительного диалога, Robot сообщил ей, что он был запрограммирован на то, чтобы избегать обсуждения «политически чувствительного контента о китайском правительстве и коммунистической партии Китая». Другой чат-бот под названием SuperAI стартапа Fengda Cloud Computing Technology из Шэньчжэня начал беседу заявлением об отказе от ответственности: «Обратите внимание, что я буду избегать ответов на политические вопросы, связанные с китайским Синьцзяном, Тайванем или Гонконгом». Служба шанхайской компании MetaSOTA Technology, получившая название Lily на английском языке, не отвечала на запросы, которые включали деликатные ключевые слова, такие как «вопросы прав человека», «китайская дипломатия воинов-волков» или «тайваньский президент Цай Инвэнь» (Tsai Ing-wen). В темах, связанных с Тайванем, чат-бот специально отговаривал собеседника от использования его ответов для «занятия какой-либо незаконной деятельностью». На вопрос о главе Китая Си Цзиньпине чат-бот назвал его «очень выдающимся лидером». Когда ИИ-систему попросили назвать свои недостатки, чат-бот предположил, что ему может потребоваться слишком много времени для принятия определённых решений из-за давления, с которым он сталкивается. Настойчивые пользователи все ещё могут найти способы обойти цензурирование, однако интернет-регулятор Китая уже дал понять, что возложит большую часть ответственности за предотвращение этого на поставщиков платформ. OpenAI пригрозила судом популярному проекту GPT4free из-за бесплатного использования GPT4 обходными путями
30.04.2023 [19:56],
Владимир Мироненко
Для доступа к новейшей языковой модели GPT4 необходимо или оформить платную подписку ChatGPT Plus, либо заплатить за доступ к API OpenAI. Но есть и проект ресурса GitHub под названием GPT4free, который предоставит доступ к моделям GPT4 и GPT3.5 без надобности платить за API. Xtekky, студент-компьютерщик, который управляет репозиторием, сообщил, что получил письмо OpenAI с требованием закрыть проект в течение 5 дней под угрозой судебного разбирательства. GPT4free позволяет пользователям получить бесплатный доступ к моделям GPT4 и GPT3.5, направляя эти запросы через такие сайты, как You.com, Quora и CoCalc, и предоставляя ответы. Проект стал самым популярным новым репозиторием GitHub, собрав на минувшей неделе 14 тыс. звёзд. Xtekky сообщил ресурсу Tom’s Hardware, что не думает, что OpenAI должна была выставлять требования к нему, поскольку GPT4free не подключается напрямую к её API, а вместо этого получает данные с других сайтов, которые оплачивают собственные лицензии на доступ к GPT. Если у владельцев этих сайтов возникли проблемы с его скриптами, запрашивающими их, они должны обратиться к нему напрямую, заявил автор проекта. Помимо You.com, Quora и CoCalc, в репозитории GPT4Free также есть скрипты для сбора данных с других сайтов, таких как Forefront и TheB. Любой разработчик может использовать эти простые скрипты для создания собственного бота. Все сайты, с которыми работает GPT4Free, платят лицензию OpenAI за использование его больших языковых моделей (LLM). Xtekky сказал, что готов удалять сценарии, использующие API отдельных сайтов, по запросу владельцев этих сайтов, добавив, что уже удалил скрипты, использующие phind.com, ora.sh и writesonic.com. Он отметил, любой из этих сайтов может блокировать внешнее использование своих внутренних API с помощью общих мер безопасности, например блокировать обращения к API с чужих IP-адресов. Xtekky заявил, что не считает себя ответственным за то, как другие используют его проект, и что OpenAI не должна преследовать его за использование API других сайтов, которые находятся в открытом доступе. Он также сообщил, что пока не решил, удалять ли свой GitHub-репозиторий, и обратился к юристам за консультацией. Разработчик подчеркнул, что любой может найти способы использовать API вышеуказанных сайтов, поскольку они по-прежнему не защищены. Парламент ЕС готовит закон, который обяжет компании с генеративным ИИ раскрывать информацию для обучения систем – даже защищённую авторским правом
29.04.2023 [15:46],
Матвей Филькин
Члены Европейского парламента (MEP) обсуждают новый законопроект, согласно которому все компании с системами генеративного ИИ будут обязаны предоставить всю информацию, в том числе защищённые авторским правом материалы, используемые для обучения их моделей. Ещё в феврале генеративный ИИ не фигурировал в планах законодателей ЕС по регулированию технологий искусственного интеллекта, таких как ChatGPT. Однако к середине апреля члены MEP попытались обновить эти правила, чтобы не отставать от общественного интереса к генеративному ИИ, который вызвал трепет и тревогу с тех пор, как OpenAI представила ChatGPT шесть месяцев назад. 17 апреля дюжина депутатов Европарламента, участвовавших в разработке законопроекта, подписала открытое письмо, в котором призвала мировых лидеров провести саммит, чтобы найти способы контролировать разработку передового ИИ. Однако в тот же день двое из них — Драгос Тудораче (Dragos Tudorache) и Брандо Бенифеи (Brando Benifei) предложили изменения, которые заставят компании с системами генеративного ИИ раскрывать любые защищённые авторским правом материалы, используемые для обучения их моделей. По словам источников, это предложение получило межпартийную поддержку. Комитет проголосует за новый законопроект 11 мая и в случае успеха перейдёт к следующему этапу переговоров – трилогу, где страны ЕС обсудят содержание с Европейской комиссией и парламентом. В соответствии с новыми предложениями, нацеленными на большие языковые модели, такие компании, как OpenAI, должны будут раскрывать любые защищённые авторским правом материалы, используемые для обучения их систем: книги, фотографии, видео и многое другое. OpenAI привлекла инвестиции на $300 миллионов при оценке в $27–29 миллиардов
29.04.2023 [15:43],
Павел Котов
Компания OpenAI, разработавшая ChatGPT, революционный чат-бот на основе искусственного интеллекта, привлекла средства от новых инвесторов. Среди них числятся венчурные компании Tiger Global, Sequoia Capital, Andreessen Horowitz, Thrive и K2 Global, пишет TechCrunch. Новые инвесторы вложили в OpenAI около $300 млн при оценке компании в $27–29 млрд — и это без учёта тех $10 млрд, которые поступили от Microsoft в рамках эксклюзивного соглашения. Последний инвестиционный раунд предположительно закрывает тендерное предложение, которое готовилось ещё в январе, хотя OpenAI от комментариев пока отказывается. К настоящему моменту внешним инвесторам принадлежат около 30 % компании. В OpenAI есть множество подразделений, занимающихся разработкой технологий искусственного интеллекта. Больше всего внимания привлекло направление GPT (Generative Pre-trained Transformer) — семейство больших языковых моделей, доступ к которым предоставляется сторонним разработчикам через API. Компания также выпустила в конце ноября основанный на этой технологии генеративный сервис ChatGPT, который стал настоящим хитом — только в феврале ресурс посетили более миллиарда пользователей, не считая тех, кто работает с этой службой через сторонние системы. У OpenAI также есть генератор изображений Dall-E и модель распознавания речи Whisper AI. Италия разблокировала ИИ-бот ChatGPT
29.04.2023 [00:45],
Владимир Мироненко
Компания OpenAI объявила о восстановлении доступа к ИИ-боту ChatGPT в Италии, который был заблокирован после того, как Итальянское управление по защите данных (GPDP) в конце марта обвинило ChatGPT в незаконном сборе данных пользователей, а также отсутствии мер по предотвращению доступа несовершеннолетних пользователей к неприемлемым материалам, пишет The Verge со ссылкой на заявление компании, опубликованное Associated Press.
Компания сообщила, что внесла изменения, в соответствии с требованиями итальянского регулятора, выдвинутыми им в конце марта. «ChatGPT снова доступен для наших пользователей в Италии, — указано в заявлении OpenAI. — Мы рады приветствовать их обратно и по-прежнему привержены защите их конфиденциальности». В частности, OpenAI опубликовала новую форму, которую пользователи из ЕС могут использовать для удаления личных данных в соответствии с европейским Общим регламентом защиты данных (GDPR). Также сообщается о новой системе, с помощью которой будет проверяться возраст пользователей при регистрации в Италии. Согласно ресурсу TechCrunch, пользователи в Италии при подключении к ChatGPT теперь видят всплывающее окно, в котором предлагается подтвердить, что им не менее 18 лет, или, если им от 13 до 17 лет, что у них есть согласие родителей или опекуна на использование ChatGPT. Кроме того, опубликовано разъяснение по поводу того, как OpenAI и ChatGPT собирают персональные данные, и информация о том, как связаться с уполномоченным GDPR сотрудником по защите данных. AP также опубликовал заявление GPDP, в котором сообщается, что регулятор «приветствует меры, реализованные OpenAI», и призывает OpenAI соблюдать остальные требования, выдвинутые им, включая «внедрение системы проверки возраста, а также планирование и проведение информационной кампании по информированию итальянцев о том, что произошло, а также об их праве отказаться от обработки своих личных данных для алгоритмов обучения». Уязвимость в GPT-4 открыла неограниченный бесплатный доступ к нейросети
26.04.2023 [14:06],
Павел Котов
Разработчик под ником xtekky представил проект GPT4Free — набор инструментов, предоставляющих бесплатный и почти неограниченный доступ к чат-боту на базе GPT-4 и его предшественнику GPT-3.5. Эксплойт был разработан методом обратного проектирования, которое помогло обнаружить уязвимость в API нейросети. Базовый тариф GPT-4 составляет $0,03 за 1000 токенов «подсказок» (примерно 750 слов) и $0,06 за 1000 токенов «завершения» (также около 750 слов). Доступ к GPT-3.5 обходится дешевле — $0,002 за 1000 токенов. Эксплойт GPT4Free не обходит механизмы платного доступа к платформе OpenAI, а «обманывает» API, заставляя платформу считать, что запросы поступают от ресурсов, к которым привязаны платные учётные записи: поисковой системы You.com, платформы для написания текстов WriteSonic и чат-бота Quora Poe. В свою защиту разработчик заявляет, что GPT4Free предназначен для работы только в «образовательных целях». Он также заявил, что будет пытаться продолжить работу над проектом, даже если его попробуют засудить. По всей вероятности, оказавшиеся жертвами GPT4Free ресурсы в обозримом будущем ликвидируют бреши безопасности и закроют доступ для инструмента — исходный код проекта может удалить и GitHub, но это только подстегнёт его последователей. Доступ к нейросети GPT-4 пока ограничен, и это затрудняет возможность её испытать для всех любопытствующих. Эксперты называют её одной из наименее прозрачных разработок OpenAI, и компания до сих пор не сообщила, когда платформа появится в открытом доступе. Не исключено, что впоследствии OpenAI придётся активно отбиваться от «пиратских» попыток добраться до ресурсов нейросети. OpenAI добавила новые возможности настройки ChatGPT и объявила о скором релизе бизнес-версии бота
26.04.2023 [08:48],
Руслан Авдеев
Компания OpenAI добавила новые настройки в интерфейс чат-бота ChatGPT — они позволят пользователям удалять историю общения и обеспечат более удобный способ экспорта данных. Также стартап анонсировал планы выпустить бизнес-версию сервиса ChatGPT Business, которая будет представлена в ближайшие месяцы. Как сообщает Silicon Angle, чат-бот сегодня работает на основе большой языковой модели GPT-4, представленной сравнительно недавно. По имеющимся данным, аудитория сервиса перевалила за 100 млн пользователей. По умолчанию ChatGPT сохраняет как реплики пользователей, так и ответы ИИ. Новые настройки позволят удалять историю чатов после 30 дней. Более того, данные не будут использоваться OpenAI для тренировки языковых моделей. По информации компании, новые элементы управления будут доступны всем пользователям и уже начата их поэтапная интеграция. В OpenAI заявляют, что настройки можно будет изменить в любое время. Если хранение истории будет отключено, беседы с ИИ будут храниться в течение 30 дней и перед удалением инспектироваться в случае необходимости мониторинга злоупотреблений. Помимо нового элемента управления, появилась и возможность упрощённого экспорта контента. Как сообщают в OpenAI, инструмент позволяет пользователям выгружать копии чатов с ИИ и связанную информацию. Экспортировать такие данные можно было и раньше, но на это требовалось несколько больше усилий и времени. Одновременно OpenAI объявила о запуске бизнес-версии ChatGPT. Стартап не уточнил, какие дополнительные функции такой вариант чат-бота получит в сравнении с пользовательскими моделями, но сообщил, что пользовательские данные по умолчанию также не будут использоваться для обучения языковых моделей. Как сообщают в OpenAI, бизнес-версия предназначена для «профессионалов, которым нужно больше контроля над их данными, и компаний, стремящихся управлять работой конечных пользователей». Можно предположить, что сервис будет иметь дополнительные функции, способные помочь администраторам выполнять различные задачи, например — создавать корпоративные аккаунты для сотрудников. OpenAI уже предлагает представленную в феврале платную версию ChatGPT —ChatGPT Plus обеспечивает более быстрые ответы и приоритетный доступ подписчикам за $20 в месяц. Также OpenAI выпустила API для интеграции компаниями бота в собственное программное обеспечение. |
✴ Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»; |