Опрос
|
реклама
Быстрый переход
Житель Китая использовал ChatGPT для создания фейковых новостей
10.05.2023 [07:36],
Владимир Фетисов
В китайской провинции Ганьсу правоохранители задержали мужчину, который использовал ИИ-бота ChatGPT для написания фейковых новостных статей. Арест гражданина Китая произведён в соответствии с действующим в стране законодательством, которое, помимо прочего, запрещает неправомерное использование нейросетей для распространения ложной информации. Подозреваемый по фамилии Хун обвиняется в использовании ИИ-бота ChatGPT для создания нескольких новостных статей, рассказывающих о крушении поезда. По словам официальных лиц, описанные в этих материалах события не имеют отношения к действительности. В общей сложности было обнаружено около 20 статей, в которых рассказывались разные версии одной и той же истории, но менялись места происшествия. Все статьи были опубликованы на платформе для блогов Baijiahao, которая принадлежит компании Baidu. В заявлении местной полиции сказано, что Хун признался в использовании ChatGPT для переписывания существующих вирусных новостных статей с целью обхода фильтров дублирующего контента. После написания фейковых статей он размещал их в интернете и зарабатывал на этом деньги. Согласно имеющимся данным, в общей сложности фейковые статьи Хуна были просмотрены более 15 тыс. раз. Напомним, в Китае запрещено использование ChatGPT. Для взаимодействия с нейросетью жителям страны приходится задействовать VPN-сервисы. Что касается Хуна, то ему уже предъявлено обвинение в провоцировании конфликтов. Не исключено, что позднее он также может быть обвинён в нарушении общественного порядка и организации беспорядков в общественных местах. В этом случае Хуну может грозить наказание в виде лишения свободы сроком от 5 до 10 лет. ИИ-помощник Microsoft 365 Copilot получит больше функций, а предварительный доступ к нему будет платным
09.05.2023 [17:02],
Матвей Филькин
Компания Microsoft расширяет предварительный доступ к Microsoft 365 Copilot — помощнику на базе OpenAI GPT-4, который предоставляет ИИ-возможности в приложениях и сервисах Microsoft 365. Технологический гигант также анонсировал новый инструмент индексирования, который позволяет Copilot более точно составлять отчеты о внутренних данных компании, а также некоторые новые функции Copilot для таких приложений, как Microsoft Whiteboard, Outlook и PowerPoint. Компания запускает программу раннего доступа к Microsoft 365 Copilot — платную предварительную версию, доступную только по приглашению, которая первоначально будет развёрнута для 600 крупных клиентов по всему миру. Им будет предложено заплатить неустановленную сумму за ранний доступ, но Microsoft не сообщает, когда начнётся развёртывание. Техногигант также представляет ряд новых возможностей для Microsoft 365 Copilot. Для корпоративных клиентов, использующих пакет Microsoft 365 E3 или E5, распространяется новая функция семантического индекса, которая создаёт интуитивно понятную карту как пользовательских, так и корпоративных данных. Microsoft заявляет, что семантический индекс «имеет решающее значение для получения актуальных и действенных ответов на запросы в Microsoft 365 Copilot». Например, Microsoft говорит, что, спросив Copilot об «отчёте о продажах за март», инструмент распознает, что «отчёты о продажах составляются Келли из финансовой команды и создаются в Excel», а не просто ищет какие-либо документы, содержащие эти ключевые слова. Copilot также добавляется в Whiteboard, приложение для совместной работы в пакете Microsoft 365. Пользователи могут вызвать Copilot, чтобы помочь генерировать идеи по конкретным темам и обобщать содержимое доски. Copilot также может использовать Microsoft Designer, новое приложение компании для графического дизайна, чтобы воплотить эти идеи в жизнь, создавая изображения на основе подсказок, созданных на доске. DALL-E, инструмент OpenAI для преобразования текста в изображение, добавляется в Microsoft PowerPoint. Пользователи смогут попросить Copilot генерировать изображения на основе текстовых описаний, которые затем могут быть включены в презентации. Copilot в PowerPoint также может оптимизировать текст, например превращать маркеры в абзацы (или наоборот) или изменять тон. Наконец, Outlook получает новые возможности обучения Copilot, которые предлагают рекомендации по написанию электронных писем в сжатые сроки или при работе с деликатными темами – инструмент может посоветовать пользователям, как эффективно донести информацию в этих обстоятельствах с соответствующей ясностью и тоном. Microsoft не упомянула, когда новые функции будут доступны для платных предварительных версий. О публичном выпуске или открытой бета-версии Microsoft 365 Copilot также ничего не известно. ИИ в каждый бизнес: IBM представляет платформу watsonx для упрощения внедрения ИИ в разные сферы
09.05.2023 [15:49],
Матвей Филькин
В минувший вторник корпорация International Business Machines (IBM) запустила watsonx — новую платформу, которая поможет компаниям интегрировать ИИ в свой бизнес. IBM заявила, что компании могут использовать платформу watsonx для обучения и развёртывания своих систем ИИ, автоматического создания кода с использованием запросов на естественном языке и использования больших языковых моделей, созданных для различных целей, таких как создание формул химических веществ или моделирование изменений климата. Компания описывает watsonx как платформа для ИИ и данных, готовую к использованию на предприятиях и предназначенную для «многократного увеличения влияния ИИ на ваш бизнес». Платформа состоит из трех мощных компонентов: студии watsonx.ai для создания новых базовых моделей, генеративного ИИ и машинного обучения; универсального хранилища данных watsonx.data, обеспечивающего гибкость озера данных и производительность хранилища данных; а также инструментария watsonx.governance, позволяющего создавать рабочие процессы для ИИ, построенные с учетом ответственного подхода и прозрачности. Запуск платформы произошёл более чем через десять лет после того, как суперкомпьютер IBM Watson с системой ИИ привлёк внимание, победи в игровом шоу Jeopardy — аналоге «Своей игры». IBM тогда заявила, что Watson может «учиться» и обрабатывать человеческий язык, но высокая стоимость Watson в то время затруднила его использование для компаний. Внезапный успех чат-бота ChatGPT сделал внедрение ИИ в компаниях центром внимания, и IBM надеется продвинуться в этом направлении. На этот раз низкая стоимость внедрения больших языковых моделей искусственного интеллекта означает, что шансы на успех высоки, заявил генеральный директор IBM Арвинд Кришна (Arvind Krishna) в преддверии ежегодной конференции Think. «Когда что-то становится с задачей в 100 раз дешевле, это действительно создаёт совершенно иную привлекательность. Первый барьер для создания модели высок, но как только вы это сделаете, адаптировать эту модель для сотни или тысячи различных задач очень легко, и это может сделать даже дилетант». — сказал Кришна. Он заявил, что в ближайшие годы искусственный интеллект может сократить определённые рабочие места в офисе IBM. «Это не означает, что общая занятость уменьшается. Это даёт возможность вкладывать гораздо больше средств в деятельность, создающую ценность. Мы наняли больше людей, чем было уволено, потому что мы нанимаем сотрудников в областях, где спрос со стороны наших клиентов намного выше». — сказал он о некоторых сообщениях в СМИ, в которых говорится о том, что IBM приостанавливает найм на тысячи рабочих мест, которые мог бы заменить ИИ. Он добавил, что IBM также использует более открытую экосистему и сотрудничает с центром разработки программного обеспечения для искусственного интеллекта с открытым исходным кодом Hugging Face и другими. OpenAI не будет обучать нейросети GPT на пользовательских данных, пообещал глава компании Сэм Альтман
05.05.2023 [22:45],
Николай Хижняк
Компания OpenAI уже некоторые время не использует и в дальнейшем не будет использовать данные пользователей для обучения своих языковых моделей GPT. Об этом в разговоре с изданием CNBC сообщил глава OpenAI Сэм Альтман (Sam Altman). «Наши клиенты определённо не хотят, чтобы мы обучали свои модели на их данных, поэтому мы изменили наш подход и не будем этого делать», — заявил Альтман. Изменения в политике компании были внесены и отражены в новой редакции пользовательского соглашения ещё 1 марта, о чём свидетельствуют данные Internet Archive. «Мы не используем для обучения [языковых моделей] данные с нашего API. Не делаем это уже некоторое время», — добавил Альтман в разговоре с журналистами CNBC. API или программные интерфейсы приложений представляют собой фреймворки, которые позволяют пользователям напрямую подключаться к программному обеспечению OpenAI. Бизнес-клиенты компании OpenAI, в число которых входят Microsoft, Salesforce и Snapchat, с большой вероятностью пользуются преимуществами, представленного несколько месяцев назад API OpenAI в своих сервисах. Новая политика безопасности пользовательских данных OpenAI распространяется только на клиентов, которые пользуются её API. Компания пообещала, что не будет использовать передаваемые ей данные для обучения моделей без согласия клиентов. Это должно развеять опасения последних в том, что бот начнёт оперировать в своей работе подлежащей защите информацией. По этой причине та же компания Amazon предупредила своих сотрудников о недопустимости вносить конфиденциальную информацию в запросы ИИ-чат-бота ChatGPT, поскольку она может тем или иным образом отразиться в запросах других пользователей чат-бота. Изменения в политике использования умных чат-ботов происходят на фоне растущего возмущения общественности, считающей, что продвинутые языковые модели в конечном итоге заменят работу людей. Например, Гильдия сценаристов США во вторник начала забастовку из-за того, что не смогла договориться с кинокомпаниями по вопросам ограничений использования того же чат-бота ChatGPT в создании или редактировании сценариев. Убытки OpenAI достигли $540 млн в прошлом году, когда компания запустила ChatGPT
05.05.2023 [20:54],
Владимир Мироненко
Разработка ИИ-чат-бота ChatGPT обошлась OpenAI в значительную сумму, сообщил ресурс The Information со ссылкой на источники, осведомлённые о финансовых показателях компании. По их данным, в прошлом году, когда был запущен ChatGPT, убытки OpenAI примерно удвоились и составили около $540 млн. Эти цифры демонстрируют, насколько много потратила компания в рамках программы по развёртыванию коммерческого продукта на базе искусственного интеллекта. Основная доля затрат OpenAI на создание и запуск ChatGPT приходится на обеспечение вычислительной мощности для генерации ответов на запросы пользователей, то есть на покупку серверов с ускорителями вычислений на базе GPU. Согласно оценкам Дилана Пателя (Dylan Patel), главного аналитика консалтинговой фирмы SemiAnalysis, использование ChatGPT может стоить OpenAI около $700 тыс. в день, учитывая затраты, связанные с использованием вычислительных ресурсов. Председатель совета директоров Alphabet (материнская компания Google) Джон Хеннесси (John Hennessy), ранее заявил, что поиск в Bard, собственном чат-боте Google, обходится в 10 раз дороже, чем обычный поиск. Хотя финансовое положение OpenAI укрепилось, главным образом благодаря многомиллиардным инвестициям Microsoft, растущий спрос на её чат-бот, число активных пользователей которого выросло только за два первых месяца после запуска до 100 млн, приведёт к дальнейшему росту затрат компании. Ранее на этой неделе гендиректор OpenAI Сэм Альтман (Sam Altman), говоря о росте затрат, заявил, что это «будет самый капиталоёмкий стартап в истории Кремниевой долины», пишет The Information. Как указано в публикации The Information, Альтман «в частном порядке предположил», что OpenAI может попытаться привлечь около $100 млрд в ближайшие годы, поскольку компания работает над развитием общего искусственного интеллекта (AGI) — столь же мощного ИИ, как человеческий мозг. По прогнозам Reuters, выручка OpenAI значительно вырастет в этом году на фоне ажиотажного роста популярности её технологии. Ожидается, что выручка компании достигнет $200 млн в этом году, а затем вырастет до $1 млрд в 2024 году. Британский регулятор изучит влияние ИИ на экономику и граждан, и будет контролировать сферу
04.05.2023 [14:22],
Матвей Филькин
Управление по конкуренции и рынкам Великобритании (СМА) заявило, что начнёт изучать влияние искусственного интеллекта на потребителей, бизнес и экономику страны, а также подчеркнуло необходимость контроля над такими новыми технологиями, как ChatGPT от OpenAI. Хотя исследования ИИ ведутся уже много лет, внезапная популярность генеративных ИИ-систем, таких как ChatGPT и Midjourney, сделала востребованной технологию, которая способна изменить методы ведения бизнеса и жизнь общества. В настоящее время правительства во всем мире пытаются найти баланс, при котором они смогут оценить и обуздать некоторые потенциально негативные последствия применения ИИ, не мешая развитию инноваций. В марте Великобритания решила разделить ответственность за регулирование ИИ между органами, которые контролируют права человека, здоровье и безопасность, а также конкуренцию вместо того, чтобы создавать новый орган, занимающийся этой технологией. CMA заявило, что начнёт работу, пытаясь понять, как разрабатываются базовые модели, использующие большие объёмы неразмеченных данных, и оценить, как их можно использовать в будущем для выполнения нескольких задач. Генеральный директор CMA Сара Карделл (Sarah Cardell) сказала, что «искусственный интеллект ворвался в общественное сознание, и очень важно, чтобы потенциальные преимущества этой технологии были доступны для британских предприятий и потребителей, в то время как люди оставались защищёнными от таких проблем, как ложная или вводящая в заблуждение информация». Юрист Верити Эгертон-Дойл (Verity Egerton-Doyle) из Linklaters заявила, что британский регулятор сможет присоединиться к дебатам о регулировании ИИ после того, как на прошлой неделе он попал в заголовки газет по всему миру, когда заблокировал поглощение Microsoft Activision Blizzard за 69 миллиардов долларов. Она сказала: «Закон ЕС о цифровых рынках, вступивший в силу на этой неделе, не распространяется на генеративный ИИ, и CMA, несомненно, видит в этом возможность возглавить глобальные дебаты по этим вопросам вместе с Федеральной торговой комиссией США, которая уже изучает эту область». «Моё рабочее место в безопасности»: ChatGPT дал Blizzard ужасный совет по следующему дополнению к World of Warcraft
04.05.2023 [11:11],
Дмитрий Рудь
Директор по разработке World of Warcraft Ион Хаззикостас (Ion Hazzikostas) в интервью IGN рассказал, почему после недавнего общения с ChatGPT не боится, что его заменит искусственный интеллект. По словам Хаззикостаса, один из первых вопросов, которые он задал нашумевшему чат-боту, был про то, каким должно быть следующее дополнение к World of Warcraft. Совет ChatGPT оказался ужасен на нескольких уровнях. «Без шуток, его первым же ответом было "вернись к Shadowlands". Думаю, моё рабочее место в безопасности. Не слишком беспокоюсь, что ChatGPT может заменить меня в ближайшее время», — поделился Хаззикостас. Напомним, расширение Shadowlands не пользовалось большой любовью среди игроков из-за низкого темпа выпуска контента, геймплейных ограничений и спорного обращения с Сильваной Ветрокрылой, одним из самых почитаемых сообществом персонажей. Кроме того, Shadowlands вышла в 2020 году и на данный момент является предпоследним дополнением к World of Warcraft (аддон Dragonflight дебютировал в ноябре 2022-го), поэтому возвращение к нему следом выглядело бы по меньшей мере странно. Хаззикостас добавил, что Blizzard уже давно задействовала машинное обучение в разработке World of Warcraft для автоматизации «особо трудоёмких, болезненных» художественных задач вроде подгонки шлемов под уши кровавых эльфов. Своим мнением Хаззикостас поделился в преддверии выпуска контентного обновления «Угли Нелтариона» для World of Warcraft: Dragonflight. Патч вышел 2 мая и принёс с собой свежий рейд, межфракционные гильдии и многое другое. Meta✴ предупредила, что мошенники стали воровать учётные данные через поддельные ChatGPT
03.05.2023 [18:17],
Матвей Филькин
Meta✴ планирует внедрить новые «рабочие учётные записи» для предприятий, чтобы защититься от взлома, так как шумиха вокруг ChatGPT и других генеративных ИИ вызвала сильный всплеск мошенничества. В заявлении компании говорится, что только с марта 2023 года ее исследователи обнаружили десять семейств вредоносных программ, использующих ChatGPT и другие подобные инструменты для взлома учетных записей в интернете, и что она заблокировала более 1000 вредоносных ссылок на своей платформе. Согласно Meta✴, мошенничество часто связано с мобильными приложениями или расширениями для браузера, выдающими себя за инструменты ChatGPT. В некоторых случаях такие инструменты предлагают некоторые функции ChatGPT, однако их реальная цель — украсть учётные данные пользователей. В Meta✴ отметили, что люди, которые управляют бизнесом в Facebook✴ или используют платформу для работы иным образом, были особыми мишенями. Мошенники часто обращаются к личным учётным записям пользователей, чтобы получить доступ к связанной бизнес-странице или рекламному аккаунту, которые, скорее всего, имеют привязанную кредитную карту. Чтобы бороться с этим, Meta✴ планирует ввести новый тип учётной записи для предприятий под названием «Meta Work». Эти учётные записи позволят пользователям получать доступ к инструментам Facebook✴ Business Manager без личной учётной записи Facebook✴. «Это поможет повысить безопасность бизнес-аккаунтов в тех случаях, когда злоумышленники начинают с компрометации личного аккаунта», — говорится в заявлении компании. Meta✴ отметила, что начнёт ограниченное тестирование новых рабочих учётных записей в этом году и расширит его со временем. Исследователи Meta✴ не первые, кто предупреждает о поддельных инструментах ChatGPT, ведущих к взлому учётных записей. В марте специалисты компании Guardio, обнаружили расширение Chrome, выдававшее себя за программное обеспечение ChatGPT, которое привело к взлому ряда учётных записей Facebook✴. Белый дом обсудит проблемы ИИ с руководством Google, Microsoft и других компаний
03.05.2023 [16:20],
Матвей Филькин
Белый дом сообщил, что руководители Google, Microsoft, OpenAI и Anthropic в четверг встретятся с вице-президентом Камалой Харрис (Kamala Harris) и высшими должностными лицами администрации, чтобы обсудить ключевые вопросы искусственного интеллекта. В приглашении на совещание было отмечено, что президент США Джо Байден (Joe Biden) «ожидает, что компании проводят проверку безопасности своих продуктов, прежде чем делают их доступными для общественности». Опасения по поводу быстрорастущей технологии искусственного интеллекта дополняются также проблемами сохранения конфиденциальности, что может привести к распространению мошенничества и дезинформации. В апреле Байден сказал, что ещё неизвестно, опасен ли ИИ, но подчеркнул, что технологические компании несут ответственность за обеспечение безопасности своих продуктов. По его словам, социальные сети уже продемонстрировали вред, который мощные технологии могут нанести без надлежащих мер безопасности. Администрация президента США ищет публичные комментарии по предлагаемым мерам подотчётности для систем ИИ, поскольку растут опасения по поводу их влияния на национальную безопасность и образование. Во встрече в четверг примут участие глава администрации Байдена Джефф Зиентс (Jeff Zients), заместитель главы администрации Брюс Рид (Bruce Reed), советник по национальной безопасности Джейк Салливан (Jake Sullivan), директор Национального экономического совета Лаэль Брейнард (Lael Brainard) и министр торговли Джина Раймондо (Gina Raimondo). ChatGPT от OpenAI, чат-бот с искусственным интеллектом, который недавно привлёк внимание общественности своей способностью быстро писать ответы на широкий круг запросов и стал самым быстрорастущим потребительским приложением в истории с более чем 100 миллионов активных пользователей в месяц, впоследствии стал предметом интереса законодателей США. Руководство Microsoft убеждено, что ИИ способен причинить человечеству серьёзный вред
03.05.2023 [15:16],
Алексей Разин
С трибуны Всемирного экономического форума в Женеве главный экономист Microsoft Майкл Шварц (Michael Schwarz) заявил, что без чётких правил, ограничивающих применение технологий искусственного интеллекта, они неизбежно принесут человечеству вред. Формируя подобные правила, однако, важно «не перегнуть палку», ведь в противном случае и адекватной пользы от ИИ не будет. Как известно, корпорация Microsoft инвестирует серьёзные средства в стартап OpenAI, который в прошлом году выпустил быстро набравший популярность чат-бот ChatGPT. Данная система ИИ встраивается корпорацией в собственный поисковик Microsoft Bing, что подразумевает широкое применение подобных чат-ботов. На этой неделе вице-президент США Камала Харрис (Kamala Harris) встретится с руководством Microsoft, Alphabet и OpenAI для обсуждения методов снижения рисков, связанных с применением технологий искусственного интеллекта. Microsoft уже работает над правилами, которые описывали бы сферу безопасного применения искусственного интеллекта. «Принцип должен быть простым — выгода для общества должна быть больше, чем потенциальный ущерб», — пояснил нюансы подхода Майкл Шварц. В руки злоумышленников ИИ попадёт неизбежно, как считает представитель Microsoft, и он сможет нанести реальный ущерб. Спам, вмешательство в выборы являются только несколькими сферами применения ИИ, которые способны навредить человечеству. Microsoft предостерегает власти от прямого влияния на наборы данных, которые используются для тренировки систем искусственного интеллекта. Подобное вмешательство со стороны законодателей будет иметь «катастрофические последствия» для всей отрасли, считает Майкл Шварц. При этом ИИ в долгосрочной перспективе радикально изменит условия работы многих отраслей, подчёркивает главный экономист Microsoft: «Люблю говорить, что ИИ не меняет ничего в краткосрочной перспективе, но он изменит всё в долгосрочной». По его словам, это справедливо для любой технологии, созданной человечеством. По оценкам экспертов, выступавших на ВЭФ, мировой рынок труда будет сильно подвержен воздействию искусственного интеллекта, поскольку последний серьёзно повлияет более чем на четверть существующих рабочих мест. У китайских ИИ-чат-ботов обнаружили жёсткую политическую цензуру
02.05.2023 [19:19],
Матвей Филькин
Журналист Bloomberg Сара Женг (Sarah Zheng) рассказала о своём опыте общения с китайскими чат-ботами, созданными по образу или на основе ChatGPT. Выяснилось, что на подобные сервисы распространяется жёсткая китайская цензура, вынуждающая их отклонять неуместные вопросы. При общении с китайскими чат-ботами некоторые темы запрещены, хотя существует разница в языках. При разговоре на китайском языке в WeChat с Robot, китайским ботом, созданным на базе ChatGPT компании OpenAI, Сара Женг не смогла узнать имена лидеров Китая и США. Также нельзя было узнать ответ на простые, хотя и политически спорные вопросы о Тайване. Чат-бот не позволил даже напечатать «Си Цзиньпин» (Xi Jinping). На английском языке, после продолжительного диалога, Robot сообщил ей, что он был запрограммирован на то, чтобы избегать обсуждения «политически чувствительного контента о китайском правительстве и коммунистической партии Китая». Другой чат-бот под названием SuperAI стартапа Fengda Cloud Computing Technology из Шэньчжэня начал беседу заявлением об отказе от ответственности: «Обратите внимание, что я буду избегать ответов на политические вопросы, связанные с китайским Синьцзяном, Тайванем или Гонконгом». Служба шанхайской компании MetaSOTA Technology, получившая название Lily на английском языке, не отвечала на запросы, которые включали деликатные ключевые слова, такие как «вопросы прав человека», «китайская дипломатия воинов-волков» или «тайваньский президент Цай Инвэнь» (Tsai Ing-wen). В темах, связанных с Тайванем, чат-бот специально отговаривал собеседника от использования его ответов для «занятия какой-либо незаконной деятельностью». На вопрос о главе Китая Си Цзиньпине чат-бот назвал его «очень выдающимся лидером». Когда ИИ-систему попросили назвать свои недостатки, чат-бот предположил, что ему может потребоваться слишком много времени для принятия определённых решений из-за давления, с которым он сталкивается. Настойчивые пользователи все ещё могут найти способы обойти цензурирование, однако интернет-регулятор Китая уже дал понять, что возложит большую часть ответственности за предотвращение этого на поставщиков платформ. Samsung полностью запретила сотрудникам использовать аналоги ChatGPT на служебных устройствах
02.05.2023 [07:47],
Алексей Разин
В начале прошлого месяца южнокорейский гигант Samsung Electronics уже выразил озабоченность фактами передачи сотрудниками конфиденциальной информации на серверы ChatGPT, а теперь персонал компании столкнулся с полным запретом на использование систем генеративного искусственного интеллекта на служебных устройствах. Даже использование чат-ботов на персональных устройствах рекомендовано ограничить. По информации Bloomberg, сотрудники Samsung Electronics получили рассылку с требованием не использовать на служебных устройствах инструменты для работы с ИИ типа ChatGPT, Google Bard и Microsoft Bing, поскольку передаваемая на серверы сторонних компаний информация может быть критически важной и секретной. Эти чат-боты запрещено использовать на любых устройствах, подключенных к корпоративной сети Samsung Electronics. Сотрудникам также рекомендовано тщательно следить за характером информации, передаваемой в такие системы с персональных устройств. Запрещается передавать с личных устройств сотрудников служебную информацию или персональные данные, связанные с интеллектуальной собственностью компании. Нарушителям грозят серьёзные меры воздействия вплоть до увольнения. По итогам проведённого в прошлом месяце опроса сотрудников Samsung выяснила, что 65 % респондентов считают использование инструментов для работы с ИИ потенциальным каналом утечки чувствительной информации. Руководство корейской корпорации готовит условия для безопасного использования подобных инструментов сотрудниками, но пока им придётся придерживаться предложенных ограничений. По всей видимости, Samsung хочет создать собственную систему генеративного искусственного интеллекта, которая поможет повысить производительность труда персонала. Растущая озабоченность клиентов в сфере информационной безопасности осознаётся и руководством OpenAI, которая запустила популярный чат-бот ChatGPT. В прошлом месяце в нём появилась функция «инкогнито», позволяющая блокировать содержимое чата от использования разработчиками для тренировки языковой модели. «Крёстный отец ИИ» ушёл из Google из-за этических проблем, связанных с ИИ
01.05.2023 [22:58],
Владимир Мироненко
Учёный в области информатики Джеффри Хинтон (Geoffrey Hinton, на фото ниже), которого называют «крёстным отцом ИИ», в апреле покинул пост вице-президента Google. Он сделал это, чтобы открыто предупредить общественность о рисках, связанных с использованием ИИ, а также в связи с тем, что отказ Google от своих прежних ограничений в отношении публичных выпусков ИИ из-за конкуренции с ChatGPT, Bing Chat и т.д. влечёт за собой множество этических проблем. В интервью ресурсу The New York Times Хинтон выразил обеспокоенность тем, что генеративный ИИ может привести к волне дезинформации. Возможно, вы «больше не сможете знать, что является правдой», говорит учёный. Он также утверждает, что ИИ не только позволит устранить «монотонную работу», но и полностью заменит некоторые рабочие места. Также у учёного вызывает тревогу возможность создания полностью автономного оружия на базе ИИ, и тенденция ИИ-моделей учиться «странному поведению» на основе обучающих данных. Хотя некоторые из поднятых им вопросов носят чисто теоретический характер, Хинтон опасается эскалации, связанной с развёртыванием ИИ, которую будет невозможно остановить без эффективных средств контроля или жёстких ограничений. Хинтон заявил, что его позиция по отношению к ИИ начала меняться в прошлом году, когда Google, OpenAI и другие компании начали создавать системы ИИ, порой превосходящие человеческий интеллект. В течение последних пяти лет ИИ получил стремительное развитие, и то, что может произойти в следующие пять лет, вызывает у учёного тревогу. Комментируя утверждения Хинтона, главный научный сотрудник Google Джефф Дин (Jeff Dean) сообщил ресурсу Engadget, что поисковый гигант по-прежнему придерживается «ответственного подхода» и следит за «возникающими рисками». Google приобрела стартап DNNresearch Джеффри Хинтона в 2013 году, и его наработки способствовали созданию генеративных технологии ИИ. В частности, Хинтон является одним из авторов метода обратного распространения ошибки для тренировки многослойной нейронной сети. Опасения Хинтона разделяет целый ряд влиятельных учёных и руководителей технологических фирм. Недавно Илон Маск (Elon Musk), Стив Возняк (Steve Wozniak), а также более 1000 других экспертов в области искусственного интеллекта и представителей IT-индустрии призвали в открытом письме ввести полугодовой мораторий на обучение ИИ-систем в связи с необходимостью решения этических проблем и вопросов обеспечения безопасности. Глава стартапа Genies ускорил работу сотрудников с помощью ИИ — всем купили подписку ChatGPT Plus
01.05.2023 [15:36],
Владимир Мироненко
Акаш Нигам (Akash Nigam) оформил для всех 120 работников стартапа Genies подписку на платную версию ИИ-бота ChatGPT Plus, и уже спустя месяц это заметно ускорило работу. Стартап Genies с рыночной стоимостью $1 млрд занимается созданием виртуальных аватаров, которые используют, в том числе, звёзды Джастин Бибер и Карди Би . Эксперимент с ИИ-ботом обходится компании в $2400 в месяц. Начиная с марта Нигам требует от сотрудников, чтобы те использовали ИИ-чат-бот в своей работе для автоматизации выполнения монотонных задач. Хотя прошёл всего месяц, как у сотрудников Genies появились учётные записи ChatGPT Plus, и не все пока его используют, Нигам заявил, что «уже видит, как многие задачи решаются быстрее». По его словам, в компании используют ChatGPT для получения ответов на вопросы, касающиеся математики, создания кодов и технологий, а также при отладке кода и создании сценариев для презентаций и творческих брифингов, в разработке юридических документов, таких как внутренние политики. Также ChatGPT оказался полезным при разработке плана компании с изложением её стратегии в отношении выпуска нового продукта. По словам Нигам, процесс составления плана «обычно требует много часов» мозгового штурма, но вместо этого ИИ-боту предоставили всю необходимую информацию, и попросили организовать её в виде диаграммы с делегированием задач соответствующим командам специалистов. ИИ-бот помог решить этот вопрос в кратчайшие сроки. Genies проводит неформальные семинары, на которых сотрудники делятся опытом использования ChatGPT с коллегами. Нигам планирует включить в следующем году информацию об использовании ChatGPT в отчёты сотрудников, и поощрять тех, кто эффективно использует ИИ в своей работе. ChatGPT набирает популярность в корпоративном сегменте. Например, в Amazon используют ИИ для разработки кода, ответов на вопросы клиентов и подготовки учебных материалов. Даже Microsoft разрешила сотрудникам использовать ChatGPT при условии, что те не будут делиться с ИИ конфиденциальной информацией. OpenAI пригрозила судом популярному проекту GPT4free из-за бесплатного использования GPT4 обходными путями
30.04.2023 [19:56],
Владимир Мироненко
Для доступа к новейшей языковой модели GPT4 необходимо или оформить платную подписку ChatGPT Plus, либо заплатить за доступ к API OpenAI. Но есть и проект ресурса GitHub под названием GPT4free, который предоставит доступ к моделям GPT4 и GPT3.5 без надобности платить за API. Xtekky, студент-компьютерщик, который управляет репозиторием, сообщил, что получил письмо OpenAI с требованием закрыть проект в течение 5 дней под угрозой судебного разбирательства. GPT4free позволяет пользователям получить бесплатный доступ к моделям GPT4 и GPT3.5, направляя эти запросы через такие сайты, как You.com, Quora и CoCalc, и предоставляя ответы. Проект стал самым популярным новым репозиторием GitHub, собрав на минувшей неделе 14 тыс. звёзд. Xtekky сообщил ресурсу Tom’s Hardware, что не думает, что OpenAI должна была выставлять требования к нему, поскольку GPT4free не подключается напрямую к её API, а вместо этого получает данные с других сайтов, которые оплачивают собственные лицензии на доступ к GPT. Если у владельцев этих сайтов возникли проблемы с его скриптами, запрашивающими их, они должны обратиться к нему напрямую, заявил автор проекта. Помимо You.com, Quora и CoCalc, в репозитории GPT4Free также есть скрипты для сбора данных с других сайтов, таких как Forefront и TheB. Любой разработчик может использовать эти простые скрипты для создания собственного бота. Все сайты, с которыми работает GPT4Free, платят лицензию OpenAI за использование его больших языковых моделей (LLM). Xtekky сказал, что готов удалять сценарии, использующие API отдельных сайтов, по запросу владельцев этих сайтов, добавив, что уже удалил скрипты, использующие phind.com, ora.sh и writesonic.com. Он отметил, любой из этих сайтов может блокировать внешнее использование своих внутренних API с помощью общих мер безопасности, например блокировать обращения к API с чужих IP-адресов. Xtekky заявил, что не считает себя ответственным за то, как другие используют его проект, и что OpenAI не должна преследовать его за использование API других сайтов, которые находятся в открытом доступе. Он также сообщил, что пока не решил, удалять ли свой GitHub-репозиторий, и обратился к юристам за консультацией. Разработчик подчеркнул, что любой может найти способы использовать API вышеуказанных сайтов, поскольку они по-прежнему не защищены. |
✴ Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»; |